5种网络通讯设计模型(也称IO模型)

一、基本概念

同步:同步函数通常指调用函数后,等到函数功能实现再返回,期间一直霸占的CPU,等待期间同一个线程没法执行其余函数数组

异步:异步函数指调用函数后,无论函数功能是否实现,立马返回;经过回调函数等告知函数功能完成网络

阻塞:调用某些函数阻塞是由于函数功能没有实现,主动放弃CPU,让其余线程的得以执行;当功能实现后,函数返回数据结构

非阻塞:调用某些函数不会进入阻塞,不管实现与否,都会返回结果并发

 

二、5种 IO 模型

阻塞模型

应用程序调用一个IO函数,致使应用程序阻塞,等待数据准备好。 若是数据没有准备好,一直等待框架

特色:

  当但愿可以当即发送和接收数据,且处理的套接字数量比较少的状况下,使用阻塞模式来开发网络程序比较合适。异步

  阻塞模式套接字的不足表现为,在大量创建好的套接字线程之间进行通讯时比较困难。当使用“生产者-消费者”模型开发网络程序时,为每一个套接字都分别分配一个读线程、一个处理数据线程和一个用于同步的事件,那么这样无疑加大系统的开销。其最大的缺点是当但愿同时处理大量套接字时,将无从下手,其扩展性不好socket

 

非阻塞模型

程序框架以下:函数

while true {
    for i in stream[]
    {
        if i has data
        read until unavailable
    }
}

 

特色:

  不像阻塞模型须要为每一个socket建立一个线程,非阻塞只须要一个线程,可是会一直占用CPU性能

 

复用模型

      I/O复用模型会用到select、poll、epoll函数,这几个函数也会使进程阻塞(根据实参规定最长进入阻塞时间,是否进入阻塞),可是和阻塞I/O所不一样的的,这些函数能够同时阻塞多个I/O操做。并且能够同时对多个读操做、多个写操做的I/O函数进行检测,直到有数据可读或可写时,才真正调用I/O操做函数。测试

epoll跟select都能提供多路I/O复用的解决方案。在如今的Linux内核里有都可以支持,其中epoll是Linux所特有,而select则应该是POSIX所规定,通常操做系统均有实现

 

select:

程序框架以下:

while true {
    select(streams[])
    for i in streams[] {
        if i has data
            read until unavailable
    }
}

 

select本质上是经过设置或者检查存放fd标志位的数据结构来进行下一步处理。这样所带来的缺点是:

一、 单个进程可监视的fd数量被限制,即能监听端口的大小有限。

      通常来讲这个数目和系统内存关系很大,具体数目能够cat /proc/sys/fs/file-max察看。32位机默认是1024个。64位机默认是2048.

二、 对socket进行扫描时是线性扫描,即采用轮询的方法,效率较低:

       由于select()只会告诉咱们有套接字可读或可写,没有指明是哪一个套接字的哪一个事件发生,因此须要遍历每一个套接字,时间复杂度是O(n)。若是能给套接字注册某个回调函数,当他们活跃时,自动完成相关操做,那就避免了轮询,这正是epoll与kqueue作的。

三、须要维护一个用来存放大量fd的数据结构,这样会使得用户空间和内核空间在传递该结构时复制开销大

poll:(有待从新组织语言)

poll本质上和select没有区别,它将用户传入的数组拷贝到内核空间,而后查询每一个fd对应的设备状态,若是设备就绪则在设备等待队列中加入一项并继续遍历,若是遍历完全部fd后没有发现就绪设备,则挂起当前进程,直到设备就绪或者主动超时,被唤醒后它又要再次遍历fd。这个过程经历了屡次无谓的遍历。

它没有最大链接数的限制,缘由是它是基于链表来存储的,可是一样有一个缺点:

一、大量的fd的数组被总体复制于用户态和内核地址空间之间,而无论这样的复制是否是有意义。

二、poll还有一个特色是“水平触发”,若是报告了fd后,没有被处理,那么下次poll时会再次报告该fd。

epoll:

程序框架以下;

while true {
    active_stream[] = epoll_wait(epollfd)
    for i in active_stream[] {
        read or write till unavailable
    }
}

 

epoll支持水平触发和边缘触发,最大的特色在于边缘触发,它只告诉进程哪些fd刚刚变为就需态,而且只会通知一次。还有一个特色是,epoll使用“事件”的就绪通知方式,经过epoll_ctl注册fd,一旦该fd就绪,内核就会采用相似callback的回调机制来激活该fd,epoll_wait即可以收到通知

epoll的优势:

一、相比于select,没有最大并发链接的限制,能打开的FD的上限远大于1024(1G的内存上能监听约10万个端口);
二、效率提高,不是无差异轮询的方式,不会随着FD数目的增长效率降低。只有活跃可用的FD才会调用callback函数,时间复杂度为O(k),k为产生I/O事件的流的个数
      即Epoll最大的优势就在于它只管你“活跃”的链接,而跟链接总数无关,所以在实际的网络环境中,Epoll的效率就会远远高于select和poll。
三、 内存拷贝,利用mmap()文件映射内存加速与内核空间的消息传递;即epoll使用mmap减小复制开销。

select、poll、epoll 区别总结:

 

一、一个进程所能打开的最大链接数

select

单个进程所能打开的最大链接数由FD_SETSIZE宏定义,其大小是32个整数的大小(在32位的机器上,大小就是32*32,同理64位机器上FD_SETSIZE为32*64),固然咱们能够对进行修改,而后从新编译内核,可是性能可能会受到影响,这须要进一步的测试。

poll

poll本质上和select没有区别,可是它没有最大链接数的限制,缘由是它是基于链表来存储的

epoll

虽然链接数有上限,可是很大,1G内存的机器上能够打开10万左右的链接,2G内存的机器能够打开20万左右的链接

二、FD剧增后带来的IO效率问题

select

由于每次调用时都会对链接进行线性遍历,因此随着FD的增长会形成遍历速度慢的“线性降低性能问题”。

poll

同上

epoll

由于epoll内核中实现是根据每一个fd上的callback函数来实现的,只有活跃的socket才会主动调用callback,因此在活跃socket较少的状况下,使用epoll没有前面二者的线性降低的性能问题,可是全部socket都很活跃的状况下,可能会有性能问题。

三、 消息传递方式

select

内核须要将消息传递到用户空间,都须要内核拷贝动做

poll

同上

epoll

epoll经过内核和用户空间共享一块内存来实现的。

总结:

综上,在选择select,poll,epoll时要根据具体的使用场合以及这三种方式的自身特色。

一、表面上看epoll的性能最好,可是在链接数少而且链接都十分活跃的状况下,select和poll的性能可能比epoll好,毕竟epoll的通知机制须要不少函数回调

二、select低效是由于每次它都须要轮询。但低效也是相对的,视状况而定,也可经过良好的设计改善

三、epoll 能显著提升程序在大量并发链接中只有少许活跃的状况下的系统CPU利用率

 

信号驱动模型

    首先咱们容许套接口进行信号驱动I/O,并安装一个信号处理函数,进程继续运行并不阻塞。当数据准备好时,进程会收到一个SIGIO信号,能够在信号处理函数中调用I/O操做函数处理数据。

 

异步模型

  简介:数据拷贝的时候进程无需阻塞。

     当一个异步过程调用发出后,调用者不能马上获得结果。实际处理这个调用的部件在完成后,经过状态、通知和回调来通知调用者的输入输出操做

 

比较

相关文章
相关标签/搜索