socket阻塞与非阻塞,同步与异步

1. 概念理解html

     在进行网络编程时,咱们经常见到同步(Sync)/异步(Async),阻塞(Block)/非阻塞(Unblock)四种调用方式:mysql

 

同步/异步主要针对C端: 
同步:
      所谓同步,就是在c端发出一个功能调用时,在没有获得结果以前,该调用就不返回。也就是必须一件一件事作,等前一件作完了才能作下一件事。linux

 

例如普通B/S模式(同步):提交请求->等待服务器处理->处理完毕返回 这个期间客户端浏览器不能干任何事ajax

异步:
      异步的概念和同步相对。当c端一个异步过程调用发出后,调用者不能马上获得结果。实际处理这个调用的部件在完成后,经过状态、通知和回调来通知调用者。sql

     例如 ajax请求(异步): 请求经过事件触发->服务器处理(这是浏览器仍然能够做其余事情)->处理完毕数据库

 

阻塞/非阻塞主要针对S端:apache

阻塞
     阻塞调用是指调用结果返回以前,当前线程会被挂起(线程进入非可执行状态,在这个状态下,cpu不会给线程分配时间片,即线程暂停运行)。函数只有在获得结果以后才会返回。编程

 

     有人也许会把阻塞调用和同步调用等同起来,实际上他是不一样的。对于同步调用来讲,不少时候当前线程仍是激活的,只是从逻辑上当前函数没有返回而已。 例如,咱们在socket中调用recv函数,若是缓冲区中没有数据,这个函数就会一直等待,直到有数据才返回。而此时,当前线程还会继续处理各类各样的消息。数组

   快递的例子:好比到你某个时候到A楼一层(假如是内核缓冲区)取快递,可是你不知道快递何时过来,你又不能干别的事,只能死等着。但你能够睡觉(进程处于休眠状态),由于你知道快递把货送来时必定会给你打个电话(假定必定能叫醒你)。浏览器

 

非阻塞
      非阻塞和阻塞的概念相对应,指在不能马上获得结果以前,该函数不会阻塞当前线程,而会马上返回。

     仍是等快递的例子:若是用忙轮询的方法,每隔5分钟到A楼一层(内核缓冲区)去看快递来了没有。若是没来,当即返回。而快递来了,就放在A楼一层,等你去取。


对象的阻塞模式和阻塞函数调用
对象是否处于阻塞模式和函数是否是阻塞调用有很强的相关性,可是并非一一对应的。阻塞对象上能够有非阻塞的调用方式,咱们能够经过必定的API去轮询状 态,在适当的时候调用阻塞函数,就能够避免阻塞。而对于非阻塞对象,调用特殊的函数也能够进入阻塞调用。函数select就是这样的一个例子。

 

(c端调用者) 2. 异步,就是我(c端调用者)即回调通知。

同步/异步主要针对C端, 可是跟S端不是彻底没有关系,同步/异步机制必须S端配合才能实现.同步/异步是由c端本身控制,可是S端是否阻塞/非阻塞, C端彻底不须要关心.


3. 阻塞,      就是调用我函数),我(s端被调用者,函数)没有接收完数据或者没有获得结果以前,我不会返回。
4. 非阻塞,  就是调用我),我)当即返回,经过select通知调用者

 

同步和异步都只针对于本机SOCKET而言的。

同步和异步,阻塞和非阻塞,有些混用,其实它们彻底不是一回事,并且它们修饰的对象也不相同。
阻塞和非阻塞是指当server端的进程访问的数据若是还没有就绪,进程是否须要等待,简单说这至关于函数内部的实现区别,也就是未就绪时是直接返回仍是等待就绪;

 

Node.js里面的描述:

 

[html] view plain copy print?在CODE上查看代码片派生到个人代码片

  1. 线程在执行中若是遇到磁盘读写或网络通讯(统称为I/O 操做),一般要耗费较长的时间,这时操做系统会剥夺这个线程的CPU 控制权,使其暂停执行,同时将资源让给其余的工做线程,这种线程调度方式称为 阻塞。当I/O 操做完毕时,操做系统将这个线程的阻塞状态解除,恢复其对CPU的控制权,令其继续执行。这种I/O 模式就是一般的同步式I/O(Synchronous I/O)或阻塞式I/O (Blocking I/O)。  
  2.  相应地,异步式I/O (Asynchronous I/O)或非阻塞式I/O (Non-blocking I/O)则针对全部I/O 操做不采用阻塞的策略。当线程遇到I/O 操做时,不会以阻塞的方式等待I/O 操做的完成或数据的返回,而只是将I/O 请求发送给操做系统,继续执行下一条语句。当操做系统完成I/O 操做时,以事件的形式通知执行I/O 操做的线程,线程会在特定时候处理这个事件。为了处理异步I/O,线程必须有事件循环,不断地检查有没有未处理的事件,依次予以处理。阻塞模式下,一个线程只能处理一项任务,要想提升吞吐量必须经过多线程。而非阻塞模式下,一个线程永远在执行计算操做,<span style="color:#ff0000;">这个线程所使用的CPU 核心利用率永远是100%</span>,I/O 以事件的方式通知。<span style="color:#ff0000;">在阻塞模式下,多线程每每能提升系统吞吐量,由于一个线程阻塞时还有其余线程在工做,多线程可让CPU 资源不被阻塞中的线程浪费。</span>而在非阻塞模式下,线程不会被I/O 阻塞,永远在利用CPU。多线程带来的好处仅仅是在多核CPU 的状况下利用更多的核,而Node.js的单线程也能带来一样的好处。这就是为何Node.js 使用了单线程、非阻塞的事件编程模式。  

 

2. Linux下的五种I/O模型

阻塞I/O模型:

        一直阻塞      应用程序调用一个IO函数,致使应用程序阻塞,等待数据准备好。 若是数据没有准备好,一直等待….数据准备好了,从内核拷贝到用户空间,IO函数返回成功指示。

咱们 第一次接触到的网络编程都是从 listen()、send()、recv()等接口开始的。使用这些接口能够很方便的构建服务器 /客户机的模型。

在调用recv()/recvfrom()函数时,发生在内核中等待数据和复制数据的过程。

当调用recv()函数时,系统首先查是否有准备好的数据。若是数据没有准备好,那么系统就处于等待状态。当数据准备好后,将数据从系统缓冲区复制到用户空间,而后该函数返回。在套接应用程序中,当调用recv()函数时,未必用户空间就已经存在数据,那么此时recv()函数就会处于等待状态。

     当使用socket()函数和WSASocket()函数建立套接字时,默认的套接字都是阻塞的。这意味着当调用Windows Sockets API不能当即完成时,线程处于等待状态,直到操做完成。

    并非全部Windows Sockets API以阻塞套接字为参数调用都会发生阻塞。例如,以阻塞模式的套接字为参数调用bind()、listen()函数时,函数会当即返回。将可能阻塞套接字的Windows Sockets API调用分为如下四种:

    1.输入操做: recv()、recvfrom()、WSARecv()和WSARecvfrom()函数。以阻塞套接字为参数调用该函数接收数据。若是此时套接字缓冲区内没有数据可读,则调用线程在数据到来前一直睡眠。

    2.输出操做: send()、sendto()、WSASend()和WSASendto()函数。以阻塞套接字为参数调用该函数发送数据。若是套接字缓冲区没有可用空间,线程会一直睡眠,直到有空间。

    3.接受链接:accept()和WSAAcept()函数。以阻塞套接字为参数调用该函数,等待接受对方的链接请求。若是此时没有链接请求,线程就会进入睡眠状态。

   4.外出链接:connect()和WSAConnect()函数。对于TCP链接,客户端以阻塞套接字为参数,调用该函数向服务器发起链接。该函数在收到服务器的应答前,不会返回。这意味着TCP链接总会等待至少到服务器的一次往返时间。

阻塞模式套接字的不足表现为,在大量创建好的套接字线程之间进行通讯时比较困难。当使用“生产者-消费者”模型开发网络程序时,为每一个套接字都分别分配一个读线程、一个处理数据线程和一个用于同步的事件,那么这样无疑加大系统的开销。其最大的缺点是当但愿同时处理大量套接字时,将无从下手,其扩展性不好.

      阻塞模式给网络编程带来了一个很大的问题,如在调用 send()的同时,线程将被阻塞,在此期间,线程将没法执行任何运算或响应任何的网络请求。这给多客户机、多业务逻辑的网络编程带来了挑战。这时,咱们可能会选择多线程的方式来解决这个问题。

 

       应对多客户机的网络应用,最简单的解决方式是在服务器端使用多线程(或多进程)。多线程(或多进程)的目的是让每一个链接都拥有独立的线程(或进程),这样任何一个链接的阻塞都不会影响其余的链接。

       具体使用多进程仍是多线程,并无一个特定的模式。传统意义上,进程的开销要远远大于线程,因此,若是须要同时为较多的客户机提供服务,则不推荐使用多进程;若是单个服务执行体须要消耗较多的 CPU 资源,譬如须要进行大规模或长时间的数据运算或文件访问,则进程较为安全。一般,使用 pthread_create () 建立新线程,fork() 建立新进程。

      多线程/进程服务器同时为多个客户机提供应答服务。模型以下:

       

    主线程持续等待客户端的链接请求,若是有链接,则建立新线程,并在新线程中提供为前例一样的问答服务。

 

      上述多线程的服务器模型彷佛完美的解决了为多个客户机提供问答服务的要求,但其实并不尽然。若是要同时响应成百上千路的链接请求,则不管多线程仍是多进程都会严重占据系统资源,下降系统对外界响应效率,而线程与进程自己也更容易进入假死状态。

       由此可能会考虑使用“线程池”或“链接池”。“线程池”旨在减小建立和销毁线程的频率,其维持必定合理数量的线程,并让空闲的线程从新承担新的执行任务。“链接池”维持链接的缓存池,尽可能重用已有的链接、减小建立和关闭链接的频率。这两种技术均可以很好的下降系统开销,都被普遍应用不少大型系统,如apache,MySQL数据库等。

      可是,“线程池”和“链接池”技术也只是在必定程度上缓解了频繁调用 IO 接口带来的资源占用。并且,所谓“池”始终有其上限,当请求大大超过上限时,“池”构成的系统对外界的响应并不比没有池的时候效果好多少。因此使用“池”必须考虑其面临的响应规模,并根据响应规模调整“池”的大小。

      对应上例中的所面临的可能同时出现的上千甚至上万次的客户端请求,“线程池”或“链接池”或许能够缓解部分压力,可是不能解决全部问题。

非阻塞IO模型 :

 

       屡次系统调用,并立刻返回在数据拷贝的过程当中,进程是阻塞的;

       

       咱们把一个SOCKET接口设置为非阻塞就是告诉内核,当所请求的I/O操做没法完成时,不要将进程睡眠,而是返回一个错误。这样咱们的I/O操做函数将不断的测试数据是否已经准备好,若是没有准备好,继续测试,直到数据准备好为止。在这个不断测试的过程当中,会大量的占用CPU的时间。

    把SOCKET设置为非阻塞模式,即通知系统内核:在调用Windows Sockets API时,不要让线程睡眠,而应该让函数当即返回。在返回时,该函数返回一个错误代码。图所示,一个非阻塞模式套接字屡次调用recv()函数的过程。前三次调用recv()函数时,内核数据尚未准备好。所以,该函数当即返回WSAEWOULDBLOCK错误代码。第四次调用recv()函数时,数据已经准备好,被复制到应用程序的缓冲区中,recv()函数返回成功指示,应用程序开始处理数据。

     当使用socket()函数和WSASocket()函数建立套接字时,默认都是阻塞的。在建立套接字以后,经过调用ioctlsocket()函数,将该套接字设置为非阻塞模式。Linux下的函数是:fcntl().
    套接字设置为非阻塞模式后,在调用Windows Sockets API函数时,调用函数会当即返回。大多数状况下,这些函数调用都会调用“失败”,并返回WSAEWOULDBLOCK错误代码。说明请求的操做在调用期间内没有时间完成。一般,应用程序须要重复调用该函数,直到得到成功返回代码。

    须要说明的是并不是全部的Windows Sockets API在非阻塞模式下调用,都会返回WSAEWOULDBLOCK错误。例如,以非阻塞模式的套接字为参数调用bind()函数时,就不会返回该错误代码。固然,在调用WSAStartup()函数时更不会返回该错误代码,由于该函数是应用程序第一调用的函数,固然不会返回这样的错误代码。

    要将套接字设置为非阻塞模式,除了使用ioctlsocket()函数以外,还可使用WSAAsyncselect()和WSAEventselect()函数。当调用该函数时,套接字会自动地设置为非阻塞方式。

    要完成这样的操做,有人使用MSG_PEEK标志调用recv()函数查看缓冲区中是否有数据可读。一样,这种方法也很差。由于该作法对系统形成的开销是很大的,而且应用程序至少要调用recv()函数两次,才能实际地读入数据。较好的作法是,使用套接字的“I/O模型”来判断非阻塞套接字是否可读可写。

    非阻塞模式套接字与阻塞模式套接字相比,不容易使用。使用非阻塞模式套接字,须要编写更多的代码,以便在每一个Windows Sockets API函数调用中,对收到的WSAEWOULDBLOCK错误进行处理。所以,非阻塞套接字便显得有些难于使用。

    可是,非阻塞套接字在控制创建的多个链接,在数据的收发量不均,时间不定时,明显具备优点。这种套接字在使用上存在必定难度,但只要排除了这些困难,它在功能上仍是很是强大的。一般状况下,可考虑使用套接字的“I/O模型”,它有助于应用程序经过异步方式,同时对一个或多个套接字的通讯加以管理。

        I/O复用模型会用到select、poll、epoll函数,这几个函数也会使进程阻塞,可是和阻塞I/O所不一样的的,这两个函数能够同时阻塞多个I/O操做。并且能够同时对多个读操做,多个写操做的I/O函数进行检测,直到有数据可读或可写时,才真正调用I/O操做函数。

 

    两次调用,两次返回;

    首先咱们容许套接口进行信号驱动I/O,并安装一个信号处理函数,进程继续运行并不阻塞。当数据准备好时,进程会收到一个SIGIO信号,能够在信号处理函数中调用I/O操做函数处理数据。

  简介:数据拷贝的时候进程无需阻塞。

     当一个异步过程调用发出后,调用者不能马上获得结果。实际处理这个调用的部件在完成后,经过状态、通知和回调来通知调用者的输入输出操做

5个I/O模型的比较:

 

3. select、poll、epoll简介

.NET/hguisu/article/details/38638183#t5

 

epoll模型:http://blog.csdn.Net/hguisu/article/details/38638183#t12

epoll跟select都能提供多路I/O复用的解决方案。在如今的Linux内核里有都可以支持,其中epoll是Linux所特有,而select则应该是POSIX所规定,通常操做系统均有实现

 

select:

select本质上是经过设置或者检查存放fd标志位的数据结构来进行下一步处理。这样所带来的缺点是:

一、 单个进程可监视的fd数量被限制,即能监听端口的大小有限。

      通常来讲这个数目和系统内存关系很大,具体数目能够cat /proc/sys/fs/file-max察看。32位机默认是1024个。64位机默认是2048.

二、 对socket进行扫描时是线性扫描,即采用轮询的方法,效率较低:

       当套接字比较多的时候,每次select()都要经过遍历FD_SETSIZE个Socket来完成调度,无论哪一个Socket是活跃的,都遍历一遍。这会浪费不少CPU时间。若是能给套接字注册某个回调函数,当他们活跃时,自动完成相关操做,那就避免了轮询,这正是epoll与kqueue作的。

三、须要维护一个用来存放大量fd的数据结构,这样会使得用户空间和内核空间在传递该结构时复制开销大

poll:

poll本质上和select没有区别,它将用户传入的数组拷贝到内核空间,而后查询每一个fd对应的设备状态,若是设备就绪则在设备等待队列中加入一项并继续遍历,若是遍历完全部fd后没有发现就绪设备,则挂起当前进程,直到设备就绪或者主动超时,被唤醒后它又要再次遍历fd。这个过程经历了屡次无谓的遍历。

它没有最大链接数的限制,缘由是它是基于链表来存储的,可是一样有一个缺点:

一、大量的fd的数组被总体复制于用户态和内核地址空间之间,而无论这样的复制是否是有意义。                                                                                                                                      二、poll还有一个特色是“水平触发”,若是报告了fd后,没有被处理,那么下次poll时会再次报告该fd。

epoll:

epoll支持水平触发和边缘触发,最大的特色在于边缘触发,它只告诉进程哪些fd刚刚变为就需态,而且只会通知一次。还有一个特色是,epoll使用“事件”的就绪通知方式,经过epoll_ctl注册fd,一旦该fd就绪,内核就会采用相似callback的回调机制来激活该fd,epoll_wait即可以收到通知

即Epoll最大的优势就在于它只管你“活跃”的链接,而跟链接总数无关,所以在实际的网络环境中,Epoll的效率就会远远高于select和poll。

三、 内存拷贝,利用mmap()文件映射内存加速与内核空间的消息传递;即epoll使用mmap减小复制开销。

select、poll、epoll 区别总结:

一、支持一个进程所能打开的最大链接数

select

单个进程所能打开的最大链接数有FD_SETSIZE宏定义,其大小是32个整数的大小(在32位的机器上,大小就是32*32,同理64位机器上FD_SETSIZE为32*64),固然咱们能够对进行修改,而后从新编译内核,可是性能可能会受到影响,这须要进一步的测试。

poll

poll本质上和select没有区别,可是它没有最大链接数的限制,缘由是它是基于链表来存储的

epoll

虽然链接数有上限,可是很大,1G内存的机器上能够打开10万左右的链接,2G内存的机器能够打开20万左右的链接

二、FD剧增后带来的IO效率问题

select

由于每次调用时都会对链接进行线性遍历,因此随着FD的增长会形成遍历速度慢的“线性降低性能问题”。

poll

同上

epoll

由于epoll内核中实现是根据每一个fd上的callback函数来实现的,只有活跃的socket才会主动调用callback,因此在活跃socket较少的状况下,使用epoll没有前面二者的线性降低的性能问题,可是全部socket都很活跃的状况下,可能会有性能问题。

三、 消息传递方式

select

内核须要将消息传递到用户空间,都须要内核拷贝动做

poll

同上

epoll

epoll经过内核和用户空间共享一块内存来实现的。

总结:

综上,在选择select,poll,epoll时要根据具体的使用场合以及这三种方式的自身特色。

一、表面上看epoll的性能最好,可是在链接数少而且链接都十分活跃的状况下,select和poll的性能可能比epoll好,毕竟epoll的通知机制须要不少函数回调。

二、 同步/异步与阻塞/非阻塞常常看到是成对出现:

同步阻塞,异步非阻塞,同步非阻塞

相关文章
相关标签/搜索