http://blog.csdn.net/jay900323/article/details/18141217html
http://blog.csdn.net/jay900323/article/details/18140847web
重叠I/O模型的另外几个优势在于,微软针对重叠I/O模型提供了一些特有的扩展函数。当使用重叠I/O模型时,能够选择使用不一样的完成通知方式。 ajax
采用事件对象通知的重叠I/O模型是不可伸缩的,由于针对发出WSAWaitForMultipleEvents调用的每一个线程,该I/O模型一次最多都只能支持6 4个套接字。假如想让这个模型同时管理不止64个套接字,必须建立额外的工做者线程,以便等待更多的事件对象。由于操做系统同时可以处理的事件对象是有限的,因此基于事件对象的I/O模型不具有伸缩性。 使用完成例程通知的重叠I/O模型,由于如下几个缘由,也不是开发高性能服务器的最佳选择。首先,许多扩展功能不容许使用APC(Asyncroneus Procedure Call,异步过程调用)完成通知。其次,因为APC在系统内部特有的处理机制,应用程序线程可能无限等待而得不到完成通知。当一个线程处于“可警告状态”时,全部挂起的APC按照先进先出的顺序(FIFO)接受处理。如今考虑这样一种状况,服务器已经创建起了一个链接,而且调用含有完成例程指针的WSARecv投递了一个重叠I/O请求。当有数据到达时(即I/O完成时),完成例程执行而且再次调用WSARecv抛出另一个重叠I/O请求。一个APC抛出的I/O操做须要必定的时间才能完成,因此这期间可能另一个完成例程等待执行(好比本次WSARecv还没接收完时,又有一个新的客户接入并发来数据),由于还有更多的数据须要读取(上一个客户发来的数据还没有读完)。只要(投递WSARecv的)那个套接字上还有“未决”(未接收完)的数据,就会致使调用线程长久阻塞。 基于完成端口通知的重叠I/O模型是Windows NT系统提供的一个真正支持高伸缩性的I/O模型。在上一章中,探讨了Winsock几种常见的I/O模型,而且说明了当应对大规模客户链接时,完成端口是最佳的选择,由于它提供了最好的伸缩性。 对不一样Winsock I/O模型的性能测试结果如图1所示。其中服务器采用Pentium 4 1.7 GHz Xeon的CPU,768M内存;客户端有3台PC,配置分别是Pentium 2 233MHz ,128 MB 内存,Pentium 2 350 MHz ,128 MB内存,Itanium 733 MHz ,1 GB内存。服务器、客户端安装的操做系统都是Windows XP。算法
图1 不一样I/O模型的性能比较 数据库
1.分析图表1提供的测试结果可知,在所用的I/O模型中,阻塞模式性能最差。这个测试程序中,服务器为每一个客户建立两个线程:一个负责处理数据的接收,一个负责处理数据的发送。在屡次测试中的共同问题就是,阻塞模式难以应对大规模的客户链接,由于它在建立线程上耗费了太多的系统资源。所以,服务器建立太多的线程后,再调用CreateThread函数时,将返回ERROR_NOT_ENOUGH_MEMORY的错误,这个错误码提示内存不够。那些发出链接请求的客户则收到WSAECONNREFUSED的错误提示,表示链接的尝试被拒绝。 让咱们来看看监听函数listen,其原型以下: WINSOCK_API_LINKAGE int WSAAPI listen(SOCKET s, int backlog ); 参数一s已绑定了地址的监听套接字。 参数二backlog指定了正在等待链接的最大队列长度。 参数backdog很是重要, 由于彻底可能同时出现几个对服务器的链接请求。例如,假定backlog参数为2时有三个客户机同时发出链接请求,那么前两个会被放在一个“等待处理”队列中,以便应用程序依次为它们提供服务。而第三个链接的请求就会形成一个WSAECONNREFUSED错误。一旦服务器接受了一个链接请求,那个链接请求就会从队列中删去,以即可以继续接收其余客户发出的链接请求。即当一个链接请求到来时队列已满,那么客户将收到一个WSAECONNREFUSED错误。而backlog参数自己的大小就存在着限制,这个限制是由协议提供者决定的。 故阻塞模式下,因为系统资源的限制,其并发处理量是极难突破的。 编程
2.非阻塞模式表现出的性能要比阻塞模式稍好,可是占用了太多的CPU处理时间。测试服务器将全部客户对应的socket分类放到FD_SET集合中,而后调用select函数筛选出对应集合中有事件发生的socket,并对集合更新。接下来调用FD_ISSET宏从新判断一个套接字是否在原来加入的FD_SET集合中。随着客户链接数量的增多,这种模型的局限性逐渐凸现。仅仅为了判断一个套接字是否有网络事件发生,就须要对集合FD_SET执行一次遍历!使用迭代搜索来对select更新的FD_SET进行扫描,性能能够获得一些提高。瓶颈在于,服务器必须可以很快地扫描出FD_SET集合中的有网络事件发生的套接字的相关信息。针对这个问题,可使用更复杂的扫描算法,如哈希搜索,它的效率是极高的。还须要注意的一个问题就是,非分页池(即直接在物理内存中分配的内存)的使用极高。这是由于AFD(Ancillary Function Driver,由afd.sys提供的支持Windows Sockets应用程序的底层驱动程序,其中运行在内核模式下afd.sys驱动程序主要管理Winsock TCP/IP通讯)和TCP都将使用I/O缓存,由于服务器读取数据的速度是有限的,相对于CPU的处理速度而言,I/O基本是零字节的吞吐量。 数组
3.基于Windows消息机制的WSAAsyncSelect模型可以处理必定的客户链接量,可是扩展性也不是很好。由于消息泵很快就会阻塞,下降了消息处理的速度。在几回测试中,服务器只能处理大约1/3的客户端链接。过多的客户端链接请求都将返回错误提示码WSAECONNREFUSED,说明服务器不能及时处理FD_ACCEPT消息致使链接失败,这样监听队列中待处理的链接请求不致于爆满。然而,经过上表中的数据能够发现,对那些已经创建的链接,其平均吞吐量也是极低的(即便对于那些对比特率进行了限制的客户也如此)。 浏览器
4.基于事件通知的WSAEventSelect模型表现得出奇的不错。在全部的测试中,大多数时候,服务器基本可以处理全部的客户链接,而且保持着较高的数据吞吐量。这种模型的缺点是,每当有一个新链接时,须要动态管理线程池,由于每一个线程只可以等待64个事件对象。当客户链接量超过64个后再有新客户接入时,须要建立新的线程。在最后一次测试中,创建起了超过45,000个的客户链接后,系统响应速度变得很是缓慢。这时因为为处理大规模的客户链接建立了大量的线程,占用了过多的系统资源。791个线程基本达到了极限,服务器不能再接受更多的链接了,缘由是WSAENOBUFS:无可用的缓冲区空间,套接字没法建立。另外,客户端程序也达到了极限,不能维持已经创建的链接。 使用事件通知的重叠I/O模型和WSAEventSelect模型在伸缩性上差很少。这两种模型都依赖于等待事件通知的线程池,处理客户通讯时,大量线程上下文的切换是它们共同的制约因素。重叠I/O模型和WSAEventSelect模型的测试结果很类似,都表现得不错,直到线程数量超过极限。 缓存
5.最后是针对基于完成端口通知的重叠I/O模型的性能测试,由上表中数据能够看出,它是全部I/O模型中性能最佳的。内存使用率(包括用户分页池和非分页池)和支持的客户链接量与基于事件通知的重叠I/O模型和WSAEventSelect模型基本相同。真正不一样的地方,在于对CPU的占用。完成端口模型只占用了60%的CPU,可是在维持一样规模的链接量时,另外两种模型(基于事件通知的重叠I/O模型和WSAEventSelect模型)占用更多的CPU。完成端口的另一个明显的优点是,它维持更大的吞吐量。 对以上各类模型进行分析后,能够会发现客户端与服务器数据通讯机制自己存在的缺陷是一个瓶颈。在以上测试中,服务器被设计成只作简单的回应,即只是将客户端发送过来的数据发送回去。客户端(即便有比特率限制)不停的发送数据给服务器,这致使大量数据阻塞在服务器上与这个客户端对应的套接字上(不管是TCP缓冲区仍是AFD的单套接字缓冲区,它们都是在非分页池上)。在最后三种性能比较好的模型中,同一时间只能执行一个接受输入操做,这意味着在大多数时间,仍是有不少数据处于“未决”状态。能够修改服务器程序使其以异步方式接受数据,这样一旦有数据达到,须要将数据缓存起来。这种方案的缺点是,当一个客户连续发送数据时,异步接受到了大量的数据。这会致使其余的客户没法接入,由于调用线程和工做者线程都不能处理其余的事件或完成通知。一般状况下,调用非阻塞异步接收函数,先返回WSAEWOULDBLOCK,而后数据间断性的传输,而不采起连续接收的方式。 从以上测试结果,能够看出WSAEventSelect模型和重叠I/O模型是性能表现最佳的。两种基于事件通知的模型中,建立线程池来等待事件完成通知并做后续处理是很繁琐的,可是并不影响以它们来架构中型服务器的良好性能。当线程的数量随着客户端链接数量而逐增时,CPU将花费大量时间在线程的上下文切换上,这将影响服务器的伸缩性,由于链接量达到必定数量后,便饱和了。完成端口模型提供了最佳的可扩展性,由于CPU使用率低,其支持的客户链接量相对其余模型最多。 I/O模型的选择 经过上一节对各类模型的测试分析,对于如何挑选最适合本身应用程序的I/O模型已经很明晰了。同开发一个简单的运行多线程的锁定模式应用相比,其余每种I/O模型都须要更为复杂的编程工做。所以,针对客户机和服务器应用开发模型的选择,有如下原则。 1. 客户端 若打算开发一个客户机应用,令其同时管理一个或多个套接字,那么建议采用重叠I/O或WSAEventSelect模型,以便在必定程度上提高性能。然而,假如开发的是一个以Windows为基础的应用程序,要进行窗口消息的管理,那么WSAAsyncSelect模型恐怕是一种最好的选择,由于WSAAsyncSelect自己即是从Windows消息模型借鉴来的。采用这种模型,程序需具有消息处理功能。 2. 服务器端 若开发的是一个服务器应用,要在一个给定的时间,同时控制多个套接字,建议采用重叠I/O模型,这一样是从性能角度考虑的。可是,若是服务器在任何给定的时间,都会为大量I/O请求提供服务,便应考虑使用I/O完成端口模型,从而得到更佳的性能。安全
做者:huangguisu
1. 概念理解
在进行网络编程时,咱们经常见到同步(Sync)/异步(Async),阻塞(Block)/非阻塞(Unblock)四种调用方式:
同步:
所谓同步,就是在发出一个功能调用时,在没有获得结果以前,该调用就不返回。也就是必须一件一件事作,等前一件作完了才能作下一件事。
例如普通B/S模式(同步):提交请求->等待服务器处理->处理完毕返回 这个期间客户端浏览器不能干任何事
异步:
异步的概念和同步相对。当一个异步过程调用发出后,调用者不能马上获得结果。实际处理这个调用的部件在完成后,经过状态、通知和回调来通知调用者。
例如 ajax请求(异步): 请求经过事件触发->服务器处理(这是浏览器仍然能够做其余事情)->处理完毕
阻塞
阻塞调用是指调用结果返回以前,当前线程会被挂起(线程进入非可执行状态,在这个状态下,cpu不会给线程分配时间片,即线程暂停运行)。函数只有在获得结果以后才会返回。
有人也许会把阻塞调用和同步调用等同起来,实际上他是不一样的。对于同步调用来讲,不少时候当前线程仍是激活的,只是从逻辑上当前函数没有返回而已。 例如,咱们在socket中调用recv函数,若是缓冲区中没有数据,这个函数就会一直等待,直到有数据才返回。而此时,当前线程还会继续处理各类各样的消息。
非阻塞
非阻塞和阻塞的概念相对应,指在不能马上获得结果以前,该函数不会阻塞当前线程,而会马上返回。
对象的阻塞模式和阻塞函数调用
对象是否处于阻塞模式和函数是否是阻塞调用有很强的相关性,可是并非一一对应的。阻塞对象上能够有非阻塞的调用方式,咱们能够经过必定的API去轮询状 态,在适当的时候调用阻塞函数,就能够避免阻塞。而对于非阻塞对象,调用特殊的函数也能够进入阻塞调用。函数select就是这样的一个例子。
1. 同步,就是我调用一个功能,该功能没有结束前,我死等结果。
2. 异步,就是我调用一个功能,不须要知道该功能结果,该功能有结果后通知我(回调通知)
3. 阻塞, 就是调用我(函数),我(函数)没有接收完数据或者没有获得结果以前,我不会返回。
4. 非阻塞, 就是调用我(函数),我(函数)当即返回,经过select通知调用者
同步IO和异步IO的区别就在于:数据拷贝的时候进程是否阻塞!
阻塞IO和非阻塞IO的区别就在于:应用程序的调用是否当即返回!
对于举个简单c/s 模式:
同步和异步,阻塞和非阻塞,有些混用,其实它们彻底不是一回事,并且它们修饰的对象也不相同。 阻塞和非阻塞是指当进程访问的数据若是还没有就绪,进程是否须要等待,简单说这至关于函数内部的实现区别,也就是未就绪时是直接返回仍是等待就绪;
而同步和异步是指访问数据的机制,同步通常指主动请求并等待I/O操做完毕的方式,当数据就绪后在读写的时候必须阻塞(区别就绪与读写二个阶段,同步的读写必须阻塞),异步则指主动请求数据后即可以继续处理其它任务,随后等待I/O,操做完毕的通知,这可使进程在数据读写时也不阻塞。(等待"通知")
1. Linux下的五种I/O模型
1)阻塞I/O(blocking I/O) 2)非阻塞I/O (nonblocking I/O) 3) I/O复用(select 和poll) (I/O multiplexing) 4)信号驱动I/O (signal driven I/O (SIGIO)) 5)异步I/O (asynchronous I/O (the POSIX aio_functions))
前四种都是同步,只有最后一种才是异步IO。
简介:进程会一直阻塞,直到数据拷贝完成
应用程序调用一个IO函数,致使应用程序阻塞,等待数据准备好。 若是数据没有准备好,一直等待….数据准备好了,从内核拷贝到用户空间,IO函数返回成功指示。
阻塞I/O模型图:在调用recv()/recvfrom()函数时,发生在内核中等待数据和复制数据的过程。
当调用recv()函数时,系统首先查是否有准备好的数据。若是数据没有准备好,那么系统就处于等待状态。当数据准备好后,将数据从系统缓冲区复制到用户空间,而后该函数返回。在套接应用程序中,当调用recv()函数时,未必用户空间就已经存在数据,那么此时recv()函数就会处于等待状态。
当使用socket()函数和WSASocket()函数建立套接字时,默认的套接字都是阻塞的。这意味着当调用Windows Sockets API不能当即完成时,线程处于等待状态,直到操做完成。
并非全部Windows Sockets API以阻塞套接字为参数调用都会发生阻塞。例如,以阻塞模式的套接字为参数调用bind()、listen()函数时,函数会当即返回。将可能阻塞套接字的Windows Sockets API调用分为如下四种:
1.输入操做: recv()、recvfrom()、WSARecv()和WSARecvfrom()函数。以阻塞套接字为参数调用该函数接收数据。若是此时套接字缓冲区内没有数据可读,则调用线程在数据到来前一直睡眠。
2.输出操做: send()、sendto()、WSASend()和WSASendto()函数。以阻塞套接字为参数调用该函数发送数据。若是套接字缓冲区没有可用空间,线程会一直睡眠,直到有空间。
3.接受链接:accept()和WSAAcept()函数。以阻塞套接字为参数调用该函数,等待接受对方的链接请求。若是此时没有链接请求,线程就会进入睡眠状态。
4.外出链接:connect()和WSAConnect()函数。对于TCP链接,客户端以阻塞套接字为参数,调用该函数向服务器发起链接。该函数在收到服务器的应答前,不会返回。这意味着TCP链接总会等待至少到服务器的一次往返时间。
使用阻塞模式的套接字,开发网络程序比较简单,容易实现。当但愿可以当即发送和接收数据,且处理的套接字数量比较少的状况下,使用阻塞模式来开发网络程序比较合适。
阻塞模式套接字的不足表现为,在大量创建好的套接字线程之间进行通讯时比较困难。当使用“生产者-消费者”模型开发网络程序时,为每一个套接字都分别分配一个读线程、一个处理数据线程和一个用于同步的事件,那么这样无疑加大系统的开销。其最大的缺点是当但愿同时处理大量套接字时,将无从下手,其扩展性不好
咱们把一个SOCKET接口设置为非阻塞就是告诉内核,当所请求的I/O操做没法完成时,不要将进程睡眠,而是返回一个错误。这样咱们的I/O操做函数将不断的测试数据是否已经准备好,若是没有准备好,继续测试,直到数据准备好为止。在这个不断测试的过程当中,会大量的占用CPU的时间。
把SOCKET设置为非阻塞模式,即通知系统内核:在调用Windows Sockets API时,不要让线程睡眠,而应该让函数当即返回。在返回时,该函数返回一个错误代码。图所示,一个非阻塞模式套接字屡次调用recv()函数的过程。前三次调用recv()函数时,内核数据尚未准备好。所以,该函数当即返回WSAEWOULDBLOCK错误代码。第四次调用recv()函数时,数据已经准备好,被复制到应用程序的缓冲区中,recv()函数返回成功指示,应用程序开始处理数据。
当使用socket()函数和WSASocket()函数建立套接字时,默认都是阻塞的。在建立套接字以后,经过调用ioctlsocket()函数,将该套接字设置为非阻塞模式。Linux下的函数是:fcntl().
套接字设置为非阻塞模式后,在调用Windows Sockets API函数时,调用函数会当即返回。大多数状况下,这些函数调用都会调用“失败”,并返回WSAEWOULDBLOCK错误代码。说明请求的操做在调用期间内没有时间完成。一般,应用程序须要重复调用该函数,直到得到成功返回代码。
须要说明的是并不是全部的Windows Sockets API在非阻塞模式下调用,都会返回WSAEWOULDBLOCK错误。例如,以非阻塞模式的套接字为参数调用bind()函数时,就不会返回该错误代码。固然,在调用WSAStartup()函数时更不会返回该错误代码,由于该函数是应用程序第一调用的函数,固然不会返回这样的错误代码。
要将套接字设置为非阻塞模式,除了使用ioctlsocket()函数以外,还可使用WSAAsyncselect()和WSAEventselect()函数。当调用该函数时,套接字会自动地设置为非阻塞方式。
因为使用非阻塞套接字在调用函数时,会常常返回WSAEWOULDBLOCK错误。因此在任什么时候候,都应仔细检查返回代码并做好对“失败”的准备。应用程序接二连三地调用这个函数,直到它返回成功指示为止。上面的程序清单中,在While循环体内不断地调用recv()函数,以读入1024个字节的数据。这种作法很浪费系统资源。
要完成这样的操做,有人使用MSG_PEEK标志调用recv()函数查看缓冲区中是否有数据可读。一样,这种方法也很差。由于该作法对系统形成的开销是很大的,而且应用程序至少要调用recv()函数两次,才能实际地读入数据。较好的作法是,使用套接字的“I/O模型”来判断非阻塞套接字是否可读可写。
非阻塞模式套接字与阻塞模式套接字相比,不容易使用。使用非阻塞模式套接字,须要编写更多的代码,以便在每一个Windows Sockets API函数调用中,对收到的WSAEWOULDBLOCK错误进行处理。所以,非阻塞套接字便显得有些难于使用。
可是,非阻塞套接字在控制创建的多个链接,在数据的收发量不均,时间不定时,明显具备优点。这种套接字在使用上存在必定难度,但只要排除了这些困难,它在功能上仍是很是强大的。一般状况下,可考虑使用套接字的“I/O模型”,它有助于应用程序经过异步方式,同时对一个或多个套接字的通讯加以管理。
简介:主要是select和epoll;对一个IO端口,两次调用,两次返回,比阻塞IO并无什么优越性;关键是能实现同时对多个IO端口进行监听;
I/O复用模型会用到select、poll、epoll函数,这几个函数也会使进程阻塞,可是和阻塞I/O所不一样的的,这两个函数能够同时阻塞多个I/O操做。并且能够同时对多个读操做,多个写操做的I/O函数进行检测,直到有数据可读或可写时,才真正调用I/O操做函数。
简介:两次调用,两次返回;
首先咱们容许套接口进行信号驱动I/O,并安装一个信号处理函数,进程继续运行并不阻塞。当数据准备好时,进程会收到一个SIGIO信号,能够在信号处理函数中调用I/O操做函数处理数据。
简介:数据拷贝的时候进程无需阻塞。
当一个异步过程调用发出后,调用者不能马上获得结果。实际处理这个调用的部件在完成后,经过状态、通知和回调来通知调用者的输入输出操做
同步IO引发进程阻塞,直至IO操做完成。 异步IO不会引发进程阻塞。 IO复用是先经过select调用阻塞。
1. select、poll、epoll简介
epoll跟select都能提供多路I/O复用的解决方案。在如今的Linux内核里有都可以支持,其中epoll是Linux所特有,而select则应该是POSIX所规定,通常操做系统均有实现
select:
select本质上是经过设置或者检查存放fd标志位的数据结构来进行下一步处理。这样所带来的缺点是:
一、 单个进程可监视的fd数量被限制,即能监听端口的大小有限。
通常来讲这个数目和系统内存关系很大,具体数目能够cat /proc/sys/fs/file-max察看。32位机默认是1024个。64位机默认是2048.
二、 对socket进行扫描时是线性扫描,即采用轮询的方法,效率较低:
当套接字比较多的时候,每次select()都要经过遍历FD_SETSIZE个Socket来完成调度,无论哪一个Socket是活跃的,都遍历一遍。这会浪费不少CPU时间。若是能给套接字注册某个回调函数,当他们活跃时,自动完成相关操做,那就避免了轮询,这正是epoll与kqueue作的。
三、须要维护一个用来存放大量fd的数据结构,这样会使得用户空间和内核空间在传递该结构时复制开销大
poll:
poll本质上和select没有区别,它将用户传入的数组拷贝到内核空间,而后查询每一个fd对应的设备状态,若是设备就绪则在设备等待队列中加入一项并继续遍历,若是遍历完全部fd后没有发现就绪设备,则挂起当前进程,直到设备就绪或者主动超时,被唤醒后它又要再次遍历fd。这个过程经历了屡次无谓的遍历。
它没有最大链接数的限制,缘由是它是基于链表来存储的,可是一样有一个缺点:
一、大量的fd的数组被总体复制于用户态和内核地址空间之间,而无论这样的复制是否是有意义。 二、poll还有一个特色是“水平触发”,若是报告了fd后,没有被处理,那么下次poll时会再次报告该fd。
epoll:
epoll支持水平触发和边缘触发,最大的特色在于边缘触发,它只告诉进程哪些fd刚刚变为就需态,而且只会通知一次。还有一个特色是,epoll使用“事件”的就绪通知方式,经过epoll_ctl注册fd,一旦该fd就绪,内核就会采用相似callback的回调机制来激活该fd,epoll_wait即可以收到通知
epoll的优势:
一、支持一个进程所能打开的最大链接数
select |
单个进程所能打开的最大链接数有FD_SETSIZE宏定义,其大小是32个整数的大小(在32位的机器上,大小就是32*32,同理64位机器上FD_SETSIZE为32*64),固然咱们能够对进行修改,而后从新编译内核,可是性能可能会受到影响,这须要进一步的测试。 |
poll |
poll本质上和select没有区别,可是它没有最大链接数的限制,缘由是它是基于链表来存储的 |
epoll |
虽然链接数有上限,可是很大,1G内存的机器上能够打开10万左右的链接,2G内存的机器能够打开20万左右的链接 |
二、FD剧增后带来的IO效率问题
select |
由于每次调用时都会对链接进行线性遍历,因此随着FD的增长会形成遍历速度慢的“线性降低性能问题”。 |
poll |
同上 |
epoll |
由于epoll内核中实现是根据每一个fd上的callback函数来实现的,只有活跃的socket才会主动调用callback,因此在活跃socket较少的状况下,使用epoll没有前面二者的线性降低的性能问题,可是全部socket都很活跃的状况下,可能会有性能问题。 |
三、 消息传递方式
select |
内核须要将消息传递到用户空间,都须要内核拷贝动做 |
poll |
同上 |
epoll |
epoll经过内核和用户空间共享一块内存来实现的。 |
总结:
综上,在选择select,poll,epoll时要根据具体的使用场合以及这三种方式的自身特色。
一、表面上看epoll的性能最好,可是在链接数少而且链接都十分活跃的状况下,select和poll的性能可能比epoll好,毕竟epoll的通知机制须要不少函数回调。
二、select低效是由于每次它都须要轮询。但低效也是相对的,视状况而定,也可经过良好的设计改善
https://www.cnblogs.com/lixinjie/p/a-post-tell-clearly-about-io-multiplexing-and-async-io.html
真正的多路复用技术
多路复用技术本来指的是,在通讯方面,多种信号或数据(从宏观上看)交织在一块儿,使用同一条传输通道进行传输。
这样作的目的,一方面能够充分利用通道的传输能力,另外一方面天然是省时省力省钱啦。
其实这个概念很是的“生活化”,随手就能够举个例子:
一条小水渠里水在流,在一端往里倒入大量乒乓球,在另外一端用网进行过滤,把乒乓球和水流分开。
这就是一个比较“土”的多路复用,首先在发射端把多种信号或数据进行“混合”,接着是在通道上进行传输,最后在接收端“分离”出本身须要的信号或数据。
相信你们都看出来了,这里的重点其实就是处理好“混合”和“分离”,对于不一样的信号或数据,有不一样的处理方法。
好比之前的有线电视是模拟信号,即电磁波。一家通常只有一根信号线,但能够同时接多个电视,每一个电视任意换台,互不影响。
这是因为不一样频率的波能够混合和分离。(固然,可能不是十分准确,明白意思就好了。)
再好比城市的高铁站通常都有数个站台供高铁(同时)停靠,但城市间的高铁轨道单方向只有一条,如何保证那么多趟高铁安全运行呢?
很明显是分时使用,每趟高铁都有本身的时刻。多趟高铁按不一样的时刻出站至关于混合,按不一样的时刻进站至关于分离。
总结一下,多路指的是多种不一样的信号或数据或其它事物,复用指的是共用同一个物理链路或通道或载体。
可见,多路复用技术是一种一对多的模型,“多”的这一方复用了“一”的这一方。
其实,一对多的模型主要体如今“公用”上或“共享”上。
这种处理模式就是被称为的多路复用I/O,多路指的是多个Socket通道,复用指的是只用一个线程来管理它们。
就饭店而言,究竟几张桌子配一个跑腿服务员,几张桌子配一个点餐服务员,通过一段时间运行,必定会有一个最优解。
就程序而言,究竟须要几个选择器线程,几个工做线程,通过评估测试后,也会有一个最优解。
一旦达到最优解后,就不可能再提高了,这一样是由多路复用这种一对多的形式所限制的。就像一对一的形式限制同样。
人们的追求是无止境的,如何对多路复用继续提高呢?答案必定是具备颠覆性的,即抛弃多路复用,采用全新的形式。
还以饭店为例,如何在最优解的状况下,既要继续减小服务员数量,还要使效率提高呢?可能有些朋友已经猜到了,那就是抛弃服务员服务客人这种模式,把饭店改为自助餐厅。
对比与结论:
处理一样的20个请求,一个须要用20个线程,一个须要用6个线程,一个须要3个线程,又节省了50%线程数。
BIO是阻塞IO,能够是同步阻塞,也能够是异步阻塞。AIO是异步IO,只有异步非阻塞这一种。所以没有同步非阻塞这种说法,由于同步必定是阻塞的。
分配一个读线程、一个处理数据线程和一个用于同步的事件
一个数据库socket线程 -》同时对多个硬盘发过来的IO端口数据
简介:主要是select和epoll;对一个IO端口,两次调用,两次返回,比阻塞IO并无什么优越性;关键是能实现同时对多个IO端口进行监听;异步IO多路复用