epoll的本质

目录linux

1、从网卡接收数听说起nginx

2、如何知道接收了数据?redis

3、进程阻塞为何不占用cpu资源?编程

4、内核接收网络数据全过程数组

5、同时监视多个socket的简单方法服务器

6、epoll的设计思路网络

7、epoll的原理和流程数据结构

8、epoll的实现细节架构

9、结论socket

从事服务端开发,少不了要接触网络编程。epoll做为linux下高性能网络服务器的必备技术相当重要,nginx、redis、skynet和大部分游戏服务器都使用到这一多路复用技术。

由于epoll的重要性,很多游戏公司在招聘服务端同窗时,会问及epoll相关的问题。好比epoll和select的区别是什么?epoll高效率的缘由是什么?若是只靠背诵,显然不能算上深入的理解。

网上虽然也有很多讲解epoll的文章,但要不是过于浅显,就是陷入源码解析,不多能有通俗易懂的。因而决定编写此文,让缺少专业背景知识的读者也可以明白epoll的原理。文章核心思想是:

要让读者清晰明白EPOLL为何性能好。

本文会从网卡接收数据的流程讲起,串联起CPU中断、操做系统进程调度等知识;再一步步分析阻塞接收数据、select到epoll的进化过程;最后探究epoll的实现细节。

1、从网卡接收数听说起

下图是一个典型的计算机结构图,计算机由CPU、存储器(内存)、网络接口等部件组成。了解epoll本质的第一步,要从硬件的角度看计算机怎样接收网络数据。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

计算机结构图(图片来源:linux内核彻底注释之微型计算机组成结构)

 

下图展现了网卡接收数据的过程。在①阶段,网卡收到网线传来的数据;通过②阶段的硬件电路的传输;最终将数据写入到内存中的某个地址上(③阶段)。这个过程涉及到DMA传输、IO通路选择等硬件有关的知识,但咱们只需知道:网卡会把接收到的数据写入内存。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

网卡接收数据的过程

 

经过硬件传输,网卡接收的数据存放到内存中。操做系统就能够去读取它们。

2、如何知道接收了数据?

了解epoll本质的第二步,要从CPU的角度来看数据接收。要理解这个问题,要先了解一个概念——中断。

计算机执行程序时,会有优先级的需求。好比,当计算机收到断电信号时(电容能够保存少量电量,供CPU运行很短的一小段时间),它应当即去保存数据,保存数据的程序具备较高的优先级。

通常而言,由硬件产生的信号须要cpu立马作出回应(否则数据可能就丢失),因此它的优先级很高。cpu理应中断掉正在执行的程序,去作出响应;当cpu完成对硬件的响应后,再从新执行用户程序。中断的过程以下图,和函数调用差很少。只不过函数调用是事先定好位置,而中断的位置由“信号”决定。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

中断程序调用

 

以键盘为例,当用户按下键盘某个按键时,键盘会给cpu的中断引脚发出一个高电平。cpu可以捕获这个信号,而后执行键盘中断程序。下图展现了各类硬件经过中断与cpu交互。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

cpu中断(图片来源:net.pku.edu.cn)

 

如今能够回答本节提出的问题了:当网卡把数据写入到内存后,网卡向cpu发出一个中断信号,操做系统便能得知有新数据到来,再经过网卡中断程序去处理数据。

3、进程阻塞为何不占用cpu资源?

了解epoll本质的第三步,要从操做系统进程调度的角度来看数据接收。阻塞是进程调度的关键一环,指的是进程在等待某事件(如接收到网络数据)发生以前的等待状态,recv、select和epoll都是阻塞方法。了解“进程阻塞为何不占用cpu资源?”,也就可以了解这一步。

为简单起见,咱们从普通的recv接收开始分析,先看看下面代码:

//建立socketint s = socket(AF_INET, SOCK_STREAM, 0); //绑定bind(s, ...)//监听listen(s, ...)//接受客户端链接int c = accept(s, ...)//接收客户端数据recv(c, ...);//将数据打印出来printf(...)

这是一段最基础的网络编程代码,先新建socket对象,依次调用bind、listen、accept,最后调用recv接收数据。recv是个阻塞方法,当程序运行到recv时,它会一直等待,直到接收到数据才往下执行。

插入:若是您还不太熟悉网络编程,欢迎阅读我编写的《Unity3D网络游戏实战(第2版)》,会有详细的介绍。

那么阻塞的原理是什么?

工做队列

操做系统为了支持多任务,实现了进程调度的功能,会把进程分为“运行”和“等待”等几种状态。运行状态是进程得到cpu使用权,正在执行代码的状态;等待状态是阻塞状态,好比上述程序运行到recv时,程序会从运行状态变为等待状态,接收到数据后又变回运行状态。操做系统会分时执行各个运行状态的进程,因为速度很快,看上去就像是同时执行多个任务。

下图中的计算机中运行着A、B、C三个进程,其中进程A执行着上述基础网络程序,一开始,这3个进程都被操做系统的工做队列所引用,处于运行状态,会分时执行。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

工做队列中有A、B和C三个进程

 

等待队列

当进程A执行到建立socket的语句时,操做系统会建立一个由文件系统管理的socket对象(以下图)。这个socket对象包含了发送缓冲区、接收缓冲区、等待队列等成员。等待队列是个很是重要的结构,它指向全部须要等待该socket事件的进程。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

建立socket

 

当程序执行到recv时,操做系统会将进程A从工做队列移动到该socket的等待队列中(以下图)。因为工做队列只剩下了进程B和C,依据进程调度,cpu会轮流执行这两个进程的程序,不会执行进程A的程序。因此进程A被阻塞,不会往下执行代码,也不会占用cpu资源。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

socket的等待队列

 

ps:操做系统添加等待队列只是添加了对这个“等待中”进程的引用,以便在接收到数据时获取进程对象、将其唤醒,而非直接将进程管理归入本身之下。上图为了方便说明,直接将进程挂到等待队列之下。

唤醒进程

当socket接收到数据后,操做系统将该socket等待队列上的进程从新放回到工做队列,该进程变成运行状态,继续执行代码。也因为socket的接收缓冲区已经有了数据,recv能够返回接收到的数据。

4、内核接收网络数据全过程

这一步,贯穿网卡、中断、进程调度的知识,叙述阻塞recv下,内核接收数据全过程。

以下图所示,进程在recv阻塞期间,计算机收到了对端传送的数据(步骤①)。数据经由网卡传送到内存(步骤②),而后网卡经过中断信号通知cpu有数据到达,cpu执行中断程序(步骤③)。此处的中断程序主要有两项功能,先将网络数据写入到对应socket的接收缓冲区里面(步骤④),再唤醒进程A(步骤⑤),从新将进程A放入工做队列中。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

内核接收数据全过程

 

唤醒进程的过程以下图所示。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

唤醒进程

 

以上是内核接收数据全过程

这里留有两个思考题,你们先想想。

其一,操做系统如何知道网络数据对应于哪一个socket?

其二,如何同时监视多个socket的数据?

(——我是分割线,想好了才能往下看哦~)

公布答案的时刻到了。

第一个问题:由于一个socket对应着一个端口号,而网络数据包中包含了ip和端口的信息,内核能够经过端口号找到对应的socket。固然,为了提升处理速度,操做系统会维护端口号到socket的索引结构,以快速读取。

第二个问题是多路复用的重中之重,是本文后半部分的重点!

5、同时监视多个socket的简单方法

服务端须要管理多个客户端链接,而recv只能监视单个socket,这种矛盾下,人们开始寻找监视多个socket的方法。epoll的要义是高效的监视多个socket。从历史发展角度看,必然先出现一种不过高效的方法,人们再加以改进。只有先理解了不过高效的方法,才可以理解epoll的本质。

假如可以预先传入一个socket列表,若是列表中的socket都没有数据,挂起进程,直到有一个socket收到数据,唤醒进程。这种方法很直接,也是select的设计思想。

为方便理解,咱们先复习select的用法。在以下的代码中,先准备一个数组(下面代码中的fds),让fds存放着全部须要监视的socket。而后调用select,若是fds中的全部socket都没有数据,select会阻塞,直到有一个socket接收到数据,select返回,唤醒进程。用户能够遍历fds,经过FD_ISSET判断具体哪一个socket收到数据,而后作出处理。

int s = socket(AF_INET, SOCK_STREAM, 0); bind(s, ...)listen(s, ...)
int fds[] = 存放须要监听的socket
while(1){
int n = select(..., fds, ...)
for(int i=0; i < fds.count; i++){
if(FD_ISSET(fds[i], ...)){
//fds[i]的数据处理
}
}}

select的流程

select的实现思路很直接。假如程序同时监视以下图的sock一、sock2和sock3三个socket,那么在调用select以后,操做系统把进程A分别加入这三个socket的等待队列中。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

操做系统把进程A分别加入这三个socket的等待队列中

 

当任何一个socket收到数据后,中断程序将唤起进程。下图展现了sock2接收到了数据的处理流程。

ps:recv和select的中断回调能够设置成不一样的内容。

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

sock2接收到了数据,中断程序唤起进程A

 

所谓唤起进程,就是将进程从全部的等待队列中移除,加入到工做队列里面。以下图所示。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

将进程A从全部等待队列中移除,再加入到工做队列里面

 

经由这些步骤,当进程A被唤醒后,它知道至少有一个socket接收了数据。程序只需遍历一遍socket列表,就能够获得就绪的socket。

这种简单方式行之有效,在几乎全部操做系统都有对应的实现。

可是简单的方法每每有缺点,主要是:

其一,每次调用select都须要将进程加入到全部监视socket的等待队列,每次唤醒都须要从每一个队列中移除。这里涉及了两次遍历,并且每次都要将整个fds列表传递给内核,有必定的开销。正是由于遍历操做开销大,出于效率的考量,才会规定select的最大监视数量,默认只能监视1024个socket。

其二,进程被唤醒后,程序并不知道哪些socket收到数据,还须要遍历一次。

那么,有没有减小遍历的方法?有没有保存就绪socket的方法?这两个问题即是epoll技术要解决的。

补充说明:本节只解释了select的一种情形。当程序调用select时,内核会先遍历一遍socket,若是有一个以上的socket接收缓冲区有数据,那么select直接返回,不会阻塞。这也是为何select的返回值有可能大于1的缘由之一。若是没有socket有数据,进程才会阻塞。

6、epoll的设计思路

epoll是在select出现N多年后才被发明的,是select和poll的加强版本。epoll经过如下一些措施来改进效率。

措施一:功能分离

select低效的缘由之一是将“维护等待队列”和“阻塞进程”两个步骤合二为一。以下图所示,每次调用select都须要这两步操做,然而大多数应用场景中,须要监视的socket相对固定,并不须要每次都修改。epoll将这两个操做分开,先用epoll_ctl维护等待队列,再调用epoll_wait阻塞进程。显而易见的,效率就能获得提高。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

相比select,epoll拆分了功能

 

为方便理解后续的内容,咱们先复习下epoll的用法。以下的代码中,先用epoll_create建立一个epoll对象epfd,再经过epoll_ctl将须要监视的socket添加到epfd中,最后调用epoll_wait等待数据。

int s = socket(AF_INET, SOCK_STREAM, 0); bind(s, ...)listen(s, ...)
int epfd = epoll_create(...);epoll_ctl(epfd, ...); //将全部须要监听的socket添加到epfd中
while(1){
int n = epoll_wait(...)
for(接收到数据的socket){
//处理
}}

功能分离,使得epoll有了优化的可能。

措施二:就绪列表

select低效的另外一个缘由在于程序不知道哪些socket收到数据,只能一个个遍历。若是内核维护一个“就绪列表”,引用收到数据的socket,就能避免遍历。以下图所示,计算机共有三个socket,收到数据的sock2和sock3被rdlist(就绪列表)所引用。当进程被唤醒后,只要获取rdlist的内容,就可以知道哪些socket收到数据。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

就绪列表示意图

 

7、epoll的原理和流程

本节会以示例和图表来说解epoll的原理和流程。

建立epoll对象

以下图所示,当某个进程调用epoll_create方法时,内核会建立一个eventpoll对象(也就是程序中epfd所表明的对象)。eventpoll对象也是文件系统中的一员,和socket同样,它也会有等待队列。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

内核建立eventpoll对象

 

建立一个表明该epoll的eventpoll对象是必须的,由于内核要维护“就绪列表”等数据,“就绪列表”能够做为eventpoll的成员。

维护监视列表

建立epoll对象后,能够用epoll_ctl添加或删除所要监听的socket。以添加socket为例,以下图,若是经过epoll_ctl添加sock一、sock2和sock3的监视,内核会将eventpoll添加到这三个socket的等待队列中。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

添加所要监听的socket

 

当socket收到数据后,中断程序会操做eventpoll对象,而不是直接操做进程。

接收数据

当socket收到数据后,中断程序会给eventpoll的“就绪列表”添加socket引用。以下图展现的是sock2和sock3收到数据后,中断程序让rdlist引用这两个socket。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

给就绪列表添加引用

 

eventpoll对象至关因而socket和进程之间的中介,socket的数据接收并不直接影响进程,而是经过改变eventpoll的就绪列表来改变进程状态。

当程序执行到epoll_wait时,若是rdlist已经引用了socket,那么epoll_wait直接返回,若是rdlist为空,阻塞进程。

阻塞和唤醒进程

假设计算机中正在运行进程A和进程B,在某时刻进程A运行到了epoll_wait语句。以下图所示,内核会将进程A放入eventpoll的等待队列中,阻塞进程。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

epoll_wait阻塞进程

 

当socket接收到数据,中断程序一方面修改rdlist,另外一方面唤醒eventpoll等待队列中的进程,进程A再次进入运行状态(以下图)。也由于rdlist的存在,进程A能够知道哪些socket发生了变化。

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

epoll唤醒进程

 

8、epoll的实现细节

至此,相信读者对epoll的本质已经有必定的了解。但咱们还留有一个问题,eventpoll的数据结构是什么样子?

再留两个问题,就绪队列应该应使用什么数据结构?eventpoll应使用什么数据结构来管理经过epoll_ctl添加或删除的socket?

 

(——我是分割线,想好了才能往下看哦~)

以下图所示,eventpoll包含了lock、mtx、wq(等待队列)、rdlist等成员。rdlist和rbr是咱们所关心的。

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

epoll原理示意图,图片来源:《深刻理解Nginx:模块开发与架构解析(第二版)》,陶辉

 

就绪列表的数据结构

就绪列表引用着就绪的socket,因此它应可以快速的插入数据。

程序可能随时调用epoll_ctl添加监视socket,也可能随时删除。当删除时,若该socket已经存放在就绪列表中,它也应该被移除。

因此就绪列表应是一种可以快速插入和删除的数据结构。双向链表就是这样一种数据结构,epoll使用双向链表来实现就绪队列(对应上图的rdllist)。

索引结构

既然epoll将“维护监视队列”和“进程阻塞”分离,也意味着须要有个数据结构来保存监视的socket。至少要方便的添加和移除,还要便于搜索,以免重复添加。红黑树是一种自平衡二叉查找树,搜索、插入和删除时间复杂度都是O(log(N)),效率较好。epoll使用了红黑树做为索引结构(对应上图的rbr)。

 

ps:由于操做系统要兼顾多种功能,以及由更多须要保存的数据,rdlist并不是直接引用socket,而是经过epitem间接引用,红黑树的节点也是epitem对象。一样,文件系统也并不是直接引用着socket。为方便理解,本文中省略了一些间接结构。

9、结论

epoll在select和poll(poll和select基本同样,有少许改进)的基础引入了eventpoll做为中间层,使用了先进的数据结构,是一种高效的多路复用技术。

再留一点做业!

下表是个很常见的表,描述了select、poll和epoll的区别。读完本文,读者可否解释select和epoll的时间复杂度为何是O(n)和O(1)?

 

若是这篇文章说不清epoll的本质,那就过来掐死我吧!

select、poll和epoll的区别。图片来源《Linux高性能服务器编程》

相关文章
相关标签/搜索