1、概述linux
说到Linux下的IO复用,系统提供了三个系统调用,分别是select poll epoll。那么这三者之间有什么不一样呢,何时使用三个之间的其中一个呢?编程
下面,我将从系统调用原型来分析其中的不一样。windows
2、系统接口原型数组
1. selectsocket
#include <sys/select.h> int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout); int pselect(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, const struct timespec *timeout, const sigset_t *sigmask);
2. pollide
#include <poll.h> int poll(struct pollfd *fds, nfds_t nfds, int timeout);
int ppoll(struct pollfd *fds, nfds_t nfds,
const struct timespec *timeout_ts, const sigset_t *sigmask);
struct pollfd { int fd; /* file descriptor */ short events; /* requested events */ short revents; /* returned events */ };
3. epoll函数
#include <sys/epoll.h> int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout); int epoll_pwait(int epfd, struct epoll_event *events, int maxevents, int timeout, const sigset_t *sigmask);
3、参数对比性能
1. select测试
2. poll优化
poll事件类型
事件 | 描述 | 是否可做为输入 | 是否可做为输出 |
POLLIN | 数据(包括普通数据和优先数据) | 是 | 是 |
POLLRDNORM | 普通数据可读 | 是 | 是 |
POLLRDBAND | 优先级带数据可读(Linux不支持) | 是 | 是 |
POLLPRI | 高优先级数据可读,好比TCP带外数据 | 是 | 是 |
POLLOUT | 数据(包括普通数据和优先数据)可写 | 是 | 是 |
POLLWRNORM | 普通数据可写 | 是 | 是 |
POLLWRBAND | 优先级带数据可写 | 是 | 是 |
POLLRDHUP | TCP链接被对方关闭,或者对方关闭了写操做。它由GNU引入 | 是 | 是 |
POLLERR | 错误 | 否 | 是 |
POLLHUP | 挂起。好比管道的写端被关闭后,读端描述符上将收到POLLHUP事件 | 否 | 是 |
POLLNVAL | 文件描述符没有打开 | 否 | 是 |
3. epoll
4、性能对比
select、poll的内部实现机制类似,性能差异主要在于向内核传递参数以及对fdset的位操做上,另外,select存在描述符数的硬限制,不能处理很大的描述符集合。
这里主要考察poll与epoll在不一样大小描述符集合的状况下性能的差别。
测试程序会统计在不一样的文件描述符集合的状况下,1s 内poll与epoll调用的次数。
统计结果以下,从结果能够看出,对poll而言,每秒钟内的系统调用数目虽集合增大而很快下降,而epoll基本保持不变,具备很好的扩展性。
描述符集合大小 |
poll |
epoll |
1 |
331598 |
258604 |
10 |
330648 |
297033 |
100 |
91199 |
288784 |
1000 |
27411 |
296357 |
5000 |
5943 |
288671 |
10000 |
2893 |
292397 |
25000 |
1041 |
285905 |
50000 |
536 |
293033 |
100000 |
224 |
285825 |
5、链接数
我本人也曾经在项目中用过select和epoll,对于select,感触最深的是linux下select最大数目限制(windows 下彷佛没有限制),每一个进程的select最多能处理FD_SETSIZE个FD(文件句柄),若是要处理超过1024个句柄,只能采用多进程了。
常见的使用select的多进程模型是这样的:
一个进程专门accept,成功后将fd经过UNIX socket传递给子进程处理,父进程能够根据子进程负载分派。
曾经用过1个父进程 + 4个子进程 承载了超过4000个的负载。
这种模型在咱们当时的业务运行的很是好。
epoll在链接数方面没有限制,固然可能须要用户调用API重现设置进程的资源限制。
6、相同点
7、不一样点
对于select:
1. 只能经过三个结构体参数处理三种事件,分别是:可读、可写和异常事件,而不能处理更多的事件;
2. 这三个参数既是输入参数,也是输出参数,所以,在每次调用select以前,都得对fd_set进行重置;
对于poll:
1. 将文件描述符和事件关联在一块儿,任何事件都被统一处理,从而使得编程接口简洁很多;
2. 内核改变的变量是revents,而不是events,所以,调用以前不须要再重置;
因为每次select和poll调用都返回整个用户注册的事件集合(其中包括就绪的和未就绪的),因此应用程序索引就绪文件描述符的时间复杂度为O(n)。
而epoll采用与select和poll彻底不一样的方式来管理用户注册的事件。
8、poll和epoll在使用上的差异
/*poll example*/ /*如何索引poll返回的就绪文件描述符*/ int ret = poll(fds, MAX_EVENT_NUMBER, -1); /*必须遍历全部已注册文件描述符并找到其中的就绪者(固然,能够利用ret来稍做优化)*/ for(int i = 0; i < MAX_EVENT_NUMBER; ++i) { if(fds[i].revents & POLLIN) { int sockfd = fds[i].fd; //deal with sockfd. } } /*epoll example*/ int epfd = epoll_create(MAXSIZE); struct epoll_event ev,events[5000]; //设置与要处理的事件相关的文件描述符 ev.data.fd=listenfd; //设置要处理的事件类型 ev.events=EPOLLIN|EPOLLET; //注册epoll事件 epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev); int nfds = epoll_wait(epfd,events,6000,-1); //处理所发生的全部事件 for(int i = 0; i< nfds; ++i) { //new accept. if(events[i].data.fd == listenfd) { printf("listen=%d\n",events[i].data.fd); connfd = accept(listenfd,(sockaddr *)(&clientaddr), &clilen); if(connfd<0) { perror("connfd<0"); exit(1); } setnonblocking(connfd); char *str = inet_ntoa(clientaddr.sin_addr); std::cout<<"connec_ from >>"<<str<<" "<<connfd<<std::endl; //设置用于读操做的文件描述符 ev.data.fd = connfd; //设置用于注测的读操做事件 //ev.data.ptr = NULL; ev.events = EPOLLIN|EPOLLET; //注册ev epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev); ev.data.fd = listenfd; //设置要处理的事件类型 ev.events=EPOLLIN|EPOLLET; //注册epoll事件 epoll_ctl(epfd,EPOLL_CTL_MOD,listenfd,&ev); continue; } else if(events[i].events & EPOLLIN) { num1++; //fprintf(stderr,"reading! %d\n",num1); if( (sockfd = events[i].data.fd) <= 0) { num1--; continue; } new_task = NULL; while(new_task == NULL) new_task = new task(); new_task->fd = sockfd; new_task->next=NULL; //fprintf(stderr,"sockfd %d",sockfd); //添加新的读任务 pthread_mutex_lock(&mutex); if(readhead == NULL) { readhead = new_task; readtail = new_task; } else { readtail->next=new_task; readtail=new_task; } //唤醒全部等待cond1条件的线程 pthread_cond_broadcast(&cond1); pthread_mutex_unlock(&mutex); continue; } else if(events.events & EPOLLOUT) { //fprintf(stderr,"EPOLLOUT"); num++; rdata=(struct user_data *)events[i].data.ptr; sockfd =rdata->fd; if(old == sockfd) { fprintf(stderr,"repreted sockfd=%d\n",sockfd); //exit(1); } old=sockfd; //fprintf(stderr,"write %d\n",num); int size=write(sockfd, rdata->line, rdata->n_size); //fprintf(stderr,"write=%d delete rdata\n",size); fprintf(stderr,"addr=%x fdwrite=%d size=%d\n",rdata,rdata->fd,size); if(rdata!=NULL)//主要问题致使delete重复相同对象 events返回对象相同 { delete rdata; rdata=NULL; } //设置用于读操做的文件描述符 //fprintf(stderr,"after delete rdata\n"); ev.data.fd=sockfd; //设置用于注测的读操做事件 ev.events=EPOLLIN|EPOLLET; //修改sockfd上要处理的事件为EPOLIN res = epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev); while(res==-1) { //fprintf(stderr,"out error"); exit(1); } //fprintf(stderr,"out EPOLLOUT\n"); continue; } else if(events.events&(EPOLLHUP|EPOLLERR)) { //fprintf(stderr,"EPPOLLERR\n"); int fd=events.data.fd; if(fd>6000) { fd=((struct user_data*)(events.data.ptr))->fd; } //设置用于注测的读操做事件 ev.data.fd=fd; ev.events=EPOLLIN|EPOLLET|EPOLLOUT; //修改sockfd上要处理的事件为EPOLIN epoll_ctl(epfd,EPOLL_CTL_DEL,fd,&ev); } }