物联网高并发编程之C10K问题原理和解决方案

C10K问题思惟导图

clipboard.png

C10K问题出现前期

你们都知道互联网的基础就是网络通讯,早期的互联网能够说是一个小群体的集合。node

互联网还不够普及,用户也很少。一台服务器同时在线100个用户估计在当时已经算是大型应用了。因此并不存在什么C10K的难题。互联网的爆发期应该是在www网站,浏览器,雅虎出现后。最先的互联网称之为Web1.0,互联网大部分的使用场景是下载一个Html页面,用户在浏览器中查看网页上的信息。这个时期也不存在C10K问题。编程

Web2.0时代到来后就不一样了,一方面是普及率大大提升了,用户群体几何倍增加。另外一方面是互联网再也不是单纯的浏览万维网网页,逐渐开始进行交互,并且应用程序的逻辑也变的更复杂,从简单的表单提交,到即时通讯和在线实时互动。数组

C10K的问题才体现出来了。每个用户都必须与服务器保持TCP链接才能进行实时的数据交互。浏览器

Facebook这样的网站同一时间的并发TCP链接可能会过亿。服务器

腾讯QQ也是有C10K问题的,只不过他们是用了UDP这种原始的包交换协议来实现的,绕开了这个难题。固然过程确定是痛苦的。若是当时有epoll技术,他们确定会用TCP。后来的手机QQ,微信都采用TCP协议。

C10K问题出现和本质

这时候问题就来了,最初的服务器都是基于进程/线程模型的,新到来一个TCP链接,就须要分配1个进程(或者线程)。微信

而进程又是操做系统最昂贵的资源,一台机器没法建立不少进程。网络

若是是C10K就要建立1万个进程,那么操做系统是没法承受的。数据结构

若是是采用分布式系统,维持1亿用户在线须要10万台服务器,成本巨大,也只有Facebook,Google,雅虎才有财力购买如此多的服务器。这就是C10K问题的本质。并发

实际上当时也有异步模式,如:select/poll模型,这些技术都有必定的缺点,如selelct最大不能超过1024,poll没有限制,但每次收到数据须要遍历每个链接查看哪一个链接有数据请求。

C10K解决方案C10K解决方案

解决这一问题,主要思路有两个:异步

  1. 一个是对于每一个链接处理分配一个独立的进程/线程;
  2. 另外一个思路是用同一进程/线程来同时处理若干链接。

每一个进程/线程处理一个链接

这一思路最为直接。可是因为申请进程/线程会占用至关可观的系统资源,同时对于多进程/线程的管理会对系统形成压力,所以这种方案不具有良好的可扩展性。

所以,这一思路在服务器资源尚未富裕到足够程度的时候,是不可行的;即使资源足够富裕,效率也不够高。

问题:资源占用过多,可扩展性差

每一个进程/线程同时处理多个链接(IO多路复用)

传统思路

最简单的方法是循环挨个处理各个链接,每一个链接对应一个 socket,当全部 socket 都有数据的时候,这种方法是可行的。

可是当应用读取某个 socket 的文件数据不 ready 的时候,整个应用会阻塞在这里等待该文件句柄,即便别的文件句柄 ready,也没法往下处理。

思路:直接循环处理多个链接。

问题:任一文件句柄的不成功会阻塞住整个应用。

select

要解决上面阻塞的问题,思路很简单,若是我在读取文件句柄以前,先查下它的状态,ready 了就进行处理,不 ready 就不进行处理,这不就解决了这个问题了嘛?

因而有了 select 方案。用一个 fd_set 结构体来告诉内核同时监控多个文件句柄,当其中有文件句柄的状态发生指定变化(例如某句柄由不可用变为可用)或超时,则调用返回。以后应用可使用 FD_ISSET 来逐个查看是哪一个文件句柄的状态发生了变化。

这样作,小规模的链接问题不大,但当链接数不少(文件句柄个数不少)的时候,逐个检查状态就很慢了。

所以,select 每每存在管理的句柄上限(FD_SETSIZE)。同时,在使用上,由于只有一个字段记录关注和发生事件,每次调用以前要从新初始化 fd_set 结构体。

int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout);
思路:有链接请求抵达了再检查处理。

问题:句柄上限+重复初始化+逐个排查全部文件句柄状态效率不高。

poll

poll 主要解决 select 的前两个问题:经过一个 pollfd 数组向内核传递须要关注的事件消除文件句柄上限,同时使用不一样字段分别标注关注事件和发生事件,来避免重复初始化。

int poll(struct pollfd *fds, nfds_t nfds, int timeout);
思路:设计新的数据结构提供使用效率。

问题:逐个排查全部文件句柄状态效率不高。

epoll

既然逐个排查全部文件句柄状态效率不高,很天然的,若是调用返回的时候只给应用提供发生了状态变化(极可能是数据 ready)的文件句柄,进行排查的效率不就高多了么。

epoll 采用了这种设计,适用于大规模的应用场景。

实验代表,当文件句柄数目超过 10 以后,epoll 性能将优于 select 和 poll;当文件句柄数目达到 10K 的时候,epoll 已经超过 select 和 poll 两个数量级。

int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);
思路:只返回状态变化的文件句柄。

问题:依赖特定平台(Linux)。

由于Linux是互联网企业中使用率最高的操做系统,Epoll就成为C10K killer、高并发、高性能、异步非阻塞这些技术的代名词了。

这些操做系统提供的功能就是为了解决C10K问题:

  • FreeBSD推出了kqueue,
  • Linux推出了epoll
  • Windows推出了IOCP,
  • Solaris推出了/dev/poll。

这些操做系统提供的功能就是为了解决C10K问题。

epoll技术的编程模型就是异步非阻塞回调,也能够叫作Reactor,事件驱动,事件轮循(EventLoop)。Nginx,libevent,node.js这些就是Epoll时代的产物。

select、poll、epoll具体原理详解,

libevent

因为epoll, kqueue, IOCP每一个接口都有本身的特色,程序移植很是困难,因而须要对这些接口进行封装,以让它们易于使用和移植,其中libevent库就是其中之一。

跨平台,封装底层平台的调用,提供统一的 API,但底层在不一样平台上自动选择合适的调用。

按照libevent的官方网站,libevent库提供了如下功能:

当一个文件描述符的特定事件(如可读,可写或出错)发生了,或一个定时事件发生了,libevent就会自动执行用户指定的回调函数,来处理事件。

目前,libevent已支持如下接口/dev/poll, kqueue, event ports, select, poll 和 epoll。

Libevent的内部事件机制彻底是基于所使用的接口的。所以libevent很是容易移植,也使它的扩展性很是容易。

目前,libevent已在如下操做系统中编译经过:Linux,BSD,Mac OS X,Solaris和Windows。

使用libevent库进行开发很是简单,也很容易在各类unix平台上移植。

相关文章
相关标签/搜索