接上一篇 http://www.cnblogs.com/charlesblc/p/6241926.htmlphp
来源:html
https://zhuanlan.zhihu.com/p/20204159程序员
网上关于Apache和Nginx性能比较的文章很是多,基本上有以下的定论:编程
这里咱们要着重讨论的是为何 Nginx在并发性能上比Apache要好不少。
非阻塞&事件驱动这么好,为何你们没有一开始就采用这种方式呢? 缘由有二:浏览器
epoll是Linux内核的可扩展I/O事件通知机制。它设计目的只在取代既有POSIX select(2)与poll(2)系统函数,让须要大量操做文件描述符的程序得以发挥更优异的性能 (举例来讲:旧有的系统函数所花费的时间复杂度为O(n),epoll则耗时O(1))。 epoll与FreeBSD的kqueue相似,底层都是由可配置的操做系统内核对象建构而成, 并以文件描述符(file descriptor)的形式呈现于用户空间。服务器
epoll由下面几个系统调用组成:网络
int epoll_create(int size); int epoll_ctl(int epfd, int op, int fd, struct epoll_event * event); int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
为了解决高并发问题,大约在2000年,Jonathan Lemon在FreeBSD内核中实现了第一个版本 的kqueue,并在FreeBSD 4.1版本发布。以后FreeBSD在处理高并发的问题上一直领先于Linux。并发
各类操做系统在解决这个问题的办法上也是百花齐放:框架
技术操做系统kqueueUNIX (FreeBSD、MacOS)epollLinux 2.5.44/2.6.9IOCP (IO Completion Port)Windows NT 3.5, AIX, Solaris 10第三篇
下面是WikiPedia对于libevent的介绍:异步
libevent是一个异步事件处理软件函式库,以BSD许可证发布。 libevent提供了一组应用程序编程接口(API),让程序员能够设定某些事件发生时所执行的函式,也就是说,libevent能够用来取代网络服务器所使用的事件循环检查框架。
因为能够省去对网络的处理,且拥有不错的效能, 有些软件使用libevent做为网络底层的函式库,如:Chromium(Chrome的开源版)、 memcached、Tor。
按照libevent的官方网站,libevent库提供了如下功能:当一个文件描述符的特定事件 (如可读,可写或出错)发生了,或一个定时事件发生了, libevent就会自动执行用户指定的回调函数,来处理事件。
两者的差别在于Level Triggered模式下只要某个socket处于readable/writable状态, 不管何时进行epoll_wait都会返回该socket;
而Edge Triggered模式下只有某个socket从unreadable变为readable或 从unwritable变为writable时,epoll_wait才会返回该socket。
TCP的“链接”仅仅是链接的两端对于四元组和sequence号的一种约定而已。
在有些文章里总会提到这名词、或者五元组,甚至七元组。 虽然我很反对摆弄名词秀专业,但咱们也要防止被“秀”。 其实很容易理解:
- 四元组: 源IP地址、目的IP地址、源端口、目的端口
- 五元组: 源IP地址、目的IP地址、协议、源端口、目的端口
- 七元组: 源IP地址、目的IP地址、协议、源端口、目的端口,服务类型,接口索引
在 HTTP 1.0 中, 没有官方的 keepalive 的操做。一般是在现有协议上添加一个指数。 若是浏览器支持 keep-alive,它会在请求的包头中添加:
Connection: Keep-Alive
而后当服务器收到请求,做出回应的时候,它也添加一个头在响应中:
Connection: Keep-Alive
这样作,链接就不会中断,而是保持链接。
在 HTTP 1.1 中 全部的链接默认都是持续链接,除非特殊声明不支持。为了规避上面说的对图片等静态资源的影响,大多数商业网站会启用独立的静态资源域名。 从而保证主站的动态资源请求和静态资源的请求不会互相挤占链接。
动静分离同时还会有一个额外的好处:
对于静态资源的请求,HTTP请求头里的Cookie等信息是没有用处的, 反而占用了宝贵的上行网络资源。用独立的域名存放静态资源后, 请求静态资源域名就不会默认带上主站域的Cookie,从而解决了这个问题。
以下表:
端口号里有一个极为特殊的端口,各类文档书籍中都鲜有记载,就是0号端口。
在IANA官方的标准里0号端口是保留端口。
然而,标准归标准,在UNIX/Linux网络编程中0号端口被赋予了特殊的涵义:
若是在bind绑定的时候指定端口0,意味着由系统随机选择一个可用端口来绑定。
NAT是"Network Address Translation"的缩写,直译就是网络地址转换。 1990年代中期,为了应对IPv4地址短缺,NAT技术流行起来。
NAT技术的普遍应用也给不少应用带来了极大的麻烦: 处于NAT网络环境内的服务器很难被外部的网络程序主动链接,受这一点伤害最大的莫过于: 点对点视频、语音、文件传输类的程序。
固然咱们聪明的工程师通过长时间的努力,发明了“NAT打洞”技术,必定程度上解决了此类问题。
若是一个端口正在被使用,不管是TIME_WAIT、CLOSE_WAIT、仍是ESTABLISHED状态。 这个端口都不能被复用,这里面天然也是包括不能被用来LISTEN(监听)。
但这件事也不是绝对的,以前跟你们讲进程的建立过程提到过一件事: 当进程调用fork(2)系统调用的时候,会发生一系列资源的复制,其中就包括句柄。 因此,在调用fork(2)以前,打开任何文件,监听端口产生的句柄也将会被复制。
经过这种方式,咱们就能够达成"多进程端口监听"。
有一个问题就是
为何有时候重启Apache会失败,报“Address already in use”?
当时答得不太好,不太明白这个问题的关键点在哪里,后来逐渐明白了。
TCP的原理会致使这样的一个结果:
主动close socket的一方会进入TIME_WAIT,这个情况持续的时间取决于三件事:
总之默认状况下,处于TIME_WAIT状态的端口是不能用来LISTEN的。 这就致使,Apache重启时产生80端口TIME_WAIT,进而致使Apache再次尝试LISTEN失败。
在不少开源代码里咱们会看到以下代码:
int reuseaddr = 1; setsockopt(sockfd, SOL_SOCKET, SO_REUSEADDR, &reuseaddr, sizeof(int));
有了上面这段神奇的代码,就不会出现上面的惨剧。但SO_REUSEADDR的做用不只限于上述。
Linux 的 SO_REUSEADDR 设置为 1 有四种效果:
当端口处在TIME_WAIT时候,能够复用监听。
能够容许多个进程监听同一端口,可是必须不一样IP。
这里说的比较隐晦,若是进程A监听0.0.0.0:80,B进程能够成功监听127.0.0.1:80, 顺序反过来也是能够的。
容许单个进程绑定相同的端口到多个socket上,但每一个socket绑定的IP地址不一样。
使用UDP时候,能够容许多个实例或者单进程同时监听同个端口同个IP。