昨天解决了一个HttpClient调用错误致使的服务器异常,具体过程以下:linux
http://blog.csdn.net/shootyou/article/details/6615051程序员
里头的分析过程有提到,经过查看服务器网络状态检测到服务器有大量的CLOSE_WAIT的状态。web
在服务器的平常维护过程当中,会常常用到下面的命令:算法
- netstat -n | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'
它会显示例以下面的信息:express
TIME_WAIT 814
CLOSE_WAIT 1
FIN_WAIT1 1
ESTABLISHED 634
SYN_RECV 2
LAST_ACK 1apache
经常使用的三个状态是:ESTABLISHED 表示正在通讯,TIME_WAIT 表示主动关闭,CLOSE_WAIT 表示被动关闭。windows
具体每种状态什么意思,其实无需多说,看看下面这种图就明白了,注意这里提到的服务器应该是业务请求接受处理的一方:tomcat

这么多状态不用都记住,只要了解到我上面提到的最多见的三种状态的意义就能够了。通常不到万不得已的状况也不会去查看网络状态,若是服务器出了异常,百分之八九十都是下面两种状况:服务器
1.服务器保持了大量TIME_WAIT状态
2.服务器保持了大量CLOSE_WAIT状态
由于linux分配给一个用户的文件句柄是有限的(能够参考:http://blog.csdn.net/shootyou/article/details/6579139),而TIME_WAIT和CLOSE_WAIT两种状态若是一直被保持,那么意味着对应数目的通道就一直被占着,并且是“占着茅坑不使劲”,一旦达到句柄数上限,新的请求就没法被处理了,接着就是大量Too Many Open Files异常,tomcat崩溃。。。
下 面来讨论下这两种状况的处理方法,网上有不少资料把这两种状况的处理方法混为一谈,觉得优化系统内核参数就能够解决问题,实际上是不恰当的,优化系统内核参 数解决TIME_WAIT可能很容易,可是应对CLOSE_WAIT的状况仍是须要从程序自己出发。如今来分别说说这两种状况的处理方法:
1.服务器保持了大量TIME_WAIT状态
这种状况比较常见,一些爬虫服务器或者WEB服务器(若是网管在安装的时候没有作内核参数优化的话)上常常会遇到这个问题,这个问题是怎么产生的呢?
从 上面的示意图能够看得出来,TIME_WAIT是主动关闭链接的一方保持的状态,对于爬虫服务器来讲他自己就是“客户端”,在完成一个爬取任务以后,他就 会发起主动关闭链接,从而进入TIME_WAIT的状态,而后在保持这个状态2MSL(max segment lifetime)时间以后,完全关闭回收资源。为何要这么作?明明就已经主动关闭链接了为啥还要保持资源一段时间呢?这个是TCP/IP的设计者规定 的,主要出于如下两个方面的考虑:
1.防止上一次链接中的包,迷路后从新出现,影响新链接(通过2MSL,上一次链接中全部的重复包都会消失)
2. 可靠的关闭TCP链接。在主动关闭方发送的最后一个 ack(fin) ,有可能丢失,这时被动方会从新发fin, 若是这时主动方处于 CLOSED 状态 ,就会响应 rst 而不是 ack。因此主动方要处于 TIME_WAIT 状态,而不能是 CLOSED 。另外这么设计TIME_WAIT 会定时的回收资源,并不会占用很大资源的,除非短期内接受大量请求或者受到攻击。
关于MSL引用下面一段话:
- MSL 為 一個 TCP Segment (某一塊 TCP 網路封包) 從來源送到目的之間可續存的時間 (也就是一個網路封包在網路上傳輸時能存活的時間),由 於 RFC 793 TCP 傳輸協定是在 1981 年定義的,當時的網路速度不像現在的網際網路那樣發達,你能够想像你從瀏覽器輸入網址等到第一 個 byte 出現要等 4 分鐘嗎?在現在的網路環境下幾乎不可能有這種事情發生,所以我們大可將 TIME_WAIT 狀態的續存時間大幅調低,好 讓 連線埠 (Ports) 能更快空出來給其余連線使用。
再引用网络资源的一段话:
- 值 得一说的是,对于基于TCP的HTTP协议,关闭TCP链接的是Server端,这样,Server端会进入TIME_WAIT状态,可 想而知,对于访 问量大的Web Server,会存在大量的TIME_WAIT状态,假如server一秒钟接收1000个请求,那么就会积压 240*1000=240,000个 TIME_WAIT的记录,维护这些状态给Server带来负担。固然现代操做系统都会用快速的查找算法来管理这些 TIME_WAIT,因此对于新的 TCP链接请求,判断是否hit中一个TIME_WAIT不会太费时间,可是有这么多状态要维护老是很差。
- HTTP协议1.1版规定default行为是Keep-Alive,也就是会重用TCP链接传输多个 request/response,一个主要缘由就是发现了这个问题。
也就是说HTTP的交互跟上面画的那个图是不同的,关闭链接的不是客户端,而是服务器,因此web服务器也是会出现大量的TIME_WAIT的状况的。
如今来讲如何来解决这个问题。
解决思路很简单,就是让服务器可以快速回收和重用那些TIME_WAIT的资源。
下面来看一下咱们网管对/etc/sysctl.conf文件的修改:
- #对于一个新建链接,内核要发送多少个 SYN 链接请求才决定放弃,不该该大于255,默认值是5,对应于180秒左右时间
- net.ipv4.tcp_syn_retries=2
- #net.ipv4.tcp_synack_retries=2
- #表示当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时,改成300秒
- net.ipv4.tcp_keepalive_time=1200
- net.ipv4.tcp_orphan_retries=3
- #表示若是套接字由本端要求关闭,这个参数决定了它保持在FIN-WAIT-2状态的时间
- net.ipv4.tcp_fin_timeout=30
- #表示SYN队列的长度,默认为1024,加大队列长度为8192,能够容纳更多等待链接的网络链接数。
- net.ipv4.tcp_max_syn_backlog = 4096
- #表示开启SYN Cookies。当出现SYN等待队列溢出时,启用cookies来处理,可防范少许SYN攻击,默认为0,表示关闭
- net.ipv4.tcp_syncookies = 1
-
- #表示开启重用。容许将TIME-WAIT sockets从新用于新的TCP链接,默认为0,表示关闭
- net.ipv4.tcp_tw_reuse = 1
- #表示开启TCP链接中TIME-WAIT sockets的快速回收,默认为0,表示关闭
- net.ipv4.tcp_tw_recycle = 1
-
- ##减小超时前的探测次数
- net.ipv4.tcp_keepalive_probes=5
- ##优化网络设备接收队列
- net.core.netdev_max_backlog=3000
修改完以后执行/sbin/sysctl -p让参数生效。
这里头主要注意到的是
net.ipv4.tcp_tw_reuse
net.ipv4.tcp_tw_recycle
net.ipv4.tcp_fin_timeout
net.ipv4.tcp_keepalive_*
这几个参数。
net.ipv4.tcp_tw_reuse和net.ipv4.tcp_tw_recycle的开启都是为了回收处于TIME_WAIT状态的资源。
net.ipv4.tcp_fin_timeout这个时间能够减小在异常状况下服务器从FIN-WAIT-2转到TIME_WAIT的时间。
net.ipv4.tcp_keepalive_*一系列参数,是用来设置服务器检测链接存活的相关配置。
2.服务器保持了大量CLOSE_WAIT状态
休息一下,喘口气,一开始只是打算说说TIME_WAIT和CLOSE_WAIT的区别,没想到越挖越深,这也是写博客总结的好处,总能够有意外的收获。
TIME_WAIT状态能够经过优化服务器参数获得解决,由于发生TIME_WAIT的状况是服务器本身可控的,要么就是对方链接的异常,要么就是本身没有迅速回收资源,总之不是因为本身程序错误致使的。
但 是CLOSE_WAIT就不同了,从上面的图能够看出来,若是一直保持在CLOSE_WAIT状态,那么只有一种状况,就是在对方关闭链接以后服务器程 序本身没有进一步发出ack信号。换句话说,就是在对方链接关闭以后,程序里没有检测到,或者程序压根就忘记了这个时候须要关闭链接,因而这个资源就一直 被程序占着。我的以为这种状况,经过服务器内核参数也没办法解决,服务器对于程序抢占的资源没有主动回收的权利,除非终止程序运行。
在那边日志里头我举了个场景,来讲明CLOSE_WAIT和TIME_WAIT的区别,这里从新描述一下:
服 务器A是一台爬虫服务器,它使用简单的HttpClient去请求资源服务器B上面的apache获取文件资源,正常状况下,若是请求成功,那么在抓取完 资源后,服务器A会主动发出关闭链接的请求,这个时候就是主动关闭链接,服务器A的链接状态咱们能够看到是TIME_WAIT。若是一旦发生异常呢?假设 请求的资源服务器B上并不存在,那么这个时候就会由服务器B发出关闭链接的请求,服务器A就是被动的关闭了链接,若是服务器A被动关闭链接以后程序员忘了 让HttpClient释放链接,那就会形成CLOSE_WAIT的状态了。
因此若是将大量CLOSE_WAIT的解决办法总结为一句话那就是:查代码。由于问题出在服务器程序里头啊。
参考资料: