http://zhuanlan.51cto.com/art/201911/605268.htm 内核参数调优 很是重要啊.
什么是经验?就是遇到问题,解决问题,总结方法。遇到的问题多了,解决的办法多了,经验天然就积累出来了。今天的文章是阿里技术专家蛰剑在工做中遇到的一个问题引起的对TCP性能和发送接收Buffer关系的系列思考(问题:应用经过专线从公司访问阿里云上的服务,专线100M,时延20ms,一个SQL查询了22M数据出现10倍+的信息延迟,不正常。)但愿,你也能从中获得启发。python
前言mysql
本文但愿解析清楚,当咱们在代码中写下 socket.setSendBufferSize 和 sysctl 看到的rmem/wmem系统参数以及最终咱们在TCP经常谈到的接收发送窗口的关系,以及他们怎样影响TCP传输的性能。sql
先明确一下:文章标题中所说的Buffer指的是sysctl中的 rmem或者wmem,若是是代码中指定的话对应着SO_SNDBUF或者SO_RCVBUF,从TCP的概念来看对应着发送窗口或者接收窗口。缓存
TCP性能和发送接收Buffer的关系服务器
相关参数:网络
先从碰到的一个问题看起:app
应用经过专线从公司访问阿里云上的服务,专线100M,时延20ms,一个SQL查询了22M数据,结果花了大概25秒,这太慢了,不正常。若是经过云上client访问云上服务那么1-2秒就返回了(说明不跨网络服务是正常的)。若是经过http或者scp从公司向云上传输这22M的数据大概两秒钟也传送完毕了(说明网络带宽不是瓶颈),因此这里问题的缘由基本上是咱们的服务在这种网络条件下有性能问题,须要找出为何。ssh
抓包 tcpdump+wiresharksocket
这个查询结果22M的须要25秒,以下图(wireshark 时序图),横轴是时间,纵轴是sequence number:tcp
粗一看没啥问题,由于时间太长掩盖了问题。把这个图形放大,就看中间50ms内的传输状况(横轴是时间,纵轴是sequence number,一个点表明一个包)。
换个角度,看看窗口尺寸图形:
从bytes in flight也大体能算出来总的传输时间 16K*1000/20=800Kb/秒咱们的应用会默认设置 socketSendBuffer 为16K:
socket.setSendBufferSize(16*1024) //16K send buffer
来看一下tcp包发送流程:
图片来源:陶辉
若是sendbuffer不够就会卡在上图中的第一步 sk_stream_wait_memory,经过systemtap脚本能够验证:
原理解析
若是tcp发送buffer也就是SO_SNDBUF只有16K的话,这些包很快都发出去了,可是这16K不能当即释放出来填新的内容进去,由于tcp要保证可靠,万一中间丢包了呢。只有等到这16K中的某些包ack了,才会填充一些新包进来而后继续发出去。因为这里rt基本是20ms,也就是16K发送完毕后,等了20ms才收到一些ack,这20ms应用、内核什么都不能作,因此就是如第二个图中的大概20ms的等待平台。
sendbuffer至关于发送仓库的大小,仓库的货物都发走后,不能当即腾出来发新的货物,而是要等对方确认收到了(ack)才能腾出来发新的货物。 传输速度取决于发送仓库(sendbuffer)、接收仓库(recvbuffer)、路宽(带宽)的大小,若是发送仓库(sendbuffer)足够大了以后接下来的瓶颈就是高速公路了(带宽、拥塞窗口)。
若是是UDP,就没有可靠的概念,有数据通通发出去,根本不关心对方是否收到,也就不须要ack和这个发送buffer了。
几个发送buffer相关的内核参数:
net.ipv4.tcp_wmem 默认就是16K,并且是可以动态调整的,只不过咱们代码中这块的参数是不少年前从Cobra中继承过来的,初始指定了sendbuffer的大小。代码中设置了这个参数后就关闭了内核的动态调整功能,可是能看到http或者scp都很快,由于他们的send buffer是动态调整的,因此很快。
接收buffer是有开关能够动态控制的,发送buffer没有开关默认就是开启,关闭只能在代码层面来控制:
优化
调整 socketSendBuffer 到256K,查询时间从25秒降低到了4秒多,可是比理论带宽所须要的时间略高。
继续查看系统 net.core.wmem_max 参数默认最大是130K,因此即便咱们代码中设置256K实际使用的也是130K,调大这个系统参数后整个网络传输时间大概2秒(跟100M带宽匹配了,scp传输22M数据也要2秒),总体查询时间2.8秒。测试用的mysql client短链接,若是代码中的是长链接的话会块300-400ms(消掉了慢启动阶段),这基本上是理论上最快速度了。
若是指定了tcp_wmem,则net.core.wmem_default被tcp_wmem的覆盖。send Buffer在tcp_wmem的最小值和最大值之间自动调整。若是调用setsockopt()设置了socket选项SO_SNDBUF,将关闭发送端缓冲的自动调节机制,tcp_wmem将被忽略,SO_SNDBUF的最大值由net.core.wmem_max限制。
BDP 带宽时延积
BDP=rtt*(带宽/8)
这个 buffer 调到1M测试没有帮助,从理论计算BDP(带宽时延积) 0.02秒*(100MB/8)=250Kb 因此SO_SNDBUF为256Kb的时候基本能跑满带宽了,再大实际意义也不大了。也就是前面所说的仓库足够后瓶颈在带宽上了。
由于BDP是250K,也就是拥塞窗口(带宽、接收窗口和rt决定的)即将成为新的瓶颈,因此调大buffer没意义了。
用tc构造延时和带宽限制的模拟重现环境
这个案例关于wmem的结论
默认状况下Linux系统会自动调整这个buffer(net.ipv4.tcp_wmem), 也就是不推荐程序中主动去设置SO_SNDBUF,除非明确知道设置的值是最优的。
从这里咱们能够看到,有些理论知识点虽然咱们知道,可是在实践中很难联系起来,也就是常说的没法学以至用,最开始看到抓包结果的时候比较怀疑发送、接收窗口之类的,没有直接想到send buffer上,理论跟实践的鸿沟。
说完发送Buffer(wmem)接下来咱们接着一看看接收buffer(rmem)和接收窗口的状况
用这样一个案例下来验证接收窗口的做用:
有一个batch insert语句,整个一次要插入5532条记录,全部记录大小总共是376K。SO_RCVBUF很小的时候而且rtt很大对性能的影响
若是rtt是40ms,总共须要5-6秒钟:
基本能够看到server一旦空出来点窗口,client立刻就发送数据,因为这点窗口过小,rtt是40ms,也就是一个rtt才能传3456字节的数据,整个带宽才80-90K,彻底没跑满。
比较明显间隔 40ms 一个等待台阶,台阶之间两个包大概3K数据,总的传输效率以下:
斜线越陡表示速度越快,从上图看总体SQL上传花了5.5秒,执行0.5秒。
此时对应的窗口尺寸:
窗口由最开始28K(20个1448)很快降到了不到4K的样子,而后基本游走在即将满的边缘,虽然读取慢,幸亏rtt也大,致使最终也没有满。(这个是3.1的Linux,应用SO_RCVBUF设置的是8K,用一半来作接收窗口)。
SO_RCVBUF很小的时候而且rtt很小时对性能的影响
若是一样的语句在 rtt 是0.1ms的话:
虽然明显看到接收窗口常常跑满,可是由于rtt很小,一旦窗口空出来很快就通知到对方了,因此整个太小的接收窗口也没怎么影响到总体性能。
如上图11.4秒整个SQL开始,到11.41秒SQL上传完毕,11.89秒执行完毕(执行花了0.5秒),上传只花了0.01秒,接收窗口状况:
如图,接收窗口由最开始的28K降下来,而后一直在5880和满了之间跳动:
从这里能够得出结论,接收窗口的大小对性能的影响,rtt越大影响越明显,固然这里还须要应用程序配合,若是应用程序一直不读走数据即便接收窗口再大也会堆满的。
SO_RCVBUF和tcp window full的坏case
上图中红色平台部分,停顿了大概6秒钟没有发任何有内容的数据包,这6秒钟具体在作什么以下图所示,能够看到这个时候接收方的TCP Window Full,同时也能看到接收方(3306端口)的TCP Window Size是8192(8K),发送方(27545端口)是20480。
这个情况跟前面描述的recv buffer过小不同,8K是很小,可是由于rtt也很小,因此server老是能很快就ack收到了,接收窗口也一直不容易达到full状态,可是一旦接收窗口达到了full状态,竟然须要惊人的6秒钟才能恢复,这等待的时间有点太长了。这里应该是应用读取数据太慢致使了耗时6秒才恢复,因此最终这个请求执行会很是很是慢(时间主要耗在了上传SQL而不是执行SQL)。
实际缘由不知道,从读取TCP数据的逻辑来看这里没有明显的block,可能的缘由:
接收方不读取数据致使的接收窗口满同时有丢包发生
服务端返回数据到client端,TCP协议栈ack这些包,可是应用层没读走包,这个时候 SO_RCVBUF 堆积满,client的TCP协议栈发送 ZeroWindow 标志给服务端。也就是接收端的 buffer 堆满了(可是服务端这个时候看到的bytes in fly是0,由于都ack了),这时服务端不能继续发数据,要等 ZeroWindow 恢复。
那么接收端上层应用不读走包可能的缘由:
应用代码逻辑上在作其它事情(好比Server将SQL分片到多个DB上,Server先读取第一个分片,若是第一个分片数据很大很大,处理也慢,那么第二个分片数据都返回到了TCP buffer,也没去读取其它分片的结果集,直到第一个分片读取完毕。若是SQL带排序,那么Server。
上图这个流由于应用层不读取TCP数据,致使TCP接收Buffer满,进而接收窗口为0,server端不能再发送数据而卡住,可是ZeroWindow的探测包,client都有正常回复,因此1903秒以后接收方窗口不为0后(window update)传输恢复。
这个截图和前一个相似,是在Server上(3003端口)抓到的包,不一样的是接收窗口为0后,server端屡次探测(Server上抓包能看到),可是client端没有回复 ZeroWindow(也有多是回复了,可是中间环节把ack包丢了,或者这个探测包client没收到),形成server端认为client死了、不可达之类,进而反复重传,重传超过15次以后,server端认为这个链接死了,粗暴单方面断开(没有reset和fin,由于不必,server认为网络连通性出了问题)。
等到1800秒后,client的接收窗口恢复了,发个window update给server,这个时候server认为这个链接已经断开了,只能回复reset。
网络不通,重传超过必定的时间(tcp_retries2)而后断开这个链接是正常的,这里的问题是:
为何这种场景下丢包了,并且是针对某个stream一直丢包?
多是由于这种场景下触发了中间环节的流量管控,故意丢包了(好比proxy、slb、交换机都有可能作这种选择性的丢包)。
这里server认为链接断开,没有发reset和fin,由于不必,server认为网络连通性出了问题。client还不知道server上这个链接清理掉了,等client回复了一个window update,server早就认为这个链接早断了,忽然收到一个update,莫名其妙,只能reset。
接收窗口和SO_RCVBUF的关系
初始接收窗口通常是 mss乘以初始cwnd(为了和慢启动逻辑兼容,不想一会儿冲击到网络),若是没有设置SO_RCVBUF,那么会根据 net.ipv4.tcp_rmem 动态变化,若是设置了SO_RCVBUF,那么接收窗口要向下面描述的值靠拢。
初始cwnd能够大体经过查看到:
初始窗口计算的代码逻辑,重点在18行:
传输过程当中,最大接收窗口会动态调整,当指定了SO_RCVBUF后,实际buffer是两倍SO_RCVBUF,可是要分出一部分(2^net.ipv4.tcp_adv_win_scale)来做为乱序报文缓存。
若是SO_RCVBUF是8K,总共就是16K,而后分出2^2分之一,也就是4分之一,还剩12K当作接收窗口;若是设置的32K,那么接收窗口是48K。
接收窗口有最大接收窗口和当前可用接收窗口。
通常来讲一次中断基本都会将 buffer 中的包都取走。
绿线是最大接收窗口动态调整的过程,最开始是1460*10,握手完毕后略微调整到1472*10(可利用body增长了12),随着数据的传输开始跳涨。
上图是四个batch insert语句,能够看到绿色接收窗口随着数据的传输愈来愈大,图中蓝色竖直部分基本表示SQL上传,两个蓝色竖直条的间隔表明这个insert在服务器上真正的执行时间。这图很是陡峭,表示上传没有任何瓶颈。
设置 SO_RCVBUF 后经过wireshark观察到的接收窗口基本
下图是设置了 SO_RCVBUF 为8192的实际状况:
从最开始的14720,执行第一个create table语句后降到14330,到真正执行batch insert就降到了8192*1.5. 而后一直保持在这个值。
If you set a "receive buffer size" on a TCP socket, what does it actually mean?
The naive answer would go something along the lines of: the TCP receive buffer setting indicates the maximum number of bytes a read() syscall could retrieve without blocking.
Note that if the buffer size is set with setsockopt(), the value returned with getsockopt() is always double the size requested to allow for overhead. This is described in man 7 socket.
总结
总之记住一句话:不要设置socket的SO_SNDBUF和SO_RCVBUF。