http://blog.sina.com.cn/s/blog_541086000100skq0.html proc/sys/net/ipv4/下各项的意义
http://blog.chinaunix.net/space.php?uid=20423817&do=blog&id=1682374 网站加速:服务器篇 一些实用tips的整理
http://bbs.chinaunix.net/thread-2318039-1-1.html
问题表现就是epoll这个服务端对10000的并发请求处理特别慢,甚至还出现不少客户链接超时的状况!可是顺序的一个个请求却没有问题。
测试以下:
首先是1个进程,顺序10000个请求。服务端没问题,很快速完成。
而后是10000个进程,每一个进程1个请求,开始都还正常,但是过一会服务端accept就阻塞了,大概有1-2s,以后又返回,有时候还会出现客户端链接超时的问题,可是这样测30章那个线程池(300个线程)的服务端代码,无论怎么测都不会有问题。
按理说accept应该能一直返回才对呀,为何中途会阻塞呢?是内核参数问题?
以前也试过把listenfd也添加到epoll里,listenfd不是ET模式。也有这样的问题。
分析了不少可能:
? epoll自己处理效率的问题(这个本身都不信)
? 服务端完成客户的处理请求太耗时,致使没有时间让accept返回其余客户链接(这是个最简单的处理,应该也不会)
? 单台机器测试,因此产生了太多的TIME_WAIT致使客户没法链接致使超时(以前觉得是这个缘由)
? 内核的一些限制问题,服务端不能同时处理太多链接(可能的缘由)
最终才发现真正缘由!!!
原来上面这个服务器代码listen指定的backlog链接完成队列参数过小,只有32,致使高并发的时候,服务器的链接完成队列在极短的时间内被填满 了,而accept的处理速度跟不上队列填满的速度,致使队列始终是满的,而后就不理会客户的其余链接请求,致使了客户connect超时,而且处理效率 低下。
而线程池的backlog有1024,不过受限于内核参数的默认值最大128,因此线程池这个的backlog实际是128(见man listen),再加上300个线程,每一个线程独自accpet,因此能很快从完成队列中取得链接,客户的connect也不会超时了,若是把线程数改成 1个,客户链接也会超时。
详细信息能够man listen 同时man tcp 里面有不少限制对服务器来讲须要改的。
通常设置:
1 #sudo vi /etc/sysctl.conf
#在最后面编辑添加如下内容:
#缺省socket写buffer,可参考的优化值:873200/1746400/3492800
net.core.wmem_default = 1746400
#最大socket写buffer,可参考的优化值:1746400/3492800/6985600
net.core.wmem_max = 3492800
#缺省socket读buffer,可参考的优化值:873200/1746400/3492800
net.core.rmem_default = 1746400
#最大socket读buffer,可参考的优化值:1746400/3492800/6985600
net.core.rmem_max = 3492800
#进入包的最大设备队列.默认是1000,对重负载服务器而言,该值过低,可调整到16384/32768/65535
net.core.netdev_max_backlog = 32768
#listen()的默认参数,挂起请求的最大数量.默认是128.对繁忙的服务器,增长该值有助于网络性能.可调整到8192/16384/32768
net.core.somaxconn = 16384
#每一个socket buffer的最大补助缓存大小,默认10K(10240),也可调整到20k(20480),但建议保留
net.core.optmem_max = 10240
#表示用于向外链接的端口范围.缺省状况下过窄:32768到61000,改成1024到65535
net.ipv4.ip_local_port_range = 1024 65535
#TCP写buffer,可参考的优化值:873200/1746400/3492800/6985600
net.ipv4.tcp_wmem = 873200 1746400 3492800
#TCP读buffer,可参考的优化值:873200/1746400/3492800/6985600
net.ipv4.tcp_rmem = 873200 1746400 3492800
#net.ipv4.tcp_mem[0]:低于此值,TCP没有内存压力.
#net.ipv4.tcp_mem[1]:在此值下,进入内存压力阶段.
#net.ipv4.tcp_mem[2]:高于此值,TCP拒绝分配socket.
#上述内存单位是页,而不是字节.可参考的优化值是:78643200/104857600/157286400
net.ipv4.tcp_mem = 78643200 104857600 157286400
#进入SYN包的最大请求队列.默认1024.对重负载服务器,增长该值显然有好处.可调整到16384/32768/65535
net.ipv4.tcp_max_syn_backlog = 32768
#TCP失败重传次数,默认值15,意味着重传15次才完全放弃.可减小到5,以尽早释放内核资源
net.ipv4.tcp_retries2 = 5
#如下3个参数与TCP KeepAlive有关.默认值是:
#tcp_keepalive_time = 7200 seconds (2 hours)
#tcp_keepalive_probes = 9
#tcp_keepalive_intvl = 75 seconds
#意思是若是某个TCP链接在idle 2个小时后,内核才发起probe.若是probe 9次(每次75秒)不成功,内核才完全放弃,认为该链接已失效
#对服务器而言,显然上述值太大.可调整到:
net.ipv4.tcp_keepalive_time = 1800
net.ipv4.tcp_keepalive_probes = 3
net.ipv4.tcp_keepalive_intvl = 30
#表示开启SYN Cookies,当出现SYN等待队列溢出时,启用cookies来处理,可防范少许SYN攻击,默认为0,表示关闭
net.ipv4.tcp_syncookies = 1
#表示若是套接字由本端要求关闭,这个参数决定了它保持在FIN-WAIT-2状态的时间
net.ipv4.tcp_fin_timeout = 30
#表示开启重用,容许将TIME-WAIT sockets从新用于新的TCP链接,默认为0,表示关闭
#net.ipv4.tcp_tw_reuse = 1
#表示开启TCP链接中TIME-WAIT sockets的快速回收,默认为0,表示关闭
#net.ipv4.tcp_tw_recycle = 1
#表示系统同时保持TIME_WAIT套接字的最大数量,若是超过这个数字,TIME_WAIT套接字将马上被清除并打印警告信息
#默认为180000,建议使用默认值,不建议调小
#net.ipv4.tcp_max_tw_buckets = 180000
#其它的一些设置
net.ipv4.route.gc_timeout = 100
net.ipv4.tcp_syn_retries = 2
net.ipv4.tcp_synack_retries = 2
保存退出:
2 #sudo /sbin/sysctl -p
***************************************************************************************php
http://www.linuxidc.com/Linux/2007-08/6995.htmhtml
Linux进行性能优化。
1) Linux Proc文件系统,经过对Proc文件系统进行调整,达到性能优化的目的。
2) Linux性能诊断工具,介绍如何使用Linux自带的诊断工具进行性能诊断。node
1) /proc/sys/kernel/ctrl-alt-dellinux
2) proc/sys/kernel/msgmax
该文件指定了从一个进程发送到另外一个进程的消息的最大长度(bytes)。进程间的消息传递是在内核的内存中进行的,不会交换到磁盘上,因此若是增长该值,则将增长操做系统所使用的内存数量。
缺省设置:8192
3) /proc/sys/kernel/msgmnb
该文件指定一个消息队列的最大长度(bytes)。
缺省设置:16384
4) /proc/sys/kernel/msgmni
该文件指定消息队列标识的最大数目,即系统范围内最大多少个消息队列。
缺省设置:16
5) /proc/sys/kernel/panic
该文件表示若是发生“内核严重错误(kernel panic)”,则内核在从新引导以前等待的时间(以秒为单位)。
零(0)秒,表示在发生内核严重错误时将禁止自动从新引导。
缺省设置:0
6) proc/sys/kernel/shmall
该文件表示在任何给定时刻,系统上可使用的共享内存的总量(bytes)。
缺省设置:2097152
7) /proc/sys/kernel/shmmax
该文件表示内核所容许的最大共享内存段的大小(bytes)。
缺省设置:33554432
建议设置:物理内存 * 50%
实际可用最大共享内存段大小=shmmax * 98%,其中大约2%用于共享内存结构。
能够经过设置shmmax,而后执行ipcs -l来验证。
8) /proc/sys/kernel/shmmni
该文件表示用于整个系统的共享内存段的最大数目(个)。
缺省设置:4096
9) /proc/sys/kernel/threads-max
该文件表示内核所能使用的线程的最大数目。
缺省设置:2048
3、/proc/sys/vm/优化
1) /proc/sys/vm/block_dump
该文件表示是否打开Block Debug模式,用于记录全部的读写及Dirty Block写回动做。
缺省设置:0,禁用Block Debug模式
2) /proc/sys/vm/dirty_background_ratio
该文件表示脏数据到达系统总体内存的百分比,此时触发pdflush进程把脏数据写回磁盘。
缺省设置:10
3) /proc/sys/vm/dirty_expire_centisecs
该文件表示若是脏数据在内存中驻留时间超过该值,pdflush进程在下一次将把这些数据写回磁盘。
缺省设置:3000(1/100秒)
4) /proc/sys/vm/dirty_ratio
该文件表示若是进程产生的脏数据到达系统总体内存的百分比,此时进程自行把脏数据写回磁盘。
缺省设置:40
5) /proc/sys/vm/dirty_writeback_centisecs
该文件表示pdflush进程周期性间隔多久把脏数据写回磁盘。
缺省设置:500(1/100秒)
6) /proc/sys/vm/vfs_cache_pressure
该文件表示内核回收用于directory和inode cache内存的倾向;缺省值100表示内核将根据pagecache和swapcache,把directory和inode cache保持在一个合理的百分比;下降该值低于100,将致使内核倾向于保留directory和inode cache;增长该值超过100,将致使内核倾向于回收directory和inode cache。
缺省设置:100
7) /proc/sys/vm/min_free_kbytes
该文件表示强制Linux VM最低保留多少空闲内存(Kbytes)。
缺省设置:724(512M物理内存)
8) /proc/sys/vm/nr_pdflush_threads
该文件表示当前正在运行的pdflush进程数量,在I/O负载高的状况下,内核会自动增长更多的pdflush进程。
缺省设置:2(只读)
9) /proc/sys/vm/overcommit_memory
该文件指定了内核针对内存分配的策略,其值能够是0、一、2。
0, 表示内核将检查是否有足够的可用内存供应用进程使用;若是有足够的可用内存,内存申请容许;不然,内存申请失败,并把错误返回给应用进程。
1, 表示内核容许分配全部的物理内存,而无论当前的内存状态如何。
2, 表示内核容许分配超过全部物理内存和交换空间总和的内存(参照overcommit_ratio)。
缺省设置:0
4、/proc/sys/fs/优化
1) /proc/sys/fs/file-max
该文件指定了能够分配的文件句柄的最大数目。若是用户获得的错误消息声明因为打开文件数已经达到了最大值,从而他们不能打开更多文件,则可能须要增长该值。
缺省设置:4096
建议设置:65536
2) /proc/sys/fs/file-nr
该文件与 file-max 相关,它有三个值:
已分配文件句柄的数目
已使用文件句柄的数目
文件句柄的最大数目
该文件是只读的,仅用于显示信息。
3) 待续。。。
6、/proc/sys/net/ipv4/优化
1) /proc/sys/net/ipv4/ip_forward
该文件表示是否打开IP转发。
0,禁止
1,转发
缺省设置:0
2) /proc/sys/net/ipv4/ip_default_ttl
该文件表示一个数据报的生存周期(Time To Live),即最多通过多少路由器。
缺省设置:64
增长该值会下降系统性能。
3) /proc/sys/net/ipv4/ip_no_pmtu_disc
该文件表示在全局范围内关闭路径MTU探测功能。
缺省设置:0
4) /proc/sys/net/ipv4/route/min_pmtu
该文件表示最小路径MTU的大小。
缺省设置:552
5) /proc/sys/net/ipv4/route/mtu_expires
该文件表示PMTU信息缓存多长时间(秒)。
缺省设置:600(秒)
6) /proc/sys/net/ipv4/route/min_adv_mss
该文件表示最小的MSS(Maximum Segment Size)大小,取决于第一跳的路由器MTU。
缺省设置:256(bytes)
6.1 IP Fragmentation
1) /proc/sys/net/ipv4/ipfrag_low_thresh/proc/sys/net/ipv4/ipfrag_low_thresh
两个文件分别表示用于重组IP分段的内存分配最低值和最高值,一旦达到最高内存分配值,其它分段将被丢弃,直到达到最低内存分配值。
缺省设置:196608(ipfrag_low_thresh)
262144(ipfrag_high_thresh)
2) /proc/sys/net/ipv4/ipfrag_time
该文件表示一个IP分段在内存中保留多少秒。
缺省设置:30(秒)
6.2 INET Peer Storage
1) /proc/sys/net/ipv4/inet_peer_threshold
INET对端存储器某个合适值,当超过该阀值条目将被丢弃。该阀值一样决定生存时间以及废物收集经过的时间间隔。条目越多,存活期越低,GC 间隔越短。
缺省设置:65664
2) /proc/sys/net/ipv4/inet_peer_minttl
条目的最低存活期。在重组端必需要有足够的碎片(fragment)存活期。这个最低存活期必须保证缓冲池容积是否少于 inet_peer_threshold。该值以 jiffies为单位测量。
缺省设置:120
3) /proc/sys/net/ipv4/inet_peer_maxttl
条目的最大存活期。在此期限到达以后,若是缓冲池没有耗尽压力的话(例如:缓冲池中的条目数目很是少),不使用的条目将会超时。该值以 jiffies为单位测量。
缺省设置:600
4) /proc/sys/net/ipv4/inet_peer_gc_mintime
废物收集(GC)经过的最短间隔。这个间隔会影响到缓冲池中内存的高压力。 该值以 jiffies为单位测量。
缺省设置:10
5) /proc/sys/net/ipv4/inet_peer_gc_maxtime
废物收集(GC)经过的最大间隔,这个间隔会影响到缓冲池中内存的低压力。 该值以 jiffies为单位测量。
缺省设置:120
6.3 TCP Variables
1) /proc/sys/net/ipv4/tcp_syn_retries
该文件表示本机向外发起TCP SYN链接超时重传的次数,不该该高于255;该值仅仅针对外出的链接,对于进来的链接由tcp_retries1控制。
缺省设置:5