简单的说就是,每一个硬件设备(如:硬盘、网卡等)都须要和 CPU 有某种形式的通讯以便 CPU 及时知道发生了什么事情,这样 CPU 可能就会放下手中的事情去处理应急事件,硬件设备主动打扰 CPU 的现象就是硬件中断。
shell
关于SMP IRQ affinity?bash
新的内核, Linux改进了分配特定中断到指定的处理器(或处理器组)的功能. 这被称为SMP IRQ affinity, 它能够控制系统如何响应各类硬件事件. 容许你限制或者从新分配服务器的工做负载, 从而让服务器更有效的工做. 以网卡中断为例,在没有设置SMP IRQ affinity时, 全部网卡中断都关联到CPU0, 这致使了CPU0负载太高,而没法有效快速的处理网络数据包,致使了瓶颈。 经过SMP IRQ affinity, 把网卡多个中断分配到多个CPU上,能够分散CPU压力,提升数据处理速度。服务器
irqbalance的一些个介绍
网络
irqbalance 用于优化中断分配,它会自动收集系统数据以分析使用模式,并依据系统负载情况将工做状态置于 Performance mode 或 Power-save mode.处于 Performance mode时irqbalance 会将中断尽量均匀地分发给各个CPU以充分利用 CPU 多核,提高性能.处于 Power-save mode时,irqbalance 会将中断集中分配给第一个 CPU,以保证其它空闲 CPU 的睡眠时间,下降能耗。
负载均衡
在没有配置SMP IRQ affinity,也没有开启irqbalance的时候~socket
在配置了SMP IRQ affinity,启动了RPS,关闭irqbalancetcp
在做网络程序的时候, 常常须要了解interrupts和软中断的平衡状况, 须要知道每秒有多少中断发生,发生在哪一个cpu上.
Linux下中断来源信息能够从 /proc/interrupts 中了解到~ide
你们会看到他的频率是同样的,由于咱们这边已经开了irqbalance,这个东西在负载不大的状况下,是个很不错的服务,他的主要功能是能够合理的调配使用各个CPU核心,特别是对于目前主流多核心的CPU,简单的说就是可以把压力均匀的分配到各个CPU核心上,对提高性能有很大的帮助。性能
[root@102 ~]# service irqbalance status irqbalance (pid 21745) is running... [root@102 ~]#
首先咱们能够经过访问/proc/cpuinfo的信息查看到cpu的具体信息。测试
获取eth0网卡的中断irq号,而且赋值给shell变量
关闭irqbalance自动分配服务,好让我们手动分配中断请求`
/etc/init.d/irqbalance stop
指定CPU来处理对应网卡的中断请求
我这里是选择cpu2来处理这个网卡中断~
这里的4是cpu的16进制表达式
CPU Binary oct
CPU 0 00000001 1
CPU 1 00000010 2
CPU 2 00000100 4
CPU 3 00001000 8
这里分享一个脚本,直接算就能够了~
#!/bin/bash # echo "统计cpu的16进制" [ $# -ne 1 ] && echo ‘$1 is Cpu core number’ && exit 1 CCN=$1 echo “Print eth0 affinity” for((i=0; i<${CCN}; i++)) do echo ============================== echo "Cpu Core $i is affinity" ((affinity=(1<<i))) echo "obase=16;${affinity}" | bc done
要是cpu是8核心的~
要是16个核心的~
[root@102 ~]# sh run.sh 16 统计cpu的16进制 “Print eth0 affinity” ============================== Cpu Core 0 is affinity 1 ============================== Cpu Core 1 is affinity 2 ============================== Cpu Core 2 is affinity 4 ============================== Cpu Core 3 is affinity 8 ============================== Cpu Core 4 is affinity 10 ============================== Cpu Core 5 is affinity 20 ============================== Cpu Core 6 is affinity 40 ============================== Cpu Core 7 is affinity 80 ============================== Cpu Core 8 is affinity 100 ============================== Cpu Core 9 is affinity 200 ============================== Cpu Core 10 is affinity 400 ============================== Cpu Core 11 is affinity 800 ============================== Cpu Core 12 is affinity 1000 ============================== Cpu Core 13 is affinity 2000 ============================== Cpu Core 14 is affinity 4000 ============================== Cpu Core 15 is affinity 8000
而后对于smp_affinity的配置,根据16进制的cpu数目来算的,你要是输入5的话,那意思就是说 cpu0 和cpu2都参与进去了。
你们还会注意到,目录下还有个smp_affinity_list ,他是十进制的表达方式
两个配置是相通的,smp_affinity_list使用的是十进制,相比较smp_affinity的十六进制,可读性更好些。
echo 3,8 > /proc/irq/31/smp_affinity_list echo 0-4 > /proc/irq/31/smp_affinity_list
利用watch查看切换后的效果
[root@102 ~]# watch -n 2 "cat /proc/interrupts |grep eth"
好了,须要说明的是:
对单队列网卡而言,smp_affinity和smp_affinity_list配置多CPU是没有效果的。这话也不是绝对的,我们能够用RPS来搞定。
该功能主要针对单队列网卡多CPU环境,如网卡支持多队列则可以使用SMP irq affinity直接绑定硬中断,要是不支持多队列,那就用RPS解决网络软中断的负载均衡,即单个网卡的软中断分散到多个CPU处理,避免单个CPU负载过大致使性能瓶颈。
如何肯定你的网卡支持多队列~
最右面的那些就是多队列的信息了
这个是4队列的~
这个是8队列的~
这里用的机型是IBM x3630 m3
网卡是MSI-X的
事实上在一个大量小包的系统上,irqbalance优化几乎没有效果,并且还使得cpu消耗分配的不均衡,致使机器性能得不到充分的利用,这个时候须要把它给结束掉。而后我们用手动的方法配置下。
无论怎么说,在同等条件下强烈你们选用多队列的网卡,常见的有Intel的8257五、82576,Boardcom的57711等。
多队列网卡是一种技术,最初是用来解决网络IO QoS 问题的,随着网络IO的带宽的不断提高,单核CPU不能彻底处知足网卡的需求,经过多队列网卡驱动的支持,将各个队列经过中断绑定到不一样的核上。其实用bonding网卡绑定在必定程度也能够作中断负载均衡,两个网卡中断号能够绑定在不一样的cpu核心上。
因为RPS只是单纯把数据包均衡到不一样的cpu,这个时候若是应用程序所在的cpu和软中断处理的cpu不是同一个,此时对于cpu cache的影响会很大,那么RFS确保应用程序处理的cpu跟软中断处理的cpu是同一个,这样就充分利用cpu的cache.
有两种配置的方法:
把每一个队列连到一个cpu上
/proc/sys/net/core/rps_sock_flow_entries 32768 /sys/class/net/eth0/queues/rx-0/rps_cpus 00000001 /sys/class/net/eth0/queues/rx-1/rps_cpus 00000002 /sys/class/net/eth0/queues/rx-2/rps_cpus 00000004 /sys/class/net/eth0/queues/rx-3/rps_cpus 00000008 /sys/class/net/eth0/queues/rx-0/rps_flow_cnt 4096 /sys/class/net/eth0/queues/rx-1/rps_flow_cnt 4096 /sys/class/net/eth0/queues/rx-2/rps_flow_cnt 4096 /sys/class/net/eth0/queues/rx-3/rps_flow_cnt 4096
另外一种是推荐的方法: 这个方法在多方面测试下,能够很好的均衡下来。
/sys/class/net/eth0/queues/rx-0/rps_cpus 000000ff /sys/class/net/eth0/queues/rx-1/rps_cpus 000000ff /sys/class/net/eth0/queues/rx-2/rps_cpus 000000ff /sys/class/net/eth0/queues/rx-3/rps_cpus 000000ff /sys/class/net/eth0/queues/rx-0/rps_flow_cnt 4096 /sys/class/net/eth0/queues/rx-1/rps_flow_cnt 4096 /sys/class/net/eth0/queues/rx-2/rps_flow_cnt 4096 /sys/class/net/eth0/queues/rx-3/rps_flow_cnt 4096 /proc/sys/net/core/rps_sock_flow_entries 32768
总结下:
RPS/RFS主要是针对单队列网卡多CPU环境。虽然有这些虚拟队列的支撑,可是毕竟是软件模拟的。 强烈推荐用支持多队列的网卡。
多队列多重中断的网卡在使用了smp affinity以后也能够再使用该RFS RPS的功能,在这里他更像是个接收方的调解员,最大程度的提升cpu cache。
本身的一些理解,要是有不对的地方,请朋友们喷之 !
这两天会把测试的结果贴上来,6楼的库房停电了,从哥们拿申请了几个R720xd的测试机器都连不上了 !
这边的网络测试用的是 netperf ~
tar -xzvf netperf-2.5.0.tar.gz cd netperf-2.5.0 ./configure make make install
用法:
根据做用范围的不一样,netperf的命令行参数能够分为两大类:全局命令行参数、测试相关的局部参数,二者之间使用--分隔: Netperf [global options] –-[test-specific options] 其中: 全局命令行参数包括以下选项: -H host :指定远端运行netserver的server IP地址。 -l testlen:指定测试的时间长度(秒) -t testname:指定进行的测试类型,包括TCP_STREAM,UDP_STREAM,TCP_RR,TCP_CRR,UDP_RR 测试相关的局部参数包括以下选项: -s size 设置本地系统的socket发送与接收缓冲大小 -S size 设置远端系统的socket发送与接收缓冲大小 -m size 设置本地系统发送测试分组的大小 -M size 设置远端系统接收测试分组的大小 -D 对本地与远端系统的socket设置TCP_NODELAY选项
102 是请求端,能够看到他的网卡跑尽是118M左右。
101是服务端 ~
我们看看客户端的结果:
udp压力测试下
tcp压力测试下