Redhat配置网卡阵列

1)修改vi /etc/rc.d/rc.local文件,增长如下内容(注意这里添加的是eth0、eth1两个网口)
ifenslave bond0 eth0 eth1
#若是一块网卡失效,系统会按照/etc/rc.d/rc.local里顺序启动网卡,起到失效保护做用。
echo "0" >>/proc/sys/net/ipv4/icmp_echo_ignore_broadcasts
setsebool ftpd_disable_trans 1
service vsftpd restart
route add -net 224.0.0.0/4 dev bond0
#添加路由来设定发送规则
2)修改配置文件/etc/sysconfig/network-scripts
新增ifcfg-bond0文件,内容以下:
DEVICE=bond0             #设备名称
BOOTPROTO=static         #不启用DHCP
ONBOOT=yes               #开机自启动
IPADDR=192.168.101.X     #网卡阵列的ip地址
NETMASK=255.255.255.0    #掩码
GATEWAY=192.168.101.1    #网关
修改ifcfg-eth0,ifcfg-eth1文件,根据实际配置文件新增修改部分以下:
MASTER=bond0
SLAVE=yes
BOOTPROTO=static         #配置静态地址,不开启DHCP
ONBOOT=yes               #开机网卡自启动
3)修改/etc/modprobe.d/dist.conf(按esc用:$回车抵达最后一行在末尾添加下面两句)
alias bond0 bonding
(Bonding只能提供链路监测,从主机到交换机的链路是否连通,若是只是交换机对外的链路down掉,而交换机自己没有故障,bonding会认为没有故障而继续使用)
options bond0 miimon=100 mode=1
(miimon用来进行链路监测,每100ms监测一次链路链接状态,若是一条不一样转入另外一条线路;mode的值表示工做模式,共有1,2,3,4四种模式
Mode=0表示load balancing(round-robin)为负载均衡模式
Mode=1表示fault- tolerance(active-backup)为冗余模式,主备工做模式)
alias net-pf-10 off         #关闭ipv6支持,能够不加
对于级联小交换机
alias bond0 bonding
options bond0 mode=1 arp_interval=500 arp_ip_target=192.168.101.254 arp_validate=all primary=eth0
#经过定时器,每一个slave接口不断发送ARP包来不断更换交换机端口与MAC的对应关系
使得每一个网卡都在进行工做。这个ARP的发送规则是:
每arp_interval(MS)间隔向arp_ip_target发送arp请求,能够向多个arp_ip_target发送arp请求。
4)增长/etc/udev/rules.d/50-hwinterfaces.rules
(锁定网卡物理地址,SYSFS{address}==""双引号中输入物理地址)
KERNEL=="eth*",SYSFS{address}=="",NAME="eth0"
KERNEL=="eth*",SYSFS{address}=="",NAME="eth1"
KERNEL=="eth*",SYSFS{address}=="",NAME="eth2"
KERNEL=="eth*",SYSFS{address}=="",NAME="eth3"
KERNEL=="eth*",SYSFS{address}=="",NAME="eth4"
防止机器网卡的mac地址发生漂移
5)查看网卡阵列的配置状况
#ifconfig -a|grep HWaddr
查看网卡mac信息,若是bond0,eth0,eth1硬件地址一致,则配置成功
#cat /proc/net/bonding/bond0
查看bond0工做状态
附录:
1.bond0上的mac地址修改为一致,这些网卡接在同一台交换机上,那么该交换机的arp表同一mac地址对应的端口有多个,交换机没法判断数据包发往的端口,因此要求交换机的相应端口采起聚合模式,聚合后的端口采用同一mac地址。
2. 使网卡配置立刻生效,不用重启机器,命令
#service network restart或
#/etc/rc.d/init.d/network restart
必须关闭NetworkManager服务
#service NetworkManager stop      //当前环境下关闭服务
#chkconfig NetworkManager off     //开机启动关闭服务
3.从新启动网卡,命令
#ifconfig bond0 down/ifdown bond0
#ifconfig eth0 down/ifdown eth0
#ifconfig eth1 down/ifdown eth1
#ifenslave bond0 eth0 
#ifenslave bond0 eth1 
#ifconfig bond0 up/ifup bond0
#ifconfig eth0 up/ifup eth0
#ifconfig eth1 up/ifup eth1
4. Bonding的模式一共有7种:
#defineBOND_MODE_ROUNDROBIN     0.balance-rr模式,网卡的负载均衡模式
#defineBOND_MODE_ACTIVEBACKUP    1.active-backup模式,网卡的容错模式
#defineBOND_MODE_XOR             2.balance-xor模式,须要交换机支持
#defineBOND_MODE_BROADCAST      3.broadcast模式
#defineBOND_MODE_8023AD         4.IEEE 802.3ad动态链路聚合模式,须要交换机支持#defineBOND_MODE_TLB             5.自定义传输负载均衡模式
#defineBOND_MODE_ALB             6.网卡虚拟化方式
bonding模块的全部工做模式能够分为两类:多主型工做模式和主备型工做模式,balance-rr 和broadcast属于多主型工做模式而active-backup属于主备型工做模式。(balance-xor、自适应传输负载均衡模式 (balance-tlb)和自适应负载均衡模式(balance-alb)也属于多主型工做模式,IEEE 802.3ad动态链路聚合模式(802.3ad)属于主备型工做模式。
1)BOND_MODE_ROUNDROBIN模式下,bonding对于发送和接收数据的处理逻辑是不一致的,对于数据的接收,bonding基本不作任何处理,纯粹依靠交换机端口与MAC的变化来实现交替接收数据。发送的话,交换机会根据数据的源MAC来学习端口和MAC之间的关系,因此bonding 作到的就是选择不同的网卡发送。
2)网卡的容错模式(mode =BOND_MODE_ACTIVEBACKUP),容错模式的配置方法和负载均衡模式基本差很少,只不过修改一下/etc/modprobe.conf便可。
5.arp检测模式
观察交换机端口上所学习到的MAC地址,发现MAC会在两个端口上反复切换在BOND_MODE_ROUNDROBIN模式下,bonding对于发送和接收数据的处理逻辑是不一致的,对于数据的接收,bonding基本不作任何处理,纯粹依靠交换机端口与MAC的变化来实现交替接收数据。发送的话,交换机会根据数据的源MAC来学习端口和MAC之间的关系,因此bonding 作到的就是选择不同的网卡发送。
对于数据的发送,
static inline voidbond_set_mode_ops(struct net_device *bond_dev, int mode)
{
switch(mode) {
case BOND_MODE_ROUNDROBIN:
bond_dev->hard_start_xmit =bond_xmit_roundrobin;
break;
...
bond的发送函数被注册为bond_xmit_roundrobin。经过bond_xmit_roundrobin的实现能够发现。
static int bond_xmit_roundrobin(structsk_buff *skb, struct net_device *bond_dev)
{
ead_lock(&bond->curr_slave_lock);
slave = start_at = bond->curr_active_slave;
read_unlock(&bond->curr_slave_lock);
bond_for_each_slave_from(bond, slave, i,start_at) {
if(IS_UP(slave->dev) &&
 (slave->link == BOND_LINK_UP) &&
 (slave->state ==BOND_STATE_ACTIVE)) {
res =bond_dev_queue_xmit(bond, skb, slave->dev);
write_lock(&bond->curr_slave_lock);
bond->curr_active_slave= slave->next;
write_unlock(&bond->curr_slave_lock);
break;
}
bond_xmit_roundrobin会经过curr_active_slave指针所指向的设备来进行发送,固然 curr_active_slave会在调用bond_dev_queue_xmit完成实际的发送以后指向下一个slave设备。 bond_dev_queue_xmit实际是调用通用的发送函数dev_queue_xmit来进行的,它传递给dev_queue_xmit的是一个 skb,在传递以前skb->dev就被指定为了当前的slave设备,这样内核就会找到对应的真实网卡设备来进行发送,最后 curr_active_slave指针的轮询切换,实现了bonding的负载均衡工做模式。
从这种模式能够看到,bonding实现了一个相似网卡驱动的模块,对应的bond0设备是一个纯粹的虚设备,数据发送虽说通过了它,但经过一系列调用,转了一圈以后才回到真正的网卡设备那里进行发送,无疑会消耗必定的系统性能。
简单用100Mbps速率的UDP数据包测试了一下BOND_MODE_ROUNDROBIN模式。
测试过程当中发现接收端会有较多的乱序包,观察交换机端口状况,端口之间的切换频率不规则,这个和交换机的配置或者性能应该有很大联系,有必要的话须要进一步研究。数据的正确性和时序性可否保证须要进一步仔细测试。
6. mii链路检测方式
与以前arp检测方式不一样。这两种链路检测方式在各类mode下都是可使用的,但要注意不能同时使用。
bonding的mii检测实现。首先和arp-monitor同样,mii也是定时器触发
if(bond->params.miimon) {  /* link checkinterval, in milliseconds. */
init_timer(mii_timer);
mii_timer->expires= jiffies + 1;
mii_timer->data  = (unsigned long)bond_dev;
mii_timer->function = (void*)&bond_mii_monitor;
add_timer(mii_timer);
}
bond_mii_monitor函数其本质的原理就是检测网卡的链路状态,bonding定义网卡有4个链路状态:BOND_LINK_UP:
正常状态(处于该状态的网卡是是潜在的发送数据包的候选者)
BOND_LINK_FAIL:网卡出现故障,向状态BOND_LINK_DOWN 切换中
BOND_LINK_DOWN:失效状态
BOND_LINK_BACK:网卡恢复,向状态BOND_LINK_UP切换中
从上到下,表示了网卡链路从正常到失效再到恢复状态。bond_mii_monitor函数就是依次检查网卡的链路状态是否处于这些状态,而后经过标记 do_failover变量来讲明当前是否须要切换slave网卡。代码篇幅较大,但逻辑仍是很清晰的,故此处不罗列了。
在BOND_MODE_ACTIVEBACKUP模式下,两块网卡其实有一块是不工做的,被设置为IFF_NOARP的状态。同时,bond虚设备,还有 slave设备的MAC地址均一致,因此这张网卡不会被外界察觉存在。交换机也不存在想该端口发包的状况。当bond的mii检测发现当前的active 设备失效了以后,会切换到这个备份设备上。
在bond_change_active_slave函数中
if (bond->params.mode ==BOND_MODE_ACTIVEBACKUP) {
if (old_active) {
bond_set_slave_inactive_flags(old_active);
}
if (new_active) {
bond_set_slave_active_flags(new_active);
}
}
这个就是在BOND_MODE_ACTIVEBACKUP模式下的切换逻辑,很简单,须要注意的是,在 bond_set_slave_inactive_flags(old_active)中,须要将接口的状态设置为IFF_NOARP,否则交换机就可能 会把数据包发送到一个错误的端口上。
BOND_MODE_ACTIVEBACKUP模式下的数据发送很是简单,可想而知curr_active_slave指针始终都指向当前可用的设备,所 以直接发送就能够,没有以前BOND_MODE_ROUNDROBIN模式下slave设备切换的过程。
相关文章
相关标签/搜索