linux中双网卡在企业网中的应用

 

之前在linux下实现双网卡负载均衡的方式都是策略路由,今天发现了一种方式,比较简洁,稍作修整转载之....

Linux下的的负载均衡(说白了就是n块网卡邦定在一块儿当一个用速度变成原来的n倍)在linux下叫作bonding,理论就不说了,网上一大堆.网上也有好多这样的文章可是大多都和实际配置过程有些不一样,下面说说在2.6内核的RHEL4 AS4 上具体的实现方法。
Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡(负载均衡),这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具备相同的IP地址而并行连接聚合成一个逻辑链路工做。其实这项 技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最先应用是在集群——beowulf上,为了提升集群节点间的数据传输而设计的。下面咱们讨论一下bonding 的原理,什么是bonding须要从网卡的混杂(promisc)模式提及。咱们知道,在正常状况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。可是网卡也支持另一种被称为混杂promisc的模式,能够接收网络上全部的帧,好比说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,并且修改了驱动程序中的mac地址,将两块网卡的Mac地址改为相同,能够接收特定mac的数据帧。而后把相应的数据帧传送给bond驱动程序处理。

说了半天理论,其实配置很简单,一共四个步骤:
 linux

实验的操做系统是Redhat Linux Enterprise AS 4 U4 (RHEL AS4 U4)
绑定的前提条件:芯片组型号相同,并且网卡应该具有本身独立的BIOS芯片。

1.编辑虚拟网络接口配置文件,指定网卡IP
vi /etc/sysconfig/ network-scripts/ ifcfg-bond0
[root@ localhost root]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0
2 #vi ifcfg-bond0
将第一行改为 DEVICE=bond0
# vim  ifcfg-bond0

DEVICE=bond0
BOOTPROTO=staticc 或 [none]
IPADDR=192.168.1.100
NETMASK=255.255.255.0
ONBOOT=yes
ONBOOT=yes

这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中便可。
[root@ localhost network-scripts]# cat ifcfg-eth0
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=dhcp
[root@ localhost network-scripts]# cat ifcfg-eth1
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=dhcp

3 # vi /etc/modules.conf
编辑 /etc/modules.conf 文件,加入以下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0
 
加入下列两行
alias bond0 bonding
options bond0 miimon=100 mode=1
说明:miimon是用来进行链路监测的。 好比:miimon=100,那么系统每100ms监测一次链路链接状态,若是有一条线路不通就转入另外一条线路;mode的值表示工做模式,他共有0,1,2,3四种模式,经常使用的为0,1两种。
mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工做。
mode=1表示fault-tolerance (active-backup)提供冗余功能,工做方式是主备的工做方式,也就是说默认状况下只有一块网卡工做,另外一块作备份.
bonding只能提供链路监测,即从主机到交换机的链路是否接通。若是只是交换机对外的链路down掉了,而交换机自己并无故障,那么bonding会认为链路没有问题而继续使用
4 # vi /etc/rc.d/rc.local
加入两行
ifenslave bond0 eth0 eth1
route add -net 172.31.3.254 netmask 255.255.255.0 bond0

到这时已经配置完毕从新启动机器.
重启会看见如下信息就表示配置成功了
................
Bringing up interface bond0 OK
Bringing up interface eth0 OK
Bringing up interface eth1 OK
................

下面咱们讨论如下mode分别为0,1时的状况

mode=1工做在主备模式下,这时eth1做为备份网卡是no arp的
[root@ localhost network-scripts]# ifconfig 验证网卡的配置信息
bond0      Link encap:Ethernet HWaddr 00:0C:29:11:2E:26 
          inet addr:192.168.1.100 Bcast:192.168.1.255 Mask:255.255.255.0
          inet6 addr: fe80::20c:29ff:fe11:2e26/64 Scope:Link
          UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1
          RX packets:241 errors:0 dropped:0 overruns:0 frame:0
          TX packets:170 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:23053 (22.5 KiB) TX bytes:20572 (20.0 KiB)
 
eth0       Link encap:Ethernet HWaddr 00:0C:29:11:2E:26 
          UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
          RX packets:189 errors:0 dropped:0 overruns:0 frame:0
          TX packets:147 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:17970 (17.5 KiB) TX bytes:17738 (17.3 KiB)
          Interrupt:67 Base address:0x2000
 
eth1       Link encap:Ethernet HWaddr 00:0C:29:11:2E:26 
          UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
          RX packets:52 errors:0 dropped:0 overruns:0 frame:0
          TX packets:23 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:5083 (4.9 KiB) TX bytes:2834 (2.7 KiB)
          Interrupt:67 Base address:0x2080
那也就是说在主备模式下,当一个网络接口失效时(例如主交换机掉电等),不回出现网络中断,系统会按照cat /etc/rc.d/rc.local里指定网卡的顺序工做,机器仍能对外服务,起到了失效保护的功能.
[root@localhost ~]# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.4.0 (October 7, 2008)
 
Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eth0
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
 
Slave Interface: eth0
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:0c:29:11:2e:26
 
Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:0c:29:11:2e:30
 

 

 

在mode=0 负载均衡工做模式,他能提供两倍的带宽,下咱们来看一下网卡的配置信息
bond0      Link encap:Ethernet HWaddr 00:0C:29:11:2E:26 
          inet addr:192.168.1.100 Bcast:192.168.1.255 Mask:255.255.255.0
          inet6 addr: fe80::20c:29ff:fe11:2e26/64 Scope:Link
          UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1
          RX packets:58 errors:0 dropped:0 overruns:0 frame:0
          TX packets:85 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:7241 (7.0 KiB) TX bytes:10547 (10.2 KiB)
 
eth0       Link encap:Ethernet HWaddr 00:0C:29:11:2E:26 
          UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
          RX packets:43 errors:0 dropped:0 overruns:0 frame:0
          TX packets:46 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:5512 (5.3 KiB) TX bytes:5437 (5.3 KiB)
          Interrupt:67 Base address:0x2000
 
eth1       Link encap:Ethernet HWaddr 00:0C:29:11:2E:26 
          UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
          RX packets:15 errors:0 dropped:0 overruns:0 frame:0
          TX packets:39 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:1729 (1.6 KiB) TX bytes:5110 (4.9 KiB)
          Interrupt:67 Base address:0x2080
在这种状况下出现一块网卡失效,仅仅会是服务器出口带宽降低,也不会影响网络使用.


经过查看bond0的工做状态查询能详细的掌握bonding的工做状态
[root@ localhost bonding]# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.4.0 (October 7, 2008)
 
Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
 
Slave Interface: eth0
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:0c:29:11:2e:26
 
Slave Interface: eth1
MII Status: up
Link Failure Count: 0

Permanent HW addr: 00:0c:29:11:2e:30Link Failure Count: 0
Permanent HW addr: 00:0e:7f:25:d9:8b
 vim

 

带宽变小了
Linux下经过网卡邦定技术既增长了服务器的可靠性,又增长了可用网络带宽,为用户提供不间断的关键服务。用以上方法均在redhat的多个版本测试成功,并且效果良好.心动不如行动,赶快一试吧!服务器

相关文章
相关标签/搜索