nmcli 是Redhat提供的网络配置编辑工具, 它可直接编辑/etc/sysconfig/network-scripts/ifcfg-xxx , 它是NetworkManager服务的客户端工具,html
nmcli提供为咱们提供了一个统一管理网络配置的接口,它不一样于ip,它在实现bind, team, bridge上我的测试,感受很方便,测试有效,全部目前理解不linux
深,此文仅作参考,但愿能互相学习共同进步^..^算法
另注:vim
此工具使用上比较方便,但我的在测试过程当中发现,RHEL7.0,RHEL7.4,CentOS7.6上的使用方式变化仍是有的,因此建议在使用时,先关注一个网络
man手册. 负载均衡
这是系统默认对sysconfig 目录下系统文件的配置说明:
/usr/share/doc/initscripts-9.49.39/sysconfig.txt
nmcli:
#帮助
nmcli genernal help
nmcli conn [ add | modify | clone ...] help #格式都相似.
#设置新主机名
nmcli genernal hostname NewHostname
#查看NetworkManager的容许状态,nmcli版本信息等.
nmcli -f all general status
#最重要的两个子命令: device 和 connection
device: 是nmcli管理物理网卡的查看, 启用, 禁用, 删除, 设置等.
connection: 是nmcli管理网卡的配置文件的, 可直接操做/etc/sysconfig/network-scriptes/ifcfg-*
device:
#查看当前接口状态信息.
nmcli [-f all] device [status | show 网卡名 ] #status:默认,查看接口摘要, show:查询详情.
#启用 和 禁用网卡
nmcli device [ connect | disconnect ] <网卡名1> <网卡2> ...
#设置网卡自动链接
nmcli device set <网卡名> autoconnect [yes|no]
connection:
#查看接口配置信息
nmcli connection show 链接名dom
注: NAME: 链接名, 即配置文件的名称: ifcfg-链接名.
TYPE: 接口类型,比较多见的: ethernet, team, bond, bridge等.
DEVICE: 即网卡的实际名称.
#查询每一个链接全部的列信息
nmcli -f all conn
#查询指定列信息ide
#仅仅获取指定配置属性值, 如仅获取网卡的IP地址.
$ nmcli -g ip4.address connection show my-con-eth0
192.168.1.12/24
$ nmcli -g ip4.address,ip4.dns connection show my-con-eth0
192.168.1.12/24
192.168.1.1
$ nmcli -g ip4 connection show my-con-eth0
IP4:192.168.1.12/24:192.168.1.1::192.168.1.1::
#给网卡建立一个接口配置信息
nmcli conn add con-name myhome ifname ens33 type ethernet autoconnect no ipv4.method auto
注:
这就建立了一个叫myhome的接口配置文件.
该文件存储: /etc/sysconfig/network-script/ifcfg-myhome
指定网卡的接口类型是 ethernet(以太网), 不容许自动激活.并指定它使用DHCP自动获取IP.
#克隆一个接口配置
nmcli conn clone help #查看帮助
nmcli conn clone 源链接名 目标链接名
#删除一个接口配置
nmcli conn del 链接名
建立Linux的端口聚合方式:
1. team (网络组)【推荐此种方式: 由于teamdctl , teamnl 工具可管理.】
#建立前注意事项【以下示例使用ens36和ens37做为team的端口】:
1. ifconfig #查看ens36, 37是否配置了IP地址,若配置必须删除.
ip addr flush dev ens36 #可清空ens36的接口配置.
2. nmcli -f name,device,active conn show #查看是否有ens36/37的配置,而且是活动的.如有必须删除.
3. 建议在作如下实验前,参考系统提供的默认team示例配置文件:
/usr/share/doc/teamd-*/example_configs/
4. 建议参考:
https://access.redhat.com/documentation/zh-cn/red_hat_enterprise_linux/7/html/networking_guide/sec-Configure_a_Network_Team_Using-the_Command_Line#sec-Configure_Network_Teaming_Using_nmcli
team这种端口聚合的算法有:
多种方式runner
broadcast
roundrobin
activebackup
loadbalance
lacp (implements the 802.3ad Link Aggregation Control Protocol):这是一种须要交换机支持LACP协议的链路聚合协议
注:
man teamd.conf #这里可查看,每种runner的详细参数说明.来了解其原理细节.
建立一个team,链接名 myteam0, 接口名: team0, 类型team, team的工做方式: activebackup(热备方式)
即: 同一时刻只有一个接口活动, 只有活动接口down, 备用接口才顶替它,开始工做.
ip4 和 gw4都是设置ipv4的地址和网关. 它们实际上是 ipv4.addresses 和 ipv4.gateway的别名.
nmcli conn add con-name myteam0 ifname team0 \
type team config '{"runner":{"name":"{activebackup}"}}' \ #这种写法是错的!!
ip4 10.0.0.1/24 gw4 10.0.0.254
注:
RHEL7 上关于team config的配置可能会略有不一样,测试发现有些没法肯定.
config '{"runner":{"name":"{activebackup}"}}' 工具
注: 这种写法第一次测试OK,【多是在CentOS7.6上测试.】
后来在RHEL7.0上测试: 此写法总报错.
建议不要用上面的配置.学习
#正确写法为:. activebackup不能加花括号!!注意:这是Json格式!
config '{"runner":{"name":"activebackup"}}'
#修改链接名为myteam0的配置信息: 添加一个新的DNS: 114..
nmcli conn modify myteam0 ipv4.dns 114.114.114.114
#向team0中添加端口ens36 和 ens37;
nmcli connection add type team-slave master team0 \
con-name myteam0-ens36 ifname ens36
nmcli connection add type team-slave master team0 \
con-name myteam0-ens37 ifname ens37
#查看team0的工做状态信息, 其中会显示谁是活动端口, 已经使用了那种负载均衡算法.
活动端口,仅以activebackup这种模式而说, loadbalance没有活动端口的概念.
teamdctl team0 state
#查看team0的端口摘要信息
teamnl team0 ports
#查看 team0 负载均衡的选项信息
teamnl team0 options
#两端配置好后,作测试
ping 通后, 保持长ping.
#将ens36接口手动禁用, 前提是ens36是当前活动接口
ip link set dev ens36 down
注:
我在RHEL7.4上测试,一旦手动关闭接口,team0接口将不能工做.
ping会断掉. 必须手动 systemctl restart network 才能恢复.
测试loadbalance时,不会有这种状况.
team网络组接口启动故障小结:
当使用nmcli conn up myteam0 启动失败,建议从如下几个点检查:
1. 接口配置文件.
vim /etc/sysconfig/network-scripts/ifcfg-myteam0
#检查config配置是否有错, 特别要注意: JSON格式!!!
# 字符串必须用双引号, config的值必须使用单引号.
TEAM_CONFIG='{"runner" :{"name":"activebackup"}}'
2. 查看接口是否配置了IP
ip addr ls
#若添加到team的接口,配置了IP,将致使该接口没法成为team的接口.
ip addr flush dev ethX
3. 查看nmcli device 中显示的接口状态
team的接口在(启动前!!),其内部全部接口的状态必须为 disconnected !! 不然启动team后, 其内部接口将没法正常被team识别!! 补充: 关于系统默认示例文件使用说明: 1. 将当前已经配置好的team的负载均衡的模式改成random #导出当前正在运行的team的配置详情 teamdctl team_Name config dump > team.conf #修改导出的配置信息,仅保留runner部分, 其余都去掉, 而后修改name的值 # 为“random" vim team.conf { "runner": { "name": "random" } } 1.1. 将准备好的配置文件应用到team上. # 修改前, 须要先将team接口关闭,不然没法修改. nmcli conn down team_Name nmcli conn modify team_Name team.config team.conf #重启网络服务 systemctl restart network teamdctl team_Name state #就能够看到修改为功了. 2. 修改配置文件,重启网络服务,来修改team的工做模式 vim /etc/sysconfig/network-scripts/ifcfg-team_Name DEVICE=team0 DEVICETYPE=Team ONBOOT=yes BOOTPROTO=none IPADDR=192.168.11.1 PREFIX=24 NAME=myteam0 #注意: 官网配置中没有提供con-name,须要本身添加. TEAM_CONFIG='{"runner": {"name": "activebackup"}, "link_watch": {"name": "ethtool"}}' #注: 这是官网上的一个team配置的完整示例, 包含了主要参数. [root@system1 network-scripts]# cat ifcfg-myteam0-eth1 DEVICE=eth1 HWADDR=00:0c:29:cc:b1:46 #修改成eth1的MAC DEVICETYPE=TeamPort ONBOOT=yes TEAM_MASTER=team0 TEAM_PORT_CONFIG='{"prio": 100}' NAME=myteam0-eth1 #注意: 修改成本身的 [root@system1 network-scripts]# cat ifcfg-myteam0-eth2 DEVICE=eth2 HWADDR=00:0c:29:cc:b1:50 #修改MAC DEVICETYPE=TeamPort ONBOOT=yes TEAM_MASTER=team0 TEAM_PORT_CONFIG='{"prio": 10, "sticky": true}' NAME=myteam0-eth2 #修改con-name 注: prio: 指接口的优先级, activebackup时,有效, 优先级范围:-32768~32768; 越大越优先成为活动接口. sticky: 活动接口粘性设置, true: 只要该接口up,就使用该接口为活动接口. 以上team的配置文件都提供好后, 重启网络服务,team就配置好了. systemctl restart network 3. 使用示例文件来启动team 测试前先删除已有team配置. 避免重名. nmcli conn del myteam0 myteam0-eth2 myteam0-eth1 使用示例文件来建立team, 这种team可作测试,但没法让NetworkManager来接手管理. 3.1 复制一份示例文件,并修改其中的网卡名 为本身实际网卡名 cp /usr/share/doc/teamd-1.9/example_configs/activebackup_arp_ping_1.conf . vim activebackup_arp_ping_1.conf #将其中的接口改成本身实际接口名. 3.2 关闭要 添加到team中的接口, 不然启动teamd进程会失败. ip link set dev eth1 down ip link set dev eth2 down 3.3 启动teamd进程 teamd -g -f activebackup_arp_ping_1.conf -d #-g: 显示debug信息, -f: 指定使用的配置文件, -d: 以deamon方式运行. 3.4 查看状态,并删除 teamdctl team0 state teamd -t team0 -k #删除teamd进程. bond(端口绑定) 【CentOS6以前比较经常使用, 管理工具较少,具体我没用】 bond支持的工做方式: 802.3ad #须要交换机支持. active-backup balance-xor :同Hash计算,选择一个网卡,与目标通讯. balance-alb:它是xor的升级版,它会判断那个网卡距离目标最近,而后,就将该网卡与目标绑定. balance-rr :将一个数据包,拆分红多份,每份从一个网卡发出. balance-tlb :基于网卡的最大带宽来分配出口流量,实现负载均衡. broadcast $ nmcli con add type bond ifname mybond0 mode active-backup \ ip4 10.0.0.1/24 gw4 10.0.0.254 $ nmcli con add type ethernet ifname eth1 master mybond0 $ nmcli con add type ethernet ifname eth2 master mybond0 查看状态: cat /proc/net/bonding/bond0 #查看当前bond的模式,及活动接口是谁. ls /sys/class/net/binding_master #可查看binding当前活动的接口 Bridge 的建立方式: $ nmcli con add type bridge con-name mybr0 ifname br0 $ nmcli con add type ethernet con-name br0-ens3 ifname ens3 master br0 $ nmcli con add type ethernet con-name br0-ens4 ifname ens4 master br0 $ nmcli con modify mybr0 bridge.stp no #查看建立的桥: brctl show