此博文包含如下内容:html
一、 群集类型
二、负载均衡的分层结构
三、负载均衡的工做模式
四、LVS的负载调度算法
五、LVS相关的基础命令
六、使用ipvsadm管理工具
七、搭建NFS共享存储服务器
八、搭建基于NAT模式的LVS负载均衡群集实例
根据生产环境的不一样,群集所提供的功能也各不相同,采用的技术细节也可能各有千秋。关于群集技术的相关概念以下:linux
一、 群集类型算法
不管是哪一种群集,都至少包括两台节点服务器,而对外表现为一个总体,只提供一个访问入口(域名或IP地址),至关于一台大型计算机。根据群集所针对的目标差别,能够分为如下三种类型:vim
不一样类型的群集能够根据实际需求进行合并,如高可用的负载均衡群集。
二、负载均衡的分层结构
上图是一个典型的负载均衡群集,共三层,每层的做用以下:缓存
轮询(rr):将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等地对待每台服务器,而无论服务器实际的链接数和系统负载。安全
加权轮询(wrr):根据真实服务器的处理能力轮流分配收到的访问请求,调度器能够自动查询个节点的负载状况,并动态调整其权重。这样能够保证处理能力强的服务器承担更多的访问流量。bash
最少链接(lc):根据真实服务器已创建的链接数进行分配,将受到的访问请求优先分配给链接数最少的节点,若是全部的服务器节点性能相近,采用这种方式能够更好地均衡负载。服务器
加权最少链接(wlc):在服务器节点的性能差别较大的状况下,能够为真实服务器自动调整权重,权重较高的节点将承担更大比例的活动链接负载。网络
五、LVS相关的基础命令
.
默认ip_vs模块没有加载,能够执行以下命令加载ip_vs模块:并发
[root@localhost ~]# modprobe ip_vs #加载ip_vs模块 [root@localhost ~]# lsmod | grep ip_vs #查看ip_vs模块是否已加载 ip_vs 141432 0 nf_conntrack 133053 8 ip_vs,nf_nat,nf_nat_ipv4,...... libcrc32c 12644 4 xfs,ip_vs,nf_nat,nf_conntrack [root@localhost ~]# modprobe -r ip_vs #移除ip_vs模块 [root@localhost ~]# lsmod | grep ip_vs [root@localhost ~]# modprobe ip_vs [root@localhost ~]# cat /proc/net/ip_vs #查看ip_vs版本信息 IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn
六、使用ipvsadm管理工具
.
ipvsadm是在负载调度器上使用的LVS群集管理工具,经过调用ip_vs模块来添加、删除服务器节点,以及查看群集的运行状态。
.
[root@localhost ~]# yum -y install ipvsadm #安装ipvsadm工具 [root@localhost ~]# ipvsadm -v #查看ipvsadm版本 ipvsadm v1.27 2008/5/15 (compiled with popt and IPVS v1.2.1)
1)使用ipvsadm工具建立虚拟服务器:
.
若群集的VIP地址为200.0.0.1,针对TCP 80端口提供负载分流服务,使用的调度算法为轮询(rr),则对应的命令以下,对于负载均衡调度器来讲,VIP必须是本机实际已启用的IP地址:
.
[root@localhost ~]# ipvsadm -A -t 200.0.0.1:80 -s rr <!--以上命令中,选项-A表示添加虚拟服务器,-t用来指定虚拟VIP地址和TCP端口, -s用来指定负载调度算法——轮询(rr)、加权轮询(wrr)、最少链接(lc)、 加权最少链接(wlc)。 若但愿使用保持链接,还须要添加“-p 60”选项,其中60为保持时间(单位为s)-->
2)添加服务器节点:
为虚拟服务器200.0.0.1添加四个服务器节点,IP地址依次为192.168.1.2~5,命令以下:
[root@localhost ~]# ipvsadm -a -t 200.0.0.1:80 -r 192.168.1.2:80 -m -w 1 [root@localhost ~]# ipvsadm -a -t 200.0.0.1:80 -r 192.168.1.3:80 -m -w 1 [root@localhost ~]# ipvsadm -a -t 200.0.0.1:80 -r 192.168.1.4:80 -m -w 1 [root@localhost ~]# ipvsadm -a -t 200.0.0.1:80 -r 192.168.1.5:80 -m -w 1 <!--以上命令中,选项-a表示添加真实服务器,-t用来指定VIP地址及TCP端口, -r用来指定RIP(真实IP)地址及TCP端口,-m表示使用NAT群集模式 (-g DR模式和-i TUN模式),-w用来设置权重(权重为0时表示暂停节点)。--> [root@localhost ~]# ipvsadm -ln #查看节点状态 IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 200.0.0.1:80 rr -> 192.168.1.2:80 Masq 1 0 0 -> 192.168.1.3:80 Masq 1 0 0 -> 192.168.1.4:80 Masq 1 0 0 -> 192.168.1.5:80 Masq 1 0 0 <!--上述输出结果中,forward列下的Masq对应masquerade(地址假装), 表示采用的群集模式为NAT,若是是Route,则表示采用的群集模式为DR。-->
3)删除服务器节点:
须要从服务器池中删除某一个节点时,使用选项-d。执行删除操做必须指定目标对象,包括节点地址,虚拟IP地址,例如,以下操做将会删除LVS群集200.0.0.1中的节点192.168.1.5。
[root@localhost ~]# ipvsadm -d -r 192.168.1.5:80 -t 200.0.0.1:80
须要删除整个虚拟服务器时,使用选项-D并指定虚拟IP便可,不需指定节点。例如执行“ipvsadm -D -t 200.0.0.1:80”,则删除此虚拟服务器。
4)保存负载分配策略:
使用导出/导入工具ipvsadm-save/ipvsadm-restore能够保存、恢复LVS策略(服务器重启后策略须要从新导入)。
[root@localhost ~]# hostname lvs #更改主机名 <!--若主机名为默认的localhost,在导出策略时,VIP地址将会自动转为127.0.0.1, 如果这样,再次导入后,将会致使负载服务器没法正常工做。--> [root@localhost ~]# bash #使更改的主机名立刻生效 [root@lvs ~]# ipvsadm-save > /etc/sysconfig/ipvsadm.bak #保存策略 [root@lvs ~]# cat /etc/sysconfig/ipvsadm.bak #确认保存结果 -A -t 200.0.0.1:http -s rr -a -t 200.0.0.1:http -r 192.168.1.2:http -m -w 1 -a -t 200.0.0.1:http -r 192.168.1.3:http -m -w 1 -a -t 200.0.0.1:http -r 192.168.1.4:http -m -w 1 [root@localhost ~]# ipvsadm -C #清除当前策略 [root@localhost ~]# ipvsadm -ln #确认当前群集策略已被清除 IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn [root@localhost ~]# ipvsadm-restore < /etc/sysconfig/ipvsadm.bak #导入刚才备份的策略 [root@localhost ~]# ipvsadm -ln #查看群集策略是否导入成功 IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 200.0.0.1:80 rr -> 192.168.1.2:80 Masq 1 0 0 -> 192.168.1.3:80 Masq 1 0 0 -> 192.168.1.4:80 Masq 1 0 0
七、搭建NFS共享存储服务器
NFS是一种基于TCP/IP传输的网络文件系统协议,经过使用NFS协议,客户机能够像访问本地目录同样访问远程服务器中的资源,对于大多数负载均衡群集来讲,使用NFS协议来共享数据存储是比较常见的作法,NFS也是NAS存储设备必然支持的一种协议。
使用NFS发布共享资源:
1)安装相关软件包:
[root@localhost ~]# yum -y install nfs-utils rpcbind #安装所需软件包 [root@localhost ~]# systemctl enable nfs #设置NFS开机自启 [root@localhost ~]# systemctl enable rpcbind #设置rpcbind开机自启
2)设置共享目录:
[root@localhost ~]# mkdir -p /opt/wwwroot #建立须要共享的目录 [root@localhost ~]# vim /etc/exports #编辑NFS的配置文件,默认为空 /opt/wwwroot 192.168.1.0/24(rw,sync,no_root_squash) <!--上述配置中“192.168.1.0/24”表示容许访问的客户机地址, 能够是主机名、IP地址、网段地址、容许使用*、?通配符; 权限选项中的rw表示容许读写(ro为只读), sync表示同步写入,由于在客户机挂载该共享目录后,若向该目录中写入什么东西的话, 会先保存在本身的缓存中,而不会写入到共享目录中,加上sync则不会存在本身的缓存, 直接保存到共享目录中; no_root_squash表示当前客户机以root身份访问时赋予本地root权限 (默认是root_squash,将做为nfsnobody用户对待),若不加no_root_squash, 可能会致使被降权,而没法进行读写(wr)-->
当须要将同一个目录共享给不一样的客户机,且分配不一样权限时,只要用空格分隔指定多个“客户机(权限选项)”便可。以下:
[root@localhost ~]# vim /etc/exports /var/ftp/pub 192.168.2.1(ro,sync) 192.168.2.3(rw,sync)
3)重载NFS服务程序:
.
[root@localhost ~]# systemctl restart rpcbind [root@localhost ~]# systemctl restart nfs [root@localhost ~]# netstat -anpt | grep rpc tcp 0 0 0.0.0.0:43759 0.0.0.0:* LISTEN 76336/rpc.statd tcp 0 0 0.0.0.0:111 0.0.0.0:* LISTEN 76307/rpcbind tcp 0 0 0.0.0.0:20048 0.0.0.0:* LISTEN 76350/rpc.mountd tcp6 0 0 :::111 :::* LISTEN 76307/rpcbind tcp6 0 0 :::20048 :::* LISTEN 76350/rpc.mountd tcp6 0 0 :::38355 :::* LISTEN 76336/rpc.statd [root@localhost ~]# showmount -e #查看本机发布的NFS共享目录 Export list for localhost.localdomain: /opt/wwwroot 192.168.1.0/24 /var/ftp/pub 192.168.2.3,192.168.2.1
4)在客户端访问NFS共享资源:
NFS协议的目标是提供一种网络文件系统,所以对NFS共享的访问也使用mount命令进行挂载,对应的文件系统类型为nfs,既能够手动挂载,也能够加入fstab配置文件来实现开机自动挂载,考虑到群集系统中的网络稳定性,NFS服务器与客户机之间最好使用专有网络进行链接。
.
1.安装rpcbind软件包,并启动rpcbind服务,为了使用showmount查询工具,因此将nfs-utils也一块儿装上:
[root@localhost ~]# yum -y install nfs-utils rpcbind [root@localhost ~]# systemctl enable rpcbind [root@localhost ~]# systemctl start rpcbind
2.查询NFS服务器端共享了哪些目录:
[root@localhost ~]# showmount -e 192.168.1.1 #需指定要查询的服务器地址 Export list for 192.168.1.1: /opt/wwwroot 192.168.1.0/24 /var/ftp/pub 192.168.2.3,192.168.2.1
3.手动挂载NFS共享目录,并设置开机自动挂载:
[root@localhost ~]# mount 192.168.1.1:/opt/wwwroot /var/www/html #挂载到本地 [root@localhost ~]# df -hT /var/www/html #查看是否挂载成功 文件系统 类型 容量 已用 可用 已用% 挂载点 192.168.1.1:/opt/wwwroot nfs4 17G 6.2G 11G 37% /var/www/html [root@localhost ~]# vim /etc/fstab #设置自动挂载 ......................... 192.168.1.1:/opt/wwwroot /var/www/html nfs defaults,_netdev 0 0 <!--文件系统为nfs,挂载参数添加_netdev(设备须要网络)-->
完成挂载后,访问客户机的/var/www/html文件夹,就至关于访问NFS服务器中的/opt/wwwroot文件夹,其中网络映射过程对于用户程序来讲是彻底透明的。
基于NAT工做模式的LVS群集配置实例可参考博文:搭建基于NAT模式的LVS负载均衡群集