18.1 集群介绍
18.2 keepalived介绍
18.3/18.4/18.5 用keepalived配置高可用集群
18.6 负载均衡集群介绍
18.7 LVS介绍
18.8 LVS调度算法
18.9/18.10 LVS NAT模式搭建html
VRRP协议 https://blog.csdn.net/u013920085/article/details/21184143mysql
LVS 三种模式图解 http://blog.51cto.com/jiekeyang/1839583linux
fullnat模式 https://ieevee.com/tech/2015/12/08/fullnat.htmlnginx
1、集群介绍git
根据功能划分为两大类:高可用和负载均衡 高可用集群一般为两台服务器,一台工做,另一台做为冗余,当提供服务的机器宕机,冗余将接替继续提供服务 实现高可用的开源软件有:heartbeat、keepalived 负载均衡集群,须要有一台服务器做为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量至少为2 实现负载均衡的开源软件有LVS、keepalived、haproxy、nginx,商业的有F五、Netscaler
2、 keepalived介绍算法
在这里咱们使用keepalived来实现高可用集群,由于heartbeat在centos6上有一些问题,影响实验效果 1. keepalived经过VRRP(Virtual Router Redundancy Protocl)来实现高可用。 2.在这个协议里会将多台功能相同的路由器组成一个小组,这个小组里会有1个master角色和N(N>=1)个backup角色。 3.master会经过组播的形式向各个backup发送VRRP协议的数据包,当backup收不到master发来的VRRP数据包时,就会认为master宕机了。此时就须要根4.据各个backup的优先级来决定谁成为新的mater。 4.Keepalived要有三个模块,分别是core、check和vrrp。其中core模块为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析,check模块负责健康检查,vrrp模块是来实现VRRP协议的。
3、用keepalived配置高可用集群sql
实验准备 1. 准备两台机器001和002,001做为master,002做为backup 2. 两台机器都执行安装yum install -y keepalived 3. 两台机器都安装nginx,nginx做为高可用的对象
编辑001上的keepalived配置文件上配置,内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/master_keepalived.conf获取apache
原配置文件清空,并写入如下配置vim
> /etc/keepalived/keepalived.conf 清空后端
global_defs { notification_email { foutt7777@163.com //定义出现问题时接收邮件的邮箱 } notification_email_from //定义发邮件地址(实际没有) smtp_server 127.0.0.1 smtp_connect_timeout 30 router_id LVS_DEVEL } vrrp_script chk_nginx { script "/usr/local/sbin/check_ng.sh" //此脚本为监控nginx服务是否正常,稍后定义该脚本 interval 3 //检测的间隔是3秒 } vrrp_instance VI_1 { state MASTER //定义角色为master interface ens33 //网卡 virtual_router_id 51 //定义路由器的id为51,主从保持一致 priority 100 //权重100,此数值要大于backup,决定优先级 advert_int 1 authentication { auth_type PASS auth_pass 123456 //定义密码 } virtual_ipaddress { 192.168.116.100 //定义VIP,此处为公有的ip,主从均可以访问 } track_script { chk_nginx //加载监控脚本,这里和上面vrrp_script后面的字符串保持一致 } }
编辑监控脚本check_ng.sh,内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/master_check_ng.sh获取
vim /usr/local/sbin/check_ng.sh 路径与keepalived.conf配置文件中的相同,写入以下内容
#!/bin/bash #时间变量,用于记录日志 d=`date --date today +%Y%m%d_%H:%M:%S` #计算nginx进程数量 n=`ps -C nginx --no-heading|wc -l` #若是进程为0,则启动nginx,而且再次检测nginx进程数量, #若是还为0,说明nginx没法启动,此时须要关闭keepalived if [ $n -eq "0" ]; then /etc/init.d/nginx start n2=`ps -C nginx --no-heading|wc -l` if [ $n2 -eq "0" ]; then echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log systemctl stop keepalived fi fi
给该脚本赋予755权限,不然没法被keepalived调用
chmod 755 /usr/local/sbin/check_ng.sh
开启keepalived服务,中止防火墙,关闭SElinux
systemctl start keepalived
ps aux |grep keep
keepalived的日志存放在/var/log/messages文件中
关闭防火墙、SElinux,主从都要关闭
systemctl stop firewalld
getenforce
setenforce 0
Permissive 临时关闭所显示的状态
在002上编辑配置文件,内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/backup_keepalived.conf获取
清空原配置文件,并按如下内容写入配置文件中
vim /etc/keepalived/keepalived.conf
global_defs { notification_email { foutt7777@163.com } notification_email_from root@aminglinux.com smtp_server 127.0.0.1 smtp_connect_timeout 30 router_id LVS_DEVEL } vrrp_script chk_nginx { script "/usr/local/sbin/check_ng.sh" interval 3 } vrrp_instance VI_1 { state BACKUP interface ens33 virtual_router_id 51 //id和主同样 priority 90 //权重90,比主少 advert_int 1 authentication { auth_type PASS auth_pass 123456 //密码 } virtual_ipaddress { 192.168.116.100 //ip和主同样 } track_script { chk_nginx } }
002上编辑监控脚本,内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/backup_check_ng.sh获取
vim /usr/local/sbin/check_ng.sh
nginx两种启动方式:
systemctl start nginx yum安装启动方式 /etc/init.d/nginx start 源码包编译安装启动方式
#时间变量,用于记录日志 d=`date --date today +%Y%m%d_%H:%M:%S` #计算nginx进程数量 n=`ps -C nginx --no-heading|wc -l` #若是进程为0,则启动nginx,而且再次检测nginx进程数量, #若是还为0,说明nginx没法启动,此时须要关闭keepalived if [ $n -eq "0" ]; then /etc/init.d/nginx start n2=`ps -C nginx --no-heading|wc -l` if [ $n2 -eq "0" ]; then echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log systemctl stop keepalived fi fi
给该脚本赋予755权限,不然没法被keepalived调用
chmod 755 /usr/local/sbin/check_ng.sh
开启keepalived服务,中止防火墙,关闭SElinux
systemctl start keepalived
关闭防火墙,与主上同样
systemctl stop firewalld getenforce setenforce 0
此时使用主的ip直接访问
访问到了该文件
cat /usr/local/nginx/conf/vhost/aaa.com.conf cat /data/wwwroot/default/index.html
使用从的ip直接访问
虚拟IP 192.168.116.100显示的页面为master的页面
须要使用ip add才能够查看到 192.168.116.100此vip,ifconfig看不到 ,vip在master上
002没有vip
测试高可用,一般使用两台机器
在master上增长iptabls规则 iptables -I OUTPUT -p vrrp -j DROP 把主上的vrr协议,出去的包封掉,不能达到切换资源的目的
因此要想让001上的master宕机;直接关闭keepalived服务
systemctl stop keepalived 关闭keepalived服务,此时主上没有了vip
vip在从上显示
此时访问vip 192.168.116.100,此时VIP完美转移到从的backup上面,不影响用户使用
若是在主上启动systemctl start keepalived.service再去访问vip,会当即回到matser上
4、负载均衡集群介绍
负载均衡软件分类: 主流的负载均衡开源软件:LVS、keepalived、haproxy、nginx等 其中,LVS属于4层(网络OSI7层模型),nginx属于7层,haproxy便可以是4层,也能够是7层。 keepalived的负载均衡功能其实就是lvs lvs这种4层的负载均衡是能够分发除80外的其余端口通讯,好比mysql,而nginx仅仅支持http、https、mail,haproxy也能够支持mysql 4层和7层负载比较: LVS4层的更稳定,能承受更多的请求 nginx 7层的更加灵活,能实现更多的个性化须要
5、lvs介绍
LVS是由国人章文嵩开发 流行度不亚于apache的httpd,基于TCP/IP作的路由和转发,稳定性和效率很高 LVS最新版本基于Linux内核2.6,有好多年不更新了 LVS有三种常见的模式:NAT、DR、IP Tunnel LVS架构中有一个核心角色叫作分发器(Load balance),它用来分发用户的请求,还有诸多处理用户请求的服务器(Real Server,简称rs)
LVS NAT模式
这种模式借助iptables的nat表来实现 用户的请求到分发器后,经过预设的iptables规则,把请求的数据包转发到后端的rs上去 rs须要设定网关为分发器的内网ip 用户请求的数据包和返回给用户的数据包所有通过分发器,因此分发器成为瓶颈 在nat模式中,只须要分发器有公网ip便可,因此比较节省公网ip资源
LVS IP Tunnel模式
这种模式,须要有一个公共的IP配置在分发器和全部rs上,咱们把它叫作vip 客户端请求的目标IP为vip,分发器接收到请求数据包后,会对数据包作一个加工,会把目标IP改成rs的IP,这样数据包就到了rs上 rs接收数据包后,会还原原始数据包,这样目标IP为vip,由于全部rs上配置了这个vip,因此它会认为是它本身
LVS DR模式
这种模式,也须要有一个公共的IP配置在分发器和全部rs上,也就是vip 和IP Tunnel不一样的是,它会把数据包的MAC地址修改成rs的MAC地址 rs接收数据包后,会还原原始数据包,这样目标IP为vip,由于全部rs上配置了这个vip,因此它会认为是它本身
6、LVS调度算法
前四种是最经常使用的
轮询 Round-Robin rr 加权轮询 Weight Round-Robin wrr 最小链接 Least-Connection lc 加权最小链接 Weight Least-Connection wlc 基于局部性的最小链接 Locality-Based Least Connections lblc 带复制的基于局部性最小链接 Locality-Based Least Connections with Replication lblcr 目标地址散列调度 Destination Hashing dh 源地址散列调度 Source Hashing sh
7、LVS NAT模式搭建
试验原理:
LVS NAT模式借助iptables的nat表来实现:
用户的请求到分发器后,经过预设的iptables规则,把请求的数据包转发到后端的rs上去. rs须要设定网关为分发器的内网ip. 用户请求的数据包和返回给用户的数据包所有通过分发器,因此分发器成为瓶颈. 在nat模式中,只须要分发器有公网ip便可,因此比较节省公网ip资源.
试验准备:
三台机器: 分发器,也叫调度器(简写为dir) 内网:192.168.116.3,外网:192.168.253.0(vmware仅主机模式) rs1 内网:192.168.116.33,设置网关为192.168.116.3 rs2 内网:192.168.116.133,设置网关为192.168.116.3,克隆一台003机器,ip改成192.168.116.133
分发器须要两个网卡,也就是001机器上须要两个网卡,vmware上配置第二个网卡为仅主机模式
此时查看ens37网卡的IP为192.168.253.128
在三台机器上查看iptables规则,并执行如下操做
iptables -nvL systemctl stop firewalld 关闭firewalld systemctl disable firewalld 禁止开机启动 systemctl enable iptables 开启iptables服务 systemctl start iptables iptables -F service iptables save 保存规则,调用空规则
若是没有iptables服务,须要安装iptables-services服务 : yum install -y iptables-services
关闭三台机器的SElinux
setenforce 0
为了保险起见,修改配置文件
vim /etc/selinux/config SELINUX=disabled
把rs1(002),rs2(003)的网关设置为分发器的内网ip,也就是001的内网ip:192.168.116.3,不然没法进行通讯
vim /etc/sysconfig/network-scripts/ifcfg-ens33
修改完成重启网卡
/etc/init.d/network restart
查看其网关 : route -n
NAT模式搭建
只须要在分发器dir上安装ipvsadm,即只须要在001安装
yum install -y ipvsadm
在dir上建立并编写lvs_nat.sh脚本,vim /usr/local/sbin/lvs_nat.sh //内容以下
#! /bin/bash # director 服务器上开启路由转发功能 echo 1 > /proc/sys/net/ipv4/ip_forward #给此文件重定向了一个新的数字1到文件中,为内核参数,对内核作调整,实现路由转发 # 关闭icmp的重定向 echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects # 注意区分网卡名字,001机器上的两个网卡分别为ens33和ens37 echo 0 > /proc/sys/net/ipv4/conf/ens33/send_redirects echo 0 > /proc/sys/net/ipv4/conf/ens37/send_redirects # director 设置nat防火墙 iptables -t nat -F iptables -t nat -X iptables -t nat -A POSTROUTING -s 192.168.116.0/24 -j MASQUERADE #director设置ipvsadm规则,-C清空规则,-A增长规则,-t跟分发器ip,wlc为算法,-p指定超时时间,单位秒,-r指定real_server是谁,-m为NAT的模式,-w是权重 IPVSADM='/usr/sbin/ipvsadm' $IPVSADM -C $IPVSADM -A -t 192.168.253.128:80 -s wlc -p 3 $IPVSADM -a -t 192.168.253.128:80 -r 192.168.116.33:80 -m -w 1 $IPVSADM -a -t 192.168.253.128:80 -r 192.168.116.133:80 -m -w 1
配置完成,执行一下看是否有报错
sh /usr/local/sbin/lvs_nat.sh
NAT模式效果测试
两台rs上都安装nginx 设置两台rs的主页,作一个区分,也就是说直接curl两台rs的ip时,获得不一样的结果
开启002和003的nginx并设置两台机器的主页,作区分
curl localhost
vim /usr/local/nginx/html/index.html
进行测试:
直接访问公网ip,页面测试容易有缓存,能够按照下面使用curl测试
为了试验效果进入脚本,把延迟时间去掉
vim /usr/local/sbin/lvs_nat.sh sh /usr/local/sbin/lvs_nat.sh 执行脚本
ipvsadm -ln 查看其规则,小写(L)n,并把wlc规则改成rr,使其显示的更加均衡
curl 192.168.253.128 访问公网ip进行测试,此时说明试验成功