企业实战:逐步实现企业各类情景下的需求前端
企业情景三:
网站的访问量愈来愈大,网站访问量已经从原来的1000QPS,变为3000QPS,目前业务已经经过集群LVS架构可作到随时拓展,后端节点已经经过集群技术保障了可用性,但对于前端负载均衡器来讲,是个比较大的安全隐患,由于当前端负载均衡器出现故障时,整个集群就处于瘫痪状态,所以,负载均衡器的可用性也显得相当重要,那么怎么来解决负载均衡器的可用性问题呢?linux
项目三:主从实现基于Keepalived高可用集群网站架构vim
实现keepalived企业级高可用基于LVS-DR模式的应用实战: 后端
1、环境准备:
两台centos系统作DR、一主一从,两台实现过基于LNMP的电子商务网站centos
2、安装步骤:
一、两台服务器都使用yum 方式安装keepalived服务
二、iptables -F && setenforing 清空防火墙策略,关闭selinux安全
实现前分配各个角色bash
机器名称 | IP配置 | 服务角色 | 备注 |
---|---|---|---|
lvs-server-master | VIP:172.17.252.110 DIP:172.17.250.223 | 主负载均衡器 | 开启路由功能 配置keepalived |
lvs-server-backup | VIP:172.17.252.110 DIP:172.17.251.37 | 从负载均衡器 | 开启路由功能 配置keepalived |
rs01 | RIP:172.17.252.87 | 后端服务器 | 网关指向DIP(桥接) |
rs02 | RIP:172.17.250.45 | 后端服务器 | 网关指向DIP(桥接) |
3、配置基于DR模式的LVS负载均衡集群:服务器
主(master): 一、修改keepalived主(lvs-server-master)配置文件实现virtual_instance vrrp_instance VI_1 { state MASTER #状态状况 interface eth1 #接口 virtual_router_id 51 priority 100 #权重 advert_int 1 authentication { auth_type PASS auth_pass magedu } virtual_ipaddress { 172.17.252.110 #VIP } } 二、修改keepalived主(lvs-server-backup)配置文件实现virtual_server virtual_server VIP 端口 { delay_loop 6 ld_algo rr lb_kind DR protocol TCP real_server 172.17.252.87 80 { #RIP weight 1 TCP_CHECK { connect_timeout 3 } } real_server 172.17.250.45 80 { #RIP weight 1 TCP_CHECK { connect_timeout 3 } } 从(back-up): 一、修改keepalived从(lvs-server-backup)配置文件实现virtual_instance vrrp_instance VI_1 { state BACKUP #状态状况 interface eth1 #接口 virtual_router_id 51 priority 98 #权重,注意从要比主的权重小 advert_int 1 authentication { auth_type PASS auth_pass grr02 } virtual_ipaddress { 172.17.252.110 } } 二、修改keepalived从(lvs-server-backup)配置文件实现virtual_server virtual_server VIP 端口 { delay_loop 6 ld_algo rr lb_kind DR #LVS-DR模式 protocol TCP real_server 172.17.252.87 80 { weight 1 TCP_CHECK { connect_timeout 3 } } real_server 172.17.250.45 80 { weight 1 TCP_CHECK { connect_timeout 3 } }
企业应用
(1)实现keeaplived故障通知机制
在企业中,高可用服务,是保证整个系统稳定性的重要前提,确保高可用服务能正常工做和运转,也是很是重要的工做。除了服务上线前的充分测试以外,也须要确保对高可用服务的监控机制,keepalived 自身具有监控和通知机制,可在发生主从切换、故障转移时,经过自定义命令或者脚本,实现通知功能,从而让管理员在第一时间得知系统运行状态,确保整个服务的稳定性和可用性。
可在配置文件中,在instance配置中,经过keepalived 通知功能notify,可实现定制化脚本功能,以下所示:架构
notify_backup "/etc/keepalived/notify.sh backup" notify_master "/etc/keepalived/notify.sh master" notify_fault "/etc/keepalived/notify.sh fault" ``` 脚本示范:
vim /etc/keepalived/notify.shbr/>#!/bin/bash
contact='root@localhost'
notify() {
mailsubject="$(hostname) to be $1: vip floating"
mailbody="$(date +'%F %H:%M:%S'): vrrp transition, $(hostname) changed to be $1"
echo $mailbody | mail -s "$mailsubject" $contact
}
case $1 in
master)
notify master
exit 0
;;
backup)
notify backup
exit 0
;;
fault)
notify fault
exit 0
;;
*)
echo "Usage: $(basename $0) {master|backup|fault}"
exit 1
;;
esac负载均衡
(2)实现keeaplived自定义脚本功能 在配置文件中,可实现如下配置,定义一个脚本,并在对应的实例instance中调用,以后就可经过手动创建down 文件,使得keepalived 实例减小权重,实现主从切换,经常使用于在线修改keepalived 配置文件时使用 脚本示范: ```vrrp_script chk_down { script "[[ -f /etc/keepalived/down ]] && exit 1 || exit 0 " interval 2 # check every 2 seconds weight -5 } ``` 对应实例中调用
track_script { chk_down }
在配置文件中,也可实现如下配置,定义一个脚本,并在对应的实例中调用,也能够用于检测服务是否有异常,异常的话进行切换。 脚本示范:
vrrp_script chk_sshd {
script "killall -0 sshd" # cheaper than pidof
interval 2 # check every 2 seconds
weight -4 # default prio: -4 if KO
fall 2 # require 2 failures for KO
rise 2 # require 2 successes for OK
}
track_script { chk_sshd
}
主从实现完成,若想要实现主主方式,能够理解为互为主从,一个server端配置为主从,另外一server端也配置为主从(注意IP的变换以及权重值) 企业实战系列,逐步了解,逐步提高,不足之处烦请各位大佬指出(抱拳)