Keepalived & LVS 搭建高可用的Web服务

在本文中,我将会讲述如何在Centos 7下基于Keepalived和LVS技术,实现Web服务的高可用和负载均衡,咱们的目标拓扑结构以下图所示html

未命名文件

本文将会持续修正和更新,最新内容请参考个人 GITHUB 上的 程序猿成长计划 项目,欢迎 Star,更多精彩内容请 follow menode

准备

若是你以为一步一步按照下面的操做来搭建太过麻烦,能够直接下载 mylxsw/keepalived-example 项目,而后执行 make create 便可一键搭建起整个演示环境。

使用Vagrant建立四台虚拟机用于测试使用,Vagrant 配置文件格式以下nginx

Vagrant.configure("2") do |config|
  config.vm.box = "centos/7"
  config.vm.network "private_network", ip: "IP地址"
end

对于每一个配置,须要替换配置文件中的IP地址git

目录 IP 用途
keepalived 192.168.88.8 负载均衡Master
keepalived-backup 192.168.88.9 负载均衡Backup
node-1 192.168.88.10 web服务器
node-2 192.168.88.11 web服务器
client 192.168.88.2 客户端,也能够直接用本身的电脑,IP地址任意均可

VIP为 192.168.88.100,客户端IP为 192.168.88.2github

启动Vagrant服务器须要进入服务器所在目录,执行 vagrant up 命令,登陆到服务器须要执行 vagrant ssh 命令。若是你尚未接触过Vagrant,那么能够看看这篇文章 Vagrant入门。因为本文中不少命令都须要使用 root 权限进行操做,所以建议执行命令 su root 直接提高到root权限(密码为 vagrant ),不然须要在全部命令前添加 sudo 来执行。

分别登陆每台服务器,设置其hostname,方便后面咱们区分不一样的服务器web

# 在192.168.88.8上执行
hostnamectl set-hostname keepalived
# 在192.168.88.9上执行
hostnamectl set-hostname keepalived-backup
# 在192.168.88.10上执行
hostnamectl set-hostname node-1
# 在192.168.88.11上执行
hostnamectl set-hostname node-2

而后退出从新登陆,就能够看到hostname生效了。算法

安装Keepalived服务

keepalivedkeepalived-backup 两个虚拟机上,安装keepalived服务centos

yum install -y keepalived ipvsadm

安装完成后,能够看到生成了/etc/keepalived/keepalived.conf配置文件,不过这个文件是Keepalived提供的示例,后面咱们须要修改。服务器

将 Keepalived 服务添加到开机自启动网络

systemctl enable keepalived

安装web服务

在两台web服务器 node-1node-2 上,咱们就简单安装一个 nginx,而后开放80端口,提供简单的web服务用于测试

yum install yum-utils
yum-config-manager --add-repo https://openresty.org/package/centos/openresty.repo
yum install -y openresty

为了方便查看效果,咱们将 nginx 的默认web页面修改成显示服务器的IP

ip addr show eth1 | grep '192.168.88.' | awk '{print $2}' > /usr/local/openresty/nginx/html/index.html

而后,启动web服务

systemctl enable openresty
systemctl start openresty

Keepalive实现高可用

在这里,咱们实现Keepalive服务(keepalivedkeepalived-backup 两台服务器)的高可用,也就是为负载均衡服务提供主备服务,当master挂掉以后,backup自动成为新的master继续提供服务。

下面是Keepalived配置文件内容

global_defs {
    router_id LVS_8808
}

vrrp_instance HA_WebServer {
    state MASTER
    ! 监听的网卡,keepalived会将VIP绑定到该网卡上
    interface eth1
    ! 虚拟路由器ID,同一个实例保持一致,多个实例不能相同
    virtual_router_id 18
    garp_master_refresh 10
    garp_master_refresh_repeat 2
    ! VRRP 优先顺序的设定值。在选择主节点的时候,该值大的备用 节点会优先漂移为主节点
    priority 100
    ! 发送VRRP通告的间隔。单位是秒
    advert_int 1

    ! 集群受权密码
    authentication {
        auth_type PASS
        auth_pass 123456
    }

    ! 这里是咱们配置的VIP,能够配置多个,每一个IP一行
    virtual_ipaddress {
         192.168.88.100/24
    }
}

两台 keepalived服务器均使用该配置文件,惟一的不一样是 priority 的取值在两台服务器上是不一样的,咱们设置 keepalived 服务器的 priority=100keepalived-backuppriority=99

两台服务器设置不一样的优先级以后,只要两台服务器都正常工做,则优先级高的为 主服务器,优先级低的为 备服务器。

配置完成后,重启 keepalived 服务

systemctl restart keepalived

而后,咱们能够看到 keepalived 服务器绑定了VIP 192.168.88.100

keepalived 服务器

-w614

keepalived-backup服务器

-w615

咱们验证一下主服务器挂掉以后,备份服务器是否可以正常接替工做,在 keepalived 服务器上,执行 systemctl stop keepalived 命令,中止keepalived服务,模拟服务器挂掉的情景,而后咱们看到

keepalived 服务器

-w616

keepalived-backup服务器

-w632

VIP成功漂移到了备份服务器,在备份服务器的/var/log/message日志中,能够看到以下信息

-w858

重启 keepalived 服务器的Keepalived服务(systemctl start keepalived),模拟服务器恢复,咱们能够看到VIP又从新漂移回了 keepalived 服务器(由于 keepalived 服务器设置的 priority 大于 keepalived-backup 服务器的设置)。查看 keepalived-backup 的日志,能够看到下面信息

-w1033

LVS实现负载均衡

在两台Keepalived服务器的配置文件 /etc/keepalived/keepalived.conf 中,追加如下配置

virtual_server 192.168.88.100 80 {
    ! 健康检查的时间间隔
    delay_loop 6
    ! 负载均衡算法
    lb_algo wlc
    ! LVS模式,支持NAT/DR/TUN模式
    lb_kind DR
    protocol TCP
    nat_mask 255.255.255.0
    
    ! 真实Web服务器IP,端口
    real_server 192.168.88.10 80 {
        weight 3
        ! Web服务健康检查
        HTTP_GET {
            url {
                path /
                status_code 200
            }
           connect_timeout 1
        }
    }
    
    ! 真实Web服务器IP,端口
    real_server 192.168.88.11 80 {
        weight 3
        ! Web服务健康检查
        HTTP_GET {
            url {
                path /
                status_code 200
            }
           connect_timeout 1
        }
    }
}

因为咱们全部的服务器都在同一个子网中,所以没法使用NAT(Network Address Translation)模式,这里咱们使用DSR(Direct Server Return)模式,使用DSR模式(配置时使用DR),须要web服务器将VIP绑定到本身的本地回环网卡上去,不然没法与web服务器通讯。在 node-1node-2 上,执行下面的命令

ip addr add 192.168.88.100/32 dev lo

这里绑定的VIP只在本次设置有效,服务器重启后须要再次执行,所以,能够经过下面的方法永久的添加该IP

/etc/sysconfig/network-scripts目录下,建立ifcfg-lo:0文件

DEVICE=lo:0
IPADDR=192.168.88.100
NETMASK=255.255.255.255
ONBOOT=yes
NAME=loopback

而后重启网络服务(systemctl restart network)让其生效便可

接下来,重启两台 keepalived 服务器的服务就能够生效了

systemctl restart keepalived

而后咱们在客户端访问如下咱们的web服务,这里咱们就可使用VIP来访问了

-w267

能够看到,请求被分配到了两台真实的web服务器。在 keepalived 服务器上执行 ipvsadm

-w565

若是此时node-1的服务挂了怎么办?咱们来模拟一下,在node-1上面,咱们中止web服务

systemctl stop openresty

等几秒以后(咱们配置健康检查周期为6s)而后再来请求

-w270

keepalived 服务器上执行 ipvsadm

-w558

能够看到,有问题的 node-1 已经被剔除了。

扩展阅读

这里你可能会有两个疑问:

  • 第一个是为何没法使用NAT模式?

    使用NAT模式,正常的流程应该是这样的,在NAT模式下,客户端(192.168.1.2)请求通过负载均衡器(192.168.88.100)后,负载均衡器会修改目的IP地址为真实的web服务器IP地址 192.168.88.10,这样web服务器收到请求后,发现目的IP地址是本身,就能够处理该请求了。响应报文发送给负载均衡器,负载均衡器修改响应报文的源IP地址为自身VIP,这样客户端收到响应后就可以正常处理了。

    keepalive原理 -1-

    咱们的客户端和服务器都在同一个子网下。处理完成后响应给客户端时,响应报文的源IP地址为 192.168.88.10,目的IP为 192.168.88.2,因为在同一个子网中,所以不会通过负载均衡器,而是直接将报文发送给了客户端。所以在响应报文中,源IP地址还没有通过修改直接发送给了客户端,致使没法正常完成通讯。

    keepalive原理

  • 第二个是为何使用DSR模式必须将VIP绑定到web服务器的网卡上去?

    在DSR模式下,发送给负载均衡器的报文没有通过任何修改就直接发送给了真实的web服务器,这时候目的IP地址是 VIP 192.168.88.100,Web服务器收到该请求以后,发现目的IP地址不是本身,会认为这个报文不是发送给本身的,没法处理该请求。也就是说,在使用DSR模式下,仅仅在负载均衡器上作配置是没法实现负载均衡的。所以最简单的方式就是将VIP绑定到真实服务器的回环接口上。之因此子网掩码时 255.255.255.255(或者/32),是让其广播地址是其自身,避免其发送ARP到该子网的广播域,防止负载均衡器上的VIP和Web服务器的IP冲突。

    keepalive原理 -3-

对于负载均衡算法,咱们这里采用了wlc(加权最小链接调度)。其它调度算法以下(图来自 《24小时365天不间断服务:服务器基础设施核心技术》一书)

总结

本文将会持续修正和更新,最新内容请参考个人 GITHUB 上的 程序猿成长计划 项目,欢迎 Star,更多精彩内容请 follow me

经过本文,相信你已经能够搭建一套高可用的Web服务了,Keepalived还有不少配置选项等待你们本身去发掘,咱们不只能够实现Web服务的高可用,还能够用来实现一些基础服务组件的高可用,好比MySQL、Redis、RabbitMQ等,本文也只是抛砖引玉了。

参考文献

  • 24小时365天不间断服务:服务器基础设施核心技术
相关文章
相关标签/搜索