Linux集群架构

18.1 集群介绍

根据功能划分为两大类:高可用和负载均衡  linux

高可用集群一般为两台服务器,一台工做,另一台做为冗余,当提供服务的机器宕机,冗余将接替继续提供服务  nginx

实现高可用的开源软件有:heartbeat、keepalived  算法

负载均衡集群,须要有一台服务器做为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量至少为2apache

实现负载均衡的开源软件有LVS、keepalived、haproxy、nginx,商业的有F五、Netscalervim


18.2 keepalived介绍

在这里咱们使用keepalived来实现高可用集群,由于heartbeat在centos6上有一些问题,影响实验效果  后端

keepalived经过VRRP(Virtual Router Redundancy Protocl)来实现高可用。  centos

在这个协议里会将多台功能相同的路由器组成一个小组,这个小组里会有1个master角色和N(N>=1)个backup角色。  bash

master会经过组播的形式向各个backup发送VRRP协议的数据包,当backup收不到master发来的VRRP数据包时,就会认为master宕机了。此时就须要根据各个backup的优先级来决定谁成为新的mater。  服务器

Keepalived要有三个模块,分别是core、check和vrrp。其中core模块为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析,check模块负责健康检查,vrrp模块是来实现VRRP协议的。网络


18.3/18.4/18.5 用keepalived配置高可用集群

准备两台机器120和123,120做为master,123做为backup  

两台机器都执行yum install -y keepalived  两台机器都安装nginx,其中120上已经编译安装过nginx,123上须要yum安装nginx: yum install -y nginx  设定vip为100  

编辑120上keepalived配置文件#vim /etc/keepalived/keepalived.conf:

global_defs {
   notification_email {
     zhangjin@linux.com
   }
   notification_email_from root@linux.com
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id LVS_DEVEL
}

vrrp_script chk_nginx {
    script "/usr/local/sbin/check_ng.sh"
    interval 3
}

vrrp_instance VI_1 {
    state MASTER
    interface ens33
    virtual_router_id 51
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass zhangjin>com
    }
    virtual_ipaddress {
        192.168.6.100
    }

    track_script {
        chk_nginx
    }

}

120编辑监控脚本:#vim /usr/local/sbin/check_ng.sh,内容以下:

#!/bin/bash
#时间变量,用于记录日志
d=`date --date today +%Y%m%d_%H:%M:%S`
#计算nginx进程数量
n=`ps -C nginx --no-heading|wc -l`
#若是进程为0,则启动nginx,而且再次检测nginx进程数量,
#若是还为0,说明nginx没法启动,此时须要关闭keepalived
if [ $n -eq "0" ]; then
        /etc/init.d/nginx start
        n2=`ps -C nginx --no-heading|wc -l`
        if [ $n2 -eq "0"  ]; then
                echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log
                systemctl stop keepalived
        fi
fi

保存后,再赋予x权限:

#chmod a+x /usr/local/sbin/check_ng.sh

而后启动master上的keepalived(若是没有启动Nginx,它会帮咱们自动拉起来,并监听VIP)。

systemctl start  keepalived

查看IP:

#ip add

再看Nginx服务是否已经启动:

#ps aux | grep nginx

下面再继续配置backup,编辑配置文件:#vim /etc/keepalived/keepalived.conf

global_defs {
   notification_email {
     zhangjin@linux.com
   }
   notification_email_from root@linux.com
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id LVS_DEVEL
}

vrrp_script chk_nginx {
    script "/usr/local/sbin/check_ng.sh"
    interval 3
}

vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 51
    priority 90
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass zhangjin>com
    }
    virtual_ipaddress {
        192.168.6.100
    }

    track_script {
        chk_nginx
    }

}

再来编辑监控脚本:

#vim /usr/local/sbin/check_ng.sh,内容以下:

#时间变量,用于记录日志
d=`date --date today +%Y%m%d_%H:%M:%S`
#计算nginx进程数量
n=`ps -C nginx --no-heading|wc -l`
#若是进程为0,则启动nginx,而且再次检测nginx进程数量,
#若是还为0,说明nginx没法启动,此时须要关闭keepalived
if [ $n -eq "0" ]; then
        systemctl start nginx
        n2=`ps -C nginx --no-heading|wc -l`
        if [ $n2 -eq "0"  ]; then
                echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log
                systemctl stop keepalived
        fi
fi

赋予x权限:

#chmod a+x /usr/local/sbin/check_ng.sh

下面来进行测试下:

测试一、关闭master(120)上的nginx服务

能够看到,关闭了nginx服务后,一会又自动启动起来了。查看日志文件也是如此:

测试二、把master(120)上的keepalived服务关掉:

#systemctl stop keepalived

而后直接访问VIP,来判断VIP在哪里:

能够看到VIP已经到了slave(123)上,再把master(120)的keepalived服务开启:

此时VIP又回到了master(120)上。


18.6 负载均衡集群介绍

主流开源软件LVS、keepalived、haproxy、nginx等  

其中LVS属于4层(网络OSI 7层模型),nginx属于7层,haproxy既能够认为是4层,也能够当作7层使用  

keepalived的负载均衡功能其实就是lvs  

lvs这种4层的负载均衡是能够分发除80外的其余端口通讯的,好比MySQL的,而nginx仅仅支持http,https,mail,haproxy也支持MySQL这种  

相比较来讲,LVS这种4层的更稳定,能承受更多的请求,而nginx这种7层的更加灵活,能实现更多的个性化需求


18.7 LVS介绍

LVS是由国人章文嵩开发  

流行度不亚于apache的httpd,基于TCP/IP作的路由和转发,稳定性和效率很高  LVS最新版本基于Linux内核2.6,有好多年不更新了  

LVS有三种常见的模式:NAT、DR、IP Tunnel  

LVS架构中有一个核心角色叫作分发器(Load balance),它用来分发用户的请求,还有诸多处理用户请求的服务器(Real Server,简称rs)


18.8 LVS调度算法

轮询 Round-Robin  rr  

加权轮询 Weight Round-Robin wrr  

最小链接 Least-Connection lc  

加权最小链接 Weight Least-Connection wlc  

基于局部性的最小链接 Locality-Based Least Connections lblc  

带复制的基于局部性最小链接 Locality-Based Least Connections with Replication  lblcr  

目标地址散列调度 Destination Hashing dh  

源地址散列调度 Source Hashing  sh


18.9/18.10 LVS NAT模式搭建

一、准备工做:

三台机器  

分发器,也叫调度器(简写为dir)  

内网:6.120,外网:142.147(vmware仅主机模式)  

rs1  内网:6.123,设置网关为6.120  

rs2  内网:6.124,设置网关为6.120  

三台机器上都执行执行  

systemctl stop firewalld; systemctl disable firewalld  

systemctl start  iptables-services; iptables -F; service iptables save 

 

在dir上安装ipvsadm
yum install -y ipvsdam
在dir上编写脚本vim /usr/local/sbin/lvs_nat.sh//内容以下:

#! /bin/bash
# director 服务器上开启路由转发功能
echo 1 > /proc/sys/net/ipv4/ip_forward
# 关闭icmp的重定向
echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects
# 注意区分网卡名字,这里的两个网卡分别为ens33和ens37
echo 0 > /proc/sys/net/ipv4/conf/ens33/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/ens37/send_redirects
# director 设置nat防火墙
iptables -t nat -F
iptables -t nat -X
iptables -t nat -A POSTROUTING -s 192.168.6.0/24  -j MASQUERADE
# director设置ipvsadm
IPVSADM='/usr/sbin/ipvsadm'
$IPVSADM -C
$IPVSADM -A -t 192.168.147.144:80 -s wlc -p 300
$IPVSADM -a -t 192.168.147.144:80 -r 192.168.6.123:80 -m -w 1
$IPVSADM -a -t 192.168.147.144:80 -r 192.168.6.124:80 -m -w 1
相关文章
相关标签/搜索