RabbitMQ 群集安装

1、环境描述

一、操做系统

主机名 IP地址 操做系统版本 erlang 版本 rabbitmq 版本
192.168.2.23 node01 CentOS Linux release 7.4.1708 (Core) 20.3 3.7.5
192.168.2.24 node02 CentOS Linux release 7.4.1708 (Core) 20.3 3.7.5
192.168.2.25 node03 CentOS Linux release 7.4.1708 (Core) 20.3 3.7.5

2 、/etc/hosts 文件配置

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.2.23	node01
192.168.2.24	node02
192.168.2.25	node03
复制代码

2、安装

一、安装环境依赖包

# yum install gcc gcc-c++ glibc-devel make ncurses-devel openssl-devel xmlto unixODBC-devel -y
复制代码

二、安装 erlang

rabbitMQ 是用 erlang 语言写的,因此须要先安装 erlang。javascript

a. 解压源码包
# tar xvf otp_src_20.3.tar.gz 

b. 进入源码目录
# cd otp_src_20.3

c. 配置安装选项
# ./configure --prefix=/usr/local/erlang --without-javac
... ... 省略 ... ...
*********************************************************************
**********************  APPLICATIONS DISABLED  ********************** # 只须要注意此处提示
*********************************************************************

jinterface     : Java compiler disabled by user # 由于没有安装 jdk 因此报这个错,能够忽略

*********************************************************************
*********************************************************************
**********************  APPLICATIONS INFORMATION  *******************
*********************************************************************

wx             : wxWidgets not found, wx will NOT be usable

*********************************************************************
*********************************************************************
**********************  DOCUMENTATION INFORMATION  ******************
*********************************************************************

documentation  : 
                 fop is missing.
                 Using fakefop to generate placeholder PDF files.

*********************************************************************

d. 编译及安装
# make && make install

e. 设置 erlang 环境变量
# vim /etc/profile.d/erlang.sh
内容以下:
# set erlang environment
export PATH=$PATH:/usr/local/erlang/bin
# . /etc/profile.d/erlang.sh

f. 测试 erlang
# erl
Erlang/OTP 20 [erts-9.3] [source] [64-bit] [smp:2:2] [ds:2:2:10] [async-threads:10] [hipe] [kernel-poll:false]

Eshell V9.3  (abort with ^G) # 出现这个命令提示符说明 erlang 安装成功
1>erlang:halt(). # 退出 erlang,注意 halt() 后面有个 点
复制代码

三、安装 rabbitmq

a. 解压二进制包,解压便可用
# tar xvf rabbitmq-server-generic-unix-3.7.5.tar.xz -C /usr/local/

b. 建立一个软件连接方便管理
# ln -sv rabbitmq_server-3.7.5 rabbitmq
‘rabbitmq’ -> ‘rabbitmq_server-3.7.5’

c. 设置 rabbitmq 环境变量
# vim /etc/profile.d/rabbitmq.sh
内容以下:
# set rabbitmq environment
export PATH=$PATH:/usr/local/rabbitmq/sbin
# . /etc/profile.d/rabbitmq.sh
复制代码

注意:为 rabbitmq_server-3.7.5 目录建立软件连接时,rabbitmq_server-3.7.5 后面必定不要加上 / ,通常习惯用 TAB 键来补全命令的,都会自动把 / 给补上去。这样后面使用 rabbitmqctl 等命令时就会报错:css

[root@node05 ~]# rabbitmqctl status escript: exception error: undefined function rabbitmqctl_escript:main/1 in function escript:run/2 (escript.erl, line 759) in call from escript:start/1 (escript.erl, line 277) in call from init:start_em/1 in call from init:do_boot/3java

3、设置 rabbitMQ

一、开启 rabbitMQ web 页面访问

# rabbitmq-plugins enable rabbitmq_management
也能够直接将开启的插件配置写入配置文件
# echo "[rabbitmq_management]." > /usr/local/rabbitmq/etc/rabbitmq/enabled_plugins
复制代码

二、启动 rabbitmq-server

# rabbitmq-server start # 前台启动
 ## ##
 ## ## RabbitMQ 3.7.5. Copyright (C) 2007-2018 Pivotal Software, Inc.
 ########## Licensed under the MPL. See http://www.rabbitmq.com/
 ###### ##
 ########## Logs: /usr/local/rabbitmq/var/log/rabbitmq/rabbit@node03.log
                    /usr/local/rabbitmq/var/log/rabbitmq/rabbit@node03_upgrade.log

              Starting broker...
 completed with 3 plugins.    # 说明 web 管理插件已经启动
 # rabbitmq-server -detached # 后台启动,不占用终端,推荐
Warning: PID file not written; -detached was passed.
复制代码

三、 rabbitMQ 端口

确保防火墙打开了如下端口:node

端口 用途
4369 empd(Erlang Port Mapper Daemon),是 Erlang 的端口/结点名称映射程序,用来跟踪节点名称监听地址,在集群中起到一个相似 DNS 的做用。
567二、5671 由 AMQP 0-9-1 和 1.0 客户端使用
15672 HTTP_API 端口,管理员用户才能访问,用于管理 RbbitMQ,须要启用 management 插件,rabbitmq-plugins enable rabbitmq_management,访问http://server-name:15672/
25672 Erlang distribution,和4369配合
6161三、61614 当STOMP插件启用的时候打开,做为STOMP客户端端口(根据是否使用TLS选择)
188三、8883 当MQTT插件启用的时候打开,做为MQTT客户端端口(根据是否使用TLS选择)
15674 基于WebSocket的STOMP客户端端口(当插件Web STOMP启用的时候打开)
15675 基于WebSocket的MQTT客户端端口(当插件Web MQTT启用的时候打开)

4、群集配置

集群管理:没有明显的主从,主要是 disk 和 ram 节点的区别c++

集群要求:不支持跨网段(erlang 限制)web

集群类型:精通集群、镜像集群redis

  • 普通集群:结构同步,消息实体只存在一个节点中,但 consumer 在非消息节点获取时,节点间存在消息拉取,易产生性能瓶颈。
  • 镜像集群:集群中一个 master,负责调试,处理消息实体,其余节点保存一份数据到本地;性能主要靠 master 承载。

持久化,分两部分:shell

  • Rabbitmq 服务器配置持久化:默认的就是持久化(disc类型);
  • 代码持久化:默认状况下,代码建立的消息队列和存放在队列里的消息都是非持久化的,须要在建产队列时指定

在配置群集前,必须保证各节点之间的主机名可以相互解析数据库

RabbitMQ 节点使用域名相互寻址,所以全部群集成员的主机名必须可以从全部群集节点解析,能够修改 /etc/hosts 文件或者使用 DNS 解析vim

若是要使用节点名称的完整主机名(RabbitMQ 默认为短名称),而且可使用DNS解析完整的主机名,则可能须要调查设置环境变量  RABBITMQ_USE_LONGNAME = true

一个群集的组成能够动态改变,全部的 RabbitMQ 开始做为单个节点运行,这些节点能够加入到群集,而后也能够再次脱离群集转加单节点。

RabbitMQ 群集能够容忍单个节点的故障。节点能够随意启动和中止,只要它们在关闭时能和群集成员节点联系。

节点能够是 Disk 节点或 RAM 节点

RAM 节点将内部数据库表存储在 RAM 中。这不包括消息,消息存储索引,队列索引和其余节点状态,在 90% 以上的状况下,您但愿全部节点都是磁盘节点;

RAM 节点是一种特殊状况,可用于改善高排队,交换或绑定流失的性能集群。RAM 节点不提供有意义的更高的消息速率。

因为 RAM 节点仅将内部数据库表存储在 RAM 中,所以它们必须在启动时从对等节点同步它们。这意味着群集必须至少包含一个磁盘节点。所以没法手动删除集群中剩余的最后一个磁盘节点

一、设置节点相互信任:Erlang Cookie

RabbitMQ 节点和 CLI 工具(例如 rabbitmqctl )使用 cookie 来肯定它们是否被容许相互通讯,要使两个节点可以通讯,它们必须具备相同的共享密钥,称为 Erlang Cookie。 Cookie 只是一个字符串,最多能够有 255 个字符。它一般存储在本地文件中。该文件必须只能由全部者访问(400 权限)。每一个集群节点必须具备相同的 cookie,文件位置(rpm 安装) /var/lib/rabbitmq/.erlang.cookie,若是是源码安装的 .erlang.cookie 文件在启动用户的家目录中。把 rabbit二、rabbit3 设置成和 rabbit1 同样的便可,权限是 400 ,或者直接复制一份过去便可。

这里采用复制的方式
采用源码安装的 rabbitmq .erlang.cookie 文件在 /root 目录下
# scp /var/lib/rabbitmq/.erlang.cookie node02:/root/
root@node02's password: 
.erlang.cookie   100%   20     2.3KB/s   00:00    
# scp /var/lib/rabbitmq/.erlang.cookie node03:/root/
root@node03's password: 
.erlang.cookie   100%   20     7.5KB/s   00:00 
复制代码

二、正常方式启动全部节点

# rabbitmq-server -detached # 在全部节点上启动 rabbitmq-server
复制代码

三、查看群集状态

# nod01 上
# rabbitmqctl cluster_status
Cluster status of node rabbit@node01 ...
[{nodes,[{disc,[rabbit@node01]}]},
 {running_nodes,[rabbit@node01]},
 {cluster_name,<<"rabbit@node01">>},
 {partitions,[]},
 {alarms,[{rabbit@node01,[]}]}]
 # node02 上
 # ./rabbitmqctl cluster_status
Cluster status of node rabbit@node02 ...
[{nodes,[{disc,[rabbit@node02]}]},
 {running_nodes,[rabbit@node02]},
 {cluster_name,<<"rabbit@node02">>},
 {partitions,[]},
 {alarms,[{rabbit@node02,[]}]}]
 # node03 上
 # ./rabbitmqctl cluster_status
Cluster status of node rabbit@node03 ...
[{nodes,[{disc,[rabbit@node03]}]},
 {running_nodes,[rabbit@node03]},
 {cluster_name,<<"rabbit@node03">>},
 {partitions,[]},
 {alarms,[{rabbit@node03,[]}]}]
复制代码

四、将 node0二、node03 加入 rabbit@node01 群集

a. 中止 node02 的 rabbitmq 应用程序

# 在其他 2 个节点上操做
# ./rabbitmqctl stop_app
Stopping rabbit application on node rabbit@node02 ...
复制代码

b. 加入 rabbit@node01 群集1

# 在其他 2 个节点上操做
# ./rabbitmqctl join_cluster rabbit@node01 # 若是这一步报错的话,请在全部节点打开相应的端口,打开 4369 端口
Clustering node rabbit@node02 with rabbit@node01
复制代码

c. 启动 rabbitMQ 程序

# 在其他 2 个节点上操做
# ./rabbitmqctl start_app
Starting node rabbit@node02 ...
 completed with 3 plugins.
复制代码

b. 查看群集状态

在群集任何一个节点上均可以查看到群集的状态
# rabbitmqctl cluster_status
Cluster status of node rabbit@node01 ...
[{nodes,[{disc,[rabbit@node01,rabbit@node02,rabbit@node03]}]},
 {running_nodes,[rabbit@node03,rabbit@node02,rabbit@node01]},
 {cluster_name,<<"rabbit@node01">>},
 {partitions,[]},
 {alarms,[{rabbit@node03,[]},{rabbit@node02,[]},{rabbit@node01,[]}]}]
复制代码

经过上面的步骤,咱们能够在群集运行的同时随时向群集添加新节点

已加入群集的节点能够随时中止,也能够崩溃。在这两种状况下,群集的其他部分都会继续运行,而且节点在再次启动时,会自动 ”跟上“(同步)其它群集节点。

注意:

当整个集群关闭时,最后一个关闭的节点必须是第一个启动的节点,若是不是这样,节点会等待 30s 等待最后的磁盘节点恢复状态,而后失败。若是最后下线的节点不能上线,可使用 forget_cluster_node 命令将其从群集中删除。若是全部的节点不受控制的同时宕机,好比掉电,会进入全部的节点都会认为其余节点比本身宕机的要晚,即本身先宕机,这种状况下可使用 force_boot 指令来启动一个节点。

d. 设置群集模式为"镜像队列"模式

# rabbitmqctl set_policy ha-all "^" '{"ha-mode":"all","ha-sync-mode":"automatic"}'
复制代码

ha-sync-mode: 若是此节点不进行设置,在其中一台服务器宕机再启动后 会报  Unsynchronised Mirrors XXXX  错误。这时候在队列详细信息页面须要手动点击同步队列,或者用命令行执行命令 rabbitmqctl sync_queue name

5、群集移除节点

当节点再也不是节点的一部分时,须要从群集中明确地删除节点。

将 rabbit@node02 从群集中删除,回到独立模式:

在 rabbit@node02 上操做:
一、中止 RabbitMQ 应用程序。
# ./rabbitmqctl stop_app
Stopping rabbit application on node rabbit@node02 ...

二、重置节点。
# ./rabbitmqctl reset
Resetting node rabbit@node02 ...

三、从新启动 RabbitMQ 应用程序。
# ./rabbitmqctl start_app
Starting node rabbit@node02 ...
 completed with 3 plugins.
 
四、在节点上运行 cluster_status 命令,确认 rabbit@node02 如今已经再也不是群集的一部分,并独立运行
# ./rabbitmqctl cluster_status
Cluster status of node rabbit@node02 ...
[{nodes,[{disc,[rabbit@node02]}]},
 {running_nodes,[rabbit@node02]},
 {cluster_name,<<"rabbit@node02">>},
 {partitions,[]},
 {alarms,[{rabbit@node02,[]}]}]
复制代码

也能够远程删除节点,例如,在处理无响应的节点时,这颇有用。

例如,在节点 rabbit@node01 上把 rabbit@node03 从群集中移除

一、先在 rabbit@node03 上将 RabbitMQ 应用停掉
# ./rabbitmqctl stop_app
Stopping rabbit application on node rabbit@node03 ...

二、在 rabbit@node01 上远程将 rabbit@node03 删除
# rabbitmqctl forget_cluster_node rabbit@node03
Removing node rabbit@node03 from the cluster

三、请注意,这时,rabbit@node03 仍然认为它还在 rabbit@node01 的群集里面,并试图启动它,这将会致使错误。咱们须要将 rabbit@node03 从新设置才能从新启动它。(在 rabbit@node03 上操做)
# ./rabbitmqctl reset
Resetting node rabbit@node03 ...

四、从新启动 rabbit@node03
# ./rabbitmqctl start_app
Starting node rabbit@node03 ...
 completed with 3 plugins.
复制代码

如今,三个节点都是做为独立的节点在运行。

注意:此时,rabbit@node01 保留了簇的剩余状态,而 rabbit@node02 和 rabbit@node03 是刚刚初始化的 RabbitMQ。若是想从新初始化 rabbit@node01 的话,须要按照与其它节点相同的步骤进行便可:

一、中止 RabbitMQ 应用程序

二、 重置 RabbitMQ

三、启动 RabbitMQ 应用程序

6、RabbitMQ 管理

一、主机名更改

RabbitMQ 节点使用主机名相互通讯。所以,全部节点名称必须可以解析全部群集对应的名称。像 rabbitmqctl 这样的工具也是如此。除此以外,**默认状况下 RabbitMQ 使用系统的当前主机名来命名数据库目录。若是主机名更改,则会建立一个新的空数据库。**为了不数据丢失,创建一个固定和可解析的主机名相当重要。每当主机名更改时,应该从新启动 RabbitMQ。若是要使用节点名称的完整主机名(RabbitMQ 默认为短名称),而且可使用 DNS 解析完整的主机名,则须要修改设置环境变量 RABBITMQ_USE_LONGNAME=true

二、RAM 节点的群集

RAM 节点只将其元数据保存在内存中。 只有 RAM 节点的集群是脆弱的, 若是群集中止,将没法再次启动, 并将丢失全部数据。

建立 RAM 节点

咱们能够在首次加入集群时将节点声明为 RAM 节点。像以前同样,咱们使用 rabbitmqctl join_cluster 来完成此 操做,但传递 --ram 标志

[root@node03 escript]# ./rabbitmqctl stop_app
Stopping rabbit application on node rabbit@node03 ...

[root@node03 escript]# ./rabbitmqctl join_cluster --ram rabbit@node01
Clustering node rabbit@node03 with rabbit@node01

[root@node03 escript]# ./rabbitmqctl start_app
Starting node rabbit@node03 ...
 completed with 3 plugins.
 
[root@node03 escript]# ./rabbitmqctl cluster_status
Cluster status of node rabbit@node03 ...
[{nodes,[{disc,[rabbit@node01]},{ram,[rabbit@node03]}]},
 {running_nodes,[rabbit@node01,rabbit@node03]},
 {cluster_name,<<"rabbit@node01">>},
 {partitions,[]},
 {alarms,[{rabbit@node01,[]},{rabbit@node03,[]}]}]
复制代码

更改节点类型

能够将节点的类型 RAM 更改成 disc,反之亦然。

使用 change_cluster_node_type 命令。

[root@node03 escript]# ./rabbitmqctl stop_app
Stopping rabbit application on node rabbit@node03 ...

[root@node03 escript]# ./rabbitmqctl change_cluster_node_type disc
Turning rabbit@node03 into a disc node

[root@node03 escript]# ./rabbitmqctl start_app
Starting node rabbit@node03 ...
 completed with 3 plugins.
 
[root@node03 escript]# ./rabbitmqctl cluster_status
Cluster status of node rabbit@node03 ...
[{nodes,[{disc,[rabbit@node01,rabbit@node03]}]},
 {running_nodes,[rabbit@node01,rabbit@node03]},
 {cluster_name,<<"rabbit@node01">>},
 {partitions,[]},
 {alarms,[{rabbit@node01,[]},{rabbit@node03,[]}]}]
复制代码

经常使用管理命令

  • 用户权限管理

    RabbitMQ 有一个默认的用户'guest',密码也是"guest",这个用户默认只能经过本机访问,如:http://localhost:15672,在经过 http 访问以前记得启用 management 插件。

    要让其余机器能够访问,须要建立一个新用户,并为其分配权限。

    1. 用户管理

      rabbitmqctl list_users # 列出全部用户

      rabbitmqctl add_user {username} {password} # 添加用户

      rabbitmqctl delete_user {username} # 删除用户

      rabbitmqctl change_password {username} {newpassword} # 修改密码

      rabbitmqctl authenticate_user {username} {password} # 用户认证

      rabbitmqctl clear_password {username} # 删除密码,密码删除后就不能访问了。

      rabbitmqctl set_user_tags {username} {tag ...} # 为用户设置角色,tag 能够是 0 个,一个,或多个。如:rabbitmqctl set_user_tags chris administrator,设置为管理员;rabbitmqctl set_user_tags chris ,清除 chris 与角色的关联。

    2. 权限管理

      RabbitMQ 客户端链接到一个服务端的时候,在它的操做指令中指定了一个虚拟主机。服务端首先检查是否有访问该虚拟主机的权限,没有权限的会拒绝链接。

      对于 exchanges 和 queues 等资源,位于某个虚拟主机内;不一样虚拟主机内即使名称相同也表明不一样的资源。当特定操做在资源上执行时第二级访问控制开始生效。

      RabbitMQ 在某个资源上区分了配置、写和读操做。配置操做建立或者销毁资源,或者更改资源的行为。写操做将消息注入进资源之中。读操做从资源中获取消息。

      要执行特定操做用户必须授予合适的权限。

      rabbitmqctl list_vhosts [vhost info item ...] # 获取 vhosts 列表

      rabbitmqctl add_vhost {vhost} # 添加 vhosts

      rabbitmqctl delete_vhost {hosts} # 删除 vhosts

      rabbitmqctl set_permissions [-p vhost] {user} {conf} {write} {read} # 给用户分配对应的 vhost 上分配相应的权限。如:rabbitmqctl set_permissions -p /myvhost chris "^chris-.*" ".*" ".*"

      rabbitmqctl clear_permissions [-p vhost] {username} # 清除权限

      rabbitmqctl list_permissions [-p vhost] # 清除权限列表

      rabbitmqctl list_user_permissions {username} # user 权限列表

      rabbitmqctl set_permissions -p / chris ".*" ".*" ".*" 此时用户chris才有访问队列资源的权限

7、优化

运行生产工做负载的 RabbitMQ 安装可能须要系统限制和内核参数调整,以便处理体面的并发链接和队列。须要调整的主要设置是打开文件的最大数量,也称为 ulimit -n 。建议在生产环境中为用户 rabbitmq 至少容许 65536个文件描述符。4096 对于大多数开发工做量来讲应该是足够的。

有两个限制操做系统内核容许的最大打开文件数(fs.file-max)和每用户限制(ulimit -n)。前者必须高于后者

fs.file-max 设置,在 /etc/sysctl.conf 文件中添加:

fs.file-max = 65535
# sysctl -p
复制代码

用户限制(ulimit -n)

# vim /etc/security/limits.conf
在最后一行添加以下内容
root    soft    nofile  65535
root    hard    nofile  65535
*       soft    nofile  65535
*       hard    nofile  65535
重启系统后才能生效,若是想当即生效,能够先使用以下命令:
# ulimit -SHn 65535
复制代码

ulimit 命令详解

ulimit用于shell启动进程所占用的资源,是shell内建命令。

参数介绍: -H 设置硬件资源限制. -S 设置软件资源限制. -a 显示当前全部的资源限制. -c size:设置core文件的最大值.单位:blocks -d size:设置数据段的最大值.单位:kbytes -f size:设置建立文件的最大值.单位:blocks -l size:设置在内存中锁定进程的最大值.单位:kbytes -m size:设置可使用的常驻内存的最大值.单位:kbytes -n size:设置内核能够同时打开的文件描述符的最大值.单位:n -p size:设置管道缓冲区的最大值.单位:kbytes -s size:设置堆栈的最大值.单位:kbytes -t size:设置CPU使用时间的最大上限.单位:seconds -v size:设置虚拟内存的最大值.单位:kbytesLinux

修改 rabbitmq 配置

若是是 RPM 包安装的 RabbitMQ,修改 /usr/lib/systemd/system/rabbitmq-server.service
在 [Service] 中,增长 LimitNOFILE=30000(具体数值根据须要而定)
执行 systemctl daemon-reload
重启 rabbitmq 服务

rabbitmqctl status 能够查看修改后的 limit 限制,如:
{file_descriptors,
     [{total_limit,924},{total_used,2},{sockets_limit,829},{sockets_used,0}]},
复制代码

日志

默认的状况下,日志位于/var/log/rabbitmq 目录中(RPM 包安装的),源码安装的在 /usr/local/rabbitmq/var/log/rabbitmq 目录中,服务器的输出被发送到 RABBITMQ_NODENAME.log 文件。其它日志数据定入 RABBITMQ_NODENAME-sasl.log

8、高可用配置

img

利用haproxy作负载均衡   在192.168.1.1和192.168.1.2节点上   安装haproxy   # yum install haproxy

  vi /etc/haproxy/haproxy.cfg 以后添加:

#---------------------------------------------------------------------
# Example configuration for a possible web application. See the
# full configuration options online.
#
# http://haproxy.1wt.eu/download/1.4/doc/configuration.txt
#
#---------------------------------------------------------------------
 #---------------------------------------------------------------------
# Global settings
#---------------------------------------------------------------------
global
    # to have these messages end up in /var/log/haproxy.log you will
    # need to:
    #
    # 1) configure syslog to accept network log events.  This is done
    #    by adding the '-r' option to the SYSLOGD_OPTIONS in
    #    /etc/sysconfig/syslog
    #
    # 2) configure local2 events to go to the /var/log/haproxy.log
    #   file. A line like the following can be added to
    #   /etc/sysconfig/syslog
    #
    #    local2.*                       /var/log/haproxy.log
    #
    log         127.0.0.1 local2

    chroot      /var/lib/haproxy
    pidfile     /var/run/haproxy.pid
    maxconn     4000
    user        haproxy
    group       haproxy
    daemon

    # turn on stats unix socket
    stats socket /var/lib/haproxy/stats
 #---------------------------------------------------------------------
# common defaults that all the 'listen' and 'backend' sections will
# use if not designated in their block
#---------------------------------------------------------------------
defaults
    mode                    http
    log                     global
    option                  httplog
    option                  dontlognull
    option http-server-close
    option forwardfor       except 127.0.0.0/8
    option                  redispatch
    retries                 3
    timeout http-request    10s
    timeout queue           1m
    timeout connect         10s
    timeout client          1m
    timeout server          1m
    timeout http-keep-alive 10s
    timeout check           10s
    maxconn                 3000
 #---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
#frontend main *:5000
# acl url_static path_beg -i /static /images /javascript /stylesheets
# acl url_static path_end -i .jpg .gif .png .css .js
 # use_backend static if url_static
# default_backend app
 #---------------------------------------------------------------------
# static backend for serving up images, stylesheets and such
#---------------------------------------------------------------------
#backend static
# balance roundrobin
# server static 127.0.0.1:4331 check
 #---------------------------------------------------------------------
# round robin balancing between the various backends
#---------------------------------------------------------------------
# backend app
# balance roundrobin
# server app1 127.0.0.1:5001 check
# server app2 127.0.0.1:5002 check
# server app3 127.0.0.1:5003 check
# server app4 127.0.0.1:5004 check

listen admin_stats
    bind 0.0.0.0:8100
    stats enable
    mode http
    log global
    stats uri /stats
    stats realm Haproxy\ Statistics
    stats auth admin:admin
    stats admin if TRUE
    stats refresh 30s

listen rabbitmq_cluster
    bind 0.0.0.0:56720
    mode tcp
    option tcplog
    balance roundrobin
    server node05 192.168.2.75:5672 check inter 2000 rise 2 fall 3
    server node06 192.168.2.76:5672 check inter 2000 rise 2 fall 3

listen rabbitmq_cluster_web
    bind 0.0.0.0:15673
    mode tcp
    option tcplog
    balance roundrobin
    server node05 192.168.2.75:15672 check inter 2000 rise 2 fall 3
    server node06 192.168.2.76:15672 check inter 2000 rise 2 fall 3
复制代码

keepalived 配置:

! Configuration File for keepalived
global_defs {
  router_id node05
  vrrp_skip_check_adv_addr
  vrrp_strict
  vrrp_garp_interval 0
  vrrp_gna_interval 0
}


vrrp_script chk_haproxy {
    script "/opt/scripts/chk_haproxy.sh"
    interval 1
    weight -10
}

 vrrp_instance HA {
    state MASTER                                                        # Keepalived 的角色。Master 表示主服务器,从服务器设置为 BACKUP
    interface ens33                                                      # 指定监测网卡
    virtual_router_id 75                                                # 虚拟路由 ID,主备相同
    nopreempt
    priority 100								# 优先级,BACKUP 机器上的优先级要小于这个值
    advert_int 1                                                            # 设置主备之间的检查时间,单位为s
    authentication {                                                      # 定义验证类型和密码
        auth_type PASS                                                  # 主备节点必须一致
        auth_pass 1111                                                   # 主备节点必须一致
    }
    virtual_ipaddress {
        192.168.2.100/32 dev ens33 lebel ens33:0
    }
    track_script {
        chk_haproxy
    }
}
复制代码