Zookeeper + ActiveMQ 集群

一:使用ZooKeeper实现的Master-Slave实现方式,是对ActiveMQ进行高可用的一种有效的解决方案,高可用的原理:使用ZooKeeper(集群)注册所有的ActiveMQ Broker。只有其中的一个Broker可以对外提供服务(也就是Master节点),其他的Broker处于待机状态,被视为Slave。如果Master因故障而不能提供服务,则利用ZooKeeper的内部选举机制会从Slave中选举出一个Broker充当Master节点,继续对外提供服务。



二:部署方案,ActiveMQ集群环境准备:

 

1)首先我们下载apache-activemq-5.11.1-bin.tar.gz,到我们的一台主节点上去,然后我们在(192.168.1.111一个节点上实现集群即可)

 

2)Zookeeper方案

 

主机IP

消息端口

通信端口

节点目录/usr/local/下

 

 

 

 

192.168.1.111

2181

2888:3888

zookeeper

192.168.1.112

2181

2888:3888

zookeeper

192.168.1.113

2181

2888:3888

zookeeper

 

 

 

 

 

3)ActiveMQ方案

 

主机IP

集群通信端口

消息端口

控制台端口

节点目录/usr/local/下

 

 

 

 

 

192.168.1.111

62621

51511

8161

activemq-cluster/node1/

192.168.1.111

62622

51512

8162

activemq-cluster/node2/

192.168.1.111

62623

51513

8163

activemq-cluster/node3/

 

 

 

 

 

 

2:首先搭建zookeeper环境

 

3:继续搭建activemq环境(1)在192.168.1.111节点下,创建/usr/local/activemq-

 

cluster文件夹,解压apache-activemq-5.11.1-bin.tar.gz文件,然后对解压好的文件改名,操作如下:

 

1 命令:mkdir /usr/local/activemq-cluster

 

2 命令:cd software/

 

3 命令:tar -zxvf apache-activemq-5.11.1-bin.tar.gz -C

 

/usr/local/activemq-cluster/

 

4 命令:cd /usr/local/activemq-cluster/

 

5 命令:mv apache-activemq-5.11.1/ node1

 

如此操作,再次反复解压apache-activemq-5.11.1-bin.tar.gz文件到/usr/local/activemq-cluster/下,建立node2node3文件夹,如下:



2)那我们现在已经解压好了三个mq节点也就是node1、node2、node3,下面我们要做的事情就是更改每个节点不同的配置和端口(由于是在一台机器上实现集群)。

 

1 修改控制台端口(默认为8161),在mq安装路径下的conf/jetty.xml进

 

行修改即可。(三个节点都要修改,并且端口都不同)

 

1命令:cd /usr/local/activemq-cluster/node1/conf/

 

2命令:vim /usr/local/activemq-cluster/node1/conf/jetty.xml



三个节点都需要修改为8161、8162、8163!!!

 

2 集群配置文件修改:我们在mq安装路径下的conf/activemq.xml进行修改其中的持久化适配器,修改其中的bind、zkAddress、hostname、zkPath

 

然后也需要修改mq的brokerName,并且每个节点名称都必须相同。命令:vim /usr/local/activemq-cluster/node1/conf/activemq.xml

 

第一处修改:brokerName=”activemq-cluster”(三个点都需要修改)

 


第二处修改:先注释掉适配器中的kahadb



第三处修改:添加新的leveldb配置如下(三个节点都需要修改):

 

Node1:

 

<persistenceAdapter>

<!--kahaDB directory="${activemq.data}/kahadb"/ --> 

<replicatedLevelDB directory="${activemq.data}/leveldb" replicas="3"  bind="tcp://0.0.0.0:62621" zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"

 hostname="bhz111" zkPath="/activemq/leveldb-stores"/>

 </persistenceAdapter>

 

Node2:

 

<persistenceAdapter>

 

<!--kahaDB directory="${activemq.data}/kahadb"/ --> <replicatedLevelDB directory="${activemq.data}/leveldb"

 

replicas="3"

 

bind="tcp://0.0.0.0:62622"

 

zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"

 

hostname="bhz111" zkPath="/activemq/leveldb-stores" />

 

</persistenceAdapter>

 

Node3:

 

<persistenceAdapter>

 

<!--kahaDB directory="${activemq.data}/kahadb"/ --> <replicatedLevelDB directory="${activemq.data}/leveldb"

 

replicas="3"

 

bind="tcp://0.0.0.0:62623"

 

zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"

 

hostname="bhz111" zkPath="/activemq/leveldb-stores" />

 

</persistenceAdapter>

 

第四处修改:(修改通信的端口,避免冲突)

 

命令:vim /usr/local/activemq-cluster/node1/conf/activemq.xml

 

修改这个文件的通信端口号,三个节点都需要修改(51511,51512,51513)



Ok,到此为止,我们的activemq集群环境已经搭建完毕!