ActiveMQ 是Apache出品,最流行的,能力强劲的开源消息总线。彻底支持JMS1.1和J2EE 1.4规范的 JMS Provider实现html
1. 多种语言和协议编写客户端。语言: Java, C, C++, C#, Ruby, Perl, Python, PHP。应用协议: OpenWire,Stomp REST,WS Notification,XMPP,AMQPjava
2. 彻底支持JMS1.1和J2EE 1.4规范 (持久化,XA消息,事务)node
3. 对Spring的支持,ActiveMQ能够很容易内嵌到使用Spring的系统里面去,并且也支持Spring2.0的特性linux
4. 经过了常见J2EE服务器(如 Geronimo,JBoss 4, GlassFish,WebLogic)的测试,其中经过JCA 1.5 resourceadaptors的配置,可让ActiveMQ能够自动的部署到任何兼容J2EE1.4商业服务器上web
5. 支持多种传送协议:in-VM,TCP,SSL,NIO,UDP,JGroups,JXTA数据库
6. 支持经过JDBC和journal提供高速的消息持久化apache
7. 从设计上保证了高性能的集群,客户端-服务器,点对点windows
8. 支持Ajax服务器
9. 支持与Axis的整合网络
10. 能够很容易得调用内嵌JMS provider,进行测试
一、下载
ActiveMQ的最新版本是5.10.0,但因为咱们内网下载存在问题,因此目前经过内网只能下载到5.9.0,下载地址:http://activemq.apache.org/activemq-590-release.html。
二、安装
若是是在windows系统中运行,能够直接解压apache-activemq-5.9.0-bin.zip,并运行bin目录下的activemq.bat文件,此时使用的是默认的服务端口:61616和默认的console端口:8161。
若是是在linux或unix下运行,在bin目录下执行命令:./activemq setup
三、修改ActiveMQ的服务端口和console端口
A、修改服务端口:打开conf/activemq.xml文件,修改如下红色字体部分
<transportConnectors>
<transportConnector name="openwire" uri="tcp://10.42.220.72:61618"discoveryUri="multicast://default"/>
</transportConnectors>
B、修改console的地址和端口:打开conf/jetty.xml文件,修改如下红色字体部分
<bean id="jettyPort"class="org.apache.activemq.web.WebConsolePort"init-method="start">
<property name="port" value="8162"/>
</bean>
须要提早将activemq解压包中的lib目录下的相关包引入到工程中,再进行以下编码:
一、发送端的代码:
importjavax.jms.Connection;
importjavax.jms.ConnectionFactory;
importjavax.jms.DeliveryMode;
importjavax.jms.Destination;
importjavax.jms.MessageProducer;
importjavax.jms.Session;
importjavax.jms.TextMessage;
importorg.apache.activemq.ActiveMQConnection;
importorg.apache.activemq.ActiveMQConnectionFactory;
publicclass Sender {
privatestaticfinalintSEND_NUMBER = 5;
publicstaticvoid main(String[] args) {
// ConnectionFactory:链接工厂,JMS用它建立链接
ConnectionFactory connectionFactory;
// Connection:JMS客户端到JMS Provider的链接
Connection connection = null;
// Session:一个发送或接收消息的线程
Session session;
// Destination:消息的目的地;消息发送给谁.
Destination destination;
// MessageProducer:消息发送者
MessageProducer producer;
// TextMessage message;
//构造ConnectionFactory实例对象,此处采用ActiveMq的实现jar
connectionFactory = new ActiveMQConnectionFactory(
ActiveMQConnection.DEFAULT_USER,
ActiveMQConnection.DEFAULT_PASSWORD,
"failover:(tcp://10.42.220.72:61617,tcp://10.42.220.72:61618)");
try {
//构造从工厂获得链接对象
connection =connectionFactory.createConnection();
//启动
connection.start();
//获取操做链接
session = connection.createSession(true, Session.AUTO_ACKNOWLEDGE);
//获取session
destination = session.createQueue("FirstQueue");
//获得消息生成者【发送者】
producer =session.createProducer(destination);
//设置不持久化,此处学习,实际根据项目决定
producer.setDeliveryMode(DeliveryMode.NON_PERSISTENT);
//构造消息,此处写死,项目就是参数,或者方法获取
sendMessage(session, producer);
session.commit();
} catch (Exception e) {
e.printStackTrace();
} finally {
try {
if (null != connection)
connection.close();
} catch (Throwable ignore) {
}
}
}
publicstaticvoid sendMessage(Session session,MessageProducer producer)
throws Exception {
for (int i = 1; i <=SEND_NUMBER; i++) {
TextMessage message = session
.createTextMessage("ActiveMq发送的消息" + i);
//发送消息到目的地方
System.out.println("发送消息:" + "ActiveMq 发送的消息" + i);
producer.send(message);
}
}
}
2、接收端代码:
importjavax.jms.Connection;
importjavax.jms.ConnectionFactory;
importjavax.jms.Destination;
importjavax.jms.MessageConsumer;
importjavax.jms.Session;
importjavax.jms.TextMessage;
importorg.apache.activemq.ActiveMQConnection;
importorg.apache.activemq.ActiveMQConnectionFactory;
publicclass Receive {
publicstaticvoid main(String[] args) {
// ConnectionFactory:链接工厂,JMS用它建立链接
ConnectionFactory connectionFactory;
// Connection:JMS客户端到JMS Provider的链接
Connection connection = null;
// Session:一个发送或接收消息的线程
Session session;
// Destination:消息的目的地;消息发送给谁.
Destination destination;
//消费者,消息接收者
MessageConsumer consumer;
connectionFactory = new ActiveMQConnectionFactory(
ActiveMQConnection.DEFAULT_USER,
ActiveMQConnection.DEFAULT_PASSWORD,
"failover:(tcp://10.42.220.72:61617,tcp://10.42.220.72:61618)");
try {
//构造从工厂获得链接对象
connection =connectionFactory.createConnection();
//启动
connection.start();
//获取操做链接
session = connection.createSession(false,
Session.AUTO_ACKNOWLEDGE);
//获取session
destination = session.createQueue("FirstQueue");
consumer =session.createConsumer(destination);
while (true) {
//设置接收者接收消息的时间,为了便于测试,这里谁定为100s
TextMessage message =(TextMessage) consumer.receive(100000);
if (null != message) {
System.out.println("收到消息" + message.getText());
} else {
break;
}
}
} catch (Exception e) {
e.printStackTrace();
} finally {
try {
if (null != connection)
connection.close();
} catch (Throwable ignore) {
}
}
}
}
3、经过监控查看消息堆栈的记录:
登录http://localhost:8162/admin/queues.jsp,默认的用户名和密码:admin/admin
单点的ActiveMQ做为企业应用没法知足高可用和集群的需求,因此ActiveMQ提供了master-slave、broker cluster等多种部署方式,但经过分析多种部署方式以后我认为须要将两种部署方式相结合才能知足咱们公司分布式和高可用的需求,因此后面就重点将解如何将两种部署方式相结合。
主要是经过共享存储目录来实现master和slave的热备,全部的ActiveMQ应用都在不断地获取共享目录的控制权,哪一个应用抢到了控制权,它就成为master。
多个共享存储目录的应用,谁先启动,谁就能够最先取得共享目录的控制权成为master,其余的应用就只能做为slave。
与shared filesystem方式相似,只是共享的存储介质由文件系统改为了数据库而已。
这种主备方式是ActiveMQ5.9之后才新增的特性,使用ZooKeeper协调选择一个node做为master。被选择的master broker node开启并接受客户端链接。
其余node转入slave模式,链接master并同步他们的存储状态。slave不接受客户端链接。全部的存储操做都将被复制到链接至Master的slaves。
若是master死了,获得了最新更新的slave被容许成为master。failed node可以从新加入到网络中并链接master进入slave mode。全部须要同步的disk的消息操做都将等待存储状态被复制到其余法定节点的操做完成才能完成。因此,若是你配置了replicas=3,那么法定大小是(3/2)+1=2. Master将会存储并更新而后等待 (2-1)=1个slave存储和更新完成,才汇报success。至于为何是2-1,熟悉Zookeeper的应该知道,有一个node要做为观察者存在。
单一个新的master被选中,你须要至少保障一个法定node在线以可以找到拥有最新状态的node。这个node将会成为新的master。所以,推荐运行至少3个replica nodes,以防止一个node失败了,服务中断。
前面的Master-Slave的方式虽然能解决多服务热备的高可用问题,但没法解决负载均衡和分布式的问题。Broker-Cluster的部署方式就能够解决负载均衡的问题。
Broker-Cluster部署方式中,各个broker经过网络互相链接,并共享queue。当broker-A上面指定的queue-A中接收到一个message处于pending状态,而此时没有consumer链接broker-A时。若是cluster中的broker-B上面由一个consumer在消费queue-A的消息,那么broker-B会先经过内部网络获取到broker-A上面的message,并通知本身的consumer来消费。
在activemq.xml文件中静态指定Broker须要创建桥链接的其余Broker:
一、 首先在Broker-A节点中添加networkConnector节点:
<networkConnectors>
<networkConnector uri="static:(tcp:// 0.0.0.0:61617)"duplex="false"/>
</networkConnectors>
二、 修改Broker-A节点中的服务提供端口为61616:
<transportConnectors>
<transportConnectorname="openwire"uri="tcp://0.0.0.0:61616?maximumConnections=1000&wireFormat.maxFrameSize=104857600"/>
</transportConnectors>
三、 在Broker-B节点中添加networkConnector节点:
<networkConnectors>
<networkConnector uri="static:(tcp:// 0.0.0.0:61616)"duplex="false"/>
</networkConnectors>
四、 修改Broker-A节点中的服务提供端口为61617:
<transportConnectors>
<transportConnectorname="openwire"uri="tcp://0.0.0.0:61617?maximumConnections=1000&wireFormat.maxFrameSize=104857600"/>
</transportConnectors>
五、分别启动Broker-A和Broker-B。
在activemq.xml文件中不直接指定Broker须要创建桥链接的其余Broker,由activemq在启动后动态查找:
一、 首先在Broker-A节点中添加networkConnector节点:
<networkConnectors>
<networkConnectoruri="multicast://default"
dynamicOnly="true"
networkTTL="3"
prefetchSize="1"
decreaseNetworkConsumerPriority="true" />
</networkConnectors>
二、修改Broker-A节点中的服务提供端口为61616:
<transportConnectors>
<transportConnectorname="openwire"uri="tcp://0.0.0.0:61616? " discoveryUri="multicast://default"/>
</transportConnectors>
三、在Broker-B节点中添加networkConnector节点:
<networkConnectors>
<networkConnectoruri="multicast://default"
dynamicOnly="true"
networkTTL="3"
prefetchSize="1"
decreaseNetworkConsumerPriority="true" />
</networkConnectors>
四、修改Broker-B节点中的服务提供端口为61617:
<transportConnectors>
<transportConnectorname="openwire"uri="tcp://0.0.0.0:61617" discoveryUri="multicast://default"/>
</transportConnectors>
五、启动Broker-A和Broker-B
能够看到Master-Slave的部署方式虽然解决了高可用的问题,但不支持负载均衡,Broker-Cluster解决了负载均衡,但当其中一个Broker忽然宕掉的话,那么存在于该Broker上处于Pending状态的message将会丢失,没法达到高可用的目的。
因为目前ActiveMQ官网上并无一个明确的将两种部署方式相结合的部署方案,因此我尝试者把二者结合起来部署:
这里以Broker-A + Broker-B创建cluster,Broker-C做为Broker-B的slave为例:
1)首先在Broker-A节点中添加networkConnector节点:
<networkConnectors>
<networkConnector uri="masterslave:(tcp://0.0.0.0:61617,tcp:// 0.0.0.0:61618)" duplex="false"/>
</networkConnectors>
2)修改Broker-A节点中的服务提供端口为61616:
<transportConnectors>
<transportConnectorname="openwire"uri="tcp://0.0.0.0:61616?maximumConnections=1000&wireFormat.maxFrameSize=104857600"/>
</transportConnectors>
3)在Broker-B节点中添加networkConnector节点:
<networkConnectors>
<networkConnector uri="static:(tcp:// 0.0.0.0:61616)"duplex="false"/>
</networkConnectors>
4)修改Broker-B节点中的服务提供端口为61617:
<transportConnectors>
<transportConnectorname="openwire"uri="tcp://0.0.0.0:61617?maximumConnections=1000&wireFormat.maxFrameSize=104857600"/>
</transportConnectors>
5)修改Broker-B节点中的持久化方式:
<persistenceAdapter>
<kahaDB directory="/localhost/kahadb"/>
</persistenceAdapter>
6)在Broker-C节点中添加networkConnector节点:
<networkConnectors>
<networkConnector uri="static:(tcp:// 0.0.0.0:61616)"duplex="false"/>
</networkConnectors>
7)修改Broker-C节点中的服务提供端口为61618:
<transportConnectors>
<transportConnectorname="openwire"uri="tcp://0.0.0.0:61618?maximumConnections=1000&wireFormat.maxFrameSize=104857600"/>
</transportConnectors>
8)修改Broker-B节点中的持久化方式:
<persistenceAdapter>
<kahaDB directory="/localhost/kahadb"/>
</persistenceAdapter>
9)分别启动broker-A、broker-B、broker-C,由于是broker-B先启动,因此“/localhost/kahadb”目录被lock住,broker-C将一直处于挂起状态,当人为停掉broker-B以后,broker-C将获取目录“/localhost/kahadb”的控制权,从新与broker-A组成cluster提供服务。