本文做者:黄小斜php
转载请务必在文章开头注明出处和做者。java
“RabbitMQ?”“Kafka?”“RocketMQ?”...在平常学习与开发过程当中,咱们经常听到消息队列这个关键词,可能你是熟练使用消息队列的老手,又或者你是不懂消息队列的新手,不论你了不了解消息队列,本文都将带你搞懂消息队列的一些基本理论。若是你是老手,你可能从本文学到你以前未曾注意的一些关于消息队列的重要概念,若是你是新手,相信本文将是你打开消息队列大门的一板砖。python
根据百度百科的说法,“消息队列”是在消息的传输过程当中保存消息的容器。消息队列管理器在将消息从它的源中继到它的目标时充当中间人。队列的主要目的是提供路由并保证消息的传递;若是发送消息时接收者不可用,消息队列会保留消息,直到能够成功地传递它。`c++
我以为使用消息队列主要有两点好处:git
1.经过异步处理提升系统性能(削峰、减小响应所需时间);github
2.下降系统耦合性。若是在面试的时候你被面试官问到这个问题的话,通常状况是你在你的简历上涉及到消息队列这方面的内容,这个时候推荐你结合你本身的项目来回答。web
《大型网站技术架构》第四章和第七章均有提到消息队列对应用性能及扩展性的提高。面试
在我平时的平常工做中,用到消息队列的场景可很多,好比,我有一个定时任务须要在A应用天天7点开始调度,那么定时任务系统如何告诉这个A应用呢,一种办法是直接调用A应用的RPC服务,可是,定时任务系统不可能去记录那么多应用的RPC服务,因此若是换成消息,就大大下降了复杂度。数据库
还有一种常见使用消息队列的场景,那就是把一些不须要及时处理的RPC调用改为消息,好比最典型的电商下单,必定是实时性要求很高的,可是,有一些消息会在用户下单后进行异步的发送,好比用户对商品的评价,用户的退款请求,这些请求不须要被实时地进行处理,彻底能够异步化处理,这个时候使用消息队列就是再好不过的选择了,消息队列会帮你存储这些待处理的消息,而且等应用负载较低的时候再分发给应用处理,或者是等待应用主动向消息队列获取消息。apache
咱们能够把消息队列比做是一个存放消息的容器,当咱们须要使用消息的时候能够取出消息供本身使用。消息队列是分布式系统中重要的组件,使用消息队列主要是为了经过异步处理提升系统性能和削峰、下降系统耦合性。目前使用较多的消息队列有ActiveMQ,RabbitMQ,Kafka,RocketMQ。
固然,在咱们公司内部用的大多都是自研的消息队列产品,一方面是由于须要适配金融级分布式场景,另外一方面自研的中间件有专门的的团队维护,出了什么问题才能及时处理和修复。
下面咱们就一块儿来看看这些开源的消息队列是怎么设计的,各有什么优缺点呢。
RabbitMQ 2007年发布,是一个在AMQP(高级消息队列协议)基础上完成的,可复用的企业消息系统,是当前最主流的消息中间件之一。
主要特性:
优势:
缺点:
ActiveMQ是由Apache出品,ActiveMQ 是一个彻底支持JMS1.1和J2EE 1.4规范的 JMS Provider实现。它很是快速,支持多种语言的客户端和协议,并且能够很是容易的嵌入到企业的应用环境中,并有许多高级功能。
主要特性:
优势:
缺点:
RocketMQ出自 阿里公司的开源产品,用 Java 语言实现,在设计时参考了 Kafka,并作出了本身的一些改进,消息可靠性上比 Kafka 更好。RocketMQ在阿里集团被普遍应用在订单,交易,充值,流计算,消息推送,日志流式处理,binglog分发等场景。
主要特性:
优势:
访问时,直接从内存读取。
缺点:
支持的客户端语言很少,目前是java及c++,其中c++不成熟;
RocketMQ社区关注度及成熟度也不及前二者;
没有web管理界面,提供了一个CLI(命令行界面)管理工具带来查询、管理和诊断各类问题;
没有在 mq 核心中去实现JMS等接口;
Apache Kafka是一个分布式消息发布订阅系统。它最初由LinkedIn公司基于独特的设计实现为一个分布式的提交日志系统( a distributed commit log),,以后成为Apache项目的一部分。Kafka系统快速、可扩展而且可持久化。它的分区特性,可复制和可容错都是其不错的特性。
主要特性:
优势:
缺点:
这么多的消息队列,有一个区别很重要,那就是模式,究竟是pull好仍是push好,下面就让咱们来一探究竟吧
Push即服务端主动发送数据给客户端。在服务端收到消息以后当即推送给客户端。
Push模型最大的好处就是实时性。由于服务端能够作到只要有消息就当即推送,因此消息的消费没有“额外”的延迟。
可是Push模式在消息中间件的场景中会面临如下一些问题:
Pull模式能够很好的应对以上的这些场景。
Pull模式由Consumer主动从Broker获取消息。
这样带来了一些好处:
Pull模式还有一个好处是能够聚合消息。由于Broker没法预测写一条消息产生的时间,因此在收到消息以后只能当即推送给Consumer,因此没法对消息聚合后再推送给Consumer。 而Pull模式由Consumer主动来获取消息,每一次Pull时都尽量多的获取已近在Broker上的消息。
可是,和Push模式正好相反,Pull就面临了实时性的问题。
由于由Consumer主动来Pull消息,因此实时性和Pull的周期相关,这里就产生了“额外”延迟。若是为了下降延迟来提高Pull的执行频率,可能在没有消息的时候产生大量的Pull请求(消息中间件是彻底解耦的,Broker和Consumer没法预测下一条消息在何时产生);若是频率低了,那延迟天然就大了。
另外,Pull模式状态维护在Consumer,因此多个Consumer之间须要相互协调,这里就须要引入ZK或者本身实现NameServer之类的服务来完成Consumer之间的协调。
有没有一种方式,能结合Push和Pull的优点,同时变各自的缺陷呢?答案是确定的。
使用long-polling模式,Consumer主动发起请求到Broker,正常状况下Broker响应消息给Consumer;在没有消息或者其余一些特殊场景下,能够将请求阻塞在服务端延迟返回。
long-polling不是一种Push模式,而是Pull的一个变种。
那么:
以上两点避免了多余的Pull请求,同时也解决Pull请求的执行频率致使的“额外”的延迟。
注意上面有一个概念:“超时以前”。每个请求都有超时时间,Pull请求也是。“超时以前”的含义是在Consumer的“Pull”请求超时以前。
基于long-polling的模型,Broker须要保证在请求超时以前返回一个结果给Consumer,不管这个结果是读取到了消息或者没有可读消息。
由于Consumer和Broker之间的时间是有误差的,且请求从Consumer发送到Broker也是须要时间的,因此若是一个请求的超时时间是5秒,而这个请求在Broker端阻塞了5秒才返回,那么Consumer在收到Broker响应以前就会断定请求超时。因此Broker须要保证在Consumer断定请求超时以前返回一个结果。
一般的作法时在Broker端能够阻塞请求的时间老是小于long-polling请求的超时时间。好比long-polling请求的超时时间为30秒,那么Broker在收到请求后最迟在25s以后必定会返回一个结果。中间5s的差值来应对Broker和Consumer的始终存在误差和网络存在延迟的状况。 (可见Long-Polling模式的前提是Broker和Consumer之间的时间误差没有“很大”)
Long-Polling还存在什么问题吗,还能改进吗?
“在Broker一直有可读消息的状况下,long-polling就等价于执行间隔为0的pull模式(每次收到Pull结果就发起下一次Pull请求)。”
这是上面long-polling在服务端一直有可消费消息的处理状况。在这个状况下,一条消息若是在long-polling请求返回时到达服务端,那么它被Consumer消费到的延迟是:
假设Broker和Consumer之间的一次网络开销时间为R毫秒, 那么这条消息须要经历3R才能到达Consumer 第一个R:消息已经到达Broker,可是long-polling请求已经读完数据准备返回Consumer,从Broker到Consumer消耗了R 第二个R:Consumer收到了Broker的响应,发起下一次long-polling,这个请求到达Broker须要一个R 的时间 第三个R:Broker收到请求读取了这条数据,那么返回到Consumer须要一个R的时间 因此总共须要3R(不考虑读取的开销,只考虑网络开销)
另外,在这种状况下Broker和Consumer之间一直在进行请求和响应(long-polling变成了间隔为0的pull)。
考虑这样一种方式,它有long-polling的优点,同时能减小在有消息可读的状况下由Broker主动push消息给Consumer,减小没必要要的请求。
http://www.luyixian.cn/news_s...
https://blog.51cto.com/caczjz...