为何Kafka在2.8版本中会“抛弃”Zookeeper,选择拥抱Raft?

相信你们最近必定关注到一款重量级消息中间件Kafka发布了2.8版本,而且正式移除了对Zookeeper的依赖,背后的设计哲学是什么呢?仅仅只是减小了一个外部依赖吗?算法

答案显然不会这么简单,容我慢慢道来。微信

在解答为何以前,我以为很是有必要先来阐述一下Zookeeper的经典使用场景。架构

一、Zookeeper的经典使用场景

zookeeper是伴随着大数据、分布式领域的兴起。大数据中的一个很是重要的议题是如何使用众多廉价的机器来实现可靠存储。app

所谓廉价的机器就是发生故障的几率很是大,但单台的成本也很是低,分布式领域但愿使用多台机器组成一个集群,将数据存储在多台机器上(副本),为了方便实现数据一致性,一般须要从一个复制组中挑选一台主节点用户处理数据的读写,其余节点从主节点拷贝数据,当主节点宕机,须要自动进行从新选举,实现高可用。运维

上述场景中有一个很是重要的功能Leader选举,如何选举出一个主节点、并支持主节点宕机后自动触发从新选举,实现主从自动切换,实现高可用分布式

使用Zookeeper提供的临时顺序节点与事件监听机制,能很是轻松的实现Leader选举。 在这里插入图片描述 上面的t1,t2能够理解为一个组织中的多个成员,能提供相同的服务,但为了实现冷备效果(即同一时间只有一个成员对外提供服务,咱们称之为Leader,当Leader宕机或中止服务后,该组织中的其余成名从新竞争Leader,而后继续对外提供服务)。大数据

正如上图所示,Zookeeper是以集群部署的,能有效避免单点故障,而且集群内部提供了对数据的强一致性url

当成员须要竞争Leader时,借助Zookeeper的实现套路是向zookeeper中的一个数据节点(示例中为/app/order-service/leader)节点建立两个子节点,而且是顺序的临时节点.net

客户端判断建立的节点的序号是否为/app/order-service/leader中序号最小的节点,若是是则成为Leader,对外提供服务设计

若是序号不是最小的,则向本身前置的注册节点删除事件,一旦Leader表明的进程宕机,它与Zookeeper的会话失效后,与之关联的临时节点会被删除,一旦Leader建立的节点被删除,其后继节点会获得通知,从而再次触发选主,选举出新的Leader,继续对外提供服务,保质服务的高可用性。

回顾上述场景,借助Zookeeper能很是轻松的实现选主,为应用提升可用带来简便性,主要是利用了Zookeeper的几个特性:

  • 临时节点 临时节点是与会话关联的,一点建立该临时节点的会话结束,与之会被自动删除,无需应用方人工删除。
  • 顺序节点
  • 事件机制 借助与事件机制,Zookeeper能及时通知存活的其余应用节点,从新触发选举,使得实现自动主从切换变的很是简单。

二、Kafka对Zookeeper的迫切需求

Kafka中存在众多的Leader选举,熟悉Kafka的朋友应该知道,一个主题能够拥有多个分区(数据分片),每个数据分片能够配置多个副本,如何保证一个分区的数据在多个副本之间的一致性成为一个迫切的需求。

Kafka的实现套路就是一个分区的多个副本,从中选举出一个Leader用来承担客户端的读写请求,从节点从主节点处拷贝内容,Leader节点根据数据在副本中成功写入状况,进行抉择来肯定是否写入成功。

Kafka中topic的分区分布示意图: 在这里插入图片描述 故此处须要进行Leader选举,而基于Zookeeper能轻松实现,今后一拍即合,开启了一段“蜜月之旅”。

三、Zookeeper的致命弱点

Zookeeper是集群部署,只要集群中超过半数节点存活,便可提供服务,例如一个由3个节点的Zookeeper,容许1个Zookeeper节点宕机,集群仍然能提供服务;一个由5个节点的Zookeeper,容许2个节点宕机。

但Zookeeper的设计是CP模型,即要保证数据的强一致性,必然在可用性方面作出牺牲。

Zookeeper集群中也存在所谓的Leader节点和从节点,Leader节点负责写,Leader与从节点可用接受读请求,但在Zookeeper内部节点在选举时整个Zookeeper没法对外提供服务。固然正常状况下选举会很是快,但在异常状况下就很差说了,例如Zookeeper节点发生full Gc,此时形成的影响将是毁灭性的。

Zookeeper节点若是频繁发生Full Gc,此时与客户端的会话将超时,因为此时没法响应客户端的心跳请求(Stop World),从而与会话相关联的临时节点将被删除,注意,此时是全部的临时节点会被删除,Zookeeper依赖的事件通知机制将失效,整个集群的选举服务将失效。

站在高可用性的角度,Kafka集群的可用性不只取决于自身,还受到了外部组件的制约,从长久来看,显然都不是一个优雅的方案

随着分布式领域相关技术的不断完善,去中心化的思想逐步兴起,去Zookeeper的呼声也愈来愈高,在这个进程中涌现了一个很是优秀的算法:Raft协议。

Raft协议的两个重要组成部分:Leader选举、日志复制,而日志复制为多个副本提供数据强一致性提供了强一致性,而且一个显著的特色是Raft节点是去中心化的架构,不依赖外部的组件,而是做为一个协议簇嵌入到应用中的,即与应用自己是融合为一体的

再以Kafka Topic的分布图举例,引用Raft协议的示例图以下: 在这里插入图片描述 关于Raft协议,本文并不打算深刻进行探讨,但为选主提供了另一种可行方案,并且还无需依赖第三方组件,何乐而不为呢?故最终Kafka在2.8版本中正式废弃了Zookeeper,拥抱Raft。

若是你们对Raft协议感兴趣,推荐阅读笔者关于Raft协议的系列文章:

  1. 初探raft协议

  2. Raft协议之Leader协议选主实现原理



好了,本文就介绍到这里了,键三连(关注、点赞、留言)是对我最大的鼓励,,固然能够加笔者微信:dingwpmz,备注CSDN,共同交流探讨。

最后分享笔者一个硬核的RocketMQ电子书,您将得到千亿级消息流转的运维经验。 在这里插入图片描述 获取方式:微信搜索【中间件兴趣圈】,回复RMQPDF便可获取。

相关文章
相关标签/搜索