面试必备:Zookeeper选举算法原理

1、Leader选举

1.1 Leader选举概述

Leader选举是保证分布式数据一致性的关键所在。当Zookeeper集群中的一台服务器出现如下两种状况之一时,须要进入Leader选举。算法

(1) 服务器初始化启动。服务器

(2) 服务器运行期间没法和Leader保持链接。markdown

下面就两种状况进行分析讲解。网络

一、服务器启动时期的Leader选举数据结构

若进行Leader选举,则至少须要两台机器,这里选取3台机器组成的服务器集群为例。在集群初始化阶段,当有一台服务器Server1启动时,其单独没法进行和完成Leader选举,当第二台服务器Server2启动时,此时两台机器能够相互通讯,每台机器都试图找到Leader,因而进入Leader选举过程。选举过程以下分布式

(1) 每一个Server发出一个投票。因为是初始状况,Server1和Server2都会将本身做为Leader服务器来进行投票,每次投票会包含所推举的服务器的myid和ZXID,使用(myid, ZXID)来表示,此时Server1的投票为(1, 0),Server2的投票为(2, 0),而后各自将这个投票发给集群中其余机器。spa

(2) 接受来自各个服务器的投票。集群的每一个服务器收到投票后,首先判断该投票的有效性,如检查是不是本轮投票、是否来自LOOKING状态的服务器。code

(3) 处理投票。针对每个投票,服务器都须要将别人的投票和本身的投票进行PK,PK规则以下orm

  • 优先检查ZXID。ZXID比较大的服务器优先做为Leader。
  • 若是ZXID相同,那么就比较myid。myid较大的服务器做为Leader服务器。

对于Server1而言,它的投票是(1, 0),接收Server2的投票为(2, 0),首先会比较二者的ZXID,均为0,再比较myid,此时Server2的myid最大,因而更新本身的投票为(2, 0),而后从新投票,对于Server2而言,其无须更新本身的投票,只是再次向集群中全部机器发出上一次投票信息便可。server

(4) 统计投票。每次投票后,服务器都会统计投票信息,判断是否已经有过半机器接受到相同的投票信息,对于Server一、Server2而言,都统计出集群中已经有两台机器接受了(2, 0)的投票信息,此时便认为已经选出了Leader。

(5) 改变服务器状态。一旦肯定了Leader,每一个服务器就会更新本身的状态,若是是Follower,那么就变动为FOLLOWING,若是是Leader,就变动为LEADING。

二、服务器运行时期的Leader选举

在Zookeeper运行期间,Leader与非Leader服务器各司其职,即使当有非Leader服务器宕机或新加入,此时也不会影响Leader,可是一旦Leader服务器挂了,那么整个集群将暂停对外服务,进入新一轮Leader选举,其过程和启动时期的Leader选举过程基本一致。假设正在运行的有Server一、Server二、Server3三台服务器,当前Leader是Server2,若某一时刻Leader挂了,此时便开始Leader选举。选举过程以下

  1. 变动状态。Leader挂后,余下的非Observer服务器都会将本身的服务器状态变动为LOOKING,而后开始进入Leader选举过程。
  2. 每一个Server会发出一个投票。在运行期间,每一个服务器上的ZXID可能不一样,此时假定Server1的ZXID为123,Server3的ZXID为122;在第一轮投票中,Server1和Server3都会投本身,产生投票(1, 123),(3, 122),而后各自将投票发送给集群中全部机器。
  3. 接收来自各个服务器的投票。与启动时过程相同。
  4. 处理投票。与启动时过程相同,此时,Server1将会成为Leader。
  5. 统计投票。与启动时过程相同。
  6. 改变服务器的状态。与启动时过程相同。

1.2 Leader选举算法分析

在3.4.0后的Zookeeper的版本只保留了TCP版本的FastLeaderElection选举算法。当一台机器进入Leader选举时,当前集群可能会处于如下两种状态

· 集群中已经存在Leader。

· 集群中不存在Leader。

对于集群中已经存在Leader而言,此种状况通常都是某台机器启动得较晚,在其启动以前,集群已经在正常工做,对这种状况,该机器试图去选举Leader时,会被告知当前服务器的Leader信息,对于该机器而言,仅仅须要和Leader机器创建起链接,并进行状态同步便可。而在集群中不存在Leader状况下则会相对复杂,其步骤以下

(1) 第一次投票。不管哪一种致使进行Leader选举,集群的全部机器都处于试图选举出一个Leader的状态,即LOOKING状态,LOOKING机器会向全部其余机器发送消息,该消息称为投票。投票中包含了SID(服务器的惟一标识)和ZXID(事务ID),(SID, ZXID)形式来标识一次投票信息。假定Zookeeper由5台机器组成,SID分别为一、二、三、四、5,ZXID分别为九、九、九、八、8,而且此时SID为2的机器是Leader机器,某一时刻,一、2所在机器出现故障,所以集群开始进行Leader选举。在第一次投票时,每台机器都会将本身做为投票对象,因而SID为三、四、5的机器投票状况分别为(3, 9),(4, 8), (5, 8)。

(2) 变动投票。每台机器发出投票后,也会收到其余机器的投票,每台机器会根据必定规则来处理收到的其余机器的投票,并以此来决定是否须要变动本身的投票,这个规则也是整个Leader选举算法的核心所在,其中术语描述以下

· vote_sid:接收到的投票中所推举Leader服务器的SID。

· vote_zxid:接收到的投票中所推举Leader服务器的ZXID。

· self_sid:当前服务器本身的SID。

· self_zxid:当前服务器本身的ZXID。

每次对收到的投票的处理,都是对(vote_sid, vote_zxid)和(self_sid, self_zxid)对比的过程。

规则一:若是vote_zxid大于self_zxid,就承认当前收到的投票,并再次将该投票发送出去。

规则二:若是vote_zxid小于self_zxid,那么坚持本身的投票,不作任何变动。

规则三:若是vote_zxid等于self_zxid,那么就对比二者的SID,若是vote_sid大于self_sid,那么就承认当前收到的投票,并再次将该投票发送出去。

规则四:若是vote_zxid等于self_zxid,而且vote_sid小于self_sid,那么坚持本身的投票,不作任何变动。

结合上面规则,给出下面的集群变动过程。

(3) 肯定Leader。通过第二轮投票后,集群中的每台机器都会再次接收到其余机器的投票,而后开始统计投票,若是一台机器收到了超过半数的相同投票,那么这个投票对应的SID机器即为Leader。此时Server3将成为Leader。

由上面规则可知,一般那台服务器上的数据越新(ZXID会越大),其成为Leader的可能性越大,也就越可以保证数据的恢复。若是ZXID相同,则SID越大机会越大。

1.3 Leader选举实现细节

一、服务器状态

服务器具备四种状态,分别是LOOKING、FOLLOWING、LEADING、OBSERVING。

LOOKING:寻找Leader状态。当服务器处于该状态时,它会认为当前集群中没有Leader,所以须要进入Leader选举状态。

FOLLOWING:跟随者状态。代表当前服务器角色是Follower。

LEADING:领导者状态。代表当前服务器角色是Leader。

OBSERVING:观察者状态。代表当前服务器角色是Observer。

二、投票数据结构

每一个投票中包含了两个最基本的信息,所推举服务器的SID和ZXID,投票(Vote)在Zookeeper中包含字段以下

id:被推举的Leader的SID。

zxid:被推举的Leader事务ID。

electionEpoch:逻辑时钟,用来判断多个投票是否在同一轮选举周期中,该值在服务端是一个自增序列,每次进入新一轮的投票后,都会对该值进行加1操做。

peerEpoch:被推举的Leader的epoch。

state:当前服务器的状态。

三、QuorumCnxManager:网络I/O

每台服务器在启动的过程当中,会启动一个QuorumPeerManager,负责各台服务器之间的底层Leader选举过程当中的网络通讯。

(1) 消息队列。QuorumCnxManager内部维护了一系列的队列,用来保存接收到的、待发送的消息以及消息的发送器,除接收队列之外,其余队列都按照SID分组造成队列集合,如一个集群中除了自身还有3台机器,那么就会为这3台机器分别建立一个发送队列,互不干扰。

· recvQueue:消息接收队列,用于存放那些从其余服务器接收到的消息。

· queueSendMap:消息发送队列,用于保存那些待发送的消息,按照SID进行分组。

· senderWorkerMap:发送器集合,每一个SenderWorker消息发送器,都对应一台远程Zookeeper服务器,负责消息的发送,也按照SID进行分组。

· lastMessageSent:最近发送过的消息,为每一个SID保留最近发送过的一个消息。

(2) 创建链接。为了可以相互投票,Zookeeper集群中的全部机器都须要两两创建起网络链接。QuorumCnxManager在启动时会建立一个ServerSocket来监听Leader选举的通讯端口(默认为3888)。开启监听后,Zookeeper可以不断地接收到来自其余服务器的建立链接请求,在接收到其余服务器的TCP链接请求时,会进行处理。为了不两台机器之间重复地建立TCP链接,Zookeeper只容许SID大的服务器主动和其余机器创建链接,不然断开链接。在接收到建立链接请求后,服务器经过对比本身和远程服务器的SID值来判断是否接收链接请求,若是当前服务器发现本身的SID更大,那么会断开当前链接,而后本身主动和远程服务器创建链接。一旦链接创建,就会根据远程服务器的SID来建立相应的消息发送器SendWorker和消息接收器RecvWorker,并启动。

(3) 消息接收与发送。消息接收:由消息接收器RecvWorker负责,因为Zookeeper为每一个远程服务器都分配一个单独的RecvWorker,所以,每一个RecvWorker只须要不断地从这个TCP链接中读取消息,并将其保存到recvQueue队列中。消息发送:因为Zookeeper为每一个远程服务器都分配一个单独的SendWorker,所以,每一个SendWorker只须要不断地从对应的消息发送队列中获取出一个消息发送便可,同时将这个消息放入lastMessageSent中。在SendWorker中,一旦Zookeeper发现针对当前服务器的消息发送队列为空,那么此时须要从lastMessageSent中取出一个最近发送过的消息来进行再次发送,这是为了解决接收方在消息接收前或者接收到消息后服务器挂了,致使消息还没有被正确处理。同时,Zookeeper可以保证接收方在处理消息时,会对重复消息进行正确的处理。

四、FastLeaderElection:选举算法核心

· 外部投票:特指其余服务器发来的投票。

· 内部投票:服务器自身当前的投票。

· 选举轮次:Zookeeper服务器Leader选举的轮次,即logicalclock。

· PK:对内部投票和外部投票进行对比来肯定是否须要变动内部投票。

(1) 选票管理

· sendqueue:选票发送队列,用于保存待发送的选票。

· recvqueue:选票接收队列,用于保存接收到的外部投票。

· WorkerReceiver:选票接收器。其会不断地从QuorumCnxManager中获取其余服务器发来的选举消息,并将其转换成一个选票,而后保存到recvqueue中,在选票接收过程当中,若是发现该外部选票的选举轮次小于当前服务器的,那么忽略该外部投票,同时当即发送本身的内部投票。

 · WorkerSender:选票发送器,不断地从sendqueue中获取待发送的选票,并将其传递到底层QuorumCnxManager中。

(2) 算法核心

上图展现了FastLeaderElection模块是如何与底层网络I/O进行交互的。Leader选举的基本流程以下

1. 自增选举轮次。Zookeeper规定全部有效的投票都必须在同一轮次中,在开始新一轮投票时,会首先对logicalclock进行自增操做。

2. 初始化选票。在开始进行新一轮投票以前,每一个服务器都会初始化自身的选票,而且在初始化阶段,每台服务器都会将本身推举为Leader。

3. 发送初始化选票。完成选票的初始化后,服务器就会发起第一次投票。Zookeeper会将刚刚初始化好的选票放入sendqueue中,由发送器WorkerSender负责发送出去。

4. 接收外部投票。每台服务器会不断地从recvqueue队列中获取外部选票。若是服务器发现没法获取到任何外部投票,那么就会当即确认本身是否和集群中其余服务器保持着有效的链接,若是没有链接,则立刻创建链接,若是已经创建了链接,则再次发送本身当前的内部投票。

5. 判断选举轮次。在发送完初始化选票以后,接着开始处理外部投票。在处理外部投票时,会根据选举轮次来进行不一样的处理。

· 外部投票的选举轮次大于内部投票。若服务器自身的选举轮次落后于该外部投票对应服务器的选举轮次,那么就会当即更新本身的选举轮次(logicalclock),而且清空全部已经收到的投票,而后使用初始化的投票来进行PK以肯定是否变动内部投票。最终再将内部投票发送出去。

· 外部投票的选举轮次小于内部投票。若服务器接收的外选票的选举轮次落后于自身的选举轮次,那么Zookeeper就会直接忽略该外部投票,不作任何处理,并返回步骤4。

· 外部投票的选举轮次等于内部投票。此时能够开始进行选票PK。

6. 选票PK。在进行选票PK时,符合任意一个条件就须要变动投票。

· 若外部投票中推举的Leader服务器的选举轮次大于内部投票,那么须要变动投票。

· 若选举轮次一致,那么就对比二者的ZXID,若外部投票的ZXID大,那么须要变动投票。

· 若二者的ZXID一致,那么就对比二者的SID,若外部投票的SID大,那么就须要变动投票。

7. 变动投票。通过PK后,若肯定了外部投票优于内部投票,那么就变动投票,即便用外部投票的选票信息来覆盖内部投票,变动完成后,再次将这个变动后的内部投票发送出去。

8. 选票归档。不管是否变动了投票,都会将刚刚收到的那份外部投票放入选票集合recvset中进行归档。recvset用于记录当前服务器在本轮次的Leader选举中收到的全部外部投票(按照服务队的SID区别,如{(1, vote1), (2, vote2)...})。

9. 统计投票。完成选票归档后,就能够开始统计投票,统计投票是为了统计集群中是否已经有过半的服务器承认了当前的内部投票,若是肯定已经有过半服务器承认了该投票,则终止投票。不然返回步骤4。

10. 更新服务器状态。若已经肯定能够终止投票,那么就开始更新服务器状态,服务器首选判断当前被过半服务器承认的投票所对应的Leader服务器是不是本身,如果本身,则将本身的服务器状态更新为LEADING,若不是,则根据具体状况来肯定本身是FOLLOWING或是OBSERVING。

以上10个步骤就是FastLeaderElection的核心,其中步骤4-9会通过几轮循环,直到有Leader选举产生。

2、总结

这边文章主要是了解了Leader选举的具体细节,这对于以后的代码分析会打下很好的基础。

选举轮次,也就是逻辑时钟,即logicalclock。这个值,不会频繁变化,一次选举,自增一次。一次选举过程当中,可能包括屡次投票,投票不涉及逻辑时钟的自增。

举例,初始状况下5台机器,sid分别为一、二、三、四、5,逻辑时钟都是0。依次启动后,开始选举,全部的机器逻辑时钟自增为1。通过屡次投票,假设第三台机器为leader,其余4台机器为follower,此时5台机器的逻辑时钟都为1。

通常状况下,逻辑时钟应该都是相同的。可是,因为一些机器崩溃的问题,是可能出现逻辑时钟不一致的状况的。例如,上例中,sid=3的机器为leader。以后某一刻,sid为一、3的机器崩溃,zookeeper仍然能够正常对外提供服务。但须要从新选主,剩下的二、四、5从新投票选主,假设sid=5成为新的leader,逻辑时钟自增,由1变成2。以后某一刻,sid为5的机器奔溃,sid为1的机器复活,仍然有3台机器运行,zookeeper能够对外提供服务,但须要从新选主。从新选主,逻辑时钟自增,这时sid为二、4的机器的逻辑时钟是由2自增为3,而sid为1的机器的逻辑时钟是由1自增为2。这种状况下,就出现了逻辑时钟不一致的状况。这时,须要清楚sid为1的机器内部的投票数据,由于这些投票数据都是过期的数据。

最后

欢迎你们阅读,以为不错能够点赞关注下,之后还会更新更多文章分享!

相关文章
相关标签/搜索