ZooKeeper是一个开放源码的分布式协调服务,它是集群的管理者,监视着集群中各个节点的状态根据节点提交的反馈进行下一步合理操做。最终,将简单易用的接口和性能高效、功能稳定的系统提供给用户。java
分布式应用程序能够基于Zookeeper实现诸如数据发布/订阅、负载均衡、命名服务、分布式协调/通知、集群管理、Master选举、分布式锁和分布式队列等功能。node
Zookeeper保证了以下分布式一致性特性:nginx
一、顺序一致性
二、原子性
三、单一视图
四、可靠性
五、实时性(最终一致性)算法
客户端的读请求能够被集群中的任意一台机器处理,若是读请求在节点上注册了监听器,这个监听器也是由所链接的zookeeper机器来处理。对于写请求,这些请求会同时发给其余zookeeper机器而且达成一致后,请求才会返回成功。所以,随着zookeeper的集群机器增多,读请求的吞吐会提升可是写请求的吞吐会降低。数据库
有序性是zookeeper中很是重要的一个特性,全部的更新都是全局有序的,每一个更新都有一个惟一的时间戳,这个时间戳称为zxid(Zookeeper Transaction Id)。而读请求只会相对于更新有序,也就是读请求的返回结果中会带有这个zookeeper最新的zxid。设计模式
一、文件系统
二、通知机制缓存
Zookeeper提供一个多层级的节点命名空间(节点称为znode)。与文件系统不一样的是,这些节点均可以设置关联的数据,而文件系统中只有文件节点能够存放数据而目录节点不行。
Zookeeper为了保证高吞吐和低延迟,在内存中维护了这个树状的目录结构,这种特性使得Zookeeper不能用于存放大量的数据,每一个节点的存放数据上限为1M。服务器
ZAB协议是为分布式协调服务Zookeeper专门设计的一种支持崩溃恢复的原子广播协议。网络
ZAB协议包括两种基本的模式:崩溃恢复和消息广播。session
当整个zookeeper集群刚刚启动或者Leader服务器宕机、重启或者网络故障致使不存在过半的服务器与Leader服务器保持正常通讯时,全部进程(服务器)进入崩溃恢复模式,首先选举产生新的Leader服务器,而后集群中Follower服务器开始与新的Leader服务器进行数据同步,当集群中超过半数机器与该Leader服务器完成数据同步以后,退出恢复模式进入消息广播模式,Leader服务器开始接收客户端的事务请求生成事物提案来进行事务请求处理。
一、PERSISTENT-持久节点
除非手动删除,不然节点一直存在于Zookeeper上
二、EPHEMERAL-临时节点
临时节点的生命周期与客户端会话绑定,一旦客户端会话失效(客户端与zookeeper链接断开不必定会话失效),那么这个客户端建立的全部临时节点都会被移除。
三、PERSISTENT_SEQUENTIAL-持久顺序节点
基本特性同持久节点,只是增长了顺序属性,节点名后边会追加一个由父节点维护的自增整型数字。
四、EPHEMERAL_SEQUENTIAL-临时顺序节点
基本特性同临时节点,增长了顺序属性,节点名后边会追加一个由父节点维护的自增整型数字。
Zookeeper容许客户端向服务端的某个Znode注册一个Watcher监听,当服务端的一些指定事件触发了这个Watcher,服务端会向指定客户端发送一个事件通知来实现分布式的通知功能,而后客户端根据Watcher通知状态和事件类型作出业务上的改变。
工做机制:
一、客户端注册watcher
二、服务端处理watcher
三、客户端回调watcher
Watcher特性总结:
一、一次性
不管是服务端仍是客户端,一旦一个Watcher被触发,Zookeeper都会将其从相应的存储中移除。这样的设计有效的减轻了服务端的压力,否则对于更新很是频繁的节点,服务端会不断的向客户端发送事件通知,不管对于网络仍是服务端的压力都很是大。
二、客户端串行执行
客户端Watcher回调的过程是一个串行同步的过程。
三、轻量
3.一、Watcher通知很是简单,只会告诉客户端发生了事件,而不会说明事件的具体内容。
3.二、客户端向服务端注册Watcher的时候,并不会把客户端真实的Watcher对象实体传递到服务端,仅仅是在客户端请求中使用boolean类型属性进行了标记。
四、watcher event异步发送watcher的通知事件从server发送到client是异步的,这就存在一个问题,不一样的客户端和服务器之间经过socket进行通讯,因为网络延迟或其余因素致使客户端在不通的时刻监听到事件,因为Zookeeper自己提供了ordering guarantee,即客户端监听事件后,才会感知它所监视znode发生了变化。因此咱们使用Zookeeper不能指望可以监控到节点每次的变化。Zookeeper只能保证最终的一致性,而没法保证强一致性。
五、注册watcher getData、exists、getChildren
六、触发watcher create、delete、setData
七、当一个客户端链接到一个新的服务器上时,watch将会被以任意会话事件触发。当与一个服务器失去链接的时候,是没法接收到watch的。而当client从新链接时,若是须要的话,全部先前注册过的watch,都会被从新注册。一般这是彻底透明的。只有在一个特殊状况下,watch可能会丢失:对于一个未建立的znode的exist watch,若是在客户端断开链接期间被建立了,而且随后在客户端链接上以前又删除了,这种状况下,这个watch事件可能会被丢失。
一、调用getData()/getChildren()/exist()三个API,传入Watcher对象
二、标记请求request,封装Watcher到WatchRegistration
三、封装成Packet对象,发服务端发送request
四、收到服务端响应后,将Watcher注册到ZKWatcherManager中进行管理
五、请求返回,完成注册。
一、服务端接收Watcher并存储
接收到客户端请求,处理请求判断是否须要注册Watcher,须要的话将数据节点的节点路径和ServerCnxn(ServerCnxn表明一个客户端和服务端的链接,实现了Watcher的process接口,此时能够当作一个Watcher对象)存储在WatcherManager的WatchTable和watch2Paths中去。
二、Watcher触发
以服务端接收到 setData() 事务请求触发NodeDataChanged事件为例:
2.1 封装WatchedEvent
将通知状态(SyncConnected)、事件类型(NodeDataChanged)以及节点路径封装成一个WatchedEvent对象
2.2 查询Watcher
从WatchTable中根据节点路径查找Watcher
2.3 没找到;说明没有客户端在该数据节点上注册过Watcher
2.4 找到;提取并从WatchTable和Watch2Paths中删除对应Watcher(从这里能够看出Watcher在服务端是一次性的,触发一次就失效了)
三、调用process方法来触发Watcher
这里process主要就是经过ServerCnxn对应的TCP链接发送Watcher事件通知。
客户端SendThread线程接收事件通知,交由EventThread线程回调Watcher。客户端的Watcher机制一样是一次性的,一旦被触发后,该Watcher就失效了。
目前在Linux/Unix文件系统中使用,也是使用最普遍的权限控制方式。是一种粗粒度的文件系统权限控制模式。
包括三个方面:
权限模式(Scheme)
一、IP:从IP地址粒度进行权限控制
二、Digest:最经常使用,用相似于 username:password 的权限标识来进行权限配置,便于区分不一样应用来进行权限控制
三、World:最开放的权限控制方式,是一种特殊的digest模式,只有一个权限标识“world:anyone”
四、Super:超级用户
受权对象
受权对象指的是权限赋予的用户或一个指定实体,例如IP地址或是机器灯。
权限 Permission
一、CREATE:数据节点建立权限,容许受权对象在该Znode下建立子节点
二、DELETE:子节点删除权限,容许受权对象删除该数据节点的子节点
三、READ:数据节点的读取权限,容许受权对象访问该数据节点并读取其数据内容或子节点列表等
四、WRITE:数据节点更新权限,容许受权对象对该数据节点进行更新操做
五、ADMIN:数据节点管理权限,容许受权对象对该数据节点进行ACL相关设置操做
3.2.0版本后,添加了 Chroot特性,该特性容许每一个客户端为本身设置一个命名空间。若是一个客户端设置了Chroot,那么该客户端对服务器的任何操做,都将会被限制在其本身的命名空间下。
经过设置Chroot,可以将一个客户端应用于Zookeeper服务端的一颗子树相对应,在那些多个应用公用一个Zookeeper进群的场景下,对实现不一样应用间的相互隔离很是有帮助。
分桶策略:将相似的会话放在同一区块中进行管理,以便于Zookeeper对会话进行不一样区块的隔离处理以及同一区块的统一处理。
分配原则:每一个会话的“下次超时时间点”(ExpirationTime)
计算公式:
ExpirationTime_ = currentTime + sessionTimeout ExpirationTime = (ExpirationTime_ / ExpirationInrerval + 1) * ExpirationInterval , ExpirationInterval 是指 Zookeeper 会话超时检查时间间隔,默认 tickTime
一、事务请求的惟一调度和处理者,保证集群事务处理的顺序性
二、集群内部各服务的调度者
一、处理客户端的非事务请求,转发事务请求给Leader服务器
二、参与事务请求Proposal的投票
三、参与Leader选举投票
一、3.0版本之后引入的一个服务器角色,在不影响集群事务处理能力的基础上提高集群的非事务处理能力
二、处理客户端的非事务请求,转发事务请求给Leader服务器
三、不参与任何形式的投票
服务器具备四种状态,分别是LOOKING、FOLLOWING、LEADING、OBSERVING。
一、LOOKING:寻找Leader状态。当服务器处于该状态时,它会认为当前集群中没有Leader,所以须要进入Leader选举状态。
二、FOLLOWING:跟随者状态。代表当前服务器角色是Follower。
三、LEADING:领导者状态。代表当前服务器角色是Leader。
四、OBSERVING:观察者状态。代表当前服务器角色是Observer。
整个集群完成Leader选举以后,Learner(Follower和Observer的统称)回向Leader服务器进行注册。当Learner服务器想Leader服务器完成注册后,进入数据同步环节。
数据同步流程:(均以消息传递的方式进行)
Learner向Learder注册
数据同步
同步确认
Zookeeper的数据同步一般分为四类:
一、直接差别化同步(DIFF同步)
二、先回滚再差别化同步(TRUNC+DIFF同步)
三、仅回滚同步(TRUNC同步)
四、全量同步(SNAP同步)
在进行数据同步前,Leader服务器会完成数据同步初始化:
peerLastZxid:
从learner服务器注册时发送的ACKEPOCH消息中提取lastZxid(该Learner服务器最后处理的ZXID)
minCommittedLog:
Leader服务器Proposal缓存队列committedLog中最小ZXID
maxCommittedLog:
Leader服务器Proposal缓存队列committedLog中最大ZXID
场景:peerLastZxid介于minCommittedLog和maxCommittedLog之间
场景:当新的Leader服务器发现某个Learner服务器包含了一条本身没有的事务记录,那么就须要让该Learner服务器进行事务回滚--回滚到Leader服务器上存在的,同时也是最接近于peerLastZxid的ZXID
场景:peerLastZxid 大于 maxCommittedLog
场景一:peerLastZxid 小于 minCommittedLog
场景二:Leader服务器上没有Proposal缓存队列且peerLastZxid不等于lastProcessZxid
zookeeper采用了全局递增的事务Id来标识,全部的proposal(提议)都在被提出的时候加上了zxid,zxid其实是一个64位的数字,高32位是epoch(时期; 纪元; 世; 新时代)用来标识leader周期,若是有新的leader产生出来,epoch会自增,低32位用来递增计数。当新产生proposal的时候,会依据数据库的两阶段过程,首先会向其余的server发出事务执行请求,若是超过半数的机器都能执行而且可以成功,那么就会开始执行。
在分布式环境中,有些业务逻辑只须要集群中的某一台机器进行执行,其余的机器能够共享这个结果,这样能够大大减小重复计算,提升性能,因而就须要进行leader选举。
Zookeeper自己也是集群,推荐配置很多于3个服务器。Zookeeper自身也要保证当一个节点宕机时,其余节点会继续提供服务。
若是是一个Follower宕机,还有2台服务器提供访问,由于Zookeeper上的数据是有多个副本的,数据并不会丢失;
若是是一个Leader宕机,Zookeeper会选举出新的Leader。
ZK集群的机制是只要超过半数的节点正常,集群就能正常提供服务。只有在ZK节点挂得太多,只剩一半或不到一半节点能工做,集群才失效。
因此
3个节点的cluster能够挂掉1个节点(leader能够获得2票>1.5)
2个节点的cluster就不能挂掉任何1个节点了(leader能够获得1票<=1)
zk的负载均衡是能够调控,nginx只是能调权重,其余须要可控的都须要本身写插件;可是nginx的吞吐量比zk大不少,应该说按业务选择用哪一种方式。
部署模式:单机模式、伪集群模式、集群模式。
集群规则为2N+1台,N>0,即3台。
其实就是水平扩容了,Zookeeper在这方面不太好。两种方式:
所有重启:关闭全部Zookeeper服务,修改配置以后启动。不影响以前客户端的会话。
逐个重启:在过半存活便可用的原则下,一台机器重启不影响整个集群对外提供服务。这是比较经常使用的方式。
3.5版本开始支持动态扩容。
不是。官方声明:一个Watch事件是一个一次性的触发器,当被设置了Watch的数据发生了改变的时候,则服务器将这个改变发送给设置了Watch的客户端,以便通知它们。
为何不是永久的,举个例子,若是服务端变更频繁,而监听的客户端不少状况下,每次变更都要通知到全部的客户端,给网络和服务器形成很大压力。
通常是客户端执行getData(“/节点A”,true),若是节点A发生了变动或删除,客户端会获得它的watch事件,可是在以后节点A又发生了变动,而客户端又没有设置watch事件,就再也不给客户端发送。
在实际应用中,不少状况下,咱们的客户端不须要知道服务端的每一次变更,我只要最新的数据便可。
java客户端:zk自带的zkclient及Apache开源的Curator。
chubby是google的,彻底实现paxos算法,不开源。zookeeper是chubby的开源实现,使用zab协议,paxos算法的变种。
经常使用命令:ls get set create delete等。
相同点:
一、二者都存在一个相似于Leader进程的角色,由其负责协调多个Follower进程的运行
二、Leader进程都会等待超过半数的Follower作出正确的反馈后,才会将一个提案进行提交
三、ZAB协议中,每一个Proposal中都包含一个 epoch 值来表明当前的Leader周期,Paxos中名字为Ballot
不一样点:
ZAB用来构建高可用的分布式数据主备系统(Zookeeper),Paxos是用来构建分布式一致性状态机系统。
Zookeeper是一个典型的发布/订阅模式的分布式数据管理与协调框架,开发人员可使用它来进行分布式数据的发布和订阅。
经过对Zookeeper中丰富的数据节点进行交叉使用,配合Watcher事件通知机制,能够很是方便的构建一系列分布式应用中年都会涉及的核心功能,如:
一、数据发布/订阅
二、负载均衡
三、命名服务
四、分布式协调/通知
五、集群管理
六、Master选举
七、分布式锁
八、分布式队列
数据发布/订阅系统,即所谓的配置中心,顾名思义就是发布者发布数据供订阅者进行数据订阅。
动态获取数据(配置信息)
实现数据(配置信息)的集中式管理和数据的动态更新
Push 模式
Pull 模式
一、数据量一般比较小
二、数据内容在运行时会发生动态更新
三、集群中各机器共享,配置一致
如:机器列表信息、运行时开关配置、数据库配置信息等
一、数据存储:将数据(配置信息)存储到Zookeeper上的一个数据节点
二、数据获取:应用在启动初始化节点从Zookeeper数据节点读取数据,并在该节点上注册一个数据变动Watcher
三、数据变动:当变动数据时,更新Zookeeper对应节点数据,Zookeeper会将数据变动通知发到各客户端,客户端接到通知后从新读取变动后的数据便可。
zk的命名服务
命名服务是指经过指定的名字来获取资源或者服务的地址,利用zk建立一个全局的路径,这个路径就能够做为一个名字,指向集群中的集群,提供的服务的地址,或者一个远程的对象等等。
分布式通知和协调
对于系统调度来讲:操做人员发送通知实际是经过控制台改变某个节点的状态,而后zk将这些变化发送给注册了这个节点的watcher的全部客户端。
对于执行状况汇报:每一个工做进程都在某个目录下建立一个临时节点。并携带工做的进度数据,这样汇总的进程能够监控目录子节点的变化得到工做进度的实时的全局状况。
zk的命名服务(文件系统)
命名服务是指经过指定的名字来获取资源或者服务的地址,利用zk建立一个全局的路径,便是惟一的路径,这个路径就能够做为一个名字,指向集群中的集群,提供的服务的地址,或者一个远程的对象等等。
zk的配置管理(文件系统、通知机制)
程序分布式的部署在不一样的机器上,将程序的配置信息放在zk的znode下,当有配置发生改变时,也就是znode发生变化时,能够经过改变zk中某个目录节点的内容,利用watcher通知给各个客户端,从而更改配置。
Zookeeper集群管理(文件系统、通知机制)
所谓集群管理无在意两点:是否有机器退出和加入、选举master。
对于第一点,全部机器约定在父目录下建立临时目录节点,而后监听父目录节点的子节点变化消息。一旦有机器挂掉,该机器与 zookeeper的链接断开,其所建立的临时目录节点被删除,全部其余机器都收到通知:某个兄弟目录被删除,因而,全部人都知道:它上船了。
新机器加入也是相似,全部机器收到通知:新兄弟目录加入,highcount又有了,对于第二点,咱们稍微改变一下,全部机器建立临时顺序编号目录节点,每次选取编号最小的机器做为master就好。
Zookeeper分布式锁(文件系统、通知机制)
有了zookeeper的一致性文件系统,锁的问题变得容易。锁服务能够分为两类,一个是保持独占,另外一个是控制时序。
对于第一类,咱们将zookeeper上的一个znode看做是一把锁,经过createznode的方式来实现。全部客户端都去建立 /distribute_lock 节点,最终成功建立的那个客户端也即拥有了这把锁。用完删除掉本身建立的distribute_lock 节点就释放出锁。
对于第二类, /distribute_lock 已经预先存在,全部客户端在它下面建立临时顺序编号目录节点,和选master同样,编号最小的得到锁,用完删除,依次方便。
Zookeeper队列管理(文件系统、通知机制)
两种类型的队列:
一、同步队列,当一个队列的成员都聚齐时,这个队列才可用,不然一直等待全部成员到达。
二、队列按照 FIFO 方式进行入队和出队操做。
第一类,在约定目录下建立临时目录节点,监听节点数目是不是咱们要求的数目。
第二类,和分布式锁服务中的控制时序场景基本原理一致,入列有编号,出列按编号。在特定的目录下建立PERSISTENT_SEQUENTIAL节点,建立成功时Watcher通知等待的队列,队列删除序列号最小的节点用以消费。此场景下Zookeeper的znode用于消息存储,znode存储的数据就是消息队列中的消息内容,SEQUENTIAL序列号就是消息的编号,按序取出便可。因为建立的节点是持久化的,因此没必要担忧队列消息的丢失问题。
做者:lanqiu5ge
来源:http://t.cn/E64s1mG
搜云库技术团队,欢迎广大技术人员投稿
投稿邮箱:admin@souyunku.com
若是对本文的内容有疑问,请在文章留言区留言,谢谢。
版权申明:内容来源网络,版权归原创者全部。除非没法确认,咱们都会标明做者及出处,若有侵权烦请告知咱们,咱们会当即删除并表示歉意。谢谢!