ZooKeeper Client API
ZooKeeper Client Library提供了丰富直观的API供用户程序使用,下面是一些经常使用的API:
● create(path, data, flags): 建立一个ZNode, path是其路径,data是要存储在该ZNode上的数据,flags经常使用的有: PERSISTEN, PERSISTENT_SEQUENTAIL, EPHEMERAL, EPHEMERAL_SEQUENTAIL
● delete(path, version): 删除一个ZNode,能够经过version删除指定的版本, 若是version是-1的话,表示删除全部的版本
● exists(path, watch): 判断指定ZNode是否存在,并设置是否Watch这个ZNode。这里若是要设置Watcher的话,Watcher是在建立ZooKeeper实例时指定的,若是要设置特定的Watcher的话,能够调用另外一个重载版本的exists(path, watcher)。如下几个带watch参数的API也都相似
● getData(path, watch): 读取指定ZNode上的数据,并设置是否watch这个ZNode
● setData(path, watch): 更新指定ZNode的数据,并设置是否Watch这个ZNode
● getChildren(path, watch): 获取指定ZNode的全部子ZNode的名字,并设置是否Watch这个ZNode
● sync(path): 把全部在sync以前的更新操做都进行同步,达到每一个请求都在半数以上的ZooKeeper Server上生效。path参数目前没有用
● setAcl(path, acl): 设置指定ZNode的Acl信息
● getAcl(path): 获取指定ZNode的Acl信息node
ZooKeeper典型应用场景
1. 名字服务(NameService)
分布式应用中,一般须要一套完备的命令机制,既能产生惟一的标识,又方便人识别和记忆。 咱们知道,每一个ZNode均可以由其路径惟一标识,路径自己也比较简洁直观,另外ZNode上还能够存储少许数据,这些都是实现统一的NameService的基础。下面以在HDFS中实现NameService为例,来讲明实现NameService的基本布骤:
● 目标:经过简单的名字来访问指定的HDFS机群
● 定义命名规则:这里要作到简洁易记忆。下面是一种可选的方案: [serviceScheme://][zkCluster]-[clusterName],好比hdfs://lgprc-example/表示基于lgprc ZooKeeper集群的用来作example的HDFS集群
● 配置DNS映射: 将zkCluster的标识lgprc经过DNS解析到对应的ZooKeeper集群的地址
● 建立ZNode: 在对应的ZooKeeper上建立/NameService/hdfs/lgprc-example结点,将HDFS的配置文件存储于该结点下
● 用户程序要访问hdfs://lgprc-example/的HDFS集群,首先经过DNS找到lgprc的ZooKeeper机群的地址,而后在ZooKeeper的/NameService/hdfs/lgprc-example结点中读取到HDFS的配置,进而根据获得的配置,获得HDFS的实际访问入口
2. 配置管理(Configuration Management)
在分布式系统中,常会遇到这样的场景: 某个Job的不少个实例在运行,它们在运行时大多数配置项是相同的,若是想要统一改某个配置,一个个实例去改,是比较低效,也是比较容易出错的方式。经过ZooKeeper能够很好的解决这样的问题,下面的基本的步骤:
● 将公共的配置内容放到ZooKeeper中某个ZNode上,好比/service/common-conf
● 全部的实例在启动时都会传入ZooKeeper集群的入口地址,而且在运行过程当中Watch /service/common-conf这个ZNode
● 若是集群管理员修改了了common-conf,全部的实例都会被通知到,根据收到的通知更新本身的配置,并继续Watch /service/common-conf
3. 组员管理(Group Membership)
在典型的Master-Slave结构的分布式系统中,Master须要做为“总管”来管理全部的Slave, 当有Slave加入,或者有Slave宕机,Master都须要感知到这个事情,而后做出对应的调整,以便不影响整个集群对外提供服务。以Hbase为例,HMaster管理了全部的RegionServer,当有新的RegionServer加入的时候,HMaster须要分配一些Region到该RegionServer上去,让其提供服务;当有RegionServer宕机时,HMaster须要将该RegionServer以前服务的Region都从新分配到当前正在提供服务的其它RegionServer上,以便不影响客户端的正常访问。下面是这种场景下使用ZooKeeper的基本步骤:
● Master在ZooKeeper上建立/service/slaves结点,并设置对该结点的Watcher
● 每一个Slave在启动成功后,建立惟一标识本身的临时性(Ephemeral)结点/service/slaves/${slave_id},并将本身地址(ip/port)等相关信息写入该结点
● Master收到有新子结点加入的通知后,作相应的处理
● 若是有Slave宕机,因为它所对应的结点是临时性结点,在它的Session超时后,ZooKeeper会自动删除该结点
● Master收到有子结点消失的通知,作相应的处理
4. 简单互斥锁(Simple Lock)
咱们知识,在传统的应用程序中,线程、进程的同步,均可以经过操做系统提供的机制来完成。可是在分布式系统中,多个进程之间的同步,操做系统层面就无能为力了。这时候就须要像ZooKeeper这样的分布式的协调(Coordination)服务来协助完成同步,下面是用ZooKeeper实现简单的互斥锁的步骤,这个能够和线程间同步的mutex作类比来理解:
● 多个进程尝试去在指定的目录下去建立一个临时性(Ephemeral)结点 /locks/my_lock
● ZooKeeper能保证,只会有一个进程成功建立该结点,建立结点成功的进程就是抢到锁的进程,假设该进程为A
● 其它进程都对/locks/my_lock进行Watch
● 当A进程再也不须要锁,能够显式删除/locks/my_lock释放锁;或者是A进程宕机后Session超时,ZooKeeper系统自动删除/locks/my_lock结点释放锁。此时,其它进程就会收到ZooKeeper的通知,并尝试去建立/locks/my_lock抢锁,如此循环反复
5. 互斥锁(Simple Lock without Herd Effect)
上一节的例子中有一个问题,每次抢锁都会有大量的进程去竞争,会形成羊群效应(Herd Effect),为了解决这个问题,咱们能够经过下面的步骤来改进上述过程:
● 每一个进程都在ZooKeeper上建立一个临时的顺序结点(Ephemeral Sequential) /locks/lock_${seq}
● ${seq}最小的为当前的持锁者(${seq}是ZooKeeper生成的Sequenctial Number)
● 其它进程都对只watch比它次小的进程对应的结点,好比2 watch 1, 3 watch 2, 以此类推
● 当前持锁者释放锁后,比它次大的进程就会收到ZooKeeper的通知,它成为新的持锁者,如此循环反复
这里须要补充一点,一般在分布式系统中用ZooKeeper来作Leader Election(选主)就是经过上面的机制来实现的,这里的持锁者就是当前的“主”。
6. 读写锁(Read/Write Lock)
咱们知道,读写锁跟互斥锁相比不一样的地方是,它分红了读和写两种模式,多个读能够并发执行,但写和读、写都互斥,不能同时执行行。利用ZooKeeper,在上面的基础上,稍作修改也能够实现传统的读写锁的语义,下面是基本的步骤:
● 每一个进程都在ZooKeeper上建立一个临时的顺序结点(Ephemeral Sequential) /locks/lock_${seq}
● ${seq}最小的一个或多个结点为当前的持锁者,多个是由于多个读能够并发
● 须要写锁的进程,Watch比它次小的进程对应的结点
● 须要读锁的进程,Watch比它小的最后一个写进程对应的结点
● 当前结点释放锁后,全部Watch该结点的进程都会被通知到,他们成为新的持锁者,如此循环反复
7. 屏障(Barrier)
在分布式系统中,屏障是这样一种语义: 客户端须要等待多个进程完成各自的任务,而后才能继续往前进行下一步。下用是用ZooKeeper来实现屏障的基本步骤:
● Client在ZooKeeper上建立屏障结点/barrier/my_barrier,并启动执行各个任务的进程
● Client经过exist()来Watch /barrier/my_barrier结点
● 每一个任务进程在完成任务后,去检查是否达到指定的条件,若是没达到就啥也不作,若是达到了就把/barrier/my_barrier结点删除
● Client收到/barrier/my_barrier被删除的通知,屏障消失,继续下一步任务
8. 双屏障(Double Barrier)
双屏障是这样一种语义: 它能够用来同步一个任务的开始和结束,当有足够多的进程进入屏障后,才开始执行任务;当全部的进程都执行完各自的任务后,屏障才撤销。下面是用ZooKeeper来实现双屏障的基本步骤:
进入屏障:
● Client Watch /barrier/ready结点, 经过判断该结点是否存在来决定是否启动任务
● 每一个任务进程进入屏障时建立一个临时结点/barrier/process/${process_id},而后检查进入屏障的结点数是否达到指定的值,若是达到了指定的值,就建立一个/barrier/ready结点,不然继续等待
● Client收到/barrier/ready建立的通知,就启动任务执行过程
离开屏障:
● Client Watch /barrier/process,若是其没有子结点,就能够认为任务执行结束,能够离开屏障
● 每一个任务进程执行任务结束后,都须要删除本身对应的结点/barrier/process/${process_id}服务器
应用场景网络
数据发布与订阅(配置中心)
发布与订阅模型,即所谓的配置中心,顾名思义就是发布者将数据发布到ZK节点上,供订阅者动态获取数据,实现配置信息的集中式管理和动态更新。例如全局的配置信息,服务式服务框架的服务地址列表等就很是适合使用。应用中用到的一些配置信息放到ZK上进行集中管理。这类场景一般是这样:应用在启动的时候会主动来获取一次配置,同时,在节点上注册一个Watcher,这样一来,之后每次配置有更新的时候,都会实时通知到订阅的客户端,历来达到获取最新配置信息的目的。
分布式搜索服务中,索引的元信息和服务器集群机器的节点状态存放在ZK的一些指定节点,供各个客户端订阅使用。
分布式日志收集系统。这个系统的核心工做是收集分布在不一样机器的日志。收集器一般是按照应用来分配收集任务单元,所以须要在ZK上建立一个以应用名做为path的节点P,并将这个应用的全部机器ip,以子节点的形式注册到节点P上,这样一来就可以实现机器变更的时候,可以实时通知到收集器调整任务分配。
系统中有些信息须要动态获取,而且还会存在人工手动去修改这个信息的发问。一般是暴露出接口,例如JMX接口,来获取一些运行时的信息。引入ZK以后,就不用本身实现一套方案了,只要将这些信息存放到指定的ZK节点上便可。
注意:在上面提到的应用场景中,有个默认前提是:数据量很小,可是数据更新可能会比较快的场景。负载均衡这里说的负载均衡是指软负载均衡。在分布式环境中,为了保证高可用性,一般同一个应用或同一个服务的提供方都会部署多份,达到对等服务。而消费者就需要在这些对等的服务器中选择一个来执行相关的业务逻辑,其中比较典型的是消息中间件中的生产者,消费者负载均衡。消息中间件中发布者和订阅者的负载均衡,linkedin开源的KafkaMQ和阿里开源的metaq都是经过zookeeper来作到生产者、消费者的负载均衡。这里以metaq为例如讲下:
生产者负载均衡:metaq发送消息的时候,生产者在发送消息的时候必须选择一台broker上的一个分区来发送消息,所以metaq在运行过程当中,会把全部broker和对应的分区信息所有注册到ZK指定节点上,默认的策略是一个依次轮询的过程,生产者在经过ZK获取分区列表以后,会按照brokerId和partition的顺序排列组织成一个有序的分区列表,发送的时候按照从头至尾循环往复的方式选择一个分区来发送消息。
消费负载均衡:
在消费过程当中,一个消费者会消费一个或多个分区中的消息,可是一个分区只会由一个消费者来消费。MetaQ的消费策略是:
每一个分区针对同一个group只挂载一个消费者。
若是同一个group的消费者数目大于分区数目,则多出来的消费者将不参与消费。
若是同一个group的消费者数目小于分区数目,则有部分消费者须要额外承担消费任务。
在某个消费者故障或者重启等状况下,其余消费者会感知到这一变化(经过 zookeeper watch消费者列表),而后从新进行负载均衡,保证全部的分区都有消费者进行消费。
命名服务(Naming Service)
命名服务也是分布式系统中比较常见的一类场景。在分布式系统中,经过使用命名服务,客户端应用可以根据指定名字来获取资源或服务的地址,提供者等信息。被命名的实体一般能够是集群中的机器,提供的服务地址,远程对象等等——这些咱们均可以统称他们为名字(Name)。其中较为常见的就是一些分布式服务框架中的服务地址列表。经过调用ZK提供的建立节点的API,可以很容易建立一个全局惟一的path,这个path就能够做为一个名称。阿里巴巴集团开源的分布式服务框架Dubbo中使用ZooKeeper来做为其命名服务,维护全局的服务地址列表,点击这里查看Dubbo开源项目。在Dubbo实现中:
服务提供者在启动的时候,向ZK上的指定节点/dubbo/${serviceName}/providers目录下写入本身的URL地址,这个操做就完成了服务的发布。
服务消费者启动的时候,订阅/dubbo/${serviceName}/providers目录下的提供者URL地址, 并向/dubbo/${serviceName} /consumers目录下写入本身的URL地址。
注意,全部向ZK上注册的地址都是临时节点,这样就可以保证服务提供者和消费者可以自动感应资源的变化。
另外,Dubbo还有针对服务粒度的监控,方法是订阅/dubbo/${serviceName}目录下全部提供者和消费者的信息。
分布式通知/协调
ZooKeeper中特有watcher注册与异步通知机制,可以很好的实现分布式环境下不一样系统之间的通知与协调,实现对数据变动的实时处理。使用方法一般是不一样系统都对ZK上同一个znode进行注册,监听znode的变化(包括znode自己内容及子节点的),其中一个系统update了znode,那么另外一个系统可以收到通知,并做出相应处理另外一种心跳检测机制:检测系统和被检测系统之间并不直接关联起来,而是经过zk上某个节点关联,大大减小系统耦合。
另外一种系统调度模式:某系统有控制台和推送系统两部分组成,控制台的职责是控制推送系统进行相应的推送工做。管理人员在控制台做的一些操做,其实是修改了ZK上某些节点的状态,而ZK就把这些变化通知给他们注册Watcher的客户端,即推送系统,因而,做出相应的推送任务。
另外一种工做汇报模式:一些相似于任务分发系统,子任务启动后,到zk来注册一个临时节点,而且定时将本身的进度进行汇报(将进度写回这个临时节点),这样任务管理者就可以实时知道任务进度。
总之,使用zookeeper来进行分布式通知和协调可以大大下降系统之间的耦合
集群管理与Master选举
集群机器监控:这一般用于那种对集群中机器状态,机器在线率有较高要求的场景,可以快速对集群中机器变化做出响应。这样的场景中,每每有一个监控系统,实时检测集群机器是否存活。过去的作法一般是:监控系统经过某种手段(好比ping)定时检测每一个机器,或者每一个机器本身定时向监控系统汇报“我还活着”。 这种作法可行,可是存在两个比较明显的问题:
集群中机器有变更的时候,牵连修改的东西比较多。
有必定的延时。
利用ZooKeeper有两个特性,就能够实时另外一种集群机器存活性监控系统:
客户端在节点 x 上注册一个Watcher,那么若是 x?的子节点变化了,会通知该客户端。
建立EPHEMERAL类型的节点,一旦客户端和服务器的会话结束或过时,那么该节点就会消失。
例如,监控系统在 /clusterServers 节点上注册一个Watcher,之后每动态加机器,那么就往 /clusterServers 下建立一个 EPHEMERAL类型的节点:/clusterServers/{hostname}. 这样,监控系统就可以实时知道机器的增减状况,至于后续处理就是监控系统的业务了。
Master选举则是zookeeper中最为经典的应用场景了。
在分布式环境中,相同的业务应用分布在不一样的机器上,有些业务逻辑(例如一些耗时的计算,网络I/O处理),每每只须要让整个集群中的某一台机器进行执行,其他机器能够共享这个结果,这样能够大大减小重复劳动,提升性能,因而这个master选举即是这种场景下的碰到的主要问题。
利用ZooKeeper的强一致性,可以保证在分布式高并发状况下节点建立的全局惟一性,即:同时有多个客户端请求建立 /currentMaster 节点,最终必定只有一个客户端请求可以建立成功。利用这个特性,就能很轻易的在分布式环境中进行集群选取了。
另外,这种场景演化一下,就是动态Master选举。这就要用到?EPHEMERAL_SEQUENTIAL类型节点的特性了。
上文中提到,全部客户端建立请求,最终只有一个可以建立成功。在这里稍微变化下,就是容许全部请求都可以建立成功,可是得有个建立顺序,因而全部的请求最终在ZK上建立结果的一种可能状况是这样: /currentMaster/{sessionId}-1 ,?/currentMaster/{sessionId}-2 ,?/currentMaster/{sessionId}-3 ….. 每次选取序列号最小的那个机器做为Master,若是这个机器挂了,因为他建立的节点会立刻小时,那么以后最小的那个机器就是Master了。在搜索系统中,若是集群中每一个机器都生成一份全量索引,不只耗时,并且不能保证彼此之间索引数据一致。所以让集群中的Master来进行全量索引的生成,而后同步到集群中其它机器。另外,Master选举的容灾措施是,能够随时进行手动指定master,就是说应用在zk在没法获取master信息时,能够经过好比http方式,向一个地方获取master。
在Hbase中,也是使用ZooKeeper来实现动态HMaster的选举。在Hbase实现中,会在ZK上存储一些ROOT表的地址和HMaster的地址,HRegionServer也会把本身以临时节点(Ephemeral)的方式注册到Zookeeper中,使得HMaster能够随时感知到各个HRegionServer的存活状态,同时,一旦HMaster出现问题,会从新选举出一个HMaster来运行,从而避免了HMaster的单点问题
分布式锁
分布式锁:这个主要得益于ZooKeeper为咱们保证了数据的强一致性。锁服务能够分为两类,一个是保持独占,另外一个是控制时序。
所谓保持独占,就是全部试图来获取这个锁的客户端,最终只有一个能够成功得到这把锁。一般的作法是把zk上的一个znode看做是一把锁,经过create znode的方式来实现。全部客户端都去建立 /distribute_lock 节点,最终成功建立的那个客户端也即拥有了这把锁。
控制时序,就是全部视图来获取这个锁的客户端,最终都是会被安排执行,只是有个全局时序了。作法和上面基本相似,只是这里 /distribute_lock 已经预先存在,客户端在它下面建立临时有序节点(这个能够经过节点的属性控制:CreateMode.EPHEMERAL_SEQUENTIAL来指定)。Zk的父节点(/distribute_lock)维持一份sequence,保证子节点建立的时序性,从而也造成了每一个客户端的全局时序。
分布式队列
队列方面:简单地讲有两种,一种是常规的先进先出队列,另外一种是要等到队列成员聚齐以后的才统一按序执行。对于第一种先进先出队列,和分布式锁服务中的控制时序场景基本原理一致,这里再也不赘述。
第二种队列实际上是在FIFO队列的基础上做了一个加强。一般能够在 /queue 这个znode下预先创建一个/queue/num 节点,而且赋值为n(或者直接给/queue赋值n),表示队列大小,以后每次有队列成员加入后,就判断下是否已经到达队列大小,决定是否能够开始执行了。这种用法的典型场景是,分布式环境中,一个大任务Task A,须要在不少子任务完成(或条件就绪)状况下才能进行。这个时候,凡是其中一个子任务完成(就绪),那么就去 /taskList 下创建本身的临时时序节点(CreateMode.EPHEMERAL_SEQUENTIAL),当 /taskList 发现本身下面的子节点知足指定个数,就能够进行下一步按序进行处理了。session