上一周,对公司搜索引擎工做流程的作改造工做。涉及到不一样角色服务器之间的沟通工做。咱们试图应用zookeeper到咱们的场景,实现应用模块之间的解耦。本文深刻到solr源码,从中掘金,看看solr是如何使用zookeeper的。node
在作本次改造的时候,公司同事对于zookeeper的使用,提供了很好的建议,其中一个重要原则就是“谁建立,谁修改”,也就是各个服务应用本身创造本身的结点,本身去修改配置本身的最新状态。通常状况下,对结点的修改是结点的建立者,而不该该是其它对些结点数据的关注者,否则会增长操做复杂度与不肯定性。apache
在阅读solr源码会发现,solr对zookeeper的使用,使用的是另外一种思想,虽然增长了复杂度,但更适用于cloud中各结点角色不肯定的场景。json
这里涉及的相关代码,主要在package org.apache.solr.cloud中。服务器
说明分布式
本人一开始阅读的是4.4的版本的代码,最新的是4.10.1, 后来简单看了一下最新代码,没有发现多少变更。源码分析
别看我在这里一本正经地给你们做源码分析,但毕竟一我的看,总有疏漏的地方,存在理解不当的地方,若是错误,请你们指正。ui
solr在zookeeper中的结点搜索引擎
一、aliases.json 对colletion别名,另有妙用(solrcloud的build search分离),之后再写博客说明。spa
2、clusterstate.json 重要信息文件。包含了colletion ,shard replica的具体描述信息。索引
3、live_nodes ,下面都是瞬时的zk结点,表明当前存活的solrcloud中的节点。
4、overseer, solrcloud中的重要角色。下面存有三个重要的分布式队列,表明待执行solrcloud相关的zookeeper操做的任务队列。collection-queue-work是存放与collection相关的特办操做,如createcollection ,reloadcollection,createalias,deletealias ,splitshard 等。
5、queue则存放了全部与collection无关的操做,例如deletecore,removecollection,removeshard,leader,createshard,updateshardstate,还有包括节点的状态(down、active、recovering)的变化。
6、queue-work是一个临时队列,指正在处理中的消息。操做会先保存到/overseer/queue,在overseser进行处理时,被移到/overseer/queue-work中,处理完后消息以后在从/overseer/queue-work中删除。若是overseer中途挂了,新选举的overseer会选将/overseer/queue-work中的操做执行完,再去处理/overseer/queue中的操做。
注意:以上队列中存放的全部子结点,都是PERSISTENT_SEQUENTIAL类型的。
7、overseer_elect ,用于overseer的选举工做
8、colletcion,存放当前collection一些简单信息(主要信息都在clusterstate.json中)。 下面的leader_elect天然是用于collection中shard中副本集的leader选举的。
Overseer 的zk写流程
在看solrcloud的官方文档的时候,几乎也不多有overseer的这个角色的说明介绍。相信很多成功配置solrcloud的开发者,也没有意识到这个角色的存在。
Overseer,顾名思义,是一个照看全局的角色,作总控工做。体如今代码与zk的相关操做中,就是zookeeper中大多的写操做,是由overseer去处理的,而且维护好clusterstate.josn与aliases.json这两个zk结点的内容。与咱们“谁建立,谁修改”作法不一样。由各个solr node发起的操做,都会publish到/overseer结点下面相应的queue中去,再由overseer去些分布式队列中去取这些操做信息,作相应的zk修改,并将整个solrcloud中相关的具体状态信息,更新到cluseterstate.json中去,最终会将个操做,从queue中删除,表示完成操做。
以一个solr node将自身状态标记为down为例。该node会将这种“state”operation的相关信息,publish到/overseer/queue中。由Overseer去从中取得这个操做,而后将node state为down的信息写入clusterstate.json。最后删除queue中的这个结点。
固然overseer这个角色,是利用zookeeper在solrcloud中内部选举出来的。
通常的zk读操做
Solr将最重要且信息最全面的内容都放在了cluseterstate.json中。这样作减小了,普通solr node须要关注的zk 结点数。除了clusterstate.json,普通的solr node在须要当前collection总体状态的时候,还会获取zk的/live_nodes中的信息,根据live_nodes中的信息,得知collection存活的node, 再从clusterstate.json得到这些node的信息。
这种处理,其实也好理解。假如一个solr node非正常下线,clusterstate.json中不必定会有变化,但/live_nodes中这个node对应的zk结点就消失了(由于是瞬时的)。
总结
看过这部份原码后,跟同事讨论了一下。Solr对zookeeper的这种使用方法,比角色分明集群系统,确实复杂得多。但solr为达到群集自感知,高可用,最终造成cloud的效果,内部的角色是动态变化的,因此你们须要一个统一管理的角色。而使用分布式队列,由一个overseer统一处理操做的好处,在于保证了操做的有序,这点也很重要。将最要信息集中在clusterstate.json的做法,减小了其余solr node对zk的关注逻辑的复杂度。