环境:centos7 、JDK8apache
1、Zookeeper原理简介vim
ZooKeeper是一个开放源码的分布式应用程序协调服务,它包含一个简单的原语集,分布式应用程序能够基于它实现同步服务,配置维护和命名服务等。centos
Zookeeper设计目的服务器
Zookeeper工做原理网络
一、在zookeeper的集群中,各个节点共有下面3种角色和4种状态:分布式
角色:leader,follower,observer
状态:leading,following,observing,looking性能
Zookeeper的核心是原子广播,这个机制保证了各个Server之间的同步。实现这个机制的协议叫作Zab协议(ZooKeeper Atomic Broadcast protocol)。Zab协议有两种模式,它们分别是恢复模式(Recovery选主)和广播模式(Broadcast同步)。当服务启动或者在领导者崩溃后,Zab就进入了恢复模式,当领导者被选举出来,且大多数Server完成了和leader的状态同步之后,恢复模式就结束了。状态同步保证了leader和Server具备相同的系统状态。centos7
为了保证事务的顺序一致性,zookeeper采用了递增的事务id号(zxid)来标识事务。全部的提议(proposal)都在被提出的时候加上了zxid。实现中zxid是一个64位的数字,它高32位是epoch用来标识leader关系是否改变,每次一个leader被选出来,它都会有一个新的epoch,标识当前属于那个leader的统治时期。低32位用于递增计数。设计
每一个Server在工做过程当中有4种状态:server
LOOKING:当前Server不知道leader是谁,正在搜寻。
LEADING:当前Server即为选举出来的leader。
FOLLOWING:leader已经选举出来,当前Server与之同步。
OBSERVING:observer的行为在大多数状况下与follower彻底一致,可是他们不参加选举和投票,而仅仅接受(observing)选举和投票的结果。
Zookeeper集群节点
搭建流程
1.Zookeeper的下载与解压
经过后面的连接下载Zookeeper: Zookeeper下载
在此咱们下载zookeeper-3.4.8
下载后解压至安装目录下,本文咱们解压到目录:/opt/zookeeper-3.4.8
$:tar -xzvf zookeeper-3.4.8.tar.gz -C /opt/
以下图所示:
2.zookeeper的环境变量的配置:
为了从此操做方便,咱们须要对Zookeeper的环境变量进行配置,方法以下:
在/etc/profile文件中加入以下的内容:
#set zookeeper environment export ZOOKEEPER_HOME=/opt/zookeeper-3.4.8 export PATH=$PATH:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf
而后 source /etc/profile 刷新一下配置
-----------------------------------------------------------------------------------------------------------------------------------------
3.集群部署:
在Zookeeper集群环境下只要一半以上的机器正常启动了,那么Zookeeper服务将是可用的。所以,集群上部署Zookeeper最好使用奇数台机器,这样若是有5台机器,只要3台正常工做则服务将正常使用。
下面咱们将对Zookeeper的配置文件的参数进行设置:
进入zookeeper-3.4.8/conf:
$:cp zoo_sample.cfg zoo.cfg $:vim zoo.cfg
可参考以下配置:
tickTime=2000 initLimit=10 syncLimit=5 dataLogDir=/opt/zookeeper-3.4.8/logs dataDir=/opt/zookeeper-3.4.8/data clientPort=2181 autopurge.snapRetainCount=500 autopurge.purgeInterval=24 server.1= master:2888:3888 server.2= slave1:2888:3888 server.3= slave2:2888:3888
#建立相关目录,三台节点都须要
mkdir -p /opt/zookeeper/{logs,data}
#其他zookeeper节点安装完成以后,同步配置文件zoo.cfg。
注意上图的配置中master,slave1,slave2分别为主机名。
须要配置相应的hosts
192.168.1.213 master 192.168.1.216 slave1 192.168.1.217 slave2
在上面的配置文件中"server.id=host:port:port"中的第一个port是从机器(follower)链接到主机器(leader)的端口号,第二个port是进行leadership选举的端口号。
4.远程复制分发安装文件
接下来将上面的安装文件拷贝到集群中的其余机器上对应的目录下:
root@master:~/zookeeper-3.4.8$ scp -r zookeeper-3.4.8/ slave1:/opt/zookeeper-3.4.8 root@master:~/zookeeper-3.4.8$ scp -r zookeeper-3.4.8/ slave2:/opt/zookeeper-3.4.8
拷贝完成后,在每台机器上zoo.cfg指定的dataDir文件下添加myid文件,内容只有简单的一行,为对应的id号。例如修改slave1中的id以下:
root@slave1:~/opt/zookeeper-3.4.8$ echo "2" >/tmp/zookeeper-3.4.8/data/myid
5.启动ZooKeeper集群
在ZooKeeper集群的每一个结点上,执行启动ZooKeeper服务的脚本,以下所示:
haduser@master:~/opt/zookeeper-3.4.8$ bin/zkServer.sh start haduser@slave1:~/opt/zookeeper-3.4.8$ bin/zkServer.sh start haduser@slave2:~/opt/zookeeper-3.4.8$ bin/zkServer.sh start
以下图所示:
其中,QuorumPeerMain是zookeeper进程,启动正常。
如上依次启动了全部机器上的Zookeeper以后能够经过ZooKeeper的脚原本查看启动状态
bin/zkServer.sh status
包括集群中各个结点的角色(或是Leader,或是Follower),以下所示,是在ZooKeeper集群中的每一个结点上查询的结果:
经过上面状态查询结果可见,slave1是集群的Leader,其他的两个结点是Follower。
另外,能够经过客户端脚本,链接到ZooKeeper集群上。对于客户端来讲,ZooKeeper是一个总体(ensemble),链接到ZooKeeper集群实际上感受在独享整个集群的服务,因此,你能够在任何一个结点上创建到服务集群的链接,例如:
6.中止zookeeper进程:zookeeper-3.4.3/bin/zkServer.sh stop