zookeeper的安装与部署-集群

环境:centos7 、JDK8apache

1、Zookeeper原理简介vim

ZooKeeper是一个开放源码的分布式应用程序协调服务,它包含一个简单的原语集,分布式应用程序能够基于它实现同步服务,配置维护和命名服务等。centos

Zookeeper设计目的服务器

  • 最终一致性:client不论链接到那个Server,展现给它的都是同一个视图。
  • 可靠性:具备简单、健壮、良好的性能、若是消息m被到一台服务器接收,那么消息m将被全部服务器接收。
  • 实时性:Zookeeper保证客户端将在一个时间间隔范围内得到服务器的更新信息,或者服务器失效的信息。但因为网络延时等缘由,Zookeeper不能保证两个客户端能同时获得刚更新的数据,若是须要最新数据,应该在读数据以前调用sync()接口。
  • 等待无关(wait-free):慢的或者失效的client不得干预快速的client的请求,使得每一个client都能有效的等待。
  • 原子性:更新只能成功或者失败,没有中间状态。
  • 顺序性:包括全局有序和偏序两种:全局有序是指若是在一台服务器上消息a在消息b前发布,则在全部Server上消息a都将在消息b前被发布;偏序是指若是一个消息b在消息a后被同一个发送者发布,a必将排在b前面。

Zookeeper工做原理网络

一、在zookeeper的集群中,各个节点共有下面3种角色和4种状态:分布式

角色:leader,follower,observer
状态:leading,following,observing,looking性能

Zookeeper的核心是原子广播,这个机制保证了各个Server之间的同步。实现这个机制的协议叫作Zab协议(ZooKeeper Atomic Broadcast protocol)。Zab协议有两种模式,它们分别是恢复模式(Recovery选主)和广播模式(Broadcast同步)。当服务启动或者在领导者崩溃后,Zab就进入了恢复模式,当领导者被选举出来,且大多数Server完成了和leader的状态同步之后,恢复模式就结束了。状态同步保证了leader和Server具备相同的系统状态。centos7

为了保证事务的顺序一致性,zookeeper采用了递增的事务id号(zxid)来标识事务。全部的提议(proposal)都在被提出的时候加上了zxid。实现中zxid是一个64位的数字,它高32位是epoch用来标识leader关系是否改变,每次一个leader被选出来,它都会有一个新的epoch,标识当前属于那个leader的统治时期。低32位用于递增计数。设计

每一个Server在工做过程当中有4种状态:server

LOOKING:当前Server不知道leader是谁,正在搜寻。

LEADING:当前Server即为选举出来的leader。

FOLLOWING:leader已经选举出来,当前Server与之同步。

OBSERVING:observer的行为在大多数状况下与follower彻底一致,可是他们不参加选举和投票,而仅仅接受(observing)选举和投票的结果。

Zookeeper集群节点

  • Zookeeper节点部署越多,服务的可靠性越高,建议部署奇数个节点,由于zookeeper集群是以宕机个数过半才会让整个集群宕机的。
  • 须要给每一个zookeeper 1G左右的内存,若是可能的话,最好有独立的磁盘,由于独立磁盘能够确保zookeeper是高性能的。若是你的集群负载很重,不要把zookeeper和RegionServer运行在同一台机器上面,就像DataNodes和TaskTrackers同样。

 

搭建流程

1.Zookeeper的下载与解压
经过后面的连接下载Zookeeper:    Zookeeper下载
在此咱们下载zookeeper-3.4.8
下载后解压至安装目录下,本文咱们解压到目录:/opt/zookeeper-3.4.8

$:tar -xzvf zookeeper-3.4.8.tar.gz -C /opt/

以下图所示:
  

 

 2.zookeeper的环境变量的配置:

为了从此操做方便,咱们须要对Zookeeper的环境变量进行配置,方法以下:
在/etc/profile文件中加入以下的内容:

#set zookeeper environment

export ZOOKEEPER_HOME=/opt/zookeeper-3.4.8
export PATH=$PATH:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf

 

而后 source /etc/profile 刷新一下配置

 

-----------------------------------------------------------------------------------------------------------------------------------------


3.集群部署:
在Zookeeper集群环境下只要一半以上的机器正常启动了,那么Zookeeper服务将是可用的。所以,集群上部署Zookeeper最好使用奇数台机器,这样若是有5台机器,只要3台正常工做则服务将正常使用。
下面咱们将对Zookeeper的配置文件的参数进行设置:
进入zookeeper-3.4.8/conf:
 

$:cp zoo_sample.cfg zoo.cfg

$:vim zoo.cfg

可参考以下配置:

tickTime=2000
initLimit=10
syncLimit=5
dataLogDir=/opt/zookeeper-3.4.8/logs
dataDir=/opt/zookeeper-3.4.8/data
clientPort=2181
autopurge.snapRetainCount=500
autopurge.purgeInterval=24
server.1= master:2888:3888
server.2= slave1:2888:3888
server.3= slave2:2888:3888

#建立相关目录,三台节点都须要

mkdir -p /opt/zookeeper/{logs,data}

#其他zookeeper节点安装完成以后,同步配置文件zoo.cfg。

 

注意上图的配置中master,slave1,slave2分别为主机名。

须要配置相应的hosts  

192.168.1.213 master
192.168.1.216 slave1
192.168.1.217 slave2

  

在上面的配置文件中"server.id=host:port:port"中的第一个port是从机器(follower)链接到主机器(leader)的端口号,第二个port是进行leadership选举的端口号。



4.远程复制分发安装文件
接下来将上面的安装文件拷贝到集群中的其余机器上对应的目录下:
 

root@master:~/zookeeper-3.4.8$ scp -r zookeeper-3.4.8/ slave1:/opt/zookeeper-3.4.8

root@master:~/zookeeper-3.4.8$ scp -r zookeeper-3.4.8/ slave2:/opt/zookeeper-3.4.8

 

拷贝完成后,在每台机器上zoo.cfg指定的dataDir文件下添加myid文件,内容只有简单的一行,为对应的id号。例如修改slave1中的id以下:

root@slave1:~/opt/zookeeper-3.4.8$ echo "2" >/tmp/zookeeper-3.4.8/data/myid

 

5.启动ZooKeeper集群
在ZooKeeper集群的每一个结点上,执行启动ZooKeeper服务的脚本,以下所示:
 

haduser@master:~/opt/zookeeper-3.4.8$ bin/zkServer.sh start

  haduser@slave1:~/opt/zookeeper-3.4.8$ bin/zkServer.sh start

  haduser@slave2:~/opt/zookeeper-3.4.8$ bin/zkServer.sh start

以下图所示:

 

其中,QuorumPeerMain是zookeeper进程,启动正常。


如上依次启动了全部机器上的Zookeeper以后能够经过ZooKeeper的脚原本查看启动状态

bin/zkServer.sh status

包括集群中各个结点的角色(或是Leader,或是Follower),以下所示,是在ZooKeeper集群中的每一个结点上查询的结果:

 

 

 

经过上面状态查询结果可见,slave1是集群的Leader,其他的两个结点是Follower。


另外,能够经过客户端脚本,链接到ZooKeeper集群上。对于客户端来讲,ZooKeeper是一个总体(ensemble),链接到ZooKeeper集群实际上感受在独享整个集群的服务,因此,你能够在任何一个结点上创建到服务集群的链接,例如:

 

 


6.中止zookeeper进程:zookeeper-3.4.3/bin/zkServer.sh stop

相关文章
相关标签/搜索