1:zookeeper提供丰富的构件(building block)来实现不少协调数据结构和协议java
2:访问原子性,客户端要么读到全部数据,要么读取失败,不会出现只读取部分的状况node
3:zookeeper运行在一组机器上,具备高可用性,帮助系统避免单点故障,同时删掉故障服务器centos
4:顺序一致性:任意客户端的更新请求会被按照发送顺序提交服务器
5:单一系统映像:当一台服务器故障,致使它的客户端须要链接其它服务器的时候,全部更新晚于故障服务器的服务器都不会接收请求,一直到更新遇上故障服务器网络
6:及时性:任何客户端能看到的滞后都是有限的,不会超过几十秒,且提供sync操做强制客户端所连的服务器与领导者同步数据结构
7:会话:每一个客户端链接时会尝试链接到配置列表中的一台服务器,一旦失败会自动链接另外一台服务器依次类推,知道成功链接一台服务器,从而建立一个会话,客户端能够位每一个会话设置超时时间,一旦会话过时,则全部短暂znode会丢失,由于zookeeper会自动发送心跳包,因此不多发生分布式
8:约会机制(rendezvous),在交互的过程当中,被协调的各方不准要事先彼此了解,甚至没必要同时存在性能
9:ACL:zookeeper提供了digest(经过用户名密码),host(经过主机名),ip(经过ip地址)3种身份验证模式,依赖与 zookeeper的身份验证机制每一个ACL都是一个身份对应一组权限,若是咱们要给demo.com的客户端域一个读权限在java语言中能够这样建立:new ACL(Perms.READ, new Id("host", "demo.com"));Ids.OPEN_ACL_UNSAFE是将全部ADMIN以外的权限授予每一个人;另zookeeper还能够集成第三方的身份验证系统。ui
10:提供关于通用协调模式的开源共享资源库centos7
11:高性能的(官方数据)对以写为主的工做负载来讲使用5台不错的机器基准吞吐量达到10000+
重启网卡:service network restart
检查本身ip是否于配置的同样: ip addr
将当前已经配置好网络的虚拟机保存一个快照,若是后面安装失败能够还原回来。
2.关闭系统在克隆两个一样的虚拟机
完成克隆后要记得修改其ip地址,重复步骤1便可。
3.下载zooekeep并解压到/usr/localhost 目录,在conf文件下添加zoo.cfg文件,文件内容以下:
tickTime=2000
dataDir=/opt/zookeeper
clientPort=2181
initLimit=5
syncLimit=2
server.1=192.168.1.11:2888:3888
server.2=192.168.1.12:2888:3888
server.3=192.168.1.13:2888:3888
initLimit:这个配置项是用来配置Zookeeper 接受客户端(这里所说的客户端不是用户链接 Zookeeper 服务器的客户端,而是 Zookeeper 服务器集群中链接到 Leader 的 Follower 服务器)初始化链接时最长能忍受多少个心跳时间间隔数。当已经超过 10 个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器尚未收到客户端的返回信息,那么代表这个客户端链接失败。总的时间长度就是 5*2000=10 秒。
syncLimit:这个配置项标识Leader 与 Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是 2*2000=4 秒。
server.A=B:C:D:其中 A 是一个数字,表示这个是第几号服务器;B 是这个服务器的 ip 地址;C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;D 表示的是万一集群中的 Leader 服务器挂了,须要一个端口来从新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通讯的端口。若是是伪集群的配置方式,因为 B 都是同样,因此不一样的 Zookeeper 实例通讯端口号不能同样,因此要给它们分配不一样的端口号。
除了修改 zoo.cfg 配置文件,集群模式下还要配置一个文件 myid,这个文件在 dataDir 目录下,这个文件里面就有一个数据就是 A 的值,Zookeeper 启动时会读取这个文件,拿到里面的数据与 zoo.cfg 里面的配置信息比较从而判断究竟是那个 server。
完成配置以后分发给其余两个节点:
scp -r zookeeper-3.5.2-alpha/ root@192.168.1.12:/usr/local/
scp -r zookeeper-3.5.2-alpha/ root@192.168.1.13:/usr/local/
在每一个节点上依次启动后,检查集群是否启动成功
sh zkServer.sh status 返回结果可能为leader或follower则表示成功启动zk集群。