Zookeeper集群介绍及其搭建

1 Zookeeper集群简介

1为何搭建Zookeeper集群

大部分分布式应用须要一个主控、协调器或者控制器来管理物理分布的子进程。目前,大多数都要开发私有的协调程序,缺少一个通用机制,协调程序的反复编写浪费,且难以造成通用、伸缩性好的协调器,zookeeper提供通用的分布式锁服务,用以协调分布式应用。因此说zookeeper是分布式应用的协做服务。php

zookeeper做为注册中心,服务器和客户端都要访问,若是有大量的并发,确定会有等待。因此能够经过zookeeper集群解决。spring

下面是zookeeper集群部署结构图:服务器

 

1.2了解Leader选举

Zookeeper的启动过程当中leader选举是很是重要并且最复杂的一个环节。那么什么是leader选举呢?zookeeper为何须要leader选举呢?zookeeperleader选举的过程又是什么样子的?并发

首先咱们来看看什么是leader选举。其实这个很好理解,leader选举就像总统选举同样,每人一票,得到多数票的人就当选为总统了。在zookeeper集群中也是同样,每一个节点都会投票,若是某个节点得到超过半数以上的节点的投票,则该节点就是leader节点了。分布式

以一个简单的例子来讲明整个选举的过程
假设有五台服务器组成的zookeeper集群,它们的id1-5,同时它们都是最新启动的,也就是没有历史数据,在存放数据量这一点上,都是同样的.假设这些服务器依序启动,来看看会发生什么 
1) 服务器1启动,此时只有它一台服务器启动了,它发出去的报没有任何响应,因此它的选举状态一直是LOOKING状态  
2) 服务器2启动,它与最开始启动的服务器1进行通讯,互相交换本身的选举结果,因为二者都没有历史数据,因此id值较大的服务器2胜出,可是因为没有达到超过半数以上的服务器都赞成选举它(这个例子中的半数以上是3),因此服务器1,2仍是继续保持LOOKING状态.  
3) 服务器3启动,根据前面的理论分析,服务器3成为服务器1,2,3中的老大,而与上面不一样的是,此时有三台服务器选举了它,因此它成为了此次选举的leader.  
4) 服务器4启动,根据前面的分析,理论上服务器4应该是服务器1,2,3,4中最大的,可是因为前面已经有半数以上的服务器选举了服务器3,因此它只能接收当小弟的命了.  
5) 服务器5启动,4同样,当小弟测试

2搭建Zookeeper集群

2.1搭建要求

真实的集群是须要部署在不一样的服务器上的,可是在咱们测试时同时启动十几个虚拟机内存会吃不消,因此咱们一般会搭建伪集群,也就是把全部的服务都搭建在一台虚拟机上,用端口进行区分。spa

咱们这里要求搭建一个三个节点的Zookeeper集群(伪集群)。server

2.2准备工做

从新部署一台虚拟机做为咱们搭建集群的测试服务器。进程

1)安装JDK  【此步骤省略】。内存

2Zookeeper压缩包上传到服务器

3)将Zookeeper解压 ,建立data目录 ,将 confzoo_sample.cfg 文件更名为 zoo.cfg

4)创建/usr/local/zookeeper-cluster目录,将解压后的Zookeeper复制到如下三个目录

/usr/local/zookeeper-cluster/zookeeper-1

/usr/local/zookeeper-cluster/zookeeper-2

/usr/local/zookeeper-cluster/zookeeper-3

[root@localhost ~]# mkdir /usr/local/zookeeper-cluster

[root@localhost ~]# cp -r  zookeeper-3.4.6 /usr/local/zookeeper-cluster/zookeeper-1

[root@localhost ~]# cp -r  zookeeper-3.4.6 /usr/local/zookeeper-cluster/zookeeper-2

[root@localhost ~]# cp -r  zookeeper-3.4.6 /usr/local/zookeeper-cluster/zookeeper-3

 

(5) 配置每个Zookeeper dataDirzoo.cfgclientPort 分别为2181  2182  2183

修改/usr/local/zookeeper-cluster/zookeeper-1/conf/zoo.cfg

clientPort=2181

dataDir=/usr/local/zookeeper-cluster/zookeeper-1/data

修改/usr/local/zookeeper-cluster/zookeeper-2/conf/zoo.cfg

clientPort=2182

dataDir=/usr/local/zookeeper-cluster/zookeeper-2/data

修改/usr/local/zookeeper-cluster/zookeeper-3/conf/zoo.cfg

clientPort=2183

dataDir=/usr/local/zookeeper-cluster/zookeeper-3/data

2.3配置集群

(1)在每一个zookeeperdata 目录下建立一个 myid 文件,内容分别是123 。这个文件就是记录每一个服务器的ID

-------知识点小贴士------

若是你要建立的文本文件内容比较简单,咱们能够经过echo 命令快速建立文件

格式为:

echo 内容 > 文件名

例如咱们为第一个zookeeper指定ID1,则输入命令

 

2)在每个zookeeper zoo.cfg配置客户端访问端口(clientPort)和集群服务器IP列表。

集群服务器IP列表以下

server.1=192.168.25.140:2881:3881

server.2=192.168.25.140:2882:3882

server.3=192.168.25.140:2883:3883

解释:server.服务器ID=服务器IP地址:服务器之间通讯端口:服务器之间投票选举端口

-----知识点小贴士-----

咱们可使用EditPlus远程修改服务器的文本文件的内容,更加便捷

1)在菜单选择FTP Settings

 

2)点击ADD按钮

 

3)输入服务器信息

 

(4)点击高级选项按钮

 

5)选择SFTP  端口22

 

6OK  。完成配置

 

链接:

 

 

 

哈哈,无敌啦~~~~   你可能要问,老师,你为啥不早告诉我有这一招  !

 

2.4启动集群

启动集群就是分别启动每一个实例。

 

启动后咱们查询一下每一个实例的运行状态

先查询第一个服务

 

Modefollower表示是跟随者(从)

再查询第二个服务Mod leader表示是领导者(主)

 

查询第三个为跟随者(从)

 

2.5模拟集群异常

1)首先咱们先测试若是是从服务器挂掉,会怎么样

3号服务器停掉,观察1号和2号,发现状态并无变化

 

由此得出结论,3个节点的集群,从服务器挂掉,集群正常

2)咱们再把1号服务器(从服务器)也停掉,查看2号(主服务器)的状态,发现已经中止运行了。

 

由此得出结论,3个节点的集群,2个从服务器都挂掉,主服务器也没法运行。由于可运行的机器没有超过集群总数量的半数。

(3)咱们再次把1号服务器启动起来,发现2号服务器又开始正常工做了。并且依然是领导者。

 

(4)咱们把3号服务器也启动起来,把2号服务器停掉(汗~~干吗?领导挂了?)停掉后观察1号和3号的状态。

 

发现新的leader产生了~  

由此咱们得出结论,当集群中的主服务器挂了,集群中的其余服务器会自动进行选举状态,而后产生新得leader

5)咱们再次测试,当咱们把2号服务器从新启动起来(汗~~这是诈尸啊!)启动后,会发生什么?2号服务器会再次成为新的领导吗?咱们看结果

 

咱们会发现,2号服务器启动后依然是跟随者(从服务器),3号服务器依然是领导者(主服务器),没有撼动3号服务器的领导地位。哎~退休了就是退休了,说了不算了,哈哈。

由此咱们得出结论,当领导者产生后,再次有新服务器加入集群,不会影响到现任领导者。

3 Dubbox链接zookeeper集群

修改服务提供者和服务调用者的spring 配置文件

 

<!-- 指定注册中心地址 -->

<dubbo:registry

protocol="zookeeper" address="192.168.25.140:2181,192.168.25.140:2182,192.168.25.140:2183">

</dubbo:registry>

相关文章
相关标签/搜索