Zookeeper是一个分布式协调服务,换言之,就是为用户的分布式应用程序提供协调服务java
Zookeeper在配置文件中并无指定master和slave,启动以后经过内部的选举机制选举出leader和follower,并且只有一个leader,其余则为follower。zookeeper集群中只要有半数以上节点存活,集群就能提供服务。 2.zookeeper集群机制 半数机制:集群中半数以上机器存活,集群可用。 zookeeper适合装在奇数台机器上!!!node
tar -zxvf zookeeper-3.4.5.tar.gz
复制代码
mv zookeeper-3.4.5 zookeeper(重命名文件夹zookeeper-3.4.5为zookeeper)
复制代码
vi /etc/profile
添加内容:
export ZOOKEEPER_HOME=/apps/package/zookeeper
export PATH=$PATH:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin
复制代码
添加内容:
dataDir=/apps/package/zookeeper/data
dataLogDir=/apps/package/zookeeper/log
server.1=mini1:2888:3888
server.2=mini2:2888:3888
server.3=mini3:2888:3888
复制代码
cd /apps/package/zookeeper
mkdir -m 755 data
mkdir -m 755 log
复制代码
cd data
vi myid
添加内容:
1
复制代码
mini2和mini3服务器的请修改为2,3,未来会按这个myid选中出leader和follow。linux
scp -r /apps/package/zookeeper root@mini2:/apps/package/
scp -r /apps/package/zookeeper root@mini3:/apps/package/
复制代码
若是在mini1中ping不通mini2和mini3,须要在hosts文件中配置mini2和mini3的ip地址apache
zkServer.sh start
zkServer.sh start-foreground(能够看到启动日志)
复制代码
jps(查看进程)
zkServer.sh status(查看集群状态,主从信息)
复制代码
若是报端口占用,参考下面连接解决:http://blog.csdn.net/u014686180/article/details/51767863api
zkCli.sh -主机名(ip):2181
如:zkCli.sh -mini2:2181
复制代码
ls /
复制代码
create /zk "myData“ 复制代码
get /zk
复制代码
-监听这个节点的变化,当另一个客户端改变/zk时,输出监听到的变化bash
get /zk watch
复制代码
set /zk "zsl“ 复制代码
delete /zk
复制代码
rmr /zk
复制代码
参考文档:http://www.cnblogs.com/likehua/tag/zookeeper/服务器
<dependency>
<groupId>org.apache.zookeeper</groupId>
<artifactId>zookeeper</artifactId>
<version>3.4.10</version>
<type>pom</type>
</dependency>
复制代码
public class SimpleZkClient {
private static final String CONNECT_URL = "mini1:2181,mini2:2181,mini3:2181";
private static final int SESSION_TIME_OUT = 2000;
ZooKeeper zkCli = null;
@Before
public void init() throws Exception{
zkCli = new ZooKeeper(CONNECT_URL, SESSION_TIME_OUT, new Watcher() {
@Override
public void process(WatchedEvent event) {
System.out.println(event.getType()+"-----------"+event.getPath());
try{
zkCli.getChildren("/", true);
}catch (Exception e){
}
}
});
}
/**
* @Description 添加节点数据
* @Author 刘俊重
*/
@Test
public void create() throws Exception{
// 参数1:要建立的节点的路径 参数2:节点大数据 参数3:节点的权限 参数4:节点的类型。上传的数据能够是任何类型,但都要转成byte[]
String s = zkCli.create("/zk", "test".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
}
/**
* @Description 判断节点是否存在
* @Author 刘俊重
*/
@Test
public void isExist() throws Exception{
Stat exists = zkCli.exists("/zk", false);
System.out.println(null==exists?"不存在":"存在");
}
/**
* @Description 获取节点数据
* @Author 刘俊重
*/
@Test
public void getData() throws Exception{
byte[] data = zkCli.getData("/zk", false, null);
System.out.println("节点数据:"+new String(data));
}
/**
* @Description 遍历节点数据
* @Author 刘俊重
*/
@Test
public void getChildren() throws Exception{
List<String> children = zkCli.getChildren("/", false);
for(String s : children){
System.out.println("节点名称:"+s);
}
Thread.sleep(Long.MAX_VALUE);
}
/**
* @Description 删除节点数据
* @Author 刘俊重
*/
@Test
public void delete() throws Exception{
//参数2:指定要删除的版本,-1表示删除全部版本
zkCli.delete("/zk",-1);
this.isExist();
}
/**
* @Description 更新节点数据
* @Author 刘俊重
*/
@Test
public void update() throws Exception{
Stat stat = zkCli.setData("/zk", "newtest".getBytes(), -1);
this.getData();
}
}
复制代码
Thread.sleep(Long.MAX_VALUE);是为了避免让程序执行完以后立马结束,让它睡一会,测试监听是否实现,同时在process回调函数中写了收到通知的操做, zkCli.getChildren("/", true);这时若是咱们经过linux命令行操做了zookeeper操做节点就会触发这里的监听事件。数据结构
如今假设有这样一种需求:服务端节点有多个,能够动态的上下线;须要让任意一台客户端都能实时感知服务端节点的变化,进而链接目前可提供服务的节点。 实现思路:咱们能够借助于zookeeper这个第三方中间件,在每台服务器启动时都向zookeeper注册服务器的节点信息(好比:/servers/server01;/servers/server02);客户端每次调用以前都经过getChildren方法获取最新的服务器节点信息,同时客户端在zookeeper注册监听,监听服务器节点的变化;若是某刻服务器server01下线了,zookeeper就会发出节点变化通知客户端,回调process方法拉取最新的服务器节点信息。 服务端代码以下:app
public class DistributeServer {
private static final String CONNECT_URL = "mini1:2181,mini2:2181,mini3:2181";
private static final int SESSION_TIME_OUT = 2000;
private static final String PARENT_NODE = "/servers";
private ZooKeeper zkCli = null;
/**
* @Description 获取链接
* @Author 刘俊重
* @Date 2017/12/13
*/
public void getConnect() throws Exception{
zkCli = new ZooKeeper(CONNECT_URL, SESSION_TIME_OUT, new Watcher() {
@Override
public void process(WatchedEvent event) {
System.out.println(event.getType()+"-----------"+event.getPath());
try{
zkCli.getChildren("/", true);
}catch (Exception e){
}
}
});
}
/**
* @Description 服务器启动时向zookeeper注册服务信息
* @Author 刘俊重
* @Date 2017/12/13
*/
public void registerServer(String hostName) throws Exception {
String s = zkCli.create(PARENT_NODE + "/", hostName.getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL_SEQUENTIAL);
System.out.println("服务器:"+hostName+"已经注册完毕");
}
/**
* @Description 模拟实际的业务操做
* @Author 刘俊重
* @Date 2017/12/13
*/
public void handelBusiness(String hostname) throws Exception {
System.out.println("服务器:"+hostname+"正在处理业务。。。");
Thread.sleep(Long.MAX_VALUE);
}
public static void main(String[] args) throws Exception {
DistributeServer server = new DistributeServer();
server.getConnect();
server.registerServer(args[0]);
server.handelBusiness(args[0]);
}
}
复制代码
客户端代码以下:dom
/**
* @author 刘俊重
* @Description 模拟客户端,拉取最新服务器节点列表并向zookeeper设置监听
*/
public class DistributeClient {
private static final String CONNECT_URL = "mini1:2181,mini2:2181,mini3:2181";
private static final int SESSION_TIME_OUT = 2000;
private static final String PARENT_NODE = "/servers";
private ZooKeeper zkCli = null;
private volatile List<String> serverList = null;
/**
* @Description 获取链接
* @Author 刘俊重
* @Date 2017/12/13
*/
public void getConnect() throws Exception{
zkCli = new ZooKeeper(CONNECT_URL, SESSION_TIME_OUT, new Watcher() {
@Override
public void process(WatchedEvent event) {
// 收到事件通知后的回调函数(应该是咱们本身的事件处理逻辑)
System.out.println(event.getType()+"-----------"+event.getPath());
try{
//从新更新服务器列表,而且注册了监听
getServerList();
}catch (Exception e){
}
}
});
}
/**
* @Description 获取服务器子节点信息,并对父节点进行监听
* @Author 刘俊重
*/
public void getServerList() throws Exception {
List<String> children = zkCli.getChildren(PARENT_NODE, true);
List<String> servers = new ArrayList<String>();
for(String child : children){
// child只是子节点的节点名
byte[] data = zkCli.getData(PARENT_NODE + "/" + child, false, null);
servers.add(new String(data));
}
//把servers赋值给成员变量serverList,以提供给各业务线程使用
serverList = servers;
System.out.println("节点数据:"+serverList);
}
/**
* @Description 模拟实际的业务操做
* @Author 刘俊重
* @Date 2017/12/13
*/
public void handelBusiness() throws Exception {
System.out.println("客户端开始工做。。。");
Thread.sleep(Long.MAX_VALUE);
}
public static void main(String[] args) throws Exception {
DistributeClient client = new DistributeClient();
client.getConnect();
client.getServerList();
client.handelBusiness();
}
}
复制代码
假设如今集群中有50台机器对某台机器上的同一文件进行修改,如何才能保证这个文件不会被写乱呢,使用java中的synchronized锁确定是不行的,由于这个锁是对某个程序而言的,而咱们这根本就不是在一个服务器上,怎么会锁的住,用zookeeper实现的分布式锁能够实现。 设计思路:服务器启动时都去zookeeper上注册一个“短暂+序号”的znode节点(如/lock/1;/lock/2),并设置监听父节点变化;获取到父节点下全部子节点,并比较序号的大小;约定好比序号最小的获取锁,去操做某一文件,操做完成后删除本身的节点(至关于释放锁),并注册一个新的“短暂+序号”的znode节点;其它程序收到zookeeper发送的节点变化的通知以后,去比较序号的大小,看谁得到新锁。
public class DistributedClientLock {
// 会话超时
private static final int SESSION_TIMEOUT = 2000;
// zookeeper集群地址
private String hosts = "mini1:2181,mini2:2181,mini3:2181";
private String groupNode = "locks";
private String subNode = "sub";
private boolean haveLock = false;
private ZooKeeper zk;
// 记录本身建立的子节点路径
private volatile String thisPath;
/**
* 链接zookeeper
*/
public void connectZookeeper() throws Exception {
zk = new ZooKeeper(hosts, SESSION_TIMEOUT, new Watcher() {
@Override
public void process(WatchedEvent event) {
try {
// 判断事件类型,此处只处理子节点变化事件
if (event.getType() == EventType.NodeChildrenChanged && event.getPath().equals("/" + groupNode)) {
//获取子节点,并对父节点进行监听
List<String> childrenNodes = zk.getChildren("/" + groupNode, true);
String thisNode = thisPath.substring(("/" + groupNode + "/").length());
// 去比较是否本身是最小id
Collections.sort(childrenNodes);
if (childrenNodes.indexOf(thisNode) == 0) {
//访问共享资源处理业务,而且在处理完成以后删除锁
doSomething();
//从新注册一把新的锁
thisPath = zk.create("/" + groupNode + "/" + subNode, null, Ids.OPEN_ACL_UNSAFE,
CreateMode.EPHEMERAL_SEQUENTIAL);
}
}
} catch (Exception e) {
e.printStackTrace();
}
}
});
// 一、程序一进来就先注册一把锁到zk上
thisPath = zk.create("/" + groupNode + "/" + subNode, null, Ids.OPEN_ACL_UNSAFE,
CreateMode.EPHEMERAL_SEQUENTIAL);
// wait一小会,便于观察
Thread.sleep(new Random().nextInt(1000));
// 从zk的锁父目录下,获取全部子节点,而且注册对父节点的监听
List<String> childrenNodes = zk.getChildren("/" + groupNode, true);
//若是争抢资源的程序就只有本身,则能够直接去访问共享资源
if (childrenNodes.size() == 1) {
doSomething();
thisPath = zk.create("/" + groupNode + "/" + subNode, null, Ids.OPEN_ACL_UNSAFE,
CreateMode.EPHEMERAL_SEQUENTIAL);
}
}
/**
* 处理业务逻辑,而且在最后释放锁
*/
private void doSomething() throws Exception {
try {
System.out.println("gain lock: " + thisPath);
Thread.sleep(2000);
} finally {
System.out.println("finished: " + thisPath);
//释放锁
zk.delete(this.thisPath, -1);
}
}
public static void main(String[] args) throws Exception {
DistributedClientLock dl = new DistributedClientLock();
dl.connectZookeeper();
Thread.sleep(Long.MAX_VALUE);
}
}
复制代码
参考文档:http://www.cnblogs.com/likehua/tag/zookeeper/
以一个简单的例子来讲明整个选举的过程. 假设有五台服务器组成的zookeeper集群,它们的id从1-5,同时它们都是最新启动的,也就是没有历史数据,在存放数据量这一点上,都是同样的.假设这些服务器依序启动,来看看会发生什么.
那么,初始化的时候,是按照上述的说明进行选举的,可是当zookeeper运行了一段时间以后,有机器down掉,从新选举时,选举过程就相对复杂了。 须要加入数据id、leader id和逻辑时钟。 数据id:数据新的id就大,数据每次更新都会更新id。 Leader id:就是咱们配置的myid中的值,每一个机器一个。 逻辑时钟:这个值从0开始递增,每次选举对应一个值,也就是说: 若是在同一次选举中,那么这个值应该是一致的 ; 逻辑时钟值越大,说明这一次选举leader的进程更新. 选举的标准就变成: 一、逻辑时钟小的选举结果被忽略,从新投票 二、统一逻辑时钟后,数据id大的胜出 三、数据id相同的状况下,leader id大的胜出 根据这个规则选出leader。