在 CentOS7 上部署 zookeeper 服务html
1 用 SecureCRT 或 XShell 等 Linux 客户端工具链接至 CentOS7 服务器;算法
2 进入到 /usr/local/tools 目录中:
cd /usr/local/
如没有此目录则建立:
mkdir -p toolsapache
3 下载 zookeeper-3.4.8.tar.gz:
wget http://apache.fayea.com/zookeeper/zookeeper-3.4.8/zookeeper-3.4.8.tar.gz服务器
4 返回到上一级目录并建立 zookeeper 文件夹:
cd ..
mkdir -p zookeepersession
5 将 zookeeper-3.4.8 文件从 /usr/local/tools 文件夹中移动到 /usr/local/zookeeper 文件夹中:
mv ./tools/zookeeper-3.4.8 ./zookeeper/ide
6 进入到 zookeeper/zookeeper-3.4.8/conf 目录中:
cd zookeeper/zookeeper-3.4.8/conf工具
7 复制 zoo_sample.cfg 文件并将新文件命名为 zoo.cfg:
cp zoo_sample.cfg zoo.cfg性能
8 修改 zoo.cfg 文件:
vi zoo.cfg
进入到 zoo.cfg 文件中;
修改数据文件夹 dataDir=/tmp/zookeeper 为 dataDir=/usr/local/zookeeper/zookeeper-3.4.8/data
配置日志文件夹 dataLogDir=/usr/local/zookeeper/zookeeper-3.4.8/logs
保存并退出;
9 将 zookeeper 的根目录设置到系统环境变量 PATH 中:
sudo vi /etc/profile
在打开的 profile 文件末尾追加以下配置:
export ZOOKEEPER_HOME=/usr/local/zookeeper/zookeeper-3.4.8
export PATH=$ZOOKEEPER_HOME/bin:$PATH
export PATH
保存并退出 vi;
刷新 profile 文件使之当即生效:
source /etc/profile大数据
10 执行以下命令启动 zookeeper 服务:
zkServer.sh start
如打印以下信息则代表启动 zookeeper 成功:
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/zookeeper-3.4.8/bin/../conf/zoo.cfg
Starting zookeeper ... STARTEDui
因为咱们将 zookeeper 配置到了系统环境变量 PATH 中,故此能够在任何地方执行 zookeeper 命令;
若是咱们没有作第 9 步,那么咱们须要先进入到 zookeeper 的命令工具文件夹中:
cd /usr/local/zookeeper/zookeeper-3.4.8/bin
而后在执行启动 zookeeper 服务的操做;
11 查看 zookeeper 当前的状态:
zkServer.sh status
出现以下信息:
Using config: /usr/local/zookeeper/zookeeper-3.4.8/bin/../conf/zoo.cfg
Mode: standalone
其中 standalone 表示处于单机模式;
12 关闭 zookeeper 服务:
zkServer.sh stop
如打印以下信息,则代表关闭 zookeeper 成功:
Using config: /usr/local/zookeeper/zookeeper-3.4.8/bin/../conf/zoo.cfg
Stopping zookeeper ... STOPPED
13 重启 zookeeper 服务:
zkServer.sh restart
如打印以下信息,则代表重启 zookeeper 服务成功:
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/zookeeper-3.4.8/bin/../conf/zoo.cfg
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/zookeeper-3.4.8/bin/../conf/zoo.cfg
Stopping zookeeper ... STOPPED
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/zookeeper-3.4.8/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED
14 经过客户端程序链接指定 IP 的 zookeeper 服务器,也能够链接任意 IP 的 zookeeper 服务器:
zkCli.sh -server localhost:2181
如何是本机也能够直接使用以下命令:
zkCli.sh
15 查看 zookeeper 的启动状态:
echo ruok | nc localhost 2181
16 查看 zookeeper 的进程:
jps
打印信息中的 QuorumPeerMain 以前的数字表示 zookeeper 的PID;
17 在 /usr/local/zookeeper/zookeeper-3.4.8/data/ 目录下建立 myid 文件,其内容为服务的编号;
18 zooKeeper 服务之间不存在刻意的主从关系(master/slave 关系),各个节点都是服务器,若是服务器 leader 挂了,会立马从从服务器 follower 中选举一个出来做为新的 leader 服务器。 各 zookeeper 服务器之间经过 TCP 协议交流信息。
附一:
zookeeper 下载列表:
http://apache.fayea.com/zookeeper/
能够选择
http://apache.fayea.com/zookeeper/zookeeper-3.4.8/
附二:
zoo.cfg 配置文件:
# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
# 同步阶段一个放松和接受请求之间,不容许超过多少个tick的时间
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just
# example sakes.
# dataDir=/tmp/zookeeper
# 配置数据目录
dataDir=/usr/local/zookeeper/zookeeper-3.4.8/data
# 配置日志目录
dataLogDir=/usr/local/zookeeper/zookeeper-3.4.8/logs
# the port at which the clients will connect
# 客户端访问 zookeeper 的端口号:
clientPort=2181
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
# 2888,3888 are election port
# server.一、二、3 表示 zookeeper 集群中的 一、二、3 号服务器;
# zookeeper 表示当前的 zookeeper 服务器的IP,因为 zookeeper 以在 hosts 文件中映射了本地的 IP,故此这里直接写 zookeeper 便可;
# 2888 表示 一、二、3 号 zookeeper 服务器与 zookeeper 集群中的 leader 服务器交流信息的端口;
# 3888 表示当 zookeeper 集群中的 leader 服务器挂掉以后,用来选举新的 leader 服务器时交流信息的端口;
server.1=192.168.1.100:2888:3888
server.2=192.168.1.101:2888:3888
server.3=192.168.1.102:2888:3888
附三:
zookeeper的配置文件说明:
clientPort # 客户端链接server的端口,即对外服务端口,通常设置为2181。
dataDir # 存储快照文件snapshot的目录。默认状况下,事务日志也会存储在这里。建议同时配置参数dataLogDir, 事务日志的写性能直接影响zk性能。
tickTime # ZK中的一个时间单元。ZK中全部时间都是以这个时间单元为基础,进行整数倍配置的。例如,session的最小超时时间是2*tickTime。
dataLogDir # 事务日志输出目录。尽可能给事务日志的输出配置单独的磁盘或是挂载点,这将极大的提高ZK性能。
globalOutstandingLimit # 最大请求堆积数。默认是1000。ZK运行的时候, 尽管server已经没有空闲来处理更多的客户端请求了,可是仍是容许客户端将请求提交到服务器上来,提升吞吐性能。固然,为了防止Server内存溢出,这个请求堆积数仍是须要限制下的。 Java system property:zookeeper.globalOutstandingLimit.
preAllocSize # 预先开辟磁盘空间,用于后续写入事务日志。默认是64M,每一个事务日志大小就是64M。若是ZK的快照频率较大的话,建议适当减少这个参数。
snapCount # 每进行snapCount次事务日志输出后,触发一次快照(snapshot), 此时,ZK会生成一个snapshot.*文件,同时建立一个新的事务日志文件log.*。默认是100000.(真正的代码实现中,会进行必定的随机数处理,以免全部服务器在同一时间进行快照而影响性能)。
traceFile # 用于记录全部请求的log,通常调试过程当中可使用,可是生产环境不建议使用,会严重影响性能
maxClientCnxns # 单个客户端与单台服务器之间的链接数的限制,是ip级别的,默认是60,若是设置为0,那么代表不做任何限制。请注意这个限制的使用范围,仅仅是单台客户端机器与单台ZK服务器之间的链接数限制,不是针对指定客户端IP,也不是ZK集群的链接数限制,也不是单台ZK对全部客户端的链接数限制。
clientPortAddress # 对于多网卡的机器,能够为每一个IP指定不一样的监听端口。默认状况是全部IP都监听 clientPort 指定的端口。
minSessionTimeoutmaxSessionTimeout # Session超时时间限制,若是客户端设置的超时时间不在这个范围,那么会被强制设置为最大或最小时间。默认的Session超时时间是在2 * tickTime ~ 20 * tickTime 这个范围 。
fsync.warningthresholdms # 事务日志输出时,若是调用fsync方法超过指定的超时时间,那么会在日志中输出警告信息。默认是1000ms。
autopurge.purgeInterval # 3.4.0及以后版本,ZK提供了自动清理事务日志和快照文件的功能,这个参数指定了清理频率,单位是小时,须要配置一个1或更大的整数,默认是0,表不开启自动清理功能
autopurge.snapRetainCount # 这个参数和上面的参数搭配使用,这个参数指定了须要保留的文件数目。默认是保留3个。
electionAlg #在以前的版本中, 这个参数配置是容许咱们选择leader选举算法,可是因为在之后的版本中,只会留下一种“TCP-based version of fast leader election”算法,因此这个参数目前看来没有用了。
initLimit # Follower在启动过程当中,会从Leader同步全部最新数据,而后肯定本身可以对外服务的起始状态。Leader容许F在 initLimit 时间内完成这个工做。一般状况下,咱们不用太在乎这个参数的设置。若是ZK集群的数据量确实很大了,F在启动的时候,从Leader上同步数据的时间也会相应变长,所以在这种状况下,有必要适当调大这个参数了。
syncLimit # 在运行过程当中,Leader负责与ZK集群中全部机器进行通讯,例如经过一些心跳检测机制,来检测机器的存活状态。若是L发出心跳包在syncLimit以后,尚未从F那收到响应,那么就认为这个F已经不在线了。注意:不要把这个参数设置得过大,不然可能会掩盖一些问题。
leaderServes # 默认状况下,Leader是会接受客户端链接,并提供正常的读写服务。可是,若是你想让Leader专一于集群中机器的协调,那么能够将这个参数设置为no,这样一来,会大大提升写操做的性能。
server.X=A:B:C # 其中X是一个数字, 表示这是第几号server. A是该server所在的IP地址. B配置该server和集群中的leader交换消息所使用的端口. C配置选举leader时所使用的端口. 这里的x是一个数字,与myid文件中的id是一致的。右边能够配置两个端口,第一个端口用于F和L之间的数据同步和其它通讯,第二个端口用于Leader选举过程当中投票通讯。
group.x=nnnnn[:nnnnn]weight.x=nnnnn # 对机器分组和权重设置,
cnxTimeout # Leader选举过程当中,打开一次链接的超时时间,默认是5s
zookeeper.DigestAuthenticationProvider.superDigest # ZK权限设置相关
skipACL # 对全部客户端请求都不做ACL检查。若是以前节点上设置有权限限制,一旦服务器上打开这个开头,那么也将失效
forceSync # 这个参数肯定了是否须要在事务日志提交的时候调用 FileChannel .force来保证数据彻底同步到磁盘
jute.maxbuffer # 每一个节点最大数据量,是默认是1M。这个限制必须在server和client端都进行设置才会生效。