kafka 、 zookeeper 集群(二)

1、zookeeper集群安装
node

要求:
zookeeper的 jdk 要 6以上
zookeeper生产环境版本为 3.4.8
apache


1.首先编辑/etc/hosts
在5台都加入:
10.0.50.10 zk-kafka01
10.0.50.11 zk-kafka02
10.0.50.12 zk-kafka03
10.0.50.13 zk-kafka04
10.0.50.14 zk-kafka05

2.更改hostname
1.vim /etc/sysconfig/network
2.hostname zk-kafka0*
如下为主机名对应关系
10.0.50.10 zk-kafka01
10.0.50.11 zk-kafka02
10.0.50.12 zk-kafka03
10.0.50.13 zk-kafka04
10.0.50.14 zk-kafka05

3.安装软件包
mkdir -p /app/zpy/3rd/zookeeper
mkdir -p /app/zpy/zookeeper
cd /app/zpy/3rd/zookeeper/
rz (包在svn上)
解压

cd /app/zpy/3rd/zookeeper/zookeeper-3.4.8

cp -a * /app/zpy/zookeeper/

--------------------------------------
此处注意,按照运维标准化原则来讲,此处应该 chown 目录权限至zpy,可是担忧一组会有较多改动,前期先用root用户,
待5台所有部署完毕后,再进行总体权限收回和切换
--------------------------------------
cd /app/zpy/zookeeper/conf
cp zoo_sample.cfg zoo.cfg (拷贝模版配置文件生成新的配置文件)

而后建立zk的data存放目录
mkdir -p /data/zpy/zookeeper

而后咱们开始修改配置文件了
vim

1.修改数据和快照存储路径,路径为上方设置的服务器

dataDir=/data/zpy/zookeepersession


2.在配置文件最后添加zk集群关系app

(2888端口是leader的端口,3888端口是leader挂掉后选举leader用到的通信渠道端口)运维

server.1=zk-kafka01:2888:3888dom

server.2=zk-kafka02:2888:3888ide

server.3=zk-kafka03:2888:3888svn

server.4=zk-kafka04:2888:3888

server.5=zk-kafka05:2888:3888

配置文件这就改好了

注意:

tickTime:这个时间是做为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每一个 tickTime 时间就会发送一个心跳。

dataDir:顾名思义就是Zookeeper 保存数据的目录,默认状况下,Zookeeper 将写数据的日志文件也保存在这个目录里。

clientPort:这个端口就是客户端链接Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。

initLimit:这个配置项是用来配置Zookeeper 接受客户端(这里所说的客户端不是用户链接 Zookeeper 服务器的客户端,而是 Zookeeper 服务器集群中链接到 Leader Follower 服务器)初始化链接时最长能忍受多少个心跳时间间隔数。当已经超过 5个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器尚未收到客户端的返回信息,那么代表这个客户端链接失败。总的时间长度就是 5*2000=10

syncLimit:这个配置项标识Leader Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是2*2000=4

server.A=BCD:其中 A 是一个数字,表示这个是第几号服务器;B 是这个服务器的 ip 地址;C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;D 表示的是万一集群中的 Leader 服务器挂了,须要一个端口来从新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通讯的端口。若是是伪集群的配置方式,因为 B 都是同样,因此不一样的 Zookeeper 实例通讯端口号不能同样,因此要给它们分配不一样的端口号




3.建立myid文件,并输入编号

echo "1" > /data/zpy/zookeeper/myid

其余四台分别为 2 3 4 5


4.启动zookeeper集群,5台最好同时启动,间隔时间不要相差太大

cd /app/zpy/zookeeper/bin/
./zkServer.sh start


5.检查状态,一个leader,4个follower

[root@zk-kafka05 bin]#./zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /app/zpy/zookeeper/bin/../conf/zoo.cfg
Mode: leader

[root@zk-kafka04 bin]# ./zkServer.sh status

ZooKeeper JMX enabled bydefault
Using config: /app/zpy/zookeeper/bin/../conf/zoo.cfg
Mode: follower

6.测试zookeeper是否正常工做,在server1上执行如下命令

# /home/wwb/zookeeper/bin/zkCli.sh -server192.168.0.2:2181,出现相似如下内容

JLine support is enabled

2013-11-27 19:59:40,560 -INFO     [main-SendThread(localhost.localdomain:2181):ClientCnxn$SendThread@736]-Session establishmentcomplete on server localhost.localdomain/127.0.0.1:2181, sessionid=    0x1429cdb49220000, negotiatedtimeout = 30000

 

WATCHER::

   

WatchedEventstate:SyncConnected type:None path:null

[zk: 127.0.0.1:2181(CONNECTED) 0]



2、kafka集群安装

1.下载

wget http://apache.fayea.com/kafka/0.8.2.2/kafka_2.11-0.8.2.2.tgz

版本须要注意,不要选取这个版本以前的版本,有明显bug,可是也不要选最新的,操做命令不同,研发还须要去学习 解压

2.安装、配置

最后安装在 /app/zpy/kafka 下

修改配置文件 config下的 server.properties

修改项:

broker.id=10 --这个id若是部署的是kafka集群,id是不能同样的,能够以节点ip最后一位命名。

port=9092 --默认kafka端口,若是一台机器上面部署了多个kafka实例,须要两个实例端口不同

log.dirs=/data/zpy/kafka10-logs ----这个是kafka日志文件存放路径,默认是/tmp下的,重启会消                                     失,因此咱们更换目录

num.partitions=1 ---这个须要与研发商议,与数据插入顺序有关。具体有研发的程序决定。若是研发                   程序中设置了3个partition,配置文件中设置为1也不生效。配置文件只做为默认                     值。

zookeeper.connect=10.0.50.10:2181,10.0.50.11:2181,10.0.50.12:2181,10.0.50.13:2181,10.0.50.14:2181/kafkagroup kafka实现功能须要zookeeper调度,因此这是与zk单机或者集群的链接,上面是与                   集群链接的方式,也能够去掉/kafkagroup,可是zk的znode结构就会比较混乱,因此                   建议加上一个路径。/路径下存放znode相关信息,最好建立一个目录,如                           kafkagroup存放kafka集群的信息

zookeeper.connection.timeout.ms=6000 ----链接zk超时时间

修改kafka的启动脚本(调节启动内存占用大小) cd kafka/bin

vim kafka-server-start.sh

修改28-29行

if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then

 export KAFKA_HEAP_OPTS="-Xmx32G -Xms8G"

3.启动

kafka启动(必定后台启动):

./kafka-server-start.sh ../config/server.properties &

4.启动后验证

查看zk集群的znode节点信息 zk是有客户端工具的,能够下载使用,可是zk程序中也自带了程序监测 进入zk的bin目录下 

[root@zk-kafka01 bin]# sh zkCli.sh 

Connecting to localhost:2181 Welcome to ZooKeeper! JLine support is enabled WATCHER:: WatchedEvent state:SyncConnected type:None path:null 

[zk: localhost:2181(CONNECTED) 0] ls / 

[kafkagroup, zookeeper]

能够看到咱们在kafka里设置的kafkagroup

5.建立Topic(包含3个分区,2个备份副本)

## ./kafka-topics.sh --create --zookeeper 10.0.140.26:2181/kafka --replication-factor 2 --partition 3 --topic zxytest

Created topic "zxytest".

6.查看topic状况

# cd /app/zpy/zookeeper/bin

# sh zkCli.sh

[zk: localhost:2181(CONNECTED) 1] ls /

[zk, consumers, brokers, zk01, zookeeper, kafka]

[zk: localhost:2181(CONNECTED) 2] ls /kafka/brokers/topics/

zxytest


7.模拟topic生产数据信息


# ./kafka-console-producer.sh --broker-list 10.0.50.10:9092 --topic zxytest

模拟输入内容

hello

world


8.模拟消费者接收数据

# ./kafka-console-consumer.sh --zookeeper 10.0.50.10:2181/kafka --topic zxytest --from-beginning

会接收到生产的数据信息

hello

world

相关文章
相关标签/搜索