kafka集群搭建

kafka的背景知识已经讲了不少了,让咱们如今开始实践吧,假设你已经准备好JDKZooKeeper环境。java

1. 下载代码

下载2.12-1.1.0版本而且解压它。apache

tar -xvf kafka_2.12-1.1.0.tgz -C /home/${user}/software/kafka/
复制代码

3. 修改配置

修改$KAFKA_HOME/config/server.properties文件bootstrap

# 指定代理id,borker.id能够任意指定,前提是保证集群内每台机器的broker.id惟一,第二台机器设置为2...以此类推
broker.id=0
# 提供给客户端响应的端口
port=9092
# kafka数据的存放目录,而非Kafka的日志目录
log.dirs=/tmp/kafka-logs-0
# 设置zookeeper集群地址
zookeeper.connect=192.168.0.1:2181,192.168.0.2:2181,192.168.0.3:2181
# 设置本机地址,设置为本服务器的ip地址。若是不设置会在建立主题和发送消息时,发生NOT LEADER FOR PARTITION异常。
host.name=192.168.0.1
复制代码

2. 启动服务

运行kafka须要使用Zookeeper,因此你须要先启动Zookeeper。
若是你没有Zookeeper,你可使用kafka自带打包和配置好的Zookeeper。bash

./bin/zookeeper-server-start.sh config/zookeeper.properties
复制代码

显示:服务器

[2013-04-22 15:01:37,495] INFO Reading configuration from: config/zookeeper.properties (org.apache.zookeeper.server.quorum.QuorumPeerConfig)
...
复制代码

表明Zookeeper启动成功,如今启动kafka服务。并发

./bin/kafka-server-start.sh  -daemon config/server.properties
复制代码

显示:socket

[2013-04-22 15:01:47,028] INFO Verifying properties (kafka.utils.VerifiableProperties)
[2013-04-22 15:01:47,051] INFO Property socket.send.buffer.bytes is overridden to 1048576 (kafka.utils.VerifiableProperties)
...
复制代码

表示启动成功工具

3. 建立Topic

建立一个名为“test”的Topic,只有一个分区和一个备份:post

./bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
复制代码

建立好以后,能够经过运行如下命令,查看已建立的topic信息:测试

./bin/kafka-topics.sh --list --zookeeper localhost:2181
复制代码

或者,除了手工建立topic外,你也能够配置你的broker,当发布一个不存在的topic时自动建立topic。 配置项以下:

auto.create.topics.enable=true 
复制代码

4. 发送消息

Kafka提供了一个命令行的工具,能够从输入文件或者命令行中读取消息并发送给Kafka集群。每一行是一条消息。
运行producer(生产者),而后在控制台输入几条消息到服务器。

./bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test
复制代码
This is a message
This is another message
复制代码

5. 消费消息

Kafka也提供了一个消费消息的命令行工具,将存储的信息输出出来。

./bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning
复制代码
This is a message
This is another message
复制代码

若是你有2台不一样的终端上运行上述命令,那么当你在运行生产者时,消费者就能消费到生产者发送的消息。

6. 设置多个broker集群

到目前,咱们只是单一的运行一个broker,没什么意思。对于Kafka,一个broker仅仅只是一个集群的大小,全部让咱们多设几个broker。

首先为每一个broker建立一个配置文件:

cp config/server.properties config/server-1.properties 
cp config/server.properties config/server-2.properties
复制代码

如今编辑这些新建的文件,设置如下属性:

config/server-1.properties: 
    broker.id=1 
    listeners=PLAINTEXT://:9093 
    log.dir=/tmp/kafka-logs-1

config/server-2.properties: 
    broker.id=2 
    listeners=PLAINTEXT://:9094 
    log.dir=/tmp/kafka-logs-2
复制代码

broker.id是集群中每一个节点的惟一且永久的名称,咱们修改端口和日志目录是由于咱们如今在同一台机器上运行,咱们要防止broker在同一端口上注册和覆盖对方的数据。

咱们已经运行了zookeeper和刚才的一个kafka节点,全部咱们只须要在启动2个新的kafka节点。

./bin/kafka-server-start.sh  -daemon config/server-1.properties
复制代码
./bin/kafka-server-start.sh  -daemon config/server-2.properties
复制代码

如今,咱们建立一个新topic,把备份设置为:3

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic
复制代码

好了,如今咱们已经有了一个集群了,咱们怎么知道每一个集群在作什么呢?运行命令"describe topics"

./bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic
复制代码

显示:

Topic:my-replicated-topic    PartitionCount:1    ReplicationFactor:3    Configs:
Topic: my-replicated-topic    Partition: 0    Leader: 1    Replicas: 1,2,0    Isr: 1,2,0
复制代码

输出解释:第一行是全部分区的摘要,其次,每一行提供一个分区信息,由于咱们只有一个分区,因此只有一行。

"leader":该节点负责该分区的全部的读和写,每一个节点的leader都是随机选择的。  
"replicas":备份的节点列表,不管该节点是不是leader或者目前是否还活着,只是显示。  
"isr":“同步备份”的节点列表,也就是活着的节点而且正在同步leader。  
复制代码

咱们运行这个命令,看看一开始咱们建立的那个节点:

./bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test
复制代码

显示:

Topic:test    PartitionCount:1    ReplicationFactor:1    Configs:
Topic: test    Partition: 0    Leader: 0    Replicas: 0    Isr: 0
复制代码

这并不奇怪,刚才建立的主题没有Replicas,而且在服务器"0"上,咱们建立它的时候,集群中只有一个服务器,因此是"0"。

让咱们来发布一些信息在新的topic上:

./bin/kafka-console-producer.sh --broker-list localhost:9092 --topic my-replicated-topic
复制代码

显示:

...
my test message 1
my test message 2
复制代码

如今,消费这些消息。

./bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic
复制代码

显示:

...
my test message 1
my test message 2
复制代码

咱们要测试集群的容错,kill掉leader,Broker1做为当前的leader,也就是kill掉Broker1。

ps | grep server-1.properties
复制代码

显示:

7564 ttys002    0:15.91 /System/Library/Frameworks/JavaVM.framework/Versions/1.6/Home/bin/java... 
复制代码

执行:

kill -9 7564
复制代码

在Windows上使用:

wmic process where "caption = 'java.exe' and commandline like '%server-1.properties%'" get processid
复制代码

显示:

ProcessId
6016
复制代码

执行:

taskkill /pid 6016 /f
复制代码

备份节点之一成为新的leader,而broker1已经不在同步备份集合里了。

./bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic
复制代码
Topic:my-replicated-topic    PartitionCount:1    ReplicationFactor:3    Configs:
Topic: my-replicated-topic    Partition: 0    Leader: 2    Replicas: 1,2,0    Isr: 2,0
复制代码

可是,消息仍然没丢:

bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic
复制代码
...
my test message 1
my test message 2
复制代码

文章转载自:kafka安装和启动
相关文章
相关标签/搜索