1.解压kafka压缩包(移动kafka到/usr/local/下,我的喜爱):node
[root@localhost package]# tar -zxvf kafka.tar.gzvim
2.修改配置文件config/server.properties测试
[root@localhost package]# vim /usr/local/kafka/config/server.propertiesspa
####broker_id#### 替换成kafka序号,几台机器分别就是1到几code
####host_name#### 替换成当前机器的hostnameserver
####host_name#### 替换成当前机器的hostnameblog
####Path#### 替换成kafka的安装目录进程
zookeeper.connect=####hosts_name#### 替换成zk集群名称kafka
参考以下:console
broker.id=1
host.name=node187
advertised.host.name=node187
log.dirs=/home/bigdata/kafka/kafka-logs
zookeeper.connect=node187:2181,node188:2181,node189:2181
3.启动kafka(先要确保zookeeper
已启动,而后在Kafka目录执行)
nohup bin/kafka-server-start.sh config/server.properties
若是无报错则说明启动成功。nohup &
是实如今后台启动。
4.查看进程
jps
5.简单测试
打开2个终端,分别在Kafka目录执行如下命令
启动producer
bin/kafka-console-producer.sh --broker-list 192.168.148.128:9092 --topic test
启动consumer
bin/kafka-console-consumer.sh --zookeeper 192.168.148.128:2181 --topic test --from-beginning