kafka单机部署java
kafka是一种高吞吐量的分布式发布订阅消息系统,kafka是linkedin用于日志处理的分布式消息队列,linkedin的日志数据容量大,但对可靠性要求不高,其日志数据主要包括用户行为linux
环境配置: CentOS release 6.3 (Final) jdk版本:jdk-6u31-linux-x64-rpm.bin zookeeper版本:zookeeper-3.4.4
一、安装jdk并设置环境变量vim
jdk环境变量配置:bash
export JAVA_HOME=/usr/java/jdk1.6.0_31 export CLASSPATH=$JAVA_HOME/jre/lib:$JAVA_HOME/lib export PATH=$PATH:$JAVA_HOME/bin
# source /etc/profile 使其生效socket
二、安装zookeeper分布式
# vim conf/zoo.cfgide
dataDir=/home/hadoop/storage/zookeeper 设置datadiroop
启动zookeeper:spa
# ./bin/zkServer.sh start.net
查看状zk态:
# ./bin/zkServer.sh status
三、kafka 安装
修改配置文件:# vim config/producer.properties
broker.id=0 port=9092 host.name=10.37.129.3 num.network.threads=2 num.io.threads=8 socket.send.buffer.bytes=1048576 socket.request.max.bytes=104857600 log.dirs=/tmp/kafka-logs num.partitions=2 log.flush.interval.messages=10000 log.flush.interval.ms=1000 log.retention.hours=168 log.retention.bytes=1073741824 log.segment.bytes=536870912 log.retention.check.interval.ms=60000 log.cleaner.enable=false zookeeper.connect=10.37.129.3:2181 zookeeper.connection.timeout.ms=1000000
启动kafka:
[root@localhost kafka_2.8.0-0.8.0]# ./bin/kafka-server-start.sh /usr/local/src/kafka_2.8.0-0.8.0/config/server.properties &
新建一个TOPIC
# ./kafka-topics.sh --create --topic kafkatopic --replication-factor 1 --partitions 1 --zookeeper localhost:2181
检查是否建立主题成功
# ./kafka-list-topic.sh --zookeeper localhost:2181
topic: test partition: 0 leader: 0 replicas: 0 isr: 0
发送消息至KAFKA:
[root@localhost bin]# ./kafka-console-producer.sh --broker-list 192.168.1.141:9092 --sync --topic kafkatopic
This is the first message
这是另一个消息
This is another news
另开一个终端,显示消息的消费
[root@localhost bin]# ./kafka-console-consumer.sh --zookeeper 192.168.1.141:2181 --topic kafkatopic --from-beginning
This is the first message
这是另一个消息
This is another news
*启动produce ./bin/kafka-console-producer.sh --broker-list 10.10.224.12:9092 --topic test *启动consumer ./kafka-console-consumer.sh --zookeeper localhost:2181 --topic test 6.关闭kafka和zookeeper ./kafka-server-stop.sh ../config/server.properties ./zookeeper-server-stop.sh 心得总结: 1.produce启动的时候参数使用的是kafka的端口而consumer启动的时候使用的是zookeeper的端口; 2.必须先建立topic才能使用; 3.topic本质是以文件的形式储存在zookeeper上的。