kafka单机部署

kafka单机部署java

 

kafka是一种高吞吐量的分布式发布订阅消息系统,kafka是linkedin用于日志处理的分布式消息队列,linkedin的日志数据容量大,但对可靠性要求不高,其日志数据主要包括用户行为linux

环境配置:
CentOS release 6.3 (Final)
jdk版本:jdk-6u31-linux-x64-rpm.bin
zookeeper版本:zookeeper-3.4.4

 

一、安装jdk并设置环境变量vim

jdk环境变量配置:bash

export JAVA_HOME=/usr/java/jdk1.6.0_31

export CLASSPATH=$JAVA_HOME/jre/lib:$JAVA_HOME/lib

export PATH=$PATH:$JAVA_HOME/bin

# source /etc/profile    使其生效socket

 

二、安装zookeeper分布式

# vim conf/zoo.cfgide

dataDir=/home/hadoop/storage/zookeeper    设置datadiroop

启动zookeeper:spa

# ./bin/zkServer.sh start.net

查看状zk态:

# ./bin/zkServer.sh status 

 

三、kafka 安装

  • 修改配置文件:# vim config/producer.properties

broker.id=0
port=9092
host.name=10.37.129.3
num.network.threads=2
num.io.threads=8
socket.send.buffer.bytes=1048576
socket.request.max.bytes=104857600
log.dirs=/tmp/kafka-logs
num.partitions=2
log.flush.interval.messages=10000
log.flush.interval.ms=1000
log.retention.hours=168
log.retention.bytes=1073741824
log.segment.bytes=536870912
log.retention.check.interval.ms=60000
log.cleaner.enable=false
zookeeper.connect=10.37.129.3:2181 
zookeeper.connection.timeout.ms=1000000
  • 启动kafka:

[root@localhost kafka_2.8.0-0.8.0]# ./bin/kafka-server-start.sh /usr/local/src/kafka_2.8.0-0.8.0/config/server.properties &

 

  • 新建一个TOPIC

# ./kafka-topics.sh --create --topic kafkatopic --replication-factor 1 --partitions 1 --zookeeper localhost:2181

  • 检查是否建立主题成功 

# ./kafka-list-topic.sh --zookeeper localhost:2181
topic: test partition: 0 leader: 0 replicas: 0 isr: 0

 

  • 发送消息至KAFKA:

[root@localhost bin]# ./kafka-console-producer.sh --broker-list 192.168.1.141:9092 --sync --topic kafkatopic

This is the first message

这是另一个消息

This is another news

 

另开一个终端,显示消息的消费

 [root@localhost bin]# ./kafka-console-consumer.sh --zookeeper 192.168.1.141:2181 --topic kafkatopic --from-beginning

This is the first message

这是另一个消息

This is another news

 

 

*启动produce    ./bin/kafka-console-producer.sh --broker-list 10.10.224.12:9092  --topic test  *启动consumer    ./kafka-console-consumer.sh --zookeeper localhost:2181 --topic test    6.关闭kafka和zookeeper    ./kafka-server-stop.sh ../config/server.properties    ./zookeeper-server-stop.sh  心得总结:  1.produce启动的时候参数使用的是kafka的端口而consumer启动的时候使用的是zookeeper的端口;  2.必须先建立topic才能使用;  3.topic本质是以文件的形式储存在zookeeper上的。  

相关文章
相关标签/搜索