Flume+Kafka+SparkStreaming启动命令笔记

1.将日志产生程序写入crontab中:git

crontab -e

#每一分钟执行一次
*/1 * * * * /home/qian/data/project/log_generator.sh

进入logs日志文件中:tail -f access.logbash

定时脚本添加成功服务器

2.开启ZK:app

 

zkServer.sh start

 

 

 

3.开启kafka-server:spa

 

kafka-server-start.sh -daemon \
/home/qian/app/kafka_2.11-0.9.0.0/config/server.properties

 

 

 

 

3.开启flume agent:scala

 

flume-ng agent \
 --name exec-memory-kafka \
 --conf $FLUME_HOME/conf/ \
 --conf-file ~/data/project/streaming_project2.conf \
 -Dflume.root.logger=INFO,console

 

 

 

4.开启sparkstremaing(只作了简单的计数操做):日志

(1)在IDEA中执行scala代码,控制台以下:code

 

 

(2)在git-bash中打成jar包:server

mvn clean package -DskipTests

 

(3)打包成功上传到服务器上:blog

 

 (4)在服务器上运行上传的jar包。

相关文章
相关标签/搜索