1.将日志产生程序写入crontab中:git
crontab -e
#每一分钟执行一次 */1 * * * * /home/qian/data/project/log_generator.sh
进入logs日志文件中:tail -f access.logbash
定时脚本添加成功服务器
2.开启ZK:app
zkServer.sh start
3.开启kafka-server:spa
kafka-server-start.sh -daemon \ /home/qian/app/kafka_2.11-0.9.0.0/config/server.properties
3.开启flume agent:scala
flume-ng agent \ --name exec-memory-kafka \ --conf $FLUME_HOME/conf/ \ --conf-file ~/data/project/streaming_project2.conf \ -Dflume.root.logger=INFO,console
4.开启sparkstremaing(只作了简单的计数操做):日志
(1)在IDEA中执行scala代码,控制台以下:code
(2)在git-bash中打成jar包:server
mvn clean package -DskipTests
(3)打包成功上传到服务器上:blog
(4)在服务器上运行上传的jar包。