【Strom篇】Flume+Kafaka+Strom整合完成信息记录

第一部分:流程分析 由flume收集客户端发送的信息,经过kafka集群消费者收集,然后给storm集群数据处理(数据清洗),最后再发给kafka集群收集。 第二部分:集群搭建 flume+kafka 一、配合flume 修改flume-env.sh里的JAVA_HOME的位置,(flume仅修改此处) (若查看flume的版本通过:./bin flume-ng version) 二、创建fk.c
相关文章
相关标签/搜索