实践:Flume同步信息到HDFS

实践:Flume同步信息到HDFS 环境介绍   本次实战基于cdh5.8.5,flume 1.8。 实战背景   应用程序通过log4j记录日志信息(用户ip,访问url,请求方式,状态码信息,时间戳),记录到服务器上(地址:/data/flume/log)。通过flume组件将不断更新的日志信息传递给hdfs做离线处理,kafka做实时处理。   当然我们本次先演示flume-hdfs的过程。
相关文章
相关标签/搜索