flume监控本地文件并同步到hdfs进行数据查询与分析

总体要求 利用python编写爬虫程序,从招聘网站上爬取数据,将数据存入到MongoDB数据库中,将存入的数据作一定的数据清洗后做数据分析,最后将分析的结果做数据可视化。 ** 前期准备 ** 1、配置大数据需要的环境 (1)配置Hadoop环境:可看博客: (2)配置zookeeper环境:https://blog.csdn.net/weixin_44701468/article/details
相关文章
相关标签/搜索