Hadoop 的WordCount

以前花了点时间玩spark, 如今开始学一下hadoop 前面花了几天时间搭建Hadoop环境和开发环境, 具体就很少说了, 今天开始了第一个Map/Reduce程序, 经典的wordcount。 使用的Hadoop版本是2.6.3, 因此我会用最新的API, 大部分都是在org.apache.hadoop.mapreduce这个包下面的。 (mapred是老的api) 个人sample文件是:
相关文章
相关标签/搜索