linux中用spark进行单词数统计--wordCount例子操做详解【scala版】

这是命令行的简单操做案例,借用spark里面的API:flatMap、reduceByKey来实现,步骤以下: 1)启动spark shell:web ./spark-shell --master local[2] 注:spark shell 是spark自带的一个快速开发工具,在spark目录下bin目录里面shell 2)读入须要处理的单词文件svg val file = sc.textFil
相关文章
相关标签/搜索