Spark下的WordCount案列演示

安装教程见我其他博客http://www.javashuo.com/article/p-sfkjjxwj-vs.html, 在终端输入pyspark进入spark环境: test.txt 进入: 读取文本文件: >>> textFile = sc.textFile("test.txt") 使用flatMap空格分隔单词,并读取每个单词 注意flatMap和map不同,map产生的List是分层的,
相关文章
相关标签/搜索