在windows本地编写spark的wordcount

最近要用到spark,这里记录以下在windows本地搭建spark的词频统计的整个流程。首先明确一下版本,这里用的是hadoop-2.7.0版本,spark版本必须要与之对应,这里用的是下面这个,下载地址在这里http://spark.apache.org/downloads.html ,这里用的是scale ide,对应的scala版本是2.11.8,对应的jdk是1.8,好了废话不多说,直接
相关文章
相关标签/搜索