Idea本地运行spark,操作HDFS(spark-without-hadoop版的spark)

操作 一般大家都是用的spark-x.x.x-bin-hadoop2.x的spark 而我用的是spark-2.1.0-bin-without-hadoop,所以我们要使用HDFS的时候,就必须让程序能够找到Hadoop的HDFS 所以我们不仅要像一般的Idea运行集群操作一样给工程添加 $SPARK_HOME/jars到工程的Libraries,参考Window环境下使用IntelliJ IDE
相关文章
相关标签/搜索