Spark整合HDFS、WordCount示例

原创转载请注明出处:http://agilestyle.iteye.com/blog/2294233   前提条件 Hadoop HA搭建完毕 Spark HA搭建完毕   整合步骤 cd到spark的conf的目录,修改spark-env.sh   添加如下 export HADOOP_CONF_DIR=/home/hadoop/app/hadoop-2.6.4/etc/hadoop   保存退
相关文章
相关标签/搜索