01:Spark安装与测试

1:下载spark安装包,需要查看是否兼容自己的hadoop版本 2:配置spark 进入到Spark安装目录 cd /usr/local/spark-1.6.1-bin-hadoop2.6 进入conf目录并重命名并修改spark-env.sh.template文件 cd conf/ mv spark-env.sh.template spark-env.sh vi spark-env.sh 在该
相关文章
相关标签/搜索