spark集群配置

安装hadoop 待补 spark安装 1)下载spark安装包 跟hadoop安装包放在一个目录下(目前目录如下) 2)进入conf中,配置spark-env.sh spark-defaults-conf 先从以上两个临时文件cp过来一份。然后进行修改 a . vim ./spark-env.sh 配置hadoop路径, python编辑版本 b. spark-defaluts.conf 配置节
相关文章
相关标签/搜索