Spark On Yarn搭建

实现步骤: 1)搭建好Hadoop(版本,2.7)集群 2)安装和配置scala(版本,2.11) 上传解压scala-2.11.0.tgz—>配置 /etc/profile文件 配置示例: 3)在NodeManager节点(04,05,06节点)上安装和配置Spark 4)进入Spark安装目录的Conf目录,配置:spark-env.sh 文件 配置示例: export JAVA_HOME=/
相关文章
相关标签/搜索