Spark-On-YARN

Spark-On-YARN 官方文档 http://spark.apache.org/docs/latest/running-on-yarn.html 2.配置安装 安装hadoop:需要安装HDFS模块和YARN模块,HDFS必须安装,spark运行时要把jar包存放到HDFS上。 安装Spark:解压Spark安装程序到一台服务器上,修改spark-env.sh配置文件,spark程序将作为Y
相关文章
相关标签/搜索