spark安装运行在webUI界面不显示worker

./spark/conf/spark-env.sh 文件中需要显式地设置一些环境变量,不用系统默认值。亲测,ubuntu16.04系统,spark-env.sh中手动配置 export JAVA_HOME=<>/jdk1.8 export SCALA_HOME=<>/scala export HADOOP_HOME=<>/hadoop export HADOOP_CONF_DIR=<>/hadoo
相关文章
相关标签/搜索