启动Spark在UI界面上看不到worker节点的信息

问题描述 作者是在centos上安装spark-2.3.0-bin-hadoop2.7.tgz,当配置好spark-env.sh,改好slaves文件之后,在sbin/目录下运行命令./start-all.sh来启动Spark时,发现没有报错,以为启动成功,但是在Spark的UI界面上看不到worker的信息。此时第一反应都是worker节点启动失败,然后会用jps命令去查看,但是惊喜地发现Wor
相关文章
相关标签/搜索