spark报错:ERROR SparkUI: Failed to bind SparkUI,解决办法

错误缘由: 每个Spark任务都会占用一个SparkUI端口,默认为4040,若是被占用则依次递增端口重试。可是有个默认重试次数,为16次。16次重试都失败后,会放弃该任务的运行。 参考: http://blog.csdn.net/a921122/article/details/45095845html 解决办法 根据提示,能够在命令行经过配置,增长尝试的次数,具体来讲: /data/hadoop
相关文章
相关标签/搜索