spark任务提交到yarn上,状态一直Accepted且不停止不报错

运行Spark集群时状态一直为Accepted且不停止不报错,如下面这样的情况: 一般是由于有多个用户同时向集群提交任务或一个用户向集群同时提交了多个任务导致Yarn资源的分配错误。解决这个问题,只需要更改Hadoop的配置文件:/etc/hadoop/conf/capacity-scheduler.xml,把选项:yarn.scheduler.capacity.maximum-am-resour
相关文章
相关标签/搜索