Spark 出现Initial job has not accepted any resources

提交spark作业时,程序无法正常运行,一直显示 可能的原因是之前用ctrl +C终止spark程序的时候并没有能够让spark程序终止(正常是可以的,或者通过sparkUI kill掉程序),导致spark程序一直在后台死循环般的运行,让后来提交的spark程序一直处于等待状态中,如下 可以看到有个spark程序一直在运行,占用了所有的cpu内核,导致后面的程序一直处于等待中, 这个一直运行的s
相关文章
相关标签/搜索