spark任务在运行时报错

1,当spark任务被kill的时候,要把spark.yarn.executor.memoryOverhead 设的大一点spa 2,当spark任务报oom内存不够时,要把能够把spark.executor.memory内存调大内存
相关文章
相关标签/搜索