spark内存溢出

spark执行任务时出现java.lang.OutOfMemoryError: GC overhead limit exceeded和java.lang.OutOfMemoryError: java heap spacejava 最直接的解决方式就是在spark-env.sh中将下面两个参数调节的尽可能大node     export SPARK_EXECUTOR_MEMORY=2g     ex
相关文章
相关标签/搜索