Spark Executor在YARN上的内存分配

一个Executor对应一个JVM进程。java 从Spark的角度看,Executor占用的内存分为两部分:ExecutorMemory和MemoryOverheadapache         1、ExecutorMemory缓存 ExecutorMemory为JVM进程的Java堆区域。大小经过属性spark.executor.memory设置。也能够在spark-submit命令时用参数-
相关文章
相关标签/搜索