spark partition,task,core,等等对应关系

用户应用new SparkContext后,集群就会为在Worker上分配executor,可是增长executor的时候须要考虑好内存消耗,由于一台机器的内存分配给越多的executor,每一个executor的内存就越小,以至出现过多的数据spill over甚至out of memory的状况。CPU的core数量,每一个executor能够占用一个或多个core,能够经过观察CPU的使用率
相关文章
相关标签/搜索