yarn资源memory与core计算配置

 

yarn调度分配主要是针对Memory与CPU进行管理分配,并将其组合抽象成container来管理计算使用node

 

 

memory配置apache

  计算每台机子最多能够拥有多少个container:oop

     containers = min (2*CORES, 1.8*DISKS, (Total available RAM) / MIN_CONTAINER_SIZE) 性能

 

   说明:优化

      CORES为机器CPU核数spa

      DISKS为机器上挂载的磁盘个数操作系统

      Total available RAM为机器总内存
      MIN_CONTAINER_SIZE是指container最小的容量大小,这须要根据具体状况去设置,能够参考下面的表格:
线程

                  

  每一个container的平均使用内存大小计算方式为:code

       RAM-per-container = max(MIN_CONTAINER_SIZE, (Total Available RAM) / containers)) blog

 

 相关配置调整说明:

1)yarn.nodemanager.resource.memory-mb
    表示该节点上YARN可以使用的物理内存总量,默认是8192(MB),注意,若是你的节点内存资源不够8GB,则须要调减少这个值,而YARN不会智能的探测节点的物理内存总量。

(2)yarn.nodemanager.vmem-pmem-ratio
    任务每使用1MB物理内存,最多可以使用虚拟内存量,默认是2.1。

(3) yarn.nodemanager.pmem-check-enabled
    是否启动一个线程检查每一个任务正使用的物理内存量,若是任务超出分配值,则直接将其杀掉,默认是true。

(4) yarn.nodemanager.vmem-check-enabled
    是否启动一个线程检查每一个任务正使用的虚拟内存量,若是任务超出分配值,则直接将其杀掉,默认是true。

(5)yarn.scheduler.minimum-allocation-mb
    单个container可申请的最少物理内存量,默认是1024(MB),若是一个任务申请的物理内存量少于该值,则该对应的值改成这个数。

(6)yarn.scheduler.maximum-allocation-mb
    单个container可申请的最多物理内存量,默认是8192(MB)。

  

  默认状况下,YARN采用了线程监控的方法判断任务是否超量使用内存,一旦发现超量,则直接将其杀死。因为Cgroups对内存的控制缺少灵活性(即任务任什么时候刻不能超过内存上限,若是超过,则直接将其杀死或者报OOM),而Java进程在建立瞬间内存将翻倍,以后骤降到正常值,这种状况下,采用线程监控的方式更加灵活(当发现进程树内存瞬间翻倍超过设定值时,可认为是正常现象,不会将任务杀死),所以YARN未提供Cgroups内存隔离机制。

 

 

CPU配置

  在yarn中使用的是虚拟CPU,这里的虚拟CPU是YARN本身引入的概念,初衷是,考虑到不一样节点的CPU性能可能不一样,每一个CPU具备的计算能力也是不同的,好比某个物理CPU的计算能力多是另一个物理CPU的2倍,这时候,你能够经过为第一个物理CPU多配置几个虚拟CPU弥补这种差别。用户提交做业时,能够指定每一个任务须要的虚拟CPU个数。在YARN中,CPU相关配置参数以下:

(1)yarn.nodemanager.resource.cpu-vcores
    表示该节点上YARN可以使用的虚拟CPU个数,默认是8,注意,目前推荐将该值设值为与物理CPU核数数目相同。
    若是你的节点CPU核数不够8个,则须要调减少这个值,而YARN不会智能的探测节点的物理CPU总数。

(2)yarn.scheduler.minimum-allocation-vcores
    单个任务可申请的最小虚拟CPU个数,默认是1,若是一个任务申请的CPU个数少于该数,则该对应的值改成这个数。

(3)yarn.scheduler.maximum-allocation-vcores
    单个任务可申请的最多虚拟CPU个数,默认是32。

  默认状况下,YARN是不会对CPU资源进行调度的,你须要配置相应的资源调度器让你支持,具体参看如下连接:

  (1)Hadoop YARN配置参数剖析(4)—Fair Scheduler相关参数

  (2)Hadoop YARN配置参数剖析(5)—Capacity Scheduler相关参数

 

  默认状况下,NodeManager不会对CPU资源进行任何隔离,你能够经过启用Cgroups让你支持CPU隔离。

因为CPU资源的独特性,目前这种CPU分配方式仍然是粗粒度的。举个例子,不少任务多是IO密集型的,消耗的CPU资源很是少,若是此时你为它分配一个CPU,则是一种严重浪费,你彻底可让他与其余几个任务公用一个CPU,也就是说,咱们须要支持更粒度的CPU表达方式。

  借鉴亚马逊EC2中CPU资源的划分方式,即提出了CPU最小单位为EC2 Compute Unit(ECU),一个ECU表明至关于1.0-1.2 GHz 2007 Opteron or 2007 Xeon处理器的处理能力。YARN提出了CPU最小单位YARN Compute Unit(YCU),目前这个数是一个整数,默认是720,由参数yarn.nodemanager.resource.cpu-ycus-per-core设置,表示一个CPU core具有的计算能力(该feature在2.2.0版本中并不存在,可能增长到2.3.0版本中),这样,用户提交做业时,直接指定须要的YCU便可,好比指定值为360,表示用1/2个CPU core,实际表现为,只使用一个CPU core的1/2计算时间。注意,在操做系统层,CPU资源是按照时间片分配的,你能够说,一个进程使用1/3的CPU时间片,或者1/5的时间片。对于CPU资源划分和调度的探讨,可参考如下几个连接:

https://issues.apache.org/jira/browse/YARN-1089

https://issues.apache.org/jira/browse/YARN-1024

Hadoop 新特性、改进、优化和Bug分析系列5:YARN-3

 

转载参考:董的博客

相关文章
相关标签/搜索