在TARN中,资源管理由RescoueceManager和NodeManager共同完成,其中,Resourcemanager中的调度器负责资源分配,而NodeManager则负责资源的供给和隔离。node
ResourceManager将某个Nodemanager上资源分配给任务(这就是所谓的资源调度)后,NodeManager需按照要求为任务提供相应的资源,甚至保证这些资源应具备独占性,为任务运行提供基础保证,这就是所谓的资源隔离。性能
基于以上考虑,YARN容许用户配置每、个节点上可用的物理内存资源,注意,这里是“可用的”,由于一个节点上的内存会被若干个服务共享,好比一部分给YARN,一部分给HDFS,一部分给HBase等,YARN配置的只是本身可使用的,配置参数以下:spa
(1)yarn.nodemanager.resource.memory-mb 线程
表示该节点上YARN可以使用的物理内存总量,默认是8192MB,注意,若是你的节点内存资源不够8G,则须要调减少这个值,而YARN不会智能的探测节点的物理内存总量。blog
上边这两个参数是有关联的,若是yarn.nodemanager.resource.detect-hardware-capabilities 为true而且yarn.nodemanager.resource.memory-mb 为-1,那么内存
yarn.nodemanager.resource.memory-mb是自动计算,若是不是则yarn.nodemanager.resource.memory-mb=8G(默认)资源
(2)yarn.scheduler.minimum-allocation-mb it
单个任务可申请的最少内存,默认时1024M,若是一个任务申请的物理内存量少于该值,则该对应的值减小位这个数io
(3)yarn.scheduler.maximum-allocation-mbclass
单个任务可申请的最大内存,默认时8192M
(4)yarn.nodemanager.pmem-check-enabled true
是否启动一个线程检查每一个任务正在使用的物理内存量,若是任务超出分配值,直接将他杀掉,默认是True
(5)yarn.nodemanager.vmem-check-enabled true
是否启动一个线程检查每一个任务正在使用的虚拟内存量,若是任务超出分配值,直接将他杀掉,默认是True
(6)yarn.nodemanager.vmem-pmem-ratio 2.1
任务每使用1M的物理内存,最多可以使用的虚拟内存量
目前的CPU被划分红虚拟CPU(CPU virtual Core),这里的虚拟CPU是YARN本身引入的概念,初衷是,考虑到不一样节点的CPU性能可能不一样,每一个CPU具备的计算能力也是不同的,好比某个物理CPU的计算能力多是另一个物理CPU的2倍,这时候,你能够经过为第一个物理CPU多配置几个虚拟CPU弥补这种差别。用户提交做业的时候,能够指定每一个任务须要的虚拟CPU个数。在YARN中,CPU相关配置参数以下:
(7) yarn.nodemanager.resource.cpu-vcores 12
表示该节点上YARN可以使用的虚拟CPU个数,默认是8,目前推荐将该值设置位与物理CPU核数数目相同。若是物理CPU核数不够8,则须要调小这个值,而YARN不 会智能的探测物理CPU总数。
(8) yarn.scheduler.minimum-allocation-vcores 1
单个任务可申请的最小CPU个数,默认是1,若是一个任务申请的CPU个数小于该数,则将该数改成这个数。
(9) yarn.scheduler.maximum-allocation-vcores 4
单个任务可申请的最大CPU个数,默认是4
container: 容器个数的判别标准有两个维度
一个是物理内存,一个是CPU
memory 16c~4c
vcores 12c~3c
总结: yarn的在调优时候要综合考虑CPU和内存的分配,尽可能保证不要空出多余的资源,假如container总内存30,container最小2G,总vcore8 container 最小1c
那么咱们内存能够启动最多15个container,cpu最多启动8个container,最终能够启动8个container,会有至关多的内存没有用到。因此生产上的调优配置须要综合考量内存和 CPU的配比。