NUMA微架构

NUMA微架构

September 8th, 2011  no comment

如今开始补日志,逐步的扫清之前写了一半的和“欠帐未还的”。半年以前开的头,今天先把NUMA说完。node

PC硬件结构近5年的最大变化是多核CPU在PC上的普及,多核最经常使用的SMP微架构:redis

  1. 多个CPU之间是平等的,无主从关系(对比IBM Cell);
  2. 多个CPU平等的访问系统内存,也就是说内存是统一结构、统一寻址的(UMA,Uniform Memory Architecture);
  3. CPU到CPU的访问必须经过系统总线。

结构如图所示:api

SMP的问题主要在CPU和内存之间的通讯延迟较大、通讯带宽受限于系统总线带宽,同时总线带宽会成为整个系统的瓶颈。架构

由此应运而生了NUMA架构:并发

NUMA(Non-Uniform Memory Access)是起源于AMD Opteron的微架构,同时被Intel Nehalem采用(英特尔志强E5500以上的CPU和桌面的i三、i五、i7均基于此架构)。这也应该是继AMD64后AMD对CPU架构的又一项重要改进。memcached

在这个架构中,每一个处理器有其能够直接访问其自身的“本地”内存池,使CPU和这块儿内存之间拥有更小的延迟和更大的带宽。并且整个内存仍然可作为一个总体,能够接受来自任何CPU的访问。简言之就是CPU访问本身领地内的内存延迟最小独占带宽,访问其余的内存区域稍慢而且共享带宽。post

GNU/Linux如何管理NUMA:测试

  1. probe硬件,了解物理CPU数量,内存大小等;
  2. 根据物理CPU的数量(不是core)分配node,一个物理CPU对应一个node;
  3. 把属于一个node的内存模块和其node相联系;
  4. 测试各个CPU到各个内存区域的通讯延迟;

在一台16GB内存,双Xeon E5620 CPU Dell R710用numactl获得如下信息:优化

# numactl --hardwarespa

available: 2 nodes (0-1)

node 0 size: 8080 MB

node 0 free: 5643 MB

node 1 size: 8051 MB

node 1 free: 2294 MB

node distances:

node 0 1

0: 10 20

1: 20 10

  • 第一列node0和node1就是对应物理CPU0和CPU1;
  • size就是指在此节点NUMA分配的内存总数;
  • free是指此节点NUMA的内存空闲数量;
  • node distances就是指node到各个内存节点之间的距离,默认状况10是指本地内存,21是指跨区域访问。

由于就近内存访问的快速性,因此默认状况下一个CPU只访问其所属区域的内存空间。此时形成的问题是在大内存占用的一些应用时会有CPU近线内存不够的状况,可使用以下方式把CPU对内存区域的访问变为round robin方式。此时须要经过如下方式修改:

# echo 0 > /proc/sys/vm/zone_reclaim_mode

# numactl --interleave=all

memcached、redis、monodb等应该作以上的优化修改。

另外,若是有时间,下一篇会总结一下本身对于此问题的思考:若是本身实现一个内存池,并发挥NUMA架构的最大效能,如何设计?

参考自:

Http://En.Wikipedia.Org/Wiki/Non-Uniform_Memory_Access

Ulrich Drepper, Memory part 4: NUMA support Http://Lwn.Net/Articles/254445/

Http://Www.Kernel.Org/Doc/Documentation/Sysctl/Vm.Txt

相关文章
相关标签/搜索