做为这个系列的第一篇,我先来描述一下slab系统。由于近些天有和同事,朋友讨论过这个主题,并且以为这个主 题还算比较典型,因此就做为第一篇了。其实按照操做系统理论来说,进程管理应该更加剧要些,按照我本身的兴趣来说,IO管理以及TCP/IP协议栈会更加 有份量,关于这些内容,我会陆续给出。
算法
Linux内核的slab来自一种很简单的思想,即事先准备好一些会频繁分配,释放的数据结构。然而标准的slab实现太复杂且维护开销巨大,所以便分化 出了更加小巧的slub,所以本文讨论的就是slub,后面全部提到slab的地方,指的都是slub。另外又因为本文主要描述内核优化方面的内容,并不 是基本原理介绍,所以想了解slab细节以及代码实现的请自行百度或者看源码。
缓存
下图给出了单CPU上slab在分配和释放对象时的情景序列:
网络
能够看出,很是之简单,并且彻底达到了slab设计之初的目标。
数据结构
如今咱们简单的将上面的模型扩展到多核心CPU,一样差很少的分配序列以下图所示:
负载均衡
咱们看到,在只有单一slab的时候,若是多个CPU同时分配对象,冲突是不可避免的,解决冲突的几乎是惟一的办法就是加锁排队,然而这将大大增长延迟,咱们看到,申请单一对象的整个时延从T0开始,到T4结束,这过久了。
多CPU无锁化并行化操做的直接思路-复制给每一个CPU一套相同的数据结构。
不二法门就是增长“每CPU变量”。对于slab而言,能够扩展成下面的样子:
框架
若是觉得这么简单就结束了,那这就太没有意义了。
ide
首先,咱们来看一个简单的问题,若是单独的某个CPU的slab缓存没有对象可分配了,可是其它CPU的slab缓存仍有大量空闲对象的状况,以下图所示:
优化
这 是可能的,由于对单独一种slab的需求是和该CPU上执行的进程/线程紧密相关的,好比若是CPU0只处理网络,那么它就会对skb等数据结构有大量的 需求,对于上图最后引出的问题,若是咱们选择从伙伴系统中分配一个新的page(或者pages,取决于对象大小以及slab cache的order),那么长此以往就会形成slab在CPU间分布的不均衡,更可能会所以吃掉大量的物理内存,这都是不但愿看到的。
在继续以前,首先要明确的是,咱们须要在CPU间均衡slab,而且这些必须靠slab内部的机制自行完成,这个和进程在CPU间负载均衡是彻底不一样的, 对进程而言,拥有一个核心调度机制,好比基于时间片,或者虚拟时钟的步进速率等,可是对于slab,彻底取决于使用者自身,只要对象仍然在使用,就不能剥 夺使用者继续使用的权利,除非使用者本身释放。所以slab的负载均衡必须设计成合做型的,而不是抢占式的。
好了。如今咱们知道,从伙伴系统从新分配一个page(s)并非一个好主意,它应该是最终的决定,在执行它以前,首先要试一下别的路线。
如今,咱们引出第二个问题,以下图所示:
spa
谁 也不能保证分配slab对象的CPU和释放slab对象的CPU是同一个CPU,谁也不能保证一个CPU在一个slab对象的生命周期内没有分配新的 page(s),这期间的复杂操做谁也没有规定。这些问题该怎么解决呢?事实上,理解了这些问题是怎么解决的,一个slab框架就完全理解了。
操作系统
无级变速老是让人向往。
若是一个CPU的slab缓存满了,直接去抢同级别的别的CPU的slab缓存被认为是一种鲁莽且不道义的作法。那么为什么不设置另一个slab缓存,获 取它里面的对象不像直接获取CPU的slab缓存那么简单且直接,可是难度却又不大,只是稍微增长一点消耗,这不是很好吗?事实上,CPU的 L1,L2,L3 cache不就是这个方案设计的吗?这事实上已经成为cache设计的不二法门。这个设计思想一样做用于slab,就是Linux内核的slub实现。
如今能够给出概念和解释了。
Linux kernel slab cache:一个分为3层的对象cache模型。
Level 1 slab cache:一个空闲对象链表,每一个CPU一个的独享cache,分配释放对象无需加锁。
Level 2 slab cache:一个空闲对象链表,每一个CPU一个的共享page(s) cache,分配释放对象时仅须要锁住该page(s),与Level 1 slab cache互斥,不互相包容。
Level 3 slab cache:一个page(s)链表,每一个NUMA NODE的全部CPU共享的cache,单位为page(s),获取后被提高到对应CPU的Level 1 slab cache,同时该page(s)做为Level 2的共享page(s)存在。
共享page(s):该page(s)被一个或者多个CPU占 有,每个CPU在该page(s)上均可以拥有互相不充图的空闲对象链表,该page(s)拥有一个惟一的Level 2 slab cache空闲链表,该链表与上述一个或多个Level 1 slab cache空闲链表亦不冲突,多个CPU获取该Level 2 slab cache时必须争抢,获取后能够将该链表提高成本身的Level 1 slab cache。
该slab cache的图示以下:
其行为以下图所示:
对于常规的对象分配过程,下图展现了其细节:
事实上,对于多个CPU共享一个page(s)的状况,还能够有另外一种玩法,以下图所示:
前面咱们简短的体会了Linux内核的slab设计,不宜过长,太长了不易理解.可是最后,若是Level 3也没有获取page(s),那么最终会落到终极的伙伴系统。
伙伴系统是为了防内存分配碎片化的,因此它尽量地作两件事:
咱们能够经过下面的图解来理解上面的原则:
注意,本文是关于优化的,不是伙伴系统的科普,因此我假设你们已经理解了伙伴系统。
鉴于slab缓存对象大多数都是不超过1个页面的小结构(不只仅slab系统,超过1个页面的内存需求相比1个页面的内存需求,不多),所以会有大量的针 对1个页面的内存分配需求。从伙伴系统的分配原理可知,若是持续大量分配单一页面,会有大量的order大于0的页面分裂成单一页面,在单核心CPU上, 这不是问题,可是在多核心CPU上,因为每个CPU都会进行此类分配,而伙伴系统的分裂,合并操做会涉及大量的链表操做,这个锁开销是巨大的,所以须要 优化!
Linux内核对伙伴系统针对单一页面的分配需求采起的批量分配“每CPU单一页面缓存”的方式!
每个CPU拥有一个单一页面缓存池,须要单一页面的时候,能够无需加锁从当前CPU对应的页面池中获取页面。而当池中页面不足时,系统会批量从伙伴系统中拉取一堆页面到池中,反过来,在单一页面释放的时候,会择优将其释放到每CPU的单一页面缓存中。
为了维持“每CPU单一页面缓存”中页面的数量不会太多或太少(太多会影响伙伴系统,太少会影响CPU的需求),系统保持了两个值,当缓存页面数量低于 low值的时候,便从伙伴系统中批量获取页面到池中,而当缓存页面数量大于high的时候,便会释放一些页面到伙伴系统中。
多 CPU操做系统内核中,关键的开销就是锁的开销。我认为这是一开始的设计致使的,由于一开始,多核CPU并无出现,单核CPU上的共享保护几乎都是能够 用“禁中断”,“禁抢占”来简单实现的,到了多核时代,操做系统一样简单平移到了新的平台,所以同步操做是在单核的基础上后来添加的。简单来说,目前的主 流操做系统都是在单核年代创造出来的,所以它们都是顺应单核环境的,对于多核环境,可能它们一开始的设计就有问题。
无论怎么说,优化操做的不二法门就是禁止或者尽可能减小锁的操做。随之而来的思路就是为共享的关键数据结构建立"每CPU的缓存“,而这类缓存分为两种类型:
好比路由表之类的数据结构,你能够用RCU锁来保护,固然若是为每个CPU都建立一个本地路由表缓存,也是不错的,如今的问题是什么时候更新它们,由于全部的缓存都是平级的,所以一种批量同步的机制是必须的。
比 如slab对象缓存这类,其生命周期彻底取决于使用者,所以不存在同步问题,然而却存在管理问题。采用分级cache的思想是好的,这个很是相似于CPU 的L1/L2/L3缓存,采用这种平滑的开销逐渐增大,容量逐渐增大的机制,并配合以设计良好的换入/换出等算法,效果是很是明显的。