前言node
以前在实习时,听了 OOM 的分享以后,就对 Linux 内核内存管理充满兴趣,可是这块知识很是庞大,没有必定积累,不敢写下,担忧误人子弟,因此通过一个一段时间的积累,对内核内存有必定了解以后,今天才写下这篇博客,记录以及分享。mysql
【OOM - Out of Memory】内存溢出linux
内存溢出的解决办法:redis
一、等比例缩小图片算法
二、对图片采用软引用,及时进行 recycle( ) 操做。sql
三、使用加载图片框架处理图片,如专业处理图片的 ImageLoader 图片加载框架,还有XUtils 的 BitMapUtils 来处理。数组
这篇文章主要是分析了单个进程空间的内存布局与分配,是从全局的视角分析下内核对内存的管理;
缓存
下面主要从如下方面介绍 Linux 内存管理:服务器
进程的内存申请与分配;框架
内存耗尽以后 OOM;
申请的内存都在哪?
系统回收内存;
一、进程的内存申请与分配
以前有篇文章介绍 hello world 程序是如何载入内存以及是如何申请内存的,我在这,再次说明下:一样,仍是先给出进程的地址空间,我以为对于任何开发人员这张图是必须记住的,还有一张就是操做 disk ,memory 以及 cpu cache 的时间图。
当咱们在终端启动一个程序时,终端进程调用 exec 函数将可执行文件载入内存,此时代码段,数据段,bbs 段,stack 段都经过 mmap 函数映射到内存空间,堆则要根据是否有在堆上申请内存来决定是否映射。
exec 执行以后,此时并未真正开始执行进程,而是将 cpu 控制权交给了动态连接库装载器,由它来将该进程须要的动态连接库装载进内存。以后才开始进程的执行,这个过程能够经过 strace 命令跟踪进程调用的系统函数来分析。
这是我上篇博客认识 pipe 中的程序,从这个输出过程,能够看出和我上述描述的一致。
当第一次调用 malloc 申请内存时,经过系统调用 brk 嵌入到内核,首先会进行一次判断,是否有关于堆的 vma,若是没有,则经过 mmap 匿名映射一块内存给堆,并创建 vma 结构,挂到 mm_struct 描述符上的红黑树和链表上。
而后回到用户态,经过内存分配器(ptmaloc,tcmalloc,jemalloc)算法将分配到的内存进行管理,返回给用户所须要的内存。
若是用户态申请大内存时,是直接调用 mmap 分配内存,此时返回给用户态的内存仍是虚拟内存,直到第一次访问返回的内存时,才真正进行内存的分配。
其实经过 brk 返回的也是虚拟内存,可是通过内存分配器进行切割分配以后(切割就必须访问内存),全都分配到了物理内存
当进程在用户态经过调用 free 释放内存时,若是这块内存是经过 mmap 分配,则调用 munmap 直接返回给系统。
不然内存是先返回给内存分配器,而后由内存分配器统一返还给系统,这就是为何当咱们调用 free 回收内存以后,再次访问这块内存时,可能不会报错的缘由。
固然,当整个进程退出以后,这个进程占用的内存都会归还给系统。
今天早上去上班,恰好碰到了一块儿 OOM,忽然发现,OOM 一次,世界都安静下来了,哈哈,测试机上的 redis 被杀死了。
OOM 关键文件 oom_kill.c,里面介绍了当内存不够时,系统如何选择最应该被杀死的进程,选择因素有挺多的,除了进程占用的内存外,还有进程运行的时间,进程的优先级,是否为 root 用户进程,子进程个数和占用内存以及用户控制参数 oom_adj 都相关。
当产生 oom 以后,函数 select_bad_process 会遍历全部进程,经过以前提到的那些因素,每一个进程都会获得一个 oom_score 分数,分数最高,则被选为杀死的进程。
咱们能够经过设置 /proc//oom_adj 分数来干预系统选择杀死的进程。
这是内核关于这个oom_adj调整值的定义,最大能够调整为15,最小为-16,若是为-17,则该进程就像买了vip会员同样,不会被系统驱逐杀死了,所以,若是在一台机器上有跑不少服务器,且你不但愿本身的服务被杀死的话,就能够设置本身服务的 oom_adj 为-17。
固然,说到这,就必须提到另外一个参数 /proc/sys/vm/overcommit_memory,man proc 说明以下:
意思就是当 overcommit_memory 为0时,则为启发式oom,即当申请的虚拟内存不是很夸张的大于物理内存,则系统容许申请,可是当进程申请的虚拟内存很夸张的大于物理内存,则就会产生 OOM。
例如只有8g的物理内存,而后 redis 虚拟内存占用了24G,物理内存占用3g,若是这时执行 bgsave,子进程和父进程共享物理内存,可是虚拟内存是本身的,即子进程会申请24g的虚拟内存,这很夸张大于物理内存,就会产生一次OOM。
当 overcommit_memory 为1时,则永远都容许 overmemory 内存申请,即无论你多大的虚拟内存申请都容许,可是当系统内存耗尽时,这时就会产生oom,即上述的redis例子,在 overcommit_memory=1 时,是不会产生oom 的,由于物理内存足够。
当 overcommit_memory 为2时,永远都不能超出某个限定额的内存申请,这个限定额为 swap+RAM* 系数(/proc/sys/vm/overcmmit_ratio,默认50%,能够本身调整),若是这么多资源已经用光,那么后面任未尝试申请内存的行为都会返回错误,这一般意味着此时无法运行任何新程序
以上就是 OOM 的内容,了解原理,以及如何根据本身的应用,合理的设置OOM。
三、系统申请的内存都在哪?
我这里说申请的内存在哪,是由于物理内存有分为cache和普通物理内存,能够经过 free 命令查看,并且物理内存还有分 DMA,NORMAL,HIGH 三个区,这里主要分析cache和普通内存。
经过第一部分,咱们知道一个进程的地址空间几乎都是 mmap 函数申请,有文件映射和匿名映射两种。
咱们先来看下代码段和动态连接库映射段,这两个都是属于共享文件映射,也就是说由同一个可执行文件启动的两个进程是共享这两个段,都是映射到同一块物理内存,那么这块内存在哪了?我写了个程序测试以下:
咱们先看下当前系统的内存使用状况:
当我在本地新建一个1G的文件:
dd if=/dev/zero of=fileblock bs=M count=1024
而后调用上述程序,进行共享文件映射,此时内存使用状况为:
咱们能够发现,buff/cache 增加了大概1G,所以咱们能够得出结论,代码段和动态连接库段是映射到内核cache中,也就是说当执行共享文件映射时,文件是先被读取到 cache 中,而后再映射到用户进程空间中。
对于进程空间中的数据段,其必须是私有文件映射,由于若是是共享文件映射,那么同一个可执行文件启动的两个进程,任何一个进程修改数据段,都将影响另外一个进程了,我将上述测试程序改写成匿名文件映射:
在执行程序执行,须要先将以前的 cache 释放掉,不然会影响结果
echo 1 >> /proc/sys/vm/drop_caches
接着执行程序,看下内存使用状况:
从使用前和使用后对比,能够发现 used 和 buff/cache 分别增加了1G,说明当进行私有文件映射时,首先是将文件映射到 cache 中,而后若是某个文件对这个文件进行修改,则会从其余内存中分配一块内存先将文件数据拷贝至新分配的内存,而后再在新分配的内存上进行修改,这也就是写时复制。
这也很好理解,由于若是同一个可执行文件开启多个实例,那么内核先将这个可执行的数据段映射到 cache,而后每一个实例若是有修改数据段,则都将分配一个一块内存存储数据段,毕竟数据段也是一个进程私有的。
经过上述分析,能够得出结论,若是是文件映射,则都是将文件映射到 cache 中,而后根据共享仍是私有进行不一样的操做。
像 bbs 段,堆,栈这些都是匿名映射,由于可执行文件中没有相应的段,并且必须是私有映射,不然若是当前进程 fork 出一个子进程,那么父子进程将会共享这些段,一个修改都会影响到彼此,这是不合理的。
ok,如今我把上述测试程序改为私有匿名映射
这时再来看下内存的使用状况
咱们能够看到,只有 used 增长了1G,而 buff/cache 并无增加;说明,在进行匿名私有映射时,并无占用 cache,其实这也是有道理,由于就只有当前进程在使用这块这块内存,没有必要占用宝贵的 cache。
当咱们须要在父子进程共享内存时,就能够用到 mmap 共享匿名映射,那么共享匿名映射的内存是存放在哪了?我继续改写上述测试程序为共享匿名映射 。
这时来看下内存的使用状况:
从上述结果,咱们能够看出,只有buff/cache增加了1G,即当进行共享匿名映射时,这时是从 cache 中申请内存,道理也很明显,由于父子进程共享这块内存,共享匿名映射存在于 cache,而后每一个进程再映射到彼此的虚存空间,这样便可操做的是同一块内存。
当系统内存不足时,有两种方式进行内存释放,一种是手动的方式,另外一种是系统本身触发的内存回收,先来看下手动触发方式。
手动回收内存,以前也有演示过,即
echo 1 >> /proc/sys/vm/drop_caches
咱们能够在 man proc 下面看到关于这个的简介
从这个介绍能够看出,当 drop_caches 文件为1时,这时将释放 pagecache 中可释放的部分(有些 cache 是不能经过这个释放的),当 drop_caches 为2时,这时将释放 dentries 和 inodes 缓存,当 drop_caches 为3时,这同时释放上述两项。
关键还有最后一句,意思是说若是 pagecache 中有脏数据时,操做 drop_caches 是不能释放的,必须经过 sync 命令将脏数据刷新到磁盘,才能经过操做 drop_caches 释放 pagecache。
ok,以前有提到有些pagecache是不能经过drop_caches释放的,那么除了上述提文件映射和共享匿名映射外,还有有哪些东西是存在pagecache了?
4.2 tmpfs
咱们先来看下 tmpfs ,tmpfs 和 procfs,sysfs 以及 ramfs 同样,都是基于内存的文件系统,tmpfs 和 ramfs 的区别就是 ramfs 的文件基于纯内存的,和 tmpfs 除了纯内存外,还会使用 swap 交换空间,以及 ramfs 可能会把内存耗尽,而 tmpfs 能够限定使用内存大小,能够用命令 df -T -h 查看系统一些文件系统,其中就有一些是 tmpfs,比较出名的是目录 /dev/shm
tmpfs 文件系统源文件在内核源码 mm/shmem.c,tmpfs实现很复杂,以前有介绍虚拟文件系统,基于 tmpfs 文件系统建立文件和其余基于磁盘的文件系统同样,也会有 inode,super_block,identry,file 等结构,区别主要是在读写上,由于读写才涉及到文件的载体是内存仍是磁盘。
而 tmpfs 文件的读函数 shmem_file_read,过程主要为经过 inode 结构找到 address_space 地址空间,其实就是磁盘文件的 pagecache,而后经过读偏移定位cache 页以及页内偏移。
这时就能够直接从这个 pagecache 经过函数 __copy_to_user 将缓存页内数据拷贝到用户空间,当咱们要读物的数据不pagecache中时,这时要判断是否在 swap 中,若是在则先将内存页 swap in,再读取。
tmpfs 文件的写函数 shmem_file_write,过程主要为先判断要写的页是否在内存中,若是在,则直接将用户态数据经过函数__copy_from_user拷贝至内核pagecache中覆盖老数据,并标为 dirty。
若是要写的数据再也不内存中,则判断是否在swap 中,若是在,则先读取出来,用新数据覆盖老数据并标为脏,若是即不在内存也不在磁盘,则新生成一个 pagecache 存储用户数据。
由上面分析,咱们知道基于 tmpfs 的文件也是使用 cache 的,咱们能够在/dev/shm上建立一个文件来检测下:
看到了吧,cache 增加了1G,验证了 tmpfs 的确使用的 cache 内存。
其实 mmap 匿名映射原理也是用了 tmpfs,在 mm/mmap.c->do_mmap_pgoff 函数内部,有判断若是 file 结构为空以及为 SHARED 映射,则调用 shmem_zero_setup(vma) 函数在 tmpfs 上用新建一个文件
这里就解释了为何共享匿名映射内存初始化为0了,可是咱们知道用 mmap 分配的内存初始化为0,就是说 mmap 私有匿名映射也为0,那么体如今哪了?
这个在 do_mmap_pgoff 函数内部可没有体现出来,而是在缺页异常,而后分配一种特殊的初始化为0的页。
那么这个 tmpfs 占有的内存页能够回收吗?
也就是说 tmpfs 文件占有的 pagecache 是不能回收的,道理也很明显,由于有文件引用这些页,就不能回收。
posix 共享内存其实和 mmap 共享映射是同一个道理,都是利用在 tmpfs 文件系统上新建一个文件,而后再映射到用户态,最后两个进程操做同一个物理内存,那么 System V 共享内存是否也是利用 tmpfs 文件系统了?
咱们能够跟踪到下述函数
这个函数就是新建一个共享内存段,其中函数
shmem_kernel_file_setup
就是在 tmpfs 文件系统上建立一个文件,而后经过这个内存文件实现进程通讯,这我就不写测试程序了,并且这也是不能回收的,由于共享内存ipc机制生命周期是随内核的,也就是说你建立共享内存以后,若是不显示删除的话,进程退出以后,共享内存仍是存在的。
以前看了一些技术博客,说到 Poxic 和 System V 两套 ipc 机制(消息队列,信号量以及共享内存)都是使用 tmpfs 文件系统,也就是说最终内存使用的都是 pagecache,可是我在源码中看出了两个共享内存是基于 tmpfs 文件系统,其余信号量和消息队列还没看出来(有待后续考究)。
posix 消息队列的实现有点相似与 pipe 的实现,也是本身一套 mqueue 文件系统,而后在 inode 上的 i_private 上挂上关于消息队列属性 mqueue_inode_info,在这个属性上,内核2.6时,是用一个数组存储消息,而到了4.6则用红黑树了存储消息(我下载了这两个版本,具体何时开始用红黑树,没深究)。
而后两个进程每次操做都是操做这个 mqueue_inode_info 中的消息数组或者红黑树,实现进程通讯,和这个 mqueue_inode_info 相似的还有 tmpfs 文件系统属性shmem_inode_info 和为epoll服务的文件系统 eventloop,也有一个特殊属性struct eventpoll,这个是挂在 file 结构的 private_data 等等。
说到这,能够小结下,进程空间中代码段,数据段,动态连接库(共享文件映射),mmap 共享匿名映射都存在于 cache 中,可是这些内存页都有被进程引用,因此是不能释放的,基于 tmpfs 的 ipc 进程间通讯机制的生命周期是随内核,所以也是不能经过 drop_caches 释放。
虽然上述说起的cache不能释放,可是后面有提到,当内存不足时,这些内存是能够 swap out 的。
所以 drop_caches 能释放的就是当从磁盘读取文件时的缓存页以及某个进程将某个文件映射到内存以后,进程退出,这时映射文件的的缓存页若是没有被引用,也是能够被释放的。
当系统内存不够时,操做系统有一套自我整理内存,并尽量的释放内存机制,若是这套机制不能释放足够多的内存,那么只能 OOM 了。
以前在说起 OOM 时,说道 redis 由于 OOM 被杀死,以下:
第二句后半部分,
total-vm:186660kB, anon-rss:9388kB, file-rss:4kB
把一个进程内存使用状况,用三个属性进行了说明,即全部虚拟内存,常驻内存匿名映射页以及常驻内存文件映射页。
其实从上述的分析,咱们也能够知道一个进程其实就是文件映射和匿名映射:
文件映射:代码段,数据段,动态连接库共享存储段以及用户程序的文件映射段;
匿名映射:bbs段,堆,以及当 malloc 用 mmap 分配的内存,还有mmap共享内存段;
其实内核回收内存就是根据文件映射和匿名映射来进行的,在 mmzone.h 有以下定义:
LRU_UNEVICTABLE 即为不可驱逐页 lru,个人理解就是当调用 mlock 锁住内存,不让系统 swap out 出去的页列表。
简单说下 linux 内核自动回收内存原理,内核有一个 kswapd 会周期性的检查内存使用状况,若是发现空闲内存定于 pages_low,则 kswapd 会对 lru_list 前四个 lru 队列进行扫描,在活跃链表中查找不活跃的页,并添加不活跃链表。
而后再遍历不活跃链表,逐个进行回收释放出32个页,知道 free page 数量达到 pages_high,针对不一样的页,回收方式也不同。
固然,当内存水平低于某个极限阈值时,会直接发出内存回收,原理和 kswapd 同样,可是此次回收力度更大,须要回收更多的内存。
文件页:
若是是脏页,则直接回写进磁盘,再回收内存。
若是不是脏页,则直接释放回收,由于若是是io读缓存,直接释放掉,下次读时,缺页异常,直接到磁盘读回来便可,若是是文件映射页,直接释放掉,下次访问时,也是产生两个缺页异常,一次将文件内容读取进磁盘,另外一次与进程虚拟内存关联。
匿名页: 由于匿名页没有回写的地方,若是释放掉,那么就找不到数据了,因此匿名页的回收是采起 swap out 到磁盘,并在页表项作个标记,下次缺页异常在从磁盘 swap in 进内存。
swap 换进换出实际上是很占用系统IO的,若是系统内存需求忽然间迅速增加,那么cpu 将被io占用,系统会卡死,致使不能对外提供服务,所以系统提供一个参数,用于设置当进行内存回收时,执行回收 cache 和 swap 匿名页的,这个参数为:
意思就是说这个值越高,越可能使用 swap 的方式回收内存,最大值为100,若是设为0,则尽量使用回收 cache 的方式释放内存。
这篇文章主要是写了 linux 内存管理相关的东西:
首先是回顾了进程地址空间;
其次当进程消耗大量内存而致使内存不足时,咱们能够有两种方式:第一是手动回收 cache;另外一种是系统后台线程 swapd 执行内存回收工做。
最后当申请的内存大于系统剩余的内存时,这时就只会产生 OOM,杀死进程,释放内存,从这个过程,能够看出系统为了腾出足够的内存,是多么的努力啊。
做者:罗道文的私房菜
原文连接:http://luodw.cc/2016/08/13/linux-cache/