为了更好地实现对项目的管理,咱们将组内一个项目迁移到MDP框架(基于Spring Boot),随后咱们就发现系统会频繁报出Swap区域使用量太高的异常。笔者被叫去帮忙查看缘由,发现配置了4G堆内内存,可是实际使用的物理内存居然高达7G,确实不正常。JVM参数配置是“-XX:MetaspaceSize=256M -XX:MaxMetaspaceSize=256M -XX:+AlwaysPreTouch -XX:ReservedCodeCacheSize=128m -XX:InitialCodeCacheSize=128m, -Xss512k -Xmx4g -Xms4g,-XX:+UseG1GC -XX:G1HeapRegionSize=4M”,实际使用的物理内存以下图所示:html
top命令显示的内存状况java
笔者在项目中添加-XX:NativeMemoryTracking=detail
JVM参数重启项目,使用命令jcmd pid VM.native_memory detail
查看到的内存分布以下:linux
jcmd显示的内存状况git
发现命令显示的committed的内存小于物理内存,由于jcmd命令显示的内存包含堆内内存、Code区域、经过unsafe.allocateMemory和DirectByteBuffer申请的内存,可是不包含其余Native Code(C代码)申请的堆外内存。因此猜想是使用Native Code申请内存所致使的问题。github
为了防止误判,笔者使用了pmap查看内存分布,发现大量的64M的地址;而这些地址空间不在jcmd命令所给出的地址空间里面,基本上就判定就是这些64M的内存所致使。spring
pmap显示的内存状况oracle
由于笔者已经基本上肯定是Native Code所引发,而Java层面的工具不便于排查此类问题,只能使用系统层面的工具去定位问题。框架
gperftools的使用方法能够参考gperftools,gperftools的监控以下:ide
gperftools监控spring-boot
从上图能够看出:使用malloc申请的的内存最高到3G以后就释放了,以后始终维持在700M-800M。笔者第一反应是:难道Native Code中没有使用malloc申请,直接使用mmap/brk申请的?(gperftools原理就使用动态连接的方式替换了操做系统默认的内存分配器(glibc)。)
由于使用gperftools没有追踪到这些内存,因而直接使用命令“strace -f -e”brk,mmap,munmap” -p pid”追踪向OS申请内存请求,可是并无发现有可疑内存申请。strace监控以下图所示:
strace监控
由于使用strace没有追踪到可疑内存申请;因而想着看看内存中的状况。就是直接使用命令gdp -pid pid
进入GDB以后,而后使用命令dump memory mem.bin startAddress endAddress
dump内存,其中startAddress和endAddress能够从/proc/pid/smaps中查找。而后使用strings mem.bin
查看dump的内容,以下:
gperftools监控
从内容上来看,像是解压后的JAR包信息。读取JAR包信息应该是在项目启动的时候,那么在项目启动以后使用strace做用就不是很大了。因此应该在项目启动的时候使用strace,而不是启动完成以后。
项目启动使用strace追踪系统调用,发现确实申请了不少64M的内存空间,截图以下:
strace监控
使用该mmap申请的地址空间在pmap对应以下:
strace申请内容对应的pmap地址空间
由于strace命令中已经显示申请内存的线程ID。直接使用命令jstack pid
去查看线程栈,找到对应的线程栈(注意10进制和16进制转换)以下:
strace申请空间的线程栈
这里基本上就能够看出问题来了:MCC(美团统一配置中心)使用了Reflections进行扫包,底层使用了Spring Boot去加载JAR。由于解压JAR使用Inflater类,须要用到堆外内存,而后使用Btrace去追踪这个类,栈以下:
btrace追踪栈
而后查看使用MCC的地方,发现没有配置扫包路径,默认是扫描全部的包。因而修改代码,配置扫包路径,发布上线后内存问题解决。
虽然问题已经解决了,可是有几个疑问:
带着疑问,笔者直接看了一下Spring Boot Loader那一块的源码。发现Spring Boot对Java JDK的InflaterInputStream进行了包装而且使用了Inflater,而Inflater自己用于解压JAR包的须要用到堆外内存。而包装以后的类ZipInflaterInputStream没有释放Inflater持有的堆外内存。因而笔者觉得找到了缘由,立马向Spring Boot社区反馈了这个bug。可是反馈以后,笔者就发现Inflater这个对象自己实现了finalize方法,在这个方法中有调用释放堆外内存的逻辑。也就是说Spring Boot依赖于GC释放堆外内存。
笔者使用jmap查看堆内对象时,发现已经基本上没有Inflater这个对象了。因而就怀疑GC的时候,没有调用finalize。带着这样的怀疑,笔者把Inflater进行包装在Spring Boot Loader里面替换成本身包装的Inflater,在finalize进行打点监控,结果finalize方法确实被调用了。因而笔者又去看了Inflater对应的C代码,发现初始化的使用了malloc申请内存,end的时候也调用了free去释放内存。
此刻,笔者只能怀疑free的时候没有真正释放内存,便把Spring Boot包装的InflaterInputStream替换成Java JDK自带的,发现替换以后,内存问题也得以解决了。
这时,再返过来看gperftools的内存分布状况,发现使用Spring Boot时,内存使用一直在增长,忽然某个点内存使用降低了好多(使用量直接由3G降为700M左右)。这个点应该就是GC引发的,内存应该释放了,可是在操做系统层面并无看到内存变化,那是否是没有释放到操做系统,被内存分配器持有了呢?
继续探究,发现系统默认的内存分配器(glibc 2.12版本)和使用gperftools内存地址分布差异很明显,2.5G地址使用smaps发现它是属于Native Stack。内存地址分布以下:
gperftools显示的内存地址分布
到此,基本上能够肯定是内存分配器在捣鬼;搜索了一下glibc 64M,发现glibc从2.11开始对每一个线程引入内存池(64位机器大小就是64M内存),原文以下:
glib内存池说明
按照文中所说去修改MALLOC_ARENA_MAX环境变量,发现没什么效果。查看tcmalloc(gperftools使用的内存分配器)也使用了内存池方式。
为了验证是内存池搞的鬼,笔者就简单写个不带内存池的内存分配器。使用命令gcc zjbmalloc.c -fPIC -shared -o zjbmalloc.so
生成动态库,而后使用export LD_PRELOAD=zjbmalloc.so
替换掉glibc的内存分配器。其中代码Demo以下:
#include<sys/mman.h> #include<stdlib.h> #include<string.h> #include<stdio.h> //做者使用的64位机器,sizeof(size_t)也就是sizeof(long) void* malloc ( size_t size ) { long* ptr = mmap( 0, size + sizeof(long), PROT_READ | PROT_WRITE, MAP_PRIVATE | MAP_ANONYMOUS, 0, 0 ); if (ptr == MAP_FAILED) { return NULL; } *ptr = size; // First 8 bytes contain length. return (void*)(&ptr[1]); // Memory that is after length variable } void *calloc(size_t n, size_t size) { void* ptr = malloc(n * size); if (ptr == NULL) { return NULL; } memset(ptr, 0, n * size); return ptr; } void *realloc(void *ptr, size_t size) { if (size == 0) { free(ptr); return NULL; } if (ptr == NULL) { return malloc(size); } long *plen = (long*)ptr; plen--; // Reach top of memory long len = *plen; if (size <= len) { return ptr; } void* rptr = malloc(size); if (rptr == NULL) { free(ptr); return NULL; } rptr = memcpy(rptr, ptr, len); free(ptr); return rptr; } void free (void* ptr ) { if (ptr == NULL) { return; } long *plen = (long*)ptr; plen--; // Reach top of memory long len = *plen; // Read length munmap((void*)plen, len + sizeof(long)); }
经过在自定义分配器当中埋点能够发现其实程序启动以后应用实际申请的堆外内存始终在700M-800M之间,gperftools监控显示内存使用量也是在700M-800M左右。可是从操做系统角度来看进程占用的内存差异很大(这里只是监控堆外内存)。
笔者作了一下测试,使用不一样分配器进行不一样程度的扫包,占用的内存以下:
内存测试对比
为何自定义的malloc申请800M,最终占用的物理内存在1.7G呢?
由于自定义内存分配器采用的是mmap分配内存,mmap分配内存按需向上取整到整数个页,因此存在着巨大的空间浪费。经过监控发现最终申请的页面数目在536k个左右,那实际上向系统申请的内存等于512k * 4k(pagesize) = 2G。 为何这个数据大于1.7G呢?
由于操做系统采起的是延迟分配的方式,经过mmap向系统申请内存的时候,系统仅仅返回内存地址并无分配真实的物理内存。只有在真正使用的时候,系统产生一个缺页中断,而后再分配实际的物理Page。
流程图
整个内存分配的流程如上图所示。MCC扫包的默认配置是扫描全部的JAR包。在扫描包的时候,Spring Boot不会主动去释放堆外内存,致使在扫描阶段,堆外内存占用量一直持续飙升。当发生GC的时候,Spring Boot依赖于finalize机制去释放了堆外内存;可是glibc为了性能考虑,并无真正把内存归返到操做系统,而是留下来放入内存池了,致使应用层觉得发生了“内存泄漏”。因此修改MCC的配置路径为特定的JAR包,问题解决。笔者在发表这篇文章时,发现Spring Boot的最新版本(2.0.5.RELEASE)已经作了修改,在ZipInflaterInputStream主动释放了堆外内存再也不依赖GC;因此Spring Boot升级到最新版本,这个问题也能够获得解决。
转载:https://tech.meituan.com/2019/01/03/spring-boot-native-memory-leak.html
原文出处:https://www.cnblogs.com/werewolfBoy/p/11065310.html