一次 Java 内存泄漏的排查

由来


前些日子小组内安排值班,轮流看顾咱们的服务,主要作一些报警邮件处理、Bug 排查、运营 issue 处理的事。工做日还好,不管干什么都要上班的,如果轮到周末,那这一天算是毁了。java

不知道是公司网络广了就这样仍是网络运维组不给力,网络总有问题,不是这边交换机脱网了就是那边路由器坏了,还偶发地各类超时,而咱们灵敏地服务探测服务总能准确地抓住偶现的小问题,给美好的工做加点料。好几回值班组的小伙伴们一块儿吐槽,商量着怎么避过服务保活机制,偷偷停了探测服务而不让人发现(虽然也并不敢)。git

前些天我就在周末处理了一次探测服务的锅。github

转载随意,文章会持续修订,请注明来源地址:https://zhenbianshu.github.io 。shell

问题


网络问题?

晚上七点多开始,我就开始不停地收到报警邮件,邮件显示探测的几个接口有超时状况。 多数执行栈都在:json

java.io.BufferedReader.readLine(BufferedReader.java:371) java.io.BufferedReader.readLine(BufferReader.java:389) java_io_BufferedReader$readLine.call(Unknown Source) com.domain.detect.http.HttpClient.getResponse(HttpClient.groovy:122) com.domain.detect.http.HttpClient.this$2$getResponse(HttpClient.groovy) 

这个线程栈的报错我见得多了,咱们设置的 HTTP DNS 超时是 1s, connect 超时是 2s, read 超时是 3s,这种报错都是探测服务正常发送了 HTTP 请求,服务器也在收到请求正常处理后正常响应了,但数据包在网络层层转发中丢失了,因此请求线程的执行栈会停留在获取接口响应的地方。这种状况的典型特征就是能在服务器上查找到对应的日志记录。并且日志会显示服务器响应彻底正常。 与它相对的还有线程栈停留在 Socket connect 处的,这是在建连时就失败了,服务端彻底无感知。服务器

我注意到其中一个接口报错更频繁一些,这个接口须要上传一个 4M 的文件到服务器,而后通过一连串的业务逻辑处理,再返回 2M 的文本数据,而其余的接口则是简单的业务逻辑,我猜想多是须要上传下载的数据太多,因此超时致使丢包的几率也更大吧。网络

根据这个猜测,群登上服务器,使用请求的 request_id 在近期服务日志中搜索一下,果不其然,就是网络丢包问题致使的接口超时了。多线程

固然这样 leader 是不会满意的,这个结论还得有人接锅才行。因而赶忙联系运维和网络组,向他们确认一下当时的网络状态。网络组同窗回复说是咱们探测服务所在机房的交换机老旧,存在未知的转发瓶颈,正在优化,这让我更放心了,因而在部门群里简单交待一下,算是完成任务。app

问题爆发

本觉得此次值班就起这么一个小波浪,结果在晚上八点多,各类接口的报警邮件蜂拥而至,打得准备收拾东西过周日单休的我措手不及。运维

此次几乎全部的接口都在超时,而咱们那个大量网络 I/O 的接口则是每次探测必超时,难道是整个机房故障了么。

我再次经过服务器和监控看到各个接口的指标都很正常,本身测试了下接口也彻底 OK,既然不影响线上服务,我准备先经过探测服务的接口把探测任务停掉再慢慢排查。

结果给暂停探测任务的接口发请求很久也没有响应,这时候我才知道没这么简单。

解决


内存泄漏

因而赶快登录探测服务器,首先是 top free df 三连,结果还真发现了些异常。

咱们的探测进程 CPU 占用率特别高,达到了 900%。

咱们的 Java 进程,并不作大量 CPU 运算,正常状况下,CPU 应该在 100~200% 之间,出现这种 CPU 飙升的状况,要么走到了死循环,要么就是在作大量的 GC。

使用 jstat -gc pid [interval] 命令查看了 java 进程的 GC 状态,果真,FULL GC 达到了每秒一次。

这么多的 FULL GC,应该是内存泄漏没跑了,因而 使用 jstack pid > jstack.log 保存了线程栈的现场,使用 jmap -dump:format=b,file=heap.log pid 保存了堆现场,而后重启了探测服务,报警邮件终于中止了。

jstat

jstat 是一个很是强大的 JVM 监控工具,通常用法是: jstat [-options] pid interval

它支持的查看项有:

  • -class 查看类加载信息
  • -compile 编译统计信息
  • -gc 垃圾回收信息
  • -gcXXX 各区域 GC 的详细信息 如 -gcold

使用它,对定位 JVM 的内存问题颇有帮助。

排查


问题虽然解决了,但为了防止它再次发生,仍是要把根源揪出来。

分析栈

栈的分析很简单,看一下线程数是否是过多,多数栈都在干吗。

> grep 'java.lang.Thread.State' jstack.log | wc -l > 464 

才四百多线程,并没有异常。

> grep -A 1 'java.lang.Thread.State' jstack.log | grep -v 'java.lang.Thread.State' | sort | uniq -c |sort -n 10 at java.lang.Class.forName0(Native Method) 10 at java.lang.Object.wait(Native Method) 16 at java.lang.ClassLoader.loadClass(ClassLoader.java:404) 44 at sun.nio.ch.EPollArrayWrapper.epollWait(Native Method) 344 at sun.misc.Unsafe.park(Native Method) 

线程状态好像也无异常,接下来分析堆文件。

下载堆 dump 文件。

堆文件都是一些二进制数据,在命令行查看很是麻烦,Java 为咱们提供的工具都是可视化的,Linux 服务器上又无法查看,那么首先要把文件下载到本地。

因为咱们设置的堆内存为 4G,因此 dump 出来的堆文件也很大,下载它确实很是费事,不过咱们能够先对它进行一次压缩。

gzip 是个功能很强大的压缩命令,特别是咱们能够设置 -1 ~ -9 来指定它的压缩级别,数据越大压缩比率越大,耗时也就越长,推荐使用 -6~7, -9 实在是太慢了,且收益不大,有这个压缩的时间,多出来的文件也下载好了。

使用 MAT 分析 jvm heap

MAT 是分析 Java 堆内存的利器,使用它打开咱们的堆文件(将文件后缀改成 .hprof), 它会提示咱们要分析的种类,对于此次分析,果断选择 memory leak suspect

从上面的饼图中能够看出,绝大多数堆内存都被同一个内存占用了,再查看堆内存详情,向上层追溯,很快就发现了罪魁祸首。

分析代码

找到内存泄漏的对象了,在项目里全局搜索对象名,它是一个 Bean 对象,而后定位到它的一个类型为 Map 的属性。

这个 Map 根据类型用 ArrayList 存储了每次探测接口响应的结果,每次探测完都塞到 ArrayList 里去分析,因为 Bean 对象不会被回收,这个属性又没有清除逻辑,因此在服务十来天没有上线重启的状况下,这个 Map 愈来愈大,直至将内存占满。

内存满了以后,没法再给 HTTP 响应结果分配内存了,因此一直卡在 readLine 那。而咱们那个大量 I/O 的接口报警次数特别多,估计跟响应太大须要更多内存有关。

给代码 owner 提了 PR,问题圆满解决。

小结


其实仍是要检讨一下本身的,一开始报警邮件里还有这样的线程栈:

groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:166) groovy.json.internal.JsonParserCharArray.decodeJsonObject(JsonParserCharArray.java:132) groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:186) groovy.json.internal.JsonParserCharArray.decodeJsonObject(JsonParserCharArray.java:132) groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:186) 

看到这种报错线程栈却没有细想,要知道 TCP 是能保证消息完整性的,何况消息没有接收完也不会把值赋给变量,这种很明显的是内部错误,若是留意后细查是能提早查出问题所在的,查问题真是差了哪一环都不行啊。

关于本文有什么疑问能够在下面留言交流,若是您以为本文对您有帮助,欢迎关注个人 微博 或 GitHub 。您也能够在个人 博客REPO 右上角点击 Watch 并选择 Releases only 项来 订阅 个人博客,有新文章发布会第一时间通知您。

相关文章
相关标签/搜索