写在前面:该篇宕机问题的排查难度远比上一篇(记一次解决线上OOM的心路历程)大的太多,上一篇中内存泄漏的问题是有迹可循的,本次的宕机在业务日志上没有任何征兆,另外本文有许多值得深挖的点,但愿读者能找到本身感兴趣的点进行深挖,并将心得体会留言在评论区,让你们共同进步。java
现象:zabbix告警生产环境应用shutdown,经过堡垒机登入生产环境,查看应用容器进程,并发现没有该业务应用的相应进程,第一感受进程在某些条件下被系统杀死了,而后查看容器日志,发现均没异常可寻。api
问题:缓存
一、为什么会没有应用进程及异常的日志输出?若是真的是系统杀死了应用进程,是什么条件触发了它?tomcat
二、测试环境、UAT环境为什么从未有这样的状况,差异在哪?bash
排查: 并发
首先去查看生产环境系统资源状况及相应容器的配置,查得该台生产机器的总内存是8G:app
接着查看该应用所在容器环境的变量设置:less
#!/bin/sh # chkconfig: 345 88 14 # description: Tomcat Daemon set -m #Change to your Jdk directory SCRIPT_HOME=/home/appadmin/scripts/glink export JAVA_HOME=/Data/software/jdk1.8.0_65 #Change to your Tomcat directory CATALINA_HOME=/Data/software/tomcat-glink export JAVA_OPTS="-server -Xms512m -Xmx4G -XX:PermSize=128M -XX:MaxNewSize=512m -XX:MaxPermSize=256m -Djava.awt.headless=true -XX:+PrintGCDetails -XX:+PrintGCApplicationStoppedTime -XX:+PrintGCApplicationConcurrentTime -XX:+PrintGCTimeStamps -Xloggc:$CATALINA_HOME/logs/gc.log -Djava.awt.headless=true -Denv=prod -Dproject=GLINK -Dprofile=Production_us -Dallow.push=true -Dsave.directory=/Data/diamond/glink/config -Dcat.app.name=GLINK_PROD -Duser.timezone=GMT+08" # Determine and execute action based on command line parameter #-Ddiamond.conf.path=/Data/diamond/glink/diamond.properties echo "Starting Best Glink Tomcat..." DATE=`date "+%Y-%m-%d %H:%M:%S"` echo "$DATE : user $USER starts tomcat." >> $SCRIPT_HOME/start.log sh $CATALINA_HOME/bin/startup.sh
此处能够看到这里为java设置的最大内存为4G,接着咱们又查看了部署在本台机器上的另外一个应用环境的设置,结果和该应用同样,设置的内存大小为4G,咱们继续查看了该机器上的其余java应用,发现另外还部署了一个本地queue(activitymq),且设置的最大占用内存为1G,此时彷佛已经能够猜想,因为机器的总内存不够,当应用在申请新的内存时,因为环境变量设置的缘故并无去触发GC,而是直接申请内存,系统方发现总内存已经不够用,因而直接将该应用进程杀死。工具
为了验证上面的说法,咱们查找系统的相关日志:测试
less /var/log/messages
清晰地看到:Feb 23 00:01:09 us-app01 kernel: Out of memory: Kill process 14157 (java) score 619 or sacrifice child,此处说明的确是系统杀死了应用进程,根据这里的系统日志查询资料得知,系统会为每一块新分配的内存添加跟踪记录至low memory,当low memory的内存耗尽同时有须要新分配内存时,内核便会触发Kill process,此处为何系统选择了kill该应用进程,个人猜测是一该应用进程属于用户进程,它的结束并不会影响系统的正常运行,二是因为该应用最大可用内存设置的不合理性,须要新分配内存来存储对象就发生在其中。因为当时的进程已经被系统杀死,咱们没法得知当时具体内存的使用及分配状况,做为参考依据咱们选择查看相同环境下的另外一台机器的内存状况:
此处能够看出系统的总内存为7967m,low memory的总内存也为7967,(64位的系统,系统总内存与low memory相同),当前low memory已经使用7832(low memory = used + buff/cache)。
种种迹象代表:因为该应用及部署在同一台机器上的另外一个应用,其环境中最大可用内存设置的不合理(系统总内存8G,这两个应用的最大可用内存设置为4G,同时机器上还有一个本地queue)性,致使其内部在申请内存时因为系统的low memory被耗尽,触使系统杀死了该应用进程。
临时解决:
减小应用环境中的设置的最大可用内存,重启应用。
继续解决:
应用重启后的一段时间(几天后),咱们查看应用使用的内存状况:
咱们想到该应用知足的业务量很小并无那种数据量特别大的场景,为什么系统会使用掉这么多的内存呢,因而咱们决定对该应用从代码角度上进行一些可行的调优。
首先使用jmp dump出内存快照,并导入jprofiler,借助jprofiler进行分析:
从上图咱们能够看到char[]占用了651m的内存,String占用的是10m左右,显然这里对char类型的使用或者处理是有问题的,咱们进一步查看究竟是什么地方使用了char[],又有哪些大的char[]实例,以及其中都存了怎样的数据:
这里咱们看到有将近20个char[]实例的大小都超过了10m,其中最大的已然有30m,咱们再查看这里都存了哪些数据:
此处能够看到其中有一些业务数据的记录,另外其内存数据中还有部分公司内部任务中心的一些任务信息(此处就不截图出来了),因而咱们隐隐感受到是否是任务平台作了什么事情,好比收集日志什么的,咱们继续查看其引用状况:
看到此处的rabbit基本能够判定了就是任务中心client的引用,项目中其余地方并无用到rabbit,因而咱们找到任务中心的维护人员进行询问,他们的答案是不会去收集应用的日志的(咱们内心的答案也是这,又不是日志平台的client,任务中心团队不会作这么傻的事),然而咱们在char[]中的确看到的都是任务平台的信息这是怎么回事?因而咱们查看任务平台客户端的源码及对外的api,看看能有什么线索,最终锁定了一个问题,任务平台客户端使用了线程池,而且默认的线程池中线程最多为100(这个是有些坑,简单说明,任务中心是经过queue实现的,服务端发送任务消息,client收到后消费)。
咱们再看到截图中的线程,隐隐也是任务中心client的线程池中的线程,因而咱们进一步查找到底哪里才会使用char[],而且会有业务数据,查看全局代码后咱们发现对于应用中任务消息的处理器并无直接使用char[],组内一位同窗提醒是否是使用log4j打日志处理不当的缘由,想想就目前现状而言,这种说法说的通,因而咱们在每个任务处理器中查看日志上有没有大对象的输出,果真找到了一些(订单、库存等....)。
private List<AmazonOrderInfo> getAmazonOrderNotInLocal(CustomerSalesChannelVO channel) { List<AmazonOrderInfo> amazonOrderInfoList = new ArrayList<>(); try { Date nowTime = new Date(); Date toTime = new Date(nowTime.getTime() - 121000); Date fromTime = new Date(nowTime.getTime() - 720000); amazonOrderInfoList = amazonOrderService.getAmazonOrderInfoNotInLocal(channel, fromTime, toTime); BizLogger.info("get amazon new order when amazon inventory feedback, result : " + amazonOrderInfoList); } catch (Exception e) { BizLogger.syserror("getAmazonOrderNotInLocal error,", e); } return amazonOrderInfoList; } //获取本地amazon建立失败的平台订单暂用的库存量 private List<AmazonOrderItemVO> getAmazonErrorOrderInLocal(String customerCode) { AmazonOrderSO so = new AmazonOrderSO(); so.setCustomerCode(customerCode); so.setStatus(AmazonOrderStatus.ERROR); List<AmazonOrderItemVO> amazonOrderItemVOList = amazonOrderService.getAmazonOrderItemVOList(so); BizLogger.info("get amazon error order item in local when amazon inventory feedback, result : " + amazonOrderItemVOList); return amazonOrderService.getAmazonOrderItemVOList(so); }
if (CollectionUtils.isNotEmpty(inventoryAgeVOList)) { BizLogger.info("send inventoryAge message." + inventoryAgeVOList); sendInventoryAgeSyncMessage(asnVO.getCustomerCode(), inventoryAgeVOList); }
因而咱们查阅相关资料了解到log4j会将当前线程中被打印的最长记录的大小进行缓存,至此该问题已经说得通了。
因为任务中心的客户端启用了默认最大线程数为100的线程池,这些线程用来消费服务端发送过来的任务消息,该业务应用中配置不少关于库存、订单的相应任务,在这些具体任务消息的处理器中存在必定的大对象日志输出。因为线程是用线程池维护,每次执行完并不会被销毁掉,所以会存在大量的缓存区域。
这样也就能回答咱们最初设想的第二个问题:测试环境、UAT环境为什么从未有这样的状况,差异在哪?差异有四个地方:
最终处理方案:
(1)将任务中心客户端消费任务消息的线程池的最大线程数按照应用的实际状况改成10。
(2)去除对大对象的日志输出。
同时将任务中心客户端对于默认线程池的最大线程数设置的不合理性进行反馈,避免一样的事情发生在其余项目组。
总结:
一、当low memory被耗尽时,系统会kill掉不会影响自身稳定运行的用户进程。
二、应用上线程池的最大线程数的设置须要根据机器环境及应用自己进行合理设置,尤为要注意依赖消息实现的三方工具包中的线程次设置,避免被其引用的对象使用过量的缓存等。
三、在组内会议中明确,任务处理器中不容许有大对象的日志输出。