上周线上某模块出现锁等待超时,以下图所示:
我虽然不是该模块负责人,但出于好奇,也一块儿帮忙排查定位问题。html
这里的业务背景就是在执行到某个地方时,须要去表中插入一批数据,这批数据须要根据数据类型分配流水号。这与个人select for update引起死锁分析提到的流水号分配差很少:经过数据库悲观锁实现多实例部署的流水号生成与分配。java
那么须要排查的问题很简单,为何获取流水号的时候会发生锁等待超时?
从上面截图中的异常栈中,咱们也能够看出:首先进入了带有@Transactional注解的方法,进入业务事务。而在须要分配流水号的时候经过IdManager分配流水号。
git
这里的getNextIdFromDb
是由同一个类的getIdsBySize
方法调用的,所以使用了编程式事务的方式来开启一个新事务。
TransactionHelper
是对Spring的TransactionTemplate
的封装,callInNewTransaction
方法就是使用一个传播行为为PROPAGATION_REQUIRES_NEW
的TransactionTemplate
。github
很显然,获取流水号走的是一个很小的事务,与业务事务并无混在一块儿。理论上来讲不该该出现有线程锁等待超时。sql
那么线上锁等待超时的时间是多少呢?
询问dba,从给出结果来看是默认的50秒。数据库
此时,陷入僵局。这看起来很不科学,那么小的事务怎么会有线程50秒拿不到锁?线上的并发度不可能致使这样的结果。编程
联系该模块负责的同事,要了服务器host和部署路径,登上去仔细查看日志。服务器
有一个重要的发现是,在上面的异常log前一些时候,有大量线程出现事务异常。其中包括文章一开始截图中的pool-32-thread-1
,但其中有一个线程pool-8-thread-1
在2018-04-12 13:21:23,066
打出了事务成功的日志。mybatis
这里就产生了一个猜测,这里全部的线程都是在争取流水号表上的锁,而此刻大量的事务在大约77秒后失败,只有一个事务成功了。这并不科学,由于线上数据库的锁等待超时时间为50秒。并发
顺藤摸瓜,往上面搜索pool-8-thread-1
的日志。
能够看到在2018-04-12 13:20:05,146
的时候pool-8-thread-1
已经获取到了id_record表的锁。
而在2018-04-12 13:21:23,049
的时候,pool-8-thread-1
才刚刚完成对id_record的更新。
MapperExecutionTimeLogger
是项目中的mybatis拦截器,用于在日志中打印sql执行耗时。
这里发现两个问题
pool-8-thread-1
更新流水号,很简单的一个sql用了将近78秒。这78秒到底发生了什么?
继续仔细翻阅,发现有两条相邻的日志时间差了78秒左右,前一条时间戳为2018-04-12 13:20:05,147
,后一条为2018-04-12 13:21:23,048
。这78秒内没有任何日志。
此时,已基本能够猜到多是Full GC,stop the world了。
经过公司的监控平台,观测该服务的堆内存使用状况以下:
在13:20分先后确实发生了一次很夸张的Full GC:从50g清理到20g。更可怕的是从图中能够看出,Full GC的频率至关高,大约每10多分钟就要来一次。
而后登录服务部署的服务器,翻阅GC日志,肯定当时存在一次Full GC。log以下所示
2018-04-12T13:20:05.151+0800: 870750.291: [GC (Allocation Failure) 2018-04-12T13:20:05.151+0800: 870750.291: [ParNew (promotion failed): 1341118K->1337043K(1380160K), 0.6976067 secs]2018-04-12T13:20:05.849+0800: 870750.989: [CMS: 49443246K->19463735K(61381056K), 77.1977735 secs] 50784220K->19463735K(62761216K), [Metaspace: 78507K->78507K(81920K)], 77.8959574 secs] [Times: user=85.78 sys=0.13, real=77.89 secs]
耗时77.89秒,与前面的日志排查中种种迹象吻合。
遂紧急联系同事,告知锁等待超时缘由与事务生效、表的大小都无关,乃Full GC所致,赶忙分析下GC日志调优。
导出线上的JVM参数来看:
-XX:MaxHeapSize=64424509440 最大堆大小60G -XX:MaxNewSize=1570308096 最大新生代1.5G -XX:MaxTenuringThreshold=6 进入老年代的前Minor GC次数 -XX:NewSize=528482304 新生代初始值大小
新生代:
总大小为1380160K(eden+一个survivor),其中eden区的大小为1226816K,一个survivor区的大小为153344K。
这里eden+两个survivor就构成了参数中的MaxNewSize=1570308096也就是1533504K。
老年代:
大小为61381056K。
这里已经能够看出young和old的比例很是夸张。
使用GCViewer工具能够分析GC日志(从2018-04-09 14:19:23到2018-04-13 10:33:33大约4天不到)。
能够看到有很是多的Full GC。
再来看一下致使锁等待超时的那次Full GC。
图中黑色的柱形表明的就是Full GC,横轴表示持续时长,高度中能够对应查看差很少在75-80秒之间。
蓝色线表明了使用的堆大小。而上下两块染色区域分别表示新生代和老年代的大小,能够看到比例很是夸张
另外,推荐一个分析GC的网站,很是好用。
查看build.gradle,配置的参数以下(和jcmd pid VM.flags相同):
applicationDefaultJvmArgs = ['-Xmx60G', '-XX:MaxPermSize=512M', '-XX:+UseConcMarkSweepGC', '-XX:+PrintGCDetails', '-XX:+PrintGCDateStamps', '-Xloggc:log/gc.log', '-XX:+UseGCLogFileRotation', '-XX:NumberOfGCLogFiles=10', '-XX:GCLogFileSize=20M']
而查看gc日志,能够看到
CommandLine flags: -XX:CICompilerCount=12 -XX:GCLogFileSize=20971520 -XX:InitialHeapSize=1585446912 -XX:MaxHeapSize=64424509440 -XX:MaxNewSize=1570308096 -XX:MaxTenuringThreshold=6 -XX:MinHeapDeltaBytes=1 96608 -XX:NewSize=528482304 -XX:NumberOfGCLogFiles=10 -XX:OldPLABSize=16 -XX:OldSize=1056964608 -XX:+PrintGC -XX:+PrintGCDateStamps -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -XX:+UseConcMarkSweepGC -XX:+ UseFastUnorderedTimeStamps -XX:+UseGCLogFileRotation -XX:+UseParNewGC
-XX:MaxHeapSize
64424509440=60G,没啥问题
-XX:MaxNewSize
1570308096=1.46G,什么鬼
在调研以后发现,这个实际上是JVM Ergonomics自动调的参数。Ergonomics是一种自适应调节策略,能够根据Java应用运行的系统自动的选择GC收集器的类型和堆大小以及工做模式(client or server),还会自动调节垃圾收集的参数。
因为咱们使用了CMS收集器,因此参考hotspot中src/share/vm/runtime/arguments.cpp
中void Arguments::set_cms_and_parnew_gc_flags
方法:
能够看到MaxNewSize的计算大体分为两步:
其中下对齐和上对齐的函数定义以下:
#define align_size_up_(size, alignment) (((size) + ((alignment) - 1)) & ~((alignment) - 1)) #define align_size_down_(size, alignment) ((size) & ~((alignment) - 1))
经过jinfo -flag ParallelGCThreads [pid]
和jinfo -flag CMSYoungGenPerWorker [pid]
确认线上服务-XX:ParallelGCThreads=18
以及-XX:CMSYoungGenPerWorker=67108864
那么下面的计算就很显然了:
preferred_max_new_size_unaligned = 1570347416 preferred_max_new_size = 1570349056 MaxNewSize = preferred_max_new_size = 1570349056
接下去在堆初始化的时候,还会再去作一次参数调整。
此时MaxNewSize与65536做一次下对齐,就算出最终MaxNewSize为1570308096,这与前面贴的参数一致。
说到底,实际上是没有显示设置新生代大小,踩了JVM Ergonomics在使用CMS收集器时自动调参的坑,调出了一个过小的(相比整个60G的堆)新生代容量。而且MaxTenuringThreshold=6,也就是说会有两个性能问题
整个GC日志中出现大量的promotion failed
和concurrent mode failure
。
模块负责人已经修改启动参数,显式指定新生代大小,并进行调优效果观察。目前已无Full GC的状况出现。
回顾:
现象是锁等待超时,而缘由却与数据库自己表大小、流水号事务是否生效全然无关。而是因为Full GC致使。
从Full GC日志来看,出现promotion failure,缘由无非两点:新生代过小survivor放不下,老年代碎片太多也放不下,触发Full GC。
再推一步,发现新生代大小实在太夸张,疑似是由于没有设置。
再日后面推,发现实际上是JVM Ergonomics对于使用CMS收集器的状况下自动进行参数设定所致。
启示: