mongodb内核、wiredtiger存储引擎、rocksdb存储引擎相关源码分析详见(后续持续更新):html
https://github.com/y123456yz/reading-and-annotate-mongodb-3.6.1ios
舒适提示:在进行本下篇优化文章阅读前,能够提早了解下《百万级高并发mongodb集群性能数十倍提高优化实践(上篇)》的问题背景及优化方法,这样能够更好的了解和学习本篇性能优化下篇的内容。git
《百万级高并发mongodb集群性能数十倍提高优化实践(上篇)》地址: http://www.javashuo.com/article/p-fxejmouc-ha.htmlgithub
2. 背景mongodb
线上某集群峰值TPS超过100万/秒左右(主要为写流量,读流量很低,读写流量作了主从读写分离,读流量走从节点,qps数百上千),峰值tps几乎已经到达集群上限,同时平均时延也超过100ms,随着读写流量的进一步增长,时延抖动严重影响业务可用性。该集群采用mongodb自然的分片模式架构,数据均衡的分布于各个分片中,添加片键启用分片功能后实现完美的负载均衡。集群每一个节点流量监控以下图所示:数据库
从上图能够看出集群流量比较大,峰值已经突破120万/秒,其中delete过时删除的流量不算在总流量里面(delete由主触发删除,可是主上面不会显示,只会在从节点拉取oplog的时候显示)。若是算上主节点的delete流量,总tps超过150万/秒。缓存
在《百万级高并发mongodb集群性能数十倍提高优化实践(上篇)》中,咱们经过业务优化、mongodb服务层配置优化、wiredtiger存储引擎层优化及硬件IO优化后,客户端整体时延从几百ms迟控制到了2-5ms左右,整体性能有了很大的提高,可是当有超大流量写冲击的时候,会有几十ms时延抖动,几个不一样接口的时延以下图所示:性能优化
3. 硬件问题回顾及遗留问题服务器
在《上篇》文章中,咱们经过定位nvme ssd硬件的IO问题后,和厂商一块儿分析后发现IO问题是由于操做系统版本不对引发,因而开始对线上的主从mongod实例的服务器硬件进行升级,升级后开始替换线上该集群的实例。具体操做过程以下:网络
为了谨慎保险起见,经过上面的硬件替换升级过程,咱们只替换了全部分片的主节点,提后先后架构发生了变化,原有集群硬件架构以下图所示:
从上图可知,新的集群架构,主从节点服务器IO能力有比较大的差距。最开始我认为业务方默认没有设置WriteConncern,也就是默认写入到Primary就向客户端发送确认,所以不会影响业务写入。
全部分片主节点升级为高IO服务器后,多个业务接口的时间访问延迟降到了平均2-4ms左右,可是在超大流量冲击的时候,仍是有几十ms的尖刺,我选取一个接口的时延为例,以下图所示:
从上图能够看出,特别是在大流量冲击的时间点,尖刺越明显。
4. 主节点硬件升级后优化
在上一节,咱们替换了分片的全部主节点为高IO服务器,从节点仍是之前未升级的低IO服务器。因为业务方默认没有设置WriteConncern,所以我认为客户端写到主成功就会返回客户端OK,即便从服务器性能差也不会影响客户端写主。
在升级主服务器后,我继续优化存储引擎把eviction_dirty_trigger:25%调整到了30%。
因为在超大流量的高并发冲击,会从平峰期的几十万TPS瞬间飙升到百万级别,并且该毛刺几乎天天都会出现两三次,比较容易复现。因而提早部署好mongostat监控全部实例,同时在每一个服务器上用Iostat监控实时的IO情况,同时编写脚本实时采集db.serverstatus()、db.printSlaveReplicationInfo()、db.printReplicationInfo()等集群重要信息。
当某个时间点监控出现毛刺后,因而开始分析mongostat,咱们发现一个问题,即便在平峰期,脏数据比例也会持续增加到阀值(30%),咱们知道当脏数据比例超过eviction_dirty_trigger:30%阀值,用户线程就会进行evict淘汰,这样用户线程就会阻塞直到腾出内存空间,所以淘汰刷盘过程很慢。分析平峰期毛刺时间点对应的mongostat监控,发现以下状况:
从上图能够看出,集群TPS才40-50万左右的时候某个分片的主节点出现了脏数据达到eviction_dirty_trigger:30%阀值,因而整个集群访问时延就会瞬间增长,缘由是一个分片的用户线程须要刷盘,致使这个分片的访问时延上升(实际上其余分片的访问时延仍是正常的),最终把总体平均时延拉上去了。
为何普通平峰期也会有抖动?这很明显不科学。
因而获取出问题的主节点的一些监控信息,得出如下结论:
当客户端时延监控发现时间延迟尖刺后,咱们发现主节点全部现象一切正常,系统负载、IO、TPS等都没有到达瓶颈,可是有一个惟一的异常,就是主从同步延迟持续性增长,以下图所示:
同时对应低IO服务器的从节点上面的io情况以下图:
从节点的IO性能一塌乌涂,这也正式主从延迟增长的根源。
从上图能够看出在时延尖刺的一样时间点,主从延迟超大。因而怀疑时延尖刺可能和从节点拉取Oplog速度有关系,因而把整个mongostat、iostat、top、db.printSlaveReplicationInfo()、db.serverstatus()等监控持续跑了两天,记录下了两天内的一些核心系统和mongo监控指标。
两天后,对着客户端时延尖刺时间点分析对应监控数据,发现一个共同的现象,尖刺出现时间点和脏数据eviction_dirty_trigger超过阀值时间点一致,同时主从延迟在这个时间点都有很大的延迟。
到这里,我愈来愈怀疑问题和从节点拉取oplog速度有关。以前认为业务方默认没有设置WriteConncern,也就是默认写入到Primary就向客户端发送确认,可能应答客户端前还有其余流程会影响写入。因而查看mongodb-3.6的Production Notes,从中发现了以下信息:
从Production Notes能够看出,mongodb-3.6默认启用了 read concern "majority"功能,因而怀疑抖动可能和该功能有关。为了不脏读,mongodb增长了该功能,启用该功能后,mongodb为了确保带有带有参数readConcern("Majority")的客户端读取到的数据确实是同步到大多数实例的数据,所以mongodb必须在内存中借助snapshot 及主从通讯来维护更多的版本信息,这就增长了wiredtiger存储引擎对内存的需求。因为从节点是低IO服务器,很容易形成阻塞,这样拉取oplog的速度就会跟不上进度,形成主节点消耗大量的内存来维护快照信息,这样就会致使大量的内存消耗,最终致使脏数据瞬间剧增,很快达到eviction_dirty_trigger阀值,业务也所以抖动。
说一个小插曲,由于mongodb-3.6默认开启enableMajorityReadConcern功能,咱们在这个过程当中出现过一次严重的集群故障,业务流量有段时间忽然暴涨,形成时延持续性达到几千ms,现象以下:
该问题的根源也是由于enableMajorityReadConcern功能引发,因为从节点严重落后主节点,致使主节点为了维护各类snapshot快照,消耗大量内存,同时从节点和主节点的oplog延后,致使主节点维护了更多的内存版本,脏数据比例持续性增加,直到从节点追上oplog。因为咱们的业务不须要readConcert功能,所以咱们考虑禁用该功能(配置文件增长配置replication.enableMajorityReadConcern=false)。
鉴于篇幅,enableMajorityReadConcern及主从硬件IO能力不足引发的严重业务故障,本篇不作详细的分析,后期会写一篇专门的《百万计高并发mongodb集群性能优化采坑记》中作分享,除了ReadConcern采坑,还有其余好几个核心采坑点,敬请关注。
此外,后续会专门写一篇ReadConcern的原理及代码实现分析文章,敬请关注。
除了经过replication.enableMajorityReadConcern=false在配置文件中禁用ReadConcern Majority功能,咱们继续把全部分片的从节点由以前的低IO服务器替换为升级后的高IO服务器,升级后全部主从硬件资源性能彻底同样,升级后集群分片架构以下图所示:
经过禁用功能,并统一主从服务器硬件资源后,查看有抖动的一个接口的时间延迟,以下图所示:
从上图能够看出,经过MajorityReadConcern功能而且替把全部从节点的低IO服务器作系统升级后,业务时间延迟抖动的峰值进一步下降了,从以前第3节中的峰值80ms下降到了如今的峰值40ms左右。
此外,4.1节提到的脏数据持续性突破eviction_dirty_trigger阀值引发客户端时延飙涨到几千ms的问题得以完全解决。
经过前面的条优化,咱们发现有一个业务接口仍是偶尔有40ms时延尖刺,分析发现主要是eviction_dirty_trigger达到了咱们配置的阀值,业务线程开始淘汰page cache,这样就形成业务线程很慢,最终致使平均时延尖刺。
为了进一步减缓时延尖刺,咱们继续在以前基础上对存储引擎调优,调整后配置以下:
eviction_target: 75%
eviction_trigger:97%
eviction_dirty_target: %3
eviction_dirty_trigger:30%
evict.threads_min:12
evict.threads_max:18
checkpoint=(wait=20,log_size=1GB)
通过此轮的存储引擎调优后,该业务的核心接口时延进一步好转,时延尖刺相比以前有了进一步的改善,时延最大尖刺时间从前面的40ms下降到了30ms,同时尖刺出现的频率明显下降了,以下图所示:
今后图能够看出,在个别时间点仍是有一次时延尖刺,对照该尖刺的时间点分析提早部署好的mongostat和iostat监控,获得以下信息:
从上图能够看出,在峰值TPS百万级别的时候,部分节点evict淘汰速率已经跟不上写入速度,所以出现了用户线程刷盘的状况。
可是,很奇怪的是,在这个时间点分析对应机器的系统负载、io情况、内存情况等,发现系统负载、比较正常,可是对应服务器IO偏高,以下图所示:
同时分析对应服务器对应时间点的慢日志,咱们发现尖刺出现时间的的慢日志统计以下:
分析非时延尖刺时间点,对应慢日志统计以下:
分析两个时间点慢日志能够看出,慢日志出现的条数和时间延迟尖刺出现的时间点一致,也就是IO负载很高的时候。
经过上面的分析能够看出,当IO比较高(util超过50%)的时候,慢日志和时延都会增长,他们之间成正比关系。
5. 总结
经过软件层面(mongodb服务配置、业务优化、存储引擎优化)及硬件优化(升级操做系统)后,该大流量集群的核心接口时延从最初的平均成百上千ms下降到了如今的平均1-2ms,性能提高比较可观,总体时延性能提高数十倍。
优化前主要接口时延:
在不增长物理机器的基础上,通过一系列的优化措施,最终业务方主要接口时延控制到了几ms,以下图所示:
6. 遗留问题
如4.3分析所述,当峰值tps持续性达到100万左右的时候,有明显的磁盘IO问题,可是IO写入在不一样时间点很不均衡,有时候在流量持续性高峰期存在以下现象(注: 下图只是大概反应高峰期持续性写入的IO趋势情况):
如上图所示,有时候高峰期不一样时间点磁盘IO不均衡,若是咱们能把IO平均散列到各个不一样时间点,这样或许能够解决IO瓶颈问题。我试着经过继续调大evict线程数来达到目的,可是当线程数超过必定值后效果不明显。后续会持续分析wiredtiger存储引擎代码实现来了解整个机制,分析有时候磁盘IO严重分布不均衡代码实现原理。
近期继续分享以下主题,敬请关注:
注意
文章中的一些优化方法并非必定适用于全部mongodb场景,请根据实际业务场景和硬件物理资源进行优化,而不要循序渐进。
做者简介
杨亚洲,前滴滴出行技术专家,现任Oppo文档数据库研发负责人,一直专一于分布式缓存、高性能服务器、分布式存储、数据库、中间件等相关研发,后续会持续分析Mongodb内核、wiredtiger存储引擎、rocksdb存储引擎源码及,相关分享会发布到个人git帐号。
Github帐号地址: https://github.com/y123456yz
邮箱:yangyazhou#oppo.com