如何下降90%Java垃圾回收时间?以阿里HBase的GC优化实践为例

GC一直是Java应用中讨论的一个热门话题,尤为在像HBase这样的大型在线存储系统中,大堆下(百GB)的GC停顿延迟产生的在线实时影响,成为内核和应用开发者的一大痛点。node

过去的一年里,咱们准备在Ali-HBase上突破这个被广泛认知的痛点,为此进行了深度分析及全面创新的工做,得到了一些比较好的效果。以蚂蚁风控场景为例,HBase的线上young GC时间从120ms减小到15ms,结合阿里巴巴JDK团队提供的利器——ZenGC,进一步在实验室压测环境作到了5ms。本文主要介绍咱们过去在这方面的一些工做和技术思想。算法

背景

JVM的GC机制对开发者屏蔽了内存管理的细节,提升了开发效率。提及GC,不少人的第一反应多是JVM长时间停顿或者FGC致使进程卡死不可服务的状况。但就HBase这样的大数据存储服务而言,JVM带来的GC挑战至关复杂和艰难。缘由有三:缓存

一、内存规模巨大。线上HBase进程多数为96G大堆,今年新机型已经上线部分160G以上的堆配置安全

二、对象状态复杂。HBase服务器内部会维护大量的读写cache,达到数十GB的规模。HBase以表格的形式提供有序的服务数据,数据以必定的结构组织起来,这些数据结构产生了过亿级别的对象和引用服务器

三、young GC频率高。访问压力越大,young区的内存消耗越快,部分繁忙的集群能够达到每秒1~2次youngGC, 大的young区能够减小GC频率,可是会带来更大的young GC停顿,损害业务的实时性需求。数据结构

思路

  1. HBase做为一个存储系统,使用了大量的内存做为写buffer和读cache,好比96G的大堆(4G young + 92G old)下,写buffer+读cache会占用70%以上的内存(约70G),自己堆内的内存水位会控制在85%,而剩余的占用内存就只有在10G之内了。因此,若是咱们能在应用层面自管理好这70G+的内存,那么对于JVM而言,百G大堆的GC压力就会等价于10G小堆的GC压力,而且将来面对更大的堆也不会恶化膨胀。 在这个解决思路下,咱们线上的young GC时间得到了从120ms到15ms的优化效果。
  2. 在一个高吞吐的数据密集型服务系统中,大量的临时对象被频繁建立与回收,如何可以针对性管理这些临时对象的分配与回收,AliJDK团队研发了一种新的基于租户的GC算法—ZenGC。集团HBase基于这个新的ZenGC算法进行改造,咱们在实验室中压测的young GC时间从15ms减小到5ms,这是一个不曾指望的极致效果。

下面将逐一介绍Ali-HBase版本GC优化所使用的关键技术。并发

消灭一亿个对象:更快更省的CCSMap

目前HBase使用的存储模型是LSMTree模型,写入的数据会在内存中暂存到必定规模后再dump到磁盘上造成文件。框架

下面咱们将其简称为写缓存。写缓存是可查询的,这就要求数据在内存中有序。为了提升并发读写效率,并达成数据有序且支持seek&scan的基本要求,SkipList是使用得比较普遍的数据结构。运维

clipboard.png

咱们以JDK自带的ConcurrentSkipListMap为例子进行分析,它有下面三个问题:函数

  1. 内部对象繁多。每存储一个元素,平均须要4个对象(index+node+key+value,平均层高为1)
  2. 新插入的对象在young区,老对象在old区。当不断插入元素时,内部的引用关系会频繁发生变化,不管是ParNew算法的CardTable标记,仍是G1算法的RSet标记,都有可能触发old区扫描。
  3. 业务写入的KeyValue元素并非规整长度的,当它晋升到old区时,可能产生大量的内存碎片。

问题1使得young区GC的对象扫描成本很高,young GC时晋升对象更多。问题2使得young GC时须要扫描的old区域会扩大。问题3使得内存碎片化致使的FGC几率升高。当写入的元素较小时,问题会变得更加严重。咱们曾对线上的RegionServer进程进行统计,活跃Objects有1亿2千万之多!

分析完当前young GC的最大敌人后,一个大胆的想法就产生了,既然写缓存的分配,访问,销毁,回收都是由咱们来管理的,若是让JVM“看不到”写缓存,咱们本身来管理写缓存的生命周期,GC问题天然也就迎刃而解了。

提及让JVM“看不到”,可能不少人想到的是off-heap的解决方案,可是这对写缓存来讲没那么简单,由于即便把KeyValue放到offheap,也没法避免问题1和问题2。而1和2也是young GC的最大困扰。

问题如今被转化成了:如何不使用JVM对象来构建一个有序的支持并发访问的Map。

固然咱们也不能接受性能损失,由于写入Map的速度和HBase的写吞吐息息相关。

需求再次强化:如何不使用对象来构建一个有序的支持并发访问的Map,且不能有性能损失。

为了达成这个目标,咱们设计了这样一个数据结构:

  • 它使用连续的内存(堆内or堆外),咱们经过代码控制内部结构而不是依赖于JVM的对象机制
  • 在逻辑上也是一个SkipList,支持无锁的并发写入和查询
  • 控制指针和数据都存放在连续内存中

clipboard.png

上图所展现的便是CCSMap(CompactedConcurrentSkipListMap)的内存结构。 咱们以大块的内存段(Chunk)的方式申请写缓存内存。每一个Chunk包含多个Node,每一个Node对应一个元素。新插入的元素永远放在已使用内存的末尾。Node内部复杂的结构,存放了Index/Next/Key/Value等维护信息和数据。新插入的元素须要拷贝到Node结构中。当HBase发生写缓存dump时,整个CCSMap的全部Chunk都会被回收。当元素被删除时,咱们只是逻辑上把元素从链表里"踢走",不会把元素实际从内存中收回(固然作实际回收也是有方法,就HBase而言没有那个必要)。

插入KeyValue数据时虽然多了一遍拷贝,可是就绝大多数状况而言,拷贝反而会更快。由于从CCSMap的结构来看,一个Map中的元素的控制节点和KeyValue在内存上是邻近的,利用CPU缓存的效率更高,seek会更快。对于SkipList来讲,写速度实际上是bound在seek速度上的,实际拷贝产生的overhead远不如seek的开销。根据咱们的测试,CCSMap和JDK自带的ConcurrentSkipListMap相比,50Byte长度KV的测试中,读写吞吐提高了20~30%。

因为没有了JVM对象,每一个JVM对象至少占用16Byte空间也能够被节省掉(8byte为标记预留,8byte为类型指针)。仍是以50Byte长度KeyValue为例,CCSMap和JDK自带的ConcurrentSkipListMap相比,内存占用减小了40%。

CCSMap在生产中上线后,实际优化效果: young GC从120ms+减小到了30ms

clipboard.png
优化前

clipboard.png
优化后

使用了CCSMap后,原来的1亿2千万个存活对象被缩减到了千万级别之内,大大减轻了GC压力。因为紧致的内存排布,写入吞吐能力也获得了30%的提高。

永不晋升的Cache:BucketCache

HBase以Block的方式组织磁盘上的数据。一个典型的HBase Block大小在16K~64K之间。HBase内部会维护BlockCache来减小磁盘的I/O。BlockCache和写缓存同样,不符合GC算法理论里的分代假说,天生就是对GC算法不友好的 —— 既不稍纵即逝,也不永久存活。

一段Block数据从磁盘被load到JVM内存中,生命周期从分钟到月不等,绝大部分Block都会进入old区,只有Major GC时才会让它被JVM回收。它的麻烦主要体如今:

HBase Block的大小不是固定的,且相对较大,内存容易碎片化

在ParNew算法上,晋升麻烦。麻烦不是体如今拷贝代价上,而是由于尺寸较大,寻找合适的空间存放HBase Block的代价较高。

读缓存优化的思路则是,向JVM申请一块永不归还的内存做为BlockCache,咱们本身对内存进行固定大小的分段,当Block加载到内存中时,咱们将Block拷贝到分好段的区间内,并标记为已使用。当这个Block不被须要时,咱们会标记该区间为可用,能够从新存放新的Block,这就是BucketCache。关于BucketCache中的内存空间分配与回收(这一块的设计与研发在多年前已完成),详细能够参考 : http://zjushch.iteye.com/blog...

clipboard.png
BucketCache

不少基于堆外内存的RPC框架,也会本身管理堆外内存的分配和回收,通常经过显式释放的方式进行内存回收。可是对HBase来讲,却有一些困难。咱们将Block对象视为须要自管理的内存片断。Block可能被多个任务引用,要解决Block的回收问题,最简单的方式是将Block对每一个任务copy到栈上(copy的block通常不会晋升到old区),转交给JVM管理就能够。

实际上,咱们以前一直使用的是这种方法,实现简单,JVM背书,安全可靠。但这是有损耗的内存管理方式,为了解决GC问题,引入了每次请求的拷贝代价。因为拷贝到栈上须要支付额外的cpu拷贝成本和young区内存分配成本,在cpu和总线愈来愈珍贵的今天,这个代价显得高昂。

因而咱们转而考虑使用引用计数的方式管理内存,HBase上遇到的主要难点是:

  1. HBase内部会有多个任务引用同一个Block
  2. 同一个任务内可能有多个变量引用同一个Block。引用者多是栈上临时变量,也多是堆上对象域。
  3. Block上的处理逻辑相对复杂,Block会在多个函数和对象之间以参数、返回值、域赋值的方式传递。
  4. Block多是受咱们管理的,也多是不受咱们管理的(某些Block须要手动释放,某些不须要)。
  5. Block可能被转换为Block的子类型。

这几点综合起来,对如何写出正确的代码是一个挑战。但在C++ 上,使用智能指针来管理对象生命周期是很天然的事情,为何到了Java里会有困难呢?

Java中变量的赋值,在用户代码的层面上,只会产生引用赋值的行为,而C++ 中的变量赋值能够利用对象的构造器和析构器来干不少事情,智能指针即基于此实现(固然C++的构造器和析构器使用不当也会引起不少问题,各有优劣,这里不讨论)

因而咱们参考了C++的智能指针,设计了一个Block引用管理和回收的框架ShrableHolder来抹平coding中各类if else的困难。它有如下的范式:

  1. ShrableHolder能够管理有引用计数的对象,也能够管理非引用计数的对象
  2. ShrableHolder在被从新赋值时,释放以前的对象。若是是受管理的对象,引用计数减1,若是不是,则无变化。
  3. ShrableHolder在任务结束或者代码段结束时,必须被调用reset
  4. ShrableHolder不可直接赋值。必须调用ShrableHolder提供的方法进行内容的传递
  5. 由于ShrableHolder不可直接赋值,须要传递包含生命周期语义的Block到函数中时,ShrableHolder不能做为函数的参数。

根据这个范式写出来的代码,原来的代码逻辑改动不多,不会引入if else。虽然看上去仍然有一些复杂度,所幸的是,受此影响的区间仍是局限于很是局部的下层,对HBase而言仍是能够接受的。为了保险起见,避免内存泄漏,咱们在这套框架里加入了探测机制,探测长时间不活动的引用,发现以后会强制标记为删除。

将BucketCache应用以后,减小了BlockCache的晋升开销,减小了young GC时间:

clipboard.png

clipboard.png
(CCSMap+BucketCache优化后的效果)

追求极致:ZenGC

通过以上两个大的优化以后,蚂蚁风控生产环境的young GC时间已经缩减到15ms。因为ParNew+CMS算法在这个尺度上再作优化已经很困难了,咱们转而投向ZenGC的怀抱。ZenGC在G1算法的基础上作了深度改进,内存自管理的大堆HBase和ZenGC产生了很好的化学反应。

ZenGC是阿里巴巴JVM团队基于G1算法, 面向大堆 (LargeHeap) 应用场景,优化的GC算法的统称。这里主要介绍下多租户GC。

多租户GC包含的三层核心逻辑:1) 在JavaHeap上,对象的分配按照租户隔离,不一样的租户使用不一样的Heap区域;2)容许GC以更小的代价发生在租户粒度,而不只仅是应用的全局;3)容许上层应用根据业务需求对租户灵活映射。

ZenGC将内存Region划分为了多个租户,每一个租户内独立触发GC。在个基础上,咱们将内存分为普通租户和中等生命周期租户。中等生命周期对象指的是,既不稍纵即逝,也不永久存在的对象。因为通过以上两个大幅优化,如今堆中等生命周期对象数量和内存占用已经不多了。可是中等生命周期对象在生成时会被old区对象引用,每次young GC都须要扫描RSet,如今仍然是young GC的耗时大头。

借助于AJDK团队的ObjectTrace功能,咱们找出中等生命周期对象中最"大头"的部分,将这些对象在生成时直接分配到中等生命周期租户的old区,避免RSet标记。而普通租户则以正常的方式进行内存分配。

普通租户GC频率很高,可是因为晋升的对象少,跨代引用少,Young区的GC时间获得了很好的控制。在实验室场景仿真环境中,咱们将young GC优化到了5ms。

clipboard.png
(ZenGC优化后的效果,单位问题,此处为us)

clipboard.png

clipboard.png

云端使用

阿里HBase目前已经在阿里云提供商业化服务,任何有需求的用户均可以在阿里云端使用深刻改进的、一站式的HBase服务。云HBase版本与自建HBase相比在运维、可靠性、性能、稳定性、安全、成本等方面均有不少的改进,更多内容欢迎你们关注 https://www.aliyun.com/produc...

本文做者:中间件那珂

阅读原文

本文为云栖社区原创内容,未经容许不得转载。

相关文章
相关标签/搜索