【架构设计的艺术】Kafka如何经过精妙的架构设计优化JVM GC问题?【石杉的架构笔记】

我的公众号:石杉的架构笔记(ID:shishan100)
面试

目录服务器

一、Kafka的客户端缓冲机制网络

二、内存缓冲形成的频繁GC问题架构

三、Kafka设计者实现的缓冲池机制性能

四、总结一下学习

这篇文章,一样给你们聊一个硬核的技术知识,咱们经过Kafka内核源码中的一些设计思想,来看你设计Kafka架构的技术大牛,是怎么优化JVM的GC问题的?优化

一、Kafka的客户端缓冲机制

首先,先得给你们明确一个事情,那就是在客户端发送消息给kafka服务器的时候,必定是有一个内存缓冲机制的。线程

也就是说,消息会先写入一个内存缓冲中,而后直到多条消息组成了一个Batch,才会一次网络通讯把Batch发送过去。设计

整个过程以下图所示:cdn


二、内存缓冲形成的频繁GC问题

那么这种内存缓冲机制的本意,其实就是把多条消息组成一个Batch,一次网络请求就是一个Batch或者多个Batch。

这样每次网络请求均可以发送不少数据过去,避免了一条消息一次网络请求。从而提高了吞吐量,即单位时间内发送的数据量。

可是问题来了,你们能够思考一下,一个Batch中的数据,会取出来而后封装在底层的网络包里,经过网络发送出去到达Kafka服务器。

那么而后呢?这个Batch里的数据都发送过去了,如今Batch里的数据应该怎么处理?

你要知道,这些Batch里的数据此时可还在客户端的JVM的内存里啊!那么此时从代码实现层面,必定会尝试避免任何变量去引用这些Batch对应的数据,而后尝试触发JVM自动回收掉这些内存垃圾。

这样不断的让JVM回收垃圾,就能够不断的清理掉已经发送成功的Batch了,而后就能够不断的腾出来新的内存空间让后面新的数据来使用。

这种想法很好,可是实际线上运行的时候必定会有问题,最大的问题,就是JVM GC问题。

你们都知道一点,JVM GC在回收内存垃圾的时候,他会有一个“Stop the World”的过程,也就是垃圾回收线程运行的时候,会致使其余工做线程短暂的停顿,这样能够便于他本身安安静静的回收内存垃圾。

这个也很容易想明白,毕竟你要是在回收内存垃圾的时候,你的工做线程还在不断的往内存里写数据,制造更多的内存垃圾,那你让人家JVM怎么回收垃圾?

这就比如在大马路上,若是地上有不少垃圾,如今要把垃圾都扫干净,最好的办法是什么?你们都让开,把马路空出来,而后清洁工就是把垃圾清理干净。

可是若是清洁工在清扫垃圾的时候,结果一帮人在旁边不停的嗑瓜子扔瓜子壳,吃西瓜扔西瓜皮,不停的制造垃圾,你以为清洁工心里啥感觉?固然是很愤慨了,照这么搞,地上的垃圾永远的都搞不干净了!

经过了上面的语言描述,咱们再来一张图,你们看看就更加清楚了

如今JVM GC是愈来愈先进,从CMS垃圾回收器到G1垃圾回收器,核心的目标之一就是不断的缩减垃圾回收的时候,致使其余工做线程停顿的时间。

因此如今越是新款的垃圾回收器致使工做线程停顿的时间越短,可是再怎么短,他也仍是存在啊!

因此说,如何尽量在本身的设计上避免JVM频繁的GC就是一个很是考验水平的事儿了。


三、Kafka设计者实现的缓冲池机制

在Kafka客户端内部,对这个问题实现了一个很是优秀的机制,就是缓冲池的机制

简单来讲,就是每一个Batch底层都对应一块内存空间,这个内存空间就是专门用来存放写入进去的消息的。

而后呢,当一个Batch被发送到了kafka服务器,这个Batch的数据再也不须要了,就意味着这个Batch的内存空间再也不使用了。

此时这个Batch底层的内存空间不要交给JVM去垃圾回收,而是把这块内存空间给放入一个缓冲池里。

这个缓冲池里放了不少块内存空间,下次若是你又有一个新的Batch了,那么不就能够直接从这个缓冲池里获取一块内存空间就ok了?

而后若是一个Batch发送出去了以后,再把内存空间给人家还回来不就行了?以此类推,循环往复。

一样,听完了上面的文字描述,再来一张图,看完这张图相信大伙儿就明白了:

一旦使用了这个缓冲池机制以后,就不涉及到频繁的大量内存的GC问题了。

为何呢?由于他能够上来就占用固定的内存,好比32MB。而后把32MB划分为N多个内存块,好比说一个内存块是16KB,这样的话这个缓冲池里就会有不少的内存块。

而后你须要建立一个新的Batch,就从缓冲池里取一个16KB的内存块就能够了,而后这个Batch就不断的写入消息,可是最多就是写16KB,由于Batch底层的内存块就16KB。

接着若是Batch被发送到Kafka服务器了,此时Batch底层的内存块就直接还回缓冲池就能够了。

下次别人再要构建一个Batch的时候,再次使用缓冲池里的内存块就行了。这样就能够利用有限的内存,对他不停的反复重复的利用。由于若是你的Batch使用完了之后是把内存块还回到缓冲池中去,那么就不涉及到垃圾回收了。

若是没有频繁的垃圾回收,天然就避免了频繁致使的工做线程的停顿了,JVM GC问题是否是就获得了大幅度的优化?

没错,正是这个设计思想让Kafka客户端的性能和吞吐量都很是的高,这里蕴含了大量的优秀的机制。

那么此时有人说了,若是我如今把一个缓冲池里的内存资源都占满了,如今缓冲池里暂时没有内存块了,怎么办呢?

很简单,阻塞你的写入操做,不让你继续写入消息了。把你给阻塞住,不停的等待,直到有内存块释放出来,而后再继续让你写入消息。

四、总结一下

这篇文章咱们从Kafka内存缓冲机制的设计思路开始,一直分析到了JVM GC问题的产生缘由以及恶劣的影响。

接着谈到了Kafka优秀的缓冲池机制的设计思想以及他是如何解决这个问题的,分析了不少Kafka做者在设计的时候展示出的优秀的技术设计思想和能力。

但愿你们多吸收这里的精华,在之后面试或者工做的时候,能够把这些优秀的思想纳为己用。

END

欢迎长按下图关注公众号:石杉的架构笔记!

公众号后台回复资料,获取做者独家秘制学习资料

石杉的架构笔记,BAT架构经验倾囊相授

相关文章
相关标签/搜索