本文根据美团基础架构部/容器研发中心技术总监欧阳坚在2018 QCon(全球软件开发大会)上的演讲内容整理而成。git
美团的容器集群管理平台叫作HULK。漫威动画里的HULK在发怒时会变成“绿巨人”,它的这个特性和容器的“弹性伸缩”很像,因此咱们给这个平台起名为HULK。貌似有一些公司的容器平台也叫这个名字,纯属巧合。github
2016年,美团开始使用容器,当时美团已经具有必定的规模,在使用容器以前就已经存在的各类系统,包括CMDB、服务治理、监控告警、发布平台等等。咱们在探索容器技术时,很难放弃原有的资产。因此容器化的第一步,就是打通容器的生命周期和这些平台的交互,例如容器的申请/建立、删除/释放、发布、迁移等等。而后咱们又验证了容器的可行性,证明容器能够做为线上核心业务的运行环境。算法
2018年,通过两年的运营和实践探索,咱们对容器平台进行了一次升级,这就是容器集群管理平台HULK 2.0。docker
美团的容器使用情况是:目前线上业务已经超过3000个服务,容器实例数超过30000个,不少大并发、低延时要求的核心链路服务,已经稳定地运行在HULK之上。本文主要介绍咱们在容器技术上的一些实践,属于基础系统优化和打磨。编程
首先介绍一下美团容器平台的基础架构,相信各家的容器平台架构大致都差很少。缓存
首先,容器平台对外对接服务治理、发布平台、CMDB、监控告警等等系统。经过和这些系统打通,容器实现了和虚拟机基本一致的使用体验。研发人员在使用容器时,能够和使用VM同样,不须要改变原来的使用习惯。安全
此外,容器提供弹性扩容能力,能根据必定的弹性策略动态增长和减小服务的容器节点数,从而动态地调整服务处理能力。这里还有个特殊的模块——“服务画像”,它的主要功能是经过对服务容器实例运行指标的搜集和统计,更好的完成调度容器、优化资源分配。好比能够根据某服务的容器实例的CPU、内存、IO等使用状况,来分辨这个服务属于计算密集型仍是IO密集型服务,在调度时尽可能把互补的容器放在一块儿。再好比,咱们能够知道某个服务的每一个容器实例在运行时会有大概500个进程,咱们就会在建立容器时,给该容器加上一个合理的进程数限制(好比最大1000个进程),从而避免容器在出现问题时,占用过多的系统资源。若是这个服务的容器在运行时,忽然申请建立20000个进程,咱们有理由相信是业务容器遇到了Bug,经过以前的资源约束对容器进行限制,并发出告警,通知业务及时进行处理。性能优化
往下一层是“容器编排”和“镜像管理”。容器编排解决容器动态实例的问题,包括容器什么时候被建立、建立到哪一个位置、什么时候被删除等等。镜像管理解决容器静态实例的问题,包括容器镜像应该如何构建、如何分发、分发的位置等等。服务器
最下层是咱们的容器运行时,美团使用主流的Linux+Docker容器方案,HULK Agent是咱们在服务器上的管理代理程序。网络
把前面的“容器运行时”具体展开,能够看到这张架构图,按照从下到上的顺序介绍:
美团主要使用了CentOS系列的开源组件,由于咱们认为Red Hat有很强的开源技术实力,比起直接使用开源社区的版本,咱们但愿Red Hat的开源版本可以帮助解决大部分的系统问题。咱们也发现,即便部署了CentOS的开源组件,仍然有可能会碰到社区和Red Hat没有解决的问题。从某种程度上也说明,国内大型互联公司在技术应用的场景、规模、复杂度层面已经达到了世界领先的水平,因此才会先于社区、先于Red Hat的客户遇到这些问题。
在容器技术自己,咱们主要遇到了4个问题:隔离、稳定性、性能和推广。
容器本质上是把系统中为同一个业务目标服务的相关进程合成一组,放在一个叫作namespace的空间中,同一个namespace中的进程可以互相通讯,但看不见其余namespace中的进程。每一个namespace能够拥有本身独立的主机名、进程ID系统、IPC、网络、文件系统、用户等等资源。在某种程度上,实现了一个简单的虚拟:让一个主机上能够同时运行多个互不感知的系统。
此外,为了限制namespace对物理资源的使用,对进程能使用的CPU、内存等资源须要作必定的限制。这就是Cgroup技术,Cgroup是Control group的意思。好比咱们常说的4c4g的容器,其实是限制这个容器namespace中所用的进程,最多可以使用4核的计算资源和4GB的内存。
简而言之,Linux内核提供namespace完成隔离,Cgroup完成资源限制。namespace+Cgroup构成了容器的底层技术(rootfs是容器文件系统层技术)。
以前一直和虚拟机打交道,但直到用上容器,才发如今容器里面看到的CPU、Memory的信息都是服务器主机的信息,而不是容器自身的配置信息。直到如今,社区版的容器仍是这样,好比一个4c4g的容器,在容器内部能够看到有40颗CPU、196GB内存的资源,这些资源实际上是容器所在宿主机的信息。这给人的感受,就像是容器的“自我膨胀”,以为本身能力很强,但实际上并无,还会带来不少问题。
上图是一个内存信息隔离的例子。获取系统内存信息时,社区Linux不管在主机上仍是在容器中,内核都是统一返回主机的内存信息,若是容器内的应用,按照它发现的宿主机内存来进行配置的话,实际资源是远远不够的,致使的结果就是:系统很快会发生OOM异常。
咱们作的隔离工做,是在容器中获取内存信息时,内核根据容器的Cgroup信息,返回容器的内存信息(相似LXCFS的工做)。
CPU信息隔离的实现和内存的相似,再也不赘述,这里举一个CPU数目影响应用性能例子。
你们都知道,JVM GC(垃圾对象回收)对Java程序执行性能有必定的影响。默认的JVM使用公式“ParallelGCThreads = (ncpus <= 8) ? ncpus : 3 + ((ncpus * 5) / 8)” 来计算作并行GC的线程数,其中ncpus是JVM发现的系统CPU个数。一旦容器中JVM发现了宿主机的CPU个数(一般比容器实际CPU限制多不少),这就会致使JVM启动过多的GC线程,直接的结果就致使GC性能降低。Java服务的感觉就是延时增长,TP监控曲线突刺增长,吞吐量降低。针对这个问题有各类解法:
有一段时间,咱们的容器是使用root权限进行运行,实现的方法是在docker run的时候加入‘privileged=true’参数。这种粗放的使用方式,使容器可以看到所在服务器上全部容器的磁盘,致使了安全问题和性能问题。安全问题很好理解,为何会致使性能问题呢?能够试想一下,每一个容器都作一次磁盘状态扫描的场景。固然,权限过大的问题还体如今能够随意进行mount操做,能够随意的修改NTP时间等等。
在新版本中,咱们去掉了容器的root权限,发现有一些反作用,好比致使一些系统调用失败。咱们默认给容器额外增长了sys_ptrace和sys_admin两个权限,让容器能够运行GDB和更改主机名。若是有特例容器须要更多的权限,能够在咱们的平台上按服务粒度进行配置。
Linux有两种IO:Direct IO和Buffered IO。Direct IO直接写磁盘,Buffered IO会先写到缓存再写磁盘,大部分场景下都是Buffered IO。
咱们使用的Linux内核3.X,社区版本中全部容器Buffer IO共享一个内核缓存,而且缓存不隔离,没有速率限制,致使高IO容器很容易影响同主机上的其余容器。Buffer IO缓存隔离和限速在Linux 4.X里经过Cgroup V2实现,有了明显的改进,咱们还借鉴了Cgroup V2的思想,在咱们的Linux 3.10内核实现了相同的功能:每一个容器根据本身的内存配置有对应比例的IO Cache,Cache的数据写到磁盘的速率受容器Cgroup IO配置的限制。
Docker自己支持较多对容器的Cgroup资源限制,可是K8s调用Docker时能够传递的参数较少,为了下降容器间的互相影响,咱们基于服务画像的资源分配,对不一样服务的容器设定不一样的资源限制,除了常见的CPU、内存外,还有IO的限制、ulimit限制、PID限制等等。因此咱们扩展了K8s来完成这些工做。
业务在使用容器的过程当中产生core dump文件是常见的事,好比C/C++程序内存访问越界,或者系统OOM的时候,系统选择占用内存多的进程杀死,默认都会生成一个core dump文件。
社区容器系统默认的core dump文件会生成在宿主机上,因为一些core dump文件比较大,好比JVM的core dump一般是几个GB,或者有些存在Bug的程序,其频发的core dump很容易快速写满宿主机的存储,而且会致使高磁盘IO,也会影响到其余容器。还有一个问题是:业务容器的使用者没有权限访问宿主机,从而拿不到dump文件进行下一步的分析。
为此,咱们对core dump的流程进行了修改,让dump文件写到容器自身的文件系统中,而且使用容器本身的Cgroup IO吞吐限制。
咱们在实践中发现,影响系统稳定性的主要是Linux Kernel和Docker。虽然它们自己是很可靠的系统软件,可是在大规模、高强度的场景中,仍是会存在一些Bug。这也从侧面说明,咱们国内互联网公司在应用规模和应用复杂度层面也属于全球领先。
在内核方面,美团发现了Kernel 4.x Buffer IO限制的实现问题,获得了社区的确认和修复。咱们还跟进了一系列CentOS的Ext4补丁,解决了一段时间内进程频繁卡死的问题。
咱们碰到了两个比较关键的Red Hat版Docker稳定性问题:
在Docker服务重启之后,Docker exec没法进入容器,这个问题比较复杂。在解决以前咱们用nsenter来代替Docker exec并积极反馈给RedHat。后来Red Hat在今年初的一个更新解决了这个问题。access.redhat.com/errata/RHBA…
是在特定条件下Docker Daemon会Panic,致使容器没法删除。通过咱们本身Debug,并对比最新的代码,发现问题已经在Docker upstream中获得解决,反馈给Red Hat也很快获得了解决。github.com/projectatom…
面对系统内核、Docker、K8s这些开源社区的系统软件,存在一种观点是:咱们不须要本身分析问题,只须要拿社区的最新更新就好了。可是咱们并不认同,咱们认为技术团队自身的能力很重要,主要是以下缘由:
美团在解决开源系统问题时,通常会经历五个阶段:本身深挖、研发解决、关注社区、和社区交互,最后贡献给社区。
容器平台性能,主要包括两个方面性能:
上图是咱们CPU分配的一个例子,咱们采用的主流服务器是两路24核服务器,包含两个Node,每一个12核,算上超线程共48颗逻辑CPU。属于典型的NUMA(非一致访存)架构:系统中每一个Node有本身的内存,Node内的CPU访问本身的内存的速度,比访问另外一个Node内存的速度快不少(差一倍左右)。
过去咱们曾经遇到过网络中断集中到CPU0上的问题,在大流量下可能致使网络延时增长甚至丢包。为了保证网络处理能力,咱们从Node0上划出了8颗逻辑CPU用来专门处理网络中断和宿主机系统上的任务,例如镜像解压这类高CPU的工做,这8颗逻辑CPU不运行任何容器的Workload。
在容器调度方面,咱们的容器CPU分配尽可能不跨Node,实践证实跨Node访问内存对应用性能的影响比较大。在一些计算密集型的场景下,容器分配在Node内部会提高30%以上的吞吐量。按Node的分配方案也存在必定的弊端:会致使CPU的碎片增长,为了更高效地利用CPU资源。在实际系统中,咱们会根据服务画像的信息,分配一些对CPU不敏感的服务容器跨Node使用CPU资源。
上图是一个真实的服务在CPU分配优化先后,响应延时的TP指标线对比。能够看到TP999线降低了一个数量级,全部的指标都更加平稳。
针对文件系统的性能优化,第一步是选型,根据统计到的应用读写特征,咱们选择了Ext4文件系统(超过85%的文件读写是对小于1M文件的操做)。
Ext4文件系统有三种日志模式:
咱们选择了Writeback模式(默认是oderded),它在几种挂载模式中速度最快,缺点是:发生故障时数据很差恢复。咱们大部分容器处于无状态,故障时在别的机器上再拉起一台便可。所以咱们在性能和稳定性中,选择了性能。容器内部给应用提供可选的基于内存的文件系统tmpfs,能够提高有大量临时文件读写的服务性能。
如上图所示,在美团内部建立一个虚拟机至少经历三步,平均时间超过300秒。使用镜像建立容器平均时间23秒。容器的灵活、快速获得了显著的体现。
容器扩容23秒的平均时间包含了各个部分的优化,如扩容链路优化、镜像分发优化、初始化和业务拉起优化等等。接下来,本文主要介绍一下咱们作的镜像分发和解压相关的优化。
上图是美团容器镜像管理的整体架构,其特色以下:
镜像分发是影响容器扩容时长的一个重要环节。
从上图能够看出,随着分发服务器数目的增长,原有分发时间也快速增长,而P2P镜像分发时间基本上保持稳定。
Docker的镜像拉取是一个并行下载,串行解压的过程,为了提高解压的速度,咱们美团也作了一些优化工做。
对于单个层的解压,咱们使用并行解压算法替换Docker默认的串行解压算法,实现上是使用pgzip替换gzip。
Docker的镜像具备分层结构,对镜像层的合并是一个“解压一层合并一层,再解压一层,再合并一层”的串行操做。实际上只有合并是须要串行的,解压能够并行起来。咱们把多层的解压改为并行,解压出的数据先放在临时存储空间,最后根据层之间的依赖进行串行合并。前面的改动(并行解压全部的层到临时空间)致使磁盘IO的次数增长了近一倍,也会致使解压过程不够快。因而,咱们使用基于内存的Ramdisk来存储解压出来的临时文件,减轻了额外文件写带来的开销。作了上面这些工做之后,咱们又发现,容器的分层也会影响下载加解压的时间。上图是咱们简单测试的结果:不管对于怎么分层的镜像并行解压,都能大幅提高解压时间,对于层数多的镜像提高更加明显。
推广容器的第一步是能说出容器的优点,咱们认为容器有以下优点:
这三个特性的组合,能够给业务带来更大的灵活度和更低的计算成本。
由于容器平台自己是一个技术产品,它的客户是各个业务的RD团队,所以咱们须要考虑下面一些因素:
Docker容器加Kubernetes编排是当前容器云的主流实践之一,美团容器集群管理平台HULK也采用了这样的方案。本文主要分享了美团在容器技术上作的一些探索和实践。内容主要涵盖美团容器云在Linux Kernel、Docker和Kubernetes层面作的一些优化工做,以及美团内部推进容器化进程的一些思考,欢迎你们跟咱们交流、探讨。
欧阳坚,2006年毕业于清华大学计算机系,拥有12年数据中心开发管理经验。曾任VMware中国Staff Engineer,无双科技CTO,中科睿光首席架构师。现任美团基础架构部/容器研发中心技术总监,负责美团容器化的相关工做。
美团点评基础架构团队诚招Java高级、资深技术专家,Base北京、上海。咱们是集团致力于研发公司级、业界领先基础架构组件的核心团队,涵盖分布式监控、服务治理、高性能通讯、消息中间件、基础存储、容器化、集群调度等技术领域。欢迎有兴趣的同窗投送简历到 liuxing14@meituan.com。