做者 | 阿里云容器平台高级技术专家 曾凡松(逐灵)node
本文主要介绍阿里巴巴在大规模生产环境中落地 Kubernetes 的过程当中,在集群规模上遇到的典型问题以及对应的解决方案,内容包含对 etcd、kube-apiserver、kube-controller 的若干性能及稳定性加强,这些关键的加强是阿里巴巴内部上万节点的 Kubernetes 集群可以平稳支撑 2019 年天猫 618 大促的关键所在。web
从阿里巴巴最先期的 AI 系统(2013)开始,集群管理系统经历了多轮的架构演进,到 2018 年全面的应用 Kubernetes ,这期间的故事是很是精彩的,有机会能够单独给你们作一个分享。这里忽略系统演进的过程,不去讨论为何 Kubernetes 可以在社区和公司内部全面的胜出,而是将焦点关注到应用 Kubernetes 中会遇到什么样的问题,以及咱们作了哪些关键的优化。算法
在阿里巴巴的生产环境中,容器化的应用超过了 10k 个,全网的容器在百万的级别,运行在十几万台宿主机上。支撑阿里巴巴核心电商业务的集群有十几个,最大的集群有几万的节点。在落地 Kubernetes 的过程当中,在规模上面临了很大的挑战,好比如何将 Kubernetes 应用到超大规模的生产级别。数据库
罗马不是一天就建成的,为了了解 Kubernetes 的性能瓶颈,咱们结合阿里的生产集群现状,估算了在 10k 个节点的集群中,预计会达到的规模:后端
咱们基于 Kubemark 搭建了大规模集群模拟的平台,经过一个容器启动多个(50个)Kubemark 进程的方式,使用了 200 个 4c 的容器模拟了 10k 节点的 kubelet。在模拟集群中运行常见的负载时,咱们发现一些基本的操做好比 Pod 调度延迟很是高,达到了惊人的 10s 这一级别,而且集群处在很是不稳定的状态。api
当 Kubernetes 集群规模达到 10k 节点时,系统的各个组件均出现相应的性能问题,好比:安全
为了解决这些问题,阿里云容器平台在各方面都作了很大的努力,改进 Kubernetes 在大规模场景下的性能。性能优化
首先是 etcd 层面,做为 Kubernetes 存储对象的数据库,其对 Kubernetes 集群的性能影响相当重要。微信
初版本的改进,咱们经过将 etcd 的数据转存到 tair 集群中,提升了 etcd 存储的数据总量。但这个方式有一个显著的弊端是额外增长的 tair 集群,增长的运维复杂性对集群中的数据安全性带来了很大的挑战,同时其数据一致性模型也并不是基于 raft 复制组,牺牲了数据的安全性。架构
第二版本的改进,咱们经过将 API Server 中不一样类型的对象存储到不一样的 etcd 集群中。从 etcd 内部看,也就对应了不一样的数据目录,经过将不一样目录的数据路由到不一样的后端 etcd 中,从而下降了单个 etcd 集群中存储的数据总量,提升了扩展性。
第三版本的改进,咱们深刻研究了 etcd 内部的实现原理,并发现了影响 etcd 扩展性的一个关键问题在底层 bbolt db 的 page 页面分配算法上:随着 etcd 中存储的数据量的增加,bbolt db 中线性查找“连续长度为 n 的 page 存储页面”的性能显著降低。
为了解决该问题,咱们设计了基于 segregrated hashmap 的空闲页面管理算法,hashmap 以连续 page 大小为 key, 连续页面起始 page id 为 value。经过查这个 segregrated hashmap 实现 O(1) 的空闲 page 查找,极大地提升了性能。在释放块时,新算法尝试和地址相邻的 page 合并,并更新 segregrated hashmap。更详细的算法分析能够见已发表在 CNCF 博客的博文:
https://www.cncf.io/blog/2019/05/09/performance-optimization-of-etcd-in-web-scale-data-scenario/
经过这个算法改进,咱们能够将 etcd 的存储空间从推荐的 2GB 扩展到 100GB,极大的提升了 etcd 存储数据的规模,而且读写无显著延迟增加。除此以外,咱们也和谷歌工程师协做开发了 etcd raft learner(类 zookeeper observer)/fully concurrent read 等特性,在数据的安全性和读写性能上进行加强。这些改进已贡献开源,将在社区 etcd 3.4 版本中发布。
在 Kubernetes 集群中,影响其扩展到更大规模的一个核心问题是如何有效的处理节点的心跳。在一个典型的生产环境中 (non-trival),kubelet 每 10s 汇报一次心跳,每次心跳请求的内容达到 15kb(包含节点上数十计的镜像,和若干的卷信息),这会带来两大问题:
为了解决这个问题,Kubernetes 引入了一个新的 build-in Lease API
,将与心跳密切相关的信息从 node 对象中剥离出来,也就是上图中的 Lease
。本来 kubelet 每 10s 更新一次 node 对象升级为:
由于 Lease
对象很是小,所以其更新的代价远小于更新 node 对象。kubernetes 经过这个机制,显著的下降了 API Server 的 CPU 开销,同时也大幅减少了 etcd 中大量的 transaction logs,成功将其规模从 1000 扩展到了几千个节点的规模,该功能在社区 Kubernetes-1.14 中已经默认启用。
在生产集群中,出于性能和可用性的考虑,一般会部署多个节点组成高可用 Kubernetes 集群。但在高可用集群实际的运行中,可能会出现多个 API Server 之间的负载不均衡,尤为是在集群升级或部分节点发生故障重启的时候。这给集群的稳定性带来了很大的压力,本来计划经过高可用的方式分摊 API Server 面临的压力,但在极端状况下全部压力又回到了一个节点,致使系统响应时间变长,甚至击垮该节点继而致使雪崩。
下图为压测集群中模拟的一个 case,在三个节点的集群,API Server 升级后全部的压力均打到了其中一个 API Server 上,其 CPU 开销远高于其余两个节点。
解决负载均衡问题,一个天然的思路就是增长 load balancer。前文的描述中提到,集群中主要的负载是处理节点的心跳,那咱们就在 API Server 与 kubelet 中间增长 lb,有两个典型的思路:
经过压测环境验证发现,增长 lb 并不能很好的解决上面提到的问题,咱们必需要深刻理解 Kubernetes 内部的通讯机制。深刻到 Kubernetes 中研究发现,为了解决 tls 链接认证的开销,Kubernetes 客户端作了不少的努力确保“尽可能复用一样的 tls 链接”,大多数状况下客户端 watcher 均工做在下层的同一个 tls 链接上,仅当这个链接发生异常时,才可能会触发重连继而发生 API Server 的切换。其结果就是咱们看到的,当 kubelet 链接到其中一个 API Server 后,基本上是不会发生负载切换。为了解决这个问题,咱们进行了三个方面的优化:
409 - too many requests
提醒客户端退避;当自身负载超过一个更高的阈值时,经过关闭客户端链接拒绝请求;409
时,尝试重建链接切换 API Server;按期地重建链接切换 API Server 完成洗牌;如上图左下角监控图所示,加强后的版本能够作到 API Server 负载基本均衡,同时在显示重启两个节点(图中抖动)时,可以快速的自动恢复到均衡状态。
List-Watch 是 Kubernetes 中 Server 与 Client 通讯最核心一个机制,etcd 中全部对象及其更新的信息,API Server 内部经过 Reflector 去 watch etcd 的数据变化并存储到内存中,controller/kubelets 中的客户端也经过相似的机制去订阅数据的变化。
在 List-Watch 机制中面临的一个核心问题是,当 Client 与 Server 之间的通讯断开时,如何确保重连期间的数据不丢,这在 Kubernetes 中经过了一个全局递增的版本号 resourceVersion
来实现。以下图所示 Reflector 中保存这当前已经同步到的数据版本,重连时 Reflector 告知 Server 本身当前的版本(5),Server 根据内存中记录的最近变动历史计算客户端须要的数据起始位置(7)。
这一切看起来十分简单可靠,可是...
在 API Server 内部,每一个类型的对象会存储在一个叫作 storage
的对象中,好比会有:
每一个类型的 storage 会有一个有限的队列,存储对象最近的变动,用于支持 watcher 必定的滞后(重试等场景)。通常来讲,全部类型的类型共享一个递增版本号空间(1, 2, 3, ..., n),也就是如上图所示,pod 对象的版本号仅保证递增不保证连续。Client 使用 List-Watch 机制同步数据时,可能仅关注 pods 中的一部分,最典型的 kubelet 仅关注和本身节点相关的 pods,如上图所示,某个 kubelet 仅关注绿色的 pods (2, 5)。
由于 storage 队列是有限的(FIFO),当 pods 的更新时队列,旧的变动就会从队列中淘汰。如上图所示,当队列中的更新与某个 Client 无关时,Client 进度仍然保持在 rv=5,若是 Client 在 5 被淘汰后重连,这时候 API Server 没法判断 5 与当前队列最小值(7)之间是否存在客户端须要感知的变动,所以返回 Client too old version err
触发 Client 从新 list 全部的数据。为了解决这个问题,Kubernetes 引入 Watch bookmark
机制:
bookmark 的核心思想归纳起来就是在 Client 与 Server 之间保持一个“心跳”,即便队列中无 Client 须要感知的更新,Reflector 内部的版本号也须要及时的更新。如上图所示,Server 会在合适的适合推送当前最新的 rv=12 版本号给 Client,使得 Client 版本号跟上 Server 的进展。bookmark 能够将 API Server 重启时须要从新同步的事件下降为原来的 3%(性能提升了几十倍),该功能有阿里云容器平台开发,已经发布到社区 Kubernetes-1.15 版本中。
除 List-Watch 以外,另一种客户端的访问模式是直接查询 API Server,以下图所示。为了保证客户端在多个 API Server 节点间读到一致的数据,API Server 会经过获取 etcd 中的数据来支持 Client 的查询请求。从性能角度看,这带来了几个问题:
Quorum read
,这个查询开销是集群级别,没法扩展的。为了解决这个问题,咱们设计了 API Server 与 etcd 的数据协同机制,确保 Client 可以经过 API Server 的 cache 获取到一致的数据,其原理以下图所示,总体工做流程以下:
这个方式并未打破 Client 的一致性模型(感兴趣的能够本身论证一下),同时经过 cache 响应用户请求时咱们能够灵活的加强查询能力,好比支持 namespace nodename/labels 索引。该加强大幅提升了 API Server 的读请求处理能力,在万台规模集群中典型的 describe node 的时间从原来的 5s 下降到 0.3s(触发了 node name 索引),其余如 get nodes 等查询操做的效率也得到了成倍的增加。
在 10k node 的生产集群中,Controller 中存储着近百万的对象,从 API Server 获取这些对象并反序列化的开销是没法忽略的,重启 Controller 恢复时可能须要花费几分钟才能完成这项工做,这对于阿里巴巴规模的企业来讲是不可接受的。为了减少组件升级对系统可用性的影响,咱们须要尽可能的减少 controller 单次升级对系统的中断时间,这里经过以下图所示的方案来解决这个问题:
经过这个方案,咱们将 controller 中断时间下降到秒级别(升级时 < 2s),即便在异常宕机时,备仅需等待 leader lease 的过时(默认 15s),无须要花费几分钟从新同步数据。经过这个加强,显著的下降了 controller MTTR,同时下降了 controller 恢复时对 API Server 的性能冲击。该方案一样适用于 scheduler。
因为历史缘由,阿里巴巴的调度器采用了自研的架构,因时间的关系本次分享并未展开调度器部分的加强。这里仅分享两个基本的思路,以下图所示:
阿里巴巴经过一系列的加强与优化,成功将 Kubernetes 应用到生产环境并达到了单集群 10000 节点的超大规模,具体包括:
经过这一系列功能加强,阿里巴巴成功将内部最核心的业务运行在上万节点的 Kubernetes 集群之上,并经历了 2019 年天猫 618 大促的考验。
做者简介:
曾凡松(花名:逐灵),阿里云云原生应用平台高级技术专家。
有丰富的分布式系统设计研发经验。在集群资源调度这一领域,曾负责的自研调度系统管理了数十万规模的节点,在集群资源调度、容器资源隔离、不一样工做负载混部等方面有丰富的实践经验。当前主要负责 Kubernetes 在阿里内部的规模化落地,将 Kubernetes 应用于阿里内部的最核心电商业务,提升了应用发布效率及集群资源利用率,并稳定支撑了 2018 双十一 及 2019 618 大促。
** “ 阿里巴巴云原生微信公众号(ID:Alicloudnative)关注微服务、Serverless、容器、Service Mesh 等技术领域、聚焦云原生流行技术趋势、云原生大规模的落地实践,作最懂云原生开发者的技术公众号。”**