当 K8s 集群达到万级规模,阿里巴巴如何解决系统各组件性能问题?

本文主要介绍阿里巴巴在大规模生产环境中落地 Kubernetes 的过程当中,在集群规模上遇到的典型问题以及对应的解决方案,内容包含对 etcd、kube-apiserver、kube-controller 的若干性能及稳定性加强,这些关键的加强是阿里巴巴内部上万节点的 Kubernetes 集群可以平稳支撑 2019 年天猫 618 大促的关键所在。

背景

从阿里巴巴最先期的 AI 系统(2013)开始,集群管理系统经历了多轮的架构演进,到 2018 年全面的应用 Kubernetes ,这期间的故事是很是精彩的,有机会能够单独给你们作一个分享。这里忽略系统演进的过程,不去讨论为何 Kubernetes 可以在社区和公司内部全面的胜出,而是将焦点关注到应用 Kubernetes 中会遇到什么样的问题,以及咱们作了哪些关键的优化。node

在阿里巴巴的生产环境中,容器化的应用超过了 10k 个,全网的容器在百万的级别,运行在十几万台宿主机上。支撑阿里巴巴核心电商业务的集群有十几个,最大的集群有几万的节点。在落地 Kubernetes 的过程当中,在规模上面临了很大的挑战,好比如何将 Kubernetes 应用到超大规模的生产级别。web

罗马不是一天就建成的,为了了解 Kubernetes 的性能瓶颈,咱们结合阿里的生产集群现状,估算了在 10k 个节点的集群中,预计会达到的规模:算法

  • 20w pods
  • 100w objects

咱们基于 Kubemark 搭建了大规模集群模拟的平台,经过一个容器启动多个(50个)Kubemark 进程的方式,使用了 200 个 4c 的容器模拟了 10k 节点的 kubelet。在模拟集群中运行常见的负载时,咱们发现一些基本的操做好比 Pod 调度延迟很是高,达到了惊人的 10s 这一级别,而且集群处在很是不稳定的状态。数据库

当 Kubernetes 集群规模达到 10k 节点时,系统的各个组件均出现相应的性能问题,好比:后端

  1. etcd 中出现了大量的读写延迟,而且产生了拒绝服务的情形,同时因其空间的限制也没法承载 Kubernetes 存储大量的对象;
  2. API Server 查询 pods/nodes 延迟很是的高,并发查询请求可能地址后端 etcd oom;
  3. Controller 不能及时从 API Server 感知到在最新的变化,处理的延时较高;当发生异常重启时,服务的恢复时间须要几分钟;
  4. Scheduler 延迟高、吞吐低,没法适应阿里业务平常运维的需求,更没法支持大促态的极端场景。

etcd improvements

为了解决这些问题,阿里云容器平台在各方面都作了很大的努力,改进 Kubernetes 在大规模场景下的性能。api

首先是 etcd 层面,做为 Kubernetes 存储对象的数据库,其对 Kubernetes 集群的性能影响相当重要。安全

  • 初版本的改进,咱们经过将 etcd 的数据转存到 tair 集群中,提升了 etcd 存储的数据总量。但这个方式有一个显著的弊端是额外增长的 tair 集群,增长的运维复杂性对集群中的数据安全性带来了很大的挑战,同时其数据一致性模型也并不是基于 raft 复制组,牺牲了数据的安全性。
  • 第二版本的改进,咱们经过将 API Server 中不一样类型的对象存储到不一样的 etcd 集群中。从 etcd 内部看,也就对应了不一样的数据目录,经过将不一样目录的数据路由到不一样的后端 etcd 中,从而下降了单个 etcd 集群中存储的数据总量,提升了扩展性。
  • 第三版本的改进,咱们深刻研究了 etcd 内部的实现原理,并发现了影响 etcd 扩展性的一个关键问题在底层 bbolt db 的 page 页面分配算法上:随着 etcd 中存储的数据量的增加,bbolt db 中线性查找“连续长度为 n 的 page 存储页面”的性能显著降低。

为了解决该问题,咱们设计了基于 segregrated hashmap 的空闲页面管理算法,hashmap 以连续 page 大小为 key, 连续页面起始 page id 为  value。经过查这个 segregrated hashmap 实现 O(1) 的空闲 page 查找,极大地提升了性能。在释放块时,新算法尝试和地址相邻的 page 合并,并更新 segregrated hashmap。更详细的算法分析能够见已发表在 CNCF 博客的博文:
https://www.cncf.io/blog/2019/05/09/performance-optimization-of-etcd-in-web-scale-data-scenario/性能优化

经过这个算法改进,咱们能够将 etcd 的存储空间从推荐的 2GB 扩展到 100GB,极大的提升了 etcd 存储数据的规模,而且读写无显著延迟增加。除此以外,咱们也和谷歌工程师协做开发了 etcd raft learner(类 zookeeper observer)/fully concurrent read 等特性,在数据的安全性和读写性能上进行加强。这些改进已贡献开源,将在社区 etcd 3.4 版本中发布。架构

API Server improvements

Efficient node heartbeats

在 Kubernetes 集群中,影响其扩展到更大规模的一个核心问题是如何有效的处理节点的心跳。在一个典型的生产环境中 (non-trival),kubelet 每 10s 汇报一次心跳,每次心跳请求的内容达到 15kb(包含节点上数十计的镜像,和若干的卷信息),这会带来两大问题:并发

  1. 心跳请求触发 etcd 中 node 对象的更新,在 10k nodes 的集群中,这些更新将产生近 1GB/min 的 transaction logs(etcd 会记录变动历史);
  2. API Server 很高的 CPU 消耗,node 节点很是庞大,序列化/反序列化开销很大,处理心跳请求的 CPU 开销超过 API Server CPU 时间占用的 80%。

为了解决这个问题,Kubernetes 引入了一个新的 build-in Lease API ,将与心跳密切相关的信息从 node 对象中剥离出来,也就是上图中的 Lease 。本来 kubelet 每 10s 更新一次 node 对象升级为:

  1. 每 10s 更新一次 Lease 对象,代表该节点的存活状态,Node Controller 根据该 Lease 对象的状态来判断节点是否存活;
  2. 处于兼容性的考虑,下降为每 60s 更新一次 node 对象,使得 Eviction_ _Manager 等能够继续按照原有的逻辑工做。

由于 Lease 对象很是小,所以其更新的代价远小于更新 node 对象。kubernetes 经过这个机制,显著的下降了 API Server 的 CPU 开销,同时也大幅减少了 etcd 中大量的 transaction logs,成功将其规模从 1000 扩展到了几千个节点的规模,该功能在社区 Kubernetes-1.14 中已经默认启用。

API Server load balancing

在生产集群中,出于性能和可用性的考虑,一般会部署多个节点组成高可用 Kubernetes 集群。但在高可用集群实际的运行中,可能会出现多个 API Server 之间的负载不均衡,尤为是在集群升级或部分节点发生故障重启的时候。这给集群的稳定性带来了很大的压力,本来计划经过高可用的方式分摊 API Server 面临的压力,但在极端状况下全部压力又回到了一个节点,致使系统响应时间变长,甚至击垮该节点继而致使雪崩。

下图为压测集群中模拟的一个 case,在三个节点的集群,API Server 升级后全部的压力均打到了其中一个 API Server 上,其 CPU 开销远高于其余两个节点。

解决负载均衡问题,一个天然的思路就是增长 load balancer。前文的描述中提到,集群中主要的负载是处理节点的心跳,那咱们就在 API Server 与 kubelet 中间增长 lb,有两个典型的思路:

  1. API Server 测增长 lb,全部的 kubelets 链接 lb,典型的云厂商交付的 Kubernetes 集群,就是这一模式;
  2. kubelet 测增长 lb,由 lb 来选择 API Server。

经过压测环境验证发现,增长 lb 并不能很好的解决上面提到的问题,咱们必需要深刻理解 Kubernetes 内部的通讯机制。深刻到 Kubernetes 中研究发现,为了解决 tls 链接认证的开销,Kubernetes 客户端作了不少的努力确保“尽可能复用一样的 tls 链接”,大多数状况下客户端 watcher 均工做在下层的同一个 tls 链接上,仅当这个链接发生异常时,才可能会触发重连继而发生 API Server 的切换。其结果就是咱们看到的,当 kubelet 链接到其中一个 API Server 后,基本上是不会发生负载切换。为了解决这个问题,咱们进行了三个方面的优化:

  1. API Server:认为客户端是不可信的,须要保护本身不被过载的请求击溃。当自身负载超过一个阈值时,发送 409 - too many requests 提醒客户端退避;当自身负载超过一个更高的阈值时,经过关闭客户端链接拒绝请求;
  2. Client:在一个时间段内频繁的收到 409 时,尝试重建链接切换 API Server;按期地重建链接切换 API Server 完成洗牌;
  3. 运维层面,咱们经过设置 maxSurge=3 的方式升级 API Server,避免升级过程带来的性能抖动。

如上图左下角监控图所示,加强后的版本能够作到 API Server 负载基本均衡,同时在显示重启两个节点(图中抖动)时,可以快速的自动恢复到均衡状态。

List-Watch & Cacher

List-Watch 是 Kubernetes 中 Server 与 Client 通讯最核心一个机制,etcd 中全部对象及其更新的信息,API Server 内部经过 Reflector 去 watch etcd 的数据变化并存储到内存中,controller/kubelets 中的客户端也经过相似的机制去订阅数据的变化。

在 List-Watch 机制中面临的一个核心问题是,当 Client 与 Server 之间的通讯断开时,如何确保重连期间的数据不丢,这在 Kubernetes 中经过了一个全局递增的版本号 resourceVersion 来实现。以下图所示 Reflector 中保存这当前已经同步到的数据版本,重连时 Reflector 告知 Server 本身当前的版本(5),Server 根据内存中记录的最近变动历史计算客户端须要的数据起始位置(7)。

这一切看起来十分简单可靠,可是...

在 API Server 内部,每一个类型的对象会存储在一个叫作 storage 的对象中,好比会有:

  1. Pod Storage
  2. Node Storage
  3. Configmap Storage
  4. ...

每一个类型的 storage 会有一个有限的队列,存储对象最近的变动,用于支持 watcher 必定的滞后(重试等场景)。通常来讲,全部类型的类型共享一个递增版本号空间(1, 2, 3, ..., n),也就是如上图所示,pod 对象的版本号仅保证递增不保证连续。Client 使用 List-Watch 机制同步数据时,可能仅关注 pods 中的一部分,最典型的 kubelet 仅关注和本身节点相关的 pods,如上图所示,某个 kubelet 仅关注绿色的 pods (2, 5)。

由于 storage 队列是有限的(FIFO),当 pods 的更新时队列,旧的变动就会从队列中淘汰。如上图所示,当队列中的更新与某个 Client 无关时,Client 进度仍然保持在 rv=5,若是 Client 在 5 被淘汰后重连,这时候 API Server 没法判断 5 与当前队列最小值(7)之间是否存在客户端须要感知的变动,所以返回 Client too old version err 触发 Client 从新 list 全部的数据。为了解决这个问题,Kubernetes 引入 Watch bookmark 机制:

bookmark 的核心思想归纳起来就是在 Client 与 Server 之间保持一个“心跳”,即便队列中无 Client 须要感知的更新,Reflector 内部的版本号也须要及时的更新。如上图所示,Server 会在合适的适合推送当前最新的 rv=12 版本号给 Client,使得 Client 版本号跟上 Server 的进展。bookmark 能够将 API Server 重启时须要从新同步的事件下降为原来的 3%(性能提升了几十倍),该功能有阿里云容器平台开发,已经发布到社区 Kubernetes-1.15 版本中。

Cacher & Indexing

除 List-Watch 以外,另一种客户端的访问模式是直接查询 API Server,以下图所示。为了保证客户端在多个 API Server 节点间读到一致的数据,API Server 会经过获取 etcd 中的数据来支持 Client 的查询请求。从性能角度看,这带来了几个问题:

  1. 没法支持索引,查询节点的 pod 须要先获取集群中全部的 pod,这个开销是巨大的;
  2. 由于 etcd 的 request-response 模型,单次请求查询过大的数据会消耗大量的内存,一般状况下 API Server 与 etcd 之间的查询会限制请求的数据量,并经过分页的方式来完成大量的数据查询,分页带来的屡次的 round trip 显著下降了性能;
  3. 为了确保一致性,API Server 查询 etcd 均采用了 Quorum read ,这个查询开销是集群级别,没法扩展的。

为了解决这个问题,咱们设计了 API Server 与 etcd 的数据协同机制,确保 Client 可以经过 API Server 的 cache 获取到一致的数据,其原理以下图所示,总体工做流程以下:

  1. t0 时刻 Client 查询 API Server;
  2. API Server 请求 etcd 获取当前的数据版本 rv@t0;
  3. API Server 请求进度的更新,并等待 Reflector 数据版本达到 rv@t0;
  4. 经过 cache 响应用户的请求。

这个方式并未打破 Client 的一致性模型(感兴趣的能够本身论证一下),同时经过 cache 响应用户请求时咱们能够灵活的加强查询能力,好比支持 namespace nodename/labels 索引。该加强大幅提升了 API Server 的读请求处理能力,在万台规模集群中典型的 describe node 的时间从原来的 5s 下降到 0.3s(触发了 node name 索引),其余如 get nodes 等查询操做的效率也得到了成倍的增加。

Controller failover

在 10k node 的生产集群中,Controller 中存储着近百万的对象,从 API Server 获取这些对象并反序列化的开销是没法忽略的,重启 Controller 恢复时可能须要花费几分钟才能完成这项工做,这对于阿里巴巴规模的企业来讲是不可接受的。为了减少组件升级对系统可用性的影响,咱们须要尽可能的减少 controller 单次升级对系统的中断时间,这里经过以下图所示的方案来解决这个问题:

  1. 预启动备 controller informer ,提早加载 controller 须要的数据;
  2. 主 controller 升级时,会主动释放 Leader Lease,触发备当即接管工做。

经过这个方案,咱们将 controller 中断时间下降到秒级别(升级时 < 2s),即便在异常宕机时,备仅需等待 leader lease 的过时(默认 15s),无须要花费几分钟从新同步数据。经过这个加强,显著的下降了 controller MTTR,同时下降了 controller 恢复时对 API Server 的性能冲击。该方案一样适用于 scheduler。

Customized scheduler

因为历史缘由,阿里巴巴的调度器采用了自研的架构,因时间的关系本次分享并未展开调度器部分的加强。这里仅分享两个基本的思路,以下图所示:

  1. Equivalence classes:典型的用户扩容请求为一次扩容多个容器,所以咱们经过将 pending 队列中的请求划分等价类的方式,实现批处理,显著的下降 Predicates/Priorities 的次数;
  2. Relaxed randomization:对于单次的调度请求,当集群中的候选节点很是多时,咱们并不须要评估集群中所有节点,在挑选到足够的节点后便可进入调度的后续处理(经过牺牲求解的精确性来提升调度性能)。

总结

阿里巴巴经过一系列的加强与优化,成功将 Kubernetes 应用到生产环境并达到了单集群 10000 节点的超大规模,具体包括:

  1. 经过将索引和数据分离、数据 shard 等方式提升 etcd 存储容量,并最终经过改进 etcd 底层 bbolt db 存储引擎的块分配算法,大幅提升了 etcd 在存储大数据量场景下的性能,经过单 etcd 集群支持大规模 Kubernetes 集群,大幅简化了整个系统架构的复杂性;
  2. 经过落地 Kubernetes 轻量级心跳、改进 HA 集群下多个 API Server 节点的负载均衡、ListWatch 机制中增长 bookmark、经过索引与 Cache 的方式改进了 Kubernetes 大规模集群中最头疼的 List 性能瓶颈,使得稳定的运行万节点集群成为可能;
  3. 经过热备的方式大幅缩短了 controller/scheduler 在主备切换时的服务中断时间,提升了整个集群的可用性;
  4. 阿里巴巴自研调度器在性能优化上最有效的两个思路:等价类处理以及随机松弛算法。

经过这一系列功能加强,阿里巴巴成功将内部最核心的业务运行在上万节点的 Kubernetes 集群之上,并经历了 2019 年天猫 618 大促的考验。

做者简介:曾凡松(花名:逐灵),阿里云云原生应用平台高级技术专家。
有丰富的分布式系统设计研发经验。在集群资源调度这一领域,曾负责的自研调度系统管理了数十万规模的节点,在集群资源调度、容器资源隔离、不一样工做负载混部等方面有丰富的实践经验。当前主要负责 Kubernetes 在阿里内部的规模化落地,将 Kubernetes 应用于阿里内部的最核心电商业务,提升了应用发布效率及集群资源利用率,并稳定支撑了 2018 双十一 及 2019 618 大促。



本文做者:曾凡松

阅读原文

本文为云栖社区原创内容,未经容许不得转载。

相关文章
相关标签/搜索