K8s 实践 | 如何解决多租户集群的安全隔离问题?

做者 | 匡大虎  阿里巴巴技术专家html

导读:如何解决多租户集群的安全隔离问题是企业上云的一个关键问题,本文主要介绍 Kubernetes 多租户集群的基本概念和常见应用形态,以及在企业内部共享集群的业务场景下,基于 Kubernetes 原生和 ACK 集群现有安全管理能力快速实现多租户集群的相关方案。git

什么是多租户集群?

这里首先介绍一下"租户",租户的概念不止局限于集群的用户,它能够包含为一组计算,网络,存储等资源组成的工做负载集合。而在多租户集群中,须要在一个集群范围内(将来可能会是多集群)对不一样的租户提供尽量的安全隔离,以最大程度的避免恶意租户对其余租户的***,同时须要保证租户之间公平地分配共享集群资源。github

在隔离的安全程度上,咱们能够将其分为软隔离 (Soft Multi-tenancy) 和硬隔离 (Hard Multi-tenancy) 两种。api

  • 其中软隔离更多的是面向企业内部的多租需求,该形态下默认不存在恶意租户,隔离的目的是为了内部团队间的业务保护和对可能的安全***进行防御;
  • 而硬隔离面向的更可能是对外提供服务的服务供应商,因为该业务形态下没法保证不一样租户中业务使用者的安全背景,咱们默认认为租户之间以及租户与 K8s 系统之间是存在互相***的可能,所以这里也须要更严格的隔离做为安全保障。

关于多租户的不一样应用场景,在下节会有更细致的介绍。安全

2.png

多租户应用场景

下面介绍一下典型的两种企业多租户应用场景和不一样的隔离需求:网络

企业内部共享集群的多租户

该场景下集群的全部用户均来自企业内部,这也是当前不少 K8s 集群客户的使用模式,由于服务使用者身份的可控性,相对来讲这种业务形态的安全风险是相对可控的,毕竟老板能够直接裁掉不怀好意的员工:)根据企业内部人员结构的复杂程度,咱们能够经过命名空间对不一样部门或团队进行资源的逻辑隔离,同时定义如下几种角色的业务人员:架构

  • 集群管理员:具备集群的管理能力(扩缩容、添加节点等操做);负责为租户管理员建立和分配命名空间;负责各种策略(RAM/RBAC/networkpolicy/quota...)的 CRUD;
  • 租户管理员:至少具备集群的 RAM 只读权限;管理租户内相关人员的 RBAC 配置;
  • 租户内用户:在租户对应命名空间内使用权限范围内的 K8s 资源。

在创建了基于用户角色的访问控制基础上,咱们还须要保证命名空间之间的网络隔离,在不一样的命名空间之间只可以容许白名单范围内的跨租户应用请求。less

另外,对于业务安全等级要求较高的应用场景,咱们须要限制应用容器的内核能力,能够配合 seccomp / AppArmor / SELinux 等策略工具达到限制容器运行时刻 capabilities 的目的。ide

3.png

固然 Kubernetes 现有的命名空间单层逻辑隔离还不足以知足一部分大型企业应用复杂业务模型对隔离需求,咱们能够关注 Virtual Cluster,它经过抽象出更高级别的租户资源模型来实现更精细化的多租管理,以此弥补原生命名空间能力上的不足。微服务

SaaS & KaaS 服务模型下的多租户

在 SaaS 多租场景下, Kubernetes 集群中的租户对应为 SaaS 平台中各服务应用实例和 SaaS 自身控制平面,该场景下能够将平台各服务应用实例划分到彼此不一样的命名空间中。而服务的最终用户是没法与 Kubernetes 的控制平面组件进行交互,这些最终用户可以看到和使用的是 SaaS 自身控制台,他们经过上层定制化的 SaaS 控制平面使用服务或部署业务(以下左图所示)。

例如,某博客平台部署在多租户集群上运行。在该场景下,租户是每一个客户的博客实例和平台本身的控制平面。平台的控制平面和每一个托管博客都将在不一样的命名空间中运行。客户将经过平台的界面来建立和删除博客、更新博客软件版本,但没法了解集群的运做方式。

KaaS 多租场景常见于云服务提供商,该场景下业务平台的服务直接经过 Kubernetes 控制平面暴露给不一样租户下的用户,最终用户可使用 K8s 原生 API 或者服务提供商基于 CRDs/controllers 扩展出的接口。出于隔离的最基本需求,这里不一样租户也须要经过命名空间进行访问上的逻辑隔离,同时保证不一样租户间网络和资源配额上的隔离。

与企业内部共享集群不一样,这里的最终用户均来自非受信域,他们当中不可避免的存在恶意租户在服务平台上执行恶意代码,所以对于 SaaS/KaaS 服务模型下的多租户集群,咱们须要更高标准的安全隔离,而 Kubernetes 现有原生能力还不足以知足安全上的需求,为此咱们须要如安全容器这样在容器运行时刻内核级别的隔离来强化该业务形态下的租户安全。

4.jpeg

实施多租户架构

在规划和实施多租户集群时,咱们首先能够利用的是 Kubernetes 自身的资源隔离层,包括集群自己、命名空间、节点、pod 和容器均是不一样层次的资源隔离模型。当不一样租户的应用负载可以共享相同的资源模型时,就会存在彼此之间的安全隐患。为此,咱们须要在实施多租时控制每一个租户可以访问到的资源域,同时在资源调度层面尽量的保证处理敏感信息的容器运行在相对独立的资源节点内;若是出于资源开销的角度,当有来自不一样租户的负载共享同一个资源域时,能够经过运行时刻的安全和资源调度控制策略减小跨租户***的风险。

虽然 Kubernetes 现有安全和调度能力还不足以彻底安全地实施多租隔离,可是在如企业内部共享集群这样的应用场景下,经过命名空间完成租户间资源域的隔离,同时经过 RBAC、PodSecurityPolicy、NetworkPolicy 等策略模型控制租户对资源访问范围和能力的限制,以及现有资源调度能力的结合,已经能够提供至关的安全隔离能力。而对于 SaaS、KaaS 这样的服务平台形态,咱们能够经过阿里云容器服务近期推出的安全沙箱容器来实现容器内核级别的隔离,可以最大程度的避免恶意租户经过逃逸手段的跨租户***。

本节重点关注基于 Kubernetes 原生安全能力的多租户实践。

访问控制

AuthN & AuthZ & Admission

ACK 集群的受权分为 RAM 受权和 RBAC 受权两个步骤,其中 RAM 受权做用于集群管理接口的访问控制,包括对集群的 CRUD 权限(如集群可见性、扩缩容、添加节点等操做),而 RBAC 受权用于集群内部 Kubernetes 资源模型的访问控制,能够作到指定资源在命名空间粒度的细化受权。

ACK 受权管理为租户内用户提供了不一样级别的预置角色模板,同时支持绑定多个用户自定义的集群角色,此外支持对批量用户的受权。如需详细了解 ACK 上集群相关访问控制受权,请参阅相关帮助文档

NetworkPolicy

NetworkPolicy 能够控制不一样租户业务 pod 之间的网络流量,另外能够经过白名单的方式打开跨租户之间的业务访问限制。

您能够在使用了 Terway 网络插件的容器服务集群上配置 NetworkPolicy,这里能够得到一些策略配置的示例。

PodSecurityPolicy

PSP 是 K8s 原生的集群维度的资源模型,它能够在apiserver中pod建立请求的 admission 阶段校验其运行时刻行为是否知足对应 PSP 策略的约束,好比检查 pod 是否使用了 host 的网络、文件系统、指定端口、PID namespace 等,同时能够限制租户内的用户开启特权(privileged)容器,限制挂盘类型,强制只读挂载等能力;不只如此,PSP 还能够基于绑定的策略给 pod 添加对应的 SecurityContext,包括容器运行时刻的 uid,gid 和添加或删除的内核 capabilities 等多种设置。

关于如何开启 PSP admission 和相关策略及权限绑定的使用,能够参阅这里

OPA

OPA(Open Policy Agent)是一种功能强大的策略引擎,支持解耦式的 policy decisions 服务而且社区已经有了相对成熟的与 Kubernetes 的集成方案。当现有 RBAC 在命名空间粒度的隔离不可以知足企业应用复杂的安全需求时,能够经过 OPA 提供 object 模型级别的细粒度访问策略控制。

同时 OPA 支持七层的 NetworkPolicy 策略定义及基于 labels/annotation 的跨命名空间访问控制,能够做为 K8s 原生 NetworkPolicy 的有效加强。

资源调度相关

Resource Quotas & Limit Range

在多租户场景下,不一样团队或部门共享集群资源,不免会有资源竞争的状况发生,为此咱们须要对每一个租户的资源使用配额作出限制。其中 ResourceQuota 用于限制租户对应命名空间下全部 pod 占用的总资源 request 和 limit,LimitRange 用来设置租户对应命名空间中部署 pod 的默认资源 request 和 limit 值。另外咱们还能够对租户的存储资源配额和对象数量配额进行限制。

关于资源配额的详细指导能够参见这里

Pod Priority/Preemption

从 1.14 版本开始 pod 的优先级和抢占已经从 beta 成为稳定特性,其中 pod priority 标识了 pod 在 pending 状态的调度队列中等待的优先级;而当节点资源不足等缘由形成高优先的 pod 没法被调度时,scheduler 会尝试驱逐低优先级的 pod 来保证高优先级 pod 能够被调度部署。

在多租户场景下,能够经过优先级和抢占设置确保租户内重要业务应用的可用性;同时 pod priority 能够和 ResouceQuota 配合使用,完成租户在指定优先级下有多少配额的限制。

Dedicated Nodes

注意:恶意租户能够规避由节点污点和容忍机制强制执行的策略。如下说明仅用于企业内部受信任租户集群,或租户没法直接访问 Kubernetes 控制平面的集群。

经过对集群中的某些节点添加污点,能够将这些节点用于指定几个租户专门使用。在多租户场景下,例如集群中的 GPU 节点能够经过污点的方式保留给业务应用中须要使用到 GPU 的服务团队使用。集群管理员能够经过如 effect: "NoSchedule" 这样的标签给节点添加污点,同时只有配置了相应容忍设置的 pod 能够被调度到该节点上。

固然恶意租户能够一样经过给自身 pod 添加一样的容忍配置来访问该节点,所以仅使用节点污点和容忍机制还没法在非受信的多租集群上保证目标节点的独占性。

关于如何使用节点污点机制来控制调度,请参阅这里

敏感信息保护

secrets encryption at REST

在多租户集群中不一样租户用户共享同一套 etcd 存储,在最终用户能够访问 Kubernetes 控制平面的场景下,咱们须要保护 secrets 中的数据,避免在访问控制策略配置不当状况下的敏感信息泄露。为此能够参考 K8s 原生的 secret 加密能力,请参阅这里

ACK 也提供了基于阿里云 KMS 服务的 secrets 加密开源解决方案,能够参阅这里

总结

在实施多租户架构时首先须要肯定对应的应用场景,包括判断租户内用户和应用负载的可信程度以及对应的安全隔离程度。在此基础上如下几点是安全隔离的基本需求:

  • 开启 Kubernetes 集群的默认安全配置:开启 RBAC 鉴权并实现基于namespace的软隔离;开启 secrets encryption 能力,加强敏感信息保护;基于 CIS Kubernetes benchmarks 进行相应的安全配置;
  • 开启 NodeRestriction, AlwaysPullImages, PodSecurityPolicy 等相关 admission controllers;
  • 经过 PSP 限制 pod 部署的特权模式,同时控制其运行时刻 SecurityContext;
  • 配置 NetworkPolicy;
  • 使用Resource Quota & Limit Range限制租户的资源使用配额;
  • 在应用运行时刻遵循权限的最小化原则,尽量缩小pod内容器的系统权限;
  • Log everything;
  • 对接监控系统,实现容器应用维度的监控。

而对于如 SaaS、KaaS 等服务模型下,或者咱们没法保证租户内用户的可信程度时,咱们须要采起一些更强有力的隔离手段,好比:

  • 使用如 OPA 等动态策略引擎进行网络或 Object 级别的细粒度访问控制;
  • 使用安全容器实现容器运行时刻内核级别的安全隔离;
  • 完备的监控、日志、存储等服务的多租隔离方案。

注意:文中图片来源

阿里巴巴云原生关注微服务、Serverless、容器、Service Mesh 等技术领域、聚焦云原生流行技术趋势、云原生大规模的落地实践,作最懂云原生开发者的技术圈。”

相关文章
相关标签/搜索