做者:Ron Sobol
翻译:Bach(才云)
校对:星空下的文仔(才云)、bot(才云)
Kubernetes Scheduler 是 Kubernetes 控制平面的核心组件之一。它在控制平面上运行,将 Pod 分配给节点,同时平衡节点之间的资源利用率。将 Pod 分配给新节点后,在该节点上运行的 kubelet 会在 Kubernetes API 中检索 Pod 定义,根据节点上的 Pod 规范建立资源和容器。换句话说,Scheduler 在控制平面内运行,并将工做负载分配给 Kubernetes 集群。node
本文将对 Kubernetes Scheduler 进行深刻研究,首先概述通常的调度以及具备亲和力(affinity)和 taint 的驱逐调度,而后讨论调度程序的瓶颈以及生产中可能遇到的问题,最后研究如何微调调度程序的参数以适合集群。nginx
Kubernetes 调度是将 Pod 分配给集群中匹配节点的过程。Scheduler 监控新建立的 Pod,并为其分配最佳节点。它会根据 Kubernetes 的调度原则和咱们的配置选项选择最佳节点。最简单的配置选项是直接在 PodSpec
设置 nodeName:api
上面的 nginx pod 默认状况下将在 node-01 上运行,可是 nodeName 有许多限制致使没法正常运行 Pod,例如云中节点名称未知、资源节点不足以及节点网络间歇性问题等。所以,除了测试或开发期间,咱们最好不使用 nodeName。网络
若是要在一组特定的节点上运行 Pod,可使用 nodeSelector。咱们在 PodSpec
中将 nodeSelector 定义为一组键值对:架构
对于上面的 nginx pod,Kubernetes Scheduler 将找到一个磁盘类型为 ssd 的节点。固然,该节点能够具备其余标签。咱们能够在 Kubernetes 参考文档中查看标签的完整列表。框架
地址:https://kubernetes.io/docs/re...性能
使用 nodeSelector
有约束 Pod 能够在有特定标签的节点上运行。但它的使用仅受标签及其值限制。Kubernetes 中有两个更全面的功能来表达更复杂的调度需求:节点亲和力(node affinity),标记容器以将其吸引到一组节点上;taint 和 toleration,标记节点以排斥 Pod。这些功能将在下面讨论。学习
节点亲和力(Node Affinity)是在 Pod 上定义的一组约束,用于肯定哪些节点适合进行调度,即便用亲和性规则为 Pod 的节点分配定义硬性要求和软性要求。例如能够将 Pod 配置为仅运行带有 GPU 的节点,而且最好使用 NVIDIA_TESLA_V100 运行深度学习工做负载。Scheduler 会评估规则,并在定义的约束内找到合适的节点。与 nodeSelectors
类似,节点亲和性规则可与节点标签一块儿使用,但它比 nodeSelectors
更强大。测试
咱们能够为 podspec 添加四个类似性规则:ui
这四个规则由两个条件组成:必需或首选条件,以及两个阶段:计划和执行。以 required 开头的规则描述了必须知足的严格要求。以 preferred 开头的规则是软性要求,将强制执行但不能保证。调度阶段是指将 Pod 首次分配给节点。执行阶段适用于在调度分配后节点标签发生更改的状况。
若是规则声明为 IgnoredDuringExecution,Scheduler 在第一次分配后不会检查其有效性。但若是使用 RequiredDuringExecution 指定了规则,Scheduler 会经过将容器移至合适的节点来确保规则的有效性。
如下是示例:
上面的 Nginx Pod 具备节点亲和性规则,该规则让 Kubernetes Scheduler 将 Pod 放置在 us-east 的节点上。第二条规则指示优先使用 us-east-1 或 us-east-2。
使用亲和性规则,咱们可让 Kubernetes 调度决策适用于自定义需求。
K8sMeetup
Taint 与 Toleration
集群中并不是全部 Kubernetes 节点都相同。某些节点可能具备特殊的硬件,例如 GPU、磁盘或网络功能。一样,咱们可能须要将一些节点专用于测试、数据保护或用户组。咱们能够将 Taint 添加到节点以排斥 Pod,如如下示例所示:
kubectl taint nodes node1 test-environment=true:NoSchedule
使用 test-environment=true:NoScheduletaint
时,除非在 podspec 具备匹配的 toleration,不然 Kubernetes Scheduler 将不会分配任何 pod :
taint 和 tolerations 共同发挥做用,让 Kubernetes Scheduler 专用于某些节点并分配特定 Pod。
尽管 Kubernetes Scheduler 能选择最佳节点,可是在 Pod 开始运行以后,“最佳节点”可能会改变。因此从长远来看,Pod 的资源使用及其节点分配可能存在问题。
资源请求(Request)和限制(Limit):“Noisy Neighbor”
“Noisy Neighbor”并不特定于 Kubernetes。任何多租户系统都是它们的潜在地。假设有两个容器 A 和 B,它们在同一节点上运行。若是 Pod B 试图经过消耗全部 CPU 或内存来创造 noise,Pod A 将出现问题。若是咱们为容器设置了资源请求和限制就能控制住 neighbor。Kubernetes 将确保为容器安排其请求的资源,而且不会消耗超出其资源限制的资源。若是在生产中运行 Kubernetes,最好设置资源请求和限制以确保系统可靠。
系统进程资源不足
Kubernetes 节点主要是链接到 Kubernetes 控制平面的虚拟机。所以,节点上也有本身的操做系统和相关进程。若是 Kubernetes 工做负载消耗了全部资源,则这些节点将没法运行,并会发生各类问题问题。咱们须要在 kubelet 中使用 –system -reserved 设置保留资源,以防止发生这种状况。
抢占或调度 Pod
若是 Kubernetes Scheduler 没法将 Pod 调度到可用节点,则能够从节点抢占(preempt)或驱逐(evict)一些 Pod 以分配资源。若是看到 Pod 在集群中移动而没有发现特定缘由,可使用优先级类对其进行定义。一样,若是没有调度好 Pod,而且正在等待其余 Pod,也须要检查其优先级。
如下是示例:
能够经过如下方式在 podspec 中为分配优先级:
Kubernetes Scheduler 具备可插拔的调度框架架构,可向框架添加一组新的插件。插件实现 Plugin API,并被编译到调度程序中。下面咱们将讨论调度框架的工做流、扩展点和 Plugin API。
工做流和扩展点
调度 Pod 包括两个阶段:调度周期(scheduling cycle)和绑定周期(binding cycle)。在调度周期中,Scheduler 会找到一个可用节点,而后在绑定过程当中,将决策应用于集群。
下图说明了阶段和扩展点的流程:
调度工做流(来源:Kubernetes 文档)
工做流中的如下几点对插件扩展开放:
插件扩展实现了 Plugin API,是 Kubernetes Scheduler 的一部分。咱们能够在 Kubernetes 存储库中检查。插件应使用如下名称进行注册:
插件还实现了相关的扩展点,以下所示:
Kubernetes Scheduler 有一个工做流来查找和绑定 Pod 的可行节点。当集群中的节点数量很是多时,Scheduler 的工做量将成倍增长。在大型集群中,可能须要很长时间才能找到最佳节点,所以要微调调度程序的性能,以在延迟和准确性之间找到折中方案。
percentageOfNodesToScore 将限制节点的数量来计算本身的分数。默认状况下,Kubernetes 在 100 节点集群的 50% 和 5000 节点集群的 10% 之间设置线性阈值。默认最小值为 5%,它要确保至少考虑集群中 5% 节点的调度。
下面的示例展现了如何经过性能调整 kube-scheduler 来手动设置阈值:
若是有一个庞大的集群而且 Kubernetes 工做负载不能承受 Kubernetes Scheduler 引发的延迟,那么更改百分比是个好主意。
本文涵盖了 Kubernetes 调度的大多方面,从 Pod 和节点的配置开始,包括 nodeSelector、亲和性规则、taint 和 toleration,而后介绍了 Kubernetes Scheduler 框架、扩展点、API 以及可能发生的与资源相关的瓶颈,最后展现了性能调整设置。尽管 Kubernetes Scheduler 能简单地将 Pod 分配给节点,可是了解其动态性并对其进行配置以实现可靠的生产级 Kubernetes 设置相当重要。