- 在 /etc/nova/nova.conf 中,nova 经过 scheduler_driver,scheduler_available_filters 和 scheduler_default_filters 这三个参数来配置 nova-scheduler。
|
|
- scheduler_driver
- Filter scheduler 是 nova-scheduler 默认的调度器,调度过程分为两步
- 经过过滤器(filter)选择知足条件的计算节点(运行 nova-compute)
- 经过权重计算(weighting)选择在最优(权重值最大)的计算节点上建立 Instance
|
scheduler_driver=nova.scheduler.filter_scheduler.FilterScheduler
|
|
|
- Nova 容许使用第三方 scheduler,配置 scheduler_driver 便可。
- Scheduler 能够使用多个 filter 依次进行过滤,过滤以后的节点再经过计算权重选出最适合的节点。
|
 上图是调度过程的一个示例: 1.最开始有 6 个计算节点 Host1-Host6 2.经过多个 filter 层层过滤,Host2 和 Host4 没有经过,被刷掉了3.Host1,Host3,Host5,Host6 计算权重,结果 Host5 得分最高,最终入选 |
- scheduler_available_filters
- 当 Filter scheduler 须要执行调度操做时,会让 filter 对计算节点进行判断,filter 返回 True 或 False
- Nova.conf 中的 scheduler_available_filters 选项用于配置 scheduler 可用的 filter,默认是全部 nova 自带的 filter 均可以用于过滤操做
|
scheduler_available_filters = nova.scheduler.filters.all_filters
|
|
|
- scheduler_default_filters
- 用于指定 scheduler 真正使用的 filter
|
scheduler_default_filters = RetryFilter, AvailabilityZoneFilter, RamFilter,
DiskFilter, ComputeFilter, ComputeCapabilitiesFilter, ImagePropertiesFilter,
ServerGroupAntiAffinityFilter, ServerGroupAffinityFilter
|
|
|
- RetryFilter
- 做用是刷掉以前已经调度过的节点
- 举个例子: 假设 A,B,C 三个节点都经过了过滤,最终 A 由于权重值最大被选中执行操做。 但因为某个缘由,操做在 A 上失败了。 默认状况下,nova-scheduler 会从新执行过滤操做(重复次数由 scheduler_max_attempts 选项指定,默认是 3)。 那么这时候 RetryFilter 就会将 A 直接刷掉,避免操做再次失败。 RetryFilter 一般做为第一个 filter。
|
|
- AvailabilityZoneFilter
- 为提升容灾性和提供隔离服务,能够将计算节点划分到不一样的Availability Zone中。
- 建立 Instance 时,须要指定将 Instance 部署到在哪一个 Availability Zone中。nova-scheduler 在作 filtering 时,会使用 AvailabilityZoneFilter 将不属于指定 Availability Zone 的计算节点过滤掉。
|
 |
- RamFilter
- RamFilter 将不能知足 flavor 内存需求的计算节点过滤掉。
- 为了提升系统的资源使用率,OpenStack 在计算节点可用内存时容许 overcommit,也就是能够超过实际内存大小。 超过的程度是经过 nova.conf 中 ram_allocation_ratio 这个参数来控制的,默认值为 1.5
|
ram_allocation_ratio = 1.5
|
其含义是:若是计算节点的内存为 10GB,OpenStack 则会认为它有 15GB(10*1.5)内存。
|
|
- DiskFilter
- DiskFilter 将不能知足 flavor 磁盘需求的计算节点过滤掉。
- Disk 一样容许 overcommit,经过 nova.conf 中 disk_allocation_ratio 控制,默认值为 1
|
disk_allocation_ratio = 1.0
|
|
|
- CoreFilter
- CoreFilter 将不能知足 flavor vCPU 需求的计算节点过滤掉。
- vCPU 一样容许 overcommit,经过 nova.conf 中 cpu_allocation_ratio 控制,默认值为 16
|
cpu_allocation_ratio = 16.0
|
这意味着一个 8 vCPU 的计算节点,nova-scheduler 在调度时认为它有 128 个 vCPU。 须要提醒的是: nova-scheduler 默认使用的 filter 并无包含 CoreFilter。 若是要用,能够将 CoreFilter 添加到 nova.conf 的 scheduler_default_filters 配置选项中。
|
|
- ComputeFilter
- ComputeFilter 保证只有 nova-compute 服务正常工做的计算节点才可以被 nova-scheduler调度。ComputeFilter 显然是必选的 filter。
|
|
- ComputeCapabilitiesFilter
- ComputeCapabilitiesFilter 根据计算节点的特性来筛选。例如咱们的节点有 x86_64 和 ARM 架构的,若是想将 Instance 指定部署到 x86_64 架构的节点上,就能够利用 ComputeCapabilitiesFilter。
- flavor 中有个 Metadata ,Compute 的 Capabilities就在 Metadata中指定。
- 点击update Metadata,“Compute Host Capabilities” 列出了全部可设置 Capabilities

- 点击 “Architecture” 后面的 “+”,就能够在右边的列表中指定具体的架构

- 配置好后,ComputeCapabilitiesFilter 在调度时只会筛选出 x86_64 的节点。 若是没有设置 Metadata,ComputeCapabilitiesFilter 不会起做用,全部节点都会经过筛选。
|
 当配置了metadata后
 |
- ImagePropertiesFilter
- ImagePropertiesFilter 根据所选 image 的属性来筛选匹配的计算节点。 跟 flavor 相似,image 也有 metadata,用于指定其属性。
- 例如但愿某个 image 只能运行在 kvm 的 hypervisor 上,能够经过 “Hypervisor Type” 属性来指定

- 点击 “+”,而后在右边的列表中选择 “kvm”。

- 配置好后,ImagePropertiesFilter 在调度时只会筛选出 kvm 的节点。 若是没有设置 Image 的Metadata,ImagePropertiesFilter 不会起做用,全部节点都会经过筛选。
|
 |
- ServerGroupAntiAffinityFilter 这里能够进行设置,但我没成功???
- 能够尽可能将 instance 分散部署到不一样的节点上。
|
|
- ServerGroupAffinityFilter
- 与 ServerGroupAntiAffinityFilter 的做用相反,ServerGroupAffinityFilter 会尽可能将 instance 部署到同一个计算节点上。
|
|
- Weight
- nova-scheduler 选出了可以部署 instance 的计算节点。若是有多个计算节点经过了过滤,那么最终选择哪一个节点呢?
- Scheduler 会对每一个计算节点打分,得分最高的获胜。 打分的过程就是 weight,翻译过来就是计算权重值,那么 scheduler 是根据什么来计算权重值呢?
- 目前 nova-scheduler 的默认实现是根据计算节点空闲的内存量计算权重值: 空闲内存越多,权重越大,instance 将被部署到当前空闲内存最多的计算节点上。
|