在cgroup里面,跟CPU相关的子系统有cpusets、cpuacct和cpu。html
其中cpuset主要用于设置CPU的亲和性,能够限制cgroup中的进程只能在指定的CPU上运行,或者不能在指定的CPU上运行,同时cpuset还能设置内存的亲和性。设置亲和性通常只在比较特殊的状况才用得着,因此这里不作介绍。node
cpuacct包含当前cgroup所使用的CPU的统计信息,信息量较少,有兴趣能够去看看它的文档,这里不作介绍。shell
本篇只介绍cpu子系统,包括怎么限制cgroup的CPU使用上限及相对于其它cgroup的相对值。ubuntu
本篇全部例子都在ubuntu-server-x86_64 16.04下执行经过bash
在ubuntu下,systemd已经帮咱们mount好了cpu子系统,咱们只须要在相应的目录下建立子目录就能够了ide
#从这里的输出能够看到,cpuset被挂载在了/sys/fs/cgroup/cpuset, #而cpu和cpuacct一块儿挂载到了/sys/fs/cgroup/cpu,cpuacct下面 dev@ubuntu:~$ mount|grep cpu cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset) cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpu,cpuacct) #进入/sys/fs/cgroup/cpu,cpuacct并建立子cgroup dev@ubuntu:~$ cd /sys/fs/cgroup/cpu,cpuacct dev@ubuntu:/sys/fs/cgroup/cpu,cpuacct$ sudo mkdir test dev@ubuntu:/sys/fs/cgroup/cpu,cpuacct$ cd test dev@ubuntu:/sys/fs/cgroup/cpu,cpuacct/test$ ls cgroup.clone_children cpuacct.stat cpuacct.usage_percpu cpu.cfs_quota_us cpu.stat tasks cgroup.procs cpuacct.usage cpu.cfs_period_us cpu.shares notify_on_release
除了cgroup里面通用的cgroup.clone_children、tasks、cgroup.procs、notify_on_release这几个文件外,以cpuacct.开头的文件跟cpuacct子系统有关,咱们这里只须要关注cpu.开头的文件。测试
cfs_period_us用来配置时间周期长度,cfs_quota_us用来配置当前cgroup在设置的周期长度内所能使用的CPU时间数,两个文件配合起来设置CPU的使用上限。两个文件的单位都是微秒(us),cfs_period_us的取值范围为1毫秒(ms)到1秒(s),cfs_quota_us的取值大于1ms便可,若是cfs_quota_us的值为-1(默认值),表示不受cpu时间的限制。下面是几个例子:ui
1.限制只能使用1个CPU(每250ms能使用250ms的CPU时间) # echo 250000 > cpu.cfs_quota_us /* quota = 250ms */ # echo 250000 > cpu.cfs_period_us /* period = 250ms */ 2.限制使用2个CPU(内核)(每500ms能使用1000ms的CPU时间,即便用两个内核) # echo 1000000 > cpu.cfs_quota_us /* quota = 1000ms */ # echo 500000 > cpu.cfs_period_us /* period = 500ms */ 3.限制使用1个CPU的20%(每50ms能使用10ms的CPU时间,即便用一个CPU核心的20%) # echo 10000 > cpu.cfs_quota_us /* quota = 10ms */ # echo 50000 > cpu.cfs_period_us /* period = 50ms */
shares用来设置CPU的相对值,而且是针对全部的CPU(内核),默认值是1024,假如系统中有两个cgroup,分别是A和B,A的shares值是1024,B的shares值是512,那么A将得到1024/(1204+512)=66%的CPU资源,而B将得到33%的CPU资源。shares有两个特色:code
若是A不忙,没有使用到66%的CPU时间,那么剩余的CPU时间将会被系统分配给B,即B的CPU使用率能够超过33%server
若是添加了一个新的cgroup C,且它的shares值是1024,那么A的限额变成了1024/(1204+512+1024)=40%,B的变成了20%
从上面两个特色能够看出:
在闲的时候,shares基本上不起做用,只有在CPU忙的时候起做用,这是一个优势。
因为shares是一个绝对值,须要和其它cgroup的值进行比较才能获得本身的相对限额,而在一个部署不少容器的机器上,cgroup的数量是变化的,因此这个限额也是变化的,本身设置了一个高的值,但别人可能设置了一个更高的值,因此这个功能无法精确的控制CPU使用率。
包含了下面三项统计结果
nr_periods: 表示过去了多少个cpu.cfs_period_us里面配置的时间周期
nr_throttled: 在上面的这些周期中,有多少次是受到了限制(即cgroup中的进程在指定的时间周期中用光了它的配额)
throttled_time: cgroup中的进程被限制使用CPU持续了多长时间(纳秒)
这里以cfs_period_us & cfs_quota_us为例,演示一下如何控制CPU的使用率。
#继续使用上面建立的子cgroup: test #设置只能使用1个cpu的20%的时间 dev@ubuntu:/sys/fs/cgroup/cpu,cpuacct/test$ sudo sh -c "echo 50000 > cpu.cfs_period_us" dev@ubuntu:/sys/fs/cgroup/cpu,cpuacct/test$ sudo sh -c "echo 10000 > cpu.cfs_quota_us" #将当前bash加入到该cgroup dev@ubuntu:/sys/fs/cgroup/cpu,cpuacct/test$ echo $$ 5456 dev@ubuntu:/sys/fs/cgroup/cpu,cpuacct/test$ sudo sh -c "echo 5456 > cgroup.procs" #在bash中启动一个死循环来消耗cpu,正常状况下应该使用100%的cpu(即消耗一个内核) dev@ubuntu:/sys/fs/cgroup/cpu,cpuacct/test$ while :; do echo test > /dev/null; done #--------------------------从新打开一个shell窗口---------------------- #经过top命令能够看到5456的CPU使用率为20%左右,说明被限制住了 #不过这时系统的%us+%sy在10%左右,那是由于我测试的机器上cpu是双核的, #因此系统总体的cpu使用率为10%左右 dev@ubuntu:~$ top Tasks: 139 total, 2 running, 137 sleeping, 0 stopped, 0 zombie %Cpu(s): 5.6 us, 6.2 sy, 0.0 ni, 88.2 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st KiB Mem : 499984 total, 15472 free, 81488 used, 403024 buff/cache KiB Swap: 0 total, 0 free, 0 used. 383332 avail Mem PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 5456 dev 20 0 22640 5472 3524 R 20.3 1.1 0:04.62 bash #这时能够看到被限制的统计结果 dev@ubuntu:~$ cat /sys/fs/cgroup/cpu,cpuacct/test/cpu.stat nr_periods 1436 nr_throttled 1304 throttled_time 51542291833
使用cgroup限制CPU的使用率比较纠结,用cfs_period_us & cfs_quota_us吧,限制死了,无法充分利用空闲的CPU,用shares吧,又无法配置百分比,极其难控制。总之,使用cgroup的cpu子系统需谨慎。