Cgroup--资源限额
1、Cgroup简介
#为何要作资源分配 Cgroup cpu ; 内存 ;I/0
容器共享内核资源的 ,甚至有可能一个容器能把宿主机硬件资源耗尽\
虚拟机在建立的时候以及作了
#Cgroup 是Control Groups的缩写,是Linux 内核提供的一种能够限制、记录、隔离进程组
所使用的物理资源(如CPU、 内存、磁盘IO等等)的机制,被LXC、docker等不少项目用于实现进程资源控制。
Cgroup自己是提供将进程进行分组化管理的功能和接口的基础结构,I/O或内存的分配控制等具体的资源
这些具体的资源 管理功能称为Cgroup子系统,有如下几大子系统
blkio:设置限制每一个块设备的输入输出控制。例如:磁盘,光盘以及usb 等等。
cpuset:若是是多核心的CPU, 这个子系统会为cgroup 任务分配单独的CPU和内存。
CPU:使用调度程序为cgroup任务提供CPU的访问。
cpuacct:产生cgroup, 任务的CPU资源报告
memory: 设置每一个cgroup 的内存限制以及产生内存资源报告。
devices:容许或拒绝cgroup任务对设备的访问。
freezer:暂停和恢复cgroup任务。
net_cls: 标记每一个网络包以供cgroup 方便使用。
ns:命名空间子系统,能够设置一个子系统的上限配额。
perf_event: 增长了对每一个group 的监测跟踪的能力,能够监测属于某个特定的group 的全部线程以及运行在特定,监控能力超出限制,终止
#Cgroups提供了如下功能:
一、限制进程组可使用的资源数量(Resource limiting )。好比:memory子系统能够为进程组设定一个memory使用上限,
一旦进程组使用的内存达到限额再申请内存,就会触发OOM(out of memory)。
二、进程组的优先级控制(Prioritization )。好比:可使用cpu子系统为某个进程组分配特定cpu share。
三、记录进程组使用的资源数量(Accounting )。好比:可使用cpuacct子系统记录某个进程组使用的cpu时间
四、进程组隔离(Isolation)。好比:使用ns子系统可使不一样的进程组使用不一样的namespace,以达到隔离的目的,
不一样的进程组有各自的进程、网络、文件系统挂载空间。
五、进程组控制(Control)。好比:使用freezer子系统能够将进程组挂起和恢复。
[root@master tls]# cat /proc/cgroups
#subsys_name hierarchy num_cgroups enabled
cpuset 2 4 1
cpu 5 96 1
cpuacct 5 96 1
memory 7 96 1
devices 4 96 1
freezer 6 4 1
net_cls 9 4 1
blkio 3 96 1
perf_event 10 4 1
hugetlb 11 4 1
pids 8 96 1
net_prio 9 4 1
#二.基于Dockerfile 建立安装stress 镜像
stress是用来测试cpu内存的负载,经过在两个容器分别执行stress -c 1,这将会给系统一个随机负载,产生一个进程,
这个进程会反复不停地计算由rand()产生地随机数的平方根,直到资源耗尽。
-首先使用Dockerfile建立一个基于centos的stress的工具镜像
mkdir /opt/stress && cd /opt/stress/
cat > Dockerfile <<EOF
FROM centos:7
MAINTAINER li "li@suning.com"
RUN yum install -y wget
RUN wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
RUN yum install -y stress
EOF
docker build -t centos:stress .
#三: 建立容器的CPU权重控制
-默认状况下,每一个docker容器的cpu份额都是1024,单独一个容器的份额是没有意义的,
只有在同时运行多个容器时,容器cpu的加权效果才能体现出现。
-例如,两个容器A、B的cpu份额分别为1000和500,在cpu进行时间片分配的时候,容器A比容器B多一倍的机会得到cpu的时间片,
可是分配的结果取决于当时主机和其余容器的运行状态,实际上也没法保证容器A必定可以得到cpu的时间片。好比容器A的进程一直是空闲的,
那么容器B是能够获取比容器A更多的cpu时间片的,极端状况下,例如主机上只运行的一个容器,即便它的cpu份额只有50,它也能够独占整个主机的cpu资源
-cgroups只在容器分配的资源紧缺时,即须要对容器使用的资源进行限制时,才会生效。所以,没法单纯的根据某个容器的份额的cpu份额来肯定有多少cpu资源分配给它,
能够经过cpu share参数能够设置容器使用cpu的优先级,好比启动了两个容器及运行查看cpu的cpu的使用百分比
-建立两个容器,分别制定不一样的权重比
-下面利用stress压力测试工具来测试CPU和内存使用状况
// --cpu-shares 指定使用cpu的权重
// stress -c 指定产生子进程的个数
docker run -itd --name cpu512 --cpu-shares 512 centos:stress stress -c 10
docker ps -a
docker exec -it ead0f498113f bash
top
docker run -itd --name cpu1024 --cpu-shares 1024 centos:stress stress -c 10
docker ps -a
docker exec -it 9c92d6cfcb82 bash
top
"分别进入cpu512和cpu1024以后能够看到,%cpu的比例差很少是1:2,符合咱们设置的–cpu-shares参数。"
#4、cpu周期限制
Docker提供了 --cpu-period、–cpu-quota两个参数控制容器能够分配到cpu的时钟周期。
--cpu-period是用来指定容器对于cpu的使用要在多长时间内从新分配一次
--cpu-quota是用来指定在这个周期内,最多能够有多少时间跑这个容器,
与--cpu-shares(权重)不一样的是,这种配置指定一个绝对值,容器对cpu资源使用绝对不会超过配置的值。
cpu-peiod和cpu-quota参数通常联合使用。
//例如:容器进程须要每一秒钟使用单个cpu的0.2时间,能够将 --cpu-period设置为1000000(1秒),–cpu-quota设置为200000(0.2秒)。
固然,在多核状况下,若是容许容器进程彻底占用两个cpu,则能够将cpu-period设置为100000(0.1秒),cpu-quota设置为200000(0.2秒)
//设置 --cpu-period为0.1秒,--cpu-quota为0.2秒
docker run -itd --cpu-period 100000 --cpu-quota 200000 centos:stress
docker exec -it a818387b1ab9 bash
cat /sys/fs/cgroup/cpu/cpu.cfs_period_us
100000
cat /sys/fs/cgroup/cpu/cpu.cfs_quota_us
200000
"能够看到刚刚设置的周期限制"
#5、cpu core控制
-对于多核cpu的服务器,docker还能够控制容器运行使用那些cpu内核,以及使用–cpuset-cpus参数,
这对于具备多cpu服务器尤为有用,能够对须要高性能计算的容器进行性能最优的配置
-执行如下命令须要宿主机为双核,表示建立的容器只能使用0、1两个内核,最终生成cgroup的cpu内核配置以下:
docker run -itd --name cpu1 --cpuset-cpus 0-1 centos:stress
docker exec -it 0e2b322279d0 bash
cat /sys/fs/cgroup/cpuset/cpuset.cpus
0-1
//经过下列指令能够看到容器中进程与cpu内核的绑定关系,达到绑定cpu内核的目的
docker exec 0e2b322279d0 taskset -c -p 1 "容器内部的第一个进程号pid为1,被绑定到指定到的cpu上运行"
pid 1's current affinity list: 0,1'
stress -c 10
"另一个端口top查看只有0-1个核心的cpu资源利用率是100%,其余核心不受影响"
## 6、cpu配额控制参数的混合使用
- 经过cpuset-cpus参数指定容器A使用cpu内核0,容器B使用cpu内核1。
在主机上只有这个两个容器使用对应的cpu内核状况,它们各自占用所有的内核资源,cpu-shares没有明显的效果。
- cpuset-cpus、cpuset-mems参数只在多核、内存节点上服务器有效,而且必须与实际的物理配置匹配,不然也没法达到资源控制的目的。
docker run -itd --name cpu2 --cpuset-cpus 1 --cpu-shares 512 centos:stress stress -c 1
docker run -itd --name cpu3 --cpuset-cpus 3 --cpu-shares 1024 centos:stress stress -c 1
总结:上面的centos:stress镜像安装了stress工具,用来测试CPU和内存的负载。经过在两个容器上分别执行stress -c1命令,
观察到宿主机上的CPU使用率,第三个内核的使用率接近100%,而且一批进程的CPU使用率明显存在2:1的使用比例的对比。
将会给系统一个随机负载,产生1个进程。这个进程都反复不停的计算由rand()产生随机数的平方根,直到资源耗尽。
## 7、内存限额
- 与操做系统相似,容器可以使用的内存包括两部分:物理内存和swap
容器经过 -m或–memory设置内存的使用限额,例如:-m 300M;经过–memory-swap设置内存+swap的使用限额
- 实例以下,容许容器最多使用200M的内存和300M的swap/
[root@master ~]# docker run -it -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 280M
// --vm 1 ,表明启动一个内存工做线程
// --vm-bytes 280 M ,表明每一个线程能够分配280M内存
123
默认状况下,容器可使用主机上的全部空闲内存。
上述配置与cpu的cgroup的配置相似,Docker会自动为容器目录`/sys/fs/cgroup/memory/docker/<容器ID>` 中建立相应的cgroup的配置文件
docker run -it -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 280Mdocker run -it -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 310M
## 8、Block IO的限制
默认状况下,全部容器能平等地读写磁盘,能够经过设置–blkio-weight参数来改变容器block IO的优先级。
//--blkio-weight 与--cpu-shares 相似,设置的是相对权重值,默认为500。
//下面的例子中,容器A肚子饿磁盘的带宽是容器B的两倍
[root@localhost ~]# docker run -it --name container_A --blkio-weight 600 centos:stress
[root@58df16aba958 /]# cat /sys/fs/cgroup/blkio/blkio.weight
600
[root@localhost ~]# docker run -it --name container_B --blkio-weight 300 centos:stress
[root@f27372eaf22a /]# cat /sys/fs/cgroup/blkio/blkio.weight
300
## 9、bps和iops 的限制
**bps是byte per second,每秒读写的数据量。iops是io per second, 每秒IO的次数。**
可经过如下参数控制容器的bps和iops:
--device-read-bps:限制读某个设备的bps.
--device-write-bps:限制写某个设备的bps.
--device-read-iops:限制读某个设备的iops.
--device-write-iops:限制写某个设备的iops。
[root@localhost ~]# docker run -it --device-write-bps /dev/sda:5MB centos:stress
[root@549a4728c2ac /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct
76+0 records in
76+0 records out
79691776 bytes (80 MB) copied, 15.2013 s, 5.2 MB/s
"ctrl+c中断查看速率,使用dd命令测试在容器中的读写磁盘的速度.由于容器的文件系统是在host/dev/sda上的,在容器中写文件至关于对host/dev/sda进行写操做.另外,oflag=direct 指定用direct IO方式写文件,这样 --device-write-bps 才能生效"
//结果代表IO读写限速5MB左右.做为对比测试,若是不限速,执行如下命令
[root@localhost ~]# docker run -it centos:stress
[root@65d5e313bbe6 /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB) copied, 1.04922 s, 1.0 GB/s
在多个容器运行时,必须使用上述的参数设置优化,不能把全部的资源给其中一个容器,会形成资源浪费,容器不稳定。