cgroup是control group的简称,它为Linux内核提供了一种任务汇集和划分的机制,经过一组参数集合将一些任务组织成一个或多个子系统。 html
Cgroups是control groups的缩写,最初由Google工程师提出,后来编进linux内核。java
Cgroups是实现IaaS虚拟化(kvm、lxc等),PaaS容器沙箱(Docker等)的资源管理控制部分的底层基础linux
子系统是根据cgroup对任务的划分功能将任务按照一种指定的属性划分红的一个组,主要用来实现资源的控制。在cgroup中,划分红的任务组以层次结构的形式组织,多个子系统造成一个数据结构中相似多根树的结构。cgroup包含了多个孤立的子系统,每个子系统表明单一的资源,目前,redhat默认支持10个子系统,但默认只挂载了8个子系统,ubuntu 12.04 默认支持8个子系统,但默认只挂载了5个子系统。web
固然也用户能够自定义子系统并进行挂载。shell
下面对每个子系统进行简单的介绍:ubuntu
blkio 设置限制每一个块设备的输入输出控制。例如:磁盘,光盘以及usb等等。服务器
cpu 使用调度程序为cgroup任务提供cpu的访问。网络
cpuacct 产生cgroup任务的cpu资源报告。数据结构
cpuset 若是是多核心的cpu,这个子系统会为cgroup任务分配单独的cpu和内存。app
devices 容许或拒绝cgroup任务对设备的访问。
freezer 暂停和恢复cgroup任务。
memory 设置每一个cgroup的内存限制以及产生内存资源报告。
net_cls 标记每一个网络包以供cgroup方便使用。
ns 名称空间子系统。
perf_event 增长了对每group的监测跟踪的能力,便可以监测属于某个特定的group的全部线程以及 运行在特定CPU上的线程,此功能对于监测整个group很是有用,具体参见 http://lwn.net/Articles/421574/
以Centos 6.4为例
yum install libcgroup
service cgconfig start #开启cgroups服务
chkconfig cgconfig on #开机启动
[root@localhost /]# ls /cgroup/ blkio cpu cpuacct cpuset devices freezer memory net_cls
cgroup启动时,会读取配置文件/etc/cgconfig.conf的内容,根据其内容建立和挂载指定的cgroup子系统。
/etc/cgconfig.conf是cgroup配置工具libcgroup用来进行cgroup组的定义,参数设定以及挂载点定义的配置文件,
主要由mount和group两个section构成。
(1)mount section的语法格式以下:
mount { <controller> = <path>; ... } ######################################### # controller:内核子系统的名称 # path:该子系统的挂载点 ######################################### 举个例子: mount { cpuset = /cgroup/red; } 上面定义至关于以下shell指令: mkdir /cgroup/red mount -t cgroup -o cpuset red /cgroup/red
(2)group section的语法格式以下:
group <name> { [<permissions>] <controller> { <param name> = <param value>; … } … } ################################################################################ ## name: 指定cgroup的名称 ## permissions:可选项,指定cgroup对应的挂载点文件系统的权限,root用户拥有全部权限。 ## controller:子系统的名称 ## param name 和 param value:子系统的属性及其属性值 ################################################################################# 举个例子: mount { ## 定义须要建立的cgroup子系统及其挂载点,这里建立cpu与cpuacct(统计)两个cgroup子系统 cpu = /mnt/cgroups/cpu; cpuacct = /mnt/cgroups/cpu; } group daemons/www { ## 定义daemons/www(web服务器进程)组 perm { ## 定义这个组的权限 task { uid = root; gid = webmaster; } admin { uid = root; gid = root; } } cpu { ## 定义cpu子系统的属性及其值,即属于词组的任务的权重为1000 cpu.shares = 1000; } } group daemons/ftp { ## 定义daemons/ftp(ftp进程)组 perm { task { uid = root; gid = ftpmaster; } admin { uid = root; gid = root; } } cpu { ## 定义词组的任务的权重为500 cpu.shares = 500; } } 上面配置文件定义至关于执行了以下shell命令: mkdir /mnt/cgroups/cpu mount -t cgroup -o cpu,cpuacct cpu /mnt/cgroups/cpu mkdir /mnt/cgroups/cpu/daemons mkdir /mnt/cgroups/cpu/daemons/www chown root:root /mnt/cgroups/cpu/daemons/www/* chown root:webmaster /mnt/cgroups/cpu/daemons/www/tasks echo 1000 > /mnt/cgroups/cpu/daemons/www/cpu.shares mkdir /mnt/cgroups/cpu/daemons/ftp chown root:root /mnt/cgroups/cpu/daemons/ftp/* chown root:ftpmaster /mnt/cgroups/cpu/daemons/ftp/tasks echo 500 > /mnt/cgroups/cpu/daemons/ftp/cpu.shares
跑一个耗cpu的脚本
x=0
while [ True ];do
x=$x+1
done;
top能够看到这个脚本基本占了100%的cpu资源
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
30142 root 20 0 104m 2520 1024 R 99.7 0.1 14:38.97 sh
下面用cgroups控制这个进程的cpu资源
mkdir -p /cgroup/cpu/foo/ #新建一个控制组foo
echo 50000 > /cgroup/cpu/foo/cpu.cfs_quota_us #将cpu.cfs_quota_us设为50000,相对于cpu.cfs_period_us的100000是50%
echo 30142 > /cgroup/cpu/foo/tasks
而后top的实时统计数据以下,cpu占用率将近50%,看来cgroups关于cpu的控制起了效果
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 30142 root 20 0 105m 2884 1024 R 49.4 0.2 23:32.53 sh
cpu控制组foo下面还有其余的控制,还能够作更多其余的关于cpu的控制
[root@localhost ~]# ls /cgroup/cpu/foo/
cgroup.event_control cgroup.procs cpu.cfs_period_us cpu.cfs_quota_us cpu.rt_period_us cpu.rt_runtime_us cpu.shares cpu.stat notify_on_release tasks
跑一个耗内存的脚本,内存不断增加
x="a"
while [ True ];do
x=$x$x
done;
top看内存占用稳步上升
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 30215 root 20 0 871m 501m 1036 R 99.8 26.7 0:38.69 sh
30215 root 20 0 1639m 721m 1036 R 98.7 38.4 1:03.99 sh
30215 root 20 0 1639m 929m 1036 R 98.6 49.5 1:13.73 sh
下面用cgroups控制这个进程的内存资源
mkdir -p /cgroup/memory/foo
echo 1048576 > /cgroup/memory/foo/memory.limit_in_bytes #分配1MB的内存给这个控制组
echo 30215 > /cgroup/memory/foo/tasks
发现以前的脚本被kill掉
[root@localhost ~]# sh /home/memory.sh
已杀死
由于这是强硬的限制内存,当进程试图占用的内存超过了cgroups的限制,会触发out of memory,致使进程被kill掉。
实际状况中对进程的内存使用会有一个预估,而后会给这个进程的限制超配50%好比,除非发生内存泄露等异常状况,才会由于cgroups的限制被kill掉。
也能够经过配置关掉cgroups oom kill进程,经过memory.oom_control来实现(oom_kill_disable 1),可是尽管进程不会被直接杀死,但进程也进入了休眠状态,没法继续执行,仍让没法服务。
关于内存的控制,还有如下配置文件,关于虚拟内存的控制,以及权值比重式的内存控制等
[root@localhost /]# ls /cgroup/memory/foo/
cgroup.event_control memory.force_empty memory.memsw.failcnt
memory.memsw.usage_in_bytes memory.soft_limit_in_bytes memory.usage_in_bytes tasks
cgroup.procs memory.limit_in_bytes memory.memsw.limit_in_bytes
memory.move_charge_at_immigrate memory.stat memory.use_hierarchy
memory.failcnt memory.max_usage_in_bytes memory.memsw.max_usage_in_bytes
memory.oom_control memory.swappiness notify_on_release
跑一个耗io的脚本
dd if=/dev/sda of=/dev/null &
经过iotop看io占用状况,磁盘速度到了284M/s
30252 be/4 root 284.71 M/s 0.00 B/s 0.00 % 0.00 % dd if=/dev/sda of=/dev/null
下面用cgroups控制这个进程的io资源
mkdir -p /cgroup/blkio/foo
echo '8:0 1048576' > /cgroup/blkio/foo/blkio.throttle.read_bps_device
#8:0对应主设备号和副设备号,能够经过ls -l /dev/sda查看
echo 30252 > /cgroup/blkio/foo/tasks
再经过iotop看,确实将读速度降到了1M/s
30252 be/4 root 993.36 K/s 0.00 B/s 0.00 % 0.00 % dd if=/dev/sda of=/dev/null
对于io还有不少其余能够控制层面和方式,以下
[root@localhost ~]# ls /cgroup/blkio/foo/
blkio.io_merged blkio.io_serviced blkio.reset_stats
blkio.throttle.io_serviced blkio.throttle.write_bps_device blkio.weight cgroup.procs
blkio.io_queued blkio.io_service_time blkio.sectors
blkio.throttle.read_bps_device blkio.throttle.write_iops_device blkio.weight_device notify_on_release
blkio.io_service_bytes blkio.io_wait_time blkio.throttle.io_service_bytes
blkio.throttle.read_iops_device blkio.time cgroup.event_control tasks