Linux系统中的 iostat是I/O statistics(输入/输出统计)的缩写,iostat工具将对系统的磁盘操做活动进行监视。它的特色是汇报磁盘活动统计状况,同时也会汇报出CPU使用状况。同vmstat同样,iostat也有一个弱点,就是它不能对某个进程进行深刻分析,仅对系统的总体状况进行分析。iostat属于sysstat软件包。能够用yum install sysstat 直接安装。算法
iostat [参数] [时间] [次数]
经过iostat方便查看CPU、网卡、tty设备、磁盘、CD-ROM 等等设备的活动状况, 负载信息。
参数 | 描述 |
---|---|
-c | 显示CPU使用状况 |
-d | 显示磁盘使用状况 |
-k | 以 KB 为单位显示,默认也是以KB显示 |
-m | 以 M 为单位显示 |
-N | 显示磁盘阵列(LVM) 信息 |
-n | 显示NFS 使用状况 |
-p [磁盘] | 显示磁盘和分区的状况 |
-t | 显示终端和CPU的信息 |
-x | 显示详细信息 |
-V | 显示版本信息 |
命令:express
iostat
输出:服务器
[root@localhost tmp]# iostat Linux 3.10.0-862.el7.x86_64 (localhost.localdomain) 2018年12月08日 _x86_64_ (2 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 2.19 0.01 8.30 0.00 0.00 89.50 Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn scd0 0.00 0.00 0.00 1050 0 sda 0.43 13.70 6.11 7742241 3453170 dm-0 0.45 13.65 6.01 7709059 3393302 dm-1 0.03 0.01 0.10 6168 57680
说明:dom
%user:CPU处在用户模式下的时间百分比。工具
%nice:CPU处在带NICE值的用户模式下的时间百分比。性能
%system:CPU处在系统模式下的时间百分比。优化
%iowait:CPU等待输入输出完成时间的百分比。spa
%steal:管理程序维护另外一个虚拟处理器时,虚拟CPU的无心识等待时间百分比。code
%idle:CPU空闲时间百分比。
备注:
若是%iowait的值太高,表示硬盘存在I/O瓶颈,%idle值高,表示CPU较空闲,
若是%idle值高但系统响应慢时,有多是CPU等待分配内存,此时应加大内存容量。
若是idle小于70% IO压力就较大了,通常读取速度有较多的wait。
若是%idle值若是持续低于10,那么系统的CPU处理能力相对较低,代表系统中最须要解决的资源是CPU。
tps:该设备每秒的传输次数(Indicate the number of transfers per second that were issued to the device.)。“一次传输”意思是“一次I/O请求”。多个逻辑请求可能会被合并为“一次I/O请求”。“一次传输”请求的大小是未知的。
kB_read/s:每秒从设备(drive expressed)读取的数据量;
kB_wrtn/s:每秒向设备(drive expressed)写入的数据量;
kB_read:读取的总数据量;kB_wrtn:写入的总数量数据量;
这些单位都为Kilobytes。
命令:
iostat 2 3
输出:
[root@localhost tmp]# iostat 2 3 Linux 3.10.0-862.el7.x86_64 (localhost.localdomain) 2018年12月08日 _x86_64_ (2 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 2.19 0.01 8.30 0.00 0.00 89.49 Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn scd0 0.00 0.00 0.00 1050 0 sda 0.43 13.70 6.11 7742257 3453702 dm-0 0.45 13.64 6.00 7709075 3393834 dm-1 0.03 0.01 0.10 6168 57680 avg-cpu: %user %nice %system %iowait %steal %idle 7.97 0.00 10.28 0.00 0.00 81.75 Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn scd0 0.00 0.00 0.00 0 0 sda 0.00 0.00 0.00 0 0 dm-0 0.00 0.00 0.00 0 0 dm-1 0.00 0.00 0.00 0 0 avg-cpu: %user %nice %system %iowait %steal %idle 7.79 0.00 9.87 0.00 0.00 82.34 Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn scd0 0.00 0.00 0.00 0 0 sda 0.00 0.00 0.00 0 0 dm-0 0.00 0.00 0.00 0 0 dm-1 0.00 0.00 0.00 0 0
说明:
每隔2秒刷新显示,且显示3次
命令:
iostat -d sda
输出:
[root@localhost tmp]# iostat -d sda Linux 3.10.0-862.el7.x86_64 (localhost.localdomain) 2018年12月08日 _x86_64_ (2 CPU) Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn sda 0.43 13.69 6.11 7742257 3453933
命令:
iostat -m
输出:
root@localhost tmp]# iostat -m Linux 3.10.0-862.el7.x86_64 (localhost.localdomain) 2018年12月08日 _x86_64_ (2 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 2.19 0.01 8.30 0.00 0.00 89.49 Device: tps MB_read/s MB_wrtn/s MB_read MB_wrtn scd0 0.00 0.00 0.00 1 0 sda 0.43 0.01 0.01 7564 3373 dm-0 0.45 0.01 0.01 7531 3314 dm-1 0.03 0.00 0.00 6 56
命令:
iostat -d -x
输出:
[root@localhost tmp]# iostat -d -x Linux 3.10.0-862.el7.x86_64 (localhost.localdomain) 2018年12月08日 _x86_64_ (2 CPU) Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util scd0 0.00 0.00 0.00 0.00 0.00 0.00 72.41 0.00 1.76 1.76 0.00 1.52 0.00 sda 0.00 0.05 0.21 0.22 13.68 6.10 91.28 0.00 1.95 2.22 1.69 0.53 0.02 dm-0 0.00 0.00 0.21 0.24 13.62 6.00 87.07 0.00 2.05 2.26 1.87 0.49 0.02 dm-1 0.00 0.00 0.00 0.03 0.01 0.10 8.24 0.00 10.60 0.81 11.33 0.26 0.00
说明:
rrqm/s: 每秒进行 merge 的读操做数目.即 delta(rmerge)/s wrqm/s: 每秒进行 merge 的写操做数目.即 delta(wmerge)/s r/s: 每秒完成的读 I/O 设备次数.即 delta(rio)/s w/s: 每秒完成的写 I/O 设备次数.即 delta(wio)/s rsec/s: 每秒读扇区数.即 delta(rsect)/s wsec/s: 每秒写扇区数.即 delta(wsect)/s rkB/s: 每秒读K字节数.是 rsect/s 的一半,由于每扇区大小为512字节.(须要计算) wkB/s: 每秒写K字节数.是 wsect/s 的一半.(须要计算) avgrq-sz:平均每次设备I/O操做的数据大小 (扇区).delta(rsect+wsect)/delta(rio+wio) avgqu-sz:平均I/O队列长度.即 delta(aveq)/s/1000 (由于aveq的单位为毫秒). await: 平均每次设备I/O操做的等待时间 (毫秒).即 delta(ruse+wuse)/delta(rio+wio) svctm: 平均每次设备I/O操做的服务时间 (毫秒).即 delta(use)/delta(rio+wio) %util: 一秒中有百分之多少的时间用于 I/O 操做,或者说一秒中有多少时间 I/O 队列是非空的,即 delta(use)/s/1000 (由于use的单位为毫秒)
若是 %util 接近 100%,说明产生的I/O请求太多,I/O系统已经满负荷,该磁盘可能存在瓶颈。 %idle小于70% IO压力就较大了,通常读取速度有较多的wait。 同时能够结合vmstat 查看查看b参数(等待资源的进程数)和wa参数(IO等待所占用的CPU时间的百分比,高过30%时IO压力高)。 另外 await 的参数也要多和 svctm 来参考。差的太高就必定有 IO 的问题。 avgqu-sz 也是个作 IO 调优时须要注意的地方,这个就是直接每次操做的数据的大小,若是次数多,但数据拿的小的话,其实 IO 也会很小。 若是数据拿的大,才IO 的数据会高。也能够经过 avgqu-sz × ( r/s or w/s ) = rsec/s or wsec/s。也就是讲,读定速度是这个来决定的。 svctm 通常要小于 await (由于同时等待的请求的等待时间被重复计算了),svctm 的大小通常和磁盘性能有关,CPU/内存的负荷也会对其有影响,请求过多也会间接致使 svctm 的增长。 await 的大小通常取决于服务时间(svctm) 以及 I/O 队列的长度和 I/O 请求的发出模式。若是 svctm 比较接近 await,说明 I/O 几乎没有等待时间; 若是 await 远大于 svctm,说明 I/O 队列太长,应用获得的响应时间变慢,若是响应时间超过了用户能够允许的范围,这时能够考虑更换更快的磁盘,调整内核 elevator 算法,优化应用,或者升级 CPU。 队列长度(avgqu-sz)也可做为衡量系统 I/O 负荷的指标,但因为 avgqu-sz 是按照单位时间的平均值,因此不能反映瞬间的 I/O 洪水。
r/s+w/s 相似于交款人的总数 平均队列长度(avgqu-sz)相似于单位时间里平均排队人的个数 平均服务时间(svctm)相似于收银员的收款速度 平均等待时间(await)相似于平均每人的等待时间 平均I/O数据(avgrq-sz)相似于平均每人所买的东西多少 I/O 操做率 (%util)相似于收款台前有人排队的时间比例 设备IO操做:总IO(io)/s = r/s(读) +w/s(写) =1.46 + 25.28=26.74 平均每次设备I/O操做只须要0.36毫秒完成,如今却须要10.57毫秒完成,由于发出的 请求太多(每秒26.74个),假如请求时同时发出的,能够这样计算平均等待时间: 平均等待时间=单个I/O服务器时间*(1+2+...+请求总数-1)/请求总数 每秒发出的I/0请求不少,可是平均队列就4,表示这些请求比较均匀,大部分处理仍是比较及时。