经常使用命令 tsar --nginx --live -i 1 查询1秒的状态每秒采样一次 系统模块 cpu 字段含义ios
采集方式nginx
CPU的占用率计算,都是根据/proc/stat计数器文件而来,stat文件的内容基本格式是:git
cpu 67793686 1353560 66172807 4167536491 2705057 0 195975 609768 cpu0 10529517 944309 11652564 835725059 2150687 0 74605 196726 cpu1 14380773 127146 13908869 832565666 150815 0 31780 108418github
cpu是总的信息,cpu0,cpu1等是各个具体cpu的信息,共有8个值,单位是ticks,分别是算法
User time, 67793686 Nice time, 1353560 System time, 66172807 Idle time, 4167536491 Waiting time, 2705057 Hard Irq time, 0 SoftIRQ time, 195975 Steal time, 609768apache
CPU总时间=user+system+nice+idle+iowait+irq+softirq+Stl
各个状态的占用=状态的cpu时间%CPU总时间*100%
比较特殊的是CPU总使用率的计算(util),目前的算法是:
util = 1 - idle - iowait - stealswift
mem 字段含义cookie
采集方法app
内存的计数器在/proc/meminfo,里面有一些关键项dom
MemTotal: 7680000 kB MemFree: 815652 kB Buffers: 1004824 kB Cached: 4922556 kB
含义就不解释了,主要介绍一下内存使用率的计算算法:
util = (total - free - buff - cache) / total * 100%
load 字段含义
采集方法
/proc/loadavg文件中保存的有负载相关的数据
0.00 0.01 0.00 1/271 23741
分别是1分钟负载,五分钟负载,十五分钟负载,运行进程/总进程 最大的pid
只须要采集前五个数据既可获得全部信息
注意:只有当系统负载除cpu核数>1的时候,系统负载较高
traffic 字段含义
采集方法
流量的计数器信息来自:/proc/net/dev
face |bytes packets errs drop fifo frame compressed multicast|bytes packets errs drop fifo colls carrier compressed lo:1291647853895 811582000 0 0 0 0 0 0 1291647853895 811582000 0 0 0 0 0 0 eth0:853633725380 1122575617 0 0 0 0 0 0 1254282827126 808083790 0 0 0 0 0 0
字段的含义第一行已经标示出来,每一行表明一个网卡,tsar主要采集的是出口和入口的bytes/packets
注意tsar只对以eth和em开头的网卡数据进行了采集,像lo这种网卡直接就忽略掉了,流量的单位是byte
tcp 字段含义
采集方法
tcp的相关计数器文件是:/proc/net/snmp
Tcp: RtoAlgorithm RtoMin RtoMax MaxConn ActiveOpens PassiveOpens AttemptFails EstabResets CurrEstab InSegs OutSegs RetransSegs InErrs OutRsts Tcp: 1 200 120000 -1 31702170 14416937 935062 772446 16 1846056224 1426620266 448823 0 5387732
咱们主要关注其中的ActiveOpens/PassiveOpens/AttemptFails/EstabResets/CurrEstab/InSegs/OutSegs/RetransSegs
主要关注一下重传率的计算方式:
retran = (RetransSegs-last RetransSegs) / (OutSegs-last OutSegs) * 100%
udp 字段含义
采集方法
UDP的数据来源文件和TCP同样,也是在/proc/net/snmp
Udp: InDatagrams NoPorts InErrors OutDatagrams Udp: 31609577 10708119 0 159885874 io 字段含义
采集方法
IO的计数器文件是:/proc/diskstats,好比:
202 0 xvda 12645385 1235409 416827071 59607552 193111576 258112651 3679534806 657719704 0 37341324 717325100 202 1 xvda1 421 2203 3081 9888 155 63 421 1404 0 2608 11292
每一行字段的含义是:
经过这些计数器能够算出来上面的每一个字段的值
double n_ios = rd_ios + wr_ios; double n_ticks = rd_ticks + wr_ticks; double n_kbytes = (rd_sectors + wr_sectors) / 2; st_array[0] = rd_merges / (inter * 1.0); st_array[1] = wr_merges / (inter * 1.0); st_array[2] = rd_ios / (inter * 1.0); st_array[3] = wr_ios / (inter * 1.0); st_array[4] = rd_sectors / (inter * 2.0); st_array[5] = wr_sectors / (inter * 2.0); st_array[6] = n_ios ? n_kbytes / n_ios : 0.0; st_array[7] = aveq / (inter * 1000); st_array[8] = n_ios ? n_ticks / n_ios : 0.0; st_array[9] = n_ios ? ticks / n_ios : 0.0; st_array[10] = ticks / (inter * 10.0);
注意:
扇区通常都是512字节,所以有的地方除以2了 ws是指真正落到io设备上的写次数, wrqpms是指系统调用合并的写次数, 它们之间的大小关系没有可比性,由于不知道多少请求可以被合并,好比发起了100个read系统调用,每一个读4K,假如这100个都是连续的读,因为硬盘一般容许最大的request为256KB,那么block层会把这100个读请求合并成2个request,一个256KB,另外一个144KB,rrqpm/s为100,由于100个request都发生了合并,无论它最后合并成几个;r/s为2,由于最后的request数为2
paritition 字段含义
采集方法
首先经过/etc/mtab获取到分区信息,而后经过statfs访问该分区的信息,查询文件系统相关信息,包含:
struct statfs { long f_type; long f_bsiz e; long f_blocks; long f_bfree; long f_bavail; long f_files; long f_ffree; fsid_t f_fsid; long f_namelen; };
而后就能够计算出tsar须要的信息,分区的字节数=块数*块大小=f_blocks * f_bsize
pcsw 字段含义
采集方法
计数器在/proc/stat:
ctxt 19873315174 processes 296444211
分别表明进程切换次数,以及进程数
tcpx 字段含义
recvq sendq est twait fwait1 fwait2 lisq lising lisove cnest ndrop edrop rdrop pdrop kdrop
分别表明
tcprecvq tcpsendq tcpest tcptimewait tcpfinwait1 tcpfinwait2 tcplistenq tcplistenincq tcplistenover tcpnconnest tcpnconndrop tcpembdrop tcprexmitdrop tcppersistdrop tcpkadrop
采集方法
计数器来自:/proc/net/netstat /proc/net/snmp 里面用到的数据有:
TcpExt: SyncookiesSent SyncookiesRecv SyncookiesFailed EmbryonicRsts PruneCalled RcvPruned OfoPruned OutOfWindowIcmps LockDroppedIcmps ArpFilter TW TWRecycled TWKilled PAWSPassive PAWSActive PAWSEstab DelayedACKs DelayedACKLocked DelayedACKLost ListenOverflows ListenDrops TCPPrequeued TCPDirectCopyFromBacklog TCPDirectCopyFromPrequeue TCPPrequeueDropped TCPHPHits TCPHPHitsToUser TCPPureAcks TCPHPAcks TCPRenoRecovery TCPSackRecovery TCPSACKReneging TCPFACKReorder TCPSACKReorder TCPRenoReorder TCPTSReorder TCPFullUndo TCPPartialUndo TCPDSACKUndo TCPLossUndo TCPLoss TCPLostRetransmit TCPRenoFailures TCPSackFailures TCPLossFailures TCPFastRetrans TCPForwardRetrans TCPSlowStartRetrans TCPTimeouts TCPRenoRecoveryFail TCPSackRecoveryFail TCPSchedulerFailed TCPRcvCollapsed TCPDSACKOldSent TCPDSACKOfoSent TCPDSACKRecv TCPDSACKOfoRecv TCPAbortOnSyn TCPAbortOnData TCPAbortOnClose TCPAbortOnMemory TCPAbortOnTimeout TCPAbortOnLinger TCPAbortFailed TCPMemoryPressures TcpExt: 0 0 0 80 539 0 0 0 0 0 3733709 51268 0 0 0 80 5583301 5966 104803 146887 146887 6500405 39465075 2562794034 0 689613557 2730596 540646233 234702206 0 44187 2066 94 240 0 114 293 1781 7221 60514 185158 2 2 3403 400 107505 5860 24813 174014 0 2966 7 168787 106151 40 32851 2 0 2180 9862 0 15999 0 0 0
具体字段找到而且获取便可
percpu ncpu 字段含义
字段含义等同cpu模块,只不过可以支持采集具体的每个cpu的信息
采集方法
等同于cpu模块
pernic 字段含义
字段含义等同traffic模块,只不过可以支持采集具体的每个网卡的信息
采集方法
等同于traffic模块
应用模块 proc 字段含义
采集方法
计数器文件
/proc/pid/stat:获取进程的cpu信息
/proc/pid/status:获取进程的mem信息
/proc/pid/io:获取进程的读写IO信息
注意,须要将采集的进程名称配置在/etc/tsar/tsar.conf总的mod_proc on procname,这样就会找到procname的pid,并进行数据采集
nginx 字段含义
采集方法
经过nginx的采集模块配置,访问特定地址,具体参见:https://github.com/taobao/tsar-mod_nginx
location = /nginx_status { stub_status on; }
请求到的数据是:
Active connections: 1 server accepts handled requests request_time 24 24 7 0 Reading: 0 Writing: 1 Waiting: 0
须要确保nginx配置该location,而且可以访问curl http://localhost/nginx_status获得上面的数据
若是nginx的端口不是80,则须要在配置文件中指定端口,配置文件是/etc/tsar/tsar.conf,修改mod_nginx on为mod_nginx on 8080
相似的有nginx_code, nginx_domain模块,相应的配置是:
req_status_zone server "$host" 20M; req_status server; location /traffic_status { req_status_show; }
经过访问curl http://localhost/traffic_status可以获得以下字段的数据
localhost,0,0,2,2,2,0,0,0,0,0,0,0,0,2,0,0,0,0,0,0,0,0,0,0,0,0,0
请求到的数据每一个字段的含义是:
若是domain数量太多,或者端口不是80,须要进行专门的配置,配置文件内容以下:
port=8080 #指定nginx的端口
top=10 #指定最多采集的域名个数,按照请求总个数排列
domain=a.com b.com #指定特定须要采集的域名列表,分隔符为空格,逗号,或者制表符
在/etc/tsar/tsar.conf中指定配置文件的路径:mod_nginx_domain on /tmp/my.conf
squid 字段含义
采集方法
访问squid的mgrinfo信息获取,有些字段通过了一些patch,可能不适用外部版本
haproxy 字段含义
采集方法
haproxy通过了patch,可以在多进程模式下进行统计信息的汇总,而后经过haproxy的本地访问其状态页面admin分析获得
lvs 字段含义
采集方法
访问lvs的统计文件:/proc/net/ip_vs_stats
apache
参见:https://github.com/kongjian/tsar-apache
tcprt
私有应用,略
swift
私有应用,略
cgcpu/cgmem/cgblkio
私有应用,略
trafficserver
待补充
tmd
私有应用,略