AWK 是一种“样式扫描和处理语言”。它容许您建立简短的程序,这些程序读取输入文件、为数据排序、处理数据、对输入执行计算以及生成报表。它的名称取自于它的创始人 Alfred Aho、 Peter Weinberger 和 Brian Kernighan 姓氏的首个字母。html
本文论述的 awk 命令主要指 Linux 操做系统中普遍包含的内置程序 /bin/gawk,它是 Unix awk 程序的 GNU 版本。此命令主要负责读入并运行 AWK 语言编写的程序。在 Windows 平台上可使用 Cygwin 在模拟环境下运行 awk 命令。linux
基本上来讲,awk 能够从输入( 标准输入,或一个或多个文件 )中是否存在指定模式的记录( 即文本行 )。每次发现匹配时,就执行相关联的动做( 例如写入到标准输出或外部文件 )。浏览器
为了能理解 AWK 程序,咱们下面概述其基本知识。AWK 程序能够由一行或多行文本构成,其中核心部分是包含一个模式和动做的组合。服务器
pattern { action }
模式( pattern ) 用于匹配输入中的每行文本。对于匹配上的每行文本,awk 都执行对应的 动做( action )。模式和动做之间使用花括号隔开。awk 顺序扫描每一行文本,并使用 记录分隔符(通常是换行符)将读到的每一行做为 记录,使用 域分隔符( 通常是空格符或制表符 ) 将一行文本分割为多个 域, 每一个域分别可使用 $1, $2, … $n 表示。$1 表示第一个域,$2 表示第二个域,$n 表示第 n 个域。 $0 表示整个记录。模式或动做均可以不指定,缺省模式的状况下,将匹配全部行。缺省动做的状况下,将执行动做 {print},即打印整个记录。ide
因为咱们在 IBM HTTP Server 配置文件中指定了访问日志的固定格式,所以,咱们能够轻易地使用 awk 解析,抽取咱们须要的数据。网站
如下面的示例日志为例:url
202.189.63.115 - - [31/Aug/2012:15:42:31 +0800] "GET / HTTP/1.1" 200 1365 "-" "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:15.0) Gecko/20100101 Firefox/15.0.1"
$0 就是整个记录行spa
$1 就是访问 IP ” 202.189.63.115”操作系统
$4 就是请求时间的前半部分 “[31/Aug/2012:15:42:31”命令行
$5 就是请求时间的后半部分 “+0800]”
以此类推……
当咱们使用默认的域分割符时,咱们能够从日志中解析出下面不一样类型的信息:
awk '{print $1}' access.log # IP 地址 (%h) awk '{print $2}' access.log # RFC 1413 标识 (%l) awk '{print $3}' access.log # 用户 ID (%u) awk '{print $4,$5}' access.log # 日期和时间 (%t) awk '{print $7}' access _log # URI (%>s) awk '{print $9}' access _log # 状态码 (%>s) awk '{print $10}' access _log # 响应大小 (%b)
咱们不难发现,仅使用默认的域分隔符,不方便解析出请求行、引用页和浏览器类型等其余信息,由于这些信息之中包含不肯定个数的空格。所以,咱们须要把域分隔符修改成 “ ,就可以轻松读出这些信息。
awk -F\" '{print $2}' access.log # 请求行 (%r) awk -F\" '{print $4}' access.log # 引用页 awk -F\" '{print $6}' access.log # 浏览器
注意:这里为了不 Unix/Linux Shell 误解 “ 为字符串开始,咱们使用了反斜杠,转义了 “ 。
如今,咱们已经掌握了 awk 的基本知识,以及它是怎样解析日志的。 下面咱们作好准备开始到真实的世界里开始“冒险”了。
若是咱们想知道那些类型的浏览器访问过网站,并按出现的次数倒序排列,我可使用下面的命令:
awk -F\" '{print $6}' access.log | sort | uniq -c | sort -fr
此命令行首先解析出浏览器域,而后使用管道将输出做为第一个 sort 命令的输入。第一个 sort 命令主要是为了方便 uniq 命令统计出不一样浏览器出现的次数。最后一个 sort 命令将把以前的统计结果倒序排列并输出。
咱们可使用下面的命令行,统计服务器返回的状态码,发现系统可能存在的问题。
awk '{print $9}' access.log | sort | uniq -c | sort
正常状况下,状态码 200 或 30x 应该是出现次数最多的。40x 通常表示客户端访问问题。50x 通常表示服务器端问题。
下面是一些常见的状态码:
200 - 请求已成功,请求所但愿的响应头或数据体将随此响应返回。
206 - 服务器已经成功处理了部分 GET 请求
301 - 被请求的资源已永久移动到新位置
302 - 请求的资源如今临时从不一样的 URI 响应请求
400 - 错误的请求。当前请求没法被服务器理解
401 - 请求未受权,当前请求须要用户验证。
403 - 禁止访问。服务器已经理解请求,可是拒绝执行它。
404 - 文件不存在,资源在服务器上未被发现。
500 - 服务器遇到了一个不曾预料的情况,致使了它没法完成对请求的处理。
503 - 因为临时的服务器维护或者过载,服务器当前没法处理请求。
HTTP 协议状态码定义能够参阅:Hypertext Transfer Protocol -- HTTP/1.1
有关状态码的 awk 命令示例:
1. 查找并显示全部状态码为 404 的请求
awk '($9 ~ /404/)' access.log
2. 统计全部状态码为 404 的请求
awk '($9 ~ /404/)' access.log | awk '{print $9,$7}' | sort
如今咱们假设某个请求 ( 例如 : URI: /path/to/notfound ) 产生了大量的 404 错误,咱们能够经过下面的命令找到这个请求是来自于哪个引用页,和来自于什么浏览器。
awk -F\" '($2 ~ "^GET /path/to/notfound "){print $4,$6}' access.log
系统管理员有时候会发现其余网站出于某种缘由,在他们的网站上使用保存在本身网站上的图片。若是您想知道到底是谁未经受权使用本身网站上的图片,咱们可使用下面的命令:
awk -F\" '($2 ~ /\.(jpg|gif|png)/ && $4 !~ /^http:\/\/www\.example\.com/)\ {print $4}' access.log \ | sort | uniq -c | sort
注意:使用前,将 www.example.com 修改成本身网站的域名。
使用 ” 分解每一行;
请求行中必须包括 “.jpg” 、”.gif” 或 ”.png”;
引用页不是以您的网站域名字符串开始( 在此例中,即 www.example.com );
显示出全部引用页,并统计出现的次数。
统计共有多少个不一样的 IP 访问:
awk '{print $1}' access.log |sort|uniq|wc – l
统计每个 IP 访问了多少个页面:
awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file
将每一个 IP 访问的页面数进行从小到大排序:
awk '{++S[$1]} END {for (a in S) print S[a],a}' log_file | sort -n
查看某一个 IP(例如 202.106.19.100 )访问了哪些页面:
grep ^202.106.19.100 access.log | awk '{print $1,$7}'
统计 2012 年 8 月 31 日 14 时内有多少 IP 访问 :
awk '{print $4,$1}' access.log | grep 31/Aug/2012:14 | awk '{print $2}'| sort | uniq | \ wc -l
统计访问最多的前十个 IP 地址
awk '{print $1}' access.log |sort|uniq -c|sort -nr |head -10
列出传输大小最大的几个文件
cat access.log |awk '{print $10 " " $1 " " $4 " " $7}'|sort -nr|head -100
列出输出大于 204800 byte ( 200kb) 的页面以及对应页面发生次数
cat access.log |awk '($10 > 200000){print $7}'|sort -n|uniq -c|sort -nr|head -100
若是日志最后一列记录的是页面文件传输时间 (%T),例如咱们能够自定义日志格式为:
LogFormat "%h %l %u %t \"%r\" %>s %b \"%{Referer}i\" \"%{User-Agent}i\" %T" combined
可使用下面的命令统计出全部响应时间超过 3 秒的日志记录。
awk '($NF > 3){print $0}' access.log
注意:NF 是当前记录中域的个数。$NF 即最后一个域。
列出相应时间超过 5 秒的请求
awk '($NF > 5){print $0}' access.log | awk -F\" '{print $2}' |sort -n| uniq -c|sort -nr|head -20