awk 分析 nginx 日志

Nginx日志格式:'$remote_addr - $remote_user [$time_local] "$request" $status $body_bytes_sent "$http_referer" "$http_user_agent" "$http_x_forwarded_for"'数组

日志记录:bash

1)统计日志中访问最多的10个IP日志

思路:对第一列进行去重,并输出出现的次数code

方法1:blog

awk '{a[$1]++}END{for(i in a)print a[i],i|"sort -k1 -nr|head -n10"}' access.log

方法2:rem

awk '{print $1}' access.log |sort |uniq -c |sort -k1 -nr |head -n10class

说明:a[$1]++ 建立数组a,以第一列做为下标,使用运算符++做为数组元素,元素初始值为0。处理一个IP时,下标是IP,元素加1,处理第二个IP时,下标是IP,元素加1,若是这个IP已经存在,则元素再加1,也就是这个IP出现了两次,元素结果是2,以此类推。所以能够实现去重,统计出现次数。awk

 

2)统计日志中访问大于100次的IPsed

方法1:awk '{a[$1]++}END{for(i in a){if(a[i]>100)print i,a[i]}}' access.logrequest

方法2:awk '{a[$1]++;if(a[$1]>100){b[$1]++}}END{for(i in b){print i,a[i]}}' access.log

说明:方法1是将结果保存a数组后,输出时判断符合要求的IP。方法2是将结果保存a数组时,并判断符合要求的IP放到b数组,最后打印b数组的IP。

 

3)统计2019年3月14日一天内访问最多的10个IP

思路:先过滤出这个时间段的日志,而后去重,统计出现次数

方法1:awk '$4>="[14/Mar/2019:00:00:01" && $4<="[14/Mar/2019:23:59:59" {a[$1]++}END{for(i in a)print a[i],i|"sort -k1 -nr|head -n10"}' access.log

方法2: sed -n '/\[14\/Mar\/2019:00:00:01/,/\[14\/Mar\/2019:23:59:59/p' access.log |sort |uniq -c |sort -k1 -nr |head -n10  #前提开始时间与结束时间日志中必须存在

 

4)统计访问最多的前10个页面($request)

awk '{a[$7]++}END{for(i in a)print a[i],i|"sort -k1 -nr|head -n10"}' access.log

 

5)统计每一个URL访问内容的总大小($body_bytes_sent)

awk  '{a[$7]++;size[$7]+=$10}END{for(i in a)print a[i],size[i],i}' access.log

 

6)统计每一个IP访问状态码数量($status)

awk  '{a[$1" "$9]++}END{for(i in a)print i,a[i]}' access.log

 

7)统计访问状态码为404的IP及出现次数

awk '{if($9~/404/)a[$1" "$9]++}END{for(i in a)print i,a[i]}' access.log

相关文章
相关标签/搜索