Linux awk+uniq+sort 统计文件中某字符串出现次数并排序

https://blog.csdn.net/qq_28766327/article/details/78069989正则表达式

 

    在服务器开发中,咱们常常会写入大量的日志文件。有时候咱们须要对这些日志文件进行统计。Linux中咱们能够利用如下命令简单高效的实现这一功能。vim

须要用到的命令简介

  • cat命令 
    cat命令主要有三大功能 
    1.一次显示整个文件 cat filename 
    2.建立一个文件 cat > fileName 
    3.将几个文件合并为一个文件 cat file1 file2 > file 
    参数: 
      -n 或 –number 由 1 开始对全部输出的行数编号 
      -b 或 –number-nonblank 和 -n 类似,只不过对于空白行不编号 
      -s 或 –squeeze-blank 当遇到有连续两行以上的空白行,就代换为一行的空白行 
      -v 或 –show-nonprinting
  • | 管道 
    管道的做用是将左边命令的输出做为右边命令的输入
  • awk 命令 
    awk 是行处理器,优势是处理庞大文件时不会出现内存溢出或处理缓慢的问题,一般用来格式化文本信息。awk依次对每一行进行处理,而后输出。 
    命令形式 awk [-F|-f|-v] ‘BEGIN{} //{command1; command2} END{}’ file 
      [-F|-f|-v] 大参数,-F指定分隔符,-f调用脚本,-v定义变量 var=value 
      ’ ’ 引用代码块 
      BEGIN 初始化代码块,在对每一行进行处理以前,初始化代码,主要是引用全局变量,设置FS分隔符 
      // 匹配代码块,可使字符串或正则表达式 
      {} 命令代码块,包含一条或多条命令 
      ;多条命令使用分号分隔 
      END 结尾代码块,对每一行进行处理后再执行的代码块,主要进行最终计算或输出 
    因为篇幅限制,可自行查找更详细的信息。这里awk命令的做用是从文件中每一行取出咱们须要的字符串服务器

  • sort 命令 
    sort将文件的每一行做为一个单位,相互比较,比较原则是从首字符向后,依次按ASCII码值进行比较,最后将他们按升序输出。 
      -b:忽略每行前面开始出的空格字符; 
      -c:检查文件是否已经按照顺序排序; 
      -d:排序时,处理英文字母、数字及空格字符外,忽略其余的字符; 
      -f:排序时,将小写字母视为大写字母; 
      -i:排序时,除了040至176之间的ASCII字符外,忽略其余的字符; 
      -m:将几个排序号的文件进行合并; 
      -M:将前面3个字母依照月份的缩写进行排序; 
      -n:依照数值的大小排序; 
      -o<输出文件>:将排序后的结果存入制定的文件; 
      -r:以相反的顺序来排序; 
      -t<分隔字符>:指定排序时所用的栏位分隔字符;ui

  • uniq 命令 
    uniq 命令用于报告或忽略文件中的重复行,通常与sort命令结合使用 
       -c或——count:在每列旁边显示该行重复出现的次数; 
      -d或–repeated:仅显示重复出现的行列; 
      -f<栏位>或–skip-fields=<栏位>:忽略比较指定的栏位; 
      -s<字符位置>或–skip-chars=<字符位置>:忽略比较指定的字符; 
      -u或——unique:仅显示出一次的行列; 
      -w<字符位置>或–check-chars=<字符位置>:指定要比较的字符。
  • > 命令 
    > 是定向输出到文件,若是文件不存在,就建立文件。若是文件存在,就将其清空 
    另外 >>是将输出内容追加到目标文件中。其余同>

如今咱们开始

1 读入文件spa

cat test.log.2017-09-20 
  • 1

执行结果 
    这里写图片描述.net

2 从每一行取出咱们须要的字符串日志

cat check_info.log.2017-09-20 | awk -F '(txt=|&client)' '{print $2}'
  • 1

awk 命令中 -F 指定每一行的分隔符 在这里 ‘(txt=|&client)’是分隔符,它是一个正则表达式。意义是,用’txt=’或’&client’ 做为分隔符 
举例来讲下面这行code

sdate=2017-09-20 23:59:32&txt=com.ford.fordmobile&client_id=x
  • 1

会被分割成server

sdate=2017-09-20 23:59:32& com.ford.fordmobile _id=x
  • 1
  • 2
  • 3

三部分 
其中第二部分”com.ford.fordmobile”是我所须要的字段blog

而’{print $2}’的意思是将每行获得的第二个值打印出来,$0表明获取的全部值 
执行效果以下 
    这里写图片描述

3 对行进行排序 
先排序是由于去重与统计的 ‘unip’命令只能处理相邻行

cat check_info.log.2017-09-20 | awk -F '(txt=|&client)' '{print $2}'|sort
  • 1

执行结果 
这里写图片描述 
能够看到相同行已经被排在了一块儿

4 统计数量与去重

cat check_info.log.2017-09-20 | awk -F '(txt=|&client)' '{print $2}'| sort | uniq -c
  • 1

uniq -c 中的-c 表明在每列旁边显示该行重复出现的次数 
执行结果 
这里写图片描述

5 按重复次数排序

cat check_info.log.2017-09-20 | awk -F '(txt=|&client)' '{print $2}'| sort | uniq -c | sort -nr
  • 1

sort 的 -n:依照数值的大小排序;-r 按照相反顺序排列

执行结果

6 将结果输出到文件中

cat check_info.log.2017-09-20 | awk -F '(txt=|&client)' '{print $2}'| sort | uniq -c | sort -nr > testfile
  • 1

能够看到咱们当前目录已有testfile 目录 
用vim 打开能够看到 
这里写图片描述

相关文章
相关标签/搜索