正则表达式又称正规表达式、常规表达式。在代码中常简写为 regex、regexp 或 RE。正则表达式是使用单个字符串来描述、匹配一系列符合某个句法规则的字符串,简单来讲, 是一种匹配字符串的方法,经过一些特殊符号,实现快速查找、删除、替换某个特定字符串。
正则表达式是由普通字符与元字符组成的文字模式。模式用于描述在搜索文本时要匹配的一个或多个字符串。正则表达式做为一个模板,将某个字符模式与所搜索的字符串进行匹配。其中普通字符包括大小写字母、数字、标点符号及一些其余符号,元字符则是指那些在正则表达式中具备特殊意义的专用字符,能够用来规定其前导字符(即位于元字符前面的字符)在目标对象中的出现模式。
正则表达式通常用于脚本编程与文本编辑器中。不少文本处理器与程序设计语言均支持正则表达式,如前面提到的 Perl、Linux 系统中常见的文本处理器(grep、egrep、sed、awk)。正则表达式具有很强大的文本匹配功能,可以在文本海洋中快速高效地处理文本。html
正则表达式的字符串表达方法根据不一样的严谨程度与功能分为基本正则表达式与扩展正则表达式。基础正则表达式是经常使用的正则表达式的最基础的部分。在 Linux 系统中常见的文件处理工具中 grep 与 sed 支持基础正则表达式,而 egrep 与 awk 支持扩展正则表达式。掌握基础正则表达式的使用方法,首先必须了解基本正则表达式所包含的元字符的含义,下面咱们复制一份http服务的配置文件来进行演示。正则表达式
[root@localhost ~]# cp /etc/httpd/conf/httpd.conf /opt/httpd.txt [root@localhost ~]# cat /opt/httpd.txt # # This is the main Apache HTTP server configuration file. It contains the # configuration directives that give the server its instructions. # See <URL:http://httpd.apache.org/docs/2.4/> for detailed information. # In particular, see # <URL:http://httpd.apache.org/docs/2.4/mod/directives.html> # for a discussion of each configuration directive. .................................. //省略部份内容
查找特定字符很是简单,如执行如下命令便可从 httpd.txt 文件中查找出特定字符“do” 所在位置。其中“-n”表示显示行号、“-i”表示不区分大小写。命令执行后,符合匹配标准的字符,字体颜色会变为红色。shell
若反向选择,如查找不包含“do”字符的行,则须要经过 grep 命令的“-vn”选项实现。express
[root@localhost opt]# grep -vn 'do' httpd.txt 1:# 2:# This is the main Apache HTTP server configuration file. It contains the 3:# configuration directives that give the server its instructions. 5:# In particular, see 7:# for a discussion of each configuration directive. 8:# 。........................... //省略部份内容
想要查找“shirt”与“short”这两个字符串时,能够发现这两个字符串均包含“sh” 与“rt”。此时执行如下命令便可同时查找到“shirt”与“short”这两个字符串。“[]”中不管有几个字符,都仅表明一个字符,也就是说“[io]”表示匹配“i”或者“o”。apache
[root@localhost opt]# tail -3 httpd.txt short shirt shart [root@localhost opt]# grep -n 'sh[io]rt' httpd.txt 354:short 355:shirt [root@localhost opt]#
若要查找包含重复单个字符“oo”时,只须要执行如下命令便可。编程
[root@localhost opt]# head -5 httpd.txt wood woood wooood woooood # [root@localhost opt]# grep -n 'oo' httpd.txt 1:wood 2:woood 3:wooood 4:woooood
若查找“oo”前面不是“w”的字符串,只须要经过集合字符的反向选择“[^]”来实现该目的,如执行“grep –n'[^w]oo'httpd.txt”命令表示在 httpd.txt 文本中查找“oo” 前面不是“w”的字符串。执行结果看到“woood”仍是查找到了,由于“oo”前面是“o”也不是“w”,符合条件,其它同理。vim
若不但愿“oo”前面存在小写字母,可使用“grep –n'[^a-z]oo'httpd.txt”命令实现,其中“a-z”表示小写字母,大写字母则经过“A-Z”表示。bash
查找包含数字的行能够经过“grep –n'[0-9]' httpd.txt”命令来实现。运维
基础正则表达式包含两个定位元字符:“^”(行首)与“$”(行尾)。在上面的示例中,查询“the”字符串时出现了不少包含“the”的行,若是想要查询以“the”字符串为行首的行,则能够经过“^”元字符来实现。ssh
查询以小写字母开头的行能够经过“^[a-z]”规则来过滤,查询大写字母开头的行则使用“^[A-Z]”规则,若查询不以字母开头的行则使用“^[^a-zA-Z]”规则。
[root@localhost opt]# grep -n '^[a-z]' httpd.txt 1:wood 2:woood 3:wooood 4:woooood 358:short 359:shirt 360:shart [root@localhost opt]# grep -n '^[A-Z]' httpd.txt 35:ServerRoot "/etc/httpd" 46:Listen 80 60:Include conf.modules.d/*.conf 70:User apache 71:Group apache
“^”符号在元字符集合“[]”符号内外的做用是不同的,在“[]”符号内表示反向选择,在“[]”符号外则表明定位行首。反之,若想查找以某一特定字符结尾的行则可使用“$”定位符。例如,执行如下命令便可实现查询以小数点(.)结尾的行。由于小数点(.) 在正则表达式中也是一个元字符(后面会讲到),因此在这里须要用转义字符“\”将具备特 殊意义的字符转化成普通字符。
当查询空白行时,执行“grep –n'^$'httpd.txt”命令便可。
前面提到,在正则表达式中小数点(.)也是一个元字符,表明任意一个字符。例如, 执行如下命令就能够查找“w??d”的字符串,即共有四个字符,以 w 开头 d 结尾。
在上述结果中,“wood”字符串“w..d”匹配规则。若想要查询 oo、ooo、ooooo 等资料,则须要使用星号(*)元字符。但须要注意的是,“*”表明的是重复零个或多个前面的单字符。“o*”表示拥有零个(即为空字符)或大于等于一个“o”的字符,由于容许空字符,因此执行“grep –n‘o*’httpd.txt”命令会将文本中全部的内容都输出打印。若是是“oo*”, 则第一个 o 必须存在,第二个 o 则是零个或多个 o,因此凡是包含 o、oo、ooo、ooo,等的资料都符合标准。同理,若查询包含至少两个 o 以上的字符串,则执行“grep –n'ooo*' httpd.txt”命令便可。
查询以 w 开头 d 结尾,中间包含至少一个 o 的字符串,执行如下命令便可实现。
查询以 w 开头 d 结尾,中间的字符无关紧要的字符串。
查询任意数字所在行。
在上面的示例中,咱们使用“.”与“*”来设定零个到无限多个重复的字符,若是想要限制一个范围内的重复的字符串该如何实现呢?例如,查找三到五个 o 的连续字符,这个时候就须要使用基础正则表达式中的限定范围的字符“{}”。由于“{}”在 Shell 中具备特殊 意义,因此在使用“{}”字符时,须要利用转义字符“\”,将“{}”字符转换成普通字符。 “{}”字符的使用方法以下所示。
经过上面几个简单的示例,咱们能够了解到常见的基础正则表达式的元字符主要包括如下几个:
元字符 | 做用 |
---|---|
^ | 匹配输入字符串的开始位置。除非在方括号表达式中使用,表示不包含该字符集合。要匹配“^”字符自己,请使用“\^” |
$ | 匹配输入字符串的结尾位置。若是设置了 RegExp 对象的 Multiline 属性,则“$”也匹配‘\n’或‘\r’。要匹配“$”字符自己,请使用“\$” |
. | 匹配除“\r\n”以外的任何单个字符 |
\|将下一个字符标记为特殊字符、原义字符、向后引用、八进制转义符。例如,‘n’匹配字符“n”。 ‘\n’匹配换行符。序列‘\’匹配“\”,而‘(’则匹配“(” | |
* | 匹配前面的子表达式零次或屡次。要匹配“*”字符,请使用“*” |
[] | 字符集合。匹配所包含的任意一个字符。例如,“[abc]”能够匹配“plain”中的“a” |
[^] | 赋值字符集合。匹配未包含的一个任意字符。例如,“[^abc]”能够匹配“plain”中“plin”中的任何一个字母 |
[n1-n2] | 字符范围。匹配指定范围内的任意一个字符。例如,“[a-z]”能够匹配“a”到“z”范围内的任意一个小写字母字符。注意:只有连字符(-)在字符组内部,而且出如今两个字符之间时,才能表示字符的范围;若是出如今字符组的开头,则只能表示连字符自己 |
{n} | n 是一个非负整数,匹配肯定的 n 次。例如,“o{2}”不能匹配“Bob”中的“o”,可是能匹配“food”中的两个 o |
{n,} | n 是一个非负整数,至少匹配 n 次。例如,“o{2,}”不能匹配“Bob”中的“o”,但能匹配“foooood”中的全部 o。“o{1,}”等价于“o+”。“o{0,}”则等价于“o*” |
{n,m} | m 和n 均为非负整数,其中 n<=m,最少匹配 n 次且最多匹配 m 次 |
一般状况下会使用基础正则表达式就已经足够了,但有时为了简化整个指令,须要使用范围更广的扩展正则表达式。例如,使用基础正则表达式查询除文件中空白行与行首为“#” 以外的行(一般用于查看生效的配置文件),执行“grep –v‘^$’test.txt | grep –v ‘^#’”便可实现。这里须要使用管道命令来搜索两次。若是使用扩展正则表达式,能够简化为“egrep –v‘^$|^#’test.txt”,其中,单引号内的管道符号表示或者(or)。
此外,grep 命令仅支持基础正则表达式,若是使用扩展正则表达式,须要使用 egrep 或 awk 命令。awk 命令在后面的小节进行讲解,这里咱们直接使用 egrep 命令。egrep 命令与 grep 命令的用法基本类似。egrep 命令是一个搜索文件得到模式,使用该命令能够搜索文件中的任意字符串和符号,也能够搜索一个或多个文件的字符串,一个提示符能够是单个字符、一个字符串、一个字或一个句子。与基础正则表达式类型相同,扩展正则表达式也包含多个元字符,常见的扩展正则表达式的元字符主要包括如下几个:
下面分别演示每一个例子
示例1:执行“egrep -n 'wo+d' httpd.txt”命令,便可查询"wood" "woood" "woooooood"等字符串
示例2:执行“egrep -n 'bes?t' httpd.txt”命令,便可查询“bet”“best”这两个字符串
示例3:执行“egrep -n 'of|is|on' httpd.txt”命令便可查询"of"或者"if"或者"on"字符串
示例4:“egrep -n 't(a|e)st' test.txt”。“tast”与“test”由于这两个单词的“t”与“st”是重复的,因此将“a”与“e”列于“()”符号当中,并以“|”分隔,便可查询"tast"或者"test"字符串
示例5:“egrep -n 'A(xyz)+C' test.txt”。该命令是查询开头的"A"结尾是"C",中间有一个以上的 "xyz"字符串的意思
在 Linux/UNIX 系统中包含不少种文本处理器或文本编辑器,其中包括咱们以前学习过的VIM 编辑器与 grep 等。而 grep,sed,awk 更是 shell 编程中常常用到的文本处理工具,被称之为 Shell 编程三剑客。
sed(Stream EDitor)是一个强大而简单的文本解析转换工具,能够读取文本,并根据指定的条件对文本内容进行编辑(删除、替换、添加、移动等),最后输出全部行或者仅输出处理的某些行。sed 也能够在无交互的状况下实现至关复杂的文本处理操做,被普遍应用于 Shell 脚本中,用以完成各类自动化处理任务。
sed 的工做流程主要包括读取、执行和显示三个过程。
读取:sed 从输入流(文件、管道、标准输入)中读取一行内容并存储到临时的缓冲区中(又称模式空间,pattern space)。
执行:默认状况下,全部的 sed 命令都在模式空间中顺序地执行,除非指定了行的地址,不然 sed 命令将会在全部的行上依次执行。
显示:发送修改后的内容到输出流。再发送数据后,模式空间将会被清空。在全部的文件内容都被处理完成以前,上述过程将重复执行,直至全部内容被处理完。
注意:默认状况下,全部的 sed 命令都是在模式空间内执行的,所以输入的文件并不会发生任何变化,除非是用重定向存储输出。
一般状况下调用 sed 命令有两种格式,以下所示。其中,“参数”是指操做的目标文件,当存在多个操做对象时用,文件之间用逗号“,”分隔;而 scriptfile 表示脚本文件,须要用“-f”选项指定,当脚本文件出如今目标文件以前时,表示经过指定的脚本文件来处理输入的目标文件。
sed[选项] '操做' 参数 sed [选项] -f scriptfile 参数
常见的 sed 命令选项主要包含如下几种:
-e 或--expression=:表示用指定命令或者脚原本处理输入的文本文件 -f 或--file=:表示用指定的脚本文件来处理输入的文本文件 -h 或--help:显示帮助 -n、--quiet 或 silent:表示仅显示处理后的结果 -i:直接编辑文本文件
“操做”用于指定对文件操做的动做行为,也就是 sed 的命令。一般状况下是采用的“[n1[,n2]]”操做参数的格式。n一、n2 是可选的,不必定会存在,表明选择进行操做的行数,如操做须要在 5~20 行之间进行,则表示为“5,20 动做行为”。常见的操做包括如下几种。
a:增长,在当前行下面增长一行指定内容。 c:替换,将选定行替换为指定内容。 d:删除,删除选定的行。 i:插入,在选定行上面插入一行指定内容。 p:打印,若是同时指定行,表示打印指定行;若是不指定行,则表示打印全部内容; 若是有非打印字符,则以ASCII 码输出。其一般与“-n”选项一块儿使用。 s:替换,替换指定字符。 y:字符转换。
咱们先本身新建一个test.txt文本文件做为实验对象:
[root@localhost opt]# vim test.txt [root@localhost opt]# cat test.txt 1 2 3 4 5 6 7 8 9 0 [root@localhost opt]#
[root@localhost opt]# sed -n 'p' test.txt //输出全部内容,等同于 cat test.txt 1 2 3 4 5 6 7 8 9 0 [root@localhost opt]# [root@localhost opt]# sed -n '2,5p' test.txt //输出 2~5 行 2 3 4 5 [root@localhost opt]# [root@localhost opt]# sed -n 'p;n' test.txt //输出全部奇数行,n 表示读入下一行资料 1 3 5 7 9 [root@localhost opt]# sed -n 'n;p' test.txt //输出全部偶数行,n 表示读入下一行资料 2 4 6 8 0 [root@localhost opt]# [root@localhost opt]# sed -n '2,${p;n}' test.txt //输出第 2 行至文件尾之间的奇数行 2 4 6 8 0 [root@localhost opt]#
在执行“sed –n‘2,${n;p}’test.txt”命令时,读取的第 1 行是文件的第 2 行,读取的第 2 行是文件的第 3 行,依此类推,因此输出的奇数行是文件的第 2 行、4 行直至文件结尾,其中包括空行。
以上是 sed 命令的基本用法,sed 命令结合正则表达式时,格式略有不一样,正则表达式以“/”包围。例如,如下操做是 sed 命令与正则表达式结合使用的示例。
[root@localhost opt]# vim test.txt //先对实验文件进行修改 [root@localhost opt]# cat test.txt 1 2 3 4 5 6 7 the this 8 this the 9 0 [root@localhost opt]# [root@localhost opt]# sed -n '/the/p' test.txt //输出包含the 的行 the this this the [root@localhost opt]# [root@localhost opt]# sed -n '2,/the/p' test.txt //输出从第 2 行至第一个包含 the 的行 2 3 4 5 6 7 the this [root@localhost opt]# [root@localhost opt]# sed -n '/the/=' test.txt //输出包含the 的行所在的行号,等号(=)用来输出行号 8 10 [root@localhost opt]# [root@localhost opt]# sed -n '/^the/p' test.txt //输出以the 开头的行 the this [root@localhost opt]# [root@localhost opt]# sed -n '/^the/p' test.txt //输出以the开头的行 the this [root@localhost opt]# [root@localhost opt]# sed -n '/[0-9]$/p' test.txt //输出以数字结尾的行 1 2 3 4 5 6 7 8 9 0 [root@localhost opt]# [root@localhost opt]# vim test.txt //在文本末行添加一个"then" [root@localhost opt]# cat test.txt 1 2 3 4 5 6 7 the this 8 this the 9 0 then [root@localhost opt]# sed -n '/the/p' test.txt //输出包含the的行,注意这种输出不会识别单词 the this this the then [root@localhost opt]# sed -n '/\<the\>/p' test.txt //输出包含单词the的行,\<、\>表明单词边界 the this this the [root@localhost opt]#
删除符合条件的文本(d)
由于后面的示例还须要使用测试文件 test.txt,因此在执行删除操做以前须要先将测试文件备份。如下示例分别演示了 sed 命令的几种经常使用删除用法。
下面命令中 nl 命令用于计算文件的行数,结合该命令能够更加直观地查看到命令执行的结果。
[root@localhost opt]# nl test.txt | sed '3d' //删除第 3 行 1 1 2 2 4 4 5 5 6 6 7 7 8 the this 9 8 10 this the 11 9 12 0 13 then [root@localhost opt]# [root@localhost opt]# nl test.txt | sed '3d' //删除第 3~5 行 1 1 2 2 6 6 7 7 8 the this 9 8 10 this the 11 9 12 0 13 then [root@localhost opt]# [root@localhost opt]# nl test.txt | sed '/the/d' //删除包含cross 的行 1 1 2 2 3 3 4 4 5 5 6 6 7 7 9 8 11 9 12 0 [root@localhost opt]# nl test.txt | sed '/the/!d' //删除不包含cross 的行,用!符号表示取反操做,如'/the/!d' 8 the this 10 this the 13 then [root@localhost opt]# [root@localhost opt]# sed '/^[a-z]/d' test.txt //删除以小写字母开头的行 1 2 3 4 5 6 7 8 9 0 THE this [root@localhost opt]# [root@localhost opt]# sed '/this$/d' test.txt //删除以this结尾的行 1 2 3 4 5 6 7 8 this the 9 0 then [root@localhost opt]# [root@localhost ~]# sed '/^$/d' test.txt //删除全部空行,与前面的差很少,不演示了
注意: 如果删除重复的空行,即连续的空行只保留一个, 执行“ sed –e ‘/^$/{n;/^$/d}’test.txt”命令便可实现。其效果与“cat -s test.txt”相同,n 表示读下一行数据。
替换符合条件的文本
在使用 sed 命令进行替换操做时须要用到 s(字符串替换)、c(整行/整块替换)、y(字符转换)命令选项,常见的用法以下所示。
sed 's/the/THE/' test.txt //将每行中的第一个the 替换为 THE sed 's/l/L/2' test.txt //将每行中的第 3 个l 替换为L sed 's/the/THE/g' test.txt //将文件中的全部the 替换为THE sed 's/o//g' test.txt //将文件中的全部o 删除(替换为空串) sed 's/^/#/' test.txt //在每行行首插入#号 sed '/the/s/^/#/' test.txt //在包含the 的每行行首插入#号 sed 's/$/EOF/' test.txt //在每行行尾插入字符串EOF sed '3,5s/the/THE/g' test.txt //将第 3~5 行中的全部the 替换为 THE sed '/the/s/o/O/g' test.txt //将包含the 的全部行中的o 都替换为 O
迁移符合条件的文本
其中,H,复制到剪贴板;g、G,将剪贴板中的数据覆盖/追加至指定行;w,保存为文件;r,读取指定文件;a,追加指定内容。
sed '/the/{H;d};$G' test.txt //将包含the 的行迁移至文件末尾,{;}用于多个操做 sed '1,5{H;d};17G' test.txt //将第 1~5 行内容转移至第 17 行后 sed '/the/w out.file' test.txt //将包含the 的行另存为文件out.file sed '/the/r /etc/hostname' test.txt //将文件/etc/hostname 的内容添加到包含the 的每行之后 sed '3aNew' test.txt //在第 3 行后插入一个新行,内容为 New sed '/the/aNew' test.txt //在包含the 的每行后插入一个新行,内容为 New sed '3aNew1\nNew2' test.txt //在第 3 行后插入多行内容,中间的\n 表示换行
使用脚本编辑文件
使用 sed 脚本,将多个编辑指令存放到文件中(每行一条编辑指令),经过“-f”选项来调用。例如:
sed '1,5{H;d};17G' test.txt //将第 1~5 行内容转移至第 10 行后
以上操做能够改用脚本文件方式:
[root@localhost opt]# vim opt.list [root@localhost opt]# cat opt.list 1,5H 1,5d 10G [root@localhost opt]# sed -f opt.list test.txt 6 7 the this 8 this the 1 2 3 4 5 9 0 then THE this [root@localhost opt]#
sed 直接操做文件示例
编写一个脚本,用来调整 vsftpd 服务配置:禁止匿名用户,但容许本地用户(也容许写入)。
[root@localhost ~]# vim local_only_ftp.sh #!/bin/bash # 指定样本文件路径、配置文件路径 SAMPLE="/usr/share/doc/vsftpd-3.0.2/EXAMPLE/INTERNET_SITE/vsftpd.conf " CONFIG="/etc/vsftpd/vsftpd.conf" # 备份原来的配置文件,检测文件名为/etc/vsftpd/vsftpd.conf.bak 备份文件是否存在,若不存在则使用 cp 命令进行文件备份 [ ! -e "$CONFIG.bak" ] && cp $CONFIG $CONFIG.bak # 基于样本配置进行调整,覆盖现有文件 sed -e '/^anonymous_enable/s/YES/NO/g' $SAMPLE > $CONFIG sed -i -e '/^local_enable/s/NO/YES/g' -e '/^write_enable/s/NO/YES/g' $CONFIG grep "listen" $CONFIG || sed -i '$alisten=YES' $CONFIG # 启动vsftpd 服务,并设为开机后自动运行 systemctl restart vsftpd systemctl enable vsftpd [root@localhost ~]# chmod +x local_only_ftp.sh
在 Linux/UNIX 系统中,awk 是一个功能强大的编辑工具,逐行读取输入文本,并根据指定的匹配模式进行查找,对符合条件的内容进行格式化输出或者过滤处理,能够在无交互的状况下实现至关复杂的文本操做,被普遍应用于 Shell 脚本,完成各类自动化配置任务。
一般状况下 awk 所使用的命令格式以下所示,其中,单引号加上大括号“{}”用于设置对数据进行的处理动做。awk 能够直接处理目标文件,也能够经过“-f”读取脚本对目标文件进行处理。
awk 选项 '模式或条件 {编辑指令}' 文件 1 文件 2 „ //过滤并输出文件符条件的内容 awk -f 脚本文件 文件 1 文件 2 „ //从脚本中调用编辑指令,过滤并输出内容
前面提到 sed 命令经常使用于一整行的处理,而 awk 比较倾向于将一行分红多个“字段”而后再进行处理,且默认状况下字段的分隔符为空格或者 tab 键。awk 执行结果能够经过 print 的功能将字段数据打印显示。在使用 awk 命令的过程当中,可使用逻辑操做符“&&”,表示“与”, “||”表示“或”,“!”表示“非”;还能够进行简单的数学运算,如+、-、*、/、%、^分别 表示加、减、乘、除、取余和乘方。
在 Linux 系统中/etc/passwd 是一个很是典型的格式化文件,各字段间使用“:”做为分隔符隔开,Linux 系统中的大部分日志文件也是格式化文件,从这些文件中提取相关信息是运维的平常工做内容之一。若须要查出/etc/passwd 的用户名、用户 ID、组 ID 等列, 执行如下 awk 命令便可。
[root@localhost ~]# awk -F ':' '{print $1,$3,$4}' /etc/passwd root 0 0 bin 1 1 daemon 2 2 „„//省略部份内容
awk 从输入文件或者标准输入中读入信息,与 sed 同样,信息的读入也是逐行读取的。不一样的是 awk 将文本文件中的一行视为一个记录,而将一行中的某一部分(列)做为记录中的一个字段(域)。为了操做这些不一样的字段,awk 借用 shell 中相似于位置变量的方法, 用$一、$二、$3顺序地表示行(记录)中的不一样字段。另外 awk 用$0 表示整个行(记录)。不一样的字段之间是经过指定的字符分隔。awk 默认的分隔符是空格。awk 容许在命令行中用“-F 分隔符”的形式来指定分隔符。
awk 包含几个特殊的内建变量(可直接用)以下所示:
FS:指定每行文本的字段分隔符,默认为空格或制表位; NF:当前处理的行的字段个数; NR:当前处理的行的行号(序数); $0:当前处理的行的整行内容; $n:当前处理行的第 n 个字段(第 n 列); FILENAME:被处理的文件名; RS:数据记录分隔,默认为\n,即每行为一条记录。
按行输出文本
[root@localhost opt]# awk '{print}' test.txt //输出全部内容,等同于 cat test.txt 1 2 3 4 5 6 7 the this 8 this the 9 0 then THE this [root@localhost opt]# awk '{print $0}' test.txt //输出全部内容,等同于 cat test.txt 1 2 3 4 5 6 7 the this 8 this the 9 0 then THE this [root@localhost opt]# [root@localhost opt]# awk 'NR==1,NR==3{print}' test.txt //输出第 1~3 行内容 1 2 3 [root@localhost opt]# awk '(NR>=1)&&(NR<=3){print}' test.txt //输出第 1~3 行内容 1 2 3 [root@localhost opt]# [root@localhost opt]# awk 'NR==1||NR==3{print}' test.txt //输出第 1 行、第 3 行内容 1 3 [root@localhost opt]# [root@localhost opt]# nl test.txt|awk '(NR%2)==1{print}' //输出全部奇数行的内容,nl显示行号 1 1 3 3 5 5 7 7 9 8 11 9 13 then [root@localhost opt]# nl test.txt|awk '(NR%2)==0{print}' //输出全部偶数行的内容,nl显示行号 2 2 4 4 6 6 8 the this 10 this the 12 0 14 THE this [root@localhost opt]# [root@localhost opt]# awk '/^root/{print}' /etc/passwd //输出以root 开头的行 root:x:0:0:root:/root:/bin/bash [root@localhost opt]# [root@localhost opt]# awk '/bash$/{print}' /etc/passwd //输出以 bash 结尾的行 root:x:0:0:root:/root:/bin/bash jiang:x:1000:1000:jiang:/home/jiang:/bin/bash [root@localhost opt]# [root@localhost opt]# awk 'BEGIN{x=0};/\/bin\/bash$/{x++};END{print x}' /etc/passwd //统计以/bin/bash 结尾的行数,等同于 grep -c "/bin/bash$" /etc/passwd 2 [root@localhost opt]# [root@localhost opt]# awk 'BEGIN{RS=""};END{print NR}' /etc/httpd/conf/httpd.conf //统计以空行分隔的文本段落数 38 [root@localhost opt]#
按字段输出文本
awk '{print $3}' /etc/passwd //输出每行中(以空格或制表位分隔)的第 3 个字段 awk '{print $1,$3}' /etc/passwd //输出每行中的第 一、3 个字段 awk -F ":" '$2==""{print}' /etc/shadow //输出密码为空的用户的shadow 记录 awk 'BEGIN {FS=":"}; $2==""{print}' /etc/shadow//输出密码为空的用户的shadow 记录 awk -F ":" '$7~"/bash"{print $1}' /etc/passwd//输出以冒号分隔且第 7 个字段中包含/bash 的行的第 1 个字段 awk '($1~"nfs")&&(NF==8){print $1,$2}' /etc/services//输出包含 8 个字段且第 1 个字段中包含 nfs 的行的第 一、2 个字段 awk -F ":" '($7!="/bin/bash")&&($7!="/sbin/nologin"){print}' /etc/passwd//输出第 7 个字段既不为/bin/bash 也不为/sbin/nologin 的全部行
经过管道、双引号调用 Shell 命令
awk -F: '/bash$/{print | "wc -l"}' /etc/passwd //调用wc -l 命令统计使用bash 的用户个数,等同于 grep -c "bash$" /etc/passwd awk 'BEGIN {while ("w" | getline) n++ ; {print n-2}}' //调用w 命令,并用来统计在线用户数 awk 'BEGIN { "hostname" | getline ; print $0}' //调用hostname,并输出当前的主机名
sort 是一个以行为单位对文件内容进行排序的工具,也能够根据不一样的数据类型来排序。例如数据和字符的排序就不同。sort 命令的语法为“sort [选项] 参数”,其中经常使用的选项包括如下几种。
-f:忽略大小写; -b:忽略每行前面的空格; -M:按照月份进行排序; -n:按照数字进行排序; -r:反向排序; -u:等同于 uniq,表示相同的数据仅显示一行; -t:指定分隔符,默认使用[Tab]键分隔; -o <输出文件>:将排序后的结果转存至指定文件; -k:指定排序区域。
示例 1:将/etc/passwd 文件中的帐号进行排序。
[root@localhost ~]# sort /etc/passwd abrt:x:173:173::/etc/abrt:/sbin/nologin adm:x:3:4:adm:/var/adm:/sbin/nologin apache:x:48:48:Apache:/var/www:/sbin/nologin avahi-autoipd:x:170:170:Avahi IPv4LL Stack:/var/lib/avahi-autoipd:/sbin/nologin bin:x:1:1:bin:/bin:/sbin/nologin daemon:x:2:2:daemon:/sbin:/sbin/nologin dbus:x:81:81:System message bus:/:/sbin/nologin ftp:x:14:50:FTP User:/var/ftp:/sbin/nologin games:x:12:100:games:/usr/games:/sbin/nologin gdm:x:42:42::/var/lib/gdm:/sbin/nologin gopher:x:13:30:gopher:/var/gopher:/sbin/nologin haldaemon:x:68:68:HAL daemon:/:/sbin/nologin halt:x:7:0:halt:/sbin:/sbin/halt lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin mail:x:8:12:mail:/var/spool/mail:/sbin/nologin nfsnobody:x:65534:65534:Anonymous NFS User:/var/lib/nfs:/sbin/nologin nobody:x:99:99:Nobody:/:/sbin/nologin ntp:x:38:38::/etc/ntp:/sbin/nologin operator:x:11:0:operator:/root:/sbin/nologin postfix:x:89:89::/var/spool/postfix:/sbin/nologin pulse:x:497:496:PulseAudio System Daemon:/var/run/pulse:/sbin/nologin root:x:0:0:root:/root:/bin/bash rpcuser:x:29:29:RPC Service User:/var/lib/nfs:/sbin/nologin rpc:x:32:32:Rpcbind Daemon:/var/cache/rpcbind:/sbin/nologin rtkit:x:499:497:RealtimeKit:/proc:/sbin/nologin saslauth:x:498:76:"Saslauthd user":/var/empty/saslauth:/sbin/nologin shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown sshd:x:74:74:Privilege-separated SSH:/var/empty/sshd:/sbin/nologin sync:x:5:0:sync:/sbin:/bin/sync tcpdump:x:72:72::/:/sbin/nologin usbmuxd:x:113:113:usbmuxd user:/:/sbin/nologin uucp:x:10:14:uucp:/var/spool/uucp:/sbin/nologin vcsa:x:69:69:virtual console memory owner:/dev:/sbin/nologin
示例 2:将/etc/passwd 文件中第三列进行反向排序。
[root@localhost ~]# sort -t ':' -rk 3 /etc/passwd nobody:x:99:99:Nobody:/:/sbin/nologin postfix:x:89:89::/var/spool/postfix:/sbin/nologin dbus:x:81:81:System message bus:/:/sbin/nologin mail:x:8:12:mail:/var/spool/mail:/sbin/nologin sshd:x:74:74:Privilege-separated SSH:/var/empty/sshd:/sbin/nologin tcpdump:x:72:72::/:/sbin/nologin halt:x:7:0:halt:/sbin:/sbin/halt vcsa:x:69:69:virtual console memory owner:/dev:/sbin/nologin haldaemon:x:68:68:HAL daemon:/:/sbin/nologin nfsnobody:x:65534:65534:Anonymous NFS User:/var/lib/nfs:/sbin/nologin shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown sync:x:5:0:sync:/sbin:/bin/sync rtkit:x:499:497:RealtimeKit:/proc:/sbin/nologin saslauth:x:498:76:"Saslauthd user":/var/empty/saslauth:/sbin/nologin pulse:x:497:496:PulseAudio System Daemon:/var/run/pulse:/sbin/nologin apache:x:48:48:Apache:/var/www:/sbin/nologin lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin gdm:x:42:42::/var/lib/gdm:/sbin/nologin ntp:x:38:38::/etc/ntp:/sbin/nologin adm:x:3:4:adm:/var/adm:/sbin/nologin rpc:x:32:32:Rpcbind Daemon:/var/cache/rpcbind:/sbin/nologin rpcuser:x:29:29:RPC Service User:/var/lib/nfs:/sbin/nologin daemon:x:2:2:daemon:/sbin:/sbin/nologin abrt:x:173:173::/etc/abrt:/sbin/nologin avahi-autoipd:x:170:170:Avahi IPv4LL Stack:/var/lib/avahi-autoipd:/sbin/nologin ftp:x:14:50:FTP User:/var/ftp:/sbin/nologin gopher:x:13:30:gopher:/var/gopher:/sbin/nologin games:x:12:100:games:/usr/games:/sbin/nologin bin:x:1:1:bin:/bin:/sbin/nologin usbmuxd:x:113:113:usbmuxd user:/:/sbin/nologin operator:x:11:0:operator:/root:/sbin/nologin uucp:x:10:14:uucp:/var/spool/uucp:/sbin/nologin root:x:0:0:root:/root:/bin/bash
示例3:将/etc/passwd 文件中第三列进行排序,并将输出内容保存至user.txt 文件中。
[root@localhost ~]# sort -t ':' -k 3 /etc/passwd -o user.txt [root@localhost ~]# cat user.txt root:x:0:0:root:/root:/bin/bash uucp:x:10:14:uucp:/var/spool/uucp:/sbin/nologin operator:x:11:0:operator:/root:/sbin/nologin usbmuxd:x:113:113:usbmuxd user:/:/sbin/nologin bin:x:1:1:bin:/bin:/sbin/nologin games:x:12:100:games:/usr/games:/sbin/nologin gopher:x:13:30:gopher:/var/gopher:/sbin/nologin ftp:x:14:50:FTP User:/var/ftp:/sbin/nologin avahi-autoipd:x:170:170:Avahi IPv4LL Stack:/var/lib/avahi-autoipd:/sbin/nologin abrt:x:173:173::/etc/abrt:/sbin/nologin daemon:x:2:2:daemon:/sbin:/sbin/nologin rpcuser:x:29:29:RPC Service User:/var/lib/nfs:/sbin/nologin rpc:x:32:32:Rpcbind Daemon:/var/cache/rpcbind:/sbin/nologin a dm:x:3:4:adm:/var/adm:/sbin/nologin ntp:x:38:38::/etc/ntp:/sbin/nologin gdm:x:42:42::/var/lib/gdm:/sbin/nologin lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin apache:x:48:48:Apache:/var/www:/sbin/nologin pulse:x:497:496:PulseAudio System Daemon:/var/run/pulse:/sbin/nologin saslauth:x:498:76:"Saslauthd user":/var/empty/saslauth:/sbin/nologin rtkit:x:499:497:RealtimeKit:/proc:/sbin/nologin sync:x:5:0:sync:/sbin:/bin/sync shutdown:x:6:0:shutdown:/sbin:/sbin/shutdown nfsnobody:x:65534:65534:Anonymous NFS User:/var/lib/nfs:/sbin/nologin haldaemon:x:68:68:HAL daemon:/:/sbin/nologin vcsa:x:69:69:virtual console memory owner:/dev:/sbin/nologin halt:x:7:0:halt:/sbin:/sbin/halt tcpdump:x:72:72::/:/sbin/nologin sshd:x:74:74:Privilege-separated SSH:/var/empty/sshd:/sbin/nologin mail:x:8:12:mail:/var/spool/mail:/sbin/nologin dbus:x:81:81:System message bus:/:/sbin/nologin postfix:x:89:89::/var/spool/postfix:/sbin/nologin nobody:x:99:99:Nobody:/:/sbin/nologin
Uniq 工具在 Linux 系统中一般与 sort 命令结合使用,用于报告或者忽略文件中的重复行。具体的命令语法格式为:uniq [选项] 参数。其中经常使用选项包括如下几种。
-c:进行计数; -d:仅显示重复行; -u:仅显示出现一次的行;
示例 1:删除 testfile 文件中的重复行。
[root@localhost ~]# cat testfile Linux 10 Linux 20 Linux 30 Linux 30 Linux 30 CentOS 6.5 CentOS 6.5 CentOS 6.5 CentOS 7.3 CentOS 7.3 CentOS 7.3 [root@localhost ~]# uniq testfile Linux 10 Linux 20 Linux 30 CentOS 6.5 CentOS 7.3
示例 2:删除 testfile 文件中的重复行,并在行首显示该行重复出现的次数。
[root@localhost ~]# uniq -c testfile 1 Linux 10 1 Linux 20 3 Linux 30 3 CentOS 6.5 3 CentOS 7.3
示例 3:查找 testfile 文件中的重复行。
[root@localhost ~]# uniq -d testfile Linux 30 CentOS 6.5 CentOS 7.3