1.在给定文件中查找与条件相符字符串的命令及查找某个目录下相应文件的命令为:(多选)(AC)mysql
2.在给定文件中查找与设定条件相符字符串的命令为(A)linux
3.___D____命令能够从文本文件的每一行中截取指定内容的数据。ios
4.下面表述错误的是(D)nginx
1.Unix中在当前目录下全部.cc 的文件中找到含有“asiainfo”内容的文件,命令为sql
find . -type f -name "*.cc" | xargs grep 'asiainfo' find . -type f -name "*.cc" -exec grep "asiainfo" {} \; grep "asiainfo" `find . -type f -name "*.cc"`
2.使用AWK指定分隔符的参数是_______-F _,-vFS=shell
awk 'BEGIN{FS=":"}{print $1,$3}' /etc/passwd
1.找出当前目录下包含127.0.0.1关键字的文件?apache
方法1 grep "127.0.0.1" ` find -type f ` sed -n '/127.0.0.1/p' ` find -type f` awk '/127.0.0.1/' ` find -type f` 方法2 find -type f | xargs grep "127.0.0.1" find -type f | xargs sed -n '/127.0.0.1/p' find -type f | xargs awk '/127.0.0.1/' 方法3 find -type f -exec grep "127.0.0.1" {} \ find -type f -exec sed -n '/127.0.0.1/p' {} \ find -type f -exec awk '/127.0.0.1/' {} \
2.删除/显示1.txt文件第3行到第10行的内容?vim
sed -n '3,10p' 1.txt awk '3<=NR<=10' 1.txt awk 'NR==3,NR==10' 1.txt head 10.txt | tail -8
3.使用awk取出/etc/passwd第一列数据也就是取出用户名。服务器
awk -F : '{print $1}' /etc/passwd cut -d : f1 /etc/passwd sed -n 's#:.*##g' /etc/passwd awk '{gsub(/:.*/,"");print}' /etc/passwd sed -r 's#(^[^:]+).*#\1#g' /etc/passwd
4.用命令行更改config.txt文件,把里面全部的“name”更改成“address”并发
sed -i 's#name#address#g' config.txt awk '{gsub(/name/,"address"),print}' config.txt vi/vim进行编辑: :%s#name#address#g
5.写出查询file.txt以abc结尾的行
egrep "abc$" file.txt sed -n '/abc$/p' file.txt awk '/abc$/' file.txt
6.删除file.txt文件中的空行
sed '/^$/d' file.txt grep -v '^$' file.txt awk '!/^$/' file.txt ----- 空行可能空格 egrep -v "^$|^ +$" file.txt grep -v '^ *$' file.txt sed -n '/^ *$/d' file.txt awk '/^ *$/' file.txt
7.打印file.txt文件中的第10行
sed -n '10p' file.txt awk 'NR==10' file.txt head file.txt | tail -1
8.删除/etc/fstab文件中全部以#开头的行的行首的# 号及#后面的全部空白字符;
egrep -v '^$|^#' /etc/fstab awk '/^#/{gsub(/^#|[ \t]+/,""),print}' /etc/fstab sed -r '/^#/s@^#|[ \t]+@@g' /etc/fstab 状况2 awk '/^#/{gsub(^#[ \t]+,""),print}' /etc/fstab sed -r '/^#/s@^#[ \t]+@@g' /etc/fstab
9.查找最后建立时间是3天前,后缀是*.log的文件并删除(三种方法)
find -type f -mtime +3 -name "*.log" -exec rm -f {} \; find -type f -mtime +3 -name "*.log" -exec rm -f {} + find -type f -mtimime +3 -name "*.log" | xargs rm -f rm -f `find -type f -mtime +3 -name "*.log"` rm -f $(find -type f -mtime +3 -name "*.log") find -type f -mtime +3 -name "*.log" --delete
10.使用sed命令打印出文件的第一行到第三行
sed '1,3p' file.txt awk 'NR==1,NR==3' file.txt head -3 file.txt
11.在/var/sync/log/cef_watchd-20080424.1og文件中查找大小写不敏感“mysql"字符串中的命令是
grep -i 'mysql' /var/sync/log/cef_watchd-20080424.1og
12.为了在/var/sync/log 目录中查找更改时间在5日之前的文件井删除它们,linux命令是
rm -f `find /var/sync/log -type f -ctime +5 ` rm -f $(find /var/sync/log -type f -ctime +5) find /var/sync/log -type f -ctime +5 | xargs rm -f {} \; find /var/sync/log -type f -ctime +5 -exec rm -f find /var/sync/log -type f -ctime +5 --delete
13.把data目录及其子目录下全部以扩展名.txt结尾的文件中包含oldgirl的字符串所有替换为oldboy.
find /data -type -name ".txt" | xargs sed -n 's#oldgirl#oldboy#g' find /data -type -name ".txt" | xargs awk '{gsub(/oldgirl/,"oldboy"),print}'
14.写出删除abc.txt文件中的空行
sed '/^$/d' abc.txt awk '{gsbu(/^$/,""),print}' abc.txt grep -v "^$" abc.txt
15.查看linux服务器ip的命令,同时只显示包含ip所在的行打印出来
ifconfig ens33 | awk -F "[ ]+" 'NR==2{print $3}' ifconfig ens33 | sed -rn '2s#^.*inet (.*) netmask .*$#\1#gp' hostname -I
16.有文件file1
grep -n "^$" file.txt awk '/^$/{print NR,$0}' file.txt
grep "abc$" file.txt sed '/abc$/' file.txt awk '/abc$/' file.txt
sed '1,3p' file.txt awk 'NR==1,NR==3' file.txt head -3 file.txt
17.显示file文件里匹配foo字串那行以及上下5行、显示foo及前5行、显示foo及后5行
grep -B 5 "FOO" file.txt grep -A 5 "FOO" file.txt grep -C 5 "FOO" file.txt
18.当前系统中没有任何文本编辑器(vi,emacs,vim,edit等),如何过来掉注释行和空行查看/etc/ssh/sshd_config文件
例如:文件名为“filename”,文件内容以下:
#This is a comments-1 #This is a comments-2 This is a comments-1 This is a comments-2 This is a comments-3 This is a comments-4
egrep -v "^$|^#" /etc/ssh/sshd_config/filename.txt sed -r '/^$|^#/d' /etc/ssh/sshd_config/filename.txt sed -nr '/^$|^#/!p' /etc/ssh/sshd_config/filename.txt awk '!/^$|^#/' /etc/ssh/sshd_config/filename.txt
19.查找file.log文件中的包含关键字“helloworld”的内容,及其上下两行的内容从定向保存到1.txt。请写出命令
grep "hellword" -C 2 file.log >>1.txt
20.echo "ABCDEF abtdefg" |sed -i s/c/t/g 这条命令是否正确?如若正确可能会显示什么样的结果?
不正确,-i是针对文件的。
21.查找文件中1到20行之间,同时将"aaa"替换为"AAA","ddd"替换"DDD"
awk 'NR==1,NR==20{gsub(/aaa/,"AAA");gsub(/ddd/),"DDD"}1' file.txt sed -n '1,20{s#aaa#AAA#g;s#ddd#DDD#g}' file.txt sed '1,20p' file.txt |tr "ad" "AD" sed "1,20y/ad/AD/" file.txt sed "1,20s#[ad]#\U &#g" file.txt awk 'NR==1,NR==20{print toupper($0)}' file.txt
22.用awk获取文件中第三行的倒数第二列字段
awk 'NR==3{print $(NR-1)}' file.txt
1.利用sed命令将test.txt中全部的回车替换成空格?
tr "\n" " " test.txt
2.找出ifconfig命令结果中的1-255之间的数值;
ifconfig | egrep -o '[0-9]+'|awk '$0>1 && $0<=255' #-o表示仅仅输出匹配的内容 ifconfig | awk -vRS="[^0-9]+" '$0>1 && $0 <255'
3.文件内容排序、文件行取惟一值的命令分别是?
sort uniq
4.用awk获取文件中第三行的倒数第二列字段
awk 'NR==3{print $(NR-1)}' file.txt
5.awk是一个很强大的文本处理工具,请使用awk统计当前主机的并发访问量
netstat -ant|awk '/^tcp/{stat[$NF]++}END{for( k in stat) print k,stat[k]}' ss -ant | '{stat[$NF]++}END{for( k in stat) print k,stat[k]}'
6.有一个文件nginx.log,请用awk提取时间(HH:MM),文件内容以下:
183.250.220.178|-l[20/jul/2017:10:35:14 +0800]|POST /audiosearch/search HTTP/1.1|200|54|-lDalvik/1.6.0(linux;U;Android 4,4,4;Konka Android TV 638 Build/KTU84P)|-l-[5.069|5.001,0.005|www.kuyun.com|8771|172.21.19.67:8084,172.21.19.66:8084] 183.250.220.178|-l[20/jul/2017:10:35:14 +0800]|POST /audiosearch/search HTTP/1.1|200|54|-lDalvik/1.6.0(linux;U;Android 4,4,4;Konka Android TV 638 Build/KTU84P)|-l-[5.069|5.001,0.005|www.kuyun.com|8771|172.21.19.67:8084,172.21.19.66:8084]
awk -F "2017:|:14" '{print $2}' nginx.txt awk -F "....:|:.." '{print $2}' nginx.txt
7.从a.log文件中提取包含“WARNING”或“FATAL”,同时不包含“IGNOR”行,而后,提取以“:”分割的第五个字段
awk -F : '/WARING|FATAL/ &&!/IGNOR/{print $5}'
1.统计apache访问日志流量排名前10个IP
awk '{IP[$1]+=$10}END{for (k in IP) print k,IP[K]}' access.log| sort -nrk2| head -10
2.统计出apache的access.log 中访问最多的5个ip
awk '{IP[$1]++}END{for (k in IP) print k,IP[K]}' access.log| sort -nrk2| head -5
3.这条linux命令的含义:netstat -n |awk '/^tcp/ {++h{$NF}} END {for{a in h } print a,h[a] }'
tcp 状态 每种状态的数量。
4.使用awk分析日志(最后一个字段是IP,统计访问量前十的IP,并进行排序)
awk '{IP[$NF]++}END{for (k in IP) print k,IP[K]}' access.log | sort -nrk2 | head awk '{h[$NF]++}END{for(p in h)print p,h[p]}' access.log |sort -rnk2|head awk '{print $NF}' access.log|sort |uniq -c|sort -rnk2|head