你们好,我是小富~java
最近发现点好玩的工具,火烧眉毛的想跟你们分享一下。mysql
你们平时都怎么查Linux
日志呢?
像我平时会用tail
、head
、cat
、sed
、more
、less
这些经典系统命令,或者awk
这类三方数据过滤工具,配合起来查询效率很高。但在使用过程当中有一点让我比较头疼,那就是命令参数规则太多了,记的人脑袋疼。git
那查日志有没有一种通用的方式,好比用SQL查询,毕竟这是程序员都比较熟悉的表达式。程序员
今天分享的工具q,就实现了以写SQL的方式来查询、统计文本内容,一块儿看看这货到底有什么神奇之处。github
q是一个命令行工具,容许咱们在任意文件或者查询结果,好比能够在ps -ef
查询进程命令的结果集上,直接执行SQL语句查询。sql
宗旨就是文本即数据库表,额~,固然这句话是我本身理解的,哈哈哈shell
它将普通文件或者结果集看成数据库表,几乎支持全部的SQL结构,如WHERE
、GROUP BY
、JOINS
等,支持自动列名和列类型检测,支持跨文件链接查询,这两个后边详细介绍,支持多种编码。数据库
安装比较简单,在Linux CentOS
环境,只要以下三步搞定,Windows
环境更是只需安装个exe
就能够用了。服务器
wget https://github.com/harelba/q/releases/download/1.7.1/q-text-as-data-1.7.1-1.noarch.rpm #下载版本 sudo rpm -ivh q-text-as-data-1.7.1-1.noarch.rpm # 安装 q --version #查看安装版本
官方文档: https://harelba.github.io/q
q支持全部SQLite
SQL语法,标准命令行格式q + 参数命令 + "SQL"
less
q <命令> "<SQL>"
我要查询myfile.log
文件的内容,直接q "SELECT * FROM myfile.log"
。
q "SELECT * FROM myfile.log"
q不附加参数使用是彻底没有问题的,但利用参数会让显示结果更加美观,因此这里简单了解一下,它的参数分为 2种。
input
输入命令:指的是对要查询的文件或结果集进行操做,好比:-H
命令,表示输入的数据包含标题行。
q -H "SELECT * FROM myfile.log"
在这种状况下,将自动检测列名,并可在查询语句中使用。若是未提供此选项,则列将自动命名为cX,以c1起始以此类推。
q "select c1,c2 from ..."
output
输出命令:做用在查询输出的结果集,好比:-O
,让查询出来的结果显示列名。[root@iZ2zebfzaequ90bdlz820sZ software]# ps -ef | q -H "select count(UID) from - where UID='root'" 104 [root@iZ2zebfzaequ90bdlz820sZ software]# ps -ef | q -H -O "select count(UID) from - where UID='root'" count(UID) 104
还有不少参数就不一一列举了,感兴趣的同窗在官网上看下,接下来咱们重点演示一下使用SQL如何应对各类查询日志的场景。
下边我们一块儿看几个查询日志的常常场景中,这个SQL该如何写。
一、关键字查询
关键字检索,应该是平常开发使用最频繁的操做,不过我我的认为这一点q
并无什么优点,由于它查询时必须指定某一列。
[root@iZ2zebfzaequ90bdlz820sZ software]# q "select * from douyin.log where c9 like '%待解析%'" 2021-06-11 14:46:49.323 INFO 22790 --- [nio-8888-exec-2] c.x.douyin.controller.ParserController : 待解析URL :url=https%3A%2F%2Fv.douyin.com%2Fe9g9uJ6%2F 2021-06-11 14:57:31.938 INFO 22790 --- [nio-8888-exec-5] c.x.douyin.controller.ParserController : 待解析URL :url=https%3A%2F%2Fv.douyin.com%2Fe9pdhGP%2F 2021-06-11 15:23:48.004 INFO 22790 --- [nio-8888-exec-2] c.x.douyin.controller.ParserController : 待解析URL :url=https%3A%2F%2Fv.douyin.com%2Fe9pQjBR%2F 2021-06-11 2
而用grep
命令则是全文检索。
[root@iZ2zebfzaequ90bdlz820sZ software]# cat douyin.log | grep '待解析URL' 2021-06-11 14:46:49.323 INFO 22790 --- [nio-8888-exec-2] c.x.douyin.controller.ParserController : 待解析URL :url=https%3A%2F%2Fv.douyin.com%2Fe9g9uJ6%2F 2021-06-11 14:57:31.938 INFO 22790 --- [nio-8888-exec-5] c.x.douyin.controller.ParserController : 待解析URL :url=https%3A%2F%2Fv.douyin.com%2Fe9pdhGP%2F
二、模糊查询
like
模糊搜索,若是文本内容列有名字直接用列名检索,没有则直接根据列号c一、c二、cN。
[root@iZ2zebfzaequ90bdlz820sZ software]# cat test.log abc 2 3 4 5 23 24 25 [root@iZ2zebfzaequ90bdlz820sZ software]# q -H -t "select * from test.log where abc like '%2%'" Warning: column count is one - did you provide the correct delimiter? 2 23 24 25
三、交集并集
支持UNION
和UNION ALL
操做符对多个文件取交集或者并集。
以下建了test.log
和test1.log
两个文件,里边的内容有重叠,用union
进行去重。
q -H -t "select * from test.log union select * from test1.log" [root@iZ2zebfzaequ90bdlz820sZ software]# cat test.log abc 2 3 4 5 [root@iZ2zebfzaequ90bdlz820sZ software]# cat test1.log abc 3 4 5 6 [root@iZ2zebfzaequ90bdlz820sZ software]# q -H -t "select * from test.log union select * from test1.log" Warning: column count is one - did you provide the correct delimiter? Warning: column count is one - did you provide the correct delimiter? 2 3 4 5 6
四、内容去重
好比统计某个路径下的./clicks.csv
文件中,uuid
字段去重后出现的总个数。
q -H -t "SELECT COUNT(DISTINCT(uuid)) FROM ./clicks.csv"
五、列类型自动检测
注意:q会理解每列是数字仍是字符串,判断是根据实数值比较,仍是字符串比较进行过滤,这里会用到-t
命令。
q -H -t "SELECT request_id,score FROM ./clicks.csv WHERE score > 0.7 ORDER BY score DESC LIMIT 5"
六、字段运算
读取系统命令查询结果,计算/tmp
目录中每一个用户和组的总值。能够对字段进行运算处理。
sudo find /tmp -ls | q "SELECT c5,c6,sum(c7)/1024.0/1024 AS total FROM - GROUP BY c5,c6 ORDER BY total desc" [root@iZ2zebfzaequ90bdlz820sZ software]# sudo find /tmp -ls | q "SELECT c5,c6,sum(c7)/1024.0/1024 AS total FROM - GROUP BY c5,c6 ORDER BY total desc" www www 8.86311340332 root root 0.207922935486 mysql mysql 4.76837158203e-06
七、数据统计
统计系统拥有最多进程数的前 3个用户ID,按降序排序,这就须要和系统命令配合使用了,先查询全部进程再利用SQL筛选,这里的q命令就至关grep
命令。
ps -ef | q -H "SELECT UID,COUNT(*) cnt FROM - GROUP BY UID ORDER BY cnt DESC LIMIT 3" [root@iZ2zebfzaequ90bdlz820sZ software]# ps -ef | q -H "SELECT UID,COUNT(*) cnt FROM - GROUP BY UID ORDER BY cnt DESC LIMIT 3" root 104 www 16 rabbitmq 4 [root@iZ2zebfzaequ90bdlz820sZ software]# ps -ef | q -H -O "SELECT UID,COUNT(*) cnt FROM - GROUP BY UID ORDER BY cnt DESC LIMIT 3" UID cnt root 110 www 16 rabbitmq 4
咱们看到加与不加-O
命令的区别就是否显示查询结果的标题。
8,连文件查
通常状况下,咱们的日志文件会按天分割成不少个固定容量的子文件,在没有统一的日志收集服务器的状况下,若是不给个报错时间区间去查一个关键词,那么无异于大海捞针。
若是能够将全部文件内容合并后在查就会省事不少,q支持将文件像数据库表那样联合查询。
q -H "select * from douyin.log a join douyin-2021-06-18.0.log b on (a.c2=b.c3) where b.c1='root'"
看完可能会有人抬杠:q
写这么多代码直接用awk
不香吗?额~ 介绍这个工具的初衷并非说要替换现有哪一种工具,而是多提供一种更为便捷的查日志方法。
我也有在用awk
确实很强大没得说,但这里边涉及到一个学习成本的问题,琳琅满目的命令、匹配规则想玩转仍是要下点功夫的。而对于新手程序员稍微有点数据库经验,写SQL问题都不大,上手q
则会容易的多。
整理了几百本各种技术电子书,送给小伙伴们。关注公号回复【666】自行领取。和一些小伙伴们建了一个技术交流群,一块儿探讨技术、分享技术资料,旨在共同窗习进步,若是感兴趣就加入咱们吧!