日志分析系统能够实时收集、分析、监控日志并报警,固然也能够非实时的分析日志。splunk是功能强大且用起来最省心的,可是要收费,免费版有天天500M的限制,超过500M的日志就无法处理了。ELK系统是最多见的,缺点是配置麻烦一些,比较重量级。graylog是开源免费的,配置上要比ELK系统简单。综上,本文尝试容器方式搭建一套graylog系统,不作实时收集日志和报警的配置,只完成非实时被动接收网站日志,分析日志各项指标的功能。java
docker官方镜像国内速度我以为慢,改为国内镜像。新建文件daemon.json以下nginx
vi /etc/docker/daemon.json { "registry-mirrors": ["https://registry.docker-cn.com"] }
也能够用网易镜像http://hub-mirror.c.163.com
配置完重启docker才能生效git
#service docker restart
拉取以下三个镜像github
docker pull mongo:3 docker pull docker.elastic.co/elasticsearch/elasticsearch-oss:6.8.10 docker pull graylog/graylog:3.3
不要急着按照网上的方法启动镜像,我开始docker启动elasticsearch,虽然显示启动成功,但过半分钟后偷偷退出,这致使graylog在浏览器打不开。最后经过查看容器启动时的日志,发现elasticsearch对于系统参数是有要求的,按以下修改。docker
在 /etc/sysctl.conf文件最后添加一行数据库
vm.max_map_count=262144
vi /etc/security/limits.confapache
* - nofile 102400
修改完成后重启系统使变量生效。json
docker启动elasticsearch时要加上参数windows
--ulimit nofile=65536:65536 --ulimit nproc=4096:4096
,确保容器内环境知足要求,不然在docker pa -a命令下会看到exit(78)或exit(1)的容器异常退出错误。
查看容器启动报错最准确的方法是“docker logs -f 容器ID”这个命令,咱们不加--ulimit 参数试试浏览器
[root@bogon ~]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 7e4a811093d9 docker.elastic.co/elasticsearch/elasticsearch-oss:6.8.10 "/usr/local/bin/dock 6 seconds ago Up 4 seconds 0.0.0.0:9200->9200/tcp, 0.0.0.0:9300->9300/tcp elasticsearch
用上面的CONTAINER ID产看启动时的日志
[root@bogon ~]# docker logs -f 7e4a811093d9 最后会打印出 [1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65535] [2]: max number of threads [3869] for user [elasticsearch] is too low, increase to at least [4096] [2020-08-27T06:10:25,888][INFO ][o.e.n.Node ] [WG6mVz4] stopping ... [2020-08-27T06:10:25,903][INFO ][o.e.n.Node ] [WG6mVz4] stopped [2020-08-27T06:10:25,903][INFO ][o.e.n.Node ] [WG6mVz4] closing ... [2020-08-27T06:10:25,928][INFO ][o.e.n.Node ] [WG6mVz4] closed
两行too low的提示就是容器退出的缘由。
三个容器正确的启动命令以下
docker run --name mongo -d mongo:3 docker run --name elasticsearch \ -e "http.host=0.0.0.0" \ -e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \ --ulimit nofile=65536:65536 --ulimit nproc=4096:4096 \ -p 9200:9200 -p 9300:9300 \ -d docker.elastic.co/elasticsearch/elasticsearch-oss:6.8.10 docker run --name graylog --link mongo --link elasticsearch \ -p 9000:9000 -p 12201:12201 -p 1514:1514 -p 5555:5555 \ -v /home/graylog/geodata:/usr/share/graylog/log \ -e GRAYLOG_HTTP_EXTERNAL_URI="http://192.168.56.106:9000/" \ -d graylog/graylog:3.3
mongo的启动没什么可说的。
elasticsearch的--ulimit必须加不然启动后退出,-p 9200:9200是管理端口,未来删除数据须要访问这个端口。
graylog 9000端口是系统界面,5555是开的tcp端口,用于被动接收日志数据的。
-v /home/graylog/geodata:/usr/share/graylog/log
是把本地/home/graylog/geodata挂载到容器的/usr/share/graylog/log目录,我这么配置是为了让graylog能读到GeoLite2-City.mmdb地理信息数据库,这个库是把ip和地理位置对应起来了。原本想把它拷贝到容器里,但报错
[root@localhost graylog]# docker cp ./GeoLite2-City.mmdb 151960c2f33b:/usr/share/graylog/data/ Error: Path not specified
说是要升级docker1.7到更高版本,不想升级,改为挂载方法了。若是不想挂载什么文件,-v这行参数能够去掉。
我是用命令“#docker exec -it graylog容器ID bash" 先进入容器,看到容器内/usr/share/graylog/log目录没什么东西,因此选择挂载到这个目录的。
地理数据用于显示访问网站的ip分布在哪一个城市国家,还有世界地图的显示。须要在https://dev.maxmind.com/zh-ha...,麻烦的是这里须要注册。我下载的是GeoLite2-City_20200825.tar.gz,解压后有GeoLite2-City.mmdb,上传这个文件到Linux的/home/graylog/geodata目录,这个文件是须要挂载到容器,给graylog使用的。
不想注册请从下面连接下载
连接:https://pan.baidu.com/s/1Lovr...
niI66CkmA
提取码:bsmm
GRAYLOG_HTTP_EXTERNAL_URI的地址不要写127.0.0.1,这样若是在Linux的外部访问,虽然能通,可是网页是空白一片,要写Linux对外的ip地址,这样在外部浏览器打开才正常。
另外graylog的启动是依赖于mongo和elasticsearch的,等其它两个都成功启动,再启动graylog。
下面开始演示若是配置graylog系统,而且分析网站的Apache标准格式的日志。大概步骤以下
配置input->给input配置extractor->配置地理信息数据库->手动输入日志->分析日志。
浏览器输入http://192.168.56.106:9000/ 用户名和密码都是admin,登录进graylog系统。
system->input,
点击select input右侧的下拉箭头,出现下拉列表,选择raw/plaintext TCP
而后点击Lanch new input,Node下拉惟一选择给选上,Title随意起名,Port写5555,由于咱们docker启动参数写的-p 5555:5555 这两个必须保持一致。
其它不用填点击下方SAVE按钮,会自动启动该input,能够看到local inputs下方增长了刚才的配置。其实如今用cat access.log | nc localhost 5555等命令给5555端口发送日志数据,数据就能够进入到graylog系统,而且能够进行简单的搜索了。但这种搜索是最基础的字符串匹配,价值不大。咱们要分析日志的各项指标,而且生成图表,必须让系统能解析每条日志的各个field(字段或域值),例如clientip就是一个field,request也是一个field。要解析出field要给input配置extractor,点击Manager exactor。
Extractors JSON里贴入下面内容
{ "extractors": [ { "title": "commonapache", "extractor_type": "grok", "converters": [], "order": 0, "cursor_strategy": "copy", "source_field": "message", "target_field": "", "extractor_config": { "grok_pattern": "%{COMMONAPACHELOG}" }, "condition_type": "none", "condition_value": "" } ], "version": "3.3.5" }
最后点击 add extrators to input,显示successful便可。
到这里已经能够正确解析日志得field了。可是若是咱们想分析和地理位置相关的信息,还必须配置地理信息数据库,上文下载的mmdb文件。
system->configurations,最右下方有一项Geo-Location Processor,点击改项目下方的update按钮
配置完成,点击save。
Configurations最上方Message Processors Configuration下方表格里要把GeoIP Resolver放在表格的最下方。点击表格下方的update
鼠标按住GeoIP Resolver往下方拖,
完成后点击save。Message Processors Configuration表格的GeoIP Resolver到了最下方。
下面是手动输入日志到input了,我将access2020-07-06.log放到了Linux目录下,在目录下执行
# cat access2020-07-06.log | head -n 10000 | nc localhost 5555
命令是将log从头开始的10000行日志发送到本机的5555端口,因为graylog的input配置的也是5555端口,docker run graylog时命令参数也是-p 5555:5555,只要这三处保持一致,这个命令是必定能成功的。这里命令nc、ncat、netcat三个都能到达一样的效果。
导入完成后,选择graylog最上方的search选项
上方的按钮是查询时间范围,这个时间是日志导入的时间,不是日志自己记录请求的时间,若是要查所有直接选择search in all messages
下方放大镜按钮就是搜索,后方能够添加搜索关键字,或者某个field的限制,有不少搜索语法很是方便,点击搜索后,不符合条件的日志记录会被去除。
下方All Messages就是符合条件的原始的日志结果。
若是想统计访问来源于哪些城市,点击左侧边栏最下的X(field)形按钮。选择clientip_cityname->show top values
鼠标点击右侧灰色区域,回到主界面,访问来源的城市信息已经在列表里了。
N/A表示的是有大量请求识别不出ip所在的城市,这有多是咱们的地理信息数据库不全不新,或者有些192 172这种内网地址的访问没法识别地区,这里不重点讨论了。若是要剔除N/A数据,只看可识别城市的分布,鼠标放到N/A右侧,会出现下拉菜单的箭头,点击箭头,选择exclude from results,N/A的数据就会去除,上面的搜索栏内也会自动增长这个筛选条件,
注意如今的统计是剔除了N/A的数据,数据范围实际是比所有日志范围缩小了的,这在实际应用中颇有价值,不少状况下咱们统计某些指标,就是要看某个局部范围的。下面咱们看看访问来源城市的统计图,点击右上角下拉箭头,选择Edit
点击左侧Date Table处下拉菜单,能够看到柱状图、饼状图、散点图等都列在里面,选择哪一个右侧就会出现那种统计的图表。
若是要展现访问来源在世界地图的分布,field菜单选择clientip_geolocation->show top values,
弹出的统计表格是经纬度坐标的访问次数。和上面图标同样,进入Date Tabel下拉菜单,最下方有world map
选择会显示地图统计结果,放大调整位置以下图
其它指标的统计如request分布,访问时间分布,在field下列表里都有,根据须要按上面一样操做。地理信息数据和标准的Apache日志能够结合生效,但一些自定义的extractor是否生效是不必定的。
给input配置extractor,上面配置的是标准的Apache格式日志,若是日志格式是nginx或者自定义的怎么办呢?
graylog提供了给日志配置extractor的功能,假设咱们配置完input,没有给input配置extractor,直接导入日志,按以下步骤配置extractor
input界面选择manager extractor
getstarted
load message会将刚进入的日志中的一条显示出来,点击message位置的select extractor type,表示咱们要对message也就是整条信息配置extractor,下拉菜单选择Grok Pattern。若是日志进入时间比较久,load message没法展现日志,须要经过旁边message ID的标签来搜索日志,须要提供message ID和index,这两个参数在搜索界面下方all message里,随便点击一条日志数据,展开就能够看到。message ID形如4b282600-e8d2-11ea-b962-0242ac110008,index形如graylog_0。
进入Extractor configuration,里面的pattern要本身填写,能够在右侧已有的pattern选择若干个组合,也能够本身定义,这里须要对grok和正则语法熟练了。我这里填写的是解析nginx原生日志的pattern格式,也是网上搜索的。填写完点击try against example,若是解析成功,下方会表格形式列出各个field对应该条日志的值。不成功就会报错,须要修改pattern直到不报错。
个人pattern以下
^%{IPORHOST:clientip} (?:-|%{USER:ident}) (?:-|%{USER:auth}) \[%{HTTPDATE:timestamp}\] \"(?:%{WORD:verb} %{NOTSPACE:request}(?: HTTP/%{NUMBER:httpversion})?|-)\" %{NUMBER:response} (?:-|%{NUMBER:bytes})([\s\S]{1})\"(?<http_referer>\S+)\"([\s\S]{1})\"(?<http_user_agent>(\S+\s+)*\S+)\".*%{BASE16FLOAT:request_time}
解析成功,Extractor title随便起个名,点击最下方create extractor
extractor已经成功添加给input了,上面的action有export extractor,点击能够以json格式展现刚才配置的extractor。
拷贝这个json文本,保存在本地,之后遇到nginx原生格式日志,直接经过上面的import extractor就直接使用,不用在配置grok pattern测试了。
须要说明的是一条日志记录有没有被解析为各个field,取决于日志进入系统时,有没有配置extractor。后配置的extractor对在以前的日志是起不到解析做用的。
若是配置完extractor,相同格式日志只进入系统一小部分,不要找其它缘由了,缘由就是pattern不对,虽然测试经过了,也配上了,可是还须要你从新修改pattern,若是pattern正确,符合格式的日志应该全都进入系统。
对于有些日志格式,配置grok pattern须要大量调试,graylog调试并不方便,官方grok调试器网站国内都打不开了。下面提供一个工具,能够直接粘贴日志到页面调试
连接:https://pan.baidu.com/s/1gWX4...
提取码:t6q6
windows的cmd直接java -jar GrokConstructor-0.1.0-SNAPSHOT-standalone.jar
而后浏览器访问127.0.0.1:8080,点击matcher,上面填写日志,下方填写grok pattern,
点击go,若是成功解析,会表格形式展现解析各个field结果。
ramdom example给出了一些常见日志的例子和对应的pattern格式。
若是要从新配置graylog和输入数据,先
docker stop $(docker ps -a -q)
中止全部容器,而后
docker rm $(docker ps -a -q)
删除全部容器,而后docker run 按顺序启动三个容器,这样启动的容器是全新的,以前的配置和数据都会丢失。
上面对容器的操做麻烦,可使用
curl -L https://github.com/docker/compose/releases/download/1.25.0/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-compose
安装docker-compose,将启动参数等要求写到docker-compose.yml文件里,这种方式操做命令会很简单。