本文介绍关于关于搭建elasticsearch+logstash(beats)+kibana实现搭建可视化的日志分析系统。
这几款软件也都是免费开源的,其官方站点为:https://www.elastic.co/cn/productshtml
Elasticsearch是个开源分布式搜索引擎,它的特色有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。
Logstash是一个开源的用于收集,分析和存储日志的工具。
Kibana 也是一个开源和免费的工具,Kibana能够为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,能够汇总、分析和搜索重要数据日志。
Beats是elasticsearch公司开源的一款采集系统监控数据的代理agent,是在被监控服务器上以客户端形式运行的数据收集器的统称,能够直接把数据发送给Elasticsearch或者经过Logstash发送给Elasticsearch,而后进行后续的数据分析活动。Beats由以下组成:
①Packetbeat:是一个网络数据包分析器,用于监控、收集网络流量信息,Packetbeat嗅探服务器之间的流量,解析应用层协议,并关联到消息的处理,其支 持ICMP (v4 and v6)、DNS、HTTP、Mysql、PostgreSQL、Redis、MongoDB、Memcache等协议;
②Filebeat:用于监控、收集服务器日志文件,其已取代 logstash forwarder;
③Metricbeat:可按期获取外部系统的监控指标信息,其能够监控、收集 Apache、HAProxy、MongoDB、MySQL、Nginx、PostgreSQL、Redis、System、Zookeeper等服务;
④Winlogbeat:用于监控、收集Windows系统的日志信息;
⑤Create your own Beat:自定义beat ,若是上面的指标不能知足需求,elasticsarch鼓励开发者 使用go语言,扩展实现自定义的beats,只须要按照模板,实现监控的输入,日志,输出等便可。
Beats 将搜集到的数据发送到 Logstash,经 Logstash 解析、过滤后,将其发送到 Elasticsearch 存储,并由 Kibana 呈现给用户。
Beats 做为日志搜集器没有Logstash 做为日志搜集器消耗资源,解决了 Logstash 在各服务器节点上占用系统资源高的问题。java
(1)大概网络拓扑图node
说明:
蓝线的线路图:文件---->logstash server------>elasticsearch
Logstash本身作过滤(input plugin)、转换(filter plugin)、输出(output plugin)机制而后直接传送到elasticsearch集群
红线的路线图说明:logstash agent 将数据传输到logstash server端,在servlet端进行统一的输出格式。此刻agent端输入是文件,输出到server;在logstash server 端,输入端是logstash agent ,输出端是elasticsearch集群。
墨色的线路图:加个redis作队列缓冲,为了减轻logstash server的压力,这也是主流的配置。
以上三种状况,就模拟第三种主流的配置,第1、二有兴趣的能够本身作一下。
(2)主机配置说明linux
主机名 | ip | 运行的服务 |
---|---|---|
master | 172.16.5.4 | elasticsearch 、filebeat |
server1 | 172.16.5.3 | logstash agent、redis |
server2 | 172.17.5.2 | logstash server、kibana |
因为本实验测试吃很大内存,就不搭建集群了,都是用一台服务器测试。redis
(3)部署elastic stach
①环境部署。
关闭iptables、selinux,同时时间同步、hosts文件进行解析。
命令:iptables -F 状况防火墙策略
setenforce 0 临时关闭selinux,若是想要永久关闭,修改配置文件,很少说。
②安装java环境,解决依赖关系,全部服务器上都安装。
yum install java-1.8.0-openjdk java-1.8.0-openjdk-devel -y
③安装elasticsearch安装包。
能够官网下载:https://www.elastic.co/cn/products/elasticsearch
我使用已经下载好的安装包
rpm -ivh elasticsearch-5.4.2.rpm
④修改配置文件
vim /etc/elasticsearch/jvm.options
修改内存:
-Xms1g
-Xmx1g 【建议生产环境32g,发挥最好的性能】
vim /etc/elasticsearch.yml
cluster.name: myels 【集群名字】
node.name: node1 【节点名字,主机名】
path.data: /data/els/data 【索引存放路径】
path.logs: /data/els/logs 【日志路径】
network.host: 0.0.0.0 【加入集群时使用的地址,本机地址】
http.port: 9200 【监听端口】
discovery.zen.ping.unicast.hosts: ["node1", "node2", "node3"] 【判断是否在同一个集群里,也就是是否都是监听同一端口】
discovery.zen.minimum_master_nodes: 2 【有几个节点,大于半数的最小值】sql
⑤建立elasticsearch使用的index和logs目录
mkdir -pv /els/{date,logs} && chown -R elasticsearch:elasticsearch /els/* 【建立索引和日志目录】
⑥启动服务
systemctl start elasticsearch.service
测试。
出现以上就是成功了
(4)在server1上部署logstash agent和redis
①安装logstash和redis包。
②查看logstash的配置文件
/etc/logstash/jvm.options 【运行环境,即配置内存等信息;server端建议大,agent默认就行】
/etc/logstash/conf.d 【配置插件使用的文件】
/etc/logstash/logstash.yml 【主配置文件,配置怎么运行】
config.reload.automatic: ture 【文件是否当即生效,默认false须要手动重启】
config.reload.devel:3 【配置文件多久从新加载一次】
配置文件不用修改。
③添加到path路径
vim /etc/profied.d/logstash.sh
export PATH=$PATH:/usr/share/logstash/bin
④启动服务
systemctl start logstash
⑤修改redis配置文件
建议修改该行,提升安全性,本实验就不修改了
requirepass ilinux.io
⑥启动redis服务
systemctl start redis
(5)实现server2服务器的logstash server和kibana的部署
①安装logstash、kibana安装包
②修改kibana配置文件
vim /etc/kibana/kibana.yml
server.host: "0.0.0.0"
server.name: "主机名“
elasticsearch.uri: "http://server:9200"
③启动logstash和kibana服务
systemctl start logstash.service
systemctl start redis.service
④浏览器输入http://localhost:5601,配置filebeat的索引(只需输入filebeat-便可)。
(6)模拟各服务的输入和输出指向的服务。
①模拟logstash agent端把日志文件输入给redis。
设置logstash的转换机制。
规则转换机制都放在 /etc/logstash/conf.d/ 下面。
vim /etc/logstash/conf.d/redis.conf
补充:logstash内带自变量函数
rpm -ql logstash | grep patternt
为了更好的模拟生产环境,咱们在此安装httpd服务。
yum install httpd
启动httpd服务
systemctl start httpd.service
创建20个页面
for i in {1..20};do echo "test${i}" > /var/www/html/test${i};done
访问20次生产日志
for i in {1..20};do j=$[$RANDOM%20+1];curl http://172.16.5.3/test${j}.html;done
②模拟logstash server端的输入端是redis,输出端是elasticsearch集群。
vim /etc/logstash/conf.d/redis.conf
③把els集群里面的内容发送给kibana
在第一个框里输入filebeat-*后稍等片刻,kibana会自动识别,OK后下面的按钮会由灰色变为可操控的按钮"Create",如上图所示。点击该按钮后,最后就会呈现以下图所示:
再回过头新建logstash的索引,浏览器输入http://server2:5601,点击左边栏的”Management” ===> 而后点击“index Patterns” ===>
而后点击“Add New”
点击“Crete”按钮建立logstash索引,建立完成后即会展示以下图所示:
3、实现beats的轻量级数据采集器
官方站点:https://www.elastic.co/cn/products/beats
工做模式:
beats——>redis——>logstash server——>els集群
说明:
此时使用beats代替了logstash agent,logstash 和filebeat都具备日志收集功能,filebeat更轻量,占用资源更少,但logstash 具备filter功能,能过滤分析日志。通常结构都是filebeat采集日志,而后发送到消息队列,redis,kafaka。而后logstash去获取,利用filter功能过滤分析,而后存储到elasticsearch中。
本实验在上个实验中基本都作完了,这个实验只作filebeat部分。
①安装包
yum install httpd filebeat -y
②修改配置文件
cd /etc/filebeat
vim filebeat.yml
filebeat.prospectors: 【从哪加载文件,默认便可】
input_type: log 【文件类型,日志,默认便可】
paths:apache
/var/log/httpd/error_log
hosts: 【存放路径】
③添加数据
for i in {1..20};do echo "test $i" > /var/www/html/test${i}.html;done
启动httpd服务和filebeat服务
systemctl start httpd
随意找个主机进行访问,为了获得日志
for i in {1..20};do j=$[$RANDOM%20+1];curl http://172.16.0.4/test${j}.html
④输出给elasticsearch
vim /etc/filebeat.yml
output.elasticsearch :
hosts: ["server1:9200“,“server2:9200”,“server3:9200”]
直接输出给els不用输出插件了vim
⑤输出给logstash
vim /etc/filebeat.yml
output.logstash :
hosts: ["172.16.0.4:5044]
vim /etc/logstash/conf.d/Apachelog.conf
input {
beats {
port => 5044
}
filter {
grok {
match => {
"message" => "%{HTTPD_COMBINEDLOG}"
}
}
date {
match => ["timestamp","dd/MMM/YYYY:H:m:s Z"]
}
mutate {
rename => {
"agent" => "user_agent"
}
}
geoip {
source => "clientip"
target => "geoip"
database => "/etc/logstash/maxmind/GeoLite2-City.mmdb"
}
output {
elasticsearsh {
hosts => ["http://server1:9200","http://server2:9200","http://master:9200"]
index => "logstash-%{+YYYY.MM.DD}
document_type => "http_access_logs"
}
}
启动:logstash -f apachelog.conf
⑥输出给redis
编辑filebeat配置文件
vim /etc/filebeat.yml
添加:
output.redis:
hosts: ["redis服务器"]
password: "iliunx.io"
key: "httplog"
db: 0
timeout: 5
重启filebeat
systemctl restart filebeat
进入redis查看数据
redis-cli -a ilinux.io
查看有多少数据
LLEN httplogs
在els server端配置输入机制
vim /etc/elasticsearch/conf.d/redis2.conf
input {
redis {
batch_count => 1
data_type => "list"
key => "httpdlogs"
host => "192.168.0.2"
port => 6379
threads => 5
password => "ilinux.io"
}
}浏览器
filter {
grok {
match => {
"message" => "%{HTTPD_COMBINEDLOG}"
}
}
date {
match => ["timestamp","dd/MMM/YYYY:H:m:s Z"]
}
mutate {
rename => {
"agent" => "user_agent"
}
}
geoip {
source => "clientip"
target => "geoip"
database => "/etc/logstash/maxmind/GeoLite2-City.mmdb"
}
output {
elasticsearsh {
hosts => ["http://server1:9200","http://server2:9200","http://server3:9200"]
index => "logstash-%{+YYYY.MM.DD}
document_type => "http_access_logs"
}
}安全