你头疼的ELK难题,本文几乎都解决了

作了几周的测试,踩了无数的坑,总结一下,全是干货,给你们分享~html

1、ELK实用知识点总结java

一、编码转换问题linux

这个问题,主要就是中文乱码。ios

input中的codec=>plain转码:golang

codec => plain {
charset => "GB2312"
}

将GB2312的文本编码,转为UTF-8的编码。面试

也能够在filebeat中实现编码的转换(推荐):redis

filebeat.prospectors:
- input_type: log
paths:
- c:\Users\Administrator\Desktop\performanceTrace.txt

encoding: GB2312

二、删除多余日志中的多余行数据库

logstash filter中drop删除:bootstrap

if ([message] =~ "^20.*-\ task\ request,.*,start\ time.*") { 
#用正则需删除的多余行  
  
drop{}  
  
}

日志示例:vim

2018-03-20 10:44:01,523 [33]DEBUG Debug - task request,task Id:1cbb72f1-a5ea-4e73-957c-6d20e9e12a7a,start time:2018-03-20 10:43:59 #需删除的行

-- Request String :

{"UserName":"15046699923","Pwd":"ZYjyh727","DeviceType":2,"DeviceId":"PC-20170525SADY","EquipmentNo":null,"SSID":"pc","RegisterPhones":null,"AppKey":"ab09d78e3b2c40b789ddfc81674bc24deac","Version":"2.0.5.3"} -- End

-- Response String :{"ErrorCode":0,"Success":true,"ErrorMsg":null,"Result":null,"WaitInterval":30} -- End

三、grok处理多种日志不一样的行

日志示例:

2018-03-20 10:44:01,523 [33]DEBUG Debug - task request,task Id:1cbb72f1-a5ea-4e73-957c-6d20e9e12a7a,start time:2018-03-20 10:43:59

-- Request String :
{"UserName":"15046699923","Pwd":"ZYjyh727","DeviceType":2,"DeviceId":"PC-20170525SADY","EquipmentNo":null,"SSID":"pc","RegisterPhones":null,"AppKey":"ab09d78e3b2c40b789ddfc81674bc24deac","Version":"2.0.5.3"} -- End

-- Response String :
{"ErrorCode":0,"Success":true,"ErrorMsg":null,"Result":null,"WaitInterval":30} -- End

在logstash filter中grok分别处理3行:

match => {

"message" => "^20.*-\ task\ request,.*,start\ time\:%{TIMESTAMP_ISO8601:RequestTime}"

match => {

"message" => "^--\ Request\ String\ :\ \{\"UserName\":\"%{NUMBER:UserName:int}\",\"Pwd\":\"(?<Pwd>.*)\",\"DeviceType\":%{NUMBER:DeviceType:int},\"DeviceId\":\"(?<DeviceId>.*)\",\"EquipmentNo\":(?<EquipmentNo>.*),\"SSID\":(?<SSID>.*),\"RegisterPhones\":(?<RegisterPhones>.*),\"AppKey\":\"(?<AppKey>.*)\",\"Version\":\"(?<Version>.*)\"\}\ --\ \End.*"
}

match => {
"message" => "^--\ Response\ String\ :\ \{\"ErrorCode\":%{NUMBER:ErrorCode:int},\"Success\":(?<Success>[a-z]*),\"ErrorMsg\":(?<ErrorMsg>.*),\"Result\":(?<Result>.*),\"WaitInterval\":%{NUMBER:WaitInterval:int}\}\ --\ \End.*"
}
... 等多行

四、日志多行合并处理—multiline插件(重点)

示例:

①日志

2018-03-20 10:44:01,523 [33]DEBUG Debug - task request,task Id:1cbb72f1-a5ea-4e73-957c-6d20e9e12a7a,start time:2018-03-20 10:43:59

-- Request String :

{"UserName":"15046699923","Pwd":"ZYjyh727","DeviceType":2,"DeviceId":"PC-20170525SADY","EquipmentNo":null,"SSID":"pc","RegisterPhones":null,"AppKey":"ab09d78e3b2c40b789ddfc81674bc24deac","Version":"2.0.5.3"} -- End

-- Response String :

{"ErrorCode":0,"Success":true,"ErrorMsg":null,"Result":null,"WaitInterval":30} -- End

②logstash grok对合并后多行的处理。合并多行后续都同样,以下:

filter { 
grok {      

match => {
"message" => "^%{TIMESTAMP_ISO8601:InsertTime}\ .*-\ task\ request,.*,start\ time:%{TIMESTAMP_ISO8601:RequestTime}\n--\ Request\ String\ :\ \{\"UserName\":\"%{NUMBER:UserName:int}\",\"Pwd\":\"(?<Pwd>.*)\",\"DeviceType\":%{NUMBER:DeviceType:int},\"DeviceId\":\"(?<DeviceId>.*)\",\"EquipmentNo\":(?<EquipmentNo>.*),\"SSID\":(?<SSID>.*),\"RegisterPhones\":(?<RegisterPhones>.*),\"AppKey\":\"(?<AppKey>.*)\",\"Version\":\"(?<Version>.*)\"\}\ --\ \End\n--\ Response\ String\ :\ \{\"ErrorCode\":%{NUMBER:ErrorCode:int},\"Success\":(?<Success>[a-z]*),\"ErrorMsg\":(?<ErrorMsg>.*),\"Result\":(?<Result>.*),\"WaitInterval\":%{NUMBER:WaitInterval:int}\}\ --\ \End" 
}  
}
}

在filebeat中使用multiline插件(推荐):

①介绍multiline

  • pattern:正则匹配从哪行合并;
  • negate:true/false,匹配到pattern 部分开始合并,仍是不配到的合并。

match:after/before(需本身理解)

  • after:匹配到pattern 部分后合并,注意:这种状况最后一行日志不会被匹配处理;
  • before:匹配到pattern 部分前合并(推荐)。

②5.5版本以后(before为例)

filebeat.prospectors:
- input_type: log
paths:
- /root/performanceTrace*
fields:
type: zidonghualog
multiline.pattern: '.*\"WaitInterval\":.*--\ End'
multiline.negate: true
multiline.match: before

③5.5版本以前(after为例)

filebeat.prospectors:
- input_type: log
paths:
- /root/performanceTrace*
input_type: log
multiline:
pattern: '^20.*'
negate: true
match: after

在logstash input中使用multiline插件(没有filebeat时推荐):

①介绍multiline

  • pattern:正则匹配从哪行合并;
  • negate:true/false,匹配到pattern 部分开始合并,仍是不配到的合并。

what:previous/next(需本身理解)

  • previous:至关于filebeat 的after;
  • next:至关于filebeat 的before。

②用法

input { 

 file {
   path => ["/root/logs/log2"] 
   start_position => "beginning"  
   codec => multiline { 
      pattern => "^20.*" 
      negate => true  
      what => "previous"
     }
     }
}

在logstash filter中使用multiline插件(不推荐):

不推荐的缘由:

  • filter设置multiline后,pipline worker会自动降为1;
  • 5.5 版本官方把multiline 去除了,要使用的话需下载,下载命令以下:
/usr/share/logstash/bin/logstash-plugin install logstash-filter-multiline

示例:

filter {    
  multiline {  
    pattern => "^20.*"  
    negate => true  
    what => "previous" 
    }
}

五、logstash filter中的date使用

日志示例:

2018-03-20 10:44:01 [33]DEBUG Debug - task request,task Id:1cbb72f1-a5ea-4e73-957c-6d20e9e12a7a,start time:2018-03-20 10:43:59

date使用:

date {        
match => ["InsertTime","YYYY-MM-dd HH:mm:ss "]
remove_field => "InsertTime"
}

注:match => ["timestamp" ,"dd/MMM/YYYY Hs Z"]

匹配这个字段,字段的格式为:日日/月月月/年年年年 时/分/秒 时区,也能够写为:match => ["timestamp","ISO8601"](推荐)

date介绍:

就是将匹配日志中时间的key替换为@timestamp的时间,由于@timestamp的时间是日志送到logstash的时间,并非日志中真正的时间。

六、对多类日志分类处理(重点)

在filebeat的配置中添加type分类:

filebeat:
prospectors:
-
paths:
#- /mnt/data/WebApiDebugLog.txt*
- /mnt/data_total/WebApiDebugLog.txt*

fields:
type: WebApiDebugLog_total
-
paths:
- /mnt/data_request/WebApiDebugLog.txt*#
- /mnt/data/WebApiDebugLog.txt*

fields:
type: 
WebApiDebugLog_request
-
paths:
- /mnt/data_report/WebApiDebugLog.txt*
#- /mnt/data/WebApiDebugLog.txt*

fields:
type: 
WebApiDebugLog_report

在logstash filter中使用if,可进行对不一样类进行不一样处理:

filter { 
if [fields][type] == "WebApiDebugLog_request" { 

对request 类日志

if ([message] =~ "^20.*-\ task\ report,.*,start\ time.*") {
             #删除report 行

     drop {}

            }

       grok {

        match => {"... ..."}

          }

}

在logstash output中使用if:

if [fields][type] == "WebApiDebugLog_total" {       
elasticsearch {  
  
            hosts => \["6.6.6.6:9200"\]  
  
            index => "logstashl-WebApiDebugLog\_total-%{+YYYY.MM.dd}"  
  
           document\_type => "WebApiDebugLog\_total\_logs"  
  
}

2、对ELK总体性能的优化

一、性能分析

服务器硬件Linux:1cpu4GRAM

假设每条日志250Byte。

分析:

①logstash-Linux:1cpu 4GRAM

  • 每秒500条日志;
  • 去掉ruby每秒660条日志;
  • 去掉grok后每秒1000条数据。

②filebeat-Linux:1cpu 4GRAM

  • 每秒2500-3500条数据;
  • 天天每台机器可处理:24h*60min*60sec* 3000*250Byte=64,800,000,000Bytes,约64G。

瓶颈在logstash从Redis中取数据存入ES,开启一个logstash,每秒约处理6000条数据;开启两个logstash,每秒约处理10000条数据(cpu已基本跑满);

logstash的启动过程占用大量系统资源,由于脚本中要检查java、ruby以及其余环境变量,启动后资源占用会恢复到正常状态。

二、关于收集日志的选择:logstash/filter

没有原则要求使用filebeat或logstash,二者做为shipper的功能是同样的。

区别在于:

  • logstash因为集成了众多插件,如grok、ruby,因此相比beat是重量级的;
  • logstash启动后占用资源更多,若是硬件资源足够则无需考虑两者差别;
  • logstash基于JVM,支持跨平台;而beat使用golang编写,AIX不支持;
  • AIX 64bit平台上须要安装jdk(jre) 1.7 32bit,64bit的不支持;
  • filebeat能够直接输入到ES,可是系统中存在logstash直接输入到ES的状况,这将形成不一样的索引类型形成检索复杂,最好统一输入到els 的源。

总结:

logstash/filter总之各有千秋,可是我推荐选择:在每一个须要收集的日志服务器上配置filebeat,由于轻量级,用于收集日志;再统一输出给logstash,作对日志的处理;最后统一由logstash输出给els。

三、logstash的优化相关配置

能够优化的参数,可根据本身的硬件进行优化配置:

①pipeline线程数,官方建议是等于CPU内核数

  • 默认配置 ---> pipeline.workers: 2;
  • 可优化为 ---> pipeline.workers: CPU内核数(或几倍CPU内核数)。

②实际output时的线程数

  • 默认配置 ---> pipeline.output.workers: 1;
  • 可优化为 ---> pipeline.output.workers: 不超过pipeline线程数。

③每次发送的事件数

  • 默认配置 ---> pipeline.batch.size: 125;
  • 可优化为 ---> pipeline.batch.size: 1000。

④发送延时

  • 默认配置 ---> pipeline.batch.delay: 5;
  • 可优化为 ---> pipeline.batch.size: 10。

总结:

经过设置-w参数指定pipeline worker数量,也可直接修改配置文件logstash.yml。这会提升filter和output的线程数,若是须要的话,将其设置为cpu核心数的几倍是安全的,线程在I/O上是空闲的。

默认每一个输出在一个pipeline worker线程上活动,能够在输出output中设置workers设置,不要将该值设置大于pipeline worker数。

还能够设置输出的batch_size数,例如ES输出与batch size一致。

filter设置multiline后,pipline worker会自动将为1,若是使用filebeat,建议在beat中就使用multiline,若是使用logstash做为shipper,建议在input中设置multiline,不要在filter中设置multiline。

Logstash中的JVM配置文件:

Logstash是一个基于Java开发的程序,须要运行在JVM中,能够经过配置jvm.options来针对JVM进行设定。好比内存的最大最小、垃圾清理机制等等。JVM的内存分配不能太大不能过小,太大会拖慢操做系统。过小致使没法启动。默认以下:

  • Xms256m#最小使用内存;
  • Xmx1g#最大使用内存。

四、引入Redis的相关问题

filebeat能够直接输入到logstash(indexer),但logstash没有存储功能,若是须要重启须要先停全部连入的beat,再停logstash,形成运维麻烦;另外若是logstash发生异常则会丢失数据;引入Redis做为数据缓冲池,当logstash异常中止后能够从Redis的客户端看到数据缓存在Redis中;

Redis可使用list(最长支持4,294,967,295条)或发布订阅存储模式;

Redis作ELK缓冲队列的优化:

  • bind 0.0.0.0 #不要监听本地端口;
  • requirepass ilinux.io #加密码,为了安全运行;
  • 只作队列,不必持久存储,把全部持久化功能关掉:

    快照(RDB文件)和追加式文件(AOF文件),性能更好;

    save "" 禁用快照;

    appendonly no 关闭RDB。

  • 把内存的淘汰策略关掉,把内存空间最大

    maxmemory 0 #maxmemory为0的时候表示咱们对Redis的内存使用没有限制。

五、Elasticsearch节点优化配置

服务器硬件配置,OS参数:

1)/etc/sysctl.conf 配置

vim /etc/sysctl.conf

① vm.swappiness = 1
#ES 推荐将此参数设置为 1,大幅下降 swap 分区的大小,强制最大程度的使用内存,注意,这里不要设置为 0, 这会极可能会形成 OOM

② net.core.somaxconn = 65535
#定义了每一个端口最大的监听队列的长度

③ vm.max_map_count= 262144
#限制一个进程能够拥有的VMA(虚拟内存区域)的数量。虚拟内存区域是一个连续的虚拟地址空间区域。当VMA 的数量超过这个值,OOM

④ fs.file-max = 518144
#设置 Linux 内核分配的文件句柄的最大数量
[root@elasticsearch]# sysctl -p生效一下。

2)limits.conf 配置

vim /etc/security/limits.conf
elasticsearch soft nofile 65535
elasticsearch hard nofile 65535
elasticsearch soft memlock unlimited
elasticsearch hard memlock unlimited

3)为了使以上参数永久生效,还要设置两个地方:

vim /etc/pam.d/common-session-noninteractive

vim /etc/pam.d/common-session

添加以下属性:

session required pam_limits.so

可能需重启后生效。

Elasticsearch中的JVM配置文件

-Xms2g

-Xmx2g

  • 将最小堆大小(Xms)和最大堆大小(Xmx)设置为彼此相等。
  • Elasticsearch可用的堆越多,可用于缓存的内存就越多。但请注意,太多的堆可能会使您长时间垃圾收集暂停。
  • 设置Xmx为不超过物理RAM的50%,以确保有足够的物理内存留给内核文件系统缓存。
  • 不要设置Xmx为JVM用于压缩对象指针的临界值以上;确切的截止值有所不一样,但接近32 GB。不要超过32G,若是空间大,多跑几个实例,不要让一个实例太大内存。

Elasticsearch配置文件优化参数:

vim elasticsearch.yml

bootstrap.memory_lock: true#锁住内存,不使用swap

#缓存、线程等优化以下bootstrap.mlockall: true
transport.tcp.compress: true
indices.fielddata.cache.size: 40%
indices.cache.filter.size: 30%
indices.cache.filter.terms.size: 1024mb
threadpool:
search:
type: cached
size: 100
queue_size: 2000

2)设置环境变量

vim /etc/profile.d/elasticsearch.sh export ES_HE AP _SIZE=2g #Heap Size不超过物理内存的一半,且小于32G。

集群的优化(我未使用集群):

  • ES是分布式存储,当设置一样的cluster.name后会自动发现并加入集群;
  • 集群会自动选举一个master,当master宕机后从新选举;
  • 为防止"脑裂",集群中个数最好为奇数个;
  • 为有效管理节点,可关闭广播discovery. zen.ping.multicast.enabled: false,并设置单播节点组discovery.zen.ping.unicast.hosts: ["ip1", "ip2", "ip3"]。

六、性能的检查

检查输入和输出的性能:

Logstash和其链接的服务运行速度一致,它能够和输入、输出的速度同样快。

检查系统参数:

1)CPU

  • 注意CPU是否过载。在Linux/Unix系统中可使用top-H查看进程参数以及总计。
  • 若是CPU使用太高,直接跳到检查JVM堆的章节并检查Logstash worker设置。

2)Memory

  • 注意Logstash是运行在Java虚拟机中的,因此它只会用到你分配给它的最大内存。
  • 检查其余应用使用大量内存的状况,这将形成Logstash使用硬盘swap,这种状况会在应用占用内存超出物理内存范围时。

3)I/O监控磁盘I/O检查磁盘饱和度

  • 使用Logstash plugin(例如使用文件输出)磁盘会发生饱和。
  • 当发生大量错误,Logstash生成大量错误日志时磁盘也会发生饱和。
  • 在Linux中,可以使用iostat,dstat或者其余命令监控磁盘I/O。

4)监控网络I/O

  • 当使用大量网络操做的input、output时,会致使网络饱和。
  • 在Linux中可以使用dstat或iftop监控网络状况。

检查JVM heap:

  • heap设置过小会致使CPU使用率太高,这是由于JVM的垃圾回收机制致使的。
  • 一个快速检查该设置的方法是将heap设置为两倍大小而后检测性能改进。不要将heap设置超过物理内存大小,保留至少1G内存给操做系统和其余进程。
  • 你可使用相似jmap命令行或VisualVM更加精确的计算JVM heap。

若有更多优化方法,或是难点解决的方法,欢迎在留言区补充~

做者:alonghub
来源:https://www.cnblogs.com/along...

欢迎你们关注个人微信公众号【民工哥技术之路】,最新整理的 2TB 技术干货:包括架构师实战教程、大数据、Docker容器、系统运维、数据库、redis、MogoDB、电子书、Java基础课程、Java实战项目、ELK Stack、机器学习、BAT面试精讲视频等。只需在「 民工哥技术之路」微信公众号对话框回复关键字:1024便可获取所有资料。

相关文章
相关标签/搜索