Logstash收集日志

Logstash 的介绍

logstash是一种分布式日志收集框架,开发语言是JRuby,固然是为了与Java平台对接,不过与Ruby语法兼容良好,很是简洁强大,常常与ElasticSearch,Kibana配置,组成著名的ELK技术栈,很是适合用来作日志数据的分析。html

固然它能够单独出现,做为日志收集软件,你能够收集日志到多种存储系统或临时中转系统,如MySQL,redis,kakfa,HDFS, lucene,solr等并不必定是ElasticSearch。redis

官网下载地址:https://www.elastic.co/downloads/logstash spring

官网文档地址:https://www.elastic.co/guide/en/logstash/current/index.html shell

中文文档地址:http://udn.yyuap.com/doc/logstash-best-practice-cn/index.html apache

Logstash 的安装

Logstash 的安装很是简单,直接官网下载对应的版本(须要和 Elasticsearch 的版本匹配)解压缩便可json

# tar -zxvf logstash-2.3.2.tar.gz

测试启动spring-mvc

# cd logstash/
# cd bin/
# ./logstash -e 'input { stdin { } } output { stdout {} }'

启动成功提示缓存

Settings: Default pipeline workers: 4
Pipeline main started

Logstash配置

  启动logstash收集须要建立自定义conf配置文件 tomcat

   一般 Logstash 的一个配置文件含 input{},filter{},output{} 三部分,该三部分的做用也很好理解,一个配置输入源,一个配置过滤规则,一个配置输出;服务器

   其每一个部分又能够配置各类不一样的插件,全部插件的说明请参考官网文档的说明

   三部分我以为最难的配置就是filter了,须要配置grok插件

   在dir下建立一个文件,文件名随意

   将dir加入grok路径: patterns_dir => "./dir"

   将想要增长的SYNTAX写入: SYNTAX_NAME regexp

   使用方法和使用默认SYNTAX相同:%{SYNTAX_NAME:SEMANTIC}

#log4j日志
# 2016-04-10 07:19:16-|INFO|-Root WebApplicationContext: initialization started
MYTIMESTAMP 20%{YEAR}-%{MONTHNUM}-%{MONTHDAY} %{HOUR}:%{MINUTE}:%{SECOND}
MYLOG %{MYTIMESTAMP:mytimestamp}-\|%{LOGLEVEL:level}\|-%{JAVALOGMESSAGE:logmsg}
 
SERVER_LOG %{DATA:year}-%{DATA:month}-%{DATA:day}\ %{DATA:hour}\:%{DATA:min}\:%{DATA:sec}\ %{DATA:level}\ %{DATA:class} -{ip:%{DATA:ip},url:%{DATA:url},param:%{DATA:param},return:%{DATA:return},cost:%{BASE10NUM:cost}
 
#tomcatAccess日志
ACCESSIP (?:[0-9]{1,3}\.[0-9]{1,3}\.[0-9]{1,3}\.[0-9]{1,3})
ACCESSTIMESTAMP %{MONTHDAY}\/%{MONTH}\/20%{YEAR}:%{HOUR}:%{MINUTE}:%{SECOND} %{ISO8601_TIMEZONE}
HTTPMETHOD (GET|POST|PUT|DELETE)
PRJNAME ([^\s]*)
HTTPVERSION (https?\/[0-9]{1}\.[0-9]{1})
STATUSCODE ([0-9]{3})
# 192.168.1.101 - - [10/Apr/2016:08:31:34 +0800] "GET /spring-mvc-showcase HTTP/1.1" 302 -
ACCESSLOG %{ACCESSIP:accIP}\s-\s\-\s\[%{ACCESSTIMESTAMP:accstamp}\]\s"%{HTTPMETHOD:method}\s\/%{PRJNAME:prjName}\s%{JAVALOGMESSAGE:statusCode}

  建立.conf文件

input {
  file {
   type=>"xx_server_log"
   path=>"/opt/software/apache-tomcat-7.0.59/logs/catalina.out"
 }
}
filter {
        if [type] == "xx_server_log" {
           grok {
                 match => [ "message","%{SERVER_LOG}"]
                 patterns_dir => ["/opt/conf/logstash"]
                 remove_field => ["message"]
          }
        }
}
output {
   redis{
   host => '10.4.8.5' #redis服务器地址
   key => 'logstash:redis'
   datatype => 'list'
  }
  stdout{     #调试方即可以在输出到stdout,判断grok解析是否正确.若是tag中没有出现grok failure字样,说明解析正确。
        codec=>json
  }
}

Logstash启动

# ./bin/logstash -f ./conf/access-log.conf

  解释: -f 后面指定的是配置文件

导入到es

以上我是将采集到的日志先放在redis缓存,再次经过logstash导入到es

input {
    redis{
      host => '10.4.8.5'
      key => 'logstash:redis'
      datatype => 'list'
    }
}
#日志在上面已经结构化了,能够再也不解析。
#filter{
#}
output
{
 # stdout{}
  elasticsearch {
   host => '10.4.8.5'
   protocol => 'http'
   index => "logstash-%{type}"#设置在elasticsearch中的indexer名字,默认为logstash-%{yyyy.MM.dd}
  }
}

博客地址:http://my.oschina.net/wangnian