https://www.loggly.com/
html
日志的分析和监控在系统开发中占很是重要的地位,系统越复杂,日志的分析和监控就越重要,常见的需求有:java
不少团队在日志方面可能遇到的一些问题有:ios
常见的一些重量级的开源Trace系统有git
这些项目功能强大,但对于不少团队来讲过于复杂,配置和部署比较麻烦,在系统规模大到必定程度前推荐轻量级下载即用的方案,好比logstash+elasticsearch+kibana(LEK)组合。github
对于日志来讲,最多见的需求就是收集、查询、显示,正对应logstash、elasticsearch、kibana的功能。web
logstash主页redis
logstash部署简单,下载一个jar就能够用了,对日志的处理逻辑也很简单,就是一个pipeline的过程json
inputs >> codecs >> filters >> outputs
对应的插件有vim
从上面能够看到logstash支持常见的日志类型,与其余监控系统的整合也很方便,能够将数据输出到zabbix、nagios、email等。api
推荐用redis做为输入缓冲队列。
你还能够把数据统计后输出到graphite,实现统计数据的可视化显示。
参考文档
elasticsearch是基于lucene的开源搜索引擎,近年来发展比较快,主要的特色有
elasticsearch的详细介绍之后再写,经常使用的一些资源以下
smartcn, ES默认的中文分词
https://github.com/elasticsearch/elasticsearch-analysis-smartcn
mmseg
https://github.com/medcl/elasticsearch-analysis-mmseg
ik
https://github.com/medcl/elasticsearch-analysis-ik
pinyin, 拼音分词,可用于输入拼音提示中文
https://github.com/medcl/elasticsearch-analysis-pinyin
stconvert, 中文简繁体互换
https://github.com/medcl/elasticsearch-analysis-stconvert
elasticsearch-servicewrapper,用Java Service Wrapper对elasticsearch作的一个封装
https://github.com/elasticsearch/elasticsearch-servicewrapper
Elastic HQ,elasticsearch的监控工具
http://www.elastichq.org
elasticsearch-rtf,针对中文集成了相关插件(rtf = Ready To Fly)
https://github.com/medcl/elasticsearch-rtf
做者主页
kibana是一个功能强大的elasticsearch数据显示客户端,logstash已经内置了kibana,你也能够单独部署kibana,最新版的kibana3是纯html+js客户端,能够很方便的部署到Apache、Nginx等Http服务器。
kibana3的地址: https://github.com/elasticsearch/kibana
kibana2的地址: https://github.com/rashidkpc/Kibana
kibana3 demo地址: http://demo.kibana.org
从demo能够先看一下kibana的一些基本功能
图表
数据表格,能够自定义哪些列显示以及显示顺序
能够看到实际执行的查询语句
新加一行
新加panel,能够看到支持的panel类型
加一个饼图
用地图显示统计结果
按照http response code来统计
丰富的查询语法
下面列一下一个简易LEK体验环境的搭建步骤
省略安装过程,推荐1.7+版本
java -version
设置java的环境变量,好比
sudo vim ~/.bashrc >> export JAVA_HOME=/usr/lib/jvm/java-7-oracle export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH >> source ~/.bashrc
cd ~/src wget http://download.redis.io/releases/redis-2.6.16.tar.gz tar -zxf redis-2.6.16.tar.gz cd redis-2.6.16 make sudo make install
能够经过redis源代码里utils/install_server下的脚本简化配置工做
cd utils sudo ./install_server.sh
install_server.sh在问你几个问题后会把redis安装为开机启动的服务,能够经过下面的命令行来启动/中止服务
sudo /etc/init.d/redis_ start/end
启动redis客户端来验证安装
redis-cli > keys *
cd /search sudo mkdir elasticsearch cd elasticsearch sudo wget http://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-0.90.5.zip sudo unzip elasticsearch-0.90.5.zip
elasticsearch解压便可使用很是方便,接下来咱们看一下效果,首先启动ES服务,切换到elasticsearch目录,运行bin下的elasticsearch
cd /search/elasticsearch/elasticsearch-0.90.5 bin/elasticsearch -f
访问默认的9200端口
curl -X GET http://localhost:9200
cd /search sudo mkdir logstash cd logstash sudo wget http://download.elasticsearch.org/logstash/logstash/logstash-1.2.1-flatjar.jar
logstash下载便可使用,命令行参数能够参考logstash flags,主要有
agent #运行Agent模式 -f CONFIGFILE #指定配置文件 web #自动Web服务 -p PORT #指定端口,默认9292
logstash的最新版已经内置kibana,你也能够单独部署kibana。kibana3是纯粹JavaScript+html的客户端,因此能够部署到任意http服务器上。
cd /search sudo mkdir kibana sudo wget http://download.elasticsearch.org/kibana/kibana/kibana-latest.zip sudo unzip kibana-latest.zip sudo cp -r kibana-latest /var/www/html
能够修改config.js来配置elasticsearch的地址和索引。
用浏览器访问试试看 http://127.0.0.1/html/kibana-latest/index.html
把上面的系统集成起来
首先把redis和elasticsearch都启动起来
为logstash新建一个配置文件
cd /search/logstash sudo vi redis.conf
配置文件内容以下
input { redis { host => "127.0.0.1" port => "6379" key => "logstash:demo" data_type => "list" codec => "json" type => "logstash-redis-demo" tags => ["logstashdemo"] } } output { elasticsearch { host => "127.0.0.1" } }
用这个配置文件启动logstash agent
java -jar /search/logstash/logstash-1.2.1-flatjar.jar agent -f /search/logstash/redis.conf &
启动logstash内置的web
java -jar /search/logstash/logstash-1.2.1-flatjar.jar web &
查看web,应该尚未数据
http://127.0.0.1:9292
在redis 加一条数据
RPUSH logstash:demo "{\"time\": \"2013-01-01T01:23:55\", \"message\": \"logstash demo message\"}"
看看elasticsearch中的索引现状
curl 127.0.0.1:9200/_search?pretty=true curl -s http://127.0.0.1:9200/_status?pretty=true | grep logstash
再经过logstash web查询一下看看
http://127.0.0.1:9292
经过单独的kibana界面查看
http://127.0.0.1/html/kibana-latest/index.html#/dashboard/file/logstash.json
logstash默认按天建立ES索引,这样的好处是删除历史数据时直接删掉整个索引就能够了,方便快速。
elasticsearch也能够设置每一个文档的ttl(time to live),至关于设置文档的过时时间,但相比删除整个索引要耗费更多的IO操做。
elasticsearch默认会按照分隔符对字段拆分,日志有些字段不要分词,好比url,能够为这类字段设置not_analyzed属性。
设置multi-field-type属性能够将字段映射到其余类型。multi-field-type。
大量日志导入时用bulk方式。
对于日志查询来讲,filter比query更快 过滤器里不会执行评分并且能够被自动缓存。query-dsl。
elasticsearch默认一个索引操做会在全部分片都完成对文档的索引后才返回,你能够把复制设置为异步来加快批量日志的导入。
优化JVM
优化系统能够打开最大文件描述符的数量
适当增长索引刷新的间隔