ELK(ElasticSearch、Logstash、Kibana )的组合,是一种比较常见的数据采集分析进行可视化展现的技术方案,这里重点展现介绍下logstash的用法。html
借用官方的介绍:https://www.elastic.co/cn/products/logstashjava
Logstash 是开源的服务器端数据处理管道,可以同时从多个来源采集数据,转换数据,而后将数据发送到您最喜欢的 “存储库” 中。服务器
下面,用一个比较直接的图形,表示其功能和关系。架构
简单的汇总logstash的工做流程:输入->过滤->输出ide
一、输入过程:ui
数据每每以各类各样的形式,或分散或集中地存在于不少系统中。 Logstash 支持各类输入选择 ,能够在同一时间从众多经常使用来源捕捉事件。可以以连续的流式传输方式,轻松地从您的日志、指标、Web 应用、数据存储以及各类 AWS 服务采集数据spa
二、过滤插件
数据从源传输到存储库的过程当中,Logstash 过滤器可以解析各个事件,识别已命名的字段以构建结构,并将它们转换成通用格式,以便更轻松、更快速地分析和实现商业价值。日志
咱们的过滤器库丰富多样,拥有无限可能。htm
输出:
尽管 Elasticsearch 是咱们的首选输出方向,可以为咱们的搜索和分析带来无限可能,但它并不是惟一选择。
Logstash 提供众多输出选择,您能够将数据发送到您要指定的地方,而且可以灵活地解锁众多下游用例。
另外,logstash是基于java开发的,jdk1.8以上便可。另外,提供了丰富的插件,研发人员,也能够开发本身的插件。用官方的话,有了
插件,就让服务有无数的可能。
接下来,我将会对目前的各个服务的Nginx日志进行采集分析,而后进行但是化展现。这些工做,就要借助于ELK的组合了。