Logstash日志采集分析工具

ELK(ElasticSearch、Logstash、Kibana )的组合,是一种比较常见的数据采集分析进行可视化展现的技术方案,这里重点展现介绍下logstash的用法。html

借用官方的介绍:https://www.elastic.co/cn/products/logstashjava

logstash

集中、转换和存储数据

Logstash 是开源的服务器端数据处理管道,可以同时从多个来源采集数据,转换数据,而后将数据发送到您最喜欢的 “存储库” 中。服务器

下面,用一个比较直接的图形,表示其功能和关系。架构

简单的汇总logstash的工做流程:输入->过滤->输出ide

 

一、输入过程:ui

采集各类样式、大小和来源的数据

数据每每以各类各样的形式,或分散或集中地存在于不少系统中。 Logstash 支持各类输入选择 ,能够在同一时间从众多经常使用来源捕捉事件。可以以连续的流式传输方式,轻松地从您的日志、指标、Web 应用、数据存储以及各类 AWS 服务采集数据spa

 

二、过滤插件

实时解析和转换数据

数据从源传输到存储库的过程当中,Logstash 过滤器可以解析各个事件,识别已命名的字段以构建结构,并将它们转换成通用格式,以便更轻松、更快速地分析和实现商业价值。日志

  • 利用 Grok 从非结构化数据中派生出结构
  • 从 IP 地址破译出地理坐标
  • 将 PII 数据匿名化,彻底排除敏感字段
  • 简化总体处理,不受数据源、格式或架构的影响

咱们的过滤器库丰富多样,拥有无限可能。htm

输出:

选择您的存储库,导出您的数据

尽管 Elasticsearch 是咱们的首选输出方向,可以为咱们的搜索和分析带来无限可能,但它并不是惟一选择。

Logstash 提供众多输出选择,您能够将数据发送到您要指定的地方,而且可以灵活地解锁众多下游用例。

 

另外,logstash是基于java开发的,jdk1.8以上便可。另外,提供了丰富的插件,研发人员,也能够开发本身的插件。用官方的话,有了

插件,就让服务有无数的可能。

接下来,我将会对目前的各个服务的Nginx日志进行采集分析,而后进行但是化展现。这些工做,就要借助于ELK的组合了。

相关文章
相关标签/搜索