在微服务化盛行的今天,日志的收集、分析愈来愈重要。ASP.NET Core 提供了一个统一的,轻量级的Logining系统,并能够很方便的与第三方日志框架集成。咱们也能够根据不一样的场景进行扩展,由于ASP.NET Core Logining系统设计的很是灵活性,咱们能够很容易的添加本身的LogProvider。本文就来介绍一下如何借助于 ELKstack 来实如今分布式环境下的集中式日志处理。html
使用Docker部署Elasticsearch和Kibana
ELKstack是Elasticsearch、Logstash、Kibana三个开源软件的组合,是当今最为流行的统一日志分析平台。对于它们的介绍,网上很是之多,这里就再也不多说。git
在本文中只使用了Elasticsearch
和Kibana
,前者是分布式搜索系统,后者是一个可视化平台,使用docker来部署很是简单:github
部署Elasticsearch
以下,绑定端口9200
,并将容器命名为elasticsearch
:docker
docker run --name=elasticsearch -d -p 9200:9200 -e "http.host=0.0.0.0" -e "transport.host=127.0.0.1" docker.elastic.co/elasticsearch/elasticsearch:6.2.2
而后在浏览器中打开 http://localhost:9200/,输出以下:json
{
"name": "qFQvLqr", "cluster_name": "docker-cluster", "cluster_uuid": "bdc5YhZlQHu0mCN7acNKBw", "version": { "number": "6.2.2", "build_hash": "10b1edd", "build_date": "2018-02-16T21:01:30.685723Z", "build_snapshot": false, "lucene_version": "7.2.1", "minimum_wire_compatibility_version": "5.6.0", "minimum_index_compatibility_version": "5.0.0" }, "tagline": "You Know, for Search" }
部署Kibana
Kibana的部署依赖于Elasticsearch:浏览器
docker run --name=kibana --link=elasticsearch -d -p 5601:5601 docker.elastic.co/kibana/kibana:6.2.2
主要注意的是,在这里使用了--link=elasticsearch
来连接到elasticsearch容器,若是要使用外部的elasticsearch服务,可使用-e "elasticsearch.url=http://changeme:9200"
来指定。bash
而后在浏览器中打开 http://localhost:5601/:微信
如上,部署成功,不过尚未任何数据。markdown
使用docker-compose部署
当须要部署多个相关的服务时,更加推荐使用docker-compose来部署:app
首先,咱们建立一个docker-compose.yml
文件:
version: '3' services: elasticsearch: image: docker.elastic.co/elasticsearch/elasticsearch:${TAG} container_name: elasticsearch environment: - http.host=0.0.0.0 - transport.host=127.0.0.1 - ELASTICSEARCH_PASSWORD=${ELASTIC_PASSWORD} ports: - 9200:9200 networks: - stack kibana: image: docker.elastic.co/kibana/kibana:${TAG} container_name: kibana environment: - ELASTICSEARCH_USERNAME=kibana - ELASTICSEARCH_PASSWORD=${ELASTIC_PASSWORD} ports: - 5601:5601 networks: - stack depends_on: - elasticsearch networks: stack: driver: bridge
如上,咱们定义了TAG
和ELASTIC_PASSWORD
两个环境变量,方便在部署时候灵活的指定版本号和密码。
为方便测试部署,咱们能够定义一个默认的环境变量文件.env
:
TAG=6.2.2 ELASTIC_PASSWORD=Qwer1234
而后,直接运行以下命令便可:
docker-compose up
接下来,将日志写入到Elasticsearch。
记录日志到Elasticsearch
咱们建立一个 ASP.NET Core WebApi 项目,添加以下Package:
dotnet add package Zero.Logging.Elasticsearch --version 1.0.0-alpha3-20180228
添加ElasticsearchProvider
而后在Program.cs
文件中使用AddElasticsearch
扩展方法为日志系统添加ElasticsearchProvider
:
public static IWebHost BuildWebHost(string[] args) => WebHost.CreateDefaultBuilder(args) .ConfigureLogging((hostingContext, logging) => { logging.AddElasticsearch(); }) .UseStartup<Startup>() .Build();
记录日志
对于日志的记录则不须要任何的修改:
public class ValuesController : Controller { private readonly ILogger _logger; public ValuesController(ILogger<ValuesController> logger) { _logger = logger; } [HttpGet] public void Get() { _logger.LogTrace("Log Trace."); _logger.LogInformation("Log Information."); _logger.LogDebug("Log Debug."); try { throw new Exception("Boom"); } catch (Exception ex) { _logger.LogCritical(1, ex, "Unexpected critical error starting application"); _logger.LogError(1, ex, "Unexpected error"); _logger.LogWarning(1, ex, "Unexpected warning"); } } }
在Kibana查看
刷新浏览器,显示以下:
在Index pattern中输入logstash-*
,点击下一步:
如上,选择timestamp
,建立索引,最终显示以下:
配置
如上,一行代码,零配置完成了Elasticsearch的写入,默认使用的Elasticsearch地址为http://localhost:9200
,若是咱们须要额外的配置也很简单,有以下两种方式:
使用配置文件进行配置
在appsettings.json
中添加以下配置(Elasticsearch节点):
{
"Logging": { "IncludeScopes": false, "Console": { "LogLevel": { "Default": "Warning" } }, "Elasticsearch": { "LogLevel": { "Default": "Information" }, "ElasticsearchUrl": "http://changeme:9200", "AutoRegisterTemplate": true } } }
使用代码进行配置
WebHost.CreateDefaultBuilder(args)
.ConfigureLogging((hostingContext, logging) =>
{
logging.AddFile().AddElasticsearch(o =>
{
o.PipelineName = "http://changeme:9200"; o.AutoRegisterTemplate = true; }); })
须要注意,若是使用代码的方式进行配置,则配置文件中的配置再也不生效。
更多的配置信息参见 EsLoggerOptions。
总结
因为Log4Net, Nlog, Serilog 等流行的日志框架的侵入性太强,故经过对各类开源框架的借鉴,彻底基于微软的 Logging 设计思想开发了 zero-logging 框架,如今功能还较为简陋,计划下一步实现结构化日志分析,欢迎交流学习。