上文咱们演示了使用NLog向ElasticSearch写日志的基本过程(输出的是普通文本日志),今天咱们来看下如何向ES输出结构化日志、并利用Kibana中分析日志。html
当前互联网、物联网、大数据日新月异,软件越复杂,查找任何给定问题的原由就越困难(且成本更高)。git
在实践中咱们开发了各类规避、诊断应用程序错误行为的利器:
静态类型检查
,自动化测试
,事件探查器
,崩溃转储
和监视系统
。可是记录程序执行步骤的日志仍然是过后诊断最丰富的数据源。github
在日志分析时,小批量普通的文本对于人类很友好,但却很难从大量普通文本中快速定位、精准提取特定信息。json
..... [2018-04-07T13:45:56.789Z INF] https://example.com/api/warehouse,query reserve,took 100 ms [2018-04-07T13:45:56.789Z INF] api/commitOrder,OrderId:9876543210,commit order took 50 ms ...... [2018-04-07T13:45:56.789Z INF] /login,user:Kenny,from ip_address:127.0.0.1,took 100 ms ...... [2018-04-07T13:45:56.789Z INF] https://example.com/api/warehouse,OrderId:9876543210,decrease reserve took 10000 ms [2018-04-07T13:45:56.789Z INF] /api/creatNewOrder,OrderId:9876543210, create order took 100 ms .....
普通文本对人类友好,对于机器不友好。
结构化日志提出了Message template
来解决日志对机器不友好的问题。api
Messgae Template: 是一个与语言无关的规范,以对人类和机器友好的格式捕获、呈现结构化的日志事件。app
var traceid = _.TraceIdentifier; // 【锁定库存】 这个动做耗时较长 _logger.LogInformation("{TraceId},{endpoint},OrderId:{orderId},decrease reserve took {elasped} ms", traceid, "https://example.com/api/warehouse", 9876543210, 10000);
注意命名占位符,它们能如格式化字符串占位符{0}{1}同样占位,并且能将属性名称与每一个匹配位置的消息数据相关联,以下图以json格式提取了关键消息。性能
消息模板的优点在于:既能保持普通文本的格式,又具有捕获结构化数据的能力(对机器友好)。测试
下面来完整输出、分析提交订单请求
的日志:大数据
NLog4.5引入结构化日志,支持Message Template
, 在ASP.NET Core脚手架Startup文件
--->Configure方法
添加以下代码:ui
app.MapWhen(_ => _.Request.Path.Value == "/" , appBuilder => appBuilder.Run(_ => { var traceid = _.TraceIdentifier; // 查询库存 _logger.LogInformation("{traceId},{endpoint},query reserve,took{elasped} ms", traceid, "https://example.com/api/warehouse", 100); // 建立订单 _logger.LogInformation("{traceId},{endpoint},OrderId:{orderId}, create order took {elasped} ms", traceid, "/api/creatNewOrder", 9876543210, 100); // 锁定库存 _logger.LogInformation("{traceId},{endpoint},OrderId:{orderId},decrease reserve took {elasped} ms", traceid, "https://example.com/api/warehouse", 9876543210, 10000); // 提交订单 _logger.LogInformation("{traceId},{endpoint},OrderId:{orderId},commit order took {elasped} ms", traceid, "api/commitOrder", 9876543210, 50); _.Response.StatusCode = StatusCodes.Status200OK; _.Response.WriteAsync("Generate Order OK!"); return Task.CompletedTask; }));
这里咱们关注如何向ElasticSearch输出结构化日志,请务必将includeAllProperties="true"
,这样输出到ES的才会包含全部事件属性。
<target name="elastic" xsi:type="BufferingWrapper" flushTimeout="5000"> <target xsi:type="ElasticSearch" includeAllProperties="true" index="logstash-20200805" uri="${configsetting:item=ConnectionStrings.ElasticUrl}" /> </target>
这个订单请求,会产生6条日志(这里你也会看到日志的显示顺序可能不能如你所愿):
下面给出[锁定库存]日志ES文档, 文档上已经出现了关键的消息属性[traceId] [endpoint] [orderId] [elasped]
{ "_index": "logstash-20200805", "_type": "logevent", "_id": "emTivXMBwcdwe4RliB9f", "_version": 1, "_score": null, "_source": { "@timestamp": "2020-08-05T17:10:00.7170456+08:00", "level": "Info", "message": "2020-08-05 17:10:00.7170|INFO|EqidManager.Startup|0HM1P3TAGNJ5Q:00000001,https://example.com/api/warehouse,OrderId:9876543210,decrease reserve took 10000 ms", "TraceId": "0HM1P3TAGNJ5Q:00000001", "endpoint": "https://example.com/api/warehouse", "orderId": 9876543210, "elasped": 10000 }, "fields": { "@timestamp": [ "2020-08-05T09:10:00.717Z" ] }, "sort": [ 1596618600717 ] }
经过Kibana界面咱们能够便捷地完成以下分析:
本文肝时较长(elasped>=10天)
includeAllProperties=true
(默认是false), 摸索了好久