依赖分布式系统的公司组织和团队常用Go
语言编写其应用程序,以利用Go
语言诸如通道和goroutine
之类的并发功能。若是你负责研发或运维Go
应用程序,则考虑周全的日志记录策略能够帮助你了解用户行为,定位错误并监控应用程序的性能。 git
这篇文章将展开聊一些用于管理Go
日志的工具和技术。咱们将首先考虑要使用哪一种日志记录包来知足各类记录要求。而后会介绍一些使日志更易于搜索和可靠,减小日志资源占用以及使日志消息标准化的技术。github
Go
标准库的日志库很是简单,仅仅提供了print
,panic
和fatal
三个函数对于更精细的日志级别、日志文件分割以及日志分发等方面并无提供支持. 因此催生了不少第三方的日志库,流行的日志框架包括logrus
、zap
、glog
等。咱们先来大体看下这些日志库的特色再来根据实际应用状况选择合适的日志库。json
Go
的内置日志记录库(log
)带有一个默认记录器(logger
),该记录器可写入标准错误并自动向记录中添加时间戳,而无需进行配置。你可使用它日志用于本地开发,和试验性的代码段。这时从代码中得到快速反馈可能比生成丰富结构化的日志更为重要。安全
logrus
是一个为结构化日志记录而设计的日志记录包,很是适合以JSON
格式记录日志。 JSON
格式使机器能够轻松解析Go
日志。并且,因为JSON
是定义明确的标准,所以经过包含新字段能够轻松地添加上下文,解析器可以自动提取它们。服务器
使用logrus
,可使用功能WithFields
定义要添加到JSON日志中的标准字段,以下所示。而后,能够在不一样日志级别调用记录器,例如Info()
,Warn()
和Error()
。 logrus
库将自动以JSON
格式写入日志,并插入标准字段以及您即时定义的全部字段。网络
package main import ( log "github.com/sirupsen/logrus" ) func main() { log.SetFormatter(&log.JSONFormatter{}) standardFields := log.Fields{ "hostname": "staging-1", "appname": "foo-app", "session": "1ce3f6v", } requestLogger := log.withFields(standardFields) requestLogger.WithFields(log.Fields{"string": "foo", "int": 1, "float": 1.1}).Info("My first ssl event from Golang") }
生成的日志将在JSON
对象中包括消息,日志级别,时间戳、标准字段以及调用记录器即时写入的字段:session
{"appname":"foo-app","float":1.1,"hostname":"staging-1","int":1,"level":"info","msg":"My first ssl event from Golang","session":"1ce3f6v","string":"foo","time":"2019-03-06T13:37:12-05:00"}
glog
容许启用或禁用特定级别的日志记录,这对于在开发和生产环境之间切换时保持检查日志量颇有用。它使您能够在命令行中使用标志(例如,-v表示详细信息)来设置运行代码时的日志记录级别。而后,能够在if
语句中使用V()
函数仅在特定日志级别上写入Go
日志。功能Info()
,Warning()
,Error()
和Fatal()
分别指定日志级别0
到3
并发
if err != nil && glog.V(2){ glog.Error(err) }
上面分析了,标准库的log
只适合非项目级别的代码片断的快速验证和调试。logrus
在结构化日志上作的最好,有利于日志分析。glog
能够减小日志占用的磁盘空间。不过相比产生的日志占用空间大的问题,利于分析的日志给应用产品带来的价值更大,因此logrus
使用的更多一些。不少开源项目,如Docker
,Prometheus
等都是用了logrus
来记录他们的日志。app
logrus
是目前Github
上star数量最多的日志库,目前(2020.03)star
数量为14000+,fork
数为1600+。logrus
功能强大,性能高效,并且具备高度灵活性,提供了自定义插件的功能。不少开源项目,如Docker
,Prometheus
等都是用了logrus
来记录他们的日志。框架
logrus
彻底兼容Go
标准库日志模块,拥有六种日志级别:debug
、info
、warn
、error
、fatal
和panic
,这是Go
标准库日志模块的API的超集.若是你的项目使用标准库日志模块,彻底能够以最低的代价迁移到logrus
上.Hook
机制:容许使用者经过hook
的方式将日志分发到任意地方,如本地文件系统、标准输出、logstash
、elasticsearch
或者mq
等。logrus
内置了两种日志格式,JSONFormatter
和TextFormatter
还能够本身动手实现接口Formatter,来定义本身的日志格式。Field
机制:logrus
鼓励经过Field
机制进行精细化的、结构化的日志记录,而不是经过冗长的消息来记录日志。Entry
: logrus.WithFields
会自动返回一个 *Entry
,Entry
会自动向日志记录里添加记录建立的时间time
字段。logrus
与Go
标准库日志模块彻底兼容, logrus
能够经过简单的配置,来定义输出、格式或者日志级别等。
package main import ( "os" log "github.com/sirupsen/logrus" ) func init() { // 设置日志格式为json格式 log.SetFormatter(&log.JSONFormatter{}) // 设置将日志输出到指定文件(默认的输出为stderr,标准错误) // 日志消息输出能够是任意的io.writer类型 logFile := ... file, _ := os.OpenFile(logFile, os.O_RDWR|os.O_CREATE|os.O_APPEND, 0666) log.SetOutput(file) // 设置只记录日志级别为warn及其以上的日志 log.SetLevel(log.WarnLevel) } func main() { log.WithFields(log.Fields{ "animal": "walrus", "size": 10, }).Info("A group of walrus emerges from the ocean") log.WithFields(log.Fields{ "omg": true, "number": 122, }).Warn("The group's number increased tremendously!") log.WithFields(log.Fields{ "omg": true, "number": 100, }).Fatal("The ice breaks!") }
若是想在一个应用里面向多个地方写log
,能够建立多个记录器Logger
实例。
package main import ( "github.com/sirupsen/logrus" "os" ) // logrus提供了New()函数来建立一个logrus的实例. // 项目中,能够建立任意数量的logrus实例. var log = logrus.New() func main() { // 为当前logrus实例设置消息的输出,一样地, // 能够设置logrus实例的输出到任意io.writer log.Out = os.Stdout // 为当前logrus实例设置消息输出格式为json格式. // 一样地,也能够单独为某个logrus实例设置日志级别和hook,这里不详细叙述. log.Formatter = &logrus.JSONFormatter{} log.WithFields(logrus.Fields{ "animal": "walrus", "size": 10, }).Info("A group of walrus emerges from the ocean") }
logrus
不推荐使用冗长的消息来记录运行信息,它推荐使用Fields
来进行精细化的、结构化的信息记录. 例以下面的记录日志的方式:
log.Fatalf("Failed to send event %s to topic %s with key %d", event, topic, key)
在logrus
中不太提倡,logrus
鼓励使用如下方式替代之:
log.WithFields(log.Fields{ "event": event, "topic": topic, "key": key, }).Fatal("Failed to send event")
WithFields
能够规范使用者按照其提倡的方式记录日志。可是WithFields
依然是可选的,由于某些场景下,确实只须要记录一条简单的消息。
一般,在一个应用中、或者应用的一部分中,始终附带一些固定的记录字段会颇有帮助。好比在处理用户HTTP
请求时,上下文中全部的日志都会有request_id
和user_ip。
为了不每次记录日志都要使用:
log.WithFields(log.Fields{“request_id”: request_id, “user_ip”: user_ip})
咱们能够建立一个logrus.Entry
实例,为这个实例设置默认Fields
,把logrus.Entry
实例设置到记录器Logger
,再记录日志时每次都会附带上这些默认的字段。
requestLogger := log.WithFields(log.Fields{"request_id": request_id, "user_ip": user_ip}) requestLogger.Info("something happened on that request") # will log request_id and user_ip requestLogger.Warn("something not great happened")
logrus
最使人心动的功能就是其可扩展的HOOK
机制。经过在初始化时为logrus
添加hook
,logrus
能够实现各类扩展功能.
logrus
的hook
接口定义以下,其原理是每次写入日志时拦截修改logrus.Entry
.
// logrus在记录Levels()返回的日志级别的消息时会触发HOOK, // 按照Fire方法定义的内容修改logrus.Entry. type Hook interface { Levels() []Level Fire(*Entry) error }
一个简单自定义hook
以下,DefaultFieldHook
定义会在全部级别的日志消息中加入默认字段appName=”myAppName”
。
type DefaultFieldHook struct { } func (hook *DefaultFieldHook) Fire(entry *log.Entry) error { entry.Data["appName"] = "MyAppName" return nil } func (hook *DefaultFieldHook) Levels() []log.Level { return log.AllLevels }
hook
的使用也很简单,在初始化前调用log.AddHook(hook)
添加相应的hook
便可。Hook
比较常见的用法是把指定错误级别的日志记录消息提醒发送到邮件组或者错误监控系统(好比sentry
),起到主动错误通知的做用。
logrus
官方仅仅内置了syslog
的hook
。但Github
有不少第三方的hook
可供使用。比方刚才说的sentry
相关的hook
。
Sentry
是一个错误监控系统,可使用厂商的服务也能够在本身的服务器上搭建Sentry
。模式跟GitLab
很像,也是提供一键安装包。为应用注册Sentry
后会分配一个DSN
用于链接Sentry
服务。
import ( "github.com/sirupsen/logrus" "github.com/evalphobia/logrus_sentry" ) func main() { log := logrus.New() hook, err := logrus_sentry.NewSentryHook(YOUR_DSN, []logrus.Level{ logrus.PanicLevel, logrus.FatalLevel, logrus.ErrorLevel, }) if err == nil { log.Hooks.Add(hook) } }
默认状况下,Logger
受mutex
保护,以进行并发写入。当钩子被调用而且日志被写入时,mutex
会被保持。若是肯定不须要这种锁,则能够调用logger.SetNoLock()
禁用该锁。
不须要锁的状况包括:
hook
,或者hook
调用是线程安全的。logger.Out
是线程安全的,好比logger.Out
已经被锁保护或者logger.Out
是一个以Append
模式打开的文件句柄。选择了项目使用的日志库后,您还须要计划在代码中调用记录器的位置,如何存储日志。在本部分中,将推荐一些整理Go
日志的最佳实践,他们包括:
goroutine
中调用记录器。HTTP
标头携带分布式惟一ID记录微服务中的用户行为。避免建立本身的goroutine
来处理写日志有两个缘由。首先,它可能致使并发问题,由于记录器的副本将尝试访问相同的io.Writer
。其次,日志记录库一般会本身启动goroutine
,在内部管理全部并发问题,而启动本身的goroutine
只会形成干扰。
即便将日志发送到中央日志平台,咱们也建议您先将日志写到本地计算机上的文件中。这确保您的日志始终在本地可用,而且不会在网络中丢失。此外,写入文件意味着您能够将写入日志的任务与将日志发送到中央日志平台的任务分开。您的应用程序自己无需创建链接或流式传输日志给日志平台,您能够将这些任务交给专业的软件处理,好比使用Elasticsearch
索引日志数据的话,那么就能够用Logstash
从日志文件里抽取日志数据。
若是您的应用程序部署在多个主机群集中,应用的日志会分散到不一样机器上。日志从本地文件传递到中央日志平台,以便进行日志数据的分析和汇总。关于日志处理服务的选择,开源的日志处理服务有ELK
,各个云服务厂商也有本身的日志处理服务,根据自身状况选择便可,尽可能选和云服务器同一厂商的日志服务,这样不用消耗公网的流量。
对于构建在分布式系统之上的应用,一个请求可能会流经多个服务,每一个服务都会本身记录日志。这种状况下为了查询请求对应的日志,一般的解决方案是在请求头中携带惟一ID,分布式系统中全部服务的日志记录器中增长惟一ID字段,这样每条写入的日志里都会有HTTP
请求的惟一ID。在统一日志平台中分析日志时,经过上游服务日志记录的请求惟一 ID 便可查询到该请求在下游全部服务中产生的日志。
参考连接:
https://www.datadoghq.com/blo...
https://github.com/sirupsen/l...