Node 中如何更好地打日志

Node 中如何更好地打日志

本文收录于 GitHub 山月行博客: shfshanyue/blog,内含我在实际工做中碰到的问题、关于业务的思考及在全栈方向上的学习前端

在服务器应用(后端项目)中,完善并结构化的日志不只能够更好地帮助定位问题及复现,也可以发现性能问题的端倪,甚至可以帮忙用来解决线上 CPU 及内存爆掉的问题。node

本篇文章将讲解如何使用 Node 在服务端更好地打日志ios

  • 哪里应该打日志: AccessLog、SQLLog、BusinessLog
  • 应该打什么日志: server_name、timestamp 以及相关类型日志
  • 用什么去打日志: winston、log4j、bunyan

产生日志后,将在下一章讲解日志的收集处理及检索nginx

日志类型

在一个服务器应用中,或做为生产者,或做为消费者,须要与各方数据进行交互。除了最多见的与客户端交互外,还有数据库、缓存、消息队列、第三方服务。对于重要的数据交互须要打日志记录。git

除了外界交互外,自身产生的异常信息、关键业务逻辑及定时任务信息,也须要打日志。github

如下简述须要打日志的类型及涉及字段面试

  • AccessLog: 这是最多见的日志类型,通常在 nginx 等方向代理中也有日志记录,但在业务系统中有时须要更详细的日志记录,如 API 耗时,详细的 request body 与 response body
  • SQLLog: 关于数据库查询的日志,记录 SQL、涉及到的 table、以及执行时间,今后能够筛选出执行过慢的SQL,也能够筛选出某条API对应的SQL条数
  • RequestLog: 请求第三方服务产生的日志
  • Exception: 异常
  • RedisLog: 缓存,也有一些非缓存的操做如 zset 及分布式锁等
  • Message Queue Log: 记录生产消息及消费消息的日志
  • CronLog: 记录定时任务执行的时间以及是否成功
  • 关键业务逻辑

日志的基本字段

对于全部的日志,都会有一些共用的基本字段,如在那台服务器,在那个点产生的日志redis

app

即当前项目的命名,在生产环境有可能多个项目的日志聚合在一块儿,经过 app 容易定位到当前项目sql

serverName

即服务器的 hostname,经过它很容易定位到出问题的服务器/容器。数据库

现已有至关多公司的生产环境应用使用 kubernetes 进行编排,而在 k8s 中每一个 POD 的 hostname 以下所示,所以很容易定位到

  1. Deployment: 哪个应用/项目
  2. ReplicaSet: 哪一次上线
  3. Pod: 哪个 Pod
# shanyue-production 指 Deployment name
# 69d9884864 指某次升级时 ReplicaSet 对应的 hash
# vt22t 指某个 Pod 对应的 hash
$ hostname
shanyue-production-69d9884864-vt22t

timestamp

即该条日志产生的时间,使用 ISO 8601 格式有更好的人可读性与机器可读性

{
  "timestamp": "2020-04-24T04:50:57.651Z",
}

requestId/traceId

及全链路式日志中的惟一id,经过 requestId,能够把相关的微服务同一条日志连接起来、包括前端、后端、上游微服务、数据库及 redis

全链路式日志平台能够更好地分析一条请求在各个微服务的生命周期,目前流行的有如下几种,如下使他们的官网介绍

  • zipkin: Zipkin is a distributed tracing system. It helps gather timing data needed to troubleshoot latency problems in service architectures. Features include both the collection and lookup of this data.
  • jaeger: open source, end-to-end distributed tracing

label

即日志的类型,如 SQL、Request、Access、Corn 等

userId

即用户信息,固然有的服务可能没有用户信息,这个要视后端服务的性质而定。当用户未登陆时,以 -1 替代,方便索引。

{
  "userId": 10086,
  // 当用户在未状态时,以 -1 替代
  "userId": -1,
}

Node 中如何打日志: winston

winston 是 Node 中最为流行的日志工具,支持各类各样的 Transport,可以让你定义各类存储位置及日志格式

固然还有其它可选的方案:如 []

{
  defaultMeta: {
    app: 'shici-service',
    serverName: os.hostname(),
    label
  }
}
import winston, { format } from 'winston'
import os from 'os'
import { session } from './session'

const requestId = format((info) => {
  // 关于 CLS 中的 requestId
  info.requestId = session.get('requestId')
  return info
})

function createLogger (label: string) {
  return winston.createLogger({
    defaultMeta: {
      serverName: os.hostname(),
      // 指定日志类型,如 SQL / Request / Access
      label
    },
    format: format.combine(
      // 打印时间戳
      format.timestamp(),
      // 打印 requestId
      requestId(),
      // 以 json 格式进行打印
      format.json()
    ),
    transports: [
      // 存储在文件中
      new winston.transports.File({
        dirname: './logs',
        filename: `${label}.log`,
      })
    ]
  })
}

const accessLogger = createLogger('access')

日志结构化

结构化的日志方便索引,而 JSON 是最容易被解析的格式,所以生产环境日志常被打印为 JSON 格式。

那其它格式能够吗,能够,就是解析有点麻烦。固然 JSON 也有缺点,即数据冗余太多,会形成带宽的浪费。

http {
    include       mime.types;
    default_type  application/octet-stream;

    json_log_fields main 'remote_addr'
                         'remote_user'
                         'request'
                         'time_local'
                         'status'
                         'body_bytes_sent'
                         'http_user_agent'
                         'http_x_forwarded_for';
}

npm scripts: 优化本地日志及筛选

morgan 中能够优化日志的可读性并打印在终端

morgan(':method :url :status :res[content-length] - :response-time ms')

而以上不管生产环境仍是测试环境本地环境,都使用了 json 格式,并输出到了文件中,此时的可读性是不不好?

别急,这里用 npm scripts 处理一下,不只有更好的可读性,并且更加灵活

{
  "log": "tail -f logs/api-$(date +'%Y-%m-%d').log | jq",
  "log:db": "tail -f logs/db-$(date +'%Y-%m-%d').log | jq"
}

经过命令行 tailjq,作一个更棒的可视化。jq 是一款 json 处理的命令行工具,需提早下载

$ brew install jq

打印后的请求日志

由于打印日志是基于 jq 的,所以你也能够写 jq script 对日志进行筛选

$ npm run log  '. | { message, req}'

只打印部分字段

请求日志: AccessLog

AccessLog 几乎是一个后端项目中最重要的日志,在传统 Node 项目中经常使用 morgan,可是它对机器读并非很友好。

如下是基于 koa 的日志中间件:

  1. 对于 Options、健康检查及一些不重要请求不打日志
  2. 使用 duration 字段记录该响应的执行时间
  3. 对于请求的 bodyquery 须要作序列化(stringify)处理,避免在 EliticSearch 或一些日志平台中索引过多及错乱
  4. 记录全局的上下文信息,如 User 及一些业务相关联的数据
// 建立一个 access 的 log,并存储在 ./logs/access.log 中
const accessLogger = createLogger('access')

app.use(async (ctx, next) => {
  if (
    // 若是是 Options 及健康检查或不重要 API,则跳过日志
    ctx.req.method === 'OPTIONS' ||
    _.includes(['/healthCheck', '/otherApi'], ctx.req.url)
  ) {
    await next()
  } else {
    const now = Date.now()
    const msg = `${ctx.req.method} ${ctx.req.url}`
    await next()
    apiLogger.info(msg, {
      req: {
        ..._.pick(ctx.request, ['url', 'method', 'httpVersion', 'length']),
        // body/query 进行序列化,避免索引过多
        body: JSON.stringify(ctx.request.body),
        query: JSON.stringify(ctx.request.query)
      },
      res: _.pick(ctx.response, ['status']),

      // 用户信息
      userId: ctx.user.id || -1,

      // 一些重要的业务相关信息
      businessId: ctx.business.id || -1,
      duration: Date.now() - now
    })
  }
})

数据库日志: SQLLog

对于流行的服务器框架而言,操做数据库通常使用 ORM 操做,对于 Node,这里选择 sequelize

如下是基于 sequelize 的数据库日志及代码解释:

  1. 绑定 CLS (Continues LocalStorage),便可经过 requestId 查得每条 API 对应的查库次数,方便定位性能问题
  2. 使用 duration 字段记录该查询的执行时间,可过滤 1s 以上数据库操做,方便发现性能问题
  3. 使用 tableNames 字段记录该查询涉及的表,方便发现性能问题
// 建立一个 access 的 log,并存储在 ./logs/sql.log 中
const sqlLogger = createLogger('sql')

// 绑定 Continues LocalStorage
Sequelize.useCLS(session)

const sequelize = new Sequelize({
  ...options,
  benchmark: true,
  logging (msg, duration, context) {
    sqlLogger.info(msg, {
      // 记录涉及到的 table 与 type
      ...__.pick(context, ['tableNames', 'type']),
      // 记录SQL执行的时间
      duration
    })
  },
})

Redis日志: RedisLog

redis 日志通常来讲不是很重要,若是有必要也能够记录。

若是使用 ioredis 做为 redis 操做库,可侵入 Redis.prototype.sendCommand 来打印日志,对 redis 进行封装以下

import Redis from 'ioredis'
import { redisLogger } from './logger'

const redis = new Redis()

const { sendCommand } = Redis.prototype
Redis.prototype.sendCommand = async function (...options: any[]) {
  const response = await sendCommand.call(this, ...options);
  // 记录查询日志
  redisLogger.info(options[0].name, {
    ...options[0],
    // 关于结果,可考虑不打印,有时数据可能过大
    response
  })
  return response
}

export { redis }

微服务请求日志: RequestLog

第三方请求能够经过 axios 发送请求,并在 axios.interceptors 中拦截请求打印日志。

主要,此时不只注入了日志,并且注入了 requestId,传递给下一个微服务

import { requestLogger } from './logger'

axios.interceptors.request.use(function (config) {
  // Do something before request is sent
  const message = `${config.method} ${config.url}`
  requestLogger.info(message, config)
  // 从 CLS 中获取 RequestId,传递给微服务,组成全链路
  config.headers['X-Request-Id'] = session.requestId
  return config
}, function (error) {
  return Promise.reject(error)
})

总结

本文收录于 GitHub 山月行博客: shfshanyue/blog,内含我在实际工做中碰到的问题、关于业务的思考及在全栈方向上的学习

在一个后端项目中,如下类型须要打日志记录,本篇文章介绍了如何使用 Node 来作这些处理并附有代码

  • AccessLog: 这是最多见的日志类型,通常在 nginx 等方向代理中也有日志记录,但在业务系统中有时须要更详细的日志记录,如 API 耗时,详细的 request body 与 response body
  • SQLLog: 关于数据库查询的日志,记录 SQL、涉及到的 table、以及执行时间,今后能够筛选出执行过慢的SQL,也能够筛选出某条API对应的SQL条数
  • RequestLog: 请求第三方服务产生的日志
  • Exception: 异常
  • RedisLog: 缓存,也有一些非缓存的操做如 zset 及分布式锁等
  • Message Queue Log: 记录生产消息及消费消息的日志
  • CronLog: 记录定时任务执行的时间以及是否成功
  • 关键业务逻辑

关注我

扫码添加个人微信,备注进群,加入高级前端进阶群

<figure>
<img width="240" src="https://user-gold-cdn.xitu.io/2020/6/29/172fe14e18d2b38c?w=430&h=430&f=jpeg&s=38173" alt="加我微信拉你进入面试交流群">
<figcaption>加我微信拉你进入面试交流群</figcaption>
</figure>

欢迎关注公众号【全栈成长之路】,定时推送 Node 原创及全栈成长文章

<figure> <img width="240" src="https://shanyue.tech/qrcode.jpg" alt="欢迎关注"> <figcaption>欢迎关注全栈成长之路</figcaption></figure>

相关文章
相关标签/搜索