理解OpenShift(1):网络之 Router 和 Routehtml
理解OpenShift(2):网络之 DNS(域名服务)node
理解OpenShift(5):从 Docker Volume 到 OpenShift Persistent Volumegit
理解OpenShift(6):集中式日志处理github
** 本文基于 OpenShift 3.11,Kubernetes 1.11 进行测试 ***sql
(1)由应用本身处理日志,而不须要容器引擎参与docker
好比一个使用Log4j2 日志组件的Java应用, 它经过日志组件将日志发往一个远端日志服务器。此时,不利用容器引擎的日志功能。数据库
(2)使用数据卷(Data volume)json
使用数据卷,容器内应用将日志写入数据卷中。此时,也不利用容器引擎的日志功能。
(3)使用 Docker 日志驱动(logging driver)
Docker 日志驱动会读取容器中主进程的 stdout(标准输出) 和 stderr(错误输出),而后将内容写入容器所在的宿主机上的文件中。
Docker 支持多种日志驱动。
(图片来源:https://jaxenter.com/docker-logging-gotchas-137049.html)
几个比较常见的:
更多日志驱动,能够查看 https://docs.docker.com/config/containers/logging/configure/#supported-logging-drivers。
Docker 还支持插件形式的更多日志驱动,具体请看 https://docs.docker.com/config/containers/logging/plugins/。
(4)使用专门的日志容器
Docker 日志驱动这种实现方式有一些限制:
对于这些不支持的场景,好比应用有将日志写到日志文件,此时能够利用在同一个Pod中的专门日志容器。它会以边车(sidecar)形式读取应用容器中的日志产生,而后作处理和转发,好比转发到 stdout 和 stderr。
另外,某些这种场景还有另一种更简单的处理方式。以 Nginix 为例,它默认写入日志文件,而后经过下面的方式,将日志也输出到 stdout 和 stderr。这种方式有一些限制,具体可参考 https://github.com/moby/moby/issues/19616:
# forward request and error logs to docker log collector RUN ln -sf /dev/stdout /var/log/nginx/access.log \ && ln -sf /dev/stderr /var/log/nginx/error.log
OpenShift/Kubernetes 环境的日志处理可分为三个发展阶段,或三种处理类型:
类型 | 说明 | 使用方式 |
容器本地日志(container local logging) | 写到容器内部的标准输出(standard output)和标准错误流(stand error),或者容器内日志文件。这种日志的问题是当容器死掉后,日志也会丢失,也就没法再访问了。 | 需登陆进容器查看日志文件,或使用容器命令获取日志。OpenShift 提供 oc rsh 命令以进入容器,oc logs 命令以获取日志。 |
节点本地日志(node-level logging) | 容器引擎将容器中全部的标准输出和标准错误输出都转发到容器所在的本地节点上。Docker 可利用其日志驱动(logging driver)。为了不容器中的日志将节点撑爆,能够作 log rotation。这种方式比 local logging 方式要好,可是还不是很是好,由于日志会保存在本地节点上。 | 需登陆宿主机,查看本地日志文件 |
集群集中日志(cluster-level-loggin) | 这须要另外的后端来存储、分析和查询日志。后端能够在集群内,也可在集群外。一个 node-level 日志处理插件(好比 Fluentd)会运行在每一个节点上,将节点上的日志发到集中的日志处理后端。还有一个可视化组件,让用户能够可视化地查看日志。 | 可经过浏览器或其它可视化界面在线查看日志 |
EFK(ElasticSearch - Fluentd - Kibana)是一种可以实现集群集中日志处理的开源套件。其中,
三个组件中,Fluentd 会直接和Docker/K8S/OKD打交道,而 ES 和 Kibana 则相对独立,不和容器集群有直接关系,除了用户校验之外。Fluentd 致力于解决多种日志来源和多种日志存储之间的复杂问题。它做为日志和日志存储之间的中间件,负责日志的收集、过滤和转发工做。
Fluentd 采用插件形式的架构,支持为了知足各类需求的日志采集、过滤、缓存和输出等功能。其v0.12 版本架构以下:
其中:
在 K8S/OKD 环境中,Fulentd 以 DeamonSet 形式运行在每一个节点上。它会以 Volume 形式将所在宿主机上的多个保存日志的目录或文件挂载进容器,以被容器中的Fluentd进程所读取:
Fluentd 的配置文件被建立了一个 OpenShfit ConfigMap 对象(名为logging-fluentd),而后该对象被以 Volume 形式挂载为Fluentd容器目录 /etc/fluent/configs.d/user。其中的配置文件 fluentd.conf 指定了Fluentd 所使用的 input、filter 和 output 插件及其配置:
其中
ES 环境的信息以环境变量的形式保存在 Fluentd pod 上:
被影响人员 | 影响(好的方面) | 影响(很差的方面)/要求 |
容器云平台运维人员 |
|
|
容器应用开发人员 |
|
|
容器云平台研发团队 |
|
|
备注:本部份内容引用自 http://blog.51cto.com/13527416/2051506。
这种架构只适合于开发测试环境,以及小型生产环境。
这种架构适合于较大型可是日志产生量不大及频率不高的环境。
在日志产生量大频率高的状况下,须要引入消息队列,以减轻对后端日志存储的压力,减小日志丢失几率。
目前没有特别成熟的方案,估计大部分的架构仍是前面的架构,这种跨机房架构更多地在大型互联网公司有落地。一般有几种方案供参考:
参考链接:
感谢您的阅读,欢迎关注个人微信公众号: