在上次遭遇 docker swarm 集群故障后,咱们将 docker 由 17.10.0-ce 升级为最新稳定版 docker 17.12.0-ce 。html
前天晚上22:00以后集群中的2个节点忽然出现CPU波动,在CPU波动以后,在凌晨夜深人静、访问量极低的时候,整个集群出现了故障,访问集群上的全部站点都出现了502,过了一段时间后自动恢复正常。node
ECS实例:swarm1-node5,CPU百分比于00:52发生告警,值为96.14%,持续时间0分钟docker
。。。网络
昨天早上发现访问部分节点中的容器应用响应有些慢,因而咱们经过阿里云控制台强制重启这些节点后恢复正常。阿里云
今天上午咱们在集群上更新一个应用时(部署新的镜像),出现了奇怪的问题。应用是在 swarm1-node1 这个 manager 节点上部署的,部署后容器运行在其余节点上,但奇怪的是只有在 swarm1-node1 这个节点上能够正常访问容器中的站点,在其余节点上访问都是 503 ,用 docker stack rm 命令删除应用并从新部署问题依旧。code
当时 docker-flow-proxy(路由应用) 的 2 个容器都是部署在 swarm1-node1 节点上的,从问题现象看,在 swarm1-node1 节点上 docker-flow-proxy 容器与外界的通讯正常,docker-flow-proxy 容器与其余节点上的容器的 overlay 网络(网络A)通讯正常;在其余节点上,外界的请求经过 overlay 网络(网络B)被正常转发到 docker-flow-proxy 容器,却不能被正常路由到其余节点上对应的容器(也是经过 overlay 网络A)。对这个奇怪现象实在想不通,可是问题摆在那,想不通也要解决。想不通背后的缘由,那咱们换个角度,其余节点都异常,就 swarm1-node1 正常,根据少数服从多数的粗暴原则,那就认为 swarm1-node1 不正常吧。因而经过下面的命令将 swarm1-node1 节点下线:htm
docker node update --availability drain swarm1-node1
swarm1-node1 下线后,其余节点都恢复了正常,果真是 swarm1-node1 不正常。blog
swarm1-node1 下线的背后是 docker-flow-proxy 容器换到其余节点上运行。路由
问题就这样被猜想解决了。部署