注:这篇博文的环境基于上一篇博文中搭建的环境,具体能够参考博文:Docker Swarm群集配置实战 html
在进行接下来的操做以前,必需要保证访问docker Swarm的web UI时,能够看到如下界面:
1、Docker Swarm网络管理node
Swarm群集会产生两种不一样类型的流量:nginx
- 控制和管理层面:包括 Swarm 消息管理等,例如请求加入或离开Swarm,这种类型的流量老是被加密的。(涉及到集群内部的hostname、ip-address、subnet、gateway等);
- 应用数据层面:包括容器与客户端的通讯等。(涉及到防火墙、端口映射、网口映射、VIP等)
.web
在Swarm service中有三个重要的网络概念:docker
- overlay networks 管理Swarm中docker守护进程间的通讯。能够将容器附加到一个或多个已存在的overlay网络上,使容器与容器之间可以通讯;
- ingress network 是一个特殊的 overlay 网络,用于服务节点间的负载均衡。当任何 Swarm 节点在发布的端口上接收到请求时,它将该请求交给一个名为 IPVS 的模块。IPVS 跟踪参与该服务的全部IP地址,选择其中的一个,并经过 ingress 网络将请求路由到它;
- 初始化或加入 Swarm 集群时会自动建立 ingress 网络,大多数状况下,用户不须要自定义配置,可是 docker 17.05 和更高版本容许你自定义。
- docker_gwbridge是一种桥接网络,将 overlay 网络(包括 ingress 网络)链接到一个单独的 Docker 守护进程的物理网络。默认状况下,服务正在运行的每一个容器都链接到本地 Docker 守护进程主机的 docker_gwbridge 网络。
- docker_gwbridge 网络在初始化或加入 Swarm 时自动建立。大多数状况下,用户不须要自定义配置,可是 Docker 容许自定义。
查看docker01上面的默认网络,以下(注意其SCOPE列,确认其生效范围)
除了Swarm群集默认建立的两个网络之外,咱们还能够自定义建立overlay网络,链接到此网络的容器,便可互相通讯,可是须要注意,除了在docker01这个manager上能够查看建立的overlay网络外,其余节点在没有加入此网络前,执行“docker network ls”命令是查看不到的。
建立自定义overlay网络并验证服务器
[root@docker01 ~]# docker network create -d overlay --subnet 192.168.20.0/24 --gateway 192.168.20.1 --attachable my_net1 # 建立一个overlay网络,名字为my_net1; # “--subnet”:指定其网段(能够不指定);“--gateway”:指定其网关(能够不指定); # 可是在docker Swarm群集中建立overlay网络时,必须添加“--attachable”选项,不然,其余节点的容器运行时,没法使用此网络
测试刚刚建立的overlay网络,是否可用,分别在docker0一、docker02上基于建立的overlay网络运行一个容器,而后进行ping测试,确承认以ping通网络
#docker01主机上基于overlay网络建立一个容器: [root@docker01 ~]# docker run -itd --network my_net1 --name test1 busybox #docker02上建立一个 [root@docker02 ~]# docker run -itd --network my_net1 --name test2 busybox
在容器建立后,在docker02主机上,使用test2这个容器去ping容器test1,测试结果以下(因为是自定义网络,因此能够直接ping对端容器的容器名)
能够看到,结果是能够ping通的。
2、Swarm的service管理及版本更新
一、指定某个service运行在同一台docker服务器上
在第一篇的博文中测试过,若是Swarm群集中的manager下发一个service任务,那么,下发的任务将随机分布在群集中的docker服务器之上运行, 若是说,因为须要将本身的生产环境配置的统1、规范一些,某一台docker服务器,我就只运行web服务,另外一台docker主机,我就只运行PHP服务,那么,怎么解决呢?负载均衡
解决方案一ide
[root@docker01 ~]# docker service create --replicas 3 --constraint node.hostname==docker03 --name test nginx #在docker03主机上,基于nginx镜像,运行3个名为test的容器
上述命令的执行后以下所示
能够看到,三个test容器已经指定运行在docker03
解决方案二测试
[root@docker01 ~]# docker node update --label-add mem=max docker02 #以键值对的方式给docker02主机打上标签“mem=max”,等号两边的内容是能够自定义的 [root@docker01 ~]# docker service create --name test01 --replicas 3 --constraint 'node.labels.mem==max' nginx #基于nginx镜像在标签为“mem==max”的主机上运行3个名为test01的服务 [root@docker01 ~]# docker node inspect docker02 # 标签相关的信息,在Spec{ }中 "Spec": { "Labels": { "mem": "max" },
查看web UI界面进行确认
二、更新某个service版本
1)准备要使用的镜像,并基于此镜像运行service
[root@docker01 test]# cat html/index.html 127.0.0.1 [root@docker01 test]# cat Dockerfile #基于nginx容器,将当前目录下的html目录挂载为nginx的网页根目录 FROM nginx ADD html /usr/share/nginx/html #生成一个镜像 [root@docker01 test]# docker build -t 192.168.171.151:5000/testnginx:1.0 . #将新生成的镜像上传至私有仓库 [root@docker01 test]# docker push 192.168.171.151:5000/testnginx:1.0 [root@docker01 test]# docker service create --name newnginx -p 80:80 --replicas 3 192.168.171.151:5000/testnginx:1.0 #基于上传到私有仓库的镜像,运行三个service,并映射到本地80端口 #当上面的命令执行成功后,只要docker主机上运行着那个service,就能够经过它的80端口访问到nginx服务
运行后,web UI界面显示以下
能够看到,每一个节点都运行了那个service,也就是说,访问哪一个节点的80端口,均可以看到同样的页面,以下
在docker01上查看service的详细信息,以下
命令执行的结果(须要注意的是其镜像标签,也就是说注意其是基于哪一个镜像运行的)
2)准备该镜像的2.0版本(模拟在线版本升级)
#准备2.0版本的镜像 [root@docker01 test]# docker tag nginx:latest 192.168.171.151:5000/testnginx:2.0 #上传到私有仓库 [root@docker01 test]# docker push 192.168.171.151:5000/testnginx:2.0 #将newnginx服务的镜像升级到2.0 [root@docker01 test]# docker service update --image 192.168.171.151:5000/testnginx:2.0 newnginx newnginx [root@docker01 test]# docker service ps newnginx
命令执行的结果以下,发现基于1.0镜像运行的newnginx的service状态已经变成了shutdown,而基于2.0运行的service变为了running
此时,若再次访问其web页面,就变为了nginx的默认首页
其web UI界面能够查看到该service的最后一次升级的时间。
3)升级2.0到3.0(升级时,对其进行精细的控制)
#准备3.0 [root@docker01 test]# docker tag nginx:latest 192.168.171.151:5000/testnginx:3.0 #上传 [root@docker01 test]# docker push 192.168.171.151:5000/testnginx:3.0 [root@docker01 test]# docker service update --replicas 6 --image 192.168.171.151:5000/testnginx:3.0 --update-parallelism 3 --update-delay 1m newnginx #上述选项的含义以下: # “--replicas 6”:更新后的service数量为6个(本来是3个) # “ --update-parallelism 2 ”:设置并行更新的副本数。 # “ --update-delay 1m ”:指定滚动更新的时间间隔为1分钟 [root@docker01 test]# docker service ps newnginx
4)版本回滚操做
当咱们升级到新的版本后,发现新版本的镜像有些问题,而不得不返回以前运行的版本,那么能够执行下面的操做
#将newnginx的service回滚到前一个版本 [root@docker01 test]# docker service update --rollback newnginx [root@docker01 test]# docker service ps newnginx
执行回滚命令后,回滚过程以下
回滚成功后,我这里就从原来的3.0变回了2.0,虽然在升级3.0的时候,指定的service数量是6个,可是以前只有3个,因此在执行回滚操做后,service数量也将变回3个
注意:当咱们执行回滚操做的时候,默认是回滚到上一次操做的版本,而且不能够连续回滚。