更多优秀内容请关注:新猿技术生态圈php
# docker的网络是基于linux namespace虚拟化实现的 docker网络是基于什么的? linux网络名称空间
Docker 自己的技术依赖于 Linux 内模式核虚拟化技术的发展。因此 Docker 对 Linux 内核的特性有很强的依赖。 本章主要介绍 Docker 所使用的 Linux 网络技术。
其中 Docker 使用到的与 Linux 网络有关的技术分别有:网络名称空间、Veth、Iptables、网桥、路由。html
为了支持网络协议栈的多个实例,Linux 在网络协议栈中引入了网络名称空间(Network Namespace),这些 独立的协议栈被隔离到不一样的命名空间中。处于不一样的命名空间的网络协议栈是彻底隔离的,彼此之间没法进行 网络通讯,就好像两个“平行宇宙”。经过这种对网络资源的隔离,就能在一个宿主机上虚拟多个不一样的网络环 境,而 Docker 正是利用这种网络名称空间的特性,实现了不一样容器之间的网络隔离。在 Linux 的网络命名空间 内能够有本身独立的 Iptables 来转发、NAT 及 IP 包过滤等功能。 Linux 的网络协议栈是十分复杂的,为了支持独立的协议栈,相关的这些全局变量都必须修改成协议栈私有。 最好的办法就是让这些全局变量成为一个 Net Namespace 变量的成员,而后为了协议栈的函数调用加入一个 Namespace 参数。这就是 Linux 网络名称空间的核心。因此的网络设备都只能属于一个网络名称空间。固然, 一般的物理网络设备只能关联到 root 这个命名空间中。虚拟网络设备则能够被建立并关联到一个给定的命名空 间中,并且能够在这些名称空间之间移动
# 新建一台新机器 [root@docter ~]# ip netns add test01 [root@docter ~]# ip netns add test02 [root@docker1 ~]# ip netns ls #或者 ip netns list test02 test01
引入 Veth 设备对是为了在不一样的网络名称空间之间进行通讯,利用它能够直接将两个网络名称空间链接起来。 因为要链接的两个网络命名空间,因此 Veth 设备是成对出现的,很像一对以太网卡,而且中间有一根直连 的网线。 既然是一对网卡,那么咱们将其中一端称为另外一端的 peer。在 Veth 设备的一端发送数据时,它会将数 据直接发送到另外一端,并触发另外一端的接收操做
先打通tes01与root命名空间的网络mysql
[root@docter ~]# ip link add veth type veth peer name veth001 [root@docter ~]# ip link show 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT group default qlen 1000 link/ether 00:0c:29:49:7a:cc brd ff:ff:ff:ff:ff:ff 3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT group default qlen 1000 link/ether 00:0c:29:49:7a:d6 brd ff:ff:ff:ff:ff:ff 4: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN mode DEFAULT group default link/ether 02:42:88:af:84:ae brd ff:ff:ff:ff:ff:ff 5: veth001@veth: <BROADCAST,MULTICAST,M-DOWN> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether 92:8a:5e:3c:3a:b2 brd ff:ff:ff:ff:ff:ff 6: veth@veth001: <BROADCAST,MULTICAST,M-DOWN> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether c2:72:c6:3e:d1:75 brd ff:ff:ff:ff:ff:ff
将veth设备对一端添加到tes01命名空间内
veth另外一端留给root命名空间linux
[root@docter ~]# ip link set veth001 netns test01 [root@docter ~]# ip link show | grep veth 6: veth@if5: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 # 此时查看不到veth001,进入tes01命名空间后,便可查看到 [root@docter ~]# ip netns exec test01 [root@docter ~]# ip link show #或者 ip a 1: lo: <LOOPBACK> mtu 65536 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 5: veth001@if6: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether 92:8a:5e:3c:3a:b2 brd ff:ff:ff:ff:ff:ff link-netnsid 0 # 由于进入与退出命名空间的主机名是同样的,记得退出到root名称空间 [root@docker1 ~]# exit exit
# 一、分配一个IP [root@docter ~]# ip netns exec test01 ip addr add 172.16.0.111/20 dev veth001 # 二、绑定veth到tes01 [root@docter ~]# ip netns exec test01 ip link set dev veth001 up # 三、查看,绑定+分配成功 [root@docter ~]# ip netns exec test01 ip a 1: lo: <LOOPBACK> mtu 65536 qdisc noop state DOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 5: veth001@if6: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state LOWERLAYERDOWN group default qlen 1000 link/ether 92:8a:5e:3c:3a:b2 brd ff:ff:ff:ff:ff:ff link-netnsid 0 inet 172.16.0.111/20 scope global veth001 valid_lft forever preferred_lft forever
对端为root命名空间nginx
# 一、查看,发现此时无IP [root@docker ~]# ip a ··· 8: veth@if7: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 66:ac:b6:d2:81:d3 brd ff:ff:ff:ff:ff:ff link-netnsid 0 # 二、为其分配IP [root@docter ~]# ip addr add 172.16.0.112/20 dev veth [root@docter ~]# ip link set dev veth down [root@docter ~]# ip link set dev veth up # 三、再次查看发现IP已分配成功 [root@docker ~]# ip a ··· 8: veth@if7: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 66:ac:b6:d2:81:d3 brd ff:ff:ff:ff:ff:ff link-netnsid 0 inet 172.16.0.112/20 scope global veth valid_lft forever preferred_lft forever
# 此时测试双方能够相互ping通! - 宿主机vethip的为172.16.0.112 - tes01内veth的ip为172.16.0.111 1.在宿主机ping test01 [root@docter ~]# ping 172.16.0.111 PING 172.16.0.111 (172.16.0.111) 56(84) bytes of data. 64 bytes from 172.16.0.111: icmp_seq=1 ttl=64 time=0.062 ms 64 bytes from 172.16.0.111: icmp_seq=2 ttl=64 time=0.103 ms ^C --- 172.16.0.111 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 1005ms rtt min/avg/max/mdev = 0.062/0.082/0.103/0.022 ms [root@docter ~]# ping 172.16.0.112 PING 172.16.0.112 (172.16.0.112) 56(84) bytes of data. 64 bytes from 172.16.0.112: icmp_seq=1 ttl=64 time=0.050 ms 64 bytes from 172.16.0.112: icmp_seq=2 ttl=64 time=0.060 ms ^C --- 172.16.0.112 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 1009ms rtt min/avg/max/mdev = 0.050/0.055/0.060/0.005 ms 2.在test01命名空间内ping宿主机 [root@docker ~]# ip netns exec test01 [root@docter ~]# ping 172.16.0.112 PING 172.16.0.112 (172.16.0.112) 56(84) bytes of data. 64 bytes from 172.16.0.112: icmp_seq=1 ttl=64 time=0.129 ms 64 bytes from 172.16.0.112: icmp_seq=2 ttl=64 time=0.456 ms
每run起一个容器,则会在ip a内生成一个veth设备,容器清除后,veth设备则会随之清除web
Linux 能够支持多个不一样的网络,它们之间可以相互通讯,就须要一个网桥。 网桥是二层的虚拟网络设备, 它是把若干个网络接口“链接”起来,从而报文可以互相转发。 网桥可以解析收发的报文,读取目标 MAC 地 址的信息,和本身记录的 MAC 表结合,来决定报文的转发目标网口。 网桥设备 brO 绑定了 eth0、 eth1 。对于网络协议的上层来讲,只看获得 brO 。 由于桥接是在数据链 路层实现的 ,上层不须要关心桥接的细节,因而协议枝上层须要发送的报文被送到 brO ,网桥设备的处理代 码判断报文该被转发到 ethO 仍是 ethl ,或者二者皆转发。反过来,从 ethO 或从 ethl 接收到的报文被提交 给网桥的处理代码,在这里会判断报文应该被转发、丢弃仍是提交到协议上层。 而有时 ethl 也可能会做为 报文的源地址或目的地址 直接参与报文的发送与接收,从而绕过网桥。 # 网桥 ----------> 至关于 交换机
docker network [cmd] # 一、查看网桥 docker network ls # 二、建立网桥 docker network create [网桥名称] # 三、查看网桥信息 docker network inspect [网桥的名称|ID] # 四、链接一个容器 docker network connect [网络名称] [容器名称] # 五、断开一个链接 docker network disconnect [网络名称] [容器名称] [root@docker ~]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES cf263ab4f7c0 nginx "/docker-entrypoint.…" 19 minutes ago Up 19 minutes 80/tcp boring_poincare 60b5ca330f76 nginx "/docker-entrypoint.…" 24 minutes ago Up 24 minutes 80/tcp silly_chatelet [root@docker ~]# docker network cnnect mm boring_poincare #建立 [root@docker ~]# docker network disconnect mm boring_poincare #删除 # 六、删除一个网桥 docker network rm [网桥名称] # 七、清除全部网桥(清除除了默认的三个网桥以外和正在使用的) docker network prune [root@docker ~]# docker network ls NETWORK ID NAME DRIVER SCOPE ca6024e1565b bridge bridge local 78c7eb1884a2 host host local 55fea18f04d0 mm bridge local 442fc1b858a6 none null local 9263d05caf7a ping bridge local [root@docker ~]# docker rm -f 9263d05caf7a Error: No such container: 9263d05caf7a [root@docker ~]# docker network rm 9263d05caf7a 9263d05caf7a
咱们知道, Linux 络协议樵很是高效,同时比较复杂,若是咱们但愿在数据的处理过程当中对关心的数据进行 一些操做该怎么作呢? Linux 提供了一套机制来为用户实现自定义的数据包处理过程。在 Linux 网络协议棋中有一组回调函数挂接点,经过这些挂接点挂接的钩子函数能够在 Linux 网络棋处理数 据包的过程当中对数据包进行一些操做,例如过滤、修改、丢弃等 整个挂接点技术叫做 Netfilter lptables Netfilter 负责在内核中执行各类挂接的规则,运行在内核模式中:而 lptables 是在用户模式下运行的进程,负责协助维护内核中 Netfilter 的各类规则表 经过 者的配合来实现整个 Linux 网络协议战中灵活的数据包处理 机制。
设备 | 做用总结 |
---|---|
network namespace | 主要提供了关于网络资源的隔离,包括网络设备、IPv4 和 IPv6 协议栈、IP 路 由表、防火墙、/proc/net 目录、/sys/class/net 目录、端口(socket)等 |
linux Bridge | 功能至关于物理交换机,为连在其上的设备(容器)转发数据帧。如 docker0 网桥 |
iptables | 主要为容器提供 NAT 以及容器网络安全 |
veth pair | 两个虚拟网卡组成的数据通道。在 Docker 中,用于链接 Docker 容器和 Linux Bridge。一端在容器中做为 eth0 网卡,另外一端在 Linux Bridge 中做为网桥的 一个端口 |
当 Docker 进程启动时,会在主机上建立一个名为 docker0 的虚 拟网桥,此主机上启动的 Docker 容器会链接到这个虚拟网桥上。 虚拟网桥的工做方式和物理交换机相似,这样主机上的全部容器 就经过交换机连在了一个二层网络中。(默认为该模式) Docker 使用 Linux 桥接的方式,在宿主机虚拟一个 Docker 容器网桥(docker0),Docker 启动一个容器时会根据 Docker 网桥的网段分配给容器一个 IP 地址,称为 Container-IP,同时 Docker 网桥是每一个容器的默认网关。 由于在同一宿主机内的容器都接入同一个网桥,这样容器之间就可以经过容器的 Container-IP 直接通讯。 Docker 网桥是宿主机虚拟出来的,并非真实存在的网络设备,外部网络是没法寻址到的,这也意味着外 部网络没法经过直接 Container-IP 访问到容器。若是容器但愿外部访问可以访问到,能够经过映射容器端口到 宿主主机(端口映射),即 docker run 建立容器时候经过 -p 或 -P 参数来启用,访问容器的时候就经过[宿主 机 IP]:[容器端口]访问容器。 # 一、HOST模式 –-network=host 容器和宿主机共享 Network namespace # 二、Container模式 –network=container:ID 容器和另一个容器共享 Network namespace。 kubernetes 中的 pod 就是多个容器共享一个 Network namespace # 三、none模式 –network=none 容器有独立的 Network namespace,但并无对其进行任何网 络设置,如分配 veth pair 和网桥链接,配置 IP 等 # 四、bridge模式 –network=bridge
若是启动容器的时候使用 host 模式,那么这个容器将不会得到一个独立的 Network Namespace,而是和宿主机共用一个 Network Namespace。 容器将不会虚拟出本身的网卡,配置本身的 IP 等,而是使用宿主机的 IP 和端口。可是,容器的其余方面,如文件系统、进程列表等仍是和宿主机隔离的。 使用 host 模式的容器能够直接使用宿主机的 IP 地址与外界通讯,容器内部的服务端口也可使用宿主机的端口,不须要进行 NAT,host 最大的优点就是网络性能比较好,可是 docker host 上已经使用的端口就不能再用了,网络的隔离性很差。
# 运行容器,指定为host模式 [root@docker ~] docker run -d --name my-web --network=host nginx # 查看启动 [root@docker ~] docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES d7b23542ced3 nginx "/docker-entrypoint.…" About a minute ago Up About a minute my-web # 容器与宿主机主机名一致,是由于获得了host解析的缘故,本身要区分好,内部内容不一样 # 容器与宿主机ip a内容也是同样的 [root@docker ~] docker exec -it my-web root@docker:/ ls bin dev docker-entrypoint.sh home lib64 mnt proc run srv tmp var boot docker-entrypoint.d etc lib media opt root sbin sys usr # 经过本机ip+端口可直接访问到容器内部 [root@docker ~] curl 127.0.0.1 <!DOCTYPE html> <html> <head> <title>Welcome to nginx!</title> <style> body { width: 35em; margin: 0 auto; font-family: Tahoma, Verdana, Arial, sans-serif; } </style> </head> <body> <h1>Welcome to nginx!</h1> <p>If you see this page, the nginx web server is successfully installed and working. Further configuration is required.</p> <p>For online documentation and support please refer to <a href="http://nginx.org/">nginx.org</a>.<br/> Commercial support is available at <a href="http://nginx.com/">nginx.com</a>.</p> <p><em>Thank you for using nginx.</em></p> </body> </html> # 若再次启动一个nginx并指定为host模式,则会端口冲突 [root@docter ~]# docker run -d --network=host nginx 316516cf07cebc462c4c2ef6ec2887c207dc4e0e161d6111121ff3957447190b # 启动后速度查看后台会显示启动 [root@docter ~]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES d7f9566b853b nginx "/docker-entrypoint.…" 3 minutes ago Up 3 minutes thirsty_black 7744fbe4a8a8 nginx "/docker-entrypoint.…" 54 minutes ago Up 54 minutes 0.0.0.0:49154->80/tcp, :::49154->80/tcp epic_neumannb # 隔两秒就没有了,端口冲突起不来的缘故 [root@docter ~]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES d7f9566b853b nginx "/docker-entrypoint.…" 3 minutes ago Up 3 minutes thirsty_black # 启动时感受像成功,实际上是在报错误日志,只不过没显示而已 [root@docker ~] docker logs romantic_tereshkova nginx: [emerg] bind() to 0.0.0.0:80 failed (98: Address already in use) 2021/03/28 11:03:36 [emerg] 1#1: bind() to [::]:80 failed (98: Address already in use) ···
一、容器使用宿主主机的网卡,不能跟宿主主机之间的端口冲突。sql
二、四种模式相比之下性能最高。docker
# Container kang teng ne 这个模式指定新建立的容器和已经存在的一个容器共享一个 Network Namespace,而不是和宿主机共享。 新建立的容器不会建立本身的网卡,配置本身的 IP,而是和一个指定的容器共享 IP、端口范围等。 一样,两个容器除了网络方面,其余的如文件系统、进程列表等仍是隔离的,两个容器的进程能够经过 lo 网卡设备通讯。
# container后跟共享容器的名称 [root@docker ~] docker run -it --network=Container:ngixn nginx [root@docter mm]# docker run -it --network="Container:nginx1" nginx #这种也能够 WARNING: IPv4 forwarding is disabled. Networking will not work. root@f95beddd2aa5:/# ip a # 访问nginx测试成功 root@docker:/ curl 127.0.0.1 <!DOCTYPE html> ··· </body> </html>
一、一个容器使用另外一个容器的网卡(网络共享)数据库
二、K8s大量内使用安全
使用 none 模式,Docker 容器拥有本身的 Network Namespace,可是,并不为 Docker 容器进行任何网络 配置。也就是说,这个 Docker 容器没有网卡、IP、路由等信息,须要咱们本身为 Docker 容器添加网卡、配置 IP 等。 这种网络模式下容器只有 lo 回环网络,没有其余网卡。none 模式能够在容器建立时经过–network=none 来指定。这种类型的网络没有办法联网,封闭的网络能很好的保证容器的安全性 适用于保密文件等 不多用,无网络
当Docker进程启动时,会在主机上建立一个名为docker0的虚拟网桥,此主机上启动的Docker容器会链接到这个虚拟网桥上,虚拟网桥的工做方式和物理交换机相似,这样主机上的全部容器就经过交换机连在了一个二层网络中。 从docker0子网中分配一个ip给容器使用,并设置docker0的ip地址为容器的默认网关,在主机上建立一对虚拟网卡veth pair设备,Docker将veth pair设备的一段放在新建立的容器中,并命名为eth0(容器的网卡),另外一端放在主机中,以vethxxx这样相似的名字命名,并将这个网络设备加入到docker0网桥中,能够经过brctl show命令查看。 bridge 模式是docker的默认网络模式,无需写 --net 参数,使用docker run -p时,docker实际是在iptables作了DNAT规则,实现端口转发功能,可使用iptables -t nat -vnL 查看。
运行容器默认不指定,即为bridge模式
若建立网桥如lnmp,运行容器时指定为lnmp,即为bridge模式
1.建立一个网桥(至关于自定义名称,默认模式bridge),其他三个模式无须建立,可直接指定 [root@docter ~]# docker network create mm 7ed1e078ef5e54719bbc1032e2bc1c2caefcb90c4b0283525aa1a926ed61d6f1 [root@docter ~]# docker network ls NETWORK ID NAME DRIVER SCOPE aea495e49e87 bridge bridge local b0a268c1d902 host host local 7ed1e078ef5e mm bridge local 0d214ca04d47 none null local 2.指定网络模式运行一个容器 [root@docter ~]# docker run -d --network=mm nginx WARNING: IPv4 forwarding is disabled. Networking will not work. 86c72202856aef70431bacff36f13d3a96085b309bd6ed18c2774dae80cd5471 -- name # 加入DNS解析 [root@docter ~]# docker run -d --network=mm --name nginx11 nginx #执行这条命令就行,下面无需执行 WARNING: IPv4 forwarding is disabled. Networking will not work. b600d3d9cae3c8fbef58b68e71c6006940b078d1af624b19d1a4c229c7855eec [root@docter ~]# docker run -d --network=mm --name nginx2 nginx WARNING: IPv4 forwarding is disabled. Networking will not work. 2413cee15626b9f2a5b0a14a410fc95f676ba448d07df766578904c62eb81ebb [root@docter ~]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 2413cee15626 nginx "/docker-entrypoint.…" 4 seconds ago Up 4 seconds 80/tcp nginx2 b600d3d9cae3 nginx "/docker-entrypoint.…" 8 seconds ago Up 7 seconds 80/tcp nginx11 86c72202856a nginx "/docker-entrypoint.…" About a minute ago Up About a minute 80/tcp sharp_villani d31deaf4037b nginx "/docker-entrypoint.…" 4 minutes ago Up 4 minutes 80/tcp nginx1 # 测试访问 [root@docter ~]# docker run -it --network=mm nginx WARNING: IPv4 forwarding is disabled. Networking will not work. root@ce0acd026af7:/# curl nginx11 #测试成功 root@ce0acd026af7:/# curl nginx2 #测试成功 root@ce0acd026af7:/# curl nginx33 #测试失败,由于没有建立 <!DOCTYPE html> <html> <head> ... </body> </html> # 查看:为bridge模式 [root@docker ~]# docker inspect nginx ··· "Networks": { "bridge": { "IPAMConfig": null, "Links": null, ··· 3.不指定网络模式运行一个容器 [root@docker ~] docker run -d --name mysql mysql:5.7 b4cbedd83f1325cd778f0d29b9ee25fd1949a5276166d7980a94a31444132c3a # 查看:依然默认是bridge模式 [root@docker ~] docker inspect mysql ··· "Networks": { "bridge": { "IPAMConfig": null,
# 一、上传wordpress包 # 二、建立同一个网桥 # 三、建立mysql # 四、建立php # 五、nginx # 六、访问测试
# 一、建立wordpress目录 [root@docter ~]# mkdir wordpress [root@docter ~]# cd wordpress/ # 二、上传wordpress包并解压 [root@docter wordpress]# wget http://www.mmin.xyz:82/package/blog/wordpress.tar.gz [root@docter wordpress]# tar xf wordpress.tar.gz [root@docter wordpress]# mv wordpress/* .
# 一、建立lnmp网桥 [root@docter ~]# docker network create lnmp # 二、查看网桥 [root@docter ~]# docker network ls NETWORK ID NAME DRIVER SCOPE 2d59906f6edf bridge bridge local 73d1ff777f89 host host local 69dd9d048731 lnmp bridge local cba43c9111fe none null local
# 一、拉取mysql镜像 [root@docter ~]# docker pull registry.cn-shanghai.aliyuncs.com/op_devops/mysql:wp-mysql-v1 # 二、启动mysql容器 [root@docter ~]# docker run -d -e MYSQL_ROOT_PASSWORD=123 --name mysql --network lnmp registry.cn-shanghai.aliyuncs.com/op_devops/mysql:wp-mysql-v1 # 三、查看mysql容器 [root@docter ~]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES abb32b3a0da7 registry.cn-shanghai.aliyuncs.com/op_devops/mysql:wp-mysql-v1 "docker-entrypoint.s…" 35 seconds ago Up 35 seconds 3306/tcp, 33060/tcp mysql
# 一、拉取php镜像 [root@docter ~]# docker pull registry.cn-shanghai.aliyuncs.com/op_devops/php:wp-php-v1 # 二、启动php容器 [root@docter wordpress]# docker run -d -v /root/wordpress/:/usr/share/nginx/html --network lnmp --name php registry.cn-shanghai.aliyuncs.com/op_devops/php:wp-php-v1 # 三、查看php容器 [root@docter ~]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES b40ea7b4a285 registry.cn-shanghai.aliyuncs.com/op_devops/php:wp-php-v1 "php-fpm -F" 12 seconds ago Up 10 seconds 9000/tcp php abb32b3a0da7 registry.cn-shanghai.aliyuncs.com/op_devops/mysql:wp-mysql-v1 "docker-entrypoint.s…" 11 minutes ago Up 11 minutes 3306/tcp, 33060/tcp mysql
# 一、拉取nginx镜像 [root@docter wordpress]# docker pull registry.cn-shanghai.aliyuncs.com/op_devops/nginx:wp-nginx-v1 # 二、启动nginx容器 [root@docter wordpress]# docker run -d -v /root/wordpress/:/usr/share/nginx/html --network lnmp --name nginx -p 80:80 registry.cn-shanghai.aliyuncs.com/op_devops/nginx:wp-nginx-v1 # 三、查看nginx容器 [root@docter wordpress]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 11c83e65f917 registry.cn-shanghai.aliyuncs.com/op_devops/nginx:wp-nginx-v1 "/bin/sh -c 'nginx -…" 15 seconds ago Up 14 seconds 0.0.0.0:80->80/tcp, :::80->80/tcp, 443/tcp nginx b40ea7b4a285 registry.cn-shanghai.aliyuncs.com/op_devops/php:wp-php-v1 "php-fpm -F" 8 minutes ago Up 8 minutes 9000/tcp php abb32b3a0da7 registry.cn-shanghai.aliyuncs.com/op_devops/mysql:wp-mysql-v1 "docker-entrypoint.s…" 19 minutes ago Up 19 minutes 3306/tcp, 33060/tcp mysql
# 一、查看全部容器 [root@docter wordpress]# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 11c83e65f917 registry.cn-shanghai.aliyuncs.com/op_devops/nginx:wp-nginx-v1 "/bin/sh -c 'nginx -…" About a minute ago Up About a minute 0.0.0.0:80->80/tcp, :::80->80/tcp, 443/tcp nginx b40ea7b4a285 registry.cn-shanghai.aliyuncs.com/op_devops/php:wp-php-v1 "php-fpm -F" 9 minutes ago Up 9 minutes 9000/tcp php abb32b3a0da7 registry.cn-shanghai.aliyuncs.com/op_devops/mysql:wp-mysql-v1 "docker-entrypoint.s…" 21 minutes ago Up 21 minutes 3306/tcp, 33060/tcp mysql # 二、进入数据库容器建立wordpress [root@docter wordpress]# docker exec -it mysql root@abb32b3a0da7:/# mysql -uroot -p123 mysql> create database wordpress; Query OK, 1 row affected (0.00 sec) # 三、Ip访问 192.168.15.30 依次按步骤访问 # 四、wordpress显示页面
# 官网 https://documentation.portainer.io/v2.0/deploy/ceinstalldocker/
# 一、建立Portainer [root@docter ~]# docker volume create portainer_data portainer_data # 二、服务端 [root@docter ~]# docker run -d -p 8000:8000 -p 9000:9000 --name=portainer --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v portainer_data:/data portainer/portainer-ce # 三、Docker 主机中部署代理。 [root@docter ~]# docker run -d -p 9001:9001 --name portainer_agent --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v /var/lib/docker/volumes:/var/lib/docker/volumes portainer/agent # 四、访问 http://192.168.15.30:9000/
更多优秀内容请关注:新猿技术生态圈