以前笔者写了有些关于dokcer的各类相关技术的文章,惟独Docker网络这一块没有具体的来分享。后期笔者会陆续更新Docker集群以及Docker高级实践的文章,因此在此以前必需要和你们一块儿来解读一下Docker网络原理。前端
就比如中国武术同样:学招数,会的只是一时的方法;练内功,才是受益终生长久之计。认真看下去你会有收获的,咱们一块儿来把docker的内功修练好。node
在深刻Docker内部的网络原理以前,咱们先从一个用户的角度来直观感觉一下Docker的网络架构和基本操做是怎么样的。linux
Docker在1.9版本中(如今都1.17了)引入了一整套docker network子命令和跨主机网络支持。这容许用户能够根据他们应用的拓扑结构建立虚拟网络并将容器接入其所对应的网络。git
其实,早在Docker1.7版本中,网络部分代码就已经被抽离并单独成为了Docker的网络库,即libnetwork。在此以后,容器的网络模式也被抽像变成了统一接口的驱动。github
为了标准化网络的驱动开发步骤和支持多种网络驱动,Docker公司在libnetwork中使用了CNM(Container Network Model)。CNM定义了构建容器虚拟化网络的模型。同时还提供了能够用于开发多种网络驱动的标准化接口和组件。web
libnetwork和Docker daemon及各个网络驱动的关系能够经过下面的图进行形象的表示。docker
如上图所示,Docker daemon经过调用libnetwork对外提供的API完成网络的建立和管理等功能。libnetwrok中则使用了CNM来完成网络功能的提供。而CNM中主要有沙盒(sandbox)、端点(endpoint)、网络(network)这3种组件。shell
libnetwork中内置的5种驱动则为libnetwork提供了不一样类型的网络服务。接下来分别对CNM中的3个核心组件和libnetwork5种内置驱动进行介绍。ubuntu
一、沙盒(sandbox)
一个沙盒也包含了一个容器网络栈的信息。沙盒能够对容器的接口、路由和DNS设置等进行管理。沙盒的实现能够是Linux netwrok namespace、FreeBSD jail或者相似的机制。一个沙盒能够有多个端点和多个网络。后端
二、端点(endpoint)
一个端点能够加入一个沙盒和一个网络。端点的实现能够是veth pair、Open vSwitch内部端口或者类似的设备。一个端点只能够属于一个网络而且只属于一个沙盒。
三、网络(network)
一个网络是一组能够直接互相联通的端点。网络的实现能够是Linux bridge、VLAN等。一个网络能够包含多个端点
libnetwork共有5种内置驱动:bridge驱动、host驱动、overlay驱动、remote驱动、null驱动。
一、bridge驱动
此驱动为Docker的默认设置驱动,使用这个驱动的时候,libnetwork将建立出来的Docker容器链接到Docker网桥上。做为最常规的模式,bridge模式已经能够知足Docker容器最基本的使用需求了。然而其与外界通讯使用NAT,增长了通讯的复杂性,在复杂场景下使用会有诸多限制。
二、host驱动
使用这种驱动的时候,libnetwork将不为Docker容器建立网络协议栈,即不会建立独立的network namespace。Docker容器中的进程处于宿主机的网络环境中,至关于Docker容器和宿主机共同用一个network namespace,使用宿主机的网卡、IP和端口等信息。
可是,容器其余方面,如文件系统、进程列表等仍是和宿主机隔离的。host模式很好地解决了容器与外界通讯的地址转换问题,能够直接使用宿主机的IP进行通讯,不存在虚拟化网络带来的额外性能负担。可是host驱动也下降了容器与容器之间、容器与宿主机之间网络层面的隔离性,引发网络资源的竞争与冲突。
所以能够认为host驱动适用于对于容器集群规模不大的场景。
三、overlay驱动
此驱动采用IETE标准的VXLAN方式,而且是VXLAN中被广泛认为最适合大规模的云计算虚拟化环境的SDN controller模式。在使用过程当中,须要一个额外的配置存储服务,例如Consul、etcd和zookeeper。还须要在启动Docker daemon的时候额外添加参数来指定所使用的配置存储服务地址。
四、remote驱动
这个驱动实际上并未作真正的网络服务实现,而是调用了用户自行实现的网络驱动插件,使libnetwork实现了驱动的可插件化,更好地知足了用户的多种需求。用户只须要根据libnetwork提供的协议标准,实现其所要求的各个接口并向Docker daemon进行注册。
五、null驱动
使用这种驱动的时候,Docker容器拥有本身的network namespace,可是并不为Docker容器进行任何网络配置。也就是说,这个Docker容器除了network namespace自带的loopback网卡名,没有其余任何网卡、IP、路由等信息,须要用户为Docker容器添加网卡、配置IP等。
这种模式若是不进行特定的配置是没法正常使用的,可是优势也很是明显,它给了用户最大的自由度来自定义容器的网络环境。
咱们初步了解了libnetwork中各个组件和驱动后,为了能深刻的理解libnetwork中的CNM模型和熟悉docker network子命令的使用,咱们来经过libnetwork官方github上的示例进行验证一下,以下图所示:
在上图示例中,使用Docker 默认的bridge驱动进行演示。在此例中,会在Docker上组成一个网络拓扑的应用:
一、经过如下命令分别建立名为backend、frontend两个网络:
# docker network create backend # docker network create frontend
二、使用docker network ls 能够查看这台主机上的全部Docker网络:
# docker network ls NETWORK ID NAME DRIVER SCOPE 879f8d1788ba backend bridge local 6c16e2b4122d bridge bridge local d150ba23bdc0 frontend bridge local 1090f32081e8 host host local 7bf28f042f6c none null local
除了刚才建立的backend和frontend以外,还有3个网络。这3个网络是Docker daemon默认建立的,分别使用了3种不一样的驱动,而这3种驱动则对应了Docker原来的3种网络模式。须要注意的是,3种内置的默认网络是没法使用docker network rm进行删除的,不信大家试一下。
三、接下来建立3个容器,并使用下面的命令将名为c1和c2的容器加入到backend网络中,将名为c3的容器加入到frontend网络中:
# docker run -itd --name c1 --net backend busybox # docker run -itd --name c2 --net backend busybox # docker run -itd --name c3 --net frontend busybox
而后,分别进入c1和c3容器使用ping命令测试其与c2的连通性,由于c1和c2都在backend网络中,因此二者能够连通。可是,由于c3和c2不在一个网络中,因此两个容器之间不能连通:
#进入c1容器ping c2通、ping c3不通。其它两个容器就不进入演示了,你们本身能够试一下: # docker exec -it c1 sh # ping c2 PING c2 (172.19.0.3): 56 data bytes 64 bytes from 172.19.0.3: seq=0 ttl=64 time=0.065 ms 64 bytes from 172.19.0.3: seq=1 ttl=64 time=0.050 ms # ping c3 ping: bad address 'c3'
而且,能够进入c2容器中使用命令ifconfig来查看此容器中的网卡及配置状况。能够看到,容器中只有一块以太网卡,其名称为eth0,而且配置了和网桥backend同在一个IP段的IP地址,这个网卡就是CNM模型中的端点:
四、最后,使用以下命令将c2容器加入到frontend网络中:
# docker network connect frontend c2
再次,在c2容器中使用命令ifconfig来查看此容器中的网卡及配置状况。发现多了一块名为eth1的以太网卡,而且其IP和网桥frontend同在一个IP段。测试c2与c3的连通性后,能够发现二者已经连通。
能够看出,docker network connect命令会在所链接的容器中建立新的网卡,以完成其与所指定网络的链接。
前面咱们演示了bridge驱动下的CNM使用方式,下面来分析一下bridge驱动的实现机制又是怎样的。
# route -n Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface ... 172.17.0.0 0.0.0.0 255.255.0.0 U 0 0 0 docker0 ...
此条路由表示全部目的IP地址为172.17.0.0/16的数据包从docker0网卡转发。
而后使用docker run命令建立一个执行shell(/bin/bash)的Docker容器,假设容器名称为con1。
在con1容器中能够看到它有两个网卡lo和eth0。lo设备没必要多说,是容器的回环网卡;eth0即为容器与外界通讯的网卡,eth0的ip 为 172.17.0.2/16,和宿主机上的网桥docker0在同一个网段。
查看con1的路由表,能够发现con1的默认网关正是宿主机的docker0网卡,经过测试, con1能够顺利访问外网和宿主机网络,所以代表con1的eth0网卡与宿主机的docker0网卡是相互连通的。
这时在来查看(ifconfig)宿主机的网络设备,会发现有一块以“veth”开头的网卡,如veth60b16bd,咱们能够大胆猜想这块网卡确定是veth设备了,而veth pair老是成对出现的。veth pair一般用来链接两个network namespace,那么另外一个应该是Docker容器con1中的eth0了。以前已经判断con1容器的eth0和宿主机的docker0是相连的,那么veth60b16bd也应该是与docker0相连的,不难想到,docker0就不仅是一个简单的网卡设备了,而是一个网桥。
真实状况正是如此,下图即为Docker默认网络模式(bridge模式)下的网络环境拓扑图,建立了docker0网桥,并以eth pair链接各容器的网络,容器中的数据经过docker0网桥转发到eth0网卡上。
这里的网桥概念等同于交换机,为连在其上的设备转发数据帧。网桥上的veth网卡设备至关于交换机上的端口,能够将多个容器或虚拟机链接在上面,这些端口工做在二层,因此是不须要配置IP信息的。图中docker0网桥就为连在其上的容器转发数据帧,使得同一台宿主机上的Docker容器之间能够相互通讯。
你们应该注意到docker0既然是二层设备,它上面怎么设置了IP呢?docker0是普通的linux网桥,它是能够在上面配置IP的,能够认为其内部有一个能够用于配置IP信息的网卡接口(如同每个Open vSwitch网桥都有一个同名的内部接口同样)。在Docker的桥接网络模式中,docker0的IP地址做为连于之上的容器的默认网关地址存在。
在Linux中,可使用brctl命令查看和管理网桥(须要安装bridge-utils软件包),好比查看本机上的Linux网桥以及其上的端口:
# brctl show bridge name bridge id STP enabled interfaces docker0 8000.02420b69b449 no veth1b11267
更多关于brctl命令的功能和用法,你们经过man brctl或brctl --help查阅。
docker0网桥是在Docker daemon启动时自动建立的,其IP默认为172.17.0.1/16,以后建立的Docker容器都会在docker0子网的范围内选取一个未占用的IP使用,并链接到docker0网桥上。
除了使用docker0网桥外,还可使用本身建立的网桥,好比建立一个名为br0的网桥,配置IP:
# brctl addbr br0 # ifconfig br0 18.18.0.1
-A POSTROUTING -s 172.17.0.0/16 ! -o docker0 -j MASQUERADE
参数说明:
-s :源地址172.17.0.0/16
-o:指定数据报文流出接口为docker0
-j :动做为MASQUERADE(地址假装)
上面这条规则关系着Docker容器和外界的通讯,含义是:将源地址为172.17.0.0/16的数据包(即Docker容器发出的数据),当不是从docker0网卡发出时作SNAT。这样一来,从Docker容器访问外网的流量,在外部看来就是从宿主机上发出的,外部感受不到Docker容器的存在。
那么,外界想到访问Docker容器的服务时该怎么办呢?咱们启动一个简单的web服务容器,观察iptables规则有何变化。
一、首先启动一个 tomcat容器,将其8080端口映射到宿主机上的8080端口上:
#docker run -itd --name tomcat01 -p 8080:8080 tomcat:latest
二、而后查看iptabels规则,省略部分无用信息:
#iptables-save *nat -A POSTROUTING -s 172.17.0.4/32 -d 172.17.0.4/32 -p tcp -m tcp --dport 8080 -j MASQUERADE ... *filter -A DOCKER -d 172.17.0.4/32 ! -i docker0 -o docker0 -p tcp -m tcp --dport 8080 -j ACCEPT
能够看到,在nat、filter的Docker链中分别增长了一条规则,这两条规则将访问宿主机8080端口的流量转发到了172.17.0.4的8080端口上(真正提供服务的Docker容器IP和端口),因此外界访问Docker容器是经过iptables作DNAT(目的地址转换)实现的。
此外,Docker的forward规则默认容许全部的外部IP访问容器,能够经过在filter的DOCKER链上添加规则来对外部的IP访问作出限制,好比只容许源IP192.168.0.0/16的数据包访问容器,须要添加以下规则:
iptables -I DOCKER -i docker0 ! -s 192.168.0.0/16 -j DROP
不只仅是与外界间通讯,Docker容器之间互个通讯也受到iptables规则限制。同一台宿主机上的Docker容器默认都连在docker0网桥上,它们属于一个子网,这是知足相互通讯的第一步。同时,Docker daemon会在filter的FORWARD链中增长一条ACCEPT的规则(--icc=true):
-A FORWARD -i docker0 -o docker0 -j ACCEPT
这是知足相互通讯的第二步。当Docker datemon启动参数--icc(icc参数表示是否容许容器间相互通讯)设置为false时,以上规则会被设置为DROP,Docker容器间的相互通讯就被禁止,这种状况下,想让两个容器通讯就须要在docker run时使用 --link选项。
在Docker容器和外界通讯的过程当中,还涉及了数据包在多个网卡间的转发(如从docker0网卡转发到宿主机ens160网卡),这须要内核将ip-forward功能打开,即将ip_forward系统参数设1。Docker daemon启动的时候默认会将其设为1(--ip-forward=true),也能够经过命令手动设置:
# echo 1 > /proc/sys/net/ipv4/ip_forward # cat /proc/sys/net/ipv4/ip_forward 1
# docker exec -it tomcat01 bash root@3d95d30c69d3:/usr/local/tomcat# mount ... /dev/mapper/centos-root on /etc/resolv.conf type xfs (rw,relatime,attr2,inode64,noquota) /dev/mapper/centos-root on /etc/hostname type xfs (rw,relatime,attr2,inode64,noquota) /dev/mapper/centos-root on /etc/hosts type xfs (rw,relatime,attr2,inode64,noquota) ...
这样能解决主机名的问题,同时也能让DNS及时更新(改变resolv.conf)。因为这些文件的维护方法随着Docker版本演进而不断变化,所以尽可能不修改这些文件,而是经过Docker提供的参数进行相关设置,配置方式以下:
注意:对以上3个文件的修改不会被docker commit保存,也就是不会保存在镜像中,重启容器也会致使修改失效。另外,在不稳定的网络环境下使用须要特别注意DNS的设置。
至此,Docker的网络先介绍到这里,内容有点多,看到这里的朋友确实颇有耐心,可是我相信应该对docker网络也有了全新的理解。下次笔者在和你们一块儿来讨论下docker高级网络的一些功能。
喜欢个人文章,请点击最上方右角处的《关注》支持一下!