所谓容器能看见的“网络栈”,被隔离在本身的Network Namespace当中linux
须要一种叫Veth Pair的虚拟设备。当Veth Pair被建立出来后,老是以两张虚拟网卡(Veth Peer)的形式成对出现 ,并且从其中一个网卡出的数据包,能够直接出如今它对应的另外一张网卡上,即便两张卡在不一样的Network Namespace里
这就使Veth Pair经常被用做链接不一样的Network Namspace的网线nginx
下面将在宿主机启动两个容器,分别是nginx-1和nginx-2演示,nginx-1容器访问nginx-2是如何通讯的docker
docker run -d --name=nginx-1 nginx
root@d5bfaab9222e:/# ifconfig eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500 inet 172.18.0.2 netmask 255.255.0.0 broadcast 172.18.255.255 ether 02:42:ac:12:00:02 txqueuelen 0 (Ethernet) RX packets 3520 bytes 8701343 (8.2 MiB) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 3010 bytes 210777 (205.8 KiB) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0 lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536 inet 127.0.0.1 netmask 255.0.0.0 loop txqueuelen 1000 (Local Loopback) RX packets 0 bytes 0 (0.0 B) RX errors 0 dropped 0 overruns 0 frame 0 TX packets 0 bytes 0 (0.0 B) TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
eth0的网卡,是Veth Pari设备的其中一端ubuntu
root@d5bfaab9222e:/# route Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface default 172.18.0.1 0.0.0.0 UG 0 0 0 eth0 172.18.0.0 0.0.0.0 255.255.0.0 U 0 0 0 eth0
全部172.18.0.0/16网段的请求,都交给eth0处理,这是Veth Pair设备的一端,另外一端在宿主机上网络
经过brctl show查看oop
root@VM-0-8-ubuntu:/home/ubuntu# brctl show bridge name bridge id STP enabled interfaces docker0 8000.0242c635ddb8 no veth4d1c130
能够看到,docker0上插入上veth4d1c130网卡性能
docker run -d --name=nginx-2 nginx
root@VM-0-8-ubuntu:/home/ubuntu# brctl show bridge name bridge id STP enabled interfaces docker0 8000.0242c635ddb8 no veth4d1c130 vetha9356e9
能够看到,docker0插上了两张网卡veth4d1c130、 vetha9356e9学习
此时,当容器nginx-1(172.18.0.2)ping容器nginx-2(172.18.0.3)的时候,就会发现两个容器是能够连通的spa
被限制在Network Namespace的容器进程,是经过Veth Pair设备+宿主机网桥的方式,实现跟其它容器的数据交换3d
172.18.0.0 0.0.0.0 255.255.0.0 U 0 0 0 eth0
凡是匹配这条规则 的IP包,应该通过本机的eth0网卡,经过二层网络发往目的主机
nginx-1容器须要经过eth0网卡发送一个ARP广播,经过IP来查看对应的MAC地址
这个eth0网卡,是一个Veth Pair,它的一端在nginx-1容器的Network Namespace,另外一端位于宿主机上(Host Namespace),而且插入在了宿主机的docker0网桥上
一旦虚假网卡(veth4d1c130)被插在网桥(docker0)上,调用网络的数据包会被转发给对应的网桥,因此ARC请求会被发给docker0
docker0会继续扮演二层交换机的角色,根据数据包的上的MAC地址(nginx-2的MAC地址),在它的CAM表里查对应的端口,会找到vetha9356e9,而后将数据包发往这个端口,这样数据包就到了nginx-2容器的Network Namespace里
nginx-2看到它本身的eth0网卡上出现了流入的数据包,而后对请求进行处理,再返回响应给nginx-1
能够打开iptables的TRACE功能查看数据包的传输过程,经过tail -f /var/log/syslog
# iptables -t raw -A OUTPUT -p icmp -j TRACE # iptables -t raw -A PREROUTING -p icmp -j TRACE
原理图以下