Docker网络基础

1、 网络命名空间

为了支持网络协议栈的多个实例,Linux在网络栈中引入了网络命名空间,这些独立的协议栈被隔离到不一样的命名空间中。docker

  • 好处:经过对网络资源的隔离,就能在一个宿主机上虚拟多个不一样的网络环境。而且,在Linux的网络命名空间中能够有本身独立的路由表及独立的iptables设置来提供包转发、NAT及IP包过滤等功能。
  • 难处:为了隔离出独立的协议栈,须要归入命名空间的元素有进程、套接字、网络设备等。
  • 方法:Linux的网络协议栈是十分复杂的,为了支持独立的协议栈,相关的这些全局变量都必须被修改成协议栈私有。最好的办法就是让这些全局变量称为一个Net Namespaces变量的成员,而后为协议栈的函数调用加入一个Namespaces参数。这就是Linux实现网络命名空间的核心。

命令:shell

  1. 建立一个命名空间:
ip netns add <name>
  1. 在命名空间中执行命令:
ip netns exec <name> <command>
  1. 经过bash命令进入内部的shell界面:
ip netns exec <name> bash
  1. 退出到外面的命名空间时,请输入exit

因为一个设备只能属于一个命名空间,因此转移后在这个命名空间中就看不到这个设备了。具体哪些设备能被转移到不一样的命名空间呢?在设备里面有个重要的属性:NETIF_F_ETNS_LOCAL,若是这个属性为on,就不能转移到其余命名空间中。而不少其余设备如lo设备、vxlan设备、ppp设备、bridge设备等都是不可转移的。将没法转移的设备移动到别的命名空间时,会获得无效参数的错误提示。bash

命令:网络

  1. 转移设备至命名空间:
ip link set <device> netns <namespace>
  1. 查看设备是否能够转移:
ethtool -k <device>

操做函数

# ip netns add netns1
# ip netns show
netns1
# ip netns exec netns1 ip link show
1: lo: <LOOPBACK> mtu 65536 qdisc noop state DOWN group default
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
# ip netns exec netns1 bash
# ip link show
1: lo: <LOOPBACK> mtu 65536 qdisc noop state DOWN group default
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
# exit
exit
# ip link set br0 netns netns1
RTNETLINK answers: Invalid argument
# ethtool -k br0
netns-local: on [fixed]
# ip netns del netns1

因为网络命名空间表明的是一个独立的协议栈,因此它们之间是相互隔离的,彼此没法通讯,在协议栈内部都看不到对方。为了打破这种限制,让处于不一样命名空间的网络相互通讯,甚至和外部的网络进行通讯,咱们应用“Veth设备对”便可达到。oop

2、Veth设备对

Veth设备对的一个重要做用就是打通相互看不到的协议栈之间的壁垒,它就像一条管子,一端连着这个网络命名空间的协议栈,一端连着另外一个网络命名空间的协议栈。
因为要链接两个网络命名空间,因此Veth设备都是成对出现的,就像是一对以太网卡,而且中间有一根直连的网线。既然是一对网卡,那么咱们将其中一端称为另外一端的peer。在Veth设备的一端发送数据时,它会将数据直接发送到另外一端,并触发另外一端的接收操做。学习

命令:
建立Veth设备对:spa

ip link add <veth0> type veth peer name <veth1>
  • 生成的两个设备中,一个是veth0,它的peer是veth1

操做:.net

# ip netns add netns1
# ip link add veth0 type veth peer name veth1
# ip link show
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: br0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default
    link/ether f8:b1:56:d8:da:0a brd ff:ff:ff:ff:ff:ff
3: docker0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default
    link/ether 02:42:82:ad:fa:6c brd ff:ff:ff:ff:ff:ff
14: veth1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000
    link/ether 7a:f0:93:10:6f:69 brd ff:ff:ff:ff:ff:ff
15: veth0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000
    link/ether 9e:dd:2b:54:78:31 brd ff:ff:ff:ff:ff:ff
# ip link set veth1 netns netns1
# ip link show
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
2: br0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default
    link/ether f8:b1:56:d8:da:0a brd ff:ff:ff:ff:ff:ff
3: docker0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default
    link/ether 02:42:82:ad:fa:6c brd ff:ff:ff:ff:ff:ff
15: veth0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000
    link/ether 9e:dd:2b:54:78:31 brd ff:ff:ff:ff:ff:ff
# ip netns exec netns1 ip link show
1: lo: <LOOPBACK> mtu 65536 qdisc noop state DOWN mode DEFAULT group default
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
14: veth1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000
    link/ether 7a:f0:93:10:6f:69 brd ff:ff:ff:ff:ff:ff
# ip netns exec netns1 ip addr add 10.1.1.2/24 dev veth1
# ip addr add 10.1.1.3/24 dev veth0
# ip link set dev veth0 up
# ping 10.1.1.2
PING 10.1.1.2 (10.1.1.2) 56(84) bytes of data.
64 bytes from 10.1.1.2: icmp_seq=1 ttl=64 time=0.064 ms
64 bytes from 10.1.1.2: icmp_seq=2 ttl=64 time=0.045 ms
^C
--- 10.1.1.2 ping statistics ---
9 packets transmitted, 9 received, 0% packet loss, time 7999ms
rtt min/avg/max/mdev = 0.032/0.042/0.064/0.012 ms
# ip netns exec netns1 ping 10.1.1.3
PING 10.1.1.3 (10.1.1.3) 56(84) bytes of data.
64 bytes from 10.1.1.3: icmp_seq=1 ttl=64 time=0.074 ms
64 bytes from 10.1.1.3: icmp_seq=2 ttl=64 time=0.038 ms
^C
--- 10.1.1.3 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 999ms
rtt min/avg/max/mdev = 0.038/0.056/0.074/0.018 ms

Veth设备对如何查看对端:code

# ethtool -S veth0
NIC statistics:
     peer_ifindex: 14
# ip netns exec netns1 ip link | grep 14
14: veth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT group default qlen 1000

3、网桥

Linux能够支持多个不一样的网络,它们之间可以相互通讯,如何将这些网络链接起来并实现各网络中主机的相互通讯呢?能够用“网桥”。 网桥是一个二层的虚拟网络设备,把若干个网络接口“链接”起来,以使得网络接口之间的报文可以相互转发。网桥可以解析收发的报文,读取目标MAC地址的信息,和本身记录的MAC表结合,来决策报文的转发目标网络接口。为了实现这些功能,网桥会学习源MAC地址(二层网桥转发的依据就是MAC地址)。在转发报文时,网桥只须要向特定的网口进行转发,来避免没必要要的网络交互。若是它遇到一个本身从未学习到的地址,就没法知道这个报文应该向哪一个网络接口转发,就将报文广播给全部的网络接口(报文来源的网络接口除外)
在Linux的内部网络栈里实现的网桥设备,做用和上面的描述相同。过去Linux主机通常都只有一个网卡,如今多网卡的及其愈来愈多,并且又不少虚拟的设备存在,因此Linux的网桥提供了在这些设备之间相互转发数据的二层设备。
Linux内核是经过一个虚拟的网桥设备(Net Device)来实现桥接的。这个虚拟设备能够绑定若干个以太网接口设备,从而将它们桥接起来。这种Net Device网桥和普通的设备不一样,最明显的一个特征是它还能够有一个IP地址。
命令:

  1. 新增一个网桥设备:
brctl addbr <br_name>
  1. 为网桥增长网口:
brctl addbr <br_name> <eth_name>
  1. 网桥的物理网卡做为一个网口,因为在链路层工做,就再也不须要IP地址了,这样上面的IP地址天然失效:
ifconfig <eth_name> 0.0.0.0
  1. 配置网桥IP地址:
ifconfig <eth_name> <ip_address>

这样网桥就有一个IP地址,而链接到上面的网卡就是一个纯链路层设备了。

操做:

# brctl addbr bridge
# brctl addif veth0
# brctl show
bridge name     bridge id               STP enabled     interfaces
bridge          8000.9edd2b547831       no              veth0
docker0         8000.02425e4d0ba8       no              vethb8777d1
# ifconfig veth0 0.0.0.0
# ifconfig bridge 10.1.1.1/16
# ip addr show bridge
16: bridge: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default
    link/ether 9e:dd:2b:54:78:31 brd ff:ff:ff:ff:ff:ff
    inet 10.1.1.1/16 brd 10.1.255.255 scope global bridge
       valid_lft forever preferred_lft forever
    inet6 fe80::9cdd:2bff:fe54:7831/64 scope link
       valid_lft forever preferred_lft forever
# ping 10.1.1.2
PING 10.1.1.2 (10.1.1.2) 56(84) bytes of data.
64 bytes from 10.1.1.2: icmp_seq=1 ttl=64 time=0.064 ms
64 bytes from 10.1.1.2: icmp_seq=2 ttl=64 time=0.040 ms
^C
--- 10.1.1.2 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 999ms
rtt min/avg/max/mdev = 0.040/0.052/0.064/0.012 ms

注意:

  • 若是网桥上的网口不卸掉IP,至关于在网络层工做,而网桥只能在链路层工做,因此网口IP不失效,将致使网桥不起做用(表现:Veth设备对不通)
# ping -I 10.1.1.3 10.1.1.2
connect: Network is unreachable
  • 网桥是不具有路由功能的,具体表现为:主机能够ping通veth1,而veth1却ping不一样主机。
# ping 10.1.1.2
PING 10.1.1.2 (10.1.1.2) 56(84) bytes of data.
64 bytes from 10.1.1.2: icmp_seq=1 ttl=64 time=0.060 ms
64 bytes from 10.1.1.2: icmp_seq=2 ttl=64 time=0.034 ms
^C
--- 10.1.1.2 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 999ms
rtt min/avg/max/mdev = 0.034/0.047/0.060/0.013 ms
# ip route add 192.168.0.0/24 dev bridge  proto kernel  scope link  src 10.1.1.1
# ip netns exec netns1 ping 192.168.1.2
connect: Network is unreachable
# ip netns exec netns1 ping 10.1.1.1
PING 10.1.1.1 (10.1.1.1) 56(84) bytes of data.
64 bytes from 10.1.1.1: icmp_seq=1 ttl=64 time=0.065 ms
64 bytes from 10.1.1.1: icmp_seq=2 ttl=64 time=0.036 ms
^C
--- 10.1.1.1 ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 999ms
rtt min/avg/max/mdev = 0.036/0.050/0.065/0.016 ms
  • <host_ip> : 192.168.1.2
  • <bridge_ip> : 10.1.1.1

4、iptables和Netfilter

Linux网络协议栈很是高效,同时比较复杂。若是咱们但愿在数据的处理过程当中对关心的数据进行一些操做,该怎么办呢?Linux提供了一套机制来为用户实现自定义的数据包处理过程。
在Linux网络协议栈中有一组回调函数挂接点,经过这些挂接点挂接的钩子函数能够在Linux网络栈处理数据包的过程当中对数据包进行一些操做,例如过滤、修改、丢弃等。整个挂接点技术叫做Netfilter和iptables。
Netfilter负责在内核中执行各类挂接的规则,运行在内核模式中;而iptables是在用户模式下运行的进程,负责协助和维护内核中Netfilter的各类规则表。两者相互配合来实现整个Linux网络协议栈中灵活的数据包处理机制。
iptables命令用于协助用户维护各类规则。咱们在使用Kubernetes、Docker的过程当中,一般都会去查看相关的Netfilter配置。这里只介绍如何查看规则表,详细的介绍请参照 iptables详解

5、路由

路由功能由IP层维护的一张路由表来实现。当主机收到数据报文时,它用此表来决策接下来应该作什么操做。当从网络侧接收到数据报文时,IP层首先会检查报文的IP地址是否与主机自身的地址相同。若是数据报文中的IP地址是主机自身的地址,那么报文将被发送到传输层相应的协议中。若是报文中的IP地址不是主机自身的地址,而且主机配置了路由功能,那么报文将被转发,不然,报文将被丢弃。

相关文章
相关标签/搜索