为了支持网络协议栈的多个实例,Linux在网络栈中引入了网络命名空间,这些独立的协议栈被隔离到不一样的命名空间中。docker
命令:shell
ip netns add <name>
ip netns exec <name> <command>
ip netns exec <name> bash
exit
因为一个设备只能属于一个命名空间,因此转移后在这个命名空间中就看不到这个设备了。具体哪些设备能被转移到不一样的命名空间呢?在设备里面有个重要的属性:NETIF_F_ETNS_LOCAL
,若是这个属性为on
,就不能转移到其余命名空间中。而不少其余设备如lo设备、vxlan设备、ppp设备、bridge设备等都是不可转移的。将没法转移的设备移动到别的命名空间时,会获得无效参数的错误提示。bash
命令:网络
ip link set <device> netns <namespace>
ethtool -k <device>
操做函数
# ip netns add netns1 # ip netns show netns1 # ip netns exec netns1 ip link show 1: lo: <LOOPBACK> mtu 65536 qdisc noop state DOWN group default link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 # ip netns exec netns1 bash # ip link show 1: lo: <LOOPBACK> mtu 65536 qdisc noop state DOWN group default link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 # exit exit # ip link set br0 netns netns1 RTNETLINK answers: Invalid argument # ethtool -k br0 netns-local: on [fixed] # ip netns del netns1
因为网络命名空间表明的是一个独立的协议栈,因此它们之间是相互隔离的,彼此没法通讯,在协议栈内部都看不到对方。为了打破这种限制,让处于不一样命名空间的网络相互通讯,甚至和外部的网络进行通讯,咱们应用“Veth设备对”便可达到。oop
Veth设备对的一个重要做用就是打通相互看不到的协议栈之间的壁垒,它就像一条管子,一端连着这个网络命名空间的协议栈,一端连着另外一个网络命名空间的协议栈。
因为要链接两个网络命名空间,因此Veth设备都是成对出现的,就像是一对以太网卡,而且中间有一根直连的网线。既然是一对网卡,那么咱们将其中一端称为另外一端的peer
。在Veth设备的一端发送数据时,它会将数据直接发送到另外一端,并触发另外一端的接收操做。学习
命令:
建立Veth设备对:spa
ip link add <veth0> type veth peer name <veth1>
操做:.net
# ip netns add netns1 # ip link add veth0 type veth peer name veth1 # ip link show 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 2: br0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default link/ether f8:b1:56:d8:da:0a brd ff:ff:ff:ff:ff:ff 3: docker0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default link/ether 02:42:82:ad:fa:6c brd ff:ff:ff:ff:ff:ff 14: veth1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether 7a:f0:93:10:6f:69 brd ff:ff:ff:ff:ff:ff 15: veth0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether 9e:dd:2b:54:78:31 brd ff:ff:ff:ff:ff:ff # ip link set veth1 netns netns1 # ip link show 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN mode DEFAULT group default link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 2: br0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default link/ether f8:b1:56:d8:da:0a brd ff:ff:ff:ff:ff:ff 3: docker0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP mode DEFAULT group default link/ether 02:42:82:ad:fa:6c brd ff:ff:ff:ff:ff:ff 15: veth0: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether 9e:dd:2b:54:78:31 brd ff:ff:ff:ff:ff:ff # ip netns exec netns1 ip link show 1: lo: <LOOPBACK> mtu 65536 qdisc noop state DOWN mode DEFAULT group default link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 14: veth1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN mode DEFAULT group default qlen 1000 link/ether 7a:f0:93:10:6f:69 brd ff:ff:ff:ff:ff:ff # ip netns exec netns1 ip addr add 10.1.1.2/24 dev veth1 # ip addr add 10.1.1.3/24 dev veth0 # ip link set dev veth0 up # ping 10.1.1.2 PING 10.1.1.2 (10.1.1.2) 56(84) bytes of data. 64 bytes from 10.1.1.2: icmp_seq=1 ttl=64 time=0.064 ms 64 bytes from 10.1.1.2: icmp_seq=2 ttl=64 time=0.045 ms ^C --- 10.1.1.2 ping statistics --- 9 packets transmitted, 9 received, 0% packet loss, time 7999ms rtt min/avg/max/mdev = 0.032/0.042/0.064/0.012 ms # ip netns exec netns1 ping 10.1.1.3 PING 10.1.1.3 (10.1.1.3) 56(84) bytes of data. 64 bytes from 10.1.1.3: icmp_seq=1 ttl=64 time=0.074 ms 64 bytes from 10.1.1.3: icmp_seq=2 ttl=64 time=0.038 ms ^C --- 10.1.1.3 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 999ms rtt min/avg/max/mdev = 0.038/0.056/0.074/0.018 ms
Veth设备对如何查看对端:code
# ethtool -S veth0 NIC statistics: peer_ifindex: 14 # ip netns exec netns1 ip link | grep 14 14: veth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP mode DEFAULT group default qlen 1000
Linux能够支持多个不一样的网络,它们之间可以相互通讯,如何将这些网络链接起来并实现各网络中主机的相互通讯呢?能够用“网桥”。 网桥是一个二层的虚拟网络设备,把若干个网络接口“链接”起来,以使得网络接口之间的报文可以相互转发。网桥可以解析收发的报文,读取目标MAC地址的信息,和本身记录的MAC表结合,来决策报文的转发目标网络接口。为了实现这些功能,网桥会学习源MAC地址(二层网桥转发的依据就是MAC地址)。在转发报文时,网桥只须要向特定的网口进行转发,来避免没必要要的网络交互。若是它遇到一个本身从未学习到的地址,就没法知道这个报文应该向哪一个网络接口转发,就将报文广播给全部的网络接口(报文来源的网络接口除外)
在Linux的内部网络栈里实现的网桥设备,做用和上面的描述相同。过去Linux主机通常都只有一个网卡,如今多网卡的及其愈来愈多,并且又不少虚拟的设备存在,因此Linux的网桥提供了在这些设备之间相互转发数据的二层设备。
Linux内核是经过一个虚拟的网桥设备(Net Device)来实现桥接的。这个虚拟设备能够绑定若干个以太网接口设备,从而将它们桥接起来。这种Net Device网桥和普通的设备不一样,最明显的一个特征是它还能够有一个IP地址。
命令:
brctl addbr <br_name>
brctl addbr <br_name> <eth_name>
ifconfig <eth_name> 0.0.0.0
ifconfig <eth_name> <ip_address>
这样网桥就有一个IP地址,而链接到上面的网卡就是一个纯链路层设备了。
操做:
# brctl addbr bridge # brctl addif veth0 # brctl show bridge name bridge id STP enabled interfaces bridge 8000.9edd2b547831 no veth0 docker0 8000.02425e4d0ba8 no vethb8777d1 # ifconfig veth0 0.0.0.0 # ifconfig bridge 10.1.1.1/16 # ip addr show bridge 16: bridge: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default link/ether 9e:dd:2b:54:78:31 brd ff:ff:ff:ff:ff:ff inet 10.1.1.1/16 brd 10.1.255.255 scope global bridge valid_lft forever preferred_lft forever inet6 fe80::9cdd:2bff:fe54:7831/64 scope link valid_lft forever preferred_lft forever # ping 10.1.1.2 PING 10.1.1.2 (10.1.1.2) 56(84) bytes of data. 64 bytes from 10.1.1.2: icmp_seq=1 ttl=64 time=0.064 ms 64 bytes from 10.1.1.2: icmp_seq=2 ttl=64 time=0.040 ms ^C --- 10.1.1.2 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 999ms rtt min/avg/max/mdev = 0.040/0.052/0.064/0.012 ms
注意:
# ping -I 10.1.1.3 10.1.1.2 connect: Network is unreachable
veth1
,而veth1
却ping不一样主机。# ping 10.1.1.2 PING 10.1.1.2 (10.1.1.2) 56(84) bytes of data. 64 bytes from 10.1.1.2: icmp_seq=1 ttl=64 time=0.060 ms 64 bytes from 10.1.1.2: icmp_seq=2 ttl=64 time=0.034 ms ^C --- 10.1.1.2 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 999ms rtt min/avg/max/mdev = 0.034/0.047/0.060/0.013 ms # ip route add 192.168.0.0/24 dev bridge proto kernel scope link src 10.1.1.1 # ip netns exec netns1 ping 192.168.1.2 connect: Network is unreachable # ip netns exec netns1 ping 10.1.1.1 PING 10.1.1.1 (10.1.1.1) 56(84) bytes of data. 64 bytes from 10.1.1.1: icmp_seq=1 ttl=64 time=0.065 ms 64 bytes from 10.1.1.1: icmp_seq=2 ttl=64 time=0.036 ms ^C --- 10.1.1.1 ping statistics --- 2 packets transmitted, 2 received, 0% packet loss, time 999ms rtt min/avg/max/mdev = 0.036/0.050/0.065/0.016 ms
Linux网络协议栈很是高效,同时比较复杂。若是咱们但愿在数据的处理过程当中对关心的数据进行一些操做,该怎么办呢?Linux提供了一套机制来为用户实现自定义的数据包处理过程。
在Linux网络协议栈中有一组回调函数挂接点,经过这些挂接点挂接的钩子函数能够在Linux网络栈处理数据包的过程当中对数据包进行一些操做,例如过滤、修改、丢弃等。整个挂接点技术叫做Netfilter和iptables。
Netfilter负责在内核中执行各类挂接的规则,运行在内核模式中;而iptables是在用户模式下运行的进程,负责协助和维护内核中Netfilter的各类规则表。两者相互配合来实现整个Linux网络协议栈中灵活的数据包处理机制。
iptables命令用于协助用户维护各类规则。咱们在使用Kubernetes、Docker的过程当中,一般都会去查看相关的Netfilter配置。这里只介绍如何查看规则表,详细的介绍请参照 iptables详解
路由功能由IP层维护的一张路由表来实现。当主机收到数据报文时,它用此表来决策接下来应该作什么操做。当从网络侧接收到数据报文时,IP层首先会检查报文的IP地址是否与主机自身的地址相同。若是数据报文中的IP地址是主机自身的地址,那么报文将被发送到传输层相应的协议中。若是报文中的IP地址不是主机自身的地址,而且主机配置了路由功能,那么报文将被转发,不然,报文将被丢弃。