实验室进了一批新设备,计划用vmware搭建集群,使用华为S5700三层交换机将管理与业务网分离,架构拓扑以下:
物理交换机的1--12口为管理口,端口类型为access,pvid为10;物理交换机13--20口为业务口,端口类型为trunk,pvid为20;21--24口为物理交换机上联接口,网关位于三层交换机的vlanif接口上 网络
配置完成后,管理网络通讯正常,但此时发现业务网络通讯异常,问题以下:
规划业务口走vlan20,因此,在业务的虚拟交换机端口组上给的VID是20
业务口上联至物理交换机的13口,链路状态是TRUNK,物理接口配置以下:
业务网络的网关在物理交换机的vlanif20口上
此时发现,这么配置后VM无法ping通网关,若是把虚拟交换机端口组的VID改为0或者4095,VM均可以ping通网关 架构
仔细观察虚拟交换机,发现数据包从vm出来后2次通过了虚拟交换机,并非以前觉得的1次,标记1处的vid能够在端口组上设置,标记2处的端口类型与pvid在vmware产品中有默认设置,不容许用户修改
经过实践得出结论,标记处2的端口类型为trunk,且trunk pvid为1,此时的数据报文传输以下图所示:
此时入方向的二层传输路径为: ide
此时报文已经进入物理交换机的内部,数据在返回时二层传输路径为: 3d
在明白了问题点后,按照上面数据报文的流通过程,就能解释出为何将虚拟交换机端口组(标签1)处的vid设置为0或者4095能够正常通讯,而根据规划,业务网络的vid为20,此时只须要将物理交换机trunk口的pvid改成1,就能够正常通讯,具体的通讯过程为: blog
经过上述特征,能够得出如下几个结论: 接口