大二层技术对比分析

如前文所述,传统的数据中心汇聚交换机做为网关,为了提升HA性能,基本都采用双机冗余建设模式。随着数据中心进入虚拟化时代,接入服务器的规模飞速增长,虚拟服务器的规模出现级数增长。同时,更多的客户要求在同一个二层网络内,任意两台虚拟服务器之间要作无阻塞的快速交换。这就致使做为网关的汇聚交换机出现容量不足而下降整网性能,所以须要采用新得技术有效的增长汇聚交换机的容量,同时还必须采用有效的技术提升接入到汇聚交换机之间的带宽利用率。前面几篇文章介绍了各类可用于的数据中心二层网络扩展的技术,本文将就这几类技术作一下对比。html

1 传统STP技术应用分析
   STP是IEEE 802.1D中定义的一个应用于以太网交换机的标准,这个标准为交换机定义了一组规则用于探知链路层拓扑,并对交换机的链路层转发行为进行控制。若是STP发现网络中存在环路,它会在环路上选择一个恰当的位置阻塞链路上的端口——阻止端口转发或接收以太网帧,经过这种方式消除二层网络中可能产生的广播风暴。然而在实际部署中,为确保网络的高可用性,不管是数据中心网络仍是园区网络,一般都会采用具备环路的物理拓扑,并采用STP阻塞部分端口的转发。对于被阻塞端口,只有在处于转发状态的端口及链路发生故障时,才可能被STP加入到二层数据帧的转发树中。服务器

大二层技术对比分析
图1 STP引发的带宽利用率不足的问题网络

   STP的这种机制致使了二层链路利用率不足,尤为是在网络设备具备全链接拓扑关系时,这种缺陷尤其突出。如图1所示,当采用全网STP二层设计时,STP将阻塞大多数链路,使接入到汇聚间带宽降至1/4,汇聚至核心间带宽降至1/8。这种缺陷形成越接近树根的交换机,端口拥塞越严重,形成的带宽资源浪费就越可观。
   可见,STP能够很好地支持传统的小规模范围的二层网络,但在一些规模部署虚拟化应用的数据中心内(或数据中心之间),会出现大范围的二层网络,STP在这样的网络中应用存在严重的不足。主要表现为如下问题(如图2所示)。架构

大二层技术对比分析
图2 STP的低效路径问题示意图运维

1. 低效路径
? 流量绕行N-1跳
? 路由网络只需N/2跳甚至更短
2. 带宽利用率低
? 阻断环路,中断链路
? 大量带宽闲置
? 流量容易拥塞
3. 可靠性低
? 秒级故障切换
? 对设备的消耗较大
4. 维护难度大
? 链路引发拓扑变化复杂
? 容易引起广播风暴
? 配置、管理难度随着规模增长剧增
   因为STP存在以上种种不足,其难以胜任大规模二层网络的管理控制。ide

2 IRF技术应用分析
   H3C IRF(Intelligent Resilient Framework)是N:1网络虚拟化技术。IRF可将多台网络设备(成员设备)虚拟化为一台网络设备(虚拟设备),并将这些设备做为单一设备管理和使用。
   IRF虚拟化技术不只使多台物理设备简化成一台逻辑设备,同时网络各层之间的多条链路链接也将变成两台逻辑设备之间的直连,所以能够将多条物理链路进行跨设备的链路聚合,从而变成了一条逻辑链路,增长带宽的同时也避免了由多条物理链路引发的环路问题。如图3所示,将接入、汇聚与核心交换机两两虚拟化,层与层之间采用跨设备链路捆绑方式互联,整网物理拓扑没有变化,但逻辑拓扑上变成了树状结构,以太帧延拓扑树转发,不存在二层环路,且带宽利用率最高。性能

大二层技术对比分析
图3 基于IRF构建二层网络云计算

   简单来讲,利用IRF构建二层网络的好处包括:
? 简化组网拓扑结构,简化管理
? 减小了设备数量,减小管理工做量
? 多台设备合并后能够有效的提升性能
? 多台设备之间能够实现无缝切换,有效提升网络HA性能
   目前,IRF技术实现框式交换机堆叠的窬量最大为四台,也就是说使用IRF构建二层网络时,汇聚交换机最多可达4台。举例来讲,汇聚层部署16业务槽的框式交换机(4块上行,12块下行),配置业界最早进的48端口线速万兆单板。考虑保证上下行1:4的收敛比,汇聚交换机下行的万兆端口数量48*12=576。接入交换机部署4万兆上行,48千兆下行的盒式交换机。4台IRF后的汇聚交换机能够在二层无阻塞的前提下接入13824台双网卡的千兆服务器,可知足国内绝大部分客户的二层组网需求。
   少部分客户指望其服务器资源池能够有效扩充到2万台甚至更大。这样,就须要其余技术提供更大的网络容量。
3 TRILL技术应用分析设计

大二层技术对比分析
图4 数据中心Trill大二层组网架构示意图htm

   采用TRILL技术构建的数据中心大二层网络如图4所示,网络分为核心层(至关于传统数据中心汇聚层)、接入层。接入层是TRILL网络与传统以太网的边界;核心层RBridge不提供主机接入,只负责TRILL帧的高速转发。每一个接入层RBridge经过多个高速端口分别接入到多台核心层RBridge上。准确的说,TRILL最大能够支持16台核心层RBridge。这样也就对接入层交换机提出了更高的要求:支持16端口万兆上行,160千兆下行。目前的主流千兆交换机都是4万兆上行、48千兆下行。最高密度能够支持到10万兆上行,96千兆下行。若是与前面IRF组网采用相同的汇聚(TRILL核心)设备和收敛比,TRILL目前最大能够支持10核心组网,其最大能力能够无阻塞的接入27648台双网卡千兆服务器。能够直观的看到,随着汇聚交换机数量的增长,二层网络服务器的接入规模直线上升。这是目前TRILL相对于IRF最明显的优点。
   虽然TRILL成功扩展了虚拟机资源池的规模,可是目前大规模的二层网络缺少运维经验,这意味着运维成本会大幅度提高,同时给业务系统带来巨大的风险。同时,TRILL技术目前在芯片实现上存在客观缺陷:核心层不能支持三层终结,也就是说TRILL的核心层不能作网关设备。必需要在核心层上再增长一层设备来作网关(如图5所示)。这致使网络结构变得复杂,管理难度增长,网络建设、运维成本都会增长。

大二层技术对比分析
图5 数据中心Trill组网网关设计架构示意图

4 SPB技术应用分析
   SPB的组网方案和TRILL基本相同(图4所示)。一样最大能够扩展16台汇聚交换机增长二层网络接入规模;一样对接入交换机的接入密度提出更高的要求;一样存在网关与SPB核心必须分离的芯片缺陷(图5所示),致使网络层次增长,管理、运维成本增长。
   相对于TRILL,SPB最大的优点在于可以方便的支持VLAN扩展功能,正是这一点吸引了不少须要支持多租户业务的运营商以及有规模运营需求的企业的关注。

5 EVI技术应用分析
   因为大规模的二层网络缺少成功的运维经验,因此最合理的虚拟化网络应该是L3+L2网络模型。如前文所述,因为EVI特性能够经过汇聚层和核心层之间的IP网络实现二层互通,因此经过EVI扩展多个二层域的时候不须要更改布线或是设备,仅仅须要在汇聚设备上启用EVI特性便可。这样能够平滑的扩展二层网络的规模。
   目前L3路由+L2 IRF+EVI是最适合云计算虚拟化数据中心网络的模型。其主要的优势包括:
? 技术成熟,架构稳定
? 丰富的运维经验,便于维护
? 平滑的扩容能力,可以支持大规模二层网络
6 技术应用对比

大二层技术对比分析

7 结束语
   虚拟化数据中心内一般采用服务器二层接入方案,以实现灵活扩展资源池能力。随着企业对计算资源灵活调度能力要求的不断提高,必然将面临大规模二层网络问题。本文列出五种不一样实现技术,各有特色。技术没有最好的,只有最适合的。但愿经过本文的阐述与分析,给读者一些帮助与启发,以便将来实现数据中心大规模二层网络时选择最适合的技术方案。

其余大二层组网技术简介
? Fabricpath
   Fabricpath是由Cisco提出,和TRILL很是类似的一种技术。Fabricpath和TRILL对比来看,主要在于封装更加精简,支持多拓扑能力,在控制管理层面上精耕细做,成熟度要好一些。
? Qfabric
   是Juniper提出的技术,将交换机的控制软件拉到外部的服务器上运行,整个网络采用集中控制集中管理的方式。缺点是:扩展性很差,部署案例少,成熟度待检验。
? VXLAN/NVGRE
   业界最近出现了一种经过在vSwitch上支持L2oIP的技术,有VXlAN(Virtual eXtensible LAN)和NVGRE(Network Virtual GRE),前者是由VMware和思科提出的标准,使用了L2oUDP的封装方式,支持16M的tenant ID;后者是由HP和微软提出的标准,使用了L2oGRE封装方式,也支持16M的tenant ID。这两种技术的主要特色是隧道的起点和终点主要在vswitch上,而不是物理交换机上。隧道的封装在服务器内部的vswitch就已经打好,而后将物理网络看成大的IP背板加以穿透,大二层范围能够跨DC。以期达到快速部署,灵活建立虚拟化网络的目的。■

相关文章
相关标签/搜索