所选语种没有对应资源,请选择:

本站点使用Cookies,继续浏览表示您同意我们使用Cookies。Cookies和隐私政策>

提示

尊敬的用户,您的IE浏览器版本过低,为获取更好的浏览体验,请升级您的IE浏览器。

升级

NE40E V800R010C10SPC500 特性描述 - 虚拟集群 01

本文档是NE40E V800R010C10SPC500 特性描述 - 虚拟集群

评分并提供意见反馈 :
华为采用机器翻译与人工审校相结合的方式将此文档翻译成不同语言,希望能帮助您更容易理解此文档的内容。 请注意:即使是最好的机器翻译,其准确度也不及专业翻译人员的水平。 华为对于翻译的准确性不承担任何责任,并建议您参考英文文档(已提供链接)。
虚拟集群转发平面原理

虚拟集群转发平面原理

基本思路

路由器单框设备的转发平面原理如下:



  1. 报文在上行单板查表(比如FIB),得到出接口等信息,封装在上行帧头中,交给交换网处理。
  2. 报文经过交换网转发,带着下行帧头到下行单板。
  3. 报文在下行单板查表(比如ARP表),进行封装发送。

虚拟集群相比单框转发,只是增加了框间转发的过程。如下图所示:



只要将其转发路径上的入口框交换网板+下行单板、出口框上行单板+交换网板看成一个虚拟的网板,则其转发原理和单框几乎完全相同:

  1. 报文在入口框上行单板查表(比如FIB),得到出接口等信息,封装在上行帧头中,交给交换网处理。
  2. 报文在入口框下行单板(互联板)封装框间帧头,在出口框上行单板(互联板)剥掉框间帧头,经过交换网转发,带着下行帧头到出口框下行单板。
  3. 报文在出口框下行单板查表(比如ARP表),进行封装发送。

由上图也可以看出,虚拟集群采用的是常规的业务转发和虚拟集群特有的框间转发解耦的思想:

  1. 入口框上行单板、出口框下行单板,基本上只做常规的业务转发。
  2. 虚拟集群特有的框间转发,基本上集中在互联板上进行。

从而使得,虚拟集群的业务转发流程和单框基本保持不变。

全局端口号、局部端口号

转发平面用端口号标识目的端口。业务表项中(比如FIB)的出接口表,下发的就是端口号。

单框时,这个目的端口设备内唯一,也即框内唯一。这个端口号,就是局部端口号。

在虚拟集群中,这个目的端口需要集群内唯一。这个端口号,就是全局端口号。

单播转发原理



如上图所示,虚拟集群的单播业务转发采用了业务转发和框间转发解耦的思想:入口框上行单板和出口框下行单板负责业务转发;互联板完成框间转发,但需要在入口框上行板进入框间转发流程。以L3单播为例,详细过程如下:

  1. 入口框上行单板进行业务转发:
    • 查FIB,得到出接口的全局端口号。
    • 查全局端口表,得到:该端口是本框端口,还是它框端口。

    如果是本框端口,则得到局部端口号,进行正常的框内转发。

    如果是它框端口,并得到目的框号,进入框间转发。

  2. 入口框上行单板的框间转发:
    • 框间选路:

      多框情况下,到某个目的框,可能有多条路径;不同路径,要经过不同的下一跳框。各框控制平面会根据框间拓扑计算框间路由,生成框间选路表。转发时,根据目的框号,查框间选路表,可以得到本框的出口数据通道号。

    • 框间负载分担:

      框间数据通道由多条数据链路组成。转发时,根据框间数据通道号,在其成员数据链路之间进行Hash(逐流负载分担),选择一条数据链路,作为框间转发的出接口。

    • 此框间转发的出接口,仍然是全局端口号,故而再次查全局端口表。因为该目的端口是本框的,故得到其在本框的局部端口号,使用该端口号,经过网板转发。
  3. 入口框互联板转发:
    • 对框间转发报文进行框间封装,在互联口上发送。
    • 框间封装,带有目的框号和全局端口号、负载分担Hash值等信息。
  4. 出口框互联板转发:
    • 因为目的框号就是本框,所以,终结框间转发。
    • 剥掉框间封装。
    • 用全局端口号查表,因为是本框端口,故得到局部端口号。
    • 用该局部端口号进行转发。

    至此,2、3、4合起来完成了框间转发,完成了虚拟网板的功能。

  5. 出口框下行单板进行业务转发:

    正常进行下行转发处理,比如查ARP表,进行二层封装发送。

    可见,虚拟集群的单播转发,原理上和单框基本相同,只是增加了框间转发流程,且与业务流程解耦。各业务基本不需要感知虚拟集群,不需要对虚拟集群做特殊处理。

组播转发原理

说明:
广播、未知单播原理与组播相同,不单独说明。

虚拟集群的组播转发,有两种复制方案:

  • 一级复制。

    即入口框完成流量到各框全部组播叶子的复制,每一份流量都单独发往目的框。本方案需要消耗大量的框间带宽。

  • 多级复制。

    即入口框完成流量到本框组播叶子的复制;同时向相邻框复制一份流量。相邻框同样进行类似复制(三个及以上框组成的集群情况下),这样的多级复制,完成了整个虚拟集群内的组播。本方案在各个框间数据通道上只占用一份带宽。

为了避免占用过多的框间带宽,虚拟集群采用了多级复制的方案。以两框为例,如下图所示:



  • 报文向各框复制且只复制一份。
  • 各框分别向跨板TRUNK的各个本地成员复制。
  • 除了框间复制外,虚拟集群的组播转发流程和单框基本保持一致。

框间报文封装

数据通道承载数据报文,采用私有封装。

目前虚拟集群只支持ETH封装方式。ETH封装方式通用性较好,能适应各种组网场景,但ETH封装开销较大。

具体封装方式如下图所示:



这里的DMAC和SMAC均用互联口的MAC,Ethtype用0x8888。

跨框报文的帧头中,带有指导框间转发的相关字段,包括全局端口号、目的框号、History字段等。

数据平面的建立

数据通道需要用户配置指定,虚拟集群不会自动检测和识别。



对于上图组网,需要分别操作框1和框2,配置为集群模式,并将该框上的两个互联口加入数据通道组。

集群系统在数据链路上运行hello协议,检测链路故障。

集群系统通过控制平面,从各框收集上述数据链路信息,生成集群的拓扑,下发框间选路表、框间负载分担表等表项到转发平面,然后数据平面可用。

翻译
下载文档
更新时间:2018-12-28

文档编号:EDOC1100055171

浏览量:572

下载量:78

平均得分:
本文档适用于这些产品

相关版本

相关文档

Share
上一页 下一页