轨道交通承载网快速自愈保护技术
随着经济社会的发展,地铁逐渐成为解决城市交通拥堵问题的主要手段。随之而来的是日益丰富的IP类业务应用和日益增长的数据流量,同时由于地铁属于公共交通系统,对安全和可靠性的要求非常高。因此传统的地铁承载网越来越不能满足要求,信息化的地铁系统需要一个更加健壮、可靠的承载网络。现代化的轨道交通承载网需要解决以下几个方面的需求:
保证足够的可靠性和安全性:由于地铁属于公共交通系统,因此要求地铁承载网具备很好的可靠性和安全性。
提供足够大的数据容量:由于地铁系统客流量较大,数据终端日益增多,因此要求地铁承载网具备足够大的数据容量及数据交换能力。
支持多样化的业务类型:由于地铁系统中涉及控制系统、广告媒体、日常办公等多种业务类型,因此要求地铁承载网能够支持多样化的业务类型。
由于IP数据通信网是当前数据通信的主流方式,且具备丰富的接入方式,庞大的网络规模等特点,因此地铁承载网的IP化是未来发展的一个趋势。
为了更加可靠的保障地铁系统的安全运营,同时给地铁系统提供更加丰富的业务类型,华为公司推出了基于Ho***技术的HSR解决方案。HSR方案主要采用华为敏捷系列交换机构建,该方案基于MPLS L3***技术、采用层次化的网络结构,具备强大的承载能力和简单灵活的组网形式,适合于规模较大的轨道交通承载网络。HSR方案采用了硬件BFD检测、TE HSB、*** FRR、VRRP双收等多种保护技术,具备毫秒级的保护倒换能力,可以在用户毫无感知的情况下完成全网端到端的链路切换。
方案总体介绍
从理解轨道交通承载网的业务需求出发,聚焦网络的可靠性、可扩展性、可维护性和多业务承载能力,考虑网络拓扑结构分层和降低组网成本的需求,设计了基于Ho***技术的快速自愈保护(HSR)解决方案,如图1所示。(本案例来自华为官网)
如图1所示,HSR解决方案的总体部署介绍如下:
核心层采用三台S9700系列交换机以全连接的形式组成核心环,各个站点及数据中心通过核心环进行数据交互。
在每个地铁站点部署两台S5720HI做汇聚设备,与核心环的两台S9700组成口字型组网,也可以多个站点的S5720HI串联以后与核心环的两台S9700组成口字型组网。S5720HI配置VRRP作为各站点的用户网关。数据中心站点采用两台S9700做汇聚,业务部署同S5720HI。
各站点接入层选用二层交换机形成接入环,双上行至汇聚层的两台S5720HI或S9700。
整网承载了地铁系统的所有业务流量,例如日常办公业务、地铁广告传媒、列车控制管理等业务。
业务部署说明
网络拓扑
可以根据如图1所示的拓扑构建网络,配置相应的网元名称、设备IP地址、设备各业务接口和用户接口等。
设备接口、数据规划
操作步骤
01
基础配置
a、配置物理接口加入Eth-Trunk
以Core_SPE1为例配置物理接口加入Eth-Trunk,其他设备配置步骤与Core_SPE1类似。
#interface XGigabitEthernet1/0/0 eth-trunk 5#interface XGigabitEthernet1/0/1 eth-trunk 5#interface XGigabitEthernet1/0/2 eth-trunk 5#interface XGigabitEthernet1/0/3 eth-trunk 5#interface XGigabitEthernet5/0/4 eth-trunk 4#interface XGigabitEthernet5/0/5 eth-trunk 4#interface XGigabitEthernet5/0/6 eth-trunk 4#interface XGigabitEthernet5/0/7 eth-trunk 4#interface XGigabitEthernet6/0/0 eth-trunk 17#interface XGigabitEthernet6/0/1 eth-trunk 17#interface XGigabitEthernet6/0/2 eth-trunk 17#interface XGigabitEthernet6/0/3 eth-trunk 17
b、配置各接口描述及IP地址
以Core_SPE1为例配置各接口描述及IP地址,其他设备配置步骤与Core_SPE1类似。
#interface XGigabitEthernet1/0/0 eth-trunk 5#interface XGigabitEthernet1/0/1 eth-trunk 5#interface XGigabitEthernet1/0/2 eth-trunk 5#interface XGigabitEthernet1/0/3 eth-trunk 5#interface XGigabitEthernet5/0/4 eth-trunk 4#interface XGigabitEthernet5/0/5 eth-trunk 4#interface XGigabitEthernet5/0/6 eth-trunk 4#interface XGigabitEthernet5/0/7 eth-trunk 4#interface XGigabitEthernet6/0/0 eth-trunk 17#interface XGigabitEthernet6/0/1 eth-trunk 17#interface XGigabitEthernet6/0/2 eth-trunk 17#interface XGigabitEthernet6/0/3 eth-trunk 17
c、配置Eth-Trunk接口模拟40G链路
在所有S9700设备的Eth-trunk接口上配置least active-linknumber 4,模拟该Eth-Trunk接口为40G端口,如果有一个成员端口down,整个Eth-Trunk接口就会down。以Core_SPE1为例进行配置,其他设备配置步骤与Core_SPE1类似。
#interface Eth-Trunk4 least active-linknumber 4#interface Eth-Trunk5 least active-linknumber 4#interface Eth-Trunk17 least active-linknumber 4#
d、创建Eth-Trunk负载分担模板并应用在Eth-trunk上
配置负载分担方式为按照源端口号和目的端口号进行负载分担。以Core_SPE1为例进行配置,其他设备配置步骤与Core_SPE1类似。
#load-balance-profile CUSTOM ipv6 field l4-sport l4-dport ipv4 field l4-sport l4-dport#interface Eth-Trunk4 load-balance enhanced profile CUSTOM#interface Eth-Trunk5 load-balance enhanced profile CUSTOM#interface Eth-Trunk17 load-balance enhanced profile CUSTOM#
e、全局去使能STP功能
由于整网使用三层接口进行互联,不需要运行二层破环协议,配置全局去使能STP功能。以Core_SPE1为例进行配置,其他设备配置步骤与Core_SPE1类似。
#stp disable#
f、配置SPE
以Core_SPE1为例,核心环SPE设备配置如下。Core_SPE2和Core_SPE3的配置与Core_SPE1类似,不再赘述。
#bfd#
g、配置UPE
以Site1_UPE1为例,汇聚UPE设备配置如下。Site1_UPE2、Site2_UPE3、Site2_UPE4、Site3_UPE5和Site3_UPE6的配置与Site1_UPE1类似,不再赘述。
#bfd#
02
部署OSPF
选用OSPF作为IGP协议,保证整网各设备之间路由可达,同时OSPF路由作为MPLS LDP、MPLS TE的承载,配置思路如下:
所有设备划分到Area0区域,对外发布直连网段和LoopBack1地址。
不运行OSPF的接口全部配置成OSPF静默接口,禁止此接口接收和发送OSPF报文,实现增强OSPF的组网适应能力,减少系统资源的消耗的目的。
受31位地址掩码的影响,在互联主接口上配置ospf网络类型为点到点。
配置OSPF与LDP联动,解决主备LSP相互切换导致的流量丢失问题。
a、配置SPE
以Core_SPE1为例,核心环SPE设备配置如下。Core_SPE2和Core_SPE3的配置与Core_SPE1类似,不再赘述。
router id 172.16.0.5 //配置Router ID。#interface Eth-Trunk4 ospf network-type p2p //受31位地址掩码的影响,在互联主接口上配置ospf网络类型为点到点。#interface Eth-Trunk5 ospf network-type p2p#interface Eth-Trunk17 ospf network-type p2p#interface XGigabitEthernet6/0/4 ospf network-type p2p#ospf 1 silent-interface all //禁止所有接口收发OSPF报文。 undo silent-interface Eth-Trunk4 //恢复接口收发OSPF报文功能。 undo silent-interface Eth-Trunk5 undo silent-interface Eth-Trunk17 undo silent-interface XGigabitEthernet6/0/4 spf-schedule-interval millisecond 10 //路由计算时间间隔配置为10ms,目的是加快路由收敛性能。 lsa-originate-interval 0 //设置LSA更新时间间隔为0。 lsa-arrival-interval 0 //设置LSA接收时间间隔为0。使得拓扑或者路由的变化可以立即被感知到,从而加快路由的收敛。 graceful-restart period 600 //使能OSPF GR。 flooding-control //使能flooding-control泛洪控制,维护邻居关系的稳定。 area 0.0.0.0 authentication-mode md5 1 cipher %^%#NInJJ<oF9VXb:BS~~9+JT'suROXkVHNG@8+*3FyB%^%# //指定OSPF区域所使用的验证模式及验证口令。 network 172.16.0.5 0.0.0.0 network 172.17.4.2 0.0.0.0 network 172.17.4.8 0.0.0.0 network 172.17.4.10 0.0.0.0 network 172.17.10.2 0.0.0.0#
b、配置UPE
以Site1_UPE1为例,汇聚UPE设备配置如下。Site1_UPE2、Site2_UPE3、Site2_UPE4、Site3_UPE5和Site3_UPE6的配置与Site1_UPE1类似,不再赘述。
router id 172.16.2.51#interface Eth-Trunk7 ospf network-type p2p#interface Eth-Trunk17 ospf network-type p2p#ospf 1 silent-interface all undo silent-interface Eth-Trunk7 undo silent-interface Eth-Trunk17 graceful-restart period 600 bandwidth-reference 100000 //设置通过公式计算接口开销所依据的带宽参考值。 flooding-control area 0.0.0.0 authentication-mode md5 1 cipher %^%#nU!dUe#c'J!;/%*WtZxQ<gP:'zx_E2OQnML]q;s#%^%# network 172.16.2.51 0.0.0.0 network 172.17.4.11 0.0.0.0 network 172.17.4.14 0.0.0.0#
c、执行display ospf peer命令查看OSPF的邻居信息,以Core_SPE1为例,状态为Full表示OSPF邻居正常建立。
[Core_SPE1]display ospf peer
OSPF Process 1 with Router ID 172.16.0.5
Neighbors
Area 0.0.0.0 interface 172.17.4.8(Eth-Trunk4)'s neighbors
Router ID: 172.16.0.3 Address: 172.17.4.9 GR State: Normal
State: Full Mode:Nbr is Slave Priority: 1
DR: None BDR: None MTU: 0
Dead timer due in 40 sec
Retrans timer interval: 4
Neighbor is up for 00:53:42
Authentication Sequence: [ 0 ]
Neighbors
Area 0.0.0.0 interface 172.17.4.2(Eth-Trunk5)'s neighbors
Router ID: 172.16.0.4 Address: 172.17.4.3 GR State: Normal
State: Full Mode:Nbr is Master Priority: 1
DR: None BDR: None MTU: 0
Dead timer due in 37 sec
Retrans timer interval: 4
Neighbor is up for 00:53:22
Authentication Sequence: [ 0 ]
Neighbors
Area 0.0.0.0 interface 172.17.4.10(Eth-Trunk17)'s neighbors
Router ID: 172.16.2.51 Address: 172.17.4.11 GR State: Normal
State: Full Mode:Nbr is Slave Priority: 1
DR: None BDR: None MTU: 0
Dead timer due in 31 sec
Retrans timer interval: 4
Neighbor is up for 00:53:34
Authentication Sequence: [ 0 ]
Neighbors
Area 0.0.0.0 interface 172.17.10.2(XGigabitEthernet6/0/4)'s neighbors
Router ID: 172.16.2.86 Address: 172.17.10.3 GR State: Normal
State: Full Mode:Nbr is Master Priority: 1
DR: None BDR: None MTU: 0
Dead timer due in 32 sec
Retrans timer interval: 5
Neighbor is up for 00:53:42
Authentication Sequence: [ 0 ]
长按识别二维码关注:网络民工
03
部署MPLS LDP
配置LSR-ID,并使能全局和每个接口上的MPLS LDP功能。
配置LDP与OSPF联动,解决主备LSP相互切换导致的流量丢失问题。
配置LDP GR,实现主备倒换或协议重启的设备流量转发不中断。
配置BFD for LSP,实现快速检测核心环的LDP LSP链路故障问题。
a、使能MPLS LDP
# 配置SPE
以Core_SPE1为例,核心环SPE设备配置如下。Core_SPE2和Core_SPE3的配置与Core_SPE1类似,不再赘述。
mpls lsr-id 172.16.0.5 //配置MPLS LSR ID。推荐采用Loopback接口的地址。mpls //使能全局MPLS。 label advertise non-null //禁用PHP特性,出节点向倒数第二跳正常分配标签。#mpls ldp //全局使能MPLS LDP。#interface Eth-Trunk4 mpls mpls ldp //接口使能MPLS LDP。#interface Eth-Trunk5 mpls mpls ldp //接口使能MPLS LDP。#interface Eth-Trunk17 mpls mpls ldp //接口使能MPLS LDP。#interface XGigabitEthernet6/0/4 mpls mpls ldp //接口使能MPLS LDP。#
# 配置UPE
以Site1_UPE1为例,汇聚UPE设备配置如下。Site1_UPE2、Site2_UPE3、Site2_UPE4、Site3_UPE5和Site3_UPE6的配置与Site1_UPE1类似,不再赘述。
mpls lsr-id 172.16.2.51 //配置MPLS LSR ID。推荐采用Loopback接口的地址。mpls //使能全局MPLS。 label advertise non-null //禁用PHP特性,出节点向倒数第二跳正常分配标签。#mpls ldp //全局使能MPLS LDP。#interface Eth-Trunk7 mpls mpls ldp //接口使能MPLS LDP。#interface Eth-Trunk17 mpls mpls ldp //接口使能MPLS LDP。#
#执行display mpls ldp session all命令查看MPLS LDP会话状态,以Core_SPE1为例,会话状态为Operational表示MPLS LDP会话正常建立。
[Core_SPE1]display mpls ldp session all
LDP Session(s) in Public Network
Codes: LAM(Label Advertisement Mode), SsnAge Unit(DDDD:HH:MM)
A '*' before a session means the session is being deleted.
------------------------------------------------------------------------------
PeerID Status LAM SsnRole SsnAge KASent/Rcv
------------------------------------------------------------------------------
172.16.0.3:0 Operational DU Passive 0000:00:56 226/226
172.16.0.4:0 Operational DU Active 0000:00:56 226/226
172.16.2.51:0 Operational DU Passive 0000:00:55 223/223
172.16.2.86:0 Operational DU Passive 0000:00:55 223/223
------------------------------------------------------------------------------
TOTAL: 4 session(s) Found.
b、配置LDP与OSPF联动
LDP LSR之间依靠OSPF建立LSP,当主链路的LDP会话故障(非链路故障导致)时,或者主链路故障后再恢复时,配置LDP与OSPF联动可以解决主备LSP相互切换导致的流量丢失问题。
# 配置SPE
以Core_SPE1为例,核心环SPE设备配置如下。Core_SPE2和Core_SPE3的配置与Core_SPE1类似,不再赘述。
interface Eth-Trunk4 ospf ldp-sync //使能被保护接口的LDP和OSPF联动功能。 ospf timer ldp-sync hold-down 20 //设置接口不建立OSPF邻居而等待LDP会话建立的时间间隔。#interface Eth-Trunk5 ospf ldp-sync ospf timer ldp-sync hold-down 20#interface Eth-Trunk17 ospf ldp-sync ospf timer ldp-sync hold-down 20#interface XGigabitEthernet6/0/4 ospf ldp-sync ospf timer ldp-sync hold-down 20#
# 配置UPE
以Site1_UPE1为例,汇聚UPE设备配置如下。Site1_UPE2、Site2_UPE3、Site2_UPE4、Site3_UPE5和Site3_UPE6的配置与Site1_UPE1类似,不再赘述。
interface Eth-Trunk7 ospf ldp-sync ospf timer ldp-sync hold-down 20#interface Eth-Trunk17 ospf ldp-sync ospf timer ldp-sync hold-down 20#
c、配置LDP GR
通过配置LDP GR,可以实现主备倒换或协议重启的设备流量转发不中断。
# 配置SPE
以Core_SPE1为例,核心环SPE设备配置如下。Core_SPE2和Core_SPE3的配置与Core_SPE1类似,不再赘述。
mpls ldp graceful-restart //使能LDP GR功能。#
# 配置UPE
以Site1_UPE1为例,汇聚UPE设备配置如下。Site1_UPE2、Site2_UPE3、Site2_UPE4、Site3_UPE5和Site3_UPE6的配置与Site1_UPE1类似,不再赘述。
mpls ldp graceful-restart#
d、配置BFD for LSP
为了提高核心环SPE之间的LDP LSP链路的可靠性,可以配置静态BFD检测LDP LSP,实现快速检测LDP LSP链路。
# 配置SPE
以Core_SPE1为例,核心环SPE设备配置如下。Core_SPE2和Core_SPE3的配置与Core_SPE1类似,不再赘述。
bfd SPE1toSPE2 bind ldp-lsp peer-ip 172.16.0.3 nexthop 172.17.4.9 interface Eth-Trunk4 //使用静态BFD对SPE1和SPE2之间的LDP LSP进行检测。 discriminator local 317 //指定本地标识符。本端的本地标识符需与对端的远端标识符相同。 discriminator remote 137 //指定远端标识符。 detect-multiplier 8 //指定本地BFD检测倍数。 min-tx-interval 3 //设置本地发送BFD报文的最小时间间隔是3.3ms。 min-rx-interval 3 //设置本地接收BFD报文的最小时间间隔是3.3ms。 process-pst //为加快倒换,需允许BFD会话修改端口状态表PST。 commit //提交BFD会话配置。#bfd SPE1toSPE3 bind ldp-lsp peer-ip 172.16.0.4 nexthop 172.17.4.3 interface Eth-Trunk5 //使用静态BFD对SPE1和SPE3之间的LDP LSP进行检测。 discriminator local 32 discriminator remote 23 detect-multiplier 8 min-tx-interval 3 min-rx-interval 3 process-pst commit#
#执行display bfd session all for-lsp命令查看BFD for LSP会话状态,以Core_SPE1为例,BFD会话状态为Up,类型为S_LDP_LSP,表示BFD for LSP会话正常建立。
[Core_SPE1]display bfd session all for-lsp--------------------------------------------------------------------------------Local Remote PeerIpAddr State Type InterfaceName --------------------------------------------------------------------------------32 23 172.16.0.4 Up S_LDP_LSP Eth-Trunk4 317 137 172.16.0.3 Up S_LDP_LSP Eth-Trunk5 -------------------------------------------------------------------------------- Total UP/DOWN Session Number : 2/0
04
部署MPLS TE
采用如下的思路配置MPLS TE:
1、使能MPLS TE。
2、全局使能隧道沿途各节点的MPLS、MPLS TE和MPLS TE CSPF等,在TE隧道沿途接口部署MPLS和MPLS TE。
3、配置隧道路径,每个节点发起的TE隧道均采用主备形式,采用亲和属性方式规划出具体的主备CR-LSP路径。
4、创建L3***业务的隧道。
-
创建主隧道。
建立Site2_UPE3与Core_SPE2之间的主隧道TE1。指定主CR-LSP使用路径1,热备份CR-LSP使用路径2。
建立Site2_UPE4与Core_SPE3之间的主隧道TE3。指定主CR-LSP使用路径5,热备份CR-LSP使用路径6。
-
创建备隧道。
作为主隧道TE1的备份隧道,在Site2_UPE3与Core_SPE3之间建立备隧道TE2。指定主CR-LSP使用路径3,热备份CR-LSP使用路径4。
作为主隧道TE3的备份隧道,在Site2_UPE4与Core_SPE2之间建立备隧道TE4。指定主CR-LSP使用路径7,热备份CR-LSP使用路径8。
-
配置RSVP GR。
在所有设备上使能RSVP GR功能,可以防止在RSVP节点进行主备倒换时引起网络中断,并恢复动态CR-LSP的正常状态。
-
配置BFD for CR-LSP。
在所有设备上配置静态BFD for CR-LSP,加速主CR-LSP和热备份CR-LSP之间的切换。
5、创建隧道策略。
配置优选TE隧道。
6、MPLS TE Tunnel列表
a、配置MPLS TE隧道和热备份保护
# 配置SPE
以Core_SPE1为例,核心环SPE设备配置如下。Core_SPE2和Core_SPE3的配置与Core_SPE1类似,不再赘述。
mpls mpls te //使能全局MPLS TE。 mpls rsvp-te //使能RSVP-TE。 mpls te cspf //使能CSPF算法。#interface Eth-Trunk4 mpls te //使能接口MPLS TE。 mpls te link administrative group c //配置链路的管理组属性,以便TE隧道选择主备路径。 mpls rsvp-te //使能接口RSVP-TE。#interface Eth-Trunk5 mpls te mpls te link administrative group 30 mpls rsvp-te#interface Eth-Trunk17 mpls te mpls te link administrative group 4 mpls rsvp-te#interface XGigabitEthernet6/0/4 mpls te mpls te link administrative group 20 mpls rsvp-te#ospf 1 opaque-capability enable //使能OSPF的Opaque能力。 area 0.0.0.0 mpls-te enable //在当前OSPF区域使能MPLS TE。#interface Tunnel611 //指定Core_SPE1至Site1_UPE1的Tunnel。 description Core_SPE1 to Site1_UPE1 //接口描述。 ip address unnumbered interface LoopBack1 //Tunnel的IP地址直接借用Loopback接口的IP地址。 tunnel-protocol mpls te //配置隧道协议为MPLS TE。 destination 172.16.2.51 //配置隧道的目的地址为Site1_UPE1。 mpls te tunnel-id 71 //配置Tunnel ID,此ID本地有效且在本设备上必须唯一。 mpls te record-route //配置隧道支持路由记录,记录隧道的详细路径信息,便于以后运维。 mpls te affinity property 4 mask 4 //配置主CR-LSP的亲和属性,以便选择最佳转发路径。 mpls te affinity property 8 mask 8 secondary //配置备CR-LSP的亲和属性。 mpls te backup hot-standby //配置隧道为热备份模式。 mpls te commit //提交本隧道下所有MPLS TE的配置。只有执行本命令后配置才能生效。#interface Tunnel622 description Core_SPE1 to Site1_UPE2 ip address unnumbered interface LoopBack1 tunnel-protocol mpls te destination 172.16.2.50 mpls te tunnel-id 82 mpls te record-route mpls te affinity property 8 mask 8 mpls te affinity property 4 mask 4 secondary mpls te backup hot-standby mpls te commit#interface Tunnel711 description Core_SPE1 to Site3_UPE6 ip address unnumbered interface LoopBack1 tunnel-protocol mpls te destination 172.16.2.86 mpls te tunnel-id 311 mpls te record-route mpls te affinity property 20 mask 20 mpls te affinity property 10 mask 10 secondary mpls te backup hot-standby mpls te commit#interface Tunnel721 description Core_SPE1 to Site3_UPE5 ip address unnumbered interface LoopBack1 tunnel-protocol mpls te destination 172.16.2.87 mpls te tunnel-id 312 mpls te record-route mpls te affinity property 10 mask 10 mpls te affinity property 20 mask 20 secondary mpls te backup hot-standby mpls te commit#tunnel-policy TSel //配置隧道策略 tunnel select-seq cr-lsp lsp load-balance-number 1 //配置优选CR-LSP隧道。#tunnel-policy TE tunnel select-seq cr-lsp load-balance-number 1#
# 配置UPE
以Site1_UPE1为例,汇聚UPE设备配置如下。Site1_UPE2、Site2_UPE3、Site2_UPE4、Site3_UPE5和Site3_UPE6的配置与Site1_UPE1类似,不再赘述。
mpls mpls te //使能全局MPLS TE。 mpls rsvp-te //使能RSVP-TE。 mpls te cspf //使能CSPF算法。#interface Eth-Trunk7 mpls te //使能接口MPLS TE。 mpls te link administrative group c //配置链路的管理组属性,以便TE隧道选择主备路径。 mpls rsvp-te //使能接口RSVP-TE。#interface Eth-Trunk17 mpls te mpls te link administrative group 4 mpls rsvp-te#ospf 1 opaque-capability enable //使能OSPF的Opaque能力。 area 0.0.0.0 mpls-te enable //在当前OSPF区域使能MPLS TE。#interface Tunnel611 //指定Site1_UPE1至Core_SPE1的Tunnel。 description Site1_UPE1 to Core_SPE1 //接口描述。 ip address unnumbered interface LoopBack1 //Tunnel的IP地址直接借用Loopback接口的IP地址。 tunnel-protocol mpls te //配置隧道协议为MPLS TE。 destination 172.16.0.5 //配置隧道的目的地址为Core_SPE1。 mpls te tunnel-id 71 //配置Tunnel ID,此ID本地有效且在本设备上必须唯一。 mpls te record-route //配置隧道支持路由记录,记录隧道的详细路径信息,便于以后运维。 mpls te affinity property 4 mask 4 //配置主CR-LSP的亲和属性,以便选择最佳转发路径。 mpls te affinity property 8 mask 8 secondary //配置备CR-LSP的亲和属性。 mpls te backup hot-standby //配置隧道为热备份模式。 mpls te commit //提交本隧道下所有MPLS TE的配置。只有执行本命令后配置才能生效。#interface Tunnel612 description Site1_UPE1 to Core_SPE2 ip address unnumbered interface LoopBack1 tunnel-protocol mpls te destination 172.16.0.3 mpls te tunnel-id 72 mpls te record-route mpls te affinity property 4 mask 4 mpls te affinity property 8 mask 8 secondary mpls te backup hot-standby mpls te commit#tunnel-policy TSel //配置隧道策略 tunnel select-seq cr-lsp lsp load-balance-number 1 //配置优选CR-LSP隧道。#
# 执行display mpls te tunnel-interface Tunnel命令查看本地节点的隧道接口信息。
以Core_SPE1到Site1_UPE1的隧道Tunnel611为例,查看隧道接口信息,显示隧道主LSP、热备份LSP状态均为UP,表示隧道的主备LSP建立正常。
[Core_SPE1]display mpls te tunnel-interface Tunnel611 ---------------------------------------------------------------- Tunnel611 ---------------------------------------------------------------- Tunnel State Desc : UP Active LSP : Primary LSP Session ID : 71 Ingress LSR ID : 172.16.0.5 Egress LSR ID: 172.16.2.51 Admin State : UP Oper State : UP Primary LSP State : UP Main LSP State : READY LSP ID : 1 Hot-Standby LSP State : UP Main LSP State : READY LSP ID : 32772
# 执行display mpls te hot-standby state all命令,查看全部热备份隧道的状态。
以Core_SPE1全部热备份隧道为例,全部热备份隧道的状态为Primary LSP表示当前流量切换到主CR-LSP路径。
[Core_SPE1]display mpls te hot-standby state all---------------------------------------------------------------------No. tunnel name session id switch result ---------------------------------------------------------------------1 Tunnel611 71 Primary LSP 2 Tunnel622 82 Primary LSP 3 Tunnel711 311 Primary LSP 4 Tunnel721 312 Primary LSP
# 执行ping lsp te tunnel命令检测LSP的连通性及LSP是否能够正常的转发,需要检测各设备TE隧#道的双向连通性。
以Core_SPE1到Site1_UPE1的隧道Tunnel611为例,需要在TE隧道起点和终点设备上使用如下命令测试。
[Core_SPE1] ping lsp te Tunnel611
LSP PING FEC: TE TUNNEL IPV4 SESSION QUERY Tunnel611 : 100 data bytes, press CTRL_C to break
Reply from 172.16.2.51: bytes=100 Sequence=1 time=5 ms
Reply from 172.16.2.51: bytes=100 Sequence=2 time=3 ms
Reply from 172.16.2.51: bytes=100 Sequence=3 time=3 ms
Reply from 172.16.2.51: bytes=100 Sequence=4 time=2 ms
Reply from 172.16.2.51: bytes=100 Sequence=5 time=3 ms
--- FEC: TE TUNNEL IPV4 SESSION QUERY Tunnel611 ping statistics ---
5 packet(s) transmitted
5 packet(s) received
0.00% packet loss
round-trip min/avg/max = 2/3/5 ms
[Core_SPE1] ping lsp te Tunnel611 hot-standby
LSP PING FEC: TE TUNNEL IPV4 SESSION QUERY Tunnel611 : 100 data bytes, press CTRL_C to break
Reply from 172.16.2.51: bytes=100 Sequence=1 time=2 ms
Reply from 172.16.2.51: bytes=100 Sequence=2 time=2 ms
Reply from 172.16.2.51: bytes=100 Sequence=3 time=3 ms
Reply from 172.16.2.51: bytes=100 Sequence=4 time=2 ms
Reply from 172.16.2.51: bytes=100 Sequence=5 time=3 ms
--- FEC: TE TUNNEL IPV4 SESSION QUERY Tunnel611 ping statistics ---
5 packet(s) transmitted
5 packet(s) received
0.00% packet loss
round-trip min/avg/max = 2/2/3 ms
# 执行tracert lsp te Tunnel命令检测LSP的转发路径。
以Core_SPE1到Site1_UPE1的隧道Tunnel611为例,需要保证隧道路径和隧道热备路径不重复。
[Core_SPE1]tracert lsp te Tunnel611 LSP Trace Route FEC: TE TUNNEL IPV4 SESSION QUERY Tunnel611 , press CTRL_C to break. TTL Replier Time Type Downstream 0 Ingress 172.17.4.11/[1078 ] 1 172.16.2.51 3 ms Egress
[Core_SPE1]tracert lsp te Tunnel611 hot-standby LSP Trace Route FEC: TE TUNNEL IPV4 SESSION QUERY Tunnel611 , press CTRL_C to break. TTL Replier Time Type Downstream 0 Ingress 172.17.4.9/[1391 ] 1 172.17.4.9 3 ms Transit 172.17.4.13/[1169 ] 2 172.17.4.13 7 ms Transit 172.17.4.14/[1109 ] 3 172.16.2.51 4 ms Egress
b、配置RSVP GR
# 配置SPE
以Core_SPE1为例,核心环SPE设备配置如下。Core_SPE2和Core_SPE3的配置与Core_SPE1类似,不再赘述。
mpls mpls rsvp-te hello //使能全局RSVP Hello扩展功能。 mpls rsvp-te hello full-gr //使能RSVP GR能力和RSVP GR Helper能力。#interface Eth-Trunk4 mpls rsvp-te hello //使能接口的RSVP Hello扩展功能。#interface Eth-Trunk5 mpls rsvp-te hello#interface Eth-Trunk17 mpls rsvp-te hello#interface XGigabitEthernet6/0/4 mpls rsvp-te hello#
# 配置UPE
以Site1_UPE1为例,汇聚UPE设备配置如下。Site1_UPE2、Site2_UPE3、Site2_UPE4、Site3_UPE5和Site3_UPE6的配置与Site1_UPE1类似,不再赘述。
长按识别二维码关注:网络民工
mpls mpls rsvp-te hello //使能全局RSVP Hello扩展功能。 mpls rsvp-te hello full-gr //使能RSVP GR能力和RSVP GR Helper能力。#interface Eth-Trunk7 mpls rsvp-te hello //使能接口的RSVP Hello扩展功能。#interface Eth-Trunk17 mpls rsvp-te hello#
c、配置BFD for CR-LSP
# 配置SPE
以Core_SPE1为例,核心环SPE设备配置如下。Core_SPE2和Core_SPE3的配置与Core_SPE1类似,不再赘述。
bfd SPE1toUPE1_b bind mpls-te interface Tunnel611 te-lsp backup //使用静态BFD对TE隧道Tunnel611的备CR-LSP进行检测。 discriminator local 6116 //指定本地标识符。本端的本地标识符需与对端的远端标识符相同。 discriminator remote 6115 //指定远端标识符。 detect-multiplier 8 //指定本地BFD检测倍数。 min-tx-interval 3 //设置本地发送BFD报文的最小时间间隔是3.3ms。 min-rx-interval 3 //设置本地接收BFD报文的最小时间间隔是3.3ms。 process-pst //为加快倒换,需允许BFD会话修改端口状态表PST。 commit //提交BFD会话配置。#bfd SPE1toUPE1_m bind mpls-te interface Tunnel611 te-lsp //使用静态BFD对TE隧道Tunnel611的主CR-LSP进行检测。 discriminator local 6112 discriminator remote 6111 detect-multiplier 8 min-tx-interval 3 min-rx-interval 3 process-pst commit#bfd SPE1toUPE2_b bind mpls-te interface Tunnel622 te-lsp backup //使用静态BFD对TE隧道Tunnel622的备CR-LSP进行检测。 discriminator local 6226 discriminator remote 6225 detect-multiplier 8 min-tx-interval 3 min-rx-interval 3 process-pst commit#bfd SPE1toUPE2_m bind mpls-te interface Tunnel622 te-lsp //使用静态BFD对TE隧道Tunnel622的主CR-LSP进行检测。 discriminator local 6222 discriminator remote 6221 detect-multiplier 8 min-tx-interval 3 min-rx-interval 3 process-pst commit#bfd SPE1toUPE5_b bind mpls-te interface Tunnel721 te-lsp backup //使用静态BFD对TE隧道Tunnel721的备CR-LSP进行检测。 discriminator local 7216 discriminator remote 7215 detect-multiplier 8 min-tx-interval 3 min-rx-interval 3 process-pst commit#bfd SPE1toUPE5_m bind mpls-te interface Tunnel721 te-lsp //使用静态BFD对TE隧道Tunnel721的主CR-LSP进行检测。 discriminator local 7212 discriminator remote 7211 detect-multiplier 8 min-tx-interval 3 min-rx-interval 3 process-pst commit#bfd SPE1toUPE6_b bind mpls-te interface Tunnel711 te-lsp backup //使用静态BFD对TE隧道Tunnel711的备CR-LSP进行检测。 discriminator local 7116 discriminator remote 7115 detect-multiplier 8 min-tx-interval 3 min-rx-interval 3 process-pst commit#bfd SPE1toUPE6_m bind mpls-te interface Tunnel711 te-lsp //使用静态BFD对TE隧道Tunnel711的主CR-LSP进行检测。 discriminator local 7112 discriminator remote 7111 detect-multiplier 8 min-tx-interval 3 min-rx-interval 3 process-pst commit#
# 配置UPE
以Site1_UPE1为例,汇聚UPE设备配置如下。Site1_UPE2、Site2_UPE3、Site2_UPE4、Site3_UPE5和Site3_UPE6的配置与Site1_UPE1类似,不再赘述。
bfd UPE1toSPE1_m_b bind mpls-te interface Tunnel611 te-lsp backup //使用静态BFD对TE隧道Tunnel611的备CR-LSP进行检测。 discriminator local 6115 //指定本地标识符。本端的本地标识符需与对端的远端标识符相同。 discriminator remote 6116 //指定远端标识符。 detect-multiplier 8 //指定本地BFD检测倍数。 min-tx-interval 3 //设置本地发送BFD报文的最小时间间隔是3.3ms。 min-rx-interval 3 //设置本地接收BFD报文的最小时间间隔是3.3ms。 process-pst //为加快倒换,需允许BFD会话修改端口状态表PST。 commit //提交BFD会话配置。#bfd UPE1toSPE1_m bind mpls-te interface Tunnel611 te-lsp //使用静态BFD对TE隧道Tunnel611的主CR-LSP进行检测。 discriminator local 6111 discriminator remote 6112 detect-multiplier 8 min-tx-interval 3 min-rx-interval 3 process-pst commit#bfd UPE1toSPE2_b bind mpls-te interface Tunnel612 te-lsp backup //使用静态BFD对TE隧道Tunnel612的备CR-LSP进行检测。 discriminator local 6125 discriminator remote 6126 detect-multiplier 8 min-tx-interval 3 min-rx-interval 3 process-pst commit#bfd UPE1toSPE2_m bind mpls-te interface Tunnel612 te-lsp //使用静态BFD对TE隧道Tunnel612的主CR-LSP进行检测。 discriminator local 6121 discriminator remote 6122 detect-multiplier 8 min-tx-interval 3 min-rx-interval 3 process-pst commit#
# 执行命令display bfd session all for-te命令查看BFD状态。
以Core_SPE1为例,如果BFD状态正常,可以看到对应Tunnel的类型为S_TE_LSP的BFD会话均处于Up状态。
[Core_SPE1]display bfd session all for-te--------------------------------------------------------------------------------Local Remote PeerIpAddr State Type InterfaceName --------------------------------------------------------------------------------7112 7111 172.16.2.86 Up S_TE_LSP Tunnel711 7212 7211 172.16.2.87 Up S_TE_LSP Tunnel721 7216 7215 172.16.2.87 Up S_TE_LSP Tunnel721 7116 7115 172.16.2.86 Up S_TE_LSP Tunnel711 6226 6225 172.16.2.50 Up S_TE_LSP Tunnel622 6116 6115 172.16.2.51 Up S_TE_LSP Tunnel611 6112 6111 172.16.2.51 Up S_TE_LSP Tunnel611 6222 6221 172.16.2.50 Up S_TE_LSP Tunnel622 -------------------------------------------------------------------------------- Total UP/DOWN Session Number : 8/0
05
部署L3***业务及其保护(Ho***)
对于轨道交通承载网来说,L3***业务承载就是打通站点与站点之间的IP通道。如图1所示,例如从Site1_UPE1到Site2_UPE3之间建立层次化的L3***通道,用于承载Site1和Site2两个站点之间的IP数据业务。
采用Ho***方式部署L3***业务及其保护,思路如下:
1、部署MP-BGP。
在UPE与SPE、SPE与SPE之间建立MP-IBGP对等体关系。
通过路由规划,使得UPE到SPE的流量走缺省路由,SPE到UPE的流量走明细路由。
配置路由优先级策略,保证UPE发往其他站点的流量优先走与其直接相连的SPE进行转发。
配置路由优先级策略,保证SPE发往其他站点的流量优先走与其直接相连的UPE进行转发。
配置路由过滤策略,保证SPE不能将站点内的ARP Vlink直连路由发布给其他站点UPE设备。
配置路由过滤策略,保证SPE不能从其他SPE接收与自己直接相连的站点的任何路由信息,否则可能造成路由环路。比如Core_SPE2既不能接收Core_SPE1发来的Site1的任何路由,也不能接收Core_SPE3发来的Site2的任何路由。
2、部署***业务。
在UPE和SPE部署***实例,UPE上需要将接口绑定***实例,SPE上不需要将接口绑定***实例。
UPE上的***业务优先使用TE隧道进行承载,在混合FRR时可以选择LSP隧道进行承载。
在SPE上配置隧道选择器,***v4路由下一跳地址前缀为其他SPE时任选隧道策略,下一跳为其余地址的仅可以选择TE隧道进行转发。
在同一站点两台UPE设备部署VRRP,同时向相连的SPE设备发送ARP Vlink直连路由,以便SPE选择最佳路线向CE发送报文。
3、部署可靠性保护
同一站点两台UPE设备部署VRRP,作为网关备份,保证CE上行流量的可靠性;配置Backup设备转发业务流量功能,减少由于VRRP切换导致的业务受损。
UPE设备部署*** FRR,当通往SPE的TE隧道发生故障时,流量自动切换到同一站点另一台SPE设备的TE隧道上,减少***业务受到的影响。
SPE设备部署*** FRR,当SPE设备发生故障时将***业务切换到另一台SPE上,实现***业务端到端的快速切换。
SPE设备部署*** FRR,当通往UPE的TE隧道发生故障时,流量自动切换到同一站点另一台UPE设备的TE隧道上,减少***业务受到的影响。
UPE设备部署IP和***混合FRR,当下行CE接入侧链路故障,端口感知故障,流量快速切换到对端的UPE上,再转发给CE。
所有UPE和SPE设备部署*** GR,保证承载***业务的设备发生主备倒换时***流量不中断。
4、数据规划
a、配置MP-BGP
# 配置SPE
以Core_SPE1为例,核心环SPE设备配置如下。Core_SPE2和Core_SPE3的配置与Core_SPE1类似,不再赘述。
tunnel-selector TSel permit node 9 if-match ip next-hop ip-prefix core_nhp //配置隧道选择器,***v4路由下一跳地址前缀为其他SPE时任选隧道进行迭代。#tunnel-selector TSel permit node 10 //当从IBGP邻居收来的路由需转发到另外一个IBGP邻居,且转发时修改下一跳为自己时,需要配置隧道选择器将路由迭代到TE隧道。 apply tunnel-policy TE#bgp 65000 group devCore internal //创建IBGP对等体组 peer devCore connect-interface LoopBack1 //指定BGP报文的源接口和地址为loopback1。 peer 172.16.0.3 as-number 65000 //建立SPE之间的对等体关系。 peer 172.16.0.3 group devCore //将SPE加入对等体组。 peer 172.16.0.4 as-number 65000 peer 172.16.0.4 group devCore group devHost internal peer devHost connect-interface LoopBack1 peer 172.16.2.50 as-number 65000 peer 172.16.2.50 group devHost peer 172.16.2.51 as-number 65000 peer 172.16.2.51 group devHost peer 172.16.2.86 as-number 65000 peer 172.16.2.86 group devHost peer 172.16.2.87 as-number 65000 peer 172.16.2.87 group devHost # ipv4-family unicast undo synchronization undo peer devCore enable undo peer devHost enable undo peer 172.16.2.50 enable undo peer 172.16.2.51 enable undo peer 172.16.0.3 enable undo peer 172.16.0.4 enable undo peer 172.16.2.86 enable undo peer 172.16.2.87 enable # ipv4-family ***v4 policy ***-target tunnel-selector TSel //SPE发布给UPE默认路由,SPE将UPE的路由转发给其他SPE,且修改下一跳为本身。故需配置隧道选择器将发往UPE的bgp ***v4路由迭代到TE隧道,发往其他SPE的bgp ***v4路由迭代到LSP隧道。 peer devCore enable peer devCore route-policy core-import import //收到其他SPE发来的路由时将与自己相连的站点的所有路由信息进行过滤。 peer devCore advertise-community peer 172.16.0.3 enable peer 172.16.0.3 group devCore peer 172.16.0.4 enable peer 172.16.0.4 group devCore peer devHost enable peer devHost route-policy p_iBGP_RR_in import //收到UPE发来的路由时将主机路由过滤,同时收到靠近自己的UPE站点的路由首选值为300,其他站点的路由首选值为200。 peer devHost advertise-community //将团体属性发布给对等体组。 peer devHost upe //配置对等体devHost为UPE角色。 peer devHost default-originate ***-instance ***a //向UPE发送***a的缺省路由。 peer 172.16.2.50 enable peer 172.16.2.50 group devHost peer 172.16.2.51 enable peer 172.16.2.51 group devHost peer 172.16.2.86 enable peer 172.16.2.86 group devHost peer 172.16.2.87 enable peer 172.16.2.87 group devHost ##route-policy p_iBGP_RR_in deny node 5 //过滤所有站点的主机路由。 if-match ip-prefix deny_host if-match community-filter all_site#route-policy p_iBGP_RR_in permit node 11 //设置靠近自己的UPE设备发布优先级为300。 if-match community-filter site1 apply preferred-value 300#route-policy p_iBGP_RR_in permit node 12 //设置站点另外一台UPE设备发布优先级为200。 if-match community-filter site2 apply preferred-value 200#route-policy p_iBGP_RR_in permit node 13 //设置站点另外一台UPE设备发布优先级为200。 if-match community-filter site3 apply preferred-value 200#route-policy p_iBGP_RR_in permit node 20 //允许剩余所有路由。#route-policy core-import deny node 5 //丢弃和自己直连的站点所有路由。 if-match community-filter site12#route-policy core-import deny node 6 //丢弃和自己直连的站点所有路由。 if-match community-filter site13#route-policy core-import permit node 10 //允许剩余所有路由。#ip ip-prefix deny_host index 10 permit 0.0.0.0 0 greater-equal 32 less-equal 32 //所有32位主机路由被Permit,其他都被Deny。ip ip-prefix core_nhp index 10 permit 172.16.0.3 32ip ip-prefix core_nhp index 20 permit 172.16.0.4 32 //路由172.16.0.3/32和172.16.0.4/32被Permit,其他都被Deny。#ip community-filter basic site1 permit 100:100 //创建团体属性过滤器site1,团体属性为100:100ip community-filter basic site2 permit 200:200ip community-filter basic site3 permit 300:300ip community-filter basic all_site permit 5720:5720ip community-filter basic site12 permit 12:12ip community-filter basic site13 permit 13:13#
配置UPE
以Site1_UPE1为例,汇聚UPE设备配置如下。Site1_UPE2、Site2_UPE3、Site2_UPE4、Site3_UPE5和Site3_UPE6的配置与Site1_UPE1类似,不再赘述。
bgp 65000 group devCore internal peer devCore connect-interface LoopBack1 peer 172.16.0.3 as-number 65000 peer 172.16.0.3 group devCore peer 172.16.0.5 as-number 65000 peer 172.16.0.5 group devCore group devHost internal peer devHost connect-interface LoopBack1 peer 172.16.2.50 as-number 65000 peer 172.16.2.50 group devHost # ipv4-family unicast undo synchronization undo peer devCore enable undo peer devHost enable undo peer 172.16.2.50 enable undo peer 172.16.0.3 enable undo peer 172.16.0.5 enable # ipv4-family ***v4 policy ***-target peer devCore enable peer devCore route-policy p_iBGP_host_ex export //配置UPE发布给SPE的路由携带的团体属性。 peer devCore advertise-community peer 172.16.0.3 enable peer 172.16.0.3 group devCore peer 172.16.0.3 preferred-value 200 //配置Core_SPE2的优先级为200。 peer 172.16.0.5 enable peer 172.16.0.5 group devCore peer 172.16.0.5 preferred-value 300 //配置Core_SPE1的优先级为300,以使得Site1_UPE1始终优选Core_SPE1发来的路由。 peer devHost enable peer devHost advertise-community peer 172.16.2.50 enable peer 172.16.2.50 group devHost ##route-policy p_iBGP_host_ex permit node 0 //为路由添加团体属性值。 apply community 100:100 5720:5720 12:12#
# 执行display bgp ***v4 all peer命令查看BGP ***v4邻居状态。
以Core_SPE1为例,可以看到BGP对等体关系已建立,并达到Established状态。
[Core_SPE1]display bgp ***v4 all peer
BGP local router ID : 172.16.0.5
Local AS number : 65000
Total number of peers : 4 Peers in established state : 4
Peer V AS MsgRcvd MsgSent OutQ Up/Down State PrefRcv
172.16.2.51 4 65000 2102 1859 0 20:55:17 Established 550
172.16.2.86 4 65000 3673 2989 0 0026h03m Established 550
172.16.0.3 4 65000 1659 1462 0 20:57:05 Established 200
172.16.0.4 4 65000 3421 2494 0 0026h03m Established 200
b、配置L3***
#配置SPE
以Core_SPE1为例,核心环SPE设备配置如下。Core_SPE2和Core_SPE3的配置与Core_SPE1类似,不再赘述。
ip ***-instance ***a //创建***实例。 ipv4-family route-distinguisher 5:1 //配置ID。 tnl-policy TSel //选择TE作为***实例隧道。 ***-target 0:1 export-extcommunity //配置***-Target扩展团体属性。 ***-target 0:1 import-extcommunity#bgp 65000 # ipv4-family ***v4 nexthop recursive-lookup delay 10 //设置下一跳迭代延时10秒。 route-select delay 120 //配置选路延迟120s,防止路由回切太快导致断流。 # ipv4-family ***-instance ***a default-route imported //向***a引入缺省路由。 nexthop recursive-lookup route-policy delay_policy //配置BGP按路由策略delay_policy进行下一跳迭代。 nexthop recursive-lookup delay 10 route-select delay 120#route-policy delay_policy permit node 0 //允许所有站点路由。 if-match community-filter all_site#
#配置UPE
以Site1_UPE1为例,汇聚UPE设备配置如下。Site1_UPE2、Site2_UPE3、Site2_UPE4、Site3_UPE5和Site3_UPE6的配置与Site1_UPE1类似,不再赘述。
arp vlink-direct-route advertise //配置发布IPv4 ARP Vlink直连路由。#ip ***-instance ***a ipv4-family route-distinguisher 1:1 tnl-policy TSel arp vlink-direct-route advertise ***-target 0:1 export-extcommunity ***-target 0:1 import-extcommunity#interface XGigabitEthernet1/0/4 port link-type trunk undo port trunk allow-pass vlan 1#interface XGigabitEthernet1/0/4.200 dot1q termination vid 200 ip binding ***-instance ***a //将***实例与对应业务接口绑定。 arp direct-route enable //配置ARP向RM上报ARP Vlink直连路由。 ip address 172.18.200.66 255.255.255.192 arp broadcast enable //使能终结子接口的ARP广播功能。#bgp 65000 # ipv4-family ***v4 route-select delay 120 # ipv4-family ***-instance ***a default-route imported import-route direct route-policy p_iBGP_RR_ex //向***a引入直连路由,并添加团体属性。 route-select delay 120 ##route-policy p_iBGP_RR_ex permit node 0 //为路由添加团体属性值。 apply community 100:100 5720:5720 12:12#arp expire-time 62640 //配置动态ARP表项的老化超时时间。arp static 172.18.200.68 0001-0002-0003 vid 200 interface XGigabitEthernet1/0/4.200 //设置静态ARP表项。#
c、配置可靠性保护
1、采用如下的思路配置可靠性保护:
同一站点两台UPE之间部署VRRP,保证CE上行流量的可靠性。以Site1为例进行说明,如图1所示。
配置Site1_UPE1为VRRP的Master,Site1_UPE2为VRRP的Backup,当Site1_UPE1故障时CE1的上行流量能够快速切换至Site1_UPE2。
配置BFD for VRRP,通过硬件BFD可以快速检测到故障,通知VRRP Backup设备快速切换为VRRP Master设备,同时硬件直接发送VRRP免费ARP报文,使接入层设备将流量转发到新的Master设备。
配置Backup设备转发业务流量功能,当VRRP的设备状态为Backup时,只要接收到业务流量,也能够进行转发,有效防止在汇聚设备发生故障时造成的业务流量丢失,减少业务中断时间。
两台UPE之间的VRRP示意图
2、UPE设备部署*** FRR,当通往SPE的TE隧道发生故障时,流量自动切换到同一站点另一台SPE设备的TE隧道上。以Site1_UPE1为例进行说明,如图所示。
汇聚到核心的*** FRR示意图
Site1_UPE1上有两条TE隧道分别到达Core_SPE1和Core_SPE2。在Site1_UPE1部署*** FRR能够保证当Core_SPE1故障时,流量能够快速切换至Core_SPE2。
3、SPE设备部署*** FRR,当SPE设备发生故障时将***业务切换到另一台SPE上,实现***业务端到端的快速切换。以Core_SPE1为例进行说明,如图所示。
核心到核心的*** FRR示意图
Core_SPE1有两条LSP隧道分别到达Core_SPE2和Core_SPE3。在Core_SPE1配置*** FRR能够保证当Core_SPE2故障时,流量快速切换至Core_SPE3。
4、SPE设备部署*** FRR,当通往UPE的TE隧道发生故障时,流量自动切换到同一站点另一台UPE设备的TE隧道上。以Core_SPE2为例进行说明,如图所示。
核心到汇聚的*** FRR示意图
Core_SPE2上有两条TE隧道分别到达Site2_UPE3和Site2_UPE4。在Core_SPE2部署*** FRR能够保证当Site2_UPE3故障时,流量能够快速切换至Site2_UPE4。
5、UPE设备部署IP和***混合FRR,当下行CE接入侧链路故障,端口感知故障,流量快速切换到对端的UPE上,再转发给CE。以Site2为例进行说明,如图所示。
UPE设备部署IP和***混合FRR示意图
当Site2_UPE3去往CE2链路故障时,流量可以通过LSP隧道转发到Site2_UPE4,然后再通过私网IP转发的形式到达CE2,从而提高网络的可靠性。
6、所有UPE和SPE设备部署*** GR,保证承载***业务的设备发生主备倒换时***流量不中断。
# 配置SPE
以Core_SPE1为例,核心环SPE设备配置如下。Core_SPE2和Core_SPE3的配置与Core_SPE1类似,不再赘述。
bgp 65000 graceful-restart //使能BGP GR。 # ipv4-family ***v4 auto-frr //使能***v4 FRR功能。 bestroute nexthop-resolved tunnel //配置***v4路由在下一跳迭代到隧道时才可参与选路,保证流量在回切时不丢包。 # ipv4-family ***-instance ***a auto-frr //使能*** Auto FRR功能。 ***-route cross multipath //使能将多条与***实例的RD值不同的***v4路由交叉至***实例中,防止*** FRR不生效。#
# 配置UPE
以Site1_UPE1为例,汇聚UPE设备配置如下。Site1_UPE2、Site2_UPE3、Site2_UPE4、Site3_UPE5和Site3_UPE6的配置与Site1_UPE1类似,不再赘述。
ip ***-instance ***a ipv4-family ip frr route-policy mixfrr //使能IP FRR功能。#interface XGigabitEthernet1/0/4.200 vrrp vrid 1 virtual-ip 172.18.200.65 //配置VRRP。 vrrp vrid 1 preempt-mode timer delay 250 //配置VRRP备份组中交换机的抢占延迟时间。 vrrp vrid 1 track bfd-session 2200 peer //使能VRRP通过联动BFD会话状态来实现主备切换的功能。 vrrp vrid 1 backup-forward //使能Backup设备转发业务流量的功能。 vrrp track bfd gratuitous-arp send enable //使能VRRP与Peer BFD联动切换时快速发送免费ARP功能。#bfd vrrp-1 bind peer-ip 172.18.200.67 ***-instance ***a interface XGigabitEthernet1/0/4.200 source-ip 172.18.200.66 //配置静态BFD对VRRP进行检测。 discriminator local 2200 //指定本地标识符。本端的本地标识符需与对端的远端标识符相同。 discriminator remote 1200 //指定远端标识符。 detect-multiplier 8 //指定本地BFD检测倍数。 min-tx-interval 3 //设置本地发送BFD报文的最小时间间隔是3.3ms。 min-rx-interval 3 //设置本地接收BFD报文的最小时间间隔是3.3ms。 commit //提交BFD会话配置。#bgp 65000 graceful-restart # ipv4-family ***-instance ***a auto-frr ##route-policy mixfrr permit node 0 //设置备份下一跳,为同一站点另一台UPE的Loopback1地址。 apply backup-nexthop 172.16.2.50#
# 在SPE设备上执行display ip routing-table ***-instance命令查看SPE到UPE方向的*** FRR的状态。
以Core_SPE2为例,加粗字体是备份下一跳、备份标签和备份Tunnel ID信息,表明SPE到UPE方向的*** FRR表项生成。
[Core_SPE2]display ip routing-table ***-instance ***a 172.18.150.4 verbose
Route Flags: R - relay, D - download to fib
------------------------------------------------------------------------------
Routing Table : 1
Summary Count : 1
Destination: 172.18.150.0/26
Protocol: IBGP Process ID: 0
Preference: 255 Cost: 0
NextHop: 172.16.2.75 Neighbour: 172.16.2.75
State: Active Adv Relied Age: 21h55m50s
Tag: 0 Priority: low
Label: 1025 QoSInfo: 0x0
IndirectID: 0x185
RelayNextHop: 0.0.0.0 Interface: Tunnel111
TunnelID: 0x2 Flags: RD
BkNextHop: 172.16.2.76 BkInterface: Tunnel121
BkLabel: 1024 SecTunnelID: 0x0
BkPETunnelID: 0x3 BkPESecTunnelID: 0x0
BkIndirectID: 0xd
# 在UPE设备上执行display ip routing-table ***-instance命令查看混合FRR的状态。
以Site2_UPE3为例,加粗字体是备份下一跳、备份标签和备份Tunnel ID信息,表明混合FRR表项生成。混合FRR路由主路由指向本地子接口,备份路由指向同站点的另外一台UPE设备172.16.2.76
[Site2_UPE3]display ip routing-table ***-instance ***a 172.18.150.4 verbose
Route Flags: R - relay, D - download to fib
------------------------------------------------------------------------------
Routing Table : 1
Summary Count : 2
Destination: 172.18.150.4/32
Protocol: Direct Process ID: 0
Preference: 0 Cost: 0
NextHop: 172.18.150.4 Neighbour: 0.0.0.0
State: Active Adv Age: 1d02h36m21s
Tag: 0 Priority: high
Label: NULL QoSInfo: 0x0
IndirectID: 0x0
RelayNextHop: 0.0.0.0 Interface: XGigabitEthernet0/0/2.150
TunnelID: 0x0 Flags: D
BkNextHop: 172.16.2.76 BkInterface: XGigabitEthernet0/0/4
BkLabel: 1024 SecTunnelID: 0x0
BkPETunnelID: 0x4800001b BkPESecTunnelID: 0x0
BkIndirectID: 0x0
Destination: 172.18.150.4/32
Protocol: IBGP Process ID: 0
Preference: 255 Cost: 0
NextHop: 172.16.2.76 Neighbour: 172.16.2.76
State: Inactive Adv Relied Age: 1d02h36m21s
Tag: 0 Priority: low
Label: 1024 QoSInfo: 0x0
IndirectID: 0xcd
RelayNextHop: 172.16.8.181 Interface: XGigabitEthernet0/0/4
TunnelID: 0x4800001b Flags: R
# 执行display vrrp interface命令查看VRRP状态。
以Site2_UPE3为例,加粗字体表明当前VRRP Master状态,配置Backup设备转发业务流量功能,配置了VRRP与BFD联动功能。
[Site2_UPE3]display vrrp interface XGigabitEthernet0/0/2.150 XGigabitEthernet0/0/2.150 | Virtual Router 1 State : Master Virtual IP : 172.18.150.1 Master IP : 172.18.150.2 PriorityRun : 100 PriorityConfig : 100 MasterPriority : 100 Preempt : YES Delay Time : 250 s TimerRun : 1 s TimerConfig : 1 s Auth type : NONE Virtual MAC : 0000-5e00-0101 Check TTL : YES Config type : normal-vrrp Backup-forward : enabled Track BFD : 1150 type: peer BFD-session state : UP Create time : 2020-08-21 11:02:27 Last change time : 2020-08-21 11:02:55