陳鄭超
(北京全路通信信號研究設計院集團有限公司,北京 100070)
隨著鐵路5G-R 專網、大數據中心建設的快速推進,對于承載網在高帶寬、服務質量承諾、安全性提出了更高的要求,如何基于綜合承載網來滿足各類業務的承載隔離需求,降低網絡建設成本,簡化網絡運維,成為迫切需要解決的問題。
網絡切片技術主要滿足以下幾個方面的需求。
1)業務差異化的需求。對于不同應用場景的業務,有著巨大的差異化需求,以往通常通過建立物理分離的業務專用網絡來滿足,隨著鐵路信息化業務的爆炸性增長,這種業務專網的方式在建設和運維成本上經濟性較弱。而通過網絡切片技術可以在同一物理網絡上根據不同維度來劃分網絡資源,創建邏輯分離子網,實現綜合承載,復用網絡基礎設施。
2)業務快速驗證和部署的需求。網絡切片技術可很好地解決承載網在兼容現網在用業務的同時開展新業務的驗證和部署問題。如現網GSM-R 業務已經大量部署,而5G-R 等新業務與既有業務應用場景有很大的區別,需要進行業務驗證部署,對于承載網的調整將嚴重影響鐵路行車指揮安全,通過在承載網上建立全新的5G-R 切片,并基于切片部署新增的5G 業務,實現與現網在用關鍵業務進行硬隔離,在加快新業務的驗證與部署的同時減少對既有業務的影響。
3)業務隔離的需要。鐵路承載網承載多種業務,安全性差異較大的業務之間需要通過物理隔離來保證安全性,而部分業務之間則需要互聯互通,同時通過統計復用方式來提高網絡利用率的經濟性。傳統的TDM 技術通過純粹的剛性管道對業務進行隔離,保證了安全性但也犧牲了網絡的統計復用能力,降低了網絡的利用率。而網絡切片技術可以根據業務安全性需求來劃分獨立的邏輯網絡資源,實現不同安全需求業務之間的安全隔離,獨立進行管理維護,同時也可以實現同類業務在同一網絡切片之內的統計復用和互聯互通,從而提高網絡總體利用率。
網絡隔離技術實現的關鍵是需要實現數據平面、控制平面和管理平面等多個平面的隔離,目前可以通過多種方案實現。
1)MPLS/VPN 方案
MPLS/VPN 采用MPLS 標簽技術,在數據轉發平面和控制平面進行業務隔離,通過為不同業務配置相應的VPN 實例,控制平面通過MP-BGP實現VPN 實例間路由隔離,數據轉發平面通過LDP 協議建立端到端標簽轉發路徑,VPN 之間通過MP-BGP 屬性進行訪問控制。VPN 實例可作為網絡切片應用單獨使用,支持二層和三層業務的部署場景,但MPLS/VPN 自身仍然需要通過三層的IGP/BGP 協議來建立和維護VPN 轉發表項,通過綁定相應的策略來實現業務的QoS。因此,只能做到業務層面的邏輯隔離,無法實現針對關鍵業務的硬切片隔離能力。
2)信道化子接口方案
信道化子接口方案是二層邏輯接口層面的隔離保障技木,通過在物理接口配置802.1Q 邏輯子接口來實現接入業務的隔離,配置簡單,但是各隔離實例仍然共用同一物理端口的硬件轉發和緩存資源,通常需要和VPN 等三層隔離技術結合使用來實現業務的邏輯隔離,仍然無法實現業務的硬切片隔離能力。
3)FlexE 接口方案
FlexE 接囗通過在以太網層/物理層(L1)之間插入中間層FlexE Shim ,將物理帶寬劃分為多個獨立的物理時隙,各時隙擁有完全獨立的轉發隊列和緩存資源,通過將業務實例與時隙綁定,占用專有轉發平面資源,實現各業務實例間完全的物理隔離和質量保證。
FlexE 接口技術通過在傳統以太網(IEEE802.3)的物理層與MAC 層間插入FlexE Shim 層,將以太網MAC 層與物理層解隅如圖1所示,從而實現了FlexE 接口可以靈活匹配各類物理速率。

圖1 FlexE 接口邏輯架構Fig.1 Interface logic architecture of FlexE
FlexE 基于Client/Group 架構,可以支持任意FlexE Client 在FlexE Group 上的映射與傳輸,從而實現邏輯通道捆綁、通道化及子速率等功能。其中:
FlexE Client:對應標準以太網絡的各種物理用戶接囗,支持帶寬需求靈活配置,支持多種速率的以太網數據流(如10 G、40 G、N×25 G 等),并通過64B/66B 編碼的方式將數據流傳遞至FlexE Shim 層。
FlexE Shim:作為FlexE 技術的核心架構,在以太網MAC 層與物理層中間插入獨立的邏輯子層,實現以太網MAC 層與物理層解耦,通過基于Calendar 的時隙分發機制來實現不同速率的用戶以太業務在物理層的分發。
FlexE Group:與IEEE 802.3 標準以太網物理層定義一致,從而實現FlexE 與傳統以太網兼容運行。
FlexE 的核心功能通過FlexE Shim 層實現如圖2 所示,將FlexE Group 中的100 G 或更高物理帶寬劃分為多個5 G 帶寬的邏輯子通道,每條物理鏈路所對應的這一組邏輯通道被稱為一個Sub-calendar。FlexE Client 原始數據流中的以太網報文以原子數據塊(為64/66B 編碼)為單位進行時隙切分,通過FlexE Shim 層來實現FlexE Group 與物理鏈路的時隙對應與分發。FlexE Client 與FlexE Group 的映射也基于calendar 機制,按照每個FlexE Client流所需帶寬以及Shim 層中對應每個物理鏈路中邏輯通道的分布情況來計算、分配Group 中可用的時隙,實現Client 數據流在Group 中的映射和承載。

圖2 FlexE邏輯映射實現Fig.2 Logical mapping implementation of FlexE
根據FlexE 的技術特點,Client 可向上層應用提供各種靈活的帶寬而不拘泥于物理帶寬,根據Client 與Group 的映射關系,FlexE 可提供如下主要功能:
1)捆綁:通過多路物理鏈路捆綁,支持更高速率。如將8 路100 G 通道捆綁實現800 G 速率。
2)通道化:多路低速率數據流共享一路物理帶寬。如在100 G 帶寬上同時承載多路不同速率的數據流。
3)子速率(Sub-Rate):單一低速率數據流共享一路或者多路物理帶寬,并通過特殊定義的報文頭字段實現降速工作。如在100 G 物理鏈路上僅承載50 G 數據流。
FlexE 交叉技術是在FlexE 接口技術基礎上,在物理層增加FlexE Client 時隙交叉和電信級OAM&保護功能,支持對于類TDM 業務的端到端的隧道組網,實現了類似于傳統TDM 設備的物理隔離。同時,FlexE 交叉基于時隙交叉技術來實現業務直通轉發,避免設備在分組轉發過程中對于承載業務的成幀、組包、查表、緩存等處理過程,從而大大降低網絡時延和抖動。
FlexE 交叉通過基于L1 時隙交換轉發,通過配置時隙間交叉,實現基于固定徑路和固定碼率的轉發處理,承載網絡對于報文完全無感知,避免了分組報文轉發的緩存、查表等操作,處理時延可達到μs 級別,幾乎無抖動。
隨著鐵路5G 專網的應用、數據中心規劃建設以及網絡云化進程加速,對于承載網來說不僅僅是流量的大幅提升,同時承載網也面臨超低時延、高可靠、高度靈活、智能化等方面的挑戰。從統一資源調度、統一運維管理、統一大數據應用等角度出發,鐵路下一代承載網不僅要滿足5G 專網的承載需求,同時還要滿足運輸調度、公安、客票、信息、智慧鐵路、智能運維等其他不同方面業務的需求,支持移動、專線、寬帶等數據統一承載和網絡靈活演進能力。
因此鐵路下一代承載網應支持超大帶寬、超低時延、高精度時間同步傳送、靈活組網調度、高效軟硬管道能力、敏捷業務部署、網絡級的分層OAM 和保護能力、高可靠性、智能管控、敏捷運維等特性。
針對鐵路綜合承載業務場景,可以按照鐵路承載業務安全性和LSA 需求在承載網上劃分多個網絡切片,如安全業務切片、實時視頻業務切片、信息化業務切片,同時基于每個切片內創建具體業務的VPN,在切片間通過端到端FlexE 交叉進行硬隔離,切片內通過VPN 和QoS 實現業務的邏輯隔離,從而更好保證端到端業務隔離和帶寬,同時具有更好的靈活性。
對于實時視頻業務切片的場景,如視頻監控、會議電視等實時性多媒體業務,通過切片來保證大帶寬、低延時的應用場景,將符合需求的網絡資源劃到實時切片中,用于承載相關業務。
對于信息化業務切片場景,由于業務對承載網絡SLA 無特殊需求,可以考慮在此切片中為業務預留足夠帶寬資源,并通過Differsev QoS 策略保證網絡承載通道可用性和帶寬。
對于安全業務切片場景,由于業務對安全性要求高,需要通過硬切片技術來實現端到端安全隔離保證網絡來保證。
以鐵路沿線的業務業務接入為例:
1) 對于5G-R 業務,接入設備側采用FlexE 進行業務切片,對應5G-R BBU,采用獨立的物理口接入承載網,可以綁定不同的VPN,并將多個BBU 業務在匯聚層共享5G-R 切片所劃分的網絡資源,切片內各類業務通過Diffsev QoS 進行帶寬保證,配置CIR 來保證承諾帶寬,業務間共享PIR 峰值帶寬。切片之間通過FLexE 接口實現5G-R 切片與其他業務切片業務隔離;
2) 對于鐵路信息化業務,業務末端節點可通過GPON 或以太網匯聚接入承載網絡,并通過層次化VLAN 實現業務邏輯隔離和區分,綁定到不同的業務VPN,通過VPN 實現業務隔離,各類業務可以共享承載網切片內的網絡資源,同時其他切片業務之間完全隔離;
3) 對于有著嚴格安全等級保護要求,或者對于時延、抖動等QoS 指標有著極高要求的業務,可以采用FlexE 交叉方案,采用基于業務流的TDM 的碼流交叉方式,無需進行尋址,通過時隙交叉完成業務流轉發。基于FlexE 交叉形成的網絡切片,切片間的業務互相隔離不可見,可以實現關鍵業務數據包的嚴格隔離和帶寬保證,極低時延和抖動的QoS 指標。但由于FlexE 接口的帶寬顆粒度相對固定,如果所有業務均通過FIexE 交叉來實現物理硬切片,需要在全網配置大量的端到端隧道,對于網絡配置、調度資源壓力很大,業務部署靈活性較差,無法實現網絡資源的有效復用。因此建議將FlexE交叉方案作為有嚴格安全性要求的重要專線業務和極低時延抖動高可靠性業務切片使用。