一、引言
5G網絡的快速發展推動了超高速、低時延和大連接的需求,而核心網作為5G系統的關鍵組成部分,負責數據處理、流量管理和資源分配,其性能直接影響用戶體驗和網絡效率。然而,5G核心網的高動態性和復雜性使得傳統基于規則的監控與調度方法逐漸失效。例如,手動配置的資源分配策略無法快速適應流量峰值,而靜態監控手段難以精準預測潛在故障。近年來,機器學習技術在網絡優化領域展現出巨大的應用潛力。深度學習能夠從海量數據中提取復雜模式,強化學習則適用于動態決策場景。
本文提出了一種基于機器學習的智能化框架,通過實時性能監控與動態資源調度,解決5G核心網在高負載和多樣化業務場景下的瓶頸問題。本研究的創新點在于將深度學習與強化學習相結合,構建自適應模型,實現性能預測與資源優化的閉環控制。
二、系統架構設計
本文設計的智能化策略旨在通過機器學習技術優化5G核心網的性能監控與資源調度,其系統架構包含三個核心模塊:數據采集模塊、性能預測模塊和資源調度模塊,整體基于云原生技術實現,以確保高擴展性和低耦合性。本文將對各模塊的功能、方法及數據支撐進行詳細論述。
(一)數據采集模塊
數據采集模塊負責從5G核心網的關鍵網元(如用戶平面功能UPF、會話管理功能SMF)實時獲取性能指標。采集的關鍵性能指標(KPI)包括吞吐量、時延、丟包率和資源占用率。具體而言,吞吐量以每秒兆比特(Mbps)為單位,時延以毫秒(ms)為單位,丟包率以百分比( % )表示,資源占用率則涵蓋CPU和內存使用百分比。假設某運營商核心網每日產生約500GB的日志數據,采集模塊每秒從10個網元節點提取約2000條記錄,數據采集頻率為1次/秒。為確保實時性,模塊采用Kafka分布式消息隊列處理高并發數據流,峰值吞吐量可達每秒50萬條記錄。這種設計能夠支持大規模5G網絡的動態監控需求。
(二)性能預測模塊
性能預測模塊利用長短期記憶網絡(LSTM)分析采集到的時序數據,以預測未來網絡負載和潛在性能瓶頸。LSTM通過其記憶單元和門控機制,擅長處理非線性時序數據,如核心網流量隨時間波動的模式。輸入數據包括過去30分鐘的KPI序列(1800個采樣點),外部變量如用戶連接數(假設峰值時為50萬)和業務類型占比(視頻流占 60% 、物聯網占 30% 、其他占10% )。輸出為未來5分鐘(300秒)的性能預測值,如吞吐量預計從當前 500Mbps 升至 620Mbps ,時延從
10ms 增至 12ms 。模型訓練基于某運營商提供的10萬條歷史記錄,訓練集和測試集按8:2劃分,損失函數為均方誤差(MSE),計算公式為:

其中, yi 為真實值,
為預測值, n 為樣本數。經過50輪迭代,MSE收斂至0.021,預測準確率達 95% 以上。這種預測能力為后續的資源調度提供了可靠依據。
(三)資源調度模塊
資源調度模塊采用基于深度強化學習(DRL)的DDPG(DeepDeterministic PolicyGradient)算法,根據性能預測結果動態調整虛擬機或容器的資源分配比例。DDPG算法通過定義狀態空間、動作空間和獎勵函數實現優化。狀態空間包括當前資源利用率(CPU 70% 、內存 65% )、預測負載( 620Mbps )和網絡時延( 12ms );動作空間為資源調整比例,例如將某網元CPU分配從20% 增至 25% ;獎勵函數設計為:
R=0.6×ΔT+0.4×(-ΔL)
其中, ΔT 為吞吐量提升率
為時延增量(ms),權重反映對吞吐量的優先考慮。實驗中,初始資源分配為每個網元平均 20% CPU和 30% 內存,經過DDPG調度后,資源利用率提升至CPU 82% 、內存 75% ,吞吐量增加 15% ,時延降低至 9ms 。相較于靜態分配(吞吐量提升 5% ,時延 13ms ),其效果顯著。
系統架構依托云原生技術,通過容器化部署(如Docker和Kubernetes)實現模塊間松耦合,支持快速擴展。例如,當網元節點從10個增至20個時,系統可在5分鐘內完成資源重新分配。這種設計不僅提升了5G核心網的智能化水平,還為高動態場景提供了魯棒性支持。
三、性能預測模型
為了實現對5G核心網性能的精準預測,本文選用長短期記憶網絡(LSTM)模型處理其時序數據,因其通過記憶單元和遺忘門、輸入門、輸出門等門控機制,能夠有效捕捉網絡流量中非線性的長期依賴關系,特別適用于流量隨時間波動較大的場景。模型的輸入數據包括歷史關鍵性能指標(KPI)和外部變量,KPI涵蓋吞吐量(單位:Mbps)、時延(單位:ms)和丟包率(單位: % ),外部變量則包括用戶連接數和業務類型分布;輸出為未來5分鐘內的性能指標預測值,如預測吞吐量從 450Mbps 升至 510Mbps ,時延從 8ms 增至 9.5ms 。輸入數據的時間窗口設定為過去20分鐘(1200個采樣點,采樣頻率1次/秒),外部變量假設某時段用戶連接數為40萬,業務類型分布為視頻流占 55% 、游戲占25% 、網頁瀏覽占 20% 。這種輸入設計旨在全面反映網絡狀態的動態變化,為預測提供充足信息[2]。
訓練數據集來源于某運營商的真實5G核心網日志,包含12萬條樣本,每條樣本記錄了10個網元在一天內的KPI數據,總數據量約為 600GB 。數據集按7:3劃分為訓練集(8.4萬條)和測試集(3.6萬條),時間跨度為30天,其中,高峰時段(每日18:00-22:00)流量占全天 60% ,約360GB。模型以均方誤差(MSE)作為損失函數,公式為:

其中, yi 為真實值,
為預測值, n 為樣本數。優化過程采用 Adam 優化器,初始學習率為0.001,批量大小為64,經過100輪訓練,MSE從初始的0.15逐步收斂至0.018,預測誤差控制在 4.5% 以內。測試集上的具體表現為:吞吐量預測偏差平均為 ±10Mbps ,時延預測偏差為 ±0.6ms ,丟包率偏差為 ±0.2% 。為進一步驗證模型魯棒性,在模擬流量突增場景(用戶連接數從40萬激增至60萬)下,預測準確率仍維持在 94% 以上,顯示出其對異常波動的適應性。為直觀展示模型性能,表1提供了訓練與測試的關鍵指標。
表1訓練與測試的關鍵指標

LSTM模型的高準確性得益于其對時序特征的深度挖掘,如對工作日流量高峰(18:00)與周末低谷(凌晨2:00)的模式差異識別。相較于傳統ARIMA模型(誤差約 8% ,MSE為0.035),LSTM在非線性場景下的預測能力提升約 40% 。模型部署后,每分鐘可處理5000條預測請求,推理耗時僅為 20ms ,滿足實時性要求。這種性能預測方法為5G核心網的資源優化奠定了堅實基礎,尤其在動態負載管理中展現出顯著優勢[3]。
四、資源調度算法
資源調度采用基于深度強化學習的DDPG算法,其設計結合了策略梯度法與Q學習的優點,通過Actor-Critic架構處理連續動作空間,非常適合5G核心網中資源分配的動態調整需求。DDPG算法的狀態空間定義為當前資源利用率(例如CPU占用率 45% 、內存使用率 60% )、預測負載(未來5分鐘內預計吞吐量達 600Mbps )和網絡時延(平均 9ms );動作空間則為調整各網元的資源分配比例,如將某網元CPU占比從30% 提升至 40% ,內存從 50% 增加至 65% ;獎勵函數設計為綜合吞吐量提升率與時延降低率的加權和,公式為:
表2DDPG與基線算法在不同負載下的表現


其中, ΔT 為吞吐量增量, T 為基準吞吐量, ΔD 為時延降幅, D 為基準時延,權重 w1=0.6 、 w2=0.4 ,在鼓勵高效資源使用的同時兼顧低時延。調度模塊與性能預測模塊交互,構成預測-決策-反饋的閉環機制:預測模塊提供負載預估,DDPG據此輸出資源調整策略,執行后系統收集實際性能數據(如吞吐量升至 620Mbps 時延降至 8.5ms ),并據此更新模型參數,使策略適應流量波動。
算法訓練基于模擬5G核心網環境,數據集包含15萬條記錄,覆蓋10個網元在45天內的運行狀態,總數據量約 800GB 。其中,高峰時段(每日17:00-21:00)資源利用率平均達 75% ,低谷時段(凌晨1:00-5:00)僅為20% 。訓練采用Adam優化器,學習率設為0.0001,探索噪聲遵循Omstein-Uhlenbeck過程,標準差為O.2。經過200 輪迭代,累計獎勵從初始的-5.2提升至 18.7[4] 。測試階段選取3萬條獨立樣本,結果顯示DDPG在資源利用率從 50% 突增至 85% 時,能將吞吐量提升 12% (從 550Mbps 至616Mbps),時延降低 10% (從 10ms 至 9ms ),優于傳統靜態調度(提升 7% ,時延降低 5% )。為直觀對比性能,表2展示了DDPG與基線算法在不同負載下的表現。
DDPG的優勢在于其動態適應性。例如,在某購物節流量激增場景下(用戶連接數從50萬升至80萬),算法迅速調整邊緣網絡資源占比(CPU從 35% 增至50% ),使吞吐量從 700Mbps 穩定至 780Mbps ,時延維持在 8ms 以內。而傳統方法因固定分配導致丟包率升至2.5% 。部署后,DDPG每秒處理1000次調度請求,單次決策耗時僅 15ms ,能夠滿足實時性需求。這種閉環優化機制顯著提升了核心網的資源效率,尤其在高并發場景下展現出優于傳統方法的性能。
五、結束語
綜上所述,本文提出了一種基于機器學習的智能化策略,通過性能預測與資源調度的協同優化,顯著提升了5G核心網的運行效率。該方法不僅降低了運維復雜度,還為未來6G網絡的智能化演進奠定了基礎。后續研究可進一步探索多-agent強化學習在分布式核心網中的應用,以應對更大規模的網絡環境。
作者單位:嚴國忠 吳興國 于欣越中國電信股份有限公司安徽分公司
參考文獻
[1]田猛.面向分布式核心網的異常檢測系統的設計與實現[D].北京郵電大學,2024.
[2]張偉露,吉立新,劉樹新,等.IBNAD:一種基于交互的5G核心網網絡功能異常檢測模型[J].信息安全學報,2024,9(03):94-112.
[3]金仙美.面向5G核心網內生智能的業務識別算法研究[D].西安電子科技大學,2023.
[4]蘭蒙.基于機器學習的5G-R網絡切片資源調度與接人控制算法研究[D].上海應用技術大學,2023.