中圖分類號:TP393 文獻標志碼:A
0 引言
邊緣計算作為一種將工作負載部署到網絡邊緣的計算范式,能夠提供比云計算更低的網絡時延和更強的實時性能。在自動駕駛、增強現實等延遲敏感場景中,傳統云計算存在難以及時響應的問題,因而須將計算任務下沉到邊緣側執行,以滿足毫秒級的服務時延要求。目前,Kubernetes已成為容器編排領域的事實標準,但其默認調度器主要面向集中式云環境,在邊緣計算場景下存在諸多局限。默認Kubernetes調度屬于靜態一次性決策,Pod部署后一般不再遷移,在負載突增或網絡狀況波動時可能導致服務質量下降。鑒于上述不足,本文研究并設計一種基于Kubernetes的邊緣計算節點動態調度系統,通過引入運行時預測和遷移機制,動態調度容器工作負載,可根據邊緣節點資源利用率和網絡狀態的變化及時調整Pod部署,以滿足低延遲應用需求。
1系統數據流架構設計
文章提出的系統采用分層設計,包括云端管理層、邊緣節點層和設備接入層。云端管理層由中心KubernetesMaster節點組成,負責全局調度決策和控制,運行定制調度控制模塊以及 Kubemetes 的 API Server、Controller等核心組件。邊緣節點層包含若干異構的邊緣計算節點,每個節點均部署Kuberneteskubelet、kube-proxy等工作節點組件,負責容器運行管理。
圖1為任務產生、監控、調度決策到任務遷移執行的完整流程。無線客戶端終端設備U產生的任務請求首先送達源邊緣節點E1處理;邊緣節點通過監控模塊Mon將自身負載和網絡狀況發送給云端調度模塊Sch;調度模塊調用預測模塊Pred評估未來負載,綜合預測結果調度決策[1];決策須遷移任務時,源邊緣節點E1上的Pod被轉移至目標邊緣節點E2;由E2繼續運行該任務并將結果返回至終端設備U。
2關鍵技術實現
2.1基于預測的容器調度模型
2.1.1資源需求預測模型
本研究在調度決策中構建資源需求預測模型,對邊緣節點未來的負載和資源使用情況進行預測。模型采用時間序列分析的方法,根據監控模塊收集的歷史數據,預測下一時間周期各節點CPU、內存的需求量,使用指數平滑算法對資源使用序列進行建模。設某節點在當前時刻的CPU利用率為 u(t) ,下一時刻的預測值
為:

其中, α 為平滑系數( 0lt;αlt;1 )。上述一次指數平滑模型通過遞歸計算實現對時間序列的平滑預測,即利用當前觀察值與先前預測值的加權組合得到下一步的預測。為了提高預測精度,本研究在基本平滑模型基礎上引入了趨勢項校正,形成二次指數平滑作者簡介:劉江鵬(1997—),男,助教,碩士;研究方向:云計算,軟件開發,人工智能。
圖1系統數據流流程

模型,計算一級平滑值 S(t) 和二級平滑值 B(ι) ,預測:

其中, L=1 ,表示下一周期,系數 a(ι) 和 b(t) 可遞推獲得:

其中, a(t) 表示平滑后的系列水平值, b(ξt) 表示平滑后的系列增長趨勢, β 為趨勢平滑系數。模型訓練采用歷史監控數據計算最小二乘誤差,離線調整α 和 β 以最小化預測值與真實值的偏差。
2.1.2任務調度優化模型
獲得對未來資源需求的預測后,調度決策模塊需要解決的核心問題是如何將現有和新到達的Pod最佳地分配到邊緣集群中的各節點上,以優化全局性能指標。為此,建立任務調度優化模型,以預測的資源需求和網絡狀況為輸入,輸出最優的Pod-節點映射方案,其本質上是一個離散組合優化的數學規劃問題:

上述模型中, P 表示待調度的 Pod 集合, N 表示邊緣節點集合;決策變量 xij∈0,1 ,當 xij=1 時表示調度將 Podi 部署到節點 j 上(每個 Pod 僅部署到一個節點,滿足約束
)。目標函數刻畫了全局的效用 Uij 最大化問題,其中效用 Uij 可根據調度優化目標進行定義[2]。在低延遲場景下,研究將 Uij 定義為綜合了延遲和負載平衡因素的效用評分:

其中 Qij 表示將 Podi 部署在節點 j 上滿足服務時延要求的收益(如懲罰部署在高延遲節點的值為負), Lj 表示節點 j 的當前負載水平, Lmax 為全集群最大負載。第二行約束保證每個 Pod 只能調度到一個節點上,第三行約束為資源容量約束, ri 表示 Podi 所需的資源(如CPU核心數), Rj 表示節點 j 可用的該資源上限,確保任何節點分配的Pod資源總需求不超過其容量。通過求解上述0到1整數規劃問題,即可獲得 Pod 到節點的最優映射方案集合 xij 。
2.2節點負載均衡策略
2.2.1Pod遷移觸發條件
在邊緣計算環境中,單個節點的負載可能隨時變化。如果某節點長時間處于高負載狀態,不僅會導致服務響應延遲增加,還可能因資源耗盡無法承載新任務。為避免節點過載,本研究設計了基于動態閾值的Pod遷移觸發機制。當節點資源使用率突破閾值且持續超過一段時間時,系統觸發將該節點上一部分Pod遷移到其他節點的操作。
本研究在此引入動態調整機制,即閾值根據全局負載狀況自適應變化。閾值 θj(t) 隨時間 χt 按節點 j 最近一段時間的平均負載
和集群平均負載
調整:

其中, θ0 為基準閥值(如CPU利用率 70% ), γ 為調節系數。當節點負載高于集群平均時, 
使得 θj(t) 低于基準閾值,從而提早觸發遷移[3]
2.2.2遷移成本優化
容器的動態遷移在緩解節點過載的同時,也會引入額外的性能開銷。在遷移過程中,應用可能會短暫中斷且須消耗帶寬傳輸容器狀態數據[4]。為降低遷移對服務的影響,本研究對遷移成本進行量化分析,在調度決策中加以優化。
定義遷移成本函數,綜合考慮遷移時延和性能損失等因素。對于待遷移的 Podp ,設其內存狀態大小為 Mp ,遷移網絡帶寬為 B ,則遷移傳輸耗時約為Ttrans=Mp/B;遷移過程中應用暫停執行的時間為Tpause ,視為服務中斷時長,遷移對源和目標節點的額外CPU開銷占用為
,總遷移成本為:
Cmig(p)=w1?Ttrans(p)+w2?Tpause(p)+w3?Tpause(p),
ΔC(p)
其中, w1,w2,w3 為權重系數,反映不同成本要素對總體代價的影響程度。調度決策模塊在選擇遷移對象和目標節點時,將該成本函數納入優化目標,優先遷移成本低、能顯著降低源節點負載的 Pod 。當有多個候選目標節點時,調度模塊會評估將Pod遷往各節點的預計開銷,包括網絡傳輸時間(取決于節點間帶寬和距離)和目標節點對該Pod的適應性(如是否已有鏡像、本地緩存命中率等),選擇綜合成本最低的節點執行遷移。
2.3網絡感知的Pod 遷移策略
在邊緣計算場景中,節點間網絡條件差異顯著,對任務遷移和調度決策有重要影響。為此,本研究在調度模型中引入網絡質量打分機制,以量化不同候選目標節點的網絡優劣程度[5]。量化方式為:為每個節點計算一個網絡質量評分 Sj ,評分越高表示節點 j 與需要服務的終端/源節點之間的網絡通信性能越好,采用歸一化加權和的方式構建評分函數:

其中, Bj 表示將任務遷移至節點 j 可獲得的平均帶寬, Bmax 為理論最大帶寬,用于將帶寬歸一化為0~1范圍; Lj 表示節點 j 與源節點之間的網絡延遲, Lmin 為集群中測得的最小延遲,用于歸一化處理。系數 β? β2 為權重,反映帶寬和延遲在評分中的相對重要性,且 β1+β2=1 。當節點 j 具備較高帶寬和低延遲時,將獲得較大的 Sj 分值;反之,若網絡慢且延遲高,則 Sj 趨近于 0[6] 。調度決策模塊利用該評分機制篩選遷移的目標節點,只有網絡評分高于一定閾值的節點才會被納入遷移候選集。
3 實驗測試分析
3.1實驗環境與性能評估指標
研究團隊在實驗室搭建了一個小型邊緣計算仿真環境對所提系統進行功能和性能測試。實驗環境包含1臺云端控制服務器和3臺邊緣計算節點,所有節點通過千兆以太網互聯,采用Kubernetesv1.23集群進行容器編排。云端控制服務器作為Kubernetes的Master節點,部署了APIServer、調度器和控制管理組件,集成了實現的自定義調度模塊。每臺邊緣節點上運行Kubernetes的kubelet和容器運行時(Docker)。邊緣節點1和邊緣節點2為通用服務器,性能中等;邊緣節點3為小型工控機,性能相對較弱,模擬資源受限的邊緣設備。
本研究選取平均響應時間(終端設備發送請求到收到處理結果的平均往返時間) 99% 尾延遲(P99,所有請求中延遲最長 1% 部分的平均值,衡量最壞情況下的服務時延)CPU利用率與負載均衡度、任務完成率(各邊緣節點CPU平均利用率以及集群負載均衡度指標等關鍵指標)、遷移次數與開銷進行測試分析。指標通過實驗測量和日志統計獲得,在不同測試場景下記錄并對比分析性能差異。
3.2 實驗結果
本研究設計了多組對比試驗來驗證所提系統在實際場景中的性能表現。在常規負載場景下(集群總CPU利用率約 60% )比較動態調度與Kubernetes默認調度器的總體性能如表1所示。
啟用動態調度后,系統在平均響應時間和尾延遲方面都有顯著下降:平均響應從 85.4ms 降低到67.2ms ,改善約 21% ;P99尾延遲從 240ms 降低到174ms ,下降幅度近 28% 。節點CPU利用率平均值有所上升,集群整體資源利用更充分;而負載均衡程度明顯提升,各節點負載標準差從0.212降至0.098,負載分配更加均勻。在高負載壓測下,默認調度因部分Pod無法調度導致約 7.7% 的請求未完成,而動態調度通過及時擴展到云端或空閑節點,任務完成率99.5% 。動態調度的改進雖然以引入少量Pod遷移為代價,但短暫開銷并未對整體性能產生負面影響,相反換來了響應加速和更好的可靠性。
研究進一步考察突發負載和網絡條件變化時系統的行為,如表2所示。
表1動態調度系統與默認調度性能對比(常規負載場景)

表2不同場景下動態調度系統性能

在突發負載實驗中,當采用默認調度時,突發的請求涌入導致平均響應時間飆升至 256ms ,尾部延遲甚至高達 680ms ,出現嚴重過載;而使用動態調度系統,在負載突增后能夠在 1min 內觸發4次Pod遷移,將部分負載分流,使最高節點CPU占用降至 85% ,從而將平均響應時間控制在 102ms 左右,P99尾延遲保持在 240ms 以內。網絡時延測試中增加了邊緣節點2與其他節點/終端間的通信延遲(由原先約 20ms 增至 150ms ),發現調度器會降低將任務遷移或調度到節點2的優先級,更多地使用網絡條件較好的節點1和節點3承載任務,實測平均響應和尾延遲幾乎未受影響,與正常網絡時幾乎相當。將網絡感知功能禁用作為對照時,平均響應時間略升至 74.5ms ,P99延遲增大了約 23% ,表明部分任務被錯誤地調度到了高延遲的節點2上執行,拉高了整體延遲分布。說明系統通過網絡質量打分有效地規避了不利網絡因素。
4結語
本文設計并實現的基于Kubernetes的邊緣節點動態調度系統,通過引入資源需求預測模型,提前感知負載變化趨勢,實現了邊緣節點間的負載動態均衡,保證了任務調度對底層網絡異構性的適應,提高了邊緣集群的資源利用率。當然,研究仍有進一步完善空間,如在更大規模集群或更復雜異構環境下調度算法的性能優化。在遷移過程中,狀態同步和數據一致性的保障是下一步需要深入研究的問題。未來隨著邊緣計算的發展,將持續改進該系統的預測算法精度和調度決策智能性,不斷提升其在實際應用中的實用價值。
參考文獻
[1]胡濤.面向工業邊緣節點的計算資源管理調度方法研究[D].重慶:重慶郵電大學,2021.
[2]朱常鵬,李剛.基于原生云的MySQL服務系統研究與應用[J].無線互聯科技,2023(4):83-85.
[3]孫貴發,孫建鵬,解西國.Kubernetes異構集群多指標調度策略研究[EB/OL].(2025-03-05)[2025-07-09].https://doi. org/10.19678/j.issn.1000-3428.007043.
[4]梁兆楷,高建明.基于負載均衡的Kubernetes改進優化算法研究[J].粘接,2023(3):192-196.
[5]王彬丞,王平輝,武文博,等.面向深度學習Kubernetes負載飽和調度算法設計與實現[J].鄭州大學學報(理學版),2024(4):21-27.
[6]鄭國慶.基于Kubernetes的容器云資源調度策略研究[J].網絡安全和信息化,2025(5):78-80.
(編輯 王永超)
Research on dynamic scheduling system for edge computing nodes based on Kubernetes
LIU Jiangpeng (PingxiangUniversity,Pingxiang337O55,China)
Abstract:Withthe widespreadapplication of edgecomputing inlatency-sensitive scenarios,traditional Kubernetes schedulers,designedforcentralized cloud environments,struggle to meet the dynamic requirementsof edge computing.This paper proposes a dynamic scheduling system for edge computing nodes based on Kubernetes,which achieves dynamic optimization deploymentof workloads by introducing resource demand prediction models and runtime migration mechanisms.The system adopts a thre-tier cloud-edge-device architecture,designs aresource demand prediction model basedon double exponential smothing,constructs a task scheduling optimizationmodel aimed at minimizing latencyand achieving load balancing,and proposes a Pod migration triggering mechanism based on dynamic thresholdsandanetwork-aware migration strategy.Experimental resultsshow thatcompared withthe default Kubernetes scheduler, this system reduces average response time by 21.3% under regular load scenarios,P99 tail latency isreduced by 27.8% ,load balancing standard deviation is reduced by 53.8% ,and task completion rate is increased to 99.5% . Under burst load scenarios,the system effectively alleviates node overload through dynamic migration, maintaining service quality stability.
Key words: edge computing; Kubernetes; dynamic scheduling; load balancing; container migration