戴昌昊,曾貴明,梁 君,張德智
(中國運載火箭技術研究院 研究發展中心,北京 100076)
基于業務流量預測的AOS自適應幀生成算法
戴昌昊,曾貴明,梁 君,張德智
(中國運載火箭技術研究院 研究發展中心,北京 100076)
隨著研究的深入,復雜空間系統業務數據流的自相似性逐漸被認識,傳統的等時幀生成算法及高效率生成算法越來越難以適應空間系統業務流量的高突發性和高復雜性;基于此,提出了一種基于小波神經網絡業務流量預測的自適應幀生成算法,在滿足一定延時約束條件下,根據業務流量預測結果,自適應調整成幀時刻;幀復用效率相比等時幀生成算法有顯著優勢,同時還避免了高效率幀生成算法中存在的幀延時過長的問題。
高級在軌系統;小波神經網絡;包流量預測;自適應幀生成
隨著我國航天技術的飛速發展,在軌航天器越來越復雜,各分系統需要下傳的遙測參數和業務數據越來越多,空間數據管理分系統上承載的業務流量飛速增長;同時,航天器執行的空間任務也越來越復雜,與之相關的業務數據流表現出高度的復雜性,具體表現為高度的突發性和自相似性[1]。
目前世界各國航天器的空間數據管理系統設計大都遵循CCSDS(consultative committee for space data system)標準體系。業務數據的下行傳輸多采用AOS協議標準(advanced orbiting systems AOS),該協議采用兩級信道復用機制,即在包多路復用的層面實現了分系統內部多源數據流的聚合,在虛擬信道復用的層面實現了各分系統數據流的二次聚合,從而滿足了航天器上各類數據的下行傳輸需求。以包多路復接器和虛擬信道復接器為匯聚節點,AOS協議采用樹狀網絡結構對下行數據流進行組織。對于AOS業務數據流量模型的分析可以借鑒地面具有類似拓撲結構的計算機網絡中的數據流模型。文獻[2]發現了貝爾通信研究中心的地面局域網中網絡流量具有自相似性。我們可以推斷AOS業務流也具有類似性質。實際上,文獻[3]的仿真結果表明低軌衛星網絡業務流量的確具有自相似性。
由于AOS業務數據流實際表現出的高度復雜性,傳統AOS系統中的等時、高效率成幀算法已難以滿足航天器上各類數據的下行傳輸需求,其性能隨著業務流量的突發性、復雜性增大而大幅下降。本文針對AOS自相似業務流量突發性引起虛擬信道調度性能下降問題,在分析現有方法的基礎上,結合小波神經網絡對業務數據流量的預測結果,提出了基于業務數據流量預測的自適應幀生成算法。仿真結果表明,自適應算法在幀復用效率、及平均延遲總體性能上明顯優于傳統的幀生成算法。
CCSDS協議體系定義的通信系統采用分層結構,自上至下分別為應用層、傳輸層、網絡層、數據鏈路層和物理層。其中AOS協議位于數據鏈路層,鏈路層利用包信道復用及虛擬信道復用的方法支持多信源多用戶信息高效地共用同一個物理信道[4-5]。
其中的包信道復用模塊,對共用同一虛擬信道的多種數據包進行調度并分段裝入固定長度的復用協議數據單元(multiplexing protocol data unit,MPDU)的數據區中,然后依次加MPDU主導頭、幀主導頭、幀尾,從而生成一幀。目前,在包信道復用模塊中有兩種常用的幀生成算法:即等時幀生成算法和高效率幀生成算法。在等時幀生成算法中,在固定間隔的時間點上將緩存中的數據包裝入一幀的數據區,并發送;在高效率幀生成算法中,當到達緩存的數據包長度可以填滿MPDU數據區時,才將這些數據包放入一幀的數據區,并發送。
評價幀生成算法的性能主要有兩個指標:組幀延時和MPDU復用效率(MPDU復用效率是指在一個封裝好的MPDU中,數據包的總長度與MPDU數據區長度之比)。等時幀生成算法可以保證組幀延時可控,但是存在復用效率均值較低的問題。高效率幀生成算法的復用效率為1,但是可能會出現由于較長時間內沒有足夠多的數據包到達,而使得組幀延時過長超過業務所允許的最大時延情況。
本文提出了基于業務流量預測的自適應成幀算法,如圖1所示,通過小波神經網絡對業務流量進行預測,根據預測結果,調整MPDU組幀時刻,從而達到在給定約束條件下的最優性能。并根據每次預測實際誤差結果,修正網絡參數,逐漸逼近最優預測。

圖1 算法流程圖
2.1 小波神經網絡設計
2.1.1 拓撲結構
小波神經網絡(WNN)是小波分析原理與BP神經網絡結合的產物。利用小波基作為神經元節點,它綜合了神經網絡的學習能力以及小波變換理論在時域上的局域化性質,因此具有小波的分類特征和小波分解的性質,并且由于其引入了平移參數以及伸縮參數,使其對時間序列的預測能力以及容錯性能相比傳統神經網絡有了較大提高。小波神經網絡由于融合了小波函數,因此其可以克服傳統神經網絡的缺陷[6],可以顯著提高網絡對非平穩信號的預測能力。小波神經網絡的典型拓撲結構如圖2所示。

圖2 小波神經網絡
圖中,X1,X2….Xk為小波神經網絡的輸入,在本文中即返向遞推K個時間段內到達的數據包,由文獻[3]可知AOS數據包流量呈現出一定長相關特性,因此為了準確預測數據包流量,在計算能力范圍內,輸入節點數應盡可能多;Y1…Yk為網絡的預測輸出,在本文中即下一調度周期內的預測數據包流量結果,因此輸出節點數為1;輸入序列信號為xi(i=1,2,…k)時,隱含層輸出為:
S(j)是隱含層第j個節點的輸出函數,f(j)是隱含層第j個節點的小波基函數,wij為輸入層到隱含層的連接權值,wjk為隱含層到輸出層的連接權值;bj為小波基函數的平移因子;aj為小波基函數的伸縮因子。
2.1.2 小波基函數選擇
目前普遍應用的小波基有Harr小波、Morlet小波、Meyer小波、Gausse小波等[6]。由于Morlet小波基具有較好的計算穩定性和較強的抗干擾能力,因此被廣泛應用于時間序列預測領域。本文也選取此小波基函數作為小波神經網絡隱層節點的傳遞函數。Morlet小波基函數的數學表達式為:
2.1.3 網絡參數優化迭代算法
梯度下降法是傳統小波神經網絡在參數優化階段常采用的算法,但是此算法的梯度變化方向固定,參數的優化方向被限制,很難適應數據包流量隨機的特點,并且由于優化方向單一,易取到局部最優解、引起振蕩效應[7],遺傳算法是基于自然選擇和基因遺傳學的隨機優化搜索方法,此算法的宏觀搜索能力較強,在實際應用中,找到全局最優解的概率較大,更符合包數據流高度復雜性、隨機性的實際情況,用它來完成WNN的網絡參數初期優化能較好的克服梯度下降法的缺點,達到更高的預測精度要求,并能提高系統的穩定性。
基于遺傳算法的小波神經網絡模型的參數優化分為兩次:
1)一次訓練
首先確定小波神經網絡結構,然后用遺傳算法對網絡各參數進行優化,優化步驟如下:
(1)將wij、wjk、aj、bj進行實數編碼并初始化.然后將交叉規模,交叉概率,突變概率,初始種群數,遺傳代數等參數初始化;
(2)個體n的適應度函數f(n)為:
f(n)=1/error
其中:error為預測誤差。計算每一個體的適應值并升序排列;以“輪盤賭”法選擇網絡個體;
(3)以交叉概率Pc交叉產生新個體;
(4)以概率Pm均勻變異產生新的個體;
(5)將新個體加入到原來的種群中,并更新所有適應值;
(6)若適應值達到預設門限值則結束,否則轉回(3);
(7)將最優個體作為優化后的WNN的aj和bj。
2)二次訓練
在用遺傳算法對小波神經網絡的連接權值和伸縮、平移尺度參數進行優化后,將通過一次優化后的參數再用梯度下降法進行第二次優化,將兩次優化后得到的參數作為神經網絡的優化后參數,利用此神經網絡對數據包流量進行預測。梯度下降法是神經網絡中較為經典算法,此處不再贅述,算法詳細步驟見文獻[8]。
2.2 MPDU組幀算法
組幀算法的基本思想簡述如下:預測時間長度周期為T,設定可接受最大包延時tdelay=N·T,幀復用效率優化下限為ηmin。在滿足包延時要求的前提下,盡量提高幀復用效率。
1)記錄前K個時刻包到達數量X-(k-1),......,X-2,X-1,X0,輸入小波神經網絡輸入端,經過迭代優化,得到下一時刻數據包流量的預測值Y;

3)判斷下一時刻是否達到延時上限,若未達到,則繼續等待,并進入步驟1);若達到上限進入步驟4);
文獻[3]指出,AOS數據包流呈現出自相關特性,自相似數據源的模擬有多種方法[9],本文采取分形布朗運動模型模擬數據源。
仿真參數設置如下:
1)模擬數據源的自相似參數H=0.6;
2)包長度lp=128 bit,MPDU包區長度為lmp=12000*lp;
3)小波神經網路的輸入節點數N=10,隱含層的節點數n=30,輸出節點數為M=1,迭代誤差限為10-2,最大迭代次數為200次;
4)一次訓練采用遺傳算法,二次訓練采用梯度下降算法。
3.1 數據包流量預測仿真
采用分形布朗運動模型模擬生成的數據源如圖3所示,取前500個數據點作為源包數據。第1~100個數據作為輸入層節點1的輸入訓練數據,第2~101個數據作為輸入層節點2的輸入訓練數據,以此類推至第10~109個數據作為輸入層第10個節點的輸入訓練數據,來預測第11~110個時間點的數據,數據源的第11~110個數據作為實際結果與預測值比對,迭代優化網絡參數,當完成這100組數據的訓練后,固定網絡參數。接著進行流量預測,取數據源的第300~399個數據作為輸入層第1個節點的輸入,第301~400個數據作為輸入層第2個節點的輸入,以此類推至第309~408個數據作為輸入層第10個節點的輸入。數據源第310~409個數據作為實際包流量數據。圖4為經過訓練后的小波神經網絡預測結果與實際包流量的對比,從圖中可以看出小波神經網絡預測性能較好,絕大部分時刻的包流量預測誤差都在15%以內,最大誤差不超過25%。

圖3 數據包流量

圖4 數據包流量預測
3.2 組幀算法仿真
對于組幀算法的評價指標主要有幀復用效率η及幀生成延時tdelay。目前常用的組幀算法有等時生成算法和高效率生成算法。本文的算法在滿足給定最大時延約束條件下,基于對下一時刻數據包流量的預測,達到盡可能大的幀復用效率。通過仿真驗證本文提出的算法在幀復用效率和生成延時等方面比傳統生成算法有較大改善。
圖6為自適應幀生成算法和等時幀生成算法幀復用效率的對比,自適應幀生成算法中最大允許延時設置為4T,最小幀復用效率設置為80%。從圖中可以看出等時幀生成算法的幀復用效率在40%~65%之間。自適應幀生成算法的幀復用效率在80%~100%之間,圖中幀復用效率為0的時刻表示當前時刻不生成幀。前100個時刻等時幀生成算法的總復用效率為50.12%(發送的有效數據包總長/總幀長),自適應幀生成算法的總復用效率為98.28%。圖4表明在滿足一定延時約束條件下,自適應幀生成算法的幀復用效率明顯優于等時幀生成算法。

圖6 幀復用效率對比
圖7為自適應幀生成算法和高效率幀生成算法幀生成延時的對比,圖中淺色三角代表自適應算法的幀復用效率,淺色框代表自適應幀生成算法的幀生成時刻,深色框代表高效率幀生成算法的幀生成時刻。從圖中可以看出自適應幀生成算法的最大生成時延為4T,幀復用效率大部分在80%~90%之間,最小效率不低于58%;高效率幀生成算法的最大生成時延為7T,

圖7 幀生成時刻對比
自適應幀生成算法可有效解決高效率幀生成算法幀生成延時超時的問題。
本文在分析空間數據系統的基礎上,對常用幀生成算法進行了改進,設計了一種基于小波神經網絡AOS業務流量預測的自適應幀生成算法,該算法兼顧了幀復用效率及幀生成延時要求,比等時生成算法有更高的復用效率,且對突發數據流有更強的適應性;與高效率幀生成算法相比,具有更低且可控的延時,保證了信道的合理利用。本文的自適應幀生成算法比傳統幀生成算法具有更好靈活性,對具有高突發性、高復雜性的自相似性業務流具有較好的適應性。
[1]NaZY,GaoZH,GaoQ.Performanceanalysisofself-similartrafficinLEOsatellitenetwork[A].Proc.ofthe6thInternationalConferenceonMachineLearningandCybernetics[C].2007:19-22.
[2]LelandWE,TaqquMS,BellcoreWW.Ontheself-similarnatureofEthernettraffic[J].IEEE/ACMTransactiononNetworking, 1994, 2(1): 1-15.
[3] 那振宇.衛星互聯網服務質量保障方法研究[D].哈爾濱:哈爾濱工業大學,2010:38-45.
[4]ConsultativeCommitteeforSpaceDataSystem.AOSSpaceDataLinkProtocol[S].Washington,DC,USA:CCSDSPress, 2015.
[5]ConsultativeCommitteeforSpaceDataSystem.OverviewofSpacecommunicationsProtocols[S].Washington,DC,USA:CCSDSPress, 2014.
[6] 丁 勇,劉守生,胡壽松.一種廣義小波神經網絡的結構及其優化方法[J].控制理論與應用,2003,20(1):125-128.
[7] 李 凡.用小波神經網絡預測高速公路軟土地基最終沉降量[J].合肥工業大學學報,2001,24(6):1124-1127.
[8]LIST,CHENSC.Functionapproximationusingrobustwaveletneuralnetworks[A].Procofthe14thIEEEInternationalConferenceonToolswithArtificialIntelligent[C].Taiwan(China):IEEEPress, 2002. 483-488.
[9] 閆紀如.粒子群優化的神經網絡在交通流預測中的應用[D].杭州:浙江工業大學,2013.
AOS Adaptive Frame Generation Algorithm Based on traffic Prediction
Dai Changhao, Zeng Guiming, Liang Jun, Zhang Dezhi
(Research and Development Center ,China Academy of Launch Vehicle Technology,Beijing 100076,China)
With the in-depth study, the self-similarity of complex spatial data system is gradually recognized. Traditional time frame generation algorithm and efficient frame generation algorithm are more and more difficult to adapt to the high burst and high complexity of space traffic. This paper presents an adaptive frame generation algorithm based on wavelet neural network traffic prediction. Under the condition of certain delay constraint, the adaptive frame generation time can be adjusted according to the prediction results of traffic flow. Compared with the time frame generation algorithm, the frame multiplexing efficiency of this algorithm has a significant advantage, and it also avoids the problem of long frame delay.
AOS; wavelet neural network; packet traffic prediction;adaptive frame generation
2016-11-03;
2016-11-28。
戴昌昊(1992-),男,陜西人,碩士研究生,主要從事測控通信系統專業方向的研究。
1671-4598(2017)04-0176-03
10.16526/j.cnki.11-4762/tp.2017.04.048
TP391
A