999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于神經(jīng)網(wǎng)絡(luò)模型的網(wǎng)絡(luò)流量預(yù)測(cè)綜述

2020-03-11 04:11:20徐展琦
無(wú)線電通信技術(shù) 2020年2期
關(guān)鍵詞:模型

杜 爽,徐展琦,馬 濤,楊 帆

(西安電子科技大學(xué) 綜合業(yè)務(wù)網(wǎng)理論及關(guān)鍵技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,陜西 西安 710071)

0 引言

隨著互聯(lián)網(wǎng)的高速發(fā)展,用戶對(duì)網(wǎng)絡(luò)資源的需求持續(xù)增加,因此精確規(guī)劃網(wǎng)絡(luò)資源使用已成為運(yùn)營(yíng)商的首要任務(wù)[1-2],而網(wǎng)絡(luò)流量預(yù)測(cè)技術(shù)可以幫助運(yùn)營(yíng)商準(zhǔn)確預(yù)估網(wǎng)絡(luò)的使用情況,合理分配并高效利用網(wǎng)絡(luò)資源。

針對(duì)網(wǎng)絡(luò)流量時(shí)間序列,許多學(xué)者采用線性預(yù)測(cè)模型,其中廣泛使用的有自回歸(AR)、滑動(dòng)平均(MA)及其改進(jìn)模型,主要包括:以時(shí)間點(diǎn)為基礎(chǔ)建立的多元線性AR模型[3]、分段自回歸滑動(dòng)平均(ARMA)模型[4]、差分自回歸移動(dòng)平均(ARIMA)模型[5]、差分自回歸求和滑動(dòng)平均(FARIMA)模型[6]等。此外還有學(xué)者將非線性理論應(yīng)用于網(wǎng)絡(luò)流量預(yù)測(cè),提出基于支持向量機(jī)(SVM)、灰色模型(GM)、高斯過(guò)程(GP)和神經(jīng)網(wǎng)絡(luò)(NN)的預(yù)測(cè)模型。例如,基于支持向量機(jī)補(bǔ)償?shù)幕疑P蚚7]、高斯過(guò)程混合預(yù)測(cè)模型[8]和基于長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)的流量預(yù)測(cè)模型[9]等。

雖然上述模型預(yù)測(cè)效果較為理想,但仍存在不足。隨著網(wǎng)絡(luò)復(fù)雜度的增加,網(wǎng)絡(luò)流量的分布特性已經(jīng)超出傳統(tǒng)意義上認(rèn)為的泊松分布或者 Markov分布[10],因此線性模型很難保證預(yù)測(cè)的準(zhǔn)確性。在非線性預(yù)測(cè)模型方面,SVM 需要的樣本數(shù)小,但其關(guān)鍵參數(shù)很難確定,也無(wú)法輸出置信區(qū)間;灰色模型不適合規(guī)律性較差的流量數(shù)據(jù)預(yù)測(cè);高斯過(guò)程需要使用完整的樣本數(shù)據(jù),且在高維空間會(huì)失去有效性。有關(guān)網(wǎng)絡(luò)預(yù)測(cè)的大量研究表明,在大數(shù)據(jù)和高維度特征的背景下,基于神經(jīng)網(wǎng)絡(luò)NN的網(wǎng)絡(luò)流量預(yù)測(cè)模型優(yōu)勢(shì)明顯,其不足只是當(dāng)訓(xùn)練數(shù)據(jù)的規(guī)模較大時(shí),訓(xùn)練時(shí)間比較長(zhǎng)。

近年來(lái),很多專家和學(xué)者對(duì)網(wǎng)絡(luò)流量預(yù)測(cè)做了研究,將NN模型與傳統(tǒng)的預(yù)測(cè)技術(shù)相結(jié)合以提升預(yù)測(cè)性能。本文簡(jiǎn)述網(wǎng)絡(luò)預(yù)測(cè)的關(guān)鍵因素與誤差評(píng)判,重點(diǎn)介紹若干可用于網(wǎng)絡(luò)流量預(yù)測(cè)的NN模型及其原理,為有關(guān)網(wǎng)絡(luò)流量預(yù)測(cè)的學(xué)術(shù)研究和實(shí)際應(yīng)用提供可借鑒的方法和途徑。

1 網(wǎng)絡(luò)預(yù)測(cè)的關(guān)鍵因素與誤差評(píng)判

為了使網(wǎng)絡(luò)流量預(yù)測(cè)的結(jié)果更加接近網(wǎng)絡(luò)的實(shí)際狀態(tài),在預(yù)測(cè)過(guò)程中需要考慮以下幾種對(duì)網(wǎng)絡(luò)流量預(yù)測(cè)性能有較強(qiáng)影響的因素。

一般情況下歷史數(shù)據(jù)越多,數(shù)據(jù)的變化規(guī)律就越容易獲取,預(yù)測(cè)結(jié)果就越精確,但實(shí)際上網(wǎng)絡(luò)流量序列在不同時(shí)間段內(nèi)的變化規(guī)律不同,即存在周期性。因此針對(duì)不同的變化規(guī)律和預(yù)測(cè)目標(biāo),選擇合適的時(shí)間尺度來(lái)確定歷史數(shù)據(jù)的規(guī)模十分重要[11],可以避免冗余信息降低預(yù)測(cè)性能。

隨著網(wǎng)絡(luò)資費(fèi)的不斷下調(diào),全網(wǎng)的流量快速增長(zhǎng),但是在不同場(chǎng)景下,用戶的流量使用習(xí)慣不同,導(dǎo)致流量的變化情況也存在較大差異,因此對(duì)用戶潮汐、突發(fā)流動(dòng)、話務(wù)遷徙和剛性滿載等難以量化的用戶行為特征進(jìn)行標(biāo)簽區(qū)分可以有效提高預(yù)測(cè)精度。

將網(wǎng)絡(luò)流量預(yù)測(cè)的數(shù)據(jù)集分割為訓(xùn)練和驗(yàn)證兩部分的方式對(duì)預(yù)測(cè)結(jié)果也有很大影響,目前較為常用的有兩種:① 在完整數(shù)據(jù)集上訓(xùn)練和驗(yàn)證,但驗(yàn)證所用時(shí)間跨度比訓(xùn)練所用時(shí)間跨度前移一個(gè)預(yù)測(cè)間隔;② 將數(shù)據(jù)集分割成用于訓(xùn)練和驗(yàn)證的兩個(gè)獨(dú)立部分,該方法是機(jī)器學(xué)習(xí)中的經(jīng)典分割方法。

采用合適的指標(biāo)來(lái)評(píng)估不同網(wǎng)絡(luò)流量預(yù)測(cè)方法的性能至關(guān)重要,這些評(píng)價(jià)指標(biāo)必須能夠展示預(yù)測(cè)結(jié)果與實(shí)際網(wǎng)絡(luò)流量狀況的差異程度或相似程度。在關(guān)于流量預(yù)測(cè)的大量研究中,常用指標(biāo)如下:

① 百分比平均相對(duì)誤差(PR)[12]:表示預(yù)測(cè)值與真實(shí)值之差相對(duì)于真實(shí)值的平均絕對(duì)百分比變化情況,其值越小意味著預(yù)測(cè)精度越高。

(1)

② 均方根誤差(RMSE)[10]:表明預(yù)測(cè)值與真實(shí)值之差的均方根,其對(duì)細(xì)微誤差較靈敏。

(2)

③ 均等系數(shù)(CE)[12]:表示預(yù)測(cè)值與真實(shí)值的相似程度,其值越大表明預(yù)測(cè)越準(zhǔn)確。

(3)

2 網(wǎng)絡(luò)流量預(yù)測(cè)的神經(jīng)網(wǎng)絡(luò)模型

在已有研究中用于預(yù)測(cè)的NN模型主要有以下8種:多層前饋神經(jīng)網(wǎng)絡(luò)(MLFNN)、徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)(RBFNN)、小波神經(jīng)網(wǎng)絡(luò)(WNN)、時(shí)間延時(shí)神經(jīng)網(wǎng)絡(luò)(TDNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、深度置信網(wǎng)絡(luò)(DBN)和模糊神經(jīng)網(wǎng)絡(luò)(FNN)。本節(jié)將詳細(xì)討論上述每種NN模型。

2.1 多層前饋神經(jīng)網(wǎng)絡(luò)(MLFNN)

如圖1所示,MLFNN由一個(gè)輸入層、一個(gè)或多個(gè)隱含層和一個(gè)輸出層組成,每層包含若干節(jié)點(diǎn)(神經(jīng)元),各層節(jié)點(diǎn)可通過(guò)加權(quán)鏈路與其相鄰層節(jié)點(diǎn)相連。

圖1 多層前饋神經(jīng)網(wǎng)絡(luò)模型Fig.1 Multilayer feedforward neural network model

MLFNN是最常見(jiàn)的神經(jīng)網(wǎng)絡(luò)之一,通過(guò)調(diào)整非線性激活函數(shù)和多層結(jié)構(gòu)中的權(quán)重來(lái)擬合非線性函數(shù),并且可以結(jié)合不同的優(yōu)化算法來(lái)提高性能,例如用蟻群優(yōu)化算法來(lái)縮小連接權(quán)重[13],以減小RMSE;用遺傳算法來(lái)優(yōu)化預(yù)測(cè)模型結(jié)構(gòu)[14],以提高學(xué)習(xí)速度。

MLFNN結(jié)構(gòu)簡(jiǎn)單,已被廣泛應(yīng)用于預(yù)測(cè)研究;但當(dāng)數(shù)據(jù)間的相關(guān)性較為復(fù)雜時(shí),該模型不足以利用這些相關(guān)性來(lái)實(shí)現(xiàn)更準(zhǔn)確的預(yù)測(cè)。

2.2 徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)(RBFNN)

RBFNN模型包括3層:輸入層、隱含層和輸出層,其中隱含層使用徑向基函數(shù)(RBF)作為激活函數(shù)。RBF是實(shí)值函數(shù),通常定義為輸入樣本值與隱含層節(jié)點(diǎn)數(shù)據(jù)之間的歐氏距離。研究者們也將各種智能優(yōu)化算法用于提高RBFNN的預(yù)測(cè)性能,例如使用粒子群優(yōu)化算法優(yōu)化中心、寬度和權(quán)重等參數(shù)[15-16],采用人工蜂群算法選擇權(quán)重和閾值[17]。

由于RBFNN具有較強(qiáng)的泛化性和魯棒性,且隱含層和輸出層之間的連接權(quán)重可以在一個(gè)步驟中訓(xùn)練得到,通常比MLFNN訓(xùn)練速度更快,預(yù)測(cè)精度更高。但是RBF參數(shù)對(duì)RBFNN性能有較大影響,而根據(jù)具體的問(wèn)題來(lái)選擇RBF參數(shù)比較困難。

2.3 小波神經(jīng)網(wǎng)絡(luò)(WNN)

WNN模型本質(zhì)上是一個(gè)MLFNN模型,但隱含層用小波函數(shù)作為激活函數(shù),該模型綜合利用小波變換的多尺度分析能力和NN的自學(xué)習(xí)能力來(lái)逼近復(fù)雜模式[18]。

很多研究學(xué)者提出將遺傳算法、蟻群算法和粒子群算法等智能優(yōu)化算法與WNN相結(jié)合的網(wǎng)絡(luò)流量預(yù)測(cè)模型,可有效克服小波神經(jīng)網(wǎng)絡(luò)收斂速度慢、易陷入局部最優(yōu)的缺點(diǎn)[19-21],提高網(wǎng)絡(luò)流量的預(yù)測(cè)精度。

WNN的訓(xùn)練復(fù)雜程度較低,其參數(shù)比RBFNN更容易確定,并且比MLFNN具有更好的泛化能力。由于小波函數(shù)具有處理時(shí)間和頻率維度的能力,因而WNN更適用于解決包括網(wǎng)絡(luò)流量狀態(tài)信息在內(nèi)的非線性時(shí)間序列預(yù)測(cè)問(wèn)題。

2.4 時(shí)間延遲神經(jīng)網(wǎng)絡(luò)(TDNN)

TDNN模型通常可以定義為多層NN,通過(guò)利用延遲的輸入或狀態(tài)來(lái)捕獲時(shí)間序列的動(dòng)態(tài)信息。延時(shí)應(yīng)用于輸入層的TDNN模型由圖2給出,隱含層中的神經(jīng)元在時(shí)間t以及t-1~t-n時(shí)接收輸入值。同理延遲也可以用在模型的其他層中,此時(shí)該模型具有反饋連接,可以認(rèn)為是RNN的一種形式。

TDNN模型在整個(gè)訓(xùn)練過(guò)程中延時(shí)固定,因而訓(xùn)練所需時(shí)間更短,但其捕獲數(shù)據(jù)動(dòng)態(tài)信息的能力較差。

2.5 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)

2.5.1 標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)

標(biāo)準(zhǔn)的RNN模型存在反饋連接,用于將先前步驟的狀態(tài)或輸出饋送到下一步驟,反饋連接可以存在于隱含層相鄰節(jié)點(diǎn)之間,也可能存在于隱含層與輸出層節(jié)點(diǎn)之間。

RNN適合處理動(dòng)態(tài)時(shí)間序列,其存儲(chǔ)器利用先前時(shí)間的狀態(tài)信息來(lái)靈活地捕獲時(shí)間依賴性,但當(dāng)RNN與反向傳播等傳播技術(shù)相結(jié)合時(shí),誤差信號(hào)向后傳播通過(guò)網(wǎng)絡(luò),往往會(huì)出現(xiàn)梯度消失或梯度爆炸的問(wèn)題,因而RNN不適合處理具有長(zhǎng)期依賴性的問(wèn)題。后來(lái)提出的具有門(mén)控機(jī)制的新型RNN,例如長(zhǎng)短期記憶(LSTM) NN和門(mén)控循環(huán)單元(GRU) NN,可以有效解決這個(gè)問(wèn)題。

圖2 時(shí)間延遲神經(jīng)網(wǎng)絡(luò)模型Fig.2 Time delay neural network model

2.5.2 長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)

為了克服傳統(tǒng)RNN中梯度消失問(wèn)題,研究者們提出LSTMNN模型[22],采用門(mén)控機(jī)制決定何時(shí)以及如何更新模型中存儲(chǔ)的信息,從而彌補(bǔ)傳統(tǒng)RNN在捕獲數(shù)據(jù)長(zhǎng)期依賴性方面存在的缺陷。

如圖3所示,LSTMNN在隱含層應(yīng)用LSTM單元,使網(wǎng)絡(luò)以更加靈活有效的方式捕獲流量數(shù)據(jù)中的時(shí)態(tài)依賴關(guān)系[23]。圖4給出LSTM單元的結(jié)構(gòu),它通常由遺忘門(mén)、輸入門(mén)和輸出門(mén)組成。遺忘門(mén)將先前隱含層的狀態(tài)信息ht-1和當(dāng)前輸入的信息Xt同時(shí)輸入到Sigmoid函數(shù)(圖中用σ表示),決定應(yīng)丟棄或保留哪些信息。輸入門(mén)將ht-1和Xt都送到Sigmoid函數(shù)和tanh函數(shù),并把兩個(gè)函數(shù)的輸出相乘,決定添加當(dāng)前輸入中的哪些重要信息,以此更新單元狀態(tài)。輸出門(mén)確定隱含層狀態(tài)ht應(yīng)攜帶的信息,最后把ht作為當(dāng)前單元的輸出,把LSTM單元新?tīng)顟B(tài)Ct和新隱含層狀態(tài)ht傳輸給下一個(gè)時(shí)刻的LSTM單元。

圖3 長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)模型Fig.3 LSTM neural network model

圖4 長(zhǎng)短期記憶單元Fig.4 LSTM unit

2.5.3 門(mén)控循環(huán)單元神經(jīng)網(wǎng)絡(luò)

GRUNN是LSTMNN模型的一種變體,即用GRU替換LSTM單元。如圖5所示,GRU結(jié)構(gòu)中只有重置門(mén)和更新門(mén)兩個(gè)門(mén)結(jié)構(gòu),且去除單元狀態(tài),僅使用隱含層狀態(tài)來(lái)傳輸信息。重置門(mén)將上一時(shí)刻的隱含層狀態(tài)ht-1和當(dāng)前的輸入信息Xt送入Sigmoid函數(shù)(σ)得到St,再與ht-1相乘,決定要丟棄哪些信息和需要添加哪些新信息。更新門(mén)的作用類似于LSTM單元中的遺忘門(mén)和輸入門(mén),它將1-St的值與ht-1相乘,用于決定丟棄或保留先前信息的程度。再將重置門(mén)的輸出與Xt送到tanh函數(shù),并將結(jié)果乘以St后與更新門(mén)的輸出求和,得到新的隱含層狀態(tài)ht。GRUNN與LSTMNN相比,所需訓(xùn)練參數(shù)較少,收斂速度更快[24],但由于二者性能較為相似,一般研究者會(huì)將二者在指定場(chǎng)景下都運(yùn)行,再選擇性能較優(yōu)者作為應(yīng)用模型。

圖5 門(mén)控單元模型Fig.5 GRU model

2.6 卷積神經(jīng)網(wǎng)絡(luò)(CNN)

CNN是一種特殊的深度前饋NN,包括輸入層、隱含層和輸出層,隱含層由卷積層、池化層和完全連接層構(gòu)成。卷積層將輸入特征與訓(xùn)練得到的權(quán)重集進(jìn)行卷積,產(chǎn)生輸出特征,并在卷積層之后利用池化層對(duì)該層輸入進(jìn)行子采樣。在傳統(tǒng)前饋NN中,相鄰兩層之間是完全連接的,而CNN中卷積層是通過(guò)滑動(dòng)濾波器局部相連,因此可以獲得輸入矩陣的局部空間特征。

卷積運(yùn)算可自動(dòng)提取數(shù)據(jù)特征,已有研究利用CNN能夠捕獲流量狀態(tài)相關(guān)性的優(yōu)勢(shì)提高預(yù)測(cè)精度[25]。由于CNN具有稀疏連接和共享權(quán)重的特性,因此當(dāng)神經(jīng)元數(shù)量相同時(shí),訓(xùn)練所需操作較少,但用于學(xué)習(xí)不同層次特征的若干卷積層會(huì)導(dǎo)致計(jì)算成本較高。

2.7 深度置信神經(jīng)網(wǎng)絡(luò)(DBN)

圖6的DBN是由多層受限玻爾茲曼機(jī)(RBM)堆疊而成,通過(guò)將一個(gè)RBM的輸出用作下一個(gè)RBM的輸入來(lái)挖掘輸入數(shù)據(jù)的高階特性。RBM由相鄰兩列節(jié)點(diǎn)(也稱可視層和隱層)組成,層間存在無(wú)向連接,層內(nèi)神經(jīng)元間無(wú)連接,訓(xùn)練后的隱層神經(jīng)元能捕捉高階數(shù)據(jù)在可視層表現(xiàn)出來(lái)的相關(guān)性。

DBN使用無(wú)監(jiān)督學(xué)習(xí)算法一次一個(gè)地訓(xùn)練玻爾茲曼機(jī)堆棧,提取用于預(yù)測(cè)的特征向量,再采用監(jiān)督學(xué)習(xí)法對(duì)模型進(jìn)行訓(xùn)練來(lái)微調(diào)權(quán)重。與具有相同層數(shù)的傳統(tǒng)深度神經(jīng)網(wǎng)絡(luò)相比,DBN訓(xùn)練速度更快,且可以提取有用的輸入特征,增強(qiáng)模型的泛化能力并減輕過(guò)擬合問(wèn)題。

圖6 深度置信神經(jīng)網(wǎng)絡(luò)模型Fig.6 Deep belief neural network model

2.8 模糊神經(jīng)網(wǎng)絡(luò)(FNN)

FNN包括輸入層、輸出層和代表模糊規(guī)則的隱含層,層與層之間的連接權(quán)重表示模糊集。模糊系統(tǒng)首先使用模糊集的隸屬函數(shù)將輸入映射到0~1之間的實(shí)數(shù)值,然后將模糊規(guī)則應(yīng)用于映射值,最后生成輸出值。

FNN通過(guò)NN的自適應(yīng)近似能力提取模糊參數(shù),即模糊集和模糊規(guī)則,并將基于規(guī)則的系統(tǒng)與NN結(jié)合以提高模型的可解釋性。雖然尋找模糊系統(tǒng)的隸屬函數(shù)和適當(dāng)?shù)哪:?guī)則比較困難,但是FNN能夠通過(guò)NN的自適應(yīng)近似能力來(lái)學(xué)習(xí)模糊參數(shù)。

2.9 預(yù)測(cè)模型屬性比較

為了將NN應(yīng)用于不同的領(lǐng)域和依據(jù)需要選擇相應(yīng)的模型,表1給出主要流量預(yù)測(cè)模型的特性及適用場(chǎng)景。

表1 流量預(yù)測(cè)模型特性
Tab.1 Characteristics of traffic prediction models

類型方法優(yōu)點(diǎn)缺點(diǎn)適用場(chǎng)景線性預(yù)測(cè)模型AR,MA,ARMAARIMA,FARIMA模型簡(jiǎn)單,計(jì)算復(fù)雜度低,處理速度快預(yù)測(cè)精度低,不能反映真實(shí)網(wǎng)絡(luò)業(yè)務(wù)的突發(fā)性和長(zhǎng)相關(guān)特性適合具有短相關(guān)特性的業(yè)務(wù)預(yù)測(cè) 非線性預(yù)測(cè)模型SVM泛化能力強(qiáng),所需樣本數(shù)少,不易陷入局部最優(yōu)解模型的選擇需要憑借經(jīng)驗(yàn)和大范圍搜索,可靠性差適合樣本數(shù)量較小的非線性時(shí)間序列的預(yù)測(cè)GP泛化能力強(qiáng),具有可解釋性需要使用完整的樣本數(shù)據(jù),且在高維空間會(huì)失去有效性適合樣本數(shù)據(jù)完整的多步前向預(yù)測(cè)GM不需要大量樣本,計(jì)算量小,具有較強(qiáng)的數(shù)據(jù)挖掘能力對(duì)不規(guī)則變化的數(shù)據(jù),擬合效果不理想適合變化速度慢且數(shù)據(jù)集不完備的時(shí)間序列預(yù)測(cè)NNMLFNN結(jié)構(gòu)簡(jiǎn)單收斂速度慢,當(dāng)數(shù)據(jù)間的相關(guān)性較復(fù)雜時(shí),預(yù)測(cè)精度較低適合短相關(guān)的非線性時(shí)間序列預(yù)測(cè)RBFNN泛化性強(qiáng),魯棒性高,訓(xùn)練速度快,可避免陷入局部最優(yōu)解參數(shù)確定比較困難適合非線性時(shí)間序列的實(shí)時(shí)預(yù)測(cè)WNN具有多尺度特性,所需參數(shù)少,預(yù)測(cè)精度高易陷入局部最優(yōu)解,實(shí)時(shí)性較差,小波基的選擇也會(huì)影響模型的預(yù)測(cè)精度適合多尺度特性較明顯且對(duì)時(shí)延要求較低的非線性時(shí)間序列預(yù)測(cè)TDNN延時(shí)固定,訓(xùn)練速度快捕獲數(shù)據(jù)動(dòng)態(tài)信息的能力較差適合樣本具有時(shí)間相關(guān)性且對(duì)實(shí)時(shí)性要求不高的預(yù)測(cè)

續(xù)表

類型方法優(yōu)點(diǎn)缺點(diǎn)適用場(chǎng)景非線性預(yù)測(cè)模型NNRNN可靈活捕獲數(shù)據(jù)的時(shí)間依賴性會(huì)出現(xiàn)梯度消失或梯度爆炸的問(wèn)題LSTM能較好地處理大時(shí)間尺度數(shù)據(jù)的影響收斂速度較慢,參數(shù)無(wú)法直接確定,易陷入局部最優(yōu)GRU參數(shù)較少,訓(xùn)練速度快,所需樣本數(shù)量少參數(shù)更新會(huì)影響整個(gè)網(wǎng)絡(luò)狀態(tài)的有關(guān)信息CNN能捕獲數(shù)據(jù)的局部空間特征需要大樣本量,計(jì)算復(fù)雜度較高,冗余性高,無(wú)記憶特性DBN訓(xùn)練速度更快,能夠提取有用的數(shù)據(jù)特征,泛化能力強(qiáng),可避免過(guò)擬合問(wèn)題計(jì)算復(fù)雜度較高FNN可解釋性較強(qiáng),收斂速度快尋找模糊系統(tǒng)的隸屬函數(shù)和恰當(dāng)?shù)哪:?guī)則比較困難適合動(dòng)態(tài)的短相關(guān)時(shí)間序列預(yù)測(cè)適合樣本數(shù)量多且具有長(zhǎng)期依賴性的時(shí)間序列預(yù)測(cè)適合樣本數(shù)量較大,對(duì)預(yù)測(cè)精度要求較高且時(shí)延不敏感的非線性時(shí)間序列預(yù)測(cè)適合樣本數(shù)量較小的非線性時(shí)間序列預(yù)測(cè)適合具有高階特性的非線性時(shí)間序列預(yù)測(cè)

3 結(jié)束語(yǔ)

通過(guò)研究現(xiàn)有關(guān)于網(wǎng)絡(luò)流量預(yù)測(cè)的NN模型,并借鑒與其類似的交通流量預(yù)測(cè)算法,可知將NN模型用于網(wǎng)絡(luò)流量預(yù)測(cè)可有效提高預(yù)測(cè)精度、縮短預(yù)測(cè)處理時(shí)間。結(jié)合現(xiàn)有研究中各種預(yù)測(cè)算法存在的問(wèn)題,可以得到以下的研究設(shè)想:

現(xiàn)有的大部分研究中用于預(yù)測(cè)的數(shù)據(jù)集中的流量尚未達(dá)到網(wǎng)絡(luò)所能承載的流量上限,需要驗(yàn)證各模型的預(yù)測(cè)性能在網(wǎng)絡(luò)流量處于負(fù)載飽和或者過(guò)飽和的情況下與未達(dá)飽和值時(shí)是否一致,從而找到一種更符合實(shí)際場(chǎng)景且精度較高的預(yù)測(cè)模型。

為了使預(yù)測(cè)模型達(dá)到較好的效果,所采用的歷史數(shù)據(jù)精度需要很高,而這種要求一般難以滿足,我們需要檢驗(yàn)各模型在歷史數(shù)據(jù)不全或者準(zhǔn)確度不高時(shí)的預(yù)測(cè)效果,進(jìn)而針對(duì)不同規(guī)模和準(zhǔn)確性的歷史數(shù)據(jù)選取合適的預(yù)測(cè)模型,以實(shí)現(xiàn)更為精準(zhǔn)的預(yù)測(cè)。

由于單獨(dú)的預(yù)測(cè)模型對(duì)于預(yù)測(cè)結(jié)果的提升并不是很突出,因此許多研究者將不同的預(yù)測(cè)算法與NN模型相結(jié)合來(lái)提高模型的預(yù)測(cè)性能。例如,文獻(xiàn)[26]利用灰色理論所需訓(xùn)練樣本少的特點(diǎn),結(jié)合NN誤差可控的優(yōu)勢(shì),可加快收斂速度并提高預(yù)測(cè)精度。合理地選取不同的模型進(jìn)行組合,充分發(fā)揮各自的優(yōu)勢(shì),值得進(jìn)一步深入研究。

NN具有較強(qiáng)的自學(xué)習(xí)能力,可很好地利用歷史數(shù)據(jù)進(jìn)行預(yù)測(cè),將NN用于預(yù)測(cè)時(shí)延、故障情況、擁塞程度、鏈路質(zhì)量等其他網(wǎng)絡(luò)參數(shù),有助于大幅提高網(wǎng)絡(luò)設(shè)備的性能,進(jìn)而綜合提升整個(gè)網(wǎng)絡(luò)性能。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 欧美a网站| 日本成人精品视频| 91在线丝袜| 国产精品护士| 久久黄色影院| 99热这里只有精品5| 精品久久综合1区2区3区激情| 久久黄色毛片| 欧美国产成人在线| 午夜日本永久乱码免费播放片| 激情视频综合网| 欧美亚洲国产日韩电影在线| 久久香蕉欧美精品| 日韩精品成人在线| 亚洲欧美日韩久久精品| 亚洲国产精品一区二区第一页免| 欧美天堂在线| 2020国产精品视频| 青青草一区| 精品综合久久久久久97超人该| 狠狠五月天中文字幕| 精品一区国产精品| 国产成人精品一区二区不卡| 日韩在线永久免费播放| 国产sm重味一区二区三区| 亚洲欧美精品一中文字幕| 欧美日韩国产成人高清视频| 免费激情网址| 免费一级全黄少妇性色生活片| 色综合激情网| 亚洲永久免费网站| 蜜芽国产尤物av尤物在线看| 啦啦啦网站在线观看a毛片| 毛片最新网址| 激情视频综合网| 久久永久免费人妻精品| 青青青国产视频手机| 国产经典在线观看一区| 成人在线观看不卡| 亚洲精品自产拍在线观看APP| 欧美色99| 国产91视频观看| 亚洲Va中文字幕久久一区| 国产自视频| 毛片手机在线看| 天天躁日日躁狠狠躁中文字幕| 国产97视频在线观看| 国产亚洲视频免费播放| 国产精品亚洲а∨天堂免下载| 狠狠综合久久| 特级毛片8级毛片免费观看| 国产精品成人免费视频99| 日韩精品一区二区三区大桥未久| 日本午夜影院| 亚洲男人在线天堂| 波多野结衣国产精品| 无码电影在线观看| 久久鸭综合久久国产| a天堂视频在线| 久久亚洲精少妇毛片午夜无码| 无码有码中文字幕| 91精品久久久无码中文字幕vr| 久久婷婷色综合老司机| 亚洲精品手机在线| 国产成人久视频免费| 无码精品一区二区久久久| 中国成人在线视频| 亚洲成年人网| 99精品高清在线播放| 国产在线麻豆波多野结衣| 色婷婷亚洲综合五月| 国语少妇高潮| 久久精品电影| 亚洲最大福利网站| 欧美第二区| 新SSS无码手机在线观看| 亚洲精品视频在线观看视频| 亚洲毛片一级带毛片基地| 亚洲三级a| 久久不卡精品| 免费中文字幕一级毛片| 在线无码九区|