999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于時(shí)間圖注意力的交通流量預(yù)測(cè)模型

2022-01-01 00:00:00姚曉敏張心藍(lán)張振國(guó)

摘 要:交通狀況預(yù)測(cè)是智能交通系統(tǒng)的一個(gè)重要組成部分,而車流量是交通狀況最直接的體現(xiàn),因而對(duì)交通流量進(jìn)行預(yù)測(cè)具有重要的應(yīng)用價(jià)值。一方面,城市中的道路本身帶有空間拓?fù)湫再|(zhì),另一方面車流量隨時(shí)間動(dòng)態(tài)變化。因此交通流量預(yù)測(cè)問(wèn)題的關(guān)鍵在于對(duì)數(shù)據(jù)中存在的時(shí)間和空間依賴進(jìn)行建模。針對(duì)這一特性,使用神經(jīng)網(wǎng)絡(luò)模型和注意力機(jī)制來(lái)探索交通流量數(shù)據(jù)中的時(shí)空依賴關(guān)系,提出基于時(shí)間圖注意力的交通流量預(yù)測(cè)模型。空間依賴方面,使用圖卷積網(wǎng)絡(luò)與注意力結(jié)合的學(xué)習(xí)算法對(duì)不同影響程度節(jié)點(diǎn)分配不同的權(quán)重,加入節(jié)點(diǎn)自適應(yīng)學(xué)習(xí),有效提取空間特征;時(shí)間依賴方面,使用時(shí)序卷積網(wǎng)絡(luò)對(duì)時(shí)間特征進(jìn)行提取,通過(guò)擴(kuò)張卷積擴(kuò)大感受域從而捕獲較長(zhǎng)時(shí)間序列數(shù)據(jù)的特征。由圖注意力網(wǎng)絡(luò)和時(shí)間卷積網(wǎng)絡(luò)構(gòu)成一個(gè)時(shí)空網(wǎng)絡(luò)層,最終連接到輸出層輸出預(yù)測(cè)結(jié)果。該模型使用圖卷積神經(jīng)網(wǎng)絡(luò)和注意力機(jī)制結(jié)合的方式提取空間特征,充分考慮了道路間的空間關(guān)系,利用時(shí)序卷積網(wǎng)絡(luò)捕獲時(shí)間特征。在兩個(gè)真實(shí)的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)后發(fā)現(xiàn),在未來(lái)15 min、30 min、60 min的時(shí)間段內(nèi)該模型都有良好表現(xiàn),結(jié)果優(yōu)于現(xiàn)有基準(zhǔn)模型。

關(guān)鍵詞:交通預(yù)測(cè); 時(shí)間依賴; 空間依賴; 時(shí)序卷積網(wǎng)絡(luò); 注意力機(jī)制

中圖分類號(hào):TP391 文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1001-3695(2022)03-021-0770-04

doi:10.19734/j.issn.1001-3695.2021.08.0344

Traffic flow prediction model based on attention mechanism of temporal graph

Yao Xiaomin, Zhang Xinlan, Zhang Zhenguo?

(Intelligent Information Processing Lab, College of Engineering, Yanbian University, Yanji Jilin 133002, China)

Abstract:Traffic condition prediction is an important part of intelligent transportation system, and traffic flow is the most direct embodiment of traffic condition. Therefore, traffic flow prediction has important application value. On the one hand, the roads in the city have spatial topological properties, on the other hand, the traffic flow changes dynamically with time. Therefore, the key to the prediction of traffic flow is to model the time and space dependence in the data. In view of this characteristic, this paper used neural network model and attention mechanism to explore the temporal and spatial dependence relationship in traffic flow data, and proposed a traffic flow prediction model based on time map attention. In terms of spatial dependence, it used a learning algorithm combining graph convolution network and attention to assign different weights to nodes with diffe-rent influence degrees, and added node adaptive learning to effectively extract spatial features. In terms of time dependence, it used the temporal convolution network to extract the temporal features, and expanded the sensing domain by expanding convolution, so as to capture the features of longer time series data. A spatial-temporal network layer was composed of graph attention network and time convolution network, which was finally connected to the output layer to output the prediction results. The model used the combination of graph convolution neural network and attention mechanism to extract spatial features, fully considered the spatial relationship between roads, and used temporal convolution network to capture temporal features. After experiments on two real datasets, it is found that it has good performance in the next 15, 30 and 60 minutes, and the results are better than the existing baselines.

Key words:traffic prediction; temporal dependence; spatial dependence; temporal convolutional network; attention mechanism

0 引言

近年來(lái),隨著經(jīng)濟(jì)生活水平的增加,汽車保有量逐漸增多,給人們生活帶來(lái)便利的同時(shí)也帶來(lái)了一系列的問(wèn)題,如交通擁堵、交通事故頻發(fā)等,這不僅導(dǎo)致交通擁堵、交通環(huán)境污染、交通事故、浪費(fèi)城市資源等問(wèn)題,還對(duì)個(gè)人出行造成困擾。因此,高精度的交通流量預(yù)測(cè)作為智能交通系統(tǒng)的重要組成部分對(duì)城市交通規(guī)劃和居民出行安排等具有重要意義。

交通預(yù)測(cè)問(wèn)題是通過(guò)分析歷史交通信息來(lái)預(yù)測(cè)未來(lái)某時(shí)刻的交通信息(包括速度、密度、流量等)。現(xiàn)有的交通預(yù)測(cè)方法主要分為統(tǒng)計(jì)方法模型、傳統(tǒng)機(jī)器學(xué)習(xí)模型、深度學(xué)習(xí)模型。在統(tǒng)計(jì)方法中,HA模型(history average model)[1]使用最小二乘法對(duì)參數(shù)進(jìn)行在線估計(jì),對(duì)交通狀態(tài)的變化進(jìn)行相對(duì)準(zhǔn)確的預(yù)測(cè);ARIMA模型(autoregressive integrated moving average mo-del)[2]通過(guò)變量的歷史時(shí)間序列對(duì)交通流量進(jìn)行預(yù)測(cè),但其模型要求數(shù)據(jù)滿足平穩(wěn)性。傳統(tǒng)機(jī)器學(xué)習(xí)中,K近鄰[3]方法通過(guò)歷史交通數(shù)據(jù)建立大容量的歷史數(shù)據(jù)庫(kù),然后對(duì)冗余數(shù)據(jù)進(jìn)行刪減,按照距離度量準(zhǔn)則、近鄰值K的選取等從數(shù)據(jù)庫(kù)中找到與當(dāng)前交通數(shù)據(jù)匹配的近鄰,再用預(yù)測(cè)算法得到下一時(shí)間段的交通狀態(tài)。深度學(xué)習(xí)模型中,長(zhǎng)短期記憶(LSTM)人工神經(jīng)網(wǎng)絡(luò)的提出解決了傳統(tǒng)循環(huán)卷積網(wǎng)絡(luò)在處理時(shí)間序列中梯度消失和梯度爆炸問(wèn)題,它對(duì)預(yù)測(cè)過(guò)程中信息的保留和舍棄、相隔時(shí)間長(zhǎng)的數(shù)據(jù)選擇上提供了解決方法。LSTM模型在交通數(shù)據(jù)上的表現(xiàn)良好,遠(yuǎn)遠(yuǎn)超過(guò)統(tǒng)計(jì)方法和傳統(tǒng)機(jī)器學(xué)習(xí)模型,但其僅考慮時(shí)間依賴的問(wèn)題,忽略了空間路網(wǎng)結(jié)構(gòu)對(duì)預(yù)測(cè)結(jié)果的影響。卷積神經(jīng)網(wǎng)絡(luò)[4~6]將歷史交通信息構(gòu)造成時(shí)空矩陣,同時(shí)考慮了時(shí)間和空間兩個(gè)因素并且得到了較好的結(jié)果,但是其空間依賴關(guān)系提取方式太過(guò)簡(jiǎn)單,沒(méi)有很好地表征交通路網(wǎng)之間的空間依賴關(guān)系;另一方面,卷積神經(jīng)網(wǎng)絡(luò)對(duì)歐氏空間的建模更加準(zhǔn)確,而城市道路網(wǎng)之間的關(guān)系是非歐氏的。近年來(lái)圖卷積[7]模型對(duì)交通網(wǎng)絡(luò)的建模表現(xiàn)出突出的優(yōu)勢(shì),圖卷積模型可以從數(shù)據(jù)中學(xué)習(xí)到空間特征,得到空間依賴關(guān)系,但是圖卷積是在給定靜態(tài)的交通網(wǎng)絡(luò)空間關(guān)系的狀態(tài)下進(jìn)行的,有一定的局限性。

交通問(wèn)題離不開道路網(wǎng)絡(luò)的空間依賴性和歷史數(shù)據(jù)的時(shí)間依賴性,單獨(dú)思考時(shí)間或者空間依賴會(huì)丟失對(duì)預(yù)測(cè)結(jié)果起作用的重要信息。本文將時(shí)間和空間結(jié)合起來(lái)進(jìn)行下一步的預(yù)測(cè),提出了一個(gè)新的時(shí)間圖卷積網(wǎng)絡(luò)模型,分別對(duì)空間和時(shí)間依賴方面進(jìn)行建模。本文主要貢獻(xiàn)如下:

a)在空間依賴方面,提出圖卷積和注意力機(jī)制結(jié)合的方法,根據(jù)不同節(jié)點(diǎn)之間影響程度分別賦予不同的權(quán)重,與此同時(shí),用節(jié)點(diǎn)自適應(yīng)的方式對(duì)特定節(jié)點(diǎn)特征進(jìn)行捕獲從而優(yōu)化模型,較好地提取了空間特征。

b)在時(shí)間依賴方面,采用門限機(jī)制包括兩個(gè)TCN[4]塊,分別使用不同的激活函數(shù),對(duì)交通狀態(tài)的時(shí)間依賴進(jìn)行建模。其中,使用擴(kuò)張和普通卷積相同數(shù)量的參數(shù)和卷積核在更大的感受野下提取較長(zhǎng)時(shí)間序列的時(shí)間特征,利用因果卷積對(duì)數(shù)據(jù)的維度進(jìn)行歸一化。

c)結(jié)合圖卷積注意力機(jī)制和時(shí)間卷積網(wǎng)絡(luò)應(yīng)用于交通預(yù)測(cè)任務(wù)。在真實(shí)交通流量預(yù)測(cè)數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明本模型的預(yù)測(cè)效果優(yōu)于基準(zhǔn)模型。

1 問(wèn)題定義

本文中,交通預(yù)測(cè)的任務(wù)是根據(jù)道路的歷史交通流量和傳感器之間的空間信息預(yù)測(cè)下一時(shí)間段內(nèi)的交通信息。為了形象地表示預(yù)測(cè)過(guò)程,給出以下定義:

定義1 道路結(jié)構(gòu)圖。本文使用圖G=(V,E,W)來(lái)表示路網(wǎng)結(jié)構(gòu),如果將每個(gè)傳感器當(dāng)做一個(gè)節(jié)點(diǎn),V就表示傳感器的序列,V={v1,v2,…,vn},此處n為傳感器的數(shù)量;E則是傳感器之間的連邊。使用鄰接矩陣W來(lái)描述傳感器之間的連接關(guān)系。圖1中,(a)為真實(shí)的路網(wǎng)結(jié)構(gòu),(b)是根據(jù)路網(wǎng)結(jié)構(gòu)之間關(guān)系而構(gòu)造的圖。

2 模型

2.1 模型架構(gòu)

圖2是本文提出模型架構(gòu)圖。模型首先將歷史交通數(shù)據(jù)作為輸入,經(jīng)過(guò)一層線性轉(zhuǎn)換傳遞到門控時(shí)間卷積的模塊,門控時(shí)間卷積模塊可以決定哪些有效信息可以被傳輸?shù)较乱粚樱蝗缓笤偈褂媒Y(jié)合注意力機(jī)制的圖卷積模型對(duì)空間信息進(jìn)行提取,每一個(gè)時(shí)間—空間層(如圖虛框部分)通過(guò)殘差連接和線性層連接到輸出層,模型最終從輸出層得到下一時(shí)刻的交通預(yù)測(cè)值。

2.2 空間依賴

2.2.1 圖注意力網(wǎng)絡(luò)

現(xiàn)實(shí)生活中很多問(wèn)題不適合在歐氏空間表示,傳統(tǒng)的深度模型無(wú)法處理這類數(shù)據(jù),而圖卷積能夠使深度學(xué)習(xí)模型應(yīng)用在歐氏空間結(jié)構(gòu)上。目前圖卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用在很多領(lǐng)域,如自然語(yǔ)言處理[8,9]、圖像[10]以及交通預(yù)測(cè)。隨著注意力機(jī)制[11]的加入,使其更能夠表征空間關(guān)系,注意力機(jī)制[12]對(duì)節(jié)點(diǎn)分別分配權(quán)重,訓(xùn)練時(shí)將相鄰節(jié)點(diǎn)作為一對(duì),可以不用得到完整的圖的信息。

任意節(jié)點(diǎn)vi在某一層所對(duì)應(yīng)的特征向量是hi,使用注意力a(Whi,Whi),同時(shí)加上一個(gè)激活函數(shù),表示了節(jié)點(diǎn)i到j(luò)的相關(guān)程度,計(jì)算過(guò)程如圖3所示。

為了進(jìn)一步提高注意力層表達(dá)能力,本文采用多頭注意力機(jī)制將不同注意力機(jī)制生成的向量拼接在一起。式(4)是圖注意力機(jī)制的計(jì)算公式。

其中:‖代表的是拼接操作;α(k)ij是第k組注意力機(jī)制計(jì)算出的權(quán)重系數(shù);W(k)是對(duì)應(yīng)的學(xué)習(xí)參數(shù)。增加多組相互獨(dú)立的注意力機(jī)制,使多頭注意力機(jī)制能夠?qū)⒆⒁饬Ψ峙浞诺街行墓?jié)點(diǎn)與鄰居節(jié)點(diǎn)之間多處相關(guān)特征上,可使模型的學(xué)習(xí)能力更強(qiáng)。

2.2.2 自適應(yīng)鄰接矩陣

本文的圖注意力網(wǎng)絡(luò)的操作過(guò)程如式(5):

由于交通數(shù)據(jù)的動(dòng)態(tài)特征可能影響交通狀態(tài),而不同的交通時(shí)間序列之間的模式也不相同,比如相鄰的節(jié)點(diǎn)之間可能存在不同的PoI(point of interest)模式,甚至存在反向的關(guān)系。如圖4所示,雖然傳感器1和2在空間上比傳感器1和3更近,交通流向卻是相反的。

為獲得固定鄰接矩陣無(wú)法提供的信息,采用自適應(yīng)的鄰接矩陣來(lái)對(duì)不同節(jié)點(diǎn)分配參數(shù)空間,但是對(duì)每個(gè)節(jié)點(diǎn)分配參數(shù)會(huì)導(dǎo)致過(guò)度擬合問(wèn)題。本文使用節(jié)點(diǎn)自適應(yīng)參數(shù)學(xué)習(xí)模塊對(duì)圖注意力網(wǎng)絡(luò)進(jìn)行增強(qiáng)。式(6)描述了具體過(guò)程:

節(jié)點(diǎn)自適應(yīng)的操作通過(guò)學(xué)習(xí)兩個(gè)較小參數(shù)矩陣WG和EG代替直接學(xué)習(xí)Θ,其中WG是權(quán)重矩陣,EG是節(jié)點(diǎn)嵌入矩陣,Θ=EG·WG。

2.3 時(shí)間依賴

交通預(yù)測(cè)另外的重要任務(wù)是捕獲時(shí)間特征,目前大部分研究工作使用循環(huán)神經(jīng)網(wǎng)絡(luò)[13]處理時(shí)序數(shù)據(jù),但是這種方法存在梯度消失和梯度爆炸的問(wèn)題,不能捕獲長(zhǎng)時(shí)間的時(shí)間特征。時(shí)間卷積網(wǎng)絡(luò)[14]能夠捕獲更長(zhǎng)的時(shí)間依賴,本文使用時(shí)間卷積網(wǎng)絡(luò)對(duì)時(shí)間特征進(jìn)行捕獲。

1)因果卷積

在因果卷積中,對(duì)于輸出時(shí)刻t值來(lái)說(shuō),其依賴的是t及t之前的值,與傳統(tǒng)的卷積[15]不同的是,因果卷積[16]僅能看到過(guò)去的值而看不到未來(lái)的值,是嚴(yán)格時(shí)間約束的單向結(jié)構(gòu)模型。隨著時(shí)間的累積,輸入值的時(shí)間跨度越來(lái)越大,卷積的層數(shù)隨之增大,從而造成不必要的消耗。擴(kuò)張卷積可以很好地解決這個(gè)問(wèn)題。

2)擴(kuò)張卷積

當(dāng)卷積的層數(shù)不斷加深,原本的因果卷積效率太差且參數(shù)量巨大。時(shí)間卷積模型中引入膨脹因果卷積來(lái)解決這一問(wèn)題,目的是用較少的參數(shù)獲取更大的感受野。擴(kuò)張與普通卷積的區(qū)別如圖5所示。圖5中,普通卷積3×3的卷積核在擴(kuò)張率為2的擴(kuò)張卷積操作下與5×5的卷積核的視野一樣廣,參數(shù)卻仍然不變;而當(dāng)擴(kuò)張率為1時(shí)擴(kuò)張與普通卷積操作相同。

3 數(shù)據(jù)描述及預(yù)處理

本文將提出的模型在真實(shí)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),用不同的評(píng)價(jià)指標(biāo)表達(dá)對(duì)不同模型的預(yù)測(cè)能力,驗(yàn)證模型的有效性。

3.1 數(shù)據(jù)描述

本文采用以下兩個(gè)真實(shí)的數(shù)據(jù)集對(duì)提出的模型進(jìn)行評(píng)估:a)METR-LA,洛杉磯高速公路上環(huán)形傳感器收集的交通數(shù)據(jù)集,其中包括207個(gè)節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)對(duì)應(yīng)一個(gè)傳感器;b)PEMS-BAY,加州交通部門(performance measurement system)收集的交通數(shù)據(jù),其中統(tǒng)計(jì)了2017年1月1日至2017年5月31日的交通速度信息,共325個(gè)傳感器。表1是具體的數(shù)據(jù)集信息。

3.2 數(shù)據(jù)預(yù)處理

由于傳感器可能存在著失靈、損壞等問(wèn)題,會(huì)導(dǎo)致收集的交通數(shù)據(jù)有缺失部分,有必要進(jìn)行數(shù)據(jù)預(yù)處理,填補(bǔ)缺失數(shù)據(jù)使得后期特征提取和預(yù)測(cè)任務(wù)更加準(zhǔn)確。

3.2.1 數(shù)據(jù)缺失值處理

由于交通信息隨著時(shí)間變化而變化,這表明過(guò)去時(shí)間段的數(shù)據(jù)對(duì)空缺數(shù)據(jù)的填補(bǔ)很有效果。本文采用指數(shù)平滑法對(duì)缺失值進(jìn)行填補(bǔ),其計(jì)算方法如下:

其中:t是需要預(yù)測(cè)的t時(shí)刻缺失的數(shù)據(jù);t-1是t時(shí)刻之前時(shí)間段真實(shí)的測(cè)量值;α(0lt;αlt;1)是系數(shù),α值一般根據(jù)數(shù)據(jù)的波動(dòng)性確定大小或者取不同的值進(jìn)行試算。

3.2.2 數(shù)據(jù)歸一化

為了消除交通數(shù)據(jù)中速度過(guò)大或者過(guò)小所帶來(lái)的不利影響,本文用Z-score[17]方法對(duì)數(shù)據(jù)進(jìn)行歸一化處理,計(jì)算公式如下:

其中:S是標(biāo)準(zhǔn)差;X是某個(gè)樣本;則是這組數(shù)的平均數(shù)。Z-score方法將多組數(shù)據(jù)轉(zhuǎn)換為沒(méi)有單位的分值,將數(shù)據(jù)標(biāo)準(zhǔn)統(tǒng)一化,消除奇異樣本數(shù)據(jù)對(duì)預(yù)測(cè)結(jié)果的影響。

4 實(shí)驗(yàn)結(jié)果及分析

4.1 參數(shù)設(shè)置

在圖注意力神經(jīng)網(wǎng)絡(luò)中,k值選擇對(duì)預(yù)測(cè)結(jié)果有重要的影響。本文采用多次實(shí)驗(yàn)來(lái)獲取最優(yōu)k值,不同k值對(duì)結(jié)果的影響如圖6所示。表2描述了實(shí)驗(yàn)中其他參數(shù)的選取。從圖6中可以看出,k取值為4的時(shí)候效果最好。

4.3 評(píng)估結(jié)果

將本文提出的模型(ATGraph)與當(dāng)前主流和經(jīng)典的交通流量預(yù)測(cè)模型進(jìn)行對(duì)比實(shí)驗(yàn)。對(duì)比的方法主要有基于統(tǒng)計(jì)理論和基于深度學(xué)習(xí)的交通流量預(yù)測(cè)方法,分別為:a)ARIMA,對(duì)平穩(wěn)時(shí)間序列進(jìn)行預(yù)測(cè)的模型;b)DCRNN[14],擴(kuò)散卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)合的方法;c)ASTGCN[18],基于注意力的時(shí)空?qǐng)D卷積網(wǎng)絡(luò); d)Graph Wave Net,圖卷積和擴(kuò)張卷積結(jié)合的方法。預(yù)測(cè)15 min、30 min、60 min的車流量后,各模型的比較結(jié)果如表3所示。

從表3可以看出,本文模型在短期、中期、長(zhǎng)期的表現(xiàn)均優(yōu)于其他方法,相較于其他方法,本文提出的模型考慮了不同節(jié)點(diǎn)之間的影響程度的權(quán)重大小,擯棄了傳統(tǒng)的參數(shù)共享模式,對(duì)不同的數(shù)據(jù)學(xué)習(xí)不同的節(jié)點(diǎn)參數(shù)來(lái)優(yōu)化模型結(jié)構(gòu),使得圖表達(dá)能力有一定幅度的提升;TCN則能夠很好地抓取長(zhǎng)時(shí)的依賴信息。

圖7是本模型和基準(zhǔn)模型在不同時(shí)間預(yù)測(cè)任務(wù)上的表現(xiàn)比較,其中(a)是METR-LA數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,(b)是PEMS-BAY數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果。

如圖7所示,從不同時(shí)間的預(yù)測(cè)能力上看,本文模型的預(yù)測(cè)表現(xiàn)較為平穩(wěn),各項(xiàng)指標(biāo)在所有模型中變化最為平穩(wěn),在中長(zhǎng)時(shí)間的預(yù)測(cè)上,本模型的表現(xiàn)能力均高于基準(zhǔn)模型。同時(shí)可以看出,在未來(lái)15 min、30 min、60 min的預(yù)測(cè)任務(wù)中,本模型的表現(xiàn)優(yōu)于其他基線模型。與僅考慮時(shí)間依賴的傳統(tǒng)統(tǒng)計(jì)模型ARIMA相比,本模型加入了空間依賴的提取模塊,表征了數(shù)據(jù)的時(shí)空關(guān)系,誤差降低了近30%。DCRNN雖然應(yīng)用了循環(huán)卷積模型提取時(shí)間特征,但是其對(duì)較長(zhǎng)時(shí)間序列的特征提取效果不好,誤差與本模型相差近5%。本文的門控時(shí)間卷積則很好地解決了這一問(wèn)題。與ASTGCN、Graph Wave Net相比,本文的自適應(yīng)矩陣學(xué)習(xí)對(duì)圖信息的獲取更加有效,誤差也相應(yīng)降低約3%。

5 結(jié)束語(yǔ)

本文提出了結(jié)合圖注意力卷積和時(shí)間卷積網(wǎng)絡(luò)的模型。圖卷積注意力引入節(jié)點(diǎn)自適應(yīng)學(xué)習(xí)分別學(xué)習(xí)每個(gè)節(jié)點(diǎn)的不同模式,更高效地提取空間拓?fù)浣Y(jié)構(gòu);時(shí)間卷積網(wǎng)絡(luò)則解決了循環(huán)神經(jīng)網(wǎng)絡(luò)梯度消失和梯度爆炸的問(wèn)題,通過(guò)增大感受野而獲取更長(zhǎng)的時(shí)間依賴。最后與常見(jiàn)的交通流量預(yù)測(cè)方法進(jìn)行了實(shí)驗(yàn)對(duì)比,結(jié)果顯示本文提出模型的三個(gè)評(píng)價(jià)指標(biāo)數(shù)值最低,表明模型的預(yù)測(cè)能力相對(duì)較好。

本文還存在如下待改進(jìn)之處:a)本文沒(méi)有考慮外界因素,如天氣、交通事故等,這會(huì)導(dǎo)致預(yù)測(cè)精度受到影響;b)本文提出的模型考慮的是靜態(tài)依賴關(guān)系,但是位置之間的關(guān)系是呈現(xiàn)動(dòng)態(tài)變化的。

參考文獻(xiàn):

[1]劉靜,關(guān)偉.交通流預(yù)測(cè)方法綜述[J].公路交通科技,2004,21(3):82-85.(Liu Jing, Guan Wei. A summary of traffic flow forecasting methods[J].Journal of Highway and Transportation Research and Development,2004,21(3):82-85.)

[2]Ahmed M S, Cook A R. Analysis of freeway traffic time-series data by using Box-Jenkins techniques[J].Transportation Research Record,1979,773(722):1-9.

[3]張曉利,賀國(guó)光,陸化普.基于K-鄰域非參數(shù)回歸短時(shí)交通流預(yù)測(cè)方法[J].系統(tǒng)工程學(xué)報(bào),2009,24(2):178-183.(Zhang Xiaoli, He Guoguang, Lu Huapu. Short-term traffic flow forecasting based on K-nearest neighbor non-parametric regression[J].Journal of Systems Engineering,2009,24(2):178-183.)

[4]Ma Xiaolei, Dai Zhuang, He Zhengbing, et al. Learning traffic as images: a deep convolutional neural network for large-scale transportation network speed prediction[J].Sensors,2017,17(4):article No.818.

[5]Ranjan N, Bhandari S, Zhao Hongping, et al. City-wide traffic congestion prediction based on CNN, LSTM and transpose CNN[J].IEEE Access,2020,8:81606-81620.

[6]郭晟楠,林友芳,金文蔚,等.基于時(shí)空循環(huán)卷積網(wǎng)絡(luò)的城市區(qū)域人口流量預(yù)測(cè)[J].計(jì)算機(jī)科學(xué),2019,46(6A):385-391.(Guo Shengnan, Lin Youfang, Jin Wenwei, et al. Citywide crowd flows prediction based on spatio-temporal recurrent convolutional networks[J].Computer Science,2019,46(6A):385-391.)

[7]Yang Di, Li Songjiang, Peng Zhou, et al. MF-CNN: traffic flow prediction using convolutional neural network and multi-features fusion[J].IEICE Trans on Information and Systems,2019,E102.D(8):1526-1536.

[8]Marcheggiani D, Bastings J, Titov I. Exploiting semantics in neural machine translation with graph convolutional networks[EB/OL].(2018-06-01).https://aclanthology.org/N18-2078v2.pdf

[9]Nathani D, Chauhan J, Sharma C, et al. Learning attention-based embeddings for relation prediction in knowledge graphs[C]//Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg,PA: Association for Computational Linguistics,2019:4710-4723.

[10]Simonovsky M, Komodakis N. Dynamic edge-conditioned filters in convolutional neural networks on graphs[C]//Proc of IEEE Confe-rence on Computer Vision and Pattern Recognition. Washington DC:IEEE Computer Society,2017:29-38.

[11]Xiao Tianjun, Xu Yichong, Yang Kuiyuan, et al. The application of two-level attention models in deep convolutional neural network for fine-grained image classification[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Washington DC:IEEE Computer Society,2015:842-850.

[12]Li Ming, Wang Yuewen, Wang Zhaowen, et al. A deep learning method based on an attention mechanism for wireless network traffic prediction[J].Ad hoc Networks,2020,107:102258.

[13]Li Yaguang, Yu R, Shahabi C, et al. Diffusion convolutional recurrent neural network: data-driven traffic forecasting[C]//Proc of International Conference of Legal Regulators.2017.

[14]Bai Shaojie, Kolter J Z, Koltun V. Trellis networks for sequence modeling[EB/OL].(2019-03-11).https://arxiv.org/pdf/1810.06682v1.pdf.

[15]Smirnov E A, Timoshenko D M, Andrianov S N. Comparison of regularization methods for ImageNet classification with deep convolutional neural networks[J].AASRI Procedia,2014,6:89-94.

[16]Van den Oord A, Dieleman S, Zen H, et al. WaveNet:a generative model for raw audio[EB/OL].(2016-09-19).https://arxiv.org/pdf/1609.03499v2.pdf.

[17]Wu Hong, Hayes M J, Weiss A, et al. An evaluation of the Stan-dardized precipitation index, the China-Z index and the statistical Z-score[J].International Journal of Climatology,2001,21(6):745-758.

[18]Guo Shengnan, Lin Youfang, Feng Ning, et al. Attention based spatial-temporal graph convolutional networks for traffic flow forecasting[C]//Proc of AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2019:922-929.

主站蜘蛛池模板: 一本色道久久88| 国产情精品嫩草影院88av| 91视频免费观看网站| 国产精品护士| 色综合成人| 亚洲视频欧美不卡| 一区二区在线视频免费观看| 欧美成人亚洲综合精品欧美激情| 免费在线色| 国产欧美日韩在线在线不卡视频| 成人av手机在线观看| 激情午夜婷婷| 国产精品片在线观看手机版| 亚洲精品va| 91蜜芽尤物福利在线观看| 亚洲精品无码久久久久苍井空| 欧美啪啪网| 一边摸一边做爽的视频17国产 | 国产一级在线观看www色 | 国产在线视频欧美亚综合| 久久午夜夜伦鲁鲁片无码免费| 人人91人人澡人人妻人人爽| 九一九色国产| 欧美成人免费午夜全| 国产精品护士| 国产成人一区二区| 深爱婷婷激情网| 国产一区二区三区在线无码| 老司机精品久久| 色妞www精品视频一级下载| 88av在线| 蜜芽国产尤物av尤物在线看| 亚洲欧美综合精品久久成人网| 欧美另类图片视频无弹跳第一页| 强奷白丝美女在线观看| 少妇极品熟妇人妻专区视频| 97久久精品人人做人人爽| 久热中文字幕在线| 免费精品一区二区h| 色综合国产| 激情爆乳一区二区| 欧美中文字幕在线播放| 亚洲男人的天堂在线| 欧美区一区二区三| 欧美成a人片在线观看| 青青青视频91在线 | 日本免费a视频| 在线毛片免费| 国产成人亚洲综合A∨在线播放| 日韩美毛片| 久久激情影院| 久久鸭综合久久国产| 亚洲天堂网在线播放| 岛国精品一区免费视频在线观看| 18黑白丝水手服自慰喷水网站| 69精品在线观看| 国产成人盗摄精品| 国产亚洲高清在线精品99| 国产视频a| 综合色88| 欧美a级完整在线观看| 国产日本欧美亚洲精品视| 狠狠v日韩v欧美v| 国产成人无码久久久久毛片| 98精品全国免费观看视频| 在线视频一区二区三区不卡| 任我操在线视频| 免费99精品国产自在现线| 99国产精品免费观看视频| 播五月综合| 深夜福利视频一区二区| 亚洲va欧美va国产综合下载| 婷婷午夜影院| 国产精品性| 亚洲中文字幕手机在线第一页| 草逼视频国产| 54pao国产成人免费视频 | 91毛片网| 午夜成人在线视频| 久久黄色视频影| 2022国产无码在线| www.99精品视频在线播放|