999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于邊特征融合的行人軌跡預(yù)測算法研究

2024-01-15 09:59:58王紅霞李枝峻寧樞麟
長春師范大學(xué)學(xué)報 2023年12期
關(guān)鍵詞:特征融合信息

王紅霞,顧 鵬,李枝峻,寧樞麟

(沈陽理工大學(xué)信息科學(xué)與工程學(xué)院,遼寧 沈陽 110159)

0 引言

復(fù)雜場景中準(zhǔn)確地對行人軌跡進行預(yù)測對自動駕駛系統(tǒng)至關(guān)重要[1]。行人作為自動駕駛的主要參與者,其軌跡更加自由、靈活、復(fù)雜,準(zhǔn)確地對行人軌跡進行預(yù)測可以規(guī)避潛在的風(fēng)險。行人軌跡預(yù)測的難點在于行人的軌跡受主觀因素的影響,同時也受到周圍行人運動的影響,對其精準(zhǔn)預(yù)測有較高的難度。

傳統(tǒng)的行人軌跡預(yù)測通過手工提取行人交互特征,不僅有交互不足的缺點,而且缺少適配的數(shù)據(jù)集。隨著深度學(xué)習(xí)的興起,長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)被用于序列預(yù)測,通過復(fù)雜的網(wǎng)絡(luò)模型再搭配更適配的數(shù)據(jù)集得到了更好的預(yù)測效果。ALAHI等[2]提出采用LSTM網(wǎng)絡(luò)提取行人運動軌跡信息,加入池化模塊,在池化模塊范圍內(nèi)的行人共享信息,從而達到提取社交關(guān)系的目的。相對于單獨使用RNN網(wǎng)絡(luò)進行預(yù)測,考慮了行人交互,取得了更好的預(yù)測效果,缺點是池化操作不能區(qū)別對待行人之間的關(guān)系。生成對抗網(wǎng)絡(luò)[3](Generative Adversarial Networks,GAN)不需要復(fù)雜的模型,通過對抗學(xué)習(xí)達到更好的效果。GUPTA等[4]基于GAN網(wǎng)絡(luò)提出了(Social GAN,SGAN)模型,采用生成器-判別器模式訓(xùn)練模型,提出新的損失函數(shù)鼓勵網(wǎng)絡(luò)預(yù)測多條軌跡,相比先前模型只是預(yù)測一條“平均好”的軌跡,在預(yù)測精度上有了很大提升,缺點是采用全局池化會加入無效交互且增大運算量,并且GAN模型不易訓(xùn)練。為了解決交互不足的缺點,有學(xué)者提出采用注意力機制模塊提取信息[5-6],相對全局池化,在提取交互關(guān)系上有了一定改進,缺點仍是不能區(qū)別對待行人關(guān)系。

在對行人交互信息提取中,多數(shù)研究采用池化層進行交互,缺點是損失了大量信息,融入了無效交互。圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Network,GNN)的出現(xiàn),將行人關(guān)系映射到圖中進行建模,更符合社交關(guān)系網(wǎng)絡(luò)。圖注意力網(wǎng)絡(luò)(Graph Attention Network,GAT)是GNN的變體。通過注意力機制(Attention Mechanism)對鄰居節(jié)點做聚合操作。HUANG等[7]基于GAT模型為每個鄰居節(jié)點分配注意力系數(shù),然后通過加權(quán)求和得到節(jié)點新的特征向量,缺點是當(dāng)前基于圖神經(jīng)網(wǎng)絡(luò)的模型在提取行人之間交互信息所考慮的信息是片面的,忽略了邊特征在圖中的作用。

針對上述問題,本文提出一種結(jié)合邊特征的時空圖自注意力預(yù)測模型(Spatial-Temporal Graph Network with Edge Feature Generative Adversarial Networks,STGEF-GATv2)對行人軌跡進行預(yù)測。采用編碼器-解碼器結(jié)構(gòu)作為主體結(jié)構(gòu),引入邊特征提取模塊,將行人歐式距離構(gòu)建鄰接矩陣,輸入到特征融合層,將輸出結(jié)果用作邊特征,增加了GAT可學(xué)習(xí)信息。空間交互采用更加有效的GATv2模塊[8]替換GAT模塊,采用更少的頭,提升精度的同時降低了模型復(fù)雜度。最后,STGEF-GATv2模型采用模塊時空信息融合模塊[7],可以更好地提取行人間的時空交互信息,從而提高預(yù)測模型的精確度。

1 模型描述

2 模型架構(gòu)

2.1 軌跡預(yù)測模型

STGEF-GAT模型的架構(gòu)如圖1所示,主要采用編碼器-解碼器模型。本文在編碼器采用LSTM模型學(xué)習(xí)行人運動軌跡隱藏狀態(tài),將行人的相對位置坐標(biāo)輸入特征提取模塊后與LSTM網(wǎng)絡(luò)的隱藏狀態(tài)進行融合,采用GATv2來提取行人空間上的交互特征。另外采用一個LSTM學(xué)習(xí)行人空間交互的隱藏信息,解碼器采用LSTM網(wǎng)絡(luò),以時間特征、空間特征、交互特征[10]結(jié)合高斯噪聲作為輸入,未來的軌跡作為輸出,最終通過反向傳播進行模型訓(xùn)練。

圖1 行人軌跡預(yù)測模型架構(gòu)圖

2.2 邊特征增融合

原始GAT結(jié)構(gòu)有一個缺陷,在學(xué)習(xí)注意力機制時不使用任何邊的可用信息,為解決這一缺點本算法通過添加歸一化層,如圖2所示,輸入行人軌跡相對位置坐標(biāo),構(gòu)建歐式距離鄰接矩陣,歸一化后進行維度映射。最后與相對位置坐標(biāo)經(jīng)過LSTM后的隱藏特征進行融合,增加了節(jié)點邊特征向量的信息,提供GAT層更豐富的學(xué)習(xí)信息。上述過程的計算表達式為:

圖2 邊特征融合模塊示意圖

(1)

進行歸一化的原因是為了減少過擬合,加快模型收斂,此處采用GCN(Graph Convolutional Neural Network)中的歸一化方法,保證了圖的對稱性,并且有利于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)。

最后進行相加操作,相較于拼接操作和乘法操作的特征融合,采用加法融合使維度更低,減少運算量,降低模型復(fù)雜度,同時預(yù)測精度并沒有降低。

2.3 GAT變體GATv2

在圖結(jié)構(gòu)中行人交互關(guān)系如圖3所示。GAT是GNN模型中重要的一種變體,多頭注意力機制能進一步提升注意力層的表達能力,如圖4所示[11]。

圖3 行人交互關(guān)系示意圖

圖4 多頭注意力機制示意圖

首先計算鄰居節(jié)點及自身的注意力系數(shù),然而BRODY等[8]發(fā)現(xiàn)GAT的注意力有很強的局限性,在GAT中每個節(jié)點都只關(guān)心鄰居節(jié)點,BRODY認(rèn)為不論自身節(jié)點特征怎么變,得到的注意力權(quán)重的計算結(jié)果都是相同的,將這種注意力稱為靜態(tài)注意力。BRODY通過改進GAT提出了GATv2,由公式(2)演變到公式(3)。經(jīng)過實驗可知,采用兩個頭的實驗結(jié)果比原有GAT四個頭甚至更多頭的實驗效果好,降低了模型復(fù)雜度,減少了運算量,最后通過公式(4)對注意力系數(shù)進行加權(quán)求和,得到新的節(jié)點特征向量。

(2)

其中,‖表示拼接操作,wgat表示共享權(quán)重矩陣,hi,t表示節(jié)點的特征,aT是一個注意力核函數(shù),目的是進行維度映射。L為激活函數(shù),αij,t為t時刻權(quán)重系數(shù)。

(3)

與式(2)不同,式(3)先進行特征拼接[hi,t‖hj,t],然后再與權(quán)重矩陣wgat相乘。經(jīng)過激活函數(shù)L,再與注意力核函數(shù)相乘。

對得到的注意力系數(shù)進行加權(quán)求和,得到新特征向量,為加強GAT學(xué)習(xí)能力,采用多頭注意力機制,如公式(4)所示。

(4)

2.4 軌跡編碼器模塊

(5)

將節(jié)點特征輸入長短期記憶網(wǎng)絡(luò)模型,學(xué)習(xí)行人運動的隱藏信息,數(shù)學(xué)表達式如下:

mi,t=T(mi,t-1,ei,t;Wm),

(6)

其中,Wm為LSTM權(quán)重系數(shù),mi,t為t-1時刻運動隱藏信息,ei,t為節(jié)點特征,T表示循環(huán)神經(jīng)網(wǎng)絡(luò)。

將運動隱藏特征和邊特征融合模塊進行相加操作:

Mi,t=mi,t+H,

(7)

其中,mi,t表示運動隱藏信息,H表示邊特征提取結(jié)果,來自公式(1),此融合操作對應(yīng)圖1中的C模塊。

學(xué)習(xí)行人空間交互信息可表示為:

gi,t=T(gi,t-1,Gi,t;W),

(8)

其中,Gi,t為節(jié)點經(jīng)過多頭圖注意力機制的向量,gi,t-1為歷史空間交互向量,W為長短期記憶網(wǎng)絡(luò)的權(quán)重。

將時間空間信息進行融合:

hi,t=σ(Mi,t)‖σ(gi,t),

(9)

其中,σ(·)為不同的多層感知器,目的是在相同維度進行拼接。

最后將結(jié)果拼接高斯噪聲,提升模型的魯棒性和泛化能力。

Ti,Tobs=hi,t‖z,

(10)

其中,z表示高斯噪聲,hi,t為由式(9)學(xué)習(xí)到的時空信息的融合結(jié)果,Ti,Tobs為融合后的特征向量。

2.5 軌跡解碼器模塊

軌跡預(yù)測是通過行人相對位置8個步長信息,結(jié)合學(xué)習(xí)到的時空交互信息,預(yù)測下一個步長位置信息。然后將預(yù)測位置信息結(jié)合前7個步長進行新的預(yù)測,以此類推預(yù)測12個步長信息。預(yù)測的相對位置信息由公式(12)得到。

di.Tobs+1=T(di,Tobs,ei,Tobs;W),

(11)

(xi,t+1,yi,t+1)=M(di,Tobs+1,Wσ),

(12)

其中,ei,Tobs表示相對位置特征向量,di,Tobs為上一步長隱藏信息,di,Tobs+1為預(yù)測下一步長信息,W為LSTM的權(quán)重,Wσ為MLP權(quán)重,經(jīng)過嵌入函數(shù)M,得到下一相對位置坐標(biāo)。

3 實驗與分析

3.1 實驗數(shù)據(jù)和環(huán)境

采用ETH[12]和UCY[13]兩個公共數(shù)據(jù)集進行模型評估。數(shù)據(jù)集由實際生活中行人豐富的交互信息組成,其中ETH數(shù)據(jù)集包含兩個場景:UNIV和HOTEL。UCY數(shù)據(jù)集包含三個場景:ZARA01、ZARA02和UNIV。數(shù)據(jù)集將行人真實位置轉(zhuǎn)換為世界坐標(biāo)系下的位置信息。實驗采用留一法,使用其中4個數(shù)據(jù)集進行訓(xùn)練和驗證,在剩余1個數(shù)據(jù)集進行測試。

超參數(shù)設(shè)置:使用Adam優(yōu)化器進行參數(shù)優(yōu)化,學(xué)習(xí)率設(shè)為0.001,批處理大小設(shè)為64,訓(xùn)練輪數(shù)為600。實驗環(huán)境:操作系統(tǒng)為Ubuntu 20.04,處理器顯卡型號為2080Ti,PyTorch版本為1.2,Cuda版本為11.3,所有實驗都是在相同的硬件環(huán)境下進行。

3.2 評價指標(biāo)

實驗時,在模型中輸入8個時間步長(3.2 s)的行人真實軌跡,輸出預(yù)測的未來12個時間步長(4.8 s)的行人軌跡。與之前的研究相同,本文使用兩個指標(biāo)來評估預(yù)測誤差。

3.2.1 平均位置誤差

平均位置誤差(Average Displacement Error,ADE)為每一時間步的預(yù)測坐標(biāo)與真實坐標(biāo)之間的均方誤差,計算公式如下:

(13)

3.2.2 最終位置誤差

最終位置誤差(Final Displacement Error,FDE)為在預(yù)測的最后一個時間步T,預(yù)測坐標(biāo)與真實坐標(biāo)的誤差。計算公式如下:

(14)

3.3 消融實驗

為驗證所提出的邊特征融合模塊和GATv2的有效性,采取調(diào)整算法模塊的方法。并在公開數(shù)據(jù)集UCY和ETH上對ADE和FDE兩個指標(biāo)進行對比,如表1和表2所示,其中加粗黑體為最好的預(yù)測結(jié)果。算法1為基礎(chǔ)算法,只采用GAT進行特征提取,不添加任何改進;算法2在基礎(chǔ)算法上采用邊特征融合模塊;算法3在基礎(chǔ)算法上將GAT模塊替換成GATv2模塊;算法4在基礎(chǔ)算法上同時加入邊特征融合模塊和GATv2模塊。

表1 本文算法消融實驗ADE指標(biāo)

表2 本文算法消融實驗FDE指標(biāo)

由表1和表2可以看出,當(dāng)基礎(chǔ)算法增加邊特征后在五個數(shù)據(jù)集下比較兩個指標(biāo),若有一定的提升,或者不變,則表明該模型能有效地利用邊的信息。在基礎(chǔ)算法上替換GATv2模塊,除了ZARA1的ADE略有下降,FDE不變,其他指標(biāo)都有提升,且單獨使用GATv2模塊的效果要好于邊特征融合,提升效果明顯。最后融合算法2和算法3后,兩種評估指標(biāo)在ETH、HOTEL、UNIV上都有很好的提升,在ZARA1上的效果和邊特征融合效果一樣,在ZARA2上指標(biāo)略有下降。分析原因是ZARA1、ZARA2數(shù)據(jù)集中行人密度小,行人交互性不強,增加太多交互關(guān)系,產(chǎn)生了一定的過擬合問題。實驗結(jié)果證明,邊特征融合和GATv2模塊的應(yīng)用均可提升預(yù)測精度。

3.4 實驗結(jié)果分析

為了評估STGEF-GAT算法的性能,本文選取了七種算法(Linear、LSTM、S-LSTM、S-GAN、Sophie[14]、STGAT、STGEF-GATv2)進行ADE和FDE的對比,如表3和表4所示。所有算法的行人觀測時間為3.2 s,行人預(yù)測時間為4.8 s。表中黑體為最好預(yù)測結(jié)果。

表3 本文算法與其他算法的ADE指標(biāo)比較

表3和表4的實驗結(jié)果證明了邊特征融合和GATv2模塊的有效性,在五個不同的數(shù)據(jù)集上有較好的表現(xiàn),除ZARA1數(shù)據(jù)集的ADE和FDE指標(biāo)低于Sophine模型,其余四個數(shù)據(jù)集的ADE和FDE指標(biāo)都要高于所比較的算法,最終平均值全部高于所比較的算法預(yù)測,達到了提高模型精度的目的。

3.5 定性評價

為了更好地展示模型的預(yù)測效果,對模型進行軌跡可視化展示和權(quán)重分配可視化展示,以下兩種有效的可視化展示模塊來自于文獻[7]。在ZARA1數(shù)據(jù)集四個不同場景下的可視化軌跡預(yù)測如圖5所示,其中實線代表觀測軌跡,虛線代表預(yù)測軌跡,與虛線相近的實線表示真實軌跡。由圖5可以很好地看出STGEF-GATv2模型的有效性。

圖5 不同場景的可視化圖

從圖5的場景3可以看出,同向行走的預(yù)測軌跡和真實軌跡基本相符。逆向行走對行人預(yù)測軌跡影響較大,導(dǎo)致預(yù)測位置發(fā)生偏移,且距離位置越近,影響越大,如場景1和場景2相反行走的行人,當(dāng)兩人發(fā)生交互時對預(yù)測同樣產(chǎn)生較大的影響,如場景4。分析原因是當(dāng)兩人交互時,行人之間交互影響增強,從而導(dǎo)致預(yù)測位置發(fā)生偏移。綜上所述,預(yù)測可視化很好地展示了模型預(yù)測的精度。

為了更好體現(xiàn)模型是否與周圍行人產(chǎn)生聯(lián)系,對目標(biāo)行人為周圍行人分配的注意力權(quán)重進行可視化分析,如圖6所示。軌跡上的黑點表示不同時間的步長,箭頭代表行人前進的方向,沒有圓圈代表目標(biāo)行人的軌跡,圓圈的大小和權(quán)重分配成正比,權(quán)重越大圓圈越大。

圖6 權(quán)重分配可視化圖

在圖6的場景1和場景2中,同向行走的行人相較于逆向行駛的人會分配得到更低的權(quán)重,表明與預(yù)測行人同向行駛的人有較小的影響力,反之有較大的影響力;在場景3和場景4中,同向后方行走人員相較于同向前方行走人員對目標(biāo)行人影響更小,分配得到更少的權(quán)重。不足的是對于靜止不動的行人(場景2),始終分配最大的權(quán)重。綜上所述,該算法可以有效分配目標(biāo)行人和周圍行人的權(quán)重信息,充分表明了該模型的有效性。

4 結(jié)語

行人邊特征提取模塊能有效解決圖注意網(wǎng)絡(luò)邊信息的缺失問題,此模塊為圖自注意力層提供更多可學(xué)習(xí)信息。采用GAT的變體GATv2,可以用更少的頭和層數(shù)達到更好的預(yù)測效果,降低了模型復(fù)雜度,同時也提升了模型的預(yù)測準(zhǔn)確度。將預(yù)測結(jié)果進行可視化研究分析,可以更直觀地感受該模型軌跡預(yù)測效果。為驗證模型的有效性,在ETH和UCY兩個數(shù)據(jù)集上進行實驗,結(jié)果顯示,平均位置誤差和最終位置誤差兩個指標(biāo)都有所提升。

猜你喜歡
特征融合信息
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
《融合》
如何表達“特征”
不忠誠的四個特征
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 伊人丁香五月天久久综合 | 丝袜国产一区| 久久国产亚洲偷自| 亚洲色图欧美在线| 亚洲三级视频在线观看| 国产精品浪潮Av| 在线播放国产一区| 亚洲乱码视频| 九九热这里只有国产精品| 超碰91免费人妻| 伊人久久综在合线亚洲91| 国产亚洲视频中文字幕视频 | 欧美激情视频二区三区| 伊人AV天堂| 久久国产精品麻豆系列| 亚洲欧美人成人让影院| 欧美日韩在线亚洲国产人| 国产一级二级在线观看| 国产视频自拍一区| 成人在线观看一区| 亚洲精品在线影院| 国产精品爆乳99久久| 国产成人精品一区二区不卡| 午夜啪啪网| 婷婷色丁香综合激情| 亚洲综合第一页| 国产精女同一区二区三区久| 亚洲精品欧美重口| 中文字幕亚洲精品2页| 蜜桃臀无码内射一区二区三区| 精品无码国产一区二区三区AV| 免费又黄又爽又猛大片午夜| 99久久精品无码专区免费| 高清无码手机在线观看| 国产玖玖视频| 日韩午夜片| 超碰91免费人妻| 毛片一区二区在线看| 日本道中文字幕久久一区| 日韩 欧美 国产 精品 综合| 亚洲色图综合在线| av一区二区人妻无码| 国产毛片高清一级国语 | 亚洲区第一页| 精品国产亚洲人成在线| 国产国产人在线成免费视频狼人色| 欧美狠狠干| 福利视频一区| 中文字幕第1页在线播| 亚洲第一精品福利| 国产真实乱子伦视频播放| 黄色三级网站免费| 免费AV在线播放观看18禁强制| 狂欢视频在线观看不卡| 亚洲综合久久成人AV| 亚洲人成影视在线观看| 露脸真实国语乱在线观看| 日本高清免费不卡视频| 久久精品嫩草研究院| 无码免费的亚洲视频| 色亚洲激情综合精品无码视频| 亚洲人成网线在线播放va| 国产成人一区免费观看| 久久久久国产精品免费免费不卡| 国产精品永久久久久| 国产成人免费| 国产尤物视频在线| 一级毛片免费高清视频| 无码人妻免费| 亚洲欧美在线综合一区二区三区| 四虎免费视频网站| 激情乱人伦| 国产在线拍偷自揄拍精品| 波多野结衣一区二区三区AV| 亚洲成人精品在线| 午夜视频免费试看| 国产喷水视频| 伊人色在线视频| 伊人久久大香线蕉影院| 毛片一级在线| 国产18在线| 国产99视频精品免费观看9e|