999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

時序行為提名的上下文信息融合方法

2021-03-11 06:20:44王新文謝林柏
計算機與生活 2021年3期
關鍵詞:信息方法模型

王新文,謝林柏,彭 力

物聯網技術應用教育部工程研究中心(江南大學 物聯網工程學院),江蘇 無錫214122

人體行為識別在智慧城市、智能交通和互聯網視頻推薦等環境下具有重要的應用前景。在基于視頻的人體行為識別研究領域中,根據視頻內容類型分為兩種研究方向:行為識別和時序行為檢測。時序行為檢測要求預測未剪輯視頻中人體行為發生的時間位置和所屬的行為類別。早期方法采用時序滑動窗口進行檢測[1-2],但是大量的滑動窗口導致計算量急劇增加。受益于圖像目標檢測技術的發展[3-4],目前行為檢測主要采用兩個關鍵步驟:時序提名和分類[5-8]。該方法第一步為時序行為提名,即精準地生成發生行為的候選時間區間(proposal)。第二步為分類,該步驟采用行為識別方法推斷出proposal內的行為類別[9-12]。因此,第一步時序提名至關重要,直接影響時序邊界的精確度[5-8]。

在早期工作中,Escorcia 等人[5]提出了深度行為提名(deep action proposals,DAPs)方法,采用單向長短期記憶網絡(long short-term memory,LSTM)構建固定大小窗口內的視頻單元之間的時序關系。Buch等人[6]提出了單流時序(single-stream temporal,SST)提名方法,該網絡在整個視頻上采用單向的門控循環單元(gated recurrent unit,GRU)輸出多尺度的proposal,削弱了網絡模型耗時問題。Guo 等人[7]在SST基礎上進行改進,采用時序卷積構建上下文關系,并采用回歸方法預測多尺度的時序區間。Gao等人[8]提出一種時序單元回歸網絡(temporal unit regression network,TURN)產生了較為精確的proposal。在以上時序行為提名方法中,DAP 和SST 均采用單向循環網絡建立視頻幀之間的時序聯系。單向循環網絡只能捕獲當前和歷史時刻的信息,無法獲得未來信息,因此難以解決序列數據的長期依賴性問題。對于雙向循環網絡,它利用前向和后向網絡運算使得在每一時刻都可以獲得歷史和未來時刻信息,從全局構建序列模型,可以較好地處理序列數據的長期依賴性問題[13]。但是當序列數據較長時,目前存在的循環網絡(如GRU)易發生梯度消失問題,一定程度上削弱了循環網絡處理長期依賴性的性能[14]。針對上述問題,通過輸入特征控制門結構和引入滑動加權均值簡化門控循環單元(simplified-GRU,S-GRU),提出一種基于雙向S-GRU循環網絡的時序行為提名方法。該方法使循環網絡削弱了梯度消失問題,增強上下文信息融合能力,從而提高時序提名召回率。不同于SST 和DAP,本文方法采用表征能力較強的I3D(inflated 3D)[10]模型提取特征和雙向循環網絡構建上下文時序關系。在預測多尺度行為提名區間階段,采用與SST相同的方法。最后在公開數據集Thumos14 和UCF101 上進行實驗驗證,結果表明該方法取得較好效果。

1 基礎知識

循環神經網絡(recurrent neural network,RNN)是深度學習中用于序列數據建立時序關系的模型,常見的循環網絡變體有LSTM[15]、GRU[16]等。該類神經網絡擅長處理變長的序列數據,但當輸入的時序序列較長時,容易發生梯度消失問題,導致模型收斂效果變差。

GRU是簡化版的LSTM結構,包含兩個門:更新門和重置門。更新門控制歷史時刻的狀態信息被帶入到當前時刻狀態的程度,重置門控制前一時刻的狀態信息被忽略的程度。GRU計算公式為:

其中,Wz,Wr,Wh∈?m×(n+m)為參數矩陣,bz,br,bh∈?m為偏置項,σ為sigmoid非線性變換函數。zt,rt為重置和更新因子,是更新門和重置門的輸出狀態。-1,ht為當前時刻的候選狀態、上一時刻的隱藏狀態和當前時刻的隱藏狀態,xt為特征輸入向量。由式(1)可知,一層GRU 單元的參數量為3m2+3mn+3m,與隱藏狀態維數的平方m2成比例。當m較大時,導致模型運算量大和參數訓練不充分。GRU網絡梯度隨時間反向傳播算法(back propagation through time,BPTT)如圖1所示,梯度計算公式為:

Fig.1 Schematic diagram of back propagation through time of gradient圖1 梯度隨時間反向傳播示意圖

根據式(1)和BPTT算法有:

2 視頻時序行為提名網絡設計

為生成精準的時序區間,借鑒SST 方法,采用如圖2 所示的時序行為提名框架。該框架分為5 個部分:第1部分為視頻數據輸入,即輸入視頻圖像序列;第2部分為特征提取,該部分采用三維卷積編碼時空特征,即獲得視頻單元的時間和空間特征向量;第3部分為上下文信息融合,該部分采用雙向S-GRU 循環網絡構建長時間視頻序列的時序關系;第4部分為時序提名生成,該部分將循環網絡得到的上下文信息輸入到全連接層(fully collected layer,FC)輸出多尺度的候選時序區間;第5 部分為時序提名處理,該部分采用非極大值抑制(non-maximum suppression,NMS)[17]和置信分數閾值法去除冗余的候選時序區間。

借鑒圖像目標檢測技術[4],為平衡模型耗時和精準定位,首先將L幀圖像I構成的視頻分割成多個由δ幀組成的視頻單元ut={Ii;i=1,2,…,δ},單元總數T=L/δ。異于SST 和DAP 使用三維卷積(3D convolution,C3D)[9]模型編碼視頻單元的時空特征,選取I3D[10]的最后一層特征圖作為循環網絡的輸入數據,xt=F(ut),F為I3D 特征編碼網絡。由于I3D 模型融合了多尺度局部特征,因此該模型對行為識別的精度比C3D高[10]。

Fig.2 Network framework of temporal action proposals圖2 時序行為提名網絡框架

2.1 基于雙向S-GRU的上下文信息融合

2.1.1 S-GRU循環網絡

在深度學習領域中,模型參數需要通過訓練優化或學習獲得。在進行視頻行為檢測時,若視頻序列過長,RNN易發生梯度消失問題,難以學習到較優參數和建立視頻序列的長期依賴關系。針對GRU循環單元存在較多參數和梯度消失的問題,進行如下改進:

(1)基于簡化重置因子和更新因子的門控結構

式(1)中GRU 的更新因子zt和重置因子rt大小是由t-1 時刻的歷史信息和t時刻的當前輸入信息共同決定,有一定的信息冗余。當輸入序列較長時,該門控結構會降低并行計算能力,增加模型運行時間。為增強循環單元的并行計算能力,將GRU 的更新門和重置門進行簡化,門結構僅由當前時刻的輸入特征控制:

其中,σ為sigmoid 函數;Wz,Wr∈?m×n為參數矩陣;br,bz∈?m為偏置項。

(2)基于滑動加權平均的信息融合

式(1)中GRU 的候選狀態未完全自動融合當前和歷史時刻信息,僅由rt控制歷史時刻信息的輸入。為此,類似于GRU的隱藏狀態ht的結構,引入滑動加權平均完全自動融合當前時刻信息和歷史信息:

其中,Wh∈?m×n為參數矩陣。重置因子rt用于控制歷史信息,rt越大,則保留歷史信息越多;rt越小,則丟棄歷史信息越多。式(8)中將候選狀態作為t時刻的輸入,目的是削減循環網絡中梯度消失的影響,更好地建立長期依賴關系。根據BPTT 算法式(4)有=rt,當rt→1,即保留歷史信息,反向傳播梯度接近1,表明梯度全部傳播給t-1 時刻,因此該結構削弱了梯度消失的影響。改進算法中GRU的隱藏狀態ht仍沿用原有門控形式:

其中,為t-1時刻候選狀態的輸出。沒有使用激活函數tanh,目的是使式(9)的結構為一種殘差網絡連接形式,可以削弱梯度消失問題。更新因子zt用于更新隱藏狀態ht,zt越大,信息更新越多,表明融合更多當前時刻輸入信息;反之zt越小,信息更新越少。

根據上述改進的門控結構、候選狀態和隱藏狀態,形成如下新的門控循環單元(S-GRU)。該循環單元計算公式為:

其中,σ為sigmoid 函數,Wz,Wr,Wh∈?m×n為參數矩陣,bz,br,bh∈?m為偏置項,輸入為xt、,輸出為、ht。GRU和S-GRU內部結構如圖3所示,一層SGRU 的參數量為3mn+2m,比GRU 減少3m2+m。例如當隱藏狀態維數m=128 時,S-GRU 比GRU 減少49 280個參數。

2.1.2 視頻上下文信息融合

Fig.3 Schematic diagram of internal structure in RNN圖3 循環網絡內部結構示意圖

在圖2 時序行為提名框架中,I3D 網絡只提取了短時動作特征,沒有獲得長時動作信息。考慮到雙向RNN 可以建立上下文依賴關系,因此該框架采用雙向S-GRU網絡編碼視頻序列的長時動作特征。定義S-GRU網絡前向輸出為:

其中,concat(?)為特征連接函數,ht∈?2m。為得到多尺度的候選時序區間,將上下文融合后的特征ht作為全連接層的輸入[6]。

2.2 損失函數

為優化模型參數,實驗采用監督式學習訓練方式。圖2 中的提名網絡框架采用預訓練的I3D 模型作為特征提取網絡,因此只對循環網絡和全連接層進行訓練。將訓練視頻X輸入到提名網絡中,所有輸出的proposal 分為正負樣本,對應的樣本標簽為y={ytj;t=1,2,…,T;j=1,2,…,k},其中k為proposal尺度因子。在時刻t,全連接層輸出多尺度proposal 的置信分數ct={ctj},表示多尺度proposalPt={(bt-j,bt)}為正樣本的概率。其中,Wc∈?k×2m為全連接層參數矩陣。第jproposal 的開始時間和結束時間為bt-j=(t-j)δ和bt=tδ。根據經驗,proposal 與真實行為時間區間的交并比(temporal intersectionover-union,tIoU)大于閾值θtiou時為正樣本,對應的標簽ytj為1,否則標簽為0。定義N視頻組成的訓練集為χ={(X,y)},每個訓練視頻均采樣Lw幀,則模型訓練的損失函數為:

其中,W為模型參數,Tw=Lw/δ,λ為正則化系數。α為調節正負樣本不平衡的系數,由正負樣本數量決定。

3 實驗與分析

3.1 實驗設置

(1)數據集:Thumos14[18]是用于時序行為檢測的視頻數據集,共20 種動作。該數據集包含412 個體育運動視頻,其中200 個用于訓練,其余用于測試。根據訓練需求,將用于訓練的視頻劃分為160 和40作為訓練集和驗證集。UCF101[19]是包含101 個動作類別的行為識別數據集,共有13 320 個視頻。該數據集實驗中用于評估循環單元S-GRU 的泛化能力,訓練集劃分采用官方網站所提供的訓練列表文件。

(2)超參數:設置視頻單元的幀長δ=16,尺度因子k=32,訓練和驗證中的視頻序列幀長Lw=2 048,參數大小與SST中的設置相同。根據經驗,用于提供訓練樣本的交并比閾值θtIoU=0.75。實驗中模型使用1 層循環網絡,隱藏單 元數量即和的維度m=128,預訓練的I3D模型輸出維度為400。提名網絡訓練采用小批量隨機梯度下降,動量為0.9,批次大小為160,迭代次數(epoch)為200,學習速率為0.003,正則化系數為0.003。模型測試時,NMS 閾值θNMS=0.8,置信分數閾值θscore=0.15。實驗計算機配置為NVIDIA GeForce 1070Ti GPU,操作系統為Ubuntu16.04,網絡結構基于Tensorflow平臺設計。

(3)評估指標:AR-AN和Recall@AN-tIoU。ARAN指平均每個視頻產生的proposal中置信分數最高的前AN(average number,AN)在tIoU為[0.50:0.05:1.00]上召回率的均值(average recall,AR)。Recall@ANtIoU指AN為固定值下,每個視頻預測置信分數最高的前ANproposal 分別在tIoU 為[0.50:0.05:1.00]上的召回率,AN常取1 000。

3.2 實驗結果與分析

為驗證循環單元S-GRU和時序行為提名框架的性能,進行如下實驗:(1)比較GRU 改進前后的效果及融合上下文信息的前后效果;(2)對比本文方法與現有的提名方法。

3.2.1 循環單元S-GRU評估

為評估改進后S-GRU的性能,在數據集Thumos14上進行時序行為提名實驗。為體現S-GRU的泛化能力,在數據集UCF101 上進行行為識別實驗,行為識別模型的特征提取網絡和循環網絡與時序行為提名網絡相同。實驗中,通過對比單向及雙向S-GRU、GRU和LSTM的性能差距來對S-GRU進行評估。

表1 給出了隱藏單元的數量(即輸出狀態維度)和參數數量(“bi-”表示雙向)以及在數據集上的訓練時間。S-GRU 比GRU 擁有較少的參數,當隱藏單元數量增加時,參數數量差距變大。通過減少模型參數的數量,能夠降低模型運算復雜度。表1給出的訓練時間為實驗中整個網絡模型的訓練時間,結果表明基于S-GRU循環單元網絡的模型訓練時間較少。

圖4 給出了模型在數據集上的損失大小隨迭代次數變化的曲線,在模型訓練后期,基于S-GRU網絡的損失比GRU、LSTM 較小,收斂速度較快,表明該網絡的表征能力較強。對比單向(GRU、S-GRU)與雙向循環網絡(bi-GRU、bi-S-GRU),發現雙向循環網絡的損失值較小,表明雙向循環網絡融合上下文信息增強了模型的表征能力。

圖5 給出了S-GRU、GRU 和LSTM 循環單元內部參數梯度均值的變化曲線,可以看出S-GRU 和LSTM 參數的梯度均值屬于同一個數量級。GRU 參數的梯度均值較小,和S-GRU、LSTM 相差一個數量級,表明模型訓練期間GRU 單元存在梯度消失的風險。根據圖5 展示的實驗結果,對比S-GRU 循環單元和GRU循環單元,S-GRU有效地緩解了GRU循環網絡梯度消失問題,與2.1節理論分析一致。

在Thumos14測試集上預測proposal的平均召回率如圖6所示。從AR-AN圖形中可以看出,隨著AN的變化,基于bi-S-GRU 網絡的時序提名方法的平均召回率最高。對比bi-S-GRU 和S-GRU 以及bi-GRU和GRU,發現基于S-GRU 的上下文信息融合網絡取得了更好的效果,表明S-GRU 循環網絡提升了GRU捕捉上下文信息的能力。

綜合以上實驗結果與分析,表明S-GRU 緩解了GRU 單元存在梯度消失的問題。該實驗中基于SGRU 的雙向循環網絡融合了上下文信息,增強模型構建視頻長期依賴性的能力,因此提高了時序行為提名的召回率。

3.2.2 與現有時序提名方法對比

為客觀地評估時序行為提名框架性能,將近幾年出現的提名方法進行對比,例如SCNN-prop(segmentconvolutional neural network proposal)[1]、DAPs[5]、SST[6]、TURN[8]以及文獻[7]和文獻[20]中的方法。其中,SCNN-prop通過重疊采樣多尺度的視頻片段,然后采用3D卷積提取時空特征進行分類識別,進而篩選出候選時序區間;文獻[20]采用單向LSTM在整個視頻上建立時序模型,而預測時序區間時采用深度強化學習算法。一個性能好的時序行為提名框架,能夠產生高召回率和高時序重疊(tIoU)的proposal。

Table 1 The number of parameters and training time of recurrent networks表1 循環網絡的參數數量和訓練時間

Fig.4 Curve of cross entropy loss on dataset圖4 數據集上的交叉熵損失變化曲線

Fig.5 Average gradient value curve圖5 梯度均值變化曲線

Fig.6 AR-AN curve of temporal action proposals圖6 時序行為提名的AR-AN曲線

(1)AR-AN。從圖7(a)和表2 可以看出,在AN大于100時,基于雙向S-GRU的上下文信息融合方法的平均召回率最高。方法SST、DAPs以及文獻[20]采用單向LSTM或GRU網絡,沒有融合上下文信息,導致平均召回率較低。SCNN-prop和TURN采用多尺度時序窗口獲得上下文信息,當視頻序列較長時,難以構建長時依賴關系,因此平均召回率低于本文方法。在AN=50時,平均召回率低于文獻[20]。文獻[20]采用循環網絡和強化學習方法生成proposal,預測出proposal 數量最高的AN 為500,小于其他幾種方法,即文獻[20]方法篩選出了數量少且質量高的proposal,導致在AN=50時平均召回率高于其他方法。

Table 2 Comparison of average recall under different average number表2 不同均值數量AN下的平均召回率比較

Fig.7 Comparison curve of different methods under evaluation index圖7 不同方法在評估指標下的對比曲線

Table 3 Comparison of recall under different tIoU表3 不同tIoU下的召回率比較

(2)Recall@1 000-tIoU。均值數量AN為1 000和時序重疊率tIoU為[0.50:0.05:1.00]下的召回率如圖7(b)和表3所示。當tIoU>0.70時,基于雙向S-GRU的提名方法召回率最高,并且在tIoU=0.85 時與其他方法差別最大,表明該方法提高了構建視頻序列的長期依賴性的能力,使得時序定位更加準確,預測出高時序重疊率的proposal。文獻[7]采用一種時序卷積方法,增強了捕捉時序局部特征的能力,因此在tIoU為0.60 和0.70 時高于本文方法,表明該方法在低時序重疊率的要求下產生召回率高的proposal。

綜合以上實驗結果分析,可以得出:基于雙向SGRU上下文信息融合的提名方法產生高召回率和高時序重疊的proposal,與現有方法DAPs、SST、TURN等相比提名性能較好。

4 結束語

針對時序提名效果不佳的問題,提出了基于雙向S-GRU 的時序提名方法,該方法充分利用上下文信息,克服了視頻序列的長期依賴性問題。通過對GRU 的門結構進行簡化和引入滑動加權平均,提出了新的循環單元S-GRU,理論和實驗均證明該循環單元有效地緩解了梯度消失問題。在公開數據集Thumos14 和UCF101 上進行實驗驗證,結果表明該循環單元比GRU、LSTM 的模型表征能力較好,訓練收斂較快以及時序行為提名效果較優。將本文提名方法與現有方法進行比較,結果表明行為提名召回率得到了提升,從而驗證了該方法的可行性。后續工作重點是優化時序行為檢測步驟,進一步提高視頻行為的定位和識別精度。

猜你喜歡
信息方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 熟妇丰满人妻av无码区| 日本道综合一本久久久88| 91久久国产综合精品女同我| 亚洲va欧美ⅴa国产va影院| 黑人巨大精品欧美一区二区区| 亚洲一区毛片| 久久免费成人| 中文字幕波多野不卡一区| 欧美福利在线观看| 免费无遮挡AV| 午夜视频在线观看区二区| 有专无码视频| 九色91在线视频| 日韩无码黄色| 啦啦啦网站在线观看a毛片| 国产剧情一区二区| 四虎在线观看视频高清无码 | 尤物精品国产福利网站| 国产综合另类小说色区色噜噜| 亚洲天堂啪啪| 2021国产v亚洲v天堂无码| 青青国产在线| 国产福利免费视频| 国产一区二区影院| 在线欧美国产| 91久久偷偷做嫩草影院精品| 国产精品手机在线观看你懂的| 国产黄色片在线看| 午夜视频日本| 国产呦视频免费视频在线观看| 国产在线视频欧美亚综合| 波多野结衣久久高清免费| 亚洲一级毛片免费观看| 一个色综合久久| 麻豆精品在线| 日本道综合一本久久久88| 人妻中文字幕无码久久一区| 欧美性久久久久| 国产精品白浆无码流出在线看| 波多野结衣第一页| 欧美国产在线一区| 色悠久久综合| 毛片免费在线视频| 青青久久91| 亚洲美女久久| 久久黄色免费电影| 日韩一级二级三级| 欧美日韩中文国产va另类| 在线观看国产网址你懂的| 国产午夜在线观看视频| AV网站中文| 久久精品aⅴ无码中文字幕| 毛片在线播放a| 亚洲无码在线午夜电影| 国产永久无码观看在线| 国产精品微拍| 国产女人在线| 精品人妻AV区| 久久国产精品影院| 亚洲中文制服丝袜欧美精品| 国产第一福利影院| 日韩av电影一区二区三区四区 | 露脸国产精品自产在线播| 欧洲在线免费视频| 亚洲av无码片一区二区三区| 国产精品久久久久无码网站| 国产三级毛片| 国产在线观看99| 四虎在线高清无码| 久久人人97超碰人人澡爱香蕉| 午夜日b视频| 成人夜夜嗨| 91精品日韩人妻无码久久| 国产成在线观看免费视频| 99久久精品免费看国产免费软件| 亚洲综合经典在线一区二区| 国产成人一二三| 亚洲国产成人久久77| 亚洲国产精品VA在线看黑人| 亚洲精品欧美日本中文字幕| 黄色网站在线观看无码| 日韩一区精品视频一区二区|