


摘? 要: 為了研究復雜環境下交通事故側翻車輛的檢測識別問題,采用RCNN檢測算法,對一定數量的常見車輛事故場景和車身關鍵部位進行模型訓練,并在此基礎上結合空間輔助定位模型加強車輛側翻檢測分類。實驗結果表明,該組合方法有效地提升了翻車事故的檢測識別水平,并對誤檢率和漏檢率有顯著的抑制作用。
關鍵詞: RCNN; 空間輔助定位; 翻車事故檢測; 交通安全
中圖分類號:TP391.4? ? ? ? ? 文獻標志碼:A? ? ?文章編號:1006-8228(2019)01-55-04
Abstract: In order to study the detection and identification of traffic accident rollover vehicles in complex environments, the RCNN detection algorithm is used to train a model with certain number of common vehicle accident scenes and key parts of the vehicle body. On this basis, the detection of vehicle rollover is enhanced with the space-aided positioning model. The experiment result shows that the combined method effectively improves the detection and recognition level of the vehicle rollover accident and has a significant inhibitory effect on the false detection rate and the missed detection rate.
Key words: RCNN; space-aided positioning model; vehicle rollover accident detection; traffic safety
0 引言
在交通擁擠的城市,如何通過有效的交通信息檢測到交通事故的發生是一個難題。早期,研究人員一般采用統計性質的車流量數據來預測交通事故,Chien-Hua Hsiao等人采用模糊邏輯與神經網絡相結合的方法,提出一種模糊邏輯事件巡檢系統(FLPS)[1];Stephanedes等人設計了一種時間平滑檢測器,可以用來減少因為在短時間內的交通擾動發生錯誤事件決策的可能性[2];龍瓊等人提出一種尖點突變理論,從車流量的數據中檢測車輛的擁堵事件[3]。以上方法由于硬件水平和檢測方式的局限性,一般采用地感線圈等裝置獲取車流量來作為交通事故檢測的依據,在數據信息獲取的維度上較為單一,難以描述到更具象化的交通事故信息。在之后的幾十年里,多數城市的關鍵交通道路的視頻監控系統設備逐步走向“全天候、全覆蓋、無死角”,為城市道路提供了最為直觀和豐富的交通道路信息。
隨著人工智能、大數據分析方法和機器視覺技術的快速發展,如何從海量交通視頻流實時檢測和發掘關鍵交通事故信息,逐步成為重要的研究方向和研究熱點。旺勤等人在文獻[4]中提出了基于視頻分析的交通事件報警系統,從道路監控視頻流中自動獲取交通參數和交通事故信息,便于及時檢測報警;劉緯琪等人通過設計某種二維平面包圍盒來檢測車輛間的安全距離和車輛間的碰撞[5];趙有婷等人采用機器視覺和軌跡分析的方法來檢測最為常見的五種交通違章事件[6];苑瑋琦等人采用背景差分方法來檢測交通道路擁堵、行人、車輛等交通事故[7]。由于受到算法實時性和檢測技術的約束,以上文獻一般采用常見的機器視覺算法,在交通事故的視頻流使用背景差分或運動差分方法提取前景,在根據運動前景的特征確定車輛、行人等被跟蹤物體,并分析它們的軌跡信息,通過這些信息來判斷交通事故的產生。但對于某些較為復雜的交通場合,被跟蹤物體不僅有可能會受到光照變化,遮擋等環境因素的影響,在交通事故的發生過程中往往伴隨著交通物體發生旋轉、形變、碎裂、煙霧、起火等變化,這在一定程度上往往增加了交通事故視頻檢測的難度;另外由于常規視頻檢測算法一般采用人工設計的特征模式來提取前景特征,在復雜多變的交通檢測場景常常表現出魯棒性低、漏檢率和誤檢率過高的問題[8],因此,需要更有效的機器視覺算法,去挖掘交通視頻流中更為豐富的事件信息來展現和描述交通事故細節,近年來,深度學習算法研究獲得較大的突破,相對與人工選擇特征模式的選擇性難題,深度學習主要依靠卷積神經網絡對圖片特征進行訓練和學習,能夠自動挖掘更為豐富的圖像特征信息,因此,如何將CNN、RCNN[12-14]等深度學習算法應用到交通視頻監控領域成為智能交通研究者進一步的突破方向。
本研究以存在車輛事故的圖像作為研究對象,提出一種結合RCNN深度學習的車輛事故檢測算法,并在車輛事故數據集下驗證算法性能。
1 RCNN檢測算法框架
1.1 RCNN檢測算法特點
隨著常規圖像檢測處理技術正逐步達到一個難以突破的瓶頸,使用深度學習的方法來檢測復雜場景下的目標物體成為研究者們的下一步的研究熱點[9-11]。CNN、RCNN[12-14]在這一背景下被提出,主要思路是采用大規模的學習網絡來訓練目標圖像, 從而最大程度的挖掘出目標圖像的顯著特征。 在深度學習出現之前,以往檢測目標的對象特征主要通過常規方法來選擇,對應于不同的場景使用不同的檢測特征組合,比如紋理、顏色、HOG、輪廓等, 這些特征大部分是人為設定的,因此在多目標、多變場景的檢測上會變得魯棒性折損,而深度學習方法是采用多層網絡挖掘目標物體的更為豐富的特征, 在復雜場景具有更好的魯棒性檢測能力。
1.2 RCNN檢測算法具體訓練步驟
STEP1:輸入圖像進入卷積層和max池化層,獲得圖像特征向量feature map,這一步驟一般采用5層的卷積層結構(conv+relu+conv+relu+maxpol)可達到良好的特征提取效果。
STEP2:特征向量通過RPN層先自動生成一定數量的anchors框,這是第一步粗選,通過后續的softmax激活函數判斷框內像素是屬于前景還是屬于背景, 而后通過回歸調整,獲得更為精確的候選框和候選特征。
STEP3:ROI池化層將圖像的卷積層獲得的特征向量和由第二步獲得的候選框進行進一步的修剪和降維,能夠進一步的在保證有效特征的前提下,減少特征向量矩陣的規模,并獲得修剪后的候選特征向量。
STEP4:最后通過全連接層,softmax修正和分類器,一邊計算候選框的置信概率,一邊更為精確的修正候選框的具體位置,使其更為接近真實物體的位置和尺寸,并輸出最后的檢測置信度。
RCNN具體的訓練過程如圖1所示。
2 基于RCNN的交通車輛側翻事故檢測算法
2.1 RCNN車輛檢測方法
按照RCNN檢測流程[12],其中最為關鍵的地方在于RCNN提供了region proposal層,該層使用預先設定的多個錨框在多尺度圖像上來估計與真實物體的疊加程度,以此來轉化為概率函數,并在后續的過程轉化成損失函數的表述形式:
文獻[12]描述的損失函數的計算是在訓練過程中,通過一定數量批次的錨框(anthor)選取后,查看其與真實物體位置區域的交疊程度,這個程度以概率pi體現。比如,某個錨框如果有70%的區域以上疊加在檢測物體上,那么可以認為該錨框的選取非常接近檢測物體,其概率pi記為1(正標簽),否則記為0(負標簽)。ti表示一組參數化的預測框坐標值,而ti*表示物體真實位置坐標值。
至此,損失函數可以通過指定的計算形式,將不同批次的錨框和預測框與檢測物體的真實值進行距離誤差運算,并將這一批次的誤差進行累積置入RPN訓練網絡。這樣經過訓練后獲得的訓練模型,能夠在復雜的圖像上檢測多個類別的物體,并通過分類器將它們正確分類和獲得類別置信度。
因此,采用RCNN對車輛圖像進行訓練后,可以快速的在圖像標記出車輛的位置,但是在區分正常車輛和事故車輛還達不到要求,主要是因為許多發生翻車事故的車輛雖然產生了一定程度的形變,但車輛的大部分表征信息與正常車輛表征信息非常相似,容易造成分類混淆。
2.2 車輛關鍵特征檢測
正常車輛與翻車事故車輛較為重要的區別在于車輛的空間位置有很大的不同,因此需要預先訓練描述車輛空間關系的關鍵特征模型,其中包括車輪、車窗、車頭、車燈、車尾等,在RCNN能夠正確定位車輛位置關系后,再使用這些訓練好的小特征模型進行檢測。為后續的進一步車輛空間位置輔助估計判斷提供關鍵信息。
為了提升小特征的檢測速度,可以采用圖像語義分割、金字塔模型和滑窗等方法檢測描述車輛空間關系關鍵特征。以圖2為例,在檢測出車輛的ROI區域情況下(可信度0.89,分類為CAR),在內部滑窗檢測出三個車輪,可信度分別為0.95,0.93,0.68,一個尾燈,可信度0.98,和車尾(可信度0.94)。
2.3 車輛空間位置輔助判斷
在利用小特征模型檢測到車輛關鍵部位后,可快速的在圖像上定位到各個關鍵部位的具體坐標,并依據先驗知識,估算車輛各個部位鏈接起來組成的剖平面,圖3顯示出了由圖2提取關鍵部位坐標后,三個車輪的坐標構成了車輛底盤的剖平面,而車燈、車尾特征的坐標均位于底盤剖平面的下方,由此估計出車頂正向方向(紅線表示),它與常規車輛的車頂正方向形成較大的仰角,因此可將其判定為翻車事故,仰角越大,事故越為嚴重。
3 算法實驗分析
為了評估算法的有效性,第一步,在一臺裝備cpu i7-6700,8G內存和GTX 1080顯卡的PC機上部署UBUNTU 16.04操作系統和Caffe深度學習框架平臺,在交通常規場景選用布爾諾科技大學交通研究組的汽車數據集,從148個車輛種類中挑選出約10000張不同角度的車輛進行車輛檢測RCNN訓練,獲得常規車輛檢測網絡模型和車輪、車燈、車尾、車頭、車窗五種常見車輛關鍵部位特征的訓練模型。第二步,從互聯網搜集約1500張發生車輛側翻的交通事故圖像,從中抽取1000張在常規車輛檢測模型的基礎上進行第二步的微調(Fine-tuning)訓練,獲得事故車輛的檢測模型。最后再加上本文的關鍵車身特征檢測和車輛位置輔助分類,來確定車輛是否產生側翻。
為了檢驗檢測和分類的最終效果,將剩下500張側翻事故圖像再混進500張正常車輛圖像,構成最終分類測試集,用來驗證各個階段的模型分類情況。最終各個檢測模型的分類情況如表1所示。
從實驗分析結果來看,直接調用RCNN訓練常規模型容易將事故車輛誤識別成正常車輛,因為事故車輛雖然表面特征和位置特征發生變化,但整體特征仍然與正常車輛較為相似,而經過微調訓練后,誤識別的數量有一定程度下降,但仍然有部分車輛誤檢,而采用微調訓練加上空間特征判決模型,能切實有效的將誤識別率和漏檢率控制在較小的范圍內。
4 結論與展望
為了研究在復雜場景的交通事故車輛檢測問題,在Faster RCNN檢測算法基礎上,利用該算法訓練了常規條件下的車輛檢測模型,并在此模型的基礎上加入事故車輛進行微調訓練,為獲得更好的識別效果,最后加入了車輛關鍵部分的空間位置特征分類判決模塊。算法實驗分析表明,該組合方法能夠在較大程度上減少正常車輛和事故車輛的誤識率和檢測率,為公共交通安全交通事故視頻檢測提供一定的重要研究依據。由于交通異常視覺場景錯綜復雜,算法在多目標識別和運行效率仍然具有較大程度的提升空間,在交通事故嚴重程度分類等更為細粒度的視覺識別上尚需作進一步的改進。
參考文獻(References):
[1] Hsiao C H, Lin C T, Cassidy M. Application of Fuzzy Logic and Neural Networks to Automatically Detect Freeway Traffic Incidents[J].Journal of Transportation Engineering,1994.120(5):753-772
[2] Stephanedes Y J, Chassiakos A P. Freeway incident?detection through filtering[J]. Transportation Research Part C Emerging Technologies,1993.1(3):219-233
[3] 龍瓊,胡列格,張謹帆等.基于尖點突變理論模型的交通事故檢測[J].土木工程學報,2015.9:112-116
[4] 汪勤,黃山,張洪斌等.基于視頻圖像處理的交通事件檢測系統[J].計算機應用,2008.28(7):1886-1889
[5] 劉緯琪,王夏黎,荊樹旭.一種基于OBB包圍盒算法的交通事故檢測方法[J].計算機技術與發展,2014.10:34-37
[6] 趙有婷,李熙瑩,羅東華.基于視頻車輛軌跡模型的交通事件自動檢測方法研究[J].中山大學學報(自然科學版),2011.50(4):56-60
[7] 苑瑋琦,謝昌隆.基于機器視覺的交通事件檢測方法的研究[J].計算機仿真,2013.30(10):189-193
[8] 劉杰.一種基于多特征融合的自適應目標跟蹤策略[J].大眾科技,2016.11:9-12
[9] 崔華,劉云飛,宋鑫鑫.基于CNN深度學習模型的交通圖像擁堵識別[J].科技創新與應用,2018.4:19-20
[10] 趙勝,趙學健,張欣慧,孫知信,陳勇.基于sobel算子和CNN的車輛軌跡識別系統[J].計算機技術與發展,2018.7:1-5
[11] 宋煥生,張向清,鄭寶峰,嚴騰.基于深度學習方法的復雜場景下車輛目標檢測[J].計算機應用研究,2018.4:1270-1273
[12] Girshick, Ross. "Fast R-CNN." IEEE International? Con-ference on Computer Vision IEEE, 2015:1440-1448
[13] Gupta S, Girshick R, Arbeláez P, et al. Learning Rich?Features from RGB-D Images for Object Detection and Segmentation[J],2014.8695:345-360