999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度學習中的單階段車輛檢測算法綜述

2022-04-08 03:40:46楊錦帆王曉強李雷孝楊艷艷李科岑
計算機工程與應用 2022年7期
關鍵詞:特征檢測模型

楊錦帆,王曉強,林 浩,李雷孝,楊艷艷,李科岑,高 靜

1.內蒙古工業(yè)大學 信息工程學院,呼和浩特 010080

2.天津理工大學 計算機科學與工程學院,天津 300384

3.內蒙古工業(yè)大學 數(shù)據(jù)科學與應用學院,呼和浩特 010080

4.內蒙古農(nóng)業(yè)大學 計算機與信息工程學院,呼和浩特010011

目標檢測作為圖像處理和計算機視覺學科的重要分支,基本任務是找出圖像中所有感興趣的目標,獲得目標的類別和位置信息。車輛檢測作為目標檢測的具體應用領域,對構建智能化交通系統(tǒng)起關鍵性作用。傳統(tǒng)車輛檢測算法主要分為三個部分:區(qū)域選擇、特征提取、分類器分類。首先通過滑動窗口對圖像進行掃描,根據(jù)車輛在圖像中的位置及大小特征選擇感興趣的區(qū)域。然后從候選區(qū)域中提取特征,如方向梯度直方圖[1](histogram of oriented gradient,HOG)、haar-like[2]和局部二值模式[3](local binary pattern,LBP)。最后通過人工神經(jīng)網(wǎng)絡[4](artificial neural network,ANN)、支持向量機[5](support vector machine,SVM)、Adaboost[6]等方法對特征進行分類,完成車輛檢測。

傳統(tǒng)車輛檢測算法基于滑動窗口的區(qū)域選擇沒有針對性,導致產(chǎn)生大量窗口冗余,造成算法時間復雜度高;車輛運動過程中由于攝像機放置角度不同會產(chǎn)生車輛不同程度的形變以及光照強度、背景的復雜多變都使得人工設計一個魯棒性強的車輛特征變得極其困難,而特征提取的效果直接影響了分類的準確性。以上缺陷導致傳統(tǒng)車輛檢測模型無法實現(xiàn)車輛準確及實時性檢測。隨著深度學習的快速發(fā)展,利用卷積神經(jīng)網(wǎng)絡對車輛特征進行提取而非使用人工設計的目標特征,大幅提高了車輛實時檢測的準確性。同時,基于深度學習的單階段目標檢測網(wǎng)絡相較二階段不需要經(jīng)過候選區(qū)域的獲取,通過輸入圖像直接回歸目標邊界框位置及類別,檢測速度更快;模型結構簡單,更適合應用于計算及存儲能力有限的嵌入式設備中,有更大的應用價值。本文首先簡介了傳統(tǒng)的車輛檢測算法并分析其局限性,提出車輛檢測面臨的問題,之后列舉了常用的單階段車輛檢測算法及在真實交通場景下的檢測缺陷,重點闡述了單階段車輛檢測算法的改進、優(yōu)勢以及仍存在的問題,之后列舉了車輛檢測相關數(shù)據(jù)集,最后分析了車輛檢測未來的研究方向。

1 傳統(tǒng)車輛檢測算法

傳統(tǒng)車輛檢測算法[7]一般分為兩類:第一類是基于特征數(shù)學模型的,包括幀間差分法[8]、背景差分法[9]、Hough變換法[10]、光流法[11]。第二類是基于區(qū)域選擇特征的,包括滑動窗口模型[12]和DPM[13](deformable part model)。

幀間差分法通過對視頻圖像序列相鄰兩幀圖像做差分運算獲取運動目標輪廓。算法需要設置合適的時間間隔,否則會出現(xiàn)漏檢及錯檢問題。

背景差分法采用當前幀與背景參考模型比較檢測運動物體,對復雜交通場景的背景建模和模擬困難。

Hough變換法用于檢測圖像中直線、圓等能夠用一定函數(shù)關系描述的曲線。在交通場景中,一般用在對車道線的檢測[14-15]。

光流法利用圖像序列中像素在時間域上的變化及相鄰幀之間的相關性尋找上一幀與當前幀存在的對應關系,計算物體運動信息。由于光流法基于相鄰幀亮度不變假定,受光照等外界環(huán)境影響大且不同場景下的檢測效果也有較大差別。

滑動窗口模型將固定卷積區(qū)域按指定步長在圖像上滑動,對每次滑動得到的區(qū)域進行預測,判斷該區(qū)域是否存在目標。若圖像劃分的區(qū)域增多,計算成本也相應增加。

DPM算法采用改進后的HOG特征,SVM分類器和滑動窗口,針對目標本身形變問題,采用可變部件模型策略。

雖然傳統(tǒng)目標檢測算法在車輛檢測領域有不錯的應用,但圖像特征獲取需要人工建立并結合目標檢測器和分類器,算法復雜且性能不高;同時,人工建立特征的方法受環(huán)境變化、光照強弱及物體形態(tài)變化影響,魯棒性和泛化性差;另外,基于滑動窗口選擇檢測區(qū)域會增大算法復雜度,導致檢測效率下降,無法滿足對車輛實時性檢測需求。因此,隨深度學習的發(fā)展,傳統(tǒng)車輛檢測算法應用越來越少。

2 基于深度學習的單階段車輛檢測算法

與傳統(tǒng)車輛檢測方法相比,基于深度學習的車輛檢測算法無需進行人工特征設計,通過卷積神經(jīng)網(wǎng)絡,自動提取從原始圖像淺層位置信息到高層語義信息的多層次車輛特征。利用卷積神經(jīng)網(wǎng)絡進行車輛檢測的基本思想是通過監(jiān)督學習的方式分析圖像底層特征和對應目標標簽,得到一組損失函數(shù)最小的網(wǎng)絡權值,通過網(wǎng)絡正向推理識別圖像中車輛目標。具有較好的魯棒性,且隨車輛檢測數(shù)據(jù)集的增大,卷積神經(jīng)網(wǎng)絡提取多層次特征效果就會越好。因此,基于深度學習的車輛檢測算法成為車輛檢測領域的研究趨勢。

基于深度學習的目標檢測算法,可分為基于候選框的二階段方法和基于回歸的一階段方法。由于二階段算法采用RPN網(wǎng)絡對候選區(qū)域進行推薦,算法模型復雜,導致算法檢測速度降低。而單階段目標檢測模型結構簡單且檢測速度快,能更好地應用于復雜的交通場景,因此針對單階段車輛檢測算法的應用研究更有價值。

目前常用的單階段目標檢測框架有YOLO(you only look once)系列、SSD系列等,以下介紹了基于常用單階段目標檢測框架的車輛檢測算法以及基于最新算法框架(RetinaNet、RefineDet和CenterNet)的車輛檢測算法。

2.1 YOLO系列車輛檢測算法

YOLO系列算法包括YOLOv1[16]、YOLOv2[17]、YOLOv3[18]、YOLOv4[19]以及最新的YOLOv5算法。由于單階段車輛檢測算法不需要經(jīng)過候選區(qū)域的獲取,檢測速度較二階段車輛檢測算法提升,但損失了檢測精度,尤其針對小物體的檢測精度。這就導致YOLO系列車輛檢測算法存在對遠處小目標車輛、車牌以及遮擋車輛檢測效果差,光線變化或拍攝角度等客觀因素對檢測效果影響大的問題。

2.2 SSD系列車輛檢測算法

SSD[20]車輛檢測算法平衡了R-CNN系列檢測精度較高但檢測速度慢和YOLO檢測速度快但對遠處小目標車輛檢測效果差的不足。相比YOLO而言,SSD采用多尺度特征圖進行預測,網(wǎng)絡結構如圖1所示。

圖1 SSD模型Fig.1 SSD model

借鑒Faster R-CNN中的錨框設計,提高算法對不同尺度特征的檢測能力,但需人工設置prior box尺寸及aspect_ratio值,且default box基礎大小與形狀無法通過學習得到,非常依賴經(jīng)驗;使用conv4_3低級特征圖檢測小目標,淺層特征圖的表征能力不夠強;不同層的特征圖獨立作為分類網(wǎng)絡的輸入,存在重復框的問題。以上算法局限性導致其在車輛檢測中出現(xiàn)對遮擋車輛,以及視線遠處的小目標車輛信息漏檢和錯檢問題,并且模型參數(shù)量大,很難直接應用于嵌入式設備。常用單階段車輛檢測算法對比如表1所示[21-24]。

表1 常用單階段車輛檢測算法對比Table 1 Comparison of common one-stage vehicledetection algorithms

2.3 基于最新單階段框架的車輛檢測算法

單階段算法雖然檢測速度快,但檢測精度較二階段算法低。研究發(fā)現(xiàn),正負樣本的極度不均衡是造成單階段算法精度不高的主要原因。同時,錨框的應用引入大量超參數(shù),且由于需要大量錨框來確保與大多數(shù)真實框充分重疊,在正負錨框之間產(chǎn)生巨大的不平衡,減緩了訓練速度。此外,為解決目標實例中尺度變化問題,單階段與雙階段檢測器都使用特征金字塔結構,但主干網(wǎng)絡生成的多尺度特征金字塔適用于分類并不一定很好地適用于檢測。針對以上問題,研究者結合單階段與二階段車輛檢測優(yōu)勢,提出改進的單階段車輛檢測算法RetinaNet[25]、RefineDet[26]、CenterNet[27]及CornerNet-Sccade[28]。設計新的損失函數(shù)[25]改善正負樣本不均衡;對錨框大小、位置進行改進[26],改善正負錨框不均衡;考慮錨框數(shù)量對檢測速度的影響,提出anchor-free框架[27]。算法對比如表2所示。

表2 基于最新單階段框架的車輛檢測算法對比Table 2 Comparison of vehicle detection algorithms based on latest one-stage framework

3 單階段車輛檢測算法改進及應用

3.1 基于YOLO系列車輛檢測算法改進及應用

針對YOLO系列車輛檢測算法存在的問題進行一系列改進,如改進損失函數(shù)[29-31]、修改網(wǎng)絡結構與殘差結構[32-34]、改進輸入[35]等,提高算法對遮擋車輛與小目標車輛檢測的準確率;通過與多種算法相結合實現(xiàn)對車輛行為的檢測,使得算法模型更好應用于特定領域檢測如車速檢測[35]、車輛違章檢測[36-37]、車型識別[38]、車牌檢測[39]、無人駕駛[31,40-44]、以及車輛煙霧檢測[45]等。

Tian等[29]提出基于傳統(tǒng)YOLO算法上搭建Darknet-53特征提取網(wǎng)絡的實時車輛檢測算法。構建更深層卷積神經(jīng)網(wǎng)絡提取更多車輛信息;原始YOLO算法設置固定閾值篩選候選框,算法復雜度減小,但不同場景下背景噪聲及目標數(shù)量不同,閾值設置過大會帶來漏檢,過小則會增大處理難度,導致錯誤識別車輛目標。因而,設置動態(tài)閾值,避免候選框定位不準確問題,算法整體檢測精度獲得提升;YOLOv1使用非極大值抑制算法篩選重疊候選框,實現(xiàn)最終輸出,雖然可以有效減少計算量,但強制刪除與最大置信度重疊的候選框很有可能在車輛密度大的環(huán)境下造成誤刪,造成準確率下降。因而使用高斯函數(shù)設置刪除規(guī)則,檢測框置信度根據(jù)高斯函數(shù)衰減,減少漏檢,加快模型收斂速度;引入批量歸一化,解決隨網(wǎng)絡加深以及訓練過程造成的數(shù)據(jù)漂移與梯度消失問題;YOLOv1算法整體損失由預測框的坐標誤差、目標的置信度誤差以及網(wǎng)格預測類別誤差三部分組成,全部使用均方誤差實現(xiàn)顯然不合理。因此,采用模型參數(shù)變化率歸一化思想,改進坐標位置寬高誤差計算,允許不同尺度目標以相對誤差形式出現(xiàn),加快神經(jīng)網(wǎng)絡的收斂速度。算法實現(xiàn)實時車輛檢測與定位,對無人駕駛領域研究有重要借鑒價值,但由于使用高斯函數(shù)仍無法完全解決同類別目標相距較近時的檢出問題,所以算法對重疊車輛的檢測準確率并不高。金宇塵等[36]提出一種結合多尺度特征的車輛實時檢測算法。由于車輛距攝像頭的距離不同,車輛在圖像中所占像素也不同,特征層會丟失部分較小車輛信息,因而YOLOv2算法僅通過聚類錨框檢測的方法效果有限,同時,將原始圖像劃分網(wǎng)格的方式會導致落入同一網(wǎng)格的相互遮擋車輛漏檢。因此,改進YOLOv2網(wǎng)絡結構,如圖2所示,將Conv_20與Conv_13進行特征融合,獲得新的特征檢測層,提高了檢測較小車輛及遮擋車輛的準確率。

圖2 多尺度網(wǎng)絡結構Fig.2 Multiscale network structure

YOLOv2通過加大正樣本的權重系數(shù)增大正樣本損失,解決正負樣本數(shù)量極度不平衡問題,但不合適的權重系數(shù)會帶來較為嚴重的漏檢問題。針對這一局限性,構造自適應損失函數(shù),防止訓練時正樣本產(chǎn)生的梯度被淹沒,解決正負樣本極度不平衡帶來的模型訓練緩慢以及性能下降問題;YOLOv2算法中類別預測沒有設置背景標簽,容易出現(xiàn)錯誤預測含類似車輛或不存在車輛的網(wǎng)格置信度,且由于只學到正樣本的物體類別特征,Softmax函數(shù)生成的類別概率也會產(chǎn)生錯誤,帶來車輛錯檢問題。從而提出難樣本生成方法,將置信度預測錯誤的負樣本置為難負樣本參與模型訓練,有效降低錯檢。改進的算法在不僅在實時性方面獲得優(yōu)勢,在性能上也超過了Faster-RCNN,但由于YOLOv2算法本身劃分網(wǎng)格檢測目標的局限性,改進的算法即使增加大分辨率特征層,仍無法解決對嚴重遮擋車輛的準確檢測。顧恭等[38]提出車輛實時定位與識別模型Vehicle-YOLO,如圖3所示。該模型增加了兩層殘差網(wǎng)絡,加深了模型,并提取5種尺寸特征圖,優(yōu)化模型對不同尺寸車輛的適應程度;改進傳統(tǒng)YOLO算法上采樣方式,舍棄鄰域插值算法對上一層特征圖的級聯(lián)過程,減少卷積降維操作帶來的計算量;整合多種車輛數(shù)據(jù)集對車輛類別進行識別。改進的算法對中遠距離車輛有較好的定位能力,實現(xiàn)同步車輛定位與類型識別,但由于預測單元格增多,增加殘差模塊,模型實時性降低且后續(xù)要進一步改進數(shù)據(jù)集大多為國外車輛導致特征單一化問題。張成標等[46]提出基于YOLOv2改進的車輛違章掉頭檢測算法。借鑒YOLOv3網(wǎng)絡結構,增加殘差結構與多尺度預測,提高檢測精度;減少卷積層,解決模型厚重問題;使用Relu激活函數(shù)。改進的車輛多方位識別算法可應用于更多車輛違章檢測,但由于Relu激活函數(shù)涉及指數(shù)運算,算法實時性不高。更多基于YOLOv1~v3改進的車輛檢測算法見表3。

表3 基于YOLOv1~v3改進的車輛檢測算法Table 3 Vehicle detection algorithms based on improved YOLOv1~v3

圖3 Vehcle-YOLO網(wǎng)絡結構Fig.3 Vehicle-YOLO network structure

基于YOLO系列改進的車輛檢測算法研究十分廣泛,尤其針對YOLOv3算法的相關改進。因為相較YOLOV1、YOLOv2算法,YOLOv3算法的檢測速度更滿足實時檢測需求,且檢測精度大大提升,在車輛檢測領域更具研究價值。針對YOLOv3車輛檢測算法的改進集中在增強卷積神經(jīng)網(wǎng)絡的特征提取能力,提高對不同尺度車輛以及嚴重遮擋車輛的檢測準確率;減少模型參數(shù),從而更易工作在硬件條件有限的嵌入式設備中;不斷提升算法檢測速度,實現(xiàn)實時車輛檢測;利用YOLOv3優(yōu)越的檢測精度,結合多種算法,實現(xiàn)特殊環(huán)境、特定領域下的車輛檢測。YOLOv4由于模型主干網(wǎng)絡參數(shù)量大,難適用于算力與存儲有限的移動終端設備中,即使相較YOLOv3車輛檢測算法有更優(yōu)越的檢測準確率,在車輛檢測方面的應用不如YOLOv3普遍,更多地應用于遙感車輛與車輛環(huán)境感知領域,而YOLOv5網(wǎng)絡較新,現(xiàn)階段應用研究并不如YOLO系列其他算法廣泛。基于YOLOv4-v5改進的車輛檢測算法見表4。

表4 基于YOLOv4-v5改進的車輛檢測算法Table 4 Vehicle detection algorithms based on improved YOLOv4-v5

YOLO系列車輛檢測算法的改進思路圍繞提升算法檢測速度的同時提高檢測精度進行,通過改進特征提取網(wǎng)絡、模型剪枝等方式減少模型參數(shù)數(shù)量,改進特征融合策略、卷積方式以及結合多種算法減少精度損失。盡管改進的車輛檢測算法在推理速度以及檢測精度上獲得一定提升,但現(xiàn)階段基于YOLO系列改進的車輛檢測算法對遠處小目標車輛以及遮擋車輛的檢測性能仍有很大提升空間,對因拍攝角度問題產(chǎn)生的極端大小車輛及光照強度改變造成部分信息丟失車輛的檢測仍面臨不小挑戰(zhàn),對交通信號燈等小目標的檢測精度仍較低,應用于實時高精度無人駕駛領域還有一定距離。

3.2 基于SSD車輛檢測算法改進及應用

針對SSD系列車輛檢測算法存在的問題,研究人員提出許多改進的車輛檢測算法。通過改進主干網(wǎng)絡[53-58]、融合策略[57,59-60]、錨框機制[58,61]、邊界框定位[54]以及激活函數(shù)[55]等方式提高算法在車輛遮擋情況下以及對小目標車輛的檢測準確率;對圖像進行預處理[59,61-63],提升算法在夜間以及惡劣天氣下車輛檢測準確率;提出輕量化模型[56,60],擴大算法應用范圍。

Guo等[53]提出以ResNet50為主干網(wǎng)絡的SSD模型。將ResNet50前4層卷積層合并作為預測層的輸出,再增加6層依次卷積層作為預測輸出;在Bottleneck結構后添加注意力機制(SENet)。算法檢測精度得到提升,但在車輛目標較多且遮擋較嚴重情況下仍存在漏檢較多問題且融合不同輸出尺寸特征圖并增加卷積層,模型復雜度增加,極大降低檢測速度,未能達到實時檢測要求。李國進等[54]改進Inception模塊,如圖4所示。

圖4 引入改進Inception模塊的網(wǎng)絡結構Fig.4 Network structure with improved Inception module

引入不同空洞率的空洞卷積,代替SSD中Conv8、Conv9和Conv10層,在不增加參數(shù)量的前提下提升對中目標車輛的特征提取能力;提出多尺度融合均衡化網(wǎng)絡,提升對小目標車輛檢測精度;每個特征層后加入SENet,自動學習每個通道特征的重要程度。算法計算量及模型大小遠小于SSD,對比SSD與YOLOv4算法,平均檢測精度及檢測速度獲得顯著提升,但當場景中存在大量重疊小目標車輛時,仍存在部分漏檢問題。徐浩等[55]提出結合殘差網(wǎng)絡和注意力機制的輕量級特征提取網(wǎng)絡,降低算法復雜度;使用h-swish激活函數(shù)替換殘差結構中的ReLU激活函數(shù),提高網(wǎng)絡檢測精度;使用K-means算法聚類先驗框,極大減少默認框數(shù)量,檢測效率獲得大幅提升。算法改進了嵌入式攝像設備識別移動車輛效率低的問題,但由于默認框數(shù)量的減少,目標位置回歸精度受到一定影響,算法改進對檢測效率的提升有顯著效果,但檢測精度提升并不明顯。楊帆等[61]改進錨框數(shù)量,將各特征層對應的錨框種類數(shù)提升至[6,6,6,6,4,4],增加底層特征圖錨框類別;引入紅外熱像圖,融合紅外熱像圖與可見光圖像提取的特征。降低小目標車輛漏檢率,提高夜間、霧天等天氣下對大型車輛目標的檢測性能,但錨框數(shù)量的增加增大了模型參數(shù)量,直接導致檢測速度的下降,且僅從圖像輸入角度改進算法,并未對原始SSD算法特征融合局限性與邊界框生成方式做進一步改進,因此車輛檢測算法精度提升不明顯,實時性也未能達到要求。Kitvimonrat等[62]提出基于SSD的車輛制造商識別算法。使用YOLOv3算法檢測圖像中車輛,將車輛定位圖像進行剪裁,送入SSD模型進行車標定位。該模型對20個車輛品牌的檢測和識別取得不錯成績,但模型只能處理白天的圖像,且受陰影和車標反射光的影響較大。更多基于SSD改進的車輛檢測算法見表5。

表5 基于SSD改進的車輛檢測算法Table 5 Vehicle detection algorithms based on improved SSD

盡管對原始SSD車輛檢測算法進行了多方面改進,但從上述改進可以看出,改進后的車輛檢測算法仍存在許多問題:(1)對出現(xiàn)大量遮擋車輛的擁堵交通環(huán)境下的車輛檢測以及遠處小目標車輛的檢測準確率仍然較低。(2)對夜間小目標車輛檢測仍有很大的改進空間。(3)對車標、車型的檢測會受到數(shù)據(jù)集車標、車型種類有限以及光照和拍攝角度限制。(4)為達到應用于嵌入式設備需求提出的輕量級網(wǎng)絡準確率并不理想。

3.3 基于最新單階段框架車輛檢測算法改進及應用

針對最新算法框架在車輛檢測中對小目標車輛漏檢和錯檢,對遮擋車輛檢測效果差,以及難應用于計算力不足且存儲有限的移動終端設備中這些突出問題,研究人員通過改進損失函數(shù)[66-67],提高模型的定位精度;改進網(wǎng)絡結構[66-75]和融合策略[70,73],引入注意力機制[72,75],增強網(wǎng)絡提取特征能力同時減少網(wǎng)絡計算量;對網(wǎng)絡進行剪枝、壓縮通道以及采用深度可分離卷積來獲取輕量級檢測模型[71]等措施改進算法模型。

張炳力等[66]對RetinaNet損失函數(shù)進行優(yōu)化,提出基于IoU的分類損失函數(shù),將網(wǎng)絡定位與分類聯(lián)系起來;改進定位函數(shù)對寬高進行歸一化方式,提高檢測小目標車輛性能;針對夜間車輛特征對網(wǎng)絡結構進行優(yōu)化。提高了定位精度,對夜間小目標車輛的檢測具有良好效果。梁禮明等[70]借鑒CenterNet框架,提出一種基于中心點的多類別車輛檢測算法。在Hourglass中引入殘差網(wǎng)絡,避免隨網(wǎng)絡加深可能出現(xiàn)的梯度爆炸和梯度消失問題;融合通道數(shù)與尺度相同的各層特征圖,避免頻繁進行的上下采樣操作帶來的有效特征丟失;引入可變形卷積和GIoU損失,克服車輛檢測中受到車輛種類、大小以及視覺變化帶來的影響。相較CenterNet算法,精準率與召回率均得到提高,但可變性卷積部署困難,操作復雜且相較普通卷積,算法精度提升并不明顯;針對IoU損失無法對真實框與檢測框無交集時的模型進行優(yōu)化提出的GIoU仍有自身的局限性,當兩個矩形框位置非常接近的時與IoU損失值接近,所以需進一步改進算法流程與檢測精度。更多基于最新單階段框架車輛檢測算法相關改進見表6。

表6 基于最新單階段框架車輛檢測算法的相關改進Table 6 Vehicle detection algorithms based on improved latest one-stage framework

基于最新算法框架的車輛檢測算法模型將改進的重點放在降低小型車輛目標及遮擋車輛的錯檢及漏檢率上,進一步提升算法在復雜交通環(huán)境下的檢測性能,試圖在模型算法復雜度盡可能低的情況下實現(xiàn)模型檢測精度與檢測速度的最大平衡。如若融合多種策略提升對遠處、遮擋車輛的檢測效率勢必會增大網(wǎng)絡計算復雜度,在損失檢測速度與增大內存的前提下提升檢測精度;若考慮硬件計算能力與存儲大小,對模型進行壓縮,輕量化的模型在檢測速度與存儲大小上會獲得不小改進,但相應地會犧牲部分檢測精度。以上提出的車輛檢測算法還需進一步提升其檢測速度與檢測精度,在實現(xiàn)檢測精度與檢測速度的平衡上還有很大的研究空間。

4 數(shù)據(jù)集

近10年來,目標檢測領域發(fā)布了許多知名的公開數(shù)據(jù)集,除了應用于一般目標檢測任務,特定領域內的檢測應用也逐漸繁榮。車輛檢測作為智能交通系統(tǒng)的關鍵組成部分,在車牌檢測、車型檢測、車標識別等領域有著廣泛應用,隨著無人駕駛領域的發(fā)展,車輛檢測技術成為關鍵技術。車輛檢測領域有許多公開的數(shù)據(jù)集,例如Stanford cars數(shù)據(jù)集主要用于細粒度分類任務,該數(shù)據(jù)集一共包含196類汽車的16 185張圖片,將數(shù)據(jù)分成8 144張訓練圖像和8 041張測試圖像。針對車輛品牌的識別數(shù)據(jù)集OpenData V11.0-車輛重識別數(shù)據(jù)集VRID,包含最常見的10種車輛款式,共10 000張圖像,每個車輛款式各有100種不同的車輛ID,每個車輛ID含有10張圖像,拍攝于不同的道路卡口、光照、尺度以及姿態(tài)各有差異。BIT-vehivle dataset-車輛車型識別數(shù)據(jù)集包含9 850張車輛圖像,被劃分為公共汽車、微型客車、小型貨車、轎車、SUV和卡車6類。自動駕駛領域的BDD100K自動駕駛數(shù)據(jù)集,擁有超過1 100小時的100 000個高清視頻序列,100 000張圖像,含一天中不同時間、天氣條件和駕駛場景,由10個類別組成,包含1 021 857個標記汽車實例。輔助夜間車輛檢測的FLIR thermal starter數(shù)據(jù)集共計14 452張紅外圖像,所有視頻都來自街道和高速公路,提供了帶注釋的熱成像數(shù)據(jù)集和對應的無注釋RGB圖像。遙感數(shù)據(jù)集vehicle detection in aerial imagery(VEDAI)dataset包含不同方向角度、光照變化、鏡面反射以及不同程度遮擋的車輛圖像。除了以上數(shù)據(jù)集,也有應用更廣泛的車輛檢測數(shù)據(jù)集,例如MS COCO數(shù)據(jù)集、KITTI數(shù)據(jù)集等。MS COCO數(shù)據(jù)集包含80類目標,其中有5種類別與車輛有關,包含328 000圖像和2 500 000個標簽。KITTI數(shù)據(jù)集由市區(qū)、村莊、高速公路等復雜交通場景下的圖片數(shù)據(jù),7 481張訓練用圖,7 518張測試用圖組成,含汽車、貨車、卡車、電車4類車輛樣本,每張圖片最多包含15輛車。相關數(shù)據(jù)集詳細信息見表7。

表7 車輛檢測常用數(shù)據(jù)集Table 7 Common datasets for vehicle detection

5 總結與展望

本文深入研究與分析了單階段車輛檢測算法現(xiàn)狀,列舉了常用單階段車輛檢測算法的改進措施、優(yōu)勢以及存在的問題,詳細闡述了研究者們針對YOLO系列、SSD系列以及基于最新單階段框架車輛檢測算法的不足之處進行的一系列改進。由于智能交通系統(tǒng)的不斷發(fā)展給車輛檢測提出更高的要求。實現(xiàn)在視頻流中車輛實時檢測,然而傳統(tǒng)車輛檢測算法效率低且準確率不高,因此要進一步改進算法;準確檢測與跟蹤車輛,達到緩解交通擁堵,減少交通事故發(fā)生的目的;考慮硬件條件,設計既能滿足實時性又能滿足精度需要的算法,這正是車輛檢測面臨的最大難點。盡管經(jīng)過改進的車輛檢測算法取得了不錯的檢測性能,但仍存在一些難以解決的問題:

(1)受光照、天氣等客觀因素影響,圖像中車輛信息模糊甚至丟失,為車輛檢測如車標、車型識別以及夜間車輛檢測等帶來困難。

(2)交通擁堵、攝像機放置角度等會造成一定程度的車輛遮擋,出現(xiàn)車輛漏檢、誤檢等問題。

(3)目前公開的數(shù)據(jù)集中車輛類別和車輛數(shù)量有限且對車輛違規(guī)檢測的數(shù)據(jù)量不足,不能充分訓練相關檢測模型。

(4)考慮硬件設施條件,要求輕量級模型在追求車輛檢測速度的同時兼顧車輛檢測精度,給車輛檢測帶來挑戰(zhàn)。

(5)圖像中遠處較小車輛檢測準確率低是車輛檢測領域面臨的普遍問題。

針對以上問題,本文經(jīng)過分析認為車輛檢測算法未來要在以下5個方面進行深入研究:

(1)結合多種算法實現(xiàn)數(shù)據(jù)增強。針對夜間光線不足與惡劣天氣下車輛信息的部分丟失,提取更多車輛細節(jié)特征,改進圖像輸入質量,提升車型、車標等檢測精度。

(2)改進特征提取網(wǎng)絡。通過構建更深層網(wǎng)絡、融合殘差結構與注意力機制等加強車輛特征提取能力,改善車輛形變帶來的檢測困難問題。

(3)改進特征融合方式。針對擁擠交通狀況下的車輛遮擋與較遠處小目標車輛檢測困難,構建合適特征檢測層。

(4)構建輕量級網(wǎng)絡。通過模型壓縮、參數(shù)量化、改進傳統(tǒng)卷積等方式減少模型參數(shù)量,使其適用于計算與存儲能力有限的移動終端設備中。

(5)構建更大型車輛檢測數(shù)據(jù)集。針對車輛特定領域的檢測數(shù)據(jù)樣本不足、遙感圖像數(shù)據(jù)集中樣本分布不均等問題,進一步擴充樣本數(shù)量,改進泛化性弱的檢測局限性。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 久久成人国产精品免费软件| 久久五月天国产自| 国产交换配偶在线视频| 国产www网站| 亚洲激情区| 免费Aⅴ片在线观看蜜芽Tⅴ| 国产老女人精品免费视频| 欧美日韩理论| 欧美午夜一区| 久草视频精品| 中文字幕人妻av一区二区| 亚洲免费黄色网| 日本一区二区三区精品AⅤ| 亚洲中文字幕久久精品无码一区| 国产丰满成熟女性性满足视频| 亚洲日韩高清在线亚洲专区| 嫩草国产在线| 青青草原国产| 天天操精品| 91网址在线播放| 亚洲第一视频网站| 天天激情综合| 美女一级免费毛片| 92精品国产自产在线观看| 91久久青青草原精品国产| 日韩AV手机在线观看蜜芽| 亚洲香蕉在线| 久久精品丝袜高跟鞋| 尤物精品视频一区二区三区| 日韩欧美91| 免费观看国产小粉嫩喷水| 国产在线拍偷自揄观看视频网站| 国产成人久视频免费| 亚洲成年人网| 国产精品第一区在线观看| 精品国产电影久久九九| 日本高清有码人妻| 一级不卡毛片| 国产无人区一区二区三区| 亚洲天堂啪啪| 人妻丝袜无码视频| 亚洲精品午夜天堂网页| 九色国产在线| 亚洲精品波多野结衣| 亚洲成aⅴ人片在线影院八| 国产乱人伦精品一区二区| 精品国产成人a在线观看| 国产成人综合久久| 男人天堂亚洲天堂| 自拍中文字幕| 欧美19综合中文字幕| 91伊人国产| 91精品国产一区| 极品性荡少妇一区二区色欲| 日韩国产黄色网站| 国产精品极品美女自在线看免费一区二区 | 国产精品白浆在线播放| 幺女国产一级毛片| 97视频在线精品国自产拍| 日本欧美在线观看| 久草视频中文| 91po国产在线精品免费观看| 亚洲国模精品一区| 精品夜恋影院亚洲欧洲| 欧美亚洲国产日韩电影在线| av在线人妻熟妇| 小蝌蚪亚洲精品国产| 欧美激情视频二区| 天天综合网在线| 国产福利免费观看| 欧美午夜网| 欧美日韩专区| 国产福利小视频高清在线观看| 久草视频一区| 亚洲国产91人成在线| 午夜国产在线观看| 91免费在线看| 亚洲精品动漫| 久久国产亚洲偷自| 91久久精品国产| 欧美一区二区精品久久久| 国产精品美女自慰喷水|