





摘? 要:自動泊車系統已經成為高級輔助駕駛系統(ADAS)中的一項重要功能,車輛在泊車過程中時常會出現泊車不到位、與相鄰車位中的車輛發生剮蹭等事故。為提升自動泊車的精準性,文章提出了一種實時檢測限位器的改進算法SSD-L,通過定位限位器的位置,對車輛的泊車位置進行修正。該方法對原先的SSD網絡結構進行精簡和改進,并使用卡爾曼濾波增加識別的穩定性。在實際泊車場景中的測試結果表明,SSD-L算法檢測限位器的平均精度(mAP)較高,為95%。
關鍵詞:限位器檢測;SSD;卡爾曼濾波;ADAS
中圖分類號:TP391.4? ? ? ?文獻標識碼:A文章編號:2096-4706(2022)02-0174-04
Abstract: Automatic parking system has become an important function of advanced driver assistance system (ADAS). In the process of parking, there are often accidents such as vehicle not parking in place and rubbing with vehicles in adjacent parking spaces. In order to improve the accuracy of automatic parking, an improved algorithm SSD-L for real-time detection of the limiter is proposed, which modifies the parking position of the vehicle by locating the position of the limiter. This method simplifies and improves the original SSD network structure, and uses Kalman filter to increase the stability of recognition. The test results in the actual parking scene show that SSD-L algorithm has a high average accuracy (mAP) of? 95% for limiter.
Keywords: limiter detection; SSD; Kalman filter; ADAS
0? 引? 言
隨著汽車智能駕駛輔助技術的不斷發展,自動泊車技術成為汽車輔助駕駛系統的關鍵技術之一,為了提高泊車過程中車位位置的定位精度,本文通過識別車位限位器來修正車輛在車位中的停車位置。將目標檢測技術作為實現ADAS(Advanced Driver Assistance System)的基礎,可以通過傳感器準確地感知車輛周圍的環境信息,并根據傳感器系統的信息對限位器進行實時檢測,并將檢測結果傳給決策層和控制層,及時采取相應的決策來控制車輛的停車位置,提升了汽車行駛過程的安全性和準確性,減少了財產損失。
目前,ADAS還是以視覺感知的方式來實現目標檢測為主,雷達傳感器作為輔助功能。隨著基于深度學習網絡的方法在ADAS目標檢測方面的廣泛應用,目標檢測的效果不斷提升,ADAS的實現等級也隨之提高,安全性能也不斷地提高。ADAS對使用的目標檢測算法提出了嚴格的要求,主要體現在高準確率、實時檢測、高魯棒性方面,為此,國內外學者、高校研究院、工業界工程師做了大量的研究工作。
基于深度學習的目標檢測算法,在目標檢測的精度和魯棒性方面都比傳統的目標檢測方法有了顯著的提高。傳統的目標檢測算法是通過手工設計特征,而基于深度學習的目標檢測方法則是通過卷積運算來學習各個層級的特征,與手工設計的特征相比,可以學習到更加豐富的特征,也具有了很強的表征能力。從ADAS的市場來看,工業界常用的基于深度學習的目標檢測算法主要有:YOLOv3[1]和SSD[2]。基于回歸的目標檢測算法則去掉了耗時的目標區域的生成過程,而是按照預先設定好的方法去生成默認框,這樣做使得檢測速度得到了有效的提升,同時又可以保證檢測的實時性。而SSD算法相比于YOLOv3算法加入了Faster R-CNN[3]的Anchor機制,這樣做既能保證算法的實時性,又可以擁有較高的檢測準確率。
本文對自動泊車場景下的限位器特點進行分析,限位器的種類主要分為分離式和長桿型兩種,位于車位的中間靠后的位置,從標注的數據集來看,限位器不存在小目標檢測問題,也沒有遮擋問題,所以為了降低特征提取的計算量和模型的復雜度,將SSD算法模型中的淺層特征提取層刪除,對SSD網絡的主干部分進行改進,以此提出了一種適合的限位器檢測的模型SSD-L,在限位器數據集和實際交通場景中進行SSD-L算法精度的驗證。
1? SSD-L目標檢測算法
1.1? 原始SSD網絡結構
原始SSD網絡是使用VGG-16[4]作為主干網絡,相比于輕量化網絡VGG-16的網絡結構比較深,模型參數量也比較大,SSD采用了多尺度特征檢測的原理,第一個特征預測層輸出的特征矩陣大小為38×38,用于檢測小目標。
在不同的特征層上,Proir Box(區域候選框,類似于Anchor)的尺寸大小是不一樣的,最低層的尺寸大小為0.2,最高層的尺寸大小為0.95,其他層的計算公式為:
1.2? SSD-L改進網絡
車載ADAS系統對目標檢測的實時性提出了較高的要求,為了提高系統檢測的實時性,本文采用輕量化模型MobileNetV2[5]作為基礎特征提取層,減少了模型的參數量,改進后的SSD-L的網絡結構如圖1所示,總共有5層特征圖,去掉了原始SSD中的38×38大小的特征圖,卷積層Conv4_b的特征圖輸入大小為19×19,用于檢測小目標,1×1層特征圖用于檢測大目標,中間層的特征圖分別用于預測目標的邊框偏移以及得分,使用非極大值抑制(Non-Maximum-Suppression, NMS)[6]算法,將檢測框按照得分高低進行排序,保留得分最高的框,同時刪除與該框的重疊面積大于一定閾值的其他的檢測框,就得到了最終的檢測結果。
輕量級網絡模型的復雜度和性能在一定程度上是有限的,當檢測單幀圖像上的目標時,得到的檢測結果可能會出現以下問題:目標漏檢、目標誤檢、難以檢出小目標、較低的魯棒性(無法很好地適應遮擋、大霧、雨天、夜間黑暗、反光、逆光等復雜場景)。上述問題使得目標信息極為不穩定,為后續算法的使用帶來極大挑戰,且誤差不斷向后傳播,嚴重影響整體功能的效果。本文對檢測框使用卡爾曼濾波器[7],可以實現物體檢測框的高穩定性,能有效克服目標丟失誤檢、包圍盒抖動等問題,在時序視頻流上表現優越。
2? 損失函數改進
2.1? 原始SSD損失函數
原始SSD網絡在訓練過程中對目標類別和目標位置進行回歸,它的目標損失函數分為兩部分:定位損失(loc)與置信度損失(conf),其表達式為:
式(2)中:N表示區域候選框與真實框的匹配個數,如果N等于0則設置Loss的大小為0,x表示區域候選框與不同類別的真實框的匹配結果,如果匹配x等于1,如果不匹配則x等于0,c表示預測物體類別的置信度,l表示預測框位置的偏移信息,g表示真實邊框和區域候選框的偏移量,α表示位置損失權重參數,其值通常設為1。
實際目標檢測回歸任務中,原始SSD算法的位置損失函數采用Smooth-L1[8],對區域候選框(p)的中心坐標(cx,cy)、寬(w)、高(h)的偏移量進行回歸,按以下公式:
3? 實驗與結果
3.1? 數據預處理
本文使用含有ADAS功能的車輛采集車位限位器,將采集的圖片統一縮放到分辨率為640×480,并按照模型評估的規則制成LIMITER數據集,LIMITER數據集按照一定比例拆分成訓練集和測試集,其中訓練集包含100 000張圖片,測試集包含20 000張圖片,另外,正樣本中的標注框按照一定的偏移制作10 000張負樣本。該數據集主要包含日常中常見的分離式和長桿型兩類車位限位器。模型在訓練過程中,對訓練集采用與原始SSD相同的數據增強方法,使得數據集數量達到一定的量級,還可以提高模型的泛化能力。
3.2? 模型訓練
本文目標檢測網絡訓練所使用的預訓練網絡模型是基于VGG-16網絡,預訓練的網絡參數是通過在PASCAL VOC 2007[10]數據集和COCO[11]數據集上對VGG-16網絡進行訓練得到。接下來使用預訓練的網絡參數對改進的SSD-L網絡結構進行fine-tuning,fine-tuning過程中采用隨機梯度下降法[12](Stochastic Gradient Descent, SGD)尋找目標函數的最優解,網絡輸入大小320×320,并根據LIMITER數據集標注框的大小,重新設計Proir Box的大小,訓練采用的batch_size為64,總訓練次數為210 000。
3.3? 實驗結果及分析
分別訓練原始SSD網絡(使用Smooth-L1損失函數),和改進型SSD_L網絡(使用CIOU損失函數),兩個模型在測試集上的檢測性能如表1所示??梢钥闯?,mAP從89.3%、提高到了95.0%,檢測性能提高了約6.7%。從表2可以看出,SSD-L模型的大小減少了9倍,相應的參數量也大約減少了9倍,模型的計算量大大減少,滿足了算法對實時性的要求。
從圖2中兩種限位器的檢測結果可以得出,SSD-L對兩種車位限位器的檢測準確率能達到95%以上,很好地滿足了ADAS對檢測的高準確率需求。
4? 結? 論
本文通過重新設計SSD的網絡結構,使用MobileNetV2作為主干網絡,使其輕量化并降低了模型的復雜度,去掉了多余的區域候選框和目標預測層,比原始的SSD網絡具有更少的參數量,預測速度也更快。使用CIOU損失函數,提高了模型對重疊目標的檢測準確率,并使用卡爾曼濾波,進一步提高檢測的準確度,SSD-L模型在工況良好的情況下,檢測的準確率可以達到95%,在雨雪、陰天、夜晚等工況不好的情況下,其檢測準確率還有待驗證,這也是下一步需要進行優化的方向。
參考文獻:
[1] REDMON J,FARHADI A. YOLOv3:An Incremental Improvement [J/OL].arXiv:1804.02767 [cs.CV].[2021-11-08].https://arxiv.org/abs/1804.02767.
[2] LIU W,ANGUELOV D,ERHAN D,et al. SSD:Single Shot MultiBox Detector [C]//Computer Vision–ECCV 2016.Amsterdam:Springer,2016:21-37.
[3] REN S Q,HE K M,GIRSHICK R,et al. Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[4] SIMONYAN K,ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition [J/OL].arXiv:1409.1556 [cs.CV].[2021-12-03].https://arxiv.org/abs/1409.1556.
[5] SANDLER M,HOWARD A,ZHU M L,et al. MobileNetV2:Inverted Residuals and Linear Bottlenecks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:4510-4520.
[6] NEUBECK A,GOOL L V. Efficient Non-Maximum Suppression [C]//18th International Conference on Pattern Recognition(ICPR06).Hong Kong:IEEE,2006:850-855.
[7] KALMAN R E. A New Approach To Linear Filtering and Prediction Problems [EB/OL].1960:35-45.[2021-11-23].https://ieeexplore.ieee.org/document/5311910.
[8] GIRSHICK R. Fast R-CNN [J/OL].arXiv:1504.08083 [cs.CV].[2021-11-23].https://arxiv.org/abs/1504.08083.
[9] ZHENG Z H,WANG P,LIU W,et al. Distance-IoU Loss:Faster and Better Learning for Bounding Box Regression [J/OL].arXiv:1911.08287 [cs.CV].[2021-11-20].https://arxiv.org/abs/1911.08287v1.
[10] EVERINGHAM M,ESLAMI S M A,GOOL L V,et al. The Pascal Visual Object Classes Challenge:A Retrospective [J].International Journal of Computer Vision,2015,111(1):98-136.
[11] LIN T Y,MAIRE M,BELONGIE S,et al. Microsoft COCO:Common Objects in Context [J/OL].arXiv:1405.0312 [cs.CV].[2021-11-20].https://arxiv.org/abs/1405.0312.
[12] KETKAR N. Stochastic Gradient Descent [M]//KETKAR N. Deep Learning with Python.[S.I.]:Apress,2014:113-132.
作者簡介:張鳳(1991—),女,漢族,山東臨沂人,講師,碩士研究生,研究方向:圖像處理。