999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于SSD卷積神經網絡的智能交通應用研究

2019-09-19 11:34:52金亞楠嚴碧波
電腦知識與技術 2019年20期

金亞楠 嚴碧波

摘要:針對傳統的道路交通監控系統對目標的識別準確率較差、模型魯棒性較弱且不具備實時性等問題,本文提出了一種基于卷積神經網絡的道路交通目標檢測方法。和傳統的道路監控檢測系統相比,卷積神經網絡的模型更加適合處理大規模的數據。在卷積神經網絡的分層特征提取下,既可以獲得圖像的低級語義,也可以獲得圖像的高級語義,經過對不同層級的樣本特征分析,可以綜合性地對目標進行識別分類,進一步提高模型的分類性能。驗證結果表明該方法不但在準確率方面遠遠優于傳統的識別系統,而且在硬件條件允許的情況下具有實時性。

關鍵詞:卷積神經網絡;SSD模型;遷移學習;目標檢測

中圖分類號:TP18? ? ? ? 文獻標識碼:A

文章編號:1009-3044(2019)20-0211-03

開放科學(資源服務)標識碼(OSID):

Abstract: To address the problems that the traditional road traffic monitoring system has poor target recognition accuracy, weak model robustness and no real-time performance, a road traffic target recognition method based on convolutional neural networks is proposed. Compared with the traditional road monitoring and recognition system, the convolutional neural network model is more suitable for processing large-scale data. Under the hierarchical feature extraction of convolutional neural networks, both the low-level and the high-level semantics of the image can be obtained. After analyzing the sample features of different levels, the target can be comprehensively identified and classified, and the models classification performanc can be further improved as well. Experiments show that this method is not only superior to the traditional identification system in terms of accuracy, but also has real-time performance when the hardware conditions permit.

Key words: convolutional neural networks; SSD model; migration learning; target detection

隨著人們生活水平的不斷提高,國內的汽車保有量近幾年快速攀升,導致道路交通擁堵,交通事故頻發等問題層出不窮,交通管理部門所面臨的壓力越來越大。通過道路監控系統進行目標檢測成了智能交通領域的一個重要研究課題,可以為交通監管和違章識別告警等方面提供有力的技術支持。

傳統的道路監控系統主要采用以下幾種非深度學習的目標檢測方法:特征匹配法[1],光流法[2],幀差法[3]和背景建模法[4]等,但由于在實際的道路環境下,監控畫面的角度、光照和背景等多方面的原因都會給傳統的識別系統帶來很大的挑戰。傳統的目標識別系統對復雜環境的目標捕捉和識別率較低,模型的魯棒性也很差。

近幾年,利用深度學習方法,借助卷積神經網絡等進行目標檢測的研究工作有明顯上升[5]。卷積神經網絡使圖像可以直接作為網絡的數據輸入,避免了傳統識別算法中復雜的特征提取過程,圖像特征也更加充分得到應用。與傳統方法相比,卷積神經網絡可以將更多的數據特征拿來訓練模型,進而有效降低外界條件對模型性能的影響,使模型具有更好的識別準確率和魯棒性,更適合道路交通目標的檢測識別要求。

1 SSD模型

由于對交通目標的檢測需要具有實時性,這就不僅要求深度學習模型具有較高的識別精度和魯棒性,而且還要求對目標的檢測速度要足夠快。根據對目前較為流行的目標檢測模型Faster R-CNN[6]、YOLO[7]、SSD[8]等進行對比(見表2),最終選擇性能更為優越的端到端檢測的單發多框檢測器(Single Shot Multibox Detector,SSD)模型作為道路交通目標檢測系統的訓練模型。

1.1模型功能介紹

SSD模型在VGG16[9]的基礎上設計了6個特征提取模塊,來對不同層級的語義特征進行提取和分類識別預測,同時在同一層級的特征圖上選擇長寬比不同的預測框,來提高目標檢測精度。為了避免過多的負樣本邊界框影響模型訓練的準確率,網絡在非最大抑制策略的基礎上,使用Hard Negative Mining策略,根據邊界框的置信損失進行排序,只訓練較高損失度的負樣本子集,保證正負樣本的比例為1:3,這樣既減少了樣本計算量又避免了負樣本過多造成的模型訓練精確度的影響。

該模型的算法結合了YOLO和Faster R-CNN的優勢,以對目標特征進行分層提取和預測作為主體思路進而實現回歸和分類。根據圖像的語義分析,在低層次的特征圖中語義分割質量更高,包含較多的特征細節,適合對小尺度目標的進行特征提取;在高層次的特征圖中語義分割更為抽象化,更為適合大尺度目標。該模型的結構在單一的回歸網絡的基礎上,針對不同的特征層級進行多尺度目標特征提取和預測分類,進而實現目標分類識別。SSD模型是采用端到端的訓練方法,把檢測和分類一體化,它既綜合了YOLO模型端到端快速檢測的優勢,又保留了Faster R-CNN模型對小目標的檢測精度等特點。

1.2模型的損失函數

神經網絡的模型的效果以及優化的目標都是通過損失函數來定義的,SSD模型的損失函數是模型訓練和驗證時的重要衡量指標之一,損失函數是可以根據數據要求進行自定義的。根據訓練時的目標匹配策略,該模型總體的目標損失函數是定位損失(loc)和置信度損失(conf)的加權和:

其中參數N是匹配的默認邊界框的數量,如果N為0,則將損失函數設為0。定位損失是預測框()與真實框()參數之間的Smooth L1損失,置信度損失是在多類別置信度(c)上的softmax損失[8]。參數為權衡定位損失和置信度損失的加權值,通過交叉驗證,加權參數通常設置為1。在實際訓練過程中,真實值和預測值的誤差會以損失函數的形式進行計算,可以對模型訓練結果進行分析,改進參數以訓練出性能更好的預測模型。

2 構建數據集

道路監控系統要求基于交通監控設備對交通目標進行實時的目標檢測,識別道路上的機動車、非機動車和行人,因此我們需要構建一個具有一定數量的不同目標的數據集來實現對深度學習模型的訓練、驗證和測試。數據來源分為兩個部分,一部分來自MIT的車輛數據集,另一部分由道路監控采集而來,樣本的采集兼顧了不同的背景、不同光照條件等,通過左右翻轉和調整飽和度等方式實現數據增廣,保證樣本數據的多樣性和全面性。

構建的數據集共包含4648張圖片,其中包含的檢測目標分別為機動車、非機動車和行人,采用lableImg標注工具對收集的目標數據進行標注,制作成為PASCAL VOC 2007格式。根據要求將數據集按照4 :1的比例分為訓練驗證集和測試集,再按照1 :1的比例將訓練驗證集分為訓練集和驗證集。數據集制作完成之后采用數據分析的形式對PASCAL VOC數據集的XML文件進行數據分析,統計訓練集、驗證集和測試集中各個目標樣本的真實標注框的數量和所在圖片的數量,作為SSD模型訓練和驗證時的參數。數據集統計數據如下表所示:

3 對模型進行遷移學習

所謂遷移學習,就是將一個已經訓練相當成熟的模型通過簡單的結構調整使其適應新的問題,在新的數據集上,可以直接利用這個訓練好的模型來提取特征,然后再將新組合的特征向量作為輸入來訓練調整后的模型參數,以此來實現新的分類問題[10]。遷移學習的優點在于所需要的訓練時間和訓練樣本都要遠遠小于重新訓練完整模型,而且可以達到令人滿意的實驗效果。

由于實驗數據和實驗條件的限制,我們將在現有的SSD模型的基礎上,保留SSD原有模型的權重參數,根據實驗的分類要求對模型相關超參數進行更改,這些超參數主要有類別、學習率、學習率衰減因子、代次、迭代最大步數等(具體參數見下文4.2實驗參數設置),進而對模型個別層的參數進行微調,使模型能夠很好地滿足對道路交通目標中機動車、非機動車和行人的識別要求。

4 模型的測試及相關數據

4.1 實驗環境

本文實驗環境是操作系統 Windows 10 64位 ( DirectX 12 ),處理器型號為英特爾 Core i7-8750H @ 2.20GHz 六核,顯卡型號為Nvidia GeForce GTX 1060,顯存為6G,內存為16G。所選擇的深度學習框架為Tensorflow。

4.2 實驗參數設置

該實驗是在采集制作的PASCAL VOC 2007格式的數據集上進行,實驗所采用的模型為VGG16-SSD模型,采用的最優化算法為Adam,經過不斷對各個參數的調試對比,最終選擇模型效果較好的超參數組合。經過對模型的不斷調試,確定各個超參數設置如下:批次大小為24,權重衰減為0.005,學習率初始值為0.01,學習率衰減因子為0.98,學習率衰減頻率為8 epochs,最大迭代步數50000,GPU占用量0.7。

4.3 實驗數據對比分析

深度學習的神經網絡模型有一系列的評價標準,其中在模型訓練時較為重要的評價指標主要是模型總體損失函數,而在測試階段模型性能評價指標主要有平均準確率及平均準確率均值等。平均準確率(Average precision,AP)是評價深度學習檢測模型準確性最直觀的標準,平均準確率均值(mean AP,mAP)是各個類別 AP 的平均值,mAP 越高表示模型在全部類別中檢測的綜合性能越高。下表是各類算法在測試數據集上的性能評價指標對比:

4.4 模型的測試效果展示

在實驗的過程中為了方便表示不同分類目標,選擇了用數字代表分類的方法;其中數字1代表機動車,數字2代表行人,數字3代表非機動車。以下四幅圖片是訓練的模型檢測效果展示:

由以上測試結果可知,該模型的性能優于先前的算法,對道路交通目標有更高的檢測準確率和更低的誤檢率,而且滿足系統所要求的實時性和模型魯棒性,但圖6的檢測結果同時也表明該模型還存在一定的缺點,如目標漏檢等,經過分析,可能是數據集還不夠充分,有待進一步改進。

5 結束語

目標檢測是深度學習熱門的研究方向之一,應用前景非常廣泛。通過實驗對比,深度學習模型SSD在道路目標檢測上取得了較為不錯的測試效果。但與此同時也發現了該模型算法存在的不足,在基于視頻目標檢測時,幀與幀的圖像之間在時序和內容上存在上下文關系,而該模型并未對此加以利用來優化模型準確率和誤檢率。根據跟蹤算法和循環神經網絡結構在時序問題上所展現的優勢,我們可以考慮以此為研究方向對該模型進行更進一步的改進和優化。

參考文獻:

[1] 李雙雙,趙高鵬,王建宇.基于特征融合和尺度自適應的干擾感知目標跟蹤[J].光學學報,2017,37(5):15-20.

[2]? BARRON J L, FLEET D J, BEAUCHEMIN S S. Performance of optical flow techniques[M]. Kluwer Academic Publishers, 1994, 12(1):43-77.

[3]? ALI A T, DAGLESS E L. Alternative practical methods for moving object detection[C].International Conference on Image Processing and ITS Applications, 1992:77-80.

[4]? HARITAOGLU I, HWRWOOD D, DAVIS L S. W4: real-time surveillance of people and their activities[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2000,22(8):809-830.

[5] 章毓晉.中國圖像工程:2017[J].中國圖象圖形學報,2018,23(5):617-628.

[6]? REN S, He K, GIRSHICK R, et al.? Faster R-CNN: towards real-time object detection with region proposal networks[C].? International Conference on Neural Information Processing Systems, 2015:91-99.

[7] REDMON J, DIVVALA S, GIRSHICK R, et al.? You Only Look Once: Unified, Real-Time? Object Detection[C]. IEEE Conference on Computer Vision and Pattern Recognition, 2016:779-788.

[8] LIU W, ANGUELOY D, ERHAN D, et al. SSD: Single Shot Multi Box Detector[J].Computer Vision-ECCV2016, 2016:21-37.

[9] SIMONYAN K, ZISSERMAN A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J]. Computer Science, 2014.

[10] 鄭澤宇,梁博文,顧思宇.Tensorflow 實戰Google深度學習框架[M].2版.北京:電子工業出版社,2018:161.

【通聯編輯:唐一東】

主站蜘蛛池模板: 欧美国产日韩在线播放| 欧美黄网站免费观看| 国产AV无码专区亚洲A∨毛片| 欧美一级高清片欧美国产欧美| 久久国产精品无码hdav| 国产日韩丝袜一二三区| 奇米影视狠狠精品7777| 91丨九色丨首页在线播放| 在线看AV天堂| 精品亚洲欧美中文字幕在线看| 99热最新网址| 在线观看免费人成视频色快速| 国产综合另类小说色区色噜噜 | 高潮爽到爆的喷水女主播视频| 久久免费看片| 国产av无码日韩av无码网站| 亚洲美女一级毛片| 欧美第一页在线| 99热这里只有精品2| 粗大猛烈进出高潮视频无码| 国产区91| 亚洲av片在线免费观看| 九一九色国产| 91久久精品日日躁夜夜躁欧美| 日韩在线欧美在线| 亚洲AⅤ综合在线欧美一区| 国产精品三区四区| 国产中文一区a级毛片视频| 日本道综合一本久久久88| 91丝袜在线观看| 亚洲区欧美区| 亚洲日韩高清无码| 国产屁屁影院| 国产农村精品一级毛片视频| 一级做a爰片久久免费| 毛片免费在线视频| 72种姿势欧美久久久大黄蕉| 国产欧美日韩综合在线第一| 亚洲精品国产综合99久久夜夜嗨| 国产精品任我爽爆在线播放6080 | 日韩欧美色综合| 一级成人a毛片免费播放| 国产成人无码久久久久毛片| 中文精品久久久久国产网址| 日韩在线1| 午夜a级毛片| 国产欧美日韩免费| 国产成人精品男人的天堂| 小蝌蚪亚洲精品国产| 欧美日韩成人在线观看| 天堂av高清一区二区三区| 在线高清亚洲精品二区| 国产成人高清精品免费| 无码国内精品人妻少妇蜜桃视频| 思思99思思久久最新精品| 国产精品专区第1页| 欧美区一区| 亚洲人成人无码www| 亚洲天堂视频网站| 久久精品人人做人人爽电影蜜月| 亚洲高清日韩heyzo| 国产00高中生在线播放| 久久网综合| 国产永久在线视频| 国产区精品高清在线观看| 亚洲精品不卡午夜精品| 国产视频久久久久| 日韩黄色大片免费看| 国产超碰一区二区三区| 岛国精品一区免费视频在线观看 | 永久免费无码日韩视频| igao国产精品| a国产精品| 91青青在线视频| 欧美一道本| 无码aⅴ精品一区二区三区| 欧美日韩国产在线人成app| 国产福利一区视频| 在线看片中文字幕| 日本不卡在线| 亚洲无码免费黄色网址| 精品夜恋影院亚洲欧洲|