999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結(jié)合注意力機(jī)制的交通標(biāo)志識別

2019-09-04 04:10:31馬平楊興財
科技風(fēng) 2019年21期

馬平 楊興財

摘 要:智能交通體系中的無人駕駛這項課題是近年來一直是各大傳統(tǒng)汽車行業(yè)甚至各大互聯(lián)網(wǎng)巨頭企業(yè)的研究熱點(diǎn)。目前的無人駕駛技術(shù)以及輔助駕駛技術(shù)主要依賴于計算機(jī)視覺來采集道路交通標(biāo)志信號,并通過分析系統(tǒng)實現(xiàn)對交通標(biāo)志的處理及分類任務(wù)。現(xiàn)階段的主要研究方法有傳統(tǒng)方式的提取圖片的HOG特征、SIFT特征等,之后送入SVM分類器或者貝葉斯分類器中。實現(xiàn)對于交通標(biāo)志的提取與分類。近年來神經(jīng)網(wǎng)絡(luò)的迅速發(fā)展也為交通標(biāo)志的識別貢獻(xiàn)了新的力量,CNN,F(xiàn)aster R-CNN等網(wǎng)絡(luò)的出現(xiàn)也被運(yùn)用在交通標(biāo)志的識別中。針對智能交通體系構(gòu)建過程中的道路交通標(biāo)志識別率較低的問題,本文將注意力機(jī)制引入到神經(jīng)網(wǎng)絡(luò)中,實現(xiàn)對交通標(biāo)志圖片的有效識別。該方法通過VGG網(wǎng)絡(luò)實現(xiàn)對輸入數(shù)據(jù)的特征提取,并加入遞進(jìn)的注意力網(wǎng)絡(luò)實現(xiàn)對關(guān)注區(qū)域的放大以及細(xì)節(jié)提取,使得網(wǎng)絡(luò)能夠更有效地關(guān)注細(xì)節(jié)區(qū)域。將網(wǎng)絡(luò)應(yīng)用在比利時交通數(shù)據(jù)集上并取得了優(yōu)秀的識別結(jié)果。最終的測試集分類準(zhǔn)確率達(dá)到了98.2%。

關(guān)鍵詞:注意力;交通標(biāo)志;智能交通;神經(jīng)網(wǎng)絡(luò);卷積網(wǎng)絡(luò)

中圖分類號:TP391文獻(xiàn)標(biāo)識碼:A

Traffic sign recognition combined with attention network

Ma Ping Yang Xingcai

Department of Automation,North China Electric Power University HebeiBaoding 071003

Abstract:The topic of unmanned driving in the intelligent transportation system has been a research hotspot in major traditional automobile industries and even major Internet giants in recent years.The current unmanned technology and assisted driving technology mainly rely on computer vision to collect road traffic sign signals,and through the analysis system to achieve the handling and classification tasks of traffic signs.At present,the main research methods are the HOG feature,SIFT feature,etc.of the extracted picture in the traditional way,and then sent to the SVM classifier or Bayesian classifier.Achieve the extraction and classification of traffic signs.In recent years,the rapid development of neural networks has also contributed to the identification of traffic signs.The emergence of networks such as CNN and Faster R-CNN has also been used in the identification of traffic signs.Aiming at the problem that the recognition rate of road traffic signs is low during the construction of intelligent transportation system,this paper introduces the attention mechanism into the neural network to realize the effective identification of traffic sign pictures.The method realizes feature extraction of input data through the VGG network,and adds a progressive attention network to realize amplification and detail extraction of the attention area,so that the network can pay more attention to the detail area.The network was applied to the Belgian traffic dataset and achieved excellent recognition results.The final test set classification accuracy rate reached 98.2%.

Key words:attention;traffic signs;intelligent transportation;neural network;convolutional network

1 背景與意義

近年來,無人駕駛不但在學(xué)術(shù)界掀起一股熱潮,并且也成為各個互聯(lián)網(wǎng)公司及傳統(tǒng)汽車行業(yè)不斷追求的目標(biāo)。目前主流主要研究方向為基于機(jī)器視覺的自動駕駛與輔助駕駛技術(shù)。而交通標(biāo)志是人們在日常出行過程中的重要的駕駛準(zhǔn)則,按規(guī)則行駛才能夠保證車輛的安全有序且高效的通行。實現(xiàn)無人駕駛或者現(xiàn)階段的輔助駕駛的過程中,對于路面交通標(biāo)志的準(zhǔn)確識別都具有重要的意義。準(zhǔn)確地識別之后,將結(jié)果傳遞給車輛的決策系統(tǒng)或者駕駛?cè)藛T,能夠更有效地保障車輛的安全有效的行駛。

網(wǎng)絡(luò)權(quán)重的優(yōu)化包括兩部分:分類網(wǎng)絡(luò)以及注意力網(wǎng)絡(luò)。首先是分類損失LOSSclass,簡寫為Lcls。文章中采用交叉熵函數(shù)公式(5)來計算分類損失。并根據(jù)分類損失來進(jìn)行對特征提取網(wǎng)絡(luò)以及后續(xù)全連接層分類網(wǎng)絡(luò)的參數(shù)調(diào)節(jié)與優(yōu)化。

LCLS(Y(n),Y(n))=-∑kY(n)logY(n) (5)

注意力網(wǎng)絡(luò)的權(quán)重優(yōu)化主要是依靠不同層級網(wǎng)絡(luò)輸出的比重進(jìn)行優(yōu)化。Pt1為第一層網(wǎng)絡(luò)的預(yù)測輸出,經(jīng)由softmax層輸出時,我們不僅保留其最大值索引的標(biāo)簽,同時保留索引標(biāo)簽所占的百分比重即排名情況。所以將注意力網(wǎng)絡(luò)的優(yōu)化依據(jù)定義為LOSSrank,記為Lrank,其表達(dá)式為(6)。

Lrank(pnt,pn+1t)=max(0,1pnt-pn+1t) (6)

并通過公式(7)實現(xiàn)對注意力區(qū)域的選擇與更新。

Lrankax∝Dtop⊙M(ax,ay,al)ax (7)

公式(7)代表了對橫軸注意力參數(shù)ax的更新情況,同樣的ay,al也是按照類似的方式實現(xiàn)對選中區(qū)域的迭代與更新,實現(xiàn)對APN網(wǎng)絡(luò)權(quán)重參數(shù)的訓(xùn)練與優(yōu)化。

4 分類的結(jié)果以及圖像

實驗時,測試環(huán)境是工作站i7處理器,主頻是3.6GHz,16G 內(nèi)存,GTX1080,Ubuntu 14.04操作系統(tǒng)。

對于改進(jìn)前的RA-CNN網(wǎng)絡(luò)來說,前兩層的識別率較高,但第三層注意力網(wǎng)絡(luò)輸出時就會出現(xiàn)識別正確率較低的情況,推測是由于只是聚焦在某一特定位置,而忽略了對全局信息的特征化,從而使得識別結(jié)果不理想。

損失情況如下圖4,5所示,我們在這里采用兩個網(wǎng)絡(luò)交替訓(xùn)練的形式,所以在圖像中會出現(xiàn)平直線的情況。由圖像可知損失函數(shù)是在有效下降的。相對于未優(yōu)化前的網(wǎng)絡(luò),損失函數(shù)更夠更快速的收斂。

正確率的圖像見圖6、7,可以由圖像得出,第二三層網(wǎng)絡(luò)的識別正確率明顯高于未使用注意力網(wǎng)絡(luò)的區(qū)域。而在改進(jìn)網(wǎng)絡(luò)之后,第三層網(wǎng)絡(luò)的識別結(jié)果有了明顯的改善,實現(xiàn)融合全局信息與細(xì)節(jié)信息,將識別正確率提升至高于第二層網(wǎng)絡(luò),最終實現(xiàn)98.2%的正確率,比原網(wǎng)絡(luò)提升6%。

5 結(jié)論

本文將細(xì)粒度分類的方法引入到交通標(biāo)志的分類中,使得深度神經(jīng)網(wǎng)絡(luò)能夠在圖片中提取到更加有用的分類信息,并通過改進(jìn)的注意力機(jī)制以及注意力損失函數(shù)實現(xiàn)了對交通標(biāo)志細(xì)節(jié)的放大,不同層級的放大區(qū)域最終輸出時帶有明顯的準(zhǔn)確率的差距。最終使得網(wǎng)絡(luò)能夠?qū)崿F(xiàn)對數(shù)據(jù)集BTSD的有效分類。但由于數(shù)據(jù)集圖像像素大小的限制,更深層次的注意力區(qū)域特征提取無法取得更好的效果,這一點(diǎn)也是今后可以改進(jìn)的一個方向。

參考文獻(xiàn):

[1]Yao C,Wu F,Chen H J,et al.Traffic sign recognition using HOG-SVM and grid search[C].Hangzhou:International Conference on Signal Processing,2015.

[2]Gim J W,Hwang M C,Ko B C,et al.Real-time speed-limit sign detection and recognition using spatial pyramid feature and boosted random forest[C].Genoa:International Conference Image Analysis and Recognition,2015.

[3]Deng Zhijie,Wang Yong,Tao Xiaoling.Method of network traffic classification using Nave Bayes based on FPGA[C].Chongqing:13th IEEE Joint International Computer Science and Information Technology Conference,2011.

[4]Wu Yihui,Liu Yulong,Li Jianmin,et al.Traffic sign detection based on convolutional neural networks[C].Dallas:International Joint Conference on Neural Networks,2014.

[5]Girshick R,Donahue J,Darrell T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C].Columbus:IEEE Conference on Computer Vision and Pattern Recognition,2013.

[6]Girshick R.Fast R-CNN[C].Santiago:IEEE International Conference on Computer Vision (ICCV),2015.

[7]袁小平,王崗,王曄楓,汪喆遠(yuǎn),孫輝.基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志識別方法[J/OL].電子科技,2019(11):1-5[2019-04-07].http://kns.cnki.net/kcms/detail/61.1291.TN.20181229.1448.024.html.

[8]Zhu Zhe,Liang Dun,Zhang Songhai,et al.Traffic-sign detection and classification in the wild[C].Las Vegas:IEEE Conference on Computer Vision and Pattern Recognition,2016.

[9]王子恒.路面交通標(biāo)志檢測調(diào)研:數(shù)據(jù)集及算法[A].中國汽車工程學(xué)會(China Society of Automotive Engineers).2018中國汽車工程學(xué)會年會論文集[C].中國汽車工程學(xué)會(China Society of Automotive Engineers):中國汽車工程學(xué)會,2018:7.

[10]Wei X S,Luo J H,Wu J,et al.Selective Convolutional Descriptor Aggregation for Fine-Grained Image Retrieval[J].IEEE Transactions on Image Processing,2017,26(6):2868-2881.

[11]Fu J,Zheng H,Tao M.Look Closer to See Better:Recurrent Attention Convolutional Neural Network for Fine-Grained Image Recognition[C]// Computer Vision & Pattern Recognition.2017.

[12]K.Simonyan and A.Zisserman.Very deep convolutional networks for large-scale image recognition.In ICLR,pages 1409-1556,2015.

主站蜘蛛池模板: 波多野结衣第一页| 天天色天天综合网| 又爽又黄又无遮挡网站| 婷婷综合缴情亚洲五月伊| 少妇精品在线| 一区二区三区在线不卡免费| 小说区 亚洲 自拍 另类| 日韩在线2020专区| 国产草草影院18成年视频| 亚洲男人的天堂久久香蕉网| 精品成人一区二区| 国产精品亚洲αv天堂无码| 成人无码一区二区三区视频在线观看 | 国产浮力第一页永久地址| aa级毛片毛片免费观看久| 国产亚洲欧美在线中文bt天堂| 中文字幕 91| 久久综合色视频| 亚洲欧美另类日本| 国产91熟女高潮一区二区| 天天做天天爱天天爽综合区| 97免费在线观看视频| 一区二区自拍| 国产高清无码第一十页在线观看| 国产黑人在线| 亚洲狠狠婷婷综合久久久久| 日本黄色不卡视频| 2021天堂在线亚洲精品专区 | 91亚洲精品第一| 91精品啪在线观看国产| 天天色综网| 久久性妇女精品免费| 欧美日本在线观看| 亚洲高清资源| 制服丝袜一区| 五月天久久婷婷| 无码一区中文字幕| 伊人久久青草青青综合| 毛片免费视频| 亚洲成在人线av品善网好看| 18禁影院亚洲专区| 中文字幕人成乱码熟女免费| 国产毛片一区| 精品成人一区二区三区电影 | 久久夜夜视频| 经典三级久久| 亚洲一区二区三区麻豆| 国产午夜福利在线小视频| 国产精品私拍在线爆乳| 中文字幕伦视频| 亚洲AV无码久久精品色欲| 国产成人久久综合一区| 午夜福利免费视频| 人人澡人人爽欧美一区| 偷拍久久网| 国产综合在线观看视频| 亚洲色大成网站www国产| 亚洲三级网站| 波多野结衣一二三| 亚洲福利视频网址| 女人一级毛片| 91九色国产在线| 欧美成人午夜视频免看| 精品综合久久久久久97| 日本a级免费| 五月天福利视频| 一区二区三区成人| 日韩欧美国产中文| 亚洲黄色激情网站| 91无码人妻精品一区二区蜜桃| 国产精品网址你懂的| 在线免费看黄的网站| 亚洲最大综合网| 亚洲永久视频| 尤物特级无码毛片免费| 九色综合视频网| 最新亚洲人成无码网站欣赏网| 国产精品成人第一区| 午夜少妇精品视频小电影| 香蕉久久国产精品免| 亚洲综合极品香蕉久久网| 国产成人精品亚洲日本对白优播|