999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于LeNet5算法的交通標(biāo)志識別

2018-05-02 07:56:26吳宗燃
智富時(shí)代 2018年2期

吳宗燃

【摘 要】交通標(biāo)志的識別是輔助駕駛系統(tǒng)和無人駕駛系統(tǒng)中非常關(guān)鍵的步驟,是指將包含交通標(biāo)志的待識別區(qū)域作為輸入(我們在檢測步驟中所得到的一組感興趣區(qū)域),輸出其交通標(biāo)志的小類(如限速60公里/小時(shí),禁止停車等),以得到人們所知道的具體含義。

【關(guān)鍵詞】LeNet5;卷積神經(jīng)網(wǎng)絡(luò);交通標(biāo)志識別

一、交通標(biāo)識識別方案的設(shè)計(jì)

卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)[126]由LeCun等人提出,最早應(yīng)用于手寫數(shù)字的識別,且于2012年在ImageNet分類任務(wù)上取得了突破性的進(jìn)展[127]。目前,卷積神經(jīng)網(wǎng)絡(luò)已成功應(yīng)用于簡單筆劃識別[128]、交通標(biāo)志識別[58,129]、以及相機(jī)定位[130]等多個(gè)領(lǐng)域。

卷積神經(jīng)網(wǎng)絡(luò)最顯著的特點(diǎn)在于可以直接采用圖像進(jìn)行輸入,能同時(shí)進(jìn)行特征和分類器的學(xué)習(xí),避免了傳統(tǒng)識別算法中顯式的、復(fù)雜的特征提取過程,隱式的從訓(xùn)練數(shù)據(jù)中進(jìn)行學(xué)習(xí)。Giresan等人贏得GTSRB第二輪比賽采用的多列深度卷積神經(jīng)網(wǎng)絡(luò)(multi-column deep neural network, MCDNN)[53]包含了三個(gè)卷積層,三個(gè)最大池化層以及兩個(gè)全連接層。鑒于卷積神經(jīng)網(wǎng)絡(luò)如此優(yōu)秀的圖像識別性能,本文采取LeNet5卷積神經(jīng)網(wǎng)絡(luò)來進(jìn)行交通標(biāo)志識別。

二、LeNet5卷積神經(jīng)網(wǎng)絡(luò)的算法流程

(一)交通標(biāo)志識別算法的流程

交通標(biāo)志識別算法流程:輸入圖像、預(yù)處理、特征提取、分類、輸出圖像等幾個(gè)關(guān)鍵步驟。在實(shí)際的交通環(huán)境中,交通標(biāo)志可能收到各種不利的外部因素影響而難以分辨,如:光線變化,位置的傾斜,風(fēng)吹雨淋之后的褪色,路邊樹木的遮擋,這對計(jì)算機(jī)來說是十分致命的。同時(shí)在檢測中,也會(huì)因算法的不理想而產(chǎn)生的誤檢、漏檢、檢測區(qū)域偏差等情況,難以實(shí)現(xiàn)百分之百的檢測和完美的定位,因此我們首先需要對我們檢測所得到的一組感興趣區(qū)域做圖像的預(yù)處理,來提高識別與分類的準(zhǔn)確性。

經(jīng)過圖像預(yù)處理之后,我們?nèi)绻苯舆M(jìn)行分類識別,會(huì)發(fā)現(xiàn)通常結(jié)果都不會(huì)很好,這是因?yàn)槲覀兯臄z的圖像中會(huì)有很多噪聲,這些噪聲人眼可以控制忽略,而計(jì)算機(jī)卻不能,所以通過特征映射使得同類型的數(shù)據(jù)在新的特征空間更加相近,也加大了不同類型數(shù)據(jù)的區(qū)分度,讓計(jì)算機(jī)可以更加準(zhǔn)確的判斷,排除一些圖像平移,形變,縮放的適應(yīng)性。

這之后我們就將已完成的訓(xùn)練和測試數(shù)據(jù)按路徑輸入,同時(shí)改變輸出種類為43。得到的損失圖像如4.1所示。

三、實(shí)現(xiàn)與分析

(一)GTSRB數(shù)據(jù)集

在2011年IJCNN組織了一次交通標(biāo)志識別競賽,并與同時(shí)公布了GTSRB數(shù)據(jù)集。該數(shù)據(jù)集是從德國真實(shí)的交通環(huán)境中拍攝采集,一共包含4大類(禁令標(biāo)志、警告標(biāo)志、指示標(biāo)志、其他標(biāo)志)43小類。整個(gè)數(shù)據(jù)集包含了51839幅交通標(biāo)志圖像,其中訓(xùn)練集39209幅,測試集12630幅圖像,識別數(shù)據(jù)集GTSRB每張圖像上只有一個(gè)交通標(biāo)志,相當(dāng)于我們檢測部分提取出的每一個(gè)感興趣區(qū)域。

(二)運(yùn)用LeNet5進(jìn)行交通標(biāo)志識別

在本文中,主要目的是運(yùn)用LeNet5實(shí)現(xiàn)對GTSRB數(shù)據(jù)集的交通標(biāo)志分類,同時(shí)了解卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)及性能,獨(dú)立訓(xùn)練了一個(gè)CNN。

GTSRB數(shù)據(jù)集中的標(biāo)志通過顏色特征和形狀特征我們將其分為了6大類,統(tǒng)計(jì)見表3.1,其中每一類都有自己的特點(diǎn),例如:限速標(biāo)志為圓形,紅色邊框,白色背景,中間為數(shù)字;解除禁止為圓形,黑色邊框,白色背景,畫有黑色斜線等。所以在大類之間的特點(diǎn)差異較大,具有較好的分辨性,但是難點(diǎn)在于每個(gè)小類的細(xì)分,他們的差別非常小,例如限速60公里/小時(shí)和限速80公里/小時(shí),只差了一個(gè)數(shù)字而6和8又只差了一筆,如圖3.1所示。卷積神經(jīng)網(wǎng)絡(luò)需要能夠分辨這些微小的差別,才能夠得到我們所需要的準(zhǔn)確率。

(三)圖像預(yù)處理

根據(jù)網(wǎng)絡(luò)的要求,我們將數(shù)據(jù)集中的圖像大小首先統(tǒng)一縮放到32×32。因?yàn)閺脑紙D像中提取的感興趣區(qū)域可能會(huì)受到各種不利因素的影響,所以現(xiàn)如今人們都采用了以下幾種預(yù)處理算法,結(jié)果如圖3.2所示。圖中第1列為原始圖像,第2列為灰度圖,第3列到第6列分別為采用CLAHE、直方圖均衡化、對比度調(diào)整以及圖像銳化算法處理后的結(jié)果。

本文主要目的為實(shí)現(xiàn)LeNet5網(wǎng)絡(luò)在交通標(biāo)志牌中的運(yùn)用,為了盡可能減少實(shí)驗(yàn)所需要的時(shí)間,所以采用了未經(jīng)處理的原圖像作為輸入,僅將圖像縮放為網(wǎng)絡(luò)所需大小32×32,以此來判斷是否需要做其他預(yù)處理來提高準(zhǔn)確率。

四、實(shí)驗(yàn)結(jié)果與分析

首先編寫了一套Python代碼,用來隨機(jī)選取訓(xùn)練集的20%進(jìn)行測試(7841張),另外80%用于訓(xùn)練(31368)。這樣做的好處是我們每次的訓(xùn)練和測試都不相同,提高了隨機(jī)性。訓(xùn)練過程中采用了批量驗(yàn)證的方法,即在一次迭代過程中,將整個(gè)數(shù)據(jù)集分為若干個(gè)batch,每個(gè)batch包含64張圖像,即我們每次訓(xùn)練時(shí),輸入到神經(jīng)網(wǎng)絡(luò)的圖像數(shù)量為64。通過神經(jīng)網(wǎng)絡(luò)的向前傳播過程得出這批圖像的誤差率,然后根據(jù)誤差率對網(wǎng)絡(luò)的權(quán)值和偏置求導(dǎo),并更新網(wǎng)絡(luò)中的學(xué)習(xí)參數(shù)。如圖4.1所示,是我們在網(wǎng)絡(luò)中訓(xùn)練一萬次的loss曲線和在測試集中訓(xùn)練一萬次的loss曲線。

在訓(xùn)練中所使用的LeNet5卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),一共八層,其中包括為1個(gè)輸入層,3個(gè)卷積層,2個(gè)池化層,1個(gè)全連接層和1個(gè)輸出層。

最后訓(xùn)練的結(jié)果如表4.1所示:

從表中我們可以看出,分類的正確率較高,在7841個(gè)測試樣本中,錯(cuò)誤圖片僅為84張,正確率為98.92%。每幅圖像的處理速度為1.863毫秒。

如圖4.2是部分被錯(cuò)分的圖像,由于LeNet5是一個(gè)只具有的單個(gè)CNN的簡單網(wǎng)絡(luò),所以其分類正確率還可以通過多種方式進(jìn)行提升,比如加大網(wǎng)絡(luò)深度,調(diào)整超參,訓(xùn)練多個(gè)DNN進(jìn)行分類等。從樣本中我們不難發(fā)現(xiàn),識別錯(cuò)誤的主要原因包括:分辨率過低,遮擋部分較多,運(yùn)動(dòng)模糊等。

五、總結(jié)

本文采用了一種簡單的卷積神經(jīng)網(wǎng)絡(luò)LeNet5進(jìn)行交通標(biāo)志的識別。該網(wǎng)絡(luò)包括三個(gè)卷積層,兩個(gè)最大池化層和一個(gè)全連接層。輸入圖像這次為了實(shí)驗(yàn)采用了沒有經(jīng)過處理的原圖,經(jīng)過卷積層和池化層對圖像特征的提取和壓縮,進(jìn)入全連接層分類,最終得到識別結(jié)果。通過在GTSRB數(shù)據(jù)集上的驗(yàn)證,正確率為98.92%,因此說明LeNet5卷積神經(jīng)網(wǎng)絡(luò)對于交通標(biāo)志識別有較高的識別率(分類正確率),且在計(jì)算機(jī)上的運(yùn)行速度僅為1.8毫秒,可以保證實(shí)時(shí)性。

【參考文獻(xiàn)】

[1]基于融合卷積神經(jīng)網(wǎng)絡(luò)模型的手寫數(shù)字識別[J]. 陳玄,朱榮,王中元. 計(jì)算機(jī)工程. 2017(11)

[2]深度學(xué)習(xí)研究綜述[J]. 孫志軍,薛磊,許陽明,王正. 計(jì)算機(jī)應(yīng)用研究. 2012(08)

[3]基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉年齡分類[J]. 李超琪,王紹宇. 智能計(jì)算機(jī)與應(yīng)用. 2017(03).

主站蜘蛛池模板: 色AV色 综合网站| 亚洲无码高清免费视频亚洲| 在线精品视频成人网| 久久香蕉国产线看观看亚洲片| 亚洲AV无码不卡无码| 麻豆精品久久久久久久99蜜桃| 欧美狠狠干| 日韩东京热无码人妻| 男人天堂伊人网| 久久久久亚洲av成人网人人软件| 亚洲视频免费在线看| 热久久这里是精品6免费观看| 亚洲一级毛片| 成人亚洲视频| 99视频精品全国免费品| 亚洲狠狠婷婷综合久久久久| 免费全部高H视频无码无遮掩| 久久亚洲国产视频| 亚洲av色吊丝无码| 欧美成人精品欧美一级乱黄| 欧美精品成人一区二区在线观看| 欧美日韩中文国产va另类| 国产成人精品2021欧美日韩| 国产地址二永久伊甸园| 永久在线精品免费视频观看| 国产在线精品美女观看| 毛片免费视频| 日韩精品无码不卡无码| 国产乱人乱偷精品视频a人人澡| 亚卅精品无码久久毛片乌克兰| AV不卡无码免费一区二区三区| 亚洲中文字幕无码爆乳| 国产无码精品在线| 国产另类视频| 免费一极毛片| 欧美日韩国产在线观看一区二区三区 | 国产精品久久久久久久伊一| 国产精品视频免费网站| 丁香六月激情综合| 亚洲成人一区二区三区| 秋霞午夜国产精品成人片| 女人18毛片一级毛片在线| 亚洲精品第五页| 亚洲香蕉伊综合在人在线| 人妻丰满熟妇av五码区| 国产福利影院在线观看| 国产精品亚洲αv天堂无码| 欧美丝袜高跟鞋一区二区| 亚洲成人动漫在线观看| 成人一级免费视频| 国产欧美日韩一区二区视频在线| 国产毛片基地| 四虎永久在线精品国产免费| 亚洲毛片在线看| 欧美高清视频一区二区三区| 日本成人不卡视频| 欧美午夜视频在线| 亚洲国产一成久久精品国产成人综合| 欧美一级大片在线观看| 久久99热66这里只有精品一| 很黄的网站在线观看| 久草视频精品| 国产精品夜夜嗨视频免费视频| 亚洲精品不卡午夜精品| 欧美日韩激情| 四虎AV麻豆| 国产精品专区第一页在线观看| 久久综合丝袜长腿丝袜| 91在线一9|永久视频在线| 亚洲美女久久| 草草影院国产第一页| 亚洲人成高清| 久久婷婷色综合老司机| 91精品综合| 99视频全部免费| 国产网站免费观看| av天堂最新版在线| 五月天丁香婷婷综合久久| 992Tv视频国产精品| 97在线公开视频| 色天天综合久久久久综合片| 日韩一区二区在线电影|