999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于自組織映射的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)研究

2023-04-29 00:00:00趙義愛
無線互聯(lián)科技 2023年10期

摘要:輔助駕駛和自動(dòng)駕駛技術(shù)將對人類的生活方式帶來巨大影響,而交通標(biāo)志識別技術(shù)則是其中至關(guān)重要的一環(huán)。為了進(jìn)一步完善交通標(biāo)志識別理論,文章提出了一種融合自組織映射的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)。自組織映射能將圖像樣本量化至拓?fù)淇臻g中,從而對微小的變化提供降維和不變性處理。該方法與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,能充分利用卷積神經(jīng)網(wǎng)絡(luò)對平移、旋轉(zhuǎn)、縮放和形變的部分不變性能,從而提高該架構(gòu)的效率和準(zhǔn)確度。經(jīng)過初步測試,本系統(tǒng)在200個(gè)測試樣本中表現(xiàn)出98.5%的準(zhǔn)確率,取得了顯著的成效。

關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);交通標(biāo)志識別;自組織映射;深度學(xué)習(xí)

中圖分類號:TP183

文獻(xiàn)標(biāo)志碼:A

0 引言

輔助駕駛和自動(dòng)駕駛技術(shù)需要快速準(zhǔn)確地從圖像中檢測交通標(biāo)志。交通標(biāo)志識別主要依賴于圖像視覺信息,如標(biāo)志的形狀、大小和顏色等1。然而,傳統(tǒng)的識別算法在實(shí)時(shí)測試中面臨著照明強(qiáng)度、攝像頭角度、障礙物等問題。此外,實(shí)現(xiàn)多目標(biāo)檢測也是目前技術(shù)面臨的困難之一2

雖然深度學(xué)習(xí)作為一種機(jī)器學(xué)習(xí)方法很早就被提出,但近年來隨著計(jì)算機(jī)硬件和神經(jīng)網(wǎng)絡(luò)架構(gòu)的不斷發(fā)展,深度學(xué)習(xí)才開始進(jìn)入發(fā)展黃金時(shí)期3。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)是一種重要的深度學(xué)習(xí)架構(gòu),可以實(shí)現(xiàn)對人臉或其他圖像的學(xué)習(xí)和識別4,在人臉識別5、自動(dòng)駕駛汽車6和智能醫(yī)療7等領(lǐng)域得到廣泛應(yīng)用。當(dāng)采用CNN模型時(shí),并不需要太多的數(shù)據(jù)預(yù)處理任務(wù),它主要是通過卷積完成圖像特征的提取,同時(shí)不會(huì)丟失重要信息,在降維的同時(shí)也保留了與特征相關(guān)的信息8-9

因此,本研究系統(tǒng)性地研究了基于自組織映射(Self-organizing Map, SOM)的CNN網(wǎng)絡(luò)架構(gòu)來實(shí)現(xiàn)交通標(biāo)志識別。主要包括3個(gè)方面:對交通標(biāo)志數(shù)據(jù)集進(jìn)行分析和預(yù)處理、介紹CNN在圖像識別中的應(yīng)用以及提出SOM-CNN架構(gòu)并進(jìn)行數(shù)據(jù)集地訓(xùn)練和測試。實(shí)驗(yàn)結(jié)果表明,本研究工作具有一定的發(fā)展?jié)摿Α?/p>

1 針對交通標(biāo)志識別的CNN架構(gòu)

1.1 CNN的典型結(jié)構(gòu)

典型的CNN由多個(gè)層組成,主要包含卷積層和池化層,如圖1所示10。其中,卷積層包含有多個(gè)面,每個(gè)面都具有固定的特征檢測器,與前一層的局部窗口做卷積。池化層在卷積層后面,用于進(jìn)行局部平均和下采樣操作,減少數(shù)據(jù)量,同時(shí)保留重要特征。在交通標(biāo)志識別任務(wù)中,CNN已被證明可以有效地識別交通標(biāo)志的形狀、顏色、符號等。該模型的成功應(yīng)用主要是因?yàn)槠渚矸e層可以學(xué)習(xí)低級特征,例如邊緣和角點(diǎn)等,然后在池化層中進(jìn)一步提取和減少特征,最終在全連接層中組合這些特征,形成對交通標(biāo)志的分類和識別。此外,通過使用反向傳播梯度下降法進(jìn)行訓(xùn)練,可以進(jìn)一步優(yōu)化網(wǎng)絡(luò)中的連接策略,從而減少網(wǎng)絡(luò)中的權(quán)重?cái)?shù)量,提高模型的精度和效率。

1.2 SOM-CNN

為了進(jìn)一步提高CNN架構(gòu)的效率和精度,本文引入了SOM來優(yōu)化整個(gè)系統(tǒng),提出了SOM-CNN架構(gòu),如圖2所示。該方法能將圖像樣本投影到量化的低維空間的SOM上,實(shí)現(xiàn)局部圖像采樣和部分光照不變性技術(shù)的使用。具體研究工作包括:

(1)對于集中訓(xùn)練的圖像,在整個(gè)圖像上設(shè)置固定大小的窗口(例如5×5),并在每一步提取局部圖像樣本,其中每步中窗口移動(dòng)4個(gè)像素點(diǎn);

(2)SOM的3個(gè)維度可以被認(rèn)為是3個(gè)特征,在前一階段的向量上進(jìn)行訓(xùn)練時(shí),SOM將25維輸入向量量化為125個(gè)拓?fù)渲担?/p>

(3)在訓(xùn)練集和測試集中的所有圖像上都會(huì)出現(xiàn)與(1)中相同的窗口。局部圖像樣本在每個(gè)步驟都通過SOM,從而在SOM創(chuàng)建的輸出空間中創(chuàng)建新

的訓(xùn)練和測試集。此時(shí),每個(gè)輸入圖像由3個(gè)映射表示,每個(gè)映射對應(yīng)于SOM中的維度。這些映射的大小等于輸入圖像的大小除以步長;

(4)采用新創(chuàng)建的訓(xùn)練集訓(xùn)練CNN網(wǎng)絡(luò)。

2 實(shí)驗(yàn)設(shè)計(jì)和結(jié)果

2.1 實(shí)驗(yàn)設(shè)計(jì)

本實(shí)驗(yàn)采用了比利時(shí)交通標(biāo)志數(shù)據(jù)集(Belgium Traffic Signs Dataset),該數(shù)據(jù)集包括警示標(biāo)志、優(yōu)先通行標(biāo)志、禁止通行標(biāo)志、強(qiáng)制通行標(biāo)志、停車路牌、指定通行標(biāo)志等6大類,訓(xùn)練和測試數(shù)據(jù)文件夾包含62個(gè)子文件夾,所有圖像的格式均為ppm。因此,本實(shí)驗(yàn)的任務(wù)是將給定圖像分類為表示交通標(biāo)志面板的62個(gè)類別之一。

實(shí)驗(yàn)環(huán)境搭建基于Python的Tensorflow。Python是一種常用的編程語言,在機(jī)器學(xué)習(xí)中廣泛使用。本實(shí)驗(yàn)使用的Python模塊包含一個(gè)名為scikit-learn tool的模塊,該模塊集成了大量用于監(jiān)督和非監(jiān)督問題的機(jī)器學(xué)習(xí)算法。Tensorflow則是一個(gè)多用途開源庫,可以在Python,C++,Java,Scala,R等多種編程語言中使用,并可以在Unix,Windows,iOS和Android等平臺(tái)上運(yùn)行。Keras是TensorFlow的官方高級API,用于提供開發(fā)接口,其模型制作簡單,支持卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)以及兩者的組合,支持任意連接方案(包括多輸入和多輸出訓(xùn)練)。

2.2 實(shí)驗(yàn)結(jié)果

經(jīng)過多組實(shí)驗(yàn),本文利用SOM-CNN模型對交通標(biāo)志進(jìn)行分類識別。每次實(shí)驗(yàn)分別具有200張訓(xùn)練圖像,200張測試圖像,并且訓(xùn)練和測試集之間沒有重疊。為了比較訓(xùn)練和執(zhí)行時(shí)間,本實(shí)驗(yàn)使用了NVIDIA GeForce RTX 2060和3080進(jìn)行對比實(shí)驗(yàn),如表1所示。

實(shí)驗(yàn)表明,該模型對交通標(biāo)志識別效果良好。在多次實(shí)驗(yàn)中,平均每200張測試圖像種有3張被錯(cuò)誤分類,其正確率約為98.5%,表現(xiàn)出很好的分類效果。

3 結(jié)語

交通標(biāo)志檢測通常基于機(jī)器學(xué)習(xí)方法,而深度神經(jīng)網(wǎng)絡(luò)的出現(xiàn)進(jìn)一步提升了其分類精度。深度神經(jīng)網(wǎng)絡(luò)基于許多簡單互連的神經(jīng)元,可以從大量數(shù)據(jù)中提取有意義的特征以解決復(fù)雜的分類問題。為了進(jìn)一步提高交通標(biāo)志識別的準(zhǔn)確率,文章結(jié)合現(xiàn)有理論開發(fā)了SOM-CNN架構(gòu),并對交通標(biāo)志數(shù)據(jù)集進(jìn)行了分類,取得了良好的效果。盡管其準(zhǔn)確率與主流方法相比尚有差距,但其高效性使其具有一定的發(fā)展?jié)摿ΑN磥恚芯咳藛T可以通過改進(jìn)結(jié)構(gòu)來進(jìn)一步提高SOM-CNN模型的效率和精度,并擴(kuò)展模型以檢測其他對象,如行人、動(dòng)物和其他復(fù)雜障礙物,以期在實(shí)際應(yīng)用中取得更好的效果。

參考文獻(xiàn)

[1]SAADNA Y,BEHLOUL A.An overview of traffic sign detection and classification methods[J].International Journal of Multimedia Information Retrieval,2017(6):193-210.

[2]HE Z,NAN F,LI X,et al.Traffic sign recognition by combining global and local features based on semi‐supervised classification[J].IET Intelligent Transport Systems,2020(5):323-330.

[3]LECUN Y,BENGIO Y,HINTON G.Deep learning[J].Nature,2015(521):436-444.

[4]ALZUBAIDI L,ZHANG J,HUMAIDI A J,et al.Review of deep learning: concepts, CNN architectures, challenges, applications, future directions[J].Journal of Big Data,2021(8):71-74.

[5]KASAR M M,BHATTACHARYYA D,KIM T H.Face recognition using neural network: a review[J].International Journal of Security and Its Applications,2016(3):81-100.

[6]ALAM A,PRAVEEN S.A review of automatic driving system by recognizing road signs using digital image processing[J].Journal of Informatics Electrical and Electronics Engineering (JIEEE),2021(2):1-9.

[7]SINGH S P,WANG L,GUPTA S,et al.3D deep learning on medical images: a review[J].Sensors,2020(18):5097.

[8]LI Z,LIU F,YANG W,et al.A survey of convolutional neural networks: analysis, applications, and prospects[J].IEEE Transactions on Neural Networks and Learning Systems,2021(4):1-21.

[9]HINTON G E.To recognize shapes, first learn to generate images[J].Progress in Brain Research,2007(165):535-547.

[10]HAJI S H,ABDULAZEEZ A M.Comparison of optimization techniques based on gradient descent algorithm: a review[J].PalArch’s Journal of Archaeology of Egypt/Egyptology,2021(4):2715-2743.

(編輯 王雪芬)

Research on convolutional neural network architecture based on self-organizing map

Zhao Yi’ai

(Zhengzhou University of Industrial Technology, Zhengzhou 451100, China)

Abstract: Assisted driving and automatic driving technologies are poised to greatly impact human lifestyle, with traffic sign recognition technology representing a pivotal aspect thereof. To refine the theoretical underpinnings of traffic sign recognition, a convolutional neural network framework combined with self-organizing map algorithm is proposed. And, self-organizing map algorithm can quantize image samples into topological space, thus providing dimensionality reduction and invariance processing for small changes in image samples. This method, combined with the partial invariant performance of convolution neural network for translation, rotation, scaling and deformation, improves the efficiency and accuracy of this architecture. The experimental results show that the accuracy of proposed system is 98.5% in 200 test samples, representing a highly promising outcome.

Key words: convolution neural network; traffic sign recognition; self-organizing map; deep learning

主站蜘蛛池模板: 久久久国产精品无码专区| 精品成人一区二区三区电影 | 丁香六月综合网| 久久婷婷五月综合97色| 18禁高潮出水呻吟娇喘蜜芽| 丁香婷婷激情综合激情| 国产精品亚洲а∨天堂免下载| 欧美不卡二区| 精品国产香蕉在线播出| 伊在人亚洲香蕉精品播放| 91成人在线免费观看| 高清无码不卡视频| 91久久国产热精品免费| 亚洲第一香蕉视频| 国产中文一区a级毛片视频| 内射人妻无套中出无码| 亚洲综合亚洲国产尤物| 亚洲一区二区三区香蕉| 人妻无码AⅤ中文字| 中文字幕永久在线观看| 91网址在线播放| 精品一区二区久久久久网站| 网友自拍视频精品区| 香蕉视频在线观看www| 日本高清在线看免费观看| 日本精品αv中文字幕| 国产免费观看av大片的网站| 国产美女91视频| av天堂最新版在线| 色婷婷亚洲综合五月| 国产一级毛片高清完整视频版| 婷婷色婷婷| 成人综合网址| 亚洲成在人线av品善网好看| 在线看AV天堂| 亚洲天堂网2014| 亚洲一区二区三区在线视频| 国产成本人片免费a∨短片| 在线日本国产成人免费的| 婷婷五月在线| 国产福利一区在线| 波多野结衣视频网站| 亚洲欧美另类视频| 狂欢视频在线观看不卡| 国产精品免费p区| 97国内精品久久久久不卡| 天天干伊人| 97在线免费| 婷婷激情五月网| 亚洲国产无码有码| 亚洲三级网站| 午夜日b视频| 国内精品一区二区在线观看| 尤物视频一区| 久久久91人妻无码精品蜜桃HD| 四虎国产成人免费观看| 欧美激情伊人| 午夜不卡视频| 思思热精品在线8| 精品無碼一區在線觀看 | 亚洲成人福利网站| 亚洲色图欧美激情| 99re经典视频在线| 99精品伊人久久久大香线蕉 | 国产全黄a一级毛片| 久久国产黑丝袜视频| 欧美亚洲第一页| 永久在线精品免费视频观看| JIZZ亚洲国产| www.91在线播放| 日本精品一在线观看视频| 在线中文字幕网| 不卡网亚洲无码| 欧美色综合网站| 精品人妻一区无码视频| 精品久久久久久久久久久| 99资源在线| 国产哺乳奶水91在线播放| 99国产精品一区二区| 99视频精品在线观看| 欧美日韩一区二区三区四区在线观看| 国产成人你懂的在线观看|