999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

應(yīng)用深層卷積神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志識(shí)別

2015-04-12 00:00:00黃琳張尤賽
現(xiàn)代電子技術(shù) 2015年13期

摘 要: 在實(shí)際交通環(huán)境中,由于運(yùn)動(dòng)模糊、 背景干擾、天氣條件以及拍攝視角等因素,所采集的交通標(biāo)志的圖像質(zhì)量往往不高,這就對(duì)交通標(biāo)志自動(dòng)識(shí)別的準(zhǔn)確性、魯棒性和實(shí)時(shí)性提出了很高的要求。針對(duì)這一情況,提出一種基于深層卷積神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志識(shí)別方法。該方法采用深層卷積神經(jīng)網(wǎng)絡(luò)的有監(jiān)督學(xué)習(xí)模型,直接將采集的交通標(biāo)志圖像經(jīng)二值化后作為輸入,通過卷積和池采樣的多層處理,來模擬人腦感知視覺信號(hào)的層次結(jié)構(gòu),自動(dòng)地提取交通標(biāo)志圖像的特征,最后再利用一個(gè)全連接的網(wǎng)絡(luò)實(shí)現(xiàn)交通標(biāo)志的識(shí)別。實(shí)驗(yàn)結(jié)果表明,該方法利用卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)能力,自動(dòng)地提取交通標(biāo)志的特征,避免了傳統(tǒng)的人工特征提取,有效地提高了交通標(biāo)志識(shí)別的效率,具有良好的泛化能力和適應(yīng)范圍。

關(guān)鍵詞: 交通標(biāo)志; 識(shí)別; 卷積神經(jīng)網(wǎng)絡(luò); 深度學(xué)習(xí)

中圖分類號(hào): TN911.73?34; TP391.41 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2015)13?0101?06

Abstract: In actual traffic circumstance, the image quality of collected traffic signs is worse due to motion blur, background disturbances, weather conditions, and shooting angle. The higher requirements are proposed for accuracy, robustness and in real?time of traffic signs auto?recognition. In this situation, the traffic signs recognition method based on deep?layer convolution neural network is presented. The method adopts supervised learning model of deep?layer convolution neural network. Taking the collected traffic sign images through binarization as the inputs. The inputs are conducted multilayer process of convolution and pooling?sampling, to simulate hierarchical structure of human brain perception visual signals, and extract the characteristics of the traffic sign images automatically. Traffic signs recognition is realized by using a full connected network. The experimental results show that the method can extract the characteristics of traffic signs automatically by using deep learning ability of the convolution neural network. The method has good generalization ability and adaptive range. By using this method, the traditional artificial feature extraction is avoided, and the efficiency of traffic signs recognition is improved effectively.

Keywords: traffic sign; recognition; convolution neural network; deep learning

0 引 言

隨著智能汽車的發(fā)展,道路交通標(biāo)志的自動(dòng)識(shí)別[1?3]作為智能汽車的基本技術(shù)之一,受到人們的高度關(guān)注。道路交通標(biāo)志識(shí)別主要包括兩個(gè)基本環(huán)節(jié):首先是交通標(biāo)志的檢測(cè),包括交通標(biāo)志的定位、提取及必要的預(yù)處理;其次是交通標(biāo)志的識(shí)別,包括交通標(biāo)志的特征提取和分類。

如今,交通標(biāo)志的識(shí)別方法大多數(shù)都采用人工智能技術(shù),主要有下述兩類形式[4]。一種是采用“人工特征+機(jī)器學(xué)習(xí)”的識(shí)別方法,如基于淺層神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)的特征識(shí)別等。在這種方法中,主要依靠先驗(yàn)知識(shí),人工設(shè)計(jì)特征,機(jī)器學(xué)習(xí)模型僅負(fù)責(zé)特征的分類或識(shí)別,因此特征設(shè)計(jì)的好壞直接影響到整個(gè)系統(tǒng)性能的性能,而要發(fā)現(xiàn)一個(gè)好的特征,則依賴于研究人員對(duì)待解決的問題的深入理解。另一種形式是近幾年發(fā)展起來的深度學(xué)習(xí)模型[5],如基于限制波爾茲曼機(jī)和基于自編碼器的深度學(xué)習(xí)模型以及卷積神經(jīng)網(wǎng)絡(luò)等。在這種方法中,無需構(gòu)造任何的人工特征,而是直接將圖像的像素作為輸入,通過構(gòu)建含有多個(gè)隱層的機(jī)器學(xué)習(xí)模型,模擬人腦認(rèn)知的多層結(jié)構(gòu),逐層地進(jìn)行信息特征抽取,最終形成更具推廣性和表達(dá)力的特征,從而提升識(shí)別的準(zhǔn)確性。

卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)模型之一,是一種多層的監(jiān)督學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),它利用一系列的卷積層、池化層以及一個(gè)全連接輸出層構(gòu)建一個(gè)多層的網(wǎng)絡(luò),來模仿人腦感知視覺信號(hào)的逐層處理機(jī)制,以實(shí)現(xiàn)視覺特征信號(hào)的自動(dòng)提取與識(shí)別。本文將深層卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于道路交通標(biāo)志的識(shí)別,通過構(gòu)建一個(gè)由二維卷積和池化處理交替組成的6層網(wǎng)絡(luò)來逐層地提取交通標(biāo)志圖像的特征,所形成的特征矢量由一個(gè)全連接輸出層來實(shí)現(xiàn)特征的分類和識(shí)別。實(shí)驗(yàn)中將加入高斯噪聲、經(jīng)過位移、縮放和旋轉(zhuǎn)處理的交通標(biāo)志圖像以及實(shí)際道路采集交通標(biāo)志圖像分別構(gòu)成訓(xùn)練集和測(cè)試集,實(shí)驗(yàn)結(jié)果表明,本文所采用的方法具有良好的識(shí)別率和魯棒性。

1 卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)及原理

1.1 深度學(xué)習(xí)

神經(jīng)科學(xué)研究表明,哺乳動(dòng)物大腦皮層對(duì)信號(hào)的處理沒有一個(gè)顯示的過程[5],而是通過信號(hào)在大腦皮層復(fù)雜的層次結(jié)構(gòu)中的遞進(jìn)傳播,逐層地對(duì)信號(hào)進(jìn)行提取和表述,最終達(dá)到感知世界的目的。這些研究成果促進(jìn)了深度學(xué)習(xí)這一新興研究領(lǐng)域的迅速發(fā)展。

深度學(xué)習(xí)[4,6?7]的目的就是試圖模仿人腦感知視覺信號(hào)的機(jī)制,通過構(gòu)建含有多個(gè)隱層的多層網(wǎng)絡(luò)來逐層地對(duì)信號(hào)特征進(jìn)行新的提取和空間變換,以自動(dòng)學(xué)習(xí)到更加有效的特征表述,最終實(shí)現(xiàn)視覺功能。目前深度學(xué)習(xí)已成功地應(yīng)用到語音識(shí)別、圖像識(shí)別和語言處理等領(lǐng)域。在不同學(xué)習(xí)框架下構(gòu)建的深度學(xué)習(xí)結(jié)構(gòu)是不同的,如卷積神經(jīng)網(wǎng)絡(luò)就是一種深度的監(jiān)督學(xué)習(xí)下的機(jī)器學(xué)習(xí)模型。

1.2 卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)及原理

卷積神經(jīng)網(wǎng)絡(luò)受視覺系統(tǒng)的結(jié)構(gòu)啟發(fā)而產(chǎn)生,第一個(gè)卷積神經(jīng)網(wǎng)絡(luò)計(jì)算模型是在Fukushima的神經(jīng)認(rèn)知機(jī)中提出的[8],基于神經(jīng)元之間的局部連接和分層組織圖像轉(zhuǎn)換,將有相同參數(shù)的神經(jīng)元應(yīng)用于前一層神經(jīng)網(wǎng)絡(luò)的不同位置,得到一種平移不變神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)形式。后來,LeCun等人在該思想的基礎(chǔ)上,用誤差梯度設(shè)計(jì)并訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)[9?10],在一些模式識(shí)別任務(wù)上得到優(yōu)越的性能。

卷積神經(jīng)網(wǎng)絡(luò)本質(zhì)上是一種有監(jiān)督的深度學(xué)習(xí)算法,無需事先知道輸入與輸出之間精確的數(shù)學(xué)表達(dá)式,只要用已知的模式對(duì)卷積神經(jīng)網(wǎng)絡(luò)加以訓(xùn)練,就可以學(xué)習(xí)到輸入與輸出之間的一種多層的非線性關(guān)系,這是非深度學(xué)習(xí)算法不能做到的。卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)是由一系列的卷積和池化層以及一個(gè)全連接的輸出層組成,可以采用梯度下降法極小化誤差函數(shù)對(duì)網(wǎng)絡(luò)中的權(quán)值和閾值參數(shù)逐層反向調(diào)節(jié),以得到網(wǎng)絡(luò)權(quán)值和閾值的最優(yōu)解,并可以通過增加迭代次數(shù)來提高網(wǎng)絡(luò)訓(xùn)練的精度。

1.2.1 前向傳播

在卷積神經(jīng)網(wǎng)絡(luò)的前向傳播中,輸入的原始圖像經(jīng)過逐層的卷積和池化處理后,提取出若干特征子圖并轉(zhuǎn)換成一維特征矢量,最后由全連接的輸出層進(jìn)行分類識(shí)別。

在卷積層中,每個(gè)卷積層都可以表示為對(duì)前一層輸入圖像的二維卷積和非線性激勵(lì)函數(shù),其表達(dá)式可用式(1)表示:

[Ylj=f i=1Ml-1Yl-1i?Wlij+blj] (1)

式中:[Ylj]是第l層中第[j]個(gè)卷積特征子圖的輸出;[Ml-1]是前一層([l-1]層)的輸出[Yl-1j]的總數(shù);[Wlij]是第[l]層中第[j]個(gè)卷積的權(quán)值;[blj]是第[l]層中第[j]個(gè)卷積的閾值;符號(hào)“*”表示二維卷積運(yùn)算;[f(?)]是非線性激勵(lì)函數(shù),其表達(dá)式如下:

[f(x)=11+e-x] (2)

式中:[x]是函數(shù)的輸入。對(duì)于一幅[Nl-1x*Nl-1y] 的輸入圖像[Yl-1i]和[Klx*Kly]的卷積權(quán)值[Wlij,]輸出[Ylj]的大小為[Nl-1x-Klx+1,Nl-1y-Kly+1。]

在池采樣層中,每個(gè)池采樣層通過一個(gè)非重疊的[kx×ky]矩形區(qū)對(duì)上一卷積層輸出的特征子圖進(jìn)行采樣(求矩形區(qū)內(nèi)像素的均值或最大值)。經(jīng)過池采樣后輸出的特征子圖在兩個(gè)維度上分別縮小[kx]和[ky]倍,其表達(dá)式為:

[Yl+1j=down(Ylj)] (3)

式中:[Yl+1j]表示第[l+1]層中第[j]個(gè)池采樣的輸出;[Ylj]是前一層(l層)的輸出特征子圖;down()實(shí)現(xiàn)對(duì)[Ylj]的池采樣。圖1給出了上述卷積和池采樣的示意圖。

在輸出層中,首先利用一個(gè)全連接層將輸入的特征子圖轉(zhuǎn)換為一個(gè)一維的特征矢量,然后再應(yīng)用一個(gè)BP神經(jīng)網(wǎng)絡(luò)完成特征矢量的分類識(shí)別。BP神經(jīng)網(wǎng)絡(luò)輸出層的每一個(gè)神經(jīng)元的輸出值對(duì)應(yīng)于輸入圖像所屬不同交通標(biāo)志圖像的概率,表達(dá)式為:

[Yj=fi=1nWij×Yl+1i+bj] (4)

式中:[Yj]表示輸出層中第[j]個(gè)輸出;[Yl+1i]是前一層([l+1]層)的輸出特征(全連接的特征向量);[n]是輸出特征向量的長(zhǎng)度;[Wij]表示輸出層的權(quán)值,連接輸入[i]和輸出[j];[bj]表示輸出層第[j]個(gè)輸出的閾值;[f(?)]是輸出層的非線性激活函數(shù)。

對(duì)于一個(gè)有[C]種不同的交通標(biāo)志和共計(jì)[N]個(gè)樣本的情況,整個(gè)網(wǎng)絡(luò)的誤差平方代價(jià)函數(shù)[11]為:

[EN=12n=1Nk=1Ctnk-ynk2=12n=1NTn-Yn2] (5)

式中:[T=[t1, t2, …, tC]]為網(wǎng)絡(luò)的理想輸出目標(biāo)矢量;[Y=[y1, y2, …, yC]]為網(wǎng)絡(luò)的實(shí)際輸出矢量;[tk=0,1,][yk∈[0,1],][k=1,2,…,C。]

當(dāng)只考慮第[n]個(gè)單個(gè)樣本時(shí),網(wǎng)絡(luò)的誤差平方代價(jià)函數(shù)可以表示為:

[En=12k=1Ctnk-ynk2=12Tn-Yn2] (6)

1.2.2 反向傳播

在反向傳播過程中,卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法采用類似于BP神經(jīng)網(wǎng)絡(luò)的梯度最速下降法,即按極小化誤差的方法反向傳播調(diào)整權(quán)值和閾值。網(wǎng)絡(luò)反向傳播回來的誤差是每個(gè)神經(jīng)元的基的靈敏度[12],也就是誤差對(duì)基的變化率,即導(dǎo)數(shù)。下面將分別求出輸出層、池采樣層和卷積層的神經(jīng)元的靈敏度。

(1) 輸出層的靈敏度

對(duì)于誤差函數(shù)式(6)來說,輸出層神經(jīng)元的靈敏度可表示為:

[δ=-fu×T-Y] (7)

[u=W×Yl+1+b] (8)

式中:[T]表示目標(biāo)輸出;[Y]表示網(wǎng)絡(luò)的實(shí)際輸出;[Yl+1]表示上一層(池采樣層)的輸出;[W,b]分別是輸出層的權(quán)值和閾值。那么輸出層的權(quán)值和閾值的導(dǎo)數(shù)為:

[?E?W=Yl+1×δT] (9)

[?E?b=δ] (10)

(2) 池采樣層的靈敏度

池采樣層沒有權(quán)值和閾值,所以不存在權(quán)值和閾值的導(dǎo)數(shù),只需要求出該層的靈敏度。

① 若池采樣層的下一層為全連接的輸出層,那么池采樣層的靈敏度為:

[δl+1i=WijTδj] (11)

式中:[δil+1]表示輸出層的第[j]個(gè)靈敏度;[Wij]表示輸出層的權(quán)值。

② 若池采樣層的下一層是卷積層,那么假設(shè)第[l+1]層為池采樣層,第[l+2]層為卷積層,且卷積層的靈敏度為[δl,]有[M]個(gè)特征圖。第[l+1]層中的每個(gè)特征的靈敏度等于第[l+2]層所有特征核的貢獻(xiàn)之和,那么池采樣層的靈敏度為:

[δl+1i=j=1Mδl+2j?Wl+2ij] (12)

式中:“[?]”表示卷積;[δil]表示第[l]層第[i]個(gè)特征映射的靈敏度;[δjl+1]表示第[l+1]層第[j]個(gè)特征映射的靈敏度;[Wl+1ij]表示第[l+1]層的權(quán)值,連接第[i]個(gè)特征靈敏度與第[j]個(gè)特征靈敏度。

(3) 卷積層的靈敏度

假設(shè)第[l]層為卷積層,第[l+1]層為池采樣層,且池采樣層的靈敏度為[δl+1,]那么卷積層的靈敏度為:

[δlj=up((δl+1j))] (13)

[up(δl+1j)≡δl+1j?1kx×ky] (14)

式中:up(·)表示池采樣第[l+1]層的靈敏度特征映射;[δjl]表示第[l]層第[j]個(gè)特征映射的靈敏度;[δjl+1]表示第[l+1]層第[j]個(gè)特征映射的靈敏度;[kx×ky]表示采樣池的大小。

現(xiàn)在對(duì)于一個(gè)給定的特征映射,就可以計(jì)算出卷積層的權(quán)值和閾值的導(dǎo)數(shù):

[?E?Wlij=u,v(δlj)uv(Yl-1i)uv] (15)

[?E?blj=u,v(δlj)u,v] (16)

式中:[Yl-1i]是第[l-1]層與權(quán)值[Wlij]作卷積的特征映射;輸出卷積映射的[(u,v)]位置的值是由第[l-1]層的[(u,v)]位置的特征映射與權(quán)值[Wlij]卷積的結(jié)果。

1.3 網(wǎng)絡(luò)權(quán)值和閾值的調(diào)整

所有層的權(quán)值和閾值的導(dǎo)數(shù)都可以用上述方法求得,然后再依據(jù)梯度下降法[13]調(diào)整權(quán)值和閾值,如下:

[ΔWijk+1=ηΔWijk+α(1-η)?E?Wijk] (17)

[Wijk+1=Wijk+ΔWij(k+1)] (18)

[Δbjk+1=ηΔbjk+α(1-η)?E?bjk] (19)

[bjk+1=bjk+Δbj(k+1)] (20)

其中:[k]表示迭代次數(shù);[ΔWij,][Δbj]分別表示權(quán)值和閾值的調(diào)整值;[Wij,][bj]分別表示權(quán)值和閾值調(diào)整后的值;[α]為學(xué)習(xí)效率;[η]為動(dòng)量因子。

在前向傳播過程中,得到網(wǎng)絡(luò)的實(shí)際輸出,進(jìn)而求出實(shí)際輸出與目標(biāo)輸出之間的誤差;在反向傳播過程中,利用誤差反向傳播,采用式(17)~式(20)來調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,極小化誤差;這樣,前向傳播和反向傳播兩個(gè)過程反復(fù)交替,直到達(dá)到收斂的要求為止。

2 深層卷積神經(jīng)網(wǎng)絡(luò)的交通標(biāo)志識(shí)別方法

2.1 應(yīng)用原理

交通標(biāo)志是一種人為設(shè)計(jì)的具有特殊顏色(如紅、黃、白、藍(lán)、黑等)和特殊形狀或圖形的公共標(biāo)志。我國的交通標(biāo)志主要有警告、禁令、指示和指路等類型,一般采用顏色來區(qū)分不同的類型,用形狀或圖形來標(biāo)示具體的信息。從交通標(biāo)志設(shè)計(jì)的角度來看,屬于不同類型(不同顏色)的交通標(biāo)志在形狀或圖形上有較大的差異;屬于相同類型(相同顏色)的標(biāo)志中同類的指示信息標(biāo)志在形狀或圖形上比較接近,如警告標(biāo)志中的平面交叉路口標(biāo)志等。因此,從機(jī)器視覺的角度來分析,同類型中同類指示信息的標(biāo)志之間會(huì)比不同類型的標(biāo)志之間更易引起識(shí)別錯(cuò)誤。換句話說,相比于顏色,形狀或圖形是正確識(shí)別交通標(biāo)志的關(guān)鍵因素。

因此,在應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)識(shí)別交通標(biāo)志時(shí),從提高算法效率和降低錯(cuò)誤率綜合考慮,將交通標(biāo)志轉(zhuǎn)換為灰度圖像并作二值化處理后作為卷積神經(jīng)網(wǎng)絡(luò)的輸入圖像信息。圖2給出了應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)識(shí)別交通標(biāo)志的原理圖。該網(wǎng)絡(luò)采用了6層交替的卷積層和池采樣層來逐層提取交通標(biāo)志的特征,形成的特征矢量由一個(gè)全連接的輸出層進(jìn)行識(shí)別。圖中:[W1i](i=1,2,…,m1),W1j(j=1,2,…,m2),…,[W1k](k=1,2,…,m(n?1))分別表示卷積層[L1,L3,…,Ln-1]的卷積核;Input表示輸入的交通標(biāo)志圖像;Pool表示每個(gè)池采樣層的采樣池;map表示逐層提取的特征子圖;[Y]是最終的全連接輸出。

交通標(biāo)志識(shí)別的判別準(zhǔn)則為:對(duì)于輸入交通標(biāo)志圖像Input,網(wǎng)絡(luò)的輸出矢量[Y=[y1,y2,…,yC],]有[yj=Max{y1,][y2,…,yC},]則[Input∈j,]即判定輸入的交通標(biāo)志圖像Input為第[j]類交通標(biāo)志。

2.2 交通標(biāo)志識(shí)別的基本步驟

深層神經(jīng)網(wǎng)絡(luò)識(shí)別交通標(biāo)志主要包括交通標(biāo)志的訓(xùn)練與識(shí)別,所以將交通標(biāo)志識(shí)別歸納為以下4個(gè)步驟:

(1) 圖像預(yù)處理:利用公式Gray=[0.299R+][0.587G+0.114B]將彩色交通標(biāo)志圖像轉(zhuǎn)換為灰度圖像,再利用鄰近插值法將交通標(biāo)志圖像規(guī)格化,最后利用最大類間方差將交通標(biāo)志圖像二值化。

(2) 網(wǎng)絡(luò)權(quán)值和閾值的初始化:利用隨機(jī)分布函數(shù)將權(quán)值[W]初始化為-1~1之間的隨機(jī)數(shù);而將閾值[b]初始化為0。

(3) 網(wǎng)絡(luò)的訓(xùn)練:利用經(jīng)過預(yù)處理的交通標(biāo)志圖像構(gòu)成訓(xùn)練集,對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,通過網(wǎng)絡(luò)前向傳播和反向傳播的反復(fù)交替處理,直到滿足識(shí)別收斂條件或達(dá)到要求的訓(xùn)練次數(shù)為止。

(4) 交通標(biāo)志的識(shí)別:將實(shí)際采集的交通標(biāo)志圖像經(jīng)過預(yù)處理后,送入訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行交通標(biāo)志特征的提取,然后通過一個(gè)全連接的網(wǎng)絡(luò)進(jìn)行特征分類與識(shí)別,得到識(shí)別結(jié)果。

3 實(shí)驗(yàn)結(jié)果與分析

實(shí)驗(yàn)主要選取了我國道路交通標(biāo)志的警告標(biāo)志、指示標(biāo)志和禁令標(biāo)志三類中較常見的50幅圖像。考慮到在實(shí)際道路中采集到的交通標(biāo)志圖像會(huì)含有噪聲和出現(xiàn)幾何失真以及背景干擾等現(xiàn)象,因此在構(gòu)造網(wǎng)絡(luò)訓(xùn)練集時(shí),除了理想的交通標(biāo)志以外,還增加了加入高斯噪聲、經(jīng)過位移、旋轉(zhuǎn)和縮放處理和實(shí)際采集到的交通標(biāo)志圖像,因此最終的訓(xùn)練樣本為72個(gè)。其中,加入的高斯噪聲為均值為0,方差分別為0.1,0.2,0.3,圖像的位移、旋轉(zhuǎn)、縮放的參數(shù)分別隨機(jī)的分布在±10,±5°,0.9~1.1的范圍內(nèi)。圖3給出了訓(xùn)練集中的交通標(biāo)志圖像的示例。圖4是在實(shí)際道路中采集的交通標(biāo)志圖像構(gòu)成的測(cè)試集的示例。

在實(shí)驗(yàn)中構(gòu)造了一個(gè)輸入為48×48個(gè)神經(jīng)元、輸出為50個(gè)神經(jīng)元的9層網(wǎng)絡(luò)。網(wǎng)絡(luò)的輸入是像素為[48×48]的規(guī)格化的交通標(biāo)志圖像,輸出對(duì)應(yīng)于上述的50種交通標(biāo)志的判別結(jié)果。網(wǎng)絡(luò)的激活函數(shù)采用S型函數(shù),如式(2)所示,其輸出范圍限制在0~1之間。

表1給出網(wǎng)絡(luò)的結(jié)構(gòu)參數(shù),包括每一層的特征數(shù)、神經(jīng)元數(shù)、卷積核尺寸和均值采樣尺寸等。

圖5給出一幅交通標(biāo)志圖像在卷積層和均值采樣層的特征子圖的示例。

圖6是交通標(biāo)志的訓(xùn)練總誤差[EN]曲線。在訓(xùn)練開始的1 500次,誤差能迅速地下降,在迭代2 000次以后是一個(gè)平穩(wěn)的收斂過程,當(dāng)?shù)?0萬次時(shí),總誤差[EN]可以達(dá)到0.188 2。

在交通標(biāo)志的測(cè)試實(shí)驗(yàn)中,為了全面檢驗(yàn)卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別性能,分別針對(duì)理想的交通標(biāo)志,加入高斯噪聲、經(jīng)過位移、旋轉(zhuǎn)和比例縮放以及采集的交通標(biāo)志圖像進(jìn)行實(shí)驗(yàn),將以上測(cè)試樣本分別送入到網(wǎng)絡(luò)中識(shí)別,表2給出了測(cè)試實(shí)驗(yàn)結(jié)果。

綜合分析上述實(shí)驗(yàn)結(jié)果,可以得到以下結(jié)論:

(1) 在卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練學(xué)習(xí)過程中,整個(gè)網(wǎng)絡(luò)的誤差曲線快速平穩(wěn)的下降,體現(xiàn)出卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練學(xué)習(xí)具有良好的收斂性。

(2) 經(jīng)逐層卷積和池采樣所提取的特征具有比例縮放和旋轉(zhuǎn)不變性,因此對(duì)于旋轉(zhuǎn)和比例縮放后的交通標(biāo)志能達(dá)到100%的識(shí)別率。

(3) 與傳統(tǒng)的BP網(wǎng)絡(luò)識(shí)別方法[11]相比較,卷積神經(jīng)網(wǎng)絡(luò)能夠達(dá)到更深的學(xué)習(xí)深度,即在交通標(biāo)志識(shí)別時(shí)能夠得到更高的所屬類別概率(更接近于1),識(shí)別效果更好。

(4) 卷積神經(jīng)網(wǎng)絡(luò)對(duì)實(shí)際采集的交通標(biāo)志圖像的識(shí)別率尚不能達(dá)到令人滿意的結(jié)果,主要原因是實(shí)際道路中采集的交通標(biāo)志圖像中存在著較嚴(yán)重的背景干擾,解決的辦法是增加實(shí)際采集的交通標(biāo)志訓(xùn)練樣本數(shù),通過網(wǎng)絡(luò)的深度學(xué)習(xí),提高網(wǎng)絡(luò)的識(shí)別率和魯棒性。

4 結(jié) 論

本文將深層卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于道路交通標(biāo)志的識(shí)別,利用卷積神經(jīng)網(wǎng)絡(luò)的深層結(jié)構(gòu)來模仿人腦感知視覺信號(hào)的機(jī)制,自動(dòng)地提取交通標(biāo)志圖像的視覺特征并進(jìn)行分類識(shí)別。實(shí)驗(yàn)表明,應(yīng)用深層卷積神經(jīng)網(wǎng)絡(luò)識(shí)別交通標(biāo)志取得了良好的識(shí)別效果。

在具體實(shí)現(xiàn)中,從我國交通標(biāo)志的設(shè)計(jì)特點(diǎn)考慮,本文將經(jīng)過預(yù)處理二值化的圖像作為網(wǎng)絡(luò)的輸入,主要是利用了交通標(biāo)志的形狀信息,而基本略去了顏色信息,其優(yōu)點(diǎn)是在保證識(shí)別率的基礎(chǔ)上,可以簡(jiǎn)化網(wǎng)絡(luò)的結(jié)構(gòu),降低網(wǎng)絡(luò)的計(jì)算量。在實(shí)際道路交通標(biāo)志識(shí)別中,將形狀信息和顏色信息相結(jié)合,以進(jìn)一步提高識(shí)別率和對(duì)道路環(huán)境的魯棒性,是值得進(jìn)一步研究的內(nèi)容。此外,本文的研究沒有涉及到道路交通標(biāo)志的動(dòng)態(tài)檢測(cè),這也是今后可以進(jìn)一步研究的內(nèi)容。

參考文獻(xiàn)

[1] 劉平華,李建民,胡曉林,等.動(dòng)態(tài)場(chǎng)景下的交通標(biāo)識(shí)檢測(cè)與識(shí)別研究進(jìn)展[J].中國圖象圖形學(xué)報(bào),2013,18(5):493?503.

[2] SAHA S K, DULAL C M, BHUIYAN A A. Neural network based sign recognition [J]. International Journal of Computer Application, 2012, 50(10): 35?41.

[3] STALLKAMP J, SCHLIOSING M, SALMENA J, et al. Man vs. computer: benchmarking machine learning algorithms for traffic sign recognition [J]. Neural Network, 2012, 32(2): 323?332.

[4] 中國計(jì)算機(jī)學(xué)會(huì).深度學(xué)習(xí):推進(jìn)人工智能夢(mèng)想[EB/OL].[2013?06?10].http://www.ccg.org.cn.

[5] 鄭胤,陳權(quán)崎,章毓晉.深度學(xué)習(xí)及其在目標(biāo)和行為識(shí)別中的新進(jìn)展[J].中國圖象圖形學(xué)報(bào),2014,19(2):175?184.

[6] FUKUSHIMA K. Neocognition: a self?organizing neural network model for a mechanism of pattern recognition unaffected by shift in position [J]. Biological Cybernetics, 1980, 36(4):193?202.

[7] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient?based learning applied to document recognition [J]. IEEE Journal and Magazines, 1989, 86(11): 2278?2324.

[8] LECUN Y, BOTTOU L, BENGIO Y, et al. Backpropagation applied to handwritten zip code recognition [J]. Neural Computation, 1989, 1(4) : 541?551.

[9] CIRESAN D, MEIER U, MASCI J, et al. Multi?column deep neural network for traffic sign classification [J]. Neural Networks, 2012, 32(2): 333?338.

[10] NAGI J, DUCATELLE F, CARO D, et al. Max?pooling convolution neural network for vision?based hand gesture recognition [C]// 2011 IEEE International Conference on Signal and Image Processing Application. Kuala Lumpur: IEEE, 2011, 342?347.

[11] 楊斐,王坤明,馬欣,等.應(yīng)用BP神經(jīng)網(wǎng)絡(luò)分類器識(shí)別交通標(biāo)志[J].計(jì)算機(jī)工程,2003,29(10):120?121.

[12] BUVRIE J. Notes on convolutional neural networks [EB/OL]. [2006?11?12]. http://cogprints.org/5869/.

[13] 周開利,康耀紅.神經(jīng)網(wǎng)絡(luò)模型及其Matlab仿真設(shè)計(jì)[M].北京:清華大學(xué)出版社,2005.

[14] 孫志軍,薛磊,許陽明,等.深度學(xué)習(xí)研究綜述[J].計(jì)算機(jī)應(yīng)用研究,2012,29(8):2806?2810.

[15] 劉建偉,劉媛,羅雄麟.深度學(xué)習(xí)研究進(jìn)展[J].計(jì)算機(jī)應(yīng)用研究,2014(7):1921?1930.

主站蜘蛛池模板: 67194亚洲无码| 久久综合色视频| 美女裸体18禁网站| 中国精品自拍| 欧美在线视频不卡| 精品99在线观看| 国产SUV精品一区二区| 亚洲最大福利视频网| 中文字幕在线观| 亚卅精品无码久久毛片乌克兰| 久久综合色天堂av| 亚洲Va中文字幕久久一区| 国产激情无码一区二区APP| 精品国产美女福到在线不卡f| 99999久久久久久亚洲| 久久精品国产亚洲AV忘忧草18| 国产精品久久精品| 91久久偷偷做嫩草影院精品| 国产三级国产精品国产普男人| 亚洲AV电影不卡在线观看| 久草性视频| 亚洲天堂首页| 国产jizz| 91青青视频| 免费人欧美成又黄又爽的视频| 成人自拍视频在线观看| 九九热视频精品在线| 欧美视频在线播放观看免费福利资源| 国产精品99久久久久久董美香 | 丰满人妻被猛烈进入无码| 日韩成人免费网站| 精品少妇人妻一区二区| 亚洲最新地址| 片在线无码观看| 国内丰满少妇猛烈精品播| 99re经典视频在线| 免费国产高清精品一区在线| 91免费精品国偷自产在线在线| 午夜啪啪福利| 国产精品第一区在线观看| 国产美女久久久久不卡| 国产色偷丝袜婷婷无码麻豆制服| 国产在线观看人成激情视频| 欧美中出一区二区| 久久国产精品影院| 国产小视频a在线观看| 国产精品自在线天天看片| 亚洲毛片一级带毛片基地| 国产美女无遮挡免费视频| 呦女精品网站| 精品成人免费自拍视频| 国产欧美日韩精品综合在线| 九色视频最新网址| 欧美日韩动态图| 亚洲无线国产观看| 婷婷亚洲视频| 亚洲精品欧美重口| 91久久偷偷做嫩草影院免费看| 精品视频一区二区观看| 黄色网在线| 日韩av高清无码一区二区三区| 91亚洲免费| 亚洲欧美国产视频| 久久天天躁狠狠躁夜夜2020一| 91无码国产视频| 亚洲精品人成网线在线| 成人午夜视频免费看欧美| 色九九视频| 亚洲无限乱码一二三四区| 国产白浆视频| 99久久精品美女高潮喷水| 91在线无码精品秘九色APP| 亚洲二三区| 91精品啪在线观看国产| 国产在线观看高清不卡| 91色综合综合热五月激情| 尤物特级无码毛片免费| 刘亦菲一区二区在线观看| 亚洲国产欧美目韩成人综合| 五月综合色婷婷| 人妻免费无码不卡视频| 99资源在线|