999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)的霧圖能見度識別

2020-05-20 01:19:24苗開超周建平劉承曉姚葉青
關(guān)鍵詞:分類實(shí)驗(yàn)模型

苗開超,周建平,陶 鵬,劉承曉,姚葉青

1.安徽省公共氣象服務(wù)中心,合肥 230031

2.安徽繼遠(yuǎn)軟件有限公司,合肥 230088

1 引言

霧是一種常見的災(zāi)害性天氣現(xiàn)象,在大霧水汽的作用下,使地面水平能見度大大降低,嚴(yán)重危害道路交通安全。因此,提高大霧天氣能見度監(jiān)測準(zhǔn)確性是加強(qiáng)道路交通安全[1]管控水平的重要內(nèi)容。目前,交管部門主要通過布設(shè)能見度儀對道路大霧等級進(jìn)行監(jiān)測,這種監(jiān)測手段對道路交通安全管控起到了重要作用,然而能見度儀布設(shè)成本高,間距較遠(yuǎn),對局地大霧或團(tuán)霧的監(jiān)測具有較大的局限性。

近年來,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[2-5]和深度學(xué)習(xí)技術(shù)在大氣科學(xué)領(lǐng)域得到了廣泛的應(yīng)用[6-7]。Narasimhan 等人[8]通過建立點(diǎn)光源傳輸公式,獲取散射粒子條件,計(jì)算能見度,但這種方法檢測范圍較為有限。Gallen等人[9]通過光源亮度計(jì)算大氣消光系數(shù),進(jìn)而計(jì)算能見度,這種方法側(cè)重理論論述,未結(jié)合實(shí)際應(yīng)用情況進(jìn)行實(shí)驗(yàn)結(jié)果分析。戴龐達(dá)等人[10]提出了一種消除光源波動的雙光源能見度計(jì)算方法,該方法分析多次散射條件下光源圖像亮度與大氣消光系數(shù)之間的關(guān)系,建立目標(biāo)亮度特征與能見度反演的關(guān)系模型。夏創(chuàng)文[11]提出了一種基于視頻的大霧級別檢測方法,該方法利用梯度計(jì)算和距離變換來區(qū)分并分割天空與真實(shí)霧區(qū),并以霧區(qū)HSV 顏色空間的統(tǒng)計(jì)直方圖為顏色特征向量,通過SVM(Support Vector Machine)算法實(shí)現(xiàn)大霧等級分類。該研究對場景有較大依賴,模型難以推廣應(yīng)用。

本文基于安徽省高速公路不同場景、不同時段監(jiān)控視頻圖像數(shù)據(jù),提出一種基于自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)算法,通過將ResNet[12-14]、VGG19遷移到樣本上學(xué)習(xí)[15-18],解決樣本量少帶來過擬合問題,并通過建立參數(shù)自適應(yīng)調(diào)整模塊,根據(jù)訓(xùn)練周期數(shù)和訓(xùn)練結(jié)果誤差,調(diào)整權(quán)值參數(shù),對相應(yīng)特征進(jìn)行針對性訓(xùn)練,從而提高模型訓(xùn)練的收斂速度和識別精度。實(shí)驗(yàn)表明,本文提出的自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)對霧圖能見度有較高的識別能力,用于補(bǔ)充氣象、交管、交通等部門對道路能見度的自動化輔助觀測。

2 數(shù)據(jù)來源及預(yù)處理

2.1 數(shù)據(jù)來源

本文所用數(shù)據(jù)來源于安徽省高速公路200 個監(jiān)控攝像頭白天(6:00—18:00)采集的圖像數(shù)據(jù),及相應(yīng)攝像頭附近200 m 內(nèi)的能見度儀監(jiān)測數(shù)據(jù)。圖像數(shù)據(jù)包括2017年10月至2019年1月安徽省高速公路視頻監(jiān)控截圖,共計(jì)約9.2 萬張,剔除其中模糊、拍攝角度過低或過高的圖像數(shù)據(jù),保留有效圖像樣本約4.5 萬張。根據(jù)能見度儀監(jiān)測數(shù)據(jù)將樣本數(shù)據(jù)進(jìn)行分類標(biāo)注,其中無霧樣本34 090張(能見度1 000 m以上)、輕霧樣本16 506張(能見度500~1 000 m)、大霧樣本14 086張(能見度200~500 m)、濃霧15 931張(能見度50~200 m)、強(qiáng)濃霧11 402張(能見度50 m以下)。五種能見度等級霧圖如圖1所示,樣本標(biāo)注結(jié)果具體分布情況如表1所示。

表1 霧圖像采集信息表

圖1 不同霧能見度等級樣本

2.2 遷移學(xué)習(xí)

為防止過擬合,卷積神經(jīng)網(wǎng)絡(luò)需要大規(guī)模訓(xùn)練樣本。由于本文實(shí)驗(yàn)采集的樣本量較少,為防止出現(xiàn)過擬合現(xiàn)象,本文采用遷移學(xué)習(xí)的方法。

其次遷移學(xué)習(xí)模型可以獲得優(yōu)化的初始參數(shù),從而加快訓(xùn)練的速度,提高模型的識別率和泛化能力。本文使用ImageNet 上預(yù)訓(xùn)練好的VGG19 和ResNet 作為預(yù)訓(xùn)練模型,遷移到本文實(shí)驗(yàn)樣本集上進(jìn)行調(diào)整訓(xùn)練。

3 自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)模型構(gòu)建

深層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,具有大量的參數(shù),會消耗過多的計(jì)算資源和存儲資源。為此,在大霧能見度識別的實(shí)際應(yīng)用中,需要設(shè)計(jì)能同時保證識別精度和識別速度的網(wǎng)絡(luò)結(jié)構(gòu)。本文構(gòu)造了自適應(yīng)混合神經(jīng)網(wǎng)絡(luò),實(shí)現(xiàn)霧的等級自動識別分類。通過建立自適應(yīng)模塊對預(yù)訓(xùn)練模型權(quán)值和偏置自適應(yīng)更新,調(diào)整權(quán)值參數(shù),優(yōu)化網(wǎng)絡(luò);然后構(gòu)建自定義網(wǎng)絡(luò)層進(jìn)行進(jìn)一步的訓(xùn)練;最后網(wǎng)絡(luò)輸出層采用SVM[19]多分類。對結(jié)果進(jìn)行分析,算法流程如圖2所示。

圖2 算法流程

3.1 自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)算法實(shí)現(xiàn)

卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)反向傳播分類誤差過程中,由于沒有對分類結(jié)果進(jìn)行明確分析,無論識別正誤,將所有分類誤差進(jìn)行無差別反饋,無法實(shí)現(xiàn)參數(shù)的有效調(diào)整。自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)[20]算法旨在解決不同識別結(jié)果和迭代次數(shù)下分類特征自適應(yīng)增強(qiáng)問題,以實(shí)現(xiàn)網(wǎng)絡(luò)的加速收斂和提高識別率。

本文構(gòu)造的自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。其中forward process為前向傳播過程,包括Pretraining model、Feature extraction layer、Connection layer 和 Output layer。Pretraining model 使用了 ResNet 和 VGG19混合預(yù)訓(xùn)練模型;Feature extraction layer定義了多個卷積和池化操作,實(shí)現(xiàn)圖像特征提取;Connection layer 與SVM 分類器相連接實(shí)現(xiàn)圖像分類;Output layer 為輸出層,其中增加了自適應(yīng)增強(qiáng)模塊。reverse process為殘差的反向傳播過程,根據(jù)自適應(yīng)增強(qiáng)模塊分析結(jié)果,實(shí)現(xiàn)反向傳播過程中權(quán)值自適應(yīng)調(diào)整。輸入數(shù)據(jù)經(jīng)前向過程后得到分類結(jié)果,其中每個分類值對應(yīng)唯一類別,且最大值對應(yīng)的類被識別為輸入Input 的所屬類別,而輸入數(shù)據(jù)實(shí)際所屬的類別稱為真值類別;分類真值為訓(xùn)練監(jiān)督數(shù)據(jù),存儲輸入數(shù)據(jù)對應(yīng)的真實(shí)分類結(jié)果,其中真值類別對應(yīng)的值為1,其余類別對應(yīng)的值為0;分類誤差由分類結(jié)果與分類真值生成。

圖3 自適應(yīng)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

表2 網(wǎng)絡(luò)層結(jié)構(gòu)參數(shù)

如圖3 所示,前向過程將圖像歸一化為224×224 大小,輸入到ResNet和VGG19預(yù)訓(xùn)練模型,并利用6個5×5的卷積核進(jìn)行濾波后,得到特征映射成C1,它由6 個大小為24×24的最大值下采樣后得到S1層,在S1層上,繼續(xù)使用32個5×5的卷積核對其進(jìn)行卷積,得到輸出的特征圖 C2,它由 6 個 12×12 的特征圖組成;在 S2 層后,生成全連接層1×256一維向量,該層由84個神經(jīng)元構(gòu)成隱層,隱層通過線性關(guān)系連接output層,由5個取值為0或1的節(jié)點(diǎn)構(gòu)成,節(jié)點(diǎn)即為待預(yù)估的能見度等級的分類標(biāo)簽。根據(jù)分類標(biāo)簽和真值進(jìn)行對比分析后,增強(qiáng)錯誤分類樣本的權(quán)值系數(shù),再反向傳播,以更新預(yù)訓(xùn)練模型權(quán)值,自適應(yīng)調(diào)整網(wǎng)絡(luò)層的權(quán)值。自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)描述如表2所示。

以G3 京臺高速831 km 處的一張輕霧圖像為例。在網(wǎng)絡(luò)層的各階段過程輸入圖像,通過卷積層后得到的卷積結(jié)果如圖4所示。

卷積神經(jīng)網(wǎng)絡(luò)使用誤差函數(shù)E(ε,b)[21]來衡量隱層中各項(xiàng)參數(shù)對輸入圖像的訓(xùn)練效果。通過在迭代訓(xùn)練過程中降低誤差函數(shù)的輸出,從而使分類結(jié)果kω盡可能接近分類真值k^ω,當(dāng)相鄰兩次學(xué)習(xí)的誤差小于既定閾值時,則認(rèn)為網(wǎng)絡(luò)訓(xùn)練處于收斂狀態(tài),學(xué)習(xí)完成。對于一個n分類問題,定義其目標(biāo)誤差函數(shù)為:

圖4 輸入圖像在混合卷積神經(jīng)網(wǎng)絡(luò)各卷積層的圖像

其中,inaccω為第ω類的分類結(jié)果與真值的誤差。

根據(jù)梯度下降法,權(quán)值和偏置的變化量表達(dá)式為:

其中,d為殘差,x為輸入特征圖中的值,f′為對激活函數(shù)f進(jìn)行求導(dǎo)。

本文提出自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò),在CNN[22]的前向與反向過程之間增加自適應(yīng)增強(qiáng)模塊,根據(jù)迭代次數(shù)和分類結(jié)果誤差分析,自適應(yīng)地調(diào)整隱層權(quán)值及偏置幅度。通過反向過程將增強(qiáng)后的殘差反饋到隱層參數(shù)中,實(shí)現(xiàn)卷積核與全連接層中的權(quán)值與偏置的自適應(yīng)更新,從而提升下一周期模型訓(xùn)練分類效果。

3.2 自適應(yīng)模塊構(gòu)建步驟

自適應(yīng)模塊構(gòu)建步驟如下:

(1)分類誤差計(jì)算。自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)通過前向過程得到分類結(jié)果,將分類結(jié)果與分類真值進(jìn)行比較,計(jì)算得出分類誤差,計(jì)算方式如式(1)所示。

(2)確定自適應(yīng)調(diào)整系數(shù)。根據(jù)迭代次數(shù)和前向過程的識別結(jié)果確定調(diào)整系數(shù)。調(diào)整系數(shù)μ的基本計(jì)算表達(dá)式為:

(3)將與分類結(jié)果特征對應(yīng)的誤差值進(jìn)行自適應(yīng)調(diào)整,則第ω分類增強(qiáng)誤差計(jì)算表達(dá)式為:

(4)計(jì)算殘差。將式(6)計(jì)算的誤差帶入式(4),計(jì)算調(diào)整后的殘差。

(5)將調(diào)整后的殘差反饋到隱層。隱層中權(quán)值與偏置更新計(jì)算方法如式(2)、(3)所示。

(6)權(quán)值更新。通過反向過程對增強(qiáng)后的隱層權(quán)值與偏置進(jìn)行更新。

3.3 自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)算法分析

3.3.1 算法收斂性

卷積神經(jīng)網(wǎng)絡(luò)分類過程如下:通過池化操作將卷積層輸出的特征進(jìn)一步降維,并輸入到全連接層。全連接層經(jīng)過權(quán)值變換與激活得到分類結(jié)果。分類表達(dá)式如式(7)所示:

即有:

其中,F(xiàn)r是分類結(jié)果,f是激活函數(shù),W是權(quán)值矩陣,T為特征矩陣,C為偏移量。

因此根據(jù)式(8)可知,傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)與本文提出的混合神經(jīng)網(wǎng)絡(luò)的第i類分類計(jì)算表達(dá)式如式(9)所示:

由于傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)不對分類結(jié)果進(jìn)行詳細(xì)分析[23],無論識別正確與否,都無差別地返回各個類別的分類誤差,因此傳統(tǒng)神經(jīng)網(wǎng)絡(luò)下一次迭代訓(xùn)練分類過程表達(dá)式如式(10)所示。而本文提出的算法會根據(jù)分類結(jié)果調(diào)整下一次訓(xùn)練的權(quán)值和參數(shù),其權(quán)值和參數(shù)調(diào)整方式如式(9)所示,因此混合卷積神經(jīng)網(wǎng)絡(luò)下一次迭代訓(xùn)練過程表達(dá)式如式(11)所示。

其中,μ1、μ2為參數(shù)調(diào)整系數(shù),其計(jì)算方式如式(5)所示。

傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中無論識別正確與否,都無差別地返回各個類別的分類誤差,反饋的參數(shù)修正量較小,從而無法有效地擴(kuò)大參數(shù)修正,降低了網(wǎng)絡(luò)訓(xùn)練收斂速度。混合卷積神經(jīng)網(wǎng)絡(luò)詳細(xì)地分析了分類結(jié)果與真值之間的誤差,根據(jù)誤差計(jì)算參數(shù)調(diào)整系數(shù)μ1、μ2,自適應(yīng)地調(diào)整參數(shù)的修正量,從而提高網(wǎng)絡(luò)收斂速度。

3.3.2 算法復(fù)雜度

本文提出的自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)有兩方面改進(jìn):一是在前向過程增加預(yù)訓(xùn)練模型;二是在前向過程與反向過程之間增加了誤差自適應(yīng)調(diào)整計(jì)算。因此本文主要從這兩方面對算法的復(fù)雜度進(jìn)行分析。

首先,在算法輸入層增加兩個預(yù)訓(xùn)練模型,其隱層參數(shù)是訓(xùn)練好的,不會進(jìn)行反向傳播更新,消耗時間較少,因此并不會顯著增加算法的訓(xùn)練時間,對網(wǎng)絡(luò)主體訓(xùn)練時間復(fù)雜度影響可忽略不計(jì)。

其次,在算法的前向與反向傳播之間增加了自適應(yīng)調(diào)整模塊。自適應(yīng)調(diào)整模塊時間復(fù)雜度為O(N),與算法分類類別數(shù)有關(guān),因此每個周期算法的時間會增加O(N);但不會增加網(wǎng)絡(luò)訓(xùn)練的總體訓(xùn)練時間復(fù)雜度,通過增加自適應(yīng)調(diào)整模塊,可以加速網(wǎng)絡(luò)的收斂,從而有效地降低網(wǎng)絡(luò)的訓(xùn)練周期數(shù),因此在一定程度上會減少網(wǎng)絡(luò)的總體訓(xùn)練時間。

3.3.3 算法識別效果

根據(jù)卷積神經(jīng)網(wǎng)絡(luò)的分類特性,分類結(jié)果中最大值決定識別效果,若分類結(jié)果與樣本標(biāo)注結(jié)果一致,則樣本分類正確,反之則分類錯誤。本文提出的自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)算法通過將ResNet、VGG19 預(yù)訓(xùn)練模型與卷積神經(jīng)網(wǎng)絡(luò)混合使用,可以高效快速地提取樣本主要特征,并隨著訓(xùn)練周期增加,對主要特征進(jìn)行訓(xùn)練,提升算法對樣本類別的區(qū)分能力,實(shí)現(xiàn)樣本訓(xùn)練的準(zhǔn)確分類,有效提升模型的識別率。

傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)每次訓(xùn)練是將分類誤差無差別地反饋到隱層,因此無法準(zhǔn)確地加強(qiáng)主成特征對網(wǎng)絡(luò)訓(xùn)練的影響。自適應(yīng)卷積神經(jīng)網(wǎng)絡(luò)算法通過構(gòu)建自適應(yīng)模塊,可以根據(jù)樣本分類誤差進(jìn)行增強(qiáng)或降低調(diào)整后反向傳播,增強(qiáng)或降低對應(yīng)的隱層參數(shù)、偏置,達(dá)到對相應(yīng)特征針對性訓(xùn)練的目的,從而有效地增強(qiáng)主成特征對網(wǎng)絡(luò)訓(xùn)練的影響,降低無效特征對網(wǎng)絡(luò)訓(xùn)練的干擾,使分類結(jié)果準(zhǔn)確性不斷提高,優(yōu)化收斂效果,提高樣本識別率。

本節(jié)主要對自適應(yīng)神經(jīng)網(wǎng)絡(luò)算法的收斂性、時間復(fù)雜度和識別效果進(jìn)行分析。通過分析可知,增加自適應(yīng)調(diào)整模塊可以有效地提升算法的收斂性并降低時間復(fù)雜度,同時可以對誤差較大的特征進(jìn)行針對性訓(xùn)練,提高分類的準(zhǔn)確性。為進(jìn)一步驗(yàn)證本文提出算法的應(yīng)用效果,在下一章節(jié),將自適應(yīng)神經(jīng)網(wǎng)絡(luò)算法與同結(jié)構(gòu)網(wǎng)絡(luò)算法進(jìn)行對比分析。

4 實(shí)驗(yàn)結(jié)果及分析

4.1 實(shí)驗(yàn)數(shù)據(jù)及環(huán)境

本文通過自建數(shù)據(jù)集驗(yàn)證模型效果,數(shù)據(jù)集采集標(biāo)注情況見表1。從各等級樣本中各選擇10 000張作為實(shí)驗(yàn)數(shù)據(jù)集,并將各等級霧圖按照6/10、2/10、2/10 比例隨機(jī)劃分,從而把樣本分為訓(xùn)練集、驗(yàn)證集和測試集三部分,各部分?jǐn)?shù)據(jù)具體分布情況如表3所示。實(shí)驗(yàn)環(huán)境如表4所示。

表3 樣本分布

表4 實(shí)驗(yàn)環(huán)境

4.2 評價指標(biāo)

本文分別通過以下幾個指標(biāo)驗(yàn)證自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)算法的效果,指標(biāo)定義如下。

(1)收斂指數(shù)。為驗(yàn)證自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)算法的收斂性,本文設(shè)定收斂指數(shù)作為算法的評價指標(biāo),當(dāng)收斂指數(shù)滿足式(12),停止模型訓(xùn)練,即模型訓(xùn)練曲線隨著訓(xùn)練次數(shù)趨于平穩(wěn),則認(rèn)為模型已經(jīng)收斂。

其中,acci是訓(xùn)練過程中的準(zhǔn)確率,E是自定義的閾值。

(2)時間復(fù)雜度。本文將模型收斂時所用的時間定義為時間復(fù)雜度,為排除偶然性,通過訓(xùn)練,比較分析時間曲線。

(3)識別正確率。衡量模型性能有很多評價指標(biāo),本文使用常用的識別正確率(accuracy,ACC)作為模型評價指標(biāo)。ACC計(jì)算公式為:

其中,TP表示被模型預(yù)測為正的正樣本,TN表示被模型預(yù)測為負(fù)的負(fù)樣本,F(xiàn)P表示被模型預(yù)測為正的負(fù)樣本,F(xiàn)N被模型預(yù)測為負(fù)的正樣本。

4.3 實(shí)驗(yàn)及分析

本文針對卷積神經(jīng)網(wǎng)絡(luò)在大霧等級識別領(lǐng)域展開研究,為驗(yàn)證模型效果,分別從收斂指數(shù)、時間復(fù)雜度和識別正確率幾個指標(biāo)進(jìn)行實(shí)驗(yàn)分析,具體設(shè)置以下實(shí)驗(yàn):(1)將自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)算法與同結(jié)構(gòu)無自適應(yīng)模塊的算法進(jìn)行兩次實(shí)驗(yàn),對比分析收斂情況下兩種算法所用迭代周期數(shù)。(2)將自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)算法與同結(jié)構(gòu)無自適應(yīng)模塊的算法進(jìn)行五次實(shí)驗(yàn),對比分析收斂情況下兩種算法所用時間。(3)實(shí)驗(yàn)選擇VGG19、ResNet、GoogLeNet[24]作為對比算法,重復(fù)多次實(shí)驗(yàn),對比分析自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)與VGG19、ResNet、GoogLeNet的總體識別效果。計(jì)算多次實(shí)驗(yàn)的每個等級識別平均結(jié)果,對比分析在不同霧等級下自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)與 VGG19、ResNet、GoogLeNet 的識別效果。

4.3.1 收斂性對比分析

基于自建樣本集,重復(fù)訓(xùn)練自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)和同結(jié)構(gòu)的原始網(wǎng)絡(luò)兩次,初始迭代周期設(shè)置為1 000次,分別對比兩種算法停止訓(xùn)練時訓(xùn)練的周期數(shù)。經(jīng)過實(shí)驗(yàn)分析,得到收斂指數(shù)與訓(xùn)練周期之間的曲線圖,如圖5所示。

圖5 是兩次訓(xùn)練自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)與同結(jié)構(gòu)的原始網(wǎng)絡(luò)訓(xùn)練收斂曲線。圖5(a)是第一次訓(xùn)練結(jié)果,從圖中可以看出,自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練周期在540 左右時達(dá)到收斂條件,訓(xùn)練停止;同結(jié)構(gòu)的原始網(wǎng)絡(luò)需要訓(xùn)練700個周期左右達(dá)到收斂條件,停止訓(xùn)練。圖5(b)是第二次訓(xùn)練結(jié)果,從圖中可知,混合神經(jīng)網(wǎng)絡(luò)訓(xùn)練530個周期左右時停止訓(xùn)練,原始神經(jīng)網(wǎng)絡(luò)經(jīng)過670個周期訓(xùn)練達(dá)到收斂條件,停止訓(xùn)練。綜合圖1判斷,本文提出的自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)算法要比同結(jié)構(gòu)的原始神經(jīng)網(wǎng)絡(luò)提前150個周期左右達(dá)到收斂條件,說明自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)的自適應(yīng)模塊能夠有效地加速算法的收斂。

4.3.2 時間復(fù)雜度對比分析

基于自建樣本集,重復(fù)訓(xùn)練自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)和同結(jié)構(gòu)的原始網(wǎng)絡(luò)五次,為了不讓兩種算法達(dá)到收斂情況,設(shè)置訓(xùn)練周期小于混合神經(jīng)網(wǎng)絡(luò)的收斂周期,因此,分別設(shè)置訓(xùn)練周期達(dá)到100、200、300、400、500次停止訓(xùn)練,記錄不同訓(xùn)練周期下的兩種算法所需要的訓(xùn)練時間。通過實(shí)驗(yàn)分析,得到兩種算法訓(xùn)練時間與周期數(shù)之間的關(guān)系圖,如圖6所示。

圖5 收斂曲線對比圖

圖6 訓(xùn)練時間對比圖

圖6 是自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)算法與同結(jié)構(gòu)的原始算法之間的訓(xùn)練時間對比圖,通過五次不同訓(xùn)練周期重復(fù)實(shí)驗(yàn)得到兩種算法訓(xùn)練時間,從圖中可以看出,同周期情況下,自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)算法的所需時間要比原始神經(jīng)網(wǎng)絡(luò)算法的時間長,這是因?yàn)樵撍惴ㄔ黾恿俗赃m應(yīng)模塊,所以增加了訓(xùn)練時間。但從圖上看總體時間增加不大,因此并沒有明顯地增加網(wǎng)絡(luò)的時間復(fù)雜度。

4.3.3 識別正確率對比分析

(1)總體識別正確率分析

實(shí)驗(yàn)使用樣本總體訓(xùn)練集訓(xùn)練模型,并隨機(jī)將測試集分為五部分,用于重復(fù)測試模型性能。首先將樣本總體訓(xùn)練集作為模型訓(xùn)練數(shù)據(jù),構(gòu)造霧識別模型;然后基于訓(xùn)練好的霧識別模型,分別將五個測試集進(jìn)行實(shí)驗(yàn)驗(yàn)證;最后經(jīng)實(shí)驗(yàn)對比,獲得總體樣本下混合神經(jīng)網(wǎng)絡(luò)模型與 VGG19、ResNet、GoogLeNet 五次重復(fù)實(shí)驗(yàn)結(jié)果。實(shí)驗(yàn)結(jié)果如圖7所示。

圖7 各神經(jīng)網(wǎng)絡(luò)識別結(jié)果

圖7 是自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)模型與VGG19、ResNet、GoogLeNet五次實(shí)驗(yàn)結(jié)果。由圖可知,自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)五次實(shí)驗(yàn)結(jié)果識別正確率在0.80左右;VGG19五次實(shí)驗(yàn)結(jié)果識別正確率在0.70左右;GoogLeNet識別正確率在0.77左右;ResNet的識別正確率在0.79左右。根據(jù)實(shí)驗(yàn)結(jié)果可知,幾種算法對霧圖的識別穩(wěn)定性較好,沒有太大的波動,其中自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)與ResNet效果相近,且比其他兩種算法高,說明本文構(gòu)造的神經(jīng)網(wǎng)絡(luò)算法不僅能夠解決模型訓(xùn)練速度慢的問題,而且保持著相對較好的識別效果。

(2)不同霧等級識別正確率分析

圖8 各網(wǎng)絡(luò)識別結(jié)果混淆矩陣圖

實(shí)驗(yàn)使用總體樣本集訓(xùn)練模型,并根據(jù)各霧等級測試集識別結(jié)果分析模型性能。首先輸入訓(xùn)練集,構(gòu)造霧識別模型;然后基于訓(xùn)練好的霧識別模型,使用相應(yīng)霧等級的測試集進(jìn)行驗(yàn)證;最后經(jīng)實(shí)驗(yàn)對比,獲得各個等級下自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)與VGG19、ResNet、GoogLeNet的識別結(jié)果。實(shí)驗(yàn)結(jié)果如圖8所示。

圖8是自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)與VGG19、ResNet、GoogLeNet 實(shí)驗(yàn)結(jié)果混淆矩陣圖。由圖8(a)可知自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)在五個等級霧圖的識別正確率分別達(dá)到了0.820、0.813、0.804、0.793、0.781,識別正確率在0.78以上。圖8(b)、(c)、(d)是VGG19、ResNet、GoogLeNet的實(shí)驗(yàn)結(jié)果,此三種算法的各等級識別正確率分別在0.67、0.79和0.73以上。由實(shí)驗(yàn)結(jié)果可知,自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)算法在各等級識別正確率上與ResNet 相近,優(yōu)于VGG19和GoogLeNet,說明構(gòu)造的自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)在加快收斂速度的情況下能夠很好地對霧等級進(jìn)行識別。

5 總結(jié)

本文在收集不同能見度等級霧圖樣本的基礎(chǔ)上,提出并訓(xùn)練了自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)模型,實(shí)現(xiàn)了霧能見度等級自動識別分類。通過實(shí)驗(yàn)分析對比,自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)構(gòu)造的模型具有較高的識別正確率,在各能見度等級下的大霧識別中,識別正確率平均在0.78以上;同時經(jīng)過多次重復(fù)驗(yàn)證,其識別正確率均保持在0.80 左右。相較于 VGG19、GoogLeNet,自適應(yīng)混合卷積神經(jīng)網(wǎng)絡(luò)構(gòu)造的模型識別正確率和穩(wěn)定性都具有較大的提升。本文算法的識別正確率和穩(wěn)定性與ResNet相近,但能夠加快訓(xùn)練收斂速度。因此通過實(shí)驗(yàn)比較,本文算法能夠較好地識別霧等級,在一定程度上滿足道路大霧等級輔助監(jiān)測需求。但本文只針對白天的霧圖樣本數(shù)據(jù)進(jìn)行了建模應(yīng)用,因?yàn)橐雇砉饩€原因,能標(biāo)注的圖片樣本較少,所以沒列入本文的研究范圍。

猜你喜歡
分類實(shí)驗(yàn)模型
一半模型
記一次有趣的實(shí)驗(yàn)
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
做個怪怪長實(shí)驗(yàn)
分類討論求坐標(biāo)
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
3D打印中的模型分割與打包
主站蜘蛛池模板: 麻豆国产精品视频| 露脸国产精品自产在线播| 亚洲男人的天堂视频| 久久精品国产精品青草app| 日韩久草视频| 国产在线精彩视频二区| 日韩无码视频播放| 国产高清免费午夜在线视频| 3344在线观看无码| 最新无码专区超级碰碰碰| 国产精品污污在线观看网站| 人妻中文久热无码丝袜| 她的性爱视频| 九九热免费在线视频| 亚洲一级无毛片无码在线免费视频 | 亚洲精品福利视频| 欧美日韩一区二区在线免费观看 | 日本精品一在线观看视频| 99免费视频观看| 国产小视频在线高清播放 | 无码中文字幕乱码免费2| 波多野结衣无码视频在线观看| 亚洲成人免费看| 97免费在线观看视频| 欧美三级视频网站| 成年女人a毛片免费视频| 五月婷婷导航| 久久激情影院| 好紧太爽了视频免费无码| 亚洲中文字幕97久久精品少妇| 亚洲成A人V欧美综合| 国产情精品嫩草影院88av| 欧美va亚洲va香蕉在线| 综合色天天| 国内嫩模私拍精品视频| YW尤物AV无码国产在线观看| 91色综合综合热五月激情| 中美日韩在线网免费毛片视频| 国产亚洲精品无码专| 熟妇丰满人妻| 亚洲Av综合日韩精品久久久| 精品国产免费观看| 手机成人午夜在线视频| 99在线视频免费| 国产在线观看人成激情视频| 孕妇高潮太爽了在线观看免费| 国产一区二区免费播放| 久久夜色精品国产嚕嚕亚洲av| 麻豆精品在线视频| 黄片在线永久| 97免费在线观看视频| 国产激情无码一区二区APP| 四虎永久免费在线| 内射人妻无码色AV天堂| 国产在线一区二区视频| 波多野结衣AV无码久久一区| 亚洲va欧美ⅴa国产va影院| 97青草最新免费精品视频| 91欧美亚洲国产五月天| 成人欧美在线观看| 国产成人亚洲无吗淙合青草| 91精品视频播放| 极品私人尤物在线精品首页| 成人午夜天| 综合色婷婷| 久久91精品牛牛| 9966国产精品视频| 少妇高潮惨叫久久久久久| 999国内精品久久免费视频| 自慰高潮喷白浆在线观看| 国产精品自在线天天看片| 久久综合色天堂av| 久久9966精品国产免费| 国产超碰在线观看| 97色伦色在线综合视频| 拍国产真实乱人偷精品| 久久久四虎成人永久免费网站| 亚洲人成人无码www| 污网站免费在线观看| 日韩AV无码免费一二三区| 精久久久久无码区中文字幕| 久久免费精品琪琪|