999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度多特征融合的自適應CNN 圖像分類算法

2021-09-15 07:36:32黃鶴鳴武風英張會云
計算機工程 2021年9期
關鍵詞:分類深度特征

李 偉,黃鶴鳴,武風英,張會云

(1.青海師范大學 計算機學院,西寧 810008;2.青海省基礎測繪院,西寧 810001)

0 概述

隨著圖像采集技術和處理技術的飛速發(fā)展,圖像已成為人們獲取信息的主要方式。人們從浩瀚的圖像數(shù)據(jù)庫中搜索圖像時,需要對數(shù)據(jù)庫中的圖像進行分析處理,而分析處理的前提是對這些海量圖像進行分類。

隨著大數(shù)據(jù)技術和硬件計算能力的發(fā)展,神經(jīng)網(wǎng)絡作為一種新興的深度學習方法,在各個領域取得了突破性進展[1]。其中,卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)作為一種帶有卷積計算的深層前饋型神經(jīng)網(wǎng)絡[2-4],能更好地獲取圖像的空間位置和形狀信息,有利于圖像分類。2005 年,STEINKRAUS 等[5]提出基于GPU 的高效CNN 訓練方法,大幅提高了CNN 的運算能力;2012 年,KRIZHEVSKY 等[6]提出AlexNet 網(wǎng)絡,采用ReLU 激活函數(shù)并使用GPU 分組卷積方式進行并行訓練[5];GoogLeNet[7]由SZEGEDY 等 于2014 年提出;2015 年,LOFFE 等[8]將批標準化應用于神經(jīng)網(wǎng)絡,保證了網(wǎng)絡中各層的輸出分布基本穩(wěn)定,大幅降低了網(wǎng)絡對初始參數(shù)的依賴,提升了網(wǎng)絡性能。

CNN 具有良好的擴展性和魯棒性,利用CNN 進行圖像分類時,能夠快速且全面地提取空間位置和形狀等相關特征,但是CNN 對顏色特征不敏感。在進行圖像分類時,CNN 通過RGB 三顏色通道讀取圖像內容進行分類的效果與它讀取二值化圖像信息進行分類的效果差別不大或者無差別。由于顏色特征具有很強的魯棒性和靈活性,但不能體現(xiàn)圖像空間分布的特點。為此,本文提出將主顏色特征與空間位置和形狀相關特征進行深度融合的混合特征提取方法,并運用改進的差分演化算法優(yōu)化多種特征之間的權值,以解決固定權值不能充分考慮圖像自身特性的問題。

1 深度多特征融合的CNN 網(wǎng)絡模型

為更好地讀取圖像內容信息,本文構建基于深度多特征融合的CNN 網(wǎng)絡模型總體框架。該框架共有4 個卷積層:第1 個卷積層稱為數(shù)據(jù)特征融合層,可以充分融合去噪深度卷積特征和主顏色特征,隨后是一個池化層,池化層的作用是降低網(wǎng)絡參數(shù),加快融合速度;第2 個卷積層稱為深度特征融合層,進一步進行特征融合,同第一個卷積層,隨后也是一個池化層;第3 個卷積層稱為特征抽象表示層,該層中的卷積核大小由前2 個卷積層中的5×5 改為3×3,即有助于消除特征中的噪聲并提高特征的抽象表示,隨后也是一個池化層;第4 個卷積層稱為特征高級表示層,有助于消除冗余特征并提高代表性特征,后面是一個池化層,隨后是三層全連接層,用于特征分類以及反向傳播過程中的參數(shù)優(yōu)化。在網(wǎng)絡的最后,采用Softmax 層進行分類。Softmax 是應對多分類問題的有監(jiān)督學習方法[9-11],為分類提供重要的置信度。

卷積層、非線性激活變換和池化層是CNN 的3 個基本組成部分[2]。通過疊加多個具有非線性運算的卷積層和池化層,可以形成一個深度CNN,而分層提取的輸入特征具有不變性和魯棒性[12]。具有非線性運算的卷積層[13]如式(1)所示:

基于深度多特征融合的CNN 網(wǎng)絡模型總體框架如圖1 所示。圖1 中的去噪深度卷積特征稱為fc,是經(jīng)過3 層卷積神經(jīng)網(wǎng)絡以后的去噪空間位置和形狀關系信息,如圖2 所示。

圖1 基于深度多特征融合的CNN 網(wǎng)絡模型總體框架Fig.1 Overall framework of CNN networks model based on deep fusion of multi-features

圖2 去噪卷積神經(jīng)網(wǎng)絡結構Fig.2 Structure of denoising convolutional neural networks

CNN 的卷積層內部包含多個卷積核,每個卷積核能夠提取空間位置和形狀相關特征,卷積層內每個神經(jīng)元均與前一層位置鄰近區(qū)域,也被稱為“感受野”[3]的多個神經(jīng)元相連,從而依賴于網(wǎng)絡分層學習上下文不變特征[13]:形狀和空間位置特征信息,這對于圖像分類特別有用;另外,CNN 還具有對輸入圖像特征的去噪功能。綜合CNN 的以上特點,圖2 所示去噪卷積神經(jīng)網(wǎng)絡輸出的是去噪深度卷積特征。

2 自適應CNN 圖像分類算法

2.1 主顏色特征提取

不同于k-means 算法隨機選取數(shù)據(jù)集中的k個點作為聚類中心,“硬聚類”算法k-means++[14]隨機選取數(shù)據(jù)集中的一個點作為聚類中心,假設已經(jīng)選取了n個初始聚類中心(0

2.2 深度多特征融合算法

按照式(2)級聯(lián)去噪卷積神經(jīng)網(wǎng)絡輸出的去噪深度卷積特征fc和使用k-means++聚類算法提取的主顏色特征fl,得到深度數(shù)據(jù)融合特征fm:

由于特征維度比較高且訓練樣本有限,可能會產(chǎn)生過擬合現(xiàn)象。本文研究使用Dropout 方法解決過擬合問題。Dropout 方法在不同的訓練階段,通過隨機丟棄不同的神經(jīng)元形成不同的神經(jīng)網(wǎng)絡,從而有效防止復雜的共適應,學習到更加正確的特征。

為增強網(wǎng)絡的魯棒性,本文研究還使用了ReLU激活函數(shù)[15]。如果神經(jīng)元的輸出為正,則該函數(shù)接受該神經(jīng)元的輸出;如果輸出為負,則返回0。ReLU函數(shù)的表達式如式(3)所示:

通過使用Dropout 方法和ReLU 激活函數(shù),使多數(shù)神經(jīng)元的輸出變?yōu)?,再利用多層ReLU 和Dropout 實現(xiàn)基于稀疏的深度網(wǎng)絡正則化,從而解決深度多特征融合圖像分類的過擬合問題。

2.3 自適應權值圖像分類算法

融合多特征進行圖像分類時,為使分類結果盡可能更優(yōu),引入改進的差分演化算法尋找最優(yōu)特征權重值的方法。差分演化算法[16-18]是一種高效的全局優(yōu)化算法,具有結構簡單、易實現(xiàn)、優(yōu)化能力強等特點。

融合主顏色與空間位置和形狀相關特征時,為不影響實驗的準確度,本文研究未對主顏色特征執(zhí)行批標準化處理。經(jīng)過多次實驗證明,空間位置和形狀相關特征在深度多特征融合時起主導作用,而主顏色特征起輔助作用,所以設去噪深度卷積特征權重值β=1,主顏色特征權重值為α。個體α的適應度值由5 次交叉驗證的平均分類結果和Top10 圖像的分類錯誤數(shù)決定,如式(4)所示:

其 中:n是epoch 的個數(shù);VALi是1 次交叉 驗證的 平均分類結果;ZVAL 是5 次交叉驗證的平均分類結果是圖像庫中前10 個圖像的分類錯誤數(shù)。

由于待優(yōu)參數(shù)只有1 個,因此舍棄雜交操作,對標準差分演化算法[19]中的變異和選擇操作進行改進。得到基于差分演化的自適應權值CNN 圖像分類算法,算法詳細步驟如下:

步驟1在區(qū)間[10-1,10-10]內,初始化種群P,產(chǎn)生規(guī)模為NP 的個體α。

步驟2按照式(4)計算初始群體P中所有個體的適應度值。

步驟3如果t<最大迭代次數(shù),則轉步驟4,否則終止進化,將得到的最佳個體作為最優(yōu)解輸出。

步驟4按照式(7)對每個個體αi按照公式進行差分變異,產(chǎn)生trialαi。

其中:αbest為當前群體的最優(yōu)個體;r1、r2為群體中隨機選擇的2 個個體,且r1≠r2。

步驟5利用式(4)評估每個個體αi的適應度值。

步驟6對每個個體αi進行更新操作。

步驟7跳轉至步驟3。

3 實驗結果與分析

3.1 實驗參數(shù)

本文研究所用圖像庫是Corel 公司提供的標準圖像素材庫Corel-1000。該庫包含了人物、建筑物、公交車、花卉、動物等10 類共1 000 幅圖像。選擇其中的800 幅作為訓練集,而剩余的200 幅作為測試集。為了方便網(wǎng)絡讀取,對圖像庫進行了預處理操作,將圖像大小由原來的3×256×328 壓縮成3×48×48。

神經(jīng)網(wǎng)絡模型的Epoch 設為50,每次迭代次數(shù)為8,批處理大小為100 幅圖像。第1 個卷積層的卷積核大小是5×5,濾波器32 個;第2 個卷積層的卷積核大小是5×5,濾波器64 個;第3 個、第4 個卷積層的卷積核大小是3×3,濾波器是128 個。卷積步長設為1,填充設為0。池化層步長設置為2,池化窗口大小為2×2。最后,Softmax 層有10 個神經(jīng)單元,將圖像分為10 類。另外,演化代數(shù)設為50,種群規(guī)模為37,縮放因子F為0.5。

通過最小化損失函數(shù)來獲得最優(yōu)解,本文研究使用交叉熵誤差函數(shù)[20]作為損失函數(shù),其表達式為:

此外,實驗采用Adam 優(yōu)化器[21]優(yōu)化損失函數(shù)。結合AdaGrad 和RMSProp 2 種優(yōu)化算法的優(yōu)點,綜合考慮梯度的一階矩估計(梯度的均值)和二階矩估計(梯度的未中心化的方差),計算更新步長。

1)計算時刻t的梯度:

2)計算梯度的指數(shù)移動平均數(shù):

其中:m0初始值設置為0;系數(shù)β1是指數(shù)衰減率,默認為0.9。

3)計算梯度平方的指數(shù)移動平均數(shù):

其中:v0初始值設置為0;β2是指數(shù)衰減率,控制之前梯度平方的影響情況。

4)對梯度均值mt進行偏差糾正:

5)對梯度方差vt進行偏差糾正:

6)更新參數(shù),默認學習率α=0.001:

其中:ε=10-8,避免除數(shù)為0。步長通過梯度均值和梯度均方根進行自適應調節(jié)。

3.2 實驗結果

本文研究將主顏色特征與空間位置和形狀相關特征進行深度多特征融合的卷積神經(jīng)網(wǎng)絡稱為MCNN;將基于深度多特征融合的自適應卷積神經(jīng)網(wǎng)絡稱為AMCNN。當α=1e-5,β=1 時,CNN 和MCNN、AMCNN 在測試集上的實驗結果如表1 所示。

表1 CNN、MCNN 和AMCNN 在測試集的準確率Table 1 Accuracy of CNN,MCNN and AMCNN on test set %

分類算法的提高率為:

其中:a代表圖像庫中的圖像總數(shù);r代表圖像庫中分類正確的圖像數(shù)目。

從實驗效果可以看到,進行深度多特征融合時由于加入了主顏色特征彌補了CNN 對顏色特征不敏感的欠缺,因此MCNN 比CNN 分類準確率提高了5.49 個百分點;而AMCNN 算法在融合深度多特征的基礎上進一步優(yōu)化權重值,尋找出各特征的最優(yōu)權值,從而更大程度地提升了分類準確率,比CNN分類準確率提高了11.21 個百分點。

圖3 是AMCNN、MCNN 和CNN 在測試集上的曲線精度對比,可以看到:和CNN 相比,AMCNN 和MCNN(α=1e-5)在有效提高分類精度的同時加快了收斂速度。此外,由于各網(wǎng)絡模型都使用了去噪深度卷積特征,因此網(wǎng)絡模型的性能相對穩(wěn)定和健壯。在整個測試集的曲線精度對比上沒有出現(xiàn)分類精度大幅度起伏的情況。

圖3 AMCNN、MCNN 和CNN 在測試集上的曲線精度對比Fig.3 Comparison of curve accuracy of AMCNN,MCNN and CNN on test set

使用MCNN 網(wǎng)絡模型對圖像庫進行分類時,不同的α、β值會產(chǎn)生不同的實驗效果,故選取不同的α、β值進行實驗,表2 是其在測試集上的實驗結果。

表2 測試集上不同α、β 值的實驗結果Table 2 Experimental results of different α and β values on test set

從表2 可以看出:當α值設置為1e-5,β值設置為1 時,準確率為86.5%;而 當α值被設置為1e-6 時,準確率為89%,提升了2.5 個百分點。從而可見,不同的α、β值對MCNN 網(wǎng)絡模型產(chǎn)生的實驗效果不盡相同,當各特征權值達到最優(yōu)時,AMCNN 模型的準確率達到91.2%。因為實驗使用的標準圖像素材庫Corel-1000 中只有1 000 幅10 種類別的圖像,所以當準確率達到91.2%時,是一個較好的分類結果。

AMCNN、MCN 和CNN 在測試集上的準確率如圖4 所示。

圖4 AMCNN、MCNN 和CNN 在測試集上的準確率Fig.4 Accuracy of AMCNN,MCNN and CNN on test set

從圖4 可以看出:CNN 的最大、最小和中值準確率以及上四分位數(shù)和下四分位數(shù)均小于MCNN(α=1e-5)和AMCNN 的相應數(shù)字特征。此外,還可以觀察到:AMCNN 的性能也相對穩(wěn)定,拋出的異常值也是最優(yōu)的。

當MCNN 網(wǎng)絡模型進行深度多特征融合時,使用深度去噪卷積特征和未使用深度去噪卷積特征(NMCNN)在測試集上得到的實驗結果如表3 所示。

表3 MCNN 和NMCNN 在測試集的準確率Table 3 Accuracy of MCNN and NMCNN on test set

從表3 可以看出:當進行深度多特征融合時,深度去噪卷積特征可以提高圖像分類的準確率;相對于NMCNN,MCNN 的實驗性能提升了3 個百分點。同時,與表1 中使用了深度去噪卷積特征的CNN 實驗效果相比,融合主顏色特征比只使用深度去噪卷積特征的實驗性能提升了1.5 個百分點。

4 結束語

本文提出一種基于深度多特征融合的自適應CNN 圖像分類算法。該算法利用卷積神經(jīng)網(wǎng)絡提取空間位置和形狀特征,彌補CNN 網(wǎng)絡模型只讀取圖像空間位置信息而對顏色信息不太敏感的不足,并在此基礎上運用改進的差分演化算法優(yōu)化各特征權重值的方法。實驗結果表明,與CNN 算法相比,該算法的圖像分類準確率有較大程度的提升,而且模型性能更加穩(wěn)定和健壯。下一步將嘗試通過對抗網(wǎng)絡增大圖像庫樣本數(shù)量,使模型性能達到更優(yōu)。

猜你喜歡
分類深度特征
分類算一算
深度理解一元一次方程
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
深度觀察
深度觀察
深度觀察
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
主站蜘蛛池模板: 久久毛片网| 亚洲 欧美 日韩综合一区| 欧美黄网站免费观看| 欧美a√在线| 国产一区自拍视频| 刘亦菲一区二区在线观看| 国产aaaaa一级毛片| 熟妇人妻无乱码中文字幕真矢织江 | 五月天久久综合国产一区二区| 国产欧美日韩精品综合在线| 色偷偷一区| 亚洲国产一成久久精品国产成人综合| 中文字幕在线免费看| 看你懂的巨臀中文字幕一区二区 | 呦系列视频一区二区三区| 成人av专区精品无码国产| 国产精品成人一区二区不卡| 亚洲最大福利网站| 六月婷婷激情综合| 无码中文字幕精品推荐| 亚洲伦理一区二区| 日韩亚洲综合在线| 日韩黄色在线| 亚洲国产理论片在线播放| 国产亚洲美日韩AV中文字幕无码成人| 日本人妻一区二区三区不卡影院 | 亚洲熟女偷拍| 午夜免费小视频| 久草视频中文| 成人91在线| 日韩二区三区无| 亚洲欧洲日本在线| 欧美啪啪一区| 18禁不卡免费网站| 中国特黄美女一级视频| 91久久偷偷做嫩草影院电| 午夜高清国产拍精品| 久久久噜噜噜久久中文字幕色伊伊 | 青青久久91| 國產尤物AV尤物在線觀看| 亚洲日本一本dvd高清| 久久久成年黄色视频| 色婷婷色丁香| 制服丝袜 91视频| 欧美一级高清片久久99| 亚洲大尺码专区影院| 欧美在线精品一区二区三区| 亚洲成在线观看| 欧美第九页| 全午夜免费一级毛片| 国产91精品最新在线播放| 免费观看男人免费桶女人视频| 欧美精品啪啪| 在线国产毛片| 强乱中文字幕在线播放不卡| 亚洲中文字幕无码爆乳| 在线国产你懂的| 日韩在线播放中文字幕| 嫩草在线视频| 91久久偷偷做嫩草影院| 全部免费特黄特色大片视频| 亚洲精选无码久久久| 欧美成人区| 萌白酱国产一区二区| 黄色污网站在线观看| 91成人在线观看视频| 国产精品美人久久久久久AV| 喷潮白浆直流在线播放| 欧美午夜理伦三级在线观看| 精品人妻无码中字系列| 午夜国产不卡在线观看视频| 成人精品在线观看| 久久青青草原亚洲av无码| 曰韩人妻一区二区三区| 欧美日本二区| 久操中文在线| 亚洲精品卡2卡3卡4卡5卡区| 欧美特级AAAAAA视频免费观看| 欧美三级视频在线播放| 日韩国产高清无码| 日本免费福利视频| 亚洲乱强伦|