999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進的膠囊網(wǎng)絡模型的高光譜圖像分類方法

2022-02-19 10:23:50周衍挺
計算機應用與軟件 2022年2期
關鍵詞:分類特征模型

周衍挺 韋 慧

(安徽理工大學數(shù)學與大數(shù)據(jù)學院 安徽 淮南 232001)

0 引 言

高光譜圖像具有豐富的光譜與空間信息,已經(jīng)被廣泛應用于各個領域[1-3]。對高光譜圖像的每個像元進行分類是高光譜圖像研究領域的重要內容,然而高光譜圖像具有波段多、數(shù)據(jù)量大的特點,導致傳統(tǒng)的分類方法不能有效提取圖像特征,進而對圖像進行地物分類[4-6]。目前,卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)由于可以提取圖像不同層次的特征,在圖像處理領域得到了廣泛的應用[7-10],許多研究人員開始利用CNN來對高光譜圖像進行分類。

研究發(fā)現(xiàn),CNN具有強大的特征提取能力,但是其無法充分地提取高光譜圖像的特征信息,導致圖像分類精度不高[11-12]。近幾年,國內外研究者提出了結合圖像空間信息和光譜信息的圖像分類方法,圖像分類的精度得到了顯著的提高[13-16]。Xu等[13]利用長短期記憶網(wǎng)絡(Long Short-Term Memory,LSTM)去提取高光譜圖像的光譜信息同時利用CNN提取圖像的空間信息,從而提升分類精度。歐陽寧等[14]利用雙通道卷積網(wǎng)絡同時提取圖像的光譜與空間特征,并采用多模態(tài)壓縮雙線性池化來獲得空譜聯(lián)合特征,達到了提升圖像分類精度的目的。然而文獻[13-14]中的模型在提取空間信息時,對原始數(shù)據(jù)塊進行主成分分析(Principal Component Analysis,PCA)降維處理,導致光譜信息有所損失,降低了模型的分類性能。Chen等[15]利用3D-CNN直接提取圖像塊的光譜-空間信息,保留了圖像光譜高維特征。劉冰等[16]將殘差學習引入3D-CNN,可以提取更深層次的光譜與空間特征,但是其網(wǎng)絡結構復雜,參數(shù)量大,容易導致過擬合現(xiàn)象。

現(xiàn)有文獻中大部分分類方法都能夠有效地提取高光譜圖像的光譜與空間信息,然而絕大多數(shù)方法無法有效識別特征之間的空間位置、平移與旋轉關系,從而限制了模型的分類能力。文獻[17]中提出膠囊網(wǎng)絡可以較好地提取特征之間的空間位置。現(xiàn)有文獻中,將膠囊網(wǎng)絡應用到高光譜圖像分類的相關研究還比較罕見[18-19]。Paoletti等[18]提出的膠囊網(wǎng)絡在降低網(wǎng)絡設計復雜度的同時,可以提取高光譜圖像的抽象特征,顯著提升了模型在高光譜圖像上的分類精度。Deng等[19]提出了2種淺層膠囊網(wǎng)絡結構,可以充分提取小樣本高光譜訓練數(shù)據(jù)的特征,進而提升模型在小樣本高光譜圖像上的分類性能。

基于膠囊網(wǎng)絡的優(yōu)勢,結合雙通道卷積網(wǎng)絡模型,本文提出一個基于膠囊網(wǎng)絡的改進模型(Improved Capsule Networks,ICAP)。該模型不僅能夠充分提取高光譜圖像光譜和空間特征,同時考慮到特征之間的空間位置關系,降低在高光譜圖像上的分類誤差。

1 膠囊網(wǎng)絡簡介

1.1 膠囊網(wǎng)絡結構

膠囊網(wǎng)絡中包含許多膠囊結構,膠囊是由許多神經(jīng)元組成的,其輸入輸出都是向量。膠囊向量的長度表示膠囊所代表實體的存在概率,方向表示了實體的顏色、方向、位置等屬性。

膠囊網(wǎng)絡主要由普通的卷積層、PrimaryCaps層以及DigitCaps層組成。卷積層負責提取圖像的初級特征。這一層對圖像進行卷積操作,再經(jīng)過激活函數(shù)得到輸出值。PrimaryCaps層是初始膠囊層,這一層開始使用膠囊來傳遞信息,可以組合前一層卷積層提取的初級特征,并將特征信息以膠囊的形式保留下來。PrimaryCaps層到DigitCaps層之間的連接是向量與向量之間的連接,由動態(tài)路由算法[17]迭代計算出這兩層之間的最優(yōu)參數(shù)。DigitCaps層的膠囊個數(shù)為最終的分類種數(shù),每個膠囊代表一種實物,其長度代表實物出現(xiàn)的概率。膠囊網(wǎng)絡采用的是Margin loss損失函數(shù),其函數(shù)表達式如下:

Lk=Tkmax(0,m+-‖vk‖)2+

λ(1-Tk)max(0,‖vk‖-m-)2

(1)

式中:Lk表示類別k的損失,如果類別k存在,則Tk為1,否則為0。‖vk‖表示膠囊向量的模長,即類別k存在的概率。m+、m-為閾值函數(shù),表示膠囊之間的連接強度,大于0.9可以認為膠囊之間完全連接,小于0.1可以認為膠囊之間沒有連接。m+為上邊緣閾值,通常取值為0.9,m-為下邊緣閾值,通常取值為0.1。λ為稀疏系數(shù),可以調整兩者的比重,通常取值為0.5。

1.2 動態(tài)路由算法

圖1為動態(tài)路由過程。

圖1 動態(tài)路由過程

如圖1所示,一個膠囊的輸入sj是上一層預測向量uj|i的加權總和,uj|i為上一層輸出向量的線性組合,如式(2)所示。

(2)

輸入向量sj經(jīng)過擠壓函數(shù)(squashing)處理,得到輸出向量vj,擠壓函數(shù)表達式如下:

(3)

動態(tài)路由算法的主要目的是希望找到一組耦合系數(shù)cij,使得預測向量uj|i符合輸出向量vj。cij是由路由softmax計算得到的,即:

(4)

其中bij初始化為0,其更新方式為:

bij←bij+ui|j·vj

(5)

2 ICAP模型結構

高光譜圖像是復雜的三維立方體數(shù)據(jù),且標注訓練樣本的代價過于昂貴,導致訓練樣本較少。從小樣本高光譜圖像中高效提取出圖像的特征信息是解決高光譜圖像分類問題的關鍵。淺層CNN結構無法充分提取高光譜圖像特征信息,深層CNN結構可以提取圖像更加抽象的高級特征,然而深層的網(wǎng)絡架構參數(shù)量大,在小樣本高光譜圖像分類中容易過擬合。此外,CNN模型中神經(jīng)元之間的傳遞數(shù)據(jù)是標量,無法表示出特征之間的位置關系。膠囊網(wǎng)絡利用膠囊向量可以表示出特征的位置、方向以及形變等信息,極大地提升了模型的特征提取能力。

為此,本文給出了一種改進的膠囊網(wǎng)絡淺層模型,可以在較少的訓練數(shù)據(jù)條件下,充分提取高光譜圖像特征信息,從而取得較高的分類精度。圖2為改進的膠囊網(wǎng)絡結構,含有5個卷積層、2個PrimaryCaps層、1個融合層(Concat Layer)以及1個DigitCaps層。圖像信息在經(jīng)過卷積處理后,都會經(jīng)過批標準化(Batch Normalization,BN)[20]處理,從而加快訓練速度,降低模型過擬合。1×1卷積核可以對原始圖像塊進行降維,從而減少模型參數(shù),提升模型的運行效率。雙通道的設計可以讓圖像信息同時經(jīng)過5×5卷積核與7×7卷積核處理,多尺度提取圖像初級信息,充分獲取圖像的局部與全局特征。虛框里是2個PrimaryCaps層,可以將圖像初級信息封裝為膠囊向量,提取出高光譜圖像特征之間的相對位置信息,并在融合層將2個PrimaryCaps層進行拼接。最后,在DigitCaps層計算出各個地物類別存在的概率,以及Margin Loss損失函數(shù)。

圖2 改進的膠囊網(wǎng)絡機構

3 實驗仿真

3.1 實驗環(huán)境與數(shù)據(jù)集

實驗操作系統(tǒng)為Windows7,主頻為2.60 GHz,顯卡為GTX-1060,并且以keras為框架,使用Python3.6為開發(fā)語言。實驗數(shù)據(jù)為Indian Pines和Pavia University兩個高光譜數(shù)據(jù)集。

Indian Pines數(shù)據(jù)集(IP)由AVIRIS傳感器在美國印第安納州西北部采集得到。數(shù)據(jù)集大小為145×145pixel,包含16種地物,各個地物的樣本數(shù)目如表1所示。空間分辨率為20m/pixel,共有224個波段,去除受覆蓋區(qū)域水吸收的24個波段,保留剩余的200個波段。最后實驗的Indian Pines數(shù)據(jù)集大小為145×145×200。

表1 Indian Pines數(shù)據(jù)集地物樣本數(shù)目

Pavia University數(shù)據(jù)集(PU)是用ROSIS傳感器在帕維亞大學拍攝的高光譜數(shù)據(jù)。數(shù)據(jù)集大小為610×340pixel,包含9種地物,各個地物的樣本數(shù)目如表2所示。空間分辨率為1.3m/pixel,共有115個波段,去除受噪聲影響的12個波段,保留剩余的103個波段。最后實驗的Pavia University數(shù)據(jù)集大小為610×340×103。實驗數(shù)據(jù)集在輸入模型之前,要先對數(shù)據(jù)集進行邊緣填充以及數(shù)據(jù)歸一化處理,然后取出圖像塊對模型進行訓練。

表2 Pavia University數(shù)據(jù)集地物樣本數(shù)目

3.2 實驗設置

表3列出了改進模型的參數(shù),模型的卷積填充方式均為same模式。

表3 改進模型參數(shù)

Indian Pines數(shù)據(jù)集輸入的圖像塊大小為200×27×27。圖像塊經(jīng)過1×1卷積核的降維處理后,得到64幅大小為27×27的特征圖。然后將64幅特征圖分別輸入兩個卷積通道,經(jīng)過2個卷積層與1個平均池化層的處理,均得到16幅大小為13×13的卷積特征圖。將16幅特征圖在PrimaryCaps層封裝成2×8×7×7的四維張量,并將兩個通道的輸出張量在第一維度上進行拼接,得到4×8×7×7的張量。最后輸入DigitCaps層,得到16個類別膠囊向量。每個膠囊向量的模長代表了對應類別存在概率,并以此計算出分類損失。Pavia University數(shù)據(jù)集輸入的圖像塊大小為103×11×11,其分類過程與Indian Pines數(shù)據(jù)集類似。

Indian Pines數(shù)據(jù)集隨機分為10%訓練集、10%驗證集、80%測試集,其中類別Grass-pasture-mowed與Oats的訓練樣本數(shù)目增加到5個,其余類別不變。Pavia University數(shù)據(jù)集隨機分為2%訓練集、2%驗證集、96%測試集。此外,本文采用總體分類精度(OA),平均分類精度(AA),Kappa系數(shù)來評估模型的性能。每個模型迭代100次,并將在驗證集中損失函數(shù)最小的模型作為最終測試模型。每個模型均測試5次,取5次實驗精度的平均值為最終結果。

為了驗證ICAP模型的圖像分類能力,本文設計了1個2D-CNN模型,圖3為2D-CNN模型的結構圖,該模型全連接層的神經(jīng)元個數(shù)都設置為128,并在全連接層后都添加Dropout機制,其值設置為0.5,其余參數(shù)與ICAP模型相同。此外,為了驗證雙通道網(wǎng)絡的特征提取能力,本文還設計了兩個膠囊網(wǎng)絡,記作CAP-1、CAP-2。CAP-1僅保留通道一,CAP-2僅保留通道二,其余參數(shù)與ICAP相同。

圖3 2D-CNN結構

3.3 實驗結果與分析

圖4與圖5為各模型在Indian Pines數(shù)據(jù)集與Pavia University數(shù)據(jù)集上的分類結果圖,圖4(a)與圖5(a)為真實值標記圖。從圖中可以看出本文的ICAP模型在2個數(shù)據(jù)集里的分類效果要優(yōu)于2D-CNN、CAP-1、CAP-2。表4為各模型在兩個數(shù)據(jù)集上的分類精度。從表4中可以看出,本文提出的ICAP模型的分類精度要優(yōu)于其他模型。ICAP模型在2個數(shù)據(jù)集里的OA、AA、Kappa系數(shù)均優(yōu)于2D-CNN,說明了膠囊網(wǎng)絡相比于2D-CNN,可以更好地提取圖像中的光譜與空間信息,并識別特征之間的空間位置信息、平移與旋轉關系,從而提升模型的圖像分類能力。此外,ICAP模型相比于CAP-1、CAP-2模型,OA、AA、Kappa系數(shù)也得到一定的提高。說明了包含5×5、7×7卷積核的雙通道模型可以多尺度的提取圖像初級信息,減少了卷積過程中的信息損失,進而改善模型的分類精度。

圖4 Indian Pines分類結果

圖5 Pavia University分類結果

表4 各模型的分類精度對比(%)

3.4 與其他分類方法對比

為了對比其他文獻中的模型,本文使用與文獻中模型相同數(shù)量的訓練樣本與測試樣本進行實驗。

表5列出了各模型在兩個數(shù)據(jù)集上的分類精度,文獻[14]中的SSF-Net模型利用雙通道卷積神經(jīng)網(wǎng)絡同時提取圖像的光譜與空間信息,并采用多模態(tài)壓縮雙線性池化來獲得空譜聯(lián)合特征,進一步提升了圖像分類精度。文獻[15]中3D-CNN模型利用三維卷積核來提取高光譜圖像的光譜與空間信息,并利用L2正則化、Dropout與構造虛擬樣本技術來減輕模型的過擬合,使得模型在有限的訓練樣本下,仍舊有著較高的分類精度。文獻[18]中的膠囊網(wǎng)絡重新定義了膠囊結構,使其可以充分提取高光譜圖像的特征信息,在多個高光譜數(shù)據(jù)集上具有較高的分類精度。文獻[19]提出了一種適用于高光譜圖像分類的膠囊網(wǎng)絡模型,可以提取小樣本高光譜數(shù)據(jù)集中的光譜與空間信息,具有較高的圖像分類精度。

表5 各模型在兩個數(shù)據(jù)集上的分類精度對比(%)

從表5中可以看出,本文ICAP模型不需要添加虛擬樣本,而在Indian Pines數(shù)據(jù)集上的OA、AA、Kappa系數(shù)相比于3D-CNN模型要高出0.81%、0.13%、1.03%,在Pavia University數(shù)據(jù)集上的OA、AA、Kappa系數(shù)相比于3D-CNN模型要高出0.28%、0.17%、0.35%。本文ICAP模型在提取高光譜圖像像素的空間鄰域信息與光譜信息的同時,考慮了特征之間的位置關系,并且通過在模型中加入1×1卷積層與批標準化層來減輕模型的過擬合,進而提升了模型的分類能力,在Indian Pines數(shù)據(jù)集上的OA、AA、Kappa系數(shù)相比于SSF-Net模型要高出1.12%、0.10%、1.29%,在Pavia University數(shù)據(jù)集上的OA、AA、Kappa系數(shù)相比于SSF-Net模型要高出0.19%、0.84%、0.27%。此外,ICAP模型采用了雙通道結構,進一步提升了膠囊網(wǎng)絡的特征提取能力。從表5中可以看出,在相等數(shù)量訓練樣本的前提下,ICAP模型在高光譜數(shù)據(jù)集上的OA、AA、Kappa系數(shù)均優(yōu)于文獻[18-19]中的膠囊網(wǎng)絡。

4 結 語

膠囊網(wǎng)絡是目前深度學習領域的研究熱點,在高光譜圖像分類領域里有著巨大的發(fā)展?jié)摿ΑS捎趥鹘y(tǒng)CNN模型不能充分提取高光譜圖像特征信息,從而導致圖像分類精度不高。針對這個問題,本文基于膠囊網(wǎng)絡給出了一種ICAP模型。實驗結果表明,ICAP模型中多尺度卷積核的選擇有效地改善了高光譜圖像特征信息的細節(jié)提取,充分利用了膠囊網(wǎng)絡對高光譜圖像細節(jié)特征的提取能力,提取出特征之間空間位置關系,以提高圖像分類精度。

猜你喜歡
分類特征模型
一半模型
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
抓住特征巧觀察
主站蜘蛛池模板: 国产精品久久久久久久伊一| 欧美成在线视频| 免费无遮挡AV| 国产乱视频网站| 第九色区aⅴ天堂久久香| 一本大道香蕉久中文在线播放| 成人午夜视频在线| 东京热高清无码精品| 国产精品九九视频| 一级成人a毛片免费播放| a色毛片免费视频| 一级毛片在线播放| 国产精品女人呻吟在线观看| 国产亚洲视频免费播放| 亚洲嫩模喷白浆| 天天操天天噜| a级毛片免费网站| 99久久国产自偷自偷免费一区| av在线无码浏览| 2019年国产精品自拍不卡| 日韩少妇激情一区二区| 欧美日韩激情在线| 丁香五月激情图片| 亚洲欧美激情小说另类| 国产流白浆视频| 亚洲精品第一页不卡| 2021亚洲精品不卡a| 88av在线| 日本草草视频在线观看| 欧美亚洲网| 午夜日本永久乱码免费播放片| 九九九精品视频| 久久综合色88| 亚洲大学生视频在线播放| 国产精品自在拍首页视频8| 精品免费在线视频| 久热中文字幕在线| 国产交换配偶在线视频| 香蕉久久永久视频| 色综合国产| 国产欧美视频在线观看| 97在线免费| 国产一级毛片网站| 中文字幕精品一区二区三区视频| 国产精品青青| 欧美精品v| 国产肉感大码AV无码| 成人在线天堂| 夜夜高潮夜夜爽国产伦精品| 欧美国产日韩一区二区三区精品影视| 日本免费精品| 国产99视频在线| 91福利在线观看视频| 欧美国产视频| 第九色区aⅴ天堂久久香| 亚洲AV无码久久天堂| 91成人在线观看| 四虎影视库国产精品一区| 亚洲AV人人澡人人双人| 亚洲视频二| 国产在线精品香蕉麻豆| 高清免费毛片| 毛片久久网站小视频| 人禽伦免费交视频网页播放| 成人a免费α片在线视频网站| 婷婷激情五月网| a在线亚洲男人的天堂试看| 性做久久久久久久免费看| a在线亚洲男人的天堂试看| 高清精品美女在线播放| 国产后式a一视频| 免费人成又黄又爽的视频网站| 成年人免费国产视频| Jizz国产色系免费| 99热这里只有精品免费国产| 国国产a国产片免费麻豆| 日韩精品高清自在线| 18黑白丝水手服自慰喷水网站| 国产麻豆精品久久一二三| 日韩午夜片| 亚洲免费播放| 国产成人毛片|