999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合多層特征SENet 和多尺度寬殘差的高光譜圖像地物分類(lèi)

2020-09-14 08:32:28于慧伶霍鏡宇張怡卓
實(shí)驗(yàn)室研究與探索 2020年7期
關(guān)鍵詞:分類(lèi)特征

于慧伶, 霍鏡宇, 張怡卓

(東北林業(yè)大學(xué)a.信息與計(jì)算機(jī)工程學(xué)院;b.機(jī)電工程學(xué)院,哈爾濱150040)

0 引 言

高光譜圖像具有較高的光譜分辨率、豐富的光譜信息以及空間分布信息,常應(yīng)用于很多不同的領(lǐng)域,例如礦業(yè)、天文學(xué)、化學(xué)成像、精確農(nóng)業(yè)、環(huán)境監(jiān)測(cè)和公共安全等方面[1]。近年來(lái),高光譜圖像分類(lèi)成為國(guó)內(nèi)外的研究熱點(diǎn),其中對(duì)地物進(jìn)行詳細(xì)分類(lèi)是高光譜圖像處理的主要研究問(wèn)題[2]。

目前,高光譜圖像分類(lèi)主要分為非監(jiān)督分類(lèi)方法、半監(jiān)督分類(lèi)方法和監(jiān)督分類(lèi)方法,非監(jiān)督分類(lèi)方法主要包括k-均值方法、非監(jiān)督模糊聚類(lèi)以及相應(yīng)的改進(jìn)算法等;半監(jiān)督分類(lèi)方法主要包括自訓(xùn)練、基于圖的方法以及相應(yīng)的改進(jìn)算法等;監(jiān)督分類(lèi)方法主要包括支持向量機(jī)、人工神經(jīng)網(wǎng)絡(luò)以及相應(yīng)的改進(jìn)算法等。岳江等[3]提出了一種基于空間一致性降元的高光譜圖像非監(jiān)督分類(lèi)的方法,但這種方法對(duì)含有多材質(zhì)、多目標(biāo)的復(fù)雜場(chǎng)景的高光譜圖像分類(lèi)效果不是很理想;Salem等[4]提出了一種基于模糊C-均值的非監(jiān)督光譜-空間SVM高光譜圖像分類(lèi)方法,但是這種方法需要對(duì)大規(guī)模的樣本進(jìn)行標(biāo)注;王君言等[5]提出了基于DL1圖和KNN圖疊加圖的高光譜圖像半監(jiān)督分類(lèi)的算法,但是這種方法在處理大樣本數(shù)據(jù)的分類(lèi)中分類(lèi)精度不是很高;Samiappan等[6]提出了一種結(jié)合半監(jiān)督協(xié)同訓(xùn)練和主動(dòng)學(xué)習(xí)的框架。但是由于標(biāo)簽數(shù)據(jù)過(guò)少,高光譜圖像的分類(lèi)精度依舊不是很高;冉瓊等[7]提出了結(jié)合超像元和子空間投影支持向量機(jī)的高光譜圖像分類(lèi)的方法,但是這種方法中超像元的個(gè)數(shù)無(wú)法準(zhǔn)確確定;Shamsolmoali等[8]提出了一種網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類(lèi)的方法,但是這種方法的分類(lèi)精度還有待提升。

以上分類(lèi)方法雖然取得了較好的效果,但在性能和準(zhǔn)確率上仍有進(jìn)一步提升的空間。為此,本文提出了一種全新的應(yīng)用于高光譜圖像分類(lèi)的深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)SE-Inception-Resnet-MSWideResnet(SEIRMSWR)。首先,利用主成分分析法(Principal Component Analysis,PCA)對(duì)原始的高光譜圖像進(jìn)行降維處理。其次,提出兩個(gè)深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu),①引入一個(gè)新的結(jié)構(gòu)單元,稱(chēng)之為“擠壓和激勵(lì)模塊”(Squeeze-and-Excitation,SENet),將其分別嵌入到Inception-Resnet-A、 Inception-Resnet-B、 Inception-Resnet-C中,通過(guò)學(xué)習(xí)網(wǎng)絡(luò)中各個(gè)特征通道的重要程度,提升有用的特征并抑制對(duì)當(dāng)前任務(wù)用處不大的特征。另外,由于SENet模塊在網(wǎng)絡(luò)結(jié)構(gòu)的不同層上會(huì)有不同的作用,為了增強(qiáng)網(wǎng)絡(luò)的泛化性能,將網(wǎng)絡(luò)結(jié)構(gòu)的低層特征、中間層特征以及高層特征結(jié)合組成更具有表征能力的特征信息。最后,通過(guò)Softmax層實(shí)現(xiàn)對(duì)高光譜圖像的分類(lèi)。②為每一個(gè)寬殘差網(wǎng)絡(luò)模塊增加更多并行的卷積層。將經(jīng)過(guò)同一輸入層映射出的多種不同的輸出結(jié)果最后連接到一個(gè)輸出,更精確地獲取高光譜圖像的特征,實(shí)現(xiàn)對(duì)高光譜圖像的分類(lèi)。最后,通過(guò)結(jié)果加權(quán)平均模型融合的方式獲得高光譜圖像的類(lèi)別。

1 深度學(xué)習(xí)網(wǎng)絡(luò)架構(gòu)

針對(duì)高光譜圖像分類(lèi)的問(wèn)題,提出了一種融合多層特征SENet和多尺度寬殘差的深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)SEIR-MSWR,該結(jié)構(gòu)不僅能同時(shí)提取高光譜圖像的光譜和空間特征,而且能提高高光譜圖像的分類(lèi)精度,如圖1所示。

圖1 融合多層特征SENet和多尺度寬殘差網(wǎng)絡(luò)結(jié)構(gòu)模型

首先,利用PCA算法對(duì)高光譜圖像進(jìn)行降維處理;其次,分別利用多層特征SENet網(wǎng)絡(luò)結(jié)構(gòu)模型(SEInception-Resnet)和多尺度寬殘差網(wǎng)絡(luò)結(jié)構(gòu)模型(MSWideResnet)對(duì)高光譜圖像進(jìn)行分類(lèi);最后,利用結(jié)果加權(quán)平均模型融合的方式輸出高光譜圖像的類(lèi)別。

1.1 多層特征SENet網(wǎng)絡(luò)模型

1.1.1 SENet結(jié)構(gòu)

Hu 等[9]提出了Squeeze-and-Excitation Networks(SENet)架構(gòu),該結(jié)構(gòu)由Squeeze、Excitation、Reweight三部分組成,它允許網(wǎng)絡(luò)通過(guò)學(xué)習(xí)全局信息實(shí)現(xiàn)對(duì)特征的重新校準(zhǔn),構(gòu)建特征通道之間的相互依賴(lài)關(guān)系,激勵(lì)對(duì)分類(lèi)有用的特征,抑制對(duì)分類(lèi)不太有用的特征[10],如圖2所示。首先是Squeeze操作,順著空間維度對(duì)輸入特征圖進(jìn)行全局平均池化,得到大小為C×1×1的特征圖(C為特征圖通道數(shù))。其次是Excitation操作,經(jīng)過(guò)兩個(gè)全連接層后由Sigmoid函數(shù)激活,得到大小為C×1×1的權(quán)重。最后一個(gè)是Reweight的操作,在對(duì)應(yīng)位置與原輸入特征圖相乘,得到輸出。

圖2 SENet模型結(jié)構(gòu)

1.1.2 構(gòu)建多層特征SENet網(wǎng)絡(luò)模型

如圖3所示,參照InceptionV2-Resnet網(wǎng)絡(luò)結(jié)構(gòu),將SENet模塊分別嵌入到Inception-Resnet-A,Inception-Resnet-B,Inception-Resnet-C中,同時(shí)將網(wǎng)絡(luò)的多層特征進(jìn)行融合。各模塊設(shè)計(jì)如圖4所示。

圖3 多層特征SENet網(wǎng)絡(luò)模型

圖4 各模塊設(shè)計(jì)

網(wǎng)絡(luò)結(jié)構(gòu)具體參數(shù)如下:

(1)第1層卷積層中卷積核數(shù)目為16,卷積核大小為3×3,步長(zhǎng)stride為1。

(2)在SE-Inception-Resnet-A模塊中,首先進(jìn)入3個(gè)卷積分組,在這3個(gè)卷積分組中,卷積核數(shù)目都為16,步長(zhǎng)stride均為1。其次,3個(gè)卷積分組經(jīng)合并后輸入到卷積核數(shù)目為32、步長(zhǎng)stride為1的1×1卷積層中。此模塊共計(jì)3個(gè)。

(3)在SE-Inception-Resnet-B模塊中,首先進(jìn)入兩個(gè)卷積分組,在這兩個(gè)卷積分組中,卷積核數(shù)目都為16,步長(zhǎng)stride均為1。其次,兩個(gè)卷積分組經(jīng)合并后輸入到卷積核數(shù)目為64、步長(zhǎng)stride為1的1×1卷積層中。此模塊共計(jì)6個(gè)。

(4)在SE-Inception-Resnet-C模塊中,首先進(jìn)入兩個(gè)卷積分組,在這兩個(gè)卷積分組中,卷積核數(shù)目都為16,步長(zhǎng)stride均為1。其次,兩個(gè)卷積分組經(jīng)合并后輸入到卷積核數(shù)目為128、步長(zhǎng)stride為1的1×1卷積層中。此模塊共計(jì)3個(gè)。

(5)分別將經(jīng)3個(gè)SE-Inception-Resnet-A、6個(gè)SE-Inception-Resnet-B、3個(gè)SE-Inception-Resnet-C 后輸出的特征圖進(jìn)行全局平均池化。

(6)因?yàn)楦邔雍椭虚g層還會(huì)有一定的信息,所以將低層、中間層以及高層的特征圖經(jīng)全局平均池化得到的特征向量進(jìn)行特征融合,組成更具有表達(dá)能力的特征信息。

(7)將特征向量輸入到Softmax進(jìn)行分類(lèi)。

1.2 多尺度寬殘差網(wǎng)絡(luò)

1.2.1 寬殘差網(wǎng)絡(luò)

理論上說(shuō),模型架構(gòu)的容量和特征判別能力會(huì)隨著網(wǎng)絡(luò)層數(shù)的增加而不斷提高,然而經(jīng)大量實(shí)驗(yàn)證明,只增加網(wǎng)絡(luò)的深度會(huì)出現(xiàn)梯度彌散問(wèn)題[11]。針對(duì)該問(wèn)題,何凱明等提出了使用捷徑連接(Shortcut Connection,SC)搭建深度殘差網(wǎng)絡(luò)結(jié)構(gòu)[12]。然而,隨著殘差網(wǎng)絡(luò)模型深度的不斷加深,實(shí)驗(yàn)發(fā)現(xiàn)只有少數(shù)的殘差塊可以學(xué)習(xí)到有用的特征。因此,Sergey等[13]提出了寬殘差網(wǎng)絡(luò)模塊思想,使用淺而寬的殘差網(wǎng)絡(luò)模塊代替原有深而窄的殘差網(wǎng)絡(luò)模塊,讓網(wǎng)絡(luò)結(jié)構(gòu)更淺更輕量級(jí)[14]。經(jīng)后續(xù)實(shí)驗(yàn)證明,適當(dāng)增加殘差網(wǎng)絡(luò)模塊的寬度的確比只增加網(wǎng)絡(luò)的深度更能提高殘差網(wǎng)絡(luò)的性能,原因是更寬的網(wǎng)絡(luò)增加了特征的選擇范圍,從而增加了特征的耦合能力[15]。

各種殘差塊如圖5所示。假設(shè)H(x)表示深度神經(jīng)網(wǎng)絡(luò)在輸入樣本x后的最優(yōu)解映射,傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)是直接擬合,即

而深度殘差網(wǎng)絡(luò)期望擬合殘差映射,即

因?yàn)閤是輸入的源圖像,所以可以驗(yàn)證擬合F(x)與擬合H(x)的目標(biāo)是等價(jià)的。在此條件下,原來(lái)的最優(yōu)解映射被表示為:

(1)基礎(chǔ)殘差塊。通過(guò)跨越性連接,使用兩個(gè)卷積核大小為3×3的卷積層;

(2)Bottleneck殘差塊。在兩個(gè)卷積核大小為1×1的卷積層中間增加卷積核大小為3×3的卷積層,同時(shí)為了減少模型的參數(shù)、增加網(wǎng)絡(luò)結(jié)構(gòu)的寬度,使用了比卷積核3×3更多的通道數(shù);

(3)基礎(chǔ)寬殘差塊。在基礎(chǔ)殘差塊的基礎(chǔ)上,通過(guò)增加卷積層的通道數(shù)來(lái)增加殘差塊的寬度;

(4)Dropout寬殘差塊。為了提升測(cè)試結(jié)果,體現(xiàn)寬殘差網(wǎng)絡(luò)的泛化性,在2個(gè)卷積核大小為1×1的卷積層中間添加Dropout機(jī)制。

綜上所述,寬殘差網(wǎng)絡(luò)在殘差塊基礎(chǔ)上的改進(jìn)的確能夠提高殘差塊的表達(dá)能力。

圖5 各種殘差塊

1.2.2 多尺度寬殘差網(wǎng)絡(luò)

本文結(jié)合Rubin等[16]提出的Inception模塊思想,為實(shí)現(xiàn)多尺度的特征學(xué)習(xí),適當(dāng)增加了寬殘差塊的分支。此外,為了降低網(wǎng)絡(luò)模型的參數(shù),在新增加的并行連接的卷積層上,沒(méi)有使用較大的7×7的卷積核,而是使用了1×1、3×3和5×5的卷積核形成多尺度寬殘差網(wǎng)絡(luò),同時(shí)在每個(gè)卷積層之前都有相應(yīng)的BatchNorm和ReLU層。

如圖6所示,本文的寬殘差模塊有6個(gè)分支,為了提高網(wǎng)絡(luò)的表達(dá)能力,在除shortcut連接的分支上都有一個(gè)1×1卷積,因?yàn)?×1卷積不僅可以對(duì)通道數(shù)進(jìn)行升維和降維、跨通道組織信息,還可以用很小的計(jì)算量就能夠增加特征變換和非線(xiàn)性變換。具體結(jié)構(gòu)如下:第1個(gè)分支為1×1卷積;第2個(gè)分支先用1×1卷積,然后進(jìn)行3×3卷積;第3個(gè)分支先用3×3卷積,然后進(jìn)行1×1卷積;第4個(gè)分支先用1×1卷積,然后進(jìn)行5×5卷積;第5個(gè)分支是使用5×5卷積后再執(zhí)行1×1卷積;最后1個(gè)分支是shortcut連接;最后通過(guò)連接操作合并。

圖6 多尺度寬殘差學(xué)習(xí)塊

本文的多尺度寬殘差網(wǎng)絡(luò)結(jié)構(gòu)MSWideResnet如圖7所示,寬殘差模塊的總層數(shù)為16,殘差塊的寬度由加寬系數(shù)k決定,其中k=4。

圖7 多尺度寬殘差網(wǎng)絡(luò)模型

2 實(shí)驗(yàn)結(jié)果和分析

實(shí)驗(yàn)采用的計(jì)算機(jī)配置是i7-6700 CPU,20 GB RAM,軟件為Spyder(3.2.6)。

2.1 實(shí)驗(yàn)數(shù)據(jù)集

為了比較本文算法的分類(lèi)效果,選取Indian Pines數(shù)據(jù)和Pavia University數(shù)據(jù)進(jìn)行實(shí)驗(yàn)。Indian Pines是由AVIRIS傳感器獲得,高光譜圖像大小為145×145像素,其空間分辨率能夠達(dá)到20 m,采用的光譜范圍為0.4 ~2.5 μm,共包含了200 個(gè)波段。Pavia University是由ROSIS傳感器獲得,高光譜圖像大小為610×340像素,其空間分辨率能夠達(dá)到1.3 m。采用光譜覆蓋范圍為0.43 ~0.86 μm,共包含103 個(gè)波段。

2.2 數(shù)據(jù)預(yù)處理

高光譜圖像的數(shù)據(jù)量往往很大,如果直接對(duì)原始圖像進(jìn)行處理,不僅會(huì)造成很大的計(jì)算量而且會(huì)造成分類(lèi)精度較低。為了加快訓(xùn)練和分類(lèi)的過(guò)程,采用PCA算法降低高光譜圖像的維數(shù)。雖然利用該方法降維會(huì)導(dǎo)致光譜信息的損失,但空間信息仍保持完整。經(jīng)過(guò)PCA算法降維后,主要信息容易集中在少數(shù)幾個(gè)波段,如表1 Indian Pines主成分,表2 Pavia University主成分所示。

表1 Indian Pines主成分

表2 Pavia University主成分

在本實(shí)驗(yàn)中,選取累計(jì)貢獻(xiàn)率大于或等于98%的主成分來(lái)取代原始圖像,進(jìn)而壓縮數(shù)據(jù)。從表1、2可以看出,圖像的主要成分主要集中在前3個(gè)主分量上,后面大部分的分量都是噪聲。

2.3 對(duì)比算法和評(píng)價(jià)指標(biāo)

為了驗(yàn)證本文中SEIR-MSWR模型在高光譜圖像分類(lèi)中的效果,將其與其他常見(jiàn)的分類(lèi)算法做對(duì)比實(shí)驗(yàn)。主要包括支持向量機(jī)(Support Vector Machine,SVM)、K-最近鄰法(K-NearestNeighbor,KNN)、寬殘差網(wǎng)絡(luò)(Wide Resnet Network,WRN)以及InceptionV2-Resnet。

在進(jìn)行高光譜圖像降維前,首先對(duì)輸入的原始高光譜圖像數(shù)據(jù)進(jìn)行歸一化,令每一個(gè)數(shù)值位于區(qū)間[0 1]。在完成高光譜圖像分類(lèi)后,依照地面真實(shí)數(shù)據(jù),采用4個(gè)常見(jiàn)的高光譜圖像分類(lèi)精度指標(biāo)(整體分類(lèi)精度(Overall Accuracy,OA)、平均分類(lèi)精度(Average Accuracy,AA)、每類(lèi)分類(lèi)精度(Class Accuracy,CA)以及Kappa系數(shù))對(duì)高光譜圖像的分類(lèi)結(jié)果進(jìn)行客觀評(píng)價(jià),評(píng)估分類(lèi)結(jié)果的準(zhǔn)確程度。

2.4 實(shí)驗(yàn)結(jié)果分析

將經(jīng)PCA算法降維后的3維高光譜圖像分別輸入到5種網(wǎng)絡(luò)結(jié)構(gòu)中,為保證不同分類(lèi)算法的訓(xùn)練數(shù)據(jù)、測(cè)試數(shù)據(jù)均相同,即從每個(gè)地物類(lèi)別中隨機(jī)選取70%的標(biāo)記樣本作為訓(xùn)練樣本,另外30%的標(biāo)記樣本為測(cè)試樣本。此外,為更精確地實(shí)現(xiàn)高光譜圖像的分類(lèi),均選取在訓(xùn)練數(shù)據(jù)上分類(lèi)精度最高的模型對(duì)測(cè)試數(shù)據(jù)進(jìn)行分類(lèi),并與真實(shí)的地物標(biāo)記對(duì)比評(píng)價(jià)分類(lèi)精度。網(wǎng)絡(luò)結(jié)構(gòu)確定后,利用均值為0、方差為0.1的截?cái)嗾龖B(tài)分布對(duì)卷積層和全連接層的權(quán)重進(jìn)行隨機(jī)初始化,設(shè)置偏置為0.1,Dropout為0.5。采用Adam 優(yōu)化器對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,在SVM算法中,通過(guò)gridsearch方法找到最優(yōu)參數(shù)c和gamma的值,分別為c=0.01,gamma=100;在KNN算法中,通常采用交叉驗(yàn)證的方法來(lái)選取合適的k值,即k=1;在WRN網(wǎng)絡(luò)模型中的初始學(xué)習(xí)率設(shè)置為0.001,batchsize設(shè)置為128,最大迭代次數(shù)為12 000次;InceptionV2-Resnet網(wǎng)絡(luò)模型的初始學(xué)習(xí)率設(shè)置為0.01,batchsize設(shè)置為200,最大迭代次數(shù)為12 000次;本實(shí)驗(yàn)的SEIR-MSWR網(wǎng)絡(luò)模型的初始學(xué)習(xí)率設(shè)置為0.000 1,batchsize設(shè)置為200,最大迭代次數(shù)為12 000次。采用結(jié)果加權(quán)平均模型融合時(shí),SE-Inception-Resnet網(wǎng)絡(luò)模型以及MSWideResnet網(wǎng)絡(luò)模型的權(quán)值分別為0.6,0.4。

(1)Indian Pines數(shù)據(jù)集。圖8給出了訓(xùn)練過(guò)程中損失函數(shù)的變化情況??梢钥闯?,隨著迭代次數(shù)的增加,損失函數(shù)呈下降趨勢(shì)。當(dāng)?shù)螖?shù)增加到一定范圍時(shí),損失函數(shù)的下降趨于平緩。同時(shí),InceptionV2-Resnet和SEIR-MSWR損失函數(shù)的下降趨勢(shì)明顯陡于WRN。

圖9給出了3種深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)在訓(xùn)練過(guò)程中總體分類(lèi)精度的變化情況。從中可以看出,隨著迭代次數(shù)的增加,總體分類(lèi)精度呈上升趨勢(shì)。同時(shí),InceptionV2-Resnet和SEIR-MSWR總體分類(lèi)精度的增長(zhǎng)速度較強(qiáng)于WRN。

圖8 Indian Pines在訓(xùn)練過(guò)程中損失函數(shù)的變化情況

圖9 Indian Pines在訓(xùn)練過(guò)程中總體分類(lèi)精度的變化情況

圖10 給出了Indian Pines數(shù)據(jù)集上不同算法的分類(lèi)圖,SEIR-MSWR分類(lèi)噪聲相比于其他方法更少,獲得了更好的分類(lèi)效果。但是對(duì)于數(shù)據(jù)集中易于區(qū)分的地物類(lèi)別,SEIR-MSWR分類(lèi)效果于其他方法相當(dāng),如Wheat、Hay-windrowed。對(duì)于特征相近的地物類(lèi)別,SEIR-MSWR能很明顯地提高分類(lèi)精度,從而改善總體的分類(lèi)效果。

圖10 Indian Pines高光譜圖像分類(lèi)結(jié)果

表3給出了Indian Pines高光譜圖像數(shù)據(jù)集對(duì)應(yīng)的分類(lèi)結(jié)果,針對(duì)OA、AA和Kappa系數(shù),WRN、InceptionV2-Resnet以及SEIR-MSWR較SVM和KNN有較為明顯的提升。此外,SEIR-MSWR的OA相比于RBF-SVM、KNN、WRN 和InceptionV2-Resnet分別提高了20.86%、20.09%、5.48%、3.39%,AA 分別提高了17.98%、16.31%、6.03%、3.73%,Kappa 分別提高了0.18、0.17、0.06、0.04。

表3 Indian Pines數(shù)據(jù)集上各種分類(lèi)算法的正確率統(tǒng)計(jì)%

(2)Pavia University數(shù)據(jù)集。圖11給出了訓(xùn)練過(guò)程中損失函數(shù)的變化情況。從中可以看出,隨著迭代次數(shù)的增加,損失函數(shù)呈下降趨勢(shì)。當(dāng)?shù)螖?shù)增加到一定范圍時(shí),損失函數(shù)的下降趨于平緩。同時(shí),WRN損失函數(shù)的波動(dòng)明顯高于InceptionV2-Resnet和SEIR-MSWR。

圖12給出了3種深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)在訓(xùn)練過(guò)程中總體分類(lèi)精度的變化情況,從中可以看出,隨著迭代次數(shù)的增加,總體分類(lèi)精度呈上升趨勢(shì)。當(dāng)?shù)螖?shù)增加到一定范圍時(shí),分類(lèi)精度的增長(zhǎng)趨于平緩。同時(shí),WRN總體分類(lèi)精度的波動(dòng)明顯高于InceptionV2-Resnet和SEIR-MSWR。

圖13給出了Pavia University數(shù)據(jù)集上不同算法的分類(lèi)圖,SEIR-MSWR分類(lèi)噪聲相比于其他方法更少,獲得了更好的分類(lèi)效果。但是對(duì)于數(shù)據(jù)集中易于區(qū)分的地物類(lèi)別,SEIR-MSWR分類(lèi)效果于其他方法相當(dāng),如Meadows、Trees。對(duì)于特征相近的地物類(lèi)別,SEIR-MSWR能很明顯地提高分類(lèi)精度,從而改善總體的分類(lèi)效果。

表4給出了Pavia University高光譜圖像數(shù)據(jù)集對(duì)應(yīng)的分類(lèi)結(jié)果,針對(duì)OA、AA和Kappa系數(shù),WRN、InceptionV2-Resnet以及SEIR-MSWR較SVM和KNN有較為明顯的提升。此外,SEIR-MSWR的OA相比于RBF-SVM、KNN、WRN 和InceptionV2-Resnet分別提高了23.1%、16.89%、6.66%、2.58%,AA 分別提高了23.1%、19.13%、7.42%、3.35%,Kappa 分別提高了0.22、0.17、0.07、0.03。

圖11 Pavia University高光譜圖像損失函數(shù)的變化情況

圖12 Pavia University在訓(xùn)練過(guò)程中損失函數(shù)的變化情況

圖13 Pavia University高光譜圖像分類(lèi)結(jié)果

表4 Pavia University數(shù)據(jù)集上各種分類(lèi)算法正確率統(tǒng)計(jì)%

3 結(jié) 語(yǔ)

本文針對(duì)高光譜圖像特征提取和分類(lèi)的問(wèn)題,提出了將SE-Inception-Resnet和MSWideResnet模型融合實(shí)現(xiàn)對(duì)高光譜圖像分類(lèi)的方法。首先,由于高光譜圖像中存在冗余信息,利用PCA算法對(duì)原有的高光譜圖像進(jìn)行降維處理得到三維的高光譜圖像。其次,將提出的兩種深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)應(yīng)用于對(duì)高光譜圖像的分類(lèi),第1種網(wǎng)絡(luò)結(jié)構(gòu)是將Senet模塊分別嵌入到Inception-Resnet-A、 Inception-Resnet-B、 Inception-Resnet-C中,并將網(wǎng)絡(luò)的多層特征進(jìn)行融合得到SEInception-Resnet網(wǎng)絡(luò)結(jié)構(gòu),第2種網(wǎng)絡(luò)結(jié)構(gòu)是通過(guò)增加寬殘差網(wǎng)絡(luò)中并行的卷積層得到MSWideResnet網(wǎng)絡(luò)結(jié)構(gòu)。最后,利用結(jié)果加權(quán)平均模型融合的方式獲得高光譜圖像的類(lèi)別。實(shí)驗(yàn)結(jié)果表明,通過(guò)對(duì)Indian Pines和Pavia University兩個(gè)真實(shí)高光譜圖像數(shù)據(jù)進(jìn)行實(shí)驗(yàn),驗(yàn)證了本文方法比傳統(tǒng)方法對(duì)高光譜圖像特征提取和分類(lèi)有更好的效果。

融合多層特征SENet和多尺度寬殘差的高光譜圖像地物分類(lèi)方法更好地提取了高光譜圖像的本質(zhì)特征,提高了高光譜圖像的分類(lèi)精度,但是該方法存在耗時(shí)較長(zhǎng)的問(wèn)題,如何提高高光譜圖像分類(lèi)的速度還有待進(jìn)一步研究。

猜你喜歡
分類(lèi)特征
抓住特征巧觀察
分類(lèi)算一算
垃圾分類(lèi)的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
分類(lèi)討論求坐標(biāo)
數(shù)據(jù)分析中的分類(lèi)討論
教你一招:數(shù)的分類(lèi)
抓住特征巧觀察
主站蜘蛛池模板: julia中文字幕久久亚洲| 成AV人片一区二区三区久久| 色婷婷啪啪| 亚洲国产理论片在线播放| 国产精品男人的天堂| 国产迷奸在线看| 精品伊人久久大香线蕉网站| 在线日韩日本国产亚洲| 精品少妇人妻av无码久久| 亚洲综合亚洲国产尤物| 一区二区三区成人| 国产凹凸视频在线观看| 草草影院国产第一页| 国产日韩精品欧美一区灰| 日本妇乱子伦视频| 亚洲精品桃花岛av在线| 国产精欧美一区二区三区| 国产第一色| 亚洲精品va| 色综合天天综合| 婷婷中文在线| 久久久久人妻一区精品| 亚洲三级a| 韩国自拍偷自拍亚洲精品| 久久人人97超碰人人澡爱香蕉| 国产精品久久久久婷婷五月| 丁香婷婷综合激情| 久久久久久久久18禁秘| h网站在线播放| 久久精品中文字幕免费| 日韩精品高清自在线| 青青久久91| 欧美曰批视频免费播放免费| 国产性精品| 天天干天天色综合网| 国产美女主播一级成人毛片| 亚洲精品手机在线| 亚洲IV视频免费在线光看| 亚洲欧美日韩高清综合678| 免费国产好深啊好涨好硬视频| 亚洲无码高清免费视频亚洲| aⅴ免费在线观看| 亚洲人成人伊人成综合网无码| 国产午夜精品鲁丝片| 国产精品一区在线麻豆| 国产在线精品香蕉麻豆| 超清无码熟妇人妻AV在线绿巨人| 久久夜夜视频| 国产在线精品99一区不卡| 久久国产精品夜色| 久久综合亚洲鲁鲁九月天| 亚洲嫩模喷白浆| 无码中文字幕乱码免费2| 成人午夜精品一级毛片| 久久国产成人精品国产成人亚洲 | 99热这里都是国产精品| 国产精品青青| 国产精品男人的天堂| 蜜臀av性久久久久蜜臀aⅴ麻豆| 2021天堂在线亚洲精品专区| 992tv国产人成在线观看| 国产天天射| 国产白浆在线| 超清无码一区二区三区| 久久精品日日躁夜夜躁欧美| 大香伊人久久| 日韩欧美一区在线观看| 91福利一区二区三区| 亚洲系列中文字幕一区二区| 99爱在线| 亚洲第一色视频| 欧美日韩中文国产va另类| 激情视频综合网| 国产剧情一区二区| 亚洲AV成人一区二区三区AV| 青草娱乐极品免费视频| 欧美精品1区| 国产91精品调教在线播放| 久久综合结合久久狠狠狠97色| 成人精品免费视频| 色偷偷av男人的天堂不卡| 午夜a级毛片|