999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于DenseNet-Attention模型的高光譜圖像分類

2021-01-12 06:12:02張永鵬張春梅
圖學學報 2020年6期
關鍵詞:分類特征模型

張永鵬,張春梅,白 靜

基于DenseNet-Attention模型的高光譜圖像分類

張永鵬,張春梅,白 靜

(北方民族大學計算機科學與工程學院,寧夏 銀川 750021)

針對高光譜圖像標記樣本量少,提取特征不充分以及提取到的特征不區分貢獻度的問題,提出一個新型的DenseNet-Attention網絡模型(DANet)。首先,該模型利用三維卷積核同步提取聯合光譜空間特征,同時密集連接網絡(DenseNet)的稠密連接塊除了能夠充分提取更加魯棒的特征外,還減少了大量參數;其次,自注意力(self-attention)機制作為一個模塊加入到稠密連接塊中,可以使上層提取到的特征在進入下一層網絡之前,經過該模塊對其進行權重分配,使具有豐富的物類別信息的特征得到加強,進而區分特征的貢獻度。網絡模型以原始高光譜圖像鄰域塊作為輸入,無需任何預處理,是一個端對端學習的深度神經網絡。在印第安松樹林和帕維亞大學數據集上進行對比試驗,網絡模型的分類精度分別能夠達到99.43%和99.99%,有效提高了高光譜圖像分類精度。

三維卷積;高光譜圖像分類;稠密網絡;自注意力機制;殘差連接

高光譜圖像利用成像光譜儀以數十個、至數百個連續細分的波段對目標區域進行成像,形成以像素為單位的高維圖像,憑借其豐富的空間和光譜信息,極大地提高了地物的區分能力,因此在農業、環境監測、城市規劃等領域有著廣泛的應用。由于高光譜數據的高維特性,訓練模型需要大量的樣本,才能保證良好的精度。但是高光譜數據樣本量較少,訓練得到的模型很容易產生休斯(Hughes)現象,即在高光譜分析的過程中,隨著參與運算的波段數目的增加,分類精度先增后降的現象[1]。因此,高光譜的準確分類還面臨著一系列的挑戰。

近年來,由于深度神經網絡強大的自動提取特征能力,包括卷積神經網絡(convolutional neural network,CNN)在內的深度學習網絡模型也逐步應用在高光譜圖像分類領域。CHEN等[2-3]首先提出了一種融合空間和光譜特征的深度學習框架,該框架采用堆疊自編碼器和深度置信網絡作為特征提取器,來獲取高級特征以獲得分類結果。基于二維卷積核(2D-CNN)的方法需要分別在光譜和空間維度上提取信息,使得網絡設計冗余復雜,且不能充分提取聯合光譜和空間特征,導致部分信息丟失。使用三維卷積核(3D-CNN)可以有效地提取深度聯合光譜-空間特征,以進行準確的高光譜圖像(hyperspectral image,HSI)分類,而無需依賴任何預處理或后處理技術。CHEN等[4]提出了一種基于3D-CNN的深度特征提取網絡,在高光譜分類領域為CNN及其擴展網絡架構指出了方向。LI等[5]提出了一種用于準確的HSI分類的3D-CNN框架,并使用原始高光譜數據作為輸入,有效地提取了融合的光譜空間特征。ZHONG等[6]提出了一種光譜-空間殘差網絡(spectral-spatial residual network,SSRN),該網絡分別使用光譜和空間殘差塊從HSI的豐富光譜特征和空間信息中學習深層區別特征,但是光譜特征提取器和空間特征提取器使得網絡設計冗余,訓練時間過長。WANG等[7]為了減少訓練時間并提高分類精度,提出一種端到端的快速密集光譜空間卷積模型(fast dense spectral–spatial convolution network framework,FDSSC),使用不同大小的卷積核,分別提取多尺度的空間和光譜特征,使得分類精度提高。HE等[8]利用多尺度卷積的策略,使用不同大小的3D-CNN在不同感受野上提取有效特征。鄭姍姍等[9]使用3D-CNN對多尺度濾波器組和殘差單元進行改進,提出了深度三維卷積神經網絡(multi-scale 3D residual convolutional neural network,M3RCNN),可以有效提高分類精度。

盡管基于CNN的方法在HSI分類領域獲得了很好的效果,但是仍然存在一些問題。首先,由于HSI樣本較少,如何能夠在數據量少的情況下提取出有效的特征,對于分類精度的提高有著至關重要的作用。其次,樣本量少和神經網絡的深度之間的平衡問題也必須考慮。最后,雖然各種特征提取器可以提取出良好的特征,但是提取出來的特征對于網絡層各節點的貢獻是均等的,如何區分特征的貢獻度也是一個難題。

基于以上問題,本文引入了自注意力機制。自注意力機制會通過模型訓練,讓神經網絡學習到圖片中更加有效的信息。其原理是通過在圖上附加權重矩陣,將圖中的關鍵信息使用掩碼來形成注意力。WANG等[10]借鑒了非局部均值濾波操作的思想,提出了可以嵌入到神經網絡的非局部塊(non-local block,NL Block),使用自注意力機制對遠程依賴進行建模,融合了全局信息,而不是僅僅通過多層卷積來獲得較大感受野的信息,為網絡提供了豐富的語義信息,但是該網絡的計算開銷很大。HU等[11]提出了壓縮-激勵網絡(squeeze-and-excitation networks,SENet),該模型通過對通道之間的相關性進行建模,統計圖像的全局信息,獲得了ImageNet2017分類比賽的冠軍。然而SENet通過權值重標記來調整通道注意力,不能夠充分利用全局上下文信息。CAO等[12]提出了全局上下文網絡(global context network,GCNet),該網絡將簡化的NL Block和SENet相結合,在減少計算量的同時,充分利用全局上下文信息,從而得到很好的分類效果。WOO等[13]提出了卷積塊注意力機制模塊(convolutional block attention module,CBAM),該網絡先后使用通道注意力模塊和空間注意力模塊,提供了更加精細的信息,有利于提升模型的表達能力。ROY等[14]對SENet進行改進,提出了空間通道壓縮-激勵模塊(concurrent spatial and channel squeeze and channel excitation,scSE),該模塊利用注意力機制增強有效特征,抑制無效特征,應用在圖像分割領域,可以使分割邊緣更加精細。魏祥坡等[15]將通道注意力機制和殘差網絡相結合,在高光譜圖像數據集上取得較高的分類精度。

為了充分提取并利用對分類更加有效的特征,提高模型的性能,本文提出了一個適用于高光譜圖像的分類模型,該模型基于密集連接的卷積網絡,并且在其中融合了自注意力機制。密集連接的卷積網絡緩解了梯度消失的問題,加強了特征傳播,鼓勵特征重用,并且大大減少了參數量,能夠在數據量少的情況下提取出更加魯棒的特征。同時,利用自注意力機制為提取到的特征分配權重,能夠有效利用更加重要的特征,提高分類精度。

1 基本原理

本節主要介紹基于DenseNet-Attention模型的思想,包括密集卷積網絡以及適用于高光譜圖像分類的自注意力機制。最后,總體說明DenseNet-Attention的具體實現方法。

1.1 DenseNet

密集連接網絡是殘差網絡的一種變體,殘差網絡[16]的連接機制是每層與其前面的一至兩層通過逐元素相加的方式進行短路連接,即

而與其不同的是,DenseNet的連接機制是使所有的層都相互連接,每個層都會接受前面所有的層作為輸入,并將每層特征圖都在通道維度上進行連接,即

其中,x為第層輸出;[0,1,···,x-1]為從輸入層到-1層的特征圖拼接;H(·)為非線性轉化函數,該函數是一個包含BN層、ReLU層以及卷積層的組合操作。在DenseNet中,每層從前面所有層中獲得額外的輸入,并將其特征映射繼續傳遞到后續所有的層。DenseNet前向傳播如圖1所示,每一層都能接收到來自前面所有層的特征信息,使得特征信息和梯度能夠在網絡中很好的傳遞,可以訓練更深的模型,并且加強了特征重用。

圖1 DenseNet前向傳播圖

DenseNet網絡結構主要是由多個密集連接塊(dense block)和過渡層(transition)組成[17]。各個dense block內的特征圖大小保持統一,可以很方便地進行維度拼接。假設每層只產生個特征圖,根據DenseNet的網絡設計,那么第層的輸入維度可表示為

其中,k0為輸入層的通道數。由式(3)看出,如果特征圖通道數不加限制,拼接后的數目較大。為了減少特征圖數量,減少計算量,便于融合各個通道特征,在dense block中加入瓶頸層。dense layer結構如圖2所示,在3×3卷積前面加入一個1×1的卷積操作,令其生成4K個特征圖,極大的降低了特征圖數量,壓縮了模型參數,提升了計算效率。

對于過渡層,主要連接2個dense block,其中包含了一個1×1的卷積和2×2的平均池化,用以降低特征圖大小。如果上一層的dense block輸出個特征映射,過渡層可以生成個特征映射,其中0≤≤1稱為壓縮因子,當=1時,特征映射保持不變;當<1時,過渡層能夠壓縮模型。

在最后一個dense block執行結束后,由全局平均池化層(global average pooling,GAP)代替全連接層,輸入到softmax分類器中進行分類,大大減少了參數量,也緩解了由于全連接層引起的過擬合現象。

1.2 self-attention機制

計算機視覺領域中的注意力機制的基本思想是讓網絡能夠在眾多特征中忽略無關信息從而關注到對當前任務重要的特征信息[18]。注意力機制分為軟注意力機制和強注意力機制,由于強注意力機制是不可微的注意力,需通過增強學習等策略進行訓練,而軟注意力機制是可微分的,可以在訓練過程中使用梯度下降算法來更新網絡參數,自注意力機制就是其中的一種。

自注意力機制使用帶有權重參數的掩碼(mask)來形成注意力。利用特征圖自主學習權重分布,再用學習得到的權重施加在特征上,使對分類任務貢獻度大的特征得到加強,抑制了貢獻度小的特征。本文提出了改進的自注意力方法應用于高光譜圖像分類。改進的自注意力方法如圖3所示。

圖3 DenseNet-Attention模型結構

由圖3可知,層輸出和-1層輸出的特征圖經過1×1×1卷積進行線性映射,來壓縮通道,分別得到WW-1特征,然后二者逐元素相加,經過ReLU函數、1×1×1卷積和sigmoid操作,生成一個權重圖,稱之為注意力系數,即

1.3 DenseNet-Attention模型

由于高光譜圖像高維的特性,使用2D-CNN來提取光譜空間特征需要很多復雜、冗余的計算。而3D-CNN能夠同時在空間和光譜維度進行卷積,在保留原有網絡模型的同時能夠充分提取聯合光譜空間特征,從而解決了這個問題。本文將三維卷積、稠密連接網絡和自注意力機制結合起來,提出一種適合高光譜圖像分類的網絡模型。該模型如圖4所示,將高光譜圖像切割成××大小的鄰域塊作為網絡的輸入,先經過一層卷積操作提取淺層的特征,然后進入dense block,為了平衡網絡的深度和復雜性與高光譜圖像樣本量少的矛盾,在每個dense block中有3個dense layers作為特征提取器。與ZHANG等[19]不同的是,本文在2個dense layers之間加入了自注意力機制模塊,來自前2層的特征圖都要經過該模塊計算之后才能作為下一層的輸入,為特征分配權重。之后再進入到過渡層,對特征圖下采樣,并壓縮模型參數數量。最后一個dense block后面連接的是代替全連接層的GAP層,其對每一個特征圖求均值,直接賦予每個通道的類別標簽,經過softmax完成對高光譜圖像的分類。全局平均池化層在減少參數量的同時能夠對整個網絡結構做正則化防止過擬合。以上所有的卷積層都有BN層和非線性激活函數ReLU連接,分類采用交叉熵損失函數。

圖4 改進的Self-attention結構圖

2 實驗結果與分析

本次實驗所采用的計算機硬件環境為一塊Tesla V100顯卡、32 GB內存,軟件環境為pycharm、Keras 2.1.6、TensorFlow1.12。系統環境為Centos 7.0。為了驗證該模型的有效性,在2個真實的高光譜圖像數據集上進行了測試:印第安松樹數據集和帕維亞大學數據集。本文采用平均分類精度AA (average all,AA)、總體分類精度(over all,OA)和Kappa系數對模型結果進行評估。

2.1 數據集介紹

Indian Pines是最早的用于高光譜圖像分類的測試數據,由機載可視紅外成像光譜儀(airborne visible infrared imaging spectrometer,AVIRIS)于1992年對美國印第安納州一塊印度松樹進行成像,圖像尺寸為145×145。AVIRIS成像光譜儀成像波長范圍為0.4~2.5 μm,在連續的220個波段對地物連續成像,但是由于第104~108、第150~163和第220個波段不能被水反射,因此,一般使用的是剔除了這20個波段后剩下的200個波段作為研究的對象。該光譜成像儀所成的圖像的空間分辨率約為20 m,因此,較容易產生混合像元,給分類帶來難度。該數據總共有21 025個像素,但是其中只有10 249個像素是地物像素,其余10 776個像素均為背景像素。在實際分類中,該像素是需要剔除的,由于截取的這塊區域均是植物,總共有16類,因此不同的地物具有較為相似的光譜曲線,而且16類中樣本的分布極不均勻。Pavia University數據是由德國的機載反射光學光譜成像儀(Reflective Optics SpectrographicImaging System,ROSIS-03)在2003年對意大利的帕維亞城所成像的一部分。該光譜成像儀對0.43~0.86 μm波長范圍內的115個波段連續成像,所成圖像的空間分辨率為1.3 m。其中12個波段由于受噪聲影響被剔除,因此一般使用的是剩下103個光譜波段所成的圖像。該數據的尺寸為610×340,共包含2 207 400個像素,但是其中包含大量的背景像素,包含地物的像素總共只有42 776個,共包含9類地物,包括樹、瀝青道路(asphalt)、磚塊(bricks)、牧場(meadows)等。

2.2 實驗結果與分析

本次實驗的訓練集、驗證集和測試集的劃分比例為2∶1∶7,訓練樣本是在每個樣本中隨機按比例選取得到的,剩余的樣本用于驗證和測試。學習率為0.001,一共運行150個Epoch,采用梯度下降算法對參數進行更新,優化器采用Adam[20]。

2.2.1 鄰域參數設置

對于高光譜遙感圖像,空間鄰域信息對分類精度的影響很大[21]。本文將在數據集上分別測試不同空間鄰域對分類精度的影響。

從表1中可以看出,對于印第安松樹林數據集,隨著空間鄰域尺寸的增加,在空間鄰域達到15×15時,精度達到最高,隨后開始下降。所以對于印第安數據集來說,選擇空間鄰域大小為15×15的數據立方體作為網絡的輸入。

表1 不同空間鄰域輸入精度對比

對于帕維亞大學數據集來說,由于該數據集的地物面積較大,所以采取一個大的空間鄰域更加有利于保存一類物體的空間特征信息。從表2中可以看出,在空間鄰域大小為19×19時,各項評估精度達到最佳,因此對于帕維亞大學數據集選擇空間鄰域大小為19×19的數據立方體作為網絡的輸入。

表2 不同空間鄰域輸入精度對比

2.2.2 實驗結果

為了得到更好的空間位置信息,提高分類精度,對于Indian Pines數據集,網絡的輸入為15×15×200大小的立方體數據;對于Pavia University數據集,采用19×19×103的立方體數據作為網絡輸入。

為了驗證試驗的有效性,本文和2D-CNN[22],3D-CNN[4],SSRN[6],3D-DenseNet[19]高光譜分類網絡進行了試驗對比。為了保證公平性,所有實驗都在相同的實驗環境中進行,以上所提及到的對比方法的網絡參數與原始論文相同。2種數據集的實驗分類結果見表3和表4,分類效果及標簽圖如圖5和圖6所示。

表3 Indian Pines數據集分類精度(%)

表4 Pavia University數據集分類精度(%)

2.2.3 實驗結果分析

由表3和表4可以看出,本文提出的DANet模型效果是5種模型中最好的。對于Indian Pines數據集,SSRN無法分類出第7類和第9類地物,導致總體精度高,但是平均精度低,因為這2類地物的數據量很少,分別只有28個和20個像素,體現了SSRN對于小樣本的地物分類不穩定。3D DenseNet與3D CNN相比,OA,AA,Kappa系數分別提升了0.71%,0.89%,0.19%。3D DenseNet與SSRN相比,OA,AA,Kappa系數分別提升了0.04%,12.18%,0.02%。由此說明,密集連接比殘差連接可以更好地加深模型深度,提取更加深層、更加全面的特征,提高分類精度。本文提出的DANet和3D DenseNet相比,OA,AA,Kappa系數分別提升了0.24%,0.51%,0.27%。由此可以看出,通過采用自注意力機制為不同的特征賦予不同的權重,選取更加有效的特征,有效地利用更具有信息量的特征,從而提高網絡的特征提取能力,具有更好的泛化能力。對于Pavia University 數據集,由于該數據集相對于Indian Pines數據集樣本量要大一些,所以無論哪種方式分類精度都比較高。但總體而言,DANet的OA值達到了99.99%,比2D-CNN,3D-CNN,SSRN,3D-DenseNet分別提高了0.25%,0.11%,0.05%,0.04%。模型的平均分類精度也達到了99.96%,實現了最好的分類精度,且分類效果穩定。在表3和表4中還可以發現一個直觀的現象,基于3D CNN的4種模型比2D CNN模型分類精度都要高,主要因為對于高維的高光譜圖像來說,3D卷積能同時充分提取聯合光譜空間特征,利用更多的光譜-空間特征進行網絡訓練,從而提高模型的分類精度。由對應的分類效果圖(圖5~6)可以看出,本文的分類效果圖更加精確且同質區域噪點少。

圖5 Indian Pines標簽和分類結果圖

圖6 Pavia University標簽和分類結果圖

3 結 論

針對高光譜圖像標記樣本量少和現階段適用于高光譜分類的神經網絡提取特征不充分的問題,提出一個新型的、改進的DenseNet-Attention網絡模型,其中3D-CNN用來同時提取光譜-空間聯合特征,DenseNet用來提取更加魯棒的特征,加入的自注意力機制模塊用來為特征賦予對應權重,使具有豐富地物類別信息的特征得到加強,進而區分特征的貢獻度。實驗結果證明,本文所提出的模型性能明顯優于2D-CNN,3D-CNN,SSRN,3D-DenseNet,擁有更強的特征表達能力,提高了分類精度。后續研究可以考慮將其與半監督方法或者自監督學習方法結合,利用少量訓練樣本來提高分類精度。

[1] 楊哲海, 李之歆, 韓建峰, 等. 高光譜中的Hughes現象與低通濾波器的運用[J]. 測繪學院學報, 2004, 21(4): 253-255, 258. YANG Z H, LI Z Q, HAN J F, et al. The hughes phenomenon in hyperspectral analysis and the application of the lowpass Filter[J]. Journal of Institute of Surveying and Mapping, 2004, 21(4): 253-255, 258 (in Chinese).

[2] CHEN Y S, LIN Z H, ZHAO X, et al. Deep learning-based classification of hyperspectral data[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(6): 2094-2107.

[3] CHEN Y S, ZHAO X, JIA X P. Spectral–spatial classification of hyperspectral data based on deep belief network[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2015, 8(6): 2381-2392.

[4] CHEN Y S, JIANG H L, LI C Y, et al. Deep feature extraction and classification of hyperspectral images based on convolutional neural networks[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(10): 6232-6251.

[5] LI Y, ZHANG H K, SHEN Q. Spectral–spatial classification of hyperspectral imagery with 3D convolutional neural network[J]. Remote Sensing, 2017, 9(1): 67.

[6] ZHONG Z L, LI J, LUO Z M, et al. Spectral–spatial residual network for hyperspectral image classification: a 3-D deep learning framework[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(2): 847-858.

[7] WANG W J, DOU S G, JIANG Z M, et al. A fast dense spectral–spatial convolution network framework for hyperspectral images classification[J]. Remote Sensing, 2018, 10(7): 1068.

[8] HE M Y, LI B, CHen H H. Multi-scale 3D deep convolutional neural network for hyperspectral image classification[C]//2017 IEEE International Conference on Image Processing. New York: IEEE Press, 2017: 3904-3908.

[9] 鄭姍姍, 劉文, 單銳, 等. 基于改進多尺度三維殘差網絡的高光譜圖像分類[EB/OL]. [2020-01-14]. https:// kns.cnki.net/kcms/detail/detail.aspx?dbcode=CAPJ&dbname=CAPJLAST&filename=JSJC20200110003&v=fpDLQvPDFGfUcjKDeQEH1EP7nY%25mmd2BxPjPlPKisOI0N9WdEhYW124R48nVMINfyipsA. ZHENG S S, LIU W, SHAN R, et al. Hyperspectral Image Classification Based on Improved Multi-Scale 3D Residual Network[EB/OL]. [2020-01-14]. https:// kns.cnki.net/kcms/detail/detail.aspx?dbcode=CAPJ&dbname=CAPJLAST&filename=JSJC20200110003&v=fpDLQvPDFGfUcjKDeQEH1EP7nY%25mmd2BxPjPlPKisOI0N9WdEhYW124R48nVMINfyipsA (in Chinese).

[10] WANG X L, GIRSHICK R, GUPTA A, et al. Non-local neural networks[C]//2018 IEEE Conference on Computer Vision and pattern recognition. New York: IEEE Press, 2018: 7794-7803.

[11] HU J, SHEN L, ALBANIE S, et al. Squeeze-and- excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011-2023.

[12] CAO Y, XU J R, LIN S, et al. Gcnet: non-local networks meet squeeze-excitation networks and beyond[C]//2019 IEEE/CVF International Conference on Computer Vision Workshops. New Yoek: IEEE Press, 2019: 1971-1980.

[13] WOO S, PARK J, LEE J Y, et al. Cbam: convolutional block attention module[C]//2018 European Conference on Computer Vision. Heidelberg: Springer, 2018: 3-19.

[14] ROY A G, NAVAB N, WACHINGER C. Concurrent spatial and channel ‘squeeze & excitation’in fully convolutional networks[C]//2018 International Conference on Medical Image Computing and Computer-Assisted Intervention. Heidelberg: Springer, 2018: 421-429.

[15] 魏祥坡, 余旭初, 管凌霄. 利用殘差通道注意力網絡的高光譜圖像分類[J]. 測繪科學技術學報, 2019, 36(2): 161-166, 172. WEI X P, YU X C, GUAN L X. Hyperspectral image classification using residual channel attention network[J[. Journal of Geomatics Science and Technology, 2019, 36(2): 161-166, 172 (in Chinese).

[16] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2016: 770-778.

[17] HUANG G, LIU Z, VAN DER MAATEN L, et al. Densely connected convolutional networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2017: 4700-4708.

[18] WANG F, JIANG M Q, QIAN C, et al. Residual attention network for image classification[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2017: 3156-3164.

[19] ZHANG C J, LI G D, DU S H, et al. Three-dimensional densely connected convolutional network for hyperspectral remote sensing image classification[J]. Journal of Applied Remote Sensing, 2019, 13(1): 016519.

[20] KINGMA D P, BA J. Adam: a method for stochastic optimization[EB/OL]. [2019-10-17]. https://arxiv.org/ abs/1412.6980.

[21] AUDEBERT N, SAUX L B, LEFEVRE S. Deep learning for classification of hyperspectral data: a comparative review[J]. IEEE Geoscience and Remote Sensing Magazine, 2019, 7(2): 159-173.

[22] YUE J, ZHAO W Z, MAO S J, et al. Spectral–spatial classification of hyperspectral images using deep convolutional neural networks[J]. Remote Sensing Letters, 2015, 6(6): 468-477.

DenseNet-attention for hyperspectral remote sensing image classification

ZHANG Yong-peng, ZHANG Chun-mei, BAI Jing

(School of Computer Science and Engineering, North Minzu University, Yinchuan Ningxia 750021, China)

A new neural network, called DenseNet-Attention (DANet), was proposed in this paper for hyperspectral images classification to solve the problems of small sample quantity, insufficient features extraction, and indiscriminating contribution of the extracted features. First, it employed the three-dimensional convolution kernel to simultaneously extract both spectral and spatial features. Meanwhile, due to its dense blocks, DenseNet can not only fully extract more robust features, but reduce a large number of parameters. Second, the self-attention mechanism was added to the dense block as a module. Before the extracted feature was passed into the next layer of network, the weight was assigned to the feature according to its contribution through this model, thus strengthening the representation of the feature with ground object information. DANet was an end-to-end deep learning framework, which took the neighborhood block of the original hyperspectral image as an input without any preprocessing. Comparative experiments on Indian Pines and Pavia University datasets show that the classification accuracy of the network model proposed in this paper can reach 99.43% and 99.99% respectively, effectively enhancing the classification accuracy of hyperspectral images.

three-dimensional convolution; hyperspectral remote sensing image classification; DenseNet; self-attenrion; skip connect

TP 391

10.11996/JG.j.2095-302X.2020060897

A

2095-302X(2020)06-0897-08

2020-07-19;

2020-08-01

19 July,2020;

1 August,2020

國家自然科學基金項目(61461002,61762003);寧夏回族自治區重點研發計劃項目(2019BDE03011);寧夏高等學校一流學科建設項目(電子科學與技術學科) (NXYLXK2017A07)

National Natural Science Foundation of China (61461002, 61762003);Key Research and Development Project of Ningxia Hui Autonomous Region (2019BDE03011); Ningxia University First-Class Discipline Construction Project (Electronic Science and Technology) (NXYLXK2017A07)

張永鵬(1996–),男,山東德州人,碩士研究生。主要研究方向為計算機視覺與模式識別。E-mail:darrenzhang1007@163.com

ZHANG Yong-peng (1996-), male, master student. His main research interests cover computer version and pattern recognition. E-mail:darrenzhang1007@163.com

張春梅(1964–),女,寧夏銀川人,教授,碩士。主要研究方向為視覺信號處理。E-mail:chunmei66@hotmail.com

ZHANG Chun-mei (1964-), female, professor, master. Her main research interest covers computer version and signal processing. E-mail:chunmei66@hotmail.com

猜你喜歡
分類特征模型
一半模型
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
主站蜘蛛池模板: 人妻丰满熟妇AV无码区| 国产免费精彩视频| 欧美亚洲国产日韩电影在线| 91亚瑟视频| 国产办公室秘书无码精品| 亚洲中文字幕无码爆乳| 久久77777| 国产免费看久久久| 国产精品无码一二三视频| a毛片在线| 毛片国产精品完整版| 亚洲第一黄片大全| 99热线精品大全在线观看| 97精品伊人久久大香线蕉| 亚洲色图欧美| 暴力调教一区二区三区| www.av男人.com| 午夜视频www| 国产三级视频网站| 97在线国产视频| 香蕉综合在线视频91| 99re热精品视频国产免费| 国产区福利小视频在线观看尤物| 欧美精品1区2区| 亚洲美女AV免费一区| 免费观看男人免费桶女人视频| 狠狠v日韩v欧美v| 一级做a爰片久久毛片毛片| 免费毛片视频| 久久精品国产精品一区二区| 乱码国产乱码精品精在线播放| 久久这里只有精品国产99| 亚洲黄网在线| 亚洲一区二区三区在线视频| 伊人国产无码高清视频| 毛片手机在线看| 国产午夜无码专区喷水| 黄色网页在线观看| 色噜噜狠狠色综合网图区| 国产欧美视频在线观看| 亚洲欧州色色免费AV| 伊人久久福利中文字幕| www.av男人.com| 日韩精品一区二区三区中文无码| 亚洲国产精品成人久久综合影院| 日韩精品一区二区深田咏美| 欧美成人午夜视频免看| 亚洲专区一区二区在线观看| 四虎影视8848永久精品| 日韩一级二级三级| 日韩小视频在线观看| 日本免费高清一区| 亚洲男女在线| 国产精品美女在线| 国产第一页屁屁影院| 欧美一级专区免费大片| 99一级毛片| 亚洲综合色在线| 东京热高清无码精品| 老熟妇喷水一区二区三区| 欧美狠狠干| 五月婷婷欧美| 露脸国产精品自产在线播| 亚洲综合片| 久久精品亚洲专区| 香蕉在线视频网站| 国产精品浪潮Av| 亚洲视频免费在线看| 性欧美久久| 精品福利国产| 国产精品视频999| 国产精品视频系列专区| 精品欧美一区二区三区久久久| 久久国产拍爱| 国产情精品嫩草影院88av| 国产精品大尺度尺度视频| 国产亚卅精品无码| 免费看av在线网站网址| 制服丝袜无码每日更新| 成人中文字幕在线| 国产91精品久久| 亚洲日本www|