999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)DeepLab v3+模型和遷移學(xué)習(xí)的高分遙感耕地提取方法

2023-12-13 15:22:35毛星金晶張欣戴佩玉任妮

毛星 金晶 張欣 戴佩玉 任妮

摘要: 針對(duì)實(shí)際遙感耕地信息提取工作中,多源數(shù)據(jù)特征復(fù)雜、樣本標(biāo)注工作繁重等導(dǎo)致高空間分辨率影像解譯精度不高、自動(dòng)化程度不夠的問(wèn)題,本研究基于DeepLab v3+模型,提出一種融合鄰域邊緣加權(quán)模塊(NEWM)和軸向注意力機(jī)制模塊(CBAM-s)的卷積網(wǎng)絡(luò)模型DEA-Net,結(jié)合遷移學(xué)習(xí)方法進(jìn)行高分辨率遙感影像耕地信息提取。首先,在淺層網(wǎng)絡(luò)結(jié)構(gòu)中加入鄰域邊緣加權(quán)模塊,提升高分辨率下地物的連續(xù)性,細(xì)化邊緣分割粒度;其次,在深層網(wǎng)絡(luò)結(jié)構(gòu)中添加軸向注意力機(jī)制模塊,增加細(xì)小地物的關(guān)注權(quán)重,減少深度卷積導(dǎo)致地物丟失的情況;最后,采用遷移學(xué)習(xí)的思想,降低樣本標(biāo)注工作量,提高模型學(xué)習(xí)能力。利用高分衛(wèi)星土地覆蓋數(shù)據(jù)集(GID)數(shù)據(jù)構(gòu)建源域數(shù)據(jù)集進(jìn)行模型預(yù)訓(xùn)練,將獲取的模型參數(shù)及權(quán)重信息遷移至大數(shù)據(jù)與計(jì)算智能大賽(BDCI)遙感影像地塊分割競(jìng)賽數(shù)據(jù)集和全國(guó)人工智能大賽(NAIC)遙感影像數(shù)據(jù)集制作的2種不同目標(biāo)域數(shù)據(jù)集中,微調(diào)訓(xùn)練后應(yīng)用于耕地信息提取研究。結(jié)果表明,本研究構(gòu)建方法能夠增強(qiáng)模型的空間細(xì)節(jié)學(xué)習(xí)能力,提高耕地語(yǔ)義分割精度的同時(shí),降低2/3以上的訓(xùn)練樣本數(shù)量,為遙感耕地信息提取及農(nóng)業(yè)數(shù)據(jù)智能化利用提供新的思路和方法。

關(guān)鍵詞: 耕地信息提取;遷移學(xué)習(xí);DEA-Net;高分遙感

中圖分類(lèi)號(hào): S126?? 文獻(xiàn)標(biāo)識(shí)碼: A?? 文章編號(hào): 1000-4440(2023)07-1519-11

High-resolution remote sensing arable land information extraction method based on improved DeepLab v3+ model and transfer learning

MAO Xing1,2, JIN Jing1,2, ZHANG Xin1,2, DAI Pei-yu1,2, REN Ni1,2

(1.Institute of Agricultural Information, Jiangsu Academy of Agricultural Sciences, Nanjing 210014, China;2.Key Laboratory of Intelligent Agricultural Technology (Changjiang Delta), Ministry of Agriculture and Rural Affairs, Nanjing 210014, China)

Abstract: ?The complex multi-source data features and heavy sample annotation work in the practical remote sensing arable land information extraction work will lead to low accuracy and insufficient automation of high spatial resolution image interpretation. In view of the above problems, based on DeepLab v3+, we proposed a convolutional network model DEA-Net that incorporated the neighborhood edge weighting module (NEWM) and the axial attention mechanism (CBAM-s), and combined the transfer learning method to extract arable land information of high-resolution remote sensing images. First, the NEWM was added to the shallow network structure to improve the continuity of features under high resolution and refine the granularity of edge segmentation. Then, the CBAM-s was added to the deep network structure to increase the attention weight of fine features and reduce the loss of features due to deep convolution. Finally, the idea of transfer learning was adopted to reduce the sample annotation workload and improve the learning ability of the model. The source domain dataset was constructed using the Gaofen image dataset (GID) for model pre-training, and the acquired model parameters and weight information were migrated to two different target domain datasets produced by big data & computing intelligence contest (BDCI) and national artificial intelligence challenge (NAIC), and fine-tuned and trained for arable land information extraction. The results showed that the method constructed in this study could enhance the spatial detail learning ability of the model, improve the semantic segmentation accuracy of arable land, and reduce the number of training samples by more than 2/3. It can provide new ideas and methods for remote sensing arable land information extraction and intelligent utilization of agricultural data.

Key words: arable land information extraction;transfer learning;DEA-Net;high resolution remote sensing

及時(shí)、準(zhǔn)確獲取耕地信息對(duì)于國(guó)家糧食安全、農(nóng)業(yè)生產(chǎn)管理、農(nóng)業(yè)資源保護(hù)等具有重要意義[1]。隨著農(nóng)業(yè)現(xiàn)代化的不斷發(fā)展,中低分辨率耕地影像已無(wú)法滿(mǎn)足精準(zhǔn)農(nóng)業(yè)對(duì)數(shù)據(jù)質(zhì)量的要求。雖然遙感影像的分辨率越來(lái)越高,但隨之而來(lái)的復(fù)雜空間特征信息對(duì)遙感影像的解譯技術(shù)提出了更高要求。

卷積神經(jīng)網(wǎng)絡(luò)出現(xiàn)之前,遙感地物分類(lèi)提取方法多依賴(lài)于分類(lèi)特征設(shè)計(jì)和機(jī)器學(xué)習(xí)模型[2]。光譜信息和植被指數(shù)是耕地識(shí)別中最常見(jiàn)的特征參數(shù)[3],但不同波段組合、不同植被指數(shù)組成的分類(lèi)特征使耕地識(shí)別結(jié)果具有很大隨機(jī)性。基于支持向量機(jī)(SVM)[4]、決策樹(shù)[5]、隨機(jī)森林[6]等分類(lèi)器構(gòu)建的機(jī)器學(xué)習(xí)模型雖然降低了分類(lèi)特征設(shè)計(jì)過(guò)程中人為因素的影響,但模型的魯棒性和靈活性存在一定限制,改選數(shù)據(jù)源或者切換應(yīng)用區(qū)域,均需對(duì)模型的參數(shù)及輸入特征做出調(diào)整。

近年來(lái),深度學(xué)習(xí)技術(shù)的快速發(fā)展推動(dòng)了遙感語(yǔ)義分割的廣泛應(yīng)用。Long等[7]提出了FCN網(wǎng)絡(luò),用卷積層替換最后一層全連接層,實(shí)現(xiàn)了像素級(jí)的圖像分類(lèi),但FCN在上采樣過(guò)程中忽略了像素之間的關(guān)系。UNet模型采用編碼器—解碼器結(jié)構(gòu),并在上采樣過(guò)程中充分利用下采樣提取的特征信息,提高了語(yǔ)義分割精度[8],但沒(méi)有考慮圖像的上下文信息。Chen等[9]引入了空洞金字塔池化模塊來(lái)增加網(wǎng)絡(luò)的上下文信息感受野,但空洞卷積會(huì)丟失部分空間信息,導(dǎo)致影像分割不夠精細(xì)。Yao等[10]在DeepLab v3+的基礎(chǔ)上引入了注意力機(jī)制,增強(qiáng)了特征提取能力,降低了環(huán)境信息的影響。Wang等[11]基于DeepLab v3+提出了一種名為CFAMNet的網(wǎng)絡(luò)模型,使用類(lèi)特征注意模塊增強(qiáng)了類(lèi)與類(lèi)之間的相關(guān)性,采用多并行空洞金字塔池化結(jié)構(gòu)增強(qiáng)了空間相關(guān)性。劉文祥等[12]采用雙注意力機(jī)制,從位置和通道2個(gè)角度增強(qiáng)特征信息的關(guān)注度,提升了模型的訓(xùn)練速度。葉沅鑫等[13]采用R-MCN網(wǎng)絡(luò)結(jié)構(gòu),增大訓(xùn)練的感受野,增加了淺層網(wǎng)絡(luò)特征權(quán)重,進(jìn)一步細(xì)化了地物邊界。雖然,基于DeepLab v3+的遙感影像語(yǔ)義分割技術(shù)已經(jīng)有了一定提高,但大多數(shù)研究針對(duì)的目標(biāo)數(shù)據(jù)都是具有相同參數(shù)的少量遙感影像,模型泛化能力有限。多源遙感數(shù)據(jù)不同的成像方式、成像時(shí)間、空間分辨率、光譜波段范圍等對(duì)模型的魯棒性提出了較高要求,作物類(lèi)型、灌溉方式、地形地貌、休耕輪作等也是遙感耕地自動(dòng)化提取中不可避免的難點(diǎn)問(wèn)題。

基于此,本研究擬提出一種融合鄰域邊緣加權(quán)模塊(NEWM)和軸向注意力機(jī)制模塊(CBAM-s)的高分辨率遙感耕地信息提取方法,利用鄰域邊緣加權(quán)模塊改善淺層網(wǎng)絡(luò)中地物的連續(xù)性,用軸向注意力機(jī)制模塊提高深層網(wǎng)絡(luò)中細(xì)小地物的關(guān)注度,基于遷移學(xué)習(xí)的方法優(yōu)化模型參數(shù),以期在增強(qiáng)語(yǔ)義分割效果的同時(shí),能夠進(jìn)一步提高模型的泛化能力。

1 材料與方法

1.1 數(shù)據(jù)集制作

本研究試驗(yàn)數(shù)據(jù)包括兩部分,第一部分為源域數(shù)據(jù)集,用于模型的預(yù)訓(xùn)練,該數(shù)據(jù)集來(lái)自于武漢大學(xué)公布的高分衛(wèi)星土地覆蓋數(shù)據(jù)集(GID),包含了150張像素為7 200×6 800的高分2號(hào)衛(wèi)星影像,涵蓋了5種地物類(lèi)別:水域、農(nóng)田、建筑、草地和林地,具體見(jiàn)圖1。因?yàn)檠芯繉?duì)象是耕地,所以選擇與之相似的農(nóng)田地塊作為模型預(yù)訓(xùn)練對(duì)象。為方便模型的訓(xùn)練,使用像素為256×256的隨機(jī)窗口從原始影像中裁剪出30 000張包含農(nóng)田地塊的樣本圖像,將分類(lèi)標(biāo)注數(shù)據(jù)二值化為農(nóng)田和其他類(lèi)別,作為源域數(shù)據(jù)集,并按照8∶1∶1的比例隨機(jī)劃分為訓(xùn)練數(shù)據(jù)、驗(yàn)證數(shù)據(jù)和測(cè)試數(shù)據(jù)。第二部分為目標(biāo)域數(shù)據(jù)集,數(shù)據(jù)來(lái)源于大數(shù)據(jù)與計(jì)算智能大賽(BDCI)遙感影像地塊分割競(jìng)賽數(shù)據(jù)集(后文統(tǒng)稱(chēng)為BDCI數(shù)據(jù)集)和全國(guó)人工智能大賽(NAIC)遙感影像數(shù)據(jù)集(后文統(tǒng)稱(chēng)為NAIC數(shù)據(jù)集),這2個(gè)數(shù)據(jù)集的圖像大小均為256×256(圖2)。BDCI數(shù)據(jù)集是分辨率為2.0 m的遙感圖像,包含7類(lèi)地物:建筑、耕地、林地、水體、道路、草地和其他地物。NAIC數(shù)據(jù)集由分辨率0.1 m至4.0 m的多種衛(wèi)星及航空數(shù)據(jù)組成,包含8類(lèi)地物:水體、道路、建筑、耕地、草地、林地、裸土和其他地物。分別從2個(gè)數(shù)據(jù)集中隨機(jī)選取8 000張包含耕地的圖像,將分類(lèi)標(biāo)注數(shù)據(jù)二值化為耕地和其他類(lèi)別,作為目標(biāo)域數(shù)據(jù)集,并按照2∶1∶1的比例隨機(jī)劃分為訓(xùn)練數(shù)據(jù)、驗(yàn)證數(shù)據(jù)和測(cè)試數(shù)據(jù)。

1.2 DeepLab v3+模型改進(jìn)

本研究提出了一種改進(jìn)的DeepLab v3+模型,名為DEA-Net模型,整體采用編碼器—解碼器結(jié)構(gòu)。圖3顯示,編碼器部分主要包含Xception特征提取網(wǎng)絡(luò)和空洞金字塔池化(ASPP)模塊,解碼器通過(guò)2次4倍上采樣得到地物的分割形狀。ASPP模塊包含1個(gè)1×1卷積和3個(gè)擴(kuò)張率分別為6、12、18的3×3卷積以及1個(gè)全局平均池化層。不同擴(kuò)張率的空洞卷積可以有效捕獲影像上下文特征信息,提高地物不同尺度的識(shí)別效果[14]。不同尺度影像特征包含不同的空間信息,高分辨率對(duì)應(yīng)的淺層特征具有豐富的空間細(xì)節(jié)信息,有利于耕地邊界細(xì)化,但是面對(duì)遙感影像同物異譜的情況,容易出現(xiàn)噪聲點(diǎn)[15]。低分辨率對(duì)應(yīng)的深層特征包含豐富的全局語(yǔ)義信息[16],能夠有效識(shí)別耕地的大致范圍,但下采樣過(guò)程中容易導(dǎo)致溝壑、田埂等信息的丟失。因此,本研究設(shè)計(jì)了鄰域邊緣加權(quán)模塊和軸向注意力機(jī)制模塊,對(duì)模型的ASPP模塊進(jìn)行改進(jìn),增強(qiáng)模型特征提取能力,提高遙感影像的耕地信息提取精度。NEWM位于ASPP模塊前兩層卷積之后,主要用于改善高分辨率情況下地物的連續(xù)性,CBAM-s則嵌入ASPP中擴(kuò)張率為12、18的3×3卷積之后,以增加深層特征對(duì)周邊要素的考慮。

1.2.1 鄰域邊緣加權(quán)模塊 卷積神經(jīng)網(wǎng)絡(luò)中的低級(jí)特征容易忽略空間細(xì)節(jié)[17],導(dǎo)致語(yǔ)義分割的邊緣模糊不清。為此,本研究設(shè)計(jì)了鄰域邊緣加權(quán)模塊,增強(qiáng)耕地邊緣權(quán)重,提高空間特征關(guān)注度,改善耕地邊緣識(shí)別效果。圖4顯示,首先按照柵格圖像8鄰域規(guī)則,創(chuàng)建8個(gè)不同方向的卷積核,卷積核當(dāng)前方向值為1,其余位置為0,然后對(duì)輸入特征進(jìn)行8鄰域二維卷積,卷積結(jié)果與輸入特征相減后疊加,最后經(jīng)過(guò)非線(xiàn)性激活生成鄰域邊緣權(quán)重特征。NEWM的計(jì)算公式可表示為:

Ne(M)=σ∑7i=0[Ei(M)-M]M(1)

其中,M表示輸入特征;Ne(M)表示鄰域邊緣加權(quán)后的輸出特征;Ei表示8鄰域二維卷積;σ表示Sigmoid函數(shù);表示矩陣的元素乘法運(yùn)算。

1.3 遷移學(xué)習(xí)

針對(duì)樣本數(shù)量有限的條件下,高分辨率遙感耕地信息提取模型存在收斂緩慢、極易過(guò)擬合等問(wèn)題,遷移學(xué)習(xí)可以使用少量訓(xùn)練樣本創(chuàng)建特征學(xué)習(xí)能力更強(qiáng)的深度學(xué)習(xí)模型,最大限度減少目標(biāo)領(lǐng)域?qū)W習(xí)成本[20]。對(duì)于給定源域(DS)和學(xué)習(xí)任務(wù)(TS)以及目標(biāo)域(DT)和學(xué)習(xí)任務(wù)(TT),遷移學(xué)習(xí)能夠利用在DS和TS中學(xué)習(xí)的知識(shí)幫助改進(jìn)目標(biāo)預(yù)測(cè)函數(shù)(FT)在DT中的使用。圖8顯示,本研究將源域數(shù)據(jù)集上預(yù)訓(xùn)練獲得的特征權(quán)重和參數(shù)信息遷移至新的網(wǎng)絡(luò)模型,新模型最大程度復(fù)用預(yù)訓(xùn)練模型的網(wǎng)絡(luò)結(jié)構(gòu)和權(quán)重參數(shù),通過(guò)目標(biāo)域數(shù)據(jù)集微調(diào)訓(xùn)練模型參數(shù)學(xué)習(xí)隱含特征,進(jìn)而提高模型性能。

1.4 精度評(píng)價(jià)方法

采用像素準(zhǔn)確率(PA)、類(lèi)別平均像素準(zhǔn)確率(MPA)、平均交并比(MIoU)和Kappa系數(shù)作為精度評(píng)價(jià)標(biāo)準(zhǔn)。PA、MPA和MIoU是圖像分割評(píng)價(jià)的重要指標(biāo),計(jì)算公式如下:

PA=∑ki=1pii∑ki=1∑kj=1pij(6)

MPA=1k∑ki=1pii∑kj=1pij(7)

MIoU=1k∑ki=1pii∑kj=1pij+∑kj=1(pji-pii)(8)

其中,PA表示像素準(zhǔn)確率;MPA表示類(lèi)別平均像素準(zhǔn)確率;MIoU表示平均交并比;k表示類(lèi)別數(shù)量;pii表示預(yù)測(cè)正確的像素?cái)?shù)量;pij表示將i類(lèi)預(yù)測(cè)為j類(lèi)的像素?cái)?shù)量;pji表示將j類(lèi)預(yù)測(cè)為i類(lèi)的像素?cái)?shù)量。

Kappa系數(shù)是遙感分類(lèi)中最常用的評(píng)價(jià)指標(biāo),計(jì)算公式如下:

Kappa=N∑ki=1Nii-∑ki=1Ni+N+iN2-∑ki=1Ni+N+i(9)

其中,Kappa表示Kappa系數(shù);N表示樣本像素總數(shù);k為類(lèi)別數(shù)量;Ni+表示第i類(lèi)的真實(shí)樣本像素?cái)?shù)量;N+i表示預(yù)測(cè)為第i類(lèi)的樣本像素?cái)?shù)量;Nii表示第i類(lèi)真實(shí)值和預(yù)測(cè)值一致的樣本像素?cái)?shù)量。

1.5 試驗(yàn)配置

本研究的試驗(yàn)在Linux操作系統(tǒng)中運(yùn)行,深度學(xué)習(xí)框架采用Pytorch 1.11,處理器為Intel(R) Xeon(R) Gold 5218R CPU @ 2.10 GHz,顯卡為NVIDIA A100-PCIE-40 GB。Python版本為3.8,CUDA版本為11.0。使用Adam函數(shù)作為網(wǎng)絡(luò)優(yōu)化器,初始學(xué)習(xí)率為0.001,單次訓(xùn)練的樣本個(gè)數(shù)為64。

2 結(jié)果與分析

2.1 不同網(wǎng)絡(luò)在源域數(shù)據(jù)集上的對(duì)比

為了對(duì)比模型的特征學(xué)習(xí)能力,本研究選擇SegNet、UNet、DeepLab v3+網(wǎng)絡(luò)模型進(jìn)行對(duì)比試驗(yàn)。每種模型均利用源域數(shù)據(jù)集的訓(xùn)練數(shù)據(jù)和驗(yàn)證數(shù)據(jù)進(jìn)行特征學(xué)習(xí),并在測(cè)試數(shù)據(jù)上對(duì)其進(jìn)行語(yǔ)義分割試驗(yàn)以及精度評(píng)價(jià)。結(jié)果(表1)表明,DEA-Net模型相比其他網(wǎng)絡(luò)模型的PA、MPA、MIoU和Kappa系數(shù)均有所提高,PA、MPA、MIoU分別為88.49%、86.44%、80.11%,Kappa系數(shù)為0.833 7。與DeepLab v3+模型相比,DEA-Net模型的PA提高了1.59個(gè)百分點(diǎn),MPA提高了0.87個(gè)百分點(diǎn),MIoU提高了1.61個(gè)百分點(diǎn),Kappa系數(shù)提高了0.013 8,說(shuō)明本研究提出的DEA-Net模型在農(nóng)田遙感影像語(yǔ)義分割中具有一定優(yōu)勢(shì)。

圖9展示了不同模型的語(yǔ)義分割情況,SegNet模型在上采樣和下采樣過(guò)程中未曾關(guān)聯(lián)上下文信息,容易丟失空間特征,造成大片農(nóng)田無(wú)法識(shí)別。UNet模型融合了編碼、解碼過(guò)程的特征,其精度有所提高,但對(duì)相似區(qū)域仍存在大量錯(cuò)分、漏分情況。DeepLab v3+模型中ASPP模塊的不同空洞卷積增加了多尺度特征關(guān)聯(lián),其結(jié)果與本研究提出的DEA-Net模型最接近。DEA-Net模型提取的農(nóng)田邊界信息比其他網(wǎng)絡(luò)模型更加清晰,結(jié)果更接近真實(shí)標(biāo)注。

2.2 模型在源域數(shù)據(jù)集上的消融分析

為了研究NEWM和CMAM-s對(duì)DEA-Net模型的影響,本研究在源域數(shù)據(jù)集上進(jìn)行了消融試驗(yàn)。采用DeepLab v3+模型為基準(zhǔn)模型,逐步添加NEWM和CMAM-s,驗(yàn)證各模塊的效果。從表2可以看出各模塊對(duì)模型精度的貢獻(xiàn)程度,CMAM-s對(duì)模型學(xué)習(xí)能力的提升效果優(yōu)于NEWM。從提取結(jié)果中選取了3張代表性影像說(shuō)明各模塊發(fā)揮的作用,圖10顯示,第一張影像引入NEWM后,細(xì)條狀農(nóng)田被清晰識(shí)別出,且農(nóng)田的邊界輪廓鮮明;第二張影像提取結(jié)果顯示,CMAM-s能夠精準(zhǔn)確定農(nóng)田的大致分布范圍;第三張影像的提取結(jié)果可以看出NEWM提高了田埂、道路的識(shí)別精度,但有部分非農(nóng)田被誤認(rèn)為是農(nóng)田。CMAM-s可以提高連片農(nóng)田分割效果,但無(wú)法區(qū)分農(nóng)田中細(xì)長(zhǎng)的其他地物,融合NEWM和CMAM-s 2個(gè)模塊的DEA-Net模型提取的農(nóng)田信息基本接近實(shí)際標(biāo)注范圍。消融試驗(yàn)結(jié)果表明NEWM和CMAM-s均能有效提高模型的農(nóng)田識(shí)別精度,但部分場(chǎng)景下2個(gè)獨(dú)立模塊的提取結(jié)果并不理想,而DEA-Net模型能夠融合2個(gè)模塊的優(yōu)勢(shì),提高模型精度。

2.3 目標(biāo)域數(shù)據(jù)集中的耕地信息提取結(jié)果

本研究利用2種目標(biāo)域數(shù)據(jù)集分別進(jìn)行耕地信息提取試驗(yàn),將源域數(shù)據(jù)集上訓(xùn)練得到的模型遷移到目標(biāo)域數(shù)據(jù)集上,通過(guò)20次迭代訓(xùn)練并在目標(biāo)域數(shù)據(jù)集的測(cè)試數(shù)據(jù)中進(jìn)行模型效果驗(yàn)證。本研究對(duì)比了DEA-Net模型和DeepLab v3+模型在目標(biāo)域數(shù)據(jù)集上的精度,結(jié)果(表3)表明,BDCI數(shù)據(jù)集中DEA-Net模型遷移學(xué)習(xí)效果優(yōu)于DeepLab v3+模型,經(jīng)過(guò)遷移學(xué)習(xí)DEA-Net模型的PA、MPA、MIoU、Kappa系數(shù)分別提高了1.55個(gè)百分點(diǎn)、1.18個(gè)百分點(diǎn)、2.15個(gè)百分點(diǎn)和0.031 2。NAIC數(shù)據(jù)集中2種模型經(jīng)過(guò)遷移學(xué)習(xí)后的精度提升效果更加明顯,DeepLab v3+模型的PA、MPA、MIoU、Kappa系數(shù)分別提高了2.02個(gè)百分點(diǎn)、2.43個(gè)百分點(diǎn)、2.12個(gè)百分點(diǎn)和0.043 5,DEA-Net模型的PA、MPA、MIoU、Kappa系數(shù)分別提高了2.26個(gè)百分點(diǎn)、1.36個(gè)百分點(diǎn)、4.47個(gè)百分點(diǎn)和0.039 5,DEA-Net模型的PA和MIoU提升效果更明顯,說(shuō)明DEA-Net模型對(duì)于目標(biāo)耕地信息的提取效果更好。

為了更直觀(guān)地展示不同方法的耕地信息提取效果,從目標(biāo)域數(shù)據(jù)集中選取4個(gè)代表性場(chǎng)景,場(chǎng)景一、場(chǎng)景二來(lái)自NAIC數(shù)據(jù)集,場(chǎng)景三、場(chǎng)景四來(lái)自BDCI數(shù)據(jù)集。圖11顯示,場(chǎng)景一的耕地中間分布了一片規(guī)則房區(qū),場(chǎng)景二中耕地被不規(guī)則地物隔開(kāi),場(chǎng)景三由耕地和林地環(huán)繞分布,場(chǎng)景四擁有2塊不同形態(tài)的耕地。DEA-Net模型的鄰域邊緣加權(quán)模塊能夠有效提高邊緣精度,不論是針對(duì)規(guī)則邊緣還是不規(guī)則邊緣都能較好地展示細(xì)節(jié)信息。注意力機(jī)制可以加速不同特征信息學(xué)習(xí),提高“異物同譜、同物異譜”地物的分類(lèi)準(zhǔn)確性。此外,經(jīng)過(guò)遷移學(xué)習(xí)的DEA-Net模型和DeepLab v3+模型的識(shí)別效果均明顯提高,但DEA-Net模型的耕地分割結(jié)果與實(shí)際情況更為接近。

2.4 訓(xùn)練樣本數(shù)量分析

為了進(jìn)一步驗(yàn)證DEA-Net模型在目標(biāo)域數(shù)據(jù)集中的適用性,將目標(biāo)域訓(xùn)練數(shù)據(jù)從100張逐步增加至3 000張,驗(yàn)證數(shù)據(jù)和測(cè)試數(shù)據(jù)不變,訓(xùn)練迭代次數(shù)設(shè)為20次。圖12展示了BDCI數(shù)據(jù)集和NAIC數(shù)據(jù)集中DEA-Net模型的MIoU隨訓(xùn)練樣本數(shù)量的變化。隨著樣本數(shù)量的增加,模型的精度整體呈增加趨勢(shì)。在BDCI數(shù)據(jù)集中,經(jīng)過(guò)遷移學(xué)習(xí)后模型的MIoU達(dá)到80%時(shí),樣本為400張影像,而未經(jīng)過(guò)遷移學(xué)習(xí)的模型在1 500張樣本以后MIoU才超過(guò)79%。在NAIC數(shù)據(jù)集中,經(jīng)過(guò)遷移學(xué)習(xí)的模型在樣本超過(guò)500張后MIoU達(dá)70%以上,未經(jīng)過(guò)遷移學(xué)習(xí)的模型則需要2 000張樣本。因此,本研究提出的方法可以有效減少高分辨率遙感耕地分割的樣本數(shù)量。

此外,在BDCI數(shù)據(jù)集中,樣本數(shù)量超過(guò)400張以后,模型精度的提升幅度總體呈減小趨勢(shì)。在NAIC數(shù)據(jù)集中,模型精度隨訓(xùn)練樣本數(shù)量的增加總體呈增加趨勢(shì)。主要原因是BDCI數(shù)據(jù)集都是分辨率相同的遙感圖像,只需少量訓(xùn)練樣本就能覆蓋大部分樣本類(lèi)型。NAIC數(shù)據(jù)集包含了高分一號(hào)、高分二號(hào)、高分六號(hào)、高景二號(hào)、北京二號(hào)以及航空遙感等多源影像,其空間分辨率、光譜載荷、成像方式等差異性較大,樣本類(lèi)型更加豐富,少量的樣本難以覆蓋全部樣本類(lèi)型。因此,遷移學(xué)習(xí)雖然能夠降低訓(xùn)練樣本數(shù)量,但面對(duì)復(fù)雜多樣的實(shí)際應(yīng)用仍然需要一定規(guī)模的樣本數(shù)據(jù)以擴(kuò)大模型的適用范圍。

3 結(jié)論

本研究以DeepLab v3+模型為基礎(chǔ),引入鄰域邊緣加權(quán)模塊和軸向注意力機(jī)制模塊,提出了一種DEA-Net網(wǎng)絡(luò)結(jié)構(gòu),有效提高了多尺度影像特征信息提取能力,并借助遷移學(xué)習(xí)的思想,在提高模型精度的同時(shí),降低樣本標(biāo)注成本。研究結(jié)果表明,本研究提出的DEA-Net模型在源域數(shù)據(jù)集的語(yǔ)義分割中相比其他幾種主流網(wǎng)絡(luò)模型表現(xiàn)更好,PA、MPA、MIoU分別為88.49%、86.44%、80.11%,Kappa系數(shù)為0.833 7。NEWM可以提高邊緣細(xì)節(jié)關(guān)注度,CBAM-s可以為深層網(wǎng)絡(luò)提供更加豐富的空間特征,能夠?yàn)楦匦畔⑻崛√峁└嗟恼Z(yǔ)義信息。本研究提出的方法能夠有效解決遙感耕地信息提取中樣本數(shù)量不足的問(wèn)題,減少2/3以上的樣本標(biāo)注工作。

雖然本研究提出的方法可以有效應(yīng)用于遙感影像耕地信息提取工作,但仍有改進(jìn)的空間。首先,本研究?jī)H利用紅、綠、藍(lán)3個(gè)波段數(shù)據(jù),并未完全發(fā)揮遙感影像的多光譜、高光譜優(yōu)勢(shì),未來(lái)可從光譜維度方面考慮如何進(jìn)一步提高模型精度。其次,本研究并未對(duì)耕地種植類(lèi)型開(kāi)展細(xì)化分類(lèi),未來(lái)可圍繞作物種植類(lèi)型識(shí)別進(jìn)行相關(guān)研究。

參考文獻(xiàn):

[1] 唐華俊. 農(nóng)業(yè)遙感研究進(jìn)展與展望[J]. 農(nóng)學(xué)學(xué)報(bào), 2018, 8(1): 167-171.

[2] 馮權(quán)瀧,牛博文,朱德海,等. 土地利用/覆被深度學(xué)習(xí)遙感分類(lèi)研究綜述[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(3): 1-17.

[3] ARANGO R B, DAZ I, CAMPOS A, et al. Automatic arable land detection with supervised machine learning[J]. Earth Science Informatics, 2016, 9: 535-545.

[4] 陳 杰,陳鐵橋,劉慧敏,等. 高分辨率遙感影像耕地分層提取方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2015, 31(3): 190-198.

[5] 朱江洪,李江風(fēng),葉 菁. 利用決策樹(shù)工具的土地利用類(lèi)型遙感識(shí)別方法研究[J]. 武漢大學(xué)學(xué)報(bào)(信息科學(xué)版), 2011, 36(3): 301-305.

[6] NITZE I, BARRETT B, CAWKWELL F. Temporal optimisation of image acquisition for land cover classification with random forest and MODIS time-series[J]. International Journal of Applied Earth Observation and Geoinformation, 2015, 34: 136-146.

[7] LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[C]. New York: IEEE Press, 2015.

[8] RONNEBERGER O, FISCHER P, BROX T. U-Net: convolutional networks for biomedical image segmentation[C]. Munich: Springer International Publishing, 2015.

[9] CHEN L, PAPANDREOU G, KOKKINOS I, et al. DeepLab: semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834-848.

[10]YAO X, GUO Q, LI A. Light-weight cloud detection network for optical remote sensing images with attention-based DeepLab v3+ architecture[J]. Remote Sensing, 2021, 13. DOI:org/10.3390/rs13183617.

[11]WANG Z, WANG J, YANG K, et al. Semantic segmentation of high-resolution remote sensing images based on a class feature attention mechanism fused with DeepLab v3+[J]. Computers & Geosciences, 2022, 158. DOI:org/10.1016/j.cageo.2021.104969.

[12]劉文祥,舒遠(yuǎn)仲,唐小敏,等. 采用雙注意力機(jī)制 DeepLab v3+算法的遙感影像語(yǔ)義分割[J]. 熱帶地理, 2020, 40(2): 303-313.

[13]葉沅鑫,譚 鑫,孫苗苗,等. 基于增強(qiáng) DeepLab v3網(wǎng)絡(luò)的高分辨率遙感影像分類(lèi)[J]. 測(cè)繪通報(bào),2021(4): 40-44.

[14]WANG Y, GAO L, HONG D, et al. Mask DeepLab: end-to-end image segmentation for change detection in high-resolution remote sensing images[J]. International Journal of Applied Earth Observation and Geoinformation, 2021, 104. DOI:org/10.1016/j.jag.2021.102582.

[15]GUO H, DU B, ZHANG L, et al. A coarse-to-fine boundary refinement network for building footprint extraction from remote sensing imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2022, 183: 240-252.

[16]HUANG J, ZHANG X, SUN Y, et al. Attention-guided label refinement network for semantic segmentation of very high resolution aerial orthoimages[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 4490-4503.

[17]ZHU Q, LIAO C, HU H, et al. MAP-Net: multiple attending path neural network for building footprint extraction from remote sensed imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 59(7): 6169-6181.

[18]WOO S, PARK J, LEE J Y, et al. CBAM : convolutional block attention module[C]. Munich: Springer International Publishing, 2018.

[19]WANG D, CHEN X, JIANG M, et al. ADS-Net: an attention-based deeply supervised network for remote sensing image change detection[J]. International Journal of Applied Earth Observation and Geoinformation, 2021, 101. DOI:org/10.1016/j.jag.2021.102348.

[20]RIBANI R, MARENGONI M. A survey of transfer learning for convolutional neural networks[C]. Rio de Janeiro: IEEE, 2019.

(責(zé)任編輯:王 妮)

主站蜘蛛池模板: 激情综合婷婷丁香五月尤物| 91在线播放国产| 欧美中文字幕无线码视频| 蜜桃视频一区二区| 欧美在线导航| 欧美一区中文字幕| 亚洲中文字幕23页在线| 欧日韩在线不卡视频| 高清乱码精品福利在线视频| 国产区网址| 亚洲精品男人天堂| 国产成人精品男人的天堂| 尤物精品国产福利网站| 在线视频亚洲色图| 天天综合网在线| 51国产偷自视频区视频手机观看| 女人爽到高潮免费视频大全| 最新日韩AV网址在线观看| 尤物亚洲最大AV无码网站| 婷婷色丁香综合激情| 亚洲码一区二区三区| 国产欧美日韩视频怡春院| 国产精品浪潮Av| 国产伦片中文免费观看| 亚洲成人www| 亚洲一区二区约美女探花| 亚洲国产综合自在线另类| 2020极品精品国产 | 香蕉网久久| 亚洲色图欧美| 免费三A级毛片视频| 亚洲狼网站狼狼鲁亚洲下载| 超碰91免费人妻| 久久人人妻人人爽人人卡片av| 国产一二视频| 国产成人久视频免费| 久久黄色小视频| 亚洲国产成人超福利久久精品| 亚洲第一中文字幕| 中文字幕永久视频| 国产91高跟丝袜| 色香蕉影院| 日本欧美成人免费| 欧美有码在线观看| 午夜色综合| AV在线麻免费观看网站| 国产成人精品亚洲77美色| 国产精品欧美日本韩免费一区二区三区不卡 | Aⅴ无码专区在线观看| 精品国产成人三级在线观看| 亚洲日韩精品欧美中文字幕| 97在线公开视频| 亚洲伊人久久精品影院| 亚洲日韩精品欧美中文字幕| 一本大道在线一本久道| 九色综合伊人久久富二代| 美女免费黄网站| 国产日韩av在线播放| 国产亚洲欧美日韩在线观看一区二区 | 中文字幕人妻无码系列第三区| 亚洲av无码人妻| 国产99视频在线| 九九香蕉视频| 99福利视频导航| 久久精品无码一区二区国产区| 91福利国产成人精品导航| 精品欧美视频| 国产精品亚洲αv天堂无码| 超薄丝袜足j国产在线视频| 亚洲成在人线av品善网好看| 国产精品一区二区不卡的视频| 99精品福利视频| 亚洲国产精品日韩专区AV| 国产精品永久在线| 无码啪啪精品天堂浪潮av| 中文字幕无码制服中字| 777国产精品永久免费观看| 精品无码国产自产野外拍在线| 亚洲第一成年网| 亚洲成AV人手机在线观看网站| 999国产精品永久免费视频精品久久| 欧美高清国产|