999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于分層特征提取和多尺度特征融合的高分辨率遙感影像水體提取深度學(xué)習(xí)算法

2024-03-26 09:52:41盛晟萬芳琦林康聆胡朝陽陳華
人民珠江 2024年2期
關(guān)鍵詞:深度學(xué)習(xí)

盛晟 萬芳琦 林康聆 胡朝陽 陳華

摘要:高精度的水體提取有助于水資源監(jiān)測(cè)和管理。目前基于遙感影像的水體提取方法缺乏對(duì)于邊界質(zhì)量的重視,造成邊界劃分不準(zhǔn)確,細(xì)節(jié)保留度低的問題。為了提升遙感影像水體提取的邊界與細(xì)節(jié)的精度,提出了一種基于多尺度特征融合的高分辨率遙感影像水體提取深度學(xué)習(xí)算法,包括分層特征提取模塊與融合多尺度特征的堆疊連接解碼器模塊。分層特征提取模塊中,引入了通道注意力結(jié)構(gòu),用于整合高分辨率遙感影像中水體的形狀、紋理和色調(diào)信息,以便更好地理解水體的形狀和邊界。在融合多尺度特征的堆疊連接解碼器模塊中,進(jìn)行了多層次語義信息的堆疊連接,并加強(qiáng)了特征提取,同時(shí)捕捉了廣泛的背景信息和細(xì)微的細(xì)節(jié)信息,以實(shí)現(xiàn)更好的水體提取效果。在自行標(biāo)注的數(shù)據(jù)集與公開數(shù)據(jù)集上的試驗(yàn)結(jié)果表明,模型的準(zhǔn)確率達(dá)到了98.37%和91.23%,與現(xiàn)有的語義分割模型相比,提取的水體邊緣更加完整,同時(shí)保留細(xì)節(jié)的能力更強(qiáng)。提出的模型提升了水體提取的精度和泛化能力,為高分辨率遙感影像水體提取提供了參考。

關(guān)鍵詞:水體提取;高分辨率遙感影像;深度學(xué)習(xí);多尺度特征融合

中圖分類號(hào):P332文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1001-9235(2024)02-0045-08

Deep Learning Algorithm for Water Body Extraction from High-resolution Remote Sensing Images Based on Hierarchical Feature Extraction and Multi-scale Feature Fusion

SHENG Sheng1,WAN Fangqi2,LIN Kangling1,HU Zhaoyang3,CHEN Hua1*

(1.State Key Laboratory of Water Resources Engineering and Management,Wuhan University,Wuhan 430072,China; 2.Jiangxi Institute of Natural Resources Surveying,Mapping and Monitoring,Nanchang 330009,China; 3.Fujian Provincial Investigation,Design & Research Institute of Water Conservancy & Hydropower,F(xiàn)uzhou 350001,China)

Abstract: Highly accurate water body extraction can be helpful for water resources monitoring and management.The current methods of water body extraction based on remote sensing images lack attention to boundary quality,resulting in inaccurate boundary delineation and low detail retention.To improve the boundary and detail accuracy of water body extraction for remote sensing images,this paper proposes a deep learning algorithm for water body extraction from high-resolution remote sensing images based on multi-scale feature fusion.The model includes a hierarchical feature extraction module and a stacked-connected decoder module that fuses multi-scale features.In the hierarchical feature extraction module,a channel attention structure is introduced for integrating shape,texture,and hue information of water bodies in high-resolution remote sensing images to better understand the shapes and boundaries of water bodies.In the stacked-connected decoder module that incorporates multi-scale features,the stacked connection of multi-level semantic information and enhanced feature extraction are performed.Meanwhile,broad background information and fine detail information are captured to achieve better water body extraction results.Experimental results on both self-annotated and publicly available datasets show that the model yields 98.37% and 91.23% accuracy,and extracts more complete edges of water bodies while retaining more details than existing semantic segmentation models.The proposed model improves the accuracy and generalization ability of water body extraction and provides references for water body extraction from high-resolution remote sensing images.

Keywords:water body extraction;high-resolution remote sensing images;deep learning;multi-scale feature fusion

水體信息應(yīng)用范圍廣,對(duì)于水資源管理、環(huán)境保護(hù)和災(zāi)害監(jiān)測(cè)等方面具有重要作用。遙感影像提供了及時(shí)的數(shù)據(jù)支持和廣泛的空間覆蓋,通過獲取和分析遙感數(shù)據(jù),可以識(shí)別和監(jiān)測(cè)水體的分布、變化和特征,幫助決策者和研究人員更好地理解和管理水體資源[1。遙感影像提取水體為水資源管理和環(huán)境保護(hù)提供數(shù)據(jù)支持,對(duì)促進(jìn)可持續(xù)發(fā)展和維護(hù)生態(tài)平衡具有重要意義。

遙感影像水體提取方法有指數(shù)法[2-3和分類法4-5。水體指數(shù)法通過分析影像中水體的光譜特性來選取特定波段構(gòu)建水體指數(shù),并設(shè)定特定的閾值進(jìn)行水體提取6。Mcfeeters[7根據(jù)植被與水體的不同反射特征構(gòu)建了歸一化差異水體指數(shù)(NDWI),該指數(shù)強(qiáng)調(diào)水體特征,有效提取大面積區(qū)域水體、建筑物陰影與水體。分類法屬于機(jī)器學(xué)習(xí)方法,相較于指數(shù)法,它可以充分利用高分辨率影像及解譯過程中的光譜信息和空間特征(語義信息)。Sarp等[8采用支持向量機(jī)(SVM)對(duì)湖面進(jìn)行水體提取,結(jié)果表明SVM方法在精度上優(yōu)于NDWI。

近年,隨著深度學(xué)習(xí)的發(fā)展,神經(jīng)網(wǎng)絡(luò)因其接近甚至超越人類的分類能力[9,且可結(jié)合語義(信息)分割進(jìn)行遙感影像像素級(jí)二分類(水體和背景)來提取水體,引起了研究者的廣泛關(guān)注。王寧等10選擇安徽巢湖流域?yàn)檠芯繉?duì)象,分別采用UNet語義分割網(wǎng)絡(luò)與隨機(jī)森林針對(duì)高分一號(hào)(GF-1)影像進(jìn)行水體提取,試驗(yàn)結(jié)果表明語義分割網(wǎng)絡(luò)對(duì)于高分辨率影像水體提取更具優(yōu)勢(shì)。陳前等[11借鑒Deeplabv3語義分割網(wǎng)絡(luò)[12設(shè)計(jì)基于高分辨率衛(wèi)星影像的水體提取算法,驗(yàn)證了語義分割網(wǎng)絡(luò)在水體提取方面的應(yīng)用能力。Chen等[13設(shè)計(jì)WBE-NN語義分割網(wǎng)絡(luò)模型,其核心在于采用全局空間多光譜增強(qiáng)水體特征,提取大范圍語義信息,獲得了較高精度的提取結(jié)果。以上均說明了深度神經(jīng)網(wǎng)絡(luò)能有效學(xué)習(xí)語義信息,提高水體提取的精度。

然而,遙感影像中的地物目標(biāo)具有尺度效應(yīng)[14,觀測(cè)結(jié)果會(huì)隨著觀測(cè)尺度改變而產(chǎn)生較大差異。水體在高分辨率影像下具有豐富的拓?fù)浣Y(jié)構(gòu)以及色彩信息,造成高分辨率影像水體特征豐富,空間復(fù)雜度指數(shù)級(jí)增加,解譯難度相對(duì)于低分辨率影像更高。考慮到水體提取的效率和精度,越來越多研究開始嘗試?yán)蒙疃葘W(xué)習(xí)網(wǎng)絡(luò)架構(gòu)從高分辨率遙感影像中提取水體,特別是語義分割模型,包含F(xiàn)CN[15、Unet[16、PSPNet[17、DeepLab series[18等等,為水體信息的精確提取提供了新的思路和方法。然而,當(dāng)前水體算法普遍重視區(qū)域精度,但是對(duì)于水體邊界提取質(zhì)量缺乏重視,造成水體與岸線邊界劃分不夠準(zhǔn)確。針對(duì)上述挑戰(zhàn),提出一種基于多尺度特征融合的水體提取模型,實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)低層語義信息到高層語義信息的融合。模型借鑒了Deeplabv3+結(jié)構(gòu),采用了倒殘差結(jié)構(gòu)[19進(jìn)行分層特征提取,并加強(qiáng)對(duì)較高層級(jí)特征的提取,采用深度可分離卷積充分融合高中低級(jí)特征,保證模型在不同水體特征下的提取能力;采用空洞卷積進(jìn)行特征圖尺寸恢復(fù),保證了模型對(duì)于大面積水體與小面積水體的識(shí)別能力,同時(shí)可以實(shí)現(xiàn)水岸線的精細(xì)化識(shí)別。

1 研究方法

構(gòu)建的模型總體上借鑒了DeeplabV3+網(wǎng)絡(luò),整體結(jié)構(gòu)見圖1。模型主要包括2個(gè)模塊,分別是分層特征提取模塊與融合多尺度特征的堆疊連接解碼器模塊,在分層特征提取模塊中,借鑒了MobileNetV3[20系列網(wǎng)絡(luò)中的倒殘差結(jié)構(gòu)進(jìn)行深度特征提取。其中,空洞卷積代替部分普通卷積操作提升模型感受野,保證模型對(duì)大范圍水體特征提取能力。在提取水體特征后,從中抽取3層水體特征信息進(jìn)行融合,對(duì)2個(gè)較高層級(jí)的特征進(jìn)行加強(qiáng)特征提取操作。

將3個(gè)層級(jí)的特征進(jìn)行堆疊后采用2次深度可分離卷積充分融合高中低級(jí)特征,保證了模型在不同水體特征下的提取能力。模型采用空洞卷積進(jìn)行特征圖尺寸恢復(fù),在實(shí)現(xiàn)小面積水體特征抽取的基礎(chǔ)上,保證了大范圍水體提取的特征連續(xù)性。最后采用卷積核為1的普通卷積進(jìn)行通道調(diào)整,輸出像素集的水體分割結(jié)果。該模型是一種端到端的水體提取網(wǎng)絡(luò),模型輸入是高分辨率的衛(wèi)星遙感影像,輸出結(jié)果為水體提取的掩膜圖和矢量圖層。

1.1 分層特征提取模塊

采用倒殘差結(jié)構(gòu)進(jìn)行分層特征提取,將第一個(gè)卷積層卷積核個(gè)數(shù)從32變?yōu)?6,同時(shí)將Last Stage進(jìn)行精簡(jiǎn),去除2組卷積塊,采用非線性激活函數(shù)Hardswish以減少運(yùn)算成本。

在水體特征提取部分,由于要素自身特點(diǎn)以及傳感器的差異,水體在遙感影像中存在不同的尺寸特征以及色彩紋理特征,并且沒有特定拓?fù)浣Y(jié)構(gòu)。因此針對(duì)水體的提取需要充分融合高中低級(jí)特征,將主干特征提取網(wǎng)絡(luò)部分卷積操作更換為空洞卷積,以提升水體提取模型的感受野,保證模型對(duì)于大范圍水體的特征提取能力。最后從網(wǎng)絡(luò)的特征提取部分中間抽取3個(gè)層級(jí)的水體特征信息用于特征融合。

同時(shí)在模型主干特征提取網(wǎng)絡(luò)bottleneck中引入了通道域注意力機(jī)制SENet,網(wǎng)絡(luò)通過學(xué)習(xí)特征通道間的相關(guān)性,獲取每個(gè)特征通道的重要程度,可以強(qiáng)化通道中的重要特征來加強(qiáng)特征提取能力。網(wǎng)絡(luò)對(duì)輸入特征層進(jìn)行2個(gè)主要操作包括壓縮(Squeeze)和激發(fā)(Excitation)。模型接受來自神經(jīng)網(wǎng)絡(luò)的特征層后,利用全局平均池化將特征層高寬壓縮,見式(1):

式中,uc表示輸入特征矩陣中第c個(gè)二維矩陣;H、W分別表示矩陣的高、寬,此公式可以將C×H×W的特征圖壓縮為C×1×1,僅保留通道維度,之后利用全連接層獲取每個(gè)通道的權(quán)重值,再將結(jié)果與輸入特征層相乘即可獲得注意力修正后的特征圖,見式(2):

式中,sc表示經(jīng)過Squeeze操作后生成的特征圖權(quán)重,因此實(shí)現(xiàn)了輸入特征圖在通道維度上的重新標(biāo)定。

同時(shí),重新設(shè)計(jì)了激活函數(shù)hsigmoid,并用hswish代替swish函數(shù):

1.2 融合多尺度特征的堆疊連接解碼器模塊

多尺度特征融合結(jié)構(gòu)見圖2。網(wǎng)絡(luò)引入了解碼(Decoder)模塊,將編碼(Encoder)模塊中輸出的低層和高層語義信息進(jìn)行融合,并對(duì)高層語義信息進(jìn)行空洞空間金字塔池化(ASPP),ASPP模塊中存在4個(gè)分支,每個(gè)分支都采用空洞卷積提升感受野,5個(gè)空洞卷積分別設(shè)置了不同膨脹率,分支中采用了全局平均池化和卷積操作,將5個(gè)分支特征進(jìn)行堆疊并用核為1的卷積進(jìn)行特征整合,即可獲得整張圖片的特征濃縮。最后,將加強(qiáng)特征提取后的高層語義特征上采樣并和低層特征疊加,進(jìn)行卷積操作來融合特征[21

1.3 損失函數(shù)

由于水體提取屬于二分類問題,只有正樣本與負(fù)樣本,正樣本為1,負(fù)樣本為0。因此損失函數(shù)是將輸出經(jīng)過sigmoid激活后,利用二分類交叉熵?fù)p失函數(shù)計(jì)算:

ln(y|p)=-(ylnp+(1-y)ln(1-p)) ???(5)

式中 y——水體標(biāo)簽值,取值為0、1;p——模型經(jīng)過sigmoid輸出水體的概率值。

2 數(shù)據(jù)來源及預(yù)處理

為了保證模型的泛化性能,本試驗(yàn)采用的遙感影像樣本融合了GF-1、GF-6、谷歌以及CCF BDCI競(jìng)賽開源數(shù)據(jù)集。其中高分系列數(shù)據(jù)分辨率2 m,在總數(shù)據(jù)中占比80%,谷歌影像分辨率2 m,占比5%,開源數(shù)據(jù)分辨率1 m,采用最鄰近插值法進(jìn)行重采樣至2 m,占比15%。多源數(shù)據(jù)相較于單一來源數(shù)據(jù)通常具有互補(bǔ)性與合作性的優(yōu)勢(shì),可以產(chǎn)生比單信息來源數(shù)據(jù)更精確和更可靠的評(píng)估與判斷,有利于提升最終水體提取模型的魯棒性與泛化能力,因此,研究選取的水體樣本覆蓋遼寧東港,湖南岳陽市,寧夏惠農(nóng)區(qū)、原州區(qū)、中寧縣,江西南昌市,山西鎮(zhèn)安縣,遼寧振興區(qū)以及開源數(shù)據(jù)中覆蓋的地區(qū)。由于原始遙感影像存在幾何畸變,需要對(duì)原始影像進(jìn)行底圖匹配、糾正、融合操作,最終獲取糾正后的遙感影像。

研究采用的水體樣本來源于地理國(guó)情調(diào)查,公開數(shù)據(jù)集以及手工標(biāo)注數(shù)據(jù)。利用ArcGIS軟件,將地理國(guó)情調(diào)查數(shù)據(jù)覆蓋至高分衛(wèi)星影像上,采用人工目視檢查的方式,修改調(diào)查矢量數(shù)據(jù)與底圖不匹配的地方,修改完成后,利用Python和GDAL將矢量數(shù)據(jù)轉(zhuǎn)換為像素值為0和255的二值掩膜圖,再將影像底圖與二值掩膜裁剪為256×256尺寸的訓(xùn)練數(shù)據(jù)。公開數(shù)據(jù)集采用的則是2020CCF遙感解譯大賽的公開數(shù)據(jù)集,原始數(shù)據(jù)集有多類地物要素,從原始標(biāo)注數(shù)據(jù)中將水體對(duì)應(yīng)圖斑提取出來,制作成二值掩膜圖后,刪除不含水體的訓(xùn)練樣本。手工標(biāo)注的影像來源于湖北省某地區(qū),利用ArcGIS軟件手工繪制水體該地區(qū)水體輪廓,制作水體矢量數(shù)據(jù),其后利用與處理地理國(guó)情數(shù)據(jù)相同的方式將矢量數(shù)據(jù)轉(zhuǎn)換為二值掩模圖并裁減為256×256尺寸的訓(xùn)練數(shù)據(jù),見圖3。綜合以上數(shù)據(jù)預(yù)處理步驟,共獲取了41 912組水體樣本數(shù)據(jù),按照9∶1比例劃分為訓(xùn)練集與驗(yàn)證集,分別包含37 720組訓(xùn)練集與4 192組驗(yàn)證集。測(cè)試數(shù)據(jù)來源于南昌市青山湖區(qū),此地區(qū)數(shù)據(jù)沒有參與模型訓(xùn)練,可以保證公平,選取該地區(qū)是為了測(cè)試模型對(duì)于大范圍真實(shí)場(chǎng)景的水體提取能力。

3 試驗(yàn)結(jié)果與分析

3.1 試驗(yàn)方案

為了判斷模型面向真實(shí)遙感影像的水體提取能力,同時(shí)保證模型效果的可復(fù)現(xiàn)性與可信度,分別在自行標(biāo)注的數(shù)據(jù)和開源數(shù)據(jù)集上進(jìn)行水體提取試驗(yàn)。并且采用語義分割網(wǎng)絡(luò)中最為常見的對(duì)比模型FCN、PSPNet、UNet以及成熟的分割模型Deeplabv3_ResNet50、Deeplabv3_ResNet101為對(duì)比模型,以驗(yàn)證所提出網(wǎng)絡(luò)結(jié)構(gòu)的有效性。

3.1.1 真實(shí)應(yīng)用試驗(yàn)

為驗(yàn)證不同網(wǎng)絡(luò)模型對(duì)同分辨率異源數(shù)據(jù)的水體提取效果,選取南昌某地區(qū)2021年度GF-1,3波段影像,分辨率為2 m,幅寬10 km×10 km。對(duì)該幅影像利用人工標(biāo)注水體,以此作為水體指標(biāo)評(píng)估的正樣本。通過對(duì)比試驗(yàn)中各類模型在該異源數(shù)據(jù)的水體提取指標(biāo)進(jìn)行結(jié)果可視化與精度評(píng)估。人工標(biāo)注的水體真值數(shù)據(jù)見圖4。

3.1.2 公開數(shù)據(jù)集

為了驗(yàn)證模型在不同分辨率遙感影像上的泛化能力,選用公開的WHU-GID數(shù)據(jù)集進(jìn)行6種網(wǎng)絡(luò)的預(yù)測(cè)結(jié)果可視化以及精度對(duì)比分析。GID數(shù)據(jù)集是武漢大學(xué)的夏桂松團(tuán)隊(duì)采用中國(guó)GF-2影像數(shù)據(jù)構(gòu)建的大規(guī)模土地類型覆蓋數(shù)據(jù)集,數(shù)據(jù)覆蓋全國(guó)60多個(gè)城市,覆蓋超過5萬km2的區(qū)域。研究采用其中的GID-5數(shù)據(jù),原始數(shù)據(jù)中包含建筑物,農(nóng)田,水體,草地與林地5大類土地分類。提取原始標(biāo)簽中水體所對(duì)應(yīng)的像素值,制作為單一水體標(biāo)簽,將其與影像一同裁剪為512×512尺寸數(shù)據(jù),制作水體數(shù)據(jù)集。

模型基于Python 3.8的PyTorch 1.11深度學(xué)習(xí)框架訓(xùn)練。硬件設(shè)備環(huán)境為Intel Xeon Gold 6226R CPU,128GB RAM,Tesla T4-16GB×3,操作系統(tǒng)為Ubuntu20.04。在模型訓(xùn)練過程中,訓(xùn)練函數(shù)是參數(shù)優(yōu)化的依據(jù)。采用的優(yōu)化器為SGD隨機(jī)梯度下降,初始學(xué)習(xí)率為0.001,動(dòng)量為0.9,權(quán)重衰減為1×10-5,當(dāng)模型訓(xùn)練至97個(gè)epoch,學(xué)習(xí)率下降至3.84×10-7

3.2 評(píng)價(jià)指標(biāo)

研究采用的評(píng)價(jià)指標(biāo)為準(zhǔn)確率(Accuracy)、精確率(Precision)、召回率(Recall)、交并比(IoU)和F1-Score。所有指標(biāo)通過語義分割領(lǐng)域通用的混淆矩陣計(jì)算,見表1。

其中,準(zhǔn)確率表示準(zhǔn)確預(yù)測(cè)的樣本占總樣本比例,精確率表示正確預(yù)測(cè)為正的樣本占預(yù)測(cè)為正的樣本的比例,召回率表示正確預(yù)測(cè)為正的樣本占真實(shí)正樣本的比率;交并比表示預(yù)測(cè)的圖斑面積與正確圖斑面積的交集占預(yù)測(cè)圖斑面積和正確圖斑面積的并集的比例;F1-Score是介于精確率與召回率之間的綜合評(píng)估指標(biāo)。指標(biāo)計(jì)算見式(6)—(10):

3.3 真實(shí)應(yīng)用場(chǎng)景試驗(yàn)

3.3.1 定性試驗(yàn)分析結(jié)果

為了進(jìn)行細(xì)節(jié)比較,將測(cè)試影像裁剪為512×512尺寸,制作成用于比較的圖片,選取的6種網(wǎng)絡(luò)在其上的可視化結(jié)果見圖5,其中第一列為原圖,第二列為真實(shí)標(biāo)簽,后續(xù)分別為6種模型的水體提取結(jié)果。

從圖中可以看出,F(xiàn)CN網(wǎng)絡(luò)特征可以提取較多語義信息,但是由于精度不夠,不適合進(jìn)行像素級(jí)別的分割,導(dǎo)致效果較差;PSPNet所采用的金字塔場(chǎng)景分析網(wǎng)絡(luò),為像素級(jí)分割任務(wù)提供了良好的框架,但是其對(duì)于大范圍水體邊界的提取效果不佳;UNet是語義分割領(lǐng)域的經(jīng)典網(wǎng)絡(luò),采用編碼器-解碼器結(jié)構(gòu)與跳躍連接機(jī)制,在遙感解譯流域有著不錯(cuò)的效果,但是在上述采樣過程中,會(huì)淡化特征,在影像水體提取中,存在水體提取輪廓不完整的問題;成熟的模型Deeplabv3_ResNet50和Deeplabv3_ResNet101在水體提取中也取得了較好的效果,但是由于缺乏對(duì)特征的關(guān)注度,導(dǎo)致對(duì)于細(xì)小坑塘水體的提取效果稍差;根據(jù)模型對(duì)于實(shí)際應(yīng)用場(chǎng)景的提取效果可以看出,搭建的模型能夠完整提取大范圍的水體邊源信息,提取的水體邊界與堤岸的吻合度最高,同時(shí)能夠解決其他模型對(duì)于細(xì)小坑塘水體的遺漏現(xiàn)象,提升水體提取召回率。

3.3.2 定量試驗(yàn)分析結(jié)果

采用不同指標(biāo)對(duì)測(cè)試期模型精度進(jìn)行評(píng)價(jià),結(jié)果見表2。研究提出的模型在各項(xiàng)指標(biāo)上均優(yōu)于5個(gè)對(duì)比網(wǎng)絡(luò),其中Accuracy為98.37%,Precision為95.90%,Recall為97.43%,IoU為93.62%,F(xiàn)1為96.66%,與FCN、PSPNet、UNet相比,精度提升明顯。與成熟的語義分割網(wǎng)絡(luò)Deeplabv3_ResNet50和Deeplabv3_ResNet101相比,Accuracy分別提升1.47%和0.78%,Precision分別提升4.67%和0.95%,Recall分別提升1.87%和0.51%,IoU分別提升5.88%和1.13%,F(xiàn)1分別提升3.32%和0.77%。綜上可以驗(yàn)證本算法的有效性。

3.4 GID數(shù)據(jù)集試驗(yàn)分析

3.4.1 定性實(shí)驗(yàn)結(jié)果分析

處理并裁剪開源GID測(cè)試數(shù)據(jù)之后,不同網(wǎng)絡(luò)在其上的可視化結(jié)果見圖6,其中第一列為原圖,第二列為真實(shí)標(biāo)簽,后續(xù)分別為不同模型的水體提取結(jié)果。由于FCN模型在3.3節(jié)中的試驗(yàn)表現(xiàn)較差,因此在本節(jié)中不參與對(duì)比。根據(jù)圖7中水體提取結(jié)果可以看出,研究所提出的模型在GID公開數(shù)據(jù)集中的水體提取效果差于自行制作的數(shù)據(jù)集,這可能是由于GID水體數(shù)據(jù)集中的水體影像光譜特征,陰影特征多樣所致。同時(shí),GID數(shù)據(jù)集中提取的水體樣本有限也可能是原因之一。然而,研究所提出模型的水體提取效果依舊優(yōu)于其他模型,模型提取的水體邊緣較其他對(duì)比網(wǎng)絡(luò)更完整,同時(shí)保留細(xì)節(jié)的能力更強(qiáng)。通過和其他模型對(duì)比,研究所提出的模型在公開數(shù)據(jù)集中驗(yàn)證了自身的有效性。

3.4.2 定量試驗(yàn)結(jié)果分析

表3所示,改進(jìn)的網(wǎng)絡(luò)在各項(xiàng)指標(biāo)上均優(yōu)于5個(gè)對(duì)比網(wǎng)絡(luò),其中研究所提出的模型Accuracy為91.23%,Precision為88.41%,Recall為90.80%,IoU為81.22%,F(xiàn)1為89.59%。與PSPNet和UNet相比,精度提升明顯。與成熟的語義分割網(wǎng)絡(luò)Deeplabv3_ResNet50、Deeplabv3_ResNet101相比,Accuracy分別提升2.94%和1.02%,Precision分別提升2.06%和1.56%,Recall分別提升1.69%和0.44%,IoU分別提升1.89%和0.61%,F(xiàn)1分別提升1.91%和1.02%,綜上可以驗(yàn)證本算法的有效性。

上述對(duì)比試驗(yàn)清晰地展示了研究提出的模型在水體提取任務(wù)中的優(yōu)勢(shì)。這些優(yōu)勢(shì)主要源于本模型的幾個(gè)重要特性:首先,采用空洞卷積技術(shù)來擴(kuò)大感受野,而不增加參數(shù)數(shù)量或計(jì)算復(fù)雜度,使得模型能夠捕捉到更廣闊的上下文信息,從而更好地理解水體的形狀和邊界;其次,本模型通過融合不同尺度的特征圖,同時(shí)捕捉到了廣泛的背景信息和細(xì)微的細(xì)節(jié)信息。水體邊緣通常由微小的紋理和顏色變化構(gòu)成,因此模型在水體邊緣檢測(cè)方面表現(xiàn)出了更強(qiáng)的能力提升。

4 結(jié)論

提出了一種用于高分辨率遙感影像水體提取任務(wù)的深度學(xué)習(xí)語義分割模型,包括2個(gè)模塊:特征提取模塊與堆疊連接解碼器模塊。前者對(duì)輸入的高分辨率影像進(jìn)行特征提取,采用空洞卷積技術(shù)擴(kuò)大感受野,使得模型能夠捕捉到更廣闊的信息;后者主要由堆疊級(jí)聯(lián)與加強(qiáng)特征提取模塊組成,在通道以及空間維度對(duì)目標(biāo)特征進(jìn)行強(qiáng)化,提升水體邊緣檢測(cè)的能力。在自行標(biāo)注以及公開數(shù)據(jù)集上,模型的準(zhǔn)確率達(dá)到了98.37%和91.23%,召回率達(dá)到了97.43%和90.8%,明顯優(yōu)于其他語義分割模型。并且提出模型能夠相對(duì)完整地提取水體的邊界信息,同時(shí)保留細(xì)節(jié)的能力更強(qiáng),解決了其他模型對(duì)于細(xì)小坑塘水體的遺漏現(xiàn)象。試驗(yàn)證明了提出模型能夠顯著提高水體檢測(cè)性能,為高分辨率遙感影像水體提取任務(wù)提供了更好的解決方案。

參考文獻(xiàn):

[1]陳亮,張波,穆磊,等.基于混合像元分解法的黃河河道水體遙感監(jiān)測(cè)[J].人民珠江,2016,37(10):34-37.

[2]王小標(biāo),謝順平,都金康.水體指數(shù)構(gòu)建及其在復(fù)雜環(huán)境下有效性研究[J].遙感學(xué)報(bào),2018,22(2):360-372.

[3]黃汝根,孫祥鵬,牟舵.基于“高分一號(hào)”遙感影像水體提取方法的對(duì)比分析[J].人民珠江,2017,38(3):66-70.

[4]段秋亞,孟令奎,樊志偉,等.GF-1衛(wèi)星影像水體信息提取方法的適用性研究[J].國(guó)土資源遙感,2015,27(4):79-84.

[5]廖鈺冰,周峰.基于時(shí)序高分一號(hào)影像的平原河網(wǎng)區(qū)水體信息快速提取研究[J].人民珠江,2020,41(1):34-38.

[6]蘇龍飛,李振軒,高飛,等.遙感影像水體提取研究綜述[J].國(guó)土資源遙感,2021,33(1):9-19.

[7]MCFEETERS S K.The use of the Normalized Difference Water Index (NDWI) in the delineation of open water features[J],International Journal of Remote Sensing,1996,17(7):1425-1432.

[8]SARP G,OZCELIK M.Water body extraction and change detection using time series:A case study of Lake Burdur,Turkey[J].Journal of Taibah University for Science,2018,11(3):381-391.

[9]CAO Y R,HE Z J,WANG L J,et al.VisDrone-DET2021:The vision meets drone object detection challenge results[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision,2021:2847-2854.

[10]王寧,程家驊,張寒野,等.U-net模型在高分辨率遙感影像水體提取中的應(yīng)用[J].國(guó)土資源遙感,2020,32(1):35-42.

[11]陳前,鄭利娟,李小娟,等.基于深度學(xué)習(xí)的高分遙感影像水體提取模型研究[J].地理與地理信息科學(xué),2019,35(4):43-49.

[12]CHEN L C,ZHU Y,PAPANDREOU G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//Proceedings of the European Conference on Computer Vision (ECCV),2018:801-818.

[13]CHEN Y,TANG L L,KAN Z H,et al.A novel Water Body Extraction Neural Network (WBE-NN) for optical high-resolution multispectral imagery[J].Journal of Hydrology,2020,588.DOI:10.1016/j.jhydrol.2020.125092.

[14]王冬玲,舒清態(tài),王強(qiáng),等.基于偏最小二乘回歸的高山松生物量遙感模型空間尺度效應(yīng)分析[J].西南林業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)),2020,40(4):87-93.

[15]LI Z S,ZHANG X L,XIAO P F.Spectral index-driven FCN model training for water extraction from multispectral imagery[J].ISPRS Journal of Photogrammetry and Remote Sensing,2022,192:344-360.

[16]張慶港,張向軍,余海坤,等.一種輕量級(jí)網(wǎng)絡(luò)模型的遙感水體提取方法[J].測(cè)繪科學(xué),2022,47(11):64-72.

[17]ZHAO H S,SHI J P,QI X J,et al.Pyramid scene parsing network[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017:2881-2890.

[18]張永洪,孫路遙,席夢(mèng)丹.DeepLab V3+網(wǎng)絡(luò)在遙感影像中城市水體的提取方法[J].西安文理學(xué)院學(xué)報(bào)(自然科學(xué)版),2023,26(2):93-98,104.

[19]SANDLER M,HOWARD A,ZHU M L,et al.Mobilenetv2:Inverted residuals and linear bottlenecks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2018:4510-4520.

[20]HOWARD A,SANDLER M,CHU G,et al.Searching for mobilenetv3[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision,2019:1314-1324.

[21]CHEN L C,PAPANDREOU G,KOKKINOS I,et al.Deeplab:Semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected crfs[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,40(4):834-848.

(責(zé)任編輯:向 飛)

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 色婷婷电影网| 中文字幕人成乱码熟女免费| 九色国产在线| www欧美在线观看| 精品综合久久久久久97超人| 久草视频精品| 蜜桃臀无码内射一区二区三区| 国产性生大片免费观看性欧美| 色综合婷婷| 最新国产精品鲁鲁免费视频| 99久久亚洲综合精品TS| 五月婷婷丁香综合| 亚洲一区无码在线| 色综合激情网| 成人精品在线观看| 精品国产一区二区三区在线观看 | 99久久性生片| 国产一区二区福利| 久久动漫精品| 成人国产精品2021| 欧美亚洲一二三区| 国产办公室秘书无码精品| 在线免费无码视频| 九月婷婷亚洲综合在线| 一本一道波多野结衣av黑人在线| 国产爽妇精品| 久久夜色精品| 亚洲天堂免费在线视频| 99热这里只有成人精品国产| 日本午夜三级| 丝袜无码一区二区三区| 国产精品男人的天堂| 一级毛片免费观看久| 久久国语对白| 亚洲日本www| 久久黄色小视频| 免费在线观看av| 白浆免费视频国产精品视频 | 国外欧美一区另类中文字幕| 免费观看国产小粉嫩喷水| 久久人妻系列无码一区| 日韩二区三区| 五月综合色婷婷| 久久夜色精品国产嚕嚕亚洲av| 91日本在线观看亚洲精品| 美女无遮挡拍拍拍免费视频| 国产人成在线视频| 毛片免费在线| 五月婷婷导航| 欧美中文字幕在线二区| 国产一级在线播放| 青草精品视频| 久久精品人人做人人爽电影蜜月| 亚洲国产亚洲综合在线尤物| 国产白浆在线| 中文字幕日韩久久综合影院| 亚洲成人网在线播放| 国产亚洲精品在天天在线麻豆 | 亚洲欧美日韩另类在线一| 久久精品66| 亚洲日本精品一区二区| 欧美日韩中文国产va另类| 一本大道香蕉中文日本不卡高清二区| 日韩av资源在线| 精品色综合| 999国内精品视频免费| 国产成人乱码一区二区三区在线| 中文字幕天无码久久精品视频免费| 女高中生自慰污污网站| 免费在线播放毛片| 久久久久久尹人网香蕉 | 黄色成年视频| 日本午夜三级| 四虎永久在线精品影院| 成·人免费午夜无码视频在线观看 | 亚洲色偷偷偷鲁综合| 无码中字出轨中文人妻中文中| 国产尹人香蕉综合在线电影| 成年人久久黄色网站| 国产成人啪视频一区二区三区| 欧美一区二区三区不卡免费| AV无码无在线观看免费|