999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向小目標提取的改進DeepLabV3+模型遙感圖像分割

2022-08-18 08:53:04郭新張斌程坤
遙感信息 2022年2期
關鍵詞:特征融合信息

郭新,張斌,程坤

(1.中國地質大學(武漢) 地理與信息工程學院,武漢 430078;2.武漢工程大學 計算機科學與工程學院,武漢 430205)

0 引言

遙感已經成為觀測地球表面重要的技術手段。進入二十世紀以來,隨著傳感器技術的不斷改進,可以獲得如哨兵系列、高分系列等高分辨率多光譜圖像。此外,利用無人機技術(unmanned aerial vehicle,UAV)可以獲得亞米級的超高分辨率的遙感圖像。目前高分辨率遙感影像的解譯在城市環境、精準農業、基礎設施建設、林業調查、軍事目標識別、災害應急評估等諸多領域都具有極其重要的意義。傳統的遙感影像解譯技術主要依靠人工目視解譯以及專家先驗知識構建的物理模型,但其存在精度低、效率低等缺陷,面對井噴式增長的海量遙感數據,傳統的影像解譯方法已經無法滿足當今的實際應用需求。

近年來,隨著計算機視覺技術的不斷進步,圖像分割算法在深度學習的助推下取得了較大發展。全卷積神經模型(fully convolutional networks,FCN)[1]是最早提出的基于卷積神經模型(convolutional neural network,CNN)的具有較高影響力的圖像分割模型之一,之后FCN方法被用于提取高分辨率遙感影像的建筑物[2-3],但是FCN僅使用深層特征圖來執行像素分類,忽略了含有豐富空間信息的淺層特征,導致其處理小目標的能力較弱,使得模型最終的分割圖像較為粗糙。U-Net[4]和SegNet[5]采用了編碼器-解碼器結構,編碼器用于提取特征信息,解碼器將提取到的特征圖恢復至原始圖像維度。為了解決編碼器由于不斷卷積導致圖像細節信息嚴重丟失的問題,在編碼層中融合淺層特征,使模型能夠提取不同層級的特征信息,提升模型精度,Li等[6]在U-Net的基礎上提出了DeepUNet模型用于遙感影像分割,該模型引入了兩個帶有U連接和正連接的新模塊進一步提升模型性能。Pan等[7]提出了密集金字塔網絡(dense pyramid network,DPN)用于語義分割,該模型分別提取每個通道的特征圖以增強模型的表示能力,最終在Vaihingen數據集上表現良好。

最近,DeepLabV3+模型[8]由于其出色的分割性能變得較為流行,該模型由DeepLabV1~3[9-11]系列改進而來,其整體上繼承了U-Net等模型的編碼器-解碼器結構,在編碼器部分引入空間空洞金字塔池化(atrous spatial pyramid pooling,ASPP)模塊并添加了全局平均池化操作,解決了之前提取的特征圖尺度單一的問題,有效提升了模型的性能,但是也存在訓練速度較慢、小尺度目標信息丟失嚴重以及多類別分割任務中由于數據集類別不均衡導致性能欠佳等問題。部分學者對DeepLabV3+存在的缺陷進行了研究,劉文祥等[12]在該模型中引入雙注意力機制模塊(dual attention mechanism module,DAMM),并將該模塊與ASPP通過串聯和并聯兩種方式連接起來,結果證明DAMM注意力機制能夠有效提升模型訓練收斂速度,增強圖像邊緣目標特征,且在INRIA aerial image數據集上MIoU分別提升了1.12%和1.8%。張鑫祿等[13]提出了基于DeepLabV3的小波域(markov random field,MRF)算法,改善了邊緣目標的分割效果,整體精度提升了3%;Du等[14]提出將DeepLabV3+和基于對象的圖像分析融合以增強地物輪廓;Baheti等[15]提出降低ASPP的空洞卷積采樣率可提升小目標的特征提取能力;劉志贏等[16]提出異感受野融合策略擴大了空洞卷積感受野,提升了DeepLabV3+模型多尺度特征提取能力,并引入通道注意力模塊,強化了對重點通道的學習能力;劉航等[17]在DeepLabV3+模型引入了自適應感受野機制可以有效提取不同形狀目標的特征;郭夢利等[18]使用占比加權的方法解決了模型訓練中正負樣本嚴重不均衡的問題。

以上學者只是針對DeepLabV3+的不足進行單方面改進,且改進效果有限。針對DeepLabV3+模型在遙感影像語義分割上存在小目標提取能力弱等缺點,本文提出以下改進策略。

1)改進ASPP模塊。減小空洞卷積采樣率,采用多組并行空洞卷積增強多尺度特征提取能力,同時提出感受野融合策略,擴大感受野,提高特征信息利用率;

2)添加特征注意力融合模塊(feature attention fusion,FAF),利用通道注意力和空間注意力充分挖掘不同特征圖的信息;

3)優化損失函數,利用加權基于子模塊凸優化的Lovasz-softmax損失函數能有效解決多類別分割任務時的類別不均衡現象。

基于以上策略分別對模型改進,最后融合改進策略整體提升模型性能,并通過Landcover和CCF2017高分辨率遙感影像數據集驗證改進策略的有效性。

1 模型與改進

1.1 DeepLabV3+模型

DeepLabV3+是Google公司于2018年最新提出的語義分割算法,該算法由DeepLabV1~3發展而來,DeepLabV1提出帶空洞的卷積操作,在避免下采樣的情況下擴展了模型感受野,同時模型采用了條件隨機場(conditional random field,CRF)優化分割結果,但是DeepLabV1對于多尺度目標的分割性能欠佳。DeepLabV2在DeepLabV1基礎上提出了最初的ASPP結構,對輸入的特征圖使用不同采樣率的空洞卷積操作進行采樣,可以有效提取不同尺度目標的特征信息,同時沿用CRF以提高模型的分割性能。DeepLabV3將ASPP結構改為三個3×3卷積操作,采樣率分別為(6、12、18)和一個全局平均池化,由于ASPP融合了像素級特征,包含了目標的位置信息,因此DeepLabV3取消了CRF操作。DeepLabV3+基礎模型的結構如圖1所示,以改進的Xception為骨干模型,原始圖像輸入到編碼器模塊,經過輸入流、中間流和輸出流卷積運算,生成分辨率為原圖1/16或1/8的特征張量,將提取的特征張量傳入ASPP結構,其中包含了一個全局平均池化特征層和三個不同采樣率的并行空洞卷積層,將通過并行空洞卷積層處理后的特征張量連接后通過一個1×1的卷積層壓縮通道后輸出。在解碼器模塊中,對編碼器模塊輸出的特征圖通過雙線性插值四倍上采樣至原始圖像的1/4大小,然后與來自骨干網絡提取的相同分辨率的淺層特征圖拼接,兼顧圖像的語義信息和細節信息,避免了從深層特征圖直接上采樣恢復至原圖尺寸時造成細節信息丟失的誤差,再次經過3×3卷積和四倍上采樣后輸出分割結果。

圖1 DeepLabV3+模型結構

DeepLabV3+模型因其使用了編碼器-解碼器形式以及ASPP模塊,同時利用骨干網絡提取的淺層特征與ASPP處理后的深層特征融合以加強細節信息,所以具有出色的分割性能。但是對于遙感圖像來說,ASPP模塊中較大的空洞卷積采樣率會丟失小尺度目標的信息,同時四倍上采樣恢復圖像細節信息具有較大難度,因此在遙感影像語義分割領域,DeepLabV3+面臨諸多挑戰。

1.2 注意力機制

近年來,眾多計算機視覺研究工作者專注于注意力機制。注意力機制是聚焦于局部信息的機制,其使用一層全新的注意力權重,將特征數據中每個部分的關鍵程度表示出來并加以學習訓練。根據作用形式的不同,可以將注意力機制分為三類,分別為:空間注意力(spatial attention)、通道注意力(channel attention)、混合注意力(mixed attention)。空間注意力[19]是將圖像中的空間信息作對應的空間變換,從而將關鍵的信息提取出來,并對生成的掩碼進行評估。通道注意力[20]是給每個通道增加一個權重,代表通道與關鍵信息的相關度,權重越大,表示相關度越高。Woo等[21]結合了上述空間注意力和通道注意力的優點,提出了CBAM;王中宇等[22]在DeepLabV3+模型中引入CBAM,將其應用在自動駕駛場景的語義分割工作當中,但是模型中的不同卷積層包含不同的語義信息,對單層特征圖利用CBAM同時進行通道信息挖掘以及空間信息挖掘往往不能發揮注意力機制的最大效果,且引入的CBAM使得模型過于關注焦點區域,忽略了部分細節信息,最終導致分割結果過于圓滑。之后,作者采用了條件隨機場(CRF)對分割結果進行處理才進一步改善了結果,但使模型產生了額外的計算。

本文提出了特征注意力融合模塊(feature attention fusion,FAF),將空間注意力模塊用于挖掘包含更多空間位置信息的淺層特征,將通道注意力模塊用于挖掘包含更豐富語義編碼信息的深層特征圖,將兩者挖掘到的注意力信息進行特征融合并輸出到后續的模型中。

1)通道注意力。給定H×W×C的特征圖F,分別采用全局平均池化和最大池化得到兩個1×1×C的特征,隨后將其送入一個共享的神經模型,再將得到的兩個特征相加后經過激活函數得到權重系數,最后將權重系數與原特征相乘輸出。通道注意力模塊的公式表示參見文獻[21]。

2)空間注意力。給定H×W×C的特征F,經過通道維度的全局最大池化和平均池化之后連接起來,組成兩個通道的特征圖,經過一個卷積層融合,輸出一個單通道的特征圖,最后經過sigmoid激活操作生成空間注意力特征圖Ms。將該權重矩陣和輸入特征圖進行點乘運算,得到最終需要的特征圖。空間注意力的公式表示參見文獻[21]。

3)特征注意力融合模塊。如圖2所示,分別給定H1×W1×C1的淺層特征F1和H2×W2×C2的深層特征F2,由于淺層特征和深層特征包含不同的語義信息,為充分挖掘特征圖的信息,本文提出特征注意力融合模塊。首先,將F2上采樣后與F1進行通道連接;然后,通過1×1卷積壓縮通道,利用ReLU激活函數和批歸一化操作得到F3;其次,利用空間注意力模塊對F1進行處理,得到空間注意力加權的特征,通過1×1卷積擴張通道后與F3特征融合得到F4;最后,利用通道注意力模塊對深層特征F2進行處理得到注意力加權特征F5,將F5和F4融合輸出得到最終的特征圖。特征注意力融合模塊可以用式(1)表示。

F=Mc(F2)×[Ms(F1)×γ(F1+F2)]

(1)

式中:Mc表示通道注意力;Ms表示空間注意力;γ為ReLU激活函數。

1.3 改進ASPP

受空間金字塔池化以及空洞卷積成功應用的啟發,原始DeepLabV3+模型在編碼器ASPP模塊利用三組采樣率分別為6、12、18的并行空洞卷積可以有效提取不同空間尺度的特征信息。研究表明[23],在ASPP模塊中6、12、18的采樣率適用于自然圖像中目標尺寸較大的密集像素,遙感圖像的成像方式和成像特點與自然圖像存在較大差距,遙感影像中單個的地物目標像素所占整幅圖像之比遠低于自然圖像,因此若繼續沿用原始DeepLabV3+的采樣率將導致影像中的像素占比較小的目標如建筑物、道路等細節信息丟失,致使模型誤差變大。

1)多組并行空洞卷積。原始模型ASPP結構使用采樣率分別為6、12、18的空洞卷積擴大感受野。空洞卷積是通過卷積核補零的方式擴大感受野,最終輸出非零采樣點的卷積結果。本文在繼承原始的ASPP的優勢上,考慮到遙感影像中既存在像素面積占比較小的建筑物,同時存在如水體、林地等集中連片的像素占比相對較大的地物目標,因此提出減小初始采樣率,并使用六組并行的兼顧小尺度和大尺度目標的空洞卷積,采樣率分別為4、8、12、16、20、24,以此來提取更多不同尺度的地物目標信息。

2)感受野融合。隨著采樣率增加,非零采樣點在卷積核中的占比快速降低,在同等計算量條件下空洞卷積獲取的信息量丟失嚴重,提取到的特征關聯性差,阻礙模型訓練[24]。基于以上問題,文獻[16]提出了異感受野融合的ASPP結構,該結構將原始特征圖與r=16卷積層處理過的特征圖拼接后傳入r=12卷積層,又將r=12處理過的特征圖傳入r=18卷積層,這樣可以在不增加并行卷積層的同時有效提升感受野。然而,該方法只是融合了上個卷積層的信息,雖然有利于提取更豐富的信息,但提取的信息有限。

本文改進了ASPP模塊的感受野融合思路,在ASPP模塊中,將當前卷積層提取后的特征與之前每個卷積層提取到的特征以及原始特征融合并進行通道壓縮后傳入下一卷積層提取信息,該方法可以有效提升卷積層的特征利用率。

定義特征利用率θ為原始特征圖中參與有效運算的元素量與感受野內元素總量的比值,則感受野融合前后空洞卷積在原始特征圖的特征利用率如表1所示。融合后,相較原始ASPP,采樣率為12的感受野從25擴大至49,特征利用率從1.56%增加至7.56%,由此可見該方法通過增強不同感受野特征間的相關性,從更大感受野內判別單個像素的屬性,可以有效降低特征信息丟失。

表1 感受野融合特征利用率

感受野融合將增加大量模型運算,為兼顧模型的輕量性和精度,對ASPP的輸入特征使用1×1卷積進行通道壓縮,由原來的2 048個通道壓縮到1 024個通道,輸出通道保持不變。模塊輸入前后特征分辨率維持一致,則原始ASPP模塊的參數量如式(2)所示。

N1=2 048×32×256×3=14 155 776

(2)

改進后ASPP模塊的參數量如式(3)所示。

N2=2 048×32×256+(1 024+256)×
32×256×5=19 464 192

(3)

與原始ASPP模塊相比,改進的多組并行融合感受野ASPP模塊參數量增加了37.5%,但是感受野擴大了四倍以上,因此該方法以較小的模型參數增量有效擴大了感受野并提高了特征利用率。

1.4 優化損失函數

損失函數是用來評估模型預測值和真值的不一致程度,損失函數的值越小,模型的性能越好。圖像分割任務中,經常會出現類別不均衡的情況,DeepLabV3+模型里使用了softmax損失函數。softmax損失函數能夠有效處理多類別分割任務,但處理圖像分割中常見的類別不均衡的情況性能欠佳。Berman等[25]提出了基于子模塊凸優化的適用于多類別任務的Lovasz-softmax loss。由于本文所用數據集為高分辨率遙感數據集,其中建筑物在影像中的像素占比較低,存在類別不均衡情況,基于子模塊凸優化的Lovasz-softmax損失函數能有效解決多類別分割任務時的類別不均衡現象,但該損失函數由于過分關注小尺度樣本致使較大尺度的樣本存在類內不一致的情況,因此本文汲取Lovasz-softmax loss與softmax loss的優勢,采用兩者加權組合的方式作為DeepLabV3+模型的loss,在保證高效處理多類別任務的同時降低由于數據集類別不均衡引起的誤差。

1.5 改進編碼器上采樣

在DeepLabV3+模型中,由Xception骨干模型和ASPP提取的特征圖分辨率是原始圖像的1/16,在解碼器模塊需要對該特征圖進行上采樣,恢復至原始圖像的分辨率,DeepLabV3+首先采用四倍雙線性插值上采樣至原始圖像大小的1/4,然后與Xception骨干模型提取的淺層特征拼接,再次使用四倍雙線性插值上采樣至原始圖像大小。但研究表明,從較小的圖像以較高上采樣倍數重建圖像存在較大挑戰,因此本文分別采用四次兩倍雙線性插值上采樣,在編碼器模塊結束后,分兩次進行兩倍雙線性插值上采樣將特征圖恢復至原始圖像的1/4大小,與Xception骨干模型提取的淺層特征拼接后再以同樣的方式恢復至原始圖像尺寸。

1.6 本文方法

DeepLabV3+模型是目前最經典的語義分割模型之一,其為增加對多尺度目標的提取能力,引入由采樣率分別為1、6、12、18的3×3空洞卷積以及一個1×1全局平均池化操作共同組成的ASPP結構,并在VOC、COCO、Cityscapes等大型公開數據集上獲得優異成績。針對原始DeepLabV3+模型小尺度目標提取性能欠佳、類別不均衡引起的誤差等缺陷,本文融合上述改進策略,提出在原始模型的基礎上采用感受野融合策略和增加多組并行空洞卷積改進ASPP模塊,在解碼器模塊中添加FAF注意力機制充分挖掘不同特征的信息,改進上采樣策略,并利用基于子模塊凸優化的Lovasz-softmax加權優化損失函數,增強小目標的特征提取能力(圖2)。

圖2 本文方法

2 實驗結果及分析

為驗證本文方法的有效性,對上述改進方法進行驗證。

2.1 實驗平臺及相關參數設置

本文實驗基于Ubuntu16.04操作系統,CPU為Intel Xeon Gold 6148,GPU為NVIDIA Tesla V100,使用百度研發的PaddlePaddle1.8.4框架,在Ai Studio訓練并測試本文方法。

本文使用Cityscapes預訓練的Xception65作為改進的DeepLabV3+特征提取骨干模型,設置初始化學習率(learning rate,lr)為0.01,使用隨機梯度下降(stochastic gradient descent,SGD)法訓練模型,使用“poly”學習策略[26],模型優化方法使用momentum,動量為0.9。

2.2 實驗數據及流程

本文使用Landcover[27]和2017年“CCF衛星影像的AI分類與識別競賽”(以下簡稱CCF2017)數據集驗證改進的DeepLabV3+模型。Landcover數據集主要用于高分辨率可見光波段的遙感影像語義分割,總覆蓋面積為216.27 km2,采用人工標注(其中建筑物1.85 km2,林地72.2 km2,水體13.25 km2)。CCF2017數據集為2015年中國南方某地區亞米級的高分辨率遙感影像,采用人工標注的方式生成標注圖,相對Landcover數據集,CCF2017數據集產自中國,且含有道路信息,信息詳見表2。

表2 數據集詳情

為方便模型訓練,本文先將兩個數據集分別裁剪成2 000張512像素×512像素大小的小幅影像,其中1 600張圖片作為訓練集,200張圖片作為驗證集,200張圖片作為測試集,然后對圖像進行隨機裁剪、翻轉、縮放、添加噪聲等預處理,利用本文改進DeepLabV3+模型、原始DeepLabV3+模型以及其他主流分割算法進行訓練,最后進行評價分析、預測。實驗流程如圖3所示。

圖3 實驗流程

2.3 評價指標

在圖像分割領域中,預測的結果會出現四種:真正(true positive,TP)、假正(false positive,FP)、真負(true negative,TN)、假負(false negative,FN),評估模型質量主要通過兩個指標進行判斷,即平均像素精度(mean pixel accuracy,mPA)、平均交并比(mean intersection over union,MIoU)。另外,由于本文的數據集類別不平衡,不加以調整,模型評價很容易偏向大類別而放棄小類別,因此需要一種能夠懲罰模型的“偏向性”指標來糾正評價偏差。在傳統的遙感影像分類領域中,Kappa系數是評價影像分類效果的一個重要指標,該系數能利用混淆矩陣對模型進行評價,可以有效解決指標“偏向性”問題。因此本文選擇mPA、MIoU、Kappa系數共同作為評價指標。

2.4 改進的DeepLabV3+模型消融實驗

原始DeepLabV3+為平衡精度與速度,使用骨干網Xception65提取到分辨率分別為64×64和32×32,即輸出步長(output stride,OS)為16和8的特征圖驗證模型性能,其中OS等于16時的特征圖尺寸相對較小,在相同配置環境下模型可以更快收斂但精度略低,OS等于8時的情況相反。本文沿用原始DeepLabV3+的思路,在Landcover數據集上,首先利用Xception65骨干網提取到上述兩種64像素×64像素和32像素×32像素的特征圖,然后分別對改進的ASPP模塊、添加的FAF注意力模塊以及基于子模塊凸優化的加權Lovasz-softmax損失函數進行消融實驗,經過50輪迭代訓練后,模型收斂,最終的測試結果如圖4所示。

通過圖4可以發現,本文所提的改進策略均能在一定程度上提升模型性能,且融合上述策略后,綜合改進模型性能最佳,具體評價指標如表3所示。

圖4 DeepLabV3+消融實驗結果對比

表3 DeepLabV3+模型實驗對比

由表3可以看出,本文所提方法能有效提升DeepLabV3+的模型性能,不同的改進方法對原始模型均有一定的提升效果。

1)改進原始模型的ASPP后,由于使用了采樣率分別為4、8、12、16、20、24的六組并行空洞卷積,同時使用感受野融合策略有效提高了特征利用率,改進的ASPP模塊可以提取更多尺度的特征信息,尤其是對于像素占比較低的建筑物,同時也增強了較大尺度地物目標的提取能力,MIoU相對原始模型在OS=16和OS=8的情況下分別提升了0.71%和0.68%。

2)在添加了FAF注意力模塊之后,由于FAF模塊對含有豐富空間信息的淺層特征使用空間注意力特征進行加權,對含有豐富的語義編碼信息的深層特征進行加權,能夠最大效率地挖掘不同特征的信息,實驗結果顯示,經過FAF注意力加權的DeepLabV3+模型能夠更有效地關注焦點區域,MIoU在OS=16和OS=8的情況下相對原始DeepLabV3+模型分別提升了0.6%和0.7%。

3)在使用基于子模塊凸優化的Lovasz-softmax loss加權優化原始DeepLabV3+模型里的softmax loss后,顯著改善了像素占比較小的地物目標分割效果,其中建筑物的IoU相較原始模型在OS=16和OS=8的情況下分別提升了3.27%和2.23%,模型的MIoU也分別提升了0.44%和0.38%。融合以上三種改進策略后,改進的DeepLabV3+取得了最佳分割性能,MIoU相較原始模型分別提升了1.17%和1.24%,準確率分別提升了0.14%和1.48%,Kappa系數分別提升了0.003 7和0.005 8。

2.5 主流分割算法對比實驗

上述消融實驗證明了本文所提方法的科學性和有效性,為充分對比本文方法與現階段主流的語義分割算法如Fast-SCNN[28]、HRNet[29]、ICNet[30]、PSPNet[31]、U-Net的先進性與魯棒性,本節選取Landcover和CCF2017數據集進行對比實驗,采用與前文一致的數據預處理策略,所有模型經過50輪迭代訓練之后,測試結果如圖5所示。

圖5 主流分割算法對比

由圖5可以看出,本文方法在DeepLabV3+模型的ASPP模塊中減小采樣率、改用六組并行空洞卷積,可以提取包含細節信息的更多尺度的特征,同時利用了感受野融合思想,通過融合輸入與不同感受野的特征建立像素間的遠程依賴,增強了不同尺度特征之間的相關性,有效提升了模型對于小尺度目標的特征提取能力。此外,通過優化損失函數有效解決了類別不均衡的問題,添加FAF模塊能使模型更有效地從淺層特征和深層特征挖掘空間和通道信息。具體數據如表4所示,本文方法在Landcover和CCF2017數據集都取得了最高精度,尤其提取建筑物、道路等小尺度地物特征方面具有顯著優勢,建筑物的IoU在兩個數據集上達到最高,為81.92%和90.31%,道路的IoU達到了83.77%,相對其他模型具有更高的道路連通性。

表4 主流分割算法精度評價

本文方法在兩個數據集上均取得最高的MIoU,進一步驗證了本文方法具有較高的魯棒性,在遙感影像語義分割領域中有較好的應用前景。

3 結束語

本文采用多組并行空洞卷積提取多尺度特征,利用感受野融合策略改進ASPP,優化損失函數,提出利用FAF注意力充分挖掘不同特征信息,在Landcover和CCF2017數據集上進行訓練和測試,得到以下主要結論。

1)利用多組并行空洞卷積能夠有效提取更多尺度的特征信息,在降低空洞卷積采樣率以及進行感受野融合之后,模型對于建筑物等小尺度地物提取能力在OS=16和OS=8的情況下分別提升0.71%和0.68%。

2)提出的FAF注意力模塊能夠有效挖掘淺層特征的空間位置信息和深層特征的語義信息,改進后模型預測結果的紋理信息更加精確,MIoU分別提升了0.6%和0.7%。

3)基于子模塊凸優化的加權Lovasz-softmax loss能夠有效改善類別不均衡問題,對于建筑物的特征提取改善效果最明顯,在OS=16和OS=8兩種情況下,IoU分別提升3.27%和2.23%,但由于過分關注小尺度目標,致使部分大尺度目標精度下降。

4)在融合以上三種改進策略后,改進的DeepLabV3+模型獲得了最佳性能,有效解決了原始模型多尺度目標企圖能力較弱、類別不均衡、空間位置信息挖掘欠佳的問題,最終的MIoU分別提升1.17%和1.24%。

5)利用不同數據集對本文改進的DeepLabV3+模型進行驗證,測試結果表明,本文方法在不同數據集上都取得了最優結果,進一步證明了本文方法具有較高的魯棒性和科學性。

本研究表明,基于以上策略改進的DeepLabV3+更適合遙感影像語義分割領域,在多尺度目標提取以及樣本類別不均衡情況下相對其他模型均有較大優勢。但本文未對目標邊緣進行優化,林地等不規則地物目標分割紋理有待改進,后期將考慮添加邊緣約束,基于邊緣增強改進模型。此外,本研究使用的數據集類別相對有限,缺少耕地等典型地物要素,且數據類別較廣,如水體沒有進一步劃分為河流、湖泊等,后期將增加改進模型在遙感影像更多地物類別方面的研究。同時,將考慮運用模型壓縮和模型剪枝技術對改進的DeepLabV3+算法進行優化,保證在性能基本不變的情況下輕量化模型。

猜你喜歡
特征融合信息
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 欧美va亚洲va香蕉在线| a级毛片一区二区免费视频| 又爽又大又光又色的午夜视频| 99精品国产自在现线观看| 国产精品刺激对白在线| 亚洲中文字幕无码mv| 亚洲欧美一区二区三区图片 | 欧美日韩另类在线| 一级成人a做片免费| www.91在线播放| 91成人在线免费视频| a亚洲天堂| 日韩毛片基地| 一级不卡毛片| 亚洲热线99精品视频| 99视频精品在线观看| 干中文字幕| 国产一二三区视频| 亚洲第一视频免费在线| 国产不卡国语在线| 国产亚洲欧美在线视频| 538国产在线| 亚洲无码视频喷水| аv天堂最新中文在线| 最新国产精品鲁鲁免费视频| 色综合婷婷| 欧美另类精品一区二区三区| 2020精品极品国产色在线观看| 色135综合网| 香港一级毛片免费看| 久久久无码人妻精品无码| 亚洲成人一区在线| 国产在线小视频| 国产精品中文免费福利| 亚洲日韩久久综合中文字幕| 久久久精品国产SM调教网站| 2020最新国产精品视频| 人妖无码第一页| 免费看久久精品99| 激情视频综合网| 亚洲国产精品日韩欧美一区| 日本五区在线不卡精品| 精品久久久无码专区中文字幕| 中文字幕在线不卡视频| 午夜色综合| 免费一看一级毛片| 亚洲黄色视频在线观看一区| av在线人妻熟妇| 亚洲人成网站观看在线观看| 国产在线麻豆波多野结衣| 亚洲成人精品在线| 国产精品精品视频| 亚洲天堂网视频| 人妻无码中文字幕第一区| 色噜噜狠狠色综合网图区| 国产美女叼嘿视频免费看| 伊人久久婷婷五月综合97色| 伊人久久精品亚洲午夜| 又大又硬又爽免费视频| 狼友av永久网站免费观看| 国产成人久久综合一区| 婷婷色丁香综合激情| 成人午夜在线播放| 激情六月丁香婷婷| 国产精品美女免费视频大全| 人妻中文字幕无码久久一区| 人人看人人鲁狠狠高清| 蜜桃视频一区二区三区| 国产高清在线精品一区二区三区 | 日日噜噜夜夜狠狠视频| 伊人成人在线| 欧美精品不卡| 日韩一级二级三级| 小说区 亚洲 自拍 另类| 精品偷拍一区二区| www.91在线播放| 欧美亚洲一二三区| 国产91丝袜在线观看| 欧美日韩成人| 久久久国产精品无码专区| 欧美97色| 无码福利视频|