999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向高分辨率遙感圖像的分割模型研究*

2023-11-16 10:49:30劉姝妍卓雨東王浩東
網絡安全與數據管理 2023年10期
關鍵詞:語義特征模型

劉姝妍,何 柳,陶 劍,卓雨東,王浩東

(中國航空綜合技術研究所,北京 100028)

0 引言

無人駕駛飛機簡稱“無人機”(Unmanned Aerial Vehicle,UAV),是利用無線電遙控設備和自備的程序控制裝置操縱的不載人飛行器。與載人飛行器相比,它的造價通常較低,同時具有環境適應性強等優勢。搭載光電視覺系統的無人機可按需求靈活地獲取、存儲及傳遞信息[1]。為了從整體上提升無人機的態勢感知和信息處理速度,需要通過人工智能技術提升其對獲取的遙感圖像的自動處理能力。

人工智能技術作為計算機科學的一個分支,近些年在計算機視覺、自然語言處理、語音識別、機器人學以及知識工程等領域均取得了重大突破,這在很多方面得益于深度學習技術的發展。相比于傳統的方法,深度學習方法對計算機視覺中的圖像分類、目標識別和語義分割具有更好的效果,從而為無人機實現任務自主智能提供了基礎。無人機或地面系統的任務自主智能主要體現在如何高效、快速、精確地獲取遙感圖像中的關鍵信息。圖像分割技術為遙感圖像內容識別和分析提供了有效途徑。遙感圖像分割技術旨在根據實際語義信息給遙感圖像進行像素級分類,將其劃分為一系列具有道路、橋梁、機場跑道、工業區等地物類別標簽的區域[2]。無人機采集到的高分辨率遙感圖像與自然圖像相比,具有場景復雜、光譜異質性高、圖像遮擋嚴重、偽影復雜等特點,對分割算法的性能要求更高。

面對遙感圖像分割的需求,眾多研究者從不同的技術路線進行了探索。傳統的遙感圖像語義分割方法通常是基于像素、區域或邊緣檢測的。這些方法存在各種問題,如基于區域的方法分割邊緣不清晰、基于邊緣檢測的方法難以形成閉合區域等。元啟發式方法將基于數學理論的方法和基于元啟發式算法的方法進行融合[3],形成了可以獲取圖像上下文特征的模型,取得了不錯的效果。但這些模型復雜度高、訓練耗時且依賴大量的標注數據,使得基于此類模型的研究和工程應用成本過高,無法得到持續的發展。隨著深度學習在計算機視覺領域的跨越式發展,基于深度學習的圖像分割方法取得了很好的應用效果,通過增加模型的深度可以快速且自動地從非常大的數據集中提取圖像特征,并通過迭代使用復雜模型來提高回歸算法的精度。深度學習在遙感圖像的應用研究中也取得了突破性的效果,如植物識別[4]、道路提取[5]以及建筑物識別[6]等。

全卷積網絡(FCN)[7]是第一個有效的卷積神經網絡(CNN)結構,其以端到端的方式解決語義分割問題。基于CNN的方法在遙感領域的分割任務中取得了顯著的效果[8-10],但在城市場景分割中遇到挑戰[11]。具體來說,具有有限感受野的分割網絡只能提取局部語義特征,缺乏建模全局信息的能力。然而,在高分辨率的遙感城市場景圖像中,復雜的模式和人造物體頻繁出現,僅依靠局部信息很難識別這些復雜物體。為了解決該問題,更多的研究者利用自注意力Transformer模型[12]對圖像全局信息的提取能力來對圖像進行建模,并在基本視覺任務上獲得了先進結果。在此驅動下,遙感領域的許多研究人員將Transformer應用于遙感圖像場景分類[13]、目標檢測[14]等場景,特別是語義分割[15]。

基于Transformer的圖像編碼器由于高度復雜的自注意力機制,其參數量和計算量遠高于基于CNN的編碼器,嚴重影響了其在城市相關實時應用中的潛力和可行性。如何在面向城市的遙感圖像分割場景中充分利用Transformer的全局上下文提取能力,同時避免高計算復雜度是亟待解決的問題。本文以高效率、高精度的語義分割方案為目標,基于上述主流的注意力機制改進了經典的語義分割框架,并在多個面向城市場景的公開遙感圖像分割數據集上驗證了算法的有效性。本文的主要貢獻可以歸結為以下三點:

(1)提出了一套面向遙感領域的低參數、高精度的語義分割框架,旨在提供自動且高效的分割解決方案,支持高分辨率的遙感圖像輸入。

(2)改進了經典編碼-解碼的分割模式,將多種注意力機制引入到分割方案的設計中,包括用于判斷關鍵目標“是什么”的通道注意力、定位關鍵目標“在哪里”的空間注意力以及能夠聚合遠距離遙感上下文信息的主流自注意力機制。

(3)構建了多尺度的特征提取模塊并與注意力機制整合形成雙流的特征提取分支以提升對于小目標和密集目標的分割能力。相比之前的方法,本文方法可以得到更加精細和準確的分割結果,分割效果更優。

1 基于注意力和多尺度語義信息的語義分割模型

1.1 模型整體架構

在自然圖像語義分割領域,UNet模型[16]以其結構清晰、參數量低、效果良好成為眾多任務的首選,其主要包含編碼模塊、解碼模塊以及跳躍連接三部分。編碼模塊用于逐層解析輸入圖像的語義信息;解碼模塊用于恢復編碼模塊下采樣圖像后的空間損失從而完成分割預測;跳躍連接則用于圖像淺層紋理和深層抽象語義特征的整合。如圖1所示,UNet模型整體呈現出了一種U型的全卷積結構。具體來說,模型左側為編碼模塊,存在四組編碼子模塊,每組包含三個卷積層以及一個最大池化的下采樣層,每次池化操作后,輸入特征圖的通道數翻倍,二者組合用于對輸入圖像進行特征提取,并且降低圖像的原始空間分辨率。模型右側為解碼模塊,同樣由四組卷積以及池化層的堆疊構成,在送入解碼子模塊前,通過去卷積操作將輸入特征圖的尺寸翻倍、通道數減半,再和左側編碼模塊的對應輸出進行拼接,通過跳躍連接構成淺層特征和深層特征的交互。

針對遙感場景,本文仍然基于主流的U型編碼-解碼的結構構建,并借鑒Transformer模型在上述結構中的優勢[15],對編碼模塊和解碼模塊進行了進一步的針對性改進,設計了基于空間和通道注意力的編碼模塊、基于自注意力并聚合多尺度特征金字塔的解碼模塊,優化后的語義編碼特征與解碼特征合并完成跳躍連接過程。本文模型的整體架構如圖2所示。

1.2 通道與空間注意力集成的編碼模塊

在語義分割模型中,編碼模塊對于輸入圖像的解譯至關重要,影響模型后續的解碼和跳躍連接處的傳遞效果。為此,本文基于經典的殘差卷積神經網絡(ResNet)模型[17]構建編碼模塊。ResNet模型能夠解決隨著網絡層數的加深引起梯度消失從而導致模型表征能力退化的問題,其內部包含四組殘差模塊集合的堆疊,能夠逐層地將模型輸入的淺層特征與輸出的深層特征進行多次拼接、融合,實現對模型編碼模塊表征能力的增強。同時,針對于本文的遙感場景,考慮到高分辨率的遙感影像往往具有自然場景復雜、目標信息多樣且分布密集的特點,本文在多組殘差模塊的尾部連接一個通道與空間注意力的融合模塊。引入注意力機制能夠將模型的關注重點聚集在遙感圖像的重要區域,避免無關區域對于模型性能的影響。

具體來說,輸入特征圖在傳遞至注意力融合模塊后,首先經過通道注意力篩選出重要特征的權重序列,再經過空間注意力計算重點關注區域的權重分布,之后得到的兩種權重信息同輸入特征圖相乘從而以自適應的方式完成對輸入特征的語義信息修正。式(1)和式(2)分別展示了通道注意力以及空間注意力的運行機制。其中通道注意力主要關注輸入特征中有哪些是重要的特征。對于輸入特征圖,首先分別經過平均值池化Pavg和最大值池化Pmax,Pavg可以學習到目標的分布性特征,Pmax可以幫助獲取目標的判別性特征,二者有利于更好地解析圖像語義信息;之后生成的兩種特征圖均被送入到一個多層感知機層Mmlp,其內部存在能夠實現特征降維與升維的卷積層用于指導生成輸出的權重序列,sig表示sigmoid函數,能夠將輸入轉化到0~1的區間內。

Mca(F)=sig(Mmlp(Pavg(F))+Mmlp(Pmax(F)))

(1)

Msa(F)=sig(C7×7([Pavg(F)+Pmax(F)]))

(2)

空間注意力則重點關注重要特征在輸入特征圖上的位置。輸入特征圖首先在通道維度經過Pavg和Pmax,之后將二者生成的特征圖同樣在通道維度進行拼接,“+”表示拼接操作,最后引入尺寸為7×7的卷積層C7×7處理拼接后的輸出并經過sigmoid函數獲取空間注意力生成的特征權重分布。

1.3 自注意力和特征金字塔聚合的解碼模塊

解碼模塊用于對語義特征的解碼,能夠恢復在編碼模塊逐層降低的圖像分辨率,最后一層解碼層的輸出與編碼模塊的輸入圖像尺寸一致,從而完成最終的分割預測。在解碼模塊的構造上,本文引入了基于自注意力的Transformer機制,與通道和空間注意力機制類似,自注意力模塊同樣可以將模型聚焦于重點關注的區域,但是內部實現更加復雜,其能夠自適應地整合全局上下文信息從而捕獲遠距離的語義依賴關系,可以在不增加計算成本的情況下顯著增大感受野。Transformer模型最早被用于自然語言處理領域,現如今已滲透到了計算機視覺等各個領域的研究之中,本文在遙感場景下同樣采用Transformer模型構建解碼模塊以解析全局的語義信息。同時,考慮到遙感影像中目標信息與背景信息的差異通常較小,并面臨著目標尺度變化大、形狀變化大的問題,與Transformer模型并連引入了多尺度金字塔[18]的特征局部抽取分支構成特征細化模塊,上下文信息與多尺度的融合有利于提升模型處理不同尺度、形狀目標的能力,避免模型忽略掉小尺寸目標以及密集目標的重要語義信息。雙分支結構如圖3所示,包含全局和局部特征提取兩部分。

圖3 特征細化模塊結構

(3)

特征金字塔結構包含四種類型的尺度處理,通過應用自適應池化將輸入特征圖處理為原始尺寸的1倍、0.75倍、0.5倍以及0.25倍的特定大小,從而實現不同尺度情況下的遙感圖像語義特征提取,之后將所有尺度輸出的特征圖均上采樣到輸入尺寸后再與原始特征做拼接形成更豐富的特征表示以實現對于輸入特征圖的局部細節特征精細化。

在模塊的設計過程中,為了進一步增大感受野,使模型可見更充分的上下文信息,在編碼模塊和解碼模塊的跳躍連接過程中,將部分卷積由傳統卷積設計為空洞卷積,其可以保留特征的連續性,也有助于同時處理不同大小目標的關系。空洞卷積主要通過擴張率進行設置,卷積核大小為3×3,且擴張率設置為1時,空洞卷積的感受野與傳統卷積一致。當擴張率設置為3時,表示在卷積操作的每個相鄰特征點之間添加兩個空洞,由此可以將感受野從原來的3×3擴大至7×7。空洞卷積在圖像分割領域已經被證明可以取得良好的效果。

1.4 算法流程

首先,對高分辨率的遙感圖像進行預處理,通過隨機裁剪、隨機旋轉等數據增強方式擴充數據集,增加數據分布的多樣性。然后,將處理后的圖像數據送入到本文提出的網絡模型中,輸入圖像先經過編碼模塊抽取特征進行解譯,將注意力聚焦在語義信息中的重點關注區域,之后通過解碼模塊恢復原始輸入圖像的空間分辨率信息,并對輸入特征進行全局和局部特征的精細化增強,最后得到預測的語義分割結果。在模型訓練的過程中,通過交叉熵損失和Dice損失聯合優化編碼模塊和解碼模塊的性能,如式(4)和式(5)所示。

(4)

(5)

交叉熵損失是語義分割領域最常用的損失函數,將每個像素看成獨立的樣本,用于指導像素級分類的預測準確率,圖像的整體分割損失則為每個像素的交叉熵損失的平均值。Dice損失基于Dice系數構建,也是主流的分割損失函數。Dice系數主要是評估預測區域與實際區域的重疊程度,|X|可以看作是預測區域的面積,|Y|則為真實區域的面積,|X∩Y|即為二者的重疊區域,其取值范圍為0~1,當預測區域與真實區域完全重疊時,其值為1。

2 實驗分析

2.1 數據集和評價指標

2.1.1 數據集介紹

本文的實驗數據基于Potsdam和Vaihingen高分辨率遙感影像數據集,二者均在ISPRS語義競賽中公開,并被手動劃分為6類常見的土地覆蓋類別。

在數據集的形式上,Potsdam數據集共包含38張高精細的、尺寸為6 000×6 000的高分辨率圖像,特征影像數據分辨率為8 m。數據集內部提供了多種波段,包括多光譜波段(紅、綠、藍和近紅外波段)以及數字表面模型(DSM)和歸一化數字表面模型(NDSM)波段。本文模型基于紅、綠、藍三個波段的圖像。在數據的選擇上,23張圖像為完全標注,被用于指導模型的訓練,14張圖像用于驗證模型的效果(圖像ID為:2_13,2_14,3_13,3_14,4_13,4_14,4_15,5_13,5_14,5_15,6_13,6_14,6_15,7_13),ID為7_10的圖像由于帶有錯誤的圖像標注被丟棄。數據集涉及6種類型,包括5個前景類(不透水的表面、建筑物、低植被、樹、汽車)和1個背景類(雜波)。

Vaihingen數據集共包含33張尺寸不一的高精細格式為8位TIFF的遙感圖像,平均尺寸為2 494×2 064。數據集內部與Potsdam數據集類似,同樣提供了多種波段,包括多光譜波段以及DSM、NDSM波段的圖像,類別劃分與Potsdam數據集一致。對于數據集的劃分,17張圖像用于驗證模型的效果(ID為2、4、6、8、10、12、14、16、20、22、24、27、29、31、33、35、38),其余圖像用于完成模型的訓練過程。

2.1.2 評價指標選擇

在模型驗證階段,期望模型可以在復雜度較低的情況下取得較好的性能,為此,本文采用兩類指標分別評估模型效果和模型復雜度。對于模型效果,采用平均準確率(mA)、F1值(F1)和平均交并比(mIoU)。mA針對像素級準確率,計算模型在各個類上的準確率值并取平均得到。F1值可以有效地平衡像素級的精確率P和召回率R,如式(6)所示,常被用于存在分類計算的場景中。

(6)

mIoU則用于評估各個類的預測區域與真實區域的重疊程度,如式(7)所示。

(7)

模型參數數量(M)被用于評估模型參數的復雜度。

2.2 實現方案

2.2.1 實驗環境

本文所有實驗均基于相同的硬件環境:Ubuntu18.04,Intel(R)Xeon(R)Gold 5218 CPU @ 2.30 GHz;128 GB內存;單張Tesla V100 GPU顯卡,內存為32 GB。軟件環境基于Python3.9編程語言,PyTorch2.0.1深度學習框架。

2.2.2 實驗設置

對于Potsdam和Vaihingen數據集,由于原始圖像分辨率較大,網絡模型不能直接處理,因此本文首先將原始圖像統一隨機裁剪為512×512大小的子圖。同時,應用了一系列的數據增強方式,包含隨機旋轉、翻轉、縮放以及歸一化等處理以提升模型處理各種遙感目標對象的能力。在模型訓練期間,為了實現快速收斂,本文應用了AdamW優化器,其相比于Adam優化器引入了L2正則的約束以限制參數值不會過大,學習率設置為5×10-4,權重衰減值為0.01。批處理大小設置為32,訓練持續100輪,保存在驗證集上效果最好的模型。

2.3 實驗結果與分析

本文將提出的語義分割方法與UNet、BiSeNet[19]和EaNet[20](基于卷積神經網絡的遙感語義分割模型)、SwiftNet[21](基于卷積神經網絡的輕量化遙感語義分割模型)、MaResUNet[22](基于卷積神經網絡的注意力模型)以及Segmenter[23](基于完全自注意力的語義分割模型)等多個經典的用于分割領域的網絡模型進行了實驗結果的對比分析。Potsdam和Vaihingen數據集上的實驗結果分別如表1和表2所示,結果表明,本文模型在兩個數據集上均可以展現出先進的精度,同時能夠保持較少的模型參數量,證明了本文方案的有效性和可行性。

表1 Potsdam數據集對比實驗分析

表2 Vaihingen數據集對比實驗分析

接下來查看模型在各個類上取得的具體F1指標值以進一步驗證模型的效果,在Potsdam數據集上各類別F1值如表3所示。可以看出,本文方法在各個類上都取得了較好的表現,表明本文模型針對各個類別都可以提取出更有效的語義特征表示。

表3 Potsdam數據集各類的F1值分析(%)

除此之外,本文還進行了定性分析實驗,結果如圖4所示,從左到右分別為輸入的原始圖像、圖像對應的實際分割標注以及本文模型的預測結果。通過結果可以看出,本文模型在對目標進行語義分割時,對于預定義的各個類別均可以輸出較完整的分割預測區域,且預測的目標區域和真實標注區域較相似,也即具有較高的重疊率。然而,模型的預測結果在目標區域的邊界處理上不夠清晰,對于占比較小的目標對象仍然存在部分遺漏的情況,這是由于小目標對象在特征傳遞過程中存在特征丟失的情況,體現出了遙感語義分割任務的挑戰性,也將作為本文未來的重點改進工作。

2.4 消融實驗

為了驗證本文提出模型各個模塊的有效性,將各個模塊分解完成消融實驗,共涉及四個主要部分:

(1)ResNet模型作為編碼模塊,Transformer模型作為解碼模塊(消融1):本實驗為改進的基準實驗,編碼模塊和解碼模塊均采用主流模型。

(2)ResNet模型作為編碼模塊,Transformer模型作為解碼模塊的同時引入卷積神經網絡分支形成全局特征提取和局部特征細化兩個分支(消融2):局部分支通過簡單的卷積層堆疊形成。

(3)在實驗2的基礎上,在編碼模塊的輸出尾部連接通道和空間的注意力機制(消融3)。

(4)在實驗3的基礎上,將局部特征細化分支替換為特征金字塔模塊,實現更加精細的特征提取(消融4)。

結果如表4所示,可以看出基礎模型在同樣的參數設置下也取得了較好的結果。消融實驗2證明了本文引入與自注意力模塊并聯的局部細化模塊的正確性,通過自注意力與卷積神經網絡共同完成特征抽取的方式可以增強特征的表征能力。消融實驗3與實驗4結合證明了本文最終設計的各個模塊的有效性,通道和空間的注意力機制結合能夠突出輸入圖像中蘊含的重要語義信息,特征空間金字塔結構通過輸出多尺度的特征表示能夠增強模型處理多尺度目標的能力,使得特征提取過程變得更加細致。

表4 Potstdam數據集上的消融實驗結果

3 結論

為了自動、精確且快速地完成遙感影像內容分析,本文構建了基于深度學習的高效遙感圖像分割方法。在主流U型結構的編碼-解碼模式的基礎上提出了一套用于遙感圖像分割的整體模型框架,在編碼模塊內部引入了能夠判斷關鍵目標屬性和定位關鍵目標位置的通道和空間注意力機制,在解碼模塊設計了基于自注意力完成遠距離上下文解析的全局特征表征和用于多尺度目標特征細化的局部特征表征。編碼與解碼模塊的針對性改進能夠促進對于遙感影像的全面解譯,增強對于復雜目標和多變目標的處理能力。在公開數據集上與典型模型對比的分割實驗結果證明了本文模型在參數量不大的情況下仍然可以取得最佳的分割效果,可以達到模型輕量化程度和分割精度的平衡。同時通過對每個改進模塊的消融實驗驗證了本文方案的有效性和可行性。

猜你喜歡
語義特征模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
語言與語義
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
認知范疇模糊與語義模糊
主站蜘蛛池模板: 亚洲Av激情网五月天| 亚洲无码精品在线播放| 婷婷激情五月网| 沈阳少妇高潮在线| 欧美日韩国产高清一区二区三区| 国产免费怡红院视频| 久久一日本道色综合久久| 久久久久久高潮白浆| 国产精品久久久久久久久kt| h网站在线播放| 97国产精品视频自在拍| 日韩黄色大片免费看| 国产香蕉97碰碰视频VA碰碰看| 亚洲精品卡2卡3卡4卡5卡区| 欧美激情视频一区二区三区免费| 亚洲一区免费看| 日本三级精品| 欧美日韩第二页| 男女性午夜福利网站| 99视频免费观看| 色婷婷电影网| 农村乱人伦一区二区| 国产成人夜色91| 亚洲无码A视频在线| 亚洲精品午夜天堂网页| 亚洲视频色图| 一级爱做片免费观看久久| 日韩免费中文字幕| 国产精品久久久久久搜索| 国产极品嫩模在线观看91| 欧美日韩专区| 午夜电影在线观看国产1区| 国产欧美视频在线观看| 国产成人精品免费视频大全五级 | 青青极品在线| 欧美成人精品高清在线下载| 青青草原偷拍视频| 91精品国产91久无码网站| 67194在线午夜亚洲| 国产永久免费视频m3u8| 精品在线免费播放| 日本高清成本人视频一区| 日日拍夜夜嗷嗷叫国产| 欧美午夜在线观看| 国产成人一区免费观看| 四虎成人在线视频| 2020最新国产精品视频| 久久性妇女精品免费| 91无码人妻精品一区二区蜜桃| 国产网站在线看| 久久婷婷五月综合色一区二区| 亚洲欧洲日产国码无码av喷潮| 中国成人在线视频| av天堂最新版在线| 91精品免费高清在线| 中文字幕无码中文字幕有码在线| 找国产毛片看| 67194亚洲无码| 午夜a视频| 亚洲有无码中文网| 妇女自拍偷自拍亚洲精品| 这里只有精品在线播放| 99热这里只有精品2| 丰满少妇αⅴ无码区| 色婷婷成人网| 久久综合五月婷婷| 最新国产成人剧情在线播放| 亚洲AV无码乱码在线观看代蜜桃| 亚洲码一区二区三区| 欧美一级高清视频在线播放| 在线a视频免费观看| 9丨情侣偷在线精品国产| 亚洲一区二区精品无码久久久| 国产精品所毛片视频| 日韩精品无码免费一区二区三区| a级毛片免费播放| 五月激情婷婷综合| 国产精品女主播| 日日噜噜夜夜狠狠视频| 91丝袜乱伦| 91系列在线观看| 在线综合亚洲欧美网站|