999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于Scribble標注和邊界先驗的弱監督道路提取方法

2025-07-20 00:00:00劉子儒周先飛單強達
電腦知識與技術 2025年18期
關鍵詞:深度學習

摘要:針對遙感圖像精準標注成本高昂的問題,文章聚焦于弱監督場景下道路提取的關鍵挑戰:如何在稀疏標注條件下有效提升道路提取精度。現有方法存在監督信號受限、偽標簽更新機制缺失及邊緣誤報嚴重等瓶頸。為此,提出基于涂鴉(Scribble) 標注與邊界先驗雙驅動的新型弱監督道路提取模型,通過創新性設計隨機混合偽標簽生成方法,并融合多尺度邊界先驗信息實現精度突破。本研究的核心改進體現在三方面:第一,構建邊界先驗輔助模塊,通過多尺度特征融合策略,將高分辨率邊緣細節與低分辨率穩健特征相結合,有效抑制道路邊界誤報現象;第二,提出動態隨機混合的偽標簽生成機制,利用主/輔雙解碼器分支的預測結果進行隨機權重混合,突破傳統方法中偽標簽靜態不可更新的局限性;第三,建立聯合優化框架,通過邊界損失、Scribble監督損失與偽標簽損失的協同約束,實現模型性能的迭代提升。實驗結果表明,相較WeaklyOSM方法,本研究方法可在CHN6-CUG數據集中將交并比提高2.84%。

關鍵詞:道路提取;遙感圖像;U-Net;弱監督;深度學習

中圖分類號:TP391" "文獻標識碼:A

文章編號:1009-3044(2025)18-0106-04

開放科學(資源服務) 標識碼(OSID)

遙感影像道路提取作為智慧城市建設和自動駕駛技術的關鍵支撐,其精度與效率直接影響地理信息系統的應用價值。盡管衛星與無人機技術顯著提升了數據獲取能力,但在復雜場景下實現道路網絡的精準提取仍是亟待突破的技術難題[1]。

傳統方法主要依賴人工設計的特征提取規則,通過形態學運算、區域生長等物理拓撲方法進行道路識別。這類方法雖然在簡單場景中具有一定實用性,但難以應對光照變化、植被遮擋及復雜路網拓撲等現實挑戰,導致提取結果存在斷裂、誤識別等問題,嚴重制約了其在城市規劃等領域的實際應用[1]。

深度學習技術為道路提取帶來了革命性突破。以全卷積網絡(FCN) [2]為代表的全監督方法,通過端到端學習實現像素級道路預測,將提取精度提升至新高度。然而,逐像素標注需求導致標注成本呈指數級增長,尤其在處理高分辨率遙感影像時,標注工作量成為制約技術落地的關鍵瓶頸。弱監督學習通過利用Scribble標注等稀疏監督信號,為降低標注成本提供了新思路:Lin等[3]提出的ScribbleSup算法首次將Scribble標注與FCN結合,通過交替優化實現弱監督分割,但存在模型復雜度激增(計算開銷增加47%) 和邊緣分割粗糙(邊界交并比下降12.6%) 等問題。后續研究雖引入條件隨機場(CRF) 優化邊緣細節[4],或借助OpenStreetMap(OSM) 數據輔助訓練[5],但未能解決偽標簽迭代優化與多尺度特征融合兩大核心問題。

當前弱監督道路提取面臨雙重技術瓶頸:1) 偽標簽質量與模型訓練存在強耦合性,靜態偽標簽導致“惰性模仿”現象[6],使錯誤預測持續累積;2) 道路邊緣受建筑、植被等干擾嚴重,現有方法缺乏有效的多尺度特征校正機制,誤報率居高不下(現有方法平均誤報率達23.7%[5]) 。針對上述挑戰,本文提出融合動態偽標簽優化與邊界先驗約束的新型弱監督框架,主要創新包括:

1) 邊界先驗輔助模塊:構建多尺度特征融合管道,通過高/低分辨率特征協同校正機制,減少邊緣誤報,提高道路邊界的識別精度; 2) 動態偽標簽生成機制:設計雙解碼器分支的隨機權重混合策略,實現偽標簽的迭代更新,改善“惰性模仿”現象; 3) 聯合優化損失函數:集成邊界約束損失、Scribble監督損失與偽標簽一致性損失,提升模型在復雜場景下的泛化能力。

1 相關工作

1.1 整體模型

本模型采用三分支解碼架構,由1個共享編碼器和3個獨立解碼器構成(如圖1所示) 。其中,分割主解碼分支執行道路區域提取,邊界先驗輔助解碼分支優化邊緣特征,分割輔助解碼分支則通過擾動機制提升偽標簽質量。

編碼器結構設計以U-Net為基礎框架,輸入為512×512像素的遙感影像。編碼層包含4級下采樣模塊:每級采用步長為2的3×3卷積實現空間降維,同時特征通道數逐級倍增(64→128→256→512) 。經過4次下采樣后,輸出32×32×512的高維語義特征。

多尺度特征融合模塊采用空洞空間金字塔池化(ASPP) [7]結構。該模塊由3組不同空洞率的3×3空洞卷積(rates=6,12,18) 和1組1×1標準卷積并行組成。空洞卷積通過間隔采樣擴大感受野(最大可覆蓋37×37像素區域) ,相比傳統下采樣方法,可在不降低分辨率的前提下捕獲多尺度上下文信息。

三分支解碼器協同工作機制如圖1所示: 邊界先驗輔助解碼分支:將32×32低層特征上采樣至128×128分辨率后,與編碼器中層特征進行通道拼接,生成邊界預測輔助分割。 分割主解碼分支:將自身預測與邊界先驗輔助解碼分支產生的特征進行融合,生成強化邊界細節的分割預測。 分割輔助解碼分支:在分割主解碼器結構基礎上,每個卷積層前加入概率為0.5的Dropout層,通過隨機失活產生擾動預測。

特征交互機制包含兩個關鍵路徑: 邊緣強化路徑:主分割分支的128×128特征圖與邊界分割分支輸出進行結合,優化邊界細節分割。 偽標簽生成路徑:主/輔分割分支的預測通過隨機權重混合生成動態偽標簽,其中輔助分支的強擾動設計可有效避免“惰性模仿”現象。

1.2 邊界先驗輔助解碼分支

邊界先驗輔助解碼分支通過多尺度特征融合優化邊緣識別精度。

1) 特征提取:從主分割解碼分支獲取32×32低分辨率語義特征,經兩次雙線性上采樣至128×128分辨率。 2) 特征融合:將上采樣特征與編碼器中層輸出的128×128低級特征進行通道拼接(concatenation) 。 3) 邊界預測:融合特征經過3×3卷積降維后,通過兩個2×2轉置卷積層逐步上采樣至512×512分辨率,得到邊界預測結果。

為提升邊界檢測的準確性,引入整體邊緣檢測算法(Holistically-Nested Edge Detection, HED) [8]。該算法通過多尺度卷積特征融合,能夠有效學習從粗到細的邊緣特征。在BSDS500通用邊界數據集[9]預訓練的HED模型(無需微調) 生成邊界偽標簽,用于監督邊界分支,從而輔助主分割分支提升對道路邊界的定位能力。

邊界監督機制包含兩個關鍵設計:1) 最終輸出層采用Sigmoid函數,將像素值映射到[0, 1]區間,表示屬于道路邊界的概率(選用Sigmoid因其適用于二分類任務,能夠穩定輸出類別概率) 。 2) 除最后一層外,所有卷積層均使用ReLU激活函數,以增強非線性表達能力。

1.3 雙分割分支

在網絡訓練中存在“惰性模仿”現象,即隨著網絡預測與偽標簽相似性增加,監督信號變弱,學習過程易達平穩,預測錯誤易持續存在,導致偽標簽質量下降,網絡預測準確性停止提升而模型自身無法察覺。雖然已有Sohn等[10]基于一致性正則化思想生成偽標簽的方法,以及Zhang等[11]提出的圖像混類增強算法,但依然需要更有效的方法來克服偽標簽難以隨網絡訓練有效更新以及提升網絡訓練效果等問題。針對上述問題,本章節提出一種隨機混合的偽標簽生成方法,由兩個獨立且不同的解碼器進行,分別為分割主解碼分支和分割輔助解碼分支。兩者的基礎框架均采用U-Net的解碼器,不同的是,分割輔助解碼分支的每個解碼分支都加入了Dropout層[12]用于擾動,從而產生強干擾的輔助分割預測[Yaux]。隨后,與分割主解碼分支生成的未受強干擾影響的分割預測[Yseg]進行隨機結合,生成偽標簽。具體公式如下:

[PSL=argmaxλYseg+1-λYaux ] (1)

公式(1) 表示將主分割預測與輔助分割預測加權混合后,取最大概率類別,生成偽標簽。其中,[λ]為[0,1]區間的隨機數,每次迭代[λ]都會隨機生成一個新的數,通過該方法可以篩選出網絡預測中最大概率值對應的class ID,從而保證每次混合都能夠生成一個較為理想的結果。同時,Scribble通過最小化部分交叉熵損失直接訓練CNN。因此,本結構可以克服傳統偽標簽生成后不會隨網絡訓練而更新的固有缺陷,因為輔助分割分支與主分割分支為兩個獨立的解碼器,輔助分割預測[Yaux]可以持續地為主分割分支提供一定的更正。而[PLseg]由兩個輸出集成生成,但只須訓練兩個解碼器,無須訓練兩個網絡。為了從Scribble中學習,通過部分交叉熵損失(pCE) 進行監督,該損失僅考慮已標注像素的梯度進行反向傳播,忽略未標注像素。同時,利用兩路預測生成偽標簽,以提供比Scribble更充分、更可靠的監督信號。最后,將Scribble監督與偽標簽監督結合,實現分割網絡的端到端訓練。

1.4 損失函數

損失函數作為計算標簽與模型輸出差異的函數,極大地影響深度網絡的學習效果。損失函數需要將計算所得的損失值回傳至模型,從而促使網絡自我優化。一般而言,損失函數的選取會根據需求類型及應用環境的不同而有所區別。

針對本章網絡所涉及的兩類標簽(分割偽標簽[PLseg],邊界偽標簽[PLboun]) ,提出如下損失函數:[Lboun]為邊界損失,用于衡量生成的邊界偽標簽與邊界預測之間的誤差。[w],[h]表示邊界偽標簽[PLboun]像素級的長和寬,[Yboun]表示邊界先驗輔助解碼分支的邊界預測。

[Lboun=i=1wj=1hPLboun-Yboun2] (2)

生成的分割偽標簽[PLseg]會分別與分割預測[Yseg]和輔助分割預測[Yaux]計算損失函數,[CE]表示交叉熵損失,具體損失函數為:

[LPLseg=CEYseg,PLseg+CEYaux,PLseg] (3)

而分割預測[Yseg]僅與scribble標識區域計算損失函數,而非整張圖,scribble區域的局部損失函數為:

[Lscri=i∈wmlog (Ysegi)+i∈wmlog (Yauxi)] (4)

式中:m為one-hot編碼的scribble標識區域,是像素 i 屬于道路的預測概率。 [wm]是scribble標記像素的集合。綜上所述,本研究的總損失函數定義為(5) 式:

[Lfinal=αLboun+γLscri+LPLseg] (5)

式中:[α]為平衡分割損失和邊界損失的系數,[γ]為平衡Scribble和偽標簽監督的權重因子。

2 實驗與分析

2.1 數據集

為評估模型性能,選用公開無人機遙感數據集CHN6-CUG。該數據集由URSmart課題組聯合谷歌地球構建,覆蓋中國典型城鄉區域,包含4 511幅512×512像素的遙感影像,其中3 608幅用于訓練,903幅用于測試。所有圖像均包含道路/非道路的像素級標注,但訓練集僅提供道路中心線的Scribble標注,而非精確標注整張圖片。該方法相比精確的像素級標注極大地節省了人力成本,但也帶來了較多噪聲和不確定性。標注實例如圖(2) 所示:Scribble標注呈現兩個顯著特征:1) 線性稀疏標注:標注者僅沿道路中心線繪制寬度3~5像素的連續筆觸,覆蓋不足實際道路面積的20%;2) 幾何變形容忍:允許標注線存在局部彎曲偏移,以適應道路實際走向。

2.2 模型參數及訓練過程

實驗環境配置如表1所示:

選用Kaiming均勻分布初始化方法,同時通過固定隨機種子以保證可重復性,便于后期進行對比實驗。訓練配置為:Adam(0.001) /epochs=100/batch_size=4,α=[γ]=0.5,[λ]~U(0,1) 。訓練時的損失變化曲線如圖3所示。

可以看到損失值在第40輪后逐漸收斂至0.2水平。采用四個核心指標評估模型性能(符號定義如式(6) ~ (9) 所示) :

精確率(Precision, P) :正確預測的道路像素占所有預測道路像素比例:

[P=TP/(TP+FP)] (6)

召回率(Recall, R) :正確預測的道路像素占實際道路像素比例:

[R=TP/(TP+FN)] (7)

F1分數(F1-Score) :P與R的調和平均數:

[F1 = 2PR/(P+R)] (8)

交并比(IoU) :預測與真實道路區域交集與并集之比:

[IoU = TP/(TP+FP+FN)] (9)

其中,TP(True Positive) 為正確預測道路像素數,FP(False Positive) 為誤報的非道路像素數,FN(False Negative) 為漏檢的道路像素數。F1與交并比(IoU) 通過綜合考慮精確率P、召回率R兩個指標,可以有效克服單一指標可能帶來的偏倚問題,更全面地反映模型的分割性能。

2.3 實驗結果分析

為系統評估模型性能,在相同實驗條件下,將本方法與五類經典弱監督方法進行了對比:

BoxSup[13]:基于邊界框標注生成偽標簽的弱監督框架。

ScribbleSup[4]:首個融合Scribble標注與CRF優化的弱監督分割方法。

BPG[14]:引入邊界感知損失的Scribble監督網絡。

WSOD[15]:結合弱監督目標檢測的級聯分割模型。

WeaklyOSM[16]:利用OpenStreetMap地理信息輔助訓練的最新方法。

如表2所示,本方法在CHN6-CUG數據集上的交并比(IoU,50.11%) 和F1分數(62.16%) 均顯著優于上述基準模型。尤其是在復雜路網場景下,由于引入了邊界先驗模塊,Recall 提升了 4.72%,進一步驗證了多尺度特征融合與邊界信息建模的有效性。

2.4 消融實驗

本節基于CHN6-CUG數據集進行各種消融研究,包括:1) 損失函數部分;2) 邊界檢測。

1) 為驗證不同損失函數對模型分割精度的影響,針對損失函數進行如下消融實驗,在保證網絡其他配置一致的情況下,損失函數依次設置為:(A) 僅使用分割損失、(B) 使用分割損失和Scribble標識損失,以及(C) 三者聯合。實驗結果如表3所示,模型所采用的損失函數取得了50.11%的交并比、74.58%的準確率、62.16%的F1分數以及67.54%的召回率。本文提出的整合損失函數獲得了更優的評估結果,這也表明,單一損失函數在復雜數據集上無法取得優于復合損失函數的效果。

2) 邊界偽標簽生成組件能夠提供經過優化的邊緣細節,同時減少誤報數量,從而輔助分割。邊界先驗輔助解碼分支需要將高分辨率預測的清晰邊緣與更穩健、低分辨率的特征相結合,以更正前者的誤報。該分支生成的邊界預測受邊界偽標簽的監督,而邊界偽標簽的質量決定了網絡最終的分割精度。為此,我們將所用的邊界偽標簽生成組件HED與傳統邊界生成算法Canny、Sobel進行比較,結果如表4所示。HED的檢測結果略優于Sobel和Canny,這得益于其端到端的深度網絡架構,能夠通過多尺度卷積特征融合,同時捕捉從局部邊緣到語義輪廓的層次化特征表達。

3 結束語

針對弱監督道路提取中偽標簽靜態更新與邊緣誤報的共性問題,本文提出一種基于Scribble和邊界先驗的弱監督道路提取方法。主要貢獻包括:

1) 構建邊界先驗輔助模塊,有效抑制復雜場景下的邊緣誤報現象;

2) 提出動態偽標簽生成機制,通過雙解碼器擾動策略突破傳統靜態偽標簽的迭代局限性;

3) 建立聯合優化框架,在CHN6-CUG數據集上實現50.11%的交并比與62.16%的F1分數,較現有最優方法(WeaklyOSM) 分別提升2.84和0.42個百分點。

然而,該方法在夜間紅外影像和10K×10K超大分辨率影像場景中表現受限。未來工作將探索光照不變性特征增強與分塊并行計算策略,以拓展方法在全天候、大尺度遙感場景的適用性。

參考文獻:

[1] 魏瑤.基于深度學習的高分辨率遙感影像道路提取研究[D].武漢:武漢大學,2021.

[2] SHELHAMER E,LONG J,DARRELL T.Fully convolutional networks for semantic segmentation[C]//IEEE Transactions on Pattern Analysis and Machine Intelligence.May 24,2016,IEEE,2017:640-651.

[3] LIN D,DAI J F,JIA J Y,et al.ScribbleSup:scribble-supervised convolutional networks for semantic segmentation[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).June 27-30,2016,Las Vegas,NV,USA.IEEE,2016:3159-3167.

[4] TANG M,DJELOUAH A,PERAZZI F,et al.Normalized cut loss for weakly-supervised CNN segmentation[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.June 18-23,2018,Salt Lake City,UT,USA.IEEE,2018:1818-1827.

[5] KAISER J D, WEGNER A, LUCCHI M, et al. Learning aerial image segmentation from online maps[J].IEEE Transactions on Geoscience and Remote Sensing, 2017,55(11):6054-6068.

[6] HUO X Y,XIE L X,HE J Z,et al.ATSO:asynchronous teacher-student optimization for semi-supervised image segmentation[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 20-25,2021,Nashville,TN,USA.IEEE,2021:1235-1244.

[7] CHEN L C, PAPANDREOU G, SCHROFF F, et al. Rethinking Atrous Convolution for Semantic Image Segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(3): 834-848.

[8] XIE S N,TU Z W.Holistically-nested edge detection[C]//2015 IEEE International Conference on Computer Vision (ICCV).December 7-13,2015,Santiago,Chile.IEEE,2015:1395-1403.

[9] ARBELáEZ P,MAIRE M,FOWLKES C,et al.Contour detection and hierarchical image segmentation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(5):898-916.

[10] SOHN K,BERTHELOT D,LI C L,et al.FixMatch:simplifying semi-supervised learning with consistency and confidence[EB/OL].2020:2001.07685. https://arxiv.org/abs/2001.07685v2.

[11] ZHANG H, CISSE M, DAUPHIN Y N, et al. Mixup: Beyond Empirical Risk Minimization[J/OL].(2017-10-25)[2024-10-01]. https://arxiv.org/abs/1710.09412.

[12] SRIVASTAVA N,HINTON G,KRIZHEVSKY A,et al.Dropout:a simple way to prevent neural networks from overfitting[J].Journal of Machine Learning Research,2014,15:1929-1958.

[13] DAI J F,HE K M,SUN J.BoxSup:exploiting bounding boxes to supervise convolutional networks for semantic segmentation[C]//2015 IEEE International Conference on Computer Vision (ICCV).December 7-13,2015,Santiago,Chile.IEEE,2015:1635-1643.

[14] WANG B,QI G J,TANG S,et al.Boundary perception guidance:a scribble-supervised semantic segmentation approach[C]//Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence.August 10-16,2019.Macao,China.International Joint Conferences on Artificial Intelligence Organization,2019:3663-3669.

[15] ZHANG J,YU X,LI A X,et al.Weakly-supervised salient object detection via scribble annotations[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 13-19,2020,Seattle,WA,USA.IEEE,2020:12543-12552.

[16] WU S B,DU C,CHEN H,et al.Road extraction from very high resolution images using weakly labeled OpenStreetMap centerline[J].ISPRS International Journal of Geo-Information,2019,8(11):478.

【通聯編輯:唐一東】

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 国产福利免费视频| 精品国产亚洲人成在线| 日韩毛片基地| 麻豆国产精品一二三在线观看| 色婷婷成人网| 久久久亚洲色| 福利片91| 亚洲人精品亚洲人成在线| 久久精品一卡日本电影| 成人欧美日韩| 久久久噜噜噜| 美女无遮挡被啪啪到高潮免费| 美女内射视频WWW网站午夜| 日韩无码真实干出血视频| 99热国产这里只有精品9九| 日本高清成本人视频一区| 欧美自拍另类欧美综合图区| 国产第八页| 永久在线精品免费视频观看| 亚洲男人在线| 欧美另类第一页| 精品精品国产高清A毛片| 青青草久久伊人| 伊人久久青草青青综合| 国产欧美另类| 国产激情无码一区二区免费| 人妻21p大胆| 亚洲伦理一区二区| 亚洲欧美日韩动漫| 国产女人18水真多毛片18精品 | 爱色欧美亚洲综合图区| 国产激情无码一区二区APP| 91在线免费公开视频| 无码国产伊人| 色偷偷一区二区三区| 亚洲国产天堂久久九九九| 日本a∨在线观看| 无码日韩人妻精品久久蜜桃| 性喷潮久久久久久久久| 伊人婷婷色香五月综合缴缴情| 国产超碰一区二区三区| 国产一级毛片在线| 玖玖精品在线| 亚洲欧洲日韩综合色天使| 特级欧美视频aaaaaa| 高清久久精品亚洲日韩Av| 91精品综合| 国产乱人伦偷精品视频AAA| 高潮毛片免费观看| 国产精品2| 毛片久久久| 国产成人91精品免费网址在线| 91久草视频| 99人妻碰碰碰久久久久禁片| 99这里只有精品在线| 国内精品九九久久久精品| 免费女人18毛片a级毛片视频| 日本AⅤ精品一区二区三区日| 国产高清免费午夜在线视频| 亚洲六月丁香六月婷婷蜜芽| 福利在线一区| 中文字幕第1页在线播| 亚洲成aⅴ人片在线影院八| 色偷偷一区| 欧美区日韩区| 9cao视频精品| 日韩午夜福利在线观看| 欧洲亚洲一区| 97在线碰| 国产自在线拍| 丁香五月激情图片| 日韩欧美一区在线观看| 久草青青在线视频| 欧洲亚洲一区| 色悠久久综合| 国产成人喷潮在线观看| 久久精品只有这里有| 国产在线高清一级毛片| 欧美精品aⅴ在线视频| 亚洲天堂视频在线观看免费| 中文字幕资源站| 欧美在线免费|