赫曉慧,宋定君,李盼樂,田智慧,周廣勝
(1.鄭州大學 地球科學與技術學院,鄭州 450052;2.鄭州大學 信息工程學院,鄭州 450001;3.中國氣象科學研究院鄭州大學生態氣象聯合實驗室鄭州 450052)
隨著地球空間信息技術的發展以及衛星數量的增加,研究人員可以獲得具有豐富空間信息和光譜信息的遙感影像數據。這些數據被廣泛應用于天氣預報[1]、農業研究[2]、交通監控[3]等領域。在衛星圖像空間分辨率得到極大提高的條件下,利用遙感影像提取的道路也會具有高分辨率和覆蓋范圍廣的特點,對城市規劃、交通運輸管理、出行路線選擇等方面均具有重要的指導意義。
在圖形圖像處理中,越來越多的研究人員將深度學習方法應用于邊緣檢測[4]、圖像分類[5]、語義分割[6]等任務中。在面向遙感影像數據中的道路提取任務時,主要涉及卷積神經網絡(Convolutional Neural Networks,CNN)[7]和全卷積神經網絡(Fully Convolutional Network,FCN)2 種網絡。研究人員利用CNN 聚焦到更深層的處理遙感影像問題中,相較于需要手動提取淺層特征的傳統方法[8-10],使用CNN 的方法具有時間復雜度小的優勢。文獻[11]基于CNN 提取全局上下文特征,實現了遙感影像的高效分類。文獻[12]提出一種基于CNN 的遙感影像分類方法,可以從高空間分辨率遙感影像中提取道路。遙感影像與自然影像不同,其通常包含比背景更小及更分散的對象,雖然CNN 利用圖像級的分類應用在遙感影像道路提取任務,但是采用的局部處理策略仍然使提取的道路信息存在誤差。
越來越多的研究人員將深度學習方法應用于像素分類任務[13-14]。文獻[6]提出FCN 網絡,能夠對每一個像素進行分類,從而得到像素級的分類結果。FCN 相比CNN 解除了對輸入圖像大小的限制,大量減少了模型參數量,提高了效率。
目前,許多出色的語義分割網絡均是FCN 的改進版本。文獻[15]在FCN 的基礎上通過全局平均池化和特征融合操作引入更多上下文信息,并使用輔助損失函數提高訓練精度。文獻[16]基于FCN 提出U-net 網絡結構,目前多用于遙感影像分割任務中,能夠對任意大小的影像進行卷積操作,在面向高分辨率遙感影像道路提取任務[17]中能夠利用U-net 進行全局特征表達。為進一步提高特征提取能力,WANG 等[18-19]使 用空洞卷 積(Dilated Convolution,DC)擴大感受野,使卷積輸出包含較大范圍信息,同時保持特征圖尺寸不變。D-LinkNet[20]充分融入了DC 的特性,使道路分割結果有一定的提升。但高分辨率遙感影像中的道路具有多尺度特性,不同尺度的道路特征包括局部拐角、宏觀線條、交叉點等,多尺度信息收集會明顯改善提取結果的質量。文獻[21]通過使用多尺度卷積神經網絡將空間特征與光譜特征相結合,促進原始數據集轉換為包含多尺度空間信息的金字塔,以捕獲豐富的空間信息。多孔空間金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模塊[22]通過并行多個不同比例的空洞卷積將多尺度信息整合到ASPP 中,以獲得精細的分割結果,文獻[23]通過使用ASPP 模塊提高對道路的預測能力。隨著網絡的加深,ResNet[24]和DRSNet[25]等通過殘差模塊優化網絡結構及提升網絡性能。文獻[26]使用帶有殘差模塊的U-net,通過向前傳播,從圖像中提取道路區域。目前,雖然已有許多基于深度學習的道路提取方法,但針對深度網絡模型而言,池化操作的重復使用降低了特征圖分辨率,通過上采樣得到預測結果的精度有待提高,且沒有考慮多尺度融合的特性。此外,使用下采樣操作提取抽象的語義信息作為特征使遙感影像中高分辨率的細節語義信息容易丟失,導致提取結果存在細節缺失、邊緣模糊等問題。最后,空洞卷積堆疊使用會導致大部分像素無法參與運算,形成網格效應,無法準確提取小型道路特征,因此在復雜道路提取任務中不同尺度特征的預測效果受限。
針對上述問題,本文基于深度殘差網絡模型提出一種融合多尺度特征的遙感影響道路的提取方法。在特征提取和特征融合方面進行方法設計,采用混合空洞卷積的方式,定義新的卷積核處理數據間的距離,實現感受野指數級增長。在網絡編碼器與解碼器間融入ASPP 模塊整合全局信息,通過將提取特征加權映射到ASPP 模塊,得到更準確的預測結果。
本文方法的框架如圖1 所示。首先,在特征提取階段利用融入混合空洞卷積增大感受野的方式提取特征,增強多尺度特征融合模塊中道路信息之間的聯系。其次,將提取特征作為所設計的ASPP 模塊的輸入并進行加權映射,ASPP 模塊對不同尺度形狀的道路有更好的檢測性能,體現在提高分辨率時,多尺度特征融合后的預測結果能夠有效利用全局信息條件下不同尺度間的特征,更好地識別出正確的道路信息。

圖1 本文方法的框架Fig.1 Framework of method in this paper
本文模型以ResUnet[26]為基礎架構,結合了U-net和殘差網絡。在只有有限訓練數據的情況下,訓練深度神經網絡變得非常困難,而且在深度殘差網絡的殘差模塊中,步長固定會使感受野變小,從而只能捕捉到遙感影像局部信息,在無法得到全局信息時會導致分割錯誤、不能進行多尺度問題的處理。
針對以上問題,基于ResUnet 引入空洞卷積層,在不做池化操作損失特征信息的情況下增大感受野且不丟失分辨率。每個卷積輸出包含比普通卷積更大范圍的特征,有利于獲取遙感影像中道路特征的細節信息。在新的特征提取模型DC-ResUnet 中擴大感受野可以檢測分割更多道路目標,當分辨率提高后可以精確定位道路目標。在卷積神經網絡中,將各卷積層輸出特征圖上的像素點映射到輸入圖片上的像素范圍大小稱為感受野。
二維一般卷積公式如式(1)所示:

其中:F(x,y)表示卷積層的輸出;s[x,y]表示卷積層的輸入;Q[i,j]表示卷積核大小;X和Y表示影像的尺寸。
當卷積層為q時,感受野為Rq,表達式如式(2)所示:

其中:Rq-1為上一層卷積的感受野;Qq-1為上一層卷積核的大小;S為步長。
在如圖2 所示的殘差結構中引入空洞率(Dilation Rate,DR)。

圖2 殘差結構Fig.2 Residual structure
如圖3 所示,其中超參數Rate 定義了卷積核處理數據時各值的間距,相比一般卷積,混合空洞卷積采用的卷積核大小為3×3 像素。在殘差結構中以梯度的形式設計串聯3 層,初步由Rate=1、Rate=2、Rate=3 組成,在更大的范圍內獲取道路信息,同時避免出現網格問題,在實驗過程中通過調節這3 組超參數實現參數變換。通過設計混合空洞卷積的方式實現特征增強,其中較小的Rate 與最近的像素相關,較大的Rate 與遠程像素相關,從而保證獲取道路詳細信息。為避免提取特征的分辨率下降,每一層卷積的padding 值與所設置的空洞率維持一致。本文提出的特征提取結構通過設計混合空洞卷積的方式實現了特征增強,能夠保證獲取道路詳細信息。

圖3 混合空洞卷積Fig.3 Hybrid atrous convolution
殘差結構中空洞卷積表達式如式(3)所示:

其中:D表示空洞卷積的空洞率。
在設置不同空洞率時,感受野會不同,每種空洞卷積能提取對應尺度的特征圖,從而獲取遙感影像多尺度特征的上下文信息。空洞卷積在尺寸為3×3像素的卷積核中依據超參數填充0,插0 的部分將不參與卷積運算,其運算量和標準卷積相同,即沒有增加額外的計算量。當卷積核大小固定,在卷積層疊加時感受野呈現指數級的增長,殘差結構中空洞卷積的感受野表達式如式(4)所示:

空洞卷積實際卷積核大小為:

其中:k為原始卷積核大小;r為空洞卷積參數;(r-1)的值為填充0 的個數。通過調節一定范圍區間的空洞率,可以有效地控制殘差結構中感受野的變換,獲取道路細節信息,為融合多尺度特征做足了準備。本文所提出DC-ResUnet 特征提取模型充分利用了這一特性。
在遙感影像道路提取的過程中,要充分考慮道路周圍其他對象的影響,引入足夠的上下文信息及不同感受野下的全局信息。在語義分割方法中需要利用網絡深層特征圖中的語義信息幫助分類,同時也需要網絡淺層特征圖中的位置信息幫助定位。由于淺層與深層分辨率一個偏高一個偏低,所以本文設計多尺度特征融合方法將淺層的細節特征與深層的語義特征相結合,凸顯兩者各自的優勢,從而充分利用空間信息提升復雜遙感影像場景下的解析能力。
在DC-ResUnet 模型中融入ASPP 模塊,將網絡中輸出的語義特征輸入到ASPP 模塊中,通過改進并行深度為5 的多個不同比例空洞卷積核、一個尺寸為1×1 像素卷積核以及1 個全局平均池化,得到多尺度特征圖,并對其進行融合。針對遙感影像中道路特征具有多尺度的特性,為避免在使用過高的空洞率時忽略小型線性道路的信息,本文設計ASPP 模塊中的空洞率分別為2、4、8。ASPP 模塊主要借助層級獲取全局先驗信息,與深度卷積神經網絡相結合可以起到很好的優化作用。ASPP 模塊的結構如表1所示。

表1 ASPP 模塊的結構Table 1 Structure of ASPP module
在特征提取階段,不同的層級用Mi表示。分別將得到的特征圖輸入到尺寸為1×1 像素的卷積中,進行通道維度上的降維,通過批歸一化(Batch Normalization,BN)和ReLU 激活函數的融合,使用加快模型收斂速度,并對特征圖進行整合可以保留更多原圖信息,通過雙線性插值將特征圖尺寸恢復。此外,在DC-ResUnet 編碼器提取的特征t4中生成一個具有尺度特征匹配的權重分布,使預測過程中每一個神經元可以有相當大小的感受野尺度契合。
權重分布的表達式如式(6)所示:

在網絡結構中使t4與ASPP 模塊中每一層得到的特征圖一樣通過尺寸為1×1 像素的卷積進行通道上的升降維,保證在后續融合的過程中特征圖在維度上的尺寸相同。此外,經過Softmax 函數運算得到Mk,特征Mk的每個通道Mki表示在對應層級上的加權映射。多尺度融合模塊的框架如圖4 所示。

圖4 多尺度融合模塊的框架Fig.4 Framework of multi-scale fusion module
在多尺度融合模塊中,Mki為編碼器輸出經過加權映射的高層語義特征,t5為通過ASPP 模塊融合后上采樣輸出的特征。隨后進行特征拼接,此過程主要在融合過程的通道維度上組成一個特征圖。特征拼接的表達式如式(7)所示:

圖5 所示為多尺度特征融合的網絡結構,可以看出,淺層的細節特征與高層的語義特征進行融合(即上下文信息合并的過程),能夠充分利用淺層的特征(比如在提取道路任務中的邊緣信息、紋理信息等),改善隨著網絡的加深,高層網絡輸出的特征圖分辨率逐漸變小而導致的上下文信息損失。最后,對融合后的特征進行3 次上采樣聚合,將融合后特征進一步整合得到最后的特征輸出,輸出的卷積層設計由BN、ReLU 以及Dropout 組成。利用多尺度融合的方式,將編碼部分t1~t4作為特征融合的具體模塊,其通道數用表示,m表示層數,i表示具體的通道數目。最后,t4的輸出特征經過Softmax 層后,再與ASPP 模塊輸出結果整合,t2、t3和t4通道數由尺寸為3×3 像素的卷積核控制,其余的由尺寸為1×1 像素的卷積核控制。最后將不同層級的融合特征上采樣到原始輸出大小,與ASPP 模塊的輸出特征進行拼接。輸出的256 個特征映射是通過對tconcatenate上采樣聚合和殘差模塊中所用到的激活函數計算獲得。

圖5 多尺度特征融合的網絡結構Fig.5 Network structure of multi-scale feature fusion
ni的計算公式如式(8)所示:

其中:*表示每次的上采樣聚合,聚合后通過跳躍連接到殘差模塊中。殘差模塊使用了線性整流函數ReLU 作為激活函數,使用ReLU 激活函數可以避免出現梯度彌散的問題,在輸入x>0 時可以控制梯度飽和效應的情況出現。ReLU 激活函數的表達式如式(9)所示:

本實驗基于Keras 深度學習框架設計實現,使用Pycharm 及Anaconda 軟件進行程序的編寫,實驗基于Linux 運行環 境,CPU 為2 個24 核Hygon C86 7165 24-core Processor 處理 器,GPU 采用了ASPEED Graphics Family 16 GB。在此基礎上,利用遙感影像數據進行網絡訓練、測試和驗證,印證所提方法面向遙感影像道路提取的突出優勢。
本文實驗使用Cheng_Data_Road[27]和Zimbabwe_Data_Roads 這2 個道路數據集,針對地形復雜的地區,該數據集能夠提供更加充分的特征信息。Cheng_Data_Roads 數據集涵蓋了城市、郊區以及農村地區,其中,224 張遙感影像是從Google Earth 下載的。數據集中的標簽均由手動創建,包含大約47 341 公里的道路,其中影像尺寸至少為600×600 像素。Zimbabwe_Data_Roads 是根據Zimbabwe 國家公路特點專門建立的數據集,此數據集通過Bing Maps 收集構建,其相對應的標簽由OpenStreetMap標注生成,共包含248 張影像數據,涵蓋的城市道路類型遠多于Cheng_Data_Roads 數據集,每張影像的尺寸為1 500×1 500 像素。本文對這兩套數據均進行了初步的篩選,剔除了影像與標簽相差較大的部分,將每張影像以及對應的標簽裁剪為224×224 像素,并分別劃分為訓練集、驗證集和測試集。
為更好地表征本文方法的性能,選取了語義分割任務中較常用的幾種評價指標[28],包括準確率(Precision)、召回率(Recall)、F1 值和交并比(Intersection over Union,IoU)。在定義它們之前,先用混淆矩陣表示每個像素點分類結果的實際意義:混淆矩陣中TTP表示預測為正樣本,實際預測正確(正確提取的道路);FFP表示預測為正樣本,實際預測錯誤(錯誤提取的道路);FFN表示預測為負樣本,實際預測錯誤(預測為背景實際為道路);TTN表示預測為負樣本,實際預測正確(預測為背景實際為背景)。本文采用的評價指標公式如下:

由于本文只針對道路提取,因此只涉及道路和背景兩類,在訓練過程中保存驗證集IoU 指標較高的模型作為最終模型,并使用平均交并比[29](Mean Intersection over Union,MIoU)來評價模型在數據集上的分割效果,計算出遙感影像預測結果與影像真實值的交集和并集之比,MIoU 的表達式如式(14)所示:

其中:n代表標簽標記的類別;n+1 表示背景的總類別;pii表示實際為i類預測的像素數量;pij表示實際為i類但預測為j類的像素數量;pji表示實際為j類但預測為i類的像素數量。MIoU 的取值范圍為[0,1],MIoU 的值越大,說明預測結果越準確。
本文實驗是提取道路二分類問題,此類問題通常采用二分類交叉熵損失函數:

其中:yi為第i個像素的真實值;yi代表該像素屬于正樣本和負樣本的真實概率;ai為第i個像素的預測值,ai取值落于(0,1)內,ai越趨近于1 代表其屬于正樣本的概率越高。訓練的過程即通過不斷調整網絡的權值參數,使Loss 達到最小的過程。實驗采用帶動量的隨機梯度下降方法進行訓練,設置初始學習率為0.000 1,動量為0.96,迭代次數為20 000 次。
2.3.1 Cheng_Data_Roads 數據集實驗結果
為驗證所提方法在Cheng_Data_Roads 數據集下提取道路的有效性,與常用的語義分割方法包括PSPnet[15]、U-net[16]、D-Linknet[21]以 及ResUnet[26]進 行對比實驗,實驗結果如表2 所示。

表2 不同方法在Cheng_Data_Roads數據集下的實驗結果Table 2 Experimental results of different methods under Cheng_Data_Roads data set %
如表2 所示,由于U-net 與D-Linknet 采用編解碼網絡結構,將編碼器中提取的特征復制到相應的解碼器中進行融合,因此F1 值相對于PSPnet 高2 個百分點,但對于遙感影像中復雜的道路提取任務,其表現仍然有待提高。PSPnet 在高層語義特征上使用金字塔池化融合全局與局部特征,這在一定程度上彌補了普通卷積神經網絡只能獲取固定范圍特征信息的缺陷,但連續的下采樣依舊導致淺層信息丟失過多,所以F1 值和MIoU 值較低。ResUnet 由殘差網絡與U-net 組成,相比U-net,其表達能力更好。但其在遙感影像提取道路任務中,由于損失了一部分分辨率,導致復雜道路細節部分無法展現。基于ResUnet改進的DC-ASPP-ResUnet 能夠獲取更加豐富的道路特征信息,并且能夠在擴大感受野的同時控制特征映射權重,極大提高道路提取準確率。DC-ASPPResUnet 的各項指標相較于其他方法均高出至少3 個百分點,其召回率、F1 值和MIoU 值與ResUnet 相比分別高出至少3、6 和5 個百分點。
圖6 展示了不同方法在Cheng Data-Roods 數據集下提取道路的結果。由圖6 可知,U-net 無法對遮擋嚴重的道路進行提取,且邊緣細節部分處理也不到 位。PSPnet、D-Linknet 和ResUnet 無法完 整提取道路交匯連接處,對于小目標道路的提取也較為困難。針對道路整體結構、形狀以及模型的泛化性和魯棒性,PSPnet、D-Linknet 和ResUnet 這3 個方法均存在不同程序的問題,而DC-ASPP-ResUnet 的預測結果展現出相對平滑和完整的道路結構,并且在道路交匯和連接處的提取也很準確,很少出現不連續和錯誤識別的情況。實驗表明,與上述網絡相比,本文方法提高了道路提取結果的整體效果。

圖6 不同方法在Cheng_Data_Roads 數據集下的結果展示1Fig.6 Results display of different methods under Cheng_Data_Roads data set 1
2.3.2 Zimbabwe_Data_Roads 數據集實驗結果
為進一步驗證本文方法在不同路況下的表現,改用Zimbabwe_Data_Roads 影像數據集,該數據集中的影像比Cheng_Data_Roads 具有更高的分辨率,道路更加復雜多變,寬窄變換更加頻繁,且有不同程度的遮擋情況,所以該數據集與顯示的城市道路情況更加契合。在這樣的條件下,道路提取任務也會變得更加困難。不同方法在該數據集下的實驗結果如表3 所示。由表3 可以看出,本文所設計的DCASPP-ResUnet 在各項實驗指標對比中至少比其他方法高2 個百分點。PSPnet 在此數據集中的表現優于U-net,這是因為PSPnet 通過金字塔池化聚合不同區域的上下文信息,提高了獲取全局信息的能力。

表3 不同方法在Zimbabwe_Data_Roads數據集下的實驗結果Table 3 Experimental results of different methods under Zimbabwe_Data_Roads data set %
圖7 所示為不同方法在Zimbabwe_Data_Roads數據集下的結果展示。由圖7 可知,與U-net 和PSPnet 相 比,DC-ASPP-ResUnet 可以更 準確地識別道路區域,幾乎沒有不干凈的點狀。相比較DLinknet 和ResUnet 的道路提取結果,DC-ASPPResUnet 可以更完整地提取道路,這著重體現在道路的邊緣和交匯處可以克服由于地物尺度導致的差異性。所以,這進一步表明在面對復雜的遙感影像數據集時,所提方法可以更好地關注道路細節、邊緣以及不連續等問題。

圖7 不同方法在Zimbabwe_Data_Roads 數據集下的結果展示1Fig.7 Results display of different methods under Zimbabwe_Data_Roads data set 1
2.3.3 本文方法的結果分析
為更好地驗證本文所提DC-ASPP-ResUnet 道路提取方法中各模塊對網絡有效性的影響,分別將深度殘差網絡ResUnet[26]、融合混合空洞卷積的DC-ResUnet、融 合ASPP 模塊的ASPP-ResUnet以及所提出的DC-ASPP-ResUnet 在Cheng_Data_Road 和Zimbabwe_Data_Roads 數據集下進行對比實驗。實驗結果如表4 和表5 所示,其中準確率表明檢測到的道路像素數值是參考原始影像和標簽中的道路像素的概率,而召回率表明原始影像和標簽中所有道路像素的數值被準確檢測的概率。

表4 Cheng_Data_Roads 數據集下的實驗結果Table 4 Experiment results under Cheng_Data_Roads date set %

表5 Zimbabwe_Data_Roads 數據集下的實驗結果Table 5 Experiment results under Zimbabwe_Data_Roads date set %
通過表4 和表5 可以看出,DC-ResUnet 和ASPPResUnet 在2 個數據集上的各項評價指標數值均高于ResUnet。在Cheng_Data_Roads 數據集上DCResUnet 和ASPP-ResUnet 的F1 值 和MIoU 值 與ResUnet 相 比,分別高 出2.83 和1.78 個百分 點;在Zimbabwe_Data_Roads 數據集 上,與ResUnet 相 比,至少高1.55 和3.56 個百分點。由圖8 和圖9 可以看出,DC-ResUnet 和ASPP-ResUnet 相 比ResUnet 的 提取道路完整性有一定的提升,尤其是能夠準確預測在道路局部拐點位置。與ResUnet 相比,DC-ASPPResUnet 在道路提取完整性上有較大提升,提升效果比DC-ResUnet 和ASPP-ResUnet 更 優,在Cheng_Data_Roads 數據集上的F1 值和MIoU 值分別提高了6.14 和5.59 個百分 點;在Zimbabwe_Data_Roads 數據集上的F1 值和MIoU 值分別提高了4.07 和7.68 個百分點。主要原因是DC-ASPP-ResUnet 通過結合優化特征提取和融合多尺度特征2 個模塊,并利用提取特征加權映射到ASPP 模塊的方式進行淺層和深層道路特征信息的多尺度特征融合,可以更完整地凸顯道路整體結構。由圖8 和圖9 可以看出,DC-ASPP-ResUnet 能夠更準確地預測道路的宏觀線條和交叉點,并且能夠消除大部分的點狀,即像素的識別分類能力更強。

圖8 不同方法在Cheng_Data_Roads 數據集下的結果展示2Fig.8 Results display of different methods under Cheng_Data_Roads data set 2

圖9 不同方法在Zimbabwe_Data_Roads 數據集下的結果展示2Fig.9 Results display of different methods under Zimbabwe_Data_Roads data set 2
2.3.4 DC 自參數分析
由于本文網絡采用了混合空洞卷積的架構,因此在增大空洞率的同時能夠評估數值是否有所提升。為保證感受野的連貫性,串聯的空洞卷積空洞率之間的公約數需小于1,以增大最后一層的參數為基準。用Di表示調節的參數,比如D的初始值分為別為1、2、3。
如圖10 和圖11 所示,在增大參數值的條件下,無論是在Cheng_Data_Roads 數據集還是道路更復雜的Zimbabwe_Data_Roads 數據集下,本文方法的F1 值和MIoU 值均表現出持續上升的趨勢。為防止過擬合的發生,把D參數值控制在8 以內。這是因為通過提高參數值會使感受野逐步增大,且獲取道路不同尺度的信息范圍也逐漸變大,所以預測結果呈現上升趨勢,最終感受野覆蓋整個特征區域,并在D1=6、D2=7、D3=8 時結果最優,即達到峰值。利用混合空洞卷積的思想設計殘差模塊以擴大感受野的范圍,逐漸增大的空洞率能夠使計算更密集,增強對不同尺度特征的學習。將提取特征在輸入ASPP 模塊之后輸出,并進行多尺度的特征融合,可以最大程度地保留道路上下文信息,且提取效果也有較大提升,保留了道路的細節特征信息。

圖10 Cheng_Data_Roads 數據集的自參數分析Fig.10 Self-parameter analysis of Cheng_Data_Roads date set

圖11 Zimbabwe_Data_Roads 數據集的自參數分析Fig.11 Self-parameter analysis of Zimbabwe_Data_Roads date set
本文提出基于深度殘差網絡的多尺度特征融合遙感影像道路提取方法。通過在特征提取階段設計混合空洞卷積以增大感受野,引入ASPP 模塊獲得多種不同尺度的特征信息,從而捕獲更完整的道路信息。提取的特征經過上采樣得到與輸入圖像一致的大小,與通過加權映射的淺層特征進行特征融合,提高預測精度。在Cheng_Data_Roads 和Zimbabwe_Data_Roads 兩種數據集上的實驗結果表明,與現有的ResUnet、PSPnet、U-net 等方法相比,本文方法提取的道路更具完整性和連續性,所得到的預測結果噪聲更少。下一步將通過探索更符合的注意力機制,提升本文方法的適用范圍,使其能夠應用在建筑物、河流、農田等多場景的提取任務中。