張 穎,李小霞,2,李永龍,呂念祖,王皓冉,顧書豪,王學(xué)淵,2
1(西南科技大學(xué) 信息工程學(xué)院,四川 綿陽 621010)
2(特殊環(huán)境機(jī)器人技術(shù)四川省重點(diǎn)實(shí)驗(yàn)室,四川 綿陽 621010)
3(清華四川能源互聯(lián)網(wǎng)研究院,成都 610042)
道路信息作為測繪遙感領(lǐng)域中不可分割的一部分,在地圖繪制、災(zāi)后救助、軍事應(yīng)用等方向具有重要的應(yīng)用價(jià)值[1].由于遙感技術(shù)的快速發(fā)展,遙感圖像的分辨率不斷提高,噪聲對圖像的干擾也隨之增加,如何從遙感圖像中自動(dòng)提取出高精度的道路信息已成為近年來研究的熱點(diǎn)與難點(diǎn).目前基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的遙感圖像分割方法表現(xiàn)尤為突出,相較于傳統(tǒng)的半自動(dòng)提取方法,該方法能有效抑制道路信息提取過程中產(chǎn)生的噪聲以及減少道路細(xì)節(jié)信息的丟失,使得提取效果大幅提升.然而,自動(dòng)提取遙感圖像道路信息主要存在以下難點(diǎn):1)輸入圖像分辨率高,數(shù)據(jù)量大,需要足夠大的感受野;2)遙感圖像中的道路細(xì)長且復(fù)雜,占整幅圖像比重較少;3)由于地理限制,部分道路被陰影、云、建筑物或樹木等物體覆蓋,圖像色彩對比度低,感興趣區(qū)域的提取難度較大[2];4)道路具有自然連通性,即具有圖像的拓?fù)涮攸c(diǎn)[3].
近年來,針對如何從高分辨率遙感圖像中自動(dòng)提取道路信息的問題,國內(nèi)外已經(jīng)提出了多種方法.比較常見的傳統(tǒng)遙感圖像道路信息提取方法有基于像素[4,5]、基于對象[6,7]、基于知識[8]以及基于機(jī)器學(xué)習(xí)的方法.Das等人[9]提出利用光譜的顯著對比特征和局部線性軌跡來設(shè)計(jì)一個(gè)多級框架,同時(shí)結(jié)合概率化的支持向量機(jī)來補(bǔ)充缺失的道路信息,以獲得潛在的道路目標(biāo).Chen等人[10]通過融合光譜特征和紋理特征提取遙感圖像中大棚覆蓋物的信息,并使用混淆矩陣對分類結(jié)果進(jìn)行了驗(yàn)證,提升了大棚覆蓋物的識別精度.隨著深度學(xué)習(xí)的快速發(fā)展,Long等人[11]提出了全卷積網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN),利用跳躍連接結(jié)構(gòu)融合淺層和高層的表征信息以此獲得準(zhǔn)確精細(xì)的分割結(jié)果.Zhang等人[12]結(jié)合殘差學(xué)習(xí)和U-Net網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)建了一種用于道路區(qū)域提取的算法,通過殘差單元簡化深層網(wǎng)絡(luò)的訓(xùn)練,網(wǎng)絡(luò)中豐富的跳連接可促進(jìn)信息的傳播,逐步恢復(fù)圖像中的道路細(xì)節(jié)特征.Chen等人[13]在Deeplab系列中結(jié)合多尺度信息和擴(kuò)張卷積(Dilated Convolution)提出了空洞空間金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)模塊,將不同擴(kuò)張率的擴(kuò)張卷積進(jìn)行特征融合,保證在不犧牲特征空間分辨率的同時(shí)擴(kuò)大特征感受野.受自編碼器的啟發(fā),Chaurasia 等人[14]提出LinkNet網(wǎng)絡(luò)結(jié)構(gòu),通過直接將編碼器與解碼器連接起來提高道路分割準(zhǔn)確性,在保留編碼部分信息不丟失的同時(shí)并未增加額外參數(shù),提高了學(xué)習(xí)效率.由于ASPP模塊在尺度軸上特征分辨率還不夠密集,獲取的感受野不夠充分,因此Yang等人[15]將Deeplab系列中ASPP和DenseNet[16]中的密集連接相結(jié)合,構(gòu)成了DenseASPP.為了更好的關(guān)注重點(diǎn)區(qū)域和抑制無用特征,Zhao等人[17]提出的PSANet通過學(xué)習(xí)所有位置的自注意力特征圖來獲取上下文信息,但引入?yún)?shù)量過多且內(nèi)存消耗大,應(yīng)用范圍較小.Fu等人[18]提出層疊反卷積網(wǎng)絡(luò)(Stacked Decovolutional Network,SDN),旨在利用逐步堆疊的網(wǎng)絡(luò)捕獲更多的背景信息并逐漸恢復(fù)高分辨率預(yù)測.雖然這些方法在分割性能上取得了長足的進(jìn)步,但仍無法解決道路由于遮擋出現(xiàn)的信息丟失問題.同時(shí),由于背景噪聲信息的存在,提取過程中會(huì)產(chǎn)生大量難以處理的細(xì)碎邊界特征.
基于上述問題,本文提出了一種結(jié)合密集注意力和并行上采樣的遙感圖像道路分割模型.該模型主要由編碼器-解碼器結(jié)構(gòu)組成,在編碼器和解碼器的中間部分設(shè)計(jì)了密集空洞空間金字塔注意力模塊,在解碼器部分設(shè)計(jì)了多路并行上采樣模塊.密集空洞空間金字塔注意力模塊利用空間注意力分支中的多個(gè)擴(kuò)張卷積和密集連接結(jié)構(gòu)來擴(kuò)大網(wǎng)絡(luò)感受野,獲取局部和全局的多尺度層次特征,通道注意力分支通過建立通道間的相互依賴關(guān)系重新調(diào)整各通道特征的重要性,將通道注意力分支和空間注意力分支進(jìn)行自適應(yīng)融合有利于提取豐富的全局上下文信息,篩選出有用的目標(biāo)特征,抑制無關(guān)特征的干擾.多路并行上采樣模塊不同于簡單的采用雙線性插值或反卷積的上采樣方式來恢復(fù)特征圖的分辨率,而是在解碼器融合多路特征圖以獲得具有精細(xì)位置信息的預(yù)測結(jié)果,提升模型的細(xì)節(jié)特征保持能力.最后將本文提出的算法與當(dāng)前先進(jìn)的算法在DeepGlobe遙感圖像道路提取數(shù)據(jù)集[19]上進(jìn)行對比,其中精度、F1-score、召回率以及精確率均有較大的提升.
為了提高模型對感興趣目標(biāo)的分割精度以及道路細(xì)節(jié)特征的保持能力,本文提出的結(jié)合密集注意力和并行上采樣的遙感圖像道路分割網(wǎng)絡(luò)如圖1所示.

圖1 遙感圖像道路分割網(wǎng)絡(luò)結(jié)構(gòu)
該網(wǎng)絡(luò)的編碼器部分采用ResNet34作為預(yù)訓(xùn)練模型,首先使用64個(gè)大小為7×7、步長為2的卷積核提取原始輸入圖像的粗略特征,按照卷積神經(jīng)網(wǎng)絡(luò)的特征圖計(jì)算公式輸出大小N=(W-F+2P)/S+1,其中W代表輸入大小為1024,F(xiàn)代表卷積核大小為7,P代表填充數(shù)為3,S代表步長為2,將這些參數(shù)帶入公式后N向下取整后值為512.由于本文所提出的網(wǎng)絡(luò)結(jié)構(gòu)是以Resnet34為基本架構(gòu)的,因此經(jīng)過第1個(gè)卷積層的通道數(shù)和Resnet34的第1個(gè)卷積層通道數(shù)個(gè)數(shù)相等都為64.最后經(jīng)過第1個(gè)卷積層特征圖的大小變?yōu)?12×512×64.經(jīng)過4個(gè)下采樣層后提取到精細(xì)的圖像邊緣信息和位置信息.由于挑戰(zhàn)任務(wù)是從高分辨率的遙感圖像中分割道路,考慮到道路的狹窄性、易被遮擋性以及復(fù)雜性,本文將提出的密集空洞空間金字塔注意力結(jié)構(gòu)作為編碼器和解碼器的中心塊.該模塊首先采用密集連接的方式將不同擴(kuò)張率的擴(kuò)張卷積進(jìn)行連接,增加網(wǎng)絡(luò)最高層的感受野,實(shí)現(xiàn)所有中間特征的融合,其次通過學(xué)習(xí)權(quán)重來抑制多尺度圖像不相關(guān)和易混淆的像素信息,最后結(jié)合網(wǎng)絡(luò)的抽象空間信息和通道信息來捕獲豐富的局部和全局特征,為掩碼分割提供足夠精確的像素級預(yù)測.由于自下而上的解碼器在逐步上采樣的過程中丟失了大量的細(xì)節(jié)特征,因此本文提出的多路并行上采樣結(jié)構(gòu)有效地將不同尺度層的特征結(jié)合起來,有助于增強(qiáng)目標(biāo)特征的響應(yīng)能力.同時(shí)為了減少特征通道融合的參數(shù)數(shù)量,該結(jié)構(gòu)首先減少通道數(shù)再通過上采樣來恢復(fù)圖像分辨率,并將上采樣后的特征圖堆疊起來整體作為輸入產(chǎn)生分割結(jié)果.
密集空洞空間金字塔注意力模塊(DASPA)如圖2所示,由空間注意力和通道注意力兩個(gè)并行的分支組成,其中空間注意力分支包括一個(gè)1×1的卷積和一個(gè)擴(kuò)張率(Dilated Rate)為1,2,4,8的密集空洞空間金字塔結(jié)構(gòu).擴(kuò)張卷積與普通卷積相比,除了卷積核大小以外,還使用一個(gè)擴(kuò)張率參數(shù)控制卷積核插入擴(kuò)張的間隔,在不增加額外計(jì)算量的同時(shí)擴(kuò)大網(wǎng)絡(luò)感受野,當(dāng)設(shè)置的擴(kuò)張率不同時(shí)則獲取到的感受野就不一樣,即捕獲到多尺度上下文信息.擴(kuò)張卷積感受野計(jì)算方式為:

圖2 密集空洞空間金字塔注意力模塊
K=k+(k-1)(r-1)
(1)
式中K為實(shí)際卷積核大小,k為原始卷積核大小,r為擴(kuò)張卷積擴(kuò)張率大小.但由于擴(kuò)張卷積相鄰像素之間缺乏相關(guān)性,易造成局部信息丟失和網(wǎng)格效應(yīng),因此該模塊中的密集空洞空間金字塔結(jié)構(gòu)從提取的高級特征中獲得密集的多尺度空間信息,增大感受野并有效地分割道路目標(biāo).但這種結(jié)構(gòu)無法捕捉到通道間的相關(guān)特征,因此引出通道注意力分支用于提取全局上下文的先驗(yàn)信息,實(shí)現(xiàn)通道特征的自適應(yīng)選擇,增強(qiáng)特征的通道相關(guān)性.最后將并行的空間信息和通道信息相結(jié)合,重新調(diào)整特征重要性,在保留圖像細(xì)節(jié)信息的同時(shí)消除背景特征的干擾,從而獲得更為精確的分割結(jié)果.
為了更好地提取不同尺度下金字塔特征的密集上下文信息,該模塊首先使用密集連接的方式將擴(kuò)張率為1,2,4,8的擴(kuò)張卷積的輸出結(jié)合到一起,接著將從輸入特征圖A學(xué)習(xí)到的密集特征信息與1×1卷積所提取的原始特征進(jìn)行逐像素加權(quán),最后將通道注意力分支與密集空洞空間注意力分支進(jìn)行特征融合得到輸出特征圖A′,其中A∈RH×W×C,A′∈RH′×W′×C′.此外,通道注意力分支是將卷積得到的特征圖通過全局平均池化(Global Average Pooling,GAP)得到一個(gè)1×1×c的特征向量,然后通過兩個(gè)全連接層來建立通道間的相關(guān)性,第1次全連接(Fully Connected,F(xiàn)C)操作將特征維度降低到輸入圖像的1/16,經(jīng)過ReLu激活后通過第2次全連接恢復(fù)到原來的維度,最后將通過Sigmoid函數(shù)獲得的歸一化后的權(quán)重加權(quán)到輸入圖像的每個(gè)通道的特征上.DASPA模塊的計(jì)算過程如公式(2)所示.
A′=S′+L′
(2)
式中S′代表輸入圖像A通過空間注意力分支得到的特征圖,L′代表輸入圖像通過通道注意力分支得到的特征圖.
S′=Conv(A)?Concat(y1,y2,y3,y4)
(3)
式中yi(1≤i≤4)代表密集空洞空間金字塔結(jié)構(gòu)中第i層的輸出特征圖,Conv代表1×1卷積,Concat代表將擴(kuò)張率為1,2,4,8的擴(kuò)張卷積層的輸出特征圖進(jìn)行特征融合,其中yi可以公式化為:
yi=HK,di([yi-1,yi-2,…,y0])
(4)
式中HK,di代表擴(kuò)張卷積操作,di代表第i層的擴(kuò)張率,K為濾波器大小,[…]表示密集連接操作,[yi-1,yi-2,…,y0]代表通過連接所有先前層的輸出形成的特征圖.公式(2)中的通道注意力分支L′的計(jì)算過程為:
L′=A?U
(5)
式中U代表輸入特征圖A通過通道注意力分支加權(quán)之后得到的權(quán)重輸出,令U=[u1,u2,…,uC],權(quán)重U的計(jì)算過程為:
U=δ2{FC2{δ1[FC1[GL(A)]]}}
(6)
式中GL代表全局平均池化操作,F(xiàn)C1代表第1次全連接操作,F(xiàn)C2代表第2次全連接操作,δ1代表ReLU激活函數(shù),δ2代表Sigmoid激活函數(shù).
在傳統(tǒng)U形網(wǎng)絡(luò)中,高級抽象語義信息從解碼器的高層逐步傳遞到低層,較深層捕獲的邊緣信息會(huì)被逐漸稀釋,不利于遙感圖像道路分割.因此針對自上而下路徑中道路邊緣細(xì)節(jié)信息易丟失的問題,本文進(jìn)一步提出多路并行上采樣結(jié)構(gòu),其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示.該結(jié)構(gòu)與主流架構(gòu)相比,不只是使用解碼器的最后一層來預(yù)測分割掩碼,而是將來自解碼器的所有上采樣特征映射堆疊起來,以獲取不同尺度下的上下文信息,并將它們一起作為最后一層的輸入來進(jìn)行圖像預(yù)測,保證精確定位的同時(shí)捕獲豐富的細(xì)節(jié)信息,使網(wǎng)絡(luò)模型更好地聚合多尺度特征.在特征圖并行上采樣的過程中,考慮到顯存消耗的影響,本結(jié)構(gòu)首先使用大小為1×1的卷積核減少每個(gè)層次的特征圖通道數(shù),再分別進(jìn)行2倍、4倍、8倍、16倍上采樣來恢復(fù)圖像分辨率,以確保在上采樣過程中不會(huì)損失過多細(xì)節(jié)特征,最后將多分支的上采樣特征圖進(jìn)行堆疊,并依次通過3×3和1×1卷積層,從而實(shí)現(xiàn)圖像的分割.

圖3 多路并行上采樣模塊
本文采用DeepGlobe遙感圖像道路提取數(shù)據(jù)集來驗(yàn)證算法的性能,該數(shù)據(jù)集包含6226張訓(xùn)練圖像及其對應(yīng)的標(biāo)簽,將6226張圖片按7∶2∶1隨機(jī)分成4358張訓(xùn)練圖片、1245張測試圖片和623張驗(yàn)證圖片.其中標(biāo)簽是與輸入圖像具有相同高度和寬度的灰度二值圖像,道路和非道路像素分別設(shè)置為255和0.所有圖像大小均為1024×1024,每幅圖像都是由DigitalGlobe衛(wèi)星采集的地面分辨率為0.5m/pixel的RGB圖像.數(shù)據(jù)集包括東南亞多個(gè)國家的荒郊、城市、鄉(xiāng)村和雨林等復(fù)雜場景.
為了準(zhǔn)確地評估遙感圖像道路分割模型的分割精度,本文采用語義分割中常用的指標(biāo)來進(jìn)行評價(jià),即召回率(Pr)、準(zhǔn)確率(Pa)、精準(zhǔn)率(Pp)和F1-score.Pr即預(yù)測正確的道路像素點(diǎn)數(shù)量占所有道路像素點(diǎn)數(shù)量的比例,Pa即預(yù)測正確的道路和背景像素點(diǎn)數(shù)量占整幅遙感圖像中像素點(diǎn)數(shù)量的比例,Pp即預(yù)測正確的道路像素點(diǎn)數(shù)量占預(yù)測為正確的道路像素點(diǎn)數(shù)量的比例,F(xiàn)1-score即召回率和精準(zhǔn)率的綜合評價(jià)指標(biāo),F(xiàn)1-score越高,說明模型分割性能越穩(wěn)健.Pr、Pa、Pp和F1-score計(jì)算公式為:
(7)
(8)
(9)
(10)
公式中:TP為道路預(yù)測正確的像素?cái)?shù)目;TN為背景預(yù)測正確的像素?cái)?shù)目;FN為提取錯(cuò)誤的背景信息的像素?cái)?shù)目;FP為提取錯(cuò)誤的道路信息的像素?cái)?shù)目.
同時(shí)作為評價(jià)算法模型的重要指標(biāo)之一的時(shí)間復(fù)雜度,通常以浮點(diǎn)運(yùn)算次數(shù)(floating-point oprations,F(xiàn)LOPs)來衡量,以此決定了模型訓(xùn)練/預(yù)測需要運(yùn)算的次數(shù)[20].其中單個(gè)卷積層的時(shí)間復(fù)雜度為:
FLOPs=2H×W×(CinK2+1)×Cout
(11)
式中K代表卷積層的卷積核大小,Cout代表卷積核的通道數(shù),H、W和Cin分別代表輸入卷積層的高度、寬度和通道數(shù).
本文實(shí)驗(yàn)是在GPU型號為NVIDIA GTX1080Ti的計(jì)算平臺下進(jìn)行的,所用深度學(xué)習(xí)框架為Pytorch1.2.0.在訓(xùn)練階段,本文采用了平移、縮放、旋轉(zhuǎn)和翻轉(zhuǎn)的數(shù)據(jù)增強(qiáng)的方式,以二分類交叉熵和骰子系數(shù)損失作為損失函數(shù),Adam作為優(yōu)化器.初始學(xué)習(xí)率設(shè)定為3e-4,訓(xùn)練批次大小為4,共訓(xùn)練300輪,輸入圖像大小為1024×1024,在測試階段采用水平旋轉(zhuǎn)和[1.25,1.5,1.75]縮放比例進(jìn)行多尺度測試.
表1為本文網(wǎng)絡(luò)結(jié)構(gòu)中的密集空洞空間金字塔注意力模塊和多路并行上采樣模塊在DeepGlobe測試集上的消融實(shí)驗(yàn)測試結(jié)果.由表1可知,本文網(wǎng)絡(luò)結(jié)構(gòu)中的DASPA模塊和MPUpsample模塊均能提升模型的分割性能,且將兩個(gè)模塊融合在一起的分割指標(biāo)顯著優(yōu)于基礎(chǔ)網(wǎng)絡(luò)LinkNet,其中Pr、Pa、Pp和F1-score分別比基礎(chǔ)網(wǎng)絡(luò)高0.009、0.010、0.018和0.015,提升了網(wǎng)絡(luò)模型的分割效果.

表1 各模塊之間的消融實(shí)驗(yàn)
圖4為本文設(shè)計(jì)的模塊在DeepGlobe遙感圖像道路提取數(shù)據(jù)集上的道路圖像分割性能對比圖.由圖4可知,LinkNet缺乏篩選有益特征以及保持圖像細(xì)節(jié)信息的能力,分割性能較差;在基礎(chǔ)模型上加入DASPA模塊后,能有效去除圖像的冗余噪聲信息,增大網(wǎng)絡(luò)感受野;在LinkNet上加入MPUpsample模塊后,能最大限度地保證道路結(jié)構(gòu)的完整性,減少邊緣特征信息的丟失.

圖4 不同網(wǎng)絡(luò)結(jié)構(gòu)在DeepGlobe測試集實(shí)驗(yàn)結(jié)果對比
表2為不同算法在DeepGlobe數(shù)據(jù)集上的道路圖像分割指標(biāo)對比,實(shí)驗(yàn)結(jié)果表明,本文方法模型訓(xùn)練時(shí)間需要84.89小時(shí),各項(xiàng)分割性能指標(biāo)均優(yōu)于目前的主流算法,對于時(shí)間復(fù)雜度和平均每張圖片測試時(shí)間這兩項(xiàng)指標(biāo)而言,本文提出的模型確保在精度最高的情況下,這兩項(xiàng)指標(biāo)較其他算法獲得了相對折中的效果,有利于實(shí)際場景的應(yīng)用與實(shí)現(xiàn).主流算法中文獻(xiàn)[15]雖然獲得密集的多尺度特征,但是很難在擴(kuò)張率大小的選擇和尺度變化之間取得平衡,時(shí)間復(fù)雜度較高且圖片測試時(shí)間較長.文獻(xiàn)[12]是典型的U型結(jié)構(gòu),網(wǎng)絡(luò)使用跳連接結(jié)合低級特征圖的空間信息,雖然最終特征圖實(shí)現(xiàn)了不同尺度下的特征融合,但是由于遙感圖像存在較多干擾因素,該網(wǎng)絡(luò)無法抑制噪聲干擾并篩選出有用的特征.同時(shí),高分辨率遙感圖像數(shù)據(jù)集數(shù)據(jù)量大,文獻(xiàn)[12]模型與文獻(xiàn)[14]相比模型訓(xùn)練產(chǎn)生的參數(shù)量更多、精度更低且時(shí)間復(fù)雜度更高,預(yù)測時(shí)間更長.文獻(xiàn)[21]雖然將不同下采樣層輸出的特征進(jìn)行融合,但是分割結(jié)果中的道路細(xì)節(jié)表征不明顯且精度不高,存在道路結(jié)構(gòu)缺失的現(xiàn)象,模型復(fù)雜度最高,測試消耗時(shí)間過大.本文方法有效提取了網(wǎng)絡(luò)最高層的密集多尺度空間特征,并融合空間注意力分支和通道注意力分支篩選出包含道路的圖像信息,避免了無用特征的干擾,在解碼器部分利用多路特征圖進(jìn)行通道疊加,解決了由于道路結(jié)構(gòu)中斷導(dǎo)致的細(xì)節(jié)信息丟失問題,單張圖片的平均預(yù)測時(shí)間達(dá)到2.71s.

表2 不同算法在DeepGlobe數(shù)據(jù)集上的分割指標(biāo)對比
圖5顯示了不同算法在DeepGlobe遙感圖像道路提取數(shù)據(jù)集上的分割效果對比圖,由圖5可知,本文在抑制冗余特征的干擾以及處理細(xì)節(jié)信息丟失方面明顯優(yōu)于其他算法.U-Net雖然比LinkNet分割的圖像完整性更高,但是易引入大量無用信息且存在錯(cuò)分漏分的情況.FCN-16s的道路關(guān)鍵細(xì)節(jié)信息丟失嚴(yán)重,圖像特征提取由于其他遮擋物影響容易產(chǎn)生虛假信息,導(dǎo)致分割性能更低.DenseASPP相較于其他算法分割效果最差,部分復(fù)雜圖像的道路結(jié)構(gòu)存在大塊缺失的現(xiàn)象,邊界信息損失嚴(yán)重.本文方法與上述算法相比,更好地保留了道路結(jié)構(gòu)特征的完整性,有效地抑制了噪聲對影像提取的干擾,分割效果圖更接近于真實(shí)圖像標(biāo)簽.

圖5 不同算法在DeepGlobe測試集的實(shí)驗(yàn)結(jié)果對比
由于遙感圖像中道路信息存在遮擋嚴(yán)重和色彩對比度低等問題,導(dǎo)致大量道路細(xì)節(jié)信息缺失以及產(chǎn)生許多難以處理的細(xì)碎邊界特征,因此本文提出了結(jié)合密集注意力和并行上采樣的遙感圖像道路分割網(wǎng)絡(luò),用于提高道路圖像分割的精度.本文提出一個(gè)密集空洞空間注意力結(jié)構(gòu),將密集空間信息和通道信息相結(jié)合,在保留細(xì)節(jié)信息的同時(shí),通過擴(kuò)大網(wǎng)絡(luò)感受野和提取全局多尺度特征,提升模型剔除冗余特征的能力;設(shè)計(jì)多路并行上采樣結(jié)構(gòu),通過將解碼器中不同尺度的特征圖進(jìn)行通道衰減和上采樣后依次堆疊起來,更有利于道路細(xì)節(jié)信息的保持且增強(qiáng)了網(wǎng)絡(luò)融合多層次特征的能力.本文算法在DeepGlobe遙感圖像道路提取數(shù)據(jù)集上獲了顯著的效果提升,在遙感圖像信息領(lǐng)域具有廣泛的應(yīng)用價(jià)值.