












摘 要:針對現有變化檢測方法局部特征和全局特征難以兼顧、變化對象和背景之間分界模糊的問題,提出了一種基于局部-全局特征耦合與邊界引導的遙感圖像建筑物變化檢測方法。該方法在編碼階段采用并行的卷積神經網絡和Transformer分別提取遙感圖像的局部特征與全局表示。在不同尺度下,使用局部-全局特征耦合模塊融合局部特征和全局特征表示,以增強圖像特征的表達能力。引入邊界引導分支獲取變化對象的先驗邊界信息,使其引導變化圖突出建筑物的結構特征,促進邊界精確定位。該方法在LEVIR-CD和WHU數據集上進行實驗驗證,其F1-score分別為91.25%和91.27%,IoU分別為83.90%和83.95%。實驗結果表明,該方法在檢測精度上有較大的提升,且具有良好的泛化能力。
關鍵詞:遙感圖像; 變化檢測; 卷積神經網絡; Transformer; 特征耦合; 邊界引導
中圖分類號:TP751.1 文獻標志碼:A
文章編號:1001-3695(2024)06-042-1888-05
doi:10.19734/j.issn.1001-3695.2023.09.0407
Building change detection in remote sensing images based onlocal-global feature coupling and boundary guidance
Abstract:The existing change detection methods are difficult to balance local features and global features, and the boundary between change objects and backgrounds is blurred, so this paper proposed a remote sensing image building change detection method based on local-global feature coupling and boundary guidance. In the encoding stage, the method adopted parallel convolutional neural network and Transformer to extract the local features and global representation of remote sensing images, respectively. At different scales, the local-global feature coupling module fused local features and global feature representation to enhance the expression ability of image features. In addition, it introduced the boundary guidance branch to obtain the prior boundary information of the change objects, so that its guide change map can highlight the structural characteristics of the building and promote the accurate boundary location. This paper conducted experiments on the LEVIR-CD and WHU datasets, resulting in F1-score of 91.25% and 91.27%, IoU of 83.90% and 83.95%, respectively. The experimental results show that the method has a great improvement in the detection accuracy and good generalization ability.
Key words:remote sensing images; change detection; convolutional neural network; Transformer; feature coupling; boundary guidance
0 引言
建筑物變化檢測是指對特定地理區域內不同時期遙感圖像進行檢測,識別該區域內的建筑物是否發生變化[1]。隨著對地觀測技術的快速發展,遙感技術應用廣泛,變化檢測已經成為了遙感領域重要的研究課題。建筑物變化檢測在城市地圖更新[2]、土地利用[3]、城市規劃[4]以及災后評估[5]等方向的應用具有重大意義。
遙感圖像的高空間分辨率使得圖像細節更豐富、邊界更復雜,這給變化檢測任務帶來了諸多挑戰[6]。傳統建筑物變化檢測方法主要針對于中低分辨率遙感圖像,通過提取建筑物的紋理、幾何和光譜等低維特征判別是否發生變化,不僅特征表現能力較差,還容易受到光照條件、季節變化、傳感器等因素的影響,顯著影響了檢測精度[7]。近年來,深度學習可以自適應提取大量遙感圖像的深層特征,以更好地表達圖像信息。因此,在遙感圖像變化檢測任務中,基于深度學習的方法成為研究熱點。CNN作為經典的網絡結構被引入變化檢測任務中,Fang等人[8]對CNN構建密集的跳躍連接,減少了深層網絡丟失的信息,提高了檢測精度。但是CNN感受野小,容易丟失全局信息,對大目標建筑物檢測不完整。BIT[9]首次引用了Transformer結構,其先使用淺層的CNN提取特征,再使用Transformer獲取不同時間的圖像特征。但是這種CNN和Transformer混合的方法不合適,淺層的CNN結構仍然會丟失全局信息。Bandara等人[10]使用多個Transformer塊構建編碼器,有效地提取了多尺度全局特征表示,但是無法兼顧局部細節。Conformer[11]是首個將CNN和Transformer并行的網絡結構,其將局部特征耦合進Transformer結構中,經過多頭自注意力后,又將全局特征耦合進CNN結構中,有效地結合了互補特征。Zhang等人[12]在醫學圖像分割任務上提出了一種新穎的雙融合技術,利用注意力機制可以有效地耦合并行的局部特征和全局特征,為并行的CNN和Transformer網絡結構提供新的解決方案。
在建筑物變化檢測任務中,建筑物分布密集、屋頂材質不同和陰影遮擋等問題,使得建筑物與背景分界模糊,影響了檢測精度[13]。EGRCNN[14]是一種邊界引導的循環卷積神經網絡模型,其在生成變化圖的同時提取邊界圖,通過邊界損失函數對其進行約束,進而生成更關注邊界的變化圖。MAEANet [15]對解碼后的特征使用通道注意力機制和輪廓注意力機制增強特征的邊界信息。EGCTNet[16]是一種基于邊界引導的CNN和Transformer結合的建筑物變化檢測網絡模型,其構造了并行的CNN和Transformer網絡結構,能有效地提取局部特征和全局特征,還構建了一個額外的邊界提取分支用于提取邊界信息,將其融入語義特征中引導模型關注邊界結構特征。但是EGCTNet只是對局部特征和全局特征進行簡單連接,特征耦合不夠充分,對邊界信息處理過于復雜。Sun等人[17]在偽裝目標檢測任務上提出了一種簡單而有效的邊界檢測結構,提取邊界信息作為額外的先驗信息,以解決物體與背景之間的分界模糊問題。
綜上所述,在遙感圖像變化檢測方法中,存在并行的CNN和Transformer提取的局部特征和全局特征耦合不充分、變化對象和背景之間分界模糊的問題。受到上述一些研究的啟發,本文提出了一種基于局部-全局特征耦合與邊界引導的遙感圖像建筑物變化檢測方法(building change detection in remote sensing images based on local-global feature coupling and boundary guidance,LGC-BGNet)。LGC-BGNet中的局部-全局特征耦合模塊(LGCM)使用不同的注意力機制,分別對局部特征和全局特征增強局部細節和全局上下文信息,再對其進行交互融合,以增強特征的表達能力。在解碼器階段構建了一個差分增強模塊(DEM)用于學習更具有判別能力的變化圖。另外設計了一個用于建筑物變化檢測任務上的邊界引導分支,該分支先提取了低級邊界特征和高級語義特征,融合得到先驗邊界信息,并使用損失函數對其約束。然后將先驗邊界信息注入各個尺度的變化圖特征中,引導模型關注建筑物的邊界結構細節。
1 網絡結構
1.1 網絡總體概述
圖1為LGC-BGNet的總體架構,該結構主要分為變化檢測分支和邊界引導分支兩個部分。變化檢測分支使用了編碼器-解碼器結構,在編碼器中使用了并行的ResNet分支[18]和Transformer分支[10]分別提取雙時相遙感圖像的多尺度局部特征和全局特征,并在每個尺度對局部特征和全局特征使用LGCM進行耦合,得到兼顧局部細節和全局空間信息的多尺度特征。最后一層經過一個空洞空間金字塔(ASPP)[19],以增強多尺度特征。在解碼器中將編碼器中的四個特征進行逐元素求和,以得到相應的多尺度變化圖,多邊輸出融合策略可以解決遙感衛星圖像背景復雜的問題[20]。然后使用DEM對每個尺度的變化圖生成更有判別能力的差分變化圖,減少背景噪聲等干擾。邊界引導分支包含了邊界提取模塊(BEM)和邊界引導模塊(BGM)。邊界特征是淺層的低級特征,但是低級特征中又包含諸多無關變化的噪聲,所以選擇第一層具有邊界細節的低級特征和第四層具有空間位置信息的高級語義特征。為了減少特征的丟失,使用了簡單差分操作(SD)得到差分變化圖,再經過BEM提取邊界特征,得到先驗邊界信息,經過分類得到邊界差分變化圖,使用損失函數對其進行約束。最后使用多個BGM將先驗邊界信息與每個尺度的變化圖結合,以增強邊界表示,引導模型關注于建筑物的結構和邊界細節,最后經過分類輸出最終的變化圖。
1.2 編碼器
1.2.1 特征提取結構
編碼器結構如圖2所示,其由ResNet分支、Transformer分支和LGCM模塊組成。并行的ResNet分支和Transformer分支組成了特征提取結構,ResNet分支采用ResNet34網絡作為骨干網絡,通過堆疊4組殘差塊提取圖像的多尺度特征,每個下采樣殘差塊的通道數分別為64、128、256和512。ResNet分支為模型引入了平移不變性和局部相關性。
Transformer分支包含了下采樣塊、自注意力模塊和線性層,同樣使用了4組Transformer塊提取多尺度特征,Transfor-mer分支為網絡提取了全局上下文信息。由于Transformer需要使用大量的參數計算圖像序列,所以引入序列縮減[21]減少參數數量。以下是序列縮減的簡單公式:
K′=Reshape(HW/R,C·R)K(1)
Kout=Linear(C·R,C)K′(2)
其中:K是要縮減的序列;R是縮減比;H、W、C分別是圖像的高、寬、通道數;Reshape將K變形為K′;Linear是全連接層;最后,輸出Kout的序列為(HW/R,C·R),大大減少了參數量。
邊界特征是淺層的低級特征,但是又因為低級特征中包含了諸多噪聲,需要具有空間位置信息的高級語義特征對其進行約束,所以選擇第一層和第四層的特征輸入到后續的邊界引導分支中。
1.2.2 局部全局特征耦合模塊(LGCM)
為了有效地融合ResNet和Transformer分支的編碼特征,本文提出了一種基于注意力機制的局部-全局特征耦合模塊(LGCM)。圖3所示是LGCM的結構,在LGCM中對于ResNet分支提取的局部特征使用CBAM[22]中的空間注意力機制增強局部細節,并抑制無關變化的噪聲干擾,使用通道注意力[23]對Transformer分支的全局特征起到促進的作用,增強全局信息。
在圖3中,局部特征和全局特征分為兩個分支,分別經過空間注意力和通道注意力,另有一個分支對局部特征和全局特征逐元素求和。具體公式如下:
g′=Sigmoid(MLP(MaxPool(g);AvgPool(g)))(3)
l′=Sigmoid(Conv(7×7)(MaxPool(l);AvgPool(l)))(4)
b=Conv(3×3)(g+l), f=Residual(Cat[g′,b,l′])(5)
其中:g是Transformer分支輸出的全局特征;l是ResNet分支輸出的局部特征;MaxPool是最大池化;AvgPool是平均池化;MLP是多層感知機;Conv(7×7)是7×7卷積;Conv(3×3)是3×3卷積;Cat是連接操作;Residual是殘差操作;g分別進行最大池化和平局池化,再通過MLP,最后經過一個sigmoid函數,得到g′,完成對g的通道注意力操作。同樣對l進行最大池化和平局池化,經過一個7×7的卷積,最后使用一個sigmoid函數得到l′。經過對g和l的逐元素求和運算,得到交互特征b。通過Cat操作,將g′、l′和b在通道上連接,最后使用Residual塊獲取特征f,有效地獲取當前尺度的局部細節和全局上下文信息。
1.3 差分增強模塊(DEM)
在遙感圖像變化檢測任務流程中,雙時相圖像的差分操作是關鍵一環。圖4所示是本文提出的DEM結構,分為兩個分支,其中一個分支分別在雙時相特征上使用連續三個卷積塊,每個卷積塊包括卷積、BN和ReLU操作,用于增強變化區域的特征細節,可以獲得更準確的邊界。另一個分支對雙時相圖像進行差分,然后使用全局平局池化和全局最大池化增強差分信息,最后將差分信息分別融入雙時相特征中,再一次經過差分得出差分變化圖。
1.4 邊界提取模塊(BEM)
先驗邊界信息有助于對圖像中的對象進行分割和定位。低級特征中包含著豐富的邊界細節,但是也引入了許多非變化對象的噪聲干擾,所以需要結合高級語義特征的空間位置信息促進對變化對象的邊界定位。圖5所示是BEM的網絡結構,該模塊結合了低級特征(f1)和高級特征(f4),提取變化對象的邊界特征。首先將兩個特征分別輸入兩個1×1卷積,對f4進行降維操作,然后將f1與上采樣的f4按特征通道連接,再經過兩個3×3卷積、一個1×1卷積和sigmoid函數,輸出邊界特征fe,fe經過分類后得到邊界變化圖,并使用損失函數對其進行約束,得到更準確的fe作為先驗邊界信息。
1.5 邊界引導模塊(BGM)
邊界引導模塊的目的是將先驗邊界信息輸入到模型中,引導變化對象增強邊界特征,提高邊界完整性,降低漏檢率。
圖6所示是BGM的結構,fe是BEM中提取的先驗邊界信息,fi是DEM輸出的多尺度差分變化圖,CBAM是卷積注意力機制模塊。輸入特征fi(1,2,3,4)和fe,對fe進行下采樣操作,使其與fi尺度對齊,再對fi和fe使用跳躍連接和逐元素相乘操作后,通過一個3×3卷積輸出融合后的特征。為了增強特征細節,引入CBAM,通過通道注意力和空間注意力的作用促進特征的局部細節,CBAM輸出的特征與融合后的特征逐元素相乘,再經過一個1×1卷積輸出最終的變化圖特征fi′。
1.6 損失函數
本文使用的損失函數包括了變化檢測分支和邊界引導分支的損失,公式如下:
L=λLDice+LBCE(6)
其中:LDice是監督邊界引導分支的Dice Loss函數;LBCE是監督變化檢測分支的二元交叉熵損失(BCE Loss)函數;λ是預定義的超參數,用于平衡兩個損失函數。在變化檢測任務中,變化像素的數量遠少于未變化像素,Dice Loss函數常用于正負樣本極其不平衡的任務上,在本文中用于邊界引導分支。公式如下:
其中:X為預測為變化的置信度;Y是標簽;∩是X與Y的交集。BCE Loss常用于二分類任務中,變化檢測分為變化和未變化兩類,公式如下:
其中:N是標簽中的像素總數;yi是像素的標簽;p是N個點為正樣本的預測概率。
2 實驗與分析
為了驗證LGC-BGNet在建筑物變化檢測任務上的有效性,選擇在LEVIR-CD[24]和WHU[25]兩個公開數據集與近年來多種先進的變化檢測方法進行比較,并分析比較結果。
2.1 數據集介紹
1)LEVIR-CD數據集 LEVIR-CD數據集的雙時相遙感圖像來源于谷歌地球,其包含了637個超高分辨率(0.5 m/像素)圖像對,每個圖像的大小是1024像素×1024像素,時間跨度為5~14年。這些遙感圖像的土地利用形式具有顯著變化,主要是建筑物,涵蓋了別墅住宅、車庫、高層公寓等各類建筑物,重點關注于密集的小型建筑物。圖像對中存在由季節性變化和光照變化引起的變化,在變化檢測方法中,這可以減輕不相關變化對實際變化的影響。在實驗前將每張圖像裁剪成16張不重疊的256像素×256像素大小,保持原數據集所劃分的訓練集、驗證集和測試集不變。
2)WHU建筑物數據集 WHU建筑物變化檢測數據集是分別于2012年和2016年所拍攝的兩組航空數據,地面空間分辨率為0.3 m,選取了大約1.6萬個建筑物。數據集中存在多種尺度變化較大的建筑物,主要關注大而稀疏的建筑物。在實驗前將原數據集裁剪成7 680張不重疊的256像素×256像素的圖像對,并且隨機以7∶2∶1的比例劃分成訓練集、驗證集和測試集。
2.2 實驗細節和評價指標
本文以PyTorch框架構建LGC-BGNet模型,使用NVIDIA GeForce RTX 2080 12G GPU對其進行訓練。在數據輸入前,對實驗數據進行了數據增強,包括隨機翻轉、高斯模糊和隨機裁剪等。在訓練時,使用了AdamW優化器進行訓練,初始學習率設置為0.000 2,權重衰減為0.01。批量大小設置為8,訓練輪數設置為150。為了保證實驗的可信性,對所有進行比較的方法盡可能使用相同的數據增強操作和超參數。
在實驗中,選擇使用準確率(precision,P)、召回率(recall,R)、F1-score(F1)和交并比(IoU)作為變化檢測任務的主要指標。
其中:TP表示真陽性;TN表示真陰性;FP表示假陽性;FN表示假陰性;P值越高,誤檢率越低;R值越高,漏檢率越低;F1和IoU分別可以表示模型的平均性能和泛化能力。
2.3 對比實驗
為了證明LGC-BGNet方法的有效性,將其與近幾年變化檢測任務的先進方法進行對比,包括STA-Net[24]、SNUNet[8]、BIT[9]、ChangeFormer[10]和EGCTNet[16],對比實驗結果如表1所示。
LGC-BGNet在LEVIR-CD數據集上P和R分別達到了91.66%和90.83%,F1和IoU分別達到了91.25%和83.90%,相比于EGCTNet,LGC-BGNet的R、F1和IoU指標分別提高了1.62%、0.57%、0.95%。在WHU數據集上P和R分別達到了92.84%和89.76%,F1和IoU分別達到了91.27%和83.95%,相比于EGCTNet,LGC-BGNet的R、F1和IoU指標分別提高了1.68%、0.57%、0.97%。從實驗數據可知,LGC-BGNet在召回率上提升較多,所以其F1和IoU指標均取得了最優的結果。總之,LGC-BGNet方法在兩個數據集上均取得了優秀的實驗結果,在密集的小型建筑物和稀疏的大型建筑物上的檢測精度優于之前的幾種方法,驗證了其優異的泛化能力。
圖7所示是各個方法在兩個數據集實驗的部分可視化結果。第1~4行是LEVIR-CD數據集的結果,第5~7行是WHU數據集的結果。STANet和SNUNet方法未引入Transformer結構,相比于其他方法,難以檢測到完整的大型建筑物變化信息。然而,從第1、3、5、6行可知,BIT、ChangeFormer和EGCTNet方法雖然可以提取較為完整的全局表示,但是仍然存在局部細節丟失的問題。從第2~4行的框中可以看到,在密集分布的小型建筑物上,LGC-BGNet檢測出更精細的局部細節信息,第7行顯示其相比于其他方法,可以顯示更完整、平滑的建筑物邊界結構。綜上所述,LGC-BGNet結合了CNN和Transformer的優點,在小型建筑物和大型建筑物中的檢測結果均表現優異,不僅識別出了完整的全局信息,且在局部細節信息上更加精細,建筑物邊界比其他方法更加突出。
2.4 消融實驗
為了驗證LGC-BGNet模型中的LGCM、DEM和邊界引導分支的有效性,本文在LEVIR-CD和WHU數據集上進行消融實驗。Baseline使用并行的ResNet和Transformer編碼器用于提取圖像特征,其局部特征和全局特征的耦合方式為簡單求和,并設計了三組比較實驗。LGCNet組實驗在baseline上增加LGCM模塊,LGCNet2組在LGCNet組的基礎上使用了DEM,最后一組就是完整的LGC-BGNet。其結果如表2所示。黑體加粗表示結果最優。
通過表2可知,LGCNet組在baseline基礎上增加LGCM模塊后,在LEVIR-CD數據集上準確率和召回率分別提升了1.13%和0.72%,在WHU數據集上準確率和召回率分別提升了0.84%和0.65%。LGCM對局部特征與全局特征進行交互耦合,不僅減少了噪聲干擾,還保留了局部細節特征和全局上下文信息,所以有效地降低了誤檢率和漏檢率。LGCNet2引入了DEM模塊,相比于LGCNet,在LEVIR-CD數據集上準確率和召回率分別提升了0.41%和0.42%,在WHU數據集上準確率和召回率分別提升了0.95%和0.20%,這表明了DEM增強雙時相特征差分信息的有效性。LGC-BGNet組在引入邊界引導分支后,在LEVIR-CD數據集上召回率、F1和IoU分別提升了1.52%、0.73%和1.21%,準確率下降了0.1%;在WHU數據集上召回率、F1和IoU分別提升了1.00%、0.43%和0.74%,準確率下降了0.18%,這表明先驗邊界信息引導變化圖關注邊界特征,有效地降低了漏檢率,所以召回率大幅度提升,而準確率略微降低是因為先驗邊界信息會引入一些噪聲,但是在兩個不同的數據集上總體性能還是取得較大的提升,有效地證明了邊界引導分支的泛化能力。圖8所示為消融實驗對比結果。在baseline的結果中,從第1、2行中可以看到,對于密集建筑物存在一些局部細節的缺失,從第3~5行可知,在大型建筑物檢測上存在著全局信息不完整的問題。LGCNet組實驗結果所示,引入LGCM模塊的LGCNet在局部細節和全局上下文信息的完整性上都優于baseline,驗證了LGCM模塊的有效性。從LGCNet2組實驗可知,增加了DEM模塊后,檢測出的變化區域更加完整。從LGC-BGNet組的第1和2行突出顯示中可知,增加邊界引導分支后,增強了變化對象的邊界結構細節,從第3~5行可知,檢測出了更完整的變化區域,降低了漏檢率,驗證了邊界引導分支的有效性。
3 結束語
針對高分辨率遙感圖像的建筑物變化檢測任務,本文設計了一種基于局部-全局特征耦合與邊界引導的LGC-BGNet模型。其中設計的局部全局耦合模塊通過對并行的局部特征和全局特征進行交互、耦合,促進了模型的特征表示;設計的差分增強模塊能夠有效地增強雙時相特征的差異信息;引入邊界引導分支提取的先驗邊界特征,有效地降低了漏檢率,并且在小型密集的建筑物和大型稀疏建筑物上都表現良好。
盡管LGC-BGNet在LEVIR-CD和WHU數據集上都取得了良好的結果,但是也存在一定的局限性。由于設計了多個結構化模塊,使用了許多注意力機制,增加了模型的復雜度,提高了一定的計算量,日后的研究工作中,在保證模型性能的前提下,本文將優化模型結構以降低計算量。
參考文獻:
[1]Qin Rongjun, Tian Jiaojiao, Reinartz P. 3D change detection-approaches and applications[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2016, 122: 41-56.
[2]Wen Dawei, Huang Xin, Bovolo F, et al. Change detection from very-high-spatial-resolution optical remote sensing images: methods, applications, and future directions[J]. IEEE Geoscience and Remote Sensing Magazine, 2021,9(4): 68-101.
[3]Zhu Qiqi, Guo Xi, Deng Weihuan, et al. Land-use/land-cover change detection based on a siamese global learning framework for high spatial resolution remote sensing imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2022, 184: 63-78.
[4]陳璐, 管霜霜. 基于深度學習的城市高分遙感圖像變化檢測方法的研究[J]. 計算機應用研究, 2020, 37(S1): 320-323. (Chen Lu, Guan Shuangshuang. Research on change detection method of urban high-resolution remote sensing image based on deep learning[J]. Application Research of Computers, 2020,37(S1): 320-323.)
[5]Yang Chao, Xia Rongling, Li Qingquan, et al. Comparing hillside urbanizations of Beijing-Tianjin-Hebei, Yangtze River Delta and Guangdong-Hong Kong-Macau greater Bay area urban agglomerations in China[J]. International Journal of Applied Earth Observation and Geoinformation, 2021,102: 102460.
[6]Zheng Hanhong, Gong Maoguo, Liu Tongfei, et al. HFA-Net: high frequency attention siamese network for building change detection in VHR remote sensing images[J]. Pattern Recognition, 2022, 129: 108717.
[7]Jiang Huiwei, Peng Min, Zhong Yuanjun, et al. A survey on deep learning-based change detection from high-resolution remote sensing images[J]. Remote Sensing, 2022,14(7): 1552.
[8]Fang Sheng, Li Kaiyu, Shao Jinyuan, et al. SNUNet-CD: a densely connected siamese network for change detection of VHR images[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 19: 1-5.
[9]Chen Hao, Qi Zipeng, Shi Zhenwei. Remote sensing image change detection with transformers[J]. IEEE Trans on Geoscience and Remote Sensing, 2021, 60: 1-14.
[10]Bandara W G C, Patel V M. A transformer-based siamese network for change detection[C]//Proc of IEEE International Geoscience and Remote Sensing Symposium. Piscataway, NJ: IEEE Press, 2022: 207-210.
[11]Peng Zhiliang, Huang Wei, Gu Shanzhi, et al. Conformer: local features coupling global representations for visual recognition[C]//Proc of IEEE/CVF International Conference on Computer Vision. Pisca-taway, NJ: IEEE Press, 2021: 357-366.
[12]Zhang Yundong , Liu Huiye , Hu Qiang . Transfuse: fusing transformers and CNNs for medical image segmentation[C]//Proc of the 24th International Conference on Medical Image Computing and Computer Assisted Intervention. Cham: Springer, 2021: 14-24.
[13]Zhou Yuan, Chen Zhanlong, Wang Bin, et al. BOMSC-Net: boun-dary optimization and multi-scale context awareness based building extraction from high-resolution remote sensing imagery[J]. IEEE Trans on Geoscience and Remote Sensing, 2022, 60: 1-17.
[14]Bai Beifang, Fu Wei, Lu Ting, et al. Edge-guided recurrent convolutional neural network for multitemporal remote sensing image building change detection[J]. IEEE Trans on Geoscience and Remote Sensing, 2021, 60: 1-13.
[15]Yang Bingjie, Huang Yuancheng, Su Xin, et al. MAEANet: multiscale attention and edge-aware siamese network for building change detection in high-resolution remote sensing images[J]. Remote Sensing, 2022,14(19): 4895.
[16]Xia Liegang, Chen Jun, Luo Jiancheng, et al. Building change detection based on an edge-guided convolutional neural network combined with a transformer[J]. Remote Sensing, 2022,14(18): 4524.
[17]Sun Yujia , Wang Shuo, Chen Chenglizhao, et al. Boundary-guided camouflaged object detection[EB/OL]. ( 2022-07-02). https://arxiv.org/abs/2207.00794.
[18]He Kaiming, Zhang Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2016: 770-778.
[19]Chen L C, Papandreou G, Kokkinos I, et al. DeepLab: semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2017, 40(4): 834-848.
[20]朱節中, 陳永, 柯福陽,等. 基于Siam-UNet+的高分辨率遙感影像建筑物變化檢測[J]. 計算機應用研究, 2021, 38(11): 3460-3465. (Zhu Jiezhong, Chen Yong, Ke Fuyang, et al. High resolution remote sensing image building change detection based on Siam-UNet+[J]. Application Research of Computers, 2021,38(11): 3460-3465.)
[21]Sunkara R, Luo Tie. No more strided convolutions or pooling: a new CNN building block for low-resolution images and small objects[C]//Proc of Joint European Conference on Machine Learning and Know-ledge Discovery in Databases. Cham: Springer, 2022: 443-459.
[22]Woo S, Park J, Lee J Y, et al. CBAM: convolutional block attention module[C]//Proc of European Conference on Computer Vision. Cham: Springer, 2018: 3-19.
[23]Hu Jie, Shen Li, Sun Gang. Squeeze-and-excitation networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2018: 7132-7141.
[24]Bi Hongbo, Lu Di, Zhu Huihui, et al. STA-Net: spatial-temporal attention network for video salient object detection[J]. Applied Intelligence, 2021, 51: 3450-3459.
[25]Ji Shunping, Wei Shiqing, Lu Meng. Fully convolutional networks for multisource building extraction from an open aerial and satellite imagery dataset[J]. IEEE Trans on Geoscience and Remote Sensing, 2018, 57(1): 574-586.