

中圖分類號:TP391 文獻標志碼:A
Abstract: Deep learning-based methods,particularly those employing Siamese network structure,are widely used in remote sensing image change detection.However,extensive experiments reveal that these methods often suffer significant performance degradation when the order of input images is altered.Notably,the ChangeFormer method exhibitsa 79.86% drop in the intersection over the union (IoU)metric on the LEVIR-CD dataset, indicatingalackof chronological robustnessthatseverely impacts the practicalutilityof thechange detection model. To address this issue,this article proposes a novel change detection methodcalled chronologic invariant network (CINet),which integrates chronological alignment module and cros-layer feature mixing module.During the feature extraction phase,a chronological alignment module is introduced.This moduleemploys spatially cross-mix feature maps and chronologic reconstruction to reduce temporal information discrepancies between the two branches atthe featurelevel.Additionally,across-layerfeature mixing module isdesigned to blenddeepandshalow features using a full-scale connectionand diference-guided approach,effectivelyutilizing feature information from every layer of both branches to improve change detection accuracy under varying input sequences.Experimental results on the LEVIR-CD dataset show that CINet achieves a recall of 90.63% and an IoU of 84.13% ,which represent improvements of1.83 percentage pointsand1.65 percentage points over ChangeFormer,respectively.Results from multipledatasets further demonstrate that the proposed method consistently maintains high change detection performance and robust chronological invariance,even when the order of input images is altered,outperforming other methods.
Key words :remote sensing image; change detection; Siamese network; chronological alignment
遙感影像變化檢測通過分析同一地理區域不同時間點的地理空間數據,識別該區域的變化范圍[1],是遙感技術中的一項重要課題.作為監測地表變化的重要手段,遙感影像變化檢測在環保監測[2]、災害預警3]、地圖更新[4]等多個應用場景中發揮著關鍵作用.
早期的遙感影像變化檢測使用差分法、分類后比較法、回歸分析法等方法進行檢測[5.然而,隨著遙感數據量的增加和圖像分辨率的提高,這些傳統方法愈加難以應對如此復雜的數據和任務,相比之下,深度學習憑借其端到端的結構優勢,不僅大幅降低了變化檢測任務研究的復雜性,而且顯著提高了檢測方法的準確性,為復雜場景下的遙感影像變化檢測帶來了重大突破.
近年來,基于深度學習的變化檢測模型通常采用雙分支網絡架構.例如,Caye等人提出的全卷積孿生網絡模型FC-Siam-Conc和FC-Siam-Diff.前者由于將特征圖拼接,計算量較大;后者用特征圖差值,雖降低了計算量,但損失了部分特征信息.Zhang等人[8]提出雙流網絡模型IFN,將特征圖輸入判別網絡來提取差異特征,但該模型未能充分利用雙時相遙感影像的上下文關系,在地物類型復雜時容易出現誤檢、漏檢.注意力機制能夠擴大網絡的感受野,有些研究以此提高模型性能.例如,Chen等人提出了多尺度時空注意力機制,使用度量的方式生成變化檢測結果;Fang等人[o提出的SNUNet采用了集成通道注意力模塊,有效緩解了淺層特征融合較差的問題.雖然基于注意力機制的方法增強了卷積神經網絡捕捉全局細節的能力,但在像素空間關系建模方面仍顯不足,難以充分利用雙時相遙感影像的遠程細節信息和長距離依賴關系.隨著Transformer在自然語言處理領域的成功應用,不少研究者將其應用到遙感影像變化檢測.例如, BIT[11] 和ICIF- ?Net[12] 方法將卷積神經網絡與Transformer方法結合.不同的是,BIT采用串行方式,將卷積神經網絡提取的特征送入Transformer進一步捕捉全局信息;而ICIF-Net是并行結構,使用卷積神經網絡和Transformer同時提取遙感圖像的特征.ChangeFormer[13]則是一種基于Transformer的孿生網絡變化檢測方法.盡管這些結合Transformer的方法取得了較好的性能,但易受復雜背景干擾,未能充分地利用多層級特征圖,導致精度受到一定影響.
在上述方法的模型訓練中,輸入通常是數據集中變化前和變化后的一組遙感圖像對,模型輸出的往往是精度較高的二值變化結果圖.其中,數據集固定的圖像輸人順序為正時序,即輸人T1時相到T2時相兩個時間點的遙感圖像數據.與之相對,反時序是指輸入T2時相到T1時相兩個時間點的遙感圖像數據.然而,當模型在測試階段輸人反時序的遙感圖像對時,輸出的結果出現了不同程度的惡化,如圖1所示.
針對上述問題,本文提出一種結合時序對齊與跨層特征混合的遙感影像變化檢測方法CINet(chronologicinvariantnetwork).本文主要工作如下:
1)首先,通過大量實驗,證實了目前多數基于孿生網絡的遙感影像變化檢測方法存在改變雙時相遙感影像的輸入順序后,變化檢測模型的結果表現不佳這一問題.
2)其次,提出一種結合時序對齊與跨層特征混合的變化檢測方法CINet.通過設計的時序對齊模塊和跨層特征混合模塊,充分混合雙時相遙感影像的時序信息和多層級特征,進一步提高特征圖利用率,減少噪聲和復雜背景干擾,生成對時序具有更強魯棒性的特征圖.
3)最后,在多個遙感數據集上的實驗結果顯示:CINet相較于其他方法具有更優的檢測性能和更強的時序魯棒性,能夠在改變輸入圖像順序后仍取得良好的變化檢測結果.
圖1ChangeFormer模型在LEVIR-CD數據集上的可視化結果Fig.1VisualizationresultsofChangeFormermodel ontheLEVIR-CDdatase

1遙感圖像輸入順序分析
為了進一步探究圖像輸入順序對變化檢測模型結果的影響,本文使用8種基于深度學習的遙感變化檢測方法在不同遙感數據集上進行了實驗.實驗結果如圖2和圖3所示,令人驚訝的是,當輸入反時序的雙時相遙感影像時,這些模型的性能指標均出現顯著下降.
實驗結果清晰地表明,無論是基于卷積神經網絡的還是結合Transformer方法的變化檢測模型,在正時序場景下均能取得較高的變化檢測精度,但在反時序場景下評價指標大幅下降,嚴重影響了變化檢測模型在遙感場景中的實用性.目前對此現象的相關研究較少,文獻[14]指出FC-EF-Res模型也存在這一問題,但并未證實此問題的普遍性.
模型輸入反時序的雙時相遙感影像,從實際場景的角度來看,盡管變化方向不同,但最終的變化檢測結果應當一致.例如,在建筑物變化檢測中,若在變化前的圖像T1中某處為空地,而在變化后的圖像T2中該區域出現了建筑物,即為新增建筑;反時序時,T2中的建筑物在T1中變為空地,即為拆除建筑.模型理應能夠識別此處為變化區域.然而,實驗結果顯示,多數變化檢測模型在此情況下無法有效地識別其為變化區域,評價指標大幅下降.這表明需要進一步改進模型,提高模型對輸入時序的魯棒性,
圖2在LEVIR-CD數據集上不同檢測方法輸出結果的F1 分數和交并比(IoU)

圖3在DSIFN數據集上不同檢測方法輸出結果的F1 分數和交并比
Fig.3 F1 andIoU of results fromdifferent methods on theDSIFN dataset

目前多數變化檢測模型以權重共享的孿生網絡為編碼器,即對T1圖像和對T2圖像進行特征提取的網絡權重相同.在提取特征后,通常采用特征拼接的方式處理特征差異圖,表示如下:
(1)式中: Cat 表示特征拼接操作; FT1?FT2 表示編碼器對兩幅圖像提取的特征;Active表示激活函數; Norm 表示歸一化操作; Conv 表示卷積.
特征拼接通常將兩個時相的特征圖沿通道維度進行連接,能夠較好地保留特征圖的完整信息.但也正因為這種方式,模型將正時序特征和反時序特征拼接后的結果視為兩個截然不同的特征圖,使得模型在改變輸入順序后難以精確地識別出變化區域,從而出現變化檢測精度下降的現象,如圖4所示.
圖4ChangeFormer在正時序和反時序的熱圖對比 Fig.4Comparison of heatmapsof ChangeFormer model in normal chronology and anti-chronology

2本文方法
2.1整體網絡結構
在遙感場景中,雙時相遙感影像中的地物目標通常呈現出尺度和形態的多樣性,加大了變化檢測任務的難度.且受到光照、土壤類型等因素干擾,兩幅遙感圖像往往存在顯著的圖像風格差異.這導致改變圖像輸人順序后,多數模型難以準確檢測到變化的地物目標.
因此,本文受ChangeFormer變化檢測模型結構的啟發,提出了一種結合時序對齊與跨層特征混合的遙感影像變化檢測方法CINet,所提方法的網絡模型整體結構如圖5所示.模型呈現編碼-解碼結構,模型工作時,首先由Transformer構成的多層級編碼器,對遙感圖像中地面變化目標的特征信息進行提取.其中,編碼器通過提出的時序對齊模塊,使雙時相遙感影像在特征層面充分混合,縮小兩幅遙感圖像之間的數據分布距離,以緩解反時序對變化檢測結果的影響.然后,通過設計的跨層特征混合模塊,更有效地將編碼器提取的淺層特征與深層特征進行混合,充分利用雙時相遙感影像的空間幾何特征和時序物候特征,從而進一步提高模型對多層級特征圖的利用率.最后,通過轉置卷積解碼器和分類器,實現變化區域和非變化區域的區分.
2.2編碼器
CINet采用文獻[15]中的TransformerBlock作為主干網絡(Backbone),用于提取雙時相遙感影像的特征.相較于卷積神經網絡,該方法得益于自注意力機制,可以計算像素塊間的全局相關性,因此具有更大的有效感受野和更強的上下文建模能力.編碼器采用分層結構,通過不同大小和步長的卷積將圖像下采樣為四個尺度,分別對應四個階段,在每個階段內通過TransformerBlock提取不同大小的特征.這種層次化架構能夠生成兼具高分辨率空間細節特征與低分辨率語義特征的多層級特征圖,有效提升變化檢測的性能.
考慮到遙感影像變化檢測數據集通常規模有限,而Transformer方法在數據集圖像數量較少時難以獲得較好的特征表示能力[,因此本文采用了有預訓練權重的主干網絡.盡管預訓練階段未對變化檢測任務進行特定優化,但在處理顏色、紋理等視覺特征方面具有通用性i8.其中,紋理特征通過刻畫像素與周圍環境的空間關系,能夠更好地表征地物的內部結構,這對變化檢測任務具有重要意義[19].
2.3時序對齊模塊
囿于遙感影像在空間、光譜上的異質性[2],即使是同一地區的圖像,由于獲取時間和條件的不同,其數據分布也可能存在顯著差異,具體表現為地物光譜響應曲線的偏移、圖像統計特性的變化等.這種差異使得穩定的特征匹配關系難以建立.同時,反時序改變了特征差異的方向性,而模型訓練時往往隱式地學習了正時序的變化模式,難以有效泛化到反時序的變化特征,導致預測結果不佳.
為了克服上述不足,本文受特征交互思想2的啟發,提出一種時序對齊模塊,如圖6所示.該模塊基于變化檢測中的基本假設:任一像素或區域在兩個時間點上僅存在“變化\"或“未變化\"兩種狀態.當像素值或空間特征發生顯著變化時,無論時間順序如何,均被視為變化.
該模塊中,首先將第 i 階段輸入的T1、T2圖像特征重塑(Reshape)為 IT1i?IT2i∈Hi×Wi×Ci, 其中特征圖的高度為 Hi 、寬度為
通道數為 Ci. 隨后,按照圖中所示方式在空間維度上進行交叉混合,交換特征映射,從而得到混合后的特征圖 MT1i?MT2i∈Hi× Wi×Ci
圖6時序對齊模塊
Fig.6 Chronologicalalignmentmodule

然而,這種時序間的特征混合可能引入額外的噪聲.為減輕這種噪聲和復雜背景對Transformer序列化操作的影響,本模塊對輸入的特征圖生成聚合全局變化信息的變化線索 Ci. 該變化線索具有時序不變性,能夠有效地對雙時相遙感影像中的固有變化特征進行建模.簡單起見,使用絕對差值計算變化線索:

式中:GAP為全局平均池化(globalaveragepooling)操作.GAP可以將 C 個形狀為 Hi×Wi 的變化特征圖的全局信息壓縮為 1×1×C 形狀的數列,其中的每個實數計算方式如下:

式中: xc(m,n) 表示第 c 個變化特征圖對應位置的值.
得到的變化線索用于后續的時序重建.為了將特征圖與變化線索的特征表示對齊在同一空間,使用可學習參數的投影函數對特征圖進行變換,這里使用簡單的 1×1 卷積層實現,表示如下:
PT1i=ReLU(BN(Conv(IT1i)))
式中:ReLU為激活函數;BN為批歸一化(batchnor-malization,BN)操作 .IT1i 通過投影函數,得到特征圖投影后的 PT1i ,用同樣的方式計算 PT2i
投影后得到的兩個特征 PTi 與 PT2i 分別與變化線索 Ci 進行相似度計算,得到關系 ri=Sim(Pi,Ci) ,此處相似度估計函數 Sim(?,?) 采用點積實現,以提高計算效率.
最后,通過關系 ri 來對混合后的特征圖 Mi 進行時序重建,重建后的特征映射 Oi 計算方式如下:

式中:
為可學習的權重參數.
時序對齊模塊與TransformerBlock在編碼階段交替應用,能更好地減小雙時相特征的時序差異.這有助于網絡從復雜的數據中學習到更豐富的特征表示,同時通過時序重建降低了模型對于輸入時序的依賴,增強時序魯棒性,使其對反時序有更好的泛化能力.
2.4跨層特征混合模塊
受光照條件和季節變化的影響,不同時相中的地面目標常呈現弱邊緣特征,這使得簡單的特征融合策略難以充分利用多個層級特征圖.文獻[22]在目標檢測任務中舍棄了淺層特征,認為深層特征具有更高級、更豐富的語義信息.而文獻[23]指出,在遙感變化檢測中,深層特征有助于變化目標的定位,而淺層特征則包含豐富的細節信息,對區分不同地物類型的邊界至關重要.傳統的特征融合方法主要局限于單一時相圖像的特征融合,未能充分利用雙時相遙感影像的空間幾何特征和時序物候特征,導致出現時序差異.
為了克服上述不足,本文提出一種跨層特征混合模塊.如圖7所示,該模塊通過全尺度連接結構和差異信息引導,實現在多個層級上充分混合T1、T2雙分支所提取的淺層和深層特征.這種設計能夠有效利用不同層級中與變化目標相關的上下文信息,提升多尺度特征圖的利用效率,從而減少時序差異,提高時序魯棒性.
特征金字塔結構能夠使不同層級的特征圖識別不同尺度的目標[23.因此,該模塊在不同階段的多個層級間進行特征混合,使得每個階段的特征圖能夠有效聚合來自其他層級的、與目標相關的上下文特征,從而緩解特征在逐層傳遞過程中的信息衰減,生成更豐富、更精細的特征表示.此外,通過在各階段引入另一時相的特征信息,利用差異信息引導網絡捕獲時相間的空間變化模式.
圖7跨層特征混合模塊圖

圖8詳細展示了該模塊在第二階段的特征混合流程:它利用差異信息引導網絡提取各層級中與變化目標相關的上下文特征,并自適應地聚合兩幅遙感圖像的特征表示,進一步增強了模型對于不同時序的魯棒性.
圖8跨層特征混合模塊在Stage2的特征混合
Fig.8Process of featuremixinginstage2ofcross-layer feature mixing module

具體而言,模塊輸入包括T1圖像在第一階段的特征 FT11 、第二階段特征 FT12 以及T2圖像的第二階段特征 FT22. 首先,為了保持特征形狀一致并減少計算量,對于重塑后的特征 FT11 進行下采樣和通道壓縮.這里使用 1×1 的卷積調整通道數,然后使用大小為3、步長為2的卷積對特征圖進行下采樣,調整至合適的尺寸.對于第二階段特征 FT12 則進行上采樣處理.隨后,使用 3×3 的卷積層處理兩幅圖像特征圖的差異信息 D2=Conv(|FT12-FT22|) ,通過特征疊加突顯變化區域,從而引導網絡更聚焦于變化目標的特征表示.
自適應空間上下文特征能夠有效處理遙感圖像中形狀和尺寸多樣的地面目標邊緣[24].因此,在融合的最后階段,為了充分利用不同層級中的上下文信息來準確定位地面變化目標,將上采樣后的 FT12 與原FT11 進行自適應融合(adaptivefeaturefusion,AFF),生成混合后的 FT11′ ;將下采樣后的 FT11 和 FT12 進行AFF得到 FT12′ 具體而言,AFF首先將輸入特征在通道維度上拼接,通過 1×1 卷積層學習各特征圖的貢獻度,然后使用Softmax函數歸一化后賦予每層適當的權重,從而自適應聚合來自不同層級特征的豐富細節和語義信息.第二階段的自適應融合AFF表示如下:
AFF2(x1,x2)=α2×x1+β2×x2+γ2D2 (6)式中: α2,β2,γ2 表示第二階段的權重參數; x1,x2 表示輸入的特征圖; D2 表示第二階段的差異信息.
此模塊通過跨層級的特征混合,有效傳遞特征信息,使網絡既能利用高層次特征校正地面變化目標的位置,又能以低層次特征的細節區分不同變化目標的邊界.圖9展示了特征可視化熱圖的結果對比,可以看出:與未加入該模塊的結果相比,加入模塊后的建筑物輪廓更加完整、邊界更加清晰,對非變化區域的關注度也更低.
圖9特征可視化熱圖 Fig.9Feature visualization heatmaps

2.5轉置卷積解碼器
在解碼階段,與其他多數模型的做法不同,為了更好地保留關鍵特征信息,緩解正時序特征與反時序特征在拼接后不一致的問題,CINet并未在早期階段將雙時相遙感影像的特征圖進行融合.具體而言,經過跨層特征混合模塊處理后的特征圖分別送入圖5所示的轉置卷積解碼器處理,隨后進行最終分類.
為了克服傳統上采樣方式中重復像素或插值法導致的模糊、鋸齒問題,解碼器中采用了轉置卷積.該方法有效利用像素的空間鄰域關系,將低分辨率的特征圖更有效地重建為高分辨率的特征圖,以提高模型二分類的最終準確性.
3實驗結果與分析
3.1實驗環境設置
實驗基于PyTorch框架,使用NVIDIARTX4080Super顯卡加速運算.模型訓練時,使用在Ima-geNet數據集上的預訓練權重來初始化網絡,采用二元交叉熵損失訓練模型,使用AdamW作為優化器,學習率設置為0.004,衰減系數為0.01,批數量大小為16,訓練周期為200輪.
3.2數據集
為了測試CINet的性能,本文采用了不同場景的公開遙感數據集:LEVIR-CD和DSIFN數據集.
LEVIR-CD數據集是GoogleEarth收集的美國得克薩斯州幾個城市的637對高分辨率(0.5米/像素)圖像對,尺寸為 1024×1024 像素,涵蓋了不同季節、光照條件的多種類型的建筑.該數據集主要用于建筑物變化檢測任務,單個變化實例的變化區域一般較小.本實驗中將LEVIR-CD數據集中的圖像裁剪為不重疊的 256×256 像素的圖像,將其按原比例分為:7120張圖像的訓練集、1024張的驗證集和2048張的測試集.
DSIFN數據集[8同樣是GoogleEarth收集的遙感變化檢測數據集,包括中國北京、深圳、成都、重慶、武漢、西安六個城市的394個雙時相圖像對,尺寸大小為 512×512 像素.該數據集經過數據增強擴充數量,包含大小各異的變化實例,變化區域平均發生在大尺度范圍.本實驗中將DSIFN數據集中的圖像分為:3600張的訓練集、340張的驗證集和48張的測試集.
3.3評價指標
采用遙感影像變化檢測中常用的四項指標來定量評估本次的實驗結果,分別是精確率 P (preci-sion)、召回率 R(recall)?F1 分數和交并比(IoU).計算公式如下:


式中:TP表示圖像中實際發生變化并且被正確檢測出的像素數量;FP表示圖像中實際未發生變化但被錯誤地檢測為變化的像素數量;FN表示圖像中實際發生了變化但被錯誤地檢測為未變化的像素數量.
3.4實驗結果
為了驗證CINet(本文方法)的性能,本實驗將其與多個具有代表性的基于深度學習的遙感影像變化檢測方法進行了對比實驗.
表1呈現了在LEVIR-CD數據集上不同變化檢測方法的評價指標比較,其中最優指標以加粗突出顯示.實驗結果表明,CINet在召回率
分數和交并比指標上的表現均優于其他變化檢測方法,證明了本方法的有效性.IFN方法在精確率上表現最佳,達到 94.02% ,但其他指標稍遜一籌.時序對齊模塊和跨層特征混合模塊的加人提升了多項評價指標.在正時序的場景下,相較于ChangeFormer方法,CINet的精確率、召回率
分數和交并比分別提高了0.09個百分點、1.83個百分點、0.98個百分點、1.65個百分點,改進效果在圖10的變化檢測可視化結果中得到了直觀體現.在反時序場景中,本方法的各項評價指標大幅領先于其他方法,能夠保持良好的變化檢測性能,其效果也可以在圖11中觀察到.
表1在LEVIR-CD數據集上不同方法的變化檢測結果的評價
Tab.1Evaluationof change detectionresultsof different methodson LEVIR-CDdataset

圖10不同方法在LEVIR-CD數據集上正時序的可視化結果
Fig.1OVisualizationresults of different methods innormal chronologyonLEVIR-CDdataset

圖11不同方法在LEVIR-CD數據集上反時序的可視化結果

值得注意的是,圖12展示了圖10中第一行樣本的詳細分析.樣本中,上方圈出區域為拆除建筑物(T1時相存在,T2中被拆除),下方圈出區域為新增建筑.在正時序情況下,大多數模型無法完整識別出上方的拆除建筑,但能識別下方的新增建筑;而在反時序時,多數模型卻能較好地識別上方的新增建筑.這一現象表明,多數模型僅能識別單一方向的變化,對于反時序場景的魯棒性較差.相比之下,CINet在正時序、反時序場景下均能準確識別圖中變化區域.
對于圖10中第二行樣本,多數方法能識別出較大的建筑物變化區域,但由于T2建筑物大小不一且存在陰影干擾,BIT和ChangeFormer的結果出現了誤檢,其他方法也因建筑物較小出現不同程度的漏檢,而本文方法漏檢情況相對較少.第三行樣本中,建筑物間隔較小,其他方法均出現嚴重漏檢,而本方法對邊界分割更加清晰.第四行樣本中,建筑物輪廓較為復雜,BIT和ICIF-Net出現大面積漏檢,僅本方法能較為完整地分割建筑物.第五行樣本中,SNUNet出現漏檢,IFN的建筑物輪廓不夠完整,其他方法因圖像明顯差異而導致結果粗糙,ICIF-Net和本方法的結果較為完整.最后一行樣本中,由于建筑物顏色不同且房頂有較多紋理,其他方法均誤判為變化建筑物,僅有本方法正確識別為未變化區域,
圖12實驗中第一組結果對比
Fig.12 Thefirst set of results comparison

DSIFN數據集的實驗結果如表2所示,本文方法在精確率、召回率
分數和交并比四項指標上均表現最佳,在正時序場景下,相較于ChangeFormer方法,分別提高了1.06個百分點、1.97個百分點、1.54個百分點和2.42個百分點.得益于跨層特征混合模塊,CINet能夠充分利用多層級特征圖,可有效捕獲跨尺度的變化信息,從而提高了模型識別DSIFN數據集中各種尺度變化實例的準確性.
為了進一步探究時序對齊模塊在特征提取不同階段的作用,本文在CINet主干網絡的不同階段加入時序對齊模塊,實驗結果的評價指標對比如表3所示.
表2在DSIFN數據集上不同方法的變化檢測結果的評價
Tab.3Comparisonofchronologicalalignmentmoduleat differentpositionsonLEVIR-CDdataset

實驗結果表明,在CINet主干網絡的第三、四階段集成時序對齊模塊能夠獲得最佳效果.具體而言,在第三階段引入時序對齊模塊時,精確率達到最高(93.23% );而在第三、第四階段同時引入該模塊時,召回率( 90.63% )
分數 (91.38% )和 IoU(84.12%) )均達到最優.
然而,在網絡更早期階段引入時序對齊模塊會導致變化檢測結果指標下降,特別是當模塊應用于主干網絡的第一階段時,評價指標顯著降低.深入分析發現,這主要是由于第一階段提取的淺層特征容易受到圖像噪聲和無關細節的影響,且語義信息較少,不足以有效引導網絡模型準確識別地面變化目標.這一發現凸顯了跨層特征混合模塊的重要性,該模塊能夠有效利用早期階段的低級特征與后續階段的豐富語義特征,從而提高變化檢測的整體性能.
3.5方法效率
表4展示了不同方法的浮點運算次數(floatingpoint operations,FLOPs)和模型參數量(parameters),測試圖像的尺寸為 256×256×3. 從計算效率的角度來看,本文方法的FLOPs為29.46G,相比IFN(82.26G)和SNUNet(50.82G)有顯著降低,分別減少了 64.2% 和 42.0% .在參數量方面,CINet的參數量為 45.23M ,相較于IFN減少了 10.8% ,但明顯高于SNUNet(12.04M)和 BIT(3.55M) )
總體而言,本文的CINet在獲得更好檢測性能的同時也帶來了一定的資源開銷.未來研究可以考慮進一步優化結構,以降低參數量,提高其效率.
表4方法效率對比
Tab.4 Comparison of method efficiency

4結論
1)揭示了現有遙感影像變化檢測方法在時序魯棒性方面存在的不足:多數基于孿生網絡的遙感影像變化檢測方法,在改變雙時相遙感影像的輸入順序時,結果表現不佳.
2)提出了一種結合時序對齊與跨層特征混合的遙感影像變化檢測方法CINet,實現了在反時序場景下對地面變化目標的有效檢測,為提高變化檢測模型的時序魯棒性提供了新的方案.
3)CINet因其獨特的時序對齊模塊和跨層特征混合模塊,能夠有效利用時序信息和多層級特征,相比其他方法展現出更優的檢測性能和更強的時序魯棒性.
盡管本文所提出的方法在實驗中表現出較好的性能,但仍存在一定的局限性.由于采用的Trans-former方法自身計算量較大,所提方法中又存在多處卷積運算,因此模型參數量較大,解決此問題需要對該方法進行更深人的研究.
參考文獻
[1]WOODCOCK C E,LOVELAND T R,HEROLD M,et al. Transitioning from change detection to monitoring with remote sensing: a paradigm shift[J].Remote Sensing of Environment, 2020,238:111558.
[2]CHENCF,SON N T,CHANG NB,et al.Multi-decadal mangrove forest change detection and prediction in Honduras, central America,withlandsatimageryanda Markov chainmodel [J].Remote Sensing,2013,5(12):6408-6426.
[3]MAHDAVI S,SALEHI B,HUANG W M,et al. A PolSAR change detection index based on neighborhood information for flood mapping[J].Remote Sensing,2019,11(16):1854.
[4]WU TJ,LUO JC,ZHOUYN,et al.Geo-object-based land cover map update for high-spatial-resolution remote sensing imagesvia change detection and label transfer[J].Remote Sensing,2020,12(1):174.
[5] 眭海剛,馮文卿,李文卓,等.多時相遙感影像變化檢測方法 綜述[J].武漢大學學報(信息科學版),2018,43(12):1885- 1898. SUIHG,FENGWQ,LI W Z,etal. Review of change detection methodsformulti-temporal remotesensing imagery[J]. Geomatics and Information Science of Wuhan University,2018, 43(12):1885-1898.(in Chinese)
[6]BAI T,WANGL,YIN D M,et al.Deep learning for change detection in remote sensing:a review[J].Geo-spatial Information Science,2023,26(3):262-288.
[7]DAUDT R C,SAUX B L,BOULCH A.Fully convolutional Siamese networks for change detection [C]//2018 25th IEEE International Conference on Image Processing(ICIP).Athens, Greece.IEEE,2018:4063-4067.
[8]ZHANG C X,YUE P,TAPETE D,et al.A deeply supervised image fusion network for change detection in high resolution bitemporal remotesensing images [J]. ISPRSJournalof Photogrammetry and Remote Sensing,2020,166:183-200.
[9]CHEN H,SHI Z W.A spatial-temporal atention-based method and a new dataset for remote sensing image change detection[J]. Remote Sensing,2020,12(10):1662.
[10]FANG S,LI K Y,SHAO JY,et al. SNUNet-CD:a densely connected Siamese network for change detection of VHR images [J].IEEE Geoscience and Remote Sensing Letters,2021,19: 8007805.
[11]CHEN H,QI Z P,SHI Z W. Remote sensing image change detection with transformers[J].IEEE Transactions on Geoscience and Remote Sensing,2021,60: 5607514.
[12]FENG Y C,XU HH,JIANG JW,et al. ICIF-net:intra-scale cross-interaction and inter-scale feature fusion network for Ditemporal remote sensing Images cnange aetecuon LJ」. IELL Transactions on Geoscience and Remote Sensing,2022,60: 4410213.
[13]BANDARA W G C,PATEL V M. A transformer-based Siamese network for change detection [C]//GARSS 2022-2022 IEEE International Geoscience and Remote Sensing Symposium. Kuala Lumpur,Malaysia.IEEE,2022:207-210.
[14]鄭思宇,胡華浪,黃進,等.雙通道孿生網絡在遙感變化檢測中 的應用[J].計算機系統應用,2022,31(3):56-64. ZHENG S Y,HU H L,HUANG J,et al. 2-channel Siamese network for remote sensing change detection [J].Computer Systems and Applications,2022,31(3):56-64.(in Chinese)
[15]XIE EZ,WANGWH,YU ZD,et al. SegFormer: simple and efficient design for semantic segmentation with transformers[J]. Advances in Neural Information Processing Systems,2O21,34: 12077-12090.
[16]CARION N,MASSA F,SYNNAEVE G,et al. End-to-end object detection with transformers[M]//Computer Vision-ECCV2020. Cham:Springer International Publishing,2020:213-229.
[17]DING X H,ZHANG X Y,HAN JG,et al. Scaling up your kernels to 31×31 : revisiting large kernel designin CNNs[C]// 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).New Orleans,LA,USA.IEEE,2022: 11953-11965.
[18]SOWRIRAJAN H,YANG J,NG A Y,et al. Moco pretraining improves representationand transferability of chest X-ray models [C]//Medical Imaging with Deep Learning.Lubeck,Germany, 2021: 728-744.
[19]王建華,秦其明,高中靈,等.加人空間紋理信息的遙感圖像道 路提取[J].湖南大學學報(自然科學版),2016,43(4): 153-156. WANGJH,QINQ M,GAO ZL,et al. Road extraction from high-resolution remote sensing imagery by including spatial texturefeature[J].Journal ofHunanUniversity(Natural Sciences),2016,43(4):153-156.(in Chinese)
[20]柳欽火,曹彪,曾也魯,等.植被遙感輻射傳輸建模中的異質性 研究進展[J].遙感學報,2016,20(5):933-945. LIU Q H,CAO B,ZENG Y L,et al. Recent progresses on the remote sensing radiative transfer modeling over heterogeneous vegetation canopy[J]. Journal of Remote Sensing,2016,20(5): 933-945.(in Chinese)
[21]FANG S,LI KY,LI Z.Changer:feature interaction is what you need for change detection[J].IEEE Transactions on Geoscience and Remote Sensing,2023,61:5610111.
[22]SUN X D,WU P C,HOI S C H.Face detection using deep learning:an improved faster RCNN approach[J].Neurocomputing, 2018,299:42-50.
[23]LI Z L,TANG C,WANG L Z,et al. Remote sensing change detection via temporal featureinteractionand guidedrefinement [J].IEEE Transactions on Geoscience and Remote Sensing, 2022,60:5628711.
[24] ZHANG D,ZHANG H W,TANG JH,et al. Feature pyramid transformer[M]//Computer vision-ECCV 2020.Cham:Springer International Publishing,2020:323-339.
[25]LV Z Y,ZHANG P F,SUN W W,et al.Novel land-cover classification approach with nonparametric sample augmentation forhyperspectral remote-sensing images [J]. IEEE Transactions on Geoscience and Remote Sensing,2023,61: 4407613.