李春堂 李旭
(1.東南大學軟件學院, 南京 210096;2.東南大學儀器科學與工程學院, 南京 210096)
探地雷達(ground penetrating radar,GPR)[1]是一種重要的無損探測工具,可以以回波信號的方式快速檢測目標.基于GPR 的檢測方法由于具有無損檢測的特點,在工程實踐和理論研究領域應用廣泛,已經成為道路缺陷檢測[2-4]、隧道襯砌檢測[5]、地雷檢測[6]等實際場景中無損檢測的首選重要工具.
GPR 反演[7]是根據GPR 掃描數據,估計隱藏目標位置信息,獲取目標介電常數等物理參數的過程,研究人員可以根據反演結果分析待測區域掩埋目標或者缺陷,對于道路養護和交通安全至關重要.GPR 反演算法大致可以分為傳統的反演方法和基于深度學習的反演方法.傳統的GPR 反演方法包括斷層掃描[8]和全波形反演[9]等方法.而基于深度學習的方法由于具有快速高效的特點也得到了學者的廣泛關注與研究.早在2018 年,Alvarez等人[10]就提出了一種基于自編碼器結構的GPR 圖像反演網絡,驗證了深度學習方法應用于介電常數模型重構任務的有效性.接下來Xie 等人[11]采用ü-net 網絡結構用于GPR 圖像反演,根據GPR 圖像得到隱藏目標位置和介電常數信息.2021年,Dai 等人[12]將具有跳躍連接的3D ü-Net 用于建立GPR C-Scan 掃描與三維介電常數圖的映射關系,但其只考慮了1 種土壤背景介質,并且在1 個場景中隱藏目標只有1 個.與此同時,Liu 等人[13]提出了一種名為 GPRInvNet 的深度神經網絡架構,以解決將GPR B 掃描數據映射到地下管道線結構的復雜介電常數圖問題,其采用5 個全連接層進行GPR 每一道數據的壓縮和特征提取以解決GPR 圖像與介電常數圖之間的空間對齊問題.最近Ji 等人[14]提出了PINet 網絡結構進行GPR 圖像反演,其首先利用卷積操作進行時間維度壓縮并提取GPR 圖像的局部特征,然后采用全局特征編碼器進一步提取圖像的全局特征.該方法的反演成像效果相比于GPRInvNet 有所提升,但該方法模型結構中的每個全連接層采用了128 個全連接網絡作為全局特征編碼器增加了模型的復雜性和計算量.并且GPRInvNet 和PINet 都注重研究GPR 特征與介電常數圖的空間對應關系,忽略了GPR 圖像精細化特征圖的獲取,在反演性能方面存在一定的改進空間.
此外,在深度學習領域,網絡結構的改進往往可以更好地提取圖像特征,使得利用深度學習技巧對上述GPR 圖像反演方法進行改進,提高反演性能成為了可能.如殘差網絡結構[15]不僅解決了隨著網絡層數增加模型發生退化的問題,而且采用殘差連接可以融合低級和高級特征,使得網絡可以更好地訓練與學習.并且深度學習領域中的注意力機制使得模型可以更好地提取全局語義信息以提高網絡性能.注意力機制受人類視覺感知系統啟發,是一種能夠選擇性地關注特征圖中重要信息的神經網絡建模方法.采用注意力機制可以指導深度神經網絡重點關注隱藏目標在GPR 圖像中呈現的雙曲線特征,從而更好地提取目標特征并帶來反演性能上的提升.近年來,在深度學習領域,注意力機制已經得到了快速的發展,越來越多的研究人員致力于注意力機制的研究之中.具體地,Hu 等人[16]提出了一種通道級注意力網絡SENet,首先采用全局池化的方式獲取具有全局感受野的通道特征,然后采用通道壓縮和激勵模塊建模通道間的相互依賴關系,并且成功應用于圖像分類領域.Woo 等人[17]在此基礎上提出了一種輕量級的卷積塊注意力模型(convolutional block attention model, CBAM),進一步探索了通道級注意力和空間級注意力結合的特征精細化方式.之后,Wang等人[18]認為SENet 中通道壓縮方式并不是必要的,于是將SENet 中的通道壓縮和激勵模塊用局部化的全連接替換,提出了一種更有效的通道級注意力網絡ECA-Net.但是原始的殘差網絡結構主要針對三通道圖像特征提取設計,對于單通道GPR 灰度圖的特征提取存在冗余.同時,上述注意力機制建模方法大多采用通道壓縮的方式建模通道注意力,增加了模型復雜性,并且僅通過全局池化來獲取全局描述符也容易丟失特征信息.
因此在本文中,我們將改進的殘差網絡結構和注意力機制引入到GPR 圖像反演領域,針對實際工程檢測應用中涉及到的多種土壤介質、目標介質、目標尺寸和位置場景,提出了一種新的深度神經網絡結構InvNet 以完成從GPR 圖像到介電常數圖的反演和重建任務.調整原始殘差網絡的輸入、擴展通道以及網絡層數作為InvNet 的全局特征殘差編碼器以更好地適應GPR 灰度圖的特征提取,并將全局特征殘差編碼器與時間維度卷積結合組成InvNet 的主干特征提取網絡.針對現有注意力機制中全局池化操作容易丟失信息和通道壓縮增加了模型復雜度的問題對現有注意力機制進行改進,并將其作為InvNet 的語義提取模塊,實現了GPR 圖像反演性能的提升.此外,將InvNet 與其他反演網絡算法進行了對比分析,在基于時域有限差分數值模擬法構建的通用GPR 圖像反演數據集上驗證了所提方法的適用性和優越性.
GPR 通常配備一個發射器和一個接收器用于發射和接收電磁波,圖1 展示了一個簡化的GPR探測模型,背景和目標的介電常數分別用 ε1和 ε2表示,發射器和接收器沿著測線方向移動,按照一定的采樣間隔可以得到多道A-Scan 時序掃描信號,將獲得的A-Scan 進行整合并且利用數據可視化技術將GPR 回波信號轉化為B-Scan 掃描圖像,來直觀、清晰地顯示出被測隱藏物體的信號特征.上述GPR探測模型可以表示為

圖1 GPR 探測模型Fig.1 GPR detection model
式中:H表示GPR 信號物理傳播過程;x表示地表以下介電常數分布圖;X表示介電常數分布空間;y則表示對應的B-Scan 圖像;Y表示B-Scan 圖像所在空間.
一般而言,GPR 反演是根據獲得到的B-Scan 重構出地表以下物體介電常數、電導率和含水率等物理性參數的過程.不失一般性,將介電常數作為隱藏物體的屬性,對隱藏目標和背景的介電常數進行估計.在介電常數模型圖中用不同的顏色表示不同的介電常數,圖2 展示了本文研究的GPR 反演演示圖,可以看出不同的目標形狀和目標材料都將影響BScan 掃描信號特征,采用人力處理方法很難重構出地表以下的介電常數分布情況.

圖2 GPR 反演演示圖Fig.2 Demonstration of GPR inversion
為了完成從GPR 掃描圖像到介電常數圖的非線性映射,將GPR 反演問題轉換為采用深度學習和梯度下降方法求解下式中的優化問題:
式中:N為數據集的大小;L為損失函數; θ為模型所需要的參數.
目前,已有的深度學習反演網絡對于多種土壤介質、目標介質、目標尺寸和位置等場景下的GPR 圖像反演在成像質量和效率方面表現不佳,其原因主要包括特征提取不完善、全連接網絡的引入增加了模型的參數量和計算量等.因此為了充分利用GPR 圖像特征,提高反演性能,我們基于深度學習技術和GPR 工作特性提出了如圖3 所示的GPR 圖像反演網絡InvNet.

圖3 InvNet 網絡結構Fig.3 The network structure of InvNet
InvNet 主要包含主干特征提取網絡、注意力語義提取模塊以及介電常數解碼器3 個部分.受PINet網絡中時間維度局部特征提取方法的啟發并結合GPR 時間維度采樣頻率高的特點,將時間維度特征編碼器和全局特征殘差編碼器作為InvNet 的主干特征提取網絡對GPR 圖像進行時間維度和全局特征提取.采取串聯的通道注意力與空間注意力作為InvNet 的注意力語義提取模塊以加強特征的提取,為GPR 圖像反演提供精細化的語義特征圖.但是我們認為CBAM 中的通道注意力采用了通道壓縮與恢復的方式獲取通道級語義信息增加了模型復雜度,并且CBAM 中采用自適應最大池化和平均池化獲取全局描述符,容易造成全局信息丟失.因此我們提出了改進的通道注意力以及空間注意力以更好地提取GPR 圖像的全局語義信息,完成復雜道路場景下的GPR 圖像反演任務.最后介電常數解碼器則負責對接收到的特征圖進行上采樣,并重構出模型介電常數圖.
主干特征提取網絡由時間維度特征編碼器和全局特征殘差編碼器組成,時間維度編碼器負責提取GPR 圖像時間維度局部特征,全局特征殘差編碼器負責提取GPR 全局特征.由于GPR 掃描信號在時間維度上采樣頻率高,時間維度分辨率較大且含有大量局部信息,因此我們在InvNet 中采取4 個連續的卷積層構成時間維度特征編碼器用于提取時間維度特征,每個卷積層由 3×1和 3×3的卷積塊堆疊而成(如圖4 所示),可以為介電常數圖重建提供充足的局部信息.其中 3×1的卷積核為步長2×1,可以保持輸入特征圖尺寸寬度方向上不改變,深度方向上維度變為原來的一半,達到時間維度壓縮的效果; 3×3的卷積可以進一步提取特征.時間維度特征編碼器將GPR 掃描圖像作為輸入,輸出尺寸接近于介電常數圖以方便后續全局特征提取.
全局特征殘差編碼器接收來自時間維度特征編碼器輸出的局部特征圖,采用殘差網絡結構提取CPR 圖像的全局特征,輸出具有256 個通道的全局特征圖.但原始的殘差網絡結構主要針對三通道圖像特征提取,對于單通道CPR 灰度圖的特征提取存在冗余,因此我們調整了原始殘差網絡的輸入、擴展通道以及網絡層數作為主干特征提取網絡的全局特征編碼器.并且殘差網絡結構中的卷積操作由于具有權值共享的特點,也克服了PINet 和GPRInvNet 中全連接編碼器參數量大的局限性.具體的全局特征殘差編碼器如圖5 所示,Block 表示由卷積、batch normalization 層和 RELU 激活函數組成的卷積塊,每一層的Block 及其對應的殘差連接操作可以將特征圖通道數變為原來的兩倍,并且將全局特征圖的大小縮小為原來的一半.

圖5 全局特征殘差編碼器Fig.5 The residual encoder of global feature
由于GPR 信號中干擾眾多、內容繁雜,所以在反演特征提取過程中,如何關注特征圖中的重要區域并對其進行進一步的全局特征提取尤為重要.以CBAM 為代表的注意力機制建模方法具有小巧和即插即用的特點.但在CBAM 中經過全局池化后,空間注意力機制和通道注意力機制分別采用了1 個標準7×7卷積和全連接層獲取空間級和通道級注意力,相比空間注意力機制中的標準卷積,我們認為通道注意力機制中的全連接網絡是不必要的,增加了模型復雜度;且僅采用全局池化操作獲取全局描述符容易丟失特征信息.因此,我們在此基礎上探索了一種改進的注意力機制來更好地提取GPR 圖像的語義信息,并將其引入到所設計的GPR 反演網絡InvNet 之中.所設計的注意力機制包括串聯的通道注意力和空間注意力部分.首先通道注意力建模特征圖中每個通道的重要程度,接著空間注意力進一步探索特征圖的空間語義信息,通道注意力與空間注意力共同為GPR 圖像反演提供精細化的語義特征圖并且提高反演性能.
如圖6 所示,在通道注意力機制中,對于接收到的特征圖F∈RC×H×W,首先調整其維度得到F′∈R(H×W)×C×1,并將F′輸入到1 個三分支結構獲取到3 個具有豐富空間語義信息的描述符:.其中、、分別由1 ×1的卷積,全局平均池化和全局最大池化得到.采用1 ×1的卷積可以將每一個通道中的位置數據作線性整合,減少位置信息的丟失,并采用全局池化為空間語義描述符提供補充信息.然后將得到的空間語義描述符分別采用3 個 3×1的卷積生成精細化的通道級特征圖,并將這些特征圖作元素級加法進行特征融合.采用 3×1的卷積來探索通道注意力不僅簡單有效,而且也可以降低網絡參數和模型復雜度.融合后得到的特征圖維度被調整為C×1×1后輸入到sigmoid 激活函數得到通道級注意力,用于表示特征圖的哪些通道需要被重點關注.最后將得到的通道注意力與原特征圖進行元素級乘法得到通道級精細化語義特征圖來指導網絡關注重要的通道部分.

圖6 通道注意力模塊Fig.6 Channel attention module
空間注意力模塊則接收通道注意力的輸出,且進一步探索空間級語義信息.在空間注意力模塊中,利用消除通道信息的空間特征圖來生成空間級注意力,空間注意力強調特征圖在位置上的重要部分.具體的空間注意力網絡結構如圖7 所示.

圖7 空間注意力模塊Fig.7 Spatial attention module
不同于通道注意力模塊,空間注意力模塊直接采用1×1 的卷積對通道信息進行壓縮,可理解為按照通道注意力模塊產生的通道級權重進行加權求和,然后采用1 個 3×3的卷積來獲取空間注意力圖.最終將得到的空間注意力圖與通道注意力模塊的輸出進行元素級乘法,得到經過通道級和空間級精細化的語義特征圖.簡而言之,所設計的通道注意力和空間注意力可以用如下公式表示:
式中:F表示輸入注意力語義提取模塊的原始特征圖;Mc(F)和Ms(F)分別表示通道注意力和空間注意力; σ表示sigmoid函數;f1×1、f3×1和f3×3分別表示卷積核大小為1 ×1、 3×1和 3×3的卷積操作.至此已經完成了通道級和空間級語義信息的建模,所改進的注意力機制具有簡單且有效的特點,將其作為InvNet的注意力語義提取模塊,為GPR 圖像反演提供精細化的語義特征圖.注意力語義提取模塊在提升GPR反演性能的同時,并沒有顯著增加網絡參數與計算資源消耗,這主要得益于我們采用標準卷積代替通道壓縮的方式進行通道注意力建模,且1 ×1的卷積和全局池化操作也有效地提取了特征圖的全局信息.
介電常數解碼器將注意力語義提取模塊輸出的精細化語義特征圖作為輸入,然后采用反卷積、卷積和雙線性插值將特征圖解碼為GPR 介電常數模型圖像.具體的介電常數解碼器如圖8 所示,其中每一個反卷積和卷積的卷積核尺寸都為 3 ×3,每一個反卷積步長設置為2 可以將輸入特征圖的長和寬放大為原來的兩倍,同時每一個卷積的步長設置為1 可以進一步提取特征圖的特征而不會改變特征圖的大小.最終介電常數解碼器模塊將注意力語義提取模塊輸出的精細化特征圖進行通道壓縮并輸出介電常數模型圖.

圖8 介電常數解碼器Fig.8 The decoder of permittivity
結構相似性指數(structural similarity index measure, SSIM)[19]可以從亮度、對比度和結構方面綜合考慮兩幅圖像的相似程度,選取其變體形式作為GPR 圖像反演的損失函數.具體地,基于SSIM 的損失函數計算方式如下:
SSIM(x,y)表 示圖像x,y的SSIM,其計算方式為
式中: μx和 μy分 別表示圖像x,y的 平均值;和分別表示x,y的 方差; σx,y表 示x,y的 協方差;c1和c2分別表示穩定分母結果的常數.
為驗證InvNet 在GPR 圖像反演方面的有效性和性能,基于Gprmax GPR 數值仿真軟件構建了GPR 圖像反演數據集.Gprmax 是基于時域有限差分法求解Maxwells 方程,以數值方式模擬GPR 電磁波傳播過程的GPR 仿真軟件.我們設置不同的土壤介質和隱藏目標介質來模擬真實土壤下埋藏不同物體的場景,并且基于此構建GPR 圖像反演數據集.設置模型大小為寬0.55 m、高0.6 m的區域,GPR 發射波采用中心頻率為600 MHz的雷克子波.掩埋目標包括圓形、矩形以及圓形與矩形的復合這三種,目標的大小和位置是隨機生成的.選取自然界中常見的介電常數作為隱藏目標和背景的介電常數[14],具體地,隱藏目標的介電常數在1、3、81、200 中隨機選取,土壤背景的介電常數隨機設置為5、10、15.將介電常數值映射到灰度圖顏色空間,采用不同的顏色表示不同的介電常數.GPR 測線方向采樣間隔為0.002 m,可以得到255 道GPR 數據.GPR 的時間窗口為16 ns,每道數據可以得到3 393 個采樣點.為便于后續網絡的計算,輸入InvNet 之前將得到的GPR 圖像縮放至3 393×256.基于以上設置,將每一種場景分別生成3 735 對GPR 圖像及其對應的介電模型圖,每張介電常數模型圖的大小為256×256 像素,與InvNet 的輸出維度保持一致.總共11 655 對數據構成GPR 圖像反演數據集,并按照10∶1∶1 劃分為訓練集、驗證集與測試集.
為分析GPR 圖像反演性能,采取學術界和工業界常用的圖像評價指標SSIM.均方誤差(mean square error, MSE)以及平均絕對誤差(mean absolute error,MAE)作為反演質量評價標準.SSIM 衡量了反演圖像與真實介電常數模型圖之間的相似程度,數值越高表示反演圖像越接近真實圖像,反演質量越好.MSE 和MAE 衡量了反演圖像與真實介電常數模型圖之間的像素級誤差,數值越小表示兩幅圖像之間誤差越小,反演質量越好.此外,選取浮點運算個數(floating point of operation, FLOP)描述模型所需的計算量,FLOP 越小表示模型的復雜度越低.用參數量描述模型所需的參數,用處理一張GPR 圖像所需要的時間評估模型的實時處理能力.
實驗環境為Windows 平臺,配有一塊帶有12 G顯存的NVIDIA GeForce RTX 3060 顯卡.基于pytorch搭建InvNet 網絡結構并對其進行實驗.設置初始學習率為2e-4,采用Adam 優化器進行網絡訓練與參數調整.訓練過程中加入L2正則化以避免網絡陷入過擬合問題,batchsize 設置為30,用來加速網絡的訓練.對InvNet 訓練135 個epoch,以保證網絡收斂能夠完成GPR 圖像反演任務.
為驗證本文方法的有效性,將InvNet 的注意力語義提取模塊用不同的注意力機制替換并在所構建的GPR 圖像反演數據集上進行實驗與分析.將去除注意力語義提取模塊的網絡結構定義為InvNet_v1,然后將注意力語義提取模塊分別用CBAM、DANet[20]和 ECA-Net 進 行 替 換 得 到 InvNet_v2、InvNet_v3 和InvNet_v4,實驗過程中的超參數設置均與上文所描述的保持一致.圖9 展示了采用不同注意力機制作為注意力語義提取模塊進行GPR 圖像反演的部分結果.從圖9(c)可以看出,InvNet_v1 由于沒有注意力語義提取模塊為介電常數解碼器提供精細化的語義特征圖,所以成像效果不佳,存在較深的偽影,影響成像質量.在幾種算法中,InvNet 反演成像結果與基準模型最為接近,展示了所改進注意力機制在GPR 圖像反演任務上的優越性.

圖9 不同注意力機制反演結果Fig.9 The inversion results with different attention mechanisms
為了能夠量化采用不同注意力機制作為語義提取模塊的GPR 圖像反演性能,選取SSIM、MSE和MAE 作為評估指標對反演結果進行定量分析.如表1 所示,與未加入注意力語義提取模塊的InvNet_v1相比,所有的注意力語義提取方式都顯著提升了GPR 圖像反演的性能,證明了注意力語義提取對GPR 圖像反演的有效性.從表1 還可以看出,InvNet 反演結果的SSIM 達到0.971 4、MSE 為0.003 0、MAE 為0.015 7;與InvNet_v2、InvNet_v3 和InvNet_v4 相比,SSIM 分別提高了0.30%、0.10%和0.21%,MSE 分別降低了0.08%、0.05%和0.04%,MAE 分別降低了0.37%、0.41%和0.49%,與圖9 展示的反演結果一致,說明InvNet 取得了較好的反演性能.其中,InvNet 與InvNet_v2、InvNet_v4 的對比結果表明,在通道維度注意力建模過程中,采用CBAM 類似的維度壓縮是不必要的,且增加了模型的復雜性,說明采用1 ×1的卷積壓縮空間維度特征對于獲取空間特征描述的有效性.InvNet_v3 的反演性能與我們的方法最為接近,但DANet 采用矩陣乘法的注意力建模方式引入了更多的參數和計算量.具體地,InvNet_v3比InvNet 多出了0.07 G 的FLOP 計算量和0.08 M 的參數量,但InvNet 反演性能優于InvNet_v3.因此本文設計的注意力機制在提升GPR 圖像反演性能的同時并沒有引入過多的參數量與計算量,且具有即插即用的特點.

表1 不同注意力語義提取模塊反演性能對比Tab.1 Comparison results with different attention semantic extraction modules
InvNet 能夠取得較好的反演性能,很大程度上得益于注意力語義提取模塊生成的注意力矩陣很好地表征了GPR 圖像中的重要部分信息,即注意力矩陣中數值越大的部分,表示該部分對應的特征越重要,使網絡可以更加全面地提取GPR 圖像特征,提高反演準確度.為進一步驗證我們的觀點,采用雙線性插值將注意力語義提取模塊生成的空間注意力矩陣調整到原始B-Scan 圖像大小,然后與原始B-Scan 相互疊加并生成注意力機制熱力圖.對熱力圖進行可視化展示,并將其與同樣采用通道注意力和空間注意力串聯的CBAM 注意力熱力圖做對比,如圖10 所示.在注意力機制熱力圖中,顏色明亮部分表示該部分注意力權重大,網絡對其關注度高.從圖10(b)和圖10(c)可以看出,所設計的注意力語義提取模塊可以更好地指導網絡關注B-Scan 中目標的雙曲線特征.

圖10 注意力機制可視化Fig.10 The visualization of attention mechanism
設計的注意力語義提取模塊采取了通道注意力和空間注意力串聯的方式,即實際上在計算空間注意力的時候,利用了先前計算過的通道注意力信息,即在進行通道信息壓縮的時候采用通道注意力矩陣作為先驗信息,按照通道注意力矩陣作為權重對通道進行壓縮.為進一步說明所采取串聯方式的有效性,對所設計的注意力語義提取模塊進行進一步的消融研究.首先對InvNet 的注意力語義提取模塊進行修改,并保持其他部分不變,將去除通道注意力后的模型定義為InvNet_v5,將去除空間注意力后的模型定義為InvNet_v6,將空間注意力在先、通道注意力在后的模型定義為InvNet_v7,將空間注意力與通道注意力并聯的模型定義為InvNet_v8,然后對這幾種不同的安排方式進行對比,結果如表2 所示.可以看出,采取先通道注意力再空間注意力的串行機制取得了更好的性能.無論采用串聯還是并聯,通道注意力與空間注意力結合的方式要優于使用單一注意力的方式;且串行機制由于利用了上一步注意力矩陣的權重,相比并聯取得了更好的效果.此外,通道維度的信息更加抽象,而空間維度的信息更容易與輸入原圖像的重要特征建立映射關系,采用空間注意力在先的串聯方式,最終作用于特征圖上的通道級注意力矩陣大小是C×1×1,而采用先通道注意力后空間注意力的方式,最終作用于特征圖上的空間級注意力矩陣大小是1 ×H×W,所包含的語義信息比空間注意力在先的方式更豐富,所以InvNet 與InvNet_v8 相比具有更好的反演性能.

表2 不同排列方法反演性能對比Tab.2 Comparison results of inversion performance with different arrangement methods
為進一步驗證InvNet 對GPR 圖像反演任務的有效性與優越性,將InvNet 與基于深度學習的最新GPR 圖像反演算法GPRInvNet、PINet 在所設計的GPR 圖像反演數據集上進行實驗.圖11 展示了三種方法的部分反演結果,可以看出,由于PINet 考慮了GPR 信號沿時間維度的衰減,反演質量優于GPRInvNet;但得益于時間維度編碼器與殘差網絡結構組合的主干網絡特征提取以及注意力語義提取模塊的引入,InvNet 反演結果比PINet 更加清晰,與真實模型更接近.

圖11 不同網絡反演結果Fig.11 The inversion results of different networks
表3 展示了不同方法反演結果的量化指標,可以看出,InvNet 所需要的計算量最少,FLOP 為11.12 G,參數量大約是PINet 的1/100,與GPRInvNet 相比僅增加了0.37 M,且獲得了最好的反演性能.相比于GPRInvNet 和PINet,SSIM 分別提高了1.06%、0.86%,MSE 分別降低了0.24%、0.25%,MAE 分別降低了1.41%、1.02%.與GPRInvNet 和PINet 的比較結果可以看出,本文提出的注意力語義提取方法和InvNet網絡結構有效地提高了GPR 圖像反演性能.在反演時間消耗方面,InvNet 反演一張GPR 圖片耗時與GPRInvNet 相差不大,比PINet 更少,這主要是因為PINet 中引入的大量的全連接網絡增加了模型的復雜度.從對比結果可以看出,InvNet以較少的時間消耗取得了更優的反演性能.

表3 不同方法性能反演性能對比Tab.3 Comparison results of inversion performance with different methods
在實際GPR 檢測過程中,獲取到的回波圖像往往含有大量噪聲干擾,會影響后續的GPR 數據解釋與反演結果.為驗證模型的魯棒性和抗噪性,測試了含有噪聲情況下的模型性能.在GPR 數據中添加了平均值為0,標準差隨機分布在5~55 的高斯噪聲以模擬實際獲取到含有噪聲的GPR 圖像.將上文訓練好的模型采用預訓練的方式訓練了10 個epoch 進行微調,得到含有噪聲情況的測試結果,如表4 所示.可以看出,噪聲情況下,相比GPRInvNet 和PINet,InvNet 依然取得了較好的反演性能,具有一定的抗干擾能力.InvNet 優越的反演性能主要得益于時間維度特征編碼器提供了詳細的時間維度局部信息,全局特征殘差編碼器充分提取了GPR 圖像的全局特征,并且空間和通道注意力機制為GPR 圖像反演提供了精細化的語義特征圖.

表4 含有噪聲數據的反演結果Tab.4 Inversion results of data with noise
文中提出了一種新的基于深度學習的GPR 圖像反演網絡InvNet,其可以根據GPR 圖像有效重構出隱藏目標的介電模型圖,并結合時間維度卷積和殘差網絡結構設計了InvNet 的主干特征提取網絡.針對現有注意力機制中全局池化容易丟失信息和通道壓縮增加了模型復雜度的問題對現有注意力機制進行改進以更好地提取特征圖語義信息,并將其作為InvNet 的注意力語義提取模塊,這是第一次將殘差網絡算法以及注意力機制引入到GPR 圖像反演領域.基于GPRmax 生成GPR 圖像反演數據集,不僅實驗驗證了InvNet 對于GPR 圖像反演任務的有效性,也展示了InvNet 反演的優越性能.將InvNet 與其他方法進行了對比研究,驗證了所引入的注意力語義提取模塊在GPR 圖像反演過程中對精細化語義特征提取的有效性,且采用了不同的反演質量評估指標對InvNet 反演結果進行定量分析,與最新反演網絡算法相比,InvNet 消耗較少的反演時間,而反演質量達到了最佳水平.
在目前的研究基礎上可以繼續投入到實地測試場景以及更加復雜場景下的GPR 圖像反演任務研究之中,如目前的研究大多關注的是規則目標的GPR 圖像反演,對于非均勻和不規則介質的反演成像問題依然有待研究,未來我們也將繼續致力于GPR 圖像反演領域的研究之中.