楊敏佳 白雪茹* 劉士豪 曾 磊 周 峰
①(西安電子科技大學雷達信號處理國家重點實驗室 西安 710071)
②(西安電子科技大學電子信息攻防對抗與仿真技術教育部重點實驗室 西安 710071)
由于逆合成孔徑雷達(Inverse Synthetic Aperture Radar,ISAR)具有全天時、全天候、遠作用距離、高分辨率等獨特優勢,因此在太空態勢感知和防空反導中發揮著重要作用[1–4]。相較于1維高分辨距離像,目標的高分辨ISAR像為其散射中心向未知成像平面的2維投影,并且蘊含著重要的尺寸、結構等形狀信息和姿態、朝向等運動信息,從而為雷達自動目標識別提供了豐富特征[5,6]。
傳統的ISAR目標識別方法主要依據圖像特性進行人工特征(如區域特征、邊緣輪廓特征、散射點特征等)提取及分類器設計。但是,該過程需要大量的先驗知識或專家經驗,耗時較長且難以推廣[7,8]。近年來,深度學習廣泛應用于ISAR目標識別領域并獲得了優良的性能[1,9,10]。該類方法可實現基于數據驅動的自動特征提取,具有較強的泛化能力。另外,由于ISAR目標非合作,其姿態及轉臺參數未知。受觀測及成像條件限制,可獲取的高質量ISAR像通常較少(1幅或幾幅),即存在小樣本問題。在這種情況下,深度網絡會出現特征可分性不強、識別性能迅速下降等問題,從而為穩健的特征提取與識別帶來了極大挑戰[11,12]。
小樣本學習(small-data learning)為解決樣本匱乏時的ISAR目標識別問題提供了有效途徑[13]。該方法通過借助具有充足樣本的常見目標類別對模型進行訓練,進而將獲得的識別能力泛化到全新的小樣本目標類別中。在給定訓練集(包含具有充足樣本的常見目標類別)和測試集(包含全新的小樣本目標類別)后,嵌入學習(embedding learning)[14–16]等基于任務驅動的小樣本學習方法首先通過重復隨機采樣來分別構建訓練任務集和測試任務集。具體而言,任務集中的每個任務均包含支撐集(由有標簽樣本構成)和查詢集(由無標簽樣本構成),任務目標是依據支撐集對查詢集中的樣本類別進行判定。此后,該類方法采用訓練任務集進行模型訓練,使其在測試任務集中同樣獲得良好的識別效果。特別地,若每個任務包含C個不同目標類別,每個目標類別包含K個支撐樣本,則稱該任務為 C-way K-shot任務。作為嵌入學習的經典結構,原型網絡[16](Prototypical Network, PN)首先將樣本從原始空間映射到更低維的嵌入空間;進而通過計算嵌入空間中各類別的中心(即嵌入向量的均值)綜合同類信息并獲得各類別原型;最終通過比對查詢集樣本對應嵌入向量和各類原型之間的歐氏距離實現類別預測。但是,該模型未考慮到支撐集樣本對識別貢獻度的差異。
研究[14–16]表明,支撐樣本的質量(代表性)會對小樣本目標識別的精度產生極大影響。由于不同雷達參數下目標的ISAR像通常會產生較大形變,同時實測數據中存在遮擋效應和強點閃爍現象,因此圖像質量變化較大。在這種情況下,如何合理地為每個任務中不同的支撐樣本分配對應的權重,并且有效地將其對識別貢獻度的差異引入模型已經成為小樣本ISAR目標識別領域的重點和難點。針對該問題,本文提出基于高斯原型網絡(Gaussian Prototypical Network, GPN)的小樣本ISAR目標識別方法。根據實際中多數目標的特征呈高斯分布這一特性,GPN對嵌入空間特征進行統計建模,將輸入樣本映射為嵌入空間中的高斯分布(由均值向量和精度矩陣描述),從而有效刻畫樣本特征的統計特性,并且能夠通過精度矩陣的學習引入不同樣本質量對識別貢獻的差異,避免離群特征對識別的不利影響。在此基礎上,通過計算各查詢集樣本對應嵌入向量與各類高斯原型的馬氏距離實現類別預測。實驗結果表明,本方法在飛機目標實測數據集上可以獲得良好的小樣本識別結果。
基于GPN的小樣本ISAR目標識別流程如圖1所示,其主要包括數據產生、模型訓練和模型測試3個部分。在數據產生階段,隨機生成器通過對訓練集和測試集進行隨機采樣不斷生成支撐集和查詢集。對于C-wayK-shot任務,首先從相應數據集中隨機挑選出C個類別,每個類別再隨機挑選K個樣本作為支撐集,同時將C個類別中的剩余樣本作為查詢集。在模型訓練的前向傳播階段,GPN通過嵌入網絡將支撐集樣本映射為嵌入向量及其精度矩陣,進而計算各類別的高斯原型。之后,通過計算查詢集樣本對應嵌入向量到各類別高斯原型的馬氏距離獲得預測標簽。在反向傳播階段,根據預測標簽與真實標簽計算損失,從而指導模型參數的更新。在模型測試階段,模型參數固定,直接將支撐集和查詢集輸入模型并執行與訓練過程中相同的高斯原型計算與距離度量操作來獲得對未知類別目標ISAR像的預測標簽。接下來,對網絡各模塊結構及其功能進行詳細介紹。
GPN通過softmax函數計算xi屬 于各類別的概率。特別地,xi屬于第k類的概率為
在訓練過程中,本節采用5類飛機(F15C, F16,F18, F117和MiG29)的電磁仿真數據對網絡參數進行迭代更新優化。在測試過程中,采用與訓練過程類別不同的3類飛機(安26、雅克42、獎狀飛機)的實測數據ISAR像進行小樣本識別性能分析與對比。
電磁仿真數據所采用的5類飛機模型如圖3所示。在本地坐標系中,雷達俯仰角為145°,方位角為0°~360°,載頻為17 GHz,成像帶寬為1 GHz,采用物理光學法進行電磁計算[1],所得各目標回波數均為10920。接著,將積累角設為3°, 4°, 5°并采用距離-多普勒方法進行高分辨成像,可獲得3種不同分辨率的ISAR像。本節圖像縱向均表示距離單元、橫向均表示方位單元。同時,每隔1°方位角成像1次,因此每種分辨率得到360幅ISAR像。在此基礎上,將每張圖像中的目標居中并裁剪為128×128,并從中剔除特征描述性不強的圖像(如部分結構反射太強導致輪廓特征丟失等),挑選其中200張作為實驗所用數據集。最終,電磁仿真數據集共得到3000張圖像。在成像積累角4°時,5類飛機的典型成像結果如圖3所示。同時,圖4給出了F16飛機不同積累角下的成像結果對比??梢钥闯?,積累角變化會使ISAR像產生方位維的拉伸或壓縮。
實測數據對應的3類飛機光學圖像和ISAR像如圖5所示。此時雷達工作于C波段,帶寬為400 MHz。每類飛機包含90張結構清晰、聚焦良好的圖像,尺寸均為128×128。
圖6給出訓練集中5類不同型號飛機(F15C, F16,F18, F117和MiG29)電磁仿真數據典型ISAR像的特征分布可視化結果與分布檢驗結果。為便于高維特征可視化,本文使用t分布隨機領域嵌入[19](tdistributed Stochastic Neighbor Embedding, t-SNE)將嵌入空間中的高維特征降至2維,并分別繪制所有類別目標特征分布的3維可視化及2維可視化結果,分別如圖6(a)和圖6(b)所示。其中,F16特征分布的2維可視化結果如圖6(c)所示。以分位數-分位數圖[20]的形式對F16特征在兩個維度上分別進行分布檢驗,結果如圖6(d)所示,其中2種顏色表示2個維度的特征。若該圖中散點分布越接近線性,則輸入數據分布越接近高斯分布。其他4類目標特征分布的2維可視化及分位數-分位數圖與F16類似。從可視化及分布檢驗結果可以看出,每類目標樣本特征的統計特性均近似于高斯分布,該結論與GPN的假設相同。
實驗選擇成像積累角分別為3°, 4°和5°的電磁仿真數據ISAR像作為訓練集,從而分析GPN對訓練樣本形變的適應性。同時,分別進行3-way 1-shot和3-way 5-shot兩組實驗,從而分析支撐集樣本數對識別性能的影響。在模型訓練過程中,將學習率設置為10–3、迭代次數設置為1000,并采用Adam優化方法[21]來搜索并更新模型參數。在測試過程中,由于1次實驗具有隨機性和偶然性,不能準確反映模型性能,因此用隨機生成器反復迭代生成1000組實驗數據并進行1000次獨立重復實驗。最終,將實驗結果繪制表格并列出識別準確率的平均值、最大值、最小值和標準差。PN與GPN識別結果對比如表1所示??梢钥闯?,在3種成像積累角下,GPN較PN在1-shot和5-shot兩種任務下的平均識別正確率都有明顯提升。但是,測試準確率的最小值也反映出依然存在部分低質量帶標簽樣本,從而使得對應識別精度降低。
同時,GPN所得嵌入向量的t-SNE可視化結果如圖7所示,統計直方圖如圖8所示。結合表1可以看出,3-way 5-shot的平均識別正確率均高于3-way 1-shot,并且各類目標對應嵌入向量的聚集性及識別穩定性更好。因此,少量增加支撐樣本數量可以顯著改善小樣本ISAR目標識別效果。

表1 PN與GPN識別結果對比
整體上,無論是3-way 1-shot還是3-way 5-shot任務,當訓練集數據成像積累角為4°時識別性能達到最優,因此,訓練集與測試集之間的不同差異會在一定程度上決定模型學習的效果,從而影響模型的泛化性能。針對目標的實測ISAR圖像小樣本識別問題,合理地構建電磁仿真數據會對識別結果起到較好的促進作用。
為了進一步驗證所提GPN在小樣本ISAR目標識別問題中的有效性,本節將其與傳統深度網絡進行了對比實驗。具體而言,選取包含6個卷積層的經典DCNN模型,并分別構建1-shot和5-shot實驗場景。由于傳統ISAR目標識別方法在訓練過程中不納入其他類別樣本的信息,因此僅選擇實測數據作為實驗數據。當實驗場景為K-shot時,從實測數據的每個類別中隨機選取K個樣本作為訓練集,其余的樣本作為測試集。最后,將DCNN模型的實驗結果與GPN的實驗結果進行了對比,如表2所示。

表2 小樣本條件下傳統DCNN與GPN識別結果對比(%)
由對比結果可以看出,在每類有標簽樣本僅有1幅的情況下(1-shot),現有深度神經網絡DCNN幾乎失效,而GPN平均識別準確率比DCNN高出約28%;在每類有標簽樣本僅有5幅的情況下(5-shot),DCNN的識別準確率僅有68.24%,而GPN的平均識別率為92.44%,比DCNN高出約24%。因此,GPN能夠解決現有深度神經網絡在處理小樣本ISAR目標識別問題時識別性能下降甚至失效等問題,同時能夠實現穩健特征提取與識別。
針對現有基于深度卷積神經網絡的ISAR目標識別方法在訓練樣本不足時性能下降甚至失效等問題,研究了基于GPN的ISAR小樣本目標識別方法。該方法首先通過嵌入網絡獲得輸入樣本的嵌入向量及精度矩陣,進而通過支撐集構建了各類別的高斯原型,最終通過計算查詢集樣本對應的嵌入向量與各類別高斯原型的馬氏距離來實現類別預測。相比于PN,所提模型將嵌入向量建模為高斯分布,并且充分考慮了支撐集樣本對識別貢獻度的差異。實驗結果表明,本方法在飛機目標實測數據集上可以獲得更優的識別結果。未來將研究基于樣本多特征融合及形變穩健的ISAR小樣本識別方法。