劉盛啟 張會強 滕書華 瞿 爽 吳中杰
①(國防科技大學自動目標識別重點實驗室 長沙 410073)
②(湖南第一師范學院電子信息學院 長沙 410205)
高分辨距離像(High Range Resolution Profile,HRRP)是寬帶雷達獲取的目標回波在不同距離單元上的分布,反映了一定視角下雷達目標的散射特性,包含了目標的重要結構信息[1],對于目標識別分類十分有價值。
目前,有關HRRP的雷達目標識別已經產生了豐富的研究成果[2-5],但主要集中在閉集假設條件下取得,即假定測試樣本來自訓練集包含的目標類別,然后設計一定的分類準則將測試樣本判斷為具有最佳匹配的目標類別。然而實際應用中往往會面臨非合作目標,待識別樣本很可能來自訓練集以外的未知類別(開集情況),這時傳統方法會將待識別樣本判斷為訓練集內置信度最高的目標類別,得到錯誤的結果。針對這個問題,傳統方法有以下改進思路:一是利用單分類器判斷測試樣本是否來自庫外目標[3];二是在閉集分類器的基礎上增加拒判功能[4,5]。然而單分類器將庫內目標當成一類忽略了目標間的辨別信息,會損害目標的分辨性能;而由于庫外目標訓練樣本缺失,第二種思路的拒判門限很難設定。提高拒判性能需要設置較高的門限,但是會明顯增加對庫內目標的錯誤拒識概率。
針對開放環境下的目標識別問題,Scheirer等人[6]定義了開集識別(Open Set Recognition, OSR)問題,建立了OSR理論框架。在此框架下,學者相繼提出了一系列算法,可大致分為以下幾類:(1)基于支持向量機(SVM)的識別方法,如1-vs-set[6],W-SVM [7] , PI-SVM [8]算法等;(2)基于稀疏表示(SR)的識別方法,如SR-OSR算法[9];(3)基于距離準則的識別方法,如Nearest Non-Outlier[10]、反向k-最近鄰分類器[11]等;(4)基于深度神經網絡(DNN)的識別方法,如深度開放分類器[12]、類別條件編碼器[13]、KLD-PRA聯合判別器[14]等;(5)基于邊緣分布的識別方法,如極值機算法[15]。在開集條件下OSR方法取得了較好的識別效果,但相關成果主要集中在計算機視覺領域,雷達目標識別特別是基于HRRP的目標識別應用還鮮有報道。
針對多站從多視角獲得同一目標多個觀測數據的應用場景,多觀測數據可能來自較小的角度范圍,也有可能具有較大的角度間隔。根據雷達目標特性可知,多觀測間可能具有很強的相關性,也有可能具有很大的差異。為了適應多視數據從多觀測角度獲取的不同應用場景,并且充分利用多視HRRP來自相同目標的先驗信息,本文在OSR框架下,基于極值理論(Extreme Value Theory, EVT)將聯合動態稀疏表示(Joint Dynamic Sparse Representation,JDSR)方法應用于開集條件下的多視HRRP目標識別。利用EVT對訓練階段獲得的重構誤差拖尾進行擬合,得到各訓練類別的極值分布,將測試樣本尾部分布置信度作為匹配類及非匹配類得分,對兩得分加權求和獲得最終判據值進而判決目標類別。基于MSTAR反演生成的HRRP數據集的實驗結果顯示了算法的優越性能。
JDSR是對于稀疏表示(SR)的推廣。在信號重構時JDSR施加塊稀疏約束,在相同的塊上共享同一種稀疏模式,而在原子級上則允許存在差異。因此,JDSR能夠利用具有某些特定條件的塊(如來自相同類別的字典原子)進行信號重構,并且可以靈活選擇塊內原子進行精確的信號重構。
設多觀測信號為Y=[y1,y2,...,yJ]∈RM×J(J為觀測數目),JDSR通過估計信號Y在字典D上的上稀疏表示系數α對Y進行近似,其中α=[α1,α2,...,αJ]∈RN×J表示行稀疏矩陣。上述過程利用非等式約束可表示為
假設獨立同分布隨機變量序列X1,X2,...,Xn,設Xn,n為此序列最大值。Fisher-Tippett定理[16]指出,如果存在常數列an>0,bn,使得 (Xn,n-bn)/an的漸進分布是非退化的,即
那么,G必屬于Frechet-Pareto型、Gumbel型或Weibull型分布。
上述定理可通過廣義極值分布(General Extreme Value distribution, GEV)表示:
其中,γ為極值指數,取決于原始數據的分布規律。
γ可采用POT( Peaks-Over-Threshold)方法來估計,該方法依賴于Pickands-Balkema-de Haan定理[17],即
對充分大的門限值t,超額值的分布Fˉt(x)=P(X-t>x|X>t)近似服從廣義帕累托分布(Ge neral Pareto Distribution, GPD):

根據似然函數即可求得各參數估計σ?,γ?。
實際應用中,多站雷達獲取的目標觀測往往對應目標不同的姿態角。根據雷達目標特性可知,隨著角度間隔差異的增大,目標回波會依次出現距離單元幅度起伏、散射中心越距離單元走動及散射中心模型變化[18],多觀測間的相關性也逐漸由強轉弱。因此,分類器需要在充分利用多視觀測信息的同時,對多視觀測來自不同的角度間隔的應用場景均具有較好的魯棒性。并且實際應用場景面向的對象往往種類繁多,觀測數據可能來自庫外未知的目標類別,采用傳統的識別模型無法實現精準的判決,需要研究開集條件下的識別問題。
開集條件下的識別(OSR)可以描述為開集風險函數最小化問題
其中,f表示可度量的識別函數,RH和Rζ分別表示相應的開放空間風險和經驗風險,λ是正則化常數,用于權衡開放空間風險和經驗風險。
識別函數f應滿足以下條件:一是識別函數輸出值應是有界的;二是函數在遠離庫內目標樣本的開放空間快速單調遞減。JDSR利用最小重構誤差來對類別進行判決,測試樣本對于對應類別的重構誤差遠低于其他類別的重構誤差,滿足式(7)中識別函數f的要求,故JDSR算法可以作為開集多視HRRP分類的識別函數。
對輸入的多視觀測樣本Y,在過完備字典D上的聯合稀疏表示可建模為式(1)優化問題,通過求解稀疏系數α使得對原信號的描述誤差最小。本文采用JDSR算法對式(1)求解,得到稀疏系數α?后,利用最小重構誤差準則判決目標類別
其中,σc(α?) 表 示保留α? 中對應于第c類的系數,并將其他元素置零。
開放集條件下,需確保式(7)的風險函數最小化及識別函數要求,本文引入極值理論對JDSR算法輸出的重構誤差拖尾進行描述。由Pickands-Balkema-de Haan定理可知,對于超過充分大的門限值的重構誤差,其超額值近似服從GPD。設訓練階段第c類目標重構誤差數量為Nc,將重構誤差從大到小排序并選取前Nt=Nc·ρ個重構誤差作為拖尾( 0<ρ<1 表示尾部大小參數),第Nt+1個重構誤差作為門限值t。對超過t的拖尾采用GPD進行擬合并依據式(5)、式(6)估計極值參數,參數擬合過程如算法1所示。
對測試樣本,首先根據式(8)選取最小重構誤差對應類別作為候選類,然后依據訓練階段擬合結果對待識樣本重構誤差作Kolmogorov Smirnov統計檢驗[19],獲取其屬于對應的拖尾擬合分布的置信度,從而判斷其屬于候選類或是庫外目標。通過上述步驟,開集識別問題被轉化為式(9)的假設檢驗問題
其中, H0表示測試數據屬于候選類, H1表示測試數據屬于庫外目標,G(rc) 是對于重構誤差rc尾部的擬合,δg是拒絕閾值。
綜上,基于JDSR的多視HRRP開集識別方法如圖1所示。具體可分為如下步驟:

圖1 JDSR-OSR算法流程圖

圖2 部分拖尾分布示意圖

圖3 庫內樣本及庫外樣本重構誤差對比
訓練階段:
步驟1 對訓練樣本作數據預處理,提取特征信息并構建過完備字典;
步驟2 利用JDSR計算訓練樣本在過完備字典上的重構誤差,并分別計算每一類的匹配重構誤差,及非匹配重構誤差之和;
步驟3 選定尾部參數并利用極值理論分別對匹配重構誤差及非匹配重構誤差之和進行擬合,得到相應的極值參數估計。

算法1 重構誤差擬合及參數估計流程
測試階段:
步驟1 利用JDSR計算測試樣本在過完備字典上的重構誤差,選定誤差最小的對應類別作為候選類;
步驟2 根據訓練階段得到的候選類對應的極值參數擬合GPD,獲取對應訓練階段尾部分布的置信度作為判決得分,通過選定判決閾值判斷測試樣本類別。


算法2 JDSR-OSR訓練算法




非匹配類得分受開放程度影響,其權重應與openness 負相關,即與閉集程度 1-openness正相關,故其權重可設置為

開放集條件下需綜合考慮算法對庫內目標及庫外目標的識別性能,本文借助準確率和F值來綜合評判算法性能。準確率的定義如式(13)

本節利用從MSTAR反演的HRRP數據集驗證所提算法的有效性。為體現算法的有效性,將所提算法與3種主流開集識別方法進行了比對,包括1-vs-set[6],W-SVM[7],SR-OSR[9]和KLD-RPA[14]。由于選取的對比算法無法直接采用多視數據作為輸入,因此對多視數據逐個輸入,在決策層融合表決,其余條件不變。

算法3 JDSR-OSR分類方法
由于缺少HRRP實測數據,本文利用MSTAR公開數據集,將其SAR數據反演生成HRRP數據用于實驗。MSTAR包含了10類地面目標,分別為BMP2, BTR70, T72, BTR60, 2S1, BRDM2, D7,T62, ZIL及ZSU。雷達工作于X波段,采用聚束式成像,圖像分辨率0.3 m×0.3 m,每幅圖像覆蓋角約為3°,數據采集俯仰角為15°和17°。實驗中17°數據用于訓練,15°數據用于測試。SAR反演生成HRRP數據流程如圖4[21],SAR圖像首先經過2維傅里葉逆變換(2D-IFFT),然后對得到的數據解卷積消除加窗影響,并剔除零元素,再進行2維傅里葉變換,并分割目標區域,最后在方位向上作傅里葉逆變換即可得到反演HRRP數據。

圖4 SAR反演HRRP數據流程圖
反演生成HRRP數據后,取一定角度范圍內HRRP的非相干平均松弛HRRP的姿態敏感性,取2范數幅度歸一化消除強度敏感性,對數據進行冪變換增強數據特征。構建字典時需要遵循兩個基本要求:(1)字典原子應包含不同類別以描述信號不同結構;(2)字典原子數應足夠多以確保字典是過完備的。為滿足上述要求,本文采用人工構建法,利用目標訓練樣本來構造過完備字典。對俯仰角17°的每幅SAR圖像生成的HRRP數據按3°方位間隔提取非相干平均生成1幅HRRP數據,按方位角順序排序構建過完備字典。實驗階段通過提取相鄰HRRP的非相干平均作為特征構建訓練數據集。
為驗證不同觀測情形下分類器的識別性能,本文預設兩種不同觀測情形:多視觀測從小角度范圍內獲取的情形,記作Situation-Ⅰ;多視觀測間無角度約束的情形,記作Situation-Ⅱ。
在Situation-Ⅰ情形下,所有觀測均在不發生越距離單元走動的角度范圍內獲取,多視數據間是強相關的。訓練階段對俯仰角17°的每幅SAR圖像按0.1°方位間隔提取非相干平均生成30幅HRRP并按方位角順序排序,在小角度范圍內選取連續的J個觀測數據構造多視觀測樣本,實驗參數設置多視觀測數目J=5 ,設置JDSR稀疏度K=2,尾部大小ρ=0.7,依據3.1節所述算法流程計算重構誤差并進行參數估計。測試階段對俯仰角15°的每幅SAR圖像按0.3°方位間隔提取非相干平均生成10幅HRRP并按方位角順序排序,多視觀測樣本的獲取同訓練階段,參數設置判決閾值δg=0.3,依3.2節所述算法進行目標類型判斷。
在Situation-Ⅱ情形下,多視數據間可能是強相關的也可能是弱相關的,實驗中將上述實驗HRRP方位角順序排序變更為隨機排列,并取100次Monte Carlo實驗結果的均值作為最終結果,其余操作不變。
(1) 訓練3類測試10類
實驗中選取BMP2, BTR70及T72作為庫內目標進行訓練,測試階段加入其余7類庫外目標進行測試(共10類)。表1和表2分別給出了Situation-Ⅰ和Situation-Ⅱ情形下JDSR-OSR的混淆矩陣,混淆矩陣第1列表示測試樣本對應的真實類別,第1行表示分類器輸出類別。表3給出了本文提出的JDSROSR與其他方法平均識別率的對比結果。結果顯示本文算法在每個類別中均取得較高的識別率,平均識別率也高于其他對比算法。

表1 Situation-Ⅰ JDSR-OSR的混淆矩陣

表2 Situation-Ⅱ JDSR-OSR的混淆矩陣

表3 JDSR-OSR與其他方法平均識別率的對比結果
(2) 不同未知類別數下的識別結果
實驗結果采用前3類目標(BMP2, BTR70,T72)作為庫內目標,依次增加BTR60, 2S1, BRDM2,D7, T62, ZIL及ZSU作為庫外未知目標測試算法識別性能,開放程度openness依次為7.42%, 13.4%,18.35%, 22.54%, 26.15%, 29.29%, 32.06%。Situation-Ⅰ的實驗結果如圖5所示;Situation-Ⅱ的實驗結果如圖6所示。結果顯示在兩不同場景及不同開放程度下,本文算法均取得了更好的性能。

圖5 不同開放程度下的實驗結果(Situation-Ⅰ)

圖6 不同開放程度下的實驗結果(Situation-Ⅱ)
以上結果顯示,本文提出方法在不同場景下都實現了最高的F值及準確率。由于W-SVM將訓練數據視作同一類目標而忽視了類別間的差異,容易造成庫內目標的錯誤判決;1-vs-set通過基本SVM獲取超平面并在另一側添加平行超平面,為取得判決效果,決策邊界會盡量圍繞訓練數據,但未采用極值理論,對于容易引起誤判的“極端”數據難以區分;SR-OSR算法無法利用數據來自同一目標的先驗信息,獲取稀疏系數時缺乏類別約束導致數據誤判;KLD-RPA算法通過神經網絡對目標進行特征提取,并計算Kullback-Leibler散度和相對位置角,實現對目標的聯合判別,但采用的神經網絡相對較淺,難以提取目標的深層特征;JDSR能利用觀測來自相同目標的先驗信息提高識別精度,同時極值理論通過對拖尾的擬合提升了分類器對“極端”數據的判決,因此在4種方法中取得了最好的性能。
(3) 兩場景結果對比
為驗證所提方法在不同應用場景下的識別性能,實驗對比了所提算法在兩場景下的識別結果,并且選取了性能較好的SR-OSR算法結果進行對比,結果如圖7所示。從圖中結果可以看出所提算法在不同場景下均可取得更優的性能,對不同的應用場景在具有較好的魯棒性。表4給出了基于Intel(R) Core(TM) i7-7820HQ CPU @ 2.90GHz硬件平臺,在Matlab2018上不同類別目標的算法運行時間(各類別樣本數分別為975, 980, 980, 975,1 370, 1 370, 1 370, 1 365, 1 370, 1 370)。結果表明本文算法JDSR-OSR與SR-OSR運行時間相當,且本文算法具有更優異的識別性能。

表4 不同測試類別下的算法運行時間對比(s)

圖7 兩場景實驗結果對比
圖7結果顯示了所提算法對不同應用場景具有較好的魯棒性,測試數據無角度約束條件下取得了更優異的效果,這是因為在多視數目相同的條件下,隨機排列的數據具備更豐富的信息,小角度范圍內順序排列的數據存在大量冗余信息,而JDSR算法靈活利用了這些豐富信息因此取得了更優的性能。
根據實驗結果所示,本文方法利用了JDSR算法能夠利用多視觀測來自相同目標的先驗信息提升識別性能的優勢,在開集條件下開展對HRRP識別的實驗驗證,在兩種預設場景下的實驗中,均在4種算法中實現了最高的F值及準確率,進一步說明了所提方法的有效性及對不同場景的適應性。
實際應用中雷達多站觀測獲取觀測數據可能來自小角度間隔,也可能角度間隔較大,為解決不同場景下HRRP目標識別問題,本文通過JDSR進行信號重構,并采用極值理論對誤差尾部分布進行描述,將JDSR應用于開集條件下的多視識別,在MSTAR數據集上的實驗結果表明所提方法優于許多開集識別方法。
本文方法通過JDSR能靈活描述多視觀測間不同相關性的特點來提高開集條件下的目標識別性能。但算法在訓練階段需要一定的數據量以支撐尾部極值擬合,在訓練數據不足的條件下識別性能不夠穩定,小樣本條件下的開集目標識別以及對增量數據的有效利用是后續值得研究的方向。