丁 軍劉宏偉 王英華 王正玨 齊會嬌 時荔蕙
(西安電子科技大學雷達信號處理國家重點實驗室 西安 710071)
一種聯合陰影和目標區域圖像的SAR目標識別方法
丁 軍*劉宏偉 王英華 王正玨 齊會嬌 時荔蕙
(西安電子科技大學雷達信號處理國家重點實驗室 西安 710071)
地面目標的SAR圖像中除了包含目標散射回波形成的區域,還包括由目標遮擋地面形成的陰影區域。但是由于這兩種區域中的圖像特性不相同,所以傳統的SAR圖像自動目標識別主要利用目標區域信息進行目標識別,或者單獨使用陰影區域進行識別。該文提出一種陰影區域與目標區域圖像聯合的稀疏表示模型。通過使用12ll范數最小化方法求解該模型得到聯合的稀疏表示,然后根據聯合重構誤差最小準則進行SAR圖像目標識別。在運動和靜止目標獲取與識別(MSTAR)數據集上的識別實驗結果表明,通過聯合稀疏表示模型可以有效地將目標區域與陰影區域信息進行融合,相對于采用單獨區域圖像的稀疏表示識別方法性能更好。
SAR;目標識別;聯合稀疏表示;12ll范數最小化
目前,各式各樣合成孔徑雷達(SAR)系統獲取的高分辨率圖像越來越多,各國對SAR圖像理解特別是自動目標識別(Automatic Target Recognition, ATR)技術的研究需求也越來越迫切。傳統的SAR圖像自動目標識別一般利用圖像中的單一信息進行目標識別,例如:基于模板匹配[1]的方法,基于支持向量機(Support Vector Machine, SVM)分類器的方法[2]。為了進一步提高SAR圖像目標識別性能,除了完善預處理方法以及改進現有分類器性能等手段外,融合SAR圖像中多種與類別相關的信息也是一種可行的途徑。Sun等人[3]使用Adaptive Boosting(AdaBoost)框架將多個弱分類器融合起來進行SAR目標識別。Papson等人[4]利用多幅SAR圖像中陰影區域進行目標識別。文獻[5]中通過融合目標輪廓和陰影輪廓信息進行SAR圖像目標識別。文獻[6]中通過多層編碼器對目標圖像與陰影輪廓進行聯合特征提取并用于SAR目標識別。另外,Zhang等人[7]利用多幅SAR目標圖像的聯合稀疏表示進行目標識別,并取得較好效果。
SAR目標識別可以看作是一個模式識別問題。近年來,稀疏表示在模式識別領域得到了廣泛的應用[5-10]。稀疏表示方法將觀測信號分解為給定字典中少數信號(又叫做原子)的線性組合。類似于傳統的最小二乘解,稀疏表示也是追求對觀測信號的最佳重構。但不同的是,所使用的表示系數中只有少量元素具有非零值,而其他元素均為0。在很多模式識別應用中[7-12],由于信號的稀疏表示可以較好地重構原始信號,稀疏表示被視為與原始信號對應的某種特征使用。例如:Wright等人[8]提出的基于稀疏表示的識別方法(Sparse Representation-based Classification, SRC)在人臉識別方面取得較好效果。該方法將訓練樣本數據作為字典,通過測試數據在該字典下的稀疏表示進行識別。Zhang等人[9]通過求解多視角數據的動態聯合稀疏表示進行人臉識別。Maurer等人[10]通過稀疏表示模型進行多任務學習和遷移學習;Gu等人[11]在行為識別中也引入了非負稀疏表示模型。最近,Wang等人[12]從最大化間隔角度將SRC方法解釋為一種間隔分類器。
在上述方法的啟發下,本文提出一種陰影區域與目標區域圖像聯合的稀疏表示模型。通過使用12ll范數最小化方法求解該模型得到聯合的稀疏表示,再根據聯合重構誤差最小準則進行SAR圖像目標識別。在MSTAR數據集上的試驗表明,通過聯合稀疏表示模型可以有效地將目標區域與陰影區域信息融合起來,比僅使用單獨區域圖像的稀疏表示識別方法識別精度更高。甚至在只使用一幅SAR圖像的情況下識別性能可接近Zhang等人[7]通過多幅SAR圖像聯合識別的結果。另外,采用聯合稀疏表示模型的識別方法對SAR圖像分割質量魯棒性強,因此具有較好的推廣性。
2.1 共享字典聯合稀疏表示模型
文獻[7]中,將N幅同一目標的SAR圖像集=Y [y1,y2,…,yN]融合為如式(1)所示的聯合稀疏表示模型:

2.2 獨立字典的聯合稀疏表示模型
我們知道,地面目標的SAR圖像中除了包含目標散射回波形成的區域,還包括由目標遮擋地面形成的陰影區域。通過稀疏表示進行分類的方法主要利用了圖像中強度值較大區域的信息(一般情況下為目標散射的回波形成),而對于陰影部分的信息并未加以利用。而文獻[4]表明陰影中具有對識別可用的信息。一方面,目標區域和陰影區域圖像產生原理不同,其圖像特性也不相同;另一方面,同一目標的目標區域與陰影區域又具有一一對應的關系。于是本文將具有相同稀疏模式的約束應用于目標區域和陰影區域圖像,提出如式(2)所示的基于獨立字典的聯合稀疏表示模型以融合圖像中的目標區域和陰影區域信息:

其中,ty表示目標區域圖像,sy表示陰影區域圖像,Dt為目標區域所使用的字典,Ds為陰影區域所使用的字典;X=[xt,xs]為聯合稀疏表示矩陣,xt對應為目標區域的稀疏表示,xs為陰影區域的稀疏表示;表示矩陣的l1l2混合范數,即:先對矩陣的行向量求2l范數,然后再對結果向量求1l范數。由于將原有的02ll混合范數松弛為12ll混合范數,該模型可以采用凸優化方法進行求解。通過引入拉格朗日乘子λ,上述模型可以進一步轉化為

上述模型中聯合稀疏表示系數分別對應不同的字典,所以稱該模型為獨立字典的聯合稀疏表示模型。
雖然對于獨立字典的聯合稀疏表示模型可以采用傳統的“內點法”進行求解,但在實際應用中,出于對計算效率和問題規模的考慮,需要采用只用向量矩陣乘積操作的一階方法。文獻[13]證明,FISTA(Fast Iterative Shrinkage Thresholding Algorithm)方法可以達到O(1/k2)的收斂率,為目前一階方法中可以證明的最優收斂率。
3.1 優化求解
本節給出基于FISTA方法的獨立字典聯合稀疏表示求解算法。

表1 JSRI算法
由于算法收斂速度較快,上述JSRI算法可采用固定迭代次數的方式,或者設定kX相對變化門限的方式作為停止條件。另外,算法的收斂性證明可以參考文獻[13]。
3.2 應用FISTA求解聯合稀疏表示模型
定義1 (按矩陣行的軟閾值操作RST(Row based Soft-Thresholding))給定矩陣M∈?n×m,閾值v>0,則對矩陣MRSTv(?)操作定義為

Mi?表示矩陣的第i行。
由于獨立字典的聯合稀疏表示模型為凸優化問題,通過對偶原理及文獻[14,15]中相似的推導過程可得到如下定理:

3.3 JSRI算法復雜度分析
本節將討論文中提出的JSRI算法的時間復雜度。對于式(3)的問題,本文主要運行時間消耗在計算鄰近點操作pL(Zk)上。假定模型中所使用的字典Dt,Ds∈,那么求解梯度?f (Zk)的復雜度為O(dn)。而用于進行RST操作的復雜度為O(d)。總體進行pL(Zk)操作的復雜度為O(dn)。若算法循環次數為k次,那么JSRI算法的時間復雜度為O(kdn)。在實際應用過程中,通常只需較少迭代次數算法就可以收斂,故JSRI算法的運行時間只與數據維度d和字典中原子個數n有關。
4.1 陰影區域和目標區域提取
此時外面雨勢稍減,方從云朝張位拱了拱手,閃身便出了轎子,張位連忙掀開窗簾去看,哪里還有方從云的影子?倒是一直在旁邊躲雨的二管家嚇了一跳,迎上前來:“老爺可有什么吩咐?這雨太大了,我讓轎夫們先歇歇……”
目前有許多SAR圖像分割方法可用于提取目標與陰影區域,如基于條件三元馬爾科夫場的方法[16]等。由于本文的重點并不是尋找一種最優的分割方法,而是關注所提出的JSRI模型融合目標與陰影信息后,與單獨使用某種信息相比,對識別效果所帶來的改善。所以文中采用比較簡單的閾值分割方法進行SAR目標和陰影區域的提取。在SAR圖像中,目標區域像素一般具有較高的強度值,而陰影區域具有較低的強度值。我們首先根據預先設定的閾值a,b∈[0,1],將SAR圖像中像素值按照從大到小排序,選取比例為[0,a]的大像素作為目標區域,同時選取比例為[,1]b的小像素作為陰影區域。為了去除孤立點,接著對得到的目標區域和陰影區域二值圖像進行形態學濾波。圖1給出了一幅BMP2目標SAR圖像經過分割后得到的結果。其中,圖1(a)為原始圖像,圖1(b)為使用閾值a分割出目標區域后得到的目標區域圖像,圖1(c)為使用閾值b分割出陰影區域后得到的陰影區域圖像。由于陰影區域的實際回波值強度較小,為了增強陰影區域對分類的影響,將陰影區域像素值置為1減去原始幅值,背景像素值賦為0。
4.2 隨機投影降維
將分割得到的圖像數據列向量化后得到的數據維度通常較高,需要采用有效的降維方法對其進行處理。本文采用稀疏表示分類方法中常用的隨機投影法[17]。給定原始的特征向量維數d和降維后的維數r,產生一個具有獨立同標準正態分布的隨機矩陣P∈,將矩陣P左乘原始的特征向量S,以得到降維后的向量=PS∈。訓練數據和測試數據采用相同的隨機投影矩陣P進行降維。

圖1 SAR圖像目標區域與陰影區域提取示意圖
4.3 字典構造
由于目標區域與陰影區域圖像不同,我們采用獨立字典的聯合稀疏表示模型,因此需要對陰影區域和目標區域圖像分別構造字典。給定u類訓練樣本,第i類訓練樣本個數為in。將降維后的第i類目標區域特征按列拼接成一個大小為r×ni的矩陣,稱為第i類目標區域子字典。然后將所有目標區域子字典連接起來就是所用的目標區域字典。按照與目標區域相同的順序將降維后的第i類陰影區域特征拼接成一個大小為r×ni的矩陣,稱為第i類陰影區域子字典。接著將所有連接成。最后將字典中每一列原子按照l2范數進行能量歸一化。
4.4 分類準則

4.5 聯合陰影與目標區域圖像的SAR目標識別過程
聯合陰影與目標區域圖像的SAR目標識別方法的流程如圖2所示,下面對訓練階段與測試階段分別進行介紹。
(1)訓練階段 首先,通過分割算法提取出SAR圖像中的目標區域圖像數據St和陰影區域圖像數據Ss。然后根據原始樣本維數d和設定的降維維數r生成一個隨機高斯矩陣P∈。計算降維后的目標區域特征數據=PSt和陰影區域數據= PSs。最后,將降維后的數據矩陣和進行能量歸一化得到數據字典Dt和Ds,同時記錄各原子對應的類別標號。
(2)測試階段 采用與訓練階段相同的分割算法提取測試圖像y對應的目標區域圖像數據yt和陰影區域圖像數據ys。接著使用訓練階段生成的隨機高斯矩陣P對yt和ys進行降維。然后通過JSRI算法求解得到聯合稀疏表示系數xt和xs。最后根據聯合稀疏表示系數xt和xs計算各子類聯合重構誤差,按照4.4節的分類準則得到分類結果c。為了敘述方便,我們將采用JSRI算法的分類方法記為JSRC (Joint Sparse Representation with independent dictionary based Classification)。

圖2 聯合陰影與目標區域圖像的SAR目標識別方法流程圖
本節所用的實驗數據是美國國防預研計劃署和空軍研究實驗室(DARPA/AFRL)聯合資助的運動和靜止目標獲取與識別(MSTAR)計劃錄取的實測SAR地面靜止目標數據。該數據是由X波段聚束式SAR采集得到。圖像大小為128×128像素,分辨率為0.3 m×0.3 m。該數據集包含了俯仰角為15°和17°下的3類目標共7種型號:BMP2(包含3個型號:SNC21, SN9563, SN9566), BTR70(包含1個型號:C71), T72(包含3個型號:SN132, SN812, SNS7)。本節實驗主要涉及兩種典型的目標識別場景:3類目標識別場景和7種型號識別場景。其中,3類目標識別場景主要驗證識別算法對屬于同一類型但不同型號的目標的識別能力;7種型號識別場景主要驗證在不同類別數據具有較大相似情況下算法的識別能力。各場景使用的具體樣本數目如表2和表3所示。兩種場景中均使用俯仰角17°下的圖像數據作為訓練數據,俯仰角15°下的圖像數據作為測試數據。
為了驗證本文算法的有效性,將本文JSRC方法與只使用目標區域數據的SRC方法(記為SRCT),只使用陰影區域數據的SRC方法(記為SRC-S)以及SVM算法在兩種SAR目標識別場景上進行性能比較。其中,SVM分類實驗采用LIBSVM算法包[18]進行求解,多類分類策略采用一對多策略[19]。懲罰參數C從集合[10-4,10-2,…,102,103]中,通過10折交叉驗證選取。如無特別說明,實驗中所用分割閾值a=0.05, b=0.20。文中所有結果均為獨立進行5次實驗以后取平均值得到。
5.1 聯合陰影和目標區域的SAR目標識別
本節選取兩種實驗場景設置,對比JSRC和SRC-T, SRC-S以及SVM算法的識別性能。實驗中降維維度r選取[50, 100, 200, 300, 500],圖3給出了實驗結果。由圖可知,在各種降維維度下JSRC識別性能是4種算法中性能最好的。如圖3所示,無論是3類識別場景還是7種型號識別場景,JSRC算法要都比SRC-T算法識別率高出大約2個百分點。并且在3類識別場景中,數據維度為500維時本文提出的JSRC算法已可達到93.6%的識別率。在文獻[7]中,通過將3幅方位角度間隔為1°~3°的同目標圖像聯合進行識別,并且在降維維度為512時才可達到94.1%。而本文提出的JSRC算法只需要一幅目標圖像就可以達到相近的識別結果。可見采用獨立字典的聯合稀疏表示模型可以有效地利用陰影區域信息,從而提升識別性能。
我們知道,陰影區域不包含強度信息,只是目標形狀遮擋地面反射回波形成。所以即使各類目標的散射特性有所差異,但如果在雷達視線方向投影出的形狀大體相似,則成像后形成的陰影區域也會很相似。因此單純借助陰影區域進行識別的性能較差,且對目標姿態變化敏感(文獻[4])。而單純采用目標區域進行識別雖然可以達到較好的識別結果,卻損失了陰影區域中的有用信息。由于目標區域與陰影區域這兩種信息在識別性能方面的差異較大,使得傳統的融合方法(如:投票法)很難奏效。要想將陰影信息合理有效地融合進目標識別任務中,就必須采用保守的融合方式,即:只利用兩種信息之間的必然聯系。為了進一步說明,我們給出某幅BMP2圖像在SRC-T, SRC-S以及JSRC算法中求得的稀疏表示系數示意圖(見圖4)。其中虛線將圖像劃分成的3個區域分別對應3個不同的類別,從左到右依次為BMP2, BTR70和T72。如圖4所示,若單從目標區域的稀疏表示來看,該類型應該屬于BTR70,但是與BMP2類別之間的差異并不顯著。而單從陰影的稀疏表示來看,該類型會被判定屬于T72。可見單純依賴某種信息得到的判決結果之間存在矛盾。本文JSRC算法在構造字典時對tD和sD使用了相同的拼接順序,測試時通過12ll混合范數強迫聯合稀疏表示系數中tx和sx所選原子具有相同的位置(如圖4(c)所示)。因此利用了目標與陰影之間應該具有的對應關系,使得到的聯合稀疏表示更加合理,從而提升了識別性能。

表2 3類目標識別場景使用的訓練和測試數據個數

表3 7種型號識別場景使用的訓練和測試數據個數

圖3 聯合陰影和目標區域的SAR目標識別結果

圖4 某幅BMP2測試圖像在3種算法中求得的稀疏表示系數
5.2 分割閾值對識別性能的影響
本節選取3類識別場景,測試JSRC算法受圖像分割質量影響的程度。本節實驗中隨機降維維度固定為500維,高強度分割閾值a取值范圍為[0.03, 0.04,0.05,0.06,0.07],低強度分割閾值b取值范圍為[0.30,0.25,0.20,0.15,0.10]。如圖5所示,識別率隨分割閾值的變化情況不大,平均識別率達到93.26%,標準差為0.0088。由此我們可看出JSRC算法受分割質量的好壞影響不大,因此可更好地應用于SAR目標識別任務。

圖5 識別率隨分割閾值的變化
地面SAR目標圖像由目標區域和陰影區域兩部分組成,如何充分而合理地利用SAR圖像中的信息是提升SAR目標識別性能的關鍵。本文提出了一種聯合陰影區域與目標區域圖像的SAR目標識別方法。該方法通過引入獨立字典的聯合稀疏表示模型達到了陰影區域與目標區域信息的有效融合。實驗表明,該方法不僅可以進一步提高SAR目標識別精度,并且受SAR圖像分割質量影響較小,具有較好的推廣性。另外,本文模型中的字典是由訓練樣本直接構成的,如何通過機器學習的方法學習出識別性能更好,結構更緊湊的字典是需要進一步研究的問題。
[1] 張紅, 王超, 張波, 等. 高分辨率SAR圖像目標識別[M]. 北京: 科學出版社, 2009: 5.2節.
Zhang Hong, Wang Chao, Zhang Bo, et al.. High Resolution SAR Image Target Recognition[M]. Beijing: Science Press, 2009: Chapter 5.2.
[2] Zhao Qun and Principe J C, et al.. Support vector machines for SAR automatic target recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2001, 37(2): 643-655.
[3] Sun Yi-jun, Liu Zhi-peng, Todorovics S, et al.. Adaptive boosting for synthetic aperture radar automatic target recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2007, 43(1): 112-125.
[4] Scott P and Narayanan R M. Classification via the shadow region in SAR imagery[J]. IEEE Transactions on Aerospace and Electronic Systems, 2012, 48(2): 969-980.
[5] 尹奎英, 金林, 李成, 等. 融合目標輪廓和陰影輪廓的SAR圖像目標識別[J]. 空軍工程大學學報(自然科學版), 2011, 12(1): 24-28.
Yin Kui-ying, Jin Lin, Li Cheng, et al.. An SAR ATR based on fusion of target contour and shadow contour[J]. Journal of Air Force Engineering University (Natural Science Edition), 2011, 12(1): 24-28.
[6] 孫志軍, 薛磊, 許陽明, 等. 基于多層編碼器的SAR目標及陰影聯合特征提取算法[J]. 雷達學報, 2013, 2(2): 203-209.
Sun Zhi-jun, Xue Lei, Xu Yang-ming, et al.. Shared representation of SAR target and shadow based on multilayer auto-encoder[J]. Journal of Radars, 2013, 2(2): 203-209.
[7] Zhang Hai-chao, Nasrabadic N M, Zhang Yan-ning, et al.. Multi-view automatic target recognition using joint sparse representation[J]. IEEE Transactions on Aerospace and Electronic Systems, 2012, 48(3): 2481-2497.
[8] Wright J, Yang A Y, et al.. Robust face recognition via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(2): 210-227.
[9] Zhang Hai-chao, Nasrabadic N M, Zhang Yan-ning, et al.. Joint dynamic sparse representation for multi-view face recognition[J]. Pattern Recognition, 2012, 45(4): 1290-1298. [10] Maurer A, Pontil M, and Romera-Paredes B. Sparse coding for multitask and transfer learning[C]. Proceedings of the International Conference on Machine Learning, Atlanta, 2013: 343-351.
[11] Gu H T and Ward R K. Learning sparse representations for human action recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(8): 1576-1588.
[12] Wang Zhao-wen, Yang Jian-chao, et al.. A max-margin perspective on sparse representation-based classification[C]. Proceedings of the IEEE International Conference on Computer Vision, Sydney, 2013: 1217-1224.
[13] Amir Beck and Marc Teboulle. A fast iterative shrinkagethresholding algorithm for linear inverse problems[J]. Society for Industrial and Applied Mathematics Journal on Imaging Sciences, 2009, 2(1): 183-202.
[14] Chen Xi, Lin Qi-hang, et al.. Smoothing proximal gradient method for general structured sparse regression[J]. The Annals of Applied Statistics, 2012, 6(2): 719-752.
[15] Francis B, Rodolphe J, et al.. Structured sparsity through convex optimization[J]. Statistical Science, 2012, 27(4): 450-468.
[16] Lian Xiao-jie, Wu Yan, Zhao Wei, et al.. Unsupervised SAR image segmentation based on conditional triplet markov fields[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(7): 1185-1189.
[17] Baraniuk R and Wakin M. Random projections of smooth manifolds[J]. Foundations of Computational Mathematics, 2009, 9(1): 51-77.
[18] Chang Chih-chung and Lin Chih-jen. LIBSVM: a library for support vector machines[J]. ACM Transactions on Intelligent Systems and Technology, 2011, 2(3): 1-27.
[19] Bishop C M. Pattern Recognition and Machine Learning [M]. New York: Springer, 2008: 200-201.
丁 軍: 男,1982年生,博士生,研究方向為雷達目標識別.
劉宏偉: 男,1971年生,教授,博士生導師,實驗室主任,研究方向為自適應信號處理、雷達信號處理、雷達目標識別等.
王英華: 女,1982年生,副教授,碩士生導師,研究方向為SAR圖像目標檢測與識別.
SAR Target Recognition by Combining Images of the Shadow Region and Target Region
Ding Jun Liu Hong-wei Wang Ying-hua Wang Zheng-jue Qi Hui-jiao Shi Li-hui
(National Laboratory of Radar Signal Processing, Xidian University, Xi’an 710071, China)
SAR image of the ground target contains the target region formed by the scattered echoes of the target as well as the shadow area. However, the characteristics of the two areas are essentially different, therefore the traditional SAR image Automatic Target Recognition (ATR) methods use mainly target area information alone or shadow region only for recognition. This paper presents a joint sparse representation model by combining images of the shadow region and target region. By using the 12ll norm minimization method to solve the joint sparse representation model, the SAR image target recognition is achieved by minimizing the joint reconstruction error. Recognition results on Moving and Stationary Target Acquisition and Recognition (MSTAR) data sets show that the joint sparse representation model can effectively fuse the information within the target region and shadow region, and it has much better recognition performance than the methods using only the target or shadow area information of the image.
SAR; Target recognition; Joint sparse representation; 12ll-norm minimization
TN957.51
A
1009-5896(2015)03-0594-07
10.11999/JEIT140713
2014-05-23收到,2014-09-17改回
國家自然科學基金(61201292, 61322103, 61372132),全國優秀博士學位論文作者專項資金(FANEDD-201156),國家部委基金和中央高校基本科研業務費專項資金資助課題
*通信作者:丁軍 dingjun410@gmail.com