周葉劍 張 磊 王虹現 邢孟道 牛 威
?
多站ISAR空間目標姿態估計方法
周葉劍①②張 磊*①②王虹現①②邢孟道①②牛 威③
①(西安電子科技大學雷達信號處理國家重點實驗室 西安 710071)②(西安電子科技大學信息感知技術協同創新中心 西安 710071)③(宇航動力學國家重點實驗室 西安 710043)
該文提出一種基于多站逆合成孔徑雷達(ISAR)序列成像的空間目標姿態估計方法。方法提取各幀ISAR圖像中目標的典型線性結構,結合目標軌道信息實現關鍵部件姿態估計。該文建立了較為穩健的空間目標ISAR幾何結構分析流程,采用Radon變換對太陽能翼、平板天線等線性結構進行提取和關聯,繼而估計典型線性結構在距離-多普勒成像平面的姿態角變化,同時利用衛星軌道信息獲得ISAR距離-多普勒投影矩陣進行線性結構的3維姿態解算,最終實現典型部件姿態的優化求解估計。仿真實驗驗證了所提算法可有效實現空間目標典型部件的姿態估計,同時利用多站ISAR觀測數據可有效提升算法的估計精度。
ISAR成像;幾何投影矩陣;姿態估計;Radon變換;多站ISAR
精確實時測量空間目標以及重要載荷部件的姿態指向是空間目標監測的重要內容,目標姿態信息可有效反應空間目標工作狀態,可直接應用于目標故障分析,特別對非合作空間目標及其載荷的主動姿態估計可分析其載荷指向、動作意圖等重要情報。目前,空間目標的絕對姿態估計主要利用光電或雷達傳感器對目標進行連續高分辨成像,根據圖像序列信息來進行目標的姿態估計。這種外部觀測方式可應用于合作目標也可應用于非合作目標甚至是失控目標的姿態估計[1,2]。對于成像序列信息的利用上,觀測者又可以根據實際需求采用不同方案。其中基于觀測圖像與參考數據庫的匹配是一種較為可行的方案。在已知目標幾何材質、空間構造的情況下,通過電磁或光學仿真建立目標觀測數據庫,對窄帶RCS序列、寬帶逆合成孔徑雷達(ISAR)、光學等成像方式得到的圖像進行模板或者特征匹配,根據匹配結果確定觀測目標真實3維姿態。另外一種方案則是基于觀測的幾何投影模型,直接根據觀測圖像進行目標姿態和3維結構的重建,如:使用激光傳感器對目標點云進行特征值分解或者各特征提取,來獲得目標姿態信息[6,7];使用雷達傳感器對目標表面點進行跟蹤觀測,結合目標2D雷達圖像與空間3D目標模型之間的聯系完成3維目標姿態的重建。上述算法均是針對目標散射點進行建模和處理,對散射中心的視角變化較為敏感。在目標結構復雜、有效散射中心缺失或者被遮擋的情況下,散射中心的精確提取較為困難,難以滿足當前觀測任務的需求。
考慮到當前空間目標姿態估計的主要目的是確定載荷等關鍵部件的空間指向,而實際應用中大多數載荷存在明顯的線性結構這一特點,本文提出一種基于逆合成孔徑雷達(ISAR)序列成像的空間目標線性部件姿態估計方法。通過單/多站ISAR系統獲取空間目標的連續觀測數據,使用距離-多普勒算法對回波進行成像,利用Radon變換對得到的雷達序列圖像進行典型線性結構(如衛星所配備太陽能翼、平板天線等重要載荷部件)的提取,并進行線性結構的序列關聯。然后從經典的幾何投影理論出發,結合目標軌道參數、觀測站點位置信息構造各站點所對應的ISAR距離-多普勒觀測投影矩陣,來匹配觀測到的圖像序列解算出這些結構在空間中的姿態信息,完成關鍵部件運行狀態的評估,實際可應用于包括民用衛星載荷工作狀態判定、故障分析,軍事目標威脅度評判、捕獲等民用和軍用領域。
地基ISAR系統空間觀測過程中,目標的空間位置可通過坐標轉換從空間目標軌道坐標轉換到地心固定坐標(ECEF)[10,11],繼而考慮雷達站點坐標可得到雷達視角信息[4,11],如圖1(a)所示。在多站觀測的情況下,為保證目標姿態描述的統一性,經過理想的平動補償后,雷達視角信息已由ECEF坐標轉換到目標本體坐標系下,如圖1(b)所示。
在完成雷達視角信息的轉換后,本文采用經典的3維轉臺模型來描述目標相對雷達視線的姿態角變化。如圖2(a)所示,假設某一測量瞬時,目標相對雷達視線仰角和方位角分別表示為和,則瞬時雷達視線方向表示為

圖1 空間目標觀測幾何

圖2 空間目標轉臺模型與線性結構姿態模型
空間目標通常裝配太陽能帆板、SAR平板天線等重要興趣載荷,其邊緣均有嚴格的線性結構特征。如圖2(b)所示,定義某一太陽能翼邊緣為興趣線性結構,定義2維姿態角和,則該線性結構姿態指向可用單位矢量表示為

考慮ISAR成像采用距離-多普勒(RD)處理,雷達圖像距離和多普勒像素分辨率定義為[12]
(3)


(6)

(8)

(10)
式中

也就是說已知空間目標相對于各站點的雷達視線參數,構造相應的投影矩陣,可以對線性結構指向(即在圖2幾何空間中的目標絕對姿態角和)在雷達圖像上的投影信息進行預測。
本文提出的線性結構姿態估計算法利用地基ISAR系統對空間目標的連續觀測數據獲得目標的ISAR圖像序列,從圖像序列中提取目標線性結構在2D雷達圖像上的指向信息作為觀測數據。然后,通過雷達視線信息建立投影矩陣序列,對目標線性結構在2D雷達圖像上的指向信息做出預測。接著,構造代價函數,搜索使預測信息最接近觀測信息的姿態角參數,作為3D空間中線性結構的真實指向,從而完成對目標整體姿態的估計。需要強調以下兩個因素:(1)空間目標在單幀RD成像相干處理時間內姿態相對平穩、視角變化可近似為2維轉臺模型,單幀RD圖像中目標投影對應該幀相干處理時間中間點的目標姿態;(2)每幀RD圖像具有足夠分辨率和聚焦精度,可分辨目標線性結構。
本文算法具體流程如圖3所示。首先根據得到的回波數據,采用傳統ISAR處理流程進行RD序列成像;然后對得到的圖像序列進行目標線性結構的提取,獲取其在RD成像平面內的傾角、長度、中心位置等觀測信息;接著通過空間目標軌道信息及站點位置信息構造各幀圖像對應的投影矩陣,利用觀測幾何進行圖像間線性結構的關聯并完成目標線性結構的絕對姿態角估計。下面對各核心步驟詳細說明。

圖3 ISAR序列像的線性結構提取與姿態估計流程
3.1 RD序列成像
3.2 線性結構提取
首先對各幀RD圖像進行濾波、對數變換,提高RD圖像平滑性并調整像素值范圍,在此基礎上采用-mean聚類算法[13]進行背景分割得到目標-背景的二值圖像。繼而進行圖像形態學處理提取目標邊界,形態學處理主要利用腐蝕、膨脹、開運算、閉運算[14,15]。
空間目標的太陽能翼、平板天線等典型線性結構是本文所關心的特征結構。進行以上圖像處理后,這些典型目標線性結構主要體現在二值圖像的邊界信息中,這里對邊界圖像進行Radon變換,提取感興趣的線性結構,并記錄每幀圖像中各線性結構在圖像中的指向傾角,中心位置,長度作為觀測信息。
3.3 投影矩陣構造和線性結構的關聯
3.3.1 同站圖像間的關聯 定義歸一化的差別函數描述相鄰圖像間線性結構的相似程度,歸一化差別函數如式(11):

3.3.2 異站圖像間的關聯 定義指向傾角間的關聯系數描述不同圖像間線性結構的相似程度:

通過最小化式(11)或式(12)中的代價函數,實現相鄰幀間不同線性結構的關聯,遍歷各幀RD圖像,即可實現各線性結構在不同幀間的有效關聯。需要說明的是由于多站情況下,不同站點對應的投影矩陣間變化不連續,當傾角信息提取中出現較大的干擾時,可能存在關聯失敗的情況,實際處理多站ISAR圖像結構的關聯可引入部分人工認證處理以保證準確性。
3.4 姿態參數優化估計
本文算法的姿態參數優化估計主要從預測信息與觀測信息間的差別最小化出發對目標絕對姿態仰角和方位角進行估計。對第幀RD圖像可有如式(13)所示測量方程:

(14)

需要強調線性結構姿態估計的優化問題運算量非常小,這里使用簡單的枚舉法搜索代價函數最小值。
仿真實驗使用一組真實目標軌道參數下仿真衛星目標的連續回波,衛星目標3維模型如圖4所示。該目標太陽能翼為可折疊平板結構,具有明顯的線性邊界。仿真主要分為單站觀測與多站觀測兩部分,采用的主要ISAR雷達參數如表1所示,選取的目標軌道、雷達站點位置信息如表2所示。

圖4 衛星目標3維結構模型
表1 主要ISAR系統參數

單幀RD成像尺寸512×512 波長0.018 m 發射信號的帶寬1 GHz 發射信號中心頻率16.7 GHz 脈沖重復頻率100 Hz
表2 目標軌道及觀測站點位置信息

目標軌道高度791 km 目標軌道傾角 目標軌道升交點赤經 北京站位置 佳木斯站位置
4.1 單站觀測情況下的目標姿態估計
本實驗在北京站對處于軌道某段的目標進行仿真。
首先對連續觀測回波進行角域劃分并RD成像,得到包含15幀ISAR圖像的觀測序列,RD圖像信噪比設置為20 dB,圖像橫縱坐標分別表示方位向、距離向像素位置而無具體量綱。
對圖像序列進行圖像處理后,利用本文方法對處理后圖像序列進行線性結構的提取、關聯,選取其中4幀圖像關聯結果如圖5所示。最后,對關聯后的3個線性結構,分別進行優化估計獲取其絕對姿態角參數,并與真值進行比較,結果如表3所示。

圖5 雷達圖像線性結構關聯結果
表3 線性結構姿態估計

結構編號123 姿態仰角-9.6-10.075.5 方位角171.3172.1121.5 空間真實指向矢量liang 量(-0.14, 0.98, 0.17)(-0.14, 0.98, 0.17)(0.20, -0.14, 0.97) 估計誤差0.510.371.05
從實驗過程來看,單站算法性能主要受兩方面影響。第一是圖像處理精度,特別是邊界提取精度對線性結構在RD平面姿態角的估計影響較大;第二是RD圖像本身受目標相對雷達視角的約束,在某些視角下,RD圖像中線性結構特征表現不明顯。此外,單站算法需要較長時間的連續觀測,也就是依賴獲取的圖像幀數。
4.2 多站觀測情況下的目標姿態估計
針對單站方法的局限性,本部分實驗在多站觀測模式下進行目標姿態的估計。選取同一觀測時間段內,北京站3幀(第1, 2, 3幀),佳木斯站3幀(第4, 5, 6幀)觀測結果進行線性結構的關聯與提取,關聯結果如圖6所示,姿態估計的結果如表4所示。

圖6 多站觀測下目標線性結構關聯結果
表4 多站觀測下線性結構姿態估計

結構編號123 姿態仰角-13.3-15.7-12.7 方位角69.1163.268.3 空間真實指向矢量矢量(0.91, 0.36, -0.22)(-0.30, 0.92, 0.26)(0.91, 0.36, -0.22) 估計誤差1.021.480.04
如圖6所示,本實驗北京站的觀測圖像結果不佳(主要是線性結構的完整度受到觀測視角的影響),線性結構提取的結果存在明顯誤差,若僅采用北京單站數據進行估計則結果將存在較大誤差,而聯合佳木斯站的觀測數據后,估計的平均誤差仍在之內如表4所示。也就是說,多站聯合觀測進行姿態估計可有效克服單站估計誤差受雷達視角的限制,且其在觀測時間從15幀對應的觀測時間下降至3幀對應的觀測時間的情況下將算法的估計精度維持在一定水平,這對實際應用中目標姿態穩定性要求的降低具有較大的意義而隨之帶來的只有多站觀測間的時間同步要求,具有較強的可操作性[16,17]。
本文從幾何投影理論出發,分析目標2維雷達圖像與空間3維目標模型之間的聯系,通過雷達視線信息來預測空間目標線性部件在2維雷達圖像中的投影信息。同時,通過一系列圖像處理操作獲取空間目標線性部件在ISAR圖像的觀測信息。最后,搜索與觀測信息最相近的預測信息所對應的姿態參數作為姿態估計結果。本文實驗結果表明本文算法在單站觀測較為完備的情況下,準確度較高,同時推廣至多站模式可有效克服單站算法的局限性,可滿足實際的空間目標姿態估計任務。本文算法對ISAR圖像序列的信噪比要求偏高,對圖像處理精度要求亦偏高,在后續工作中,可對算法中背景分割、線性結構提取等步驟進行改良,進一步提高算法的準確度與穩定性。
[1] Lefferts E J, Markley F L, and Shuster M D. Kalman filtering for spacecraft attitude estimation[J].,, 1982, 5(5): 417-429.
[2] 徐少坤, 劉記紅, 袁翔宇, 等. 基于 ISAR 圖像的中段目標二維幾何特征反演方法[J]. 電子與信息學報, 2015, 37(2): 339-345. doi: 10.11999/JEIT140338.
XU Shaokun, LIU Jihong, YUAN Xiangyu,. Two dimensional geometric feature inversion method for midcourse target based on ISAR image[J].&, 2015 37(2): 339-345. doi: 10.11999/JEIT140338.
[3] 魏小峰, 耿則勛, 婁博, 等. 空間目標三維姿態估計[J]. 武漢大學學報, 2015, 40(1): 96-101. doi: 10.13203/j.whugis2013 0156.
WEI Xiaofeng, GEN Zexu, LOU Bo,. A 3D pose estimation method for space object[J]., 2015, 40(1): 96-101. doi: 10.13203/j.whugis20130156.
[4] Zhong W J, Ji J S, Lei X,. The attitude estimation of three-axis stabilized satellites using hybrid particle swarm optimization combined with radar cross section precise prediction[J]., 2015, 8: 1-13. doi: 10.1177/0954410015596178.
[5] Lemmens S, Krag H, Rosebrock J,. Radar mappings for attitude analysis of objects in orbit[C]. Proceedings of the 6th European Conference on Space Debris, Darmstadt, Germany, 2013: 20-24.
[6] Zhu D Q and Chu C C. Characterization of irregularly shaped bodies[C]. International Society for Optics and Photonics, USA, 1995: 17-22. doi: 10.1117/12.211501.
[7] 郭裕蘭, 萬建偉, 魯敏, 等. 激光雷達目標三維姿態估計[J]. 光學精密工程, 2012 20(4): 843-850. doi: 10.3788/OPE. 20122004.0843.
GUO Yulan, WAN Jianwei, LU Min,. Three dimensional orientation estimation for ladar target[J]., 2012 20(4): 843-850. doi: 10.3788/ OPE.20122004.0843.
[8] Tomasi C and Kanade T. Shape and motion from image streams: A factorization method[J]., 1993, 90(21): 9795- 9802. doi: 10.1007/BF00129684.
[9] Rosebrock J. Absolute attitude from monostatic Radar measurements of rotating objects[J]., 2011, 49(10): 3737-3744. doi: 10.1109/TGRS.2011.2159727.
[10] 寧夏, 葉春茂, 楊健, 等. 空間目標雷達觀測視角變化率及其應用[J]. 清華大學學報(自然科學版), 2013 53(11): 1558-1564. doi: 10. 16511/j.cnki.qhdxxb. 2013.11.008.
NING Xia, YE Chunmao, YANG Jian,. Radar aspect angle rate-of-change with respect to space target and its application[J].(), 2013, 53(11): 1558-1564. doi: 10.16511/j.cnki. qhdxxb.2013.11.008.
[11] Mayhan J T, Burrows M L, Cuomo K M,High resolution 3D “Snapshot” ISAR imaging and feature extraction[J].,2001, 37(2): 630-642. doi: 10.1109/ 7.937474.
[12] 保錚, 邢孟道, 王彤. 雷達成像技術[M]. 北京: 電子工業出版社, 2005: 231-241.
BAO Zheng, XING Mengdao, and WANG Tong. Radar Imaging Technology[M]. Beijing: Publishing House of Electronics Industry, 2005: 231-241.
[13] Elhabian S Y, ElSayed K M, and Ahmed S H. Moving object detection in spatial domain using background removal techniques-state-of-art[J]., 2008, 1(1): 32-54. doi: 10.2174/1874479610801010032.
[14] Rafael C G and Richard E W. Digital Image Processing [M]. Third Edition. Beijing: Publishing House of Electronics Industry, 2007: 432-435.
[15] 劉艷莉, 桂志國. 基于形態學的可變權值匹配自適應圖像增強算法[J].電子與信息學報, 2014, 36(6): 1285-1291. doi: 10.3724/SP. J.1146.2013.01082.
LIU Yanli and GUI Zhiguo. Adaptive image enhancement algorithm with variable weighted matching based on morphology[J].&, 2014, 36(6): 1285-1291. doi: 10.3724/SP.J.1146. 2013.01082.
[16] 陳伯孝, 朱旭花, 張守宏. 運動平臺上多基地雷達時間同步技術[J]. 系統工程與電子技術, 2005, 27(10): 1734-1737. doi: 10. 3321/j.issn:1001-506X.2005.10.020.
CHEN Boxiao, ZHU Xuhua, and ZHANG Shouhong. Time synchronization technique of multi-station radar on moving flat[J].,2005, 27(10): 1734-1737. doi: 10.3321/j.issn:1001-506X.2005.10.020.
[17] 劉贊, 陳西宏, 薛倫生, 等. 雙基地雷達系統時間同步方案研究[J].火力與指揮控制, 2016, 41(1): 139-142. doi: 10.3969. j.issn.1002-0640.2016.01.034.
LIU Zan, CHEN Xihong, XUE Lunsheng,. Research on schemes of the time synchronization for bistatic radar system[J].&, 2016, 41(1): 139-142. doi: 10.3969/j.issn.1002-0640.2016.01.034.
周葉劍: 男,1993年生,博士生,研究方向為ISAR成像.
張 磊: 男,1984年生,副教授,研究方向為SAR/ISAR成像與運動補償.
王虹現: 男,1979年生,副教授,研究方向為雷達成像及其實時處理.
邢孟道: 男,1975年生,教授,研究方向為SAR/ISAR成像.
牛 威: 男,1977年生,高級工程師,研究方向為雷達目標特性分析、雷達信號處理.
Attitude Estimation for Space Satellite Targets with Multistatic ISAR Systems
ZHOU Yejian①②ZHANG Lei①②WANG Hongxian①②XING Mengdao①②NIU Wei③
①(,,’710071,)②(,,’710071,)③(,’710043,)
A new method for attitude estimation for space satellite targets is presented by extracting typical linear structures in ISAR imaging sequence and using information of target’s position in orbits to analyze the three-dimensional attitude of space satellite targets. With the analyzing process for space satellite targets’ geometric structures, the algorithm utilizes Radon transformation to realize the extraction of linear structures, like solar wings, planar antennas, in ISAR imaging sequences. After finishing the relevance of these linear structures among different frames, the angle information of typical linear structures in range-Doppler plane is extracted. At last, with target’s position information in orbits, a matrix sequence of the ISAR range-Doppler projection is acquired to estimate the three-dimensional attitude of linear structures, and realize exact solution of space satellite targets’ attitude. The simulation experiment result illustrates that the algorithm can realize the attitude estimation of typical units in space satellite targets, and the multistatic model algorithm shows its advantage in estimation accuracy.
Inverse SAR (ISAR) imaging; Geometrical projection matrix; Attitude estimation; Radon transform; Multistaic ISAR
TN957.52
A
1009-5896(2016)12-3182-07
10.11999/JEIT160603
2016-06-06;改回日期:2016-11-28;
2016-12-13
張磊 leizhang@xidian.edu.cn.
國家自然科學基金(61301280, 61301293)
The National Natural Science Foundation of China (61301280, 61301293)