999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于單站地基望遠鏡的空間目標姿態估計方法

2016-11-09 05:36:30李正煒王建立吳元昊王國聰
中國光學 2016年3期
關鍵詞:方法模型

李正煒,王建立,吳元昊,王國聰,劉 帥

(1.中國科學院 長春學精密機械與物理研究所,吉林 長春 130033;2.中國科學院大學,北京 100049)

?

基于單站地基望遠鏡的空間目標姿態估計方法

李正煒1,2,王建立1*,吳元昊1,王國聰1,2,劉帥1

(1.中國科學院 長春學精密機械與物理研究所,吉林 長春 130033;2.中國科學院大學,北京 100049)

為實現從單站光測圖像中估計出已知3D模型的空間目標姿態,利用Vega Prime提出了一種采用仿真圖像進行相關度局部最優搜索的姿態估計方法,該方法無需建立2D-3D特征投影關系和大量的模型匹配庫。首先,對輸入圖像進行圖像預處理,獲得目標原始圖像。然后,利用Vega Prime加載目標3D模型生成仿真匹配圖像,并進行圖像預處理獲得目標匹配圖像,計算兩幅圖像相關度。最后,更新3D目標模型姿態,直至仿真匹配圖像與目標原始圖像的相關度值取得局部最優,輸出目標模型姿態。仿真實驗結果表明,采用本文所提方法的觀測仿真圖像姿態平均估計誤差為3.85°,仿真原圖可實現姿態準確估計,表明該方法是一種空間目標姿態估計的有效方法。

姿態估計;相關度;空間目標;地基望遠鏡;Vega Prime

1 引 言

目前,空間目標監測識別系統主要分為陸基雷達系統和光學觀測系統兩部分。前者主要用于探測低軌道空間目標,后者可用于探測高軌道空間目標。隨著望遠鏡成像性能的提高和自適應光學系統的發展,光學系統對空間目標的成像質量能滿足空間目標監測需求。利用地基光學望遠鏡圖像進行空間目標姿態估計,可獲得衛星任務狀態、探測器偵察區域等方面信息,具有重要的研究意義[1-3]。

目前對單站光測圖像進行目標姿態估計的方法,可以主要歸結為兩種類型:一種是通過尋找確立,以二維到三維的某種特征投影對應關系為前提,進行姿態解算,但實際中由于被測目標姿態的自由變化可能導致一些特征被遮擋,因此無法實現任意姿態的估計[4-9]。另一種是,采用三維模型檢索技術進行姿態估計,可以避免建立復雜的投影關系,但目前采用的方式需要建立龐大而復雜的模型數據庫,實際應用中效率較低[10-11]。本文利用Vega Prime實時仿真技術,對已知3D模型的空間目標實時生成仿真圖像,進行相關度值最優匹配搜索,避免了大量模型匹配庫的建立。

空間目標模型可以通過一些公布的參數或由觀測圖像分析建立3D模型獲得。Vega Prime是實時三維虛擬現實工具,可根據設定姿態信息實時生成仿真圖像并作為模型匹配圖像與觀測圖像進行相關度計算。如果仿真圖像目標姿態與觀測圖像目標姿態一致時,相關度值為局部最優值,則在給定接近真實姿態角初值時,更新模型姿態進行姿態角搜索,使相關度值達到最優值,可實現觀測圖像目標姿態估計。通過對不同姿態方向上相關度值變化分析,當仿真目標姿態角為真實姿態角時,相關度值為局部最優值,證明此方法的可行性。同時對地基望遠鏡成像過程進行仿真,對仿真觀測圖像進行姿態估計,實驗結果證明本文所述方法是一種有效的姿態估計方法。

2 姿態估計方法原理

2.1目標姿態角定義

如圖1所示,Os-XSYSZS為望遠鏡觀測坐標系,OsO為望遠鏡觀測視軸,O-XYZ為目標坐標系。

圖1 觀測坐標系 Fig.1 Coordinate of observation

目標的偏航角θ指目標中心軸線在XOY平面上投影與x軸所成角度,俯仰角φ為目標中軸線與XOY平面所成角度,滾轉角γ為目標繞中軸線旋轉角度,具體如圖2所示。

圖2 目標三維姿態 Fig.2 3D attitude of target

2.2Vega Prime簡介

Vega Prime是Multigen-Paradigm公司推出的實時三維虛擬現實開發工具,支持面向對象技術,其底層基于開放式Open GL技術,具有良好的跨平臺性。通過Lynx Prime GUI圖形化工具可以進行快速配置,簡單易用,讓用戶可以快速準確地開發出適合要求的視景仿真應用程序[12-13],是實景仿真軟件平臺的主流工具。

圖4 Vega Prime運行流程 Fig.4 Operational scheme of Vega Prime

在啟動Vega Prime仿真線程后,在仿真循環中設置目標姿態可實時生成仿真圖像。在Vega Prime運行時,通過對EVENT_POST_DRAW事件的響應,提取出仿真圖像作為姿態估計匹配圖像。

2.3圖像相關度計算

相似性度量主要分為兩大類:距離度量和相關度量。其中對于各種畸變而言,相關度量優于距離度量,且相關度量對噪聲和光照強弱變化不敏感[14],因此本文采用相關度量中歸一化相關度量作為相似性度量方法。設g(x,y)為原圖像,f(x,y)為仿真匹配圖像,l為圖像高度,h為圖像寬度,N=l×h。

相關度計算:

(1)

2.4姿態估計方法

利用Vega Prime對望遠鏡成像過程進行仿真,生成觀測目標不同姿態角的仿真圖像。假定仿真圖像與觀測圖像在真實姿態角附近相關度存在局部最優值,則在真實值附近,可以通過搜索各姿態角使觀測圖像與仿真圖像相關度最優值,進而估計出當前觀測圖像目標姿態角。因在空間目標觀測過程中目標的姿態角是連續變化過程,前一幀觀測圖像的姿態角可作為后一幀估計初值。

姿態估計方法:首先通過對觀測圖像進行人為姿態估計,作為初值,以此為基礎在不同姿態方向上仿真圖像與觀測圖像進行相關度匹配,得到相關度最優位姿,即為空間目標估計姿態。姿態搜索策略:設置搜索步長,在偏航角方向搜索達到相關度最優值,在此基礎上在俯仰角方向搜索達到相關度最優值,最后進行滾轉角方向搜索達到最優值,此時看作為完成一次姿態搜索。精度delta搜索完成條件:

(2)

式中,thold為相關度變化閾值,可取值10-6。更新搜索精度,重新搜索估計姿態角,直至滿足要求精度,輸出仿真目標姿態角,具體算法流程圖如圖5所示。圖像預處理主要是對圖像進行閾值分割處理,提取出目標的二值化圖像。

具體算法步驟如下:

(a)輸入:望遠鏡視軸方位AS、俯仰ES;

初始搜索精度delta0;

姿態估計精度APrecise;

目標3D模型;

觀測圖像g(x,y);

(b)Vega Prime仿真望遠鏡成像過程,生成仿真圖像;

(c)改變3D模型姿態進行人為估計姿態角初值,偏航角θ0,滾轉角γ0,俯仰角φ0,(θ0,φ0,γ0);

(d)對觀測圖像預處理獲得gt(x,y);

(e)Vega Prime仿真線程生成姿態角(θ,φ,γ)對應仿真圖像f(x,y);

(f)進行仿真圖像預處理得到ft(x,y);

(g)根據式(1)計算兩幅圖像相關度R;

(h)循環步驟(e)到(g),更新θ=θ+delta,直至相關度最優;

(i)循環步驟(e)到(g),更新φ=φ+delta,直至相關度最優;

(j)循環步驟(e)到(g),更新γ=γ+delta,直至相關度最優;

(k)更新delta=delta/2,當delta>APrecise跳轉至(h),否則輸出(θ,φ,γ)。

圖5 姿態估計算法流程 Fig.5 Flow chart of the attitude estimation algorithm

2.5空間目標成像仿真

本文所述方法主要應用于單站地基望遠鏡觀測圖像的空間目標姿態估計。地基光學望遠鏡觀測成像主要受大氣湍流影響,針對大氣擾動進行建模,對觀測成像過程進行仿真[15-17]。

2.5.1圖像降質模型

CCD成像系統在空間目標成像過程中會受到各種因素的影響而產生模糊和降質,如大氣湍流效應、成像過程中的噪聲、光路中的衍射等。所獲得的圖像為所有退化過程作用后的結果,且退化過程對大部分成像系統而言是線性的。因此,圖像的退化過程可表示為:

(3)

式中,*表示卷積運算,函數h(x,y)表示點擴散函數,g(x,y)表示退化圖像,f(x,y)表示輸入圖像,η(x,y)為噪聲。

頻域上式(3)可表示為:

(4)

式中,H(u,v)稱為光學傳遞函數(OTF,Optical Transfer Function)。

2.5.2光學傳遞函數(OTF)

對于地基望遠鏡而言,大氣湍流效應是造成成像模糊的主要原因。因此主要對大氣擾動進行建模,獲得長曝光OTF,根據長曝光OTF獲得仿真觀測圖像。大氣相干長度r0反映了大氣湍流對光波波前的擾動程度,表示光學成像系統分辨率受大氣湍流影響不會超過口徑為r0的望遠鏡系統衍射極限。利用大氣相干長度r0表示的光學傳遞函數(OTF)為:

(5)

式中,λ是成像波長,f為成像系統焦距,v為頻率。

根據式(5)即可計算出大氣擾動所對應得光學傳遞函數。

3 實驗與分析

采用VS2008實現實時仿真姿態估計軟件的編寫,軟件操作UI如圖6所示,其中左側顯示為輸入原圖,右上為Vega Prime仿真圖像,右下為仿真處理圖像,以哈勃望遠鏡3D模型為例,進行實時仿真姿態估計實驗分析。

當望遠鏡視軸方位、俯仰角均為0°時,定義目標姿態角(0°, 0°,0°)為基準姿態,設定此時目標姿態如圖7所示,所估計的目標姿態角為相對于此初始模型產生的角度變化。

圖6 姿態估計軟件 Fig.6 Attitude estimation software

圖7 目標基準姿態 Fig.7 Basic attitude of target

3.13個姿態方向相關度分析

以望遠鏡視軸方位俯仰角均為45°及目標姿態偏航角10°、俯仰角10°、滾轉角10°為例,目標仿真圖像如圖8所示,以仿真原圖作為輸入圖像,以1°作為搜索步長,分別對偏航角、俯仰角、滾轉角3個方向進行相關度值變化分析。

圖8 原始仿真圖像 Fig.8 Original simulation image

當俯仰角10°,滾轉角10°時,偏航角方向以1°為搜索精度,相關度值變化情況如圖9所示。

圖9 偏航角方向相關度值R變化曲線 Fig.9 Change curve of correlation value on yaw angle

當偏航角10°,滾轉角10°時,俯仰角方向以1°為搜索精度,相關度值變化情況如圖10所示。

圖10 俯仰角方向相關度變化曲線 Fig.10 Change curve of correlation value on pitch angle

當偏航角10°,俯仰角10°時,滾轉角方向以1°為搜索精度,相關度值變化情況如圖11所示。

圖11 滾轉角方向相關度變化曲線 Fig.11 Change curve of correlation value on roll angle

由圖9、圖10、圖11所示,每個姿態角方向在真實值10°附近相關度值均出現峰值,相關度值最高。因此,可以判定當仿真目標姿態為真實姿態角時,仿真圖像與觀測圖像的相關度值為局部最大值,采用本文方法在接近真實值附近進行搜索相關度最大值,實現目標姿態估計是可行的。

3.2仿真成像姿態估計

根據2.4,對地基望遠鏡空間目標實際成像進行仿真,取大氣相干長度為10 cm ,如對圖8進行退化處理得到觀測仿真圖像,如圖12所示。

圖12 仿真觀測圖像 Fig.12 Observation simulation image

分別對不同姿態進行實際成像仿真,采用本文方法進行姿態估計,初始搜索精度為2°,估計精度定為0.1°,估計結果如表1所示。

表1 仿真觀測圖像姿態估計結果

仿真觀測圖像姿態綜合平均估計誤差:

(6)

從各個姿態方向估計結果可以看出,對于仿真觀測圖像,由于圖像退化產生了較大的估計誤差,但總體而言能向真實值方向搜索逼近,姿態平均估計誤差為3.85°。對于仿真原圖進行姿態估計時,可得到準確的姿態值。

4 結 論

通過對3個姿態角方向上仿真圖像與觀測圖像相關度值變化情況分析,說明真實姿態角對應于相關度值一個局部最優值。本文提出的采用Vega Prime實時生成仿真圖像,在接近真實姿態角附近進行相關度最優搜索匹配的姿態估計方法,是一種有效可行的方法。對退化后圖像進行姿態估計時,由于目標形狀輪廓產生了變化和噪聲影響,造成了估計誤差、姿態角平均估計誤差為3.85°,對未退化圖像的姿態可實現準確估計。結果表明,進行姿態估計前需對觀測圖像進行圖像復原處理,獲得較清晰的目標圖像,可以獲得更精確的估計結果。綜上所述,本文所提出的姿態估計方法,姿態估計過程無需建立2D-3D特征投影關系和大量的模型匹配庫,可直接進行實時仿真搜索匹配,是一種有效的姿態估計方法。

[1]王春雪.基于圖像的空間目標三維姿態估計研究[D].北京:中國科學院,2014.

WANG CH X. The study of 3D pose estimation for space object based on images[D]. Beijing:Graduate University of the Chinese Academy of Sciences,2014.(in Chinese)

[2]陳娟,陳乾輝.空間目標三維姿態估計方法綜述[J].長春工業大學學報(自然科學版),2008,3(29):323-327.

CHEN J,CHEN Q H. Summary of the 3D pose estimations for the space targets[J].J.ChangchunUniversityofTechnology(Natural Science Edition),2008,3(29):323-327.(in Chinese)

[3]夏軍營.空間目標的單目視覺位姿測量方法研究[D].長沙:國防科學技術大學,2012.

XIA J Y. Researches on monocular vision based pose measurements for space targets[D]. Changsha:Graduate School of National University of Defense Technology,2012.(in Chinese)

[4]冷大煒.基于單目視覺的三維剛體目標測量技術研究[D].北京:清華大學,2011.

LENG D W. Research on monocular vision based metrology for 3D rigid object[D]. Beijing:Tsinghua University,2011.(in Chinese)

[5]張永軍,孔胃.利用單幅影像的空間目標姿態測定方法[J].西安交通大學學報,2009,9(43): 56-61.

ZHANG Y J,KONG W. Pose determination of space object with single image[J].J.Xi′anJiaotongUniversity,2009,9(43):56 -61.(in Chinese)

[6]于起峰,孫祥一,邱志強.從單站光測圖像確定空間目標三維姿態[J].光學技術,2002,1(28): 77-80.

YU Q F,SUN X Y,QIU ZH Q. Approach of determination of Object′s 3D pose from mono-view[J].OpticalTechnique,2002,1(28):77-80.(in Chinese)

[7]張原,王志乾,喬彥峰,等.導彈發射姿態測量方法研究[J].中國光學,2015,8(6):997-1003.

ZHANG Y,WANG ZH Q,QIAO Y F,etal.. Attitude measurement method research for missile launch[J].ChineseOptics,2015,8(6):997-1003.(in Chinese)

[8]李晶,袁峰,胡英輝.基于多點合作目標的多線陣CCD空間物體姿態測量[J].光學 精密工程,2013,21(6):269-275.

LI J,YUAN F,HU Y H. Attitude measurement of space objects based on multi-linear CCD and multi-point cooperation target[J].Opt.PrecisionEng.,2013,21(6):269-275.(in Chinese)

[9]王彬,何昕,魏仲慧.采用多站圖像直線特征的飛機姿態估計[J].光學 精密工程,2013,21(7):195-203.

WANG B,HE X,WEI ZH H. Attitude estimation of aircrafts using line features on multi-camera images[J].Opt.PrecisionEng.,2013,21(7): 195-203.(in Chinese)

[10]趙汝進,劉恩海,張文明,等.基于弱透視成像模型的目標三維姿態測量[J].光子學報,2014,5(43):0512002-1-6.

ZHAO R J,LIU E H,ZHANG W M,etal.. Measurement of 3D pose of objects based on weak perspective model[J].ActaPhotonicaSinica,2014,5(43):0512002-1-6.(in Chinese)

[11]胡薇,張桂林,任仙怡.基于子空間的3D目標識別和姿態估計方法[J].紅外與激光工程,2004,6(33):592-596.

HU W,ZHANG G L,REN X Y. Eigenspace-based approach for object recognition and pose estimation[J].InfraredandLaserEngineering,2004,6(33):592-596.(in Chinese)

[12]牛鐵.基于Vega Prime的實時三維視景仿真技術的研究[D].烏魯木齊:新疆大學,2010.

NIU T. Research of real-time 3D scene visualization technology based on Vega Prime[D]. Wulumuqi:Xinjiang University,2010.(in Chinese)

[13]于洋,李丹.跟蹤圖像生成技術應用于光電設備模擬訓練[J].液晶與顯示,2015,30(2):166-171.

YU Y,LI D. Technology of tracking image generating applied in simulation training of photoelectric device[J].ChineseJ.LiquidCrystalsandDisplays,2015,30(2):166-171.

[14]陳衛兵.幾種圖像相似性度量的匹配性能比較[J].計算機應用,2010,1(30): 98-100.

CHEN W B. Comparison of matching capabilities in similarity measurements[J].J.ComputeApplications,2010,1(30):98 - 100.(in Chinese)

[15]衛沛鋒,劉欣悅,林旭東,等.自適應光學系統測試中大氣湍流的時域模擬[J].中國光學,2013,6(3):371-377.

WEI P F,LIU X Y,LIN X D,etal.. Temporal simulation of atmospheric turbulence during adaptive optics system testing[J].ChineseOptics,2013,6(3):371-377.(in Chinese)

[16]瞿青,曹召良,胡立發,等.位相差值法測量大氣湍流格林伍德頻率[J].中國光學,2015,8(1):121-129.

QU Q,CAO ZH L,HU L F,etal.. Greenwood frequency measurement of atmospheric turbulence by phase difference method[J].ChineseOptics,2015,8(1):121-129.(in Chinese)

[17]姜寶光,穆全全,曹召良,等.液晶波前校正器校正水平方向上的大氣湍流[J].液晶與顯示,2009,24(3):396-398.

JIANG B G,MU Q Q,CAO ZH L,etal.. Correction of turbulence in horizontal direction using a liquid crystal wave-front corrector[J].ChineseJ.LiquidCrystalsandDisplays,2009,24(3):396-398.(in Chinese)

Method of attitude estimation for space object based on single ground-based telescope

LI Zheng-wei1,2, WANG Jian-li1*, WU Yuan-hao1, WANG Guo-cong1,2, LIU Shuai1

(1.Changchun Institute of Optics,Fine Mechanics and Physics,ChineseAcademyofSciences,Changchun130033,China;2.UniversityofChineseAcademyofSciences,Beijing100049,China)*Correspondingauthor,E-mail:wangjianli@ciomp.ac.cn

To estimate the attitude of the known 3D model space object from the mono-view image, a method is proposed by searching the local optimum of the correlation between the simulation image generated from Vega Prime and the observation image, which need not establish the relationships of target feature from 2D to 3D and abundant model matching library. Firstly, the input image is preprocessed to obtain the original target image. Secondly, Vega Prime program loads 3D model of the target, and generates a simulation matching image. The simulation image is preprocessed to obtain the matching target image. And the correlation of these two images is calculated. Finally, the attitude of model is updated until the correlation of the matching image and the original image is local optimum. Experimental results show that this method can estimate the attitude from the original simulation image accurately, and the average estimation error of the simulation observation image is 3.85°, which indicates that the proposed method is an effective method for space object attitude estimation.

attitude estimation;correlation;space object;ground-based telescope;Vega Prime

2016-01-22;

2016-02-23

國家高技術研究發展計劃(863計劃)資助項目(No.2013AA8083042)

2095-1531(2016)03-0371-08

TP394.1

A

10.3788/CO.20160903.0371

李正煒(1988—),男,福建龍巖人,博士研究生,2010年于中國科技大學獲得學士學位,2013年于中國科學院長春光學精密機械與物理研究所獲得碩士學位,主要從事光學成像探測和數字圖像處理等方面的研究。E-mail:lzw55555@mail.ustc.edu.cn

王建立(1971—),男,山東曲阜人,研究員,博士生導師,主要從事空間目標探測技術和地基高分辨率成像望遠鏡總體技術等方面的研究。E-mail:wangjianli@ciomp.ac.cn

Supported by National High-tech R&D Program of China(No.2013AA8083042)

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 国产情精品嫩草影院88av| 久久久久久久久久国产精品| 国产真实乱人视频| 国产精品太粉嫩高中在线观看| 动漫精品啪啪一区二区三区| 免费日韩在线视频| 91视频区| 午夜福利网址| 另类综合视频| 久操中文在线| 欧美成人一区午夜福利在线| 91精品人妻互换| 狠狠v日韩v欧美v| 91色在线视频| 日韩国产高清无码| 国产性爱网站| 色综合色国产热无码一| 国产免费羞羞视频| 亚洲男人的天堂视频| 夜精品a一区二区三区| 熟妇丰满人妻| 好久久免费视频高清| 香蕉久人久人青草青草| 亚洲v日韩v欧美在线观看| 午夜国产精品视频黄| 婷婷99视频精品全部在线观看| 又爽又大又黄a级毛片在线视频| 欧美日韩成人在线观看| 一级毛片在线免费视频| 国产性生大片免费观看性欧美| 国产成人亚洲精品色欲AV | 婷婷综合缴情亚洲五月伊| 91年精品国产福利线观看久久 | 四虎成人在线视频| 精品国产自在在线在线观看| 亚洲人成影院在线观看| 精品视频一区在线观看| 老司国产精品视频| 中文国产成人精品久久| 亚洲男女在线| 国产91在线|中文| 天天综合网站| 欧美午夜精品| 超碰aⅴ人人做人人爽欧美| 97超爽成人免费视频在线播放| 国产国语一级毛片在线视频| aa级毛片毛片免费观看久| 精品视频第一页| 最新国产网站| 久久久久亚洲av成人网人人软件| 国产精品99久久久| 国产一线在线| 婷婷亚洲视频| 国产精品成人免费视频99| 国产亚洲美日韩AV中文字幕无码成人| 欧美激情综合| 成人欧美日韩| 亚洲国产无码有码| 激情综合激情| 波多野结衣久久精品| 无码专区第一页| 亚洲区欧美区| 亚洲日本一本dvd高清| 国产在线啪| 亚洲无限乱码一二三四区| 国产精品嫩草影院视频| 亚洲黄色激情网站| 欧美黄网在线| 欧美精品色视频| 亚洲国产中文在线二区三区免| 成年免费在线观看| 午夜国产小视频| 日韩乱码免费一区二区三区| 日本免费福利视频| 国产尤物视频在线| 国产精品美女网站| 国产成人精品第一区二区| 四虎免费视频网站| 国产精品毛片一区视频播| 午夜天堂视频| 久久国产精品嫖妓| 国产午夜精品鲁丝片|