王昊京,王建立,吳 量,2,張世學,賈建祿
(1.中國科學院長春光學精密機械與物理研究所,吉林長春130033;2.中國科學院大學,北京100049)
基于粗測位置和方位的三視場快速星圖識別方法
王昊京1*,王建立1,吳 量1,2,張世學1,賈建祿1
(1.中國科學院長春光學精密機械與物理研究所,吉林長春130033;2.中國科學院大學,北京100049)
為了在已知粗略方位角和地理位置時實現三視場天文定位定向設備的快速測量,給出了一種三視場定位定向設備的快速局部星圖識別方法。分析了三視場定位定向設備使用全天球識別數據庫執行三角形識別時識別效率低的原因;指出了應先進行視場內識別,后進行視場間識別以提高效率,并給出星圖識別時角距誤差門限的選取范圍;給出了一種基于粗略位置和方位快速生成局部識別數據庫的方法,它可以減少識別信息的冗余,實現高效的星圖識別。仿真實驗和野外實驗結果表明:使用此局部識別方法正確識別率可達99.19%,識別速度為24.3 ms,基本滿足三視場天文定位定向設備快速高效測量的要求。驗證了局部星圖識別方法的效率,以及采用先視場內識別后進行視場間識別方式的正確性。
星圖識別;天文導航;局部識別;定位定向;三視場
天文導航是重要的輔助導航系統,它可以進行被動式測量導航,具有抗干擾能力強,適用范圍廣,定向、定位精度高,誤差與時間無關等優勢。而這些優勢是GPS等無線電導航系統無法比擬的[1]。
近年來,國內外均開展了多視場星敏感器設備的研究工作。例如美國Trex公司已經開發出多視場恒星跟蹤器,它可在白天海平面探測到6. 3等的恒星,并完成定位定向或高精度姿態測量工作[2]。法國SODERN公司開發出多視場HYDRA星敏感器,應用于航天器的姿態測量[3-4]。目前國內北京航空航天大學、哈爾濱工業大學、清華大學等單位的研究人員對多視場、雙視場天文導航系統進行了研究,其研究的重點是獲取高精度的系統姿態[5-7]。中國科學院長春光學精密機械與物理研究所完成了一種基于“視場拼接”的雙星敏感器定姿測量方法,各個視場獨立進行星圖識別后測量船姿,滿足了船姿測量要求,基本達到了預期目標[8],同時還進行了三視場定位定向方向的研究工作。三視場較雙視場在定位定向上更為可靠,不受天空中云層的遮攔而正常工作的概率較高。
星圖識別是三視場定位定向設備功能的關鍵。在三視場的定位定向設備中,為提高單星測量精度進而提高定位定向的精度須采用小視場,在采用小視場時,為提高三角形識別正確率須采用視場間識別。在采用視場內和視場間聯合識別時三視場定位定向設備的全天球識別數據庫很大,識別信息冗余度高,效率低。單視場星敏感器進行姿態測量時,可利用粗姿態計算估計視軸位置進行星圖識別。三視場定位定向設備也可以估算視軸在天球坐標系內的位置并建立視場內和視場間的局部識別數據庫實現高效識別,其關鍵在于視軸位置估算的方法,在定位定向應用中目前還沒有具體的估計方法。目前雙視場星敏感器的三角形星圖識別研究中絕大多數是按照單視場的方式進行識別的,大多沒有利用到恒星視場間的星角距信息進行識別,原因在于其不能精確地標定視場光軸的位置[11]。清華大學的學者在研究雙視場時提及利用視場間的星角距信息進行識別分析[12],但是并未回答視場內識別和視場間識別先后問題,也未給出進行視場間三角形識別時,星角距識別誤差門限選取值。本文以已知粗測量位置和方位的三視場定位定向識別問題為研究對象,分析了使用全天球識別數據庫執行三角形識別時識別效率不高的原因,指出應該先進行視場內識別,后對未識別的恒星進行視場間識別以提高效率;給出了建立局部識別數據庫進行三角形星圖識別的方法,仿真分析得出:先采用視場內識別后進行視場間識別的方式是最優的選擇,并給出視場間三角形識別時,星角距的識別誤差門限選取方法。
2.1 定位定向的概念
圖1是三視場定位定向設備的結構框圖。它有3個光軸,光軸可以在載體坐標系XBYBZB(簡寫為CB)內定義。采用光軸對稱的結構形式,即光軸在方位角上間隔為120°,仰角在載體坐標系內相等且均為45°。
定位主要是確定設備在國際地球參考系ITRS內的位置。ITRS坐標系和世界大地84坐標系(WGS-84)坐標系基本上是一致的[9]。將WGS-84坐標系的地理位置標記為Loc(λ,Φ,h),其中經度為λ、緯度為Φ,單位為度;海拔h,單位為m。由于海拔可由海拔儀測定,故設備的定位主要是確定經度λ、緯度Φ。
定向主要是確定圖1中載體坐標系CB在東北天坐標系(ENU,簡寫為CENU)內的方位角,將此方位角記作AziB。圖2給出了載體方位角定義,CB的XB軸在水準面ENO內的投影X′B與CENU的Y軸在水平面EON內的順時針夾角,即為設備待測量的方位角AziB,定向即為精確地測量出方位角AziB;而粗略的方位角可以由電子指南針測量獲得。
將坐標系m轉換到坐標系n,可用旋轉矩陣Rmn表示。若這個轉換是繞著x、y、z軸順時針旋轉角度Φx、Φy、Φz完成的,則有下式:
使用Rxyz(Φx、Φy、Φz)表示旋轉矩陣Rmn,下標xyz表示旋轉過程中的旋轉軸和旋轉順序,Rx(Φx)、Ry(Φy)、Rz(Φz)是標準旋轉矩陣。
在圖2中建立輔助坐標系Ca:其原點和CB的原點相重合,其Xa軸沿著矢量X′B的方向;Za軸與ENU的U軸相重合;Ya軸符合右手定則。由圖2可知坐標系Ca到CENU的轉換矩陣滿足下式:
在圖2中ρ、τ是為水平傾斜角,其單位為度。其中ρ是單位向量X′B與單位向量XB的夾角;而τ是單位向量Y′B與單位向量YB的夾角,且Y′B與YB在水準面ENO內的投影相重合。水平傾斜角可由測傾儀獲得,它在計算分析中是已知量。
2.2 無粗略信息時定位定向的基本原理
圖3是三視場天文定位定向設備的原理框圖。首先是通過系統固有參數計算獲得星像的星角距參數。天體目標光線經過光學鏡頭成像在CCD探測器上面,通過星圖預處理提取星像的質心位置,記作PtImg。通過任意恒星的質心位置、光學系統的焦距、探測器像元尺寸、分辨率、主點、畸變參數、光軸在載體中的單位矢量AxiVeci,以及探測器安裝角等,使用視覺幾何的相關原理計算可得星像在CB中的位置矢量VB,如圖2所示。對任意標號為i、j的星像可獲取它們在CB中的星矢量為ViB、Vj
B,并求取星角距StarAngij。星角距是用三角形識別算法進行恒星識別的關鍵元素之一。
其次,通過星角距信息結合預先離線生成的全天球識別數據庫使用三角形識別算法完成星像的星圖識別。將全天球星識別數據庫記作Iden-DataBase,識別信息對記作InfoPair。識別信息對是由兩顆恒星的編號、星角距組成,有時也包括星等信息Mag。星角距StarAngpq是識別星表中編號為p、q的恒星角距信息,則InfoPair={p,q,Star-Angpq,Magp,Magq},IdenDataBase={InforPair}。星圖中提取的灰度信息轉換為星等并和計算出的角距信息StarAngij結合組成識別信息對InfoPairij。計算獲取的識別信息對InfoPairij結合恒星識別數據庫IdenDataBase進行辨識,將識別出的恒星記作Starp、Starq,至此完成星圖識別。文獻[10,16-17]中給出了三角形識別算法具體詳細地解釋,并且對于識別信息對的數據格式、識別數據庫的結構排布有詳細的描述,本文也采用同樣的格式。
映射函數fun2的推導如下。星矢量由ITRS坐標系轉換到ENU坐標系內使用的旋轉矩陣為Rzyz(λ,90°-Φ,90°),結合式(2)可以得出下式:
即式(5)就是映射fun2。
3.1 采用小視場并進行視場間識別的緣由
另一方面,采用小視場使得單視場內組成識別三角形的概率降低。故須采用視場內識別和視場間識別相結合的方式進行識別,以提高組成識別三角形的數目和識別概率。
但目前公開發表的文獻中大多數雙視場的星敏感器僅采用視場內視場,且是大視場的形式,約8°×8°大小。清華大學研究了雙視場星敏感器采用視場間識別的形式,但它僅有一個CCD且識別不分視場內和視場間的先后順序。
3.2 視場內和視場間識別數據庫需滿足的條件
無論是全天球識別數據庫還是局部識別數據庫,均由視場內和視場間兩個識別數據庫構成,且都滿足下面的條件。以全天球識別數據庫為例進行說明。
全天球識別數據庫中的視場內和視場間兩個數據庫,分別記作IdenDataBase1、IdenDataBase2。在圖1中,由光軸矢量AxiVeci可得任意光軸間的夾角,記為Angoz,由于結構對稱所以數值相等均為Angoz;對于?InfoPairpq∈IdenDataBase2,滿足下式:
而對于?InfoPairrpq∈IdenDataBase1,滿足下式:式中,BinAng為雙星的角距,一般取星圖中6~8個像素對應空間張角。
制作識別數據庫時使用Tycho2星表。星圖識別星表,簡寫為StarCatId;識別星表的星等閾值限制,記作MagH,取7等星;識別星表滿足下式:
在實驗中取光學視場大小為FOV=[4.5° 3.3750°]T,CCD的分辨率為1 024×768,取6個像素的空間張角作為雙星閾值限制,7等星為閾值限制。建立識別星表StarCatId,它有14 643顆星。在滿足式(6)~(8)限制時,通過計算StarCatId中任意兩顆恒星的角距,獲取星識別數據庫。此時視場內識別數據庫中的識別信息對有296 294條,而視場間識別數據庫中的識別信息對為9 889 773條。
3.2.1 先進行視場內識別后進行視場間識別的依據
大量的識別信息對相對于星角距計算精度而言存在著大量冗余。提取的質心位置和標定的光軸在載體中位置存在誤差,且一般符合正態分布。通過實驗標定獲得質心提取的x、y分量的誤差符合正態分布N(0,σ0),σ0單位為像素;3個光軸中任意光軸標定的誤差符合正態分布N(0,σ1i),σ1i單位為度。若單像素空間張角為?度,則單星提取精度為σ0?。據誤差原理可知,視場間星像的星角距計算誤差標準差σ2可由下式粗略估計:
視場內間星角距計算誤差標準差σ3滿足下式:
若識別信息對的平均分布密度(簡記為ρ)以三倍星角距誤差標準差為最小單位進行粗略分析,那么視場內識別信息對平均分布密度ρ1和視場間ρ2可以計算如下:
式中,a代表視場間或者視場內星識別信息對的數目;b代表識別信息對的角距分布寬度,視場間等于4FOVr,視場內為2FOVr,單位為度。
在上述星表建立條件下,若質心提取誤差標準差為0.05 pixel;光軸標定誤差標準差為1.153″,則σ3=1.12″,σ2=2.75″。視場內識別數據庫中的識別信息對分布密度是49條。視場間識別數據庫的分布密度是2 014條,視場間三角形識別信息對的分布密度是視場內的41倍。
顯然視場間的識別信息對分布密度大于視場內的分布密度,故先進行視場內識別后進行視場間識別,這樣有利于提高識別正確率。容易證明即使是局部識別,這個結論也成立。
3.2.2 星圖識別星角距誤差門限的選取
在三角形星圖識別時需要據計算的星角距(StarAng)從識別數據庫中提取出包含真實角距信息子識別數據庫。這需要確定星角距的識別誤差門限。由上述分析可知:在視場內星圖識別時,需要提取角距滿足范圍為[StarAng-3σ3,StarAng +3σ3]的星識別信息對;視場間星圖識別時,需提取角距范圍為[StarAng-3σ2,StarAng+3σ2]內的星識別信息對。
只有在識別數據庫中選取上述范圍內的識別信息對才能正確完成三角形星圖識別。
3.2.3 全天球識別時識別速度和正確率低
使用全天球識別數據庫進行三角形星圖識別時,星圖識別的效率不高原因如下:對于識別三角形的每個邊,角距計算誤差均引入了有較多的冗余信息。若識別三角形的三顆恒星來自于同一視場,其每條邊至少有48個冗余信息,則由3條邊的冗余信息進行組合成的待識別三角形會很多。從這些組合中識別出正確的三角形,十分耗時,降低了識別速度;而且容易造成錯誤的識別,進而降低了識別正確率,所以效率不高。
使用全天球識別數據庫進行星圖識別時是遍歷整個識別數據庫,而大多數的數據對于一次識別是冗余信息。
在三視場定位定向設備中,可以利用已知粗估地理位置和方位角估計視軸在天球坐標系的位置,進而生成局部識別數據庫進行星圖識別。生成局部識別數據庫的關鍵是確定三視場定位定向設備的3個光軸在天球坐標系內位置,目前尚未有文獻給出具體方法,下面通過分析確定其計算方法。
4.1 確定3個光軸在國際天球坐標系內的位置和范圍
構建局部識別數據庫最主要的是確定真實光軸在天球上的位置和與之對應的光學視場的誤差范圍。
首先可以通過估計的地理位置、粗測的方位角等信息獲取真實光軸在天球上的位置范圍。設備在移動載體上,通過簡單的航跡推算可知設備在地球的粗略地理位置,記作Loc(λ,Φ,h),其中h通過海拔儀測量得知;將需要求取的精確地理位置,記作Loc′(λ′,Φ′,h)。由安裝的電子指南針可以測量出設備的粗略方位角,將這個粗略的方位角記作AziB,而將待求取的精確方位角,記為Azi′B。
式中:RE為地球半徑,單位為m。即真實光軸和粗略光軸在真春分點赤道坐標系內的夾角不大于AngErr,單位為弧度,即此夾角就是真實光軸和粗測光軸的角距最大值,由此可以確定真實光軸在天球中的相對位置范圍。
式中,AngErr已轉換為度,而“虛擬的”光學視場FOV′單位為度,由下式計算:在圖4中對于任意光軸均對應兩個球面圓,內部的小圓為F′、而外部的大圓為F。
若以FOV′為視場大小,快速提取視場內的恒星,構建局部識別數據庫,則可排除其他恒星的影響,實現快速、高效的星圖識別。
4.2 局部識別數據庫的構建和星圖識別方法
局部識別數據庫的快速構建和星圖識別步驟如下:
(2)由式(16)、(17)、(18)、(7)確定光學視場FOV′;
(4)由子星表StarCatId′中任意兩顆恒星構建識別信息對,進而生成局部識別數據庫;
(5)將3個星圖中每個視場內的星點組成識別三角形先在視場內局部識別數據庫中進行識別;對于未識別的恒星組成視場間識別三角形在視場間局部識別數據庫中進行識別;
快速構建局部數據庫和星圖識別的步驟(3)中星圖識別子星表滿足如下關系:
步驟(4)中局部識別數據庫是由視場內局部識別數據庫和視場間局部識別數據庫構成,分別記作:IdenDataBase′1、IdenDataBase′2,它們與全天球識別數據庫關系如下:
而且局部識別數據庫的構建算法、數據結構與全天球識別數據庫的構建算法一致,都是遍歷所有恒星計算角距并存儲滿足式(6)、(8)的識別信息對。
局部識別數據庫僅僅由全天球中的部分恒星生成,恒星數量很少,它在進行星圖識別之前可以快速在線生成。
4.3 效率仿真分析
本文采用VS2010使用C++設計程序在電腦上進行仿真分析。配置如下:電腦的CPU采用Intel Core 2 Quad Q9400,4G內存;CCD分辨率為1 024×768,像素尺寸為4.65μm×4.65μm,光學視場FOV大小設置為[4.5°3.3750°]T;選取7等星為閾值限制,雙星的確定標準為6個像素的空間張角,據式(9)確定識別星表StarCatId;精確地理位置Loc(λ′,Φ′,h)中的參數λ′在[-180,, 180°]上符合均勻分布、Φ′在[-90°,90°]上符合均勻分布,h設置為0 m,即在海平面上;粗估地理位置Loc(λ,Φ,h)的估計偏差DistErr在[10 km, 300 km]上服從均勻分布,相對于精確地理位置的方位角AziLoc隨機設置,且在[0°,360°]上均勻分布;載體的精確方位角Azi′B在[0°,360°]上均勻分布,而電子指南針方位角測量誤差AziErr隨機設置,且在[0.5°,2°]上符合均勻分布;水平傾斜角設置為(0°,0°);世界協調時設置為2013年1月1日12時;光軸標定誤差的標準差為1.153″,這個數值同下面野外實驗中設備實際的標定誤差一致;質心提取誤差標準差為σ0,采用0.01、0.03、0.05這3個不同的提取精度;視場間識別時星角距計算誤差滿足式(10)、視場內識別時單個星點加入的誤差滿足式(11)。
局部識別數據庫的信息與全天球識別數據庫的相比很少,估計如下:據上述仿真條件,由3.2中的步驟(2)可以確定視場FOV′的最大值為[10.3783° 10.3783°]T。若恒星在天球上均勻分布,那么局部識別數據庫的信息與全天球識別數據庫的比率K可以由下式得:
式中:dΩ為立體角的微分,計算結果K= 0.0707%。即局部識別數據庫的識別信息大約為全天球識別數據庫的0.0707%。這極大地降低了數據的冗余信息。
局部識別數據庫的構建速度和識別正確率的仿真實驗步驟如下:
(1)隨機生成精確的地理位置Loc(λ′,Φ′,0)、估計偏差DistErr、角度AziLoc,并由DistErr、AziLoc生成粗測地理位置Loc(λ,Φ,0);
(2)隨機生成精確的方位角Azi′B、方位角測量誤差AziErr,并生成粗測方位角AziB;
(3)執行局部識別數據庫的快速構建和星圖識別步驟中步驟(1)~(3),并對星圖識別子星表StarCat′Id中任意一顆恒星位置加入由于質心提取引起的角距誤差,并滿足式(11),形成測試恒星集(StarCatTest);
(4)執行局部識別數據庫的快速構建和星圖識別步驟中步驟(4)構建局部識別數據庫;
(5)由測試恒星集(StarCatTest)組合成識別三角形,并結合局部識別數據庫先進行視場內識別;
(6)對于未識別恒星再進行視場間識別;進行視場間識別時,對任意兩顆恒星的計算角距在加入光軸標定誤差,并滿足(10)。
其中步驟(5)~(6)的識別正確率(Accuracy)統計方法為:測試恒星集StarCatTest中任意一顆恒星識別錯誤,那么本次識別測試就認為錯誤識別。
基于全天球識別數據庫的構建和識別方法仿真測試時,不需要像局部識別那樣每次都構建局部識別數據庫,即沒有步驟(4);而且步驟(5)也不同,此時它使用的識別數據庫是全天球識別數據庫。將步驟(5)和(6)交換,即可測試先視場間后視場內識別的效率。
重復上述步驟(1)~(5)循環執行1 000次。每次實驗均記錄步驟(4)的耗時、步驟(5)的識別正確率,最后求取步驟(4)耗時的平均值(記為T1)、步驟(5)識別正確率平均數值。在實驗中質心提取誤差的標準差分別為0.01、0.03、0.05,測試結果如下:其中T1在局部識別時,是實時構建局部識別數據庫的耗時,即步驟(4)的耗時;在全天球識別時,是離線構建全天球識別數據庫的耗時。T2對于局部識別而言,它包括步驟(4)~步驟(6)的耗時;對于全天球識別而言,它僅僅包含步驟(5)~步驟(6)的耗時。
仿真實驗結果如表1和表2所示。其中局部識別是實時構建局部識別數據庫并進行識別的;全天球識別是離線構造全天球識別數據庫,并進行全天球識別。從表1和表2中可以看出,局部識別數據庫的構建耗時很小,識別速度也很快;正確率得到了提高。這和理論分析基本一致。而且先視場內識別后視場間識別的識別成功率更高一些,這在全天球識別中更為突出。
在野外實驗時選擇Imaging Source公司的三臺單色工業CCD相機,分辨率為1 024×768,像素尺寸為4.65μm×4.65μm。光學系統的口徑73 mm,光學視場約為[4.5° 3.3750°]T,計算機平臺采用上述的仿真實驗平臺,各個光軸的標定誤差的標準差為1.153″。
在野外實驗中先獲得正確的參考恒星集合。圖5是三視場定位定向設備的實驗平臺,將其擺放在野外進行實驗驗證,平臺下部是一個小轉臺, 3個光軸固定在平臺之上,通過控制轉臺的轉動可以使得平臺的姿態隨意變換,平臺的碼盤的分辨率為1″,通過調整平臺可以使其處于水平狀態。GPS測量的精確地理位置為(125°24′15″E, 43°50′43″N,200 m),系統的精確方位角通過北極星校正為37.2576°,系統軟件通過時統可以獲得精確的時間,通過串口獲得氣象儀信息。此時系統軟件可以通過星圖模擬等方法正確識別出星圖中任意提取到的恒星。此時并不需要使用實時生成局部識別數據庫進行星圖識別的方法去識別提取的恒星,將此時的恒星作為后續驗證的正確參考。
通過設置粗略地理位置、粗測方位角并用實時生成局部識別數據庫,采用先進行視場內識別后進行視場間識別的方式進行恒星識別。在系統軟件的參數設置里面:通過計算機控制,隨機設置粗略估計的地理,使其與精確地理位置的距離偏差在[10 km,300 km]之內;隨機設置載體方位偏差,使其與精確地理位置偏差在[0.5°,2°]之間。通過隨機設置粗測地理位置的方法完成實際工程應用中航跡估計的功能;通過設置方位角偏差完成實際工程中電子指南針測量有誤差的功能。計算機通過控制軟件連續采集星圖,并進行星圖識別。此時識別的恒星與上述中識別的恒星相互比照判斷正確識別與否。
野外實驗的測試結果與上述仿真結果基本一致。構建局部識別數據庫并完成局部識別的速度為32.4 ms,識別正確率約為100%。速度不及仿真主要由于程序中除了完成識別外還有很多線程處理其他數據的外部接口;正確率高于仿真結果在于實驗在特定地理位置和特定方位角進行。
本文根據三視場天文定位定向設備快速實現定位定向的要求,提出了據粗略估計的地理位置、粗測方位角快速實現三視場定位定向設備的局部星圖識別的方法。給出了使用全天球識別數據庫進行星圖識別時效率低原因,研究了局部識別數據的構建方法和使用局部識別數據庫實現星圖識別的方式,確定了先進行視場內識別后進行視場間識別的優化選擇。最后,通過實驗驗證了該方法的高效性。實驗結果證明:用粗測方位和位置信息快速構建局部識別數據庫并完成星圖識別時,完成一次識別耗時24.3 ms,識別的正確率達99.19%,基本滿足了快速定位定向的要求。
[1]王安國.導航戰背景下的天文導航技術---天文導航技術的歷史、現狀及其發展趨勢[J].天文學進展,2001,19(2):325-330. WANG A G.Celestial navigation technique in the background of navigation war the history,present situation and developing tendency of celestial navigation technique[J].Process in Astronomy,2001,19(2):325-330.(in Chinese)
[2]TREX ENTERPRISESCORP.Daytime stellar imager for attitude determination:USA,7349803B2[P].2008-03-25.
[3]SODERN.Star trackers hydra family[EB/OL].[2014-06-23].http://www.sodern.com/sites/en/ref/Star-Trackers-HYDRA_51.html.
[4]BLARRE L,PERRIMON N,AIREY S.New multiple head Star Sensor(HYDRA)description and development status:a highly autonomous,accurate and very robust system to pave the way for gyroless very accurate AOCS systems[J].Proceedings of the AIAAGuidance,Naυigation,and Control Conference,2005(8):817-825.
[5]葉生龍,魏新國,樊巧云,等.多視場星敏感器工作模式設計[J].北京航空航天大學學報,2010,36(10):1244-1247. YE SH L,WEIX G,FAN Q Y,et al..Operation mode design ofmulti-FOV star sensor[J].J.Beijing Uniυersity of Aeronautics and Astronautics,2010,36(10):1244-1247.(in Chinese)
[6]王真,魏新國,張廣軍,等.多視場星敏感器結構布局優化[J].紅外與激光工程,2011,40(12):2469-2473. WANG ZH,WEIX G,ZHANGG J,etal..Structure optimization formulti-FOV star sensors[J].Infrared and Laser Engi-neering,2011,40(12):2469-2473.(in Chinese)
[7]張力軍.基于多視場星敏感器的航天器姿態確定方法研究[D].湖南:國防科學技術大學研究生院,2011. ZHANG L J.Spacecraft attitude determination formultiple fields of view star sensors[D].Hunan:National University of Defense Technology,2011.(in Chinese)
[8]郭敬明.基于星敏感器的船姿測量方法研究[D].北京:中國科學院大學,2013. GUO JM.Study on ship attitudemeasurement based on star sensor[D].Beijing:University of Chinese Academy of Sciences,2013.(in Chinese)
[9]WIKIPEDIA.World geodetic system[EB/OL].[2014-05-21].http://en.wikipedia.org/wiki/World_Geodetic_System.
[10]張磊,何昕,魏仲慧,等.三角形星圖識別算法的改進[J].光學精密工程,2010,18(2):458-463. ZHANG L,HE X,WEIZH H,et al..Modification of triangle identification algorithm[J].Opt.Precision Eng.,2010,18(2):458-463.(in Chinese)
[11]王常虹,李葆華.一種多視場星敏感器的星圖識別方法:中國,CN103363987A[P].2013-10-23. WANG CH H,LIBH.Star identification ofmultiple heads star sensor:China,CN103363987A[P].2013-10-23.(in Chinese)
[12]尤政,邢飛,董瑛.雙視場星敏感器及利用其進行星圖識別的方法:中國,CN1609549[P].2005-04-27. YOU ZH,XING F,DONG Y.Star identification of two heads star sensor:China,CN1609549[P].2005-04-27.(in Chinese)
[13]SAMAANM K.Toward faster andmore accurate star sensors using recursive centroiding and star identification[D].Texas:University of Texas,2003.
[14]饒才杰,房建成.一種星圖模擬中觀測星提取的方法[J].光學精密工程,2004,12(2):130-135. RAO C J,FANG JCH.A way of extracting observed stars for star image simulation[J].Opt.Precision Eng.,2004,12(2):130-135.(in Chinese)
[15]王昊京.三視場恒星識別天文導航方法研究[D].長春:中國科學院長春光學精密機械與物理研究所,2012. WANG H J.Study on celestial navigation by three fields of view star recognition[D].Changchun:Changchun Institute of Optics,Fine Mechanics and Physics,Chinese Academy of Sciences,2012.(in Chinese)
[16]LIEBE C CH.Pattern recognition of star constellations for spacecraft[J].Applications IEEE AES Systems Magazine, 1992,7(6):34-41.
[17]LAMY AU ROUSSEAU B M G,BOSTEL J.New star pattern recognition algorithm for aps star tracker application:oriented triangles[J].IEEE Aerospace Electron.Syst.Mag.,2005,20(2):27-31.
王昊京(1983-),男,河南鄭州人,助理研究員,2007年于吉林大學獲得學士學位,2012年于中國科學院長春光學機密機械與物理研究所獲得博士學位,主要從事圖像處理、自動控制、導航等方面的研究。E-mail:wanghaojing @vip.qq.com
王建立(1971-),男,山東曲阜人,研究員,博士生導師,主要從事空間目標探測技術和地基高分辨率成像望遠鏡總體技術等方面的研究。E-mail:wangjianli@ciomp.ac.cn
張世學(1980-),男,吉林長春人,副研究員,2003年于吉林大學獲得學士學位,2009年于澳門大學獲得博士學位,主要從事計算機圖形學和圖像處理等方面的研究。E-mail:zhangsx@ciomp.ac.cn
賈建祿(1982-),男,內蒙赤峰人,博士,助理研究員,2006年于天津大學獲得學士學位,2012年于中國科學院長春光學精密機械與物理研究所獲得博士學位,主要從事自適應光學系統波前控制方面的研究。E-mail:jianluciomp@163.com
吳 量(1987-),男,吉林長春人,博士研究生,主要從事天文導航、模式識別等方面的研究。E-mail:wluestc624989202@yahoo.cn
Fast recognition on star pattern with method of three FOVs based on rough location and azimuth
WANG Hao-jing1*,WANG Jian-li1,WU Liang1,2,ZHANG Shi-xue1,JIA Jian-lu1
(1.Changchun Institute of Optics,Fine Mechanics and Physics, Chinese Academy of Sciences,Changchun 130033,China;2.Uniυersity of Chinese Academy of Sciences,Beijing 100049,China)
*Corresponding author,E-mail:wanghaojing@υip.qq.com
In order to quickly navigate with the known rough azimuth and location information by three FOVs positioning and orientation device,a fast recognition method for local star pattern is proposed.First,we analyse the reasons of the low efficiencywhen performing the stars identification using global recognition database. Next,we note that it is a preferred method to perform star identification in one FOV firstly and identify the remaining stars between different FVOs,and give the angular distance error threshold.Then,we propose a method to generate the local recognition database,which can reduce the redundancy of identification information and improve recognition efficiency.The simulaion and field experiment results show that the correct iden-tification rate using this recognition method is improved up to 99.19%,and rocognition time is about 24.3 ms,which can satisfy the system requirements for fastand efficientnavigation.Italso proves the correctness of the preferred recognition order.
star pattern recognition;celestial navigation;local star recognition;positioning and orientation;three fields of view
2095-1531(2014)05-0768-11
V448.2;V249.32
A
10.3788/CO.20140705.0768
2014-03-14;
2014-05-28
國防科技創新基金資助項目(No.CXJJ-10-M53)