,,*,,,,
1. 航天飛行動力學技術重點實驗室,北京 100094 2. 北京航天飛行控制中心,北京 100094
利用視覺測量系統測量跟蹤航天器與目標航天器之間的相對位置與姿態是保證空間任務順利執行的重要前提。現階段,國際上常見的光學測量系統主要有:中國“神舟八號”飛船上的CCD光學成像系統[1],美國國家航空航天局“自主交會對接技術驗證”(Demonstration of Autonomous Rendezvous Technology,DART)衛星上的高級視頻制導系統(Advanced Video Guidance Sensor,AVGS)[2],日本的工程試驗衛星-Ⅶ(Engineering Test Satellite-Ⅶ,ETS-Ⅶ)和H-II運載飛船(H-II Transfer Vehicle,HTV)上的接近相機系統[3-4],歐洲航天局自動轉移飛行器(Automated Transfer Vehicle,ATV)上的視頻測量系統[5]和俄羅斯的光電系統(Optical-Electronic System)[6]等。這些常見的光學測量系統都是通過CCD相機對空間目標上安裝的合作靶標進行實時跟蹤定位從而完成自主交會對接任務[7]。
目前,人類已經成功實施了數百次自主交會對接任務[8],其中基于視覺的跟蹤算法已經取得了較大進展。但是以往的交會對接任務對于對接角度有嚴格的要求,例如“神舟八號”飛船的對接走廊是以目標飛行器對接軸為中心,半錐角為8°的圓錐[9]。因此,當需要飛行器進行快速交會對接,機械臂執行緊急抓捕時,以往的算法往往難以滿足要求。此外,未來空間機械臂自由度多,活動范圍大,位置關系靈活,不僅會出現圖像形變問題,還會發生目標局部從視場中頻繁進出的情況。因此,如何進一步研究視覺跟蹤方法解決上述問題,是需要繼續深入探討的內容。
視覺跟蹤算法按研究思路可以分為基于學習和基于檢測兩種類型。基于學習的方法是建立在對目標長距離跟蹤學習基礎上實現的,計算量大且非常耗時,難以應用于空間目標的跟蹤。目前,對空間目標的跟蹤主要采用基于檢測的方法,通過對序列圖像進行檢測、識別和相似性比對,實現空間目標實時跟蹤。文獻[10]提出了一種基于輪廓檢測的目標跟蹤算法,該算法根據最小二乘原理來進行輪廓擬合,從而識別出目標,解決了自主交會對接近距離段的航天器跟蹤問題。文獻[11]提出了一種合作靶標快速識別算法,該算法在文獻[12]提出的最快圓檢測算法的基礎上對靶標上的直線特征再次進行判別,進一步提高識別的準確率。文獻[13]提出了一種基于稀疏直方圖的視覺目標跟蹤方法,該方法在粒子濾波目標跟蹤框架下,用稀疏直方圖來表示目標,將目標模板和候選目標之間的距離作為粒子濾波的觀測模型,進而實現序列圖像中目標的穩定跟蹤。這些算法雖然能夠對特定目標進行檢測與識別但并未考慮因目標位姿變化而導致的投影形態變化和局部遮擋等問題,在機械臂抓捕空間目標的復雜情況下需要進一步開展相關研究。
本文在CamShift跟蹤框架的基礎上,針對空間機械臂抓捕的特殊性,提出了一種融合特征選取、模板更新和進出場跟蹤策略的跟蹤算法。該算法能夠進行多目標的連續跟蹤,解決目標形態變化引起的跟蹤丟失問題,實現對頻繁進出視場目標的自適應跟蹤。
空間機械臂視覺系統利用末端安裝的單目相機檢測航天器上的人工標志點,并對標志點進行實時跟蹤。圖1為機械臂對動態目標實施抓捕的示意,其中目標跟蹤是抓捕導航與目標定位的前提和基礎,跟蹤算法中涉及到的困難主要包括:
1)多目標的區分。被跟蹤目標通常由多個形狀相似的發光靶標組成,外觀形態上差異較小,在跟蹤過程中容易產生不同目標之間的混淆,需要選擇有效目標特征,以強化不同目標之間的差異,防止跟蹤過程中出現由于錯跟目標而導致的位姿跳變問題。
2)形態改變時的連續跟蹤。由于視覺相機與合作目標之間的角度變化會導致目標形態發生改變,從而使得多幀后的目標形態與初始形態產生較大差異,需要為連續跟蹤過程設計自適應的模板更新策略。
3)臨近邊界的目標檢測與跟蹤。在自主對接與捕獲中,當目標漸入視場時,算法必須能夠自主進行目標的檢測與跟蹤,當目標漸出視場時,算法必須能夠準確判斷出界的目標,并對視場內目標進行準確跟蹤,需要設計部分靶標移入移出視場的拋棄找回策略。
本文將對以上3個方面進行詳細論述,以多個靶標構成的合作目標的邊界跟蹤問題為例,對CamShift算法做了3個方面的改進,得到新的跟蹤算法框架如圖2所示,分別介紹如下。
1)考慮反向投影圖是一種概率表征,反映了模板出現在圖像中特定位置的概率,本文中選擇概率差異較大的像素部分來表征目標,使得同一幀中目標之間的差異性和同一目標在不同幀之間的相似性同時加強,這樣能夠有效區分多目標,幫助跟蹤算法高效執行。
2)CamShift算法的收斂過程中,通過對圖像進行矩運算來確定目標中心的位置,本文設計了一種通過對比目標區域和模板區域不變矩特征差異性實現模板更新的機制,既保證了跟蹤算法的高效性,也提高了跟蹤過程的穩定性。
3)在傳統的跟蹤算法中只強調連續的跟蹤過程,沒有考慮目標移出和移入視場時的目標丟失與找回問題。針對由多個目標構成的合作目標的邊界跟蹤問題,本文設計了一種利用視場內的部分靶標完成對移入和移出靶標的拋棄與找回方法。
后續將對上述3個方面進行詳細論述,在論述前首先對跟蹤算法基本原理簡述如下。

圖1 機械臂抓捕示意Fig.1 Sketch of robotic capturing

圖2 改進的CamShift算法Fig.2 Flowchart of improved CamShift algorithm
CamShift算法[14]是一種建立在MeanShift算法[15]之上的跟蹤算法,它將上一幀圖像的跟蹤結果作為當前幀的初始搜索窗口,將目標顏色直方圖的反向投影圖作為模板,使用MeanShift算法作為搜索算法,通過計算反向投影圖的質心從而得到目標的中心位置,實現目標的跟蹤。該算法主要通過3個步驟實現,下面分別進行介紹。
(1)反向投影圖的生成
在跟蹤過程中,對視頻圖像處理區域中的某一個像素,通過查詢目標的顏色直方圖中相應的值,得到該像素可能為目標的概率,遍歷圖中的每一個像素得到目標顏色概率分布圖,也稱之為直方圖的反向投影圖。
設被跟蹤目標的圖像由n個像素組成,{xi}i=1,…,n表示這些像素點的位置,則目標圖像的直方圖為:
(1)


(2)

(2)搜索窗口重心及尺寸的計算
目標跟蹤主要涉及目標兩個方面的變化,第一是目標在圖像中位置的移動,第二是目標在圖像中尺寸的變化。首先,計算目標位置的變化。對于反向投影圖I(x,y),其搜索窗口的重心:
(xc,yc)=(M10/M00,M01/M00)
式中:M00為搜索窗口的零階矩,計算如下:
M10、M01為一階矩,計算如下:
其次,計算目標尺寸的變化。通過計算二階矩可以得到搜索窗口的寬和高:

θ=1/2arctan[b/(a-c)],
CamShift算法使用直方圖對目標區域進行建模,通過相似性度量實現目標的匹配和跟蹤。然而在多目標跟蹤時,如果目標之間顏色特征分布相近,則易造成目標丟失。本文使用了一種改進的灰度直方圖對目標進行建模,既能充分表達目標特征又拋棄了冗余信息,能夠有效提高算法的魯棒性。

圖3 空間模擬目標Fig.3 Simulated space target with six LEDs

圖4 同一幀中6個目標的直方圖Fig.4 Histograms of six LED targets in the same image frame
圖3為搭載了6個LED燈的空間模擬目標,由于每個LED燈具有相同的結構、尺寸和光照特性,因而由此得到的直方圖之間的差異性不大,無法準確進行多目標區分,如圖4所示。此外,從直方圖中可以看出,大部分的像素集中在直方圖的兩端,即黑色(灰度值近零)和白色(灰度值為255)兩個部分,導致了直方圖中間部分被嚴重壓縮。由于全黑或全白的像素不能很好表達目標的特點,在實際跟蹤中,應該去除這兩部分的影響。由于每個LED燈相對相機的位置、角度不同,因而成像后光斑形狀與中心亮度不同,所以每個目標輻射出來的灰度漸變區域也有所不同,因此目標的亮度信息主要集中在目標輪廓周圍到背景的漸變區域中。
目標特征選擇的算法流程如表1所示。

表1 特征選擇算法
其中f(x,y)為目標原始灰度圖像,灰度范圍為[minf(x,y),maxf(x,y)],共有N個灰度級,h(rk)=nk為f(x,y)的直方圖,rk是第k級灰度,nk是圖像中灰度級為rk的像素個數。I(x,y)為其二值圖像,T為二值化閾值,A為膨脹處理(⊕)的結構元素,iter為循環標識符,c為壓縮比例閾值,G為像素個數閾值,l表示像素數少于G的灰度級的個數。如果算法不是第一次進入循環,則用結構元素B(size(B) 圖5所示為特征選取后目標直方圖。可以看出經過對特征的篩選,目標包含了更豐富的灰度信息,且不同目標之間的差異性增強,有利于目標的檢測與跟蹤。 圖5 基于特征選取的目標直方圖Fig.5 Histograms of six LED targets based the feature selectio 在機械臂抓捕過程中,由于受到光照方向、目標姿態等外界環境的影響,目標特征在整個圖像序列上也會發生變化,如圖6所示,因此必須使用目標特征更新策略來保證長時間跟蹤的穩定性和魯棒性。本節將介紹一種目標特征更新機制,該機制使用不變矩來度量模板與目標之間的相似性,從而實現目標特征的自適應更新。 圖6 同一目標的表觀變化情況Fig.6 Different appearances of one LED target 1.4.1 相似性度量方法 空間目標運動過程中會受到姿態偏轉或光照條件影響,導致目標在圖像中的投影外形發生變化。我們期望尋找一種對上述變化敏感而對目標的平移、縮放和旋轉不敏感的相似性度量方法。本節中使用了HU不變矩[16]作為相似性度量的方法。HU不變矩是圖像二階和三階中心矩的函數。對于大小為M×N的數字圖像f(x,y),其二維(p+q)階矩和中心矩分別定義為: 歸一化(p+q)階中心矩定義為: 由此可以得到7個HU不變矩: φ1=η20+η02 φ3=(η30-3η12)2+(3η21-η03)2 φ4=(η30+η12)2+(η21+η03)2 φ5= (η30-3η12)(η30+η12)[(η30+η12)2- 3(η21+η03)2]+(3η21-η03)(η21+η03)· [3(η30+η12)2-(η21+η03)2] φ6= (η20-η02)[(η30+η12)2-(η21+η30)2]+ 4η11(η30+η12)(η21+η03) φ7= (3η21-η03)(η30+η12)[(η30+η12)2- 3(η21+η03)2]+(3η12-η30)(η21+η03)· [3(η30+η12)2-(η21+η03)2] 本文中,使用了由不變矩構成的對比度量標準,來計算兩個目標之間的相似性[17]。對比度量標準的公式為: (3) 1.4.2 模板更新機制 (1)特征選取 通常情況下,對灰度圖像或輪廓圖像進行HU不變矩計算,來比對相似性。本文所用的6個發光合作目標,其灰度圖像中存在著大量白色區域(如圖7(a)所示),這些區域的區分度不高,對于相似性的度量沒有貢獻。而對于輪廓圖像,則信息過于單一(如圖7(b)所示),只包含了目標的形狀特征,尤其是在進行矩運算時,不同目標的矩可能相同。因此,選取了目標反向投影圖(如圖7(c)所示)的HU矩特征來比對相似性。 圖7 目標特征Fig.7 Features of six LED targets (2)更新機制 目標在運動過程中由于抖動或者干擾,會出現單幀跳變的現象,只有目標形態連續發生變化,并且前后幀之間具有相似性,才能判定此次形態改變為穩定的,需要進行模板更新。本文中利用HU不變矩判斷兩幀之間的相似性,基于模板更新的Camshift跟蹤算法如表2所示。 表2 基于模板更新的CamShift跟蹤算法 圖8為啟用模板更新機制前后圖像匹配度曲線。可以看出,通過模板更新機制,不同幀之間同一目標的相似性顯著增加。 圖8 圖像匹配度Fig.8 Matching degree of images 自主交會對接任務是無人參與的,跟蹤定位算法應當具備更加機動的應對策略,來處理相機視場內無目標、視場內逐漸出現目標,以及視場內若干目標消失等情況。基于以上問題,本節給出了一種目標的發現、拋棄與找回策略。當相機視場內無目標時,算法可以讀入視頻,等待目標出現;當目標出現以后,算法能夠自動檢測出目標個數及所在位置;當目標臨近邊界時,算法能夠拋棄即將移出視場的目標;當目標逐漸移回視場時,算法也具備找回移入目標的功能。 (1)檢測算法 當跟蹤開始及有新目標移入視場后,都需要對圖像進行檢測以確定目標的位置及個數。本文使用了輪廓檢測來實現這一功能。在輪廓檢測之前,首先要對圖像進行形態學濾波、閾值化等預處理獲取目標區域的二值圖;然后尋找二值圖的輪廓,如圖9所示。具體的算法為:系統性掃描圖像,當遇到連通區域的一個點時,以該點為起始點進行輪廓提取并標記邊界上的像素;當輪廓完整閉合,掃描回到上一個位置,直到再次發現新的連通區域;遍歷所有連通區域以后,即可得到目標的個數及位置。 圖9 目標檢測Fig.9 Targets detection (2)找回、拋棄策略 首先定義一個目標框,使得合作目標全部包含在該框中,計算該框與圖像邊界的距離,以此判斷是進行目標拋棄還是檢測找回。 在找回策略中,當目標框距離圖像邊界大于閾值d,則將目標框擴大,并在框內進行重新檢測,找回目標。目標框的擴大過程如圖10所示,圖10(a)為跟蹤得到的目標框。然后算法分別判斷目標框距離4個邊界的距離,由于目標框距離上、下、右邊界的距離大于設置的閾值d,所以對目標框進行相應擴大,如圖10(b)~(d)所示。擴大后的目標框中包含了一個剛剛由邊界進入圖像的目標,此時再在目標框內進行目標檢測,可以找回在上幀中被拋棄的目標。 圖10 找回策略中的目標框變化Fig.10 Variations of target box in the retrieve strategy 在拋棄策略中,當目標框超出圖像邊界時,拋棄距離邊界最近的目標,目標框縮小,再次檢測目標框是否超出邊界,如果超出則繼續刪除目標,直至拋棄所有臨近邊界的目標。目標框縮小的過程如圖11所示。圖11(a)中算法檢測到目標框已經超出圖像上邊界,此時刪除距離上邊界最近的一個目標,再次進行檢測,發現目標框還是超出邊界,繼續刪除目標,目標框縮小為圖11(b)所示。此時目標框在圖像邊界內,拋棄結束,進入下一幀。 圖11 拋棄策略中的目標框變化Fig.11 Variations of target box in the abandon strategy 設圖像尺寸為H×W,圖像的坐標及目標框的位置如圖12所示。目標拋棄與找回策略算法流程如表3所示。 圖12 圖像的坐標及目標框的定義Fig.12 Image coordinate and definition of target box Step1目標跟蹤,得到目標框x,y,Wf,Hf()。Step2if W-x+Wf()>d,目標框向右擴。if x>d,目標框向左擴。if H-y+Hf()>d,目標框向下擴。if y>d,目標框向上擴。Step3if 目標框擴大,目標框內重新檢測,得到新的目標框x',y',W'f,H'f()。Step4if x'>0&&y'>0&&x'+W'f 上述算法分為4個步驟,Step 2根據目標框與圖像邊界之間的距離關系實現目標框的擴大,Step 3在擴大的目標框內對目標進行重新檢測,Step 4則判斷新的目標框是否出界,刪除出界的目標。算法中變量d為距離閾值。 針對以上方法,本節將進行3個試驗。試驗一驗證目標特征選取算法的正確性,試驗二驗證模板更新的正確性,試驗三驗證目標處于復雜運動狀態(目標形態改變,移入移出視場)時跟蹤的正確性與連續性。此外,還對跟蹤速度進行了測量。 本節中,利用已有的月球車雙目相機系統中的單個相機對手動移動的空間模擬目標進行跟蹤。用Viewworks公司的高性能視覺相機VA-1MC作為圖像采集設備,鏡頭加裝濾光片,用臺式電腦(CPU為Intel 2140,主頻達到1.6 GHz,內存為1.93 GB)作為圖像處理計算機。在微軟Visual Studio 2008軟件平臺上,利用Intel公司提供的用于計算機視頻處理的OpenCV庫函數,對采集的視頻進行運動檢測編程實現。錄制的空間模擬目標的視頻時長70 s,幀速率24幀/s,圖片大小1 024×1 024。空間模擬目標如圖13(a)所示,模擬目標為一個同軸環形光源,6個LED燈均勻分布在直徑為15 cm、內徑為7 cm的同軸環形平面上,濾光后目標圖像如圖13(b)所示。目標運動過程中與相機之間的夾角在±30°之間。 圖13 空間模擬目標Fig.13 Simulated space target 圖14 圖像匹配度Fig.14 Matching degree of images 試驗一,驗證目標特征選取算法的正確性。在本試驗中,使用了160幀圖像序列,利用公式(3)分別計算同一幀中不同目標之間的相似性與同一目標與模板之間的相似性。圖14依次給出了使用特征選擇算法前后6個目標圖像匹配度的曲線。點畫線(線Ⅰ)和短虛線(線Ⅱ)分別表示特征選擇前后,同一幀圖像中,不同目標之間的匹配度。長虛線(線Ⅲ)和實線(線Ⅳ)分別表示特征選取前后,同一目標與模板之間的匹配度。匹配度值越小,說明目標之間越相似;反之,說明目標之間越不相似。表4給出了四條曲線的均值列表。 表4 匹配度均值 分析表4可以得出:1)線Ⅱ均值高于線Ⅰ均值,說明經過特征選取以后,同一幀中,不同目標之間的差異性增強。2)線Ⅱ均值大于線Ⅳ均值,說明經過特征選取以后,目標與模板之間的相似性大于不同目標之間的相似性。3)在目標1、3、5上線Ⅲ均值顯著高于線Ⅰ均值,說明沒有特征選取時,多個目標出現目標與模板之間的差異性大于多目標之間的差異性。4)在目標1、3、5上,線Ⅳ均值小于線Ⅲ均值,說明特征選取算法改進了這幾個目標與模板之間的相似性;在目標2、4、6出現了線Ⅳ均值高于線Ⅲ均值,說明沒有特征選取時,多目標之間以及目標與模板之間不能明顯地區分開來。通過上述分析可以看出,特征選取算法能夠顯著提高目標與模板之間的相似性,增加多目標之間的差異性,從而有利于多目標的準確、穩定跟蹤。 試驗二,驗證模板更新的正確性。本試驗中,選取了視頻的前140幀來測試更新機制的性能。由于6個合作目標的更新機制一樣,以其中一個目標為例,對模板更新的結果進行展示。圖15給出了目標形態漸變的過程。以第0幀目標圖像的反向投影圖作為模板,分別計算每一幀目標圖像的反向投影圖與模板的匹配度,當匹配度超過所設定的閾值,也就是說此時目標圖像的反向投影圖與模板的差異較大,隨即啟動模板更新機制。從圖15可以看出,在第24幀、第92幀、第115幀、第132幀進行了模板的更新,而此時圖像的反向投影圖確實是與初始模板有較大差異。 圖15 跟蹤過程中的模板更新Fig.15 Template update in the tracking 試驗三,驗證跟蹤過程穩定性、連續性和實時性試驗。在本試驗中,使用空間模擬目標的運動視頻檢測跟蹤算法。視頻中關鍵幀的跟蹤結果如圖16所示。可以看出,在跟蹤過程中,多個目標形態發生明顯變化,算法能夠通過及時的模板更新策略,保證了跟蹤過程的穩定性。在臨近邊界時,出現多個目標出入視場的情況,算法能夠準確對目標進行拋棄和找回,保證了跟蹤過程的連續性。最后,表5給出了98幀圖像的處理速度,結果表明,算法能夠實現10幀/s以上的目標穩定跟蹤,保證了跟蹤過程的實時性。 圖16 目標跟蹤過程Fig.16 Process of targets tracking 幀數目標跟蹤速度/s1^7幀0.110.0940.1090.0940.110.1090.0948^14幀0.0940.1090.0930.1090.0940.0940.09315^21幀0.0940.0940.0940.1090.0940.1090.09422^28幀0.1090.0930.1090.0940.1090.0940.09429^35幀0.0930.0940.0930.110.0940.0940.09336^42幀0.0930.0940.0930.0930.0930.1090.12543^49幀0.0940.0940.0940.1090.1090.0940.10950^56幀0.0930.1090.0930.1090.0930.0940.09357^63幀0.0930.110.0940.110.110.0930.09364^70幀0.1090.0940.1090.0930.1090.0940.09471^77幀0.0940.110.0930.1090.1090.0940.09378^84幀0.0940.0930.0930.1090.0940.1090.09485^91幀0.0940.0940.0940.1090.1090.0930.10992^98幀0.0940.0930.1090.0940.0940.0930.094 本文針對航天器自主交會對接和機械臂抓捕空間站艙段或貨運飛船過程中基于視覺的跟蹤技術開展研究,提出了一種基于反向投影模板自適應更新的快速跟蹤方法。該算法以CamShift算法為基礎,做出了以下3方面的改進:一是,針對靶標中多個相似的發光目標跟蹤問題給出了一種特征選擇算法,該算法能夠有效地提取出具有代表性的目標特征,消除隨變性小的信息對跟蹤的影響;二是,針對跟蹤過程中目標形變問題給出了一種自適應的模板更新算法,該算法能夠解決機械臂對目標漸進式捕獲過程中由于光照角度、目標姿態的變化而導致的圖像形變;三是,針對目標進出視場問題,給出了一種臨近邊界目標拋棄、找回策略,解決了由于抖動或運動規劃約束而導致目標從相機視場中移入、移出的情況。最后,通過試驗驗證了算法的有效性與時效性。下一步的工作中,將利用即將建設完成的空間機械臂遙操作動態導航定位地面模擬視覺系統中的6自由度機械臂模擬系統對目標的運動狀態開展深入分析,對目標在不同角度與速度下的跟蹤狀態開展研究并進行量化分析。 References) [1] 周建平.天宮一號/神舟八號交會對接任務總體評述[J].載人航天,2012,18(1):1-5. ZHOU J P. A review of Tiangong-1/Shenzhou-8 rendezvous and docking mission[J]. Manned Spaceflight,2012,18(1):1-5(in Chinese). [2] HOWARD R T,JOHNSTON A S,BRYAN T C,et al. Advanced video guidance sensor (AVGS) development testing[C]∥SPIE Defense and Security Symposium. Orlando:SPIE,2004:50-60. [3] ODA M. Attitude control experiments of a robot satellite[J]. Journal of Spacecraft and Rockets,2000,37(6):788-793. [4] YAMANISHI N,SAKASHITA T,KAMIYA T. CFD study for air ventilation optimization in the H-II Transfer Vehicle (HTV) pressurized logistic carrier (PLC)[C]∥40th International Conference on Environmental Systems. Barcelona:AIAA,2010:12-14. [5] CISLAGHI M,FEHSE W,PARIS D,et al. The ATV rendezvous predevelopment programme (ARP)(AAS 99-024)[J]. Advances in Astronautical Astronautical Sciences,1999,101: 259-280. [6] SUSLENNIKOV V. Radio system for automatic rendezvous and docking of Soyuz Progress spacecraft and MIR space station[C]∥Proceedings of the Third European In-orbit Operation Technology Symposium. Noordwijk:ESTEC,1993:101-106. [7] 徐拴鋒,楊保華,張篤周,等. 面向非合作目標抓捕的機械臂軌跡規劃方法[J]. 中國空間科學技術,2014,34(4):8-15. XU S F,YANG B H,ZHANG D Z,et al. Trajectory planning algorithm for manipulators capturing non-cooperative object[J]. Chinese Space Science and Technology,2014,34(4):8-15(in Chinese). [8] 唐國金,羅亞中,張進. 空間交會對接任務規劃[M]. 北京:科學出版社,2008:93-94. TANG G J,LUO Y Z,ZHANG J. Mission planning of space rendezvous and docking[M]. Beijing:Science Press,2008:93-94(in Chinese). [9] 胡軍,解永春,張昊,等. 神舟八號飛船交會對接制導,導航與控制系統及其飛行結果評價[J]. 空間控制技術與應用,2011,37(6):1-5. HU J,XIE Y C,ZHANG H,et al. Shenzhou-8 spacecraft guidance navigation and control system and flight result evaluation for rendezvous and docking[J]. Areospace Control and Application,2011,37(6):1-5(in Chinese). [10] KELSEY J M,BYRNE J,COSGROVE M,et al. Vision-based relative pose estimation for autonomous rendezvous and docking[C]∥27th IEEE Aerospace Conference,Big Sky,MT:IEEE,2006:20. [11] 溫卓漫,王延杰,邸男,等. 空間站機械臂位姿測量中合作靶標的快速識別[J]. 航空學報,2015,36(4):1330-1338. WEN Z M,WANG Y J,DI N,et al. Fast recognition of cooperative target used for position and orientation measurement of space station′s robot arm [J]. Acta Aeronautica ET Astronautica Sinica,2015,36(4):1330-1338(in Chinese). [12] WU J,LI J,XIAO C,et al. Real-time robust algorithm for circle object detection[C]∥Proceedings of the 9th International Conference for Young Computer Scientists,Zhangjiajie,China,18-21 November,2008:1722-1727. [13] 高升,袁寶峰,齊哲,等. 基于稀疏直方圖的空間機械臂視覺目標跟蹤方法[J]. 航天返回與遙感,2015,36(3):92-98. GAO S,YUAN B F,QI Z,et al. Space manipulator visual object tracking method using sparsity-based histogram[J].Spacecraft Recovery and Remote Sensing,2015,36(3):92-98(in Chinese). [14] GARY R B. Computer vision face tracking for use in a perceptual user interface[C]∥IEEE Workshop on Applications of Computer Vision. Princeton:IEEE,1998:214-219. [15] CHENG Y. Mean shift,mode seeking,and clustering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1995,17(8):790-799. [16] HU M K. Visual pattern recognition by moment invariants[J]. IRE Transactions on Information Theory,1962,8(2):179-187. [17] BRADSKI G,KAEHLER A. Learning OpenCV: computer vision with the OpenCV library[M]. Sebastopol:O′Reilly Media Inc.,2008:279-283.
1.4 目標特征自適應更新







1.5 拋棄找回策略





2 仿真校驗






3 結束語