999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

空間機械臂位姿測量中合作靶標的識別及定位

2018-07-10 07:20:04何龍李東王艷林譚啟蒙
現代電子技術 2018年13期

何龍 李東 王艷林 譚啟蒙

摘 要: 空間機械臂需要在空間站外表面進行移動來實現表面巡檢或抵達目標位置執行空間任務,需要通過對合作靶標的測量來獲取空間機械臂與合作靶標間的位姿信息,因此設計出一種合理可靠的合作靶標尤為關鍵。提出一種合作靶標,針對該合作靶標提出一種識別及特征點定位算法,利用相機和合作靶標對算法進行驗證。實驗結果表明,該算法可在0.5~3.0 m的距離內準確識別出合作靶標,特征點的坐標定位精度可達到0.005 2 mm,算法快速、穩定,抗干擾能力強。

關鍵詞: 空間機械臂; 單目視覺; 合作靶標; 目標識別; 位姿信息; 坐標定位

中圖分類號: TN967?34; V19 文獻標識碼: A 文章編號: 1004?373X(2018)13?0106?05

Abstract: Since the space manipulator has to move outside the surface of the space station to realize the surface inspection or arrive to the object position to execute space mission, and the pose information between space manipulator and cooperative target marker should be acquired by measuring the cooperative target marker, the design of a reasonable and reliable cooperative target marker is particularly important. Therefore, the design of a cooperative target marker, and an algorithm for the cooperative target marker recognition and feature point location are proposed. The algorithm was verified by means of camera and cooperative target marker. The experimental results show that the algorithm can recognize the cooperative target marker successfully within 0.5~3.0 m, has fast and stable recognition performance and strong anti?interference ability, and the coordinate positioning accuracy of the feature point can reach up to 0.005 2 mm.

Keywords: space manipulator; monocular vision; cooperative target marker; target recognition; pose information; coordinate location

0 引 言

1957年10月4日,隨著人類第一顆人造地球衛星的成功發射,人類的探索正式由地球拓展到了太空??萍嫉牟粩噙M步使得人類太空探索能力也在突飛猛進的發展。其中空間站的發展是太空探索的一個重要標志。空間站的組裝組建、宇航員出艙活動的輔助活動、維護維修以及外表面的巡檢都需要借助于空間機械臂來完成??臻g機械臂中的視覺測量系統作為空間機械臂伺服控制系統中的輸入端,其測量精度直接影響著整個空間機械臂系統的控制精度,其重要性不言而喻[1]。

目前,美國在實現追蹤航天器與目標航天器之間交會對接時,采用的合作靶標是由美國國家航空航天局研發的高級視覺制導傳感器(AVGS),該系統使用激光和圖像識別技術識別靶標,進而測量位姿[2]。此種靶標的實現需要采用兩種不同波長的激光對其進行照射。此類靶標制作較為復雜,且在使用時需要一定外界條件的輔助,有一定的局限性。日本在實現貨運飛船與空間站的交會對接時采用6個不同顏色的標志燈,其中有4個用于觀察姿態,剩余2個于捕獲時用。該靶標仍存在著制作及安裝上的不便性。在中國,神舟飛船與天宮進行交會對接時采用十字形靶標,由宇航員人眼觀測識別靶標,通過激光雷達系統實現最終的交會對接。該過程仍需要過多的人為參與,不能實現合作靶標的自動識別,大大影響交會對接的精準度及對接時間。

目前國際空間站采用非編碼圖案設計,通過在空間站外表面粘貼若干圓形標記點作為空間靶標圖案[3],圓形標記點直徑約為1 m。除此之外,在加拿大空間機械臂上也采用非編碼空間標記圖案[3],按照2行6列矩形方格的形式粘貼在機械臂上。借鑒上述兩種合作靶標設計發現,采用視覺標記圖案的形式設計靶標相比于美國及日本的靶標設計具有一定的先進性,制作簡單,安裝方便,環境適應性強,尤其是對于后期合作目標的位姿解算大大提高了其準確性,降低了難度。

1 合作靶標設計

1.1 靶標設計原則

實現靶標在圖像中快速、準確識別提取,是整個位姿測量過程中的首要前提,本文設計靶標時考慮以下原則[3]:

1) 靶標要具有旋轉、縮放唯一性。

2) 靶標設計時要采用相同規則的幾何圖形,圖案設計切忌過于復雜。

3) 靶標圖案要盡可能保持較高的對比度,以便于靶標在不同的背景光照環境中被準確識別。

4) 靶標設計要簡單,以便于粘貼、安裝于空間合作目標表面。

1.2 靶標設計

1.2.1 形狀設計

設計合作靶標時,采用圓形圖案,這也是目前應用最為廣泛的一種空間視覺標記圖案。這是因為其獨特的自身優勢:圓形具有各向同性的性質,有效避開了由于外界干擾所致的標記圖案變形,從而影響特征點中心的識別及提??;而且圖案中每一個獨立的圓形圖案均為中心對稱分布,不會受到外界干擾的影響。

1.2.2 顏色設計

為了增強亮暗對比度,便于在周圍環境中快速、準確地識別出合作靶標,圖案中背景采用純白色,圖案中的圓點、圓環和線段采用純黑色。

1.2.3 尺寸設計

在設計圖案的尺寸時,需要考慮到在實際的物理距離中,相機采集到的圖像中標記圖案中的特征點能否被準確識別,也要考慮到后期特征點中心能否快速、準確提取,這里采用的特征點尺寸要綜合考慮以上因素。靶標圖案物理尺寸如圖1所示(圖中單位為mm)。

1.2.4 特征點數量選擇

本文首先出于對位姿解算的考慮,原則上空間標記特征點的個數應為不小于4的任意整數,計算位姿的問題實際上是屬于PnP問題(Perspective n?Point Problems,多點透視定位問題),根據文獻[4]對PnP問題的研究,當n>5時,PnP問題有唯一解,通過迭代算法進行位姿估計,可以達到很高的精度,而且速度很快。又加以空間標記布局方面的考慮,本文采用7個特征點,可以使靶標圖案實現水平方向上的對稱,在圖像旋轉、縮放后具有唯一性。

1.2.5 整體布局

靶標整體設計時要盡量分散,以防靶標距離相機較遠時,因成像問題圖案之間會相互干擾,影響特征點的識別。合作靶標模型如圖2所示。

圖2中的圓環及圓環周圍的三條直線為了便于在遠程對接階段,宇航員對靶標位置進行肉眼識別。其中7個特征點通過一定的空間結構進行排列,將圓環中的特征點命名為0號點,并以它為中心,左上角的點為1號點,按順時針進行排序。之后通過這些點求解位姿??紤]到三維靶標在制作成本、難易程度等因素的制約,以及在位姿解算算法上的考慮,該靶標采用二維平面的方式設計。

2 合作靶標識別及定位

本文在Windows7系統環境下,基于Matlab軟件環境開發出合作靶標特征點圖像坐標自動提取應用程序。該應用程序的算法流程圖如圖3所示。

2.1 圖像預處理

由相機采集得到的是bmp格式圖像,為了加快算法的處理速度,將bmp格式圖像進行灰度化處理,得到灰度圖像[I0(x,y)],如圖4所示。之后針對該灰度圖像采用分段線性灰度變換法進行圖像增強處理,然后采用中值濾波法對[I0(x,y)]進行圖像平滑處理,得到高質量有待下一步處理的圖像[I1(x,y)],如圖5所示。

2.2 圖像分割

在圖像處理分析過程中,更關心的是將圖像中感興趣的部分與其他部分進行分離并提取出來,這時便需要對圖像進行分割。根據靶標圖案的特性,各特征點為黑色,背景色為白色,并且均為連通區域。因此本文采用迭代法及均勻性度量法進行比較試驗,試驗結果表明,在圖像的分割效果上兩種算法均可,無太大差異,但在圖像處理速度上,迭代法明顯優于均勻性度量法,故本文采用迭代法進行圖像分割處理,得到處理后圖像[I2(x,y)],如圖6所示。

圖像[I2(x,y)]中仍存有諸多小型閉合區域,剔除掉區域面積小于一定閾值的閉合區域后得到效果更佳的圖像[I3(x,y)],如圖7所示。

2.3 靶標圖案區域提取

2.3.1 連通區域提取

[I3(x,y)]由多個連通區域構成,要提取的區域是像素值為0的連通區域,這里采用如下的連通域提取算法[5]:

1) 按照圖像[I3(x,y)]大小創建一個新的位圖[I4(x,y)],用來復制[I3(x,y)],從左上角[I3(0,0)]開始,以由上到下、由左至右的方式對圖像進行掃描,若掃描到某點像素值[I3(x1,y1)=0],則從此處開始,采用八鄰域邊界跟蹤法,對該點所在的區域進行輪廓跟蹤,并生成鏈碼表;

2) 將該鏈碼表轉換為水平或垂直方向上的線段表,如圖8所示,并將該輪廓所包含區域內的所有像素點的值全賦值為0,直到該區域所有像素點的值均為0,則開始掃描下一區域,直到整幅圖像全部掃描完畢為止。

2.3.2 圓度值判斷

鑒于本文設計的合作靶標圖案自身的形狀特征,采用圓形設計,與背景圖案差別較大,為了能更加準確、快速地從整幅圖像中提取出靶標圖案,這里采用基于區域的形狀特征進行特征提取,通過圓度值進行靶標連通區域的判斷。

圓形度[R0]用來描述連通區域形狀接近圓形的程度,它是測量區域形狀的常用量。其計算公式為:

通過上述一系列的判斷,將不符合特征點圓度值范圍的其他連通區域剔除掉之后,最終成功地將靶標圖案從原圖像中提取出來,如圖10所示。由于后期位姿解算只需對靶標圖案中的特征點進行中心定位,故剔除掉圖案中的圓環及直線,得到只包含7個特征點圖案的位圖[I5(x,y)],如圖11所示。

2.4 特征點中心定位

由于本文采用圓形空間標記圖案,靶標中每一個獨立圓形特征點均呈中心對稱分布,鑒于該種靶標圖案定位精度比較高,目前有許多圓形特征點的定位算法,例如橢圓擬合法、Hough變換法、灰度平方加權質心法等[3,6]。其中灰度平方加權質心法采用灰度值的平方作為加權值,該方法體現出離點中心較近且灰度值較大的像素點對于點中心位置的影響。相比較而言,灰度平方加權質心法整體性能最高,更適用于本文的研究。

該算法具有良好的魯棒性,既適用于圓形區域像素灰度分布較為均勻的情況,也適用于像素在圓形區域中所占相對較少,亦或不規則的圓形區域。

灰度平方加權質心法是重心法的演變,其具體計算過程如下[7]:

3 試驗結果及分析

首先,試驗所用的是微視圖像公司生產的MVC?1MM型號相機,采集到的圖像為1 280×1 024 pixels的bmp格式圖片,像元尺寸為5.2 μm。并利用同一型號相機每隔0.5 m從0.5~3.0 m距離采集上述靶標圖案的圖像信息,并將采集到的6幅圖像保存至計算機。

其次,在Matlab軟件平臺中,針對不同距離采集的6幅圖像調用前面介紹的靶標識別算法的軟件程序,均成功實現了對靶標圖案的提取,本文僅以1.5 m距離采集的圖像為例。

最后,通過分別采用橢圓擬合法以及灰度平方加權質心法對提取到的特征點進行中心定位,以驗證中心點定位算法的性能。

試驗開始,用計算機系統自帶的畫圖軟件將原始圖片放至最大,找到每個特征點中最亮的像素點,以此作為標準的中心坐標,以便于與用兩種不同檢測方法計算出來的中心點坐標做比較。按照圖2所示將圖像中的7個特征點由0~6編號,針對兩種算法,與標準中心進行比對之后,[X]方向和[Y]方向上的坐標誤差曲線如圖12,圖13所示。

采集圖像所用相機像元尺寸為5.2 μm×5.2 μm,經過換算,圖像中一個像素的實際物理距離為0.005 2 mm,所以在[X]方向上,灰度平方加權質心法最高定位精度可以達到0.005 2 mm,而橢圓擬合法定位精度最高僅能達到0.031 2 mm;對于[Y]方向,雖兩種算法最高定位精度均可達到0.005 2 mm,但綜合來看,灰度平方加權質心法定位精度范圍更接近于0.005 2 mm。通過對比不難發現,橢圓擬合法定位的特征點中心變化更為劇烈,誤差也更大,明顯不如灰度平方加權質心法定位精度高。

分別計算由橢圓擬合法和灰度平方加權質心法得到的誤差的均值和方差,如表1所示。

由表1的結果可以得出,灰度平方加權質心法的穩定性也要優于橢圓擬合法,相比之下,灰度平方加權質心法算法整體性能比較高,故在本系統中選用灰度平方加權質心法進行點中心定位。

本文為基于空間合作目標的三維位姿視覺測量技術研究系統中的一部分,研究前期采用張正友標定法對單目相機進行內部參數標定[8],標定靶標采用經由中國計量院標定過的棋盤格平面靶標。后期通過本文提取到的點中心坐標,采用POSIT算法通過迭代最終得到高精度的位姿參數估計。

4 結 語

本文總結了靶標圖案設計的原則,并結合此原則設計了基于圓形圖案的合作靶標,憑借著其自身各向同性,通過基于圖形圓形度的特征提取方法,很容易地將靶標從圖像中提取出來,通過對不同距離采集的圖像進行驗證,本算法可以滿足空間合作目標三維位姿測量項目在0.5~3.0 m范圍內準確識別合作靶標的要求,具有很強的實用價值。

針對點中心定位算法,對橢圓擬合法和灰度平方加權質心法分別進行對比試驗。試驗結果表明,灰度平方加權質心法因其具有算法速度快、定位精度高的特點,更加適用于本文的設計方案中。

由空間靶標設計及點中心定位算法共同構成的空間機械臂合作靶標系統方案,性能較好,穩定性較高,并與目前國際空間站上的成功應用案例有相近之處,可以為后期空間機械臂視覺測量系統中的三維位姿測量打下良好的基礎。

參考文獻

[1] 初廣麗.航天器合作靶標自動識別關鍵技術研究[D].長春:中國科學院研究生院(長春光學精密機械與物理研究所),2015:1?2.

CHU Guangli. Study on the key technologies of automatic identification for cooperative target on spacecraft [D]. Changchun: Changchun Institute of Optics, Fine Mechanics and Physics, Chinese Academy of Sciences, 2015: 1?2.

[2] 溫卓漫,王延杰,邸男,等.空間站機械臂位姿測量中合作靶標的快速識別[J].航空學報,2015,36(4):1330?1338.

WEN Zhuoman, WANG Yanjie, DI Nan, et al. Fast recognition of cooperative target used for position and orientation measure?ment of space station′s robot arm [J]. Acta aronautica et astronautica sinia, 2015, 36(4): 1330?1338.

[3] 譚啟蒙,胡成威,高升.空間非編碼標記特征點中心定位方法與比較[J].航天器工程,2014,23(1):96?102.

TAN Qimeng, HU Chengwei, GAO Sheng. Design of non?coding pattern and centroiding location of feature points for spatial target [J]. Spacecraft engineering, 2014, 23(1): 96?102.

[4] 童張海.單目視覺空間目標位姿測量算法研究[D].哈爾濱:哈爾濱工業大學,2012:31?42.

TONG Zhanghai. Algorithm of relative pose estimation for space target based on monocular?vision [D]. Harbin: Harbin Institute of Technology, 2012: 31?42.

[5] 夏瑞雪,盧榮勝,劉寧,等.基于圓點陣列靶標的特征點坐標自動提取方法[J].中國機械工程,2010,21(16):1906?1910.

XIA Ruixue, LU Rongsheng, LIU Ning, et al. A method of automatic extracting feature point coordinates based on circle array target [J]. China mechanical engineering, 2010, 21(16): 1906?1910.

[6] 孫鵬,呂乃光,王博恩,等.視覺測量中圓形標志點的全場自動識別和提取[J].北京信息科技大學學報(自然科學版),2011,26(3):91?95.

SUN Peng, L? Naiguang, WANG Boen, et al. Automatic recognition and extraction of circle marked point in full images of photogrammetry [J]. Journal of Beijing Information Science and Technology University (natural science edition), 2011, 26(3): 91?95.

[7] 張廣軍.視覺測量[M].北京:科學出版社,2008:66?70.

ZHANG Guangjun. Vision measurement [M]. Beijing: Science Press, 2008: 66?70.

[8] 譚啟蒙,胡成威,高升.空間機械臂視覺相機內參標定技術研究[J].航天返回與遙感,2013,34(6):74?80.

TAN Qimeng, HU Chengwei, GAO Sheng. Research on calibration of intrinsic parameters for space manipulator camera based on 2D planar [J]. Spacecraft recovery & remote sensing, 2013, 34(6): 74?80.

[9] SONG Limei, WANG Mingping, LU Lu, et al. High precision camera calibration in vision measurement [J]. Optics & laser technology, 2007, 39: 1415?1418.

[10] TRI C P, YONG S I, JA C K, et al. An enhanced edge tracking method using a low resolution tactile sensor [C]// 2012 International Conference on Computer Science and Electronics Engineering. [S.l.]: IEEE, 2012: 633?636.

主站蜘蛛池模板: 人妻无码中文字幕一区二区三区| 亚洲欧美色中文字幕| 国产一区二区三区在线观看免费| 色窝窝免费一区二区三区| 欧美日韩中文国产| 亚洲国产天堂久久综合| 天堂在线视频精品| 亚洲第一极品精品无码| 激情无码视频在线看| 在线国产91| 国产丝袜无码一区二区视频| 在线看AV天堂| 久久亚洲欧美综合| 无码福利视频| 中文字幕 日韩 欧美| 日本国产在线| 福利一区三区| 久久久久国产一区二区| 国产精品亚洲日韩AⅤ在线观看| 又爽又大又黄a级毛片在线视频| 成人亚洲视频| 免费a级毛片视频| 狠狠操夜夜爽| 日韩美毛片| 国产精品香蕉| 欧美色视频在线| 日韩欧美中文| A级毛片无码久久精品免费| 亚洲人成网站在线播放2019| 71pao成人国产永久免费视频| 亚洲精品无码日韩国产不卡| 91蝌蚪视频在线观看| 亚洲视频一区在线| 免费国产高清视频| 永久成人无码激情视频免费| 国产在线高清一级毛片| 99热国产这里只有精品9九| 国产无码网站在线观看| 一本无码在线观看| a级毛片一区二区免费视频| 日韩毛片在线视频| 欧美亚洲国产精品久久蜜芽| 国产中文一区二区苍井空| 啦啦啦网站在线观看a毛片| 国产精品开放后亚洲| 国产又粗又猛又爽| 国产69精品久久久久孕妇大杂乱| 久久公开视频| 中文国产成人精品久久| 99精品国产电影| 青青青国产精品国产精品美女| 国产丝袜无码精品| 91精品专区国产盗摄| 亚洲天堂网站在线| 四虎成人精品在永久免费| 欧美综合中文字幕久久| 一本大道东京热无码av| 精品国产污污免费网站| 免费av一区二区三区在线| 日韩亚洲高清一区二区| 国产精品视频免费网站| 成人在线不卡| 综合色亚洲| 久久久久亚洲精品成人网 | 日本三区视频| 日韩欧美91| 亚洲系列中文字幕一区二区| 免费在线成人网| 国产亚洲精品自在线| 无码人妻免费| 国产精品综合久久久| 超薄丝袜足j国产在线视频| 国产美女无遮挡免费视频| 97视频精品全国免费观看| 国产成人91精品免费网址在线| 狠狠色丁香婷婷综合| 亚洲国产日韩欧美在线| 福利在线一区| 欧美一级大片在线观看| 亚洲精品国产日韩无码AV永久免费网 | 无码日韩视频| av免费在线观看美女叉开腿|