999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種球形機器人視覺定位系統研究

2018-07-04 05:58:14趙鵬戰強
機械制造與自動化 2018年3期

趙鵬,戰強

(北京航空航天大學 機械工程及其自動化學院,北京 100191)

0 引言

球形機器人是一種將運動機構、傳感器、控制器等內置于一個球形殼體內的機器人系統的總稱。與傳統的輪式、履帶式移動機器人相比,它具有體積小巧、運動靈活、姿態易調整、環境適應能力強等特點。基于以上優越特性,球形機器人在復雜環境下作業、反恐偵察、太空探險等領域具有廣闊的應用前景[1-3]。

球形機器人若要自主地完成路徑規劃、目標跟蹤和預定的作業任務,需要實時檢測自身位置及外部環境信息。由于球形機器人構型限制,無法在其外部安裝大量傳感器,致使其環境感知能力較弱,難以準確地獲得自身位置、速度等運動參數,因此對球形機器人實現精準定位已經成為阻礙球形機器人進一步應用和發展的關鍵問題。相關研究人員針對以上問題開展了大量研究,但絕大多數采用遠程遙控或開環控制方法,存在控制精度低、累計誤差較大、抗干擾能力差等缺點[4-5]。此外,由于球形機構及工況限制,比較完善的定位方法無法得到實際應用,如GPS定位法由于建筑物的屏蔽作用使得機器人無法在室內進行工作;考慮到球形機器人的工作環境多處于崎嶇、不平等復雜路況,里程計法測量的結果誤差太大,累計誤差嚴重時甚至有可能導致定位失敗;慣性測量單元無法在高電磁干擾的環境下定位;激光定位價格昂貴等。

近年來,基于機器視覺的定位方法因其所采集的信息豐富、適應范圍廣、容錯率高等優點廣泛應用于工業、農業、國防、交通等領域。在球形機器人應用領域方面,Halme等人[6]于1996年最早提出了基于單目視覺傳感器的球形機器人位置估計方法,該機器人通過識別在天花板上預先布置的人工路標獲得自身的位置估計,但定位精度較差。此后,埃布羅河大學的Bakkycghi、北京航空航天大學的戰強、麻省理工學院的Christopher等人[7]先后研制出載有雙目相機的球形機器人,但機器人上的相機僅用于對外界環境的遠程視頻監控,沒有構建立體視覺,也沒有基于視覺反饋的閉環控制。在此基礎上,北京郵電大學的葉平等人[8]提出了一種基于立體視覺的球形機器人定位方法,該方法通過雙目相機采集特征點,采用解釋法和卡爾曼濾波等算法實現了球形機器人的自身運動位置估計,定位精度較高。

根據BHQ-1G外殼不透明的特點,提出了一種基于BHQ-1G球形機器人的視覺定位系統。采用霍夫圓變換實現球形機器人的識別定位,通過圖像拼接擴大了視野,能夠快速穩定地實現該球形機器人的定位。

1 BHQ-1G球形機器人簡介

1.1 BHQ-1G機器人總體結構

現以北京航空航天大學自行研制的BHQ-1G球形機器人為控制對象,相對于BHQ-1來說,BHQ-1G在結構設計上更加緊湊,優化了電機布局,減少了空間資源浪費,從而使得機器人具有更小的轉彎半徑,其具體結構組成如圖1所示。

圖1 BHQ-1G機器人結構組成圖

球形機器人主要由左右半球殼、質量塊、中空軸、電機、錐齒輪組、搖桿及旋轉法蘭構成。機器人左右半球殼相互獨立,以便內部機構的裝配及拆卸;中空軸一端通過滾動軸承與左球殼相連,另一端通過擺動法蘭與右球殼緊固,并作為支撐架連接其余5個部件;1、2號電機均固定于中空軸內,其中1號電機通過旋轉法蘭與外球殼連接,2號電機與錐齒輪組相連,通過傳動軸可帶動搖桿旋轉;質量塊固定于搖桿的支撐板上,可隨搖桿一起擺動。

1.2 BHQ-1G機器人工作原理

BHQ-1G機器人共采用2個直流電機完成自身的前進滾動和左右擺動動作。具體工作時,1號電機通過驅動旋轉法蘭盤旋轉使得質量塊繞中空軸轉動,從而產生偏心力矩使機器人前后滾動;2號電機通過傳動系統驅動搖桿和質量塊擺動,通過不斷地調節和改變機器人的中心位置控制機器人完成左右轉向動作。

2 基于特征點匹配的圖像拼接

2.1 sift特征點的k-d tree構造[9-10]

輸入:圖片上的sift特征點集合T= {p1,p2,…,pi},其中pi是圖片上第i個特征點坐標。

輸出:構建好的kd樹。

算法步驟如下:

1) 首先構造根節點,根節點是對應于包含T的二維空間的矩形區域。選擇橫坐標軸,將T中所有點的橫坐標的中位數作為切分點,通過垂直并通過該切分點的直線切分根節點對應的矩形區域。這樣就由根節點生成左右兩個深度為一的子節點。

2) 將左右子節點區域按深度依次以縱坐標軸和橫坐標軸作為切分軸,重復以上過程直到兩個子區域沒有實例存在時停止,這樣就形成了kd樹的區域劃分。

2.2 BBF算法

輸入:kd樹,查找點x。

輸出:kd樹中距離查找點最近的點以及最近的距離。

算法步驟如下:

1) 若kd樹為空,則設定兩者距離為無窮大,返回;如果kd樹非空,則將kd樹的根節點加入到優先級隊列中;

2) 從優先級隊列中出隊當前優先級最大的結點,計算當前的該點到查找點的距離是否比最近鄰距離小,如果是則更新最近鄰點和最近鄰距離。如果查找點在切分維坐標小于當前點的切分維坐標,則把他的右孩子加入到隊列中,同時檢索它的左孩子,否則就把他的左孩子加入到隊列中,同時檢索它的右孩子。這樣一直重復檢索,并加入隊列,直到檢索到葉子節點。然后再從優先級隊列中出隊優先級最大的結點;

3) 重復1)和2)中的操作,直到優先級隊列為空,或者超出規定的時間,返回當前的最近鄰結點和距離。

2.3 RANSAC算法

a) RANSAC算法原理[11]

RANSAC(random sample consensus)是用于去除噪聲影響,估計模型的算法。給定N個數據點組成的集合P,假設集合中大多數的點都是可以通過一個模型來產生的,且最少通過n個點(n

1) 從P中隨機選擇n個數據點;

2) 用這n個數據點擬合出一個模型M;

3) 對P中剩余的數據點,計算每個點與模型M的距離,距離超過閾值的則認定為局外點,不超過閾值的認定為局內點,并記錄該模型M所對應的局內點的值m;

迭代k次以后,選擇m最大的模型M作為擬合的結果。

2.4 基于霍夫圓變換的識別定位

任意一個圓可以完全由3個參數描述其相關信息:圓心(a,b)和半徑。(圓心是2個參數,加起來總共3個)。

x=a+Rcosθ

y=b+Rsinθ

當θ由0°逐漸變化到360°時,就生成了一個半徑為R的圓。當R已知時,在xy空間里的每一個點都相當于ab空間里的一個圓(R此時并非參數,是一個已知量)。對上述兩式變形,得到:

a=x1-Rcosθ

b=y1-Rsinθ

對于一個任一點(x1,y1),Θ從0°掃到360°。

完整的步驟如下:

加載圖片,檢測邊緣并產生二值圖像,對邊緣上每個像素點,在ab空間產生一個圓。對于ab空間上的圓上每個點對累加器上的單元進行累加,如果單元上的累加值超過某一閾值,那么這個單元就對應一個圓心,這樣就找到一個半徑為R的圓。

3 BHQ-1G球形機器人試驗與分析

由于機器人識別對周邊環境可能比較敏感,且光線變化也會對圖像識別造成影響,僅依靠理論模型無法確定機器人實際工作狀態和定位效果。因此在理論研究的基礎上,在實驗室內搭建了參數可調式試驗平臺,驗證基于霍夫圓變換的球形機器人定位算法的穩定性。

3.1 系統試驗平臺搭建

試驗平臺主要由BHQ-1G球形機器人、圖像采集卡、兩架攝像機和組合三腳架組成,其中攝像機架設在三腳架上的連桿上。三腳架高度為1.5 m,攝像機間距1 m,相對機架連桿中心對稱布置,可同時對球形機器人進行拍照。攝像機采用松下公司生產的彩色CCD攝像機,分辨率為640×480,可配合圖像采集卡完成兩路圖像的采集工作。采用emgucv2.49/C#完成上位機,其中實驗數據繪圖采用python2.7完成。

3.2 BHQ-1G球形機器人圖像拼接實驗

隨機選取兩個位置對BHQ-1G球形機器人拍攝,對拍攝得到的兩張圖像進行拼接如下圖所示。其中圖2和圖3是待拼接圖,圖4是拼接結果。

圖2 待拼接圖一

圖3 待拼接圖二

圖4 拼接結果圖

拼接效果良好,能夠將兩張圖像很好地融合在一起,中間感覺不到拼接縫的存在,視野也能夠明顯的擴大。

3.3 球形機器人定位試驗

球形機器人的定位實驗分為兩個部分:第一部分是球形機器人的識別,第二部分是球形機器人定位穩定性實驗。

如圖5所示,利用霍夫圓變換效果良好,通過該算法能在該實驗室內環境下準確的識別出球形機器人的邊緣。

由圖5可以看出,對球心橫坐標與縱坐標的定位結果來看,波動在3個像素點以內。對于圖6,這個是定位坐標的立體圖,非常直觀地可以看出定位點集中在位置相近的5個點上,1 000個定位點中有956個是這5個點中的一個,占到95.6%。其他波動的點與這5個集中點位置相差很小。綜上,該視覺定位系統對球形機器人定位的穩定性良好,能夠很好地完成球形機器人的定位。

圖5 球形機器人定位的圓心橫坐標及縱坐標圖

圖6 球形機器人定位圓心的立體坐標圖

4 結語

對BHQ-1G球形機器人的室內定位問題做了研究,提出了基于霍夫圓變換的定位方法。將兩個攝像機置于攝像機支架上對球形機器人拍攝,將拍攝的圖像進行拼接,顯著地擴大了視野。在此基礎上對球形機器人的定位做了實驗。實驗結果表明,該方法對球形機器人的定位精度很高,穩定性很好。基于視覺定位的方法對球形機器人的運動控制、軌跡規劃等技術的研究奠定了基礎,對球形機器人的定位也提供新的方案。下一步將主要研究基于視覺的球形機器人的運動控制,針對球形機器人完成不同運動軌跡的控制方案和實驗。

[1] 趙勃,孫李寧,李滿天. 球形機器人研究綜述[J]. 機械與電子,2010(9):63-65.

[2] 鄧宗全,岳明. 球形機器人的發展概況綜述[J]. 機器人技術與應用,2006(3):27-31.

[3] 葉平,李自亮,孫漢旭. 基于立體視覺的球形機器人定位方法[J]. 控制與決策,2013,28(4):633-635.

[4] 趙凱亮 .BYQ-4球形機器人運動特性分析及操作任務研究[D]. 北京:北京郵電大學,2009.

[5] 王軒. 具有雙目視覺的球形機器人定位方法研究[D]. 北京:北京郵電大學,2013.

[6] 岳明. 雙驅動球形機器人機器及其運動控制的研究[D]. 哈爾濱:哈爾濱工業大學,2008.

[7] 戰強,賈川,馬曉暉,等. 一種球形移動機器人的運動性能分析[J]. 北京航空航天大學學報,2005,31(7):745-746.

[8] 葉平,韓亮亮,張天石,等. 具有立體視覺的球形機器人及其運動控制[J]. 機械工程學報,2013(6):9-13.

[9] Lowe D G. Distinctive image features from scale-invariantkey-points[J]. Int J of Computer Vision, 2004, 60(2): 99-110.

[10] FINKEL R A,BENTLEY J L.QIlad trees-a data strncture for retrieval oncomposite keys[J].Acts Informatica,1974,4(1):1-9.

[11] Martin A F, Robert C B. Random sample consensus:Aparadigm for model fitting with applications to imageanalysis and automated cartography[J]. Communicationsof the ACM, 1981, 24(6): 381-395.

主站蜘蛛池模板: 91午夜福利在线观看| 91成人精品视频| 丰满人妻一区二区三区视频| 亚洲最大情网站在线观看| 国产精品毛片在线直播完整版| 无码高潮喷水专区久久| 波多野结衣一二三| 91精品国产91久无码网站| 黄色污网站在线观看| 亚洲精品无码日韩国产不卡| A级全黄试看30分钟小视频| 成人午夜免费视频| 网友自拍视频精品区| 国产精品亚洲综合久久小说| 国产在线观看一区二区三区| 国产成人盗摄精品| 国产精品极品美女自在线网站| 国产乱子伦精品视频| 亚洲天堂免费| 久久婷婷国产综合尤物精品| 日韩天堂网| 欧美成人影院亚洲综合图| yy6080理论大片一级久久| 国产色爱av资源综合区| 欧美精品啪啪| 日韩人妻精品一区| 亚洲AV无码乱码在线观看裸奔 | 国产一区二区影院| 欧美三级自拍| 成人精品免费视频| 久久婷婷综合色一区二区| 狠狠综合久久| 亚洲色大成网站www国产| 沈阳少妇高潮在线| 精品国产免费第一区二区三区日韩| 99这里只有精品免费视频| 国产成人高清精品免费5388| 97在线碰| 成人福利在线视频| 国产国产人免费视频成18| 日本高清免费不卡视频| 亚洲国产欧洲精品路线久久| 久久精品人人做人人爽电影蜜月 | 国产精品第页| 亚洲人成网线在线播放va| 欧美日韩亚洲国产主播第一区| 色婷婷综合激情视频免费看| 国产农村精品一级毛片视频| 日韩免费视频播播| 91福利在线观看视频| 在线a网站| 免费国产高清精品一区在线| 欧美在线免费| 极品私人尤物在线精品首页| 亚洲最大看欧美片网站地址| 欧美日本在线一区二区三区| 久久99蜜桃精品久久久久小说| 4虎影视国产在线观看精品| 国产美女久久久久不卡| 蝌蚪国产精品视频第一页| 亚洲成a人片| 免费A级毛片无码无遮挡| 在线国产毛片| 久久综合婷婷| 污污网站在线观看| 人妻无码中文字幕第一区| 久久精品波多野结衣| 午夜人性色福利无码视频在线观看| 丁香婷婷激情综合激情| 毛片免费高清免费| 久久9966精品国产免费| 亚洲av无码久久无遮挡| 国产99视频精品免费观看9e| 中文字幕伦视频| 老司机午夜精品视频你懂的| 亚洲国产理论片在线播放| 国产视频入口| 中国一级毛片免费观看| 国产精品无码AV片在线观看播放| 国产黄色视频综合| www.日韩三级| 大香网伊人久久综合网2020|