999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于計算機視覺的移動機器人導航

2008-04-12 00:00:00種蘭祥張萬緒
現代電子技術 2008年8期

摘 要:針對跟隨路徑導引的移動機器人導航方式的靈活性較差、維護成本較高、功能單一的缺點,將計算機視覺用于移動機器人路徑識別。首先對視覺傳感器獲得的視頻圖像進行處理,獲得有用的特征目標,實現機器人對當前路徑信息的理解。然后調用直行或轉彎功能模塊對機器人進行導航控制。實驗結果表明,該導航方式具有較好的實時性和魯棒性。

關鍵詞:計算機視覺;移動機器人;路徑識別;自主導航

中圖分類號:TP24262文獻標識碼:B

文章編號:1004-373X(2008)08-165-03

Navigation of Mobile Robot Based on Computer Vision

ZHAO Yu,ZHONG Lanxiang,ZHANG Wanxu

(Information Science Technology College,Northwest University,Xi′an,710069,China)

Abstract:Mobile robot navigation using path following has several weaknesses such as weak flexibility,high cost of maintenance and single function.Considering those disadvantages computer vision is proposed in mobile robot navigation using path recognition.First,the image obtained by vision sensor is processed in order to get the useful target,then the robot can comprehend the current path environment,second,the robot is controlled by the different movement module of straight or turning according to the results in the first step.The experimental results demonstrated the effective and robustness of the system.

Keywords:computer vision;mobile robot;path recognition;autonomous navigation

現代機器人技術在人工智能、計算機技術和傳感器技術的推動下獲得了飛速發展,其中移動機器人因具有可移動性和自治能力,能適應環境變化被廣泛用于物流、探測、服務等領域[14]。移動機器人的核心技術之一是導航技術,特別是自主導航技術。由于環境的動態變化和不可預測性、機器人感知手段的不完備等原因,使得移動機器人的導航難度較大,一直是人們研究的重點[5]。

目前常用的一種導航方式是“跟隨路徑導引”[6],即機器人通過對能感知到某些外部的連續路徑參考信息做出相應的反應來導航。如在機器人運動路徑上敷設金屬導線或磁釘,通過檢測金屬導線或磁釘的特征信息來確定機器人的位置。從導航的角度看,這種方法的優點是可靠性較高,但功能單一,如不能在行進的同時對目標進行識別、避障,對環境的適應能力較弱、靈活性較差、維護成本較高,因此限制了其在移動機器人中的應用。

隨著計算機技術、數字圖像處理技術及圖像處理硬件的發展,基于計算機視覺的導航方式在機器人導航中得到廣泛關注[68]。在實際應用中,只需要在路面上畫出路徑引導線,如同在公共交通道路上畫的引導線一樣,機器人就可以通過視覺進行自主導航。相對于敷設金屬導線、磁釘等方法,這種方法增強了系統的靈活性,降低了維護成本。視覺信息中包含有大量的數據,要從中提取有用的信息,需要復雜的算法及耗時的計算。如何保證視覺導航系統在正確理解路徑信息的前提下仍具有較好的實時性和魯棒性,是該方法要解決的核心問題。

1 視覺導航系統構成及工作過程

基于計算機視覺的移動機器人導航實驗系統的硬件部分由計算機、USB接口的攝像頭、LEGO實驗用機器人組成。軟件分為2部分,即圖像處理和機器人運動控制?;谝曈X導航的原始輸入圖像是連續的數字視頻圖像。系統工作時,圖像預處理模塊首先對原始的輸入圖像進行縮小、邊緣檢測、二值化等預處理。其次利用哈夫變換提取出對機器人有用的路徑信息。最后,運動控制模塊根據識別的路徑信息,調用直行或轉彎功能模塊使機器人做相應的移動。整個工作流程如圖1所示。

1.1 視覺導航的圖像預處理

目前圖像采集設備都具有較高的空間和灰度分辨率,精度高、數據量大。

實驗中的原始輸入圖像是USB攝像頭采集320×240像素的RGB格式圖像,最大幀數30幀/s。

圖像預處理的效果對后續哈夫變換檢測路徑信息的速度和準確性有很大影響。對整幅圖像進行抽取時計算量過大、也無必要,故先將彩色圖像轉換為灰度圖像,再將圖像的大小依據最近鄰域插值法原理[9]進行縮小以節約后續計算時間。在實驗室環境下,經測試,將原始圖像縮小到30%仍然能滿足需要,處理時間縮短了72%。

圖1 視覺導航系統工作流程

由于圖像傳感器從時間和空間上對介質(光)采樣,其圖像質量對現場的非均勻光場和其他干擾因素非常敏感,二值化時,不同光照條件下閾值的確定是一件比較困難的工作。目前常用的閾值選取方法有雙峰法、迭代法和 最大類間方差法[10]。從執行時間和處理效果2方面考慮,對3種方法比較后(結果如表1所示),在優先考慮實時性的前提下,選用雙峰法來求取閾值。在實驗室條件下,路徑環境相對理想,黑色引導線與背景反差較大。在灰度直方圖上,引導線和背景都形成高峰,對這2個峰值及谷底的求取也可簡化,使用灰度級的最大值和最小值代替2個峰值,那么這2個峰值的中間值即可作為谷底用作圖像的閾值。

表1 三種閾值選取方法執行時間比較

執行時間 /s閾值T

最大類間方差法31.534190

迭代法21.541145

雙峰法0.006124

地面的反光和陰影,以及不均勻的光照都會導致同一幅圖像的二值化效果表現出很大差別,圖2和圖3是對同一幅圖像在不同光照條件下二值化的結果,可以看到在光照條件2下會出現大量的黑點,這些黑點將嚴重影響提取路徑信息的速度并且可能導致錯誤的路徑信息。然而,相對于灰度、顏色特征,邊緣特征受光照影響較小[11]。為此,對縮小后的圖像先進行引導線的邊緣檢測,邊緣檢測后圖像中引導線邊緣像素灰度的對比度得到增強,通過實驗確定合適的閾值,然后對圖像進行二值化以提取路徑信息。

圖2 光照條件1

圖3 光照條件2

1.2 引導線角度檢測

采用哈夫變換檢測路徑引導線的角度[12]。為了簡單而又不失一般性,引導線分1條路徑和2條相交的路徑。當2條直線的夾角等于90°時即認為是兩條相互垂直的路徑。直線的哈夫變換利用如下直線的極坐標方程:



λ=xcos θ+ysin θ(1)



式(1)中,(x,y)表示圖像空間xy中所有共線的點即圖像中的黑點;θ表示直線法線和x軸的夾角,取值范圍為0~180°;λ表示直線到原點的距離。

2 視覺導航的機器人運動控制

機器人運動控制部分分為直行控制和轉彎控制2部分。

2.1 直行控制

如果哈夫變換的檢測結果表明是一條直線即機器人視野中只有1條主引導線時,則運行直行模塊。實際中有2種情況需要考慮:一是機器人的初始位置不一定正對引導線,二是在機器人的機電配置中,左右輪子的馬達運動不會絕對精確和對稱。這些會使機器人在運動中出現側偏??刹捎孟率龇椒ㄟM行直行控制:根據引導線在圖像平面坐標中的位置來判斷機器人的偏向。當引導線位于圖像平面的左半邊,說明攝像頭的光軸與引導線不垂直且相對于引導線右偏,則命令機器人左轉;當引導線位于圖像平面的右半邊,說明攝像頭的光軸與引導線不垂直且相對于引導線左偏,則命令機器人右轉;當引導線在圖像平面兩邊均存在時,則命令機器人不偏轉繼續直行。機器人在前進過程中,根據圖像平面中引導線位置不斷調整方位,以一定的轉動角度(轉動角度盡量小,這樣機器人的擺動幅度就會小)在直線路徑上行走。

2.2 轉彎控制

如果哈夫變換的檢測結果表明是兩條相互垂直的直線,即機器人的視野中出現轉彎路口,則開始運行轉彎模塊。

機器人需要在距轉角合適的距離處開始運行轉彎模塊,以保證機器人視野中始終具有引導線。如圖4所示,AB段表示攝像頭的縱向視野范圍,C點為轉角點,機器人需要知道自身在實際二維平面中相對于轉角點C的距離即BC段距離。由圖像信息獲得現實世界坐標系中的參數,即所謂三維重建,這需要對基于計算機視覺的移動機器人導航系統進行攝像機標定。

鑒于移動機器人識別的引導線在地面上這一限制條件,并且攝像頭固定在機器人上,可以選擇機器人坐標系為世界坐標系,即世界坐標系與機器人同步移動。坐標原點為標定模板的左下角標定點的中心,Zw軸垂直地面,XwYw平面即為地面。在該坐標系下地面目標的坐標可以表示為(Xw,Yw,0),標定模板由直徑5 mm、相距10 mm共72個圓點構成,如圖5所示。

圖4 轉變示意圖

圖5 標定模板

移動機器人的攝像機標定問題,如果忽略因物面與攝像機光軸不垂直造成的非線性,則可歸結為在二維世界坐標系中求變換矩陣M[13]。

[HT6”]

X1Y11000-u1X1-u1Y1

000X1Y11-v1X1-v1Y1

…………

…………

XnYn1000-unXn-unYn

000XnYn1-vnXn-vnYn#8226;m11m12m14m21m22m24m31m32=u1v1u2v2……unvn(2)



世界坐標系(Xw,Yw,Zw ),Zw軸垂直地面,XwYw平面即為地面,在該坐標系下地面目標的坐標P可以表示為(Xw,Yw,0)。式(2)中Xi,Yj (其中i=1,2,…,n,j=1,2,…,n)即為地面目標的坐標(Xw,Yw)。只要有4個標定點就可以求解該線性方程組,分別測得其在地面上的坐標(Xw,Yw,0),再根據由圖像處理的方法得到的圖像坐標系中的像素坐標(ui,vj)(其中i=1,2,…,n,j=1,2,…,n),即可求得變換矩陣M,M = [m11,m12,m14,m21,m22,m24,m31,m32]T,其中m34=1。變換矩陣M的元素取值受到攝像頭俯仰角和架設高度的影響。在實驗室條件下,本系統選取BC=13 cm時開始運行轉彎模塊。

在單目視覺的條件下,對于固定的俯仰角,為保證道路引導線不移出攝像頭視野范圍,必須控制機器人以一定的弧度轉彎,即沿弧線路徑執行轉彎模塊。要做到這一點,弧線的弧度必須選取合適。在轉彎過程中需要根據機器人的位置不斷調整機器人的運動速度和轉動角度,具體過程如下:

(1) 找出圖像中最后一行中點m的像素坐標(um,vm),即攝像頭視野最下方的中點,通過變換矩陣M將其轉換為世界坐標系xyz中的位置(xm,ym),z軸垂直于xy平面即地面。

(2) 找出圖像中轉角點t的像素坐標(ut,vt),通過變換矩陣M求出其在世界坐標系xyz中的位置(xt,yt)。

(3) 以地面上轉角點為圓心的世界坐標系定義為XYZ,Z軸垂直于XY平面即地面,求出弧線在此坐標系中的方程,(x-a)2+(y-b)2=r2,(a,b)表示在坐標系XYZ下弧線所在圓的圓心,r表示圓的半徑。

(4) 將xyz坐標系下的坐標點(xm,ym)轉換到XYZ坐標系下,用坐標(Xm,Ym)表示,如圖6所示。X軸與x的夾角為θ,XOY坐標系的原點O即為轉角點t,則:



Xm=(xm-xt)cos θ Ym=(ym-yt)cos θ(3)

圖6 坐標系轉換

(5) 弧線方程中當y=Ym時,求得X,比較x與Xm,若Xm-x>0,則命令機器人左轉;若Xm-x<0,則命令機器人右轉,否則直行。

本系統確定轉彎弧的半徑為20 cm,弧度為90°的弧線即可使機器人順利轉彎,機器人視野中始終保持引導線。 

3 實驗結果及結論

實驗中選用的LEGO移動機器人,其運動速度為8.57 cm/s(指令設定Power=25 RPM)。導航場地中畫有寬1 cm的黑色引導線,實驗要求中機器人完全根據引導線自主運動。實驗中,識別1幀圖像并且機器人根據識別的路徑信息運行直行或轉彎模塊共需0.311 s,即機器人每處理1幀圖像移動2.67 cm。實驗室中的光照條件是機器人移動時的主要干擾,而銳利的引導線邊緣受光照影響較小,對這些干擾有較好的濾除作用。經過在陰天白天、晴天白天以及開燈和不開燈的情況下、晚上開燈的情況下、遮蓋物位于攝像頭上方50 cm處形成陰影情況下,機器人能正確的沿引導線移動。同時,當攝像頭視野范圍內引導線消失即認為出現障礙物,機器人能發出前方有障礙物的報警信息。

可見上面所述方法有較好的實時性和魯棒性有一定的通用性,使得該視覺導航方法具有一定的應用價值。只要光照條件變化不是非常劇烈,在工廠、醫院、辦公樓等環境中,機器人根據路徑引導線可自主到達目的地。

當然,由于移動機器人活動場景的復雜性和動態特性,以及視覺處理的復雜性,視覺導航還有很多需要解決的問題,例如當導航場地出現較大面積的強烈反光、極暗的陰影時能否有效可靠的進行移動機器人的導航控制,這需要進一步研究。另外,如何將視覺系統與本系統機器人平臺中的超聲波傳感器、光電傳感器及聲音傳感器在空間、時間及數據上進行融合以提高系統的適應性和環境識別能力也是一個研究方向。

參 考 文 獻

[1]方強,謝存禧.基于視覺的移動機器人自主定位導航[J].機床與液壓,2004(7):4042.

[2]Siegwart Roland,Nourbakhsh Illah R.Introduction to Autonomous Mobile Robots[J].Massachusetts Institute of Technology,2004:111.

[3]Gérard Medioni,Alexandre Francois R J,Matheen Siddiqui.Robust Realtime Vision for a Personal Service Robot [J].Computer Vision and Image Understanding,2007:18.

[4]胡春華,馬旭東,戴先中.一種基于移動機器人視覺的實用數字識別方法[J].制造業自動化,2006,28(5):3943.

[5]陸新華,張桂林.室內服務機器人導航方法研究[J].機器人,2003,25(1):8087.

[6]張海波,原魁,周慶瑞.基于路徑識別的移動機器人視覺導航[J].中國圖像圖形學報,2004,9(7):853857.

[7]吳玉斌,曹廣忠,徐剛.基于虛擬儀器技術的機器人視覺伺服研究[J].機械科學與技術,2006,25(8):1 0051 008.

[8]董再勵,郝穎明,朱楓.一種基于視覺的移動機器人定位系統[J].中國圖像圖形學報,2000,5(8):688692.

[9]江巨浪.基于改進CatmullRom 樣條的圖像縮放算法[J].計算機技術與發展,2007,17(4):211213.

[10]楊暉.圖像分割的閾值法研究[J].遼寧大學學報:自然科學版,2006,33(2):135137.

[11]陳鍛生,劉政凱.彩色圖像邊緣特征及其人臉檢測性能評價[J].軟件學報,2005,16(5):727732.

[12]陳震,高滿屯,楊聲云.基于Hough 變換的直線跟蹤方法[J].計算機應用,2003,23(10):3032.

[13]康晶,鄒北驥,劉相濱.一種改進的攝像機內外參數初值計算方法[J].計算機工程與科學,2007,29(1):5255.

作者簡介

趙 瑜 女,1983年出生,陜西西安人,碩士研究生。主要研究方向為非接觸測量與可視化計算。

種蘭祥 男,1960年出生,陜西合陽人,西北大學信息科學與技術學院副教授,中國科學院西安光學精密儀器研究所博士研究生。主要從事非接觸測量、光電子技術和可視化計算方面的研究。

張萬緒 男,1964年出生,山西運城人,西北大學信息科學與技術學院副教授。主要研究方向為智能儀器儀表。

注:本文中所涉及到的圖表、注解、公式等內容請以PDF格式閱讀原文

主站蜘蛛池模板: 精品国产成人av免费| 亚洲国产精品日韩欧美一区| 亚洲精品福利视频| 蜜芽国产尤物av尤物在线看| 亚洲资源站av无码网址| 国产亚洲精品91| 国产高清精品在线91| 91福利片| 欧美日韩精品一区二区视频| 国产资源免费观看| 不卡无码h在线观看| 视频一区亚洲| 自慰高潮喷白浆在线观看| 婷婷色中文网| 亚洲欧洲日本在线| 亚洲水蜜桃久久综合网站 | 国产在线视频导航| 国产人人射| aaa国产一级毛片| 日韩精品一区二区三区视频免费看| 无码一区18禁| 国产成人三级| 18禁黄无遮挡免费动漫网站| 中文无码日韩精品| 91在线中文| 国产xx在线观看| 久综合日韩| 青草精品视频| 美女高潮全身流白浆福利区| 国产午夜不卡| 日韩中文精品亚洲第三区| 欧美va亚洲va香蕉在线| 免费黄色国产视频| 毛片最新网址| 成人av手机在线观看| 潮喷在线无码白浆| 72种姿势欧美久久久大黄蕉| 久久久久久国产精品mv| 免费毛片视频| 伊人久久青草青青综合| 精品一区二区三区波多野结衣| 亚洲成在人线av品善网好看| 在线看AV天堂| 一级不卡毛片| 日韩欧美高清视频| 欧美一区日韩一区中文字幕页| 欧美一级大片在线观看| 一级毛片免费不卡在线| 欧美全免费aaaaaa特黄在线| 久久毛片免费基地| 欧美第一页在线| 麻豆国产在线观看一区二区| 妇女自拍偷自拍亚洲精品| 国产精品污视频| 99热这里只有精品2| 亚洲性视频网站| 国产精品久久精品| 免费aa毛片| 亚洲一区网站| 亚洲精品动漫| 色综合中文| 激情亚洲天堂| 亚洲色无码专线精品观看| www.日韩三级| 日本一区二区不卡视频| 国产流白浆视频| 波多野结衣AV无码久久一区| 狠狠色成人综合首页| 午夜小视频在线| 国产精品播放| 丁香五月亚洲综合在线| 一级福利视频| 欧美福利在线| 国产久操视频| 久久精品最新免费国产成人| 东京热av无码电影一区二区| 国产久操视频| 精品少妇人妻无码久久| 国产一区二区三区精品久久呦| 亚洲一区二区三区中文字幕5566| 久草视频中文| 亚洲资源站av无码网址|