崔寶俠, 張 馳, 欒婷婷, 段 勇
(沈陽工業大學 信息科學與工程學院, 沈陽 110870)
?
基于全景視覺機器人定位的路標提取方法*
崔寶俠, 張馳, 欒婷婷, 段勇
(沈陽工業大學 信息科學與工程學院, 沈陽 110870)
針對全景圖像像素點過多、圖像復雜導致單一圖像分割算法難以提取出圖像中人工路標的問題,提出了一種用HSV閾值分割法與OTSU最大類間方差法相結合的算法.通過對兩種算法的結合使用,可以更有效地濾除圖像中的干擾區域及干擾點,從而將路標從圖像中提取出來.利用三角定位法的相交圓法計算出移動機器人的坐標,完成對移動機器人的定位.結果表明,該方法能夠提取出全景圖像中的路標,有效地避免了錯誤提取的情況,具有一定的可行性.
全景視覺; 室內環境; 移動機器人; 全景圖像; HSV閾值分割; 人工路標; 可行性; 三角定位
目前移動機器人在各個領域廣泛應用,如足球比賽機器人、探測機器人及服務機器人等[1],移動機器人導航技術是衡量其智能水平的關鍵因素.機器人在未知環境中進行一系列的避障、路徑規劃等導航行為時,定位問題最為關鍵,因此,機器人自定位是移動機器人實現導航、運動規劃等自主能力的基礎[2],也是評價機器人性能的關鍵指標之一[3].近年來,室內定位技術作為導航定位技術的重要組成部分,其研究受到了關注[4].在室內移動機器人的定位中,根據采用傳感器的不同有多種不同的定位方法,本文研究的是基于全景視覺傳感器的移動機器人定位.
全景視覺傳感器由一個曲面反射鏡和一個攝像機構成,如圖1所示.與傳統的單、雙目攝像機相比,全景視覺傳感器能夠提供更廣闊的視野范圍,使其在面積較大的室內環境中采集路標時穩定而高效.但是該傳感器也存在一定的缺陷:一方面是由于曲面反射鏡的作用,全景圖像中的物體會發生畸變,這導致圖像中的尺度扭曲,距離信息不再與實際成正比例關系,使得在實際應用時全景圖像往往需要先進行展開操作,這會帶來一定的誤差,也會增加算法的運算時間;另一方面是由于全景圖像大,像素點多(本文圖像像素為2 048×1 536),導致路標在圖像中占據的面積很小,增加了全景圖像路標提取的難度.南開大學的賀峰等[5]利用基于鏈表的數字圖像濾波算法完成了全景視覺下路標的識別匹配,并利用三角定位算法完成了移動機器人的定位,該方法較為簡單靈活,但是受環境的影響較大,定位成功率不高;劍橋大學Thrun等[6]采用了基于概率的Bayes濾波框架方法,但是該算法相對復雜,并且通常受到假設條件的限制,難以找到最優值.本文提出一種基于HSV閾值分割與OTSU(最大類間方差法)相結合的算法提取人工路標,并完成定位計算.

圖1 全景視覺傳感器Fig.1 Omni-vision sensor
圖像分割是利用圖像統計特征和視覺特征將一幅圖像分解為具有相同性質的區域,并從中提取感興趣目標的過程[7].在對全景圖像進行路標提取時,由于圖像面積大,路標在圖像中占據的比重小,故無法通過灰度直方圖方法將路標直接提取出來;而由于圖像的像素點多,在用顏色分割法進行圖像分割時會伴有大量的干擾點,這些干擾點可能會聚攏形成干擾區域,導致顏色分割法也無法成功提取路標.
本文采取方法是:先用HSV閾值分割法分割出帶有路標、干擾點及干擾區域的圖像,再用OTSU法進行圖像分割,分解干擾區域.整個圖像分割與路標提取的流程圖如圖2所示.

圖2 圖像分割與路標提取流程圖Fig.2 Flow chart of image segmentation and extraction of landmarks
1.1顏色模型變換
攝像機拍攝的圖片是RGB模型,但一般不能直接使用RGB模型進行圖像處理,主要原因是模型受光線強弱影響大,不利于特征顏色的提取[5];另外RGB模型不符合人的視覺特征,進行閾值化處理多有不便,故本文將RGB模型轉換為HSV模型,在HSV空間中對圖像進行閾值分割.
1.2HSV閾值分割
HSV顏色模型是將顏色分成H(色度)、S(飽和度)及V(亮度)來表示,其中色度代表顏色信息,飽和度代表顏色深淺程度,它們獨立于亮度信息V,這是HSV模型的一個突出優點[8].由于全景圖像拍攝面積很大,圖像中不可避免會有一些地面反光和陰影區域,可以通過為HSV模型的S和V通道設定閾值來去除反光和陰影,閾值表達式為
V(i,j)=0,S(i,j)<0.2
(1)
V(i,j)=0,V(i,j)<0.2
(2)
式中,(i,j)為圖像中的像素點.S越小,代表顏色越淺,越接近白色,而本文中路標選取的顏色鮮明,S值較大,因此可以對S設定閾值將路標與地面反光區分開;同理,V值越小,顏色亮度越低,越接近黑色,而路標的反光能力較強,可以對V設定閾值將路標與地面陰影區分開.將滿足上式的像素點亮度值賦為零,此像素點變為黑色,成為背景部分.
不同的H值能夠區分不同的顏色,但是在光照變化的情況下,物體的色度可能會隨之發生偏移,因此閾值H的設定范圍不能過于精確,否則可能會出現光照變化導致路標檢測不到的情況發生.本文首先研究綠色路標的提取,為H設定閾值以排除非綠色的區域,閾值表達式為
V(i,j)=0,H(i,j)<90°
(3)
V(i,j)=0,H(i,j)>150°
(4)
標準情況下,綠色的H值為120°,保留圖像中H值為90°~150°的像素點,閾值設定較為寬泛,能夠保證在光線變化時,綠色路標依然被檢測到.
圖3a是采集的全景圖像,圖3b是經過HSV閾值分割后的圖像.由圖3可見,經過HSV閾值分割后,圖像中只剩下綠色的路標,還有一些干擾點和由干擾點構成的干擾區域.
1.3OTSU自動閾值分割
經過HSV閾值分割以后,圖像中除了路標以外還會存在干擾點甚至干擾區域,僅使用HSV閾值分割無法提取出路標,還需要一種算法將路標與干擾區域分離開.路標是一個完整的物體,它的像素灰度值基本一致,而干擾區域并不是一個完整的物體,其不同像素之間的灰度值可能會有很大差異,因此可以利用OTSU算法將干擾區域分解.
OTSU法又叫大津法或最大類間方差法,在圖像分割研究領域中被認為是最經典的算法[9].算法中閾值把圖像分為目標與背景兩類,通過判斷類間方差值是否為最大值來決定該閾值是否為最優閾值[10],兩部分的方差越大,說明目標和背景之間差別越大,分離性越好.本文采用這種算法尋找使圖像類間方差最大的灰度值,對圖像進行二值化分割,能夠去除大量的干擾像素點.


(5)
第i級出現的概率為

(6)
選取一個分割閾值k將圖像中所有像素分為C0(目標類)和C1(背景類)兩類.其中C0類的像素灰度級是1~k,C1類的像素灰度級是(k+1)~(L-1).圖像的平均灰度級為

(7)
目標類C0的均值為

(8)
背景類C1的均值為

(9)
目標類C0、背景類C1的概率分別為

(10)

(11)
類間方差的定義為

(12)



圖4 k與的變化曲線Fig.

圖5 圖像的OTSU閾值分割結果Fig.5 OTSU threshold segmentation results of image
此次分割將圖像中像素值不為零的像素點由25 400個減少到10 200個,進行OTSU閾值分割后,圖像中除路標外已經沒有其他大塊連通區域,去除之后就可以得到只有路標是明亮區域的圖像,完成了路標的提取.用同樣的流程將圖像中其他顏色的路標分別提取出來,提取結果如圖6所示.
本文采用了三角定位法的相交圓法進行定位,已知兩個路標的絕對坐標A(x1,y1),B(x2,y2)以及機器人到兩個路標點連線的夾角α,則可根據同弧所對圓周角相等原理,確定唯一的一個圓,并求出其圓心、半徑.當圖像中路標個數為N且N≥3時,則可確定N(N-1)/2個圓,任取其中的兩個進行方程聯立,則求出的解一個是已知路標的坐標,另一個就是移動機器人的坐標.在實際工程應用中,應盡量減小測角誤差來提高定位精度,一般來說,路標均勻分布在機器人的周圍時,定位精度相對較高[11].

圖6 提取各種顏色的路標Fig.6 Landmarks for extraction of various colors
本實驗定義黃色路標中心點P1坐標為(0 cm,0 cm),紅色路標中心點P2為(60 cm,240 cm),橙色路標中心點P3為(360 cm,120 cm),移動機器人中心點O的實際位置坐標為(160 cm,120 cm).據此計算出P1、P2與O的實際夾角α1=∠P1OP2=87°,P2、P3與O的實際夾角α2=∠P2OP3=129.8°.
本文使用全景視覺傳感器采集機器人周圍的圖像,對于面積很大、像素點很多的圖像,采用了HSV閾值分割與OTSU閾值分割相結合的圖像分割方法,成功提取出圖像中的各種顏色路標.利用三角定位算法的相交圓法求出機器人坐標,完成了定位.該方法有效解決了全景圖像像素點過多導致路標難以提取的問題,而且避免了全景圖像展開帶來的誤差和算法復雜度,提高了定位精度.
[1]李海,陳啟軍.基于全景視覺的移動機器人地圖創建與定位 [J].控制與決策,2014,29(2):215-220.
(LI Hai,CHEN Qi-jun.Mobile robot map building and localization based on omni-vision [J].Control and Decision,2014,29(2):215-220.)
[2]黃錦添,崔懷林.基于攝像機的機器人視覺定位的研究 [J].廣東技術師范學院學報,2014,36(3):69-72.
(HUANG Jin-tian,CUI Huai-lin.A novel scheme for camera-based vision positioning of robots [J].Journal of Guangdong Polytechnic Normal University,2014,36(3):69-72.)
[3]張本法,孟祥萍,岳華.移動機器人定位方法概述 [J].山東工業技術,2014(22):250.
(ZHANG Ben-fa,MENG Xiang-ping,YUE Hua.Outline of mobile robot localization methods [J].Shandong Industrial Technology,2014(22):250.)
[4]張凱淵,劉佩林,錢久超,等.多傳感器融合機器人室內定位系統設計與實現 [J].信息技術,2014(11):83-87.
(ZHANG Kai-yuan,LIU Pei-lin,QIAN Jiu-chao,et al.Design and implementation of multi-sensor fused robot indoor localization system [J].Information Technology,2014(11):83-87.)
[5]賀峰,方勇純,肖瀟,等.移動機器人全景視覺定位系統設計與實現 [C]//第25屆中國控制會議.中國,哈爾濱,2005:1627-1632.
(HE Feng,FANG Yong-chun,XIAO Xiao,et al.Designed implementation of panoramic vision-based localization system for mobile robots [C]//25th Chinese Control Conference.Harbin,China,2005:1627-1632.)
[6]Thrun S,Burgard W,Fox D.Probabilistic robotics [M].Cambridge:MIT Press,2005.
[7]鞏新文,孟昭鵬,王翠萍.基于Otsu算法的中藥貼劑均勻度分析研究 [J].計算機應用研究,2012,29(1):359-362.
(GONG Xin-wen,MENG Zhao-peng,WANG Cui-ping.Analysis of patch uniformity based on Otsu’s method [J].Application Research of Computers,2012,29(1):359-362.)
[8]陳向東,李平.基于色彩特征的CAMSHIFT視頻圖像汽車流量檢測 [J].沈陽工業大學學報,2015,37(2):183-188.
(CHEN Xiang-dong,LI Ping.Vehicle flow detection with CAMSHIFT video images based on color feature [J].Journal of Shenyang University of Technology,2015,37(2):183-188.)
[9]覃曉,元昌安,鄧育林,等.一種改進的Otsu圖像分割法 [J].山西大學學報,2013,36(4):530-534.
(QIN Xiao,YUAN Chang-an,DENG Yu-lin,et al.An improved method of Otsu image segmentation [J].Journal of Shanxi University,2013,36(4):530-534.)
[10]陳曉丹,李思明.圖像分割研究進展 [J].現代計算機,2013(11):33-36.
(CHEN Xiao-dan,LI Si-ming.Research on progress in image segmentation [J].Modern Computer,2013(11):33-36.)
[11]張祥德,牛紀祥,董再勵.自主移動機器人三角定位的路標優化 [J].東北大學學報(自然科學版),2004,25(1):24-27.
(ZHANG Xiang-de,NIU Ji-xiang,DONG Zai-li.Landmarks optimization of triangulation of autonomous mobile robot [J].Journal of Northeastern University(Natural Science),2004,25(1):24-27.)
(責任編輯:景勇英文審校:尹淑英)
Landmark extraction method based on omni-vision robot positioning
CUI Bao-xia, ZHANG Chi, LUAN Ting-ting, DUAN Yong
(School of Information Science and Engineering, Shenyang University of Technology, Shenyang 110870, China)
In order to solve the problem that the single image segmentation method can hardly extract the artificial landmarks in the image due to the fact that the pixel points are abundant and the image is complicated in panoramic image, a method in combination with both HSV threshold segmentation method and OTSU method was proposed. Through the combination use of two methods, the disturbance areas and disturbance points in the image could be effectively eliminated, and the landmarks could be extracted from the image. In addition, the coordinate of mobile robot could be calculated with the intersecting circle method of triangulation positioning method, and the positioning of mobile robot was completed. The results show that the method can extract the landmarks in the panoramic image, effectively avoid the situation of error extraction, and show certain feasibility.
omni-vision; indoor environment; mobile robot; panoramic image; HSV threshold segmentation; artificial landmark; feasibility; triangulation positioning
2015-09-14.
國家自然科學基金資助項目(60695054).
崔寶俠(1962-),女,遼寧沈陽人,教授,博士,主要從事過程控制、管理信息及決策支持系統等方面的研究.
10.7688/j.issn.1000-1646.2016.05.09
TP 391.4
A
1000-1646(2016)05-0526-05
*本文已于2016-03-02 16∶42在中國知網優先數字出版. 網絡出版地址:http:∥www.cnki.net/kcms/detail/21.1189.T.20160302.1642.006.html