周冬波,鄧記才
(鄭州大學 信息工程學院,鄭州450001)
智能移動機器人是近年來發展起來的一門綜合學科,涉及機械設計、傳感檢測、人工智能等多方面知識[1]。類人機器人的控制系統分為三個層次[2]:最上層是機器人的策略規劃層,利用各種算法實現各部分的功能;中間一層運行各類應用程序的嵌入式實時操作系統;最底層是硬件平臺,通過外圍接口獲得各類數據、信息[3]。
自主機器人利用傳感器獲取的信息控制機器人的動作[4]。本文根據武術擂臺機器人的實際需要,設計了機器人的控制系統,實現攝像頭圖像采集、處理和舵機控制等功能。
策略規劃層中,由于圖像信息具有信息豐富、對場景描述完全的特點,主要通過處理攝像頭采集的圖像信息實現顏色目標定位。這里采用Linux嵌入式操作系統,由于嵌入式系統資源的限制,要求目標識別算法運行效率高,占用內存空間小。硬件平臺主要是控制舵機實現機器人的運動控制。
在武術擂臺技術挑戰賽中,機器人要采集目標的位置信息。由于I/O、A/D轉換的有效檢測距離有限,機器人采用攝像頭采集場地上的圖像信息,根據目標的顏色進行識別、定位。當檢測到目標位置以后控制舵機自主運動向目標靠攏,完成自我介紹、抱繡球等動作。所設計的機器人外形如圖1所示。
從圖中可以看出,機器人頭部采用攝像頭,通過USB接口與主控板進行連接,用于采集圖像信息。機器人腰部、腿部、胳膊各關節利用舵機使其具有一定的自由度,用到的舵機為CDS系列數字舵機。它內部有ATmega8芯片,主控板通過串口與ATmega8通信,就可以實現舵機的控制。針對以上要求,同時考慮系統的實時性,采用S3C6410作為主控芯片。實際控制系統總體框圖如圖2所示。
主控板通過串口1完成與舵機之間的數據通信,舵機控制電路的原理圖如圖3所示。

圖1 機器人外形圖

圖2 系統總體框圖
由于半雙工數據線只有一根,所以必須在電路上實現發送和接收上的分離。這里網絡Robotis_UART一端直接接到舵機的信號線上,而另一端經過74HC126的兩個緩沖器分別與主控芯片的TXD1和RXD1相連,再通過主控芯片使能的方式來確定是發送還是接收數據。主控芯片可以使NLED1為高而NLED2為低,這時TXD1就取得了線路的控制權,主控芯片就可以發送數據到舵機了。反之,當NLED2為高而NLED1為低時,這時RXD1就取得了線路的控制權,這時舵機可以返回數據。

圖3 舵機控制電路
舵機控制的軟件方面,需要完成串口的相關配置,主要包括波特率、起始位數、數據位數、停止位數和流控制模式。這里將其配置為波特率19 200、起始位1位、數據位8位、停止位1位和無流控制模式。串口的設置主要是設置struct termios結構體的各成員值,如下所示:


攝像頭采集到的圖像主要作如下處理:首先對數據解碼,利用查表法將RGB空間模型數據轉化為HSI空間模型[5],然后采用類間方差法將圖像進行二值化,再利用連通域對目標進行標定,最后對圖像進行去噪,從而實現目標的識別和定位。圖像處理程序流程圖如圖4所示。

圖4 圖像處理程序流程圖
攝像頭采集的圖像為RGB格式,但RGB模型中R、G、B值易受光線影響,不適宜進行顏色識別;HSI模型中,不同的顏色對應不同的色調參數H,并且H受外界光照影響小,因此采用HSI模型實現顏色識別。因此,要通過某種算法,先將RGB色域空間映射到HSI空間。常用的顏色空間轉換算法如下:

實現顏色空間轉換以后就要根據不同的H值對圖像進行二值化處理。二值化的實質是一分類問題,即把一幅圖像所含有的0~255的二進制像素按照某個閾值劃分成兩類。如果閾值設得太低,結果會引入過多的背景信息,但太高就會導致目標信息的丟失。類間方差法(Otsu)[6]、最大熵方法(KSW)[7]和直方圖平衡法(Balanced Histogram Thresholding,BHT)[8]是目前應用較廣的自動閾值計算方法。
這里采用類間方差法,它的核心思路就是通過最大化類間方差來尋找最佳閾值。假設某一閾值T將整個二值圖像分為C0(1,…,T)和C1(T,…,255)兩類,則兩類的出現概率可以用下式計算:

其中,Pi代表灰度為i的像素的出現概率。而各類的類內平均灰度則可表示為:

類間方差和類內方差分別定義為:

其中,μT表示整個圖像的平均灰度,且式(4)還滿足:

如上所述,最佳閾值的判斷標準是使得類間方差最大。于是通過遍歷每一個灰度值,并計算其劃分帶來的類間方差,總能找到一個合適的閾值滿足條件。由于式(4)計算二階中心矩計算量較大,考慮到:

接下來的工作就是對圖像進行標定,這里所指的標定就是根據二值化后的圖像,計算出目標區域的外接矩形位置。在目標構成比較簡單的情況下,投影法[9]是效率最高的方法,而當場景中存在多個目標時,多數情況下需要進行連通域計算[10]。拓撲學中把連通性定義為,區域內任意兩點之間存在至少一條曲線可以將兩者連接。目前的連通域標記方法主要分兩類:掃描法[11-12]和輪廓跟蹤法[13]。掃描法的基本思路是逐個檢查每個像素的值和連通性,從而獲得所有的連通性描述信息,然后根據每點之間的相互關系計算出最后的區域個數和構成關系。基于掃描的連通標記演示如下(以8連通為例):
首先對二值圖像進行行掃描得到線段連通標記,如圖5所示。然后檢查每行之間線段與上一行線段之間的連通關系,并更改標記。
第1行:線段1創建標記A。
第2行:線段2、1之間連通,線段2標記為A;線段3同理標記為A。

圖5 行掃描
第3行:線段4、2之間連通,線段4標記為A;線段5創建標記為B。
第4行:線段6、4之間連通,線段6標記為A;線段6、5之間連通,將線段5的標記由B變為A。
第5行:線段7創建標記B;線段8、6之間連通,線段8標記為A。結果如圖6所示。
將圖像標定完畢可以去掉圖像中的噪點,并且找到目標的中心,實現目標的定位。

圖6 標記結果
將控制卡裝到機器人上,控制機器人運動,在運動中攝像頭采集圖像,并且用方框將目標進行標定。利用上述顏色識別算法對圖紅色繡球進行標定,得到如圖7所示的結果。

圖7 結果圖片
隨著機器人的運動,繡球在圖像中的位置發生變化,機器人根據標定結果,就可以得到繡球的位置,根據位置調整自己的運動準確找到繡球。圖像采集的速度達到15幀/s,舵機控制準確度達到0.32°,可以圓滿完成比賽任務。
本文以S3C6410作為主控芯片,設計了具有視覺識別功能的類人機器人控制系統。改進的顏色識別算法利用查表法、類間方差法、連通域等方法對圖像進行處理,取得了良好的視頻識別效果。實踐證明,由該控制系統的設計方案制作而成的類人機器人,具有良好的自主控制穩定性和較好的視覺識別能力,能夠較出色地完成比賽。
[1]孟慶春.智能機器人及其發展[J].中國海洋大學學報,2004(9).
[2]程南瑞,劉國棟.基于嵌入式實時操作系統的類人足球機器人的設計[J].江南大學學報,2008,7(5):564-566.
[3]劉科,孔令富,趙逢達.類人機器人中目標識別算法和動作規劃的研究與實現[D].秦皇島:燕山大學,2008.
[4]馮占英,李永霞,盛洪.自主機器人指定顏色形狀屬性物體的識別方法[J].北京聯合大學學報:自然科學版,2011(3).
[5]R C Gonzalez,R E Woods.Digital Image Processing[M].3rd edition.[S.l.]:Pubilshing House of Eletronics Industry,2010.
[6]Otsu Nobuyuki.Threshold Selection Method from Gray-Level Histograms[J].IEEE Transactions on Systems,Man and Cybernetics,1979,9(1):62-66.
[7]J N Kapur,P K Sahoo,A K C Wong.A new method for gray-level picture thresholding using the entropy of the histogram[J].CVGIP,1985,29(3):273-285.
[8]Andrew B,John R.Thinking in Perspective:Critical Essays in the Study of Thought Processes[M].[S.l.]:Routledge,1978.
[9]吳建華,鄒德旋,李靜輝,等.基于小范圍搜索的虹膜定位方法[J].儀器儀表學報,2008,29(8):1704-1708.
[10]Fei Guo,Ji-cai Deng,Dong-bo Zhou.A Connected Domain Analysis Based Color Localization Method and Its Implementation in Embedded Robot System[J].IJIGSP,2011,3(5).
[11]C Grana,D Borghesani,R Cucchiara.Optimized Block-Based Connected Components Labeling With Decision Trees[J].ICIP,2010,19(6):1596-1609.
[12]K Suzuki,I Horiba,N Sugie.Linear-time connected-component labeling based on sequential local operations[J].CVIU,2003,89(1):1-23.
[13]Fu Chang,Chun-Jen Chen.A component-labeling algorithm using contour tracing technique[C]//ICDAR,Edinburgh,August,2003.[S.l.]:IEEE,2003:741-745.