李碧青,朱 強,鄭仕勇,陳科尹
(1.賀州學院 a.機械與電子工程學院; b. 計算機科學與信息工程學院,廣西 賀州 452899;2.中原工學院信息商務學院信息技術系,鄭州 450007)
?
雜草自動識別除草機器人設計
——基于嵌入式Web和ZigBee網關
李碧青1a,朱 強2,鄭仕勇1b,陳科尹1b
(1.賀州學院 a.機械與電子工程學院; b. 計算機科學與信息工程學院,廣西 賀州 452899;2.中原工學院信息商務學院信息技術系,鄭州 450007)
為了提高除草機器人自主導航能力和雜草識別率,將嵌入式Web和ZigBee技術引入到了機器人的控制系統中,設計了一種新型雜草自動識別除草機器人。除草器人利用攝像頭采集導航圖像,利用作物顏色特征在RGB顏色空間對圖像進行分割,使用OTSU方法檢測作物的中心線,以農作物行中心線為基準線進行自動行走,實現了機器人的自主導航功能。機器人利用雜草識別攝像頭識別雜草,使用ARM9處理器對圖像進行處理,利用ZigBee發送控制指令,最后由執行末端刀盤去除雜草。為了驗證機器人雜草識別和導航性能的可靠性,對機器人的性能進行了測試,結果表明:圖像計算和實際機器人測試的位姿結果非常接近,雜草的識別率在99.8%以上,算法的性能可靠,雜草識別精度高,除草機器人的實時性較好。
除草機器人;嵌入式Web;ZigBee網關;ARM9處理器;OTSU方法
農業是國民經濟中的基礎產業,對經濟和社會生活起到重要的支撐作用。中國人口多,隨著生態環境的惡化,中國的農業面臨嚴峻的考驗,為了提高農業資源的利用率及農業的經濟效益,發展現代化精準農業是必然選擇的途徑。精確農業是一個新的農業生產概念,精準農業對化肥、除草劑和水的使用都進行了優化,最大限度地降低了對生態環境的破壞。精準農業的實現需要依賴現代高科技,而機器人的使用可以大大提高生產效率、降低勞動強度、提高生產質量,是精準農業的重要組成部分。目前,對于除草機器人的研究還比較少,在實際生產中的應用更少,因此對除草機器人的研究有重要的現實意義。
自動識別除草機器人適用于低矮作物的除草,可以定點去除行內的雜草,也可對行間噴施除草劑。機器人在行走過程中利用導航攝像頭采集作物環境信息,經過PC機圖像處理,得到導航信息,控制自主行走路線。機器人由伺服電機驅動,前輪采用差速轉向,后輪采用萬向輪,利用雜草識別攝像頭對雜草進行識別,實現定點除草。機器人結構如圖1所示。

1.高清攝像頭 2.雜草識別攝像頭 3.作物 4.除草執行器 5.機器人本體 6.機械臂
當機器人識別雜草時,利用刀盤去除雜草,執行末端還可以噴灑除草劑,在清除雜草的同時,還可避免雜草的再次生長,實現了高效除草。機器人的執行末端結構如圖2所示。
除草機器人執行末端主要由6部分組成,連桿和滑塊使用鉸鏈接相連,絲杠由步進電機驅動,滑塊沿著絲杠上下運動,帶動連桿使除草執行末端張開和閉合,其運動過程如圖3所示。

1.步進電機 2.是滑塊 3.絲杠 4.連桿 5.除草執行臂 6.刀盤

圖3 除草機器人執行末端動作示意圖
當機器人識別到雜草時,執行器閉合,刀盤伸進土壤中,通過刀盤的轉動將雜草根部攪斷,實現雜草的精準去除。控制系統的框架如圖4所示。
系統的控制核心是ARM9單片機微處理器。雜草的位置信息通過雜草識別攝像頭進行采集,利用ZigBee傳感網絡傳輸給處理器,識別雜草的方位;獲得雜草的方位后,除草系統控制機器人末端執行器,執行除草動作。

圖4 雜草識別及除草控制系統
在除草機器人采集環境圖像時,由于采集得到的圖像是真彩圖像,其色彩比較豐富、信息量較大,處理耗時和難度都較高。為了提高圖像分割的效率,實現機器人的自主導航,需要對圖像進行灰度處理。在作物采集圖像的RGB空間中,作物G的分量比較高,而土壤作為背景值的R和B比較突出,背景的R和B分量值較高。Woebbecke等提出2g-r-b超綠特征對于綠色植物的圖像分割效果最好,背景分割最為有效。超綠特征是利用RGB的綠色植物空間像素值R(x,y)、G(x,y)和B(x,y)的不同,根據G(x,y)總是大于R(x,y)和B(x,y)的特征,將G(x,y)加大,來突出植物和雜草區域,便于除草機器人進行識別。超綠色特征因子的計算公式為
ExG(x,y)=2G(x,y)-R(x,y)-B(x,y)
(1)
在機器實際圖像采集的過程中,受到光照和天氣因素的影響,顏色空間分量值的變化較大。為了改善超綠因子的效果,需要對因子做出一些修正,其公式為

(2)
閾值分割技術是利用圖像的灰度值,通過設定不同的閾值,將圖像的像素灰度按照特征提取。假設原始圖像為f(x,y),按照一定的準則得到特征值T,利用特征閾值T將圖像分割為兩部分,圖像分割完成后的表達式為
(3)
取b0=0為黑,b1=1為白,即為圖像的二值化。在本次研究中,采用最大類間OTSU算法對圖像進行分割。OTSU算法在灰度直方圖的基礎上采用最小二乘法原理,在統計意義上具有最佳分割閾值。在一幅圖像中一般有L個灰度級,其中第i級像素為ni個,i的值在0~L-i之間,則圖像的總像素點個數為
(4)
其中,第i個灰度級出現的概率為
(5)
在OTSU算法中,利用閾值k將像素分為兩個區間,其中目標區域為灰度級是0-k-1,背景區域的灰度級為k-L-1,整個圖像的平均灰度級為
(6)
目標區域出現的概率為
(7)
背景區域出現的概率為
(8)
目標圖像的平均灰度為
(9)
背景類像素的平均灰度為
(10)
類差δ2(k)的表達式為
δ2(k)=p0(μ-μ0)2+p1(μ-μ1)2
(11)
在0~L-i之間對將k進行取值,當k取值δ2(k)的值最大時,可以得到最佳圖像分割閾值。利用分割閾值提取作物和雜草的特征圖像,便于除草機器人的識別。
除草機器人的遠程控制采用嵌入式Web和ZigBee網關。機器人在作業過程中,獲得的環境信息通過ZigBee傳輸,并傳送控制中心發出的指令;而嵌入式Web可以方便用戶進行遠程查詢和界面操作,并利用互聯網傳送和儲存數據。嵌入式處理器采用Samsung公司的ARM9S3C2410,該處理器性能高,功率損耗少,價格適中,在內部集成了微處理器和一些外圍組件,降低了系統額外配置的成本,為嵌入式系統提供了較好的硬件平臺。其功能模塊的框架結構如圖5所示。
圖5中:CPU單元采用ARM9微處理控制器S3C2410,集成度高,可擴展性好;復位電路包括最少4個周期的有效低電平,從而可以保證系統可以穩定復位;存儲單元采用64M閃存,由時鐘作為操作同步,提高了操作速度和數據的吞吐量;網絡控制采用CS8900A太網控制器,可以提供10Mb/s的以太網絡通信,滿足了用戶通過TCP/IP通過以太網進行數據交互。串口包括兩個,串口1作為控制臺,串口2對嵌入式Web服務器和ZigBee網絡進行協同,實現對除草機器人數據的采集;JATG仿真調試接口負責硬件電路的開發和調試。網格節點的設計利用軟件來實現,其實現的功能如圖6所示。

圖5 系統硬件功能模塊框圖

圖6 軟件部分任務功能
圖6表示軟件部分的任務功能,通過軟件驅動使數據的傳輸通過ARM9處理器上的路由節點來實現,使液晶顯示屏可以顯示除草作業環境和傳感器的各種參數,使理由節點的數據傳送到U盤中,并將路由節點的數據發送給管理人員,使管理人員可以及時做出決策、發出指令。指令可以利用鍵盤模型輸入,其實現過程如圖7所示。
鍵盤采用4×4的矩陣鍵盤,利用8條引線將鍵盤和AARM9處理器相連。其中,CPU的GPC7-10端口和鍵盤的4行連接,GPD0-1、GPD8-9和鍵盤的4列連接;用戶可以通過鍵盤輸入控制指令,控制除草機器人的動作。指令主要利用高低電平來識別,機器人通過查詢判斷鍵盤值,根據鍵盤值做出相應的操作。
信息數據的采集主要通過ZigBee組網實現,而采集的信息數據可以利用GSM系統進行大范圍的傳送。ZigBee和GSM模塊采用嵌入式Web模型進行協調,嵌入式Web確認網絡連接后,由ARM9處理器控制鍵盤模塊將參數以短信的形式發送給管理人員,實現了系統的實時監控功能。指令傳送和通信模塊如圖8所示。

圖7 鍵盤模塊功能實現

圖8 指令傳送和通信模塊設計
為了驗證本次設計的除草機器人的可靠性,對機器人的性能進行了測試,首先在實驗室內利用機器人的高清攝像頭拍攝了一幅真彩圖像,并對圖像進行了灰度處理,如圖9所示。

圖9 室內雜草識別和導航圖像
為了提高實驗的效率,按照雜草和植株已經成長到一定程度的低矮植株比例,制作了作物和雜草的模型,利用OSTU閾值分割得到了如圖10所示的分割結果。

圖10 雜草和導航線識別
由圖10可以看出:利用閾值分割可以清晰地劃分出導航線,并可以清晰地識別雜草;通過圖像可以對機器人的位姿進行預測,然后合理的控制機器人位姿。
表1表示利用圖像計算和機器人實際測試得到的位姿表。由結果對比可以看出:圖像計算和實際機器人測試的位姿結果非常接近,從而驗證了雜草和作物圖像識別算法的可靠性,可以利用該算法對機器人發出控制指令,精確地完成機器人的雜草自動識別和自主導航。通過對機器人雜草識別率的測試發現,機器人可以有效地識別雜草,其識別率在99.8%以上,識別精度較高,作業效果較好。
利用OTSU圖像分割算法,結合ARM9處理器,將嵌入式Web和ZigBee技術引入到了機器人的控制系統中,設計了一種新型雜草自動識別除草機器人。為了驗證機器人的可靠性,對機器人的性能進行了測試。測試結果表明:利用閾值分割可以清晰地劃分出作物導航線,并可清晰地識別雜草,利用圖像可以對機器人的位姿進行成功的預測。通過進一步測試發現,機器人通過圖像處理計算得到的位姿和實際作業過程中的位姿比較吻合,而且雜草的識別率達到了99.8%以上,機器人的作業精度較高、可靠性和實時性較好,可以在實際生產中推廣使用。
[1] 王芳, 滿益云.基于模糊中值濾波的椒鹽噪聲去除方法[J].模糊系統與數學, 2012, 26(1):166-174.
[2] 祁寶英.運用Hough 變換提高直線檢測效率[J].計算機系統應用, 2012, 21(6): 228-231.
[3] 周燕紅,范紅.移動機器人視覺導航中基于Hough 變換的直線檢測與跟蹤[J].管控一體化,2102,192(2): 129-115.
[4] 肖誠,毛永文,頡方正.基于PWM 裝置的直流電機雙閉環調速系統[J].設計與制造,2012,23(6): 122-125.
[5] 王春風,李旭春,薛文軒. PWM 直流調速系統實驗的教學實踐[J].實驗室研究與探索,2012,31(8):32-34.
[6] 汪雅楠,譚南林.基于ARM9的工業以太網 EtherCAT從站設計[J].機械工程與自動化, 2011(5): 139-141.
[7] 余前金,李力.基于ARM2440的塔機數據采集系統的研究[J].硅谷,201l(1):49.
[8] 吳健,閆磊,錢樺.自動可視除草機器人系統設計[J]. 湖南農業科學, 2011(21): 129-131.
[9] 張春龍.智能除草機器人系統設計與仿真[J].農業機械學報, 2011, 42(7): 197-201.
[10] 龔堯飛,徐洪波,金靜.嵌入式移動Web 服務器系統[J].計算機工程與設計,2010,31(24):5204-5207.
[11] 李長鋒,滕國庫,常闖.基于 ZigBee 的無線傳感網絡網關的設計[J].計算機與數字工程,2011,39(7):150- 153.
[12] 胡鴻豪,林程,宋麗平.基于 S3C2410的ZIGBEE 無線傳感器網絡網關的設計[J].大眾科技,2008(12): 67-68.
[13] 李木國,王磊,王靜,等.基于EtherCAT的工業以太網數據采集系統[J].計算機工程,2010,36(3):237-239.
[14] 王維健.工業以太網 EtherCAT 的原理及其實現[J].微計算機信息,2010,26(5):51-52.
[15] 崔光照,陳富強,張海霞.基于 ARM9 的無線傳感器網絡網關節點設計[J].電子技術應用,2008,34(11): 115-118.
[16] 胡國珍,王泉,魏旻.基于ZigBee的工業無線網關研究[J].單片機與嵌入式系統應用,2009(5): 25-28.
[17] 耿軍濤,周小佳,張冰潔.基于無線傳感器網絡的大氣環境監測系統設計[J].西華大學學報:自然科學版, 2007,26(4): 44-46.
[18] 匡興紅,邵惠鶴.無線傳感器網絡網關研究[J].計算機工程,2007,33(6): 228 -230.
[19] 金立生,王榮本,紀壽文,等.智能車輛自主導航神經網絡控制器設計[J].農業機械學報,2005,36(10): 30-33.
[20] 袁佐云,毛志懷,魏青.基于計算機視覺的作物行定位技術[J].中國農業大學學報,2005,10(3):69-72.
[21] 孫元義,張紹磊,李偉.棉田噴藥農藥機器人的導航路徑識別[J].清華大學學報,2007,47(2):32-34.
[22] 郭偉斌,陳勇.基于模糊控制的機器人自主導航[J].機器人,2010, 32(2): 204-211.Abstract ID:1003-188X(2017)01-0217-EA
Design for Weeding Robot Based on Embedded Web and ZigBee Gateway
Li Biqing1a, Zhu Qiang2, Zheng Shiyong1b, Chen Keyin1b
(1.a.College of Mechanical and Electronic Engineering; b.College of Computer Science and Information Engineering, Hezhou University,Hezhou 452899,China; 2.Department of Information Technology, College of Information and Business, Zhongyuan University of Technology,Zhengzhou 450007,China)
In order to improve the ability of autonomous navigation and weed recognition, the embedded Web and ZigBee technology are introduced into the control system of the robot. The robot collects navigation uses the color space of RGB images to segment the image, and uses the OTSU method to detect the center line of the crop. Robots use weed recognition to identify the weed, use the ARM9 processor to process the image, use ZigBee to send control commands, and finally by the end of the implementation of the end of the knife to remove the weeds. In order to verify the reliability of the weed identification and navigation performance, the performance of the robot was tested. The results show that the image is very close to the actual robot test. The performance of the algorithm is reliable in that the identification rate of weeds was above 99.8%, the real-time performance is good.
weeding robot; embedded Web; ZigBee gateway; ARM9 processor; OTSU method
2015-11-27
廣西自然科學基金項目(2015GXNFBA139264);賀州市科技開發項目(賀科能1506006、賀科攻1506006);賀州學院科研、教改項目(2014YBZK10,2015SHGZ005,2015MTA16,2015ZZZK03,2015kf27,hzxytszy201501,hzxyjg201525)
李碧青(1984-),女,南寧人,講師,碩士。
朱 強(1985-),男,河南信陽人,講師,碩士,(E-mail)254034704@qq.com。
S224;TP391.41
A
1003-188X(2017)01-0217-05