侯加林,蒲文洋,李天華,丁小明
雙激光雷達溫室運輸機器人導航系統研制
侯加林1,2,蒲文洋1,李天華1,2,丁小明3
(1. 山東農業大學機械與電子工程學院,泰安 271018;2. 山東省農業裝備智能化工程實驗室,泰安 271018;3. 農業農村部規劃設計研究院設施農業研究所,北京 100125)
為解決機器人在溫室環境下的自主導航問題,該研究研制了基于雙激光雷達的溫室運輸機器人導航系統,實現溫室環境下的地圖構建、路徑規劃和定位導航。融合激光雷達與編碼器信息,使用cartographer算法及時定位與地圖構建。根據地圖與檢測點信息,采用Dijkstra算法規劃全局路徑,使用動態窗口算法規劃局部路徑,完成自主導航。試驗表明,車載系統分別以0.2、0.5和0.8 m/s速度運行時,實際導航路徑與目標路徑的橫向平均偏差小于13 cm,標準差小于5 cm;導航目標點處橫向偏差、縱向偏差的平均值不超過9 cm,均方根誤差不超過11.2 cm,標準差小于5 cm,航向偏差的平均值小于10°,均方根誤差小于12°,標準差小于6°,滿足機器人溫室運輸作業的導航精度需求。
溫室;機器人;導航;雙激光雷達
近年來,在園藝生產信息化、智能化加速升級的大背景下,中國溫室面積快速持續增加[1-4]。受裝備制造業整體水平低等因素制約,中國設施園藝裝備在作業效率、成套性、穩定性和智能化方面與荷蘭、美國、日本等發達國家存在較大差距,尤其缺乏基于自主導航控制的溫室自主作業基礎平臺[5-8]。因此本文以溫室為應用對象,以溫室內精確定位、溫室作業平臺路徑規劃為重點研究內容,開發溫室機器人導航系統,為溫室內輸送、巡檢、植保、收獲等作業提供基礎平臺。通過該平臺,可提高溫室綜合作業效率,降低勞動強度,提升溫室管控精細化水平。
目前應用于溫室的機器人自主導航方案可分為4類:導軌式、壟溝式、循跡式和多源數據融合式[9-12]。導軌式自主導航因其可靠性高、穩定性好等特點,應用廣泛[13-15],但在溫室中鋪設軌道,大大增加了溫室建造成本,且在一定程度上限制了機器人的活動自由性。壟溝式自主導航通過機器人自身機械結構設計完成自主導航[16],運行穩定,但對溫室環境尤其是地面具有很強的依賴性,且對地面具有一定的破壞性,應用范圍較小。循跡式自主導航利用磁帶或電纜作為識別標志,引導溫室機器人沿著正確的路線行進,實現自主導航[17],但限制了機器人的靈活性。多源數據融合式融合處理多種傳感器信息實現自主導航[18-24],常用的傳感器包括激光雷達、相機、陀螺儀、編碼器等。在4類導航方案中,導軌式、壟溝式自主導航要求道路具有特定的軌道或溝型,循跡式自主導航則要求道路上設有引導帶,因此以上3類方法均存在成本高、靈活性差的問題。相比之下,多源數據融合式自主導航具有突出的環境適應性強、靈活性好的特點,發展前景廣闊。
國內外許多學者基于多種傳感器對機器人導航系統進行了研究。李天華等[25]通過搭建攝像頭云平臺,利用機器視覺提取道路盡頭橫向中心點像素坐標獲得導航信息,開發了基于定向攝像頭的運輸車視覺導航系統,該系統雖然導航精度較高,實時性較好,但基于機器視覺的導航方式對光線具有很強的依賴性,難以做到全天候穩定運行。季宇寒等[26]基于激光雷達設計了巡檢機器人導航系統,可實現機器人在室內環境下的精準定位、路徑規劃和自主導航,導航精度可滿足機器人在各類巡檢任務中的導航定位需求。Bechar 等[27]研制的田間作業機器人,采用履帶式底盤,上方加裝高清攝像機、高精度GPS,通過配備精確的衛星導航定位,可在復雜農田環境中行駛,但基于GPS的定位方式通常用于室外導航,室內環境下由于遮擋物較多,衛星信號易丟失。Conesa-munoz等[28]提出一種無人機檢測與地面機器人執行相結合的復合農藥變量噴灑系統,融合了RTK-GPS、機器視覺、激光雷達等多種傳感器,但成本較高,難以推廣使用。激光雷達(Light Detection and Ranging,LIDAR)作為導航定位的新型傳感器,以其高精度、高實時性、全天候等優點逐漸成為機器人導航的主流設備。本文旨在研制基于前后雙激光雷達的溫室運輸機器人導航系統,融合激光雷達與編碼器信息,建立環境地圖,規劃最優路徑,實現溫室運輸機器人的定位導航。
溫室運輸機器人導航系統由遠程監控平臺和車載系統2部分組成。其中遠程監控平臺負責設置車載系統工作模式、發布目標點指令和實時顯示車載系統位置信息。車載系統作為指令的具體執行者,負責接收監控平臺發出的任務指令并執行。二者通過無線網絡實時通信,共同完成溫室運輸機器人自主導航任務,系統組成如圖1所示。車載系統長726 mm,寬617 mm,高1 073 mm,最大負載50 kg,最大行駛速度為1.2 m/s,垂直越障高度8 cm。

1.載物臺 2.液晶屏 3.電池 4.工控機 5.后激光雷達 6.前激光雷達 7.車底盤 8.WIFI模塊 9.遠程監控平臺
車載系統主要包括車底盤、驅動模塊、控制模塊,環境信息感知模塊、通信模塊和電源模塊,硬件結構如圖2所示。

圖2 車載系統硬件結構圖
環境信息感知模塊:在車底盤頭部和尾部分別搭載一個FS-D10二維激光雷達,FS-D10二維激光雷達具有360°水平掃描范圍,0.36°水平分辨率,10 m測距量程和15 Hz的掃描頻率,可快速高效獲取環境信息。為保證激光雷達順利運行的同時盡可能地檢測到溫室內所有障礙物,以試驗溫室中最低障礙物草莓育苗盆(高度12 cm)為標準,激光雷達的安裝高度設計為距地面10 cm。如圖 3所示,以前激光雷達為例,激光雷達通過360°旋轉發射激光點,不斷掃描水平面環境信息,當激光發射點旋轉到車底盤遮擋區域時,由于激光掃描點只能到達車底盤前部,從而無法獲取溫室環境信息。因此為了增大環境掃描范圍,在車底盤尾部安裝激光雷達,采用前后雙激光雷達,可檢測到車體前后所有障礙物,同時增大了掃描范圍,可提高車載系統的實時避障能力。

1.車底盤遮擋區域 2.前激光雷達 3.車載系統 4.草莓架
控制模塊:車載系統搭載工業PC機作為頂層控制器,CPU型號為AMD Ryzen 3 2200G/4G/120G。安裝Ubuntu18.04操作系統,根據機器人操作系統ROS(Robot Operating System)架構運行機制和車載系統的硬件組成,制定ROS與STM32F103的串口通訊協議,運行導航算法實現自主導航。搭載STM32F103嵌入式主板作為底層控制器,根據編碼器提供的速度信息,通過運動學解算獲得車載系統的里程計數據(運動速度、行駛距離和轉角),運行PID算法,實現車載系統的驅動控制。
驅動模塊:車載系統采用4輪驅動式,可垂直越障8 cm,爬坡角度可達30°,越野能力強,轉向靈活,控制方便,能實現車載系統的完整運動控制。為保證對運行速度的精確控制,在驅動電機上安裝RLS公司生產的RMF44旋轉編碼器,分辨率為13位,最高轉速為60 000 rpm,以獲取車載系統的實時速度信息,車載系統實時速度作為反饋信息通過PID算法提高車載系統速度控制精度。
通信模塊:工控機上裝有GA-AB350N-Gaming WiFi主板,使得遠程監控平臺可以通過無線網絡向車載系統發布目標點指令,同時車載系統也通過無線網絡向遠程監控平臺反饋實時位置信息與工作狀態。工控機通過串口通信的方式向車載系統底層驅動板發送速度指令,底層驅動板通過串口通信的方式反饋車載系統的實時速度信息。
電源模塊:車載系統選用分線板船型鋰電池,供電電壓24 V,供電電流10 A,內置穩壓模塊及電量顯示模塊,電源續航時間為4 h。為延長電源續航時間,在車載系統上安裝太陽能發電系統。太陽能發電板長633 mm,寬352 mm,輻照度1 000 W/m2時最大發電功率80 W,在陽光充足時可持續給電源充電,在陽光不充足時蓄電池可延長電源續航時間至8 h,以滿足車載系統基本工作時間要求。
溫室運輸機器人導航系統軟件由用戶交互層、信息處理層和執行層3個層次構成,系統結構如圖4所示。

圖4 溫室運輸機器人導航系統軟件結構
用戶交互層為基于Ubuntu的導航任務調度程序,可根據不同的應用場景,調整車載系統的工作模式并發布目標點指令,目前開發了2種工作模式,一是順序導航,車載系統按照用戶設定的行走路徑逐一經過溫室中固定的目標點;二是任意點導航,車載系統根據用戶指令到達溫室內任意目標點。信息處理層為基于ROS的即時定位與地圖構建以及定點導航程序,該層主要負責收集車載系統運動信息及來自激光雷達的環境信息,并進行信息融合,根據控制指令和車載系統位姿進行地圖構建、路徑規劃及自主導航。執行層為基于Ubuntu開源實時操作系統的移動平臺控制程序,通過采集編碼器的速度信息,采用經典的PID算法調節后輸出期望的脈沖寬度調制PWM(Pulse Width Modulation)波控制電機轉速,實現車載系統平穩、安全移動。
導航技術是溫室運輸機器人的核心技術之一,主要經過實時定位、地圖構建和路徑規劃3個步驟實現自主導航。本系統借助谷歌公司的cartographer開源算法包實現導航,節省了軟件開發成本。前后激光雷達獲取環境信息生成點云數據,形成子地圖,通過點云匹配獲得車載系統與子地圖之間的相對位姿信息,點云數據更新后通過回環檢測計算最新點云數據在已構建地圖中的位置,更新二維柵格地圖。地圖數據與車載系統里程計數據融合計算出車載系統當前位姿(車載系統在全局坐標系下的位置坐標和轉角),以當前位姿為基礎對下一目標點進行路徑規劃,最終實現自主導航。具體流程如圖5所示。
Cartographer算法通過回環檢測消除構圖過程中產生的累積誤差,其重點是融合多傳感器數據的局部地圖創建以及用于閉環檢測的匹配策略的實現。一定數量的激光掃描數據點構成子地圖,建立好的子地圖形成一個回環,用于回環檢測。當最新掃描數據點更新后,提取數據點的位姿信息,通過回環檢測匹配已有回環中各掃描點的位姿信息,找到最佳匹配回環,通過掃描匹配將最新數據點插入到該回環中,完成新地圖構建,具體流程如圖6所示。

圖5 導航功能實現流程
Fig 5 Implementation process of navigation function

圖6 環境地圖構建流程
Cartographer通過子地圖構建、掃描匹配和回環檢測3個過程構建二維柵格地圖,具體實現過程見文獻[29]。其中,回環檢測包括子地圖位姿優化和掃描匹配。匹配過程如式(1)所示:

式中是激光掃描數據點,每個掃描數據點即一個位姿信息,包含激光雷達旋轉角信息ξ(rad)及掃描數據點與激光雷達的相對位置信息,相對位置信息包括掃描點相對于激光雷達在軸的位置ξ(m)以及掃描點相對于激光雷達在軸的位置信息ξ(m);是最優匹配掃描數據點,是搜索空間內掃描數據點的數量;M是距離新的掃描數據點最近的柵格點對應的柵格值,無量綱,Th表示激光雷達掃描數據點在子地圖坐標系下的位姿,是實際環境中的搜索空間,計算方法如式(2)~(8)所示:








本文采用前后雙激光雷達掃描環境信息,由于增大了環境信息掃描范圍,一方面使搜索面積增大,另一方面由于激光掃描點集max增大,δ減小,從而增大了搜索角度ω。在采用分支界定算法求解時,可擴大頂層線性搜索空間,增大了計算量但保障了所求解的最優性。
采用Dijkstra實現車載系統全局路徑規劃,具體實現過程可參考文獻[30],采用動態窗口算法實現車載系統的局部路徑規劃,實現過程分為以下3步(具體實現過程參考文獻[31]):
1)建立車載系統運動學模型;
2)基于車載系統最大最小速度的設定、電機性能限制(主要是最大加速度)以及能否及時避障等約束,形成速度區間,對速度進行采樣;
3)利用評價函數選擇最優路徑。
試驗地點為農業農村部規劃設計研究院設施農業研究所永清科研基地venlo型溫室的草莓種植區。試驗區長34 m,寬15 m。車載系統分別搭載前后激光雷達(方式1)、后激光雷達(方式2)及前激光雷達(方式3)以0.5 m/s的速度從相同起點按照圖7所示路線行駛并構建環境地圖。具體試驗過程如下:
1)車載系統采用方式1按路線行駛并實時建圖,到達終點后標記車載系統所在位置;
2)車載系統采用方式2按照步驟1)路線行駛,運動到步驟1)標記點處時停止,觀察并記錄建圖效果;
3)車載系統采用方式3按照步驟1)路線行駛,運動到步驟1)標記點處時停止,觀察并記錄建圖效果。
3種搭載方式下激光雷達初始掃描范圍如圖8a所示。

1.車載系統行駛路線 2.車載系統 3.加熱管道 4.草莓架
3種激光雷達安裝方式的實際建圖效果如圖8b所示,經計算,行駛距離相同時,采用方式1時建圖面積最大,數值為56.5 m2,采用方式2建圖面積為46.5 m2,采用方式3時建圖面積為50 m2。
為保證建圖面積相同,對步驟2)及步驟3)作以下調整:
2)采用方式2按照步驟1)路線行駛,運動到步驟1)標記點處旋轉360°后停止,記錄行駛時間;
3)采用方式3旋轉360°后按照步驟1)路線行駛,運動到步驟1)標記點處停止,記錄行駛時間。
試驗結果如表1所示。

表1 不同激光雷達安裝方式的建圖效果對比
試驗表明,車載系統搭載前后雙激光雷達與搭載單激光雷達相比,可增大掃描范圍,減少掃描盲區,在行駛距離相同的條件下可構建更大面積的地圖,構建地圖面積相同的條件下耗時更少,建圖效率提高。
車載系統分別搭載前后雙激光雷達、前激光雷達及后激光雷達以0.5 m/s的速度自主導航,導航過程中隨機選擇5個位置在車載系統前后實時設置5組障礙物,障礙物為草莓育苗盆,障礙物與激光雷達間距分別設置為15、20、25、30和35 cm。
以位置1為例,具體試驗過程如下:試驗開始前在位置1處粘貼黑色膠帶作為2號標記位,膠帶寬度1.8 cm。將車載系統前激光雷達上邊沿與2號標記位后邊沿在軸方向調整于同一平面,以2號標記位前邊沿為基準線沿軸正方向測量15 cm用黑色標記筆標記作為1號標記位,標記后激光雷達下邊沿在地面的投影作為3號標記位,以3號標記位為基準線沿軸負方向測量15 cm標記為4號標記位,標記位設置如圖9所示。TCRT5000紅外傳感器安裝在車底盤,當紅外傳感器檢測到黑色膠帶時向STM32F103控制器輸出高電平信號,控制器收到此信號后觸發蜂鳴器報警,當紅外傳感器未檢測到黑色膠帶時輸出低電平,蜂鳴器不觸發。試驗過程中聽到由2號標記位觸發的蜂鳴器警報后,立刻在1號標記位與4號標記位處同時放置障礙物,觀察車載系統的避障情況。試驗結果如表2所示。
試驗結果表明:車載系統搭載前后雙激光雷達時,當地圖中出現障礙物時可實現實時完全避障,僅搭載前激光雷達與僅搭載后激光雷達時均存在無法避障的情況。原因如下:以僅搭載前激光雷達為例,當規劃路徑上突然出現障礙物時,激光雷達檢測到障礙物后重新規劃路徑,當車輛與障礙物距離過小時無法直接通過轉向避開障礙物,為確保安全,車載系統需后退一定距離,若此時后方存在障礙物,由于存在掃描盲區,車載系統就會與障礙物發生碰撞。

1.前激光雷達 2.車底盤 3.后激光雷達 4.溫室墻體 5.草莓架 6.紅外傳感器 7.地面

表2 車載系統不同激光雷達安裝方式下的實時避障試驗結果
注:1表示車底盤與障礙物發生碰撞,0表示車底盤與障礙物未發生碰撞;表示車底盤頭部與障礙物是否發生碰撞,=0,1;表示車底盤尾部與障礙物是否發生碰撞,=0,1。
Note: 1 means the vehicle chassis collides with the obstacle, 0 means the vehicle chassis does not collide with the obstacle;indicates whether the head of the vehicle chassis collides with the obstacle,=0, 1;indicates whether the rear of the vehicle chassis collides with the obstacle,=0, 1.
在溫室道路上鋪設白色地布,在車載系統基坐標的垂線與車載系統底盤的交點位置安裝黑色記號筆,車載系統導航過程中黑色記號筆會標記出實際運動軌跡。ROS中使用的是右手坐標系,以基坐標為原點建立坐標系,車頭朝向方向為軸正方向,正左方向為軸正方向,垂直于、水平面且經過基坐標的上方向為軸正方向。車載系統基坐標及坐標系、地面測量點及標記筆安裝位置如圖10所示。
3.3.1 目標點導航精度測試試驗
參考文獻[13]和文獻[26]方法設計試驗,試驗步驟為:設置行間道路的中心線為車載系統的目標導航路徑,車載系統從起始點分別以0.2、0.5和0.8 m/s的速度按照圖 11所示路徑依次經過各目標點后到達終點,完成自主導航。設定車載系統每到達一個目標點的停留時間為20 s,每到達一個目標點記錄車載系統四輪及基坐標位置以測量車載系統在目標點處的橫向偏差、縱向偏差及航向偏差。各速度下試驗重復3次,各目標點處3次試驗的各指標結果分別取平均值作為車載系統該速度下在該目標點處的導航偏差,現場試驗如圖12所示,導航偏差測量結果如表3所示。

圖10 車載系統基坐標及其測量點示意圖

圖11 車載系統導航路徑設定及導航偏差示意圖
如圖11所示,各目標點處導航偏差的測量方法為:以目標點(0,0)為坐標原點,以設定運動軌跡前進方向為軸正方向,建立右手直角坐標系。航向偏差是車載系統實際航向與目標航向之間的夾角,設實際到達點坐標為(1,1),則橫向偏差數值為
1=|1-0| (9)
式中1為橫向偏差,cm。
縱向偏差數值為
2=|1-0| (10)
式中2為縱向偏差,cm。
導航偏差正負值的定義為:若實際到達點在目標點的左側,則橫向偏差為正;若實際到達點在目標點的右側,則橫向偏差為負;實際到達點在目標點的上側,則縱向偏差為正,實際到達點在目標點的下側,則縱向偏差為負;若實際航向在目標航向的左側,則航向偏差為正,若實際航向在目標航向的右側,則航向偏差為負。

1.目標點標記物 2.地布 3.車載系統 4.草莓架
表3表明,隨著速度增加,車載系統的橫向偏差、縱向偏差及航向偏差的最大值、平均值及均方根誤差均增大。但3種速度下各目標點處的橫向偏差、縱向偏差的平均值不超過9 cm,均方根誤差均不超過11.2 cm,標準差小于5 cm;航向偏差的平均值小于10°,均方根誤差小于12°,標準差小于6°。試驗溫室實際測試結果證明,該精度可滿足機器人在試驗溫室運輸任務中的導航定位需求。
3.3.2 全路徑導航偏差測試試驗
參考文獻[32]方法設計試驗,試驗步驟為:車載系統分別以0.2、0.5和0.8 m/s的速度按照圖11所示路徑完成自主導航,一次導航完成后從起點開始以1 m為間隔,測量車載系統實際導航路徑與目標路徑之間的橫向偏差。各速度下試驗重復3次,以3次試驗在測量點處的橫向偏差平均值作為車載系統該速度下在測量點處的偏差,橫向偏差統計如表4所示。

表3 導航偏差

表4 橫向偏差統計
由表4可知,車載系統以0.2 m/s的速度行駛,實際導航路徑與目標路徑之間的最大偏差小于10 cm,平均偏差小于5 cm;車載系統以0.5 m/s的速度行駛,實際導航路徑與目標路徑之間的最大偏差小于14 cm,平均偏差小于11 cm;車載系統以0.8 m/s的速度行駛,實際導航路徑與目標路徑之間的最大偏差小于18 cm,平均偏差小于13 cm。車載系統在3種速度下均可完成自主導航,安全到達終點,實際導航路線與目標路線之間雖有偏差但未發生嚴重偏離。
全路徑導航偏差測試試驗表明,車載系統分別以0.2、0.5和0.8 m/s的速度運行時均可完成自主導航到達終點。3種速度下車載系統實際導航路徑與目標路徑間的平均偏差小于13 cm,標準差小于5 cm。
1)研制了基于前后雙激光雷達的溫室運輸機器人導航系統,與單激光雷達相比,增加了環境掃描范圍,提高了建圖效率及實時避障能力。該系統采用模塊化的硬件結構設計和分層式軟件結構設計,兼顧了運輸機器人對數據通量與響應速度的要求。
2)導航試驗結果表明,車載系統分別以0.2、0.5和0.8 m/s的速度運行時,實際導航路徑與目標路徑的平均偏差小于13 cm,標準差小于5 cm。導航目標點處的橫向偏差、縱向偏差的平均值不超過9 cm,均方根誤差均不超過11.2 cm,標準差小于5 cm;航向偏差的平均值小于10°,均方根誤差小于12°,標準差小于6°。溫室實際測試結果表明,該精度滿足機器人在試驗溫室運輸的導航定位需求。在下一步研究中,將通過算法優化、輔助定位等方式進一步減小導航偏差。
3)系統軟件的核心控制層基于ROS操作系統實現,采用分布式節點實現信息交互,便于后續對軟件算法的進一步完善開發,該系統對溫室機器人導航系統的研發具有一定借鑒意義。
[1] 齊飛,李愷,李邵,等. 世界設施園藝智能化裝備發展對中國的啟示研究[J]. 農業工程學報,2019,35(2):183-195. Qi Fei, Li Kai, Li Shao, et al. Development of intelligent equipment for protected horticulture in world and enlightenment to China[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(2): 183-195. (in Chinese with English abstract)
[2] 齊飛,魏曉明,張躍峰. 中國設施園藝裝備技術發展現狀與未來研究方向[J]. 農業工程學報,2017,33(24):1-9. Qi Fei, Wei Xiaoming, Zhang Yuefeng. Development status and future research emphase on greenhouse horticultural equipment and its relative technology in China[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(24): 1-9.(in Chinese with English abstract)
[3] 郭世榮,孫錦,束勝,等. 國外設施園藝產業概況、特點及趨勢分析[J]. 南京農業大學學報,2012,35(5):43-52. Guo Shirong, Sun Jin, Shu Sheng, et al. General situation’ charactics and trends of protected horticulture in foreigns[J]. Journal of Nanjing Agricultural University, 2012, 35(5): 43-52. (in Chinese with English abstract)
[4] 劉霓紅,蔣先平,程俊峰,等. 國外有機設施園藝現狀及對中國設施農業可持續發展的啟示[J]. 農業工程學報,2018,34(15):1-9. Liu Nihong, Jiang Xianping, Cheng Junfeng, et al. Current situation of foreign organic greenhouse horticulture and its inspiration for sustainable development of Chinese protected agriculture[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(15): 1-9.(in Chinese with English abstract)
[5] 孫錦,高洪波,田婧,等. 我國設施園藝發展現狀與趨勢[J]. 南京農業大學學報,2019,42(4):594-604. Sun Jin, Gao Hongbo, Tian Jing, et al. Development status and trends of protected horticulture in China[J]. Journal of Nanjing Agricultural University, 2019, 42(4): 594-604. (in Chinese with English abstract)
[6] 李中華,孫少磊,丁小明,等. 我國設施園藝機械化水平現狀與評價研究[J]. 新疆農業科學,2014,51(6):1143-1148. Li Zhonghua, Sun Shaolei, Ding Xiaoming, et al. Research on the present situation and evaluation of protected horticulture mechanization level in China[J]. Xinjiang Agricultural Sciences, 2014, 51(6): 1143-1148. (in Chinese with English abstract)
[7] 于亞波,伍萍輝,馮青春,等. 我國蔬菜育苗裝備研究應用現狀及發展對策[J]. 農機化研究,2017,36(6):1-6. Yu Yabo, Wu Pinghui, Feng Qingchun, et al. Situation and strategy of automatic seedling machine in China[J]. Journal of Agricultural Mechanization Research, 2017, 36(6): 1-6. (in Chinese with English abstract)
[8] Keyvan A V, Jafar M. A farmer-assistant robot for nitrogen fertilizing management of greenhouse crops[J]. Computers and Electronics in Agriculture, 2017, 139: 153-163.
[9] Pawin T, Tofael A, Tomohiro T. Navigation of autonomous tractor for orchards and plantations using a laser range finder: automatic control of trailer position with tractor[J]. Biosystems Engineering, 2016, 147: 90-103.
[10] Ohmorj H. Utilization of the electric vehicle in greenhouse horticulture[J]. Journal of the Japanese Society of Agricultural Machinery, 2010, 72: 527-530.
[11] Luciano C, Filippo B, Domenico L, et al. A small versatile electrical robot for autonomous spraying in agriculture[J]. AgriEngineering, 2019, 1(3): 391-402.
[12] 趙勻,武傳宇,胡旭東,等. 農業機器人的研究進展及存在的問題[J]. 農業工程學報,2003,19(1):20-24. Zhao Yun, Wu Chuanyu, Hu Xudong, et al. Research progress and problems of agricultural robot[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2003, 19(1): 20-24. (in Chinese with English abstract)
[13] Subramanian V, Thomas F B, Arroyo A A. Development of machine vision and laser radar based autonomous vehicle guidance systems for citrus grove navigation[J]. Computers and Electronics in Agriculture, 2006, 53: 130-143.
[14] 劉繼展. 溫室采摘機器人技術研究進展分析[J]. 農業機械學報,2017,48(12):1-18. Liu Jizhan. Research progress analysis of robotic harvesting technologies in greenhouse[J]. Transactions of the Chinese Society for Agricultural Machinery, 2017, 48(12): 1-18.(in Chinese with English abstract)
[15] 居錦,劉繼展,李男,等. 基于側向光電圓弧陣列的溫室路沿檢測與導航方法[J]. 農業工程學報,2017,33(18):180-187. Ju Jin, Liu Jizhan, Li Nan, et al. Curb-following detection and navigation of greenhouse vehicle based on arc array of photoelectric switches[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(18): 180-187. (in Chinese with English abstract)
[16] Liesbet V H, Polina K, Lieve W, et al. Crop design for improved robotic harvesting: A case study of sweet pepper harvesting[J]. Biosystems Engineering, 2020, 192: 294-308.
[17] Kondo N, Monta M, Fujiura T. Fruit harvesting robot in Japan[J]. Advances in Space Research the Official Journal of the Committee on Space Research, 1996, 18(12): 181-184.
[18] Zhao Yuanshen, Gong Liang, Liu Chengliang, et al. Dual-arm robot design and testing for harvesting tomato in greenhouse[J]. IFAC-Papers On Line, 2016, 49(16): 161-165.
[19] 姜德晶,王樹臣,曾勇,等. 基于圖像分割映射的農業機器人視覺去霧方法[J]. 農業機械學報,2016,47(11):25-31. Jiang Dejing, Wang Shuchen, Zeng Yong, et al. Agricultural robot visual de-hazing method based on image segmentation map[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(11): 25-31. (in Chinese with English abstract)
[20] 張漫,季宇寒,李世超,等. 農業機械導航技術研究進展[J].農業機械學報,2020,51(4):1-18.Zhang Man, Ji Yuhan, Li Shichao, et al. Research progress of agricultural machinery navigation technology[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(4): 1-18. (in Chinese with English abstract)
[21] Mohd S A M, Mohamad S Z A, Zaharuddin M, et al. Multi-objective path planner for an agricultural mobile robot in a virtual greenhouse environment[J]. Computers and Electronics in Agriculture, 2019, 157: 488-499.
[22] Mehta S S, Burks T F, Dixon W E. Vision-based localization of a wheeled mobile robot for greenhouse applications: A daisy-chaining approach[J]. Computers and Electronics in Agriculture, 2008, 63(1): 28-37.
[23] 賈士偉,李軍民,邱權,等. 基于激光測距儀的溫室機器人道路邊緣檢測與路徑導航[J]. 農業工程學報,2015,31(13):39-45. Jia Shiwei, Li Junmin, Qiu Quan, et al. New corridor edge detection and navigation for greenhouse mobile robots based on laser scanner[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(13): 39-45. (in Chinese with English abstract)
[24] 高國琴,李明. 基于K-means算法的溫室移動機器人導航路徑識別[J]. 農業工程學報,2014,30(7):25-33. Gao Guoqin, Li Ming. Navigating path recognition for greenhouse mobile robot based on K-means algorithm[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2014, 30(7): 25-33. (in Chinese with English abstract)
[25] 李天華,吳增昊,廉憲坤,等. 基于定向攝像頭的大拱棚運輸車視覺導航研究[J]. 農業機械學報,2018,49(S1):8-13. Li Tianhua, Wu Zenghao, Lian Xiankun, et al. Navigation line detection for greenhouse carrier vehicle based on fixed direction camera[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(S1): 8-13. (in Chinese with English abstract)
[26] 季宇寒,李寒,張漫,等. 基于激光雷達的巡檢機器人導航系統研究[J]. 農業機械學報,2018,49(2):14-21. Ji Yuhan, Li Han, Zhang Man, et al. Navigation system for inspection robot based on LiDAR[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(2): 14-21. (in Chinese with English abstract)
[27] Bechar A, Meyer J, Edan Y. An objective function to evaluate performance of human-robot systems for target recognition tasks[C]. IEEE International Conference on Systems, Man and Cybernetics, 2007: 967-972.
[28] Conesa-munoz J, Valente J, Cerro J D, et al. Integrating autonomous aerial scouting with autonomous ground actuation to reduce chemical pollution on crop soil[C]. Robot 2015: Second Iberian Robotics Conference, 2016: 41-53.
[29] Hess W, Kohler D, Rapp H, et al. Real-time loop closure in 2D LIDAR SLAM[C]// IEEE International Conference on Robotics and Automation (ICRA), 2016: 1271-1278.
[30] Zhou Minhang, Gao Nina. Research on optimal path based on Dijkstra algorithms[C]. Proceedings of 3rd International Conference on Mechatronics Engineering and Information Technology (ICMEIT), 2019: 900-908.
[31] Fox D, Burgard W, Thrun S. The dynamic window approach to collision avoidance[J]. IEEE Robotics & Automation Magazine, 2002, 4(1): 23-33.
[32] 劉沛,陳軍,張明穎. 基于激光導航的果園拖拉機自動控制系統[J]. 農業工程學報,2011,27(3):196-199. Liu Pei, Chen Jun, Zhang Mingying. Automatic control system of orchard tractor based on laser navigation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2011, 27(3): 196-199. (in Chinese with English abstract)
Development of dual-lidar navigation system for greenhouse transportation robot
Hou Jialin1,2, Pu Wenyang1, Li Tianhua1,2, Ding Xiaoming3
(1.,,271018,; 2.,271018,; 3.,100125,)
In order to solve the problem of autonomous navigation of robots in greenhouse environment, a navigation system for greenhouse transportation robot based on dual-lidar was developed in this paper, The navigation system consisted of front and rear lidar, compared with the single lidar, the front and rear double lidar could increase the scanning range, reduce the blind area of tracing, improve the efficiency and accuracy of surveying and mapping, and improve the real-time obstacle avoidance ability of the robot. The navigation system of greenhouse transportation robot was composed of a remote monitoring platform and an on-board system. The remote monitoring platform was responsible for selecting the working mode of the on-board system, issuing the the instruction of target points and displaying the location information of the on-board system. As the executor of the instructions, the on-board system was responsible for receiving and executing task instructions ordered by the monitoring platform. Through the real-time communication through wireless network, the remote monitoring platform and the on-board system jointly complete the autonomous navigation task of greenhouse transportation robot. The on-board system hardware mainly consisted of a driving module, a control module, an environmental information perception module, a communication module and a power supply module. The on-board systems software was divided into three layers, user interaction layer, information processing layer and execution layer. The user interaction layer was an open-source Ubuntu-based navigation task scheduler that responsible for adjusting the working mode of the on-board system and issuing target points instructions. The information processing layer was the real-time positioning and map building and fixed-point navigation program based on the Robot Operating System(ROS), which was responsible for collecting the motion information of on-board system and environmental information from lidar, and conducting information fusion. According to the control command and on-board system position and attitude information, map construction, path planning and autonomous navigation were carried out. The executive layer was the mobile platform control program based on the open source real-time operating system of Ubuntu. By collecting the speed information of the encoder, the classical PID algorithm was used to adjust and output the desired Pulse Width Modulation(PWM) wave to control the motor speed, so as to realize the stable and safe movement of the on-board system. The dynamic window algorithm was used to plan the local optimal path to reduce walking time and energy consumption. The test results showed that when the on-board system ran at the speed of 0.2, 0.5 and 0.8 m/s , the average deviation and the standard deviation between the actual navigation path and the target path was less than 13 and 5 cm, respectively; the average value, the root mean square error, the standard deviation of the lateral deviation and longitudinal deviation at each target point was not more than 9, 11.2 and 5 cm, respectively; the average value, the root mean square error, and the standard deviation of the course deviation was less than 10°, 12° and 6°, respectively, which met the navigation accuracy requirements of robot transportation in greenhouse.
greenhouse; robots; navigation; dual-lidar
侯加林,蒲文洋,李天華,等. 雙激光雷達溫室運輸機器人導航系統研制[J]. 農業工程學報,2020,36(14):80-88.doi:10.11975/j.issn.1002-6819.2020.14.010 http://www.tcsae.org
Hou Jialin, Pu Wenyang, Li Tianhua, et al. Development of dual-lidar navigation system for greenhouse transportation robot[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(14): 80-88. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2020.14.010 http://www.tcsae.org
2020-04-21
2020-06-26
十三五國家重點研發計劃項目(2017YFD0701500);山東省重大科技創新工程項目(2019JZZY020620)
侯加林,教授,博士生導師,主要從事設施農業研究。Email:jlhou@sdau.edu.cn
10.11975/j.issn.1002-6819.2020.14.010
S147.2
A
1002-6819(2020)-14-0080-09