

摘要:本研究設計了一種基于樹莓派視覺識別的柔性采摘機器人,通過視覺識別、路徑規劃、采摘控制與遠程監控等功能模塊的協同工作,實現了果實的精準識別與無損采摘。系統采用樹莓派4B主控單元、Intel RealSense D435i深度攝像頭、UR3e機械臂及OnRobot RG2夾爪等硬件,結合YOLOv5、A*算法、PID控制算法及MQTT協議等技術,顯著提升了采摘效率,保證了果實完整性。測試結果表明,系統在視覺識別精度、路徑規劃效率及采摘成功率等方面均達到預期目標,為農業自動化提供了可靠的技術支持。
關鍵詞:樹莓派;視覺識別;柔性采摘機器人;路徑規劃;農業自動化
中圖分類號:TP3 文獻標識碼:A
文章編號:1009-3044(2025)09-0022-03 開放科學(資源服務) 標識碼(OSID) :
0 引言
隨著農業現代化的推進,采摘機器人成為提高農業生產效率的重要工具。然而,傳統采摘機器人在靈活性和適應性方面存在不足,難以應對復雜多變的果園環境。基于樹莓派的視覺識別技術結合柔性機械臂,為解決這一問題提供了新思路。樹莓派作為一種低成本、高性能的嵌入式計算平臺,能實現高效的圖像處理與目標識別。柔性機械臂則可適應不同果實的形狀和位置,實現精準采摘。本研究旨在設計一種基于樹莓派視覺識別的柔性采摘機器人,以提高采摘效率和保證果實完整性,推動農業智能化發展。
1 需求分析
1.1 功能需求分析
基于樹莓派視覺識別的柔性采摘機器人須具備精準識別、路徑規劃、避障導航、采摘控制及遠程監控等功能。視覺識別模塊應能準確識別果實位置與成熟度;路徑規劃模塊需實現高效移動與避障;采摘控制模塊需協調機械臂與夾持器完成無損采摘[1];遠程監控模塊應支持實時數據傳輸與狀態反饋。系統還需具備環境適應性,能在復雜農田環境中穩定運行。
1.2 性能需求分析
機器人需滿足高精度、高效率與高穩定性的性能要求。視覺識別精度應達到毫米級,確保果實定位準確;路徑規劃與避障響應時間需控制在毫秒級,保證移動流暢;采摘動作控制須具備高協調性,確保采摘成功率;系統整體功耗應優化,支持長時間連續作業。機器人須具備較強的環境適應性,能在不同光照、地形條件下穩定運行。
2 設計方案
2.1 機器人軟件功能模塊設計
2.1.1 視覺識別與果實定位功能模塊
視覺識別與果實定位功能模塊基于樹莓派開發,采用OpenCV(Open Source Computer Vision Library,開源計算機視覺庫) 和YOLOv5(You Only Look Once ver?sion 5,單階段目標檢測算法) 實現果實識別與定位。
首先,樹莓派連接的攝像頭采集農田環境圖像,利用OpenCV對圖像進行預處理,包括去噪、灰度化、邊緣檢測等操作,提升圖像質量[2]。隨后,YOLOv5算法加載預訓練的深度學習模型,對圖像中的果實進行目標檢測,識別果實的類別、位置及成熟度。果實定位功能計算果實中心點坐標,結合深度攝像頭獲取的距離信息,生成三維空間坐標,為后續路徑規劃提供數據支持。模塊還設計了光照自適應算法,能在不同光照條件下保持較高的識別精度,確保系統在復雜農田環境中的穩定性。
2.1.2 路徑規劃與避障導航功能模塊
路徑規劃與避障導航功能模塊基于A 算法(Astar Algorithm,啟發式搜索算法) 和DWA(Dynamic Window" Approach,動態窗口法) 實現。模塊首先根據視覺識別模塊提供的果實位置信息,結合機器人當前位置,利用A算法規劃從起點到目標點的最優路徑。A*算法評估路徑代價函數,綜合考慮路徑長度與障礙物分布,生成一條高效且安全的移動路徑[3]。避障導航功能利用DWA 算法實時處理激光雷達(LIDAR,Light Detection and Ranging,光探測與測距) 傳感器采集的環境數據,動態調整機器人移動方向與速度,避免與障礙物發生碰撞。模塊還集成了SLAM(Simulta?neous Localization and Mapping,同步定位與地圖構建) 技術,實時構建農田環境地圖,提升路徑規劃的精度與適應性。
2.1.3 采摘動作控制與協調功能模塊
采摘動作控制與協調功能模塊基于PID(Proportional-Integral-Derivative,比例-積分-微分) 控制算法和ROS(Robot Operating System,機器人操作系統) 實現。模塊首先根據視覺識別模塊提供的果實位置信息,生成機械臂的運動軌跡。PID控制算法調節機械臂關節電機的轉速與角度,確保機械臂能精準移動到目標位置。采摘動作協調功能通過ROS的多節點通信機制,實時同步機械臂與夾持器的動作,確保采摘過程的流暢性與穩定性[4]。模塊還設計了力反饋控制算法,力傳感器實時監測夾持器的夾持力度,避免對果實造成損傷。采摘完成后,模塊自動生成返回路徑,確保機器人能高效返回起始位置。
2.1.4 數據通信與遠程監控功能模塊
數據通信與遠程監控功能模塊基于MQTT(Mes?sage Queuing Telemetry" Transport,消息隊列遙測傳輸) 協議和WebSocket技術實現。首先,樹莓派的Wi-Fi 模塊與遠程服務器建立連接,利用MQTT協議實時傳輸機器人的狀態數據,包括位置信息、傳感器數據、任務進度等。遠程監控功能利用WebSocket技術實現雙向通信,用戶能在Web界面實時查看機器人運行狀態,并發送控制指令[5]。模塊還設計了數據緩存機制,在網絡不穩定時臨時存儲數據,確保數據的完整性與可靠性。遠程監控界面支持可視化展示,用戶可在地圖查看機器人位置,在圖表分析中看到任務執行效率,提升系統的可操作性與用戶體驗。
2.2 機器人硬件行動模塊設計
2.2.1 樹莓派主控單元
樹莓派主控單元采用樹莓派4B(Raspberry Pi 4Model B) 作為核心控制器,配備4GB RAM(Random Access" Memory,隨機存取存儲器) 和64 位四核ARMCortex-A72處理器,主頻為1.5GHz。選擇樹莓派4B 的原因在于其高性能計算能力與低功耗特性,能滿足視覺識別、路徑規劃等復雜算法的實時運行需求。樹莓派4B 支持雙頻Wi-Fi(Wireless" Fidelity,無線保真) 和藍牙5.0(Bluetooth 5.0) ,確保機器人與遠程監控系統之間的穩定通信[6]。樹莓派4B 提供豐富的GPIO(General Purpose Input/Output,通用輸入輸出) 接口,便于連接各類傳感器與執行器,為系統擴展提供靈活性。主控單元還配備了散熱風扇與金屬外殼,確保長時間運行時的穩定性與可靠性。
2.2.2 視覺傳感器模塊
視覺傳感器模塊采用Intel RealSense D435i深度攝像頭(Depth Camera) ,支持RGB(Red Green Blue,紅綠藍) 圖像與深度信息的同步采集。D435i的深度感知范圍為0.2m 至10m,分辨率為1280×720,幀率為30fps(Frames Per Second,幀每秒) ,能滿足農田環境中果實識別與定位的高精度需求。選擇D435i的原因在于其內置IMU(Inertial" Measurement Unit,慣性測量單元) ,能實時校正攝像頭姿態,提升圖像采集的穩定性。攝像頭通過USB 3.0接口與樹莓派連接,確保數據傳輸的高效性。視覺傳感器模塊還配備了遮光罩與防水外殼,適應復雜農田環境中的光照變化與濕度條件。
2.2.3 多自由度機械臂模塊
多自由度機械臂模塊采用UR3e(Universal Robots3e) 協作機械臂,具有6個自由度,最大負載為3kg,重復定位精度為±0.03mm。UR3e機械臂內置力傳感器,能實時監測末端執行器的受力情況,確保采摘動作的精準性與安全性。選擇UR3e的原因在于其輕量化設計與高靈活性,能適應不同高度與角度的果實采摘任務。機械臂的Ethernet(以太網) 接口與樹莓派連接,支持實時控制與狀態反饋。模塊還配備了防塵與防水保護裝置,確保在農田環境中的長期穩定運行。
2.2.4 柔性夾持器模塊
柔性夾持器模塊采用OnRobot RG2 柔性夾爪(Flexible Gripper) ,最大夾持力為40N,夾持范圍為0mm至110mm。RG2夾爪內置力反饋控制功能,能根據果實的大小與硬度自動調節夾持力度,避免對果實造成損傷。選擇RG2的原因在于其高適應性,能夾持不同形狀與大小的果實,如蘋果、番茄等。夾爪基于Modbus RTU(Remote Terminal" Unit,遠程終端單元) 協議與樹莓派通信,支持實時控制與狀態監測。模塊還設計了防滑橡膠墊與自清潔功能,確保夾持過程的穩定性與衛生性。
2.2.5 移動底盤與驅動模塊
移動底盤與驅動模塊采用TurtleBot3 Waffle Pi移動機器人底盤,配備兩個DYNAMIXEL XM430-W350 驅動電機,最大扭矩為3.0N·m,最高速度為0.22m/s。底盤采用四輪驅動設計,配備全向輪(Omni Wheel) ,能在復雜地形中靈活移動。選擇TurtleBot3 Waffle Pi 的原因在于其開源性與可擴展性,便于與樹莓派系統集成。底盤內置IMU與編碼器,能實時監測機器人的位置與姿態,支持SLAM(Simultaneous Localization and Mapping,同步定位與地圖構建) 功能。模塊還配備了防塵與防水外殼,確保在農田環境中的長期穩定運行。
3 測試分析
3.1 搭建測試環境
測試環境搭建在模擬農田場景中,包含不同光照條件(晴天、陰天) ,自然光照強度的變化會直接影響視覺識別模塊的成像質量,通過調節LED補光燈組模擬不同光照強度,可測試系統在20000~50000lux光照范圍內的適應性。地形條件設置平坦地面與15°坡道,主要考慮到實際果園中常見的坡度差異,機器人需在負載2kg果實的情況下完成±15°坡道的穩定行走,同時驗證路徑規劃算法在不同地形下的調整能力。果實分布密度設置稀疏(間距≥80 cm) 與密集(間距≤30 cm) 兩種模式,機械臂末端的激光測距儀實時檢測果實間距,評估系統在不同采摘難度下的作業效率。
測試平臺包括機器人硬件系統、遠程監控終端及數據采集設備。測試參數來源于實際果園環境,方法包括視覺識別精度測試、路徑規劃效率評估及采摘成功率統計。評價標準為視覺識別誤差≤±2mm,路徑規劃響應時間≤50ms,采摘成功率≥95%。測試過程進行多次重復實驗以驗證系統穩定性。
3.2 功能測試分析
在功能測試中,針對視覺識別精度,在晴天和陰天環境下利用蘋果模型進行測試。對于路徑規劃響應時間,對障礙物避讓場景進行記錄。采摘成功率則在果實密集分布區執行測試(測試結果見表1) 。
功能測試結果表明,視覺識別精度在晴天與陰天光照變化下,測試數據為±1.8 mm,優于≤±2 mm的標準值,在可接受范圍內,說明系統在光照變化時具有一定適應性。路徑規劃響應時間在障礙物避讓場景中,僅47.3 ms,遠小于≤50 ms的標準,能確保機器人快速靈活應對。采摘成功率在果實密集分布場景達96.7%,高于≥95%的標準,表明該系統在復雜果實布局下也能高效完成采摘任務,功能表現出色,整體功能滿足設計需求。
3.3 性能測試分析
進行性能測試時,為檢驗系統運行功耗,讓設備連續作業2小時,監測功率變化。針對機械臂定位精度,在復雜地形模擬采摘場景下精準測量。而數據傳輸延遲測試,則在Wi-Fi信號強度為-70dBm的環境中開展(測試結果見表2) 。
3.3 性能測試分析
進行性能測試時,為檢驗系統運行功耗,讓設備連續作業2小時,監測功率變化。針對機械臂定位精度,在復雜地形模擬采摘場景下精準測量。而數據傳輸延遲測試,則在Wi-Fi信號強度為-70 dBm的環境中開展(測試結果見表2) 。
性能測試結果顯示,系統運行功耗在連續作業2小時后為12.3 W,顯著低于標準值15 W,體現出良好的節能特性,有利于長時間穩定工作。機械臂定位精度在復雜地形采摘時達±0.027 mm,滿足≤±0.03 mm的標準,說明機械臂能精準定位,保障采摘作業準確性。數據傳輸延遲在Wi-Fi信號弱至-70 dBm的場景下為38.2 ms,低于≤50 ms的標準,確保數據傳輸穩定,系統性能可靠。
因此,從功能和性能上看,本系統已達到預期設計指標,具備較高的應用價值。
4結束語
本文成功設計并實現了一種基于樹莓派視覺識別的柔性采摘機器人,系統在視覺識別精度、路徑規劃效率及采摘成功率等方面均達到預期目標。未來,應進一步優化視覺識別算法,提升系統在復雜環境中的適應性;探索多機器人協同作業模式,擴大采摘范圍與效率;結合5G技術,實現更高效的遠程監控與數據交互。進行持續的技術創新與應用推廣,提高系統的適應性和可擴展性,為農業智能化發展提供更有力的支持。