中圖分類號:R187 文獻標志碼:A 文章編號:2095-2945(2025)13-0029-04
Abstract:Tosolve theproblemsof highcomputationalresources,longprocessng time,andlowrecognitionaccuracyin disinfectionrobottargetrecognitiontechnology,adisinfectionrobottargetrecognitiontechnologybasedonYOLOv5wasproposed. Thistechnologymainlyusesanovelconvolutional neural network(CNN)combinedwithamachinevisionsystem toachieve detection,clasificationndspatialpositionigofthtargetsinhedisifectionarearequiredbythedisinfeionobotough real-simulationexperimentsanddetectionresultanalysisontargetimagesindiferentpublicscenes,thismethodcanffectively realize therecognitionandpositioningof dsinfection targets.TheexperimentalresultsshowthatYOLOv5sandYOLOv5mithe YOLOv5seriesare both excelent pre-training models for targetdetection,andtheirapplicationscenariosare diferent.
Keywords:disinfection robot; target recognition;YOLOv5 algorithm;machine vision;model training
消毒機器人能夠在無人值守情況下進行高效消毒,減少人為操作風險,是未來公共衛生防控的重要手段。當面臨較為復雜的環境時,移動機器人可能無法快速做出精準的判斷2。因此,開發基于先進算法如YOLOv5的目標識別技術,對提升消毒機器人精準度和智能化至關重要。
1總體設計方案
1.1 開發板選型
地平線旭日
派與樹莓派接口兼容,搭載了地平線新一代的低功耗、高性能AI處理器AMR-Cor-tex-A53,可以提供高達5TOPS的等效算力[3]。Togeth-erROS是一個基于ROS2的機器人開發架構,使得開發者無需花費大量時間在模型調整和數據訓練上,降低了開發門檻和成本。推理過程如圖1所示。
1.2 電路模型設計


1.3實驗開發環境搭建
整個電路模型整體設計如圖2所示。
實驗開發環境需要進行環境依賴配置、下載訓練
權重文件和LabelImg資源包以及完成數據集標注工具的安裝。為了進行旭日X3派開發板的系統開發,需要下載并完成 x3pi_ubuntu_desktop 系統鏡像的燒錄。
2消毒目標樣本圖像處理方法研究
課題研究采用了OpenCV計算機視覺處理庫結合基于深度學習的YOLOv5目標檢測算法,與其他目標檢測算法相比,其具有檢測速度快、實時性高等優點,但也有一些缺陷。為了提高識別率和穩定性,研究人員提出了各種基于OpenCV的人臉識別算法,包括但不限于特征提取、特征匹配和分類器訓練等關鍵步驟
2.1 數據增強
HSV通道擾動數據增強方法是通過改變圖像的參數實現的,通過實驗對比輸入、輸出圖像的顯示結果如圖3、圖4所示。


2.2自適應樣本采集
在模型的訓練過程中,只基于某些類別的損失進行模型參數調整,從而降低檢測數量較少的類別的精度。圖5是樣本數據集自適應采樣結果。
3基于YOLOv5的消毒機器人目標識別技術研究
基于深度學習的目標檢測算法采用卷積神經網絡(CNN)學習特征,能夠適用于復雜場景。YOLOv5是一種單階段目標檢測算法,它在多方面進行了改進,速度和精度都有了極大提升。消毒機器人自標識別技術實現目標識別的原理是利用單目攝像頭獲取目標在圖像中的位置信息,然后通過基于深度學習的YOLOv5目標檢測算法進行目標檢測和分類,最終通過計算得到特定目標在實際世界中的位置信息。具體的實現過程如圖6所示。


4消毒機器人目標識別技術研究的實驗結果分析
4.1模型訓練結果分析
在實驗中采用YOLOv5輕量化模型訓練樣本數據集,在預處理中增加通道擾動并自適應裁剪目標特征區域,避免特征丟失。對樣本進行合理迭代訓練在避免過擬合的情況下提高精確度和召回率。最優模型訓練結果如圖7一圖10所示。

4.2 實驗模型對比結果分析
通過對比表1和表2中實驗1和實驗2的結果得知,在原有訓練模型的基礎上,采用通道擾動的方法進行數據增強、自適應數據采集、自主錨框計算等方法,可以在一定程度上提升模型訓練結果的精準度、回歸率和置信度。
通過對比實驗4、實驗5和實驗6的結果得知,適度增大批量大小能提升GPU利用率和并行化效率,加速處理。
對比實驗3和實驗7、實驗4和實驗8可知,錨框的設置可以在一定程度上影響訓練模型的召回率和精度,這主要是因為錨框的設置會在一定程度上影響特征提取的范圍。
通過對比實驗3和實驗4,實驗7和實驗8的結果得知,適當增加訓練輪數可以提高訓練模型的精確度,這是因為每增加一個訓練輪數,神經網絡的權重就會更新一次。
通過對比實驗3和實驗9、實驗4和實驗10的結果,我們可以發現使用預先計算錨框的方法在目標檢測準確性上略低于YOLOv5自適應錨框,但顯著減少訓練時間。


如圖11所示,針對同一圖像的目標識別任務,YOLOv5s檢測速度快,適合大量圖像且精度要求不高的場景,但可能漏檢或誤檢; Υ 0 L O v5 m 精度更高,但實時性差且需更多硬件。

本文結合了消毒機器人目標識別的實際需求和條件,綜合考慮其準確性、效率和資源消耗等因素,采用 Y O L O v5 s+ 模型可以實現最佳的檢測效果,消毒目標識別部分結果如圖12所示。

5 結論
實驗結果表明,該技術通過調整相關模型訓練參數、自適應樣本采集、數據增強等方法使得消毒機器人目標識別技術在特定場景下的目標檢測模型平均精確度達到 9 9 % 以上,識別速度和準確率提高 2 0 % 左右,識別準確度達到 8 0 % 以上。基于YOLOv5的消毒機器人目標識別技術可以在消毒機器人領域得到廣泛應用。
參考文獻:
[1]趙景平,肖紅.消毒機器人在應對不明疫情中的應用[A].第十六屆中國科學家論壇優秀論文集[C].中國高科技產業化研究會,2019:1.
[2]Amitava C.Vision Based Autonomous Robot Navigation[M].連曉峰,譯.北京:機械工業出版社,2014.
[3]電子發燒友網.地平線面向AIoT推出旭日系列邊緣AI芯片[EB/OL].https://www.elecfans.com/d/1716706.html.
[4]張文瀚.基于深度學習YOLOv5的目標檢測改進算法研究[D]哈爾濱:哈爾濱理工大學,2023.
[5]何祥芝,涂海寧,劉建勝.基于OpenCV的人臉黑頭識別算法[J].南昌大學學報(工科版),2024,46(1):111-116.
[6]彭成,張喬虹,唐朝暉,等.基于YOLOv5增強模型的口罩佩戴檢測方法研究[J].計算機工程,2022,48(4):39-49.
[7]呂璐,程虎,朱鴻泰,等.基于深度學習的目標檢測研究與應用綜述[J].電子與封裝,2022,22(1):72-80.
[8]何斌,張亦博,龔健林,等.基于改進YOLOv5的夜間溫室番茄果實快速識別[J].農業機械學報,2022,53(5):201-208.