999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進YOLOv5s的自然場景下茶葉嫩芽檢測

2025-08-16 00:00:00胡永光金礦劉益航鹿永宗張志潘慶民
中國農機化學報 2025年8期
關鍵詞:卷積茶葉精度

中圖分類號:TP391.4;S57.1 文獻標識碼:A 文章編號:2095-5553(2025)08-0103-09

Abstract:The plucking oftendertea buds is a crucial stage in tea production,and intellgenttea harvesting reliesonadeep learning-basedteabuddetectionalgorithmasatechnical foundation.Toenhance thespeedandaccuracyof teabud detection,this paper proposes an improved detection algorithm TN—YOLOv5s based on the YOLOv5s network model. First,GhostConv,adepthwise separableconvolution fromthe GhostNetnetwork structure,is introduced toreplace the ordinaryconvolution layers in the feature extraction andfusion networksoftheoriginalYOLOv5s model.Second,theCA spatial atention mechanism isaddedattheendof themodel's feature extraction network.Third,theSIoU_Loss is employed as the regresson lossfunction in place of CIoU_Loss.Finally,Soft—NMS is used to replace NMS.The results of the study show that the improved model achieved 7.1% , 5.9% ,and 6.4% higher model precision,recall,and average precision values,respectively,and the weight size decreased from 13.7 MB to 7.48MB compared to the original YOLOv5s algorithmonthecustomteabudsdataset.Furthermore,whencomparedtocurrntmainstreamdetectionalgorithms,the improved model shows beter performancein detectionaccuracy,model size,and detectionspeed.The improvedmodel reducestheleakagedetectionrateof obscuredteabuds,andenable saccurateandrapiddetectionof teabuds indiferent scenarios,providing atechnical foundation for the development of tea-picking robot technology and equipment.

Keywords:tea buds;natural scenes;YOLOv5s;object detection;oclusior

0 引言

茶葉嫩芽采摘是茶葉生產中的重要環節之一,高質量的采摘對于提升茶葉產量、質量和經濟效益具有重要意義[1。長期以來,茶葉生產主要利用春季鮮葉,而產量比春茶高數倍的夏秋茶因為采收成本高而被大量棄采。提高夏秋茶的全年利用率,讓其產生更高的經濟價值具有重要意義[2]。實現對夏秋茶的機械化采摘是降低采收成本的重要途徑,基于深度學習技術實現對茶葉嫩芽的檢測是確保機械化采收質量的重要手段。對大多數茶樹品種而言,夏秋茶嫩芽顏色與老葉顏色接近[3],且其在機采蓬面上分布密集,嫩芽間存在相互遮擋,上述原因使得夏秋茶茶葉嫩芽檢測難度較大。因此,開展夏秋茶茶葉嫩芽檢測方法的研究對于實現夏秋茶的機械化和智能化采摘具有重要的意義。

目前2種茶葉采摘方式:人工采摘和機械采摘。名優茶采用人工采摘,工人能夠根據茶葉的老嫩程度選擇性采摘茶芽,確保鮮葉的外形和品質,但其存在采摘效率低、用工成本高甚至用工荒的問題[4。大宗茶的采摘方式多為機械采摘,其采摘效率雖然較高,但對蓬面上的嫩芽和老葉一刀切,易造成嫩芽的損壞,嫩芽完整度低、含雜質高[5]。目前為兼顧采摘質量和效率,出現了新型的智能采茶機器人概念,由于茶葉采摘的復雜性,其多處于實驗室研究階段。結合圖像處理與機器視覺技術,實現對夏茶茶葉嫩芽的檢測,可為實現夏茶機械化和智能化采摘奠定基礎,是未來智能采茶機器人的核心技術之一。

傳統圖像處理技術需要手動進行特征設計,其過程復雜且識別精度較低,難以處理復雜場景和大規模數據。汪建[6提出一種基于圖像顏色和區域生長相結合的茶葉圖像分割算法,其通過在顏色空間上對像素進行劃分,并生成種子區域,然后對種子區域基于顏色的相似性和區域的鄰接性進行區域生長,最后結合顏色距離和邊緣距離進行區域生長和合并來分割出嫩芽。吳雪梅等根據嫩芽和老葉的 G 和 G-B 分量的顏色信息,利用改進的最大方差自動取閾法計算 G 和G 一 ?B 分量的分割閥值,分割出嫩芽。Zhang等8提出一種基于改進分水嶺算法的茶芽識別分割方法,其通過對藍分量進行自適應閾值處理,再結合綠分量獲得新的組合分量灰度圖,最后利用改進的分水嶺算法提高嫩芽識別精度。上述方法雖然能夠實現對茶葉嫩芽的識別,但在田間環境下,其效果受光照條件和噪聲的影響較大,模型的田間魯棒性和泛化能力較差。

隨著深度學習的快速發展和大量應用,其在現代農業中的研究也在增加。Wang等9提出了一種基于區域卷積神經網絡(R一CNN)的自然場景下茶葉嫩芽識別方法Mask—RCNN,驗證了該檢測方法在復雜環境中的通用性和魯棒性。Li等[10]通過對原始嫩芽數據集進行數據增強,提高樣本多樣性,然后在YOLOv3模型中加入空間金字塔池化模塊,提出改進YOLOv3模型并對茶葉嫩芽進行檢測,平均檢測精度達到 89.61% 。王夢妮等[11]通過在YOLOv5s網絡模型主干網絡中替換空洞空間卷積池化金字塔結構ASPP,并在頸部引人雙向特征金字塔網絡BiFPN和卷積注意力機制CBAM,提出一種改進的YOLOv5s模型,相比原模型,準確率、召回率和平均精度值分別提高 4.4%.0.5%.4.0% 。

與傳統圖像處理方法相比,基于深度學習的自然場景茶葉嫩芽檢測取得良好效果,但仍然存在以下問題:(1)田間茶園場景下茶葉嫩芽目標小,生長密集,彼此相互遮擋,嫩芽與老葉之間顏色和形狀相似,導致識別算法檢測精度低,漏檢和誤檢率高;(2)現有的針對YOLOv5s算法的改進措施來提高算法的精度,減少漏檢和誤檢的發生,往往會造成改進模型參數量和計算量成倍增加,造成計算資源浪費且不利于模型部署。針對上述問題,本文以YOLOv5s模型為基礎,根據夏茶茶葉嫩芽檢測存在的難點對原網絡模型進行改進,將田間拍攝得到的茶葉嫩芽圖像進行標注,輸入改進后的模型,實現一種輕量化、檢測速度快和漏檢率低的自然場景下的夏茶茶葉嫩芽檢測模型,為智能采茶機器人的視覺系統提供技術支持。

1 數據集構建

1)圖像采集。所用茶葉嫩芽數據集原始圖像采集地點為江蘇省句容市茅山茶場,采集對象為龍井43,茶樹單攏栽種且長勢較好、均一。圖像采集設備為紅米K2Opro手機和CanonM50MarkI相機,圖像的分辨率分別是4000像素 ×3000 像素和5328像素 ×4000 像素,以JPG格式保存。數據采集于2023年6月上旬,拍攝時間為5:30—18:30。在對茶葉嫩芽進行圖像采集時,拍攝設備與茶樹距離 10~ 50cm ,拍攝角度與豎直向上方向呈 30°~60° 夾角。共采集原始數據集圖像1920幅。采集到不同背景復雜度、拍攝視角高低和嫩芽數目差異如圖1所示。

2)數據預處理和增強。使用LabelImg圖像標注工具,選擇一芽二葉的最小外接矩形作為標注框,手動對圖像數據集進行標注。自然環境下,光照強度隨時間變化而不同,導致同一嫩芽所展現的亮度在不同時間段有所差異,因此光照強度是影響嫩芽識別效果的重要因素。所以進行嫩芽圖像數據集構建時,在一天中不同時間段內進行拍攝,如圖2所示。

采集數據時沿茶行兩側移動拍攝,拍攝過程中太陽位置和拍攝位置的變化導致茶葉嫩芽圖像整體亮度以及圖像中部分嫩芽的亮度不同,如圖3(a)和圖3(b)所示。在同一茬口處萌發的嫩芽,經過一段時間的生長,往往分布密集導致相互遮擋,圖3(c)和圖3(d)分別為茶葉嫩芽在無遮擋和相互遮擋條件下的圖像。

圖1不同場景下的茶葉嫩芽圖像Fig.1 Images of tea budsin different scenes

圖2不同時間段內的茶葉嫩芽Fig.2 Tea buds in different time periods

對采集到的數據集進行篩選,去除背景虛化嚴重和模糊的圖像,剩余原始圖像的采集信息如表1所示。

表1原始圖像的采集信息

Γab.1 Acquisition information of the original image

在早晨、上午、下午、傍晚采集的圖像數量分別為513幅、464幅、455幅、489幅;順光和逆光情況下的圖像數量分別為955幅和966幅;有遮擋和無遮擋情況下的圖像數量分別為1420幅和500幅。為增強試驗數據的豐富性,提高模型的泛化能力,對原始圖像數據進行翻轉、鏡像、添加噪聲、放大和縮小以擴充數據集,增強效果如圖4所示。首先,將原始數據集圖像進行混合匯總,按6:2:2的比例隨機劃分為訓練集、驗證集和測試集,其數量分別為1152幅、384幅、384幅。然后對訓練集中的每幅圖像采用上述方法隨機組合進行2倍數據增強,同時對圖像對應的標注文件進行變換。將增強后的圖像與原始訓練集中的圖像匯總得到3456幅圖像數據。最終,訓練集、測試集和驗證集的圖片數量分別為3456幅、384幅、384幅,使用增強后的數據集進行模型的訓練。

圖4數據集增強效果Fig.4Datasetenhancement effects

2嫩芽識別算法及改進

YOLOv5是一種基于深度學習的自標檢測算法,是YOLO(YOUOnlyLookOnce)系列算法的第五代版本,在更加輕量化的同時提供更高的檢測精度,自面世以來,憑借著高性能在學術界和工業界都取得不錯的成果,且其在茶葉嫩芽識別任務中表現出色[12.13]。YOLOv5根據模型大小可分為5個不同的版本,分別為YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,其中YOLOv5s通過采用較小的網絡深度和特征圖維度來實現較小的權重文件和更快的檢測速度[14]。因此,選擇在該模型的基礎上進行優化,YOLOv5s的網絡結構如圖5所示。

最終改進后模型的網絡結構如圖6所示。

自制的夏茶茶葉嫩芽數據集場景豐富,檢測目標茶葉嫩芽存在相互遮擋、外觀顏色接近和目標較小等特點,數據集較為復雜。原始的YOLOv5s算法識別精度低,漏檢和誤檢率高,難以滿足要求。故提出一種改進YOLOv5s網絡模型,主要從4個方面進行改進。

2.1 輕量化網絡GhostNet

在實際應用場景中,目前茶葉嫩芽檢測存在模型參數量大的問題,雖然能夠達到檢測要求,但是耗費的計算資源較大,不適合在嵌入式平臺上部署。為降低模型參數量,提升檢測速度,引入GhostNet網絡結構[15],該網絡在不降低檢測精度的同時,減少模型冗余的參數量和計算量,從而提高檢測速度。其核心思想是通過引入“GhostModule\"來減小參數量和計算量,其結構如圖7所示。GhostModule可以分為2個主要部分,第一個部分:使用 1×1 的卷積獲得輸人特征的必要特征濃縮;第二部分:使用逐層卷積獲取額外的特征圖,然后將獲得的特征圖和 1×1 卷積后的結果進行堆疊,以獲得最終的結果輸出。

GhostBottlenecks是由GhostModule組成的瓶頸結構。GhostBottlenecks的不同步長如圖8所示,GhostBottlenecks主要由多個GhostModule組成,第1個GhostModule作為擴展層擴大感受野,通過卷積的方式增加通道數,第2個GhostModule調整合適的輸出通道數,便于后續的特征合并。通過短切的方式連接GhostBottleneck的輸人和輸出。步長為2的Ghost Bottleneck 模塊在步長為1的GhostBottleneck中間插入一個深度卷積,并在每一層后面都應用批量歸一化。

圖8GhostBottleneck兩種不同結構Fig.8 Ghost Bottleneck in two different configurations

基于上述,設計C3Ghost模塊,在相同數量的輸入和輸出通道下,C3Ghost模塊是將C3模塊中Bottleneck的Conv模塊替換為Ghost模塊,即使用步長為1的GhostBottleneck結構替代C3模塊中的Bottleneck結構。因此,C3Ghost模塊的參數量和計算量更少。將YOLOv5算法主干和頸部網絡中原本的Conv模塊和C3模塊替換為Ghost模塊和C3Ghost模塊,主干網絡和頸部網絡的修改實現在提取圖片的有效特征和進行特征融合的同時,進一步降低改進后的基準主干網絡模型的大小,從而提高茶葉嫩芽檢測網絡的檢測速度。由Ghost模塊構成的C3Ghost模塊結構如圖9所示。

圖9C3模塊和C3Ghost模塊Fig.9 C3 moduleand C3Ghostmodule

2.2 CA注意力機制

引入注意力機制CA,其核心作用在于使網絡關注到它所更需要關注的地方,目前已被廣泛使用來加強模型的計算能力。當前有幾種優秀的注意力機制,如SE9通道注意力機制1CBAM9卷積注意力模塊7和CA9空間注意力機制18等。在改進模型時,CA模塊被添加到骨干網絡中,以提高捕獲位置信息的能力。

CA將通道注意力分解為2個并行的一維(2D)特征編碼。也就是說,輸人特征被聚合成垂直和水平2個獨立的方向特征圖。然后這2個特征圖被編碼為2個注意力圖,一個用于長期依賴關系,另一個用于位置信息。因此CA模塊的操作分為2個步驟:坐標信息嵌入與坐標注意力生成。如圖10所示,坐標信息嵌人對應 X 平均池化和 Y 平均池化處理。在此步驟中,輸入每個通道的特征圖 X 沿水平和垂直方向編碼,分別使用大小和池化內核 H×1 和 1×W 。相應地,得到感知特征圖,表示為 zh 和 zw 。為生成坐標注意力,模型先將 zh 和 zw 進行級聯,使用核大小為 1×1 的F1 共享卷積提取聯合特征。然后,利用 δ 非線性激活函數生成中間特征圖 f 水平和垂直方向的空間信息。 f 沿空間維度被切割成兩個獨立的張量 fh 與 fw ,利用兩個 1×1 卷積變換 Fh 和 Fw 將空間維數轉換為與輸入特征張量 X 通道數相同的張量 gh 和 gw ,如式(2)和式(3)所示。其中注意力權重 gh 和 gw 在相應的兩個方向上,最終通過特征圖獲得的 xc 與注意力權重相乘后輸出yc ,如式(4)所示。

2.3損失函數的改進

YOLOv5算法的損失函數由邊界框回歸損失、類別損失、置信度損失三部分組成,其中常用交并比 IoU 作為損失函數,來描述邊界框回歸損失[19]。針對損失函數理論的不足,GIoU_Loss、DIoU_Loss、CIoU_Loss相繼被提出來解決邊界框回歸問題,YOLOv5原始模型中選擇CIoU_Loss作為回歸損失函數。

現有方法匹配真實框和預測框之間的交并比IoU、中心點距離和寬高比等,均未考慮真實框和預測框之間不匹配的問題。針對以上問題,選用SIoU損失函數2]替換CIoU損失函數,SIoU和SIoU損失函數的定義如式(5)和式(6)所示。

式中: -SIoU損失值;

——形狀損失;

—距離損失。

其中, (ω,h) 和 (ωgt,hgt) 分別表示預測框和真實框的寬和高, 9的值通過遺傳算法計算取得,表示對形狀損失的關注程度,

by)2,c。和cn分別表示最小外接矩形的寬和高, γ 計算如式(9)所示。

式中: # 預測框和真實框的中心點坐標。

SIoU損失函數在CIoU損失函數的基礎上規定了預測框向真實框靠近的方向,避免可預測框的游蕩現象,可以進一步提高模型的回歸精度,因此,使用SIoU損失函數計算回歸損失。

2.4柔性非極大值抑制Soft一NMS算法

使用柔性非極大值抑制算法(Soft—NMS)[21]替換非極大值抑制算法(NMS)算法作為改進模型的預測框過濾算法。自然環境下茶葉嫩芽間存在遮擋,同一茬口處茶葉嫩芽分布密集,導致被檢測茶葉嫩芽重疊比例較高。如果被檢測物體密集分布,則邊界框之間重疊較大,NMS算法在選擇具有高置信度的邊界框時會忽略其他具有較低置信度但仍然有效的邊界框,導致一些被遮擋茶葉嫩芽的邊界框被錯誤地抑制或移除,Soft—NMS算法的替換可有效解決上述錯誤抑制導致的漏檢問題。

與傳統NMS算法采用類硬閥值來判斷相鄰檢測框是否保留不同,Soft—NMS首先選定一個分數最高的預測框作為基準框,進而計算基準框與同類別其他預測框的 IoU ,當 IoU 值小于人工設定的閾值時,該預測框不被抑制;反之,則對該預測框的置信度使用得分衰減函數機制進行計算,而非徹底將其得分直接置為0分[22]。

Soft一NMS的重疊邊界框得分衰減機制使得抑制效果在重疊區域內平滑過渡,能夠更好地保留被遮擋目標的檢測結果,Soft一NMS計算如式(1O)所示。

式中: Si —候選框 bi 的置信得分;σ 控制衰減速度的參數;(204號 M ——最大得分框;Nt -IoU閾值,控制是否對得分進行衰減。

3模型訓練與評價指標

3.1 試驗平臺

試驗環境為Windows1O操作系統,處理器型號為Intel(R)Core(TM)i5—13600KF CPU @3.5GHz ,系統內存為32GB,NVIDIAGeForceRTX3060顯卡,顯存為 12GB 。深度學習框架采用PyTorch1.12.1,編程平臺為PyCharm,編程語言為Python3.8,所有算法均在相同環境下運行。

3.2 模型訓練參數

模型訓練時,使用標準的隨機梯度下降法訓練模型,動量設置為0.937,初始學習率為0.01,權重衰減為0.0005。考慮到模型訓練時硬件平臺的GPU內存限制,將輸入圖片大小調整為640像素 ×640 像素,batchsize設置為16,訓練300個epoch。

3.3 評價指標

采用精確率 (P) 、召回率 (R) 、平均精度均值(mAP) 、權重大小(Weights)檢測速度 (FPS) 、模型參數量(Params)等指標對模型的性能進行評價。其中精確率 P 、召回率 R 和平均精度均值 mAP 的計算如式(11)~式(12)所示。

式中: TP 一 1 被正確檢測出的目標數,即實際為正樣本,檢測也為正樣本;FP 被錯誤檢測出的目標數,即實際為負樣本,被檢測為正樣本;FN- 檢測錯誤的目標數,即實際為正樣本,被檢測為負樣本。

由于本研究僅識別LJ43標簽嫩芽,即分類的類別數 C=1 。因此, mAP 即為平均精度 AP 。

4 結果與分析

4.1改進算法的消融實驗性能對比

為評估上述改進中每一個關鍵模塊的有效性,進行消融實驗,以分析不同模塊對檢測算法性能的影響。以未做任何改進的原始YOLOv5s為基準,將原始模型中特征提取網絡和特征融合網絡中的普通卷積層替換為深度可分離卷積GhostConv,添加注意力模塊CA,再替換損失函數SIoU_Loss和柔性非極大抑制Soft—NMS進行實驗,“ √ ”表示引入該方法,使用4種改進方法的模型為TN—YOLOv5s,實驗結果如表2所示。

為降低模型的參數量,在原始YOLOv5s引入GhostNet結構,即將普通卷積層替換為Ghostconv。由表2可知,通過引入GhostConv模塊來構建整個量化模型,模型參數量下降 47.53% ,而 mAP 僅下降0.4% ,實驗說明GhostNet結構的引人能夠有效減少模型的參數量。但模型嫩芽精確率略有降低,主要原因在于引入GhostNet結構,簡化模型網絡結構的同時,損失部分嫩芽特征信息。

為減少部分嫩芽特征損失對模型的影響,在骨干網絡末端加入CA注意力機制。由表2可知,相比未添加注意力機制的YOLOv5s一GC模型,模型參數量只提升 0.70% ,而 mAP 提升 4.9% 。因此,添加注意力機制能夠促進不同通道嫩芽有效信息的交互和傳遞,抑制無關信息,提升模型的檢測性能。

為提升模型對小目標嫩芽檢測精度,使用SIoU替換CIoU。由表2可知,檢測精確率提高 2.7% ,mAP 值提升 0.8% 。說明SIoU的替換考慮嫩芽預測框方向匹配問題,能夠更好地優化嫩芽預測框的位置。

表2消融實驗結果Tab.2 Results of ablation test

GhostConv結構的引入、注意力機制CA的添加和SIoU的替換使模型的檢測性能得到提升,但當目標密集分布時,模型存在漏檢問題。主要原因在于YOLOv5s采用NMS作為算法的后處理方法,抑制多余候選框,但對于高密度重疊目標存在一次抑制從而發生漏檢現象。由表2可知,替換柔性非極大抑制Soft一NMS后,模型檢測精確率和召回率分別提高0.7% 、 2.0% , mAP 提升 1.1% 。柔性非極大抑制Soft一NMS減少重復嫩芽檢測框的影響,有效提高模型對相互遮擋嫩芽的檢測性能。

最終,改進后TN—YOLOv5模型的精確率、召回率和 mAP 比原YOLOv5s模型分別高出 7.1% 、5.9%.6.4% 。為更直觀地展示改進后模型的性能,圖11為原模型和改進后模型的性能曲線對比。通過消融實驗證實改進方法可以改善模型對夏茶茶葉嫩芽的檢測性能。

4.2不同目標檢測模型的對比試驗

為更全面地驗證改進后網絡模型的性能,在同一試驗環境下與一些經典的目標檢測模型進行對比試驗。將TN—YOLOv5s 與 Faster R—CNN23]、 SSD[24] YOLOv3[25]、YOLOv4[26]、YOLOv4—Tiny[27]YOLOv8s28算法進行試驗對比,結果如表3所示。

表3不同網絡模型的試驗結果對比 Tab.3 Comparison of experimental results of different network models

由表3可知,TN—YOLOv5s模型相比于其他主流檢測模型,不僅有最小的模型體積,同時保持最高的檢測精度,推理速度也能夠滿足對茶葉嫩芽的實時檢測。TN—YOLOv5s模型相比于雙階段檢測模型FasterR-CNN的平均精度均值高出 31.53% ,相比于單階段目標檢測模型SSD、YOLOv3、YOLOv4、YOLOv4—Tiny、YOLOv5s、YOLOv8s的平均精度均值分別高出31.12%.20.55%.16.41%.24.08%.6.4%.3.5%

綜上,TN—YOLOv5s算法在保持輕量化的同時有著最高的檢測精度,同時能夠滿足實時性的要求,整體表現較為突出,證明改進模型對茶葉嫩芽識別的可

行性和優越性。

4.3不同場景下的檢測效果對比分析

為驗證TN—YOLOv5s算法在不同場景對茶葉嫩芽檢測的泛化性和魯棒性,更直觀地呈現識別效果,將原始YOLOv5s模型和TN—YOLOv5s模型在384張測試集上進行對比試驗,隨機各選擇順逆光、不同時段和相互遮擋3種情況下不同標簽對應的1張茶葉圖像進行展示。原始YOLOv5s和TN—YOLOv5s模型在順光和逆光條件的茶葉嫩芽檢測效果如圖12所示。

圖12順逆光場景YOLOv5s改進前后茶葉嫩芽檢測效果對比

原始YOLOv5s和TN—YOLOv5s模型對一天內不同時段的茶葉嫩芽檢測效果如圖13所示,分別為早晨、上午、下午、傍晚時間段下的茶葉嫩芽檢測效果。

圖13一天中不同時段場景YOLOv5s改進前后茶葉嫩芽檢測效果對比

Fig.13Comparison of tea budsdetection effectof YOLOv5s before and after improvement in different time of day scenarios

TN—YOLOv5s模型對茶葉嫩芽間相互遮擋導致漏檢的改善效果如圖14所示。

圖14遮擋情況下茶葉嫩芽漏檢情況改善效果圖 Fig.14Improvementeffectof tea budsleakagedetection in the case of shading

由圖14可知,由于茶葉嫩芽目標較小,處于的場景較為復雜,原始YOLOv5s模型對于不同場景下的茶葉嫩芽出現漏檢現象,且檢測出的目標置信度略有降低。TN—YOLOv5s模型對茶葉圖像進行檢測時具有更高的置信度分數,且出現的茶葉嫩芽目標全部被識別出。

5 結論

為提高田間自然場景下夏茶茶葉嫩芽檢測的實時性和準確性要求,改進YOLOv5s檢測模型。

1)在原始YOLOv5s基礎上引入GhostNet網絡結構,增加CA空間注意力機制,替換SIoU損失函數,替換Soft—NMS非極大抑制算法,得到優化后的TN一YOLOv5s模型。結果表明,改進后TN—YOLOv5s模型的精確率、召回率和平均精度均值分別提高 7.1%.5.9%.6.4% ,模型參數量降低 47.17% 相比于原模型在保持輕量化的同時提高檢測精度。

2)將TN—YOLOv5s分別與Faster—RCNN、SSD、YOLOv3、YOLOv4、YOLOv4—tiny、YOLOv5s、YOLOv8s模型進行試驗對比。結果表明,改進模型的平均精度比其他7種算法分別高出 31.53%.31.12% 20.55%.16.41%.24.08%.6.4%.3.5% ,且模型權重大小只有 7.48MB ;雖然檢測速度低于YOLOv4—tiny、YOLOv5s和YOLOv8s模型,但仍能滿足對茶葉嫩芽實時檢測的要求。

3)驗證結果表明,TN—YOLOv5s模型在順逆光、一天中不同時間段和遮擋情況下均表現出較好的識別效果,并明顯改善原始算法因茶葉嫩芽間相互遮擋產生的漏檢情況。說明基于TN一YOLOv5s的夏茶茶葉嫩芽檢測算法具有較好的田間魯棒性。

參考文獻

[1]宋志禹,韓余,丁文芹,等.茶園機械研究“十三五\"進展及“十四五”發展方向[J].中國茶葉,2021,43(10):26-33.Song Zhiyu,Han Yu,DingWenqing,et al.Tea gardenmachineryresearchprogressduringthel3thFive-Yearplanperiod and development direction in the l4th Five-Yearplanperiod[J].ChinaTea,2021,43(1O):26-33.

[2]王宏亮.夏秋茶茶多酚提取分離、純化及淀粉樣纖維一EGCG水凝膠安全性評價[D].南京:南京農業大學,2020.

[3]李亞濤.茶葉采摘機器人的視覺檢測與定位技術研究[D].杭州:浙江理工大學,2022.

[4]鄭航,傅童,薛向磊,等.茶葉機械化采摘技術研究現狀與展望[J].中國農機化學報,2023,44(9):28-35.ZhengHang,Fu Tong,Xue Xianglei,etal.Researchstatusandprospect ofteamechanizedpickingtechnology[J].JournalofChineseAgriculturalMechanization,2023,44(9):28-35.

[5]羅澤涌,陳建,方晶晶,等.我國丘陵山區茶園種植機械化現狀與發展研究[J].農機化研究,2020,42(2):1—7.

[6]汪建.結合顏色和區域生長的茶葉圖像分割算法研究[J].茶葉科學,2011,31(1):72-77.Wang Jian. Segmentation algorithm of tea combined withthe color and region growing[J]. Journal of Tea Science,2011,31(1):72—77.

[7]吳雪梅,張富貴,呂敬堂.基于圖像顏色信息的茶葉嫩葉識別方法研究[J].茶葉科學,2013,33(6):584—589.

[8] Zhang L,Zou L,Wu C,et al. Method of famous teasprout identification and segmentation based on improvedwatershed algorithm [J]. Computers and Electronics inAgriculture,2021,184:106108.

[9]Wang T,Zhang K,Zhang W,et al. Tea picking pointdetection and location based on Mask—RCNN[J].Information Processing in Agriculture, 2023:10(2):267-275.

[10]Li Y,He L,Jia J,etal.High-efficiency tea shootdetection methodvia a compressed deeplearningmodel [J]. International Journal of Agricultural andBiological Engineering,2022,15(3):159-166.

[11]王夢妮,顧寄南,王化佳,等.基于改進YOLOv5s模型的茶葉嫩芽識別方法[J].農業工程學報,2023,39(12):150—157.Wang Mengni,Gu Jinan,Wang Huajia,et al. Method foridentifying tea budsbased on improved YOLOv5smodel [J]. Transactions of the Chinese SocietyofAgricultural Engineering,2023,39(12):150—157.

[12]寇雷雷,張紅娜.基于改進YOLOv5的蘋果采摘機器人多目標識別技術研究[J].中國農機化學報,2023,44(11):162—168.Kou Leilei,Zhang Hongna. Research on multi-targetrecognition technology of apple picking robot based onimproved YOLOv5[J]. Journal of Chinese AgriculturalMechanization,2023,44(11):162-168.

[13]Gui Z,Chen J,LiY,et al.A lightweight tea buddetection model based on YOLOv5[J]. Computers andElectronics in Agriculture,2023,205:107636.

[14]尚鈺瑩,張倩如,宋懷波.基于YOLOv5s的深度學習在自然場景蘋果花朵檢測中的應用[J].農業工程學報,2022,38(9):222-229.Shang Yuying,Zhang Qianru,Song Huaibo. Applicationof deep learning using YOLOv5s to apple flower detectionin natural scenes [J]. Transactions of the Chinese Societyof Agricultural Engineering,2022,38(9): 222-229.

[15]Han K,Wang Y,Tian Q,et al. Ghostnet: More featuresfromcheapoperations[C].ProceedingsoftheRecognition,2020:1580—1589.

[16]Hu J, Shen L, Sun G.Squeeze-and-excitationnetworks [C]. Proceedings of the IEEE Conference onComputerVision and Pattern Recognition, 2018:7132—7141.

[17]Woo S,Park J,Lee J Y,et al. CBAM:Convolutionalblock attention module [C].Proceedings of the EuropeanConference on Computer Vision(ECCV),2018: 3-19.

[18]Hou Q,Zhou D,Feng J,et al.Coordinate attention forefficient mobile network design [C]. 2021 IEEE/CVFConference on Computer Vision and Pattern Recognition(CVPR). IEEE,2021:13708—13717.

[19]李光明,弓皓斌,袁凱.基于輕量化YOLOv5s的花椒簇檢測研究[J].中國農機化學報,2023,44(4):153—158.Li Guangming,Gong Haobin,Yuan Kai.Research onliightweightpepper cluster detection based onYOLOv5s[J].JournalofChinese AgriculturalMechanization,2023,44(4):153—158.

[20]Gevorgyan Z. SIoU loss:More powerful learning forbounding box regression [J]. arXivpreprintarXiv:2205.12740,2022.

[21]Bodla N,Singh B,Chellappa R,et al.Soft—NMSimproving object detection with one line of code [C].Proceedings of the IEEE International Conference onComputer Vision,2017:5561-5569.

[22]郝鵬飛,劉立群,顧任遠.YOLO—RD—Apple果園異源圖像遮擋果實檢測模型[J].圖學學報,2023,44(3):456—464.Hao Pengfei,Liu Liqun,Gu Renyuan.YOLO—RD—Apple orchard heterogenous image obscured fruit detectionmodel[J]. Journal of Graphics,2023,44(3):456-464.

[23]Ren S,He K,Girshick R,et al. Faster R—CNN:Towards real-time object detection with region proposalnetworks[J]. Advances in Neural Information ProcessingSystems,2015,28.

[24] Liu W,Anguelov D,Erhan D,et al. SSD: Single shotmultibox detector[C]. Computer Vision—ECCV.Springer International Publishing,2O16:21—37.

[25]Redmon J,Farhadi A. YOLOv3:An incrementalimprovement[J]. arXiv preprint arXiv: 1804.02767,2018.

[26]Bochkovskiy A,Wang C Y,Liao H Y M. YOLOv4:Optimal speed and accuracy of object detection [J].arXivpreprint arXiv: 2004.10934,2020.

[27]Jiang Z,Zhao L,Li S,et al. Real-time object detectionmethod based on improved YOLOv4—tiny[J].arXivpreprint arXiv:2011.04244,2020.

[28]Terven J,Cordova-Esparza D.A comprehensive review ofYOLO: From YOLOvl to YOLOv8 and beyond [J].arXiv nrenrint arXiv:2304. 00501.2023.

猜你喜歡
卷積茶葉精度
基于無人機多光譜遙感和機器學習的棉花SPAD值預測
基于改進YOLOx-s的無人機橋梁裂縫檢測算法
基于LPQ和NLBP的特征融合算法及其應用
清代東北地區茶文化考
山東省特色農產品出口發展研究
財務風險管理對預算編制精度的動態影響分析
基于ResNet18改進模型的玉米葉片病害識別
不同品種永泰綠茶的靶向及廣泛靶向代謝組學分析
基于高光譜技術的庫爾勒香梨成熟度檢測
果園復雜環境下的酥梨檢測算法研究
主站蜘蛛池模板: 亚洲男人的天堂在线观看| 99re热精品视频中文字幕不卡| 国产女人18水真多毛片18精品| 999国产精品| 亚洲黄色网站视频| 国产成人精品一区二区不卡| 国产福利免费观看| 无码人中文字幕| 强乱中文字幕在线播放不卡| 亚洲丝袜中文字幕| 欧美第一页在线| 国产主播福利在线观看| 九九九精品成人免费视频7| 国产综合色在线视频播放线视 | 91九色最新地址| 国产在线八区| 亚洲综合色婷婷| 久久综合伊人 六十路| 狠狠干综合| 国产凹凸视频在线观看| 91精品网站| 亚洲日韩久久综合中文字幕| 久久一本日韩精品中文字幕屁孩| 一区二区三区国产精品视频| 国产成人精品第一区二区| 丝袜高跟美脚国产1区| 高潮毛片无遮挡高清视频播放 | 欧美色视频网站| 久久公开视频| 9久久伊人精品综合| 日韩大片免费观看视频播放| 国产视频你懂得| 国产精品不卡片视频免费观看| 久久精品亚洲专区| 中文字幕调教一区二区视频| 国产日本一区二区三区| a免费毛片在线播放| аv天堂最新中文在线| 免费看a级毛片| 一级黄色欧美| 91精品国产91久无码网站| 91精品国产无线乱码在线| 99久久精品无码专区免费| 国产xx在线观看| 日韩在线第三页| 欧美性久久久久| 日日碰狠狠添天天爽| 亚洲国产中文在线二区三区免| 免费毛片网站在线观看| 亚洲精品你懂的| 无码一区二区波多野结衣播放搜索| 国产精品xxx| 国产性爱网站| 啦啦啦网站在线观看a毛片| 国产91视频免费观看| 欧美国产在线精品17p| 国产无遮挡猛进猛出免费软件| 亚洲成人动漫在线| 日韩精品成人网页视频在线| 亚洲永久色| 在线99视频| 少妇极品熟妇人妻专区视频| www.国产福利| 国产97视频在线观看| 极品国产一区二区三区| 中文字幕首页系列人妻| 日本午夜影院| 国产日本一区二区三区| 国产成人亚洲精品色欲AV| 超级碰免费视频91| 亚洲欧洲自拍拍偷午夜色无码| 尤物在线观看乱码| 99热这里只有成人精品国产| 国产视频一二三区| 国产一级毛片网站| 中文无码日韩精品| 国产亚洲精品97AA片在线播放| 四虎AV麻豆| 亚洲成av人无码综合在线观看| 一级看片免费视频| 午夜无码一区二区三区| 亚洲天堂视频在线观看免费|