999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5s的茶葉嫩芽檢測

2024-01-01 00:00:00嚴蓓蓓紀元浩曲鳳鳳許金普
中國農機化學報 2024年4期

摘要:

為提高對茶葉嫩芽識別的準確率,提升自動采摘機器人的工作效率,減少人工采摘成本,提出一種對茶葉嫩芽目標檢測的模型。通過拍攝包含白豪早茶葉嫩芽圖片,進行篩選后得到179張圖像,使用Mosic數據擴增后獲得716張圖像,建立數據集,按照訓練集、測試集和驗證集7∶2∶1的比例劃分數據集。針對復雜背景下茶葉嫩芽存在重疊以及遮擋所導致的識別精準度低的問題,對YOLOv5s模型進行改動,在骨干網絡上增添注意力機制模塊SE和CBAM進行比較;Neck網絡由原來的PAFPN改為可以進行雙向加權融合的BiFPN,Head結構增加淺層下采樣的P2模塊,提出一種茶葉嫩芽檢測的模型。試驗表明YOLOv5s添加SE模塊結合BiFPN時模型具有更高的檢測精度,并對試驗結果進行十折交叉驗證,相較于基線精確率提高10.46%,達到88.30%,平均精度均值mAP提高6.47%, 達到85.83%。最后使用相同的數據集和預處理方法對比YOLOv5m、Faster R-CNN 和 YOLOv4-tiny,證明該試驗方法綜合強于其他經典深度學習方法,能更有效地提升茶葉嫩芽檢測精準度,可以為茶葉自動采摘機器人提供理論依據。

關鍵詞:茶葉;嫩芽檢測;YOLOv5s;注意力機制;雙向特征金字塔

中圖分類號:S571.1; TP391.4

文獻標識碼:A

文章編號:2095-5553 (2024) 04-0168-07

收稿日期:2023年3月17日" 修回日期:2023年11月16日

基金項目:山東省重大科技創新工程(2021LZGC014—3);嶗山茶產業創新團隊(LSCG2022000017)

第一作者:嚴蓓蓓,女,1998年生,山東日照人,碩士研究生;研究方向為農業工程與信息技術。E-mail: 1239937110@qq.com

通訊作者:許金普,男,1979年生,山東博興人,博士,副教授,碩導;研究方向為農業信息技術。E-mail: xjp@qau.edu.cn

Detection of tea buds based on improved YOLOv5s

Yan Beibei1, Ji Yuanhao1, Qu Fengfeng2, Xu Jinpu1

(1. College of Animation and Media, Qingdao Agricultural University, Qingdao, 266109, China;

2. College of Horticultural, Qingdao Agricultural University, Qingdao, 266109, China)

Abstract:

In order to improve the accuracy of tea bud recognition, improve the efficiency of automatic picking robot and reduce the cost of manual picking, this paper proposes a model for tea bud target detection. Through taking pictures of the buds of Baihao early tea, 179 images were obtained after screening, and 716 images were obtained after using Mosc data amplification. The data set was established, and the data set was divided according to the 7∶2∶1 ratio of training set, test set and validation set. In view of the low recognition accuracy caused by the overlap and occlusion of tea buds under complex background, this paper modifies the YOLOv5s model and adds the attention mechanism module SE and CBAM to the backbone network for comparison. The Neck network is changed from the original PAFPN to the BiFPN that can carry out two-way weighted fusion. The Head structure adds a P2 module for shallow sampling, and proposes a tea bud detection model. The experiment shows that the model has higher detection accuracy when YOLOv5s adds SE module combined with BiFPN, and the experimental results are cross-verified with ten folds. Compared with the baseline accuracy, the accuracy rate is increased by 10.46%, reaching 88.30%, and the average accuracy mAP is increased by 6.47%, reaching 85.83%. Finally, using the same data set and preprocessing method to compare YOLOv5m, Faster R-CNN and YOLOv4-tiny, it is proved that the experimental method proposed in this paper is more comprehensive than other classical deep learning methods, can more effectively improve the accuracy of tea bud detection and can provide theoretical basis for the tea automatic picker.

Keywords:

tea; bud detection; YOLOv5s; attention mechanism; bidirectional feature pyramid

0 引言

目前,從茶葉采摘來看,大部分茶葉嫩芽進行人工或采茶機采摘,人工采摘茶葉嫩芽具有成本高,效率低等缺點,現有機械采茶機大部分缺乏選擇性,無法保證茶葉的品質[1]。隨著人工智能的發展,機器視覺與深度學習的結合可以使茶葉嫩芽檢測更加精準,茶葉嫩芽智能化采摘不僅可以降低采摘成本,還能實現精準采摘,更好地保證茶葉的完整性和品質,也是茶葉生產信息化、機械化的重要前提[2]。因此,對茶葉嫩芽進行目標檢測和精準定位不僅可以減少人工采摘成本,提高工作效率,還可以保證鮮茶嫩芽的品質。

近幾年,基于深度學習[3]的目標檢測技術在農業方面有越來越多的應用。關于圖像目標檢測,一般分為兩種:一類是一步式(One-stage detectors),會直接產生物體的類別概率和位置坐標值,比如YOLO[4, 5],SSD[6]。Xu等[7]結合YOLOv3網絡的快速檢測能力和DenseNet201實現茶葉嫩芽的準確檢測,比較頂芽和側芽兩種拍攝方式下,表明該方法對側芽的檢測準確率高。胡根生等[8]使用YOLOv5進行檢測,用卷積核組增強對茶尺蠖的特征提取,達到96%的精確率和92.89%的平均精度均值。方夢瑞等[9]在頸部網絡添加52×52的淺層特征層以提升對小目標嫩芽的關注度,引入卷積塊注意力機制提出模型YOLOv4-tiny-Tea,進行訓練和測試,檢測精確率和召回率分別為97.77%和95.23%;另一類是兩步式(two-stage detectors),先產生候選區域,然后對候選區域分類,如R-CNN,Fast R-CNN等,以區域特征為基礎,再進行內部識別。許寶陽等[10]采用的Faster R-CNN深度學習模型對不同角度、不同天氣狀況下茶葉嫩芽進行識別,得到陰天、霧天拍攝時識別效果較差的結論。李旭等[11]探索了基于Faster R-CNN在復雜背景下茶葉嫩芽檢測的應用,對比基于顏色特征和閾值分割的茶葉嫩芽識別算法,剔除單芽時,一芽一葉/二葉的AP為0.76,RMSE為2.19。此外,還有部分研究采用閾值分割[12]的方法對復雜背景下茶葉嫩芽進行檢測,汪建[13]利用茶葉圖像的色調H和飽和度S分量圖進行嫩芽區域分割,對距離不同的嫩芽圖像進行組合和分割,平均分割精確率為89.8%。龍樟等[14]采用大津法(OTSU)進行閾值分割獲得嫩芽分割圖像,設計采摘點定位算法,可以為采摘機器人采摘精準度提供理論依據。

通過上述研究發現,對復雜背景下茶葉嫩芽的檢測的研究較少,在茶葉嫩芽目標檢測中還存在嫩芽大小形狀不一、遮擋重疊情況嚴重等一系列影響檢測茶葉嫩芽精度的問題,而采摘茶葉嫩芽對準確度要求較高,因此復雜背景對茶葉嫩芽的檢測會消耗大量的成本,近幾年茶葉智能采摘工作進展情況較為緩慢[15]。研究選用YOLOv5s,通過改進網絡結構,以達到提高茶葉嫩芽檢測精度的目的,從而為茶葉智能采摘提供理論依據。

1 材料與方法

1.1 圖像采集與預處理

山東省是著名的茶葉生產大省,青島在種植茶樹上也發揮了重要的作用。本文以嶗山綠茶為研究對象,試驗拍攝茶葉嫩芽地點為山東省青島市嶗山區碧海藍田茶園,青島嶗山區位于北緯36°08′,東經120°34′。茶葉品種選取了嶗山區種植面積較大的白豪早,拍攝時間為夏季,分別拍攝上午9:00和11:00的茶葉嫩芽。所使用的相機型號為佳能EOS 700D,拍攝圖片分辨率為2 592像素×1 456像素,焦距31 mm,光圈數f/81,圖像采集過程中,將相機與嫩芽間的距離保持在30~50 cm左右,確保嫩芽和老葉都在鏡頭內,茶葉采集圖片如圖1所示。

本文主要目的是提高在自然條件復雜背景下茶葉嫩芽的檢測效果,為提升模型的魯棒性,在篩選照片的時候,選擇有重疊情況以及茶葉嫩芽被遮擋情況的圖片。最終篩選出來較為清晰的茶葉嫩芽圖片。共得到清晰良好圖片179張,標注的白豪早茶葉嫩芽圖片包含單芽、一芽一葉、一芽兩葉,如圖2所示,本文試驗中所用數據集的茶葉嫩芽圖片包含三種類型。

1.2 數據集制作

圖片隨機裁剪為尺寸416×416,利用數據集標注工具labelImg標注圖片,將茶葉單芽、一芽一葉、一芽兩葉標簽均設置為“nenya”,得到包含茶葉嫩芽的.xml文件。本文采用YOLOv5訓練模型,使用python編程將標簽格式修改為.txt格式,建立數據集,并且按照7∶2∶1的比例構建訓練集、測試集和驗證集。

為模擬自然環境下茶葉嫩芽的生長狀態,對訓練集進行了數據增強[16],對茶葉嫩芽進行隨機縮放、隨機裁剪、隨機排布,隨機縮放范圍為[0.5,1.5],本次試驗縮放因子為0.5,使用mosaic拼接法,隨機截取并混合4張具有不同語義信息的圖片,讓模型檢測超出常規情況下的嫩芽目標,還可以達到加強批歸一化層(Batch Normalization)的效果,結合所標注的原始樣本,共獲得716幅圖像。拼接結果如圖3所示。

1.3 YOLOv5s網絡

YOLOv5s主要由骨干網絡(Backbone)、頸部(Neck)和預測層(Prediction)三個部分組成,骨干網絡由Focus、CSP、SPP等模塊組成。相比于YOLOv3、YOLOv4多出Focus結構,最重要的是切片操作,原始圖像輸入先進行切片操作,再經過32個卷積核進行卷積,獲得特征圖。YOLOv5s中CSP1_X結構應用于主干網絡,CSP2_X結構則應用于頸部網絡中。YOLOv5s采用SPP模塊(Spatial Pyramid Pooling)用 3個不同的卷積核進行最大池化,然后進行拼接來利用多尺度特征信息,提高檢測精度。頸部采用FPN+PAN結構[17],可以進一步提高特征提取的能力。在輸出端,使用非極大值抑制(Non-Maximum Suppression,NMS)[18]獲得最終預測框。在出現同樣的參數情況下,將IOU nms修改成DIOU nms,損失函數也由IOU loss修改成DIOU loss,對一些重疊目標進行檢測時,會有一些改進。

在自然條件下,茶樹生長茂盛,茶葉嫩芽在復雜背景下有很多遮擋情況,還有部分重疊使得茶葉嫩芽的顯著性弱,識別起來有一定的難度[19],加上茶葉嫩芽與老葉的差距不夠明顯,現有模型對茶葉嫩芽的檢測會出現很多漏檢以及誤檢的情況。本試驗選用YOLOv5s為基線網絡,頸部網絡由原來的PAFPN結構改成雙向特征金字塔網絡BiFPN[20](Bidirectional feature pyramid network),骨干網絡添加SE和CBAM注意力機制進行比較。最后在YOLOv5s模型的基礎上,選擇在骨干網絡上添加SE注意力機制,提高模型對小目標的檢測,改進后的模型名稱為YOLOv5s-Tea。

1.4 試驗環境及模型參數配置

試驗采用的處理器為Intel Core i7 12 700,內存16 GB,顯卡為NVIDIA GeForce RTX 3080,運行內存32 GB,深度學習框架為TensorFlow2.7.1,編程語言為Python3.7.0。本文對比算法均在該硬件環境下進行。

1.5 模型評價指標

為了評價茶葉嫩芽檢測模型YOLOv5s-Tea的檢測性能,本文采用4種性能指標:精確率(Precision)、召回率(Recall)、平均精度均值(mAP)、精確率和召回率的調和平均F1-Score,計算見式(1)~式(3)。

2 基于改進YOLOv5s的茶葉嫩芽識別模型結構

2.1 YOLOv5骨干網絡優化

在檢測任務中,注意力模塊可以幫助模型有效的提取注意區域,提高模型檢測性能[21]。SE[22](Squeeze-and-Excitation)注意力機制和CBAM[23](Convolutional Block Attention Module)注意力機制是2種常用于圖像識別任務中的注意力機制。CBAM注意力模塊主要包含2個子模塊:通道注意力和空間注意力,可以應用于小目標尺寸較小、特征少且不明顯的情況下,CBAM的優點在于可以增強模型的表征能力,從而提高模型的性能;SE注意力機制包括一個全局平均池化層和兩個全連接層,該機制的特點是能夠通過學習特征圖中每個通道的重要性權重來提高模型性能,不會增加額外的計算成本,SE模塊只涉及2個簡單的操作,可以輕松地與不同的卷積神經網絡結構集成,能夠更加準確地捕捉每個通道的重要性信息從而提高網絡性能。CBAM注意力機制相較于SE注意力機制更加復雜,計算成本也更高。

本試驗對YOLOv5s網絡進行優化改進,引入2種注意力模塊進行對比,分別是CBAM模塊和SE模塊。初始學習率為0.001,batch size設置為48,epoch設置為300。圖4是訓練集目標精確度,由圖4可知YOLOv5s添加SE注意力模塊的精確度較高,效果更好,收斂速度快,可以提高模型檢測性能。

2.2 YOLOv5s算法Neck和Head網絡優化

YOLOv5s中的PANet[24]通過自頂向下和自底向上的路徑聚合實現多尺度特征融合,在效果上有一定優勢,由于PAFPN網絡中包含多個特征層,且這些特征層之間存在相互交錯和信息流動,因此在訓練時容易出現梯度消失問題。

如圖5所示BiFPN采用跨連接,BiFPN在每個層級,使用一個自適應的特征融合模塊,將同一層級內的不同尺度的特征進行融合[25]。BiFPN通過雙向連接在不同層級的特征金字塔上建立前向和后向的跨層特征傳遞路徑,可以增強語義表達和區分能力。BiFPN采用分離式卷積和輕量化設計,可以提高效率,也能減少參數量和計算量[26]。相比于PAFPN結構,BiFPN有更好的檢測性能,更能提升模型的魯棒性。本試驗將原始PANet網絡換成BiFPN網絡進行模型優化。

圖6網絡結構圖為改進后的YOLOv5s骨干網絡結構,優化的模型為添加SE注意力機制,在頸部添加BiFPN結構,其輸出結果與P3、P4和P5特征進行融合輸出后共同輸入至下一級Neck網絡。

Yolov5中的Head網絡[27]把下采樣為32、16和8的卷積輸出結果作為輸入特征,分別與圖5中P3、P4、P5一一對應,為提高復雜背景下小目標位置檢測精度,進行改進:將淺層特征輸出P2(4倍下采樣率)作為Neck網絡的一個輸入特征,共同融合P3、P4和P5特征,這樣,Head分支的輸入就包含4個不同尺度的特征,模型檢測精度會有所提升,其優化結果如圖7所示。

圖8為模型優化后的訓練集精確度,可以看出添加兩種注意力模塊都會對模型的收斂速度和穩定性有一定的提升,但是YOLOv5s添加SE注意力模塊比添加CBAM注意力模塊結合BiFPN精確度更快,效果更好。

2.3 算法優化試驗對比分析

表1為YOLOv5s模型添加不同改進方法對模型性能的影響。

可以看出,相比YOLOv5,單獨添加CBAM、SE或者添加BiFPN在精確率上比基線分別提升5.93%、7.6%、6.24%,平均精度均值分別提升-3.86%、5.38%、0.85%。通過試驗結果可以證實分別對YOLOv5骨干網絡和Neck網絡以及Head網絡進行優化確實能夠提升模型對茶葉嫩芽的檢測性能。最終模型YOLOv5s-Tea精確率、召回率以及平均精度均值相比基線分別提升12.14%、11.19%和5.82%。

2.4 算法優化后的茶葉嫩芽實例檢測

使用YOLOv5s和YOLOv5s-Tea對相同的茶葉嫩芽圖片進行檢測,檢測結果如圖9所示。

圖9(a)為YOLOv5s檢測結果,圖9(b)為YOLOv5s-Tea檢測結果,可以看出,兩種模型基本都能檢測出較明顯的茶葉嫩芽,圖9(b)右圖中遮擋部分的茶葉嫩芽會被精準識別,說明模型在改進后,精確率會比YOLOv5s高,YOLOv5s-Tea能夠加強模型對重疊情況下茶葉嫩芽的檢測能力。因此,改進后的模型整體性能得到提升,可以減少茶葉嫩芽漏檢誤檢情況。

2.5 YOLOv5s-Tea十折交叉驗證

為防止數據集數量過少導致模型的過擬合以及數據結果的偶然性,YOLOv5s-Tea采用十折交叉驗證法(10-fold cross-validation)用來測試算法準確性,通過擴大訓練圖像數量進行大量試驗。初始學習率為0.001,batch size為48,epoch為300。YOLOv5s-Tea進行十折交叉驗證后精確率為88.30%,召回率為91.86%,平均精度均值為85.83%,F1-Score為82.09%。相較于進行一次試驗,精確率、召回率、平均精度均值、F1-Score的方差分別為0.001 5、0.002 7、0.001 4、0.001 1,數據證實進行十折交叉驗證有一定的效果,可以獲得較小誤差的結果。

2.6 不同模型的對比試驗

為驗證本文提出的YOLOv5-Tea網絡相較于其他目標檢測算法的優越性,進行試驗做出比較,包括YOLOv5m、YOLOv4-tiny[27]和Faster-Rcnn[28]。利用相同的數據集進行模型訓練和測試,試驗相關參數保持一致,利用精確率、召回率、平均精度均值、F1-Score、模型大小和檢測速度對模型整體性能進行評估,結果如表2所示。

本文提出的YOLOv5s-Tea與YOLOv5s、YOLOv5m、YOLOv4-tiny和Faster R-CNN模型對比,平均精度均值分別高6.47%、16.01%、9.96%、11.05%,召回率分別高12.25%、6.4%、8.09%、11.24%,與精確率最高的YOLOv5m相比,YOLOv5s-Tea模型大小僅占其39%。

由試驗結果可以看出YOLOv5s-Tea對白豪早嫩芽檢測上體現出一定程度的優越性,可以提高檢測嫩芽的效率,更適應用于茶葉采摘機采摘茶葉嫩芽的需求。

3 結論

本文以復雜背景下小目標、易遮擋的白豪早茶葉嫩芽的檢測任務為目標,對目標檢測模型YOLOv5s進行改進,對YOLOv5s的骨干網絡增添注意力模塊CBAM和SE進行比較。

1) 從精確率、召回率以及mAP比較來看,添加SE模塊可以取得更好的效果;Neck結構由PaFPN改成BiFPN結構提高網絡的魯棒性,加強小目標的特征提取;在Head結構中增加下采樣較小的淺層特征P2進行特征輸出,最終完成改進后的YOLOv5s-Tea檢測模型的搭建,進行十折交叉驗證并試驗分析和評價。改進后的模型精確率較基線提升10.46%達到88.30%,mAP較基線提升6.47%達到85.83%,模型整體取得較好的效果。

2) 本文提出的茶葉嫩芽檢測模型可以加強模型對嫩芽遮擋問題,重合問題的檢測能力,能夠更準確地區分茶葉嫩芽和背景干擾,降低誤檢率,提升模型對復雜背景下嫩芽的檢測效果。但是還存在未區分實際場景時不同拍攝角度和拍攝天氣的局限性,下一步對模型進行繼續完善,為茶葉智能化采摘提供更精準的理論依據。

參 考 文 獻

[1] 羅浩倫, 馮澤霖, 冉鐘南, 等. 基于VGG16網絡的茶葉嫩芽自動檢測研究[J]. 農業與技術, 2020, 40(1): 15-17.

[2] 孫紅, 李松, 李民贊, 等. 農業信息成像感知與深度學習應用研究進展[J]. 農業機械學報, 2020, 51(5): 1-17.

Sun Hong, Li Song, Li Minzan, et al. Research progress of image sensing and deep learning in agriculture [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(5): 1-17.

[3] Tao W, Kunming Z, Wu Z, et al. Tea picking point detection and location based on Mask R-CNN [J]. Information Processing in Agriculture, 2023, 10(2): 267-275.

[4] Redmon J, Farhadi A. YOLO9000: Better, faster, stronger [C]. IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2017: 6517-6525.

[5] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection [C]. IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, 2016: 779-788.

[6] Rdje N, Gunnar Ellingsen, Tone Bratteteig, et al. ECSCW 2015: Proceedings of the 14th European Conference on Computer Supported Cooperative Work [C]. Springer, Cham: 2015.

[7] Xu Wenkai, Zhao Longgang, Li Juan, et al. Detection and classification of tea buds based on deep learning [J]. Computers and Electronics in Agriculture, 2022, 192.

[8] 胡根生, 吳繼甜, 鮑文霞, 等. 基于改進YOLOv5網絡的復雜背景圖像中茶尺蠖檢測[J]. 農業工程學報, 2021, 37(21): 191-198.

Hu Gensheng, Wu Jitian, Bao Wenxia, et al. Detection of ectropis oblique in complex background images using improved YOLOv5 [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(21): 191-198.

[9] 方夢瑞, 呂軍, 阮建云, 等. 基于改進YOLOv4-tiny的茶葉嫩芽檢測模型[J]. 茶葉科學, 2022, 42(4): 549-560.

Fang Mengrui, Lü Jun, Ruan Jianyun, et al. A tea sprout detection model based on improved YOLOv4 tiny [J]. Tea Science, 2022, 42 (4): 549-560

[10] 許寶陽, 高延峰. 基于Faster R-CNN深度學習的茶葉嫩芽多維度識別及其性能分析[J]. 農業裝備與車輛工程, 2023, 61(2): 19-24.

Xu Baoyang, Gao Yanfeng. Multidimensional recognition and performance analysis of tea tender buds based on Faster R-CNN deep learning [J]. Agricultural Equipment and Vehicle Engineering, 2023, 61 (2): 19-24.

[11] 李旭, 李振海, 楊海濱, 等. 基于Faster R-CNN網絡的茶葉嫩芽檢測[J]. 農業機械學報, 2022, 53(5): 217-224.

Li Xu, Li Zhenhai, Yang Haibin, et al. Tea bud detection based on faster R-CNN network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(5): 217-224.

[12] 姜苗苗, 問美倩, 周宇, 等. 基于顏色因子與圖像融合的茶葉嫩芽檢測方法[J]. 農業裝備與車輛工程, 2020, 58(10): 44-47.

Jiang Miaomiao, Wen Meiqian, Zhou Yu, et al. Tea bud detection method based on color factor and image fusion [J]. Agricultural Equipment amp; Vehicle Engineering, 2020, 58(10): 44-47.

[13] 汪建. 結合顏色和區域生長的茶葉圖像分割算法研究[J]. 茶葉科學, 2011, 31(1): 72-77.

Wang Jian. Segmentation algorithm of tea combined with the color and region growing [J]. Journal of Tea Science, 2011, 31(1): 72-77.

[14] 龍樟, 姜倩, 王健, 等. 茶葉嫩芽視覺識別與采摘點定位方法研究[J]. 傳感器與微系統, 2022, 41(2): 39-41.

Long Zhang, Jiang Qian, Wang Jian, et al. Research on method of tea flushes vision recognition and picking point localization [J].Transducer and Microsystem Technologies, 2022, 41(2): 39-41.

[15] 周巧黎, 馬麗, 曹麗英, 等. 基于改進輕量級卷積神經網絡MobileNetV3的番茄葉片病害識別[J]. 智慧農業(中英文), 2022, 4(1): 47-56.

Zhou Qiaoli, Ma Li, Cao Liying, et al. Identification of tomato leaf diseases based on improved lightweight convolutional neural networks MobileNetV3 [J]. Smart Agriculture, 2022, 4(1): 47-56.

[16] 張志遠, 羅銘毅, 郭樹欣, 等. 基于改進YOLO v5的自然環境下櫻桃果實識別方法[J]. 農業機械學報, 2022, 53(S1): 232-240.

Zhang Zhiyuan, Luo Mingyi, Guo Shuxin, et al. Cherry fruit detection method in natural scene based on improved YOLO v5 [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(S1): 232-240.

[17] Liu S, Qi L, Qin H, et al. Path aggregation network for instance segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 8759-8768.

[18] Neubeck A, Van Gool L. Efficient non-maximum suppression [C]. 18th International Conference on Pattern Recognition (ICPR’06). Hong Kong: IEEE, 2006, 3: 850-855.

[19] 劉剛, 馮彥坤, 康熙. 基于改進YOLO v4的生豬耳根溫度熱紅外視頻檢測方法[J]. 農業機械學報, 2023, 54(2): 240-248.

Liu Gang, Feng Yankun, Kang Xi. Detection method of pig ear root temperature based on improved YOLOv4 [J]. Transactions of the Chinese Society for Agricultural Machinery, 2023, 54(2): 240-248.

[20] Syazwany N S, Nam J H, Lee S C. MM-BiFPN: Multi-modality fusion network with Bi-FPN for MRI brain tumor segmentation [J]. IEEE Access, 2021: 160708-160720.

[21] 王卓, 王健, 王梟雄, 等. 基于改進YOLO v4的自然環境蘋果輕量級檢測方法[J]. 農業機械學報, 2022, 53(8): 294-302.

Wang Zhuo, Wang Jian, Wang Xiaoxiong, et al. Lightweight real-time apple detection method based on improved YOLOv4 [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(8): 294-302.

[22] Wang J, Luan Z, et al. Superpixel segmentation with squeeze-and-excitation networks [J]. Signal, Image and Video Processing, 2022, 16(5): 1-8.

[23] Woo S, Park J, Lee J Y, et al. CBAM: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision (ECCV). 2018: 3-19.

[24] Algorithms. Recent findings from Shanghai Jiao tong University has provided new information about algorithms (Detecting tomatoes in greenhouse scenes by combining AdaBoost classifier and colour analysis) [J]. Journal of Engineering, 2016: 795.

[25] 夏燁, 雷嘵暉, 祁雁楠, 等. 基于改進Ghost-YOLOv5s-BiFPN算法檢測梨樹花序 [J]. 智慧農業(中英文), 2022, 4(3): 108-119.

Xia Ye, Lei Xiaohui, Qi Yannan, et al. Detection of pear inflorescence based on improved Ghost-YOLOv5s-BiFPN algorithm [J]. Smart Agriculture, 2022, 4(3): 108-119.

[26] Guo C, Fan B, Zhang Q, et al. Improving multi-scale feature learning for object detection [J]. Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2020.

[27] Jiang Z, Zhao L, Li S, et al. Real-time object detection method based on improved YOLOv4-tiny [J]. arXiv Preprint, 2020, arXiv: 2011.04244.

[28] Shaoqing R, Kaiming H, Ross G, et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

主站蜘蛛池模板: 操操操综合网| 狠狠色婷婷丁香综合久久韩国| 91精品视频在线播放| 国产成人免费观看在线视频| 欧美一区二区人人喊爽| 国产人成在线视频| 91精品啪在线观看国产60岁 | 国产裸舞福利在线视频合集| 美女一级毛片无遮挡内谢| 久久国产亚洲欧美日韩精品| 国产亚卅精品无码| 91福利在线看| 97精品国产高清久久久久蜜芽| 亚洲综合二区| 亚洲成人高清在线观看| 国产免费高清无需播放器| 成人综合在线观看| 综合天天色| 精品国产自在在线在线观看| 一区二区三区在线不卡免费| 国产欧美高清| 欧美日本不卡| 国产在线视频福利资源站| 久久国产精品嫖妓| 97国产在线视频| 找国产毛片看| 欧美丝袜高跟鞋一区二区| 国产精品2| 四虎永久在线精品国产免费| 亚洲另类色| www.99在线观看| 四虎成人免费毛片| 国产在线精品99一区不卡| 国产精品成人不卡在线观看| 亚洲无码精品在线播放| 狠狠色丁香婷婷| 呦女精品网站| 精品亚洲欧美中文字幕在线看 | 日韩东京热无码人妻| 玩两个丰满老熟女久久网| 国产成人综合日韩精品无码首页| 亚洲日韩精品欧美中文字幕| 又粗又大又爽又紧免费视频| 国内老司机精品视频在线播出| 视频一本大道香蕉久在线播放 | 亚洲浓毛av| 久精品色妇丰满人妻| 成人中文字幕在线| 日韩专区欧美| 日本高清在线看免费观看| 日韩精品亚洲精品第一页| 最新日本中文字幕| 中文字幕日韩视频欧美一区| 精品欧美日韩国产日漫一区不卡| 日韩欧美国产精品| 国产第一页屁屁影院| 72种姿势欧美久久久大黄蕉| 毛片久久久| 午夜影院a级片| 国产成人精品第一区二区| 欧美日韩中文国产| 亚洲精品成人7777在线观看| 91麻豆精品国产高清在线| 精品国产亚洲人成在线| 国产在线一区视频| 国产啪在线91| a色毛片免费视频| 亚洲毛片在线看| 亚洲 欧美 偷自乱 图片| 欧美狠狠干| 久青草国产高清在线视频| 呦女精品网站| 亚洲综合天堂网| 最新国产成人剧情在线播放| 中文字幕欧美成人免费| 在线国产欧美| 久久狠狠色噜噜狠狠狠狠97视色| 国产亚洲欧美在线专区| 综合色在线| 欧美日韩亚洲综合在线观看| 2021精品国产自在现线看| 99在线国产|