









摘要:
害蟲是造成倉儲小麥損失的重要因素之一,及時檢測害蟲并采取有效手段能夠減少倉儲小麥損失。傳統人工檢測害蟲方法存在人工因素影響較大、速度慢的問題,基于深度學習的倉儲糧蟲檢測方法雖然耗時短,但存在模型較大、速度和準確率二者難以平衡的問題。故首先選取YOLOv8m算法作為基礎進行改進,接著以更輕量化的網絡Shufflenetv2代替Darknet—53;其次,在主干網絡末端添加Squeeze—and—Excitation Networks注意力機制獲取高質量的特征圖,有效提高檢測精度;最后,采用WIoUv3 Loss為YOLOv8m的回歸損失函數,提高檢測的精度和速度。試驗結果表明:所提出的改進模型平均精度均值達到95.4%,模型參數量為19.46 M,FLOPs為58.74 G。相比其他模型,精確率更高,模型參數量更低,速度更快,能夠為倉儲害蟲檢測提供有效技術支撐。
關鍵詞:小麥倉儲糧蟲;深度學習;小目標檢測;注意力機制;輕量化模型
中圖分類號:TP399
文獻標識碼:A
文章編號:2095-5553 (2025) 03-0108-07
收稿日期:2024年7月29日" 修回日期:2024年9月12日*
基金項目:國家重點研發計劃(2022YFD2100202)
第一作者:呂宗旺,男,1979年生,山東菏澤人,碩士,教授;研究方向為糧食信息處理與控制。E-mail: zongwang_lv@126.com
Improved YOLOv8m-based grain insect detection method for wheat storage
Lü Zongwang1, 2, Wang Tiantian1, 2, Sun Fuyan1, 2, Zhu Yuhua1, 2
(1. College of Information Science and Engineering, Henan University of Technology, Zhengzhou, 450001, China;
2. Key Laboratory of Grain Information Processing and Control, Ministry of Education, Zhengzhou, 450001, China)
Abstract:
Pests are one of the important factors causing storage wheat losses, timely detection of pests and effective measures can reduce losses of stored wheat. The traditional artificial detection of pests method exists artificial factors have a greater impact, the problem of slow speed, based on deep learning storage grain insect detection method, although time-consuming short, but there is a larger model, speed and accuracy of the two difficult to balance the problem. Therefore, in this paper, after experiments, firstly, the YOLOv8m algorithm is selected as the basis for improvement, and then, Shufflenetv2, a lighter network, replaces Darknet—53; secondly, Squeeze—and—Excitation Networks attention mechanism is added at the end of the backbone network to obtain high-quality feature maps, which effectively improves the detection accuracy. Finally, WIoUv3 Loss is adopted as the regression loss function of YOLOv8m to improve the accuracy and speed of detection. The experimental results show that the mAP of the proposed model reaches 95.4%, the number of model parameters is 19.46 M, and the FLOPs is 56.74 G. Compared with other models, the accuracy is higher, the number of model parameters is lower, and the speed is faster, which can provide effective technical support for the detection of pests in warehouses.
Keywords:
storage grain insect; deep learning; small target detection; attention mechanism; lightweight model
0 引言
我國是世界上第二人口大國,其小麥自給率為100%。小麥作為中國基本口糧之一,其安全問題不容忽視[1]。2023年我國夏糧再獲豐收,其中小麥產量保持在1.35×108 t左右[2]。小麥入庫后,害蟲問題是影響小麥儲藏的主要因素。準確快速檢測倉儲糧蟲為后續及時防治害蟲,減少糧食損失提供基礎[3]。
傳統倉儲糧蟲檢測方法主要使用國家標準LS/T 1211—2008的取樣篩檢法和探管誘捕法辨別糧食中害蟲是否存在以及害蟲的種類,但兩種方法人工因素影響較大[4]。隨著深度學習的發展,倉儲糧蟲檢測逐漸智能化。許德剛等[5]采用Faster R—CNN作為基本模型,在特征提取后加入金字塔池化模塊和更換損失函數,在兩個不同的糧蟲數據集上mAP分別達到89.42%和90.12%,相比較改進前的算法分別提升0.90%和2.46%。Kong等[6]改進Faster R—CNN算法,用Swin transformer取代主干網絡并引入名為Faster RFormer的增強型平滑損失函數,對蘋果的檢測準確率達到0.692,AP@0.75為0.796,AP@0.5為0.941,超過了現有算法。呂宗旺等[7]改進YOLOv5s算法,采用MobileNetv3作為主干網絡,Bi—FPN結構替代特征金字塔結構,平均糧蟲檢測準確率達到97.1%,FPS提高至91,模型計算量為原模型的11.6%。李容光等[8]使用離散自注意力、尺度通道注意力和尺度注意力,提取全局的上下文背景信息,提高模型對于小目標檢測的準確率,在DIOR數據集上mAP能夠達到69.0%。
雖然基于深度學習算法的檢測方法相較于人工檢測和其他檢測方法極大提升檢測的準確率和速度,但都存在一定缺陷[9]。例如數據集過于簡單,模型參數量大,準確率高但速度相對來說較慢等[10]。本文選取當前單階段目標檢測效果較好的模型YOLOv8作為基準模型進行改進,旨在提高模型對倉儲糧蟲的檢測準確率和速度。
1 數據集來源及預處理
數據集對模型的訓練至關重要,數據集應準確反映各種拍攝情況下的倉儲糧蟲。數據集圖像質量過高過低都影響模型訓練,直接影響訓練后的模型能否投入實際應用。本次試驗所使用的基礎數據集拍攝玉米象、谷蠹、赤擬谷盜、印度古螟、麥蛾5種常見的倉儲糧蟲共2 000張圖片。基礎數據集使用labelme軟件進行數據標注。
采用圖像增強技術擴增數據集的規模,使得數據集能夠包含不同光照、不同角度下的倉儲糧蟲圖像,同時也能提高訓練后模型的泛化能力,增強模型魯棒性[11]。對基礎數據集采用兩次旋轉、增加亮度、增加高斯噪聲和重置大小5種操作,模擬不同環境下拍攝的倉儲糧蟲,增強后的部分圖像如圖1所示。擴增后的數據集包含12000張圖像,按8∶1∶1比例劃分為訓練集、測試集和驗證集。
2 倉儲糧蟲檢測模型構建
目前針對小目標檢測的模型分為兩階段算法和單階段算法,兩階段算法的代表模型為Faster R—CNN,單階段算法代表模型為YOLOv8系列[12]。兩階段算法模型的模型量較大,為選取準確率、速度、模型參數量適中的基礎模型進行改進,采用單階段算法模型YOLOv8系列。對比YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l、YOLOv8x這5個模型在同一數據集、同樣的參數設置下的仿真結果,如表1所示。
由表1可知,YOLOv8m的平均精度均值最高的,且相較其他4個基礎模型在參數量、速度和精確率上達到很好的平衡。因此,選取YOLOv8m模型作為倉儲糧蟲檢測模型的基礎模型進行后續改進,以期達到更高的精確率、更小的參數量、更快的速度。
2.1 YOLOv8m模型
YOLOv8m模型結構如圖2所示。輸入端對圖片進行圖像縮放將輸入的數據集圖片基礎大小調整為640像素×640像素,并進行Mosaic數據增強操作且在最后10epoch關閉,另外進行通道維數調整操作[13]。主干網絡Backbone為Darknet—53。Neck部分為PAN—FPN,負責特征層次結構提取。Head部分為解耦頭結構,將分類和檢測頭分離。PANet部分先上采樣融合再下采樣融合YOLOv8m的Head輸出[14]。Backbone和Neck中均采用C2f結構,C2f結構有更多的殘差連接、更豐富的梯度流。
YOLOv8m分類損失函數采用改進交叉熵損失(VFL Loss),如式(1)所示。回歸損失為CIOU Loss+DFL Loss的形式。CIOU Loss如式(2)所示,DFL Loss如式(3)所示。
VFL(p,q)=
-q[q(logp+(1-q)log(1-p)]qgt;0
-αpγlog(1-p)q=0
(1)
LCIoU=1-IoU+ρ2(b,bgt)c2+αv
(2)
DFL(Si,Si+1)=
-[(yi+1-y)logSi+
(y-yi)logSi+1]
(3)
其中,Si=yi+1-yyi+1-yi,Si+1=y-yiyi+1-yi,IoU=B∩BgtB∪Bgt。
式中: y——標簽的實際值;
yi+1、yi——標簽相鄰區間值;
p——概率;
q——預測框和真實框的交并比;
α——加權因子;
γ——可調對焦參數;
b、bgt——
真實框和預測框的中心點;
IoU——輸出框與真實框的交互比;
ρ——歐幾里得距離;
B——真實框;
Bgt——預測框;
c——
覆蓋真實框和預測框的最小框的對角線距離。
兩個框相交,即qgt;0為正樣本;兩個框無相交,q=0,為負樣本[15]。
2.2 Shufflenetv2主干網絡
為使模型參數量減少,本試驗選取輕量化的網絡Shufflenetv2代替YOLOv8m的主干網絡Darknet—53。Shufflenetv1網絡降低了全通道卷積造成的計算量,Shufflenetv2網絡在Shufflenetv1網絡的基礎上降低了組卷積和加法操作造成的參數量[16]。
Shufflenetv1網絡創造性地提出通道洗牌(channel shuffle)操作,在組卷積(group convolution)操作之后加入channel shuffle操作,使輸出的特征圖進行重組,之后再進行group convolution操作,從而解決全通道卷積造成的計算量過大和組卷積使不同通道之間信息難以交流的問題。但其網絡基本模塊channel shuffle操作之前的逐點組卷積結構和瓶頸結構增大了內存訪問量(MAC)。
針對此問題,Shufflenetv2模型在保留channel shuffle操作的同時,增加通道分離(channel split)操作。Shufflenetv2模型基本單元如圖3(a)所示,將輸入通道做channel split操作,另外一支做恒等映射[17]。采用1×1卷積而非組卷積,降低計算量。采用contact操作而非add操作,模型更加輕量化。Shufflenetv2用以空間下采樣的單元如圖3(b)所示可使輸出特征圖空間大小減半,通道數翻倍[18]。
2.3 Squeeze—and—Excitation注意力機制
SE注意力機制是一個計算單元,對于任意給定的輸入X,由圖4可得變換Ftr將其映射到特征映射U,其中U∈RH×W×C,U=[u1,u2,…,uc]。為解決通道依賴性問題,變換后的特征圖U首先通過一個壓縮(Squeeze)操作,Squeeze操作如式(4)所示,通過全局平均池化操作,壓縮聚合主干網絡提取到的特征圖,產生通道特征響應的全局分布的嵌入,允許來自網絡的全局感受野的信息被其所有層使用[19, 20]。
zc=Fsq(uc)=1H×W∑Hi=1∑Wj=1uc(i,j)
(4)
式中: Fsq——Squeeze操作;
H、W——特征圖的空間尺寸。
Squeeze操作之后是一個激勵(Excitation)操作,目的是完全捕獲通道依賴關系,即權重。Excitation操作原理如式(5)所示,采取簡單帶有sigmoid激活的門控機制的形式,將嵌入作為輸入,并產生每個通道的調制權重的集合。
s=Fex(z,W)=σ(g(z,W))=σ(W2δ(W1z))
(5)
式中: Fex—— Excitation操作;
z——Squeeze階段的輸出;
W——權重矩陣;
W1、W2——可學習的權重矩陣;
σ——sigmoid激活函數;
δ——ReLU函數。
W1∈Rcr×r,W2∈Rr×cr,為降低模型復雜度和提供泛化能力,采用兩個全連接的門機制。即一個具有還原比r的降維層,通過將輸出U的通道維度壓縮到(U的通道數/r)來降低模型計算量,再連接一個ReLU,然后一個增維全連接層返回到轉換到U的通道維度。最后通過Sigmoid激活得到權重s。
這些權重被應用到特征圖U中,以生成SE塊的輸出X如式(6)所示,X=x1,x2,…,xc,該輸出可以直接反饋到網絡的后續層。
xc=Fscale(uc,sc)=scuc
(6)
式中: Fscale——
Scale操作,將注意力權重加權到每個通道的特征。
2.4 WIoUv3損失函數
為提高訓練后模型的準確率,采用WIoUv3損失函數代替YOLOv8m模型中的分類損失函數。WIoUv3損失函數采用動態非單調靜態聚焦機制,使用離群度而不是IoU來評估錨箱的質量,并提供動態的梯度增益分配策略[21-23]。這種策略減少了高質量錨框和低質量錨框對于梯度的影響,更加關注普通錨框,提升檢測性能。根據作者所得結論,WIoUv3損失函數在YOLOv7模型的AP值高于CIoUv3的AP值0.77。WIoUv3損失函數如式(7)所示。
LWIoUv3=r×LWIoUv1
(7)
LWIoUv1=RWIoU×LIoU
(8)
RWIoU=exp(bgtcx-bcx)2+(bgtcy-bcy)2
cw2+ch2
(9)
LIoU=1-IoU
(10)
其中,r=βδαβ-δ,β=L×IoULIoU∈[0,+∞)。
式中: RWIoU——
損失函數的懲罰項,RWIoU∈[1,e);
LIoU——
降低對高質量錨框的關注,在錨框與目標框重合時關注中心點之間距離,LIoU∈[0,1];
L——損失函數;
β——
離群度,表示錨框的異常值度,有效防止低質量錨框對梯度的影響。
2.5 改進的YOLOv8m倉儲糧蟲檢測模型
為提高檢測模型的準確率以及減小模型參數量,在YOLOv8m模型的基礎上進行3方面的改進,網絡結構如圖5所示。
對YOLOv8m模型的Backbone模塊進行改進,將Darknet—53網絡更換為ShuffleNetv2網絡。對YOLOv8m模型的第二層Backbone進行改進,在網絡末端的添加Squeeze—and—Excitation Networks注意力機制。YOLOv8m模型中的分類損失改為WIoUv3 Loss,回歸損失仍為CIoU Loss+DFL Loss。
3 試驗結果與分析
試驗使用的Python版本為3.7,深度學習框架為Pytorch1.10.0,CPU型號為Intel(R) Core(TM) i5-8250U CPU@1.60 GHz,GPU型號為NVIDIA GeForce MX110,操作系統為Windows10。訓練輪數設置為50輪,批次大小為32,初始學習率設置為0.01。
3.1 評價指標
對于模型的評價,有兩類常見的分類目標:正例P和負例N。檢測模型的評價指標一般可以用精確率Precision、召回率Recall、P—R曲線、AP、mAP、FLOPs、參數量Parameters等表示。Precision反映真實正樣本在分類器確定的正樣本中所占的比例,計算如式(11)所示。Recall反映被正確判定的正例占總的正例的比重,計算如式(12)所示。
Precision=TPTP+FP
(11)
Recall=TPTP+FN
(12)
式中: TP——實際為正例,識別結果為正例;
FP——實際為負例,識別結果為正例;
FN——實際為正例,識別結果為負例。
P—R曲線為以Precision為縱坐標和以Recall為橫坐標所連成的曲線。P—R曲線下的面積為AP。AP值越接近1,模型效果越好。mAP為各類AP的平均值。mAP為平均精度均值,是目標檢測算法中最重要的指標,mAP越高,模型的平均精確率越高。FLOPs衡量模型的計算能力,數值越小,模型計算速度越快。Parameters數值越大模型越大。
3.2 試驗結果
由表2可知,模型對5種倉儲糧蟲的檢測精確率都維持在較高的數值,最低的為赤擬谷盜,檢測精確率達到86.1%,麥蛾的檢測精確率達到最高的99.5%。平均精度均值達到95.4%。
如圖6所示,訓練時邊界框損失box_loss、分類損失cls_loss、特征點損失dfl_loss隨著訓練epoch的增加不斷下降,在45輪左右保持穩定且數值都在0.5以下,說明模型隨著訓練能夠更準確地預測出目標的位置,能夠更高精度的識別目標,模型的性能越來越好。在訓練45輪左右時,Recall和Precision都穩定在0.95以上。驗證集的3個損失函數也都在訓練結束時穩定在較低數值。mAP@0.5穩定在0.95以上,可見改進后YOLOv8m模型效果穩定,精確率較高。由圖7可直觀看出,改進后YOLOv8m模型對倉儲害蟲的檢測效果。
由表3可知,Shufflenetv2作為輕量化網絡模型減少了參數量,提高了計算速度,但平均精度均值有所下降。SE注意力機制和WIoUv3損失函數的加入提高了檢測的精確率。
為驗證改進后YOLOv8m模型相較其他模型的有效性,選取YOLOv8m、YOLOv5m和Faster R—CNN模型分別在倉儲糧蟲數據集上進行訓練和測試,結果如表4所示。
與YOLOv8m基礎模型相比,改進后YOLOv8m的參數量即模型大小減少6.44 M,速度增加,平均精度均值增加0.7%。相較于YOLOv5m,改進后YOLOv8m參數量減小,速度增加,平均精度均值高出3.1%。相較于雙階段算法Faster R—CNN,改進后YOLOv8m模型大小減少,速度增加的同時平均精確率高出13.5%。試驗結果表明,與以上3種主流算法模型相比較,改進后YOLOv8m在模型大小和速度上取得很好的平衡,同時平均精確率達到最高,更加適合倉儲糧蟲的檢測,便于后續消殺,維護糧食安全。
4 結論
1) 針對倉儲糧蟲小目標背景復雜的情況,提出一種改進的YOLOv8m輕量化高精度檢測模型,首先使用Shufflenetv2主干網絡替代YOLOv8m的主干網絡DarkNet—53,能夠使模型更加輕量化,提高模型計算速度;其次,為提高模型的檢測精確率,在主干網絡的末端添加Squeeze—and—Excitation注意力機制;最后,將YOLOv8m的分類損失改為WIoUv3損失函數,進一步改善錨框質量參差不齊對梯度的影響,提高模型檢測精確率。
2) 試驗結果表明,改進后的YOLOv8m模型能夠以更小的模型、更快的速度、更高的精確率識別倉儲害蟲。與YOLOv8m原模型相比,模型大小減少6.44 M,平均精度均值增加0.7%。
3) 倉儲糧蟲數據集僅拍攝5種倉儲糧蟲,數據集較為單調,在后續研究中可增加糧蟲種類進行數據集的擴增,提高數據集的質量。雖然模型檢測結果較基礎模型有所提升,但是模型仍有提升空間,可更換效果更好的注意力機制進一步提高平均精度均值,更好地實現對倉儲糧蟲的檢測,維護糧食安全。
參 考 文 獻
[1] 劉明亮, 劉曉鵬, 周勁, 等. 改進的YOLOv5糧蟲檢測算法[J]. 武漢輕工大學學報, 2023, 42(3): 34-40.
Liu Mingliang, Liu Xiaopeng, Zhou Jin, et al. Improved grain pest detection algorithm of YOLOv5 [J]. Journal of Wuhan Polytechnic University, 2023, 42(3): 34-40.
[2] 張四平. 基于YOLO目標檢測算法的人群多目標識別跟蹤方法[J]. 智能計算機與應用, 2024, 14(1): 152-155.
Zhang Siping. A crowd multiple target recognition and tracking method based on YOLO object detection algorithm [J]. Intelligent Computer and Applications, 2024, 14(1): 152-155.
[3] Dong Q, Sun L, Han T, et al. PestLite: A Novel YOLO-based deep learning technique for crop pest detection [J]. Agriculture, 2024, 14(2): 228.
[4] Zhou Z, Hu Y, Yang X, et al. YOLO-based marine organism detection using two-terminal attention mechanism and difficult-sample resampling [J]. Applied Soft Computing, 2024, 153: 111291.
[5] 許德剛, 王露, 李凡, 等. 改進Faster R—CNN在糧蟲目標檢測中的應用研究[J]. 中國糧油學報, 2022, 37(4): 178-186.
Xu Degang, Wang Lu, Li Fan, et al. Application of improved Faster R—CNN in food insect object detection [J]. Journal of the Chinese Cereals and Oils Association, 2022, 37(4): 178-186.
[6] Kong X, Li X, Zhu X, et al. Detection model based on improved Faster R—CNN in apple orchard environment [J]. Intelligent Systems with Applications, 2024, 21.
[7] 呂宗旺, 邱帥欣, 孫福艷, 等. 基于改進YOLOv5s的輕量化儲糧害蟲檢測方法[J]. 中國糧油學報, 2023, 38(8): 221-228.
Lü Zongwang, Qiu Shuaixin, Sun Fuyan, et al. Lightweight grain storage pest detection method based on improved YOLOv5s [J]. Journal of the Chinese Cereals and Oils Association, 2023, 38(8): 221-228.
[8] 李容光, 楊夢龍. 基于注意力和上下文的多尺度圖像背景下的小目標檢測方法[J]. 現代信息科技, 2023, 7(5): 1-6, 12.
Li Rongguang, Yang Menglong. Small object detection method under the background of multi-scale image based on attention and context [J]. Modern Information Technology, 2023, 7(5):1-6, 12.
[9] Tang L, Yun L, Chen Z, et al. HRYNet: A highly robust YOLO network for complex road traffic object detection [J]. Sensors, 2024, 24 (2).
[10] Zhong Z, Yun L, Cheng F, et al. Light-YOLO: A lightweight and efficient YOLO-based deep learning model for mango detection [J]. Agriculture, 2024, 14(1).
[11]
Calero F M, Astudillo A C, Guevara D, et al. Traffic sign detection and recognition using YOLO object detection algorithm: A systematic review [J]. Mathematics, 2024, 12(2).
[12] Ferrante S G, Nakamura V H L, Sampaio S, et al. Evaluating YOLO architectures for detecting road killed endangered Brazilian animals [J]. Scientific Reports, 2024, 14(1): 1353-1353.
[13] 王粉花, 黃超, 趙波, 等. 基于YOLO算法的手勢識別[J]. 北京理工大學學報, 2020, 40(8): 873-879.
Wang Fenhua, Huang Chao, Zhao Bo, et al. Gesture recognition based on YOLO algorithm [J]. Transactions of Beijing Institute of Technology, 2020, 40(8): 873-879.
[14] 呂曉玲, 楊勝月, 張明路, 等. 改進YOLOv5網絡的魚眼圖像目標檢測算法[J]. 計算機工程與應用, 2023, 59(6): 241-250.
Lü Xiaoling, Yang Shengyue, Zhang Minglu, et al. Improved fisheye image target detection algorithm based on YOLOv5 network [J]. Computer Engineering and Applications, 2023, 59(6): 241-250.
[15] 李明, 丁智歡, 趙靖暄, 等. 基于改進YOLOv5s的日光溫室黃瓜霜霉病孢子囊檢測計數方法[J]. 中國農機化學報, 2023, 44(5): 63-70.
Li Ming, Ding Zhihuan, Zhao Jingxuan, et al. Detection method for cucumber downy mildew sporangia in a solar greenhouse based on improved YOLOv5s [J]. Journal of Chinese Agricultural Mechanization, 2023, 44(5): 63-70.
[16] Elazab N, Allah G A W, Elmogy M. A multi-class brain tumor grading system based on histopathological images using a hybrid YOLO and RESNET networks [J]. Scientific Reports, 2024, 14(1): 4584-4584.
[17] Alruwaili M, Siddiqi H M, Atta N M, et al. Deep learning and ubiquitous systems for disabled people detection using YOLO models [J]. Computers in Human Behavior, 2024, 154: 108150.
[18] Xu Changbao, Xin Mingyong, Wang Yu, et al. An efficient YOLOv3-based method for the detection of transmission line defects [J]. Frontiers in Energy Research, 2023.
[19] Ahmadyar Y, Kamali-Asl A, Arabi H, et al. Hierarchical approach for pulmonary-nodule identification from CT images using YOLO model and a 3D neural network classifier [J]. Radiological Physics and Technology, 2024, 17(1): 124-134.
[20] 林森, 許童羽, 葛禹豪, 等. 基于改進YOLOv5l的設施番茄3D信息檢測方法[J]. 中國農機化學報, 2024, 45(1): 274-284.
Lin Sen, Xu Tongyu, Ge Yuhao, et al. 3D information detection method for facility greenhouse tomato based on improved YOLOv5l [J]. Journal of Chinese Agricultural Mechanization, 2024, 45(1): 274-284.
[21] 楊巧梅, 崔婷婷, 袁永榜, 等. 輕量化YOLO模型在農作物微小病蟲害檢測中的應用研究[J]. 中國農機化學報, 2024, 45(9): 265-270, 284.
Yang Qiaomei, Cui Tingting, Yuan Yongbang, et al. Research on the application of lightweight YOLO model in detection of small crop diseases and pests [J].Journal of Chinese Agricultural Mechanization, 2024, 45(9): 265-270.
[22] 李濤, 買買提明·艾尼, 古麗巴哈爾·托乎提, 等. 基于改進YOLOv8的小棚架下無核白葡萄果梗識別[J]. 中國農機化學報, 2025, 46(2): 259-263.
Li Tao, Mamtimin·Geni, Gulbahar·Tohti, et al. Seedless white grape stem recognition under small trellises based on improved YOLOv8 [J]. Journal of Chinese Agricultural Mechanization, 2025, 46(2): 259-263.
[23] Sneha N, Sundaram M, Ranjan R. Acre-scale grape bunch detection and predict grape harvest using YOLO deep learning network [J]. SN Computer Science, 2024, 5(2): 250.