



關鍵詞:玉米;葉斑病;改進;YOLOv8模型;快速識別
中圖分類號:S126;TP391.41 文獻標識碼:A
文章編號:0439-8114(2025)05-0160-07
DOI:10.14088/j.cnki.issn0439-8114.2025.05.025 開放科學(資源服務)標識碼(OSID):□
A rapid identification method for maize leaf spot disease based on the improved YOLOv8 model
ZHANGLu,WUXue-lian (Economics and Management School,Yangtze University,Jingzhou ,Hubei,China)
Abstract:Toachieverapididentificationofmaizeleafspotdisease,thedetectionperformanceoftheimprovedYOLOv8modelwasoptimizedbyintegratingtheGlobalAtentionModule(GAM),Slim-Necklightweightmodule,andInner-CIoUlossfunction.Compared with the original YOLOv8 model,the improved YOLOv8 model(GAM + Slim-Neck+Inner-CIoU)showed increases of 4.15% in Precision, 5.51% in Recall, 3.91% in mAP @ 0.5,and 11.35% in mAP @[0.5: 0.95],while the number of parameters and detection time decreased by10.39% and 3.42% ,respectively. The improved YOLOv8 model outperformed other models(YOLOv3,YOLO v5 ,YOLO v6 ,and Faster R-CNN) in Precision,Recall,mAP @ 0.5,and mAP
,while also demonstrating significant advantagesinparameterquantitynddetectiontime,combining higheficiencywithlightweightcharacteristics.TheimprovedYOLOv8model eficientlycaurediticaliforation,fullyitegatedultdimesioalatures,ndratioallloatedomputatioalrouces,thereby enhancing recognition accuracy.
Key words:maize;leaf spot disease;improvement;YOLOv8 model; rapid identification
隨著農業生產規模的擴大和氣候變化的影響,玉米葉斑病已成為全球玉米生產中的主要病害。傳統的人工檢測方法依賴于農民的經驗或專家的現場指導,存在效率低、成本高、主觀性強等問題。
為了解決這些問題,研究人員將機器視覺技術應用于玉米病害識別領域,通過提取病害特征實現快速高效的診斷。在國際上,機器視覺技術被廣泛應用于農業病害識別。趙玉霞1利用計算機視覺技術對玉米葉部病害進行識別診斷,識別準確率超過90% 。樊湘鵬等2通過改進區域卷積神經網絡(FasterR-CNN)在復雜田間環境中實現了高達97.23% 的識別準確率。這些研究表明,機器視覺技術在玉米病害識別中具有顯著優勢。慕君林等3和邊柯橙等4積極探索機器視覺和深度學習技術在玉來病害識別中的應用。深度學習技術的引入為農業病害識別帶來了新的思路和方法。卷積神經網絡(CNN)通過其層次化特征學習機制,自動提取圖像的深層語義特征,展現出強大的適應性和高準確率。然而,在復雜的野外環境中,這些模型的泛化能力和識別精度仍然存在一定的局限性[5]。目前,大多數用于檢測玉米葉斑病的深度學習模型更注重準確性,但檢測時間較長,無法實現實時檢測。此外,這些模型大多在實驗室環境中開展測試,無法有效模擬真實現場條件,從而限制了其在生產中的實際應用。
針對玉米葉斑病識別精度和效率較低的問題,本研究提出基于YOLOv8的增強方法。Slim-Neck模塊的加入取代了YOLOv8中原有的骨干網絡,使模型更加輕量化,從而降低計算成本;引人全局注意力機制(Globalattentionmodule,GAM),通過增強關鍵區域的特征計算能力提升模型對病害區域的定位精度。在 Inner–CIoU 框架中構建輔助邊界框監督,并采用CIoU損失函數同步優化位置回歸,通過優化梯度傳播路徑顯著加快了模型的收斂過程。
本研究旨在通過改進YOLOv8模型,提出高效、輕量化的解決方案,以提高玉米葉斑病在復雜田間環境中的識別精度和效率,同時降低計算成本。通過引入輕量化模塊和注意力機制,優化模型性能,為農業病害識別提供創新的技術支持,推動智慧農業的發展。
1 數據與方法
1.1 數據收集和數據集構建
數據采集工作于湖北省宜昌市宜都市枝城鎮漫水橋村玉米種植區進行,采集的樣本圖像涵蓋不同光照條件和復雜田間背景(圖1)。在玉米葉片檢測中,弱光條件下病斑特征明顯,強光條件下病斑特征模糊。實際玉米田間環境還存在葉片遮擋等干擾因素。本研究共采集350張玉米葉病害圖像,并從公開數據集補充450張玉米葉斑病圖像,
為提高數據質量和模型泛化能力,對部分圖像進行數據擴增,包括旋轉、鏡像、亮度調整、添加高斯噪聲和隨機遮罩[8],將數據擴增到1000張。這些操作有助于模型在各種情境下準確識別葉斑病。數據經過人工標記后,分為訓練集、驗證集和測試集,比例為8:1:1,最終獲得800張訓練圖像、100張驗證圖像和100張測試圖像。該劃分方案確保了模型訓練的充分性和評估的可靠性,有效提升模型的泛化性能。

1.2 研究方法
1.2.1YOLOv8網絡模型YOLO系列算法是單階段目標檢測算法,只需1次特征提取即可完成目標檢測。自2015年創立以來,Y0L0系列算法經歷多次迭代和改進,包括YOLOv1、YOLOv2、YOLOv3、YOLOv4及YOLOv8。YOLOv8的架構主要由輸入、骨干網絡(Backbone)、Neck模塊和輸出組成[9]。在Backbone和Neck部分,YOLOv8利用C2f結構,能夠合并不同的梯度特征并進行微調,從而提高模型的整體性能。在Head部分,YOLOv8采用解耦Head結構[10],有效分離了分類和檢測功能。同時,YOLOv8將分布焦點損失函數合并到損失函數中,進一步增強模型的性能。這些優化使得YOLOv8在目標檢測任務中表現出色。YOLOv8的創新設計提升了檢測精度[],,被廣泛應用于各種實際場景。
1.2.2Slim-Neck模塊YOLOv8模型雖然在目標檢測任務中表現優異,但也存在計算效率不足的問題,難以滿足田間實時檢測的需求。為解決這一問題,本研究在YOLOv8模型中引入了
輕量級網絡結構,降低網絡復雜度,從而減少檢測時間。
模塊是廣泛用于實時檢測的輕量級網絡結構。目前,多種輕量級網絡架構(如Xception和MobileNets系列)通過采用深度可分離卷積有效降低了計算復雜度,提升檢測效率[13]。雖然這些方法在減少計算時間方面取得了成功,但也降低了整體檢測精度。
模塊采用分組可分離卷積(GSConv)替代傳統卷積操作,通過解耦空間和通道維度特征提取,有效降低計算復雜度。GSConv是混合卷積結構,能夠有效降低計算成本并簡化網絡復雜度,同時保持模型的優異性能(圖2a)。
在Slim-Neck模塊中引入基于GSConv的一次性聚合機制[14],構建了VoV-GSCSP模塊。通過以VoV-GSCSP替代原有的C2f模塊,不僅簡化網絡架構,而且實現模型的輕量化效果。VoV-GSCSP模塊的結構如圖2b所示。在確保模型準確性的同時,降低網絡結構的復雜性,解決檢測過程中的耗時問題,為農業病害實時檢測研究提供可行的技術方案。

1.2.3全局注意力機制目前,應用較多的注意力機制包括SE(Squeezeandexcitation)和CBAM(卷積塊注意力機制)。SE通過為每個通道分配不同的權重獲取關鍵元素的更多信息(圖3a)。CBAM則結合空間和通道注意力機制(圖3b)。然而,SE和CBAM僅在各自維度進行注意力操作[15],未充分考慮通道和空間維度的相互關系,忽視了跨維度信息的重要性。因此,本研究引入GAM(圖3c),GAM明顯提升模型性能,同時只增加了少量參數。GAM能有效緩解通道間信息丟失問題,優化計算資源分配,增強模型對玉米葉斑病的檢測能力。集成GAM和Slim-Neck的改進模型在檢測玉米葉斑病時表現更佳[16]。1.2.4損失函數改進在目標檢測算法中,損失函數的設計對檢測性能至關重要。CIoU損失函數涵蓋了覆蓋面積、質心距離和縱橫比,是應用最廣泛的損失函數之一。CIoU損失函數的計算式如下。



Lc=1-CIoU
式中, IoU 表示預測框和真實框的交集; ρ 表示預測框中心與真實框的歐幾里得距離; b,bgt 表示預測框和真實框的中心坐標; ∣c∣ 表示預測框和真實框之間最小閉合區域的對角線距離; w 和 h 分別表示預測框的寬度和高度; wgt 和 hgt 分別表示真實框的寬度和高度; Lc 表示損失函數的權重。
盡管基于 CIoU 損失函數通過引入新的損失項來加速收斂,但這種方法忽略了新損失項的局限性,可能導致不同檢測任務中的收斂速度較慢和泛化能力較差。因此,本研究在 CIoU 損失函數的基礎上引人 Inner–IoU 損失函數[17],結構如圖4所示。這種方法適應性更強,可以針對特定檢測器和任務進行定制,從而提高模型的收斂速度和泛化能力。



中心點 x 坐標; yc 表示預測框的中心點 y 坐標;ratio表示輔助邊界框的比例因子,用于調整輔助邊界框的大小。
Inner-IoU損失函數明顯提升模型性能,同時降低網絡模型的復雜性。改進后的模型通過調整輔助邊界尺度,有效加速收斂速度,同時抑制訓練過程中的過擬合問題,從而明顯提升整體性能[18]
1.2.5改進的YOLOv8模型以YOLOv8模型為基礎進行優化,改進后的模型結構如圖5所示,旨在提升真實田間復雜環境下玉米葉斑病的識別與檢測性能。
1)骨干網絡和Neck部分。使用GSConv和VoV-GSCSP代替基礎模型中的Conv卷積和C2f模塊,降低模型的網絡結構復雜度[19]。這些改進使模型更輕量化,減少計算成本。
union=(wgt×hgt)×(ratio)2+(w×h)×

LInner-CIoU=LCIoU+1-IoUinner
式中, LInner-CIoU 表示Inner-CIoU損失函數的值,用于衡量預測框和真實框的差異; bgtl 表示真實框的左邊界坐標; bgtr 表示真實框的右邊界坐標; bgtt 表示真實框的頂部邊界坐標; bgtb 表示真實框的底部邊界坐標; bι 表示預測框的左邊界坐標; br 表示預測框的右邊界坐標; bt 表示預測框的頂部邊界坐標; bb 表示預測框的底部邊界坐標; xgtc 表示真實框的中心點 x 坐標; ygtc 表示真實框的中心點 y 坐標; xc 表示預測框的
2)GAM。在Neck模塊的末尾引人 GAM[20] ,通過整合各維度的信息來增強特征提取能力。該機制能夠自適應地聚焦玉米葉斑病的關鍵區域,在提升定位精度的同時減少冗余計算,實現更高效率的病害檢測。
3)Inner-IoU損失函數。在CIoU的基礎上引人Inner-IoU損失函數[21],使模型能夠及時調整最適合檢測任務的輔助邊緣尺度,加速模型收斂,提高模型的泛化能力。這些改進措施明顯提升了模型在復雜田間環境中的檢測性能,使其能夠更準確、快速地識別玉米葉斑病,為農業生產提供強有力的技術支持。
1.3 評估指標
使用召回率、精確度、平均精度均值( ΠmAP@ 0.5) mAP@[0.5:0.95] 、總參數計數和推理時間作

為評估和改進模型的主要指標,并與其他控制模型進行比較。
召回率 (Recall) 表示在預測陽性樣本中被正確識別的概率,計算式如下。

精確度(Precision)表示在預測為陰性的樣本中被正確識別為陽性樣本的概率,計算式如下。

平均精度均值
是衡量Precision和Recall的綜合表現,反映模型在某一類別上的檢測能力,計算式如下。

式中, TP (True positives)是陽性樣本被正確識別為陽性樣本的數量; FN (Falsenegatives)是陽性樣本被錯誤識別為陰性樣本的數量; FP (False posi-tives)是陰性樣本被錯誤識別為陽性樣本的數量;APi 表示第 i 個類別的平均精度。此外,總參數計數和推理時間被納入考量,以全面評估模型的性能。總參數計數反映模型的復雜度,而推理時間則衡量模型的實時檢測能力。通過這些評估指標可以全面了解模型的檢測性能,并與其他模型進行對比,從而驗證改進方法的有效性。
1.4 試驗環境
試驗環境的配置如表1所示[22]。試驗設置初始學習率為0.01,動量為 0.937[23] ,圖像輸入大小為901px×506px ,批量大小為16,訓練周期為300。該配置充分利用硬件計算資源,在保證訓練效率的同時優化模型性能。

2 結果與分析
2.1 算法性能分析
為了評估不同算法的性能,本研究選取多種常用注意力機制模塊進行對比分析,包括GAM、SE、MCA、Context及CBAM。試驗在相同的數據集和參數設置下進行。結果(圖6)表明,GAM在識別性能
方面優于其他模塊。
在GAM基礎上引入
模塊,將其與GDM模塊、DWConv模塊和RFA模塊進行比較。結果(圖7)表明,
模塊在識別效果上明顯優于其他模塊。
改進的YOLOv8模型在復雜田間環境中表現出卓越的識別性能,提升了玉米葉斑病的檢測精度和效率。

2.2 消融試驗
與 YOLOv8 模型相比,GAM的引入明顯提升了模型性能,盡管參數數量增加,但Precision、Recall、mAP@0.5 和
分別增加 2.27% 、2.92%.1.71% 和 4.82% (表2)。這表明GAM能夠有效引導模型聚焦關鍵區域,從而顯著提升識別精度。與YOLOv8模型相比,改進YOLOv8模型( GAM+ Slim-Neck+Inner-CIoU)的Precision、Recall、 mAP@


0.5和
分別增加 4.15%,5.51% 、3.91% 和 11.35% ,參數量和檢測時間分別減少10.39% 和 3.42% 。明顯減少了模型總參數數量,簡化了模型架構。 GAM,Slim-Neck,Inner-CIoU 的引入明顯提升了 YOLOv8 模型的性能(圖8)。
2.3 模型比較
為驗證改進后 YOLOv8 模型的綜合性能,本研究選取具有代表性的單階段與雙階段檢測模型進行橫向對比,包括YOLOv3模型、YOLOv5模型、YO-LOv6模型、YOLOv8模型及FasterR-CNN模型。所有試驗均在統一數據集與超參數配置下完成訓練與測試,以嚴格控制變量干擾。由表3可知,改進后的YOLOv8 模型在 Precision,Recall,mAP@0.5 和 mAP@ [0.5:0.95] 方面普遍優于其他模型,同時在參數量和檢測時間上也表現出顯著的優勢,兼具高效性與輕量化特點。改進的YOLOv8模型能夠更高效地捕獲關鍵信息,充分融合多維度特征,合理分配計算資源,從而提升識別準確率。這使得模型在復雜現場環境中不僅能夠快速精準地定位疾病位置,還可以準確判斷疾病類型,展現出卓越的性能與適應性。


為驗證改進后YOLOv8模型的檢測性能,采用改進YOLOv8模型對玉米葉斑病圖像進行分析與驗證。
改進YOLOv8模型能夠準確辨別玉米葉斑病的位置,沒有出現假陽性實例(圖9),該模型在玉米葉斑病識別任務中表現優異,具有顯著的實用價值與推廣潛力。

3 小結
首先,引入了GAM,增強模型對重要區域的關注能力,從而提高識別的準確性。其次,Slim-Neck模塊的應用簡化了模型結構,降低計算成本,同時保持高識別精度。此外,Inner-IoU損失函數的引入加速模型的收斂,提高泛化能力,進一步優化模型性能。改進的YOLOv8模型在復雜田間環境中能高效識別葉斑病,并準確標定其位置。與YOLOv3模型、YOLOv5模型、YOLOv6模型、YOLOv8模型、FasterR-CNN模型相比,改進的YOLOv8模型不僅性能增強,而且參數復雜度降低,網絡結構簡化,為農業生產提供了強有力的技術支持。
參考文獻:
[1]趙玉霞.基于圖像識別的玉米葉部病害診斷技術研究[D].北京:北京郵電大學,2007.
[2]樊湘鵬,周建平,許燕.基于改進區域卷積神經網絡的田間玉米葉部病害識別[J].華南農業大學學報,2020,41(6):10.
[3]慕君林,馬博,王云飛,等.基于深度學習的農作物病蟲害檢測算法綜述[J].農業機械學報,2023,54(S2):301-313.
[4]邊柯橙,楊海軍,路永華.深度學習在農業病蟲害檢測識別中的應用綜述[J].軟件導刊,2021,20(3):26-33.
[5]楊鋒,姚曉通.基于改進YOLOv8的小麥葉片病蟲害檢測輕量化模型[J].智慧農業中英文,2024,6(1):147-157.
[6]劉潤飛.基于改進YOLOv8的棉花蟲害檢測算法[J].農業工程,2024,14(7):42-47.
[7]朱婷茹.基于無人機影像的松林變色立木識別方法研究[D].南京:南京林業大學,2023.
[8]高偉鋒.基于YOLOv8的柑橘病蟲害識別系統研究與設計[J].智慧農業導刊,2023,3(15):27-30.
[9]張書貴,陳書理,趙展.改進YOLOv8的農作物葉片病蟲害識別算法[J].中國農機化學報,2024,45(7):255-260.
[10]李志良,李夢霞,董勇,等.基于改進YOLO
的輕量化玉米害蟲識別方法[J].江蘇農業科學,2024,52(14):196-206.
[11]SHRIVASTAVAA,GUPTA A.Contextual priming and feedbackforfasterR-CNN[A].Computer vision-ECCV 2016:14th Euro-pean conference[C].Amsterdam,Netherlands:Springer,2016.
[12]HE K, ZHANG X,REN S,et al. Spatial pyramid pooling in deepconvolutional networks for visual recognition[J]. IEEE transac-tions on pattern analysis and machine intelligence,2O15,37(9):1904-1916.
[13]DEVRIEST,TAYLORG W.Improved regularization of convolu-tional neural networkswith cutout[J].arXiv preprint arXiv:170804552. 2017.
[14]ZHANGH,CISSE M,DAUPHINYN,etal.Mixup:Beyond em-pirical risk minimization[J].arXiv preprint arXiv:171009412.2017.
[15]HENDRYCKSD,MUN,CUBUKED,et al.Augmix:A simpledata processing method to improve robustness and uncertainty[J].arXiv preprint arXiv:191202781.2019.
[16]ROY A M,BHADURI J.DenseSPH-YOLOv5:An automated
damage detection model based on denseNet and swin-transformer prediction head-enabled YOLOv5 with attention mechanism[J]. Advanced engineering informatics,2023,56:102007.
[17]ROYAM,BHADURIJ,KUMART,etal.WilDect-YOLO:An efficient and robust computer vision-based accurate object localizationmodel forautomated endangered wildlifedetection[J].Ecologicalinformatics,2023,75:101919.
[18]WUD,JIANGS,ZHAOE,etal.Detection ofCamellia oleifera fruit in complex scenes by using YOLOv7 and data augmentation[J].Applied sciences,2022,12(22):11318.
[19]ZHAOQ,YANGL,LYUN.A driver stress detection model via data augmentation based on deep convolutional recurrent neural network[J].Expert systems with applications,2024,238:122056.
[20]LIF,ZHANGH,XUH,etal.Mask dino:Towardsaunified transformer-based framework for object detection and segmentation[A]. IEEE conference on computer vision and pattern recognition[C]. IEEE,2023.3041-3050.
[21]YE Z,GUOQ,WEI J,et al.Recognition of terminal buds of densely-planted Chinese firseedlingsusingimproved YOLOv5by integrating attention mechanism[J].Frontiers in plant science, 2022,13:991929.
[22]ZHENG Z,HUY,QIAOY,etal.Real-time detection of winter jujubes based on improved YOLOX-nano network[J].Remote sensing,2022,14(19):4833.
[23]HU J,SHEN L,SUNG.Squeeze-and-excitation networks[A]. Proceedings of the IEEE conference on computer vision and patternrecognition[C].IEEE,2018.7132-7141.
(責任編輯雷霄飛)