注度;利用 CARAFE(Content Aware ReAssembly of FEatures)模塊可自適應訓練的特點,替換掉原始YOLOv8s的最臨近插值上采樣,可以在上采樣過程中提供更豐富的語義信息;采用多尺度且可訓練的 RFB(Receptive Field Block)模塊,通過融合不同尺度的特征進一步提升模型的檢測性能。經過實驗測試,YOLOv8s-SCR模型相較于原模型網絡參數量降低 21.02% ,浮點運算量減少 24.48% ;在測試集上,模型的檢測平均精度均值從原模型的 84.6% 提升到 90.5% ,提升5.9個百分點,驗證了改進模型在小麥赤霉病檢測中的有效性。綜上,本研究提出的YOLOv8s-SCR 模型能夠快速且有效地檢測出小麥穗上的赤霉病斑,可為后續的防治工作提供有力支持。","Introduction":"","Columns":"信息技術·農業工程","Volume":"","Content":"
中圖分類號:S126:S435.12 文獻標識號:A 文章編號:1001-4942(2025)08-0149-11
Abstract To address the issue of low recognition accuracy of wheat scab lesions detected by existing models,which hindered subsequent prevention and control eforts,this study proposed a wheat scab lesion detection algorithm named YOLOv8s-SCR, which was an improved version based on the YOLOv8s model. Using YOLOv8s as the basic network,this algorithm incorporated the advantages of ShufleNetv2 and introduced the Squeeze and Excitation (SE)channel atention mechanism for enhancement,which could not only lightened the network model but also enhanced the model's focus on key features.Leveraging the adaptive training capability of the CARAFE(Content Aware ReAssembly of FEatures)module,the nearest-neighbor interpolation upsampling in the original YOLOv8s was replaced, which enabled the provision of richer semantic information during the upsampling process. A multi-scale and trainable RFB(Receptive Field Block) module was employed to further improve the model's detection performance by fusing features at diffrent scales.Experimental tests demonstrated that the YOLOv8s-SCR model reduced the number of network parameters by 21.02% and decreased FLOPS (FLoating-point Operations Per Second) by 24.48% compared to the original model. On the test set,the mean average precision (mAP) of the model increased from 84.6% in the original model to 90.5% ,representing 5.9 percentage points of improvement,thereby validated the effectiveness of the improved model in wheat scab detection.In summary,the YOLOv8s-SCR model proposed in this study could swiftly and effctively detect wheat scab lesions on wheat ears,providing robust support for subsequent prevention and control efforts.
KeywordsWheat scab; Disease identification; YOLOv8s; Network lightweighting; Upsampling; Fea-ture fusion
小麥是我國主要糧食作物之一,2022年我國小麥產量達到1.38億噸,在全球小麥主產國中位居第一[1],為我國應對各種風險挑戰、穩定經濟發展提供了有力支撐。然而,小麥在生產過程中常常受到各種病蟲害的威脅,直接影響其產量和食用安全性,因此加強對相關病蟲害的預報和早期防治至關重要[2]。在諸多病蟲害中,小麥赤霉病危害性嚴重,是全國范圍內廣泛發生的小麥病害之一[3-4]。傳統的小麥病害檢測方法主要依賴人工,雖然準確率較高,但效率低、及時性差,不能滿足大面積種植時的病害檢測需求。
隨著深度學習領域的快速發展,卷積神經網絡憑借其強大的特征提取能力,使以其為核心的計算機視覺技術在各領域得到廣泛應用[5-6]。目標檢測作為計算機視覺領域的關鍵技術之一,為農業病蟲害檢測和預防提供了新的可能,備受國內外學者的關注,目前已在農作物病害識別方面取得顯著效果[7]。
目標檢測領域應用最為廣泛的模型主要分為兩類,即二階段檢測算法和單階段檢測算法。二階段檢測算法的代表模型為 RCNN[8] 系列模型:毛銳等[9采用改進的ResNet-50作為Faster-RC-NN的主干特征提取網絡,應用于小麥條銹病和黃矮病的識別,與原模型相比平均精度均值提高14.97個百分點;朱旭等[1o]利用FasterR-CNN實現對成熟、半成熟和未成熟藍莓果實的檢測分類,平均精度均值高達 94.67% ; Xie 等[11]采用Incep-tionv1和ResNet作為Faster-RCNN的網絡結構,用于檢測葡萄葉病害,準確率達到 81.1% ;張平川等[12]將Faster-RCNN的RPN損失函數替換為RS-LOSS損失函數,并且采用Soft-NMS替換傳統的NMS算法,模型識別桃樹黃葉病的準確率、召回率和平均精度均值均超過 90% 。可以看出這類算法通常表現出較高的檢測精度,但網絡結構復雜,運算速度較慢[13]。單階段檢測算法的代表模型為YOLO[14]和 SSD[15] ,與二階段檢測模型相比具有更小的網絡體積和更快的運算速度,其中YOLO系列模型的相關研究和應用更為廣泛:李震等[16]基于改進輕量化YOLOv7-tiny 模型進行小麥白粉病檢測,通過引入ShuffleNetv1以及Mish激活函數,使模型的檢測精度提高 3.3% ,體積降低 8.7% ;孫俊等[17]通過在YOLOv5頸部網絡引入 RepVGGBlock ,實現了對復雜果園環境下葡萄果實的識別,平均精度均值達到 97.74% ; Luo等[18]引入SE 注意力機制和無錨框策略改進YOLOX,將其用于大豆根瘤識別,IOU閾值取0.5和0.7的情況下,識別精度可分別達到 93.87% 和84.76% ,召回率達到 94% 和 84% ,顯著優于原始網絡;Bazame等[19]為選取適合咖啡成熟度檢測的最佳模型,對 YOLOv3、YOLOv3-tiny、YOLOv4和YOLOv4-tiny模型進行了對比實驗,平均精度均值分別達到 78%.77%.81% 和 79% ,越復雜的網絡模型效果越好;張立杰等[20]在輸入階段對蘋果圖片進行通道分離,劃定出高權重的通道進行重組,然后利用深度可分離卷積對SSD網絡完成輕量化設計,使模型體積減小至 22MB ,而檢測精確率高達 95% ;張萬枝等[21]將YOLO 模型的 FPN+ PAN特征融合替換為BiFPN(加權雙向特征金字塔),雖然資源開銷有所增加,但是平均精度均值提高超過3個百分點;周品志等[22]在YOLOv4模型中融合卷積注意力機制來監測果園中櫻桃生長周期,識別的平均精度均值達到 92.31% ;李茂等[23]運用最新的YOLOv8模型,通過改良設計C2f-PConv模塊,使模型對板栗果實的識別精度達到 84% ,而權重文件大小卻只有基準模型的一半。
雖然上述目標檢測模型在農作物果實或病害的識別檢測中取得良好效果,但仍存在網絡體積較大或輕量化設計后檢測精度不夠理想等不足。為了在降低網絡參數量的同時仍保持較高的檢測精度,本研究以小麥赤霉病為檢測對象,基于YOLOv8s模型,通過網絡輕量化、上采樣模塊改進以及改用特征提取能力更強的模塊等,提出一種小麥赤霉病檢測方法,以期為實現小麥赤霉病的早期檢測預報和預防提供理論和技術支持。
材料與方法
1.1 小麥赤霉病數據集構建
本研究所用小麥赤霉病原始圖片主要有兩個來源:一個是由中國科學院合肥智能機械研究所構建的農業病蟲害研究圖庫(IDADP)[24]。該圖庫涵蓋了豐富的農作物病蟲害高清圖片資源,每種病蟲害圖片有數百至數千張不等,其中小麥赤霉病圖片有463張。另一個是開放的數據集分享平臺飛槳AIStudio社區平臺。本研究從該平臺的多個公共數據集中篩選出40張拍攝質量較高的小麥赤霉病特征圖片。綜合兩個來源的圖片,共獲得503張小麥赤霉病原始圖片。
針對原始圖片數量較少的情況,為增強模型的泛化能力及防止發生過擬合現象,本研究對原始圖片進行數據增強處理,包括水平翻轉和垂直翻轉、隨機角度旋轉、亮度調整、添加高斯噪聲(圖1),最終得到包含3018張圖片的小麥赤霉病數據集。利用Labelme工具完成所有圖片的標簽制作,并按照 8:1:1 的比例將數據集劃分為訓練集(2414張)驗證集(302張)和測試集(302張)。
圖1數據增強處理

1.2 YOLOv8-SCR模型的構建
YOLO系列模型經過不斷發展和更新,已經形成YOLOv3、YOLOv5、YOLOv7和YOLOv8等多個版本。YOLOv8網絡主要由主干(Backbone)網絡、頸部(Neck)網絡和頭部(Head)輸出層三部分組成。與YOLOv5版本相比,其主干網絡中的C3模塊改為C2f模塊,以提供更豐富的梯度流信息;頸部網絡中取消了上采樣之前的卷積操作,以進一步簡化網絡結構;頭部網絡的改動最為顯著,檢測頭從原先的耦合頭替換為更高效的解耦頭,使得模型能夠更好地處理不同尺度和形狀的目標,從而提高檢測精度;另外,在錨框選擇方面,采用Anchor-Free策略取代Anchor-Based方法,以減少網絡超參數的設置,降低網絡部署復雜性,同時也有助于提高檢測性能。在YOLOv8版本中,根據網絡的深度和寬度進一步細分為5個不同的版本: ΥOLOv8n 、YOLOv8s、 Υ0LOv8m 、YOLOv8l 和YOLOv8x 。這些版本的YOLOv8模型在網絡結構上保持一致,僅在模型的寬度和深度上不同,其中, YOLOv8n 具有最快的運算速度,但識別精度較低;YOLOv8x具有最佳的檢測結果,但網絡參數量和運算量最大;YOLOv8s不僅具有良好的檢測精度,而且運算速度較快。綜合考慮檢測精度和檢測速度,本研究選擇YOLOv8s作為基準模型。
然而,YOLOv8s模型仍存在參數量較多且在某些復雜場景下檢測精度不夠高等問題,因此,本研究對其進行改進,提出一種改進算法YOLOv8s-SCR,其網絡結構見圖2。改進措施主要包括:在ShuffNetv2基礎上添加SE注意力機制,并將其引入到主干網絡的下采樣模塊和C2f特征提取模塊中,以使模型能夠更高效地關注圖像中的關鍵信息,從而在減少參數量的同時保持檢測性能;將原SPPF模塊和頸部網絡上采樣模塊分別替換為RFB模塊和CARAFE輕量級通用上采樣算子,其中RFB模塊能夠模擬人類視覺系統中的感受野變化,更好地捕捉目標在不同尺度下的特征,而CARAFE輕量級通用上采樣算子則能夠在上采樣過程中減少語義信息的損失,保持更多的細節信息,從而進一步提高模型的檢測能力。
1.2.1網絡輕量化改進ShuffleNetv2[25]是一種輕量化的網絡結構,通過逐深度卷積來降低網絡參數量。相較于ShuffleNet v1[26],ShuffleNet v2減少了分組卷積的使用和復雜的網絡分支操作,令內存訪問成本(MAC)最小化,檢測效率得到顯著提升。ShuffleNetv2網絡的殘差模塊和下采樣模塊如圖3所示。在殘差模塊中,輸人特征圖首先通過通道分割被分為兩條分支,為了減小網絡的復雜度,其中一條分支不進行任何操作,另一條分支先后通過三個輸入與輸出通道數相同的卷積層,將兩條分支輸出的結果在通道維度上進行拼接,保證了特征圖在整個傳播過程中輸入與輸出通道數的統一。而在下采樣模塊中,ShuffleNetv2取消了最初的通道分割操作,直接將輸人特征圖送入兩條分支進行處理和通道拼接,將輸出通道數擴充至原來的兩倍。
圖2本研究提出的YOLOv8s-SCR網絡

ShuffleNet的一個核心概念是通道混洗(ChannelShuffle)。盡管分組卷積可以降低計算量,但由于特征圖的輸出僅與對應組的輸入相關,不同組之間不存在任何信息交互,導致學習到的特征受限,容易丟失信息。為了解決這個問題,ShuffleNet采用通道混洗操作,將經過分組卷積得到的特征圖,在通道維度上進行重新排列,將不同組的通道混合在一起,從而實現信息在組之間的流動。具體工作原理如圖4所示。
在分支最后進行通道混洗操作后,為了能夠進一步加深通道間的信息交互,同時維持模型的參數復雜度,本研究在通道混洗操作之后添加SE注意力機制[27] 。
SE注意力機制的核心目的在于如何在計算資源有限的情況下使模型更高效地關注圖像中的關鍵信息。在農田環境下,由于光照條件多變、赤霉病害初期癥狀不明顯等因素,小麥赤霉病的特征往往難以準確捕捉,容易導致模型錯檢漏檢。
注意力機制能夠幫助模型在復雜場景中快速定位 并聚焦于關鍵特征
SE注意力機制的工作過程分為壓縮(Squeeze)和激發(Excitation)兩個部分,其工作原理如圖5所示。在Squeeze階段,通過對輸人特征圖進行全局平均池化,將輸入特征圖從 C×H× W格式壓縮為 C×1×1 格式,得到單個通道上的全局信息。這一步的計算公式如下:

在Excitation階段,SE注意力機制利用兩個全連接層實現對特征圖通道數的降維再升維,以捕獲通道間的依賴關系,然后通過Sigmoid激活函數將每個通道的值限制在(0,1)之間,作為該通道的權重系數,對輸入特征圖進行通道加權。該過程的具體公式如下:
。(2)式中, σσσσ 代表Sigmoid 激活函數, L1 和 L2 分別代表降序和升序兩個全連接層的權重矩陣。在得到通道權重系數后,對輸入特征圖進行通道加權,具體公式如下:

圖3ShuffleNetv2網絡的殘差模塊和下采樣模塊

圖4 通道混洗

圖5SE注意力機制工作原理

互。為了維持模型的運算量水平,本研究保持ShuffleNetv2殘差模塊不變,僅在下采樣模塊的通道混洗操作后添加SE注意力模塊,然后利用改進后的ShuffleNetv2模塊替換YOLOv8s主干網絡中C2f模塊的Bottleneck子模塊和下采樣模塊,并在C2f模塊中使用H-Swish激活函數[28]替代原來的ReLU激活函數。H-Swish激活函數具有更強的非線性特性,能夠防止神經元“壞死”,從而提高網絡的適應性。通過引入改進的Shuf-fleNetv2網絡,可以在有效降低模型大小的同時保障網絡的檢測能力。
SE注意力機制的參數量可以忽略不計,但能通過全連接層操作進一步加深通道間的信息交。
1.2.2引入CARAFE輕量級通用上采樣算子YOLO系列模型在上采樣過程中采用傳統的最鄰近插值上采樣方法,這種方法雖然計算量少且易于實現,但僅利用像素點的空間位置來決定上采樣核,導致感受野較小,無法充分利用特征圖周圍可能存在的各種語義信息,容易造成上采樣操作后出現不連續的特征信息。為了克服這一問題,本研究引人CARAFE輕量級通用上采樣算子[29]來替換最鄰近插值上采樣。CARAFE主要由上采樣核預測模塊和特征重組模塊兩部分組成,具體工作原理如圖6所示
圖6CARAFE模塊工作原理

上采樣核預測模塊主要負責以內容感知的方式生成上采樣重組核。假設輸入特征圖的格式為C×H×W ,首先利用 1×1 卷積對原始特征圖進行通道壓縮,以減少后續網絡計算量;然后通過一個卷積核大小為 kenc×kenc 的卷積層,輸出通道數為σσσσ×kup2 ,其中, σσσσ 代表上采樣倍率, kup 代表上采樣核大小,越大的上采樣核感受野越大,但網絡參數量也會越大;接下來將卷積層輸出在通道維度上展開,得到格式為 B×kup2×σgH×σσW 的上采樣重組核;最后應用Softmax函數對上采樣重組核進行內核歸一化,以確保每個像素點上所有通道權重和為1。
在特征重組模塊中,針對輸入特征圖中以每個像素點為中心、大小為 kup×kup 的局部區域,取出與之對應的重組核進行點積運算。值得注意的是,在特征重組過程中,不同通道上的同一個像素點共用同一個上采樣重組核。
CARAFE能夠使用可訓練的上采樣核對圖像中每個特征點對應的像素點區域特征進行重組,融合較大感受野內上下區域的語義信息,生成特征損失更小的高分辨率圖像,從而提升模型在目標檢測任務中的性能。
1.2.3 引入RFB模塊替換SPPF模塊 SPP(SpatialPyramidPooling,空間金字塔池化)模塊[30通過多個不同尺度的網絡最大池化層提取圖片信息,實現全局特征和局部特征的融合,同時有助于緩解模型過擬合。而 SPPF(Spatial Pyra-midPoolingFast)模塊則在SPP模塊的基礎上將多個并行的不同尺度池化層修改成多個池化層的串聯,實現效果相同的同時減少運算量。在原始的YOLOv8網絡結構中,SPPF模塊位于主干網絡的最后一層,將經過多層下采樣和殘差模塊提取后的深層特征圖利用多尺度池化實現特征融合,增強對小目標和大目標的捕捉能力。然而,無論是SPP模塊還是SPPF模塊,最大池化層的特性都僅保留了不同局部區域的最大值,即只留下了最為顯著的圖像特征而忽略了其他特征。因此,本研究利用多分支卷積塊RFB(ReceptiveFieldBlock)替換掉YOLOv8s網絡中的SPPF模塊。
RFB模塊[31]通過模擬人類視覺神經感受野,借鑒Inception 思想[32]增強網絡的特征提取能力,并結合空洞卷積來擴大網絡感受野。其工作原理和網絡結構分別如圖7和圖8所示。
可以觀察到,對于每個不同的分支,RFB模塊首先通過 1×1 卷積層對特征圖進行通道降維,以降低后續網絡的計算量;緊隨其后的兩個卷積層在不同分支中具有不同大小的卷積核和不同的擴張率(dilationrate),從而產生不同尺度的感受野;之后對經過多個并行分支獲得的圖像信息進行通道維度拼接。為了使輸出特征圖與原始輸入特征圖的維度匹配,RFB模塊使用兩個不同的卷積層來調整輸入和輸出特征圖的通道數,以便進行相加操作。
圖7RFB模塊工作原理

圖8RFB模塊結構

與SPPF模塊相比,RFB模塊由于利用可訓練的卷積層替換最大池化層,因此能保留更多的特征細節。此外,空洞卷積的引入在不增加額外網絡模型參數的同時有效擴大了網絡的感受野。
1.3 訓練平臺與參數配置
本研究租用Autodl算力云平臺提供的硬件進行模型訓練,軟硬件配置如表1所示。訓練過程中部分網絡參數的設置如表2所示。
1.4模型訓練評估指標
本研究采用精確率(Precision,P)、召回率(Recall,R)、平均精度均值(MeanofAveragePre-cision,mAP)、網絡參數量和浮點運算量(GFLOPS)作為主要評估指標。其中,精確率表示所有被預測為正例的樣本中實際為正樣本的比例,召回率表示所有實際為正例的樣本中被預測為正樣本的比例。假設TP代表預測為正樣本,實際也為正樣本;FP代表預測為正樣本,實際為負樣本;FN代表預測為負樣本,實際為正樣本,則精確率和召回率的計算公式如下:
表1訓練硬件和軟件環境

表2訓練參數設置



但精確率和召回率之間存在一定的權衡關系,僅依靠這兩個指標無法全面評估實驗結果。mAP作為一個綜合指標,能夠平衡考量精確率和召回率,從而更全面地評估目標檢測模型在不同類別和不同召回率水平下的性能,是反映模型檢測結果優劣更為直觀的指標。其計算公式如下:


式中,AP為數據集中單一類別的平均精度;i代表多類別任務中第 i 個類別的索引標識; n 代表數據集中的目標類別總數。
2 結果與分析
2.1 消融實驗
為了驗證使用改進的ShuffleNetv2網絡結構、引人CARAFE上采樣模塊和RFB模塊對模型檢測小麥赤霉病效果的影響,本研究進行了消融實驗,結果如表3所示。可以看出,相比基準模型YOLOv8s,在主干網絡中使用改進的ShuffleNetv2在一定程度上減小了模型體積,降低了運算量,參數量和GFLOPS分別降低 28.12% 和 27.27% ,提高了網絡運行速度,同時添加的SE注意力機制也保障了模型的檢測能力,精確率從 76.6% 提高到 83.0% ,mAP也提高3.8個百分點;而分別引入CARAFE上采樣模塊和RFB模塊,雖然網絡參數量和運算量都略微有所增加,但也使mAP分別提高2.8個和0.8個百分點。同時使用三項改進措施,即本研究提出模型YOLOv8s-SCR的mAP達到 90.5% ,比原YOLOv8s模型提高5.9個百分點,而參數量降低 21.02% ,GFLOPS 減少 24.48% 。
表3消融實驗結果

注:“√”表示使用該模塊,“ ×′′ 表示不使用此模塊
為了更直觀地反映檢測結果,隨機選取3張測試圖進行可視化分析,由圖9可見,原始YOLOv8s模型在對第1和第2張圖片的測試結果中存在漏檢、誤檢的情況,而本研究提出的YOLOv8s-SCR則均準確檢測出來;另外,第3張圖片中對比了添加高斯噪聲后兩種模型的檢測結果,發現原始YOLOv8s模型明顯受到噪聲的影響,出現更多的誤檢和漏檢,而YOLOv8s-SCR魯棒性更好,受到噪聲的影響較小。
圖9 檢測結果可視化對比

2.2 輕量化網絡和引入不同注意力機制的對比實驗
為了更深人地驗證改進的ShuffleNetv2所帶來的優勢,本研究比較了使用ShuffleNetv1、原始ShuffleNetv2及改進的ShuffleNetv2替換主干網絡結構對模型性能的影響,結果如表4所示。基準模型YOLOv8s雖然具有較多參數,但由于較少的分支操作等因素,檢測速度較快。引入Shuf-fleNetv1的模型,網絡參數量最少,但檢測效果最差,速度最慢。相比使用ShuffleNetv1,使用Shuf-fleNetv2的網絡檢測速度明顯加快,mAP提高1.3個百分點。而引入添加注意力機制的ShuffleNetv2模塊后,雖然檢測時間略有增加,但檢測精度明顯提升,mAP較使用原始ShuffleNetv2的模型提升2.6個百分點;與基準模型 YOLOv8s 相比,mAP提升3.8個百分點,參數量減少 28.12% 。
表4引入不同版本ShuffleNet的模型檢測效果對比

另外,本研究還比較了利用不同注意力機制改進ShuffleNetv2對模型檢測效果的影響,分別用CBAM(卷積塊注意力)[33]、ECA(高效通道注意力)[34]和CA(坐標注意力)[35]替換SE注意力機制,實驗結果如表5所示,利用CBAM注意力機制改進的模型檢測效果最差,與使用原始Shuf-fleNetv2相比,mAP下降0.9個百分點。相比之下,引人CA注意力機制的模型檢測精度略有提升,而引入ECA和SE注意力機制的模型性能提升明顯,mAP較使用原始ShuffleNetv2分別提高2.3、2.6個百分點,但引入SE注意力機制的提升效果更為突出。
表5引入不同注意力機制的對比實驗結果

2.3 不同版本YOLO模型的性能對比
為了進一步驗證本研究提出模型的有效性,選擇 ΥOLOv5m 、YOLOv7-tiny 和 YOLOX-s 模型與其進行對比實驗。在相同的軟硬件環境下,利用同一個數據集進行訓練,結果如表6所示。相比其他3種YOLO模型,本研究提出的YOLOv8s-SCR模型在小麥赤霉病檢測中表現出明顯的優勢,mAP相對于其他3種YOLO模型提高 6.8~12.2個百分點,GFLOPS降低 19.10%~55.19% (除YOLOv7-ting外)。
表6不同模型的性能對比

3 結論
本研究聚焦于小麥赤霉病的檢測問題,對YOLOv8s模型進行一系列改進,有效提升了檢測精度,降低了運算復雜度。首先,通過融合SE注意力機制及改用H-Swish激活函數對ShuffleNetv2進行改進,并用改進的ShuffleNetv2網絡替換YOLOv8s主干網絡中C2f模塊的Bottleneck子模塊和下采樣模塊,在保障檢測精度的同時降低了模型參數量。其次,采用可訓練的CARAFE輕量級通用上采樣算子替換傳統的最鄰近插值上采樣方法,同時用RFB模塊替換原網絡中的SPPF模塊,有效擴大了感受野,減少了網絡傳播中的信息丟失,提高了模型的特征提取能力。與原始YOLOv8s模型相比,本研究提出的YOLOv8s-SCR模型參數量減少 21.02% ,GFLOPS 降低 24.48% ,而mAP提高5.9個百分點,達到 90.5% 。另外,YOLOv8s-SCR模型的權重文件大小僅 17.1MB ,遠低于原始YOLOv8s模型的21.5MB,網絡體積明顯減少。而且與其他版本YOLO模型(YOLOv5m、YOLOv7-tiny 和 YOLOX-s )相比,在小麥赤霉病檢測任務上表現優越。但研究中也發現,改進模型的預選框檢測置信度仍然較低,還需在接下來的研究中做好進一步優化,以提升模型識別目標框的置信度和檢測精度。
參考文獻:
[1]李圣軍.2022/2023年度全球小麥市場回顧及 2023/2024 年度展望[J].中國糧食經濟,2023(8):65-69.
[2]仝媛.小麥白粉病和赤霉病的發生與防治方法研究[J].種 子科技,2023,41(23) :91-93.
[3]胡增娟,孔高原,蒲洪浩.山東青島小麥常見病蟲害防治 [J].特種經濟動植物,2024,27(2):85-87.
[4]胡永偉.小麥病蟲草害發生特點與防控[J].農機市場, 2023(11) :69-70.
[5]鄭遠攀,李廣陽,李曄.深度學習在圖像識別中的應用研究 綜述[J].計算機工程與應用,2019,55(12):20-36.
[6]翁楊,曾睿,吳陳銘,等.基于深度學習的農業植物表型研 究綜述[J].中國科學:生命科學,2019,49(6):698-716.
[7]Arunangshu P,Vinay K.AgriDet:plant leaf disease severity classification using agriculture detection framework[J]. Engineering Applications of Artificial Intelligence,2023,119: 105754.
[8]Girshick R,Donahue J,Darrell T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. IEEE,2014:580-587.
[9]毛銳,張宇晨,王澤璽,等.利用改進Faster-RCNN 識別小 麥條銹病和黃矮病[J].農業工程學報,2022,38(17): 176-185.
[10]朱旭,馬溴,姬江濤,等.基于FasterR-CNN的藍莓冠層果 實檢測識別分析[J].南方農業學報,2020,51(6):1493- 1501.
[11]Xie X Y,Ma Y Y,Liu B,et al. A deep-learning-based real-time detector for grape leaf diseases using improved convolutional nerural networks[J]. Frontiers in Plant Science,2020,11:751.
[12]張平川,胡彥軍,張燁,等.基于改進版Faster-RCNN的復 雜背景下桃樹黃葉病識別研究[J].中國農機化學報, 2024,45(3) :219-225.
[13]劉譜,張興會,張志利,等.從RCNN到YOLO的目標檢測綜 述[C]//第十六屆全國信號和智能信息處理與應用學術會 議論文集.2022:8.
[14]Redmon J,Divvala S,Girshick R,et al. You Only Look Once : unified,real-time object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. IEEE,2016:779-788.
[15]Liu W,Anguelov D,Erhan D,et al. SSD: Single Shot MultiBox Springer Intermational Publishing,2016:21-37.
[16]李震,李佳盟,王楠,等.基于輕量化改進模型的小麥白粉 病檢測裝置研發[J].農業機械學報,2023,54(增刊2): 314-322.
[17]孫俊,吳兆祺,賈憶琳,等.基于改進YOLOv5s的果園環境 葡萄檢測[J].農業工程學報,2023,39(18):192-200.
[18]Luo Y Z,Bai B,Yu X Y,et al. A study on the rapid identification method of root nodules based on improved Yolox[C]// 2023 35th Chinese Control and Decision Conference (CCDC), Yichang,China.IEEE,2023:1413-1418.
[19]Bazame H C,Molin JP,Althoff D,et al.Detection of coffee fruits on tree branches using computer vision[J]. Scientia Agricola,2022,80:e20220064.
[20]張立杰,周舒驊,李娜,等.基于改進 SSD 卷積神經網絡的 蘋果定位與分級方法[J].農業機械學報,2023,54(6): 223-232.
[21]張萬枝,曾祥,劉樹峰,等.基于改進YOLO v5s 的馬鈴薯種 薯芽眼檢測方法[J].農業機械學報,2023,54(9):260- 269.
[22]周品志,裴悅琨,魏冉,等.基于YOLOv4 模型的果園櫻桃實 時檢測研究[J].浙江農業學報,2022,34(11):2522-2532.
[23]李茂,肖洋軼,宗望遠,等.基于改進YOLOv8模型的輕量化 板栗果實識別方法[J].農業工程學報,2024,40(1):201- 209.
[24]陳雷,袁媛.大田作物病害識別研究圖像數據集[J].中國 科學數據:中英文網絡版,2019,4(4):85-91.
[25]Ma N N,Zhang X Y,Zheng H T,et al. Shuflenet v2: practical guidelines for efficient cnn architecture design[C]//Proceedings of the 15th European Conference on Computer Vision (ECCV). Cham:Springer,2018:116-131.
[26]Zhang X Y,Zhou XY,Lin M X,et al. ShuffleNet:an extremely effcient convolutional neural network for mobile devices[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. IEEE,2018:6848-6856.
[27]Hu J,Shen L,Sun G. Squeeze-and-excitation networks[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. IEEE,2018:7132-7141.
[28]Howard A,Sandler M,Chu B,et al. Searching for MobileNetV3 [C]//Proceedings of the IEEE/CVF International Conference on Computer Vision(ICCV). IEEE,2019:1314-1324.
[29]Wang JQ,Chen K,Xu R,et al. Carafe: Content-aware reassembly of features[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV). IEEE,2019: 3007-3016.
[30]He K M,Zhang X Y,Ren S Q,et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis amp; Machine Intelligence,2015, 37(9) :1904-1916.
[31]Liu ST,HuangD.Receptivefieldblock net foraccurateand fastobject detection[C]//Proceedings of the European Conference on Computer Vision(ECCV).Cham.:Springer,2018: 385-400.
[32] Szegedy C,Liu W,Jia Y Q,et al. Going deeper with convolutions[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.IEEE,2015:1-9.
[33]Woo S,Park J,Lee JY,et al. CBAM:convolutional block attention module[C]//Proceedings of the European Conference on Computer Vision(ECCV).Cham.:Springer,2018:3-19.
[34]Wang QL,Wu BG,Zhu PF,et al. ECA-Net:efficient channel attention for deepconvolutional neural networks[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and PatternRecognition.IEEE,2020:11534-11542.
[35]Hou QB,Zhou D Q,Feng JS.Coordinate attention for efficient mobile network design[C]//Proceedingsof the IEEE/CVF Conference on Computer Vision and Pattern Recognition. IEEE,2021:13708-13717.