999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv8模型的百合地雜草檢測方法

2025-03-14 00:00:00王堯趙霞程鴻
軟件工程 2025年3期

關鍵詞:百合;雜草檢測;YOLOv8模型;卷積神經網絡

中圖分類號:TP391 文獻標志碼:A

0引言(Introduction)

目前,在農作物田間雜草檢測領域,基于計算機視覺和深度學習的非接觸性目標檢測技術取得了顯著成效。張兆國等通過改進YoloV4檢測網絡并結合MobilenetV3,實現了全類平均準確率為91.4%的優異表現;劉莫塵等提出了一種改進的YOLOv4-tiny模型,結合MSRCR(Multi-Scale Retinex with Color Restoration)增強算法和K-means++聚類以及通道剪枝技術,用于田間環境下玉米苗和雜草的實時高精度檢測,改進后的YOLOv4-tiny模型的平均準確率提升至96.6%;姜紅花等胡提出了一種基于MasKR-CNN(Mask Region-Based Convolutional Neural Network)的雜草檢測方法,實現了在復雜田間環境下對雜革的快速、準確檢測和輪廓分割;王秀紅等提出一種適用于Jetson TX2(NVIDIA Jetson TX2嵌入式人工智能計算平臺)的秸稈覆蓋農田雜草檢測方法,使YOLOv5sl模型在TensorRT的加速下檢測精度達到93.6%,實現了對玉米苗期雜草的實時精準檢測。然而,在百合及其伴生雜草的檢測方面,相關研究仍較為匱乏。為實現百合及伴生雜草的高效識別,本文提出一種基于YOLOv8改進的檢測模型。該模型在細小雜草的檢測任務中表現出色,檢測率顯著提升,多目標漏檢率更低,進一步提高了整體的檢測精度。

1材料與方法(Materials and methods)

1.1數據集建立

實驗使用的數據集圖像于2023年9月在甘肅省農業科學院植物保護研究所榆中實驗基地進行采集。由于自然環境背景的復雜性和百合一伴生雜草目標特征的不明顯性,研究人員在采集過程中選擇了不同的拍攝角度、拍攝距離、光線條件等,以進一步增強目標數據的多樣性和模型泛化能力。不同角度下的百合及伴生雜草圖像如圖1所示。

采用Labelimg軟件標注自然環境下百合及伴生雜草目標,得到包含目標類別及邊界框坐標信息的YOLO標簽文件,然后將采集到的百合及伴生雜草數據集劃分為訓練集和驗證集。數據集分布表如表1所示。

1.2百合及雜草目標檢測方法

1.2.1 YOLOv8卷積神經網絡模型

YOLOv8是Ultralytics公司于2023年1月發布的一種SOTA(State of TheArt)模型。它繼承了以往YOLO系列的優點,同時在多個方面進行了創新和改進,在一定程度上提高了目標檢測的性能和效率。YOLOv8在其前作YOLO系列的基礎上進行以下改進:引入了無錨點(AnchorFree)檢測機制,簡化了目標檢測流程,提升了模型的精度與速度;對網絡架構進行了優化,采用了更高效的卷積核和模塊設計,減少了模型的參數量和計算負擔,增強了對目標特征的提取能力;采納了創新的數據增強策略,如鑲嵌增強(Mosaic Data Augmentation),提高了模型對多樣化場景的適應性和泛化能力。

YOLOv8的網絡結構主要由輸入端(Input)、主干網絡(Backbone)和頭部網絡(Head)3個部分構成。百合一雜草圖像經過數據增強后,由輸入端送人網絡中。在主干網絡中,采用了DarkNet53結構對圖像進行自下而上的特征提取,并使用C2f模塊替代傳統的C2模塊。C2f層由多個Bottleneck塊組成,每個塊包含兩個卷積層,分別是1*1的卷積層和3*3的卷積層。這兩個卷積層對輸入特征圖進行變換和特征提取,增強了模型對復雜圖像內容的理解。SPPF(Spatial Pyramid Poolingin Fast Mode)模塊通過使用不同大小的池化核來提取特征圖上的多尺度信息,并將信息融合為一個特定的特征表示,供后續的頭部網絡進行目標的分類與定位。頭部網絡由路徑聚合網絡(Path Aggregation Network,PANet)和預測頭(Detect)組成,這些組件協同工作,實現了對百合一雜草的分類及定位。PANet是頸部網絡的重要組成部分,通過自下而上的路徑增強和白適應特征池化策略,高效地聚合并優化多尺度特征,從而提升了模型對百合一雜草的定位精度。

1.2.2網絡模型的改進

改進后的YOLOv8-LWD結構如圖2所示。首先,構建基于BiFormer的C2f_BFm模塊,并用其替換主干網絡中的第一個C2f模塊;其次,頭部網絡在Neck端引入GSConv和Slim-neck,這一改進使得模型在進行目標檢測時更加高效,既保持了檢測精度,又減輕了模型的復雜度;最后,使用MPDIoU損失函數克服了CIoU損失函數的局限性,提高了模型的檢測準確率。

本文主要從以下3個方面對模型進行改進。

(1) C2f_BiFormer模塊

在YOLOv8模型中,盡管C2f在特征提取方面已經足夠優秀,但是C2f模塊不能充分實現不同深度特征層之間的交互,導致模型無法最大化地利用多尺度特征信息,影響了模型在復雜環境下的目標檢測性能。C2f_BF模塊,是基于BiFormer構建的一個輕量化模塊。該模塊設計精巧,不僅能學習殘差特征,而且還能夠最大限度地保留細節豐富的上下文信息。這一特性顯著降低了目標檢測過程中的噪聲干擾,增強了模型對遠距離依賴關系的建模能力,特別適用于復雜環境下小目標及重疊遮擋目標的檢測任務。BiFormer是基于Transformer模型的一個變體,通過雙層路由注意力機制(Bi-Level Routing Attention)實現了更靈活的計算分配和特征感知。

雙層路由注意力機制是一種專為處理圖像數據而設計的機制,旨在減少不必要的計算。通過這一機制,系統能夠在初步階段篩選掉大量無關信息,只關注那些對于最終結果至關重要的區域。與傳統的全局自注意力機制相比,這種策略大幅降低了處理需求。在此基礎上,進一步引入了BiFormerBlock,它是基于BiFormer和雙層路由注意力機制的結合體。BiFormerBlock模塊如圖4(a)所示,該模塊的運作始于深度可分離卷積(DWCon),它負責隱式地記錄輸入數據的空間關系。隨后,雙層路由注意力機制與多層感知機(MLP)協同工作,對數據進行進一步的位置敏感性建模。這種設計不僅優化了計算資源的使用,還提高了模型對圖像特征的捕捉能力。

引入BiFormerBlock后,實現了對輸入特征圖的動態稀疏處理。這種策略不僅有效降低了噪聲干擾,而且與傳統的Transformer架構相比,顯著減少了計算需求,從而減輕了內存的負擔。同時,C2f模塊通過增加的跨層連接,增強了模型對梯度流的控制,促進了對殘差特征的深入學習。C2f_BF模塊如圖4(b)所示,將C2f模塊與BiFormerBlock結合,并替代了主干網絡中的初始C2f模塊。這種集成方法保持了模型的輕量化,同時賦予了模型更高效的殘差特征學習能力,最大限度地保留了上下文信息的細節。通過這種方式,顯著減少了在雜草目標檢測過程中的噪聲干擾,增強了模型對復雜環境中小目標及部分遮擋目標的檢測能力。

(2)GSConv和Slim-neck技術

由于在主干網絡中采用基于BiFormer的C2f_BF模塊會導致模型參數量和計算量的增加,因此本研究引入了GSConv和Slim-neck技術,旨在在維持目標檢測精度的前提下,有效地減輕模型的計算負擔和參數冗余。

GSConv模塊如圖5(a)所示,該模塊采用了一種融合策略,結合了標準卷積和深度可分離卷積的優勢,它通過Shuffle操作,實現了標準卷積輸出與深度可分離卷積輸出之間的信息融合。這一策略不僅促進了通道間信息的交互,而且有效地減少了模型運算的時間消耗。因此,GSConv模塊在確保特征融合質量的同時,顯著提升了模型的運算效率。

GSBottleneck模塊如圖5(b)所示,該模塊由兩個GSConv層和一個DWConv層構成。在此結構中,輸入特征被分別送人兩個GSConv層和一個DWConv層進行處理。隨后,在輸出階段,這3個層的處理結果會合并在一起。基于GSBottleneck結構,VoVGSCSPC模塊通過一種高效的聚合方法被構建,旨在減少網絡的計算復雜度和參數數量,并維持模型的識別精度,VoVGSCSPC模塊如圖5(c)所示。

(3)MPD損失函數

在YOLOv8網絡架構中,采用了CIoU損失函數作為邊界框回歸的評估指標。該損失函數綜合考慮了3個關鍵因素,即預測邊界框與真實邊界框之間的交集面積、中心點之間的歐氏距離以及邊界框的長寬比,以此計算回歸損失。具體的損失計算公式如公式(5)至公式(8)所示:

在針對百合地小目標進行邊界框回歸的任務中,CIoU損失函數通過考慮預測邊界框與真實邊界框之間的中心點重疊度、形狀、位置和尺寸差異,引入了懲罰項來優化這些偏差。然而,當預測邊界框與真實邊界框的長寬比相匹配,但長寬的具體數值不一致時,CIoU損失函數的作用會受到限制。這種局限性可能會制約損失函數的優化效果,進而影響模型的收斂速度和最終的檢測精度。

據此,本研究提出采用MPDIoU損失函數替代現有的CIoU損失函數。MPDIoU損失函數引入了最小點距離的概念,通過這一度量對損失函數進行重新定義,減少了損失函數的總自由度。MPDIoU損失函數的計算公式如式(9)所示:

在特定情況下,如預測邊界框和真實邊界框中心點不重疊時,MPDIoU損失函數能夠高效地指導預測框向真實框逼近。尤為特別的是,當預測框與真實框的中心點一致且長寬比匹配,但尺寸有所差異時,MPDIoU損失函數通過施加非零的懲罰項,有效地防止了性能退化至簡單的IoU損失函數。與CIoU損失函數相比,MPDIoU損失函數不僅在計算上更為簡潔,而且還在模型的穩定性和收斂性方面展現出顯著優勢,尤其在小目標檢測任務中,顯著提升了檢測精度。

1.3訓練平臺

訓練模型平臺的硬件配置為RTX4090 GPU 24 GB顯卡,軟件環境為WIN10系統、64位、Python3.8版本、Pytorch2.0.0框架、Cuda11.8版本,訓練參數如表2所示。

2結果分析(Results analysis)

2.1消融實驗

消融實驗結果如表3所示。由表3中的數據可知,利用BiFormer改進主干網絡中第一個C2f模塊后,模型的檢測精度得到提升,但模型的權重和計算量都略有增加;采用GSConv卷積和Slim_neck技術,減少了計算量、參數量和模型權重;通過將傳統的CIoU損失函數替換為MPDIoU損失函數,模型在邊界框回歸任務中展現出更高的穩定性,同時實現了預測精度的顯著提升。

由表3中的數據可知,實驗2在YOLOv8n中將主干網絡的第一個C2f模塊替換成C2f_BF模塊后,其平均精確率相較于基線模型的指標提升了1.9百分點,但模型的權重和計算量分別增加至6.8和8.4G,其原因在于相較于原始的C2f模塊,C2f_BF模塊在特征提取方面具有更強的能力,能夠更好地捕捉和表達圖像中的細節信息,從而提高了模型在目標檢測任務上的性能,然而這種性能的提升往往伴隨著模型復雜度的增加。C2f_BF模塊引入了更多的參數和計算量,直接導致了模型的權重增加至6.8。實驗3引入了GSConv和Slim-neck技術,使模型的參數量和計算量分別減少至28M和7.4G,其原因在于GSConv模塊采用一種融合策略,結合了標準卷積和深度可分離卷積的優勢,在保證融合質量的同時,降低了模型的運算時間;基于GSBottleneck結構構建的VoVGSCSPC可以減少模型的計算復雜度和參數量,并能保持模型的識別精度。實驗4將原模型的損失函數替換為MPDIoU損失函數,使其平均精確率對比實驗3的指標增加了0.7百分點,并且模型的計算量和模型權重都略有下降,同時增強了小目標檢測任務的平均精確率。實驗5將原模型主干網絡的第一個C2f模塊替換為C2f_BF模塊,同時將損失函數替換為MPDIoU損失函數,使模型的平均精確率較于基線網絡增加了2.3百分點。實驗6在原模型的基礎上添加C2f_ BF、GSConv8-Slim neck和MPDIoU損失函數,其中參數量相較于實驗2、實驗3、實驗4分別降低了2.1M、0.01M、2.1 M,同時平均精確率分別增加了1.0百分點、2.5百分點和2.2百分點;相較于基線網絡,其參數量、計算量和模型權重分別降低了0.21M、0.7 G和0.6,平均精確率增加了2.9百分點。

2.2模型特征可視化

為了更清晰地展現C2f_BF在模型特征方面對識別性能的增強效果,本研究采用了Grad-CAM方法生成可視化的熱力圖。這種熱力圖能夠直觀地反映網絡對各類目標的學習效果。Grad-CAM通過反向傳播過程中的梯度信息,對梯度矩陣執行空間全局平均池化操作,并結合特征層的通道權重進行激活,從而生成熱力圖。在熱力圖中,不同區域的亮度級別揭示了圖像中各部分對模型輸出結果的影響力大小。通過這種方式,可以更直觀地理解模型是如何關注圖像的關鍵區域,進而優化和調整網絡結構以提高識別準確性。替換主干網絡中第一個C2f模塊前后的模型熱力圖如圖6所示。

與圖6(b)相比,圖6(c)中的百合—雜草目標處顏色更加鮮亮,其響應程度更高,而錯誤提取的其他不相干特征處的亮度降低。采用融合雙層路由注意力機制的C2f模塊后,模型對于正確目標的感知力更強,從而有效提升了模型在復雜環境下的目標檢測性能。

2.3檢測模型對比實驗

將改進后的YOLOv8一LWD與YOLOv3-tiny、YOLOv5、YOLOv6等主流目標檢測模型進行對比,不同算法的效果對比結果如表4所示。由表4中的數據可知,YOLOv8-LWD的平均精確率相較于YOLOv3-tiny、YOLOv5、YOLOv6、YOLOv8n分別提升了3.4百分點、2.1百分點、2.3百分點和2.9百分點,同時模型計算量相較于YOLOv3-tiny、YOLOv6、YOLOv8n分別減少了11.5、4.4和0.7。YOLOv6模型的參數量和計算量較大且檢測精度較低。改進后的YOLOv8_LWD相較于其他模型,對于田地中的百合一雜草的檢測效果更好。

3結論(Conclusion)

本研究針對百合生長過程中雜草檢測問題,提出了一種基于改進YOLOv8模型的百合地雜草檢測方法。通過創新性地引入C2f_BF模塊、GSConv和Slim-neck技術,以及MPDIoU損失函數,成功地提高了模型在復雜環境下對小目標和重疊遮擋目標的檢測性能。實驗結果表明,改進后的YOLOv8-LWD模型的平均精確率(mAP)達到了90.3%,相比于原始YOLOv8n模型平均精確率提升了2.9百分點,這一結果證實了此方法的有效性。

盡管研究人員取得了顯著的成果,但仍有進一步改進的空間。未來的工作將聚焦于以下幾個方向:首先,探索更先進的網絡結構和算法,以進一步提高模型在更復雜場景下的檢測能力;其次,研究如何將模型擴展到其他作物和農業場景中,以提高其適用性;最后,考慮集成更多類型的數據,如多光譜圖像和時間序列數據,以增強模型對作物生長和雜草發生的理解。通過這些努力,期望能夠為農業生產提供更加全面和高效的智能解決方案。

主站蜘蛛池模板: 任我操在线视频| 国产一区二区影院| 欧美日韩一区二区在线播放| 伊人五月丁香综合AⅤ| 国产精品.com| 亚洲二区视频| 正在播放久久| 91麻豆国产视频| 亚洲第一视频免费在线| 沈阳少妇高潮在线| 亚洲天堂精品在线| 91精品日韩人妻无码久久| 91无码人妻精品一区| 免费看av在线网站网址| 欧美日韩国产在线播放| 亚洲乱码在线播放| 亚洲美女久久| 女人一级毛片| 国产精品极品美女自在线网站| 国产丝袜精品| 国产91小视频在线观看| 丝袜美女被出水视频一区| 午夜限制老子影院888| 日韩精品成人在线| 99在线视频免费观看| 欧美亚洲国产日韩电影在线| 天天综合网站| 99人妻碰碰碰久久久久禁片| 国产精品成| 99人妻碰碰碰久久久久禁片| 极品国产一区二区三区| 欧美专区日韩专区| 永久免费av网站可以直接看的| 午夜一级做a爰片久久毛片| 无码国内精品人妻少妇蜜桃视频| 午夜国产理论| 日本精品视频一区二区 | 亚洲一级色| 欧美在线精品怡红院| 国产精品久久久久久久久kt| 日韩在线欧美在线| 免费又黄又爽又猛大片午夜| 另类重口100页在线播放| 国产精品久久久久久久伊一| 亚洲专区一区二区在线观看| 国产免费久久精品99re不卡| 老司机午夜精品网站在线观看| 2021亚洲精品不卡a| 亚洲av色吊丝无码| 91在线播放国产| 欧美综合在线观看| 在线免费观看a视频| 国产无码网站在线观看| 999精品免费视频| 一级毛片免费高清视频| 亚洲精品成人片在线观看| 久久国产精品无码hdav| 亚洲中文字幕在线一区播放| 亚洲看片网| 国产网友愉拍精品| 国产97公开成人免费视频| 白浆免费视频国产精品视频| 欧美一级高清片久久99| 一级做a爰片久久免费| a级毛片一区二区免费视频| 亚洲视频免费在线| 日韩欧美视频第一区在线观看| 亚洲欧洲综合| 成人毛片免费在线观看| 少妇极品熟妇人妻专区视频| 国产欧美另类| 无码精品国产dvd在线观看9久| 国产不卡在线看| 亚洲激情区| 制服丝袜亚洲| 国产菊爆视频在线观看| a免费毛片在线播放| 狠狠操夜夜爽| 亚洲AⅤ综合在线欧美一区| 一本大道无码高清| 久久国产拍爱| 亚洲中文字幕久久精品无码一区|