999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于輕量化改進YOLOv8模型和邊緣計算的玉米病蟲害檢測系統

2025-03-29 00:00:00施杰熊凱祥李志陳立暢唐秀英楊琳琳
江蘇農業學報 2025年2期
關鍵詞:特征檢測模型

收稿日期:2024-10-30

基金項目:云南省重大科技專項(202302AE090020);云南省農業基礎研究聯合專項(202401BD070001-069);云南省作物生產與智慧農業重點實驗室開放課題

作者簡介:施 杰(1981-),男,云南昆明人,博士,副教授,碩士研究生導師,主要從事智慧農業、智能農業裝備研究。(E-mail)km_shijie@126.com

通訊作者:楊琳琳,(E-mail)29545343@qq.com

摘要: 為實現玉米病蟲害的原位準確檢測與識別,本研究設計了一套基于邊緣計算的玉米病蟲害智能檢測系統。該系統基于YOLOv8模型并進行改進,具體改進方法包括:采用高效視覺網絡(EfficientViT)作為主干網絡,以降低計算量;在特征融合網絡中引入幻影卷積(GhostConv),進一步減輕計算負擔;在C2f模塊中引入空間通道重建卷積(SCConv),以增強特征提取性能;將損失函數替換為具有動態非單調聚焦機制的損失函數(WIoU),以提高模型的識別精度。同時,本研究設計了基于邊緣計算的病蟲害檢測系統上位機、下位機架構,并將該輕量化模型部署到Jetson orin nano邊緣計算設備上。系統采用Pyside6開發系統可視化界面,除具備識別與訓練功能外,還集成了基于大模型技術的AI專家庫,可以實現對病蟲害的智能化診斷。通過自建的玉米病蟲害數據集對改進模型YOLOv8-EGCW進行檢驗。結果表明,與原始模型YOLOv8m相比,改進模型YOLOv8-EGCW的精確度、召回率和平均精度均值分別提升了0.4個百分點、1.6個百分點和1.2個百分點,參數量和模型大小大幅減少,單張圖像檢測時間縮短。建立的玉米病蟲害檢測系統測試結果顯示,準確率達到93.4%,檢測速度達1 s 25幀。表明該系統能夠滿足邊緣計算環境下玉米病蟲害原位檢測的需求。

關鍵字: 玉米;病蟲害檢測系統;YOLOv8模型;輕量化改進;邊緣計算

中圖分類號: S435.13"" 文獻標識碼: A"" 文章編號: 1000-4440(2025)02-0313-10

Maize pest and disease detection system based on lightweight improved YOLOv8 model and edge computing

SHI Jie1,2, XIONG Kaixiang1, LI Zhi1, CHEN Lichang1, TANG Xiuying1, YANG Linlin1,2

(1.Faculty of Mechanical and Electrical Engineering, Yunnan Agricultural University, Kunming 650201, China;2.The Key Laboratory for Crop Production and Smart Agriculture of Yunnan Province, Kunming 650201, China)

Abstract: In order to achieve in-situ accurate detection and identification of maize pests and diseases, this study designed an intelligent detection system for maize pests and diseases based on edge computing. The system was improved based on the YOLOv8 model with specific improvement methods, including adopting the Efficient Vision Transformer (EfficientViT) as the backbone network to reduce the computational load, introducing Ghost Convolution (GhostConv) into the feature fusion network to further reduce the computational burden, introducing Spatial-Channel Convolution (SCConv) into the C2f module to enhance the feature extraction performance, and replacing the loss function with the Wise Intersection over Union (WIoU) loss function that had a dynamic non-monotonic focusing mechanism to improve the recognition accuracy of the model. At the same time, this study designed the upper and lower computer architectures of the pest and disease detection system based on edge computing and deployed this lightweight model to the Jetson Orin Nano edge computing device. The system used Pyside6 to develop a visual interface. In addition to the recognition and training functions, it also integrated an AI expert library based on large-model technology, which could realize intelligent diagnosis of pests and diseases. The improved model YOLOv8-EGCW was tested using a self-built maize pest and disease dataset. The results showed that compared with the original YOLOv8m model, the precision, recall rate, and mean average precision of the improved model YOLOv8-EGCW increased by 0.4 percentage points, 1.6 percentage points, and 1.2 percentage points, respectively. The number of parameters and the model size were greatly reduced, and the detection time for a single image was shortened. The test results of the established corn pest and disease detection system indicated that the accuracy rate reached 93.4% and the detection speed reached 25 frames per second. These results indicated that the system could meet the requirements of in-situ detection of maize pests and diseases in the edge computing environment.

Key words: corn;pest and disease detection system;YOLOv8 model;lightweight improved model;edge computing

2023年,中國玉米總產量達到2.888 4×108t[1],玉米不僅是主要糧食作物,也是重要的工業原料和飼料來源。然而,玉米在生長過程中易遭受病蟲害侵襲,病蟲害嚴重影響其產量和品質。因此,開發一套玉米病蟲害檢測系統對于保障糧食安全、提高糧食產量具有重要意義。

傳統病蟲害檢測主要依靠人工判斷和圖像處理技術,如Dong等[2]提取形態學、顏色和紋理特征,結合最近鄰距離方法識別黃瓜葉片病害,識別準確率超過96%;戴寧[3]利用基于K均值聚類的圖像分割技術提取蟲害形狀特征,識別準確率達到95.7%;Jothiaruna等[4]提出了一種基于高級綜合顏色特征(ACCF)和區域生長方法的病害斑點分割算法,在處理非均勻光照和復雜背景條件下的葉片圖像時,分割準確率可達87%;蔣龍泉等[5]通過融合葉片圖像的顏色、紋理等特征,并利用支持向量機(SVM)對特征進行分類,識別準確率超過90%。盡管圖像處理能夠較為準確地識別出病蟲害,但其泛化能力弱,特征提取能力有限,難以滿足實際生產需求。

隨著深度學習技術的發展,其強大的特征提取能力有效解決了傳統技術在特征選擇上的局限性。Wang等[6]提出了一種基于聚合深度殘差網絡的玉米病害檢測方法,通過調整卷積核規模提高檢測精度,在實際檢測中準確率達到90.22%;陳啟昇等[7]設計了基于ResNet模型的植物病蟲害智能檢測系統,該系統采用服務器模式運行,通過web端采集圖像,由服務器端完成分析處理;Bi等[8]提出了一種基于MobileNet的玉米葉片病害檢測模型,該模型采用了高效通道注意力模塊(EAC),同時引入擴張卷積,識別精度可達98.2%;徐會杰等[9]基于YOLOv3模型,將輸出特征圖像與下采樣特征圖像拼接,并利用多尺度檢測層對玉米病蟲害進行檢測和識別;李頎[10]開發了一種基于RFBNet模型的桃樹病蟲害檢測系統,并將訓練后的系統部署至Android移動設備上進行檢測。在病蟲害識別中,深度學習可以自動提取特征,即使在復雜環境下也能表現出較強的魯棒性,但其計算量較大,對硬件資源要求較高。

隨著邊緣計算技術的發展,將病蟲害檢測模型部署到邊緣計算設備上,能夠更加便捷高效地識別病蟲害。如Chen等[11]在Nvidia Jetson TX2上部署了基于YOLOv3-tiny的果園蟲害識別模型,通過無人機進行蟲害識別并上傳位置信息,用于記錄果樹生長狀況;劉忠等[12]在Nvidia Jetson Xavier NX上部署了基于改進YOLOv8的荷葉病蟲害檢測模型,其推理速度達到1 s 27幀。將計算和數據處理從中央服務器轉移到邊緣設備上,不僅提高了響應速度和效率,還降低了傳輸成本和能耗,更符合實際生產需求。針對目前玉米病蟲害檢測模型參數量大、配套系統不夠完善、邊緣計算應用不足等問題,本研究擬改進YOLOv8模型,并結合邊緣計算技術構建一種玉米病蟲害檢測系統,旨在實現對玉米病蟲害的原位高效檢測。

1 材料與方法

1.1 YOLOv8模型的改進策略

YOLOv8是一種單階段目標檢測模型,作為YOLO系列模型的主流版本,被廣泛應用于農業目標檢測中。該模型主要由主干網絡、頸部網絡和頭部網絡3部分組成,其核心思想是將輸入圖像劃分為多個網格,并在每個網格中預測物體的邊界框和類別信息。YOLOv8采用了先進的網絡結構,能夠在短時間內處理大規模圖像數據,但其對硬件性能的要求較高。為使YOLOv8能夠流暢地部署在邊緣計算設備上,本研究對YOLOv8模型進行了輕量化改進,具體改進方法包括:使用更高效視覺網絡(EfficientViT)[13]替換原主干網絡;將頸部網絡的標準卷積替換為輕量化的幻影卷積[14];在跨階段特征融合模塊(C2f)中融合空間通道重建卷積(SCConv)[15]以增強檢測效果;引入具有動態非單調聚焦機制的損失函數(WIOU)[16]以優化邊界框回歸精度。將改進后的模型命名為YOLOv8-EGCW,其整體結構如圖1所示。

1.1.1 主干網絡的改進 YOLOv8中的主干網絡通過深層網絡結構提升了圖像特征提取能力,但也增加了計算復雜性,延長了模型的訓練和推理時間。為了解決這一問題,本研究將YOLOv8的主干網絡替換為輕量級的EfficientViT網絡,以加快訓練和推理速度。EfficientViT采用多尺度線性注意力機制取代了傳統的Softmax注意力機制,同時引入深度可分離卷積(Depthwise separable convolution,DSConv),顯著減少了模型的參數量和計算復雜度。

圖2為EfficientViT網絡結構,首先通過多尺度線性注意力模塊從輸入信息中提取多尺度全局特征,并將不同尺度的特征進行融合。為了增強局部特征的提取能力,引入移動翻轉瓶頸卷積(Mobile inverted bottleneck convolution,MBConv)。MBConv基于DSConv對輸入通道進行擴寬和縮放,實現了對局部特征的高效提取。EfficientViT實現了全局與局部特征的高效提取以及輕量化設計,在邊緣計算設備等資源受限的平臺上表現出了卓越的性能。

1.1.2 幻影卷積的引入 在頸部網絡中,采用GhostConv替換原有的標準卷積,以實現對頸部網絡的輕量化處理。GhostConv的核心思想是通過少量卷積核提取輸入圖像的特征,再對提取的特征圖像進行簡單的線性變化,最終通過特征拼接生成新的特征圖像。該方法顯著減少了對非關鍵特征的計算量,在降低計算量的同時還能夠有效保持模型的性能,從而提升整體效率?;糜熬矸e計算公式如下:

Y′=Xf′(1)

yi,j=φi,j(y′i)(2)

式中,Y′為原始特征值;X為輸入特征圖像;f′為卷積核;yi,j為第i個原始特征圖像生成的第j個特征圖像;φi,j為第i個原始特征圖像生成的第j個恒等隱射;y′i為第i個通道特征圖像。

1.1.3 C2f模塊的改進 在頸部網絡設計中,將空間和通道重構卷積(SCConv)與跨階段特征融合模塊(C2f)融合成為C2f-SCConv模塊。相較于傳統的C2f模塊,C2f-SCConv模塊具有更強的特征提取能能力。SCConv通過自矯正操作,自適應地調節特征空間與通道之間的相關性,使網絡能夠捕捉到更豐富的空間和通道信息,從而生成更具判別力的特征圖像。SCConv的內部操作為:將輸入特征X通過空間重構單元(Spatial reconstruction unit,SRU)進行重構,得到空間細化特征Xw;然后利用通道重構單元(Channel reconstruction unit,CRU)對空間細化特征Xw進一步處理,得到通道細化特征Y,最后輸出特征圖像。通過SRU和CRU,SCConv可以降低特征的空間和通道計算量,提高特征的傳遞效率,同時增強模型對復雜數據結構的識別精度,使其能夠靈活處理不同輸入特征。雖然C2f-SCConv模塊增加了空間重構單元與通道重構單元,但其計算復雜度較低,適合部署在計算資源有限的邊緣計算設備上。

1.1.4 邊框損失函數的優化 在目標檢測任務中,通常使用交并比損失函數(IoU)來衡量預測框與真實框的重疊程度。然而,IoU在處理不同尺度和長寬比的目標時存在一定局限性,尤其是在預測框與真實框不重疊的情況下,難以準確描述框與框之間的距離關系。具有動態非單調聚焦機制的損失函數(WIoU)作為一種新型損失函數,在計算過程中引入了中心點距離懲罰項,即通過計算預測框和真實框中心點之間的歐氏距離來優化損失函數。當預測框與真實框不重疊時,該懲罰項可以準確描述兩者之間的相對位置,從而提升對非重疊框的優化效果。同時,WIoU通過動態聚焦機制提升了模型的泛化能力,該機制考慮到訓練數據中可能存在低質量標注,通過適當降低對這些樣本的懲罰權重,減少其對模型訓練的干擾,從而顯著提升模型的泛化性能,計算公式如下:

LWIoU=r×RWIoU×LIoU(3)

其中RWIoU=exp(x-xgt)2+(y-ygt)2(W2g+H2g)(4)

LIoU=1-IoU(5)

β=L*IoUL—IoU(6)

r=βδαβ-δ)(7)

式中,r為聚焦調整系數;α和δ為超參數;β為離群度;Wg和Hg分別為最小封閉框的寬度和高度;x、y為預測框的寬度和高度;xgt、ygt為真實框的寬度和高度;IoU為預測框與真實框的交并比;L*IoU為不參與反向傳播的普通框損失值;L—IoU為增量的滑動平均值。

WIoU能夠顯著提升目標定位的準確性。在玉米病蟲害檢測任務中,由于拍攝角度的差異,病蟲害特征在大小和形態上會發生明顯變化。引入WIoU能夠有效增強模型對多尺度特征的檢測能力,使其更精確地定位病蟲害區域并優化邊界框的回歸精度,從而進一步提升模型的魯棒性和檢測性能。

1.2 模型訓練平臺構建

1.2.1 試驗數據集 如圖3所示,玉米的生長環境復雜多樣,為確保病蟲害檢測模型檢測結果的準確性,本研究綜合了多種數據來源構建試驗數據集,包括玉米病蟲害的公開數據、實地拍攝數據和網絡收集數據等。由于數據集來源廣泛,圖片的格式和分辨率存在較大差異。為保證試驗的嚴謹性與規范性,對圖片進行篩選,剔除重復和無用的圖片,并對數據集進行了歸一化處理。

使用LabelImg軟件對數據集中的圖片進行數據標注,標注信息包括銹病、黏蟲、斑病和灰飛虱。標注結果以VOC格式的XML文件保存,并進一步轉換為YOLOv8所需的YOLO格式TXT文件。每個標注文件中包含病蟲害的類別信息及其在圖像中的位置信息。如圖4所示,針對采集到的圖像質量參差不齊的問題,對標注好的圖像進行了數據增強處理,具體包括變暗、鏡像、添加高斯噪聲等。數據增強不僅有效擴充了數據集的規模,還顯著提升了模型的泛化能力。最后,將數據集按照8∶2的數量比例劃分為訓練集和驗證集。

1.2.2 訓練環境與訓練參數 硬件配置包括Intel(R) I5 10400CPU處理器,NVIDIA GeForce GTX1060顯卡(6 G顯存),操作系統為Window10,軟件環境為Python 3.10.13,Torch 2.1.2,CUDA 12.3。根據文獻[17]與試驗測試,設置訓練超參數(Batch size)為16、初始化學習率為0.01、迭代次數為100次,并使用GPU進行訓練。

為評價輕量化改進模型YOLOv8-EGCW的檢測速度、準確性和魯棒性,利用相同數據集分別對YOLOv8-EGCW、YOLOv8、YOLOv5、SSD和Faster-RCNN模型進行對比。選取平均精度均值(mAP)、精確度(P)、召回率(R)、參數量、模型大小與檢測速度作為評價指標對模型進行性能評估。計算公式如下:

P=TPTP+FP×100%(8)

R=TPTP+FN×100%(9)

mAP=TP∑KK=1AP(K)K(10)

式中,TP為檢測正確的樣本數;FP為檢測錯誤的樣本數;FN為檢測遺漏的樣本數;K為檢測類別數;AP為平均精度。

2 結果與分析

2.1 各模塊對比

為驗證各模塊對模型性能的有效性,以原始模型YOLOv8m作為基線模型,引入改進模塊,并通過消融試驗評估各模塊的貢獻。采用精確度、召回率、平均精度均值、模型大小作為評價指標,結果如表1和圖5所示。消融試驗結果表明,將YOLOv8原始主干網絡替換為EfficientViT后,模型的總體精度略有下降,但模型大小減少了36.8%,輕量化效果顯著。在此基礎上,在頸部網絡中將普通卷積替換為幻影卷積(GhostConv),進一步減小了模型體積。在頸部網絡中加入C2f-SCConv模塊后,模型P值和mAP值分別提高了0.1個百分點和0.2個百分點。WIoU 通過引入動態聚焦機制和中心點距離懲罰,優化了邊界框回歸的準確性,模型mAP值和R值分別提高了0.3個百分點和0.7個百分點。綜上,通過引入EfficientViT、GhostConv、C2f-SCConv和WIoU損失函數,在實現輕量化的同時,顯著提升了模型精確度(P值)、召回率(R值)等多項性能指標。

2.2 模型改進前后性能對比

模型檢測過程主要包括預處理、推理和后處理3個階段。其中,推理階段是最耗時的部分,推理速度主要受模型參數量、模型大小和設備計算能力的限制。通過輕量化改進,模型的計算量和體積顯著降低。如表2所示,相較于原始模型,改進后的YOLOv8-EGCW模型檢測時間縮短了28.8 ms,檢測單張圖片僅耗時35.7 ms。這一優化提高了模型的檢測效率。

在目標檢測中,置信度是衡量模型預測結果可靠程度的重要指標。置信度的數值越接近1,表明模型的預測結果越可靠。如圖6所示,改進后的YOLOv8-EGCW模型對檢測目標的置信度顯著高于原始模型。YOLOv8-EGCW模型在檢測精度、置信度和檢測速度上的全面提升,能夠更好地滿足實際應用中對高精度和高可靠性檢測的需求。

2.3 不同模型的性能對比

在相同訓練參數下,對YOLOv8-EGCW、YOLOv8、YOLOv5、SSD[18]和Faster-RCNN[19]進行對比。試驗結果如圖7所示,YOLOv8-EGCW模型的平均精度均值(mAP)、召回率(R)和精確度(P)均高于其他模型。與精度較低的SSD模型相比,YOLOv8-EGCW模型的P值提高14.2個百分點,mAP值提高35.3個百分點。YOLOv8-EGCW模型大小僅為Faster-RCNN的6.2%。盡管YOLOv8-EGCW的模型大小和參數量大幅減少,但其平均精度均值、召回率和精確度等關鍵性能指標仍表現較好,充分證明了改進方法的有效性。

2.4 基于邊緣計算的玉米病蟲害檢測系統設計

2.4.1 基于邊緣計算的下位機設計

2.4.1.1 邊緣計算技術架構 邊緣計算作為云計算或服務器端的延伸和補充,具有輕量化、性能強、體積小的特點,在玉米病蟲害原位檢測中發揮重要作用。一方面,邊緣計算能夠直接對采集到的數據進行本地檢測和處理,不僅分擔了服務器的計算負載,還顯著提升了原位檢測的實時性。另一方面,邊緣計算節點可以將監測數據存儲在本地,再通過通信模塊上傳至服務器,便于對檢測數據進行統一管理和集中分析。這種分布式的檢測模式能夠有效降低網絡延遲,提升資源利用效率。如圖8所示,以英偉達Jetson orin nano作為核心設備構建邊緣計算節點,該節點能夠對玉米病蟲害信息進行采集,并部署深度學習模型對數據進行處理和保存,最后通過通信模塊上傳結果。

2.4.1.2 下位機設計 如圖9所示,下位機系統由圖像獲取模塊和主控模塊組成。其中圖像獲取模塊通過多種圖像采集設備獲取玉米不同部位和不同角度的病蟲害圖像數據,以確保數據的多樣性和全面性。主控模塊包括開發板、電源模塊、控制模塊、顯示屏和通信模塊,主要負責數據存儲、檢測分析和結果輸出等功能。采集到的圖像數據首先在本地進行存儲,隨后通過主控模塊進行實時檢測和分析。檢測結果可通過顯示屏直接輸出,還可以利用通信模塊將數據上傳至服務器,實現數據的遠程管理和監控。

采集模塊通過采集程序調用攝像頭模塊獲取玉米病蟲害圖像,無線攝像頭模塊采用奧比中光公司的Orbbec攝像頭,無線數據傳輸模塊為搭載了OpenWrt系統的TP-LINK微型路由器;有線攝像頭模塊采用S-YUE公司的AF16V1型號RGB相機。系統的核心組件為Jetson orin nano開發板,該開發板搭載Linux操作系統,配備6核ARM架構CPU和具有1 024個CUDA核心安培架構GPU,具備強大的并行計算能力,能夠部署至深度學習模型并執行推理任務。

2.4.2 基于邊緣計算的上位機設計 圖10為系統上位機的工作流程示意圖。系統上位機在獲取病蟲害圖像數據后,首先對圖像進行預處理,隨后進行識別檢測,最終輸出并保存檢測結果。上位機界面基于Python語言開發,結合了Pytorch、OpenCV和PySide6等數據庫。其中,Pytorch數據庫用于深度學習模型的訓練與推理,OpenCV數據庫用于讀取傳感器信息和圖像預處理,PySide6數據庫用于構建可視化功能界面。

套接字(Socket)通信流程如圖11所示。系統完成檢測后,檢測結果被保存至指定的TXT文件中。為便于對檢測信息進行集中管理,系統采用基于Socket的通信機制,將邊緣設備中保存的檢測結果傳輸至服務器端。通過在相同IP地址下使用不同的端口號,實現數據傳輸的加密和隔離,從而增強了通信過程的安全性。Socket通信的建立遵循服務器監聽、客戶端請求和連接確認3個關鍵步驟,確保了通信過程的穩定性、數據傳輸的有序性及信息的完整性。

將改進后的模型YOLOv8-EGCW部署在邊緣計算裝置上,依托Jetson orin nano的推理性能,實現對玉米病蟲害的快速檢測。為充分發揮邊緣計算設備的性能,采用TensorRT對模型進行加速部署。由于模型依賴于大型深度學習框架,檢測過程中涉及大量對不同網絡層函數的調用,增加了計算負擔。通過TensorRT優化模型結構,可以有效減少調用操作,從而提升推理速度。TensorRT加速機制在于將檢測網絡中的不同層進行融合,形成更寬的復合層。例如,將卷積層、歸一化層和激活層整合為一個CBR(Conv+BN+ReLU)層,從而減少網絡的深度和寬度,減少內部函數的調用次數。這種優化設計不僅簡化了計算流程,還顯著提升了檢測速度。邊緣端模型部署流程如下:首先,將基于PyTorch框架訓練完成的模型文件轉換為ONNX格式;然后使用TensorRT對病蟲害檢測模型進行分析和映射;通過Builder創建模型張量,加載模型并進行填充和分析,確定輸出張量;生成模型引擎文件并執行序列化操作;通過反序列化操作生成最終的推理引擎文件,并在程序中調用該文件進行推理,從而實現病蟲害檢測模型的高效部署。

系統軟件基于Pyside6數據庫開發,并針對Linux系統進行適應性優化。如圖12所示,軟件主要功能包括模型檢測、模型訓練、大模型問詢等。在模型檢測功能中,系統通過相機模塊采集圖像,并利用模型檢測病蟲害信息,檢測結果以TXT文件形式保存,同時通過Socket通信模塊上傳至服務器進行后續分析。模型訓練支持對YOLOv8-EGCW模型進行再訓練,以進一步提升模型的魯棒性和適應性。AI專家系統功能基于百度ERNIE 4.0大語言模型(LLM),能夠對檢測結果進行智能化解讀并提供決策支持,幫助用戶高效應對病蟲害問題。

2.4.3 系統性能測試結果 在系統性能測試中,隨機選取200幅病害圖像進行測試,測試結果如表3所示,系統共檢測到病蟲害目標248個,而通過人工標注方法確定的測試集病蟲害總數為265個,計算得到檢測精度為93.4%。此外,系統對圖像的識別速度為1 s 25幀。結果表明,該系統具有較高的檢測精度和識別速度,能夠滿足實際應用需求。

3 討論與結論

本研究提出了一種基于YOLOv8輕量化改進模型和邊緣計算的玉米病蟲害檢測系統。首先,在模型輕量化改進方面,采用EfficientViT替換原始主干網絡,并引入幻影卷積,有效降低了模型計算復雜度,同時保持了優異的特征提取能力。試驗結果表明,改進后的YOLOv8-EGCW模型的精確率、召回率和平均精度均值均高于原始YOLOv8模型,且模型參數量大幅減少,顯著降低了模型對硬件資源的需求。特別是在邊緣計算環境下,改進后的模型功耗更低,充分體現了輕量化模型在邊緣計算設備中的應用潛力。此外,相較于單一檢測模型,本模型實現了病害與蟲害的同時檢測,具有更強的泛化能力和實用價值。

其次,本研究將YOLOv8-EGCW模型部署至Jetson orin nano邊緣設備,并利用TensorRT進行加速。試驗結果表明,系統檢測速達到1 s 25幀,而原始系統檢測速度僅為1 s 12幀。邊緣計算的應用不僅有效分擔了云計算的負載,還實現了田間環境的原位檢測,顯著降低了網絡延遲,增強了檢測系統的實時性。最后,本研究還集成了基于百度ERNIE 4.0大語言模型的AI專家系統,旨在為病蟲害防治提供智能化決策支持。這一集成提高了系統的多應用場景適應性和智能化水平。

然而,本研究也存在一定的局限性。首先,數據集制作過程依賴于人工標注,這不僅增加了整體工作量,而且在處理大規模數據時,可能因疲勞或疏忽而導致數據準確性下降,從而影響整體檢測性能。未來的研究將重點關注以下幾個方面:構建基于無監督學習的檢測模型,通過自動學習圖像特征以降低數據標注成本;引入多光譜等傳感器技術,實現多源數據融合檢測,從而提升復雜背景下的識別能力;設計智能移動底盤并結合太陽能發電技術,實現全天候無人自動化檢測。通過這些改進,系統將更好地滿足智能農業發展的實際需求,為農業病蟲害防治提供更高效的技術支持。

參考文獻:

[1] 劉石磊. 2023年我國玉米市場運行情況與2024年行情展望[J]. 糧食與飼料工業,2024(2):1-3.

[2] DONG P X, WANG X D. Recognition of greenhouse cucumber disease based on image processing technology[J]. Open Journal of Applied Sciences,2013,3(1):27-31.

[3] 戴 寧. 圖像處理在玉米蟲害識別系統中的應用研究[J]. 牡丹江大學學報,2019,28(2):104-107.

[4] JOTHIARUNA N, SUNDAR K J A, KARTHIKEYAN B, et al. A segmentation method for disease spot images incorporating chrominance in Comprehensive Color Feature and Region Growing[J]. Computers and Electronics in Agriculture,2019,165:104934.

[5] 蔣龍泉,魯 帥,馮 瑞,等. 基于多特征融合和SVM分類器的植物病蟲害檢測方法[J]. 計算機應用與軟件,2014,31(12):186-190.

[6] WANG J X, YU H Y, SUI Y Y, et al. Research on identification of corn disease occurrence degree based on improved ResNeXt network[J]. International Journal of Pattern Recognition and Artificial Intelligence,2022,36 (2):1-15.

[7] 陳啟昇,謝 浩,張緯東,等. 基于深度學習的植物病蟲害智能檢測系統研究[J]. 農村經濟與科技,2021,32(18):50-52.

[8] BI C G, XU S Z, NAN H, et al. Identification method of corn leaf disease based on improved Mobilenetv3 Model[J]. Agronomy,2023,13:300.

[9] 徐會杰,黃儀龍,劉 曼. 基于改進YOLOv3模型的玉米葉片病蟲害檢測與識別研究[J]. 南京農業大學學報,2022,45(6):1276-1285.

[10]李 頎. 桃樹病害和害蟲圖像檢測系統的研究與實現[D]. 泰安:山東農業大學,2022.

[11]CHEN C J, HUANG Y Y, LI Y S, et al. Identification of fruit tree pests with deep learning on embedded drone to achieve accurate pesticide spraying[J]. IEEE Access,2021,9:21986-21997.

[12]劉 忠,盧安舸,崔 浩,等. 基于改進YOLOv8的輕量化荷葉病蟲害檢測模型[J]. 農業工程學報,2024,40(19):168-176.

[13] LIU X Y, PENG H W, ZHEN N X, et al. Efficientvit: Memory efficient vision transformer with cascaded group attention[C]//IEEE. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Jersey:IEEE Computer Society,2023.

[14]HAN K,WANG Y H,TIAN Q, et al. Ghostnet:more features from cheap operations[C]//IEEE. Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. New Jersey:IEEE Computer Society,2020.

[15]LI J F, WEN Y, HE L H. Scconv:spatial and channel reconstruction convolution for feature redundancy[C]//IEEE. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New Jersey:IEEE Computer Society,2023.

[16]TONG Z J, CHEN Y H, XU Z W, et al. Wise-IoU:bounding box regression loss with dynamic focusing mechanism[EB/OL]. (2023-04-08)[2024-07-21]. https://doi.org/10.48550/arXiv.2301.10051.

[17]李 茂,肖洋軼,宗望遠,等. 基于改進YOLOv8模型的輕量化板栗果實識別方法[J]. 農業工程學報,2024,40(1):201-209.

[18] LIU W, ANGUELOV D, ERHAN D, et al. SSD:single shot multibox detector[C]//ECCV. 14th European Conference on Computer Vision. Berlin: Springer,2016.

[19]REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN:Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2016,39(6):1137-1149.

(責任編輯:成紓寒)

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产成人精品无码一区二 | 91国内外精品自在线播放| 五月婷婷综合网| 伊人激情久久综合中文字幕| 精品国产黑色丝袜高跟鞋 | 国产特一级毛片| 国产呦精品一区二区三区下载 | 毛片国产精品完整版| 久久久受www免费人成| 国产成人高清精品免费5388| 97视频精品全国在线观看| 精品無碼一區在線觀看 | 日韩精品一区二区三区大桥未久| 欧美午夜理伦三级在线观看| 亚洲av无码成人专区| 国产精品久久久久鬼色| 国产欧美综合在线观看第七页 | 国产综合日韩另类一区二区| 五月婷婷亚洲综合| 国产一区自拍视频| 日韩天堂网| 欧美h在线观看| 超碰免费91| 91蜜芽尤物福利在线观看| 视频国产精品丝袜第一页| 日韩国产亚洲一区二区在线观看| 99在线观看精品视频| 国产永久在线观看| jizz国产在线| 国产精品视频导航| 国产在线精彩视频论坛| 亚洲无码精品在线播放| 亚洲一区二区三区国产精华液| 视频二区中文无码| 99在线视频精品| 尤物午夜福利视频| 婷婷99视频精品全部在线观看 | 亚洲无码熟妇人妻AV在线| 欧美一区二区三区欧美日韩亚洲 | 日日碰狠狠添天天爽| 亚洲人成网线在线播放va| 国内精品久久久久久久久久影视| 久热这里只有精品6| 亚洲大尺码专区影院| 666精品国产精品亚洲| 国产日韩精品一区在线不卡| 一级香蕉视频在线观看| 亚洲成人77777| 福利一区在线| 国产在线麻豆波多野结衣| 在线另类稀缺国产呦| 日韩大片免费观看视频播放| 91精品视频网站| 国产欧美精品一区二区| 99这里只有精品在线| 日本AⅤ精品一区二区三区日| 蜜臀AVWWW国产天堂| 国产一级毛片yw| 亚洲综合片| 国产大全韩国亚洲一区二区三区| 欧美激情综合| 日韩麻豆小视频| 免费人成网站在线观看欧美| 亚洲色图欧美在线| 久久精品国产免费观看频道| 在线亚洲小视频| 亚洲浓毛av| 91亚洲免费| 亚洲精品视频网| 欧美精品v欧洲精品| 香蕉视频国产精品人| 国产精彩视频在线观看| 55夜色66夜色国产精品视频| 制服丝袜在线视频香蕉| 成年人视频一区二区| 无码区日韩专区免费系列| 国产97公开成人免费视频| 亚洲国产成人在线| 91青青草视频| 欧美国产日韩在线播放| 三级视频中文字幕| 最新日本中文字幕|