999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)YOLO v8n的甜菜雜草檢測(cè)算法研究

2024-02-14 00:00:00黃友銳王小橋韓濤宋紅萍王照鋒
江蘇農(nóng)業(yè)科學(xué) 2024年24期

摘要:農(nóng)作物生長(zhǎng)過程中其伴生雜草的及時(shí)清除能夠有效提高農(nóng)作物的產(chǎn)量和質(zhì)量。針對(duì)當(dāng)前對(duì)于甜菜雜草檢測(cè)精度較低、小目標(biāo)漏檢等問題,提出了基于改進(jìn)YOLO v8n的甜菜雜草檢測(cè)算法。首先,在檢測(cè)頭部分增加一個(gè)小目標(biāo)檢測(cè)層,提高模型對(duì)生長(zhǎng)初期甜菜和雜草的檢測(cè)能力。其次,在主干部分引入感受野坐標(biāo)注意力卷積(receptive-field coordinated attention convolutional operation,RFCAConv),更好地識(shí)別圖像中的邊緣、紋理、形狀等低級(jí)特征,并且所增加的計(jì)算開銷極小。最后,引入損失函數(shù)PIoU v2替換YOLO v8n原來的損失函數(shù),增強(qiáng)對(duì)中等質(zhì)量錨框的聚焦能力,加快收斂速度,并提高檢測(cè)精度。通過公開的Lincolnbeet數(shù)據(jù)集進(jìn)行試驗(yàn),試驗(yàn)結(jié)果表明,改進(jìn)后的YOLO v8n模型總的mAP@0.5達(dá)到了0.902,對(duì)比YOLO v8n原模型提高了0.035,甜菜和雜草分別提升了0.026、0.041,參數(shù)量減少了3.3%,平均每幅圖片的檢測(cè)時(shí)間為4.1 ms,能夠滿足實(shí)時(shí)檢測(cè)的要求。

關(guān)鍵詞:甜菜;雜草識(shí)別;YOLO v8n;感受野坐標(biāo)注意力卷積;小目標(biāo)檢測(cè)

中圖分類號(hào):S126;TP319.41" 文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1002-1302(2024)24-0196-09

收稿日期:2024-07-08

基金項(xiàng)目:安徽省高校協(xié)同創(chuàng)新項(xiàng)目(編號(hào):GXXT-2023-068)。

作者簡(jiǎn)介:黃友銳(1971—),男,安徽淮南人,博士,教授,主要從事智能控制、智能制造研究。E-mail:hyr628@163.com。

通信作者:王小橋,碩士研究生,主要從事圖像處理研究。E-mail:2022200878@aust.edu.cn。

甜菜作為一種重要的農(nóng)業(yè)作物,不僅是蔬菜和糖制品的原料[1,還用于生產(chǎn)生物燃料和飼料,主要種植于內(nèi)蒙古、新疆和黑龍江等地區(qū)2。雜草在生長(zhǎng)過程中與作物爭(zhēng)奪水、陽(yáng)光、肥料和空間3,同時(shí)促進(jìn)害蟲和病原體的生長(zhǎng)傳播,影響作物產(chǎn)量和質(zhì)量4-5。傳統(tǒng)的雜草管理方法依賴化學(xué)或機(jī)械手段,如均勻施用除草劑,但因雜草分布不均,導(dǎo)致農(nóng)藥過量使用,不僅造成環(huán)境問題,還易導(dǎo)致雜草產(chǎn)生抗藥性6-7。隨著精準(zhǔn)農(nóng)業(yè)的發(fā)展,自動(dòng)化、智能化的雜草檢測(cè)技術(shù)受到了廣泛關(guān)注,這些技術(shù)旨在提高雜草管理的效率和準(zhǔn)確性,有助于減少田間農(nóng)藥的使用,保護(hù)農(nóng)業(yè)生態(tài)環(huán)境,因此,雜草識(shí)別和檢測(cè)至關(guān)重要[8-10

為了實(shí)現(xiàn)田間雜草的精確檢測(cè)和識(shí)別,國(guó)內(nèi)外許多學(xué)者采用機(jī)器視覺、圖像處理等技術(shù)手段,進(jìn)行了大量雜草檢測(cè)研究[11-14。近年來,隨著深度學(xué)習(xí)在各種視覺任務(wù)中的巨大成功,許多基于圖像的深度學(xué)習(xí)算法已經(jīng)被開發(fā)出來15。例如,兩階段算法:Faster-RCNN[16、Mask-RCNN[17;單階段算法:SSD[18、You Only Look Once(YOLO)系列算法[19。其中,YOLO系列算法因其快速、準(zhǔn)確的檢測(cè)性能而廣受歡迎,它由不同的版本組成,在2016年首次推出YOLO,后幾年又推出了YOLO v2、YOLO v3、YOLO v4、YOLO v5、YOLO v6、YOLO v7和YOLO v8版本。許多研究人員將YOLO系列應(yīng)用于雜草檢測(cè)和其他農(nóng)業(yè)目標(biāo)識(shí)別任務(wù)[20。Ying等應(yīng)用YOLO v4改進(jìn)了一個(gè)輕量級(jí)的雜草檢測(cè)模型,用于檢測(cè)胡蘿卜幼苗中的雜草,研究結(jié)果為雜草檢測(cè)、機(jī)器人除草和選擇性噴灑提供了參考[21。Wang等構(gòu)建了一種結(jié)合YOLO v5和注意力機(jī)制的模型,用于檢測(cè)茄子的沙丘種子,經(jīng)過多尺度訓(xùn)練后,其檢測(cè)速度和檢測(cè)效果可應(yīng)用于入侵雜草長(zhǎng)喙龍葵幼苗的田間實(shí)時(shí)檢測(cè)[22。亢潔等提出一種基于多尺度融合模塊和特征增強(qiáng)的雜草檢測(cè)方法,對(duì)小目標(biāo)作物與雜草以及葉片交疊情況的檢測(cè)能力均有提高23。鄧天民等為了解決無人機(jī)(UAV)航拍圖像檢測(cè)存在的小目標(biāo)檢測(cè)精度低和模型參數(shù)量大的問題,提出輕量高效的航拍圖像檢測(cè)算法 FS-YOLO,該算法泛化能力較強(qiáng),較其他先進(jìn)算法更具競(jìng)爭(zhēng)力24

上述研究雖然能夠在特定環(huán)境下達(dá)到較好的檢測(cè)效果,但是,當(dāng)應(yīng)用于復(fù)雜的農(nóng)田環(huán)境中,尤其是在檢測(cè)小型或密集分布的雜草時(shí),仍然有一定的局限性。因此,本研究基于最新的YOLO v8n算法,提出了一種改進(jìn)的甜菜雜草檢測(cè)模型。為了更好地識(shí)別圖像中的邊緣、紋理、形狀等低級(jí)特征,使用RFCAConv替換主干部分的普通卷積。為了提高模型對(duì)生長(zhǎng)初期的甜菜和雜草的檢測(cè)能力,在檢測(cè)頭部分增加了一個(gè)小目標(biāo)檢測(cè)層。為了增強(qiáng)對(duì)中等質(zhì)量錨框的聚焦能力,提升模型的檢測(cè)精度以及收斂速度,引入了一個(gè)損失函數(shù)PIoU v2。

1 材料與方法

1.1 YOLO v8概述

YOLO v8是ultralytics公司在2023年1月發(fā)布的,可以進(jìn)行圖像分類、物體檢測(cè)和實(shí)例分割,該模型易于部署和操作,因此被應(yīng)用于各種不同的實(shí)際場(chǎng)景中[19。算法的模型結(jié)構(gòu)包括:Backbone、Head、Neck。Backbone 和Neck部分參考了YOLO v7 ELAN設(shè)計(jì)思想,將C3模塊與ELAN結(jié)構(gòu)結(jié)合起來構(gòu)成C2f模塊;Head部分是目前主流的解耦頭結(jié)構(gòu),將分類和檢測(cè)頭分離,同時(shí)也將Anchor-Based換成了Anchor-Free。另外,Loss計(jì)算方面采用了CIoU Loss和Distribution Focal Loss作為回歸損失函數(shù)[25。在數(shù)據(jù)增強(qiáng)方面,引入了YOLOX中所提出的最后10epoch關(guān)閉Mosiac增強(qiáng)的操作。

1.2 改進(jìn)YOLO v8n模型結(jié)構(gòu)

1.2.1 增加小目標(biāo)檢測(cè)層

在YOLO v8n中本身有3個(gè)檢測(cè)層,位于網(wǎng)絡(luò)結(jié)構(gòu)的不同深度,從淺層的特征圖提取細(xì)節(jié)信息,從深層的特征圖提取更加抽象和語(yǔ)義豐富的信息。然而,較深的特征圖很難學(xué)習(xí)到小目標(biāo)的特征信息,這會(huì)導(dǎo)致對(duì)小目標(biāo)的識(shí)別效果下降。所以,針對(duì)甜菜雜草數(shù)據(jù)集中的小目標(biāo),在Head部分引入一個(gè)小目標(biāo)檢測(cè)層P2,對(duì)較淺特征圖與較深特征圖拼接后輸出的大小為160×160的特征圖進(jìn)行檢測(cè),160×160的特征圖保留了較多的細(xì)節(jié)信息,有利于檢測(cè)小目標(biāo)。

改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,虛線框?yàn)楦倪M(jìn)模塊。

1.2.2 感受野坐標(biāo)注意力卷積運(yùn)算(RFCAConv)

將注意力模塊集成到Y(jié)OLOv8n中 可以增強(qiáng)對(duì)圖像局部特征的提取,例如引入坐標(biāo)注意力(coordinated attention,CA)模塊[26。但CA只關(guān)注空間特征,不能解決大卷積核參數(shù)共享的問題。為此,本研究引入了感受野坐標(biāo)注意力卷積(receptive-field coordinated attention convolutional operation,RFCAConv)[27,這是一種基于感受野注意力(receptive-field attention,RFA)理念的創(chuàng)新卷積方法,其核心在于整合了CA至感受野注意力卷積(receptive-field attention convolutional operation,RFAConv)中。

感受野空間特征是專門為卷積核設(shè)計(jì)的,并根據(jù)核大小動(dòng)態(tài)生成。由圖2可見,以3×3卷積核為例,“Spatial Feature”指的是原始的特征圖,“Recetive-Field Spatial Feature”是空間特征根據(jù)卷積核大小變換后的特征圖,該方法強(qiáng)調(diào)了感受野滑塊內(nèi)不同特征的重要性,完全解決了卷積核參數(shù)共享的問題,為大尺寸卷積核的應(yīng)用提供了有效的注意力加權(quán)。RFA的計(jì)算公式如下:

F=Softmax{g1×1[AvgPool(x)]}×ReLU{Norm[gk×k(x)]}=Arf×Frf。(1)

式中:F是每個(gè)卷積滑塊獲得的值;gi×i是大小為i×i的分組卷積;k是卷積核的大小;Norm是歸一化;X是輸入特征圖;Arf是注意力圖;Frf是變換后的感受野空間特征。

RFA將全局和局部信息結(jié)合起來,以優(yōu)化特征提取過程。全局特征聚合步驟通過平均池化和1×1卷積來計(jì)算全局注意力權(quán)重,強(qiáng)調(diào)重要的特征。局部特征歸一化與增強(qiáng)步驟通過k×k卷積、歸一化和ReLU激活來提取和增強(qiáng)局部特征。

為了進(jìn)一步提高感受野注意力的性能,將考慮了長(zhǎng)距離信息、通過全局平均池化方式獲取全局信息的CA引入感受野空間特征,生成RFCAConv,徹底解決了參數(shù)共享的問題。RFCAConv的詳細(xì)結(jié)構(gòu)如圖3所示。

1.2.3 損失函數(shù)改進(jìn)

目標(biāo)檢測(cè)領(lǐng)域中,邊界框定位精度是衡量模型性能的重要指標(biāo),它在很大程度上取決于邊框回歸損失函數(shù)的設(shè)計(jì)和實(shí)現(xiàn)。在YOLO v8中計(jì)算邊框損失采用的是DFL損失和CIoU相結(jié)合的方法[25,這種損失函數(shù)受到不合理懲罰因子的影響,在回歸過程中錨框不斷擴(kuò)大,不利于小目標(biāo)的定位,導(dǎo)致收斂速度慢。所以本研究使用了Powerful-IoU(PIoU)來解決這一問題[28,PIoU中有適應(yīng)目標(biāo)大小的懲罰因子P,其計(jì)算公式如下:

P=dw1wgt+dw2wgt+dh1hgt+dh2hgt4。(2)

式中:dw1、dw2、dh1、dh2是預(yù)測(cè)框和目標(biāo)框?qū)?yīng)邊緣之間距離的絕對(duì)值;wgt、hgt是目標(biāo)框的寬度和高度。

從式(2)可以看出,P的大小只取決于目標(biāo)框的高度和寬度,不會(huì)隨著錨框的擴(kuò)大而改變。并且只有當(dāng)錨框和目標(biāo)框完全重疊的情況下,P才為0,所以該懲罰因子具有對(duì)目標(biāo)尺寸的適應(yīng)性。各變量之間的關(guān)系如圖4所示。

為了進(jìn)一步提升損失函數(shù)的效果,基于上文得到的懲罰因子P,引入了一個(gè)適應(yīng)錨框質(zhì)量的懲罰函數(shù),其引導(dǎo)錨框沿著更直接、更高效的路徑回歸,加速收斂并提高檢測(cè)準(zhǔn)確度。其表達(dá)式如下:

f(x)=1-e-x2;(3)

LPIoU=LIoU+f(x),1≤LPIoU≤2。(4)

式中:f(x)是懲罰函數(shù);LPIoU是PIoU損失函數(shù);LIoU是IoU損失函數(shù)。

函數(shù)f(x)能夠根據(jù)錨框與目標(biāo)框的差異自動(dòng)調(diào)整梯度幅度,以便在不同階段進(jìn)行自適應(yīng)優(yōu)化。在錨框與目標(biāo)框差異顯著時(shí),P值較大,導(dǎo)致函數(shù)導(dǎo)數(shù)f′(p)較小,從而抑制低質(zhì)量錨框的梯度影響,避免模型過度調(diào)整以適應(yīng)這些質(zhì)量差的錨框。錨框與目標(biāo)框差異較小時(shí),P值接近1,導(dǎo)數(shù)f′(p)較大,有助于模型更快地調(diào)整錨框,加速模型對(duì)這些比較接近的錨框的優(yōu)化過程。當(dāng)錨框非常接近目標(biāo)框時(shí),P值接近0,導(dǎo)數(shù)f′(p)隨錨框質(zhì)量提升逐漸減小,允許錨框通過較小的梯度調(diào)整,穩(wěn)定優(yōu)化直至與目標(biāo)框?qū)R。

為進(jìn)一步提高檢測(cè)模型的性能,提出PIoU v2,它是一個(gè)由單個(gè)超參數(shù)控制的非單調(diào)注意力層與PIoU損失相結(jié)合形成的,即在PIoU損失中添加了注意力層,增強(qiáng)了集中在中高等質(zhì)量錨框上的能力。注意力函數(shù)和PIoU v2損失的表達(dá)式如下:

q=e-P,q∈(0,1];(5)

u(x)=3x·e-x2;(6)

LPIoU v2=u(λq)·LPIoU=3·(λq)·e-(λq)2·LPIoU。(7)

式中:q是代替P作為懲罰因子,范圍為(0,1],用來測(cè)量錨框的質(zhì)量;u(x)是非單調(diào)注意力函數(shù);λ是控制注意力函數(shù)行為的超參數(shù);LPIoU v2是PIoU v2損失函數(shù)。

當(dāng)q為1時(shí),意味著P為0,這時(shí)錨框與目標(biāo)框是完全重合的。從式(5)可以看出,當(dāng)P增大時(shí),q會(huì)逐漸減小,此時(shí)代表的是低質(zhì)量的錨框。式(7)中,PIoU v2只需要λ這一個(gè)超參數(shù),簡(jiǎn)化了調(diào)優(yōu)的過程。

2 結(jié)果與分析

2.1 數(shù)據(jù)集及預(yù)處理

本研究使用公開數(shù)據(jù)集Lincolnbeet[29,數(shù)據(jù)集中包含4 402張圖片,有甜菜和雜草2類目標(biāo),分別有16 399、22 847個(gè)目標(biāo)邊界框。圖像尺寸為1 920像素×1 080像素,數(shù)據(jù)集中包含的標(biāo)簽為COCOjson、XML和darknets格式。

另外,為了使數(shù)據(jù)集的樣本更加均衡,同時(shí)提升模型在面對(duì)未知、復(fù)雜或噪聲數(shù)據(jù)時(shí)的魯棒性和泛化能力,更好地適應(yīng)現(xiàn)實(shí)世界中的各種應(yīng)用場(chǎng)景,對(duì)其中的部分包含目標(biāo)較多的圖片采用旋轉(zhuǎn)、平移、調(diào)節(jié)亮度、Cutout以及添加高斯噪聲等基礎(chǔ)數(shù)據(jù)增強(qiáng)方式。其中,旋轉(zhuǎn)的角度為35°,平移的距離為最大允許距離的1/3,亮度調(diào)節(jié)的參數(shù)在0.8~1.2之間,Cutout的矩形邊框大小為100像素。經(jīng)過處理后,數(shù)據(jù)集擴(kuò)充為5 897張,并按7 ∶2 ∶1的比例將數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集、測(cè)試集,劃分后分別為4 127、1 180、590張。處理前后的圖片如圖5所示。

2.2 試驗(yàn)環(huán)境

本試驗(yàn)在深度學(xué)習(xí)服務(wù)器下進(jìn)行,GPU型號(hào)為NVIDIA GeForce RTX4090,內(nèi)存為24 GB,python編譯器版本為3.9,深度學(xué)習(xí)框架為PyTorch-1.10.0,CUDA版本:12.2。試驗(yàn)時(shí)間為2023年9月至2024年6月,試驗(yàn)地點(diǎn)為安徽理工大學(xué)百川樓。試驗(yàn)具體的超參數(shù)設(shè)置如表1所示。

2.3 評(píng)價(jià)指標(biāo)

采用2類對(duì)象的平均精度均值(mAP@0.5)評(píng)估模型的整體性能,參數(shù)量(Params)反映模型的規(guī)模和復(fù)雜性,浮點(diǎn)運(yùn)算次數(shù)(GFLOPs)衡量模型計(jì)算復(fù)雜度,F(xiàn)PS評(píng)估模型的檢測(cè)速度。AP通過計(jì)算精度-召回率曲線下的面積來評(píng)估模型在檢測(cè)多個(gè)對(duì)象類別時(shí)的表現(xiàn),考慮了模型在識(shí)別目標(biāo)時(shí)的準(zhǔn)確性(P),同時(shí)也考慮了模型在實(shí)際目標(biāo)中正確識(shí)別的比例(R)。這個(gè)PR曲線下的面積提供了模型在各個(gè)對(duì)象類別中檢測(cè)性能的綜合評(píng)估。

AP的計(jì)算公式如下:

AP=∫10P(R)dR。(8)

mAP是AP的均值,計(jì)算公式如下:

mAP=1N∑ni=1APi。(9)

2.4 對(duì)比試驗(yàn)

為了驗(yàn)證本研究所提出的改進(jìn)后的YOLO v8算法的有效性,將其與當(dāng)前流行的檢測(cè)模型進(jìn)行比較。比較它們?cè)谕粩?shù)據(jù)集上的性能,試驗(yàn)結(jié)果如表2所示。

根據(jù)表2可知,將改進(jìn)后的算法與YOLO系列算法:YOLO v8n、YOLO v3-tiny、YOLO v5n、YOLO v7-tiny,以及SSD進(jìn)行對(duì)比,改進(jìn)模型mAP@0.5指標(biāo)顯著超越了YOLO v3-tiny、YOLO v5n、YOLO v8n,并且檢測(cè)時(shí)間為4.1 ms,能夠滿足實(shí)時(shí)檢測(cè)的要求。與YOLO v8n相比,改進(jìn)模型不僅在mAP@0.5上提高0.035,而且在參數(shù)量上減少了3.3%,所以整體性能上顯著高于YOLO v8n。改進(jìn)模型參數(shù)量較小,僅次于參數(shù)量最小的YOLO v5n,但mAP@0.5提高了0.038。YOLO v3-tiny、YOLO v7-tiny模型在識(shí)別中的mAP@0.5均比較高,分別達(dá)到0.834、0.859,但他們的參數(shù)量和計(jì)算量都比較大,檢測(cè)時(shí)間也更長(zhǎng),不適合在資源有限的嵌入式設(shè)備上部署和運(yùn)行。SSD算法具有較大的參數(shù)量和計(jì)算量,并且mAP@0.5值很低,遠(yuǎn)不如其他幾個(gè)算法。綜合比較模型的復(fù)雜性、檢測(cè)的準(zhǔn)確性以及實(shí)際的使用環(huán)境,改進(jìn)模型在多個(gè)目標(biāo)檢測(cè)模型中表現(xiàn)優(yōu)秀,能夠保證較高的檢測(cè)精度和檢測(cè)速度,更適用于具有不同大小目標(biāo)的甜菜雜草檢測(cè)。

從表2可以看出,YOLO v3-tiny、YOLO v5n、YOLO v7-tiny、YOLO v8n這4個(gè)模型mAP@0.5相對(duì)較高,比較接近改進(jìn)模型。以上模型在訓(xùn)練300輪的過程中,mAP@0.5隨著訓(xùn)練批次的變化圖如圖6所示。從圖中可以看出,改進(jìn)后的算法從開始訓(xùn)練后,曲線始終處于最上方,并且整體呈上升趨勢(shì),當(dāng)訓(xùn)練到150輪之后趨于平穩(wěn),mAP@0.5基本達(dá)到頂峰,模型逐步收斂。變化曲線圖更加直觀地說明了改進(jìn)的模型在檢測(cè)精度和收斂速度上相對(duì)于其他模型表現(xiàn)更優(yōu),正確識(shí)別和定位目標(biāo)的能力更強(qiáng)。

2.5 消融試驗(yàn)

為了驗(yàn)證模型改進(jìn)的3個(gè)模塊的效果,進(jìn)行了針對(duì)單一改進(jìn)以及兩兩組合改進(jìn)措施的有效性對(duì)比試驗(yàn),試驗(yàn)結(jié)果如表3所示。

通過分析表3的數(shù)據(jù),可以觀察到,第4組試驗(yàn)引入了針對(duì)小尺寸目標(biāo)的檢測(cè)層P2,模型的mAP@0.5相較于原始模型上升了0.021。具體來看,甜菜提高了0.014,而雜草則提高了0.024,對(duì)于標(biāo)注框較小的雜草來說,有顯著的提升,展示了添加小目標(biāo)檢測(cè)層所帶來的積極效果。第2、3、4組試驗(yàn)均是單一改進(jìn)模塊,對(duì)比YOLO v8n模型,mAP@0.5分別提升了0.01、0.011、0.021。第5、6、7組試驗(yàn)是3個(gè)改進(jìn)措施中的任意2種組合,相較于單一改進(jìn)措施,均有性能上的提升,因此,證明了本研究3個(gè)改進(jìn)模塊的有效性。最后一組試驗(yàn)同時(shí)融合這3個(gè)模塊,對(duì)比YOLO v8n模型,整體的mAP@0.5得到了0.035的提升,其中,甜菜提升了0.026,雜草增加了0.041,參數(shù)量沒有增大。從這些結(jié)果可以看出,改進(jìn)后的模型在識(shí)別甜菜和雜草方面效果很好。

2.6 改進(jìn)算法性能分析

在相同的試驗(yàn)環(huán)境下,對(duì)改進(jìn)前后的算法進(jìn)行試驗(yàn),圖7展示了2種模型在訓(xùn)練300輪的過程中各類損失值的變化情況。

邊界框損失(Box_loss)的作用是評(píng)估模型預(yù)測(cè)的邊界框與真實(shí)邊界框之間的差異。從圖7中可以看出,改進(jìn)后的模型在訓(xùn)練集和驗(yàn)證集上都表現(xiàn)出更低的損失值和更快的收斂速度。這表明,引入的PIoU v2損失函數(shù)顯著提升了模型定位目標(biāo)物體的精度。此外,改進(jìn)模型的分類損失(cls_loss)和分布焦點(diǎn)損失(dfl_loss)曲線均低于原模型,表明改進(jìn)模型在識(shí)別目標(biāo)物體類別方面表現(xiàn)更佳。上述結(jié)果表明,通過優(yōu)化這些損失函數(shù),改進(jìn)后的模型在訓(xùn)練過程中能夠更快速、更準(zhǔn)確地定位和分類目標(biāo),實(shí)現(xiàn)了高效且精確的目標(biāo)檢測(cè)。

為了測(cè)試模型在復(fù)雜環(huán)境下的檢測(cè)性能,使用包含甜菜和雜草的4種不同場(chǎng)景的測(cè)試集圖片,對(duì)YOLO v8n和改進(jìn)模型進(jìn)行分析。試驗(yàn)結(jié)果如圖8、圖9所示。

第1類圖像(a)具有較高的光照強(qiáng)度,從中可以觀察到,經(jīng)過優(yōu)化的模型在檢測(cè)置信度上顯著優(yōu)于YOLO v8n。這表明模型在訓(xùn)練了經(jīng)過數(shù)據(jù)增強(qiáng)處理的數(shù)據(jù)集之后,對(duì)高亮度圖像的檢測(cè)能力得到了顯著提升。在第2類圖片(b)里,甜菜的特征與背景有著顯著的對(duì)比,使得2種模型都能較好地識(shí)別圖片中的大目標(biāo),但改進(jìn)模型的檢測(cè)置信度高于YOLO v8n,并且不存在小目標(biāo)漏檢的情況,而改進(jìn)后的模型能夠完全檢測(cè)。在第3類圖片(c)中,由于目標(biāo)之間的相互遮擋,YOLO v8n未能完全檢測(cè)出目標(biāo),而經(jīng)過改進(jìn)后的模型對(duì)此類復(fù)雜場(chǎng)景進(jìn)行了優(yōu)化,因此可以準(zhǔn)確地辨識(shí)并區(qū)分相互重疊的目標(biāo),顯著提升了對(duì)遮擋情況下物體識(shí)別的能力。第4類圖片(d)中,包含較多小目標(biāo),YOLO v8n出現(xiàn)了漏檢的情況,相比之下,改進(jìn)后的模型通過增加一個(gè)專門針對(duì)小目標(biāo)的檢測(cè)層,從而在小目標(biāo)的識(shí)別上展現(xiàn)了更佳的性能,這一改進(jìn)使得模型在小尺寸目標(biāo)的檢測(cè)方面表現(xiàn)更為出色。總的來看,改進(jìn)后的模型在目標(biāo)檢測(cè)方面的表現(xiàn)超過了YOLO v8n,這表明該網(wǎng)絡(luò)能夠捕捉到淺層的局部信息和更加豐富的語(yǔ)義特征,從而具有更優(yōu)秀的性能表現(xiàn)。

3 結(jié)論

為了解決現(xiàn)有研究對(duì)于甜菜雜草檢測(cè)精度較低、存在小目標(biāo)漏檢等問題,本研究基于最新的YOLO v8n算法,提出了一種改進(jìn)的甜菜雜草檢測(cè)模型。首先,通過在YOLO v8n模型的主干部分引入RFCAConv,提高了模型識(shí)別圖像特征的能力。其次,在檢測(cè)頭部分增加了一個(gè)小目標(biāo)檢測(cè)層,提高了模型對(duì)生長(zhǎng)初期的甜菜和雜草的檢測(cè)能力。最后,引入了PIoU v2損失函數(shù),加快了收斂速度,并且提高了檢測(cè)精度。通過使用公開的Lincolnbeet數(shù)據(jù)集進(jìn)行試驗(yàn),試驗(yàn)結(jié)果表明,改進(jìn)YOLO v8n模型總的mAP@0.5達(dá)到了0.902,對(duì)比YOLO v8n原模型提高了0.035,平均每幅圖片的檢測(cè)時(shí)間為 4.1 ms,能夠滿足實(shí)時(shí)檢測(cè)的要求。與其他4種主流模型比較,改進(jìn)后的模型參數(shù)量較小,識(shí)別模型精度最高,減少了小目標(biāo)漏檢現(xiàn)象,在甜菜雜草檢測(cè)方面具有較好的性能。

研究使用的數(shù)據(jù)集主要包括生長(zhǎng)早期的雜草。未來的研究將集中在收集甜菜和雜草在其他生長(zhǎng)階段的數(shù)據(jù),以提高模型在現(xiàn)實(shí)場(chǎng)景中的性能。

參考文獻(xiàn):

[1]周艷麗,李曉威,劉 娜,等. 內(nèi)蒙古甜菜制糖產(chǎn)業(yè)發(fā)展探析[J]. 中國(guó)糖料,2020,42(2):59-64.

[2]劉曉雪,蒙威宇,謝由之. 甜菜生產(chǎn)大幅波動(dòng)的原因探究:基于199份農(nóng)戶調(diào)查問卷[J]. 中國(guó)糖料,2024,46(2):92-102.

[3]湯雷雷,萬(wàn)開元,陳 防. 養(yǎng)分管理與農(nóng)田雜草生物多樣性和遺傳進(jìn)化的關(guān)系研究進(jìn)展[J]. 生態(tài)環(huán)境學(xué)報(bào),2010,19(7):1744-1749.

[4]袁洪波,趙努東,程 曼. 基于圖像處理的田間雜草識(shí)別研究進(jìn)展與展望[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(2):323-334.

[5]李 彧,余心杰,郭俊先. 基于全卷積神經(jīng)網(wǎng)絡(luò)方法的玉米田間雜草識(shí)別[J]. 江蘇農(nóng)業(yè)科學(xué),2022,50(6):93-100.

[6]孟慶寬,張 漫,楊曉霞,等. 基于輕量卷積結(jié)合特征信息融合的玉米幼苗與雜草識(shí)別[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(12):238-245,303.

[7]毛文華,張銀橋,王 輝,等. 雜草信息實(shí)時(shí)獲取技術(shù)與設(shè)備研究進(jìn)展[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2013,44(1):190-195.

[8]姜紅花,張傳銀,張 昭,等. 基于Mask R-CNN的玉米田間雜草檢測(cè)方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(6):220-228,247.

[9]苗中華,余孝有,徐美紅,等. 基于圖像處理多算法融合的雜草檢測(cè)方法及試驗(yàn)[J]. 智慧農(nóng)業(yè),2020,2(4):103-115.

[10]胡 煉,劉海龍,何 杰,等. 智能除草機(jī)器人研究現(xiàn)狀與展望[J]. 華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2023,44(1):34-42.

[11]翁 楊,曾 睿,吳陳銘,等. 基于深度學(xué)習(xí)的農(nóng)業(yè)植物表型研究綜述[J]. 中國(guó)科學(xué)(生命科學(xué)),2019,49(6):698-716.

[12]Li Y,Guo Z Q,Shuang F,et al. Key technologies of machine vision for weeding robots:a review and benchmark[J]. Computers and Electronics in Agriculture,2022,196:106880.

[13]胡盈盈,王瑞燕,郭鵬濤,等. 基于近地光譜特征的玉米田間雜草識(shí)別研究[J]. 江蘇農(nóng)業(yè)科學(xué),2020,48(8):242-246.

[14]化春鍵,張愛榕,陳 瑩. 基于改進(jìn)的Retinex算法的草坪雜草識(shí)別[J]. 江蘇農(nóng)業(yè)學(xué)報(bào),2021,37(6):1417-1424.

[15]李柯泉,陳 燕,劉佳晨,等. 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法綜述[J]. 計(jì)算機(jī)工程,2022,48(7):1-12.

[16]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,39(6):1137-1149.

[17]He K M,Gkioxari G,Dollár P,et al. Mask R-CNN [C]//Proceedings of the IEEE International Conference on Computer Vision. Italy:IEEE Press,2017:2961-2969.

[18]Liu W,Anguelov D,Erhan D,et al. SSD:single shot MultiBox detector[C]//Computer Vision-ECCV 2016. Cham:Springer International Publishing,2016:21-37.

[19]Kumar P,Misra U. Deep learning for weed detection:exploring YOLO v8 algorithms performance in agricultural environments[C]//Proceedings of the 2024 2nd International Conference on Disruptive Technologies (ICDT). Greater Noida:IEEE Press,2024:255-258.

[20]Gallo I,Rehman A U,Dehkordi R H,et al. Deep object detection of crop weeds:performance of YOLO v7 on a real case dataset from UAV images[J]. Remote Sensing,2023,15(2):539.

[21]Ying B Y,Xu Y C,Zhang S,et al. Weed detection in images of carrot fields based on improved YOLO v4[J]. Traitement Du Signal,2021,38(2):341-348.

[22]Wang Q F,Cheng M,Huang S,et al. A deep learning approach incorporating YOLO v5 and attention mechanisms for field real-time detection of the invasive weed Solanum rostratum Dunal seedlings[J]. Computers and Electronics in Agriculture,2022,199:107194.

[23]亢 潔,劉 港,郭國(guó)法. 基于多尺度融合模塊和特征增強(qiáng)的雜草檢測(cè)方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(4):254-260.

[24]鄧天民,程鑫鑫,劉金鳳,等. 基于特征復(fù)用機(jī)制的航拍圖像小目標(biāo)檢測(cè)算法[J]. 浙江大學(xué)學(xué)報(bào)(工學(xué)版),2024,58(3):437-448.

[25]Zheng Z H,Wang P,Liu W,et al. Distance-IoU loss:Faster and better learning for bounding box regression[C]//Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993-13000.

[26]Hou Q B,Zhou D Q,F(xiàn)eng J S. Coordinate attention for efficient mobile network design[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville:IEEE Press,2021:13713-13722.

[27]Zhang X,Liu C,Yang D,et al. RFAConv:innovating spatial attention and standard convolutional operation [EB/OL]. arxiv preprint,arxiv:2304.03198v6(2023-04-06) [2024-04-07]. https://doi.org/10.48550/arXiv.2304.03198.

[28]Liu C,Wang K G,Li Q,et al. Powerful-IoU:more straightforward and faster bounding box regression loss with a nonmonotonic focusing mechanism[J]. Neural Networks,2024,170:276-284.

[29]Salazar-Gomez A,Darbyshire M,Gao J,et al. Beyond mAP:towards practical object detection for weed spraying in precision agriculture [C]//Proceedings of the 2022 IEEE/RSJ International Conference on Intelligent Robots and Systems. Kyoto Japan:IEEE Press,2022:9232-9238.

主站蜘蛛池模板: 亚洲欧洲日韩久久狠狠爱| 国产精品视频白浆免费视频| 久久久久久久久亚洲精品| 国产精品手机在线观看你懂的| 91精品国产丝袜| 欧美在线一二区| 无码 在线 在线| 日韩AV无码免费一二三区| 国产呦视频免费视频在线观看 | 国产成人亚洲日韩欧美电影| 久久久精品久久久久三级| 狼友视频一区二区三区| 欧美一区二区精品久久久| 免费国产高清视频| 亚洲综合九九| 国产精品极品美女自在线网站| 成人综合在线观看| 无码精品国产VA在线观看DVD| 精品无码一区二区三区电影| 久久免费视频6| 全午夜免费一级毛片| 亚洲a级在线观看| 青青草国产免费国产| 国产精品视频a| 少妇极品熟妇人妻专区视频| 国产日韩欧美精品区性色| 青青草一区二区免费精品| 亚洲天堂.com| 尤物精品国产福利网站| 国产www网站| 自慰网址在线观看| 久久综合九九亚洲一区| 国产视频欧美| 国产欧美在线观看精品一区污| 欧美日韩成人在线观看| 免费可以看的无遮挡av无码| 色成人亚洲| 99久久精品国产精品亚洲 | 97人妻精品专区久久久久| 国产成人高清精品免费5388| 亚洲第一区精品日韩在线播放| 五月天在线网站| 久久www视频| 国产成人久久777777| 欧美日韩国产在线播放| 亚洲另类国产欧美一区二区| 国产精品永久久久久| 国产性精品| 99re在线视频观看| 毛片网站在线看| 亚洲国产成人超福利久久精品| 都市激情亚洲综合久久| 亚洲国产在一区二区三区| 亚洲第一色网站| 一级一毛片a级毛片| a级毛片免费看| 亚洲精品无码抽插日韩| 欧美成人综合在线| 在线观看精品自拍视频| 亚卅精品无码久久毛片乌克兰 | 国产内射在线观看| 99在线视频网站| 久久大香香蕉国产免费网站| 国产一二三区视频| 色久综合在线| 欧美伊人色综合久久天天| 夜夜操天天摸| 97se亚洲| 国产精品男人的天堂| 青草视频在线观看国产| 天天躁狠狠躁| 亚洲,国产,日韩,综合一区| 精品国产香蕉伊思人在线| 亚洲男人的天堂久久精品| 91福利免费视频| 免费国产不卡午夜福在线观看| 国产麻豆va精品视频| 91口爆吞精国产对白第三集| 国产乱人伦偷精品视频AAA| 欧美色香蕉| 免费观看欧美性一级| 国产激爽大片高清在线观看|