999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合多尺度特征和多重注意力的棉田雜草檢測(cè)研究

2025-09-25 00:00:00帖軍龍呂佳鄭祿劉嬌巴桑頓珠

中圖分類(lèi)號(hào):S562;TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-5553(2025)10-0138-08

Abstract:Toaddressthe limitations existingcotton field weed detectionmethods,which haveten been criticized for recognizing alimitednumber weed categories exhibiting lowaccuracy,anovelcotton field weed detectionapproach was developed by integrating multi-scale features with multiple atention mechanisms.This method enhanced the feature extractioncapabilitiesthe model byincorporating aneficient multiscaleatention moduleinto the backbonenetwork, without increasing the number parameters or computational cost.Additionally,a progresive feature pyramid was introduced inthe head network turtherenhance featurefusion.Finall,animproved boxregression lossfunction was employedto boost convergence speed positioning accuracy themodel.Experimental results obtained from the CottonWeedDetl2 dataset indicated that the proposed method achieved an average detection accuracy (mAP) 94.6% (20 an F1 score O.754.Compared to the original model,the new method improved mAP by 2.62% ,recall rate by (204 3.16% , achieved a detection time 65.359ms ,thereby meeting the requirements for real-time monitoring. This approach efectively addressed the challenge accurately detecting weeds incotton fields under natural conditions provides a valuable reference for advancing intelligent weeding technologies in agricultural settings.

KeyWords:cotton field;weed detection;YOLOv8 algorithm;attention mechanism;feature pyramid networks

0 引言

棉花在全球紡織原料中占據(jù)核心地位,對(duì)農(nóng)業(yè)具有顯著影響。目前主要的棉花產(chǎn)地包括中國(guó)、印度、美國(guó)、巴基斯坦、巴西和烏茲別克斯坦。盡管現(xiàn)代種植技術(shù),如轉(zhuǎn)基因棉花和高效灌溉方法,已經(jīng)提高了棉花產(chǎn)量和抗蟲(chóng)性,但雜草對(duì)棉花種植仍存在著一定威脅。這些雜草不僅與棉花爭(zhēng)奪土壤養(yǎng)分、水分和光照資源,而且可能成為病害的宿主,進(jìn)一步導(dǎo)致棉花產(chǎn)量和品質(zhì)的降低。目前,化學(xué)除草劑是常用的雜草控制手段,但過(guò)度使用可能導(dǎo)致土壤和水質(zhì)污染、雜草抗藥性增強(qiáng)以及公共健康風(fēng)險(xiǎn),從而影響農(nóng)業(yè)的可持續(xù)性。

機(jī)器視覺(jué)技術(shù)對(duì)于實(shí)現(xiàn)精準(zhǔn)除草至關(guān)重要,其依賴(lài)成像傳感器與先進(jìn)的計(jì)算機(jī)算法,可以準(zhǔn)確區(qū)分農(nóng)作物與雜草,并進(jìn)行針對(duì)性控制。例如Santos等1研究了基于深度表征和圖像聚類(lèi)的聯(lián)合無(wú)監(jiān)督學(xué)習(xí)算法和基于深度聚類(lèi)的深度特征無(wú)監(jiān)督學(xué)習(xí)算法,在2個(gè)公共數(shù)據(jù)集上有效區(qū)分禾本科草與闊葉草。Kounalakis等2利用密集特征提取和高斯混合模型對(duì)雜草圖像進(jìn)行優(yōu)化識(shí)別,結(jié)果顯示,分辨率為200像素 ×150 像素的圖像具有最佳的雜草識(shí)別效果。苗榮慧等[3提出了一種利用超綠模型和多種圖像特征結(jié)合的方法,顯著提高重疊葉片圖像中的雜草識(shí)別準(zhǔn)確率。

近年來(lái),隨著深度學(xué)習(xí)技術(shù)在農(nóng)業(yè)應(yīng)用的逐漸興起,越來(lái)越多的專(zhuān)家和學(xué)者致力于雜草檢測(cè)與分類(lèi)的研究。Ahmad等4對(duì)3種不同的圖像分類(lèi)模型進(jìn)行了評(píng)估,采用YOLOv3算法對(duì)美國(guó)中西部的4種主要雜草進(jìn)行檢測(cè),平均精度為 54.3% 。姚思雨等5采用基于卷積神經(jīng)網(wǎng)絡(luò)的策略來(lái)檢測(cè)棉花植株和雜草,將數(shù)據(jù)分為\"cotton\"和“grass\"兩個(gè)類(lèi)別,并成功實(shí)現(xiàn)高達(dá) 99.95% 的檢測(cè)準(zhǔn)確率;李開(kāi)敬等[6對(duì)ResNet—1O1特征提取網(wǎng)絡(luò)的參數(shù)進(jìn)行優(yōu)化,并利用數(shù)據(jù)增強(qiáng)技術(shù)訓(xùn)練出能夠識(shí)別棉花幼苗與多種雜草共生狀態(tài)的FasterR—CNN[8]模型,平均識(shí)別率達(dá)到 92.01% ;彭明霞等[9提出了一種結(jié)合FPN的FasterR一CNN優(yōu)化策略,以適應(yīng)復(fù)雜背景下的棉田雜草識(shí)別任務(wù),并成功實(shí)現(xiàn) 95.5% 的目標(biāo)識(shí)別準(zhǔn)確率;Dang等[10在CottonWeedDetl2數(shù)據(jù)集上,與YOLOv3、YOLOv4、YOLOR[1和 YOLOv7[12]等7個(gè)版本共計(jì)25個(gè)不同規(guī)格的YOLO模型進(jìn)行對(duì)比試驗(yàn),不同模型在不同的性能結(jié)果上都各有優(yōu)異,綜合來(lái)看,YOLOv3和YOLOv4的表現(xiàn)更勝一籌。以上研究證明將深度學(xué)習(xí)應(yīng)用于棉田雜草檢測(cè)的可行性和有效性,然而現(xiàn)有研究大多局限于將目標(biāo)分類(lèi)為“作物”與“雜草\"這2種類(lèi)別的識(shí)別與檢測(cè)。由于識(shí)別雜草種類(lèi)少,現(xiàn)有方法在真實(shí)環(huán)境下的雜草識(shí)別精度較低,因此需要進(jìn)一步識(shí)別更多種類(lèi)的雜草,滿足實(shí)際場(chǎng)景應(yīng)用需要檢測(cè)和識(shí)別精確度更高的要求。

為滿足在真實(shí)棉田場(chǎng)景下的雜草檢測(cè)的需求,本文通過(guò)融合改進(jìn)的多尺度特征融合模塊與多重注意力特征提取模塊,再通過(guò)優(yōu)化損失函數(shù),提出一種融合多尺度特征和多重注意力的棉田雜草檢測(cè)方法。該方法首先通過(guò)在骨干網(wǎng)絡(luò)引人高效多尺度注意力模塊提升模型的特征提取能力;其次在頭部網(wǎng)絡(luò)添加漸進(jìn)特征金字塔增強(qiáng)特征融合效果;最后通過(guò)改進(jìn)框回歸損失函數(shù)提升模型的收斂速度和定位精度,從而提高檢測(cè)的精確度,確保自然環(huán)境下棉田雜草的高效準(zhǔn)確識(shí)別。

1棉田雜草檢測(cè)模型

1.1 YOLOv8目標(biāo)檢測(cè)算法

YOLOv8在原有YOLO系列的基礎(chǔ)上,對(duì)骨干網(wǎng)絡(luò)、檢測(cè)頭以及損失函數(shù)等方面進(jìn)行改進(jìn)。與其他版本 (s/l/m/x) 相比,YOLOv8n是YOLOv8系列參數(shù)量最小但運(yùn)行速度最快的模型。為使改進(jìn)的棉田雜草檢測(cè)模型更好地在邊緣設(shè)備上實(shí)現(xiàn)部署運(yùn)行,選擇YOLOv8n實(shí)施改進(jìn)。該模型由輸人層、骨干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和損失函數(shù)組成。YOLOv8n的輸入層引入自適應(yīng)錨定、自適應(yīng)圖像縮放和馬賽克數(shù)據(jù)增強(qiáng)技術(shù)。骨干網(wǎng)絡(luò)的改進(jìn)包括將第一個(gè)卷積層由 6×6 卷積改為 3×3 卷積,并引入C2f模塊以獲得更豐富的梯度流信息。YOLOv8模塊仍然使用SPPF模塊,通過(guò)串行SPP結(jié)構(gòu)處理輸入以避免圖像失真,提高候選框生成速度。頸部網(wǎng)絡(luò)采用PAN—FPN[13]結(jié)構(gòu)實(shí)現(xiàn)多尺度信息融合,去除PAN一FPN上采樣階段的卷積結(jié)構(gòu)。頭部結(jié)構(gòu)則做出重大修改,采用解耦頭部結(jié)構(gòu)實(shí)現(xiàn)分類(lèi)和定位任務(wù)的分離,并使用不同的分支進(jìn)行計(jì)算,有助于提高檢測(cè)性能。此外,YOLOv8n已從錨框轉(zhuǎn)移到無(wú)錨,避免復(fù)雜的錨框計(jì)算和相關(guān)超參數(shù)設(shè)置,從而顯著提升性能。

1.2融合多尺度特征和多重注意力的棉田雜草檢測(cè)模型

改進(jìn)后模型主要有3個(gè)模塊:(1)注意力模塊,基于高效多尺度注意力[14](EfficientMulti-ScaleAttentionModule)對(duì)C2f改進(jìn),保留每個(gè)通道的信息,在減少算法復(fù)雜性的同時(shí)提高特征提取能力;(2)在頭部網(wǎng)絡(luò)部分引人漸進(jìn)特征金字塔網(wǎng)絡(luò)AFPN[15加強(qiáng)特征融合;(3)將YOLOv8原本的DFLLoss + CIoU[16]替換為FocalEIoU[17]損失函數(shù),改善模型對(duì)難樣本的適應(yīng)能力,提高模型對(duì)于未見(jiàn)過(guò)場(chǎng)景的適應(yīng)能力和算法精度,增強(qiáng)模型的魯棒性。改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

1.2.1基于高效多尺度注意力的C2f模塊

在棉田雜草檢測(cè)任務(wù)中,如馬齒莧草和鍬甲蟲(chóng)草特征相近,二者葉片都近似橢圓,一般通過(guò)植株根莖和葉片紋理特征判別差異,棉田雜草檢測(cè)模型對(duì)于提升特征相近植株的關(guān)鍵特征提取能力至關(guān)重要。在自然環(huán)境下,作物幼苗與雜草、雜草與雜草之間的相似度極高,且植株之間存在嚴(yán)重重疊、遮擋,導(dǎo)致目標(biāo)特征信息丟失,影響對(duì)目標(biāo)特征的提取,這為棉田雜草的精準(zhǔn)檢測(cè)帶來(lái)了極大困難。因此,針對(duì)檢測(cè)目標(biāo)相似度高,植株之間重疊、遮擋問(wèn)題,對(duì)骨干網(wǎng)絡(luò)中的第一層和第二層的C2f模塊基于高效多尺度注意力(EMA)進(jìn)行改進(jìn),能夠提取目標(biāo)植株更多特征的同時(shí)減少計(jì)算的復(fù)雜性。EMA是一種先進(jìn)的特征提取模塊,其核心思想是在每個(gè)通道上都保留盡可能多的信息,同時(shí)減少計(jì)算的復(fù)雜性。相較于傳統(tǒng)的特征提取方法,基于EMA改進(jìn)的C2f模塊更加注重各個(gè)通道的信息,而非局限于某幾個(gè)關(guān)鍵通道。在考慮到特征分組和多尺度結(jié)構(gòu)的情況下,該模塊有效構(gòu)建短期和長(zhǎng)期依賴(lài)關(guān)系,從而實(shí)現(xiàn)更卓越的性能。基于高效多尺度注意力改進(jìn)的C2f模塊結(jié)構(gòu)如圖2所示。

圖2C2f_EMA模型結(jié)構(gòu)Fig.2 C2f_EMA model structure

原模型中的C2f模塊是一個(gè)橋接骨干網(wǎng)絡(luò)和檢測(cè)頭的過(guò)渡,確保信息流的連續(xù)性。但在傳統(tǒng)的C2f模塊中,一些細(xì)粒度[18的特征和全局上下文信息可能會(huì)被忽略或損失。EMA采用并行子結(jié)構(gòu)來(lái)捕捉不同尺度上的特征,參考CA注意力模塊19,選擇 1×1 分支聚合多尺度空間結(jié)構(gòu)信息,幫助模型更好地區(qū)分棉株幼苗與雜草,識(shí)別不同種類(lèi)雜草。其局部感受野的設(shè)計(jì)利用3個(gè)并行通道提取分組特征圖和注意力權(quán)重描述符,進(jìn)一步捕獲多尺度特征表示。

在維度處理方面,EMA重新整理并排列 G 組到批量維度中,重新定義為 C//G×H×W,C,H,W 分別表示通道數(shù)、高度和寬度。EMA通過(guò)對(duì)編碼特征進(jìn)行通道連接,使用非線性Sigmoid20]函數(shù)擬合線性卷積上的二維二項(xiàng)分布,同時(shí)在 3×3 分支中補(bǔ)充局部跨通道交互,以保留空間結(jié)構(gòu)信息,有助于提取更加豐富和準(zhǔn)確的特征,進(jìn)而提高模型對(duì)作物與雜草、雜草與雜草重疊和遮擋的檢測(cè)能力。通過(guò)引入2個(gè)張量,EMA通過(guò)2D全局平均池化編碼全局信息,2D全局池化操作如式(1)所示。

式中: xc —第 c 個(gè)通道的輸人特征。

通過(guò)高效計(jì)算的2D高斯圖的非線性函數(shù)Stmax[21]生成空間注意力。

在C2f模塊中,EMA的引入著重將空間位置信息嵌入通道注意力圖,提升特征聚合效果。基于EMA改進(jìn)的C2f模塊在棉田雜草檢測(cè)過(guò)程中充分考慮每個(gè)特征空間和通道的重要性,有助于模型更好地區(qū)分重疊和遮擋的情況,從而提高棉田雜草檢測(cè)的準(zhǔn)確性。EMA通過(guò)跨維度交互機(jī)制進(jìn)一步增強(qiáng)特征的語(yǔ)義表達(dá)能力,通過(guò)處理短程和長(zhǎng)程的依賴(lài)性,提高特征的表達(dá)能力。基于高效多尺度注意力的C2f模塊改進(jìn),有效解決棉田雜草檢測(cè)中棉株幼苗與雜草之間相似度高、植株重疊和遮擋等問(wèn)題,提高檢測(cè)的準(zhǔn)確性和魯棒性。

1.2.2加入漸進(jìn)特征金字塔的特征融合模塊

前文對(duì)骨干網(wǎng)絡(luò)中的C2f基于EMA注意力進(jìn)行改進(jìn),提升骨干網(wǎng)絡(luò)對(duì)于多尺度特征的提取能力。在棉田雜草檢測(cè)任務(wù)中,對(duì)具有尺度變化的雜草進(jìn)行編碼時(shí),如果采用自上而下和自下而上的特征金字塔網(wǎng)絡(luò)進(jìn)行特征融合,會(huì)導(dǎo)致特征信息的丟失和退化。為將從改進(jìn)后的骨干網(wǎng)絡(luò)中提取的雜草多尺度特征信息更好地進(jìn)行特征融合,在原始YOLOv8的頭部網(wǎng)絡(luò)中,添加漸進(jìn)特征金字塔網(wǎng)絡(luò)(AFPN)。通過(guò)融合2個(gè)相鄰的低級(jí)特征并漸進(jìn)地將更高級(jí)別的特征合并融合,可以避免非相鄰級(jí)別之間出現(xiàn)較大的語(yǔ)義差距,防止棉株與雜草的特征信息在傳輸和交互過(guò)程中丟失或退化。這樣可以幫助模型更好地捕捉棉田中棉株幼苗和雜草間的差異,提高檢測(cè)的準(zhǔn)確性。在考慮每個(gè)空間位置的特征融合時(shí),可能會(huì)出現(xiàn)多個(gè)目標(biāo)信息的沖突情況。為減輕這種不一致性,并提高棉田場(chǎng)景下雜草目標(biāo)檢測(cè)的精度,進(jìn)一步采用自適應(yīng)空間融合操作。構(gòu)建的AFPN模塊結(jié)構(gòu)如圖3所示。

圖3AFPN的模型結(jié)構(gòu)Fig.3 AFPN model structure

參考Faster R-CNN[20] 的經(jīng)典設(shè)計(jì),在骨干網(wǎng)絡(luò)的每個(gè)特征層中提取最后的多尺度特征,獲得不同尺度的特征集合 {C2 , C3 , C4 ,C5}。在執(zhí)行特征融合前,首先將 c2 和 c3 的底層特征輸入到特征金字塔網(wǎng)絡(luò)中,接著加入 C4 ,最后融合 C5 。此過(guò)程生成一系列多尺度特征 {P2 P3 , P4 , P5/ 。對(duì)于在YOLOv8框架上進(jìn)行的試驗(yàn),首先對(duì) P5 執(zhí)行步長(zhǎng)為2的卷積,再應(yīng)用步長(zhǎng)為1的卷積以產(chǎn)生 P6 ,確保輸出的一致性。這樣,最終得到的多尺度特征集合為 {P2,P3,P4,P5,P6} ,其對(duì)應(yīng)的步長(zhǎng)為{4,8,16,32,64}。

AFPN利用ASFF在多級(jí)特征融合過(guò)程中為不同級(jí)別的特征分配不同的空間權(quán)重,增強(qiáng)關(guān)鍵級(jí)別的重要性并減輕來(lái)自植株重疊的矛盾信息的影響。如圖3所示,AFPN融合3個(gè)級(jí)別的特征,令 xijn…l 表示從第 n 級(jí)到第 ? 級(jí)的位置 (i,j) 處的特征向量。通過(guò)多級(jí)特征的自適應(yīng)空間融合獲得的特征向量表示為yijl ,并由特征向量 xij1…l,xij2…l 和 xij3l 的線性組合定義,如式(2)所示。

式中: αijl 1 α 層的特征在第 l 層的空間權(quán)重;(204號(hào) βijl 1 ?β 層的特征在第 l 層的空間權(quán)重;γijl-γ 層的特征在第 ? 層的空間權(quán)重。

約束條件為 αijlijlijl=1 。在AFPN每個(gè)階段的融合特征數(shù)量中,實(shí)現(xiàn)階段特定數(shù)量的自適應(yīng)空間融合模塊。

與傳統(tǒng)的特征金字塔方法相比,AFPN能夠更有效地整合不同尺度的雜草特征,增強(qiáng)檢測(cè)棉株幼苗和雜草的關(guān)鍵特征提取能力。這種改進(jìn)強(qiáng)調(diào)模型對(duì)這些關(guān)鍵級(jí)別的重要性,使模型更加專(zhuān)注于這些重要特征,提高模型對(duì)關(guān)鍵信息的捕獲能力。此外,AFPN的結(jié)構(gòu)設(shè)計(jì)考慮特征的層級(jí)性和尺度的漸進(jìn)性,使得深層特征與淺層特征能夠在一個(gè)統(tǒng)一的框架下進(jìn)行融合。這種融合方式不僅加強(qiáng)特征的語(yǔ)義信息,有效地解決多級(jí)特征融合中的信息矛盾問(wèn)題,還提高對(duì)重疊和遮擋植物的檢測(cè)能力,增加模型在棉田場(chǎng)景下小目標(biāo)雜草的敏感性。

1.2.3 FocalEIoU損失函數(shù)

原始的YOLOv8模型使用DFLLoss + CIoULoss作為其主要的回歸損失。然而,CIoU在描述縱橫比的相對(duì)值方面存在一定模糊性,并且不能有效地處理不平衡的樣本問(wèn)題。這使得模型在面對(duì)如植株附近的雜草幼苗等具有復(fù)雜背景和小目標(biāo)的場(chǎng)景時(shí),無(wú)法達(dá)到最優(yōu)的檢測(cè)性能。為進(jìn)一步提升雜草檢測(cè)模型的目標(biāo)定位性能,采用FocalEIoULoss1替代原有的損失函數(shù)。相比于CIoULoss,F(xiàn)ocalEIoULoss能夠更準(zhǔn)確地描述框回歸(BBR)的目標(biāo),提高模型對(duì)于小目標(biāo)和復(fù)雜背景下的定位能力。在雜草檢測(cè)任務(wù)中,不同植株之間的數(shù)量和尺度差異可能導(dǎo)致樣本不平衡。FocalEIoULoss能夠更加關(guān)注難以分類(lèi)的樣本和對(duì)優(yōu)化貢獻(xiàn)較大的Anchorboxes,從而提高模型在訓(xùn)練過(guò)程中對(duì)重要樣本的關(guān)注度,改善模型性能。此外,F(xiàn)ocalEIoULoss通過(guò)更準(zhǔn)確的框回歸和處理不平衡樣本,使模型在訓(xùn)練過(guò)程中更加專(zhuān)注于關(guān)鍵樣本,避免冗余計(jì)算,加速模型的收斂速度,提高訓(xùn)練效率。 LEIoU 的定義如式(3)所示。

式中: wc ———最小框的寬;hc 一 一最小框的長(zhǎng);(204號(hào) b,bgt 1 預(yù)測(cè)框和標(biāo)簽框; 標(biāo)簽框的寬和高;w,h 預(yù)測(cè)框的寬和高;LIoU. -IoU損失;Ldis 距離損失;Lasp 縱橫比損失。

綜上,通過(guò)將原始模型的損失函數(shù)替換為FocalEIoULoss,有助于提升模型在復(fù)雜場(chǎng)景下的目標(biāo)定位精度。特別是在面對(duì)不同雜草類(lèi)別之間相似度高、重疊性高的情況時(shí),F(xiàn)ocalEIoULoss能夠更好地區(qū)分自標(biāo),從而減少誤檢率,提高模型檢測(cè)的精確性和可靠性。FocalEIoULoss為模型提供一個(gè)更為可靠的優(yōu)化策略。試驗(yàn)表明,這一損失函數(shù)的替換在加速模型收斂速度和提高目標(biāo)定位精度方面具有優(yōu)勢(shì)。

2棉田雜草檢測(cè)試驗(yàn)

2.1雜草圖像數(shù)據(jù)集

采用公共棉田雜草數(shù)據(jù)集CottonWeedDetl2[1]進(jìn)行模型訓(xùn)練與評(píng)估,驗(yàn)證所提出棉田雜草檢測(cè)方法的有效性。該數(shù)據(jù)集在密西西比州立大學(xué)研究農(nóng)場(chǎng)的棉田中采集,使用多種手持智能手機(jī)和高分辨率的數(shù)字彩色相機(jī)進(jìn)行收集,包括水麻、牽牛、馬齒莧草、斑地錦草、粟米草、豚草、腸、刺芹、長(zhǎng)芒莧、鍬甲蟲(chóng)、牛筋草和苦藏12類(lèi),共計(jì)5648幅圖像和9370個(gè)邊界框標(biāo)注。CottonWeedDet12數(shù)據(jù)集的示例圖像如圖4所示。

圖4CottonWeedDet12數(shù)據(jù)集示例圖像 Fig. 4 CottonWeedDetl2 dataset example image

原始數(shù)據(jù)的標(biāo)注格式為JSON,但為適應(yīng)試驗(yàn)需求,對(duì)其進(jìn)行轉(zhuǎn)換以適應(yīng)YOLO標(biāo)簽格式。進(jìn)一步地,為更符合試驗(yàn)硬件的性能要求,對(duì)圖像進(jìn)行統(tǒng)一裁剪。數(shù)據(jù)集經(jīng)過(guò)處理后,按照13:4:3的比例將其隨機(jī)劃分為訓(xùn)練集、驗(yàn)證集、測(cè)試集。調(diào)整后的部分棉田雜草數(shù)據(jù)集和各類(lèi)雜草的分布情況如表1所示。

表1棉田雜草類(lèi)別描述 Tab.1 Description cotton field weed categories

2.2試驗(yàn)環(huán)境配置與網(wǎng)絡(luò)參數(shù)設(shè)置

試驗(yàn)操作系統(tǒng)為CentOS,CPU型號(hào)為Intel(R)Xeon(R)CPU $\mathrm { E 5 - 2 6 3 0 ~ v 4 ~ } \textcircled { \omega } 2 . 2 0 ~ \mathrm { G H z } ( \mathrm { 1 0 }$ 核)。試驗(yàn)所用的硬件環(huán)境配備有3張22GB顯存的NVIDIATeslaP4O顯卡。運(yùn)行內(nèi)存為32GB,磁盤(pán)配置為 1T 。

編程語(yǔ)言為Python3.9.17,使用的深度學(xué)習(xí)框架為Pytorch2.0.1,GPU加速庫(kù)為CUDA11.4。在網(wǎng)絡(luò)訓(xùn)練過(guò)程中,批處理量設(shè)為8,迭代次數(shù)設(shè)置為300次。

3 結(jié)果與分析

3.1高效多尺度注意力添加到網(wǎng)絡(luò)不同位置的試驗(yàn)結(jié)果

為使模型更加精準(zhǔn)地識(shí)別和定位雜草,對(duì)原始的YOLOv8模型進(jìn)行改進(jìn),主要包括在頭部網(wǎng)絡(luò)中增加漸進(jìn)特征金字塔的特征融合網(wǎng)絡(luò)(AFPN),同時(shí)將損失函數(shù)替換為FocalEIoULoss,并嘗試以不同的形式引入高效的多尺度注意力EMA模塊。經(jīng)過(guò)試驗(yàn)比對(duì)后,在1.2節(jié)的網(wǎng)絡(luò)結(jié)構(gòu)中融合C2f模塊與EMA模塊,并進(jìn)行對(duì)比測(cè)試,結(jié)果如表2所示。改進(jìn)模型的平均精度均值 mAP 可以達(dá)到 94.6% ,精確率 P 達(dá)到93.9% ,召回率 R 為 90.2% 。

表2在模型不同位置添加EMA模塊的試驗(yàn)對(duì)比Tab.2Experimental comparison addingEMA modulesat different locations in the model

3.2改進(jìn)模型訓(xùn)練結(jié)果

通過(guò)對(duì)原YOLOv8骨干網(wǎng)絡(luò)的C2f模塊基于EMA注意力改進(jìn),在模型的頭部網(wǎng)絡(luò)添加漸進(jìn)特征金字塔AFPN,對(duì)YOLOv8的損失函數(shù)進(jìn)行優(yōu)化,改進(jìn)模型檢測(cè)棉田雜草的精確度得到提升。為驗(yàn)證改進(jìn)模型訓(xùn)練的有效性,對(duì)改進(jìn)后的損失值和平均精確度進(jìn)行可視化操作,繪制訓(xùn)練過(guò)程的損失曲線圖和 mAP 變化圖,如圖5所示。由圖5(a)可知,在訓(xùn)練初期模型的檢測(cè)精度較低,在訓(xùn)練后期mAP值逐漸提高并趨于穩(wěn)定在0.9左右,證明模型訓(xùn)練有效。

為深人評(píng)估改進(jìn)模型性能,對(duì)測(cè)試集中的566幅棉田雜草圖像進(jìn)行細(xì)致的評(píng)測(cè)。改進(jìn)算法在棉田背景下針對(duì)不同類(lèi)別雜草的檢測(cè)成果見(jiàn)表3。改進(jìn)模型成功檢測(cè)出水麻、牽牛、馬齒莧草、斑地錦草、粟米草、豚草、腸、刺芹、長(zhǎng)芒莧、鍬甲蟲(chóng)、牛筋草、苦12種類(lèi)別的棉田雜草,圖6為改進(jìn)模型和YOLOv8檢測(cè)結(jié)果的對(duì)比,可以看出,改進(jìn)模型改善了漏檢、錯(cuò)檢問(wèn)題。

圖6模型改進(jìn)前后檢測(cè)結(jié)果對(duì)比 Fig.6 Comparison detection results before aftermodel improvement

雜草間及其與棉株之間的相互遮擋和特征相似性增加了檢測(cè)的難度。然而,改進(jìn)算法能夠精準(zhǔn)地提取雜草與棉株的形態(tài)特征,從而實(shí)現(xiàn)對(duì)棉株和各種類(lèi)別雜草的準(zhǔn)確檢測(cè)。例如,某些雜草可能由于棉株或其他雜草的遮擋而難以辨認(rèn),但改進(jìn)YOLOv8模型經(jīng)過(guò)進(jìn)一步的融合策略,可以結(jié)合被遮擋雜草的位置和語(yǔ)義信息,從而顯著提升對(duì)受遮擋雜草的檢測(cè)精度。

綜上,改進(jìn)YOLOv8模型在棉田雜草檢測(cè)任務(wù)上展現(xiàn)卓越的性能,無(wú)論是對(duì)于小目標(biāo)、多目標(biāo)場(chǎng)景,還是受遮擋和光照變化情境,均取得令人滿意的檢測(cè)結(jié)果。

3.3改進(jìn)模型消融實(shí)驗(yàn)結(jié)果

為更全面地評(píng)估改進(jìn)后YOLOv8的性能表現(xiàn),設(shè)計(jì)一系列的消融實(shí)驗(yàn),以系統(tǒng)評(píng)估4種不同的網(wǎng)絡(luò)配置。(1)在YOLOv8骨干網(wǎng)絡(luò)的C2f模塊中引人高效多尺度注意力EMA;(2)將YOLOv8頭部網(wǎng)絡(luò)與漸進(jìn)的FPN特征融合網(wǎng)絡(luò)相結(jié)合;(3)基礎(chǔ)的YOLOv8模型;(4)提出的完整改進(jìn)算法。為從定量的角度深入評(píng)估這4種配置的性能,對(duì)測(cè)試集中的564幅棉田雜草圖像進(jìn)行細(xì)致的評(píng)估。其中,評(píng)估指標(biāo)涵蓋模型的檢測(cè)精度、平均檢測(cè)時(shí)間等關(guān)鍵性能指標(biāo),改進(jìn)YOLOv8模型和對(duì)照模型訓(xùn)練結(jié)果如圖7所示。由表4可知,提出的改進(jìn)模型在檢測(cè)精度方面均明顯優(yōu)于其他3組網(wǎng)絡(luò)結(jié)構(gòu)。不僅從定量角度驗(yàn)證改進(jìn)策略的有效性,也為后續(xù)的實(shí)際應(yīng)用提供有力的支持。

表4改進(jìn)的棉田檢測(cè)模型消融實(shí)驗(yàn)結(jié)果 Tab.4 Ablation test results improved cotton field detectionmodel

3.4不同檢測(cè)網(wǎng)絡(luò)對(duì)比結(jié)果分析

為定性評(píng)價(jià)改進(jìn)YOLOv8模型的檢測(cè)結(jié)果,將改進(jìn)的模型與YOLOv7、YOLOv7—tiny、YOLOv5、YOLOv3以及原始YOLOv8模型對(duì)測(cè)試集中的棉田雜草圖像檢測(cè)進(jìn)行算法對(duì)比,結(jié)果如表5所示。可以看出,在棉田雜草數(shù)據(jù)集上,所提出的融合多尺度特征和多重注意力的棉田雜草檢測(cè)模型的 mAP 為 94.6% 精確率為 93.9% ,召回率為 90.2%,F(xiàn)1 分?jǐn)?shù)為0.754,相比于YOLOv3、YOLOv5、YOLOv7、YOLOv7—tiny、YOLOv8網(wǎng)絡(luò)模型, mAP 分別提升 1.5%.2.8% 、1.95%.1.73%.2.62% ,均優(yōu)于其他檢測(cè)算法。在檢測(cè)速度上,由于在C2f模塊添加EMA,檢測(cè)速度相較于其他模型也有所提升。模型訓(xùn)練完成后,使用未進(jìn)行數(shù)據(jù)預(yù)處理的棉田雜草測(cè)試集進(jìn)行效果驗(yàn)證,可以看出,提出的改進(jìn)算法能更準(zhǔn)確地對(duì)真實(shí)棉田場(chǎng)景下的伴生雜草進(jìn)行檢測(cè)定位,而原YOLOv8算法則存在一定程度的漏檢和誤檢,驗(yàn)證改進(jìn)算法可提高在真實(shí)棉田場(chǎng)景下棉株伴生雜草的檢測(cè)精度。

表5不同檢測(cè)模型在測(cè)試集中的性能結(jié)果Tab.5 Performance results different detection modelsin the test set

4結(jié)論

針對(duì)棉田雜草檢測(cè)問(wèn)題,提出一種融合多尺度特征和多重注意力的棉田雜草檢測(cè)算法,實(shí)現(xiàn)在真實(shí)棉田場(chǎng)景下的雜草檢測(cè),并通過(guò)試驗(yàn)驗(yàn)證改進(jìn)算法的有效性。

1)為使特征提取網(wǎng)絡(luò)能自適應(yīng)地提取真實(shí)棉田場(chǎng)景下雜草的形狀及位置特征,在原始YOLOv8算法的C2f模塊中引人高效多尺度注意力EMA,提高算法的特征提取能力和檢測(cè)速度。

2)在骨干網(wǎng)絡(luò)中,添加漸進(jìn)式特征金字塔網(wǎng)絡(luò)AFPN,有效提高不同尺度的特征融合,加強(qiáng)特征的語(yǔ)義信息,提高算法對(duì)小目標(biāo)的敏感性。

3)改進(jìn)模型的 mAP 為 94.6% ,精確率為93.9% ,召回率為 90.2% ,F(xiàn)1分?jǐn)?shù)為0.754,相比于原YOLOv8,mAP 提高 2.62% ,具有一定的魯棒性和泛化性,相比于YOLOv3、YOLOv5、YOLOv7、YOLOv7一tiny網(wǎng)絡(luò)模型,改進(jìn)模型的 mAP 分別提升1.5%.2.8%.1.95%.1.73% 。接下來(lái)將實(shí)地采集自建數(shù)據(jù)集,驗(yàn)證模型的泛化能力,為將棉田雜草檢測(cè)應(yīng)用于無(wú)人自動(dòng)靶向智能除草設(shè)備提供參考。

4)從檢測(cè)時(shí)間上來(lái)看,改進(jìn)模型的檢測(cè)時(shí)間雖然滿足實(shí)時(shí)檢測(cè)的基本要求,但在棉田真實(shí)環(huán)境下部署仍有進(jìn)一步提升的空間。將模型輕量化并提高其檢測(cè)精度,使其可以更好地在邊緣設(shè)備上部署是下一步的研究重點(diǎn)。

參考文獻(xiàn)

[1]dosSantosFerreiraA,F(xiàn)reitasDM,daSilvaGG,etal.Unsupervised deep learning semi-automatic data labeling in weed discrimination [J]. s Electronics in Agriculture,2019,165:104963.

[2]Kounalakis T,Triantafyllidis GA,Nalpantidis L. Image-based recognition framework for robotic weed control systems[J]. Multimedia Tools Applications, 2018,77(8):9567-9594.

[3]苗榮慧,楊華,武錦龍,等.基于圖像分塊及重構(gòu)的菠菜 重疊葉片與雜草識(shí)別[J].農(nóng)業(yè)工程學(xué)報(bào),2020,36(4): 178-184. Miao Ronghui,Yang Hua,Wu Jinlong,et al. Weed identification overlapping spinach leaves based on image sub-block reconstruction [J]. Transactions the Chinese Society , 2020, 36(4): 178-184.

[4]Ahmad A,Saraswat D,Aggarwal V,et al. Performance deep learning models for classifying detecting commonweedsin corn soybeanproduction systems [J]. s Electronics in Agriculture, 2021,184(3):106081.

[5]姚思雨,王磊,張宏文.基于CNN的棉田雜草識(shí)別方法[J]. 石河子大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,41(1):21—26. YaoSiyu, Wang Lei, ZhangHongwen. Weed identification method in cotton field based on CNN[J]. Journal Shihezi (Natural ),2023, 41(1):21-26.

[6]李開(kāi)敬,許燕,周建平,等.基于FasterR—CNN和數(shù)據(jù) 增強(qiáng)的棉田苗期雜草識(shí)別方法[J].新疆大學(xué)學(xué)報(bào)(自然 科學(xué)版)(中英文),2021,38(4):450—456. Li Kaijing,Xu Yan,Zhou Jianping,et al. Cotton field seedling weed identification method based on Faster RCNNdata enhancement[J].Journal Xinjiang (Natural Edition in Chinese English),2021,38(4): 450-456.

[7]He K, Zhang X,Ren S,et al. Deep residual learning for imagerecognition [C].Proceedings theIEEE Conference on Vision Pattern Recognition, 2016: 770—778.

[8]Ren S,He K,Girshick R,et al.Faster R—CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis amp;. Machine Intelligence,2017,39(6): 1137-1149.

[9]彭明霞,夏俊芳,彭輝.融合FPN的FasterR—CNN復(fù) 雜背景下棉田雜草高效識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào), 2019,35(20):202—209. Peng Mingxia,Xia Junfang,PengHui. Eficient recognition cotton weed in field based on Faster R—CNN by integrating FPN [J]. Transactions the Chinese Society ,2019,35(20):202—209.

[10]DangF,Chen D,Lu Y,etal.YOLOWeeds:A novel benchmarkYOLOobjectdetectorsformulti-classweed detection in cotton production systems[J].s Electronics in Agriculture,2023,205:107655.

[11]Wang CY,YehIH,Liao HYM. You only learn one representation:Unified network for multiple tasks[J]. Journal Information amp;.,2023,39(3):691.

[12]WangCY,BochkovskiyA,Liao HY M.YOLOv7: Trainable bag--freebies sets new state--the-art for real-time objectdetectors[C].Proceedingsthe IEEE/CVF Conference on Vision Pattern Recognition,2022:7464—7475.

[13]Zhao T,Wu X. Pyramid feature attention network for saliency detection [C].Proceedings the IEEE/CVF Conference on Vision Pattern Recognition, 2019:3080-3089.

[14]Ouyang D,He S,Zhang G,et al.Efficient multi-scale attention module with cross-spatial learning [J]. arXiv preprintarXiv:2305.13563,2023.

[15]YangG,LeiJ,Zhu Z,et al. AFPN:Asymptotic feature pyramid network for object detection [J].arXiv preprint"arXiv:2306.15988,2023.

[16] Zheng Z,Wang P,Liu W,et al. Distance—IoU loss: Faster better learning for bounding box regression [J]. arXiv preprint arXiv:1911.08287,2019.

[17] Zhang Y,Ren W, Zhang Z, et al. Focal efficient IOU loss for accurate bounding box regression [J].arXiv preprint arXiv:2101.08158,2021.

[18]Zhang N,Donahue J,Girshick R,et al.Part-based R—CNNsfor fine-grained category detection [C]. European Conference on Vision. Springer International Publishing,2O14:834—849.

[19]Hou R,ChangH,Ma B,et al.Cross attention network for few-shot classfication [J]. Conference on Neural Information Processing Systems,2020: 3969-4770.

[20]Langer S. Approximating smooth functions by deep neural networks with sigmoid activation function [J]. Journal Multivariate Analysis,2021,182:104696.

[21]Wang M,Lu S,Zhu D,et al.A high-speed low-complexity architecture for stmax function in deep learning [C]. IEEE Asia Pacific Conference on Circuits Systems(APCCAS),2018: 223-226.

主站蜘蛛池模板: 色老头综合网| 9丨情侣偷在线精品国产| 亚洲综合经典在线一区二区| 在线观看视频99| 日韩福利在线视频| 伊人久热这里只有精品视频99| 日韩精品一区二区三区大桥未久 | 日本免费高清一区| 亚洲第一区在线| 日本精品αv中文字幕| 无码免费试看| 9啪在线视频| 97综合久久| 亚洲色欲色欲www网| 伊伊人成亚洲综合人网7777| 亚洲无码高清免费视频亚洲 | 国产成人精品亚洲日本对白优播| 一级爆乳无码av| 日本爱爱精品一区二区| 国产又黄又硬又粗| 亚洲人成网站观看在线观看| 熟女日韩精品2区| 最近最新中文字幕免费的一页| 波多野结衣亚洲一区| 亚洲欧洲日韩久久狠狠爱| 亚洲美女一级毛片| 在线人成精品免费视频| 亚洲福利片无码最新在线播放| 四虎永久在线| 最新国产在线| 欧美精品在线免费| 午夜国产大片免费观看| 色婷婷啪啪| 91成人在线观看视频| aaa国产一级毛片| 国产精品视频观看裸模| 久久精品日日躁夜夜躁欧美| 久久天天躁狠狠躁夜夜躁| a级免费视频| 国内精自视频品线一二区| 亚洲专区一区二区在线观看| 国产在线视频二区| 狠狠色综合网| 无码又爽又刺激的高潮视频| 欧美一区二区三区不卡免费| 91在线播放国产| 中文字幕资源站| 亚洲欧美在线综合图区| 成年av福利永久免费观看| 一级香蕉视频在线观看| 高清欧美性猛交XXXX黑人猛交| 亚洲婷婷丁香| 五月综合色婷婷| 91在线视频福利| 午夜不卡福利| 久久国产毛片| 999福利激情视频| 国产亚洲精品无码专| 国产 日韩 欧美 第二页| 日韩第一页在线| 亚洲精品自产拍在线观看APP| 人人爱天天做夜夜爽| 国内精自线i品一区202| 国产人成在线观看| а∨天堂一区中文字幕| 亚洲美女一级毛片| 热久久综合这里只有精品电影| 国产小视频网站| 久久a级片| 五月婷婷激情四射| 亚洲国产精品VA在线看黑人| 毛片在线看网站| 最新精品国偷自产在线| 免费a在线观看播放| 精品视频一区二区三区在线播| 精品超清无码视频在线观看| 精品午夜国产福利观看| 中文字幕av一区二区三区欲色| 国内精品免费| 高清欧美性猛交XXXX黑人猛交| 国产人妖视频一区在线观看| 人妻精品久久无码区|