999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進(jìn)YOLOv5的棉田雜草檢測(cè)

2024-12-18 00:00:00楊明軒陳琳
現(xiàn)代電子技術(shù) 2024年24期
關(guān)鍵詞:深度學(xué)習(xí)

摘" 要: 針對(duì)復(fù)雜環(huán)境下棉田雜草檢測(cè)與識(shí)別困難等問(wèn)題,提出一種改進(jìn)YOLOv5的棉田雜草檢測(cè)算法——CST?YOLOv5。首先,通過(guò)數(shù)據(jù)增強(qiáng)算法解決棉田雜草樣本分布不均勻?qū)е碌哪P陀?xùn)練效果不充分問(wèn)題;其次,考慮到通道信息和方向位置信息,在主干網(wǎng)絡(luò)中加入了坐標(biāo)注意力機(jī)制;最后,在頸部網(wǎng)絡(luò)中將Swin Transformer Block引入C3模塊,得到新的C3STR模塊,以保留全局上下文信息和多尺度特征。實(shí)驗(yàn)結(jié)果表明,CST?YOLOv5模型的mAP值達(dá)到95.1%,F(xiàn)1值達(dá)到90.4%,比原YOLOv5模型提高了4.8%、3.2%。所設(shè)計(jì)算法具有良好的魯棒性,能精確識(shí)別多類雜草。

關(guān)鍵詞: 雜草檢測(cè); YOLOv5; 深度學(xué)習(xí); 目標(biāo)檢測(cè); 注意力機(jī)制; 棉花保護(hù)

中圖分類號(hào): TN911.23?34; TP391" " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " " " " 文章編號(hào): 1004?373X(2024)24?0060?08

Improved YOLOv5 detection of weeds in cotton fields

YANG Mingxuan, CHEN Lin

(College of Computer Science, Yangtze University, Jingzhou 434000, China)

Abstract: In allusion to the difficulty of detecting and identifying weeds in cotton fields in complex environments, a cotton field weed detection algorithm CST?YOLOv5 is proposed to improve YOLOv5. The data enhancement algorithm is used to solve the problem of insufficient model training effect due to the unbalanced distribution of weed samples in cotton fields. A coordinate attention mechanism is added to the backbone network by considering channel information and direction location information. The Swin Transformer Block is introduced into the C3 module in the neck network to obtain a new C3STR module to preserve global context information and multi?scale features. The experimental results show that the mAP value of the CST?YOLOv5 model can reach 95.1%, and the F1 value can reach 90.4%, which are respectively increased by 4.8% and 3.2% compared with the original YOLOv5 model. It verifies that the designed algorithm has good robustness and can accurately identify many types of weeds.

Keywords: weed detection; YOLOv5; deep learning; target detection; attention mechanism; cotton protect

0" 引" 言

隨著世界人口的快速增長(zhǎng),對(duì)農(nóng)產(chǎn)品的需求也日益增加。雜草野蠻生長(zhǎng)搶奪了棉花在田地的生長(zhǎng)空間和生存資源,棉花植株在生長(zhǎng)繁育的過(guò)程中受到了阻礙,這嚴(yán)重影響了棉花的質(zhì)量。而精準(zhǔn)化農(nóng)業(yè)或智慧農(nóng)業(yè)可以提供緩解這些問(wèn)題的策略[1]。

現(xiàn)有的除草方式有人工除草、機(jī)械除草和化學(xué)除草。傳統(tǒng)的人工除草不僅消耗大量的人力物力,而且效率低。機(jī)械除草是農(nóng)田除草的一種有效方法,但粗略、大面積的除草方式會(huì)在去除雜草的同時(shí)損害農(nóng)作物。化學(xué)除草具有良好的除草效果,而且已經(jīng)成為國(guó)內(nèi)外農(nóng)田除草的主要方式,但是過(guò)量、不精準(zhǔn)的化學(xué)除草方式會(huì)損害農(nóng)田土壤質(zhì)量,對(duì)生態(tài)環(huán)境造成危害[2]。所以為了提高農(nóng)藥噴灑的精準(zhǔn)程度,減少不必要的作物損害,基于雜草檢測(cè)的農(nóng)藥精確除草研究十分重要[3]。

近年來(lái),人工智能技術(shù)不斷發(fā)展,深度學(xué)習(xí)廣泛應(yīng)用于各種目標(biāo)檢測(cè)領(lǐng)域,有著重大的研究意義。文獻(xiàn)[4]針對(duì)數(shù)據(jù)集偏小、訓(xùn)練容易過(guò)擬合的問(wèn)題,使用數(shù)據(jù)增強(qiáng)提升水稻病蟲(chóng)害的泛化能力和魯棒性。文獻(xiàn)[5]針對(duì)復(fù)雜農(nóng)田多種目標(biāo)雜草檢測(cè)精度低、模型參數(shù)量大、檢測(cè)速度慢等問(wèn)題,融合Ghost輕量化卷積模塊,在特征融合模塊添加NAM注意力機(jī)制來(lái)降低輕量化帶來(lái)的精度損失,改進(jìn)后的網(wǎng)絡(luò)模型體積為6.23 MB,平均精度提升至97.8%,但其網(wǎng)絡(luò)模型過(guò)于復(fù)雜。文獻(xiàn)[6]針對(duì)復(fù)雜環(huán)境下農(nóng)作物和雜草相互遮擋而難以識(shí)別、檢測(cè)精度低、參數(shù)量大等問(wèn)題,使用MobileNetv2輕量化網(wǎng)絡(luò),提出一種多分支感受野級(jí)聯(lián)融合結(jié)構(gòu)ASPP,融合通道和空間雙域注意力機(jī)制模塊。文獻(xiàn)[7]中改進(jìn)后的網(wǎng)絡(luò)模型體積為11.15 MB,平均精度提升至95.67%,但其雜草檢測(cè)種類單一。文獻(xiàn)[8]針對(duì)SSD[9]模型參數(shù)量大、甜菜雜草識(shí)別精度低等問(wèn)題,提出一種多尺度融合模塊和特征增強(qiáng)的雜草檢測(cè)方法,但檢測(cè)速度并不突出。文獻(xiàn)[10]針對(duì)田間玉米雜草檢測(cè)精度低等問(wèn)題,選用YOLOv4?tiny[11]模型進(jìn)行檢測(cè)和識(shí)別,但檢測(cè)目標(biāo)過(guò)于單一。

以上目標(biāo)檢測(cè)[12]的網(wǎng)絡(luò)模型均已應(yīng)用于各種領(lǐng)域,但檢測(cè)精度還有提升的空間,針對(duì)網(wǎng)絡(luò)模型復(fù)雜還可以進(jìn)一步簡(jiǎn)化,模型的泛化能力和魯棒性還有待增強(qiáng),雜草識(shí)別的種類可以繼續(xù)豐富。因此,本文采用YOLOv5模型進(jìn)行棉田雜草精確識(shí)別,設(shè)計(jì)一種CST?YOLOv5網(wǎng)絡(luò)模型。首先通過(guò)數(shù)據(jù)增強(qiáng)提升模型的泛化能力和魯棒性;其次在主干網(wǎng)絡(luò)中引入坐標(biāo)注意力(Coordinate Attention, CA)[13]機(jī)制;最后在頸部引入內(nèi)嵌了Swin Transformers Block[14]的C3STR模塊,以提高設(shè)計(jì)模型的檢測(cè)精度。

1" 材料和方法

1.1" 數(shù)據(jù)采集

數(shù)據(jù)集是經(jīng)過(guò)專業(yè)人員辨認(rèn)并分類的15類棉田雜草,有的種類數(shù)量很少,本文為了使得訓(xùn)練時(shí)數(shù)據(jù)樣本達(dá)到均衡,選取其中數(shù)量較多的6類雜草,一共4 257張雜草圖像。所用數(shù)據(jù)集具體雜草種類和數(shù)量如表1所示。

數(shù)據(jù)集中圖像分辨率最高為4 000×6 000,通過(guò)Python腳本將其等比例縮放至600×800像素,使用LabelImg軟件手動(dòng)標(biāo)注,如圖1所示。圖1中的標(biāo)注格式為VOC格式,保存為.xml文件。YOLOv5中訓(xùn)練的圖像是.txt格式,其中object?class是目標(biāo)的類別標(biāo)簽,x和y是目標(biāo)的中心坐標(biāo),w和h是目標(biāo)的寬度和高度。因此,采用Python腳本將.xml格式轉(zhuǎn)換為.txt格式,并按照8∶1∶1的比例將數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集、測(cè)試集。

1.2" YOLOv5網(wǎng)絡(luò)模型

YOLO[15]已經(jīng)成為機(jī)器人、無(wú)人駕駛和視頻監(jiān)控主要的實(shí)時(shí)檢測(cè)模型。YOLOv5[16]模型主要由三個(gè)部分構(gòu)成,即主干網(wǎng)絡(luò)(Backbone)、頸部(Neck)網(wǎng)絡(luò)和頭部(Head)輸出層。原始YOLOv5網(wǎng)絡(luò)模型結(jié)構(gòu)如圖2所示。

圖2中Backbone部分包含CBS模塊、C3模塊和空間池化金字塔(SPPF)模塊;頸部網(wǎng)絡(luò)對(duì)特征圖進(jìn)行自頂向下的上采樣,通過(guò)PANet和FPN對(duì)提取的特征進(jìn)行融合,組成的模塊包含CBS模塊、C3_2_X模塊、Upsample模塊和Concat模塊等;Head輸出層主要利用之前提取的特征進(jìn)行預(yù)測(cè)。YOLOv5通過(guò)非極大值抑制(Non?Maximum Suppression, NMS)來(lái)篩選生成的候選框,其原理為:當(dāng)兩個(gè)物體太近時(shí),另一個(gè)物體的預(yù)測(cè)框很可能被過(guò)濾掉,NMS可以加強(qiáng)對(duì)目標(biāo)框的選擇,避免檢測(cè)目標(biāo)因距離近而被漏檢、錯(cuò)檢。YOLOv5采用CIoU作為目標(biāo)框的損失函數(shù),公式如下所示:

[LCIoU=1-IoU+ρ2(b,bgt)c2+αv] (1)

[v=4π2arctanwgthgt-arctanwh2] (2)

[α=v1-IoU+v] (3)

式中:[ρ2(b,bgt)]表示目標(biāo)框和預(yù)測(cè)框之間中心點(diǎn)的歐氏距離;[c2]表示最小包圍框?qū)蔷€的距離;[v]和[α]為長(zhǎng)寬比權(quán)重參數(shù),用來(lái)控制真實(shí)框和預(yù)測(cè)框之間的大小。相較于GIoU只使用包圍框計(jì)算損失,DIoU通過(guò)優(yōu)化包圍框間的距離來(lái)解決GIoU存在的問(wèn)題,而CIoU在DIoU的基礎(chǔ)上考慮了真實(shí)框和預(yù)測(cè)框之間的長(zhǎng)寬比。

1.3" 改進(jìn)CST?YOLOv5網(wǎng)絡(luò)模型

由于初始數(shù)據(jù)集不夠大,圖像中標(biāo)簽樣本分布不均勻,改進(jìn)的CST?YOLOv5算法使用在線的Mosaic和Mixup數(shù)據(jù)增強(qiáng)算法來(lái)解決樣本分布不均衡導(dǎo)致模型的訓(xùn)練效果不充分、檢測(cè)精度低等問(wèn)題,將坐標(biāo)注意力(CA)機(jī)制引入主干網(wǎng)絡(luò)中,增強(qiáng)主干網(wǎng)絡(luò)特征提取和小目標(biāo)精度檢測(cè)的能力。在頸部網(wǎng)絡(luò)中將原有的C3_2_X模塊替換為嵌入了Swin Transformer Block的C3STR模塊,增大感受野,提升模型的特征提取能力。本文改進(jìn)后的CST?YOLOv5網(wǎng)絡(luò)模型結(jié)構(gòu)如圖3所示。

1.3.1" 數(shù)據(jù)增強(qiáng)

數(shù)據(jù)增強(qiáng)主要是對(duì)數(shù)據(jù)集進(jìn)行擴(kuò)充,已被廣泛應(yīng)用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域。通常的數(shù)據(jù)增強(qiáng)方法有平移、旋轉(zhuǎn)、縮放、裁剪、翻轉(zhuǎn)、扭曲、合成、增加噪聲和變換圖像顏色通道等。本文應(yīng)用的Mosaic和Mixup數(shù)據(jù)增強(qiáng)算法可以將多張圖像進(jìn)行拼接,使得單張圖像擁有更多特征,從而達(dá)到訓(xùn)練效果;同時(shí)能夠在一張圖像上顯示多張圖像的目標(biāo)框,使得生成后的圖像目標(biāo)縮小。再結(jié)合CA機(jī)制,能夠有效地加強(qiáng)網(wǎng)絡(luò)模型對(duì)小目標(biāo)的訓(xùn)練與識(shí)別,這極大地提升了模型的泛化能力。因此,對(duì)本文所采用的實(shí)驗(yàn)數(shù)據(jù)集進(jìn)行在線Mosaic和Mixup數(shù)據(jù)增強(qiáng)。

Mosaic數(shù)據(jù)增強(qiáng)的原理是從數(shù)據(jù)集中隨機(jī)讀取4張圖像,然后將圖像和目標(biāo)框一起拼接成一張圖像,這樣一張圖像就擁有了4張圖像的待檢測(cè)物體,使得背景冗余信息有所減少,且生成后的圖像尺寸縮小后自然地形成了小目標(biāo),能夠極大地豐富數(shù)據(jù)集和提高模型的識(shí)別能力。

Mixup數(shù)據(jù)增強(qiáng)的原理是將2張不同的圖像拼接在一起構(gòu)成一張?zhí)摂M的圖像,該圖像同時(shí)具有2張圖像的目標(biāo)框,增強(qiáng)了模型的魯棒性。Mixup數(shù)據(jù)增強(qiáng)的公式如下所示:

[x=λxi+(1-λ)xjy=λyi+(1-λ)yj] (4)

式中:[(xi,yi)]和[(xj,yj)]是從數(shù)據(jù)集中隨機(jī)抽取的樣本;[λ∈[0,1]],本文實(shí)驗(yàn)中[λ]取值為0.1時(shí)再結(jié)合Mosaic數(shù)據(jù)增強(qiáng)的效果最好。

在YOLOv5模型實(shí)驗(yàn)訓(xùn)練過(guò)程中,會(huì)根據(jù)每一輪的Batchsize大小進(jìn)行Mosaic和Mixup數(shù)據(jù)增強(qiáng),然后將增強(qiáng)后的圖像輸入到網(wǎng)絡(luò)中進(jìn)行訓(xùn)練。圖像增強(qiáng)后的效果圖如圖4所示。

數(shù)據(jù)增強(qiáng)擴(kuò)增了數(shù)據(jù)集數(shù)量,同時(shí)增強(qiáng)了網(wǎng)絡(luò)模型的魯棒性和泛化能力。圖4a)是Mosaic通過(guò)隨機(jī)讀取數(shù)據(jù)集中的4張雜草圖像進(jìn)行拼接得到的。在圖4b)中,Mixup將2張雜草圖像拼接成一張?zhí)摂M的雜草圖像。兩種數(shù)據(jù)增強(qiáng)方法都擴(kuò)增了圖像中檢測(cè)目標(biāo)的數(shù)量,使得模型訓(xùn)練更加充分,具有抗過(guò)擬合的能力。最后,經(jīng)過(guò)實(shí)驗(yàn)得到當(dāng)Mosaic取值為0.9,Mixup取值為0.1時(shí),模型的整體mAP提高了2.1%,網(wǎng)絡(luò)模型可以達(dá)到良好的訓(xùn)練效果。

1.3.2" 坐標(biāo)注意力機(jī)制

注意力機(jī)制已經(jīng)在圖像和自然語(yǔ)言處理上取得了重大進(jìn)展,可以靈活地運(yùn)用于各種網(wǎng)絡(luò)模型的下游任務(wù)改造[17]。深度學(xué)習(xí)網(wǎng)絡(luò)模型參數(shù)的累加可以用來(lái)在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)過(guò)程中提高模型的特征表達(dá)能力,但這往往會(huì)使得計(jì)算量龐大,難以捕捉有效特征。通過(guò)坐標(biāo)注意力機(jī)制能夠使模型減少對(duì)無(wú)用信息的關(guān)注,從而提高任務(wù)效率和準(zhǔn)確性。

本文旨在對(duì)棉花田地里的雜草精準(zhǔn)定位并識(shí)別其種類,為提高模型學(xué)習(xí)特征的能力,將坐標(biāo)注意力機(jī)制引入到主干網(wǎng)絡(luò)末端。各種注意力機(jī)制mAP值的比較結(jié)果如表2所示,其中坐標(biāo)注意力機(jī)制是最新穎、靈活的注意力機(jī)制。坐標(biāo)注意力機(jī)制結(jié)構(gòu)如圖5所示。

CA機(jī)制可以更好地捕捉通道關(guān)系和具有精確位置信息的長(zhǎng)距離依賴關(guān)系,解決了現(xiàn)有注意力機(jī)制的問(wèn)題,如CBMA、SENet對(duì)通道的處理一般采用全局最大或全局平均池化所導(dǎo)致的特征圖空間信息損失。CA機(jī)制計(jì)算復(fù)雜度低,幾乎不需要額外的計(jì)算開(kāi)銷,是輕量級(jí)的注意力機(jī)制。

具體來(lái)說(shuō),CA機(jī)制是給定一個(gè)包含特征層Batchsize和輸入維度為[(C,H,W)]的[X],它分為兩個(gè)并行的特征層來(lái)對(duì)水平方向的池化核[(H,1)]和垂直方向上的池化核[(1,W)]進(jìn)行編碼。第[c]個(gè)通道在高度[h]處的輸出可以用公式(5)表示。

[zhc(h)=1W0≤ilt;Wxc(h,i)] (5)

同理,在第[c]個(gè)通道寬度為[w]的輸出可以用公式(6)表示:

[zwc(w)=1H0≤ilt;Hxc(j,w)] (6)

通過(guò)對(duì)輸入進(jìn)行兩次特征聚合,得到兩個(gè)方向上的特征映射,根據(jù)公式(5)、公式(6)生成的特征映射將它們Concat成一個(gè)更大的特征映射,然后傳遞給一個(gè)共享的[1×1]卷積轉(zhuǎn)換函數(shù)[F1],如公式(7)所示。

[f=δ(F1(zh,zw))] (7)

式中:[(zh,zw)]表示沿著空間維度的拼接操作;[δ]是一個(gè)非線性激活函數(shù);[f∈RC/r×(W+H)]是一個(gè)中間特征映射,用來(lái)對(duì)水平方向和垂直方向上的空間信息進(jìn)行編碼。[f]沿著空間維度被分成兩個(gè)獨(dú)立張量[f∈RC/r×W]和[f∈RC/r×H],再使用兩個(gè)[1×1]卷積轉(zhuǎn)換函數(shù)[Fh]和[Fw]將[fh]和[fw]分別轉(zhuǎn)換為與輸入X具有相同通道數(shù)的張量,可以表示為:

[gh=σ(Fh(fh))gw=σ(Fw(fw))] (8)

最后,坐標(biāo)注意力機(jī)制的計(jì)算公式如下:

[yc(i,j)=xc(i,j)·ghc(i)·gwc(i)] (9)

式中:[gh]和[gw]是用來(lái)被擴(kuò)展并分別用作注意力權(quán)重;[xc(i,j)]是輸入張量中位置[(i,j)]處的值。通過(guò)將輸入張量[xc(i,j)]與權(quán)重注意力[ghc(i)]和[gwc(i)]進(jìn)行逐項(xiàng)相乘,得到輸出[yc(i,j)]。在每個(gè)[(i,j)]處,通過(guò)將輸入值與對(duì)應(yīng)位置的注意力權(quán)重相乘,獲得到加權(quán)的輸出值。

雖然坐標(biāo)注意力機(jī)制利用注意力權(quán)重來(lái)調(diào)整輸入的權(quán)重分布,從而得到更具關(guān)注度的輸出,但是缺乏Neck對(duì)關(guān)注信息的進(jìn)一步特征融合,所以本文對(duì)Neck進(jìn)行改進(jìn),以加強(qiáng)其特征提取的能力。

1.3.3" Swin Transformer Block的C3STR模塊

Transformer在NLP領(lǐng)域應(yīng)用廣泛,近年來(lái)逐漸地遷移至計(jì)算機(jī)視覺(jué)領(lǐng)域,在圖像分類、目標(biāo)檢測(cè)、語(yǔ)義分割、實(shí)例分割等各種下游任務(wù)中都取得了很好的效果。實(shí)驗(yàn)結(jié)果證實(shí),將Swin Transformer應(yīng)用于雜草檢測(cè)網(wǎng)絡(luò)模型可以提高檢測(cè)精度。

在實(shí)際應(yīng)用中,檢測(cè)目標(biāo)的大小往往是不固定的,C3模塊在面對(duì)不同尺度的目標(biāo)時(shí),特征圖感知范圍小,同時(shí)C3模塊參數(shù)量大,這嚴(yán)重影響了模型的訓(xùn)練和檢測(cè)速度,尤其是在輸入圖像分辨率較高的情況下。因此,本文將C3模塊中原有的Bottleneck塊替換為Swin Transformer Block,得到C3STR模塊,將C3STR引入Neck層,將Neck層中的C3_2_X模塊替換成C3STR。C3STR結(jié)構(gòu)圖如圖6所示。

具體來(lái)說(shuō),因?yàn)镾win Transformer構(gòu)建了一個(gè)類似于CNN層次化的特征圖,相較于Vision Transformer的圖像尺寸和計(jì)算復(fù)雜度成平方復(fù)雜度,Swin Transformer的圖像尺寸和計(jì)算復(fù)雜度成線性復(fù)雜度,在大大降低了模型的計(jì)算復(fù)雜度的同時(shí),還增大了模型的感受野并提高了提取特征的能力。圖6顯示了2個(gè)連續(xù)的Swin Transformer模塊。W?MSA是傳統(tǒng)的多頭自注意力模塊,公式為:

[Q=fQ(X)," K=fK(X)," V=fV(X)] (10)

[Attention(Q,K,V)=SoftmaxQTKdV] (11)

式中:[X]是輸入的特征圖;[fQ(?)]、[fK(?)]、[fV(?)]是線性變換函數(shù);[d]是通道維度;[Q]、[K]、[V]分別代表[Query]、[Key]、[Value]。通過(guò)計(jì)算[Q]和[K]之間的點(diǎn)積,除以[d],再用[Softmax]函數(shù)將得分轉(zhuǎn)換為對(duì)應(yīng)的值和權(quán)重,即得到注意力權(quán)重。

SW?MSA為W?MSA增加了移動(dòng)窗口,W?MSA將特征圖均勻地分成4個(gè)局部窗口,每個(gè)窗口獨(dú)立運(yùn)行,它們之間沒(méi)有信息共享,這導(dǎo)致W?MSA在劃分時(shí)失去了全局的感知域,每個(gè)窗口只接收到局部的特征圖信息,限制了模型提取特征的能力。SW?MSA中允許窗口移動(dòng),使得部分窗口可以接收來(lái)自上層多個(gè)窗口的信息,并減少感受野的損失。此外,移動(dòng)窗口設(shè)計(jì)提供了不同窗口之間的連接,顯著增強(qiáng)了建模能力。

總之,這種基于移動(dòng)窗口的自注意力模塊可以使得Swin Transformer捕獲圖像塊之間的遠(yuǎn)程依賴關(guān)系,擴(kuò)大了特征圖的感知范圍,減少了對(duì)疑似物體的誤檢,在不增加計(jì)算量的情況下可以顯著提升模型的整體精度。

2" 結(jié)果與分析

2.1" 實(shí)驗(yàn)平臺(tái)

本文的實(shí)驗(yàn)環(huán)境為項(xiàng)目組提供的服務(wù)器,操作系統(tǒng)為Windows 11,處理器為Intel[?] Xeon[?] Gold 6330 CPU @2.00 GHz,內(nèi)存為160 GB,顯卡為RTX3090,顯存為24 GB,具體實(shí)驗(yàn)環(huán)境配置參數(shù)信息如表3所示。

2.2" 評(píng)價(jià)指標(biāo)

為了評(píng)估改進(jìn)后的CST?YOLOv5模型在雜草檢測(cè)、精確率P和召回率R方面的有效性,使用mAP(mean Average Precision)和F1作為評(píng)估指標(biāo),公式如下:

[P=TPTP+FP] (12)

[R=TPTP+FN]" (13)

[mAP=1Ni=1NAPi]" " (14)

[F1=2×P×RP+R]" (15)

式中:TP表示模型將正樣本正確地預(yù)測(cè)為正樣本的個(gè)數(shù);FP表示將負(fù)樣本錯(cuò)誤預(yù)測(cè)為正樣本的個(gè)數(shù);FN表示將正樣本錯(cuò)誤地預(yù)測(cè)為負(fù)樣本的個(gè)數(shù)。mAP是一種用于評(píng)估目標(biāo)檢測(cè)網(wǎng)絡(luò)準(zhǔn)確性的指標(biāo),采用P?R曲線(Precision?Recall curve)來(lái)計(jì)算AP(Average Precision)的值,AP代表在所有可能的召回率下獲得的精確率的平均值。當(dāng)IoU閾值設(shè)定為0.5時(shí),mAP@0.5值越高,代表模型的性能越好。

P和R的結(jié)果被綜合考慮來(lái)計(jì)算F1分?jǐn)?shù)。F1分?jǐn)?shù)能夠衡量模型的整體性能和魯棒性,其值隨著精確率和召回率的增加而增加,反之亦然。如果模型具有高精確率但召回率較低,則不能單純地將其視為有效模型。因此,F(xiàn)1分?jǐn)?shù)越高,代表模型的魯棒性越好。

2.3" 實(shí)驗(yàn)結(jié)果

實(shí)驗(yàn)結(jié)果表明:本文模型提高了所有雜草種類的檢測(cè)精度,當(dāng)雜草可以很容易地與周圍的環(huán)境區(qū)分開(kāi)時(shí),檢測(cè)精度較高;但因?yàn)橛械碾s草上面沾了泥土,當(dāng)雜草與背景中的泥土相似時(shí),檢測(cè)精度會(huì)稍低。改進(jìn)后的網(wǎng)絡(luò)模型做出了有效的改進(jìn)與提升,與原模型的mAP對(duì)比如圖7所示。

實(shí)驗(yàn)過(guò)程中,Carpetweed種類雜草與Purslane種類雜草外形非常相似,葉片均呈圓弧狀,且貼近于地面,兩個(gè)種類看起來(lái)很容易混淆,僅僅是葉片尺寸大小有細(xì)微差別,本文引入內(nèi)嵌了Swin Transformer Block的C3STR模塊,提高了模型的感受野和提取特征的能力,其分層結(jié)構(gòu)和滑動(dòng)窗口機(jī)制可以獲得特征圖多尺度、全局的語(yǔ)義信息,在面對(duì)難以區(qū)分的兩種雜草類別時(shí)具有良好的效果。

表4為YOLOv5模型的消融實(shí)驗(yàn)結(jié)果,通過(guò)融合的各個(gè)模塊對(duì)比能夠有效證實(shí)本文針對(duì)原模型的改進(jìn)的有效性。

為進(jìn)一步分析改進(jìn)的CST?YOLOv5雜草檢測(cè)算法的性能,選擇SSD、Faster RCNN、YOLOv7、YOLOv8和YOLOv5等算法進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果如表5所示。由表5可以看出本文算法的mAP是最高的,并且權(quán)重文件大小比原YOLOv5還小4.2 MB,有助于智能除草設(shè)備部署并實(shí)時(shí)檢測(cè)。棉田雜草檢測(cè)結(jié)果如圖8所示。

3" 結(jié)" 論

針對(duì)當(dāng)前雜草檢測(cè)和識(shí)別的研究模型參數(shù)量大、網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜、雜草種類單一、數(shù)據(jù)樣本稀缺等問(wèn)題,本文使用YOLOv5模型進(jìn)行棉田雜草檢測(cè),提出了一種改進(jìn)的網(wǎng)絡(luò)模型CST?YOLOv5。改進(jìn)后的網(wǎng)絡(luò)模型使用數(shù)據(jù)增強(qiáng)算法增強(qiáng)模型的泛化能力,在不增加網(wǎng)絡(luò)模型復(fù)雜度的情況下提高了模型的整體檢測(cè)精度。將坐標(biāo)注意力機(jī)制引入到主干網(wǎng)絡(luò)末端,通過(guò)增強(qiáng)模型對(duì)雜草葉片形狀的關(guān)注,更好地捕捉通道關(guān)系和具有精確位置信息的長(zhǎng)距離依賴關(guān)系,解決了現(xiàn)有注意力機(jī)制只考慮通道或只考慮位置信息的問(wèn)題,提高了小目標(biāo)的準(zhǔn)確率和模型學(xué)習(xí)特征的能力。在Neck部位引入內(nèi)嵌Swin Transformer Block的C3STR模塊替換原有的C3模塊,在不增大計(jì)算量和權(quán)重文件大小的同時(shí),使模型能夠捕獲更多的全局特征并增加感受野;使用滑動(dòng)窗口劃分特征圖,使得模型能夠捕捉更多的全局多尺度特征,解決了類似雜草間難以辨別和復(fù)雜背景下雜草被泥沙遮擋而導(dǎo)致的原模型錯(cuò)檢、漏檢的問(wèn)題。

此外,本文應(yīng)用Mosaic和Mixup數(shù)據(jù)增強(qiáng)算法將多張圖像進(jìn)行拼接,從而達(dá)到單張圖像擁有更多特征可以訓(xùn)練的效果,提升了模型的泛化能力和魯棒性。本文模型mAP達(dá)到95.1%,F(xiàn)1分?jǐn)?shù)達(dá)到90.4%,權(quán)重文件大小縮減至10.2 MB。改進(jìn)后的CST?YOLOv5模型在自然環(huán)境下可以更準(zhǔn)確地檢測(cè)和識(shí)別田間雜草,有效推動(dòng)了農(nóng)業(yè)智能化發(fā)展,并增強(qiáng)了對(duì)棉花作物的保護(hù)。下一步的研究方向是將改進(jìn)算法部署在機(jī)器人或者無(wú)人機(jī)等智能設(shè)備上,使得農(nóng)田棉花除草得到更加廣泛的應(yīng)用。

注:本文通訊作者為陳琳。

參考文獻(xiàn)

[1] 陳鏡宇,郭志軍,金鑫,等.基于激光掃描雷達(dá)的智能割草機(jī)器人障礙物檢測(cè)[J].現(xiàn)代電子技術(shù),2022,45(18):177?181.

[2] 彭明霞,夏俊芳,彭輝.融合FPN的Faster R?CNN復(fù)雜背景下棉田雜草高效識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào),2019,35(20):202?209.

[3] 姜紅花,張傳銀,張昭,等.基于Mask R?CNN的玉米田間雜草檢測(cè)方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(6):220?228.

[4] 劉擁民,胡魁,聶佳偉,等.基于MSDB?ResNet的水稻病蟲(chóng)害識(shí)別[J].華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2023,44(6):978?985.

[5] 冀汶莉,劉洲,邢海花.基于YOLOv5的農(nóng)田雜草識(shí)別輕量化方法研究[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2024,55(1):212?222.

[6] 曹英麗,趙雨薇,楊璐璐,等.基于改進(jìn)DeepLabv3+的水稻田間雜草識(shí)別方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2023,54(12):242?252.

[7] LIU Z, LIN Y, CAO Y, et al. Swintrans former: hierarchical vision transformer using shifted windows [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. [S.l.]: IEEE, 2021: 10012?10022.

[8] 亢潔,劉港,郭國(guó)法.基于多尺度融合模塊和特征增強(qiáng)的雜草檢測(cè)方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(4):254?260.

[9] 焦雙健,劉東,王超.基于改進(jìn)SSD的鐵路障礙物檢測(cè)研究[J].現(xiàn)代電子技術(shù),2023,46(2):57?64.

[10] 劉莫塵,高甜甜,馬宗旭,等.基于MSRCR?YOLOv4?tiny的田間玉米雜草檢測(cè)模型[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2022,53(2):246?255.

[11] LI X, PAN J, XIE F, et al. Fast and accurate green pepper detection in complex backgrounds via an improved Yolov4?tiny model [J]. Computers and electronics in agriculture, 2021, 191: 106503.

[12] ZHU D, DU B, ZHANG L. Target dictionary construction?based sparse representation hyperspectral target detection methods [J]. IEEE journal of selected topics in applied earth observations and remote sensing, 2019, 12(4): 1254?1264.

[13] HOU Q, ZHOU D, FENG J. Coordinate attention for efficient mobile network design [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2021: 13713?13722.

[14] LIU Z, LIN Y, CAO Y, et al. Swin transformer: hierarchical vision transformer using shifted windows [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. [S.l.]: IEEE, 2021:10012?10022.

[15] 韓錕棟,張濤,彭玻,等.基于改進(jìn)YOLOv5的安全帽檢測(cè)算法[J].現(xiàn)代電子技術(shù),2024,47(5):85?92.

[16] 周浩,唐昀超,鄒湘軍,等.復(fù)雜野外環(huán)境下油茶果快速魯棒檢測(cè)算法[J].現(xiàn)代電子技術(shù),2022,45(15):73?79.

[17] WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module [C]// Proceedings of the European Conference on Computer Vision (ECCV). [S.l.]: Springer, 2018: 3?19.

作者簡(jiǎn)介:楊明軒(1998—),男,湖北武漢人,碩士研究生,主要研究方向?yàn)槟繕?biāo)檢測(cè)。

陳" 琳(1972—),男,湖北荊州人,博士研究生,教授,主要研究方向?yàn)橛?jì)算機(jī)視覺(jué)與目標(biāo)檢測(cè)。

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 91久久偷偷做嫩草影院电| 国产真实乱了在线播放| 亚洲中文字幕在线精品一区| 欧美精品一区在线看| 高清无码不卡视频| 黄色污网站在线观看| 日本高清免费不卡视频| 国产亚洲精品97AA片在线播放| 免费视频在线2021入口| 人妻精品全国免费视频| 99精品免费在线| 欧美曰批视频免费播放免费| 亚洲国产成人在线| 欧美性天天| 久久久久青草线综合超碰| 五月天婷婷网亚洲综合在线| 欧美日韩中文国产va另类| 国产极品美女在线| 2020最新国产精品视频| 999福利激情视频| 高潮爽到爆的喷水女主播视频| 亚洲精品无码在线播放网站| 亚洲精品免费网站| 中文字幕首页系列人妻| 免费一极毛片| 欧美日韩专区| 免费看a级毛片| 成人欧美日韩| 真实国产乱子伦高清| 亚洲无码视频喷水| 最新无码专区超级碰碰碰| 精品第一国产综合精品Aⅴ| Jizz国产色系免费| 欧美日韩午夜视频在线观看| 欧美一级特黄aaaaaa在线看片| 亚洲A∨无码精品午夜在线观看| 岛国精品一区免费视频在线观看| 国产精品久久久久鬼色| 午夜毛片福利| 伊在人亞洲香蕉精品區| 一级看片免费视频| 亚洲视屏在线观看| 无码AV日韩一二三区| 亚洲动漫h| 国产精品成人AⅤ在线一二三四| 毛片网站在线看| 亚洲人成在线免费观看| 五月婷婷伊人网| 国内精品自在自线视频香蕉| 国产精品第一区在线观看| 国产综合另类小说色区色噜噜| 亚洲妓女综合网995久久| 日本午夜在线视频| 亚洲天堂福利视频| 九九视频免费在线观看| 在线无码av一区二区三区| 熟女日韩精品2区| a毛片免费观看| 日韩精品亚洲一区中文字幕| 久久精品人人做人人爽| 日韩成人高清无码| 亚洲国产精品一区二区第一页免 | 蜜桃臀无码内射一区二区三区| 91久久精品日日躁夜夜躁欧美| 亚洲精品无码成人片在线观看| 欧美α片免费观看| 91福利免费| 色综合五月婷婷| 亚洲一区二区三区香蕉| 91精品人妻一区二区| 久久午夜夜伦鲁鲁片不卡| 中文字幕无码制服中字| 人妻一区二区三区无码精品一区| 久久亚洲日本不卡一区二区| 精品91自产拍在线| 色天堂无毒不卡| 欧美一级在线播放| 高清久久精品亚洲日韩Av| 久久精品娱乐亚洲领先| 国产欧美又粗又猛又爽老| 91精品网站| 精品自拍视频在线观看|