999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看

500 Internal Server Error


nginx
500 Internal Server Error

500 Internal Server Error


nginx
500 Internal Server Error

500 Internal Server Error


nginx
500 Internal Server Error

500 Internal Server Error


nginx
500 Internal Server Error

500 Internal Server Error


nginx

基于改進YOLOv8的無人機圖像玉米幼苗檢測

2025-07-29 00:00:00胡健威馬慧敏寧孝梅代騰輝戴明宇王小申吳旖
江蘇農業學報 2025年6期
關鍵詞:幼苗損失卷積

中圖分類號:S513 文獻標識碼:A 文章編號:1000-4440(2025)06-1179-09

Abstract:Unmannedaerial vehicletechnology,withits higheficiencyandprecision,hasbeen playingan importantrole intheagricultural fieldandhasben widelyappedinfarmlandmonitoring,precisionfertilization,andpestanddiseasecontrol. However,inthecomsedingimagescolectedbyunmannederialvehicle,weedsndotherinterferentsinthefieldhavecolors similar tocomseedlings,whichcaneasilylead to1detectionand mised detectionintheYOLOv8 model.Additionally,the occlusionbetweencornsedlingscanalsoafectthedetectionaccuracyof the model.Inresponsetotheseproblems,this study proposed the YOLOv8+MultiSEAM + MetaNeXtStag + WIoU(YOLOv8-MMW)model. Based on the YOLOv8 model architecture, this modelfirstintroducedthe MultiSEAMatentionmechanismintothenecknetwork,whichefectivelyenhancedthemodel's featureextractionabilityincomplexscenes.SecondlyitincorporatedtheMetaNeXtStagemodulefromInceptionNeXt.Onhisbasis,theWise-IoUlossfunctionwasadoptedtoimprovemodelaccuracy.Theexperimentalresultsonthetestsetshowedthatthe accuracy and the mean average precision at an intersection-over-union threshold of O.50( mAP50 )ofthe YOLOv8-MMW model

reach 98.9% and 89.6% ,respectively,which were 6.1 percentage points and 2.4 percentage points higher than those ofthe original YOLOv8n model.The YOLOv8-MMW model proposed in this study demonstrates stronger robustnessin complex farmland environmentsand can effectively improve the detection accuracy of corn seedling images captured by inmanned aerial vehicle,and can provide technical support for agricultural management and monitoring

Key words:corn seedling;unmanned aerial vehicle;YOLOv8;MultiSEAM;MetaNeXtStage;lossfunctior

玉米是中國種植面積1和產量均居首位的作物2,也是重要的經濟作物,對國家糧食安全具有重大戰略意義[3]。近年來,中國的玉米生產取得長足發展,但全球玉米生產仍面臨諸多挑戰。隨著全球人口快速增長和老齡化加劇,糧食需求持續增加。聯合國糧食和農業組織預測,2050年全球人口將增至 9.1× 109 人,為滿足人口增長需求,在保障自然資源安全的前提下,糧食產量需實現 70% 的可持續增長[4]。因此,建立高效的農業系統以提高農業生產效率和質量、降低勞動力投入、改善工作條件勢在必行。

卷積神經網絡(CNN)作為深度學習的核心技術,具有自動提取圖像特征的能力,對位移、縮放和畸變等幾何變換具有較強的自適應能力,該技術已被廣泛用于計算機視覺領域,包括人臉識別、遙感影像分析和無人駕駛系統等[5-7]。近年來,卷積神經網絡在農業領域的應用研究也取得了顯著進展,成為智慧農業發展的重要技術支撐[8-1]。Malik 等[12]提出一種深度卷積神經網絡模型TreeNet,該模型的分類準確率、精確度、召回率和F1得分分別達到 99.8%.99.0% 、100.0% 和 99.0% 。Liu等[13]提出目標檢測算法Agro-nomicTeacher,用于玉米葉片病害識別,與基線模型相比,該算法在MaizeData數據集上的平均精度均值(mAP) 提高6.5個百分點,在通用目標檢測基準Pas-calVOC數據集上的 mAP 提高8.2個百分點,表現出良好的泛化能力。李金瑞等[14]提出一種基于RTM-Det-tiny的輕量級雄穗檢測模型MLCE-RTMDet。試驗結果顯示,改進的MLCE-RTMDet模型參數量減少到 5.9×106 ,浮點運算數減少到 |5.3×109 ,測試集上模型平均精度均值 (mAP) 達到 92.2% ,比原模型提高了1.2個百分點。Puyenbroeck等[15]利用推帚式高光譜成像系統對收獲期玉米進行掃描,建立基于偏最小二乘判別分析(PLS-DA)的像素級分類模型,實現了玉米籽粒與其他谷物的精準識別,分類準確率達95.2% 。Mei等[16]提出分子光譜深度融合策略,通過結合低級特征融合與中級特征融合,并構建一維卷積神經網絡(1D-CNN)模型,實現了玉米油中毒死蜱殘留的快速精準檢測。

無人機遙感技術的發展推動了農業智能監測系統的完善[17]。Abel等[18]基于無人機影像和全卷積神經網絡,實現了對農作物數量的自動預測。Chen等[19]針對小規模玉米穗和強光照條件下的檢測問題,開發了RESAM-YOLOv8n模型,通過增大輸入圖像尺寸增強網絡檢測能力。Xiao等[20]整合無人機、地理信息系統(GIS)和深度學習技術,利用YOLOv5模型完成對不同管理模式下玉米植株的計數。有學者基于無人機光學遙感技術,提出一種深度學習方法,能夠有效提取多光譜圖像的關鍵特征,實現了南方玉米銹病的高效監測[21]。鄔開俊等[22]提出了一種基于YOLO-TSCAS模型的玉米植株中心檢測算法,試驗結果表明,與現有的 YOLOX 算法相比,該算法的正確率提高 22.73% ,F1分數提高0.255,平均對數漏檢率減少0.35。Ni等[23]設計的玉米混合視覺轉換器(MaizeHT)模型,對 224×224 分辨率圖像的識別準確率達 97.71% ,對 512×512 分辨率圖像的識別準確率達到 98.71% 。

上述研究結果表明,基于深度學習的模型能夠有效識別無人機獲取的玉米幼苗圖像。但在田間環境下,田間雜草干擾、玉米幼苗間相互遮擋均會影響模型檢測精度。針對這些問題,本研究擬提出一種基于YOLOv8模型的玉米幼苗檢測模型,主要從以下3個方面進行優化:首先,重構主干網絡架構,采用多尺度特征融合策略增強特征表達能力;其次,嵌入混合注意力機制,提升模型對幼苗關鍵特征的關注度;最后,改進邊界框回歸損失函數,提高模型精度。本研究結果旨在為農業管理和監測提供技術支持。

1材料與方法

1.1 數據采集和預處理

以幼苗期玉米為研究對象,采用如圖1所示的大疆無人機DJIAir2S進行圖像采集。該設備具有體積小、操作便捷等優點,主要技術參數如下:最大續航時間 31min ,最快飛行速度 19m/s ,懸停精度垂直 ±0.1m ,水平 ±0.1m ,最大照片分辨率 5472× 3648,感光度(ISO)為 100~3200 。試驗于2024年6月25日(9:30-11:00)在安徽省合肥市安徽農業大學國家高新技術農業園(東經 117°1230.927′′ ,北緯 31°5610.859′′ 開展。如圖2所示,采集過程中,設置圖像分辨率為 3 840×2 160 ,分別在飛行高度2m.4m.6m.8m 拍攝圖像。根據大田地形規劃航線,共獲取不同高度圖像500余張。

本研究對采集的無人機圖像進行了系統的預處理,包括數據標注、數據增強和數據集劃分3個關鍵步驟。在數據標注環節,采用LabelImg工具對玉米幼苗進行精確標注,確保每株幼苗的邊界框選準確無誤,同時保持不同拍攝條件和光照環境下標注標準的一致性。在數據增強環節,如圖3所示,通過 ±20° 隨機旋轉和鏡像翻轉圖像實現幾何變換;在圖像中添加高斯噪聲和椒鹽噪聲增強模型抗干擾能力;隨機調整圖像亮度和對比度模擬不同光照條件;通過隨機裁剪和縮放圖像提升模型空間適應性。這些增強技術的組合應用使訓練集樣本量擴充至原始數據的5倍,顯著提升了數據多樣性。在數據集劃分環節,從所有圖像中隨機選取1920張圖像,構建訓練集;同時分別從 2m.4m.6m.8m 飛行高度拍攝的圖像中抽取60張圖像,共計240張圖像,構建測試集,用于檢驗模型評估的全面性和可靠性。

圖1大疆無人機 Fig.1DJIunmanned aerial vehicle
圖2不同高度無人機拍攝的玉米幼苗圖像 Fig.2Corn seedling imagescapturedbyunmanned aerial vehicleat different altitudes

1.2YOLOv8+MultiSEAM+MetaNeXtStag + WIoU 模型的構建

YOLOv8模型是一種基于單階段檢測框架的實時目標檢測算法,可以直接預測圖像中的邊界框和類別概率。根據網絡深度和寬度的不同配置,YOLOv8被分為YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l和YOLOv8x5 個版本。本研究選用YOLOv8n作為基準模型進行改進。YOLOv8網絡架構由輸入模塊、主干網絡(Backbone)頸部網絡(Neck)和檢測頭(Head)4個核心組件構成[24]。其中,主干網絡包含卷積單元(Conv)、空間金字塔池化快速模塊(SPPF)、YOLOv5中的特征提取模塊C3和YOLOv7中的特征提取模塊C2f。頸部網絡采用跨階段局部網絡(CSPNet)架構以增強特征融合能力,檢測頭則通過路徑聚合網絡與預測頭實現特征融合與目標識別。

YOLOv8模型對玉米幼苗圖像的檢測存在以下問題:(1)田間雜草等干擾物與玉米幼苗顏色相近,導致模型誤檢、漏檢;(2)玉米幼苗間相互遮擋,造成模型檢測精度下降?;谏鲜鰡栴},本研究對YOLOv8網絡結構進行了改進。如圖4所示,在頸部網絡中引入MultiSEAM模塊和MetaNeXtStage模塊。MultiSEAM模塊部署于第27層、30層、33層的輸出端,即最終檢測層前,用于提升模型的多尺度特征處理能力。MetaNeXtStage模塊則被嵌人第20層、24層、29層、32層的卷積層之后,用于增強模型特征表示能力。檢測層采用第28層、31層和34層的特征圖作為輸人,有效整合了MultiSEAM和Meta-NeXtStage模塊的多尺度特征增強效果。

圖4YOLOv8-MMW模型結構Fig.4Architectureof theYOLOv8-MMWmodel

1.2.1MultiSEAM注意力機制擠壓和激勵注意力模塊(SEAM)[25]通過全局平均池化和全連接層增強特征表達,采用深度可分離卷積與殘差連接的組合結構,其中深度可分離卷積按通道進行操作。該模塊利用注意力機制突出重要特征,抑制無關特征,從而提升模型識別能力。如圖5所示,SEAM模塊左側為整體架構,包含3個不同像素塊尺寸(patch-6、patch-7、patch-8)的通道和空間混合模塊(CSMM),對各模塊輸出進行平均池化和通道擴展操作,通過特征相乘方式實現特征增強;右側為CSMM模塊,該模塊通過多尺度特征提取,并采用深度可分離卷積學習空間與通道之間的相關性。

MultiSEAM模塊將小目標檢測層集成到頸部網絡,生成多尺度特征圖,并將這些特征圖輸人SEAM模塊進行增強處理。該設計具有以下優勢:整合全局與局部上下文信息,提升復雜場景下的特征表達能力;采用多尺度處理策略,增強模型對不同尺寸目標的檢測能力。在玉米幼苗檢測過程中,Multi-SEAM模塊能夠有效應對復雜背景和密集目標。

1.2.2InceptionNeXt卷積神經網絡架構如圖6所示,InceptionNeXt[26]是一種卷積神經網絡架構,通過融合Inception的多分支結構和ConvNeXt的高效設計,實現了對大核深度卷積的優化分解。該架構繼承了Inception的多尺度特征處理能力,同時采用高效卷積操作,在保持大感受野優勢的前提下,顯著降低了計算復雜度和參數量。此外,InceptionNeXt還集成了自適應優化技術,使模型在訓練過程中更快收斂。本研究采用InceptionNeXt的核心模塊Meta-NeXtStage,該模塊能夠動態調整卷積核參數,增強模型對局部細節的敏感性;自適應優化特征圖權重,突出全局關鍵信息;通過多尺度特征的高效融合,實現性能與計算效率的平衡。

1.2.3基于動態非單調聚焦機制的邊界框損失函數(Wise-IoU)為提升目標檢測模型的性能,本研究系統性地探究了不同邊界框回歸損失函數對模型性能的影響。原始YOLOv8模型采用的完全交并比損失函數(Complete-IoU)通過引入長寬比懲罰項來優化預測框的形狀匹配,在模型訓練過程中表現出良好的擬合特性。然而,該損失函數在計算預測框寬高比時存在固有缺陷:一方面,寬高比作為相對量計算時具有不確定性;另一方面,其對高質量和低質量錨框的不同影響可能阻礙回歸損失的優化過程。

圖5MuItiSEAM注意力機制Fig.5 TheMultiSEAMattentionmechanism

Patch-6:將圖像分割成 6×6 像素的塊;Patch-7:將圖像分割成 7× 7像素的塊;Patch-8:將圖像分割成 8×8 像素的塊。Input:輸入;CSMM:通道和空間混合模塊;AveragePooling:平均池化層;Channelexp:通道擴展;PatchEmbedding:圖像塊嵌入;GELU:高斯誤差線性單元激活函數;BatchNorm:批量歸一化;DepthwiseConvolution:深度可分離卷積模塊;PointwiseConvolution:逐點卷積模塊。

為解決上述問題,本研究對以下4種邊界框回歸損失函數的性能進行對比:基于動態非單調聚焦機制的邊界框損失函數(WIoU)[27]、完全交并比損失函數(CIoU)高效交并比損失函數(EIoU)[28]、距離交并比損失函數(DIoU)[29]。WIoU( v3 版本)損失函數計算公式如下:

式中, LWIoU 為基于動態非單調聚焦機制的邊界框損失函數; r 為縮放因子; RwIoU 為距離損失; LIoU 為原始交并比損失函數; bcxgt,bcygt 為目標框的中心點坐標; bcx,bcy 為預測框的中心點坐標; cw 為目標框在 x 軸方向的歸一化寬度; cb 為目標框在 y 軸方向的歸一化高度: 為比例系數; δ 和 α 為調整參數; LIoU* 為優化后的交并比損失函數。

圖6InceptionNeXt卷積神經網絡 Fig.6InceptionNeXt convolutional neural network

MLP:多層感知機; Norm :歸一化操作;Tokenmixer:令牌混合器模塊;Concat:拼接操作; DWConv :深度可分離卷積模塊;Split:分割操作;Depthwise Convolution;深度可分離卷積模塊;MetaFormerblock;通用視覺模型架構;MetaNeXt:MetaNeXt卷積神經網絡架構;ConvNeXt block:ConvNeXt卷積神經網絡架構;InceptionNeXt block:InceptionNeXt卷積神經網絡架構;InceptionDepthwiseConvolution:Inception深度卷積;Identity:恒等映射。

1.3模型性能指標

為評估無人機玉米幼苗檢測模型的性能,以精度 (P) 、召回率 (R) 、平均精度均值 (mAP) 作為評估指標。

精度 (P) 計算公式如下:

式中, TP 為正確預測的正例數量, FP 為誤判為正例的數量。精度越高,表明模型誤檢率越低。

召回率 (R) 計算公式如下:

式中, FN 為漏檢的正例數量。召回率越高,表明模型漏檢率越低。

平均精度均值 (mAP) 計算公式如下:

式中, N 為類別總數, APi 為第 i 個類別的平均精度。 mAP 綜合了模型對所有類別的檢測性能,其值越高,表明模型的整體檢測能力越優。

1.4 試驗環境

硬件環境為Intel Xeon Silver 42102.40 GHzCPU、RTX308010GGPU和64GB內存。軟件環境為PyTorch1.9.0和Python3.8.0。試驗設置如下:迭代次數為100次,批次大小為2,輸入圖像尺寸調整為 640×640 ,并進行歸一化處理。優化算法采用隨機梯度下降法(SGD)[30],學習率調度策略為線性衰減。

2 結果與分析

2.1Wise-IoU損失函數對模型性能的影響

如圖7所示,引入EIoU損失函數的模型收斂速度最慢,且最終的損失值最大;引入DIoU損失函數和CIoU損失函數的模型收斂速度低于引入EIoU損失函數的模型,最終損失值小于引入EIoU函數的模型。值得注意的是,引入WIoU損失函數的模型在前20輪迭代中能快速收斂,其最終損失值顯著低于引入其他3種損失函數的模型。如表1所示,引入WIoU損失函數不僅加快了模型的收斂速度,還顯著提升了模型的關鍵性能指標:精度提高6.9個百分點,交并比閾值為0.50時的平均精度均值(mAP50 提高0.2個百分點。

圖7各損失函數收斂速度Fig.7 The convergence speed of each loss function

DIoU:距離交并比損失函數;EIoU:高效交并比損失函數;CIoU:完全交并比損失函數; WIoU :基于動態非單調聚焦機制的邊界框損失函數;epoch:訓練的輪數。

2.2引入的各模塊對模型性能的影響

為驗證各模塊對模型性能的影響,基于原始模型 ΥOLOv8n ,分別引入MultiSEAM、MetaNeXtStag、WIoU。如表1所示,YOLOv8模型的 mAP50 為87.2% 。在YOLOv8主干網絡的第27層、30層、33層的輸出端和最終檢測層前層部署MultiSEAM注意力機制,YOLOv8n + MultiSEAM模型 mAP50 較YOLOv8模型提高了2.0個百分點;進一步在主干網絡的第20層、24層、29層、32層的卷積層之后嵌人MetaNeXtStage模塊,YOLOv8n+MultiSEAM + Meta-NeXtStag 模型 mAP50 較 YOLOv8n 模型提高了2.2個百分點。表明MetaNeXtStage和MultiSEAM模塊能夠有效增強模型對復雜場景中多尺度特征的提取能力。將邊界框損失函數替換為WIoU后, YOLOv8n+ MultiSEAM + MetaNeXtStag + WIoU模型(簡稱YOLOv8-MMW模型)的 mAP50 達到 89.6% ,較ΥOLOv8n 模型提升2.4個百分點;精度達到98.9% ,較YOLOv8模型提升6.1個百分點。消融試驗結果表明,本研究提出的改進策略顯著提升了YOLOv8n模型的檢測性能。

2.3模型性能對比

基于測試集對YOLOv8-MMW模型的性能進行檢測。如表2所示,YOLOv8-MMW模型對不同飛行高度的無人機圖像均表現出優異的檢測性能,當飛行高度為 8m 時,YOLOv8-MMW模型的 mAP50 仍可以保持在 89.4% ,召回率達到 95.0% ,展現出良好的尺度適應性和檢測穩定性。

表1消融試驗結果Table1 Ablationstudyresults
mAP50 :交并比閾值為0.50時的平均精度均值;R:召回率; P :精度;WIoU:基于動態非單調聚焦機制的邊界框損失函數。
表2YOLOv8n+MultiSEAM+MetaNeXtStag + WIoU模型對不同高度圖像的檢測性能
mAP50 :交并比閥值為0.50時的平均精度均值;R:召回率 ?;P? :精度。

將目標檢測模型YOLOv8s模型、YOLOv5s模型和YOLOv8-MMW模型進行對比。如表3所示,與YOLOv8s模型相比,YOLOv8-MMW模型 mAP50 提升0.8個百分點,精度提升9.3個百分點;與YOLOv5s模型相比,YOLOv8-MMW模型 mAP50 提升3.6個百分點,精度提升10.1個百分點。

表3不同模型性能對比Table3 Comparison of performance amongdifferent models
YOLOv8s、YOLOv5s:當前主流的目標檢測網絡;YOLOv8-MMW:本研究改進的模型; mAP50 :交并比閾值為0.50時的平均精度均值;R:召回率;P:精度。

如圖8所示,總計目標數為22213個,在幼苗重疊和雜草干擾等復雜場景下,YOLOv8s模型和YOLOv5s模型分別漏檢了1368個、1609個目標,漏檢率分別為 6,2%,7.2% ,而YOLOv8-MMW模型僅漏檢了321個目標,漏檢率為 1.4% 。表明Multi-

SEAM和MetaNeXtStage模塊的協同作用不僅能夠有效增強目標特征的顯著性,還能夠抑制復雜背景的干擾。相較于YOLOv8s模型和YOLOv5s模型,YOLOv8-MMW模型在復雜場景下展現出更優異的檢測性能。

YOLOv8s、YOLOv5s:當前主流的目標檢測網絡;YOLOv8-MMW:本研究改進的模型; corn :玉米;實線框:正確識別結果。

圖8不同模型檢測結果對比Fig.8Comparison of detection resultsamongdifferentmodels

3 討論與結論

本研究針對無人機檢測玉米幼苗提出了YOLOv8-MMW模型。首先,基于YOLOv8n原始模型,在模型頸部網絡中引入MultiSEAM注意力機制,該機制能夠在高效捕捉細節的同時,提供更強大的特征表達能力,從而顯著提升模型在復雜場景下的表現;其次,引人InceptionNeXt網絡的MetaNeXt-Stage模塊;在此基礎上,采用WIoU損失函數以加快模型收斂速度和精度。與YOLOv8n模型相比,YOLOv8-MMW模型精度和 mAP50 分別提升了6.1個百分點、2.4個百分點。該模型顯著提升了復雜背景下玉米幼苗的檢測精度和效率,為大田玉米幼苗計數及產量估算提供了有力支持。

未來的研究方向將聚焦于進一步提升模型的檢測性能并降低其復雜度,通過輕量化處理優化模型結構,同時深入探索該算法在不同環境條件下的適應性。

參考文獻:

[1]仇煥廣,欒昊,李瑾,等.風險規避對農戶化肥過量施用行

為的影響[J].中國農村經濟,2014(3):85-96.

[2] 徐云姬,顧道健,張博博,等.玉米果穗不同部位籽粒激素含量 及其與胚乳發育和籽粒灌漿的關系[J].作物學報,2013,39 (8):1452-1461.

[3] 趙久然,王榮煥.中國玉米生產發展歷程、存在問題及對策中 國農業科技導報[J].中國農業科技導報,2013(3):1-6.

[4] 陳源源,呂昌河,尚凱麗.食物安全的內涵、指標與評價方法綜 述[J].中國農學通報,2017,33(22):158-164.

[5] WANGY,XIEF,ZHAOCX,etal.Robust facerecognition model based sample mining and loss functions[J].KnowledgeBasedSystems,2024,302:112330.

[6] ZHANGY S,YANSK,ZHANGLF,etal.Fast projected fuzzy clusteringwith anchor guidance formultimodal remote sensingimagery[J]. IEEE transactions on image processing,2O24(33), 4640-4653.

[7] QIUCQ,TANGH,YANGYC,etal.Machinevision-based autonomous road hazard avoidance system for self-drivingvehicles [J].ScientificReports,2024,14(1):12178.

[8]JIANGHK,CHENQC,WANGRJ,etal.SWFormer:a scalewise hybrid CNN-Transformer network for multi-classes weed segmentation[J]. Journal of King Saud University-Computer and InformationSciences,2024,36(7) :102144.

[9] MUQADDASS,QURESHIWS,JABBARH,etal.Acomprehensive deep learning approach for harvest ready sugarcane pixel classification in Punjab,Pakistan using Sentinel-2 multispectral imagery[J].Remote Sensing Applications:Society and Environment,2024,35:101225.

[10]周善良,李銳.基于卷積神經網絡的農作物病蟲害識別研究 綜述[J].智慧農業導刊,2024,4(17):39-45.

[11]CHENF,JIXZ,BAIMX,etal.Networkanalysisofdifferent exogenous hormones on the regulation of deep sowing tolerance in maize seedlings[J].Frontiers in Plant Science,2021,12:739101.

[12] MALIK M M,FAYYAZ A M, YASMIN M, et al. A novel deep CNN model with entropy coded sine cosine for corn disease classification[J]. Journal ofKing Saud University-Computer and Information Sciences,2024,36(7) :102126.

[13]LIUJQ,HUYX,SUQF,et al. Semi-supervised one-stage object detection for maize leaf disease[J].Agriculture,2024,14 (7):1140.

[14]李金瑞,杜建軍,張宏鳴,等.基于輕量化MLCE-RTMDet的人 工去雄后玉米雄穗檢測算法[J].農業機械學報,2024,55 (11) :1-14.

[15]PUYENBROECK EV,WOUTERS N,LEBLICQ T,et al.Detection of kernels in maize forage using hyperspectral imaging[J]. Computers and Electronics in Agriculture,2024,225:109336.

[16]MEICL,XUEYC,LIQH,etal.Deeplearning model based on molecular spectra to determine chlorpyrifos residues in corn oil[J]. Infrared Physics and Technology,2024,140:105402.

[17]FANBK,LIY,ZHANGRY,etal.Review on the technological development and application of UAV systems[J]. Chinese Journal ofElectronics,2020,29(2):5-13.

[18]ABEL B,PHILIPP L,RAMONIYF,et al.AutomaticUAVbased counting of seedlings in sugar-beet field and extension to maizeand strawberry[J].Computers and Electronics in Agriculture,2021,191:106493.

[19]CHEN JH,FU Y S,GUO Y H, et al. An improved deep learning approach for detection of maize tassels using UAV-based RGB images[J].International Journal of Applied Earth Observation and Geoinformation,2024,130:103922.

[20]XIAOJ,SUABSA,CHENXY,etal.Enhancing assessmentof corn growth performance using unmanned aerial vehicles(UAVs) and deep learning[J].Measurement,2023,214:112764.

[21]LV ZG,XUBY,ZHONGL H,et al.Improved monitoring of southern corn rustusing UAV-based multi-viewimagery and anattention-based deep learning method[J].Computers and Electronicsin Agriculture,2024,224:109232.

[22]鄔開俊,白晨帥,杜建軍,等.無人機影像的玉米植株中心檢測 模型和方法[J].計算機工程與應用,2024(6):1-17.

[23]NIXD,WANGFM,HUANGH,etal.ACNN-and self-attention-based maize growth stage recognition method and platform from UAVorthophoto images[J]. Remote Sensing,2024,16(14): 2672.

[24]楊國亮,盛楊楊,洪鑫芳,等.改進YOLOv8n的果園番茄目標 檢測算法[J].計算機工程與應用,2024,60(23):1-13.

[25]WANGYD,ZHANGJ,KAN MN,et al. Self-supervised equivariant attention mechanism for weakly supervised semantic segmentation[EB/OL].(2020-04-09)[2024-10-30]. https://arxiv.org/ abs/2004.04581.

[26]YU WH,ZHOUP,YAN SC,et al. InceptionNeXt:when inception meets ConvNeXt[EB/OL].(2023-03-29)[2024-10-30].https://arxiv.org/abs/2303.16900.

[27]TONGZJ,CHENYH,XUZW,etal.Wise-IoU:boundingbox regression loss with dynamic focusing mechanism[EB/OL]. (2023-01-24)[2024-10-30]. https://arxiv.0rg/abs/2301.10051.

[28]ZHANGYF,RENWQ,ZHANG Z,etal.Focal and efficient IOU loss for accurate bounding box regression[EB/OL].(2O21-01-20) [2024-10-30]. https://arxiv.org/abs/2101.08158.context=cs.CV.

[29]ZHENG Z H,WANGP,LIUW,et al.Distance-IoU loss:faster and better learning for bounding box regression[EB/OL].(2019- 11-19)[2024-10-30].https://arxiv.org/abs/1911.08287.

[30] CHAKROUN I,HABER T,ASHBY J T. SW-SGD: the sliding window stochastic gradient descent algorithm[J].Procedia Computer Science,2017,108:2318-2322.

(責任編輯:成紓寒)

猜你喜歡
幼苗損失卷積
光照強度與土壤水分對新疆野蘋果種子萌發及幼苗生存的影響
林業科技(2025年4期)2025-08-18 00:00:00
基于時間圖卷積網絡的交通流時空預測模型
不同促根劑對西瓜幼苗生長及根系成團的影響
中國瓜菜(2025年7期)2025-08-15 00:00:00
兩條守恒定律在解決碰撞模型中的應用
基于圖卷積的自適應特征融合MRI腦腫瘤分割方法
基于YOLOX的輕量化目標檢測算法及其應用
面向可重構陣列的CNN多維融合數據復用方法
低·高溫脅迫對尾巨桉幼苗光合特征和生長的影響
云南松幼苗生長及化學計量對遮陰和干旱互作的響應
廣西植物(2025年6期)2025-07-28 00:00:00
變暖3℃,每個人都將“失去”早餐
科學導報(2025年43期)2025-07-28 00:00:00
500 Internal Server Error

500 Internal Server Error


nginx
500 Internal Server Error

500 Internal Server Error


nginx
500 Internal Server Error

500 Internal Server Error


nginx
500 Internal Server Error

500 Internal Server Error


nginx
500 Internal Server Error

500 Internal Server Error


nginx
主站蜘蛛池模板: 久久动漫精品| 九色免费视频| 午夜精品久久久久久久2023| 日韩在线播放中文字幕| 久久毛片基地| 99久视频| 精品国产免费第一区二区三区日韩| 中文字幕在线视频免费| 美女啪啪无遮挡| 久久精品这里只有精99品| 国产高潮流白浆视频| 国产杨幂丝袜av在线播放| 国产情侣一区二区三区| 91口爆吞精国产对白第三集| 午夜无码一区二区三区在线app| 香蕉蕉亚亚洲aav综合| 91色在线视频| 97亚洲色综久久精品| 国产精品久久久免费视频| 成人午夜亚洲影视在线观看| 亚洲AV无码乱码在线观看裸奔| 久久精品国产精品一区二区| 欧美成人一级| 免费在线看黄网址| 强乱中文字幕在线播放不卡| 夜夜操国产| 亚洲最新网址| 九九九久久国产精品| 久久9966精品国产免费| 凹凸国产分类在线观看| 精品国产99久久| 亚洲swag精品自拍一区| 欧美亚洲激情| 日韩色图区| 一本色道久久88| 国产91视频免费| 亚洲男人在线天堂| 成人亚洲天堂| 日韩无码真实干出血视频| 四虎成人在线视频| 国产一二视频| 欧美一区二区三区香蕉视| 国产精品永久久久久| 高h视频在线| 青青草原国产精品啪啪视频| 99中文字幕亚洲一区二区| 色噜噜中文网| 有专无码视频| 婷婷色狠狠干| 蝌蚪国产精品视频第一页| 欧美成人一级| 日韩免费中文字幕| 无码综合天天久久综合网| 国产凹凸一区在线观看视频| 91无码网站| 国产在线观看99| 亚洲日韩日本中文在线| 国产乱码精品一区二区三区中文 | 香蕉视频国产精品人| 亚洲无码高清一区| 黄色一级视频欧美| 99热精品久久| 国产亚洲欧美日韩在线一区二区三区| 夜夜操狠狠操| 亚洲福利网址| 91精品网站| 92精品国产自产在线观看 | 一区二区三区国产精品视频| 视频二区欧美| 国产网站免费观看| 在线视频亚洲欧美| 欧美日韩国产在线人| 视频国产精品丝袜第一页| 少妇高潮惨叫久久久久久| 福利视频一区| 久久人午夜亚洲精品无码区| 69视频国产| 国产精品视频导航| 久久精品人人做人人爽| 亚洲啪啪网| 久久一级电影| www.91中文字幕|