999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv8模型的黃花菜花蕾識別研究

2025-08-29 00:00:00霍靜琦崔婷婷薛志璐
湖北農業科學 2025年7期

靜琦,,.基于改進YOLOv8模型的黃花菜花蕾識別研究[J].湖北農業科學,2025,64(7):186-191.

關鍵詞:改進YOLOv8模型;深度學習;黃花菜(HemerocalliscitrinaBaroni);花蕾;識別

中圖分類號:TP391 文獻標識碼:A

文章編號:0439-8114(2025)07-0186-06

DOI:10.14088/j.cnki.issn0439-8114.2025.07.032 開放科學(資源服務)標識碼(OSID):I

Research on daylily buds recognition based on an improved YOLOv8 model

HUOJing-qi,CUI Ting-ting,XUE Zhi-lu (School of Mechatronic Engineering,Xi'an Vocational and Technical College,Xi'an 71Oooo,China)

Abstract:A CSPDenseNetbackbone module wasconstructedbydeply integratingCSPNetand DenseNet.This module wasintegrated intotheYOLOv8model,replacingthelasttwostandardconvolutioalmodulesattheendoftebackbonenetwork,resultinginteimproved YOLOv8model(Dense-YOLOv8).Theresults demonstrated thattheDense-YOLOv8modelsuccesfullyidentifiedall maturebudsunderscenarioswithasimplebackgroundandsparsedaylily(Hemerocaliscitrina)Baronibuds.Underscenarioswith asimple backgroudanddensedaylilybuds,theDense-YOLOv8 modelexhibitedexcellentrecognitionperformanceinthebuddetectiontask,altoughsosedetectiosstilouednprocessingtightlyacenttargetsUnderscenariosiholebackground and dense daylily buds,the Dense-YOLOv8 model successfully identified all mature buds.The mAP , FI ,recognition speed, and model size of the Dense-YOLOv8 model were 90.75% ,89 % , 53f/s ,and 217.68 MB,respectively. Compared with the YOLO Δv8 2 model,FasterR-CNNmodelandYOLOv7model,theDense-YOLOv8 modelsignificantly improvedboththeaccuracyandspeedof object detection while streamlining the network structure and reducing parameters.

Key Words: improved YOLOv8 model;deep learning;daylily(Hemerocalis citrina Baroni);bud;recognition

黃花菜(HemerocalliscitrinaBaroni)作為經濟作物,對種植環境要求較低,但對采摘條件要求嚴苛,成熟可食用的黃花菜通常呈淡黃色,花蕾端口處微微開裂時為最佳采摘時機。大田環境下生長的黃花菜形態特征區分度較低,其成熟花蕾在形態上與衰敗花蕾和未成熟花蕾差異不明顯。黃花菜采摘作業主要依靠人工經驗進行成熟度判別,針對成熟黃花菜的目標識別技術研究相對匱乏。隨著農業智能化技術的快速發展,基于計算機視覺和深度學習的果實識別檢測技術日趨成熟,自動化采摘已成為現代農業研究的重點領域。在此背景下,實現黃花菜采摘的自動化與智能化將顯著降低人工成本,有效提升種植者的經濟效益。

深度學習技術在果蔬檢測與分類領域已取得顯著進展。現有研究廣泛采用多種卷積神經網絡架構,成功實現了包括蘋果[1-3]、芒果[4]、草莓[5]和弼猴桃6等在內的多種果蔬目標檢測。楊千通過將輕量級MobileNetv1網絡與SSD網絡相融合,構建了SSD-MobileNet檢測模型,該模型在溫室平菇目標檢測任務中不僅顯著降低計算復雜度,同時有效提升了檢測效率。Ren等8提出基于YOLOv3的改進方法,結合小批量K-Means ++ 聚類與遷移學習策略,實現高效的實時目標檢測。該方法采用啟發式初始化和小批量聚類優化錨框生成,在提升目標定位與識別精度的同時,顯著提升了模型的推理速度。熊俊濤等9提出多尺度特征融合算法Des-YOLOv3,通過跨層特征復用與融合機制,有效增強模型對小目標及被遮擋果實的檢測能力,提升了復雜場景下的果實識別精度。Liu等°對FasterR-CNN框架進行改進,通過將VGG16骨干網絡的輸入層擴展為6通道,實現多模態特征提取。研究創新性地結合了圖像融合與特征融合策略,采用反向傳播與隨機梯度下降技術進行端到端優化,結果表明,該方法在弼猴桃檢測任務中表現出優越的性能,展現了其在水果目標檢測領域的應用潛力。Liu等\"通過訓練YO-LOv3、ResNet50和ResNet152深度網絡,驗證DNNs的水果識別能力。其中,性能最好的ResNet152網絡對自然環境中柑橘的識別準確率為 95.35% ,對重疊柑橘類水果的識別準確率為 97.86% ,對柑橘枝葉識別準確率為 85.12% 。現有研究主要集中于顏色特征顯著或形態區分度高的典型果蔬目標,而針對黃花菜這類成熟期表型特征微弱、難以辨識的特殊作物,相關檢測技術研究較少。

本研究提出一種利用深度學習對黃花菜成熟花蕾進行目標識別的算法。主流的目標檢測算法主要分為兩階段(Two-stage)和單階段(One-stage)2種類型,前者以FasterR-CNN[為代表,后者則以YOLO系列算法3為代表。兩階段檢測算法采用基于候選區域的方法,首先生成目標檢測的感興趣區域(ROI),然后將這些區域歸一化至固定尺寸,再利用卷積神經網絡進行特征提取和分類。這類方法通常具有較高的檢測精度,其代表性算法包括R-CNN、FasterR-CNN及SPP-Net等。單階段檢測算法以YOLO系列為代表,采用端到端的檢測方式,將整幅圖像輸入網絡,通過輸出層同步回歸目標的邊界框位置和類別概率。由于省去了候選框生成步驟,相比兩階段算法,單階段算法在檢測速度方面具有顯著優勢。本研究的核心技術難點在黃花菜植株的特殊生長特性,首先,復雜的田間背景和花蕾間相互遮擋顯著增加了目標檢測的難度;其次,成熟花蕾與衰敗花蕾、未成熟花蕾在顏色特征上高度相似,導致基于顏色特征的識別方法存在漏檢率高、檢測精度低的問題。針對上述問題,本研究提出基于形態特征的識別方法,重點提取成熟黃花菜花蕾的兩個關鍵特征,包括細長的花蕾輪廓特征和花瓣輕微開裂的形態特征。基于黃花菜采摘機器人的實際需求,綜合考慮檢測精度和實時性要求,選取YOLOv8作為基礎算法進行改進。該算法在目標檢測速度和分類精度方面均表現出色,能夠有效滿足采摘機器人視覺系統對快速識別和實時響應的技術要求。

1 Dense-YOLOv8模型設計

1.1 YOLOv8模型核心組件

YOLOv8是Ultralytics公司提出的基于深度學習的端到端實時檢測模型。相較于該公司2020年發布的YOLOv5模型,其檢測精度獲得顯著提升;而與上一代YOLOv7模型[14]相比,在保持實時性的基礎上進一步提高了檢測準確率。YOLOv8模型主要包括主干網絡(backbone)、特征增強網絡(neck)、檢測頭(head)3個部分。YOLOv8模型的主干網絡采用C2f模塊結構,該模塊整合BottleneckBlock和SPPF模塊的優勢,有效增強網絡的特征提取能力。YO-LOv8模型采用改進型CSPDarknet53作為骨干網絡,該架構在經典Darknet53的基礎上創新性地引入CSP結構,以優化梯度流并提升計算效率。通過特征圖的分割處理和交替優化機制,該結構不僅顯著提升網絡推理效率,而且增強了多尺度特征提取性能。YOLOv8模型的特征增強網絡采用多路徑特征融合架構,其核心由改進的PANet結構構成。該結構通過自底向上和自頂向下的雙向路徑,實現不同尺度特征圖的有效融合,顯著提升模型的多尺度檢測性能。為進一步優化特征融合效果,網絡在Neck部分創新性地集成PAN-FAN混合結構。檢測頭模塊采用多任務學習機制,同步完成邊界框回歸、類別預測和置信度評估3項核心任務,最終通過特征解碼器輸出檢測結果。這種精心設計的網絡架構使YOLOv8模型成為性能優異的端到端實時檢測系統,在保持高速推理的同時實現卓越的檢測精度。

1.2 Dense-YOLOv8模型結構

基于YOLOv8目標檢測框架,對其主干網絡CSPDarknet53進行架構優化。通過將CSPNet結構與密集連接網絡(DenseNet)[15.16]深度融合,構建CSPDenseNet骨干模塊。該模塊整合了CSPNet的高效特征復用特性和DenseNet的強特征傳遞能力,顯著提升網絡的特征提取效率。

密集連接塊(Denseblock)由批量歸一化(BN)、ReLU激活函數與 3×3 卷積層構成基礎結構單元。在相鄰Dense block之間插入轉換層(Transition lay-er,該層通過 1×1 卷積實現特征壓縮,配合 2×2 平均池化進行下采樣,有效篩選冗余特征。在特征輸入第一個密集連接塊前,網絡通過16通道的 3×3 卷積層進行特征預處理,采用單像素零填充(zero-pad-ding=1 )保持空間分辨率。最終輸出階段,在第三個密集連接塊后接全局平均池化層和Softmax分類器。3個密集連接塊的特征尺寸分別是 32×32、16×16、8×8、 這種密集連接模式與傳統卷積網絡相比,需要的參數更少,因為它不需要重新學習冗余的特征圖。密集連接塊的設計使每一層既能學習新特征,又能保留并傳遞已有特征,從而提升特征復用效率。它不僅優化了參數利用率,還增強了網絡中的信息流動和梯度傳播,使訓練更加高效。這種密集連接結構使得網絡中的每一層都能直接獲取來自損失函數和原始輸入的梯度信號,從而形成隱式的深度監督機制,顯著提升深層網絡的訓練效果。密集連接塊還通過特征的多路徑融合產生正則化作用,降低小規模數據集上的過擬合風險。

CSPDenseNet模塊(圖1)采用雙路徑特征處理機制,通過 1×1 卷積核將輸人特征圖均勻劃分為2個通道獨立的特征子集。第一部分直接進行常規卷積處理,第二部分則先經過卷積運算后輸入3層密集連接塊進行深度特征提取,再通過轉換層實現特征篩選。最終將兩條路徑處理后的特征圖進行拼接并通過轉換層完成特征融合,至此完成模塊的特征傳遞過程。將CSPDenseNet模塊集成至YOLOv8模型架構,替換主干網絡末端的最后2個標準卷積模塊,得到Dense-YOLOv8模型(圖2)。

圖1 CSPDenseNet網絡結構

圖2Dense-YOLOv8模型結構

2 圖像采集與前期準備

2.1 圖像采集

黃花菜成熟花蕾樣本采集工作于6:00—8:00在試驗田完成。

圖像采集設備為IntelrealsenseD455雙目相機,在計算機上利用Python程序操控雙目相機對不同角度的黃花菜進行圖像采集。共采集到16420張圖像,像素尺寸為 640px×480px ,保存為jpg格式。對16420張成熟黃花菜圖像進行篩選,將重復或不符合要求的圖片剔除,包括花蕾凋謝或未完全成熟的無效樣本。經過嚴格篩選后獲得14000張有效圖像,隨后按照 7:3 的比例隨機分為訓練集和測試集,以保證模型訓練與評估的數據可靠性。

2.2 黃花菜圖像樣本分類

黃花菜的實際生長情況較復雜且隨機性較大,在黃花菜生長較稀疏時,花蕾清晰明顯,算法識別難度較低;在植株生長稠密時,黃花菜花蕾會出現遮擋、重疊等情況,導致識別難度加大。本研究對黃花菜測試集圖像進行分類,依據花蕾分布密度和背景復雜度分為花蕾稀疏、花蕾密集、背景環境復雜及背景環境簡單4類。選取各類別中最具代表性的樣本圖像進行可視化分析。圖3a為在環境背景簡單、花蕾密集且相互遮擋的情況,圖3b為環境背景簡單、花蕾稀疏且相互獨立的情況,圖3c為背景環境復雜、花蕾稀疏的情況,圖3d為背景環境復雜、花蕾稠密且相互遮擋較為嚴重的情況

圖3田間黃花菜圖像樣本分類

2.3 網絡訓練

本試驗采用基于Windows10家庭版(64位)操作系統的TensorFlow-GPU深度學習框架進行模型訓練。硬件配置采用IntelCorei7-6700HQ處理器(主頻 2.60GHz ),配備NVIDIAGeForceGTX1060顯卡(6GB顯存)進行模型訓練加速,系統內存條為16GBDDR4。深度學習開發環境包含以下關鍵組件,CUDA10.0提供GPU加速支持,配合cuDNN10.0優化深度神經網絡,采用 OpenCV 3.4 處理圖像數據,通過Anaconda3管理Python環境,選用PyCharm2020作為集成開發工具。

為了保證網絡訓練樣本的多樣性,對整理好的數據集進行數據擴增,數據擴增增加了噪聲數據,提升了模型的魯棒性,也給模型帶來更強的泛化能力,采用的數據擴增方式包括調整飽和度、曝光量和對圖像進行翻轉等處理。

在模型訓練階段,首先對網絡參數進行如下配置。設置批量大小為32,初始學習率為0.001,最大訓練輪次為50000。采用階段性學習率衰減策略,分別在總訓練進度達 80% 和 90% 時將學習率降至原值的1/10,同時設置動量因子為0.9以優化訓練過程。模型訓練完成后,使用測試集數據對訓練所得模型性能進行全面評估。

3 結果與分析

3.1 評價指標

為了更直觀地展示網絡檢測效果,采用平均精度 (AP) 、平均精度均值 (mAP) 、召回率 (R) 和 FI (查準率與查全率的調和平均數)作為檢測模型性能的評價指標,計算式如下。

式中, P 表示精確度; TP 表示真正例數; FP 表示假正例數; FN 表示假負例數; Nimage 表示檢測圖像數量; Nclass 表示類別數。

3.2 Dense-YOLOv8模型效果

利用上述評價指標及劃分后的測試集圖像對Dense-YOLOv8模型、YOLOv8模型性能進行分析,結果如表1所示。Dense-YOLOv8模型的召回率、平均精度、平均精度均值均高于YOLOv8模型,其中平均精度均值提高了2.5個百分點。

表12種模型對黃花菜花蕾的檢測結果(單位: % )

由圖4可知,Dense-YOLOv8模型在整體性能上顯著優于YOLOv8模型,不僅能夠有效檢測出YO-LOv8在復雜背景下漏檢的絕大多數目標,還對相互遮擋嚴重的成熟花蕾表現出較強的識別能力。盡管Dense-YOLOv8模型性能優越,但仍存在部分檢測錯誤情況。當黃花菜花蕾間距過近時,模型容易將其誤檢為單一目標;黃花菜的生長背景較復雜,部分植株因距離攝像頭過遠而出現失焦模糊現象,導致模型難以準確識別;成熟黃花菜的特征區分度不足,容易與未成熟花蕾及凋謝花蕾發生混淆,這在一定程度上增加了識別難度。

3.3 檢測效果與分析

為直觀比較不同模型對成熟花蕾的檢測性能,分別采用FasterR-CNN模型、YOLOv8模型和Dense-YOLOv8模型進行測試。

圖5為3種模型在簡單背景、稀疏黃花菜花蕾場景下的檢測結果,在包含3個成熟黃花菜花蕾的樣本中(圖5a),不同模型的檢測結果存在差異,FasterR-CNN模型(圖5b)和YOLOv8模型(圖5c)僅檢測出2個目標,而Dense-YOLOv8模型(圖5d)成功識別出全部成熟花蕾。

圖42種模型對黃花菜花蕾檢測效果的對比

圖53種模型在簡單背景、稀疏黃花菜花蕾場景下的檢測結果

圖6為3種模型在簡單背景、密集黃花菜花蕾場景下的檢測結果,原始圖像包含6個成熟黃花菜花蕾(圖6a),FasterR-CNN模型存在誤檢和漏檢現象,包括將未成熟花蕾誤判為成熟目標以及將相鄰的2個花蕾合并檢測(圖6b);YOLOv8模型僅成功識別出2個目標(圖6c);Dense-YOLOv8模型在花蕾檢測任務中展現出優異的識別性能,但在處理緊密相鄰目標時仍存在部分漏檢現象(圖6d)。

圖63種模型在簡單背景、密集黃花菜花蕾場景下的檢測結果

圖7為3種模型在復雜背景、密集黃花菜花蕾場景下的檢測結果,原始圖像中包含5個成熟黃花菜花蕾(圖7a),FasterR-CNN模型識別出2個目標(圖7b),YOLOv8模型識別出4個目標(圖7c),而Dense-YOLOv8模型成功識別出全部目標(圖7d)。

圖73模型在復雜背景、密集黃花菜花蕾場景下的檢測結果

由表2可知,相較于 YOLOv8 模型,Dense-YO-LOv8模型的 mAP,F1 、識別速度分別提高2.5個百分點、6個百分點 ?2f/s ,模型大小減少 13.88MB 。相較于FasterR-CNN模型,Dense-YOLOv8模型少了生成候選區域這一步,識別速度更快。結果表明,Dense-YOLOv8模型在精簡網絡結構與參數的同時,顯著提升了目標檢測的精度與速度。

表24種模型的檢測性能

4小結

通過將CSPNet結構與密集連接網絡(DenseNet)深度融合,構建CSPDenseNet骨干模塊,將其集成至YOLOv8模型,替換主干網絡末端的最后2個標準卷積模塊,得到Dense-YOLOv8模型。選取測試集中代表性圖像,分別采用FasterR-CNN模型、YOLOv8模型和Dense-YOLOv8模型進行測試。Dense-YOLOv8模型的 mAP,F1 、識別速度、模型大小分別為 90.75%.89%.53f/s.217.68MB ,在黃花菜目標識別方面取得了較好的效果。Dense-YOLOv8模型憑借更高的檢測精度與魯棒性,為黃花菜采摘機器人提供了可靠的視覺識別能力,推動了采摘機器人的技術普及與應用落地。

參考文獻:

[1]LIUX,ZHAOD,JIAW,etal.Adetectionmethod for apple fruits based on color and shape features[J].IEEE access,2O19,7: 67923-67933.

[2]TAN W,ZHAO C,WU H. Intelligent alerting for fruit-melon lesionimagebased on momentum deeplearning[J].Multimedia tools and applications,2016,75(24):16741-16761.

[3]TIANY,YANGG,WANGZ,etal.Apple detection duringdifferent growth stages in orchards using the improved YOLOv3 model [J].Computers and electronics in agriculture,2019,157:417- 426.

[4]STEUN M,BARGOTI S,UNDERWOOD J. Image based mango fruit detection,localisation and yield estimation using multiple view geometry[J].Sensors,2016,16(11):1915.

[5]YUY,ZHANGK,YANGL,etal.Fruit detection for strawbery harvesting robot in non-structural environment based on MaskRCNN[J].Computers and electronics in agriculture,2019,163: 104846.

[6]FUL,FENGY,ELKAMILT,etal.Imagerecognitionmethod of multi-cluster kiwifruit in field based on convolutional neural networks[J]. Transactions of the Chinese society of agricultural engineering,2018,34(2):205-211.

[7]楊千.平菇采摘機器人目標識別與定位控制關鍵技術研究 [D].江蘇蘇州:蘇州大學,2020.

[8]REN Z,LAMEY,ZHAO J. Real-Time target detection in visual sensing environments using deep transfer learning and improved anchor box generation[J].IEEE access,2020,8:193512-193522.

[9]熊俊濤,鄭鎮輝,梁嘉恩,等.基于改進YOLOv3網絡的夜間環境 柑橘識別方法[J].農業機械學報,2020,51(4):199-206.

[10]LIU Z,WU J,FUL,et al. Improved kiwifruit detection using pretrainedVGG16 with RGB and NIR information fusion[J].IEEE access,2019,8:2327-2336.

[11]LIUY P,YANG CH,LING H,et al.A visual system of citrus picking robot using convolutional neural networks[A].2O18 5th international conference on systems and informatics (ICSAI)[C]. Nanjing,China:IEEE,2018.344-349.

[12]REN S,HE K,GIRSHICK R,et al.Faster R-CNN: Towards real-time object detection with region proposal networks[J].Advances in neural information processing systems,2015,28:91- 99.

[13]REDMONJ,DIVVALAS,GIRSHICK R,et al. You only look once:Unified,real-time object detection[A].Proceedings of the IEEE conference on computer vision and pattern recognition[C]. Las Vegas,USA :IEEE,2016.779-788.

[14] WANG C Y, BOCHKOVSKIY A,LIAO HY M. YOLOv7: Trainablebag-of-freebies sets new state-of-the-art for real-time object detectors[A].Proceedings of the IEEE/CVF conference on computer vision and pattern recognition[C].Vancouver,Canada: IEEE,2023.7464-7475.

[15]HUANG G,LIU Z,VAN DER MAATEN L,et al. Densely connected convolutional networks[A].Proceedings of the IEEE conference on computer vision and pattern recognition[C].Hawaiian, USA:IEEE,2017.4700-4708.

[16]WANGCY,LIAOHYM,WuYH,et al.CSPNet:A new backbone that can enhance learning capability of CNN[A].Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops[C].Seattle,USA:IEEE,2020.390-391.

(責任編輯雷霄飛)

主站蜘蛛池模板: 成人在线第一页| 成人在线第一页| 亚洲人成影视在线观看| 美女被躁出白浆视频播放| 免费视频在线2021入口| 午夜无码一区二区三区| 亚洲国产精品无码AV| 国产亚洲视频播放9000| 久久一本日韩精品中文字幕屁孩| 国产成人精品18| 99久久性生片| 被公侵犯人妻少妇一区二区三区 | 久久婷婷六月| 五月综合色婷婷| 伊人久久青草青青综合| 亚洲乱强伦| 亚洲视频在线观看免费视频| 毛片久久久| 国产免费羞羞视频| 成人久久精品一区二区三区| 伊人蕉久影院| 999国产精品| 99er这里只有精品| 三级欧美在线| 精品视频在线观看你懂的一区| 国产精品私拍99pans大尺度| 婷婷99视频精品全部在线观看| 色哟哟国产成人精品| 午夜国产理论| 亚洲国产精品不卡在线| 欧美亚洲一区二区三区在线| 婷婷丁香在线观看| 国产欧美日韩资源在线观看| 永久免费精品视频| 亚洲免费黄色网| 国产午夜人做人免费视频中文| 3344在线观看无码| 71pao成人国产永久免费视频| 亚洲日韩高清在线亚洲专区| 国产无码精品在线播放| 国产第二十一页| 亚洲区视频在线观看| 无码内射在线| 国产人妖视频一区在线观看| 一本大道香蕉中文日本不卡高清二区| 91www在线观看| 精品国产成人高清在线| 狠狠躁天天躁夜夜躁婷婷| 久久青草热| 伊人久久影视| 四虎国产精品永久在线网址| 国产打屁股免费区网站| 久久亚洲国产最新网站| 99视频精品在线观看| 污网站在线观看视频| 日韩激情成人| 久久综合亚洲鲁鲁九月天| 亚洲国产精品日韩av专区| 欧洲欧美人成免费全部视频| 婷婷伊人五月| 国产福利小视频高清在线观看| 国产欧美精品午夜在线播放| 青青青国产免费线在| 国产Av无码精品色午夜| 日本欧美视频在线观看| 亚洲国产成人久久77| 日韩精品无码免费专网站| 国产成人一区在线播放| 97青青青国产在线播放| 日本伊人色综合网| 欧美视频在线播放观看免费福利资源 | 国产精品吹潮在线观看中文| 久久综合丝袜日本网| 国产成人毛片| 免费国产高清精品一区在线| 国产91高跟丝袜| 四虎影视库国产精品一区| 欧美一级夜夜爽www| 在线国产你懂的| 欧美一级99在线观看国产| 在线中文字幕网| 无码AV高清毛片中国一级毛片|