999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv8的蠶繭種類檢測算法

2025-04-22 00:00:00唐茂杰石洪康祝詩平田丁伊鄒佳岐張越趙虎
西南大學學報(自然科學版) 2025年4期
關鍵詞:特征檢測模型

摘要:

為解決人工分選蠶繭效率低、 工作量大以及容易發生誤選、 漏選等問題, 提出一種基于機器視覺與改進YOLOv8的蠶繭種類輕量化檢測模型。 該模型在主干網絡的C2f模塊中引入CA(Coordinate Attention)注意力模塊, 可以有效提取蠶繭局部關鍵特征, 加強網絡模型的學習能力。 將頸部網絡中標準卷積替換為GSConv輕量化卷積, 從而減少模型參數量, 提高模型的檢測準確率。 通過攝像頭采集實際生產環境中傳送帶上的蠶繭圖像構建數據集, 并對這些圖像進行預處理和數據增強等操作, 以提高模型的泛化能力。 研究結果表明: 改進的YOLOv8模型參數量僅為2.93 MB, 在測試集上的平均精度均值mAP0.5達到92.0%, 比原YOLOv8模型高出6.6個百分點。 在同一試驗條件下, 該模型的整體性能優于主流目標檢測算法模型Faster R-CNN、 YOLOv5、 YOLOv7、 YOLOv8s和YOLOv8m, 其中該模型的mAP0.5比其他模型分別高出41.5、 29.0、 17.7、 2.6和1.2個百分點, 滿足蠶繭相距較近、 桑葉殘渣遮擋、 蠶絲包裹、 蠶繭相互堆疊分布的情況下蠶繭檢測輕量化模型的要求, 為智能化蠶繭分選裝備的研發提供了理論基礎。

關"鍵"詞:蠶繭種類檢測; YOLOv8模型; CA注意力機制; GSConv卷積

中圖分類號:TP391.4; S886.3

文獻標志碼:A

文章編號:16739868(2025)04019311

Cocoon Species Detection Algorithm

Based on Improved YOLOv8

TANG Maojie,"SHI Hongkang,"ZHU Shiping,

TIAN Dingyi,"ZOU Jiaqi,"ZHANG Yue,"ZHAO Hu

College of Engineering and Technology, Southwest University, Chongqing 400715, China

Abstract:

In order to solve the problems of low efficiency, large workload, and easy 1 and missed selection in manual sorting of silkworm cocoons, a lightweight detection model of silkworm cocoons based on improved YOLOv8 was proposed. The model can effectively extract the local key features of the silkworm cocoon and strengthen the learning ability of the network model by introducing the coordinate attention module into the C2f module of the backbone network. It also replaced the standard convolution in the neck network with the lightweight convolution GSConv to reduce the number of model parameters and improve the detection accuracy of the model. In this study, the dataset was constructed by collecting images of silkworm cocoons on conveyor belts with a camera in the actual production environment, and the collected images were preprocessed and the data was augmented to improve the generalization ability of the model. The study found that the number of parameters of the improved YOLOv8 model was only 2.93 MB, and the mean average precision mAP0.5 on the test set reached 92.0%, which was 6.6 percentage points higher than that of the original YOLOv8 model. Under the same experimental conditions, the overall performance of this improved YOLOv8 model was better than that of the mainstream object detection algorithm models such as Faster R-CNN, YOLOv5, YOLOv7, YOLOv8s and YOLOv8m, where the mAP0.5 of this model was 41.5 percentage points, 29.0 percentage points, 17.7 percentage points, 2.6 percentage points and 1.2 percentage points higher than that of other models, respectively. The algorithm proposed in this study meets the requirements of the lightweight model for detection of silkworm cocoons in the case of small cocoon spacing, mulberry leaf residue sheltering, silk wrapping, and stacked distribution of cocoons, and provides a theoretical basis for the development of intelligent silkworm cocoon sorting equipment.

Key words:

detection categories of cocoon; YOLOv8 model; coordinate attention; GSConv

蠶桑文化在我國具有悠久的歷史, 我國的絲綢產量規模更是穩居世界第一。 蠶繭是蠶桑生產最主要的產物, 也是蠶絲工藝的原料。 生產過程中, 需要對鮮繭進行混繭、 剝繭、 選繭、 煮繭、 繅絲、 復搖、 整理等一系列分選工序[1-3], 只有品質合格的蠶絲才能進一步變成絲綢。 由于養殖過程中家蠶結繭的質量會受到環境、 溫度、 病害等因素的影響, 因此繅絲前需要對蠶繭進行分選。 常見的蠶繭種類包括上車繭、 黃斑繭、 柴印繭和畸形繭等[4], 其中黃斑繭、 柴印繭和畸形繭為下繭, 不能進行繅制或很難被繅制成蠶絲。 選繭時主要依賴工人手工處理, 工作量大, 容易發生誤檢和漏檢, 且效率較低, 利用計算機視覺技術和深度學習算法能夠代替人工實現自動化蠶繭分選工作。 快速輕量化的蠶繭檢測算法對蠶繭自動分選以及實現蠶桑生產自動化起著決定性作用, 因此, 在蠶桑絲綢領域開展自動分類識別研究具有重要意義和廣闊的發展前景[5]。

國內外許多研究者將深度學習卷積神經網絡應用在農產品分類領域的研究中。 王樹文等[6]采用BP算法對番茄缺陷進行分類檢測, 檢測準確率不低于90.0%。 李善軍等[7]改進SSD模型對柑橘進行實時分類檢測, 平均精度均值(mAP)達到87.9%。 隨著計算機水平的發展, YOLO作為輕量化的單階段目標檢測模型, 在保證精度的同時, 具有檢測速度快、 魯棒性高等特點, 已廣泛應用于農產品成熟度檢測、 病蟲害檢測等領域[8-9]。 趙輝等[10]替換YOLOv3主干網絡中的激活函數, 使水稻葉部病害的mAP達到92.9%。 呂金銳等[11]改進YOLOv4模型, 解決了現有番茄成熟度檢測精度低等問題, mAP達到92.5%。 王磊磊等[12]基于YOLOv5提出OMM-YOLO平菇目標檢測與分類模型, 對平菇檢測準確率達到89.6%。 陳鋒軍等[13]基于YOLOv7引入十字交叉注意力機制, 檢測油茶果實成熟度的mAP達到94.6%。 馬超偉等[14]提出基于改進YOLOv8的小麥病害檢測方法, 其mAP達到91.4%。 目前研究者在蠶桑檢測領域也取得了一定的進展。 石洪康等[15-18]提出基于深度學習網絡的家蠶識別方法, 奠定了家蠶智能化養殖的基礎。 代芬等[19]利用近紅外光譜技術對蠶繭樣本進行雌雄鑒別, 正確率達到90.0%。 劉莫塵等[20-21]采用圖像空間的Brown畸變模型和Mean Shift聚類算法進行預分割來檢測蠶繭, 對方格蔟中的蠶繭檢測準確率達到96.9%; 采用基于模糊C均值聚類及HSV模型的算法對方格蔟內黃斑繭的檢測準確率達到81.2%。 陳國棟[22]在Faster R-CNN算法中引入注意力機制以及引入空洞卷積替換pooling操作, 對蠶繭識別的mAP為78.2%。 李時杰等[23]將YOLOv3算法進行輕量化改進, 采用C均值聚類算法, 對蠶繭識別的mAP達到92.5%, 檢測速度為每秒20幀, 有效地識別出蠶繭類別。

然而上述蠶繭檢測模型的研究與應用比較依賴蠶繭單粒的分布, 對于蠶繭相距較近、 桑葉殘渣遮擋、 蠶絲包裹、 蠶繭相互堆疊分布情況下的蠶繭種類檢測存在一定局限性。 本文聚焦于實現上述情況下蠶繭種類的快速和精準檢測, 根據不同蠶繭種類在視覺上的顯著區別, 以常見的上車繭、 黃斑繭、 柴印繭和畸形繭為識別對象, 提出一種基于改進YOLOv8的蠶繭種類檢測模型, 通過在主干網絡的C2f模塊中添加CA注意力機制, 增強網絡的學習能力和表達能力, 在頸部網絡中將普通卷積替換為GSConv輕量化卷積, 實現網絡的輕量化, 不僅提高了模型的檢測精度, 且檢測速度也得到極大提升, 以期為智能化蠶繭分選裝備的研發提供參考。

1"數據集與模型

1.1"蠶繭檢測圖像數據集

1.1.1"圖像采集

數據集拍攝地點位于四川省農業科學院蠶業研究所(四川省南充市), 拍攝對象為我國西南地區的主推家蠶品種之一: 芳·秀×白·春[24]的蠶繭, 包括上車繭、 黃斑繭、 柴印繭和畸形繭4個不同種類, 采集時間為2023年9月21日, 采集過程在室內的自然光照條件下進行, 采用拍攝架拍攝6 h。 采集設備使用1 200萬像素高清無畸變大廣角定焦USB相機, 該相機的分辨率為1 920×1 080, 焦段為3.2 mm, 尺寸為95 mm×59 mm×45 mm, 重量為167 g, 水平視角為85°, 拍攝場景如圖1所示。 采集圖像時, 將蠶繭放置于傳送帶上, 當蠶繭位于拍攝裝置正下方時開始拍攝, 蠶繭之間相距較近, 有桑葉殘渣遮擋、 蠶絲包裹、 蠶繭相互堆疊分布的情況。 在拍攝過程中, 相機高度為170 cm, 距離拍攝目標約60 cm, 在相機的允許視距范圍之內。 為避免圖像尺寸縮放后蠶繭形狀發生變化, 需設置相同的焦距進行采集, 外接便攜式計算機用于圖像存儲。 試驗期間共拍攝蠶繭圖像1 630張。

1.1.2"數據集構建與預處理

完成圖像采集后, 將蠶繭圖像放置在images文件夾內, 構建蠶繭種類圖像數據集。 圖像尺寸為864×648像素。 拍攝的全部圖像按照8∶1∶1的比例將數據集劃分成訓練集、 驗證集和測試集, 分別包含1 304、 163和163張圖片, 其中訓練集和驗證集用于模型訓練, 測試集用于測試訓練完成后的模型效果識別。 為了提高所訓練模型的泛化能力, 同時盡量避免網絡發生過擬合現象, 在劃分的3個數據集嚴格獨立的前提下, 對所獲得的圖像進行數據增強, 將原始圖像采用三分之一的概率隨機角度旋轉、 三分之一的概率水平翻轉、 三分之一的概率垂直翻轉, 最終訓練集增強后為1 456張圖片, 驗證集與測試集增強后均為182張圖片, 數據集總體擴充至1 820張。 增強前后的部分圖像如圖2所示。

使用LabelImg軟件標注蠶繭。 以目標的最小外接矩形框進行蠶繭的標注, 上車繭標注標簽為“Upper”, 黃斑繭標注標簽為“Yellowspotted”, 柴印繭標注標簽為“Chaiyin”, 畸形繭標注標簽為“Deformed”, 標注圖像如圖3所示。

標注結果生成XML文件, 通過腳本代碼將XML文件轉化成YOLOv8模型能夠識別的TXT文件。 TXT文件格式存儲的信息包括: 目標類別、 長寬尺寸以及標注框坐標位置信息。

1.2"蠶繭種類檢測模型

1.2.1"YOLOv8模型

經過多年的發展, YOLO系列算法[25-28]目前已經更新到YOLOv12版本, 其中YOLOv8屬于使用較多的經典一階段目標檢測網絡[29], 包括5個模型結構, 分別是YOLOv8n、 YOLOv8s、 YOLOv8m、 YOLOv8l與YOLOv8x, 這5個模型的深度會依次增大。 其中, YOLOv8n結構最簡潔且檢測時間最少, 而YOLOv8s、 YOLOv8m、 YOLOv8l與YOLOv8x的深度過大會增加檢測時間。 檢測時間的增加并不利于后續蠶繭實時分類, 結合農業生產實踐, 本文選用YOLOv8n結構, 既保證了檢測精度, 又最大程度地保證了識別速度, 降低了計算機內存占用量, 因此可以作為輕量化檢測的基準模型。 YOLOv8網絡主要由輸入端、 主干網絡、 頸部網絡、 檢測端和輸出端組成。 主干網絡用于特征提取, 提取的信息傳入頸部網絡, 其中的C2f模塊能夠捕獲場景中不同層次的特征信息, 通過殘差結構增強特征表達能力, 提升模型的檢測性能和感受野; 頸部網絡將不同尺度的特征圖進行融合, 同時將不同層次聚合的特征傳入檢測端; 檢測端將之前提取的特征進行預測, 輸出特征圖。

1.2.2"改進的YOLOv8模型

本文以YOLOv8模型為基礎加以改進, 以適應復雜環境背景下蠶繭種類的檢測, 在主干網絡的C2f模塊中引入CA注意力模塊[30], 增強網絡特征提取能力, 使模型更有效地定位目標, 能夠在關注大范圍位置信息的同時, 避免增加過多的計算成本。 在頸部網絡中將標準卷積替換成GSConv模塊[31], 提升特征融合能力, 從而提高識別效率和識別準確率, 確保在實際蠶繭分選的復雜背景下, 不會引入額外的參數, 也不會增加訓練的時間, 進一步提高收斂速度從而實現優化網絡的作用。 改進后的網絡結構如圖4所示。

在圖4中, “Conv”代表3×3的卷積運算, “C2f”代表將不同層的特征圖進行融合, “C2f-CA”代表使用嵌入CA注意力模塊的C2f操作, “SPPF”代表使用空間金字塔池化層進行池化運算, “Concat”代表特征拼接, “Upsample”代表上采樣, “GSConv”代表輕量化卷積, “Detect”代表檢測頭。

YOLOv8的運算流程是: ① 將尺寸為864×648像素的輸入圖像進行裁剪后, 采用雙線性插值法將圖像尺寸縮小為640×640像素。 ② 在主干網絡中, 使用64個步長為2的3×3卷積核進行卷積, 得到1/2特征圖, 并使用順序堆疊的“Conv”和“C2f”提取特征圖, 分別得到2/4特征圖、 3/8特征圖、 4/16特征圖與5/32特征圖, 其中“C2f”的最后一次操作起到降維作用。 ③ 在主干網絡最后一層通過1 024個通道的SPPF層, 使用5個大小不同的池化核進行池化操作。 ④ 經過主干網絡的計算后, 得到的特征圖會作為頸部網絡的輸入, 在特征融合網絡中進行一系列的上采樣和下采樣操作, 實現不同層特征圖的拼接, 增強網絡的學習能力和表達能力。 ⑤ 經過頸部網絡運算后的特征, 在檢測端分別使用2個3×3的卷積運算, 對結果進行預測, 最終輸出網絡的識別結果。

1.2.3"注意力機制

按照生產實際, 在傳送帶上隨機放置要檢測的蠶繭, 由于各個蠶繭之間相距較近, 會出現相互堆疊的現象, 且有繭絲纏繞, 導致目標檢測算法在蠶繭種類的檢測上精度不高, 因此需要添加注意力機制[32]進行動態加權計算來定位感興趣目標, 忽視不相關的背景區域。

注意力機制是一種在深度學習中被廣泛應用于不同領域的機器學習方法, 通過網絡自主學習和選擇性關注信息, 提高網絡模型的性能。 目前常用的幾種注意力機制有: 壓縮與激活注意力(SE)模塊, 屬于通道注意力機制[33-34], 針對通道維度關注感興趣的信息, 從而忽略空間維度的信息, 不適用于輕量化蠶繭識別這類低通道數的模型; 卷積注意力(CBAM)模塊, 是一種結合了通道注意力和空間注意力的模型[35-36], 兩者的權重相結合會導致計算成本增大, 且缺乏提取長距離依賴的能力, 不適用于輕量化的蠶繭種類實時檢測模型; 2021年Hou等[30]提出了CA注意力模塊, 通過并行處理獲得2個特征層, 利用卷積標準化獲得特征圖, 且對通道數進行縮放可以減少網絡的參數量。

為更精準識別蠶繭種類, 在主干網絡的C2f模塊中引入CA注意力模塊, 設計一個CA Block結構來替換YOLOv8中的Bottleneck結構, 所構建的CA Block結構如圖5所示。

主干網絡中的C2f模塊被替換成如圖6所示的C2f-CA結構, 能夠有效提取蠶繭局部關鍵特征, 從而加強網絡模型的學習能力。

1.2.4"GSConv模塊

在模型的頸部網絡中, 使用輕量化卷積GSConv來代替標準卷積, 能夠有效降低模型的計算成本, 提高模型的性能和泛化能力, 為蠶繭種類檢測算法提供了一種高效的、 輕量化的設計方法。

在圖7中, 對于輸入特征圖進行特征提取時, GSConv先進行一個標準卷積運算, 然后將特征圖通過“Split”切片成2個二分之一通道數的子特征圖, 對于其中一個子特征圖, 使用深度可分離卷積運算進行特征提取, 另一個直接映射到下一層, 將2個子特征圖拼接并通過“Shuffle”隨機洗牌進行通道調整后輸出。 該方法能夠顯著增強網絡的感受野, 并實現局部特征的捕獲, 從而增強模型的性能。

1.3"試驗設計

1.3.1"試驗環境與參數設置

本文搭建的檢測模型和參與對比試驗的模型均在相同的環境下進行試驗, 主要環境配置如表1所示。

所有的模型使用相同的超參數進行訓練, 包括: 迭代次數為300次, 初始學習率設置為0.001, 動量因子為0.937, Batch Size為16。

1.3.2"評價指標

本文采用模型的參數量(Params)、 浮點運算數(FLOPs)以及在測試集上的精確率(P)、 召回率(R)、 mAP0.5、 mAP0.5∶0.95、 F1值和檢測時間作為評價指標[37-38], 其中檢測時間是指平均檢測每張圖片所需要的時間, 單位為ms。 精確率P與召回率R的計算公式分別為:

P=TPTP+FP(1)

R=TPTP+FN(2)

其中: TP(True Positive)表示預測為正類實際為正類的數量; FP(False Positive)表示預測為正類實際為負類的數量; FN(False Negative)表示預測為負類實際為正類的數量。 精確率P的分母表示預測為正的樣本數, 分子表示實際為正的樣本數。 召回率R的分母表示真正總的正樣本數, 分子表示預測正確的正樣本數。

由精確率P與召回率R可以得出平均精確率AP(Average Precision), 由AP計算出mAP。 其中, mAP0.5是指當IoU為0.5時的mAP; mAP0.5∶0.95是指當IoU閾值從0.5增加到0.95時, 以0.05為步長上的mAP。

AP=∫10P·(R)dR(3)

mAP=∑Ki=1APiK(4)

式中: K表示類別的個數。

根據式(1)和式(2)可以得到F1值。 F1值是調和精確率P與召回率R的調和平均數, 其計算公式為:

F1=2×P×RP+R(5)

2"試驗與結果

2.1"不同注意力機制檢測結果對比

為驗證本試驗提出的改進算法性能, 以改進的YOLOv8模型為基礎, 分別添加幾種不同的注意力機制模塊來進行試驗。 首先在注意力機制的選擇上, 對比了多種常見注意力模塊, 如壓縮與激活注意力(SE)模塊、 卷積注意力(CBAM)模塊、 高效通道注意力(ECA)[39]模塊, 分別將這些模塊單獨放置在卷積層之后與本文使用的C2f-CA注意力模塊進行對比, 按照相同的試驗超參數設置, 訓練300個epoch后, 在同一個測試集上進行推理驗證, 最終識別效果如表2所示。 由表2可知, 在改進模型中添加C2f-CA注意力模塊之后, 模型的檢測精度mAP0.5為92.0%, 與添加SE注意力模塊相比, mAP0.5提升了5.2個百分點; 與添加CBAM注意力模塊相比, mAP0.5提升了9.4個百分點; 與添加ECA注意力模塊相比, mAP0.5提升了6.5個百分點。

為了直觀比較添加不同注意力機制在測試集上的可視化結果, 利用熱力圖比較改進YOLOv8模型添加不同注意力模塊對蠶繭種類特征的捕獲能力, 試驗結果如圖8所示。

由圖8可知, 在添加SE、 CBAM、 ECA注意力模塊時, 其模型捕獲特征的能力不如添加C2f-CA模塊時捕獲特征的能力強, 尤其對于特征更為明顯的黃斑繭和畸形繭。 添加C2f-CA模塊時, 模型對于蠶繭種類的檢測更加精準, 且能夠更好地定位檢測目標, 因此本文提出的方法比添加SE、 CBAM、 ECA注意力模塊更有積極意義, 更有利于模型對于蠶繭種類的識別。

2.2"與其他模型試驗結果對比

為進一步驗證改進YOLOv8模型的檢測效果, 使用幾種常見的經典模型與該YOLOv8進行對比試驗, 其中經典模型包括兩階段目標檢測算法Faster R-CNN[40]以及一階段目標檢測算法YOLOv5、 YOLOv7、 YOLOv8s、 YOLOv8m、 YOLOv8-FastNet、 YOLOv8-MobileNet。 7種模型統一在本文中構建的蠶繭數據集上進行訓練與測試, 同一環境下的對比試驗結果如表3所示。

由表3可知, 改進后的YOLOv8模型整體優于其他網絡模型, mAP0.5為92.0%, 平均每張圖片的檢測時間為123.21 ms, P為91.2%, R為81%, F1值為85.80%, 相較于兩階段的目標檢測算法Faster R-CNN, 每一項評價指標都有較大提升。 對于一階段目標檢測算法YOLOv5和YOLOv7, 本文算法在P上分別提高了3個百分點和13.2個百分點, 平均每張圖片的檢測時間分別減少了0.56 ms和137.38 ms, 說明本文算法與其他經典的一階段目標檢測算法相比可以更精準和快速地完成檢測任務。 本文算法是在YOLOv8n的基礎上改進的, 由于模型深度的增加, YOLOv8s和YOLOv8m會在精度上較基準模型YOLOv8n更高, 但同時會增加檢測時間和計算機的內存量。 本文算法在性能上整體優于YOLOv8s和YOLOv8m, 說明添加C2f-CA注意力機制模塊和GSConv模塊的方法對YOLOv8模型的改進有積極意義, 且滿足網絡輕量化的要求, 有利于蠶繭種類的快速檢測, 提高生產效率, 降低生產成本。 對于輕量化模型YOLOv8-FastNet和YOLOv8-MobileNet, 本文改進模型在P上分別提高了28.4個百分點和1.6個百分點, 在mAP0.5上分別提高了9.2個百分點和8.7個百分點, 但平均每張圖片的檢測時間分別增加了30.8 ms和4.34 ms。 雖然本文改進模型在檢測時間上相較于YOLOv8-FastNet和YOLOv8-MobileNet有所增加, 但平均檢測精度提升接近10個百分點, 且相較于其他模型而言, 檢測時間都有所降低, 說明對YOLOv8模型的改進具有積極意義。

2.3"YOLOv8改進前后可視化分析

為驗證添加C2f-CA模塊和GSConv模塊的方法對原始模型的檢測能力具有一定的提升, 本節將原YOLOv8和改進后的YOLOv8模型在測試集上的可視化結果進行比較, 如圖9所示。 圖9為部分預測結果, 可以看到, 由于柴印繭的數量少且特征小, 在使用YOLOv8檢測時, 其檢測精度相比本文模型較低, 說明本文方法檢測小目標特征的性能優于原YOLOv8模型。 對于檢測畸形繭和黃斑繭這種性狀相似的目標時, 原YOLOv8模型存在誤檢現象, 即將黃斑繭識別成畸形繭, 但是使用改進后的YOLOv8模型可以準確區分黃斑繭與畸形繭, 說明本文方法不僅在檢測小目標特征時性能更優越, 而且可以準確區分相似特征, 適用于實際蠶繭分選的復雜環境。

改進YOLOv8模型前后對不同蠶繭種類的檢測性能對比如表4所示, 改進YOLOv8與原YOLOv8相比, 雖然對于黃斑繭的P比原YOLOv8低了2.5個百分點, 但是對于上車繭、 柴印繭、 畸形繭的P分別提升了1個百分點、 46.7個百分點、 20.2個百分點, 且mAP0.5相比原YOLOv8模型更高, 提升了6.6個百分點。 改進YOLOv8模型在參數量、 浮點運算數以及模型大小方面比原YOLOv8模型的數值小, 有利于輕量化的設計, 符合在移動端應用的條件。

2.4"改進YOLOv8模型的消融試驗

為了驗證在基礎模型YOLOv8上添加C2f-CA注意力機制模塊和GSConv模塊對檢測精度的影響, 進一步開展了消融試驗, 結果如表5所示。

由表5可知, 原YOLOv8模型對不同種類蠶繭檢測的P為74.8%, R為79.8%, mAP0.5為85.4%, mAP0.5∶0.95為76.1%; 在添加C2f-CA注意力機制后, P、 mAP0.5、 mAP0.5∶0.95分別提升了10.7個百分點、 4.8個百分點、 6.1個百分點, R下降了5.6個百分點, 表明有一些背景被識別成蠶繭; 在添加GSConv模塊后, P、 R、 mAP0.5、 mAP0.5∶0.95分別提升了5個百分點、 4.4個百分點、 1.2個百分點、 1.5個百分點; 當注意力機制C2f-CA模塊和GSConv模塊同時添加到YOLOv8模型后, 綜合性能最優, P、 R、 mAP0.5、 mAP0.5∶0.95分別為91.2%、 81.0%、 92.0%、 82.8%, 比原YOLOv8模型的P、 R、 mAP0.5、 mAP0.5∶0.95分別提升了16.4個百分點、 1.2個百分點、 6.6個百分點、 6.7個百分點。 通過消融試驗進一步驗證了本文算法的改進具有積極意義。

3"結論

本文提出基于改進YOLOv8的蠶繭種類輕量化檢測方法, 實現了蠶繭種類的快速精準檢測, 得出如下結論:

1) 本文采用C2f-CA結構進行特征提取, 相比SE、 CBAM、 ECA 3種注意力機制, 本文嵌入的C2f-CA注意力模塊在準確率上分別提升了7.9個百分點、 8.7個百分點、 10.8個百分點, 該模型在蠶繭的種類檢測中產生了較好的效果。 采用GSConv模塊替換標準卷積, 模型參數量減少了3%, mAP0.5提高了1.2個百分點, 達到86.6%, 驗證了本文改進模型的可行性。

2) 本文改進的YOLOv8模型在測試集上的mAP0.5達到了92.0%, 模型的參數量僅為2.93 MB, 浮點運算數為8.1 G, 平均每張圖片的檢測時間為123.21 ms, 相較于原YOLOv8基準模型, 改進的YOLOv8模型更具輕量化, 檢測精度更高。 與其他經典目標檢測算法相比, 改進的YOLOv8模型整體性能上更具優勢, 滿足在蠶繭相距較近、 桑葉殘渣遮擋、 蠶絲包裹、 蠶繭相互堆疊分布的情況下蠶繭檢測輕量化模型的要求, 以期為智能化蠶繭分選裝備的研發提供理論基礎。

參考文獻:

[1]張勇, 陸浩杰, 梁曉平, 等. 蠶絲基智能纖維及織物: 潛力、 現狀與未來展望 [J]. 物理化學學報, 2022, 38(9): 64-79.

[2]"林海濤, 趙樹強, 凌新龍, 等. 桑蠶絲絲綿生產加工技術研究進展 [J]. 絲綢, 2017, 54(10): 12-17.

[3]"張印輝, 楊宏寬, 朱守業, 等. 基于輕型調控網絡的下繭機器視覺實時檢測 [J]. 農業機械學報, 2022, 53(4): 261-270.

[4]"潘繼友, 馬紀愛, 汪希姣, 等. 桑蠶繭下繭的分類、 形成原因、 預防措施 [J]. 中國纖檢, 2022(1): 103-105.

[5]"孫衛紅, 黃志鵬, 梁曼, 等. 基于顏色特征和支持向量機的蠶繭分類方法研究 [J]. 蠶業科學, 2020, 46(1): 86-95.

[6]"王樹文, 張長利, 房俊龍. 基于計算機視覺的番茄損傷自動檢測與分類研究 [J]. 農業工程學報, 2005, 21(8): 98-101.

[7]"李善軍, 胡定一, 高淑敏, 等. 基于改進SSD的柑橘實時分類檢測 [J]. 農業工程學報, 2019, 35(24): 307-313.

[8]"范萬鵬, 劉孟楠, 馬婕, 等. 利用改進的YOLOv5s檢測蓮蓬成熟期 [J]. 農業工程學報, 2023, 39(18): 183-191.

[9]"靳紅杰, 馬顧彧, 唐夢圓, 等. 復雜環境下黃花菜識別的YOLOv7-MOCA模型 [J]. 農業工程學報, 2023, 39(15): 181-188.

[10]趙輝, 李建成, 王紅君, 等. 基于改進YOLOv3的水稻葉部病害檢測 [J]. 湖南農業大學學報(自然科學版), 2024, 50(1): 100-106.

[11]呂金銳, 付燕, 倪美玉, 等. 基于改進YOLOv4模型的番茄成熟度檢測方法 [J]. 食品與機械, 2023, 39(9): 134-139.

[12]王磊磊, 王斌, 李東曉, 等. 基于改進YOLOv5的菇房平菇目標檢測與分類研究 [J]. 農業工程學報, 2023, 39(17): 163-171.

[13]陳鋒軍, 陳闖, 朱學巖, 等. 基于改進YOLOv7的油茶果實成熟度檢測 [J]. 農業工程學報, 2024, 40(5): 177-186.

[14]馬超偉, 張浩, 馬新明, 等. 基于改進YOLOv8的輕量化小麥病害檢測方法 [J]. 農業工程學報, 2024, 40(5): 187-195.

[15]石洪康, 田涯涯, 楊創, 等. 基于卷積神經網絡的家蠶幼蟲品種智能識別研究 [J]. 西南大學學報(自然科學版), 2020, 42(12): 34-45.

[16]楊創, 石洪康, 陳宇, 等. 圖像數據集對家蠶品種識別的影響研究 [J]. 西南大學學報(自然科學版), 2023, 45(4): 110-118.

[17]石洪康, 肖文福, 黃亮, 等. 基于卷積神經網絡的家蠶病害識別研究 [J]. 中國農機化學報, 2022, 43(1): 150-157.

[18]SHI H K, ZHU S P, CHEN X, et al. A New Method for the Recognition of Day Instar of Adult Silkworms Using Feature Fusion and Image Attention Mechanism [J]. Journal of Intelligent amp; Fuzzy Systems, 2023, 45(5): 7455-7467.

[19]代芬, 吳玲, 葉觀艷, 等. 基于近紅外漫透射光譜信息的蠶繭雌雄檢測 [J]. 農業機械學報, 2015, 46(12): 280-284.

[20]劉莫塵, 許榮浩, 李法德, 等. 基于顏色與面積特征的方格蔟蠶繭分割定位算法與試驗 [J]. 農業機械學報, 2018, 49(3): 43-50.

[21]劉莫塵, 許榮浩, 閆筱, 等. 基于FCM及HSV模型的方格蔟黃斑繭檢測與剔除技術 [J]. 農業機械學報, 2018, 49(7): 31-38.

[22]陳國棟. 引入注意力機制的蠶繭識別算法 [J]. 紡織報告, 2020, 39(11): 23-25, 28.

[23]李時杰, 孫衛紅, 梁曼, 等. 基于CD-YOLO算法的蠶繭種類識別 [J]. 中國計量大學學報, 2021, 32(3): 398-405.

[24]張友洪, 沈以紅, 肖文福, 等. 家蠶雜交組合芳·繡×白·春的選配 [J]. 蠶業科學, 2014, 40(6): 1017-1023.

[25]BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: Optimal Speed and Accuracy of Object Detection [EB/OL]. (2020-04-23) [2024-02-10]. https: //arxiv.org/abs/2004.10934.

[26]ZHU X K, LYU S C, WANG X, et al. TPH-YOLOv5: Improved YOLOv5 Based on Transformer Prediction Head for Object Detection on Drone-Captured Scenarios [C] //2021 IEEE/CVF International Conference on Computer Vision Workshops (ICCVW), October 11-17, 2021, Montreal, BC, Canada. IEEE, 2021: 2778-2788.

[27]REDMON J, DIVVALA S, GIRSHICK R, et al. You Only Look Once: Unified, Real-Time Object Detection [C] //2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 27-30, 2016, Las Vegas, NV, USA. IEEE, 2016: 779-788.

[28]REDMON J, FARHADI A. YOLO9000: Better, Faster, Stronger [C] //2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. IEEE, 2017: 6517-6525.

[29]LOU H T, DUAN X H, GUO J M, et al. DC-YOLOv8: Small-Size Object Detection Algorithm Based on Camera Sensor [J]. Electronics, 2023, 12(10): 2323.

[30]HOU Q B, ZHOU D Q, FENG J S. Coordinate Attention for Efficient Mobile Network Design [C] //2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 20-25, 2021, Nashville, TN, USA. IEEE, 2021: 13708-13717.

[31]LI H L, LI J, WEI H B, et al. Slim-Neck by GSConv: A Better Design Paradigm of Detector Architectures for Autonomous Vehicles [EB/OL]. (2022-06-06) [2024-02-20]. https: //arxiv.org/abs/2206.02424.

[32]LOUREIRO C, FILIPE V, GONALVES L. Attention Mechanism for Classification of Melanomas [C] //Optimization, Learning Algorithms and Applications. Cham: Springer International Publishing, 2022: 65-77.

[33]HU J, SHEN L, SUN G. Squeeze-and-Excitation Networks [C] //2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, June 18-23, 2018, Salt Lake City, UT. IEEE, 2018: 7132-7141.

[34]HE Y, ZHU Y S, LI H H. Cross-Layer Channel Attention Mechanism for Convolutional Neural Networks [C] //Thirteenth International Conference on Digital Image Processing (ICDIP 2021), May 20-23, 2021, Singapore, Singapore. SPIE, 2021: 11878: 437-444.

[35]WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional Block Attention Module [C] //Computer Vision – ECCV 2018. Cham: Springer International Publishing, 2018: 3-19.

[36]PAN J, HU H G, LIU A Z, et al. A Channel-Spatial Hybrid Attention Mechanism Using Channel Weight Transfer Strategy [C] //2022 26th International Conference on Pattern Recognition (ICPR), August 21-25, 2022, Montreal, QC, Canada. IEEE, 2022: 2524-2531.

[37]公徐路, 張淑娟. 基于改進YOLOv5s的蘋果葉片小目標病害輕量化檢測方法 [J]. 農業工程學報, 2023, 39(19): 175-184.

[38]孫俊, 吳兆祺, 賈憶琳, 等. 基于改進YOLOv5s的果園環境葡萄檢測 [J]. 農業工程學報, 2023, 39(18): 192-200.

[39]WANG Q L, WU B G, ZHU P F, et al. ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks [C] //2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 13-19, 2020, Seattle, WA, USA. IEEE, 2020: 11531-11539.

[40]REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

責任編輯"柳劍

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 强乱中文字幕在线播放不卡| 欧美亚洲欧美| 狂欢视频在线观看不卡| 国产a在视频线精品视频下载| 日韩毛片免费视频| 五月天香蕉视频国产亚| 亚洲国产欧美国产综合久久 | 久久中文字幕不卡一二区| 欧美人与牲动交a欧美精品 | 国产精品欧美在线观看| 久久亚洲国产最新网站| 国产99精品久久| 国产一级二级在线观看| 91国内视频在线观看| 欧美色99| 久久综合色天堂av| 精品免费在线视频| 日韩天堂视频| 亚洲福利一区二区三区| 欧美翘臀一区二区三区| 国产乱码精品一区二区三区中文| 日韩一区二区在线电影| 亚洲欧洲日韩久久狠狠爱| 国产精品久久久久无码网站| 国产成人午夜福利免费无码r| 欧美成人午夜在线全部免费| 国产亚洲现在一区二区中文| 日韩精品视频久久| 久久99国产乱子伦精品免| 丁香五月激情图片| 精品国产91爱| 综合色亚洲| 五月六月伊人狠狠丁香网| 欧美精品v| 91欧美亚洲国产五月天| 亚洲精品另类| 国产精品黑色丝袜的老师| 成人va亚洲va欧美天堂| 1级黄色毛片| 国产精品福利社| 91色在线视频| 国产成人h在线观看网站站| 特级aaaaaaaaa毛片免费视频| 国产呦精品一区二区三区网站| 欧美成人看片一区二区三区| 亚洲欧美日韩中文字幕在线一区| 久久青草热| 国产无人区一区二区三区| 青青草国产在线视频| 亚洲精品图区| 久久精品人人做人人爽97| 国产成人亚洲无码淙合青草| 波多野结衣在线se| 亚洲综合天堂网| 亚洲成人免费在线| 欧美日韩国产一级| 亚洲国产看片基地久久1024| 亚洲无码视频喷水| 91小视频在线播放| 亚洲视频黄| 2021天堂在线亚洲精品专区| 欧类av怡春院| 成人毛片免费观看| 青青草原国产| 一级看片免费视频| 四虎影视8848永久精品| 秋霞午夜国产精品成人片| 成人在线视频一区| 制服丝袜一区| 国产成人高清精品免费软件| 国产乱人伦偷精品视频AAA| 伊人无码视屏| 国产情侣一区二区三区| 亚洲一区免费看| 亚洲爱婷婷色69堂| 97久久免费视频| 东京热高清无码精品| 久久综合一个色综合网| 国产精品网曝门免费视频| 亚洲乱强伦| 婷婷午夜影院| 精品久久香蕉国产线看观看gif|