999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合FasterViT架構的基于YOLOv8s模型的生活垃圾檢測算法研究

2025-04-15 00:00:00張欣
電腦知識與技術 2025年6期

摘要:為提高生活垃圾分揀效率和降低人工成本,文章提出一種融合FasterViT 架構的改進YOLOv8s 生活垃圾目標檢測算法FV-YOLOv8s。該模型在通用目標檢測數據集MS COCO2017 以及自建生活垃圾數據集上均表現出較高的檢測精度,在Precision、Recall、mAP50 和mAP50-95 等指標上優于基準YOLOv8s 模型。

關鍵詞:FasterViT;YOLOv8s;垃圾檢測;目標識別

中圖分類號:TP753 文獻標識碼:A

文章編號:1009-3044(2025)06-0060-04 開放科學(資源服務)標識碼(OSID):

0 引言

據統計全世界每年產生大約40億噸垃圾,中國每年產生的垃圾總量約為2.5億噸,每年以8%~10%的速度增長[1]。城市生活垃圾累積堆存量已達70億噸,垃圾存放占地累積達75萬余畝。當前我國垃圾處理方式包括焚燒、填埋、堆肥等,如果垃圾在處理之前沒有進行合理的分類則會造成環境污染、空氣污染、土壤惡化等問題,因此垃圾分類與檢測是一項必不可少的工作。現在隨著智能化城市的建設進程加快,很多城市已開始建設智能化垃圾分類檢測系統,利用人工智能等技術實現垃圾的精準分類檢測[2]。

目標檢測方法根據使用技術不同可分為傳統方法與基于深度學習技術的目標檢測方法。在傳統方法中,在特征提取階段大多使用尺度不變特征變換、哈爾特征、方向梯度直方圖等方法來提取圖像特征,在特征分類階段使用支持向量機、決策樹等方法對提取到的特征進行細粒度分類。傳統目標檢測方法在目標檢測精度上表現較差,一方面受限于特征提取描述子對目標提取的特征較淺。另一方面受限于方法的泛化性較差,難以在復雜場景下準確地檢測多個目標。并且存在對小目標檢測效果不佳、缺乏生活場景下的真實垃圾數據集等問題。

最近隨著深度學習理論尤其是卷積神經網絡(Convolutional Neural Network,CNN)[3]的快速發展與應用,當前基于深度學習的目標檢測方法在生活垃圾檢測任務上已有很多研究與應用。石露露等人[4]在2023年提出一種改進YOLOv5s[5]的明渠漂浮垃圾實時檢測方法,使用數據增強方法擴充Flow-Img數據集得到10 000張圖像,在YOLOv5模型的特征融合階段提出一種多尺度加權特征融合方法來提高模型對小目標的特征表達能力。郭洲等人[6]在2023年提出一種融合注意力機制的輕量化YOLOv4模型用于可回收垃圾檢測,同時該方法提出在Neck模塊中應用CBAM注意力模型來突出目標區域的顯著度,更好地學習目標區域的特征。徐宏偉等人[7]在2024年提出一種輕量化湖面漂浮物實時檢測方法C-X-YOLOv7,該方法將角點注意力模塊CA(Coordinate attention)引入到YO?LOv7算法的骨干特征提取網絡的最后一層,提高模型準確性和泛化能力。

之前提出的基于深度學習技術的垃圾檢測方法均采取提出較早的目標檢測算法如Faster RCNN、YO?LOv3、YOLOv4、YOLOv5等,最近YOLOv8[8]算法的提出為實現高精度實時目標檢測任務提供了新的解決方案。同時注意到當前生活場景下的垃圾目標檢測方法較少,大多方法都構建的是通用垃圾和水上垃圾數據集。為了填補這個空缺,本文首先構建了一種生活垃圾目標檢測數據集,并基于最新的YOLOv8算法提出一種改進的目標檢測算法FV-YOLOv8。為了增強特征提取模型對輸入圖像的特征提取與信息表達,本文使用FasterViT模型替換原始的卷積塊,FasterViT 結合卷積層的快速局部表征學習與Vision Transformer 結構的全局特征建模實現圖像特征的高效提取。最后在目標邊框損失上使用WIoU Loss來挖掘更多的正樣本,縮減預測框與真實框之間的距離,并通過不同角度的實驗來驗證FV-YOLOv8的效果與可行性。

1 YOLOv8

YOLOv8是YOLO(You Only Look Once)系列算法的第八代版本,它是基于YOLOv5和YOLOv7算法改進得到的,是新一代的基于CNN技術的單階段高性能實時目標檢測算法。與其他目標檢測算法不同,YO?LO算法通過將目標檢測任務轉化為回歸問題來提高圖像的檢測速度。在整體模型結構設計上,YOLOv8 可分為圖像特征提取結構塊、特征融合結構塊以及檢測預測頭結構塊,整體結構如圖1所示。在圖像特征提取結構塊中,YOLOv8是由CBS和C2f這兩個子模塊組成,其中CBS模塊由一個卷積層、一個批量歸一化層以及一個SiLU激活函數組成;C2f模塊由CBS、Bot?tleneck 以及concat 組件組成,其中Bottleneck 組件由兩個卷積層以及一個殘差連接塊組成,這個結構是在YOLOv5中提出的,C2f模塊的結構如圖2所示。

2 FV-YOLOv8

雖然YOLOv8算法在目標檢測精度與速度之間取得了一個極佳的平衡,整體結構精簡高效,但全卷積的結構對圖像的整體信息難以形成完整的表述,同時算法對小目標未做明顯的優化。為了解決這兩個問題,本文提出一種改進的YOLOv8算法FV-YOLOv8,并將其應用到生活垃圾目標檢測任務中。本文使用FasterViT模型[9]來更優地提取圖像特征,其有效結合CNN的快速局部表征學習與ViT的全局特征建模實現圖像特征的高效提取;重新設計提出一種新穎的C2-S模塊,使用無參注意力機制SimAM[10]增強感興趣目標周圍的上下文信息,抑制無效背景特征;在目標邊框損失函數上,使用WIoU Loss更精確地計算預測框與真實框之間的位置偏差,使得模型對小尺寸目標的預測能夠更精確。基于以上三點設計,本文提出的FV-YOLOv8算法能更好地提取圖像特征、更突出地表征目標信息以及能更精確地預測小目標。FV-YO?LOv8的整體結構如圖3所示。

2.1 FasterViT

FasterViT模塊旨在更高效地處理高分辨率圖像,通過有效結合CNN的快速局部表征學習與ViT的全局特征建模實現圖像特征的高效提取,將具有二次復雜性的全局自注意力分解成計算成本更低的多層次注意力,能更充分地結合圖像的全局信息與目標的局部特征,為后續的預測模塊提供強有力的圖像特征描述基礎。

2.2 C2-S

注意力機制在CNN中扮演著越來越重要的角色,它能夠幫助模型聚焦于圖像的關鍵區域來提升性能。然而,現有的注意力機制通常需要引入額外的參數,增加模型復雜度和計算成本。SimAM是一種輕量級、無參數的卷積神經網絡注意力機制,它通過計算特征圖的局部自相似性來生成注意力權重。同時更重要的是其不需要引入任何額外的超參數與計算量,可即插即用模型任何位置。SimAM的核心思想是基于圖像的局部自相似性。在圖像中,相鄰像素之間通常具有較強的相似性,而遠距離像素之間的相似性則較弱。SimAM利用這一特性,通過計算特征圖中每個像素與其相鄰像素之間的相似性來生成注意力權重。

在特征融合模塊,本文基于原始YOLOv8模型的C2f模塊以及無參注意力SimAM提出一種全新的C2-S模塊,輸入特征圖首先經過一個無參注意力機制Si?mAM來重點關注感興趣目標區域特征,后續分為三個分支分別通過Bottleneck模塊來融合圖像的上下文特征,其中Bottleneck 模塊是原始YOLOv8 使用的,C2-S模塊的結構如圖4所示。

2.3 WIoU Loss

在目標檢測任務中,目標邊框回歸損失是必要且重要的,它能促使網絡在訓練階段預測的結果輸出與真實標簽盡可能地接近,進而優化參數,在推理階段能完成準確的目標位置預測。之前算法常使用IoULoss來衡量目標位置損失,但IoU Loss存在一些問題,如當兩個預測框與真實目標框不重疊時則它們與真實目標的IoU均為零,此時IoU Loss的梯度為零且無法進行優化。此外注意到數據集中包含一些低質量的目標標注框,CIoU Loss使用的目標中心點距離、目標寬高縱橫比之類的度量方法會加速損失對低質量標注目標的懲罰而影響模型的性能。而WIoU Loss會根據目標距離度量構建一種基于距離注意力的目標邊框損失減免精度損失,WIoU Loss整體表達式如下:

本文在目標邊框損失上使用WIoU Loss 替換掉YOLOv8使用的CIoU Loss,一方面降低計算量,另一方面WIoU Loss挖掘難樣本,使模型在訓練過程中能平穩地下降,關注到困難樣本的優化,使得模型的檢測準確率能進一步地提高。

3 實驗與結果分析

3.1 數據集

本文實驗的數據集包含目標檢測基準數據集MSCOCO2017 版本以及自建的生活垃圾圖像數據集。MS COCO2017數據集是微軟在2017年發布的目標檢測大型基準數據集,圖像標注信息包含目標框、目標對象掩碼、圖像信息描述以及人體姿態關鍵點等。在目標檢測任務上,MS COCO2017包含118 287張訓練圖片,驗證集包含5 000張圖片,測試集同樣也包含5 000張圖片。自建7類生活垃圾目標檢測數據集包含電池(Battery)、磚瓦陶瓷(BrickAndTileCeramics)、不包含垃圾(No_Rubbish)、金屬罐(Cans)、香煙(Ciga?rette)、食物垃圾(Food_waste)、塑料(Plastic)這7種目標,其中數據集的訓練集和驗證集分別包含7 319以及1 796張圖像樣本。部分生活垃圾數據集中的圖片如圖5所示。

3.2 實驗設備與環境

YOLOv8與本文所提算法的開發語言都是Py?thon,使用開源的深度學習框架PyTorch來搭建模型與訓練算法。本實驗的硬件平臺包含中央處理器為In?tel(R) Xeon(R) Platinum 8350C CPU @ 2.60GHz、圖形處理器為單卡NVIDIA GeForce RTX 3090。本實驗使用的Python版本為3.9,PyTorch框架版本為2.0.1,YO?LOv8的源碼Ultralytics庫版本為8.0.222,其他使用的一些重要庫的信息如下:OpenCV 版本為4.6.0.66、NumPy版本為1.24.0、Matplotlib版本為3.6.2。

3.3 實驗評價指標

當前用于目標檢測任務的實驗評價指標主要包括準確率(Precision)、召回率(Recall)、平均精度(Av?erage Precision,AP)、平均精度均值(mean Average Pre?cision,mAP)。Precision 和Recall 的計算方式分別如式(3)和式(4)所示。

3.4 實驗結果分析

在MS COCO2017數據集上,本文復現得到的YO?LOv8s模型指標結果如下:模型在訓練過程中,目標類別損失、邊框損失以及DFL分別下降到0.893、0.964以及1.09。在驗證集上,YOLOv8s模型的目標類別損失、邊框損失以及DFL分別能下降到1.014、1.008以及1.105。在具體的精度結果指標上,YOLOv8s模型在Precision、Recall、mAP50 以及mAP50-95 這4 個指標上分別達到了67.6%、54.7%、59.9%以及43.9%。相較于其他同等參數量的單階段方法,YOLOv8s模型在這4個指標上都有一定的提升。相較于其他的一些兩階段方法,YOLOv8s模型在訓練時長、訓練過程的穩定性以及推理時間上均表現出明顯的優勢。本文提出的FV-YOLOv8s在MS COCO上的訓練過程和驗證指標如圖6 所示,在Precision、Recall、mAP50 以及mAP50-95 這4 個指標上分別達到了71.2%、57.2%、62.8%以及46.0%。相較于基準YOLOv8s模型分別提高了3.6%、2.5%、2.9%以及2.1%。

受益于FasterViT在特征提取網絡對圖像有著更豐富的目標細節信息提取,本文方法在訓練初期就能帶來一定的檢測準確率,后續隨著C2-S模塊中的注意力模塊的不斷學習,目標特征與背景信息被進一步地區分。同時得益于WIoU Loss的提出,本文方法無論在訓練階段還是驗證階段,目標邊框損失均下降得更加快速與平穩。

在生活垃圾數據集上,本文提出的FV-YOLOv8s 模型的實驗結果如圖7所示。從圖中可以看到,FVYOLOv8s在訓練集上的目標邊框、目標類別以及DFL 損失能收斂到0.550、0.377 以及1.01。在Precision、Recall、mAP50以及mAP50-95這4個指標上分別能達到92.0%、88.0%、92.2% 以及80.1%。從圖中可以看出,無論是在訓練階段還是在驗證階段,FV-YOLOv8s 在目標邊框損失、分類損失和DFL上相較于YOLOv8s 模型均能收斂到一個更小的值,同時收斂的值也更加平穩。這是由于本文方法使用FasterViT提高了模型對圖像的特征提取能力,能更精確地突出與表征目標對象,另一方面WIoU Loss促使模型在訓練階段學習到更多的困難樣本,為后續的模型參數優化提供方向。在具體數值上,FV-YOLOv8s相較于YOLOv8s模型在訓練階段的目標邊框損失、分類損失和DFL分別降低了0.34、0.39以及0.20,在驗證階段的目標邊框損失、分類損失和DFL分別降低了0.25、0.36以及0.22。

3.5 檢測結果可視化

圖8是使用本文提出的FV-YOLOv8s模型在自建生活垃圾驗證集上的圖片檢測結果。從圖8中可以看出,FV-YOLOv8s模型能準確識別與檢測生活垃圾,同時有一個較高的檢測置信度,特別對于煙頭這種小目標,本文提出的方法也能準確識別檢測。

4 結論

針對生活垃圾分類與檢測的任務,本文以基于深度學習技術的單階段目標檢測算法YOLOv8為基礎提出一種改進的算法FV-YOLOv8,并將其應用到生活垃圾的分類與檢測任務中。FV-YOLOv8在YOLOv8 的基礎上進一步將FasterViT、C2-S以及WIoU Loss應用到模型的特征提取階段、特征融合階段以及目標邊框損失中,有效地增強了模型對輸入圖像的特征提取能力,同時穩定了模型的訓練過程。在通用目標檢測數據集MS COCO2017以及自建生活垃圾數據集上,本文提出的FV-YOLOv8s模型在多個指標上如Preci?sion、Recall、mAP50以及mAP50-95上相較于基準模型YOLOv8s提升明顯。本文以深度學習技術與圖像檢測技術為基礎,對生活垃圾的檢測與分類進行研究,為實現高精度垃圾分類與檢測提供一種有效的解決方案,后續可以在現實生活中推廣使用。

主站蜘蛛池模板: 东京热一区二区三区无码视频| 女人18毛片水真多国产| 伊人婷婷色香五月综合缴缴情| 国产精品自拍合集| 国产迷奸在线看| 天天色综网| 色婷婷在线播放| 欧美一区二区三区不卡免费| 亚洲欧美不卡视频| 亚洲国产中文在线二区三区免| 制服丝袜 91视频| 理论片一区| 青青草国产在线视频| 国产国语一级毛片在线视频| 日本精品一在线观看视频| 国产91透明丝袜美腿在线| 国产精品不卡永久免费| 女同久久精品国产99国| 国产精品欧美激情| 亚洲一区二区三区在线视频| 欧美日韩专区| 欧美性爱精品一区二区三区 | 中文字幕第4页| 91免费观看视频| 亚洲天堂网在线播放| 免费不卡在线观看av| 日韩欧美中文字幕在线精品| 亚洲人成色77777在线观看| 成人无码区免费视频网站蜜臀| 午夜欧美理论2019理论| 综合天天色| 无码视频国产精品一区二区| 天天色天天操综合网| 国产产在线精品亚洲aavv| 国产成人啪视频一区二区三区| 免费看的一级毛片| 伊人久久大香线蕉综合影视| 原味小视频在线www国产| 亚洲天堂2014| 91免费国产高清观看| 美女国产在线| a级毛片免费看| 91视频日本| 国产成人精品亚洲77美色| 一级毛片高清| 国产成人凹凸视频在线| 播五月综合| 九色免费视频| 亚洲精品国产精品乱码不卞| 亚洲日韩精品无码专区97| 在线免费无码视频| 在线亚洲精品福利网址导航| 免费国产黄线在线观看| 18禁不卡免费网站| 久久综合色视频| 四虎成人精品在永久免费| 欧美成人午夜在线全部免费| 国产成人综合日韩精品无码首页| 久久精品丝袜| 亚洲欧美一区在线| 日韩午夜福利在线观看| 最新痴汉在线无码AV| 国产精品免费福利久久播放| 亚洲an第二区国产精品| 尤物在线观看乱码| 亚洲乱码视频| 青草国产在线视频| 国产精品密蕾丝视频| 天堂成人在线| 欧美激情伊人| 久久婷婷六月| 在线免费观看a视频| 日韩 欧美 国产 精品 综合| 一区二区影院| 日本一区中文字幕最新在线| 99精品高清在线播放| 国产精品lululu在线观看| 无码中文字幕加勒比高清| 国产91在线|中文| 99激情网| 国产综合另类小说色区色噜噜| 中国国产高清免费AV片|