999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5的輕量型口罩佩戴檢測算法

2023-05-14 19:29:04王圣雄劉瑞安燕達黃玉蘭胡昕
計算機時代 2023年5期

王圣雄 劉瑞安 燕達 黃玉蘭 胡昕

摘? 要: 提出一種基于改進YOLOv5的輕量型口罩檢測算法CG-YOLOv5s。結合卷積注意力機制和Ghost卷積等技術,在網絡中加入CBAM-CSP、GRCM改進模塊以增強特征提取能力,改善模型的計算性能,使用Alpha-CIoU損失并結合DIoU非極大抑制方法,進一步提升檢測精度。結果表明,CG-YOLOv5s在對檢測速度影響較小的情況下,獲得了89.1%的檢測精度,模型大小減少了19.63%,實現了模型輕量化的效果。

關鍵詞: 目標檢測算法; 口罩檢測; 卷積注意力; Ghost卷積; 輕量化模型

中圖分類號:TP391.4? ? ? ? ? 文獻標識碼:A? ? ?文章編號:1006-8228(2023)05-109-04

Lightweight mask wearing detection algorithm based on improved YOLOv5

Wang Shengxiong, Liu Ruian, Yan Da, Huang Yulan, Hu Xin

(College of Electronic and Communication Engineering, Tianjin Normal University, Tianjin 300387, China)

Abstract: A lightweight mask detection algorithm CG-YOLOv5s based on improved YOLOv5 is proposed. Combining techniques such as convolutional attention mechanism and Ghost convolution, CBAM-CSP module and GRCM module are added to the network to enhance the feature extraction ability and improve the computational performance of the model. The use of Alpha-CIoU losses combined with DIoU NMS method further improves detection accuracy. The results show that the CG-YOLOv5s achieves 89.1% detection accuracy and 19.63% reduction in model size with less impact on detection speed. It achieves the effect of model lightweight.

Key words: object detection algorithm; mask detection; CBAM; Ghost convolution; lightweight model

0 引言

人們佩戴口罩是針對病毒傳播的重要防護方式[1]。近年來,已經有許多研究者使用主流的目標檢測方法來檢測公共場所人們口罩佩戴情況。如程長文[2]等人在YOLOv4中加入自適應錨定框并改進了前饋輸入層以優化數據處理,降低計算量。王藝皓[3]等人提出了一種基于YOLOv3的口罩檢測改進算法,通過使用改進的空間金字塔池化結構來提高口罩佩戴檢測的檢測精度。任健[4]等人為優化目標遮擋和尺度變化等問題,提出了一種基于SSD優化模型的多尺度卷積特征融合檢測方法,通過殘差網絡、跳躍連接機制和多尺度特征融合機制提升了人臉口罩的檢測精度。劉玉國[5]等人改進了Faster R-CNN主干網絡并結合K-means聚類策略對錨框尺寸進行聚類,重新設計其尺寸,該方法能夠有效提升檢測精度。

盡管上述方法都取得了較好的檢測效果,但它們在復雜場景下仍存在因人群密集、人臉遮擋而引起的檢測效果較差、定位目標準確性低等問題。

為解決上述問題并進一步提升檢測精度,本文提出一種基于改進YOLOv5的輕量型口罩檢測算法CG-YOLOv5s。主要貢獻如下:在YOLOv5s骨干網絡中,加入改進CBAM-CSP模塊,增強特征提取能力;加入改進的Ghost卷積模塊GRCM,降低參數量;使用Alpha-CIoU損失并結合基于DIoU的非極大抑制來優化邊界框回歸過程,進而提高檢測模型的精度。

1 CG-YOLOv5s口罩檢測算法

1.1 網絡結構

CG-YOLOv5s網絡由骨干網絡、頸部網絡和檢測網絡組成。CG-YOLOv5s的網絡結構如圖1所示。

在骨干網絡中,本文加入了卷積注意力機制[6]并集成CSP模塊[7]得到基于注意力機制的跨階段局部模塊CBAM-CSP。CBAM注意力機制能夠增強圖像局部特征的特征表示,使網絡關注到關鍵特征信息,從而提升網絡的特征提取能力,其與CSP模塊集成后,能夠保證檢測模型在最大程度上充分利用注意力特征圖。改進后的模塊結構如圖2所示。模塊包含兩條分支,一條分支由卷積模塊和殘差模塊組成,用于進一步增強卷積的提取特征能力,而另一條分支只采用卷積處理注意力特征圖。最后,將兩條分支的輸出特征圖在通道維度上進行拼接并通過卷積處理得到CBAM-CSP模塊的最終輸出。同時為了降低網絡的計算成本,本文引入Ghost卷積[8]并對其進行技術改進,提出了Ghost殘差卷積模塊,即GRCM模塊,其模塊結構如圖3所示。借鑒殘差網絡[9]的思想,將殘差結構引入到Ghost卷積結構中,從而進一步獲取更多的局部細節特征,同時還能增強網絡層之間的反向傳播能力,以避免模型在訓練時出現梯度消失。此外,本文選用深度卷積來實現改進模塊的線性計算操作,通過這種廉價的計算方式來獲取大量的非必要特征信息,以此來減少計算資源的消耗,降低網絡的計算成本。

CG-YOLOv5s的頸部網絡結合了特征金字塔網絡結構[10]和路徑聚合網絡結構[11]的特點,用于進行多尺度特征融合處理。其檢測網絡包含三個檢測頭,每個檢測頭會根據給定的錨框尺寸對特定大小的特征圖進行檢測,并輸出最終的檢測框和類別信息。

1.2 損失函數

為了提高邊界框的回歸效果,并加快回歸損失的收斂速度,本文采用Alpha-CIoU[12]計算邊界框回歸損失,其表達式如下:

[Alpha-CIoUb,bgt=IoUα-ρ2αb,bgtc2α-βvα,α>0]? ⑴

[Lbbox=1-Alpha-CIoUb,bgt]? ⑵

其中,[b]和[bgt]分別為預測框和真實框的中心點,[ρ?]表示兩個中心點之間的歐式距離,[c]為最小閉包區域的對角線長度(最小閉包區域,即能夠同時包圍預測框和真實框的最小矩形區域),[α]是一個可控的冪參數(本文中,[α=3]),[β]是權重參數,[v]用來衡量預測框和真實框的長寬比一致性。[IoU]、[v]和[β]的表達式如下:

[IoU=B∩BgtB∪Bgt]? ⑶

[v=4π2arctanwgthgt-arctanwh2]? ⑷

[β=v1-IoU+v]? ⑸

其中,[w]和[h]分別為邊界框的寬度和高度。

此外,本文引入基于DIoU的非極大抑制方法[13]對邊界框進行篩選,從而解決在目標相近的情況下錯誤去除邊界框的問題,以此來進一步提高檢測過程的準確性。

2 實驗與結果分析

2.1 數據集及實驗環境

本文通過網絡收集人臉佩戴口罩、未佩戴口罩和錯誤佩戴口罩三種圖像數據,并采用數據增強方式對數據進行擴充,最后得到16600張圖像,其中,訓練集占比64%、驗證集和測試集各占比18%。本文標記了三種類別標簽,依次為without_mask(未佩戴口罩)、with_mask(正確佩戴口罩)和mask_weared_incorrect(錯誤佩戴口罩)。

本文實驗在基于Python 3.8的PyTorch框架中進行,使用型號為GeForce RTX 3080 Ti的GPU服務器訓練、測試模型。實驗前,對部分參數進行如下調整。輸入圖像尺寸設置為640×640,每個批次訓練16張圖像,實驗訓練的最大epoch值設置為300等。

最后,本文選用單類別平均精確度(Average Precision, AP)、多類別平均精確度均值(Mean Average Precision, mAP)和每秒處理圖片的幀數(FramePerSecond, FPS)評估算法性能。

2.2 結果分析

為了驗證本文算法中改進模塊的有效性,在相同的實驗環境下,本文進行了六組消融實驗,實驗結果如表1所示。其中,類別1為未佩戴口罩,類別2為正確佩戴口罩,類別3為錯誤佩戴口罩。

從表1可以清晰地看出,與實驗1相比,實驗2在每種類別的檢測精度均有所提升,平均檢測精度提升了8.56%,模型參數量降低了10.98%,由此說明Ghost卷積模塊能夠有效地保留圖像的全局特征信息,降低模型參數量。與實驗2相比,實驗3的檢測精度并沒有明顯的提升,但其模型參數量降低了11.05%,可以證明GRCM模塊在正常發揮其作用的同時還能降低模型參數量,這為輕量化模型的構建提供了基礎。從實驗1和實驗4、實驗2和實驗5的結果可以看出,在加入CBAM-CSP模塊后檢測精度均有所提升,由此驗證了CBAM-CSP模塊的有效性。根據實驗5和實驗6的結果可以看出,CG-YOLOv5s算法的平均檢測精度提升了0.22%,檢測速度提升了4.60%,這充分說明Alpha-CIoU損失函數與DIoU非極大抑制方法的結合能進一步提升檢測精度。此外,與實驗5相比,實驗6的模型參數量降低了10.83%,由此可以證明GRCM模塊在模型輕量化方面發揮了顯著的作用。

為了進一步體現本文算法的綜合性能,本文與YOLOv3、YOLOv3-tiny、YOLOv4s-mish和YOLOv5s算法進行了對比實驗,對比結果如表2所示。

由表2可以看出,本文算法CG-YOLOv5s的模型參數更少,且相比于YOLOv5s參數量減少了20.24%,模型大小也僅為YOLOv5s的80.36%。在檢測精度和檢測速度方面,本文算法的檢測精度相對較高,但檢測速度較低。與YOLOv4s-mish相比,雖然本文算法檢測精度下降了0.22%,但在其他方面的性能均超過了YOLOv4s-mish。由此可以看出,CG-YOLOv5s在綜合性能上表現更優,而且在人群密集和目標較小的情況下取得了不錯的效果。檢測效果如圖4所示。

3 結束語

本文針對口罩檢測存在因人群密集、遮擋等復雜因素而導致檢測效果較差、定位目標的準確性較低等問題,提出了一種改進的口罩佩戴檢測算法CG-YOLOv5s。實驗結果表明,CG-YOLOv5s進一步降低了模型參數量,實現了模型輕量化的效果,并在對檢測速度影響較小的同時有效地提高了檢測精度,且其在人群密集、目標遮擋的復雜場景中表現較好。后期將主要針對如何提升算法的檢測速度展開相關研究,以使算法性能達到更優。

參考文獻(References):

[1] 周艷萍,饒翮,姜怡,等.新型冠狀病毒肺炎疫情后期公眾正確使用口罩調查分析[J].藥物流行病學雜志,2021,30(3):205-209

[2] 程長文,陳瑋,陳勁宏,等.改進YOLO的口罩佩戴實時檢測方法[J].電子科技,2022(11):1-9

[3] 王藝皓,丁洪偉,李波.復雜場景下基于改進YOLOv3的口罩佩戴檢測[J].計算機工程,2020,46(11):12-22

[4] 任健,楊帆,張奕凡,等.基于改進SSD的人臉口罩佩戴檢測算法[J].電子測試,2022,36(13):48-51

[5] 劉玉國,張晶.基于改進的Faster R-CNN的行人口罩檢測[J].現代計算機,2021,27(26):73-76,81

[6] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutionalblock attention module[C]//Proceedings of the European conference on computer vision (ECCV),2018:3-19

[7] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shotmultibox detector[C]//European Conference on Computer Vision. Springer, Cham,2016:21-37

[8] HAN K, WANG Y, TIAN Q, et al. Ghostnet: more featuresfrom cheap operations[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR), Seattle: IEEE,2020:1580-1589

[9] HE K, ZHANG X, REN S, et al. Deep residual learning forimage recognition[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2016:770-778

[10] LIN T Y, DOLL?R P, GIRSHICK R, et al. Featurepyramid networks for object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2017:2117-2125

[11] LIU S, QI L, QIN H, et al. Path aggregation network forinstance segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2018:8759-8768

[12] HE J, ERFANI S, MA X, et al. Alpha-IoU: A Family ofPower Intersection over Union Loses for Bounding Box Regresion[J]. Advances in Neural Information Procesing Systems,2021,34

[13] ZHENG Z, WANG P, LIU W, et al. Distance-IoU los:Faster and better learning for bounding box regresion[C]//Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993-13000

主站蜘蛛池模板: 视频在线观看一区二区| 亚洲资源站av无码网址| 国产成人精品第一区二区| 国产女人在线| 九九视频免费在线观看| 波多野结衣二区| 99无码中文字幕视频| 亚洲视频在线网| 99久久国产精品无码| 成·人免费午夜无码视频在线观看| 中文字幕欧美日韩高清| 亚洲av无码久久无遮挡| 婷婷五月在线| 国产真实乱子伦视频播放| 国产 在线视频无码| 国产AV毛片| 日韩无码一二三区| 亚洲三级网站| 亚洲男人在线天堂| 国产成人亚洲日韩欧美电影| 国产网友愉拍精品| 国产肉感大码AV无码| 好紧太爽了视频免费无码| 国产一二视频| 国产精品尤物在线| 久久精品无码一区二区国产区| 亚洲欧美色中文字幕| 亚洲一区二区三区中文字幕5566| 国产精品一区在线麻豆| 亚洲成在人线av品善网好看| 99久久精品视香蕉蕉| 中文成人在线视频| 麻豆国产原创视频在线播放| 日a本亚洲中文在线观看| 亚洲国产精品日韩av专区| 国产视频你懂得| 成人精品区| 四虎影院国产| 国产爽妇精品| 国产成人免费手机在线观看视频 | 亚洲福利视频网址| 亚洲va视频| 超清人妻系列无码专区| 波多野结衣爽到高潮漏水大喷| 免费看av在线网站网址| 毛片在线播放网址| 伊人久久综在合线亚洲91| 中文字幕av一区二区三区欲色| 亚洲中文字幕av无码区| 广东一级毛片| 在线国产毛片手机小视频| 国产成人无码播放| 色老二精品视频在线观看| 久久婷婷五月综合色一区二区| 91免费国产高清观看| 亚洲欧美在线综合一区二区三区| 成人免费一区二区三区| 亚洲欧美日韩动漫| 亚洲人成网站观看在线观看| 亚洲精品国产日韩无码AV永久免费网| 欧美日韩动态图| 91精品啪在线观看国产60岁| 国产99视频精品免费观看9e| 天天做天天爱天天爽综合区| 国产免费久久精品99re丫丫一| 污视频日本| 亚洲swag精品自拍一区| 亚洲天堂精品视频| 国产精品女主播| 亚洲精品不卡午夜精品| 成人免费视频一区二区三区| 最新亚洲av女人的天堂| 2020精品极品国产色在线观看| 麻豆精品视频在线原创| YW尤物AV无码国产在线观看| 国产精品亚洲va在线观看| 999国产精品永久免费视频精品久久| 欧美色综合网站| yy6080理论大片一级久久| 欧美在线观看不卡| 亚洲三级影院| 亚洲欧美自拍一区|