999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于YOLOv5的多類型場景口罩檢測方法與實現

2024-12-10 00:00:00韓銘偉胡斌王孟瑜李繼程子嘉
現代信息科技 2024年23期
關鍵詞:深度學習

摘" 要:針對口罩佩戴檢測中存在的面部交叉遮擋時檢測困難、光線明暗目標檢測精度低等問題,借助YOLOv5算法,提出了一種能夠實時檢測是否規范佩戴口罩的檢測技術,通過實驗驗證了該模型在無明顯遮擋,光照條件良好條件下,檢測準確率較高,驗證了方法的有效性,該方法可適用于動物是否佩戴口罩。通過實驗給出了口罩可檢測與人臉遮擋邊界、光強之間的關系。

關鍵詞:深度學習;YOLOv5算法;目標檢測;口罩檢測

中圖分類號:TP391.4" 文獻標識碼:A" 文章編號:2096-4706(2024)23-0122-06

Mask Detection Method and Implementation in Multi-type Scenarios Based on YOLOv5

HAN Mingwei, HU Bin, WANG Mengyu, LI Ji, CHENG Zijia

(Brunel London School North China University of Technology, Beijing" 100144, China)

Abstract: To address the problems existing in the mask-wearing detection that the detection is difficult with facial cross-occlusion and the object detection accuracy of bright and dark lights is poor, with the help of YOLOv5 algorithm, this paper proposes a detection technology that can detect whether the mask is worn with standardization in real time. Through experiments, it is verified that the model has a relatively high detection accuracy under the conditions of no obvious occlusion and good lighting, which verifies the effectiveness of the method. This method is also applicable for detecting whether animals are wearing masks. Through experiments, the relationships between mask detection and face occlusion boundaries and light intensity are given.

Keywords: Deep Learning; YOLOv5 algorithm; Object Detection; mask detection

0" 引" 言

伴隨氣溫多變,流感、支原體、呼吸道等病毒傳播嚴重危害人民生命安全。面對病毒傳播,最簡單有效的方法是正確佩戴口罩,檢測是否正確佩戴口罩已成為研究的熱點和重點。目前,口罩檢測主要是通過目標檢測方法實現的,它是在圖像中準確定位和識別口罩等目標,同時確定目標位置。目標檢測方法可以用于快速、準確地檢測口罩是否正確佩戴,利用深度學習方法對人臉進行口罩佩戴情況檢測,可以極大改善人工檢查成本高、效率低、主觀差異大等問題。針對傳統的口罩檢測識別任務,存在以下問題:首先,研究局限于檢測是否佩戴口罩,是否規范佩戴口罩研究較少;其次,目標檢測過程存在遮擋等情形,導致檢測是否佩戴口罩情況成為難點;最后,場景的光強大小嚴重影響目標檢測的準確率。為了解決上述問題,本文在YOLOv5算法基礎上進行改進,提出了一種可實時檢測是否規范佩戴口罩的口罩檢測技術,通過實驗確定了準確檢測口罩佩戴情況時的遮擋邊界及光強范圍。

深度學習目標檢測算法運用卷積神經網絡自動提取目標特征,發展歷程可以根據檢測過程的不同,分為兩階段(Two-Stage)算法和單階段(One-Stage)算法[1]。兩階段算法首先提取圖像中可能含有目標的候選區域,然后再候選區域內進行回歸,得到檢測結果。單階段算法直接通過回歸的方式獲取待測目標的具體位置和類別信息,輸入圖像后,檢測過程由一個網絡完成,直接輸出 bounding box 和分類標簽。

2012年,卷積神經網絡(Convolutional Neural Networks)在ImageNet分類任務上戰勝傳統視覺方法。2014年Girshick等人[2]提出R-CNN目標檢測網絡,即區域卷積神經網絡,在目標檢測領域第一次應用深度學習的算法并實現了質的飛躍,R-CNN(Regions with Convolutional Neural Networks)在VOC2007數據集的平均檢測精度(mAP)達到了58.5%,相較于傳統方法提高了近25%。然而,該方法的回歸過程顯著耗費時間和內存資源。5 000張圖像訓練需要長達84個小時,產生100 GB以上的特征文件。單張圖像的檢測過程耗時50秒。2015年,Girshick等人[3]改進了該方法,提出了Fast R-CNN目標檢測網絡,該網絡通過對網格結構進行優化及融合優點,實現了目標分類和候選框回歸的同步進行。訓練時間減少到9.5小時,mAP達到66.9%,檢測一張圖僅需0.3秒。

為解決目標檢測網絡頂層特征語義信息豐富但是位置信息缺失的問題,2017年Lin[4]等人提出了特征金字塔網絡(Feature Pyramid Network, FPN),FPN通過改變網絡連接的方式,在不同層次的特征圖上構建特征金字塔,采用了自頂向下和自底向上的特征融合機制。在小目標識別上,FPN直接將目標識別的召回率提高了13%,在大/中型物體上的召回率也提高了4%~5%。

2016年Joseph等人提出了YOLO算法,作為深度學習時代第一個正式的單階段目標檢測器,該方法完全拋棄了兩階段檢測中的“區域建議+回歸”模式,而是采用一階段的端到端處理。其最顯著的優點是檢測速度快,檢測速度可以達到45 frame/s,然而,該模型的檢測精度會稍有不足。2016年底,為了解決YOLOv1版本中召回率較低的問題,Redmon等人[5]提出了YOLOv2算法。采用了Darknet-19作為骨干網絡,引入批量歸一化層,簡化參數調整過程并產生了正則化效果。2018年,Redmon等人[6]提出的YOLOv3引入了殘差網絡模塊和更強大的Darknet53,采用類似于FPN特征融合策略以更好地適應不同尺度的目標,但YOLOv3在處理小尺寸、低對比度或密集目標時,可能存在檢測精度較低的問題。之后YOLOv4,YOLOv5不斷推出,性能不斷提高,特征提取和融合能力逐步提升,速度快且精度高,適用于實時檢測并可部署到移動端。

李雨陽[7]等人基于SSD(Single Shot MultiBox Detector)算法,利用特征金字塔網絡與協對算法的分類分數和IoU分數進行合并,在損失函數中引人QFL損失,解決了算法中正負樣本不平衡的問題,比原始SSD算法檢測速度降低了2.4 frame/s,平均檢測速率提高至28.9 frame/s,但對于佩戴口罩的實時性檢測效果略差。針對復雜密集場景下口罩佩戴檢測對于小目標檢測效果差的問題,李小波[8]等人提出了引入注意力機制融合多尺度特征的檢測算法,該研究在YOLOv5s模型的Backbone部分分別引入SE(Squeeze-and-Excitation module),CBAM(Convolu-tional Block Attention Module),CA(Coordinate Attention)和NAM(Normalization-based Attention Module)4種注意力機制,這些機制增強了模型對特征圖中關鍵信息的關注,有助于更好地表達特征信息,從而提升了網絡模型的mAP指標,但速度有所下降。隨著目標檢測的不斷發展以及各研究之間的互相啟發,口罩佩戴情況檢測的算法需求越來越高。

1" YOLOv5 架構

1.1" YOLOv5框圖

YOLOv5主要由Backbone、Neck和Head三部分組成,網絡模型如圖1所示[9]。其中Backbone 主要負責對輸入圖像進行特征提取。Neck負責對特征圖進行多尺度特征融合,并把特征傳遞給預測層。Head進行最終的回歸預測。

1.2" 性能指標定義

為了定量的分析檢測性能,定義TP是真陽性、FP是假陽性、FN是假陰性和TN是真陰性,引入以下性能指標[10]:

1)精確度,即查準率。衡量的是分類器正確判斷正類的比例,即評估預測的準不準,定義如下:

(1)

2)召回率,即查全率。分類器能否找出所有真正的正類的概率指標,即評估找得全不全,計算公式如下:

(2)

3)準確率。評估模型全局準確程度。計算公式如下:

(3)

4)F1值(F1-Score):綜合考慮精確度和召回率的指標,計算公式如下:

(4)

2" 實驗設計與分析

2.1" 數據集介紹

鑒于當前公開數據集關于口罩佩戴檢測的樣本相對匱乏,存在錯誤標注或遺漏的問題,且人臉與口罩區域的占比相對較大,降低了檢測的精度和模型泛化能力。為了更真實地檢測各種場景下的口罩佩戴情況,本文自建了一個口罩檢測數據集,包括從MAFA篩選的圖像和網絡搜索的補充圖像,共7 267張。

MAFA是一個遮擋人臉檢測數據集,由中國科學院葛等人于2017年開源發布。數據集總共包含30 811張圖像,35 806個遮擋人臉,呈現各種朝向和遮擋程度,且每張圖像中最少有一個人臉被遮擋。本文共篩選了6 000張口罩遮擋的圖像,同時網絡搜集圖像共計1 267張口罩圖像作為數據集補充,其中包括兒童佩戴口罩,多遮擋佩戴口罩等。

2.2" 數據集處理

2.2.1 圖片標注

對于數據中部分沒有標簽的和自行收集的數據,本文使用LabelImg工具對這部分圖片進行人工標注。每個標簽對應一個序號,序號0代表“佩戴口罩(masked)”,序號1代表“未佩戴口罩(unmasked)”,序號2代表“不規范佩戴口罩(nonstandard-masked)”。標注中將佩戴口罩時露出口、鼻或下巴視為不規范佩戴。在終端輸入labelImg相關命令打開標注界面,選擇要進行標注的文件,拖動鼠標手動創建圖片中人臉口罩佩戴的矩形區塊,輸入正確的分類標簽。按照VOC標注文件存放路徑保存至指定文件夾,標注信息為xml文件,標注過程中圖形界面如圖2所示。

2.2.2" 格式轉換

MAFA數據集是以Labelling格式進行類別標注,并以xml文件的形式存儲相應的標注信息。但在YOLO算法中,為了便于YOLO算法訓練時的輸入和處理及提高訓練時的調用效率,需要將xml格式的標簽文件轉換為更為簡單的YOLO格式的txt格式。本研究人工標注了2 094張圖片,數據集標注完成后,共有7 267張圖片,其中佩戴口罩目標數為3 516,未佩戴口罩目標為2 136。不規范佩戴口罩目標數為1 615。同時為了提升模型的訓練效果,本文采用8:1:1將整個數據集劃分訓練集、驗證集和測試集。

2.3" 評估模型指標

本文使用YOLOv5算法對7 267張圖片進行訓練150輪次,并繪制F1曲線和PR(Precision-Recall)曲線評估訓練出的模型性能好壞,F1分數是精確度和召回率的調和平均值,它提供了模型在正例和負例之間平衡的度量,綜合考慮了模型的準確性和全面性。如圖3所示,可觀察到“masked”“nonstandard-masked”“unmasked”等標簽的F1值較為顯著,同時曲線的整體趨勢更為平穩,表明模型對這些標簽的識別效果較為出色。

PR曲線是評估分類模型性能的一種常用工具,它以模型的精確度(Precision)和召回率(Recall)為坐標軸繪制出的曲線圖,曲線越靠近右上角,表示模型的性能越好,因為此時精確度和召回率都較高。如圖4所示,“masked”“nonstandard-masked”“unmasked”等標簽的識別效果較為顯著。然而,“nonstandard-masked”標簽的AP值較高,但其對應的PR曲線并不十分規范。這可能是由于某些類別的樣本可能過少,或者被分布在數據集的某些特定部分,或者對于某些類別,模型可能沒有捕捉到足夠的特征信息,導致出現偏差。

3" 口罩檢測實驗結果與分析

3.1" 無明顯遮擋,光照條件良好條件下口罩檢測

對于正常環境下,該模型能夠清楚地識別目標是否規范佩戴口罩,并給出相應的概率,識別結果如圖5所示。

從圖中可以明顯觀察到,YOLOv5模型在口罩佩戴情況的識別方面表現出卓越的準確性和可靠性。其識別能力不僅能夠準確判斷人們是否佩戴口罩,而且對于佩戴標準的判定也十分精準。實驗結果顯示,對于清晰的圖片和略有模糊的圖片,模型的識別概率高達0.70以上,凸顯了其在口罩檢測任務中的穩健性和可信度。此外,該模型在多人場景下也展現出優異的檢測能力,能夠有效地應對多類型場景。

3.2" 動物口罩佩戴檢測

本文將人類口罩檢測方法遷移到寵物口罩檢測。通過對寵物口罩佩戴情況的檢測,可以進一步加強對于寵物健康和安全的關注,針對寵物醫療機構或公共場所等特定,寵物口罩的佩戴可能具有重要意義。具體檢測結果如圖6所示。

可以看出,相較于識別人佩戴口罩,該模型識別動物的概率相對較低,左上圖檢測出0.66的概率該動物未佩戴口罩,右上圖檢測出有0.51的概率該動物佩戴了口罩,左下圖該動物不規范佩戴口罩的概率為0.29,而右下圖該動物佩戴口罩的概率為0.68,但其也能基本識別動物是否標準佩戴口罩,對于特定的動物口罩也有一定的識別能力。

3.3" 人臉部分遮擋情形下的口罩檢測

考慮到口罩佩戴存在人臉部分遮擋情況,重點研究確定遮擋邊界與口罩檢測關系上。本文使用白紙遮擋不同面積以及從不同角度的遮擋,以探索模型在遮擋邊界方面的表現,檢測結果如圖7所示。

右上圖當遮擋面積為頭像面積的60%時,檢測出佩戴口罩的概率為0.74,左下圖表示當遮擋面積為頭像面積的25%時,檢測出佩戴口罩的概率為0.72,而當右下圖遮擋面積為80%時,該模型無法檢測出是否佩戴口罩。研究結果顯示,遮擋邊界在頭像面積的80%以上時,模型將無法準確判斷是否佩戴口罩。

3.4" 多類型光照條件下的口罩檢測

為探究不同光線強度對該模型檢測準確性的影響,借助可變強度光源和光強測試軟件,在光強變化的開展口罩佩戴情況檢測,包括3類光照條件:弱光(0~50 Lux)、正常光(50~1 000 Lux)和強光(大于1 000 Lux),判斷模型檢測的光照邊界范圍,具體結果如圖8所示。

在光線由弱到強的過程中,當光強達到11 Lux時,屏幕中開始能夠檢測到佩戴口罩,如左上圖概率為0.3;當光強達到1 297 Lux時,能夠檢測到口罩佩戴情況,如右上圖;但當光強超過1 297 Lux時,該模型無法檢測到是否佩戴口罩,如左下圖;在光線由強到弱的過程中,當光強為62 Lux時,檢測到佩戴口罩的概率為0.53。因此,在小于弱光11 Lux和大于強光1 297 Lux情況下,該模型基本識別不出人是否佩戴口罩,而在11~1 297 Lux之間,該模型具有很好地識別口罩的能力。

4" 結" 論

針對口罩佩戴中存在的面部交叉遮擋時檢測困難、光線明暗目標檢測精度低等問題,借助YOLOv5算法開展了實時檢測口罩規范佩戴研究,提出了一種能夠實時檢測是否規范佩戴口罩的檢測技術,通過實驗驗證了該模型對于無明顯遮擋,光照條件良好條件下,檢測準確率高達0.70以上。對于動物是否佩戴口罩的情況有一定的檢測能力。確定了口罩可檢測與人臉遮擋邊界、光強之間的關系。通過實驗表明,當人臉遮擋面積小于80%時,該模型可檢測出口罩佩戴情況,當光照強度為11~1 297 Lux之間,該模型有很好的口罩識別能力。

參考文獻:

[1] 郭慶梅,劉寧波,王中訓,等.基于深度學習的目標檢測算法綜述 [J].探測與控制學報,2023,45(6):10-20+26.

[2] GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich Feature Hierarchies For Accurate Object Detection and Semantic Segmentation [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern recognition.Columbus:IEEE,2014:580-587.

[3] GIRSHICK R. Fast R-CNN [C]//Proceedings of the IEEE International Conference on Computer Vision.Santiago:IEEE,2015:1440-1448.

[4] LIN T Y,DOLLáR P,GIRSHICK R,et al. Feature Pyramid Networks for Object Detection [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Honolulu:lEEE,2017:2117-2125.

[5] REDMON J,FARHADI A. YOLO9000: Better, Faster, Stronger [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Honolulul:IEEE,2017:7263-7271.

[6] REDMON J,FARHADI A. YOLOv3: An Incremental Improvement [J/OL].arXiv:1804.02767 [cs.CV].(2018-04-08).https://doi.org/10.48550/arXiv.1804.02767.

[7] LI Y Y,SHEN J Q,ZHAI H X,et al. Mask Wearing Detection Algorithm Based on Improved SSD [J].Computer Engineering,2022,48(8):173-179.

[8] LI X B,LI Y G,GUO N,et al. Mask Detection Algorithm based on YOLOv5 Integrating Attention Mechanism [J].Journal of Graphics,2023,44(1):16-25.

[9] Ultralytics. YOLOv5 [EB/OL].[2024-03-20].https://github.com/ultralytics/yolov5.

[10] ZHANG D Y,LUO H S,WANG D Y,et al. Assessment of the Levels of Damage Caused by Fusarium Head Blight in Wheat Using an Improved YOLOV5 Method [J/OL]. Computers and Electronics in Agriculture,2022:107086(2022-06-09).https://doi.org/10.1016/j.compag.2022.107086.

作者簡介:韓銘偉(2003—),女,漢族,山東德州人,本科在讀,研究方向:大數據;胡斌(2003—),男,漢族,福建莆田人,本科在讀,研究方向:大數據;王孟瑜(2003—),女,漢族,北京人,本科在讀,研究方向:大數據;李繼(2003—),男,漢族,重慶人,本科在讀,研究方向:大數據;程子嘉(2003—),女,漢族,四川南充人,本科在讀,研究方向:大數據。

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數據遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
現代情報(2016年10期)2016-12-15 11:50:53
利用網絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 久久久久无码精品国产免费| 亚洲精品免费网站| 制服丝袜国产精品| 欧美怡红院视频一区二区三区| 久久久久青草大香线综合精品| 国产福利小视频高清在线观看| 日本午夜三级| 亚洲天堂视频网| 久久久四虎成人永久免费网站| 久久精品国产免费观看频道| 中文字幕在线播放不卡| 亚洲欧洲免费视频| 亚洲高清无码精品| 久久国产精品娇妻素人| 最新亚洲av女人的天堂| 国产成人综合日韩精品无码首页 | 91福利在线观看视频| 国产成人a在线观看视频| 亚洲人妖在线| 亚洲91在线精品| 国模粉嫩小泬视频在线观看| 国产成人h在线观看网站站| 欧美笫一页| 亚洲天堂在线免费| 秋霞国产在线| 色香蕉影院| 美女一区二区在线观看| 91精品伊人久久大香线蕉| 成人字幕网视频在线观看| 日韩精品成人网页视频在线| 亚洲区第一页| 欧美亚洲一二三区| 国产精品成人免费综合| 亚洲永久色| 亚洲视频免| 欧美 国产 人人视频| 99在线视频免费| 爆操波多野结衣| 欧美v在线| 色偷偷一区| 色偷偷综合网| 无码人中文字幕| 国产在线欧美| a免费毛片在线播放| 免费一级成人毛片| 五月天天天色| 国产 在线视频无码| 99久视频| 国产精品亚欧美一区二区三区| 成年人福利视频| 色噜噜久久| 久久一本精品久久久ー99| 777国产精品永久免费观看| 欧美精品导航| 国产无码网站在线观看| 国产亚洲精品自在久久不卡 | 久久这里只有精品免费| 色婷婷丁香| 四虎精品黑人视频| 婷婷激情亚洲| 国产精品欧美在线观看| 国产精品2| 国产小视频免费观看| 国产男女免费视频| 国产激情影院| 成人国产精品2021| 国产91av在线| 久久成人免费| 国产极品粉嫩小泬免费看| 爆操波多野结衣| 亚洲精品无码在线播放网站| h视频在线播放| 欧美日韩成人在线观看| 欧美不卡二区| 色哟哟精品无码网站在线播放视频| 九九九九热精品视频| 在线观看网站国产| 亚洲国产综合自在线另类| 欧美人人干| 亚洲成av人无码综合在线观看| 久热中文字幕在线观看| 四虎国产成人免费观看|