999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv5模型的復雜場景口罩佩戴識別*

2022-04-19 05:57:06李捍東
微處理機 2022年2期
關鍵詞:檢測模型

何 義,李捍東

(貴州大學電氣工程學院,貴陽 550025)

1 引言

新冠肺炎病毒讓我們的生活處于混亂之中,它可以通過唾液、飛沫傳播,而且感染力極強。佩戴口罩是我們能夠有效防止病毒傳播和擴散最有效的策略。盡管目前我國疫情控制情況較好,科學家也給出了明確的提示:病毒短期不會消失。今后一段時間的生活中,口罩都將是我們每日的必備品,而公共場所目前對檢查口罩是否佩戴采用的依然是人工管理。除疫情外,在工業制造和生產過程中,對于不可避免產生的揚塵、沙土,佩戴具有顆粒物防護功能的口罩也一項極關鍵的保護措施。

目前基于深度神經網絡的目標檢測算法有RCNN、SSD以及YOLO系列等[1],這些模型都可以通過學習完成目標檢測。在檢測效果上,YOLO的速度要優于其他算法,這是由于YOLO模型在結構有其獨特的優勢。隨著深度學習在科研界蓬勃發展,它也漸漸得到了工業界的青睞,但仍需要解決實時性難點問題。若目標檢測達不到實時性的檢測速度,在工業中就很難得到大范圍的應用。因此輕量化的深度神經網絡新技術不斷出現。Redomon在2016年初首次提出了YOLO模型,將YOLO算法運用到目標物體的識別和檢測上,在對圖像的特征提取中實現了較高的準確率[2]。至今YOLO算法一直還在發展中,目前最新為第5版。與R-CNN相比較,采用這種模型實現了端到端的檢測,在速率和準確率方面都有所改善。

2 整體設計

本設計實現的口罩檢測與識別系統,主要是通過對攝像頭捕獲的視頻流進行處理,對捕獲到的每一幀圖像檢測人臉區域后進行口罩檢測和人臉識別操作,口罩檢測部分主要檢測對象佩戴口罩的狀況。主要步驟包括:數據預處理、數據集構建、模型構建、訓練模型、數據識別。

在數據預處理階段,對于攝像頭采集到的數據,做進一步的預處理,主要包括二值化、圖片背景降噪、歸一化、銳化等等。在此主要采用開源OpenCV庫的接口函數對圖片進行預處理[3]。

對于訓練模型,需要輸入一定數量的圖片,包括戴口罩和不戴口罩的,讓機器能夠學習,因此需要構建數據集。對在網上爬取的數據集還需要做進一步的處理,包括數據標注和數據增強等,最后得到可訓練處較為準確的模型。

研究采用YOLOv5分類檢測模型,根據數據集對原始YOLOv5模型中的anchor參數等進行相應的調整,讓訓練出的結果準確性和速率更高。

為實現數據識別,設計采用Qt封裝一些列接口,制作出操作方便的UI界面,可以實時獲取攝像頭的人臉數據以及圖片數據。按上述思路得到主要操作流程圖如圖1所示。

圖1 整體架構流程圖

3 改進的YOLOv5系統

3.1 數據增強

所謂數據增強技術就是擴大該實驗的數據集合。對于原始的數據集,不可能將對于目標場景中所有的圖片采集完全,所以需要對原始的數據集進行擴充,讓訓練的模型可以適應各種復雜環境的圖像。在YOLOv4中就采用了數據增強的方法。

本設計將數據增強的方法大體分為兩類:一類是針對一張圖片的處理方法,主要包括圖像遮擋的方法;另外一類是對于多個圖片的組合的方法,其主要包括cutmix和MOsaci[4]等。各方法具體實現的操作實質如表1概述。

表1 各圖像增強方法技術實質

YOLOv5繼承了v4的數據增強方法,并通過引入數據加載器,增強訓練數據。數據加載器主要包含三種數據增強方法:圖片比例縮放、色彩空間調整和馬賽克增強。

3.2 自適應錨定框

YOLOv5采用自適應錨定框,由于數據集中的圖片大小尺寸不一,對于目標檢測算法的模型大部分都需要手動調整輸入圖片的目標框大小。在訓練模型中使用的數據集目標框的大小可能也會與實驗實際測試輸入的目標框大小存在較大差異。因此,YOLOv5會對錨定框的尺寸自動學習[5]。

3.3 Backbone跨階段局部網絡

YOLOv5和v4對于v3的Darknet53進行了改進,將骨干網絡改為CSPDarknet[6]。在傳統的目標檢測網絡框架中卷積神經網絡都存在梯度信息多余重復的問題,而CSP結構從一開始到結束都將梯度信息結合到特征圖中,不但能夠提取大量的圖像特征,而且大大減少了網絡模型中需要引入的參數數量,將網絡結構的復雜度控制到最低,對于模型訓練的準確度和訓練速度都有相應的提升[7]。

3.4 Neck路徑聚合網絡

此部分主要用于生成金字塔結構。對于不同比例不同尺寸的同一個圖片輸入,使用特征金字塔結構會增加識別的準確率。FPN在特征聚合領域被廣泛使用,但路徑聚合網絡出現之后,改變了以往的局面,YOLOv5和v4都使用PANET來聚合圖像特征。PANET是在原始的FPN框架上改進而來,網絡的特征提取器采用了新的結構,該結構增強了自下而上的路徑,加強了網絡特征融合的能力,改善了微小特征提取的能力。

3.5 激活函數、優化函數和損失函數

在YOLOv5模型中,有兩種激活函數的使用,隱含層在批量歸一化處理后加入了Leaky ReLU激活函數,并在檢測階段使用了Sigmoid式的激活函數。

對于優化函數,在YOLOv4僅僅使用了SGD函數,而YOLOv5則在YOLOv4基礎上增加了一種函數對模型優化,即Adam,它提前預設了模型訓練所需要的超參數。當需要訓練的模型的數據集較小時,選擇Adam會更優,但若要訓練大型數據集,SGD學習效果會比Adam合適。

早期的YOLO模型的損失度是通過客觀評分、類別概率評分和邊界框回歸評分來評價的[8],使用GIOU指標作為邊界框的損失。YOLOv5整體網絡結構如圖2所示。

圖2 YOLOv5網絡結構圖

4 實驗與分析

4.1 制作數據集

配置好實驗環境之后,需要制作合適的數據集。在本次實驗中,從網絡上收集1600張口罩佩戴相關的圖片,使用其制作訓練所需要的數據集,數據集主要劃分為兩類:mask和nomask,分別表示已經佩戴口罩和沒有佩戴口罩。實驗步驟如下:

1)制作圖像的.xml文件。使用LabelImg軟件對圖片進行手動標注,使用矩形框對目標區域標注lable,各圖片和生成的xml文件是一一對應的。

2)將.xml文件轉換成.txt文件。經過圖片標注后,還需要進一步對所有圖片進行分類。先將所有的圖片數據集分為驗證集、測試集和訓練集。實驗中總共使用1600張圖片,其中訓練集包含1200張,測試集包含400張。運行gen_mask_nomask后生成TXT文件。

3)保存訓練,驗證測試集TXT文件。經過上一步操作,完成了訓練集的劃分,三個數據集的TXT文件中每一行都保存著對應的圖片的信息,第一列為0或者1,其中0代表沒有戴口罩,而1代表已經佩戴口罩,其后的參數還包括代表目標框中心點的坐標以及圖片的坐標。

4.2 YOLOv5網絡訓練

在網絡模型訓練階段,迭代批量設置大小為16;衰減系數為0.0005;總迭代次數為50次;初始學習率設置為0.01;當迭代次數分別達到40次和45次時,將學習率分別降低至0.0001和0.00001。大約在45次迭代后,模型收斂。平均精度均值(mAP)、召回率(recall)、損失函數(giou_loss)和查準率(precision)各參數的實驗情況如圖3所示。從圖中各自曲線可以看出,平均精度均值(即所有類別的平均精度總和與數據集中所有類的平均精度的平均值的比值)在模型迭代到35次時,將接近于0.9。

圖3 各參數實驗曲線圖

召回率是樣本中的正確類別被預測正確的概率,如下式:

其中TP表示將正確類預測為正的類別數;FN表示將正確類別預測為負的類別數。在模型迭代到35次時,數值接近于0.9。

采用giou_loss作為損失函數,如下式所示:

AC表示預測框最小區域面積,U表示真實框面積。在模型迭代到50次時,損失函數保持穩定,數值在0.01左右。

查準率,即預測數據集中預測正確正樣本總數與實際正樣本總數之比,式為:

FP表示將負類別預測為正確類別數。在模型迭代到30次時,數值大約為0.9。

4.3 結果分析

經過上述模型的訓練,將待檢測數據集中的圖片輸入到模型中。通過在PyCharm編譯環境下配置PyQt,利用Qt制作設計所需要的UI圖像界面。對于圖片檢測和視頻檢測,以及攝像頭實時人臉口罩佩戴檢測都能夠較好的完成。在輸出的結果中以mask字樣標識出佩戴口罩,nomask表示未佩戴口罩。簡單場景的單人物口罩佩戴檢測效果如圖4所示。

圖4 單人物口罩佩戴檢測效果

佩戴口罩是指從鼻子到嘴巴下面的范圍,包括鼻子。數據集采用的是完整的佩戴口罩的情況,只有完整的佩戴識別后才被判斷為已佩戴。

對于背景中含有多個人物的情況,同樣也能夠很好完成檢測,即在多目標檢測中沒有出現漏檢的情況。多人物口罩佩戴檢測效果如圖5所示。

圖5 多人物口罩佩戴檢測效果

在測試環境中采用準確率Accuracy來判斷模型的優劣,它等于正確檢測樣本的數目與總測試樣本的數目之比,式為:

NT表示準確率等于正確檢測樣本的數目,FN表示準確率不等于正確檢測樣本的數目。

設計出的YOLOv5算法實時檢測方法,在實驗用中速度達到130 f/s,準確率90%左右,相比于參考文獻中的其他算法的實現,在召回率和檢測速度以及檢測精度上,都能獲得較好的檢測結果,同時對于機器的性能要求較低,計算量較小,能夠滿足實時檢測的需求。實時檢測效果如圖6所示。多人場景中口罩識別系統最多可以識別20個人的佩戴情況,這能表明YOLOv5算法在口罩佩戴檢測方面的優越性。

圖6 實時檢測效果

4.4 算法比較

為進一步證明這一優越性,總結其他常見目標檢測算法與本改進算法進行相關比較。采用控制變量方法,僅僅使用不同的算法來驗證本算法的科學性和有效性,比較結果如表2所示。

表2 各算法對比

實驗結果證明,所提出的復雜環境下的實時口罩佩戴檢測算法在準確率和幀速方面都明顯優于其他幾種常見算法,進一步驗證了本方法的優越性。

5 結束語

本口罩佩戴檢測與識別系統能夠滿足離線脫機狀況下的日常工作?,F實環境復雜多變,依舊存在一部分問題有待解決,比如復雜背景下由于障礙物的影響,會對人臉檢測識別不太理想,諸如此類。同時,本系統最初設想中還包括額外配備語音插件及外設實現語音報警的功能,以及實現基于熱成像的非接觸體溫測量方式,由于條件所限暫時未實現,留待后續研究在多種場景下的不斷實踐來加以改進。

猜你喜歡
檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 欧美一级色视频| 97色婷婷成人综合在线观看| 国产精品第| 99视频精品在线观看| 亚洲精品天堂在线观看| 国产正在播放| 国产精品漂亮美女在线观看| 国产成人AV综合久久| 中文字幕亚洲第一| 成人看片欧美一区二区| 欧美区一区二区三| 亚洲第一视频免费在线| 亚洲欧美极品| 国产制服丝袜91在线| 亚洲高清日韩heyzo| 亚瑟天堂久久一区二区影院| 日本免费a视频| 成年片色大黄全免费网站久久| 男女猛烈无遮挡午夜视频| 97视频精品全国在线观看| 免费无码网站| 国产va在线观看免费| 成年人久久黄色网站| 暴力调教一区二区三区| 国产精品第页| 国产亚洲精品97AA片在线播放| 欧美精品xx| 日韩小视频在线观看| 国产日韩欧美一区二区三区在线| 亚洲精品手机在线| 国产乱子伦精品视频| 欧美一级专区免费大片| 91精品视频播放| 91免费国产在线观看尤物| 香蕉久久国产精品免| 婷婷色狠狠干| 中文字幕无码电影| 在线亚洲精品自拍| AV不卡无码免费一区二区三区| 亚洲91精品视频| 三上悠亚在线精品二区| 亚洲精品无码久久久久苍井空| 成人在线亚洲| 国产小视频a在线观看| 欧美区一区二区三| yjizz国产在线视频网| 国产手机在线观看| 国产精品视频猛进猛出| 亚洲欧美精品一中文字幕| 亚洲中文字幕国产av| a毛片在线播放| 久久99国产综合精品1| 久久无码高潮喷水| 青青草原国产| 亚洲AⅤ永久无码精品毛片| 亚洲一区国色天香| 国产一级在线播放| 国产一级裸网站| 国产精品美人久久久久久AV| 2019年国产精品自拍不卡| 国产中文一区a级毛片视频| 一级福利视频| 国产亚洲视频在线观看| 欧美性久久久久| 国产96在线 | 蜜臀av性久久久久蜜臀aⅴ麻豆 | 久久国产V一级毛多内射| AV天堂资源福利在线观看| 日韩性网站| 亚洲一区二区黄色| 亚洲国产精品人久久电影| 国语少妇高潮| 久久综合色88| 一区二区三区国产精品视频| 亚洲三级影院| 精品国产自| 亚州AV秘 一区二区三区| 免费福利视频网站| 夜夜拍夜夜爽| 在线欧美一区| 成人免费一级片| 九色视频一区|