999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的人臉檢測算法研究

2022-02-24 03:38:00黃紹欣田秀云
機電工程技術 2022年1期
關鍵詞:關鍵點特征檢測

黃紹欣,田秀云

(廣東海洋大學電信學院,廣東湛江 524088)

0 引言

近年來,由于深度學習的興起,人臉分析技術得到了大幅度的研究。從一張圖片或者從一個視頻中提取人臉的位置坐標、姿態、年齡、情感、性別、表情等方面信息以應用于硬件設備上[1],硬件設備根據人臉的特征做出相應服務,從而提升硬件設備的智能化。隨著深度學習卷積神經網絡的興起,人臉檢測取得了顯著的突破,其優越的性能漸漸被應用到日常生活。

人臉檢測的研究主要有兩個方向,第一個方向是早期的基于手動提取特征的人臉檢測,Viola-Jones 提出的圖片Haar 特征提取算法[2](邊緣特征、線性特征、中心特征和對角線特征)開辟了人臉檢測新征程;第二個方向是基于卷積神經網絡的通用的人臉檢測算法,該算法是繼承于一些高性能的通用目標檢測算法,這些通用的目標檢測算法第一個方法是基于區域回歸的人臉檢測,基于區域回歸實現的目標檢測算法有Fast R-CNN[3]、FPN[4]。基于卷積神經網絡實現人臉檢測的另外一個方法是基于滑動窗口,基于此滑動窗口實現的目標檢測算法有YOLO[5]系列等,最近被提出的人臉檢測RetinaFace[6]算法即基于滑動窗口,利用額外監督和自監督結合的多任務學習,對不同尺寸的人臉進行像素級的定位,取得了比較好的結果。除此之后還有通過結合人臉五點關鍵點回歸的人臉檢測算法,例如MTCNN[7]通過回歸眼睛、鼻子和嘴巴五點關鍵點定位人臉,并且可以在同一個訓練任務中同時學習“識別人臉”、“邊界框回歸”、“人臉關鍵點識別”,經過實驗證實該多任務損失[6-7]措施可以有效提高算法的性能。

本文采取ResNet34[8]作為特征提取層,基于其有效提取低分辨率人臉特征信息的特點作為人臉檢測的主干網絡;利用特征金字塔結構,上采樣不同特征層下不同分辨率的人臉,有效提取不同分辨率下的人臉特征信息;之后利用Inception 結構[9]融合多尺度特征圖,進一步增加感受野區域獲取全局特征,使得檢測效果更精確。使用多任務損失函數同時對人臉分類、人臉邊界框、人臉關鍵點進行回歸。

1 卷積網絡結構

主干網絡如圖1 所示,采用ResNet34 和3 個特征金字塔網絡作為特征提取層主干結構,特征金字塔中的P2、P3、P4 層的輸入參數對應ResNet34 中的3 個被定義為C2、C3、C4 的殘差結構的輸出參數。P2、P3、P4 對殘差結構C2、C3、C4 分別采用上采用線性插值(nearest)和橫向鏈接C2、C3、C4層,使用1×1的卷積核合并P2~P4 和C2~C4 的數據使得模型能夠融合不同尺度特征圖的數據。C2、C3、C4分別是預訓練ResNet34的3個分類輸出層。為了使模型能夠學習尺度變化的人臉,與錨相關的卷積層輸出應該要對應于不同的感受野(receptive filed),因此采用學習不同感受野的Inception 模型增加全局特征。采用的Inception 包含4 個卷積層分支作為接收不同尺度,Inception 模型是連接在FPN 的輸出層中的,每個FPN 輸出的特征圖都對應連接一個Inception網絡。

圖1 主干網絡

對于負錨,只有二分類損失函數被應用;對于正錨,將會采用多任務損失函數計算。用于實現多任務損失函數的回歸層輸入特征圖的尺寸大小為Hn×Wn×256{n=1, 2, 3}。輸入網絡的圖片尺寸為840×840,經過FPN 層之后輸出的特征圖的尺度和輸入到Inception 的尺度分別為Xi×Xi×256{Xi=27, 53, 105}。經過Inception 之后的特征圖尺寸沒有改變,之后傳入到多任務損失層。多任務損失層將Inception 層輸入的特征圖進行合并,使得模型輸出的特征圖即人臉邊界框、分類、五點關鍵點輸出特征分別為[BatchSize,None,4],[BatchSize,None,2],[BatchSize,None,10]。

2 訓練過程

2.1 數據集

該訓練模型含有12 880 張圖片額外標注的WIDER FACE 訓練數據集[10],該數據集包含32 203 張圖片以及393 703 個人臉標注框。其中158 989 個標注人臉用于訓練,39 496 個標注人臉用于驗證。每一個子數據集都包含3 個級別的檢測難度:Easy、Medium、Hard。該數據集的制作者來自于香港大學,其中按照40%、10%、50%劃分數據集作為訓練、驗證、測試數據集。這些人臉在尺度、分辨率、姿態、光照、表情、遮擋方面都有很大的變化范圍。有研究人員將WIDER FACE 中的訓練數據集進行額外的人臉五點關鍵點標注。在本論文中,訓練的檢測器也是采用進行額外標注的訓練數據集,測試和驗證數據集保持不變。

2.2 訓練策略

2.2.1 數據增強

本論文中數據增強的方式有隨機裁剪、尺度轉換、鏡像翻轉、顏色增強[11]。

(1)隨機裁剪:隨機選擇5 種不同的比例因子對原始圖片進行裁剪,根據不同的比例因子(0.3, 0.45, 0.6,0.8,1.0)分別對圖片寬高中的短邊進行裁剪,并且裁剪后的圖片要全覆蓋原人臉邊界框。

(2)尺度轉換:通過隨機裁剪之后,將圖片的大小調整為840×840。

(3)鏡像翻轉:對原始圖片按照50%的概率進行鏡像翻轉。

(4)顏色增強:按照50%的概率對圖片的亮度、對比度、飽和度、色調進行失真增強。

2.2.2 多任務損失

通常人臉檢測訓練過程會包含人臉和非人臉分類以及人臉邊界框回歸,甚至還會在訓練過程增加其他的訓練任務。Zhu[12]訓練人臉檢測任務時還進行姿態檢測以及關鍵點定位的任務;有研究人員在訓練人臉檢測器時,對人臉和非人臉、邊界框回歸、人臉五點關鍵點同時回歸。這種多任務損失有助于提高人臉檢測的性能,因此也將這種訓練策略應用到本文中。

訓練人臉檢測器時結合人臉和非人臉、人臉邊界框回歸、人臉五點關鍵進行多任務損失:

人臉分類損失為Lcls(pi,pi*),人臉檢測中的分類損失是兩分類(人臉/非人臉)問題。分類損失函數Lcls使用交叉熵(softmax)分類損失具體如下:

式中:pi為第i個錨的人臉的概率,pi*=1 對于錨為正,pi*=0時則為負。

人臉邊框架損失為Lbox(ti,ti*),邊界框損失函數Lbox使用的是smooth-L1[4]函數如下:

人臉五點關鍵點損失為Lpts(li,li*),人臉五點關鍵點指的是左眼、右眼、鼻子、左邊嘴角、右邊嘴角具體如下:

(4)參數設置:為了平衡損失函數L,設置參數(r1,r2,r3)分別為(1,2,1),這樣有助于從低分辨率的特征圖中更好的回歸定位人臉。

2.2.3 難負例挖掘

難負例挖掘(Hard Negative Mining):經過錨匹配策略步驟之后,更多的錨容易來自于負樣本,即圖片中沒有目標卻在訓練的過程中分類器將其看成是正樣本,這會導致檢測準確率降低。為了提升錨的匹配準確率和加快優化速度,的損失值和選擇頂部的假陽性和陽性之間的比例低于3∶1,即負樣本數:正樣本數大約為3∶1用于訓練,以使訓練過程中有效降低假陽性的檢測。故稱這種選擇策略為難負例挖掘[11]。

2.2.4 匹配策略

在訓練的過程中,想要錨能夠真實的人臉邊界框能夠對應上,因此為了能夠使得錨更好的匹配人臉,因此需要每個錨的候選框與真實的人臉邊界框交并比(Jaccard overlap)大于0.35。

式中:A為真實的人臉邊界框;B為訓練中特征圖的候選框。

2.2.5 其他策略

使用Pytorch 深度學習框架訓練模型,使用SGD optimiser 優化器(momentum = 0.9,weigh decay = 0.000 5,batchsize=12,gamma=0.1)于單顯卡Tesla K80(12GB)GPU 優化模型,初始化學習率設置為0.001,訓練85 個epoch之后學習率降為0.000 1,訓練95個epoch之后學習率降為0.000 01,一共訓練100個epoch。

2.3 模型訓練

通過多任務損失進行訓練的,訓練100 次的邊界框損失、分類損失和人臉五點關鍵點損失及總損失loss 分別如圖2~5所示。通過訓練的損失來看,模型的參數還可以通過增加訓練周期進行降低損失函數。邊界框損失的權重是其他損失權重的2 倍,因此在優化的過程中,收斂相對比其他的損失函數要好一些。從損失函數圖像上分析,分類損失的值較大,這說明在搭建模型的過程中正負樣本并沒有處理好,即難例挖掘處理不好,在分類過程中可能含有人臉的樣本被判定為無人臉,于是檢測器無法檢測有人臉的困難樣本,導致在Hard 數據集上的平均準確率低。

圖2 人臉邊界框回歸訓練損失

圖3 人臉分類訓練損失

圖4 人臉五點關鍵點訓練損失

圖5 多任務訓練訓練損失

3 性能測試

通過WIDER FACE 數據集劃分的3 種不同檢測難度的數據集驗證模型的性能,分別是Easy、Medium和Hard數據集。采用NMS[11]去篩選置信度比較高的邊界框,在設置IOU 閾值為0.5 時,在Easy、Medium 和Hard 的驗證AP(準確率)分別為93.79%、91.92%、55.75%,如表1所示。在人臉密集、遮擋嚴重、背景復雜的場景下檢測的效果并不是很理想,而在人臉稀疏的情況下取得較好的結果。

表1 測試結果

4 結束語

本文研究了人臉檢測的不同實現方法,提出改進的卷積神經網絡結構。實驗證明以ResNet34 網絡作為特征提取層,通過FPN 融合上下文分辨率信息以及Inception網絡融合多尺度。為了驗證模型的實際應用效果,分別使用不同尺度、不同分辨率、不同背景下的圖片進行測試。從檢測效果來看,該模型不僅可以準確檢測在戶外場景下稀疏的人臉,還可以檢測遮擋、分辨率低的人臉。該模型在顯卡型號NVIDIA GeForce 920MX,CPU 型號Intel(R) Core(TM) i5-7200U CPU@ 2.50GHz (4 CPUs)~2.7 GHz測試執行效率,測試結果顯示在筆記本電腦攝像頭拍攝VGA圖片上(640×480)的每秒傳輸幀數為2.80。

猜你喜歡
關鍵點特征檢測
聚焦金屬關鍵點
肉兔育肥抓好七個關鍵點
今日農業(2021年8期)2021-11-28 05:07:50
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應用
醫聯體要把握三個關鍵點
中國衛生(2014年2期)2014-11-12 13:00:16
主站蜘蛛池模板: 制服丝袜一区二区三区在线| 波多野衣结在线精品二区| www.国产福利| 亚洲无码高清一区二区| 亚洲欧美日韩色图| 一级毛片在线播放免费观看| 国产一级视频久久| 男人天堂亚洲天堂| 2019年国产精品自拍不卡| 亚洲AV无码乱码在线观看代蜜桃 | 日韩一级二级三级| 国产91精选在线观看| 91视频区| 无遮挡国产高潮视频免费观看| 国产尤物jk自慰制服喷水| 免费在线成人网| 亚洲最大在线观看| 中日韩一区二区三区中文免费视频| 免费一看一级毛片| 毛片免费试看| 波多野结衣无码中文字幕在线观看一区二区| 久久久久青草大香线综合精品| 亚洲欧美日韩视频一区| 久久99精品久久久久久不卡| 亚洲综合天堂网| 午夜福利免费视频| 91免费观看视频| 91视频99| 久久精品丝袜| 色丁丁毛片在线观看| 人人91人人澡人人妻人人爽| 九色综合伊人久久富二代| 亚洲中文精品人人永久免费| 女人毛片a级大学毛片免费| 国产精品久线在线观看| 91小视频版在线观看www| 美女毛片在线| 国产主播一区二区三区| 亚洲天堂在线免费| 99视频全部免费| 久久成人免费| 青青青视频免费一区二区| 国产毛片高清一级国语 | 午夜激情婷婷| 人妻熟妇日韩AV在线播放| 国产青榴视频| 国产精品短篇二区| 精品国产免费观看一区| 久久黄色免费电影| www.日韩三级| 欧美中文字幕第一页线路一| 欧美自拍另类欧美综合图区| 欧美在线视频a| 午夜啪啪福利| 在线观看欧美国产| 欧美一级黄色影院| 亚洲美女操| 亚洲人成网址| 久久一色本道亚洲| 国产无套粉嫩白浆| 国产精品亚洲一区二区三区z| 亚洲国产欧美国产综合久久| 一级毛片中文字幕| hezyo加勒比一区二区三区| 久久中文字幕av不卡一区二区| 久久窝窝国产精品午夜看片| 精品国产三级在线观看| 最新无码专区超级碰碰碰| 精品91视频| 国产成人综合久久精品下载| 精品無碼一區在線觀看 | 国产高清在线丝袜精品一区| 91亚洲精品第一| 中文字幕一区二区视频| 国产欧美高清| 欧美自慰一级看片免费| 四虎免费视频网站| 亚洲综合九九| 国产网站免费观看| 最近最新中文字幕在线第一页| 日本成人在线不卡视频| 在线免费不卡视频|