999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進SwinTransformer的人臉活體檢測

2025-06-26 00:00:00王旭光卜辰宇時澤宇
中國測試 2025年6期
關(guān)鍵詞:特征檢測信息

中圖分類號:TB9;TP391.4 文獻標(biāo)志碼:A 文章編號:1674-5124(2025)06-0031-09

Face anti-spoofing based on improved Swin Transformer

WANG Xuguang12,BU Chenyu12, SHI Zeyu1.2

(1.Departmentof Automation,North China Electric Power University,Baoding 07103,China; 2.Hebei Technology Innovation Centerof Simulation amp; Optimized Control for Power Generation,North China Electric Power University, Baoding , China)

Abstract: With the development of facial recognition technology, face anti-spoofing as the security guarantee of facial recognition system becomes more and more important. However, the majority of existing face antispoofing models tend to concentrate on specific detection scenarios and atack methods,and have limited robustness and generalization capabilities when they face unknown atacks.For this reason, this paper proposes an improved Swin Transformer model, called CDCSwin-T(Central diference convolution Swin Transformer). This model chooses Swin Transformer as the backbone to extract global facial information by using its shifted window atention.And it introduces the central difference convolution (CDC) module to extract local facial information. These enhance the model's ability to capture the diference between real and fake faces in this paper,thereby strengthening its robustness against unknown attacks; Additionally,the bottleneck attention module is introduced in the backbone model to guide the model to focus on the key information of faces and accelerate the training process.Finaly,the multi-scale information from different stages of the backbone model is fused byan adaptive fusion module,which improves the generalizability of the model proposed in this paper. The CDCSwin-T model achieves average classification error rates (ACER) of 0.2% , 1.1%. (1.1±0.6)% , and (2.8±1.4)% on the four protocols of the OULU-NPU dataset and the Half Total Error Rate (HTER) of 14.1% and 22.9% in cross-database evaluations on the CASIA-MFSD and REPLAY-ATTACK dataset, which both surpass the current mainstream models. It shows that its robustness and generalization capability when it face unknown attacks have been improved.

Keywords: face anti-spoofing; Swin Transformer; bottleneck atention module; feature fusion

0 引言

近年來,人臉識別系統(tǒng)性能不斷提升,其應(yīng)用范圍也逐漸擴大,例如人臉門禁、人臉支付、考勤打卡、登機安檢等場景,但其帶來便利的同時也造成了一些問題。由于人臉圖像極易被獲取,非法用戶可通過偽造人臉來欺騙人臉識別系統(tǒng)。常見的欺詐攻擊為打印攻擊和重放攻擊,打印攻擊即將人臉照片打印出來并欺騙人臉識別系統(tǒng);重放攻擊即采用電子屏幕重放人臉照片來欺騙人臉識別系統(tǒng)。由于人臉欺詐技術(shù)逐漸豐富,欺詐攻擊質(zhì)量不斷增強,對人臉識別系統(tǒng)造成一定的威脅,給個人財產(chǎn)安全造成了極大的隱患,給公共安全管理帶來了較大的挑戰(zhàn)。因此人臉活體檢測任務(wù)(又稱人臉防偽)應(yīng)運而生,如何建立可靠的人臉活體檢測模型逐漸成為了研究熱點。

面對人臉識別系統(tǒng),欺詐攻擊圖像和真實人臉圖像存在一定的差別。真實人臉圖像具備豐富的紋理細節(jié),如局部皮膚紋理、五官紋理、面部光照差異等,而偽造圖像無法復(fù)現(xiàn)部分細節(jié),例如打印攻擊圖像無法復(fù)現(xiàn)真實人臉的光照差異、重放攻擊圖像丟失了人臉局部紋理細節(jié)并存在大量摩爾紋。上述偽造圖像的特點也成為了人臉活體檢測模型的重要檢測依據(jù)。目前主流的人臉活體檢測模型分為兩類,即基于手工特征提取的模型和基于深度學(xué)習(xí)的模型。基于手工特征提取的模型,依據(jù)真假人臉圖像的顏色、紋理、材質(zhì)、圖像質(zhì)量、運動變化等差異手動設(shè)計特征算子。但隨著欺詐人臉圖像質(zhì)量逐漸提升,特征算子的提取性能明顯不足,造成此類人臉活體檢測模型性能下降。YANGJ等[1]認為基于手工特征提取的模型無法提取真實人臉與欺詐人臉之間的決定性判別因素,并于2014年首次將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于人臉活體檢測領(lǐng)域,從此人臉活體檢測進人新的發(fā)展階段。YUZ等[2]在2020年提出了基于中心差分卷積的檢測模型,該模型將普通卷積修改為中心差分卷積,提取欺詐攻擊內(nèi)在特征,降低環(huán)境對模型干擾。

隨著人臉欺詐攻擊種類的不斷增加,卷積神經(jīng)網(wǎng)絡(luò)模型也暴露了一些問題。由于卷積神經(jīng)網(wǎng)絡(luò)模型在提取人臉全局信息方面存在局限性,導(dǎo)致該類人臉活體檢測模型性能下降。因此,研究員將自光聚焦在具有全局信息提取能力的Transformer模型上。GEORGEA等[3]于2020年首次將具有自注意力機制的VisionTransformer(ViT)模型引人人臉活體檢測領(lǐng)域。ViT模型將圖像分割成小塊作為輸入,其自注意力機制可以關(guān)注到人臉圖像各個位置,有效地提取了人臉的全局信息。QIAOT等于2022年提出將Transformer模型的自注意力機制線性映射修改為卷積操作,減少了運算量和計算成本,同時提高了模型性能。

然而,面對未知的欺詐攻擊,當(dāng)前的人臉活體檢測模型存在兩點不足:1)當(dāng)欺詐攻擊的場景和方式發(fā)生變化時,人臉活體檢測模型提取的欺詐人臉細粒度信息會隨之發(fā)生改變,使得模型無法捕捉真假人臉的差異,導(dǎo)致人臉活體檢測模型檢測性能下降。2)人臉活體檢測模型對淺層人臉特征圖語義特征描述能力較差,對深層特征圖細節(jié)感知不足,造成人臉細節(jié)信息丟失,導(dǎo)致其泛化能力較差。

為解決這些問題,本文提出了一種基于CDCSwin-T的人臉活體檢測模型,主要貢獻如下:1)本文模型采用SwinTransformer模型作為主干,利用其滑動窗口注意力機制提取人臉全局信息,同時引入中心差分卷積模塊,提取人臉局部信息,并將提取的人臉全局信息與局部信息充分結(jié)合。面對未知欺詐攻擊時,本文模型仍可以捕獲真假人臉的差異,提高了其面對未知攻擊的魯棒性。2)引入瓶頸注意力模塊[5],引導(dǎo)模型關(guān)注人臉的關(guān)鍵信息,增強模型對人臉特征的提取能力。3)引入自適應(yīng)特征融合模塊,將模型提取的淺層細節(jié)信息和深層語義信息自適應(yīng)融合,減少細節(jié)信息丟失,提高了模型的泛化能力。

1Swin Transformer模型

對于人臉活體檢測任務(wù),Transformer模型采用逐像素計算的方法,導(dǎo)致訓(xùn)練過程中模型計算負荷較大。為解決該問題,本文選用具有分層結(jié)構(gòu)和滑動窗口注意力機制的SwinTransformer為主干模型,其結(jié)構(gòu)如圖1所示。首先,圖像分割模塊(patchpartition)將大小為 (H,W) 的RGB人臉圖像進行分塊操作,得到大小為(4,4)的圖像塊,并在通道方向展平為48;其次,線性嵌入模塊(linearembedding)對圖像的像素通道進行線性變換,將特征圖通道數(shù)從48映射為 c ;隨后將大小為 (H/4,W/4) 、通道數(shù)為 c 的特征圖輸入SwinTransformer模塊。

圖1SwinTransformer模型的結(jié)構(gòu)

SwinTransformer模塊如圖2(a)所示,包含窗口多頭自注意力層(W-MSA)、滑動窗口多頭自注意力層(SW-MSA)、標(biāo)準(zhǔn)化層(LN)和多層感知機(MLP)四部分。其中窗口多頭自注意力層將特征圖分割成大小為 N×N 的不重疊窗口,如圖2(b)所示,并在每個窗口中執(zhí)行注意力計算,但不同的窗口信息無法進行跨窗交流,為此引入滑動窗口多頭自注意力層。滑動窗口多頭自注意力層通過將常規(guī)窗口循環(huán)上移和左移 (N/2,N/2) 距離,實現(xiàn)不同窗口的信息交互,從而保持全局信息,具體操作如圖2(c)和(d)所示,滑動窗口分割后得到的初始圖像塊進行移位拼接,得到最終的實際窗口分割方式,例如圖2(c)、(d)中的SW-MSA窗口數(shù)從9減少為4,以此來減少計算量。

圖2SwinTransformer模塊與窗口分割示例

面對未知場景的人臉攻擊,SwinTransformer模型可以有效地提取人臉全局信息,相比于傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)方法具有一定的優(yōu)勢,但因其無法捕捉真假人臉的局部差異,導(dǎo)致其檢測精度與魯棒性不能達到最先進水平,具體驗證可見后續(xù)消融實驗。

2 改進的SwinTransformer模型

為提高模型面對未知攻擊的魯棒性,本文提出一種改進的SwinTransformer人臉活體檢測模型,即CDCSwin-T模型,其具體結(jié)構(gòu)如圖3所示。該模型將SwinTransformer提取的人臉全局信息和中心差分卷積模塊提取的人臉局部信息相融合,更好地捕獲真假人臉的差異,提高其面對未知攻擊的魯棒性;同時引入瓶頸注意力模塊引導(dǎo)模型關(guān)注人臉關(guān)鍵信息,加速模型訓(xùn)練;最后引入自適應(yīng)特征融合模塊,將模型不同尺度信息融合,提高模型泛化能力。

圖3CDCSwin-T模型的結(jié)構(gòu)

2.1中心差分卷積模塊

為了加強SwinTransformer模型對人臉局部細微紋理信息的提取能力,本文引入中心差分卷積模塊,將其加入到每個SwinTransformer模塊前。相比于普通卷積,中心差分算子可以利用人臉圖像的梯度信息,有效地提取真假人臉的差異。如圖4所示,該算子的采樣操作與普通卷積一致,但聚合階段更側(cè)重于采樣值的中心向梯度,具體公式如下:

式中: ?x,y (204號 中心差分卷積的輸入與輸出特征圖;p0 輸入特征圖的當(dāng)前位置;pn 中心區(qū)域 R 中的位置;ω 卷積核;θ? 超參數(shù)。

圖4中心差分算子

對于整個中心差分卷積模塊,其結(jié)構(gòu)如圖5所示,由于SwinTransformer模型中輸人的數(shù)據(jù)維度與卷積神經(jīng)網(wǎng)絡(luò)中的不同,因此將輸入中心差分卷積模塊的數(shù)據(jù)維度從 (B,H×W,C) 變換為 (B,C,H,W) :隨后將得到數(shù)據(jù)輸入 1×1 的卷積層,使通道數(shù)減少為 C/4 ,再通過 3×3 的中心差分卷積提取局部特征;最后經(jīng)過 1×1 的卷積層恢復(fù)其維度;同時加人殘差連接防止模型退化,并且在每個卷積層后加入歸一化層和ReLU激活函數(shù)以提高模型的穩(wěn)定性。

圖5中心差分卷積模塊

2.2 瓶頸注意力模塊

為減少人臉圖像冗余特征的干擾,本文引入空間-通道混合的瓶頸注意力模塊,引導(dǎo)模型關(guān)注人臉的關(guān)鍵特征,提高模型的運算速度。如圖6所示,瓶頸注意力模塊由通道注意力機制 MC(?) 和空間注意力機制 MS(?) 并行組成。輸入特征圖 F∈RC/r×H×W 經(jīng)過瓶頸注意力機制產(chǎn)生對應(yīng)的三維特征響應(yīng)M(F)∈RC×H×W ,并與原輸入逐元素相乘后再相加,得到輸出特征圖 F ,具體公式如下:

F=F+F?M(F)

圖6瓶頸注意力模塊

其中 M(F) 由 MC(?) 和 MS(?) 相加后通過Swish非線性激函數(shù)得到,具體公式如下:

M(F)=σ(MC(F)+MS(F))

下面將分別介紹通道注意力分支和空間注意力分支:

1)通道注意力分支:該分支旨在減少與真假人臉辨識無關(guān)的雜散信號,增強關(guān)鍵通道的權(quán)重。輸人特征圖 F∈RC/r×H×W 首先進行全局平均池化,再通過帶隱藏層的多層感知機(MLP)來估計各個通道的注意力權(quán)值,其中,隱藏層的神經(jīng)元尺寸設(shè)為RC/r×H×W , r 代表壓縮比;最后通過批歸一化操作將輸出尺寸重調(diào)至輸入大小,具體公式如下:

其中 W0∈RC/r×C b0∈RC/r , W1∈RC×C/r b1∈RC 0

2)空間注意力分支:該分支旨在定向增強人臉關(guān)鍵位置特征的權(quán)重,采用可擴大感受野的空洞卷積,從圖像上下文信息中捕獲具有高辨別力的區(qū)域,進而增強特征提取能力。具體來說,輸入特征圖F∈RC×H×W 先經(jīng)過 1×1 的卷積調(diào)整為 F∈RC/r×H×W 再通過兩層 3×3 的空洞卷積提取上下文信息,最后通過 1×1 的卷積和批歸一化操作將尺寸恢復(fù)至輸入大小,具體公式如下:

MS(F)=BN(f1×13(f3×32(f3×31(f1×10(F)))))

式中:fx 卷積操作;(204號 i? ——第i層;j×j. 二 —卷積核尺寸。

2.3 自適應(yīng)特征融合模塊

SwinTransformer人臉活體檢測模型在淺層人臉特征圖語義描述和深層人臉特征圖細節(jié)感知方面存在不足,造成人臉細節(jié)信息丟失,導(dǎo)致其泛化能力較差。為解決這一問題,本文將SwinTransformer模型不同階段的特征圖進行自適應(yīng)加權(quán)融合,充分利用不同尺度的人臉語義信息,減少細節(jié)信息丟失。如圖3所示,自適應(yīng)特征融合模塊將主干模型不同階段輸出的特征信息先進行全局平均池化,再將得到的4個不同尺度的特征信息 F1 , F2 , F3 , F4 融合為 Ff ,計算公式如下:

Ff1?F12?F23?F34?F4

式中: α1、α2、α3、α4 特征信息對應(yīng)的權(quán)重;(204號 wi 初始化權(quán)重系數(shù)。

3實驗結(jié)果與分析

3.1 數(shù)據(jù)集

本文選用OULU-NPU[、CASIA-MFSD[7](CM)和REPLAY-ATTACK[8(RA)數(shù)據(jù)集評估所提模型性能。其中OULU-NPU為大型高分辨率數(shù)據(jù)集,包含4950段真實和欺詐視頻,幀率為 30Hz 、分辨率為 1920×1080 像素,由55位志愿者在3種不同場景下的6種不同手機采集。另外該數(shù)據(jù)集具有4個測試協(xié)議,協(xié)議1、2、3分別測試不同數(shù)據(jù)采集環(huán)境、欺詐媒介、數(shù)據(jù)集采集設(shè)備對模型的影響,協(xié)議4即考慮以上所有因素。由于該數(shù)據(jù)集具備多種未知的攻擊類型,因此其成為用于評估模型面對未知攻擊性能的常用數(shù)據(jù)集。

CM數(shù)據(jù)集包括600段視頻,由50位志愿者在三個攝像頭下采集,其分辨率分別為 480×640 、640×480 、 720×1080 像素,其中欺詐攻擊類型包括三種:彎曲打印攻擊、剪切打印攻擊和重放攻擊。RA數(shù)據(jù)集包括1300段視頻,由50位志愿者在兩種不同光照的場景下錄制,其分辨率為 320×240 像素,欺詐攻擊類型包括打印攻擊和重放攻擊。

3.2 評價指標(biāo)

OULU-NPU數(shù)據(jù)集庫內(nèi)測試采用攻擊分類錯誤率(APCER)、真實表示分類錯誤率(BPCER)和平均分類錯誤率(ACER)。ACER即BPCER和APCER的平均值,其計算公式如下:

CM和RA數(shù)據(jù)集跨庫測試采用拒絕率(FRR)、錯誤接受率(FAR)和半錯誤率(HTER)。HTER即FRR和FAR的均值,計算公式如下:

3.3實驗環(huán)境及參數(shù)設(shè)置

本文所有實驗采用Windows1064位的操作系統(tǒng),在型號為RTX-2080的GPU上使用Pytorch框架完成。實驗中采用MTCNN算法[9]檢測人臉區(qū)域,并截取大小為 224×224 的RGB人臉圖像作為輸入。訓(xùn)練過程中,模型初始學(xué)習(xí)率設(shè)為0.0001,優(yōu)化器采用Adam,迭代次數(shù)為200輪,batchsize設(shè)為4,同時為避免過擬合現(xiàn)象,對輸入圖像進行隨機翻轉(zhuǎn)與裁剪的預(yù)處理。

3.4 對比實驗

本文在OULU-NPU數(shù)據(jù)集進行庫內(nèi)測試和在CM與RA數(shù)據(jù)集進行跨庫測試,通過與當(dāng)前主流的模型對比,以此來驗證本文模型的檢測效果。

表1\~表4展示了該模型及當(dāng)前主流模型在OULU-NPU數(shù)據(jù)集4個協(xié)議下的實驗結(jié)果,其中ACER越小,表示模型性能越好。本文模型在4個測試協(xié)議下的ACER分別為 0.2% , 1.1% (1.1±0.6)% , (2.8±1.4)% ,在各個協(xié)議均達到最佳。相比于采用輔助監(jiān)督信息rPPG的Auxiliary方法和采用時間維度信息為輸人的STASN方法,本文方法采用單幀圖像進行檢測,降低模型復(fù)雜度。相比于采用卷積神經(jīng)網(wǎng)絡(luò)的BCN和CDCN方法,本文模型利用SwinTransformer模型提取人臉全局信息,提供先驗知識,并采用中心差分卷積提取人臉局部信息,二者相結(jié)合,提高模型性能。Disentangled方法通過對圖片解糾纏,分離圖像人臉內(nèi)容和無關(guān)內(nèi)容,來應(yīng)對未知攻擊,但目前并不能完全分離人臉內(nèi)容與無關(guān)內(nèi)容,導(dǎo)致檢測精度低。本文方法則采用中心差分算子和SwinTransformer共同提取人臉特征,其中提取到的真假人臉固有差異,不隨環(huán)境背景改變而發(fā)生變化,因此檢測性能更佳。AISL方法在CDCN網(wǎng)絡(luò)的基礎(chǔ)上引入自適應(yīng)索引平滑損失,解決了難樣本的檢測問題,但面對不同環(huán)境檢測效果仍然不佳。對此本文方法引入瓶頸注意力模塊,使得模型更加關(guān)注人臉關(guān)鍵信息,去除冗余信息干擾。ASMN方法采用雙流網(wǎng)絡(luò),以空間信息為輔助,將人臉全局特征和多尺度信息相結(jié)合,但由于模型復(fù)雜,導(dǎo)致檢測誤差較大。相比于此,本文利用自適應(yīng)加權(quán)模塊,將不同尺度的特征信息相融合,提高特征利用率,充分捕捉真假人臉的差異。從表1\~表4可以看出,與現(xiàn)有方法相比,本文方法在4個協(xié)議的表現(xiàn)均具有一定的優(yōu)勢,證明該方法面對未知攻擊具有一定的魯棒性。

表1OULU-NPU數(shù)據(jù)集協(xié)議1的實驗結(jié)果對比%
表2OULU-NPU數(shù)據(jù)集協(xié)議2的實驗結(jié)果對比

本文模型在庫內(nèi)測試取得較好效果的同時,需要進一步驗證其泛化能力,因此選擇在CM和RA兩個數(shù)據(jù)集之間進行跨庫測試。由于這兩種數(shù)據(jù)集具備不同的人臉身份、環(huán)境、設(shè)備、欺詐介質(zhì)等因素,因此可以較好地模擬出模型面對實際場景的檢測過程。測試結(jié)果如表5所示,當(dāng)采用CM數(shù)據(jù)集訓(xùn)練時,本文模型HTER為 14.1% ,采用RA數(shù)據(jù)集訓(xùn)練時,HTER為 22.9% ,均優(yōu)于當(dāng)前主流最優(yōu)模型,相比于次優(yōu)的CDCN和ASMN模型其HTER分別降低 1.4% 和 1.1% ,證明了本文模型具有良好的泛化能力。

表3OULU-NPU數(shù)據(jù)集協(xié)議3的實驗結(jié)果對比
表4OULU-NPU數(shù)據(jù)集協(xié)議4的實驗結(jié)果對比
表5CM與RA跨庫測試實驗結(jié)果對比%

3.5 消融實驗

本文在OULU-NPU數(shù)據(jù)集協(xié)議1上設(shè)計主干模型選擇、瓶頸注意力模塊組合方式和位置以及驗證各模塊作用的消融實驗。

首先,本文從具有全局信息提取能力的Transformer類模型中選取最適合人臉活體檢測任務(wù)的模型作為主干。本文選取適合圖像任務(wù)的ViT、LeViT、MobileViT和SwinTransformer模型在相同的條件下進行訓(xùn)練。其中ViT是最先應(yīng)用于圖像領(lǐng)域的Transformer模型,具有提取全局信息的能力;LeViT在ViT的基礎(chǔ)上引入卷積層,并重新設(shè)計了自注意力模塊,提高特征提取能力;MobileViT將MobileNet與ViT相結(jié)合,具備全局信息提取能力的同時,提高了模型運算速度;SwimTransformer設(shè)計滑動窗口自注意力機制,提高特征提取能力的同時減少模型計算量。各模型的ACER如表6所示,其中SwinTransformer的ACER為 1.5% ,優(yōu)于其他模型,表明其更適合人臉活體檢測任務(wù)。

表6不同主干模型結(jié)果對比

其次驗證瓶頸注意力模塊組合方式對模型的影響,分別設(shè)計先通道-后空間和先空間-后通道的注意力分支串行方式,以及通道和空間注意力分支并行的方式。該實驗中模型僅改變瓶頸注意力模塊,其結(jié)果如表7所示,并行注意力模塊的ACER最低為 0.2% ,因此本文選擇并行的通道空間注意力為瓶頸注意力模塊。

表7不同瓶頸注意力模塊結(jié)果對比%

由于SwinTransformer模型不同階段的輸出特征尺寸及信息均有所不同,對最終的檢測結(jié)果也起到一定的影響,因此本文設(shè)計瓶頸注意力模塊放置位置的實驗。表8顯示了瓶頸注意力模塊在不同放置位置的檢測效果,其中放在階段2后的ACER最低,為 0.2% ,表明此時模型性能最佳。

為驗證各模塊的作用,本文進行中心差分卷積模塊(CDCM)、瓶頸注意力模塊(BAM)和自適應(yīng)特征融合模塊(AFF)的消融實驗。實驗結(jié)果如表9所示,“√\"表示在模型中使用該模塊。當(dāng)CDCSwin-T模型依次僅去除CDCM、BAM和AFF模塊時,ACER分別上升 0.7% 0.3% 0.4% 。由此可以看出CDCM模塊對模型最重要,同時BAM和AFF均起到了一定的作用。相比于SwimTransformer,CDCSwim-T模型面對未知攻擊的檢測精度得到提升,也證明了其魯棒性與泛化能力的提升。

表8不同瓶頸注意力模塊放置位置結(jié)果對比

3.6 可視化分析

為更好地驗證本文所提模型及其模塊面對未知欺詐攻擊的作用,分別繪制baseline、模型1(baseline+CDCM模塊)、模型2(模型1+BAM模塊)、CDCSwin-T等4個模型在3個場景下的熱力圖(Grad-Cam)[16]。

如圖7所示,隨著baseline逐步加入不同模塊,各模型關(guān)注的真實人臉關(guān)鍵區(qū)域和假臉欺詐線索區(qū)域均逐漸增大。其中CDCSwin-T模型面對三個場景下的真實人臉均關(guān)注在人臉面部區(qū)域,如眼睛、嘴巴和鼻子,而不是特定的背景、光照等。對于打印攻擊,CDCSwin-T模型隨機關(guān)注于光反射造成的亮度差異區(qū)域;對于重放攻擊,CDCSwin-T模型側(cè)重于關(guān)注摩爾紋相似區(qū)域,而并不局限于人臉面部區(qū)域。由此可以看出CDCSwin-T模型面對未知場景及欺詐類型的攻擊具有一定的魯棒性與泛化能力。

%表9所有模塊的消融結(jié)果對比%
圖7模型可視化對比結(jié)果

3.7 實時測試結(jié)果

為進一步驗證所提模型的性能,本文設(shè)計實時人臉活體檢測實驗,首先通過MTCNN算法裁剪人臉并輸人本文模型,其次進行人臉活體檢測并顯示檢測結(jié)果。實驗選取兩位志愿者,在兩種光照下,進行測試。結(jié)果如圖8所示,real和spoof分別代表真實人臉和欺詐人臉,其中志愿者1和2所在場景分別為白天自然光和夜間燈光,欺詐攻擊類型分別為:手機重放攻擊、打印攻擊、裁剪打印攻擊。如圖8所示,本文模型對兩種場景下的真實人臉和三種不同類型的欺詐攻擊均能正確識別,證明了該模型的實際應(yīng)用價值。

4結(jié)束語

針對目前多數(shù)人臉活體檢測模型面對未知攻擊魯棒性和泛化能力較差的問題,本文提出一種基于CDCSwin-T的人臉活體檢測模型。該模型以SwinTransformer為主干來提取人臉全局信息,其次引入中心差分卷積模塊提取人臉局部信息,二者相結(jié)合,使得主干模型充分捕獲真假人臉差異;隨后引入瓶頸注意力模塊引導(dǎo)主干模型關(guān)注人臉關(guān)鍵信息;最終將主干模型不同階段特征進行融合,減少人臉細節(jié)信息丟失,提高本文模型泛化能力。CDCSwin-T模型在OULU-NPU數(shù)據(jù)集的庫內(nèi)測試和CASIA-MFSD與REPLAY-ATTACK數(shù)據(jù)集的跨庫測試均取得了優(yōu)異的表現(xiàn),也證明了該模型面對未知攻擊的魯棒性與泛化能力。后續(xù)工作將考慮收集更多實際場景中的欺詐攻擊用于本文模型訓(xùn)練,同時輕量化該模型使其部署到移動設(shè)備。

圖8實時人臉測試結(jié)果

參考文獻

[1] YANGJ,LEI Z,LI SZ.Learnconvolutional neural network forface anti-spoofing[J].arXiv preprint arXiv:1408.5601, 2014.

[2] YU Z,ZHAO C,WANG Z,etal. Searching central difference convolutional networks for face antispoofing[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattem Recognition.2020:5295-5305.

[3]GEORGEA,MARCEL S.On the effectiveness of vision transformers for zero-shot face anti-spoofing[C]//2021 IEEE International Joint Conference on Biometrics (IJCB). IEEE, 2021:1-8.

[4]QIAO T,WUJ,ZHENG N,et al.Fgdnet:Fine-grained detection network towards face anti-spoofing[J].IEEE TransactionsonMultimedia,2023,25:7350-7363.

[5]張青春,吳崢,周玲,等.基于改進YOLOv5的車輛與行人目 標(biāo)識別方法[J].中國測試,2023,49(7):82-88. ZHANGQC,WU Z,ZHOU L,et al.Vehicleand pedestrian target detection method based on improved YOLOv[J].ChinaMeasurement amp; Test,2023,49(7):82- 88.

[6]BOULKENAFETZ,KOMULAINENJ,LIL,etal.OULUNPU:A mobile face presentation attack database with realworld variationslC」//201712th IEEE international conference on automatic face amp; gesture recognition (FG 2017).IEEE, 2017: 612-618.

[7]ZHANG Z,YANJ,LIU S,etal.A face antispoofing database withdiverseattacks[C]//2012 5th IAPR international conference on Biometrics (ICB).IEEE,2012:26-31.

[8]CHINGOVSKA I,ANJOS A,MARCEL S.On the effectivenessof local binarypatternsinfaceantispoofing[C]/2012 BIOSIG-proceedings of the international conference of biometrics special interest group (BIOSIG). IEEE,2012:1-7.

[9]朱建秋,華陽,宋曉寧,等.結(jié)合面部紋理和前/背景差異的人 臉活體檢測[J].中國圖象圖形學(xué)報,2023,28(3):789-803. ZHUJQ,HUAY,SONGXN,etal.Facial livenessdetection combiningfacialtextureandforeground/background differences[J]. Journal of Image and Graphics,2023,28(3): 789-803.

[10]YANGX,LUOW,BAOL,etal. Faceanti-spoofing:Model matters,so does data[C]//Proceedingsof the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019:3507-3516.

[11] ZHENG W,YUE M,ZHAO S,etal.Attention-based spatialtemporal multi-scale network for face anti-spoofing[J].IEEE Transactionson Biometrics,Behavior,and IdentityScience, 2021,3(3): 296-307.

[12] LIU Y,JOURABLOO A,LIU X.Learming deep models for faceanti-spoofing:Binary orauxiliarysupervision[C] //Proceedings of the IEEE conference on computer vision and pattern recognition.2018:389-398.

[13] ZHANG KY,YAOT,ZHANG J,etal.Face anti-spoofing Via disentangled representation learning[C]//Computer Vision-ECCV 2020:16th European Conference,Glasgow, UK,August 23-28,2020,Proceedings,Part XIX16.Springer International Publishing,2020:641-657.

[14]WANGC,ZHOUJ.An adaptive index smoothing loss for face anti-spoofing[J].Pattern Recognition Letters,2022,153: 168-175.

[15]YU Z,LI X,NIUX,et al.Face anti-spoofing with human material perception[C]//Computer Vision-ECCV 2020:16th European Conference,Glasgow,UK,August 23-28,2020, Proceedings,Part VII16.Springer International Publishing, 2020:557-575.

[16]陳海秀,陸康,何珊珊,等.改進生成對抗網(wǎng)絡(luò)水下圖像增強方 法[J].中國測試,2024,50(1):54-61. CHEN H X,LU K,HE S S,et al.Underwater image enhancement based on improved generative adversarial network[J].China Measurement amp; Test,2024,50(1):54-61.

(編輯:劉楊)

猜你喜歡
特征檢測信息
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
不忠誠的四個特征
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
小波變換在PCB缺陷檢測中的應(yīng)用
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 成人精品亚洲| 国产成人福利在线视老湿机| 亚洲日韩高清在线亚洲专区| 亚洲综合久久成人AV| 成年网址网站在线观看| 伊人婷婷色香五月综合缴缴情| 天堂亚洲网| 日本高清在线看免费观看| 亚洲乱码在线播放| 一本久道热中字伊人| 午夜欧美理论2019理论| 青青国产成人免费精品视频| 国产午夜不卡| 99热这里只有精品5| 亚洲精品国产成人7777| 欧美国产日韩在线播放| 亚洲高清在线天堂精品| 91小视频在线观看| 老司机久久精品视频| 亚洲人成在线精品| 久久青草热| 欧美、日韩、国产综合一区| 国产成人亚洲精品无码电影| 亚洲无码高清视频在线观看| 国产无码精品在线| 国产精鲁鲁网在线视频| 狼友视频国产精品首页| 国产91av在线| 亚洲综合欧美在线一区在线播放| 国产探花在线视频| 青青青伊人色综合久久| 五月天久久综合| www欧美在线观看| 午夜激情婷婷| 国产经典三级在线| 欧美在线视频不卡| 扒开粉嫩的小缝隙喷白浆视频| 国产一级裸网站| 国产区91| 欧美a网站| 97se亚洲| 免费一级无码在线网站| 久久精品视频亚洲| 26uuu国产精品视频| 亚洲天堂精品视频| 欧美亚洲国产一区| 亚洲乱码在线播放| 国产97视频在线| 最新精品国偷自产在线| 成人韩免费网站| 国产精品国产主播在线观看| 欧美亚洲国产精品久久蜜芽| 精品无码日韩国产不卡av| 欧美福利在线| 亚洲精品国产综合99久久夜夜嗨| 国产精品任我爽爆在线播放6080| 免费在线a视频| 亚洲美女AV免费一区| 青青操国产| 国产网友愉拍精品视频| 真人免费一级毛片一区二区| 国产91高清视频| 国产91视频观看| 毛片免费观看视频| 国产成人无码久久久久毛片| 谁有在线观看日韩亚洲最新视频| 亚洲欧美日韩视频一区| 一本一道波多野结衣av黑人在线| 久久久久久久97| 亚洲av无码片一区二区三区| 精品视频第一页| 免费看a级毛片| 2021精品国产自在现线看| 欧美日本激情| 久久精品中文字幕少妇| 国产制服丝袜91在线| 91久久天天躁狠狠躁夜夜| 蜜桃臀无码内射一区二区三区| 精品国产99久久| 国产成人精品优优av| 亚洲成a人片在线观看88| 亚洲天堂伊人|