


















摘 要:針對(duì)現(xiàn)有人臉活體檢測(cè)算法的特征表示不佳,以及在跨數(shù)據(jù)集上泛化性能較差等問題,提出了一種基于內(nèi)容風(fēng)格增強(qiáng)和特征嵌入優(yōu)化的人臉活體檢測(cè)方法。首先,使用ResNet-18編碼器提取來自多個(gè)源域的通用特征,并經(jīng)過不同注意力機(jī)制的兩個(gè)自適應(yīng)模塊進(jìn)行分離,增強(qiáng)全局內(nèi)容特征與局部風(fēng)格特征表征;其次,基于AdaIN算法將內(nèi)容特征與風(fēng)格特征進(jìn)行有機(jī)融合,進(jìn)一步提升特征表示,并將融合后的特征輸入到特定的分類器和域判別器進(jìn)行對(duì)抗訓(xùn)練;最后,采用平均負(fù)樣本的半難樣本三元組挖掘優(yōu)化特征嵌入,可以兼顧類內(nèi)聚集和類間排斥,更好地捕捉真實(shí)和偽造類別之間的界限。該方法在四個(gè)基準(zhǔn)數(shù)據(jù)集CASIA-FASD、REPLAY-ATTACK、MSU-MFSD 和 OULU-NPU上進(jìn)行訓(xùn)練測(cè)試,分別達(dá)到了6.33%、12.05%、8.38%、10.59%的準(zhǔn)確率,優(yōu)于現(xiàn)有算法,表明該方法能夠顯著提升人臉活體檢測(cè)模型在跨數(shù)據(jù)集測(cè)試中的泛化性能。
關(guān)鍵詞:人臉活體檢測(cè); 內(nèi)容和風(fēng)格特征自適應(yīng)模塊; AdaIN算法; 領(lǐng)域?qū)箤W(xué)習(xí); 特征嵌入優(yōu)化
中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1001-3695(2024)06-039-1869-07
doi:10.19734/j.issn.1001-3695.2023.09.0443
Face anti-spoofing method based on content style enhancement andfeature embedding optimization
Abstract:In response to the issues of inadequate feature representation in existing face anti-spoofing algorithms and poor cross-dataset generalization performance, this paper proposed a face anti-spoofing method based on content-style enhancement and feature embedding optimization. Firstly, this method utilized a ResNet-18 encoder to extract generic features from multiple source domains, and then subjected to separation through two self-adaptive modules with different attention mechanisms, enhancing the representation of global content features and local style features. Secondly, based on the AdaIN algorithm, it organically fused content features with style features, further improving the feature representation, and the fused features were subsequently input to specific classifiers and domain discriminators for adversarial training. Finally, by employing average negative samples and semi-hard sample triplet mining to optimize feature embeddings, effectively striking a balance between intra-class cohesion and inter-class discrimination, better capturing the boundaries between genuine and spoofed categories. The proposed method was trained and tested on four benchmark datasets,suchas CASIA-FASD, REPLAY-ATTACK, MSU-MFSD, and OULU-NPU. It achieves accuracy of 6.33%, 12.05%, 8.38% and 10.59% respectively, which are superior to existing algorithms. This indicates that the proposed method can significantly improve the generalization performance of face live detection models in cross-dataset testing.
Key words:face anti-spoofing detection; content and style feature self-adaptation modules; AdaIN algorithm; domain adversarial learning; feature embedding optimization
0 引言
在過去幾十年里,隨著人臉識(shí)別技術(shù)的迅猛發(fā)展,人臉識(shí)別已經(jīng)廣泛應(yīng)用于人們的日常生活,包括智能門禁、手機(jī)面部解鎖、金融支付等領(lǐng)域。但人臉不同于指紋、虹膜和簽名等對(duì)象,不需要待識(shí)別者額外進(jìn)行某些動(dòng)作配合,加之社交平臺(tái)的開放性,使得一些用戶的照片能夠很容易被獲取。因此,如果將這些照片呈現(xiàn)給識(shí)別傳感器,就可能騙過人臉識(shí)別系統(tǒng)的身份識(shí)別。除此之外,目前的人臉識(shí)別系統(tǒng)還面臨著視頻重放、3D面具等多種欺騙形式,這嚴(yán)重威脅到人臉識(shí)別系統(tǒng)的安全性和可信度。人臉活體檢測(cè)亦稱人臉反欺詐,是一種檢測(cè)待識(shí)別對(duì)象是真正人臉還是偽造人臉的技術(shù)。隨著人臉識(shí)別技術(shù)在社會(huì)各行各業(yè)中越來越廣泛的應(yīng)用,為了保障人臉識(shí)別系統(tǒng)的安全性,研發(fā)具有人臉活體檢測(cè)能力的安全可信識(shí)別系統(tǒng)是十分必要的。
目前,研究人員已提出一系列的人臉活體檢測(cè)算法,在早期,經(jīng)典的手工描述符(例如,LBP 、SIFT 、HOG 和DoG)被設(shè)計(jì)用于從各種顏色空間(RGB、HSV和YCbCr)中提取有效的欺騙模式,已經(jīng)大量用于人臉活體檢測(cè)。根據(jù)特征提取的差異主要分為基于紋理特征[1]、圖像質(zhì)量[2]、生理信號(hào)[3]和三維結(jié)構(gòu)[4]的方法,其優(yōu)點(diǎn)在于它們通過不同方式提取特征,從而提供多層次、多角度的活體檢測(cè),適用于一些簡(jiǎn)單的場(chǎng)景和常見的攻擊類型。但這些方法存在人工設(shè)計(jì)成本高、無法提取高級(jí)特征和對(duì)攻擊手段敏感等缺點(diǎn),難以有效應(yīng)對(duì)當(dāng)前多樣化的攻擊和復(fù)雜的應(yīng)用場(chǎng)景。隨著深度學(xué)習(xí)技術(shù)的廣泛應(yīng)用,針對(duì)上述問題,提出了一系列基于深度學(xué)習(xí)技術(shù)[5~12]的人臉活體檢測(cè)方法,它們普遍具有準(zhǔn)確度高、泛化能力強(qiáng)、自動(dòng)特征提取、抗攻擊性等多重優(yōu)點(diǎn),但缺點(diǎn)是難以捕捉高級(jí)抽象特征和特征表達(dá)能力不足,例如基于二分類的人臉活體檢測(cè)[8,9],簡(jiǎn)單直接的同時(shí)難以捕捉高級(jí)抽象特征,無法適應(yīng)不斷演化的偽造技術(shù);為了讓深度學(xué)習(xí)模型能夠更好地學(xué)習(xí)內(nèi)在的欺騙線索,文獻(xiàn)[10,11]采用對(duì)比學(xué)習(xí)得到高級(jí)語義特征,擴(kuò)大活臉和攻擊臉之間的特征差距,增強(qiáng)模型性能。
然而,上述方法大多數(shù)都是根據(jù)預(yù)先確定的情景和攻擊來訓(xùn)練深度學(xué)習(xí)模型,因此很容易讓模型在幾個(gè)特定的領(lǐng)域和攻擊類型上過度擬合,進(jìn)而導(dǎo)致跨數(shù)據(jù)集模型泛化性能差的問題。針對(duì)這類問題,研究人員提出了域泛化(domain generalization,DG)方法[12~15],使得模型在不訪問任何目標(biāo)數(shù)據(jù)的情況下,也能顯式地挖掘出多個(gè)源域之間的關(guān)系,從而更好地泛化到不可見的域中。但是,這些域泛化方法通常將輸入數(shù)據(jù)看做一個(gè)整體,沒有對(duì)人臉活體檢測(cè)中輸入圖像的風(fēng)格和內(nèi)容特征分開考慮。真實(shí)人臉和偽造人臉的特征一般可以分為局部紋理特征和全局內(nèi)容特征:前者包括一些活性相關(guān)的紋理信息以及域特定的外部因素,它在欺騙中占據(jù)著重要的比例;而后者涵蓋了全局語義特征和物理屬性,一般用來表示人臉的類別、背景環(huán)境、相機(jī)以及照明等領(lǐng)域的內(nèi)容特征空間。根據(jù)已有的研究可知,大多數(shù)欺騙線索都蘊(yùn)藏在微妙的局部紋理特征中,比如局部圖像失真、3D掩模邊緣以及剪切照片邊緣等。因此,可以將圖像表示分解為全局和局部特征,即內(nèi)容和風(fēng)格特征,自適應(yīng)地整合它們的相關(guān)性并提升圖像表征能力,從而有效增強(qiáng)人臉活體檢測(cè)算法的性能。最近,Wang等人[13]提出一種基于批量規(guī)范化(batch normalization,BN)和實(shí)例規(guī)范化(instance normalization,IN)的人臉活體檢測(cè)算法,從輸入中獲取內(nèi)容和風(fēng)格特征。但由于BN提取的特征本質(zhì)上對(duì)于域移動(dòng)較脆弱,而IN提取的特征可能會(huì)丟失一些鑒別信息,所以兩者在領(lǐng)域泛化方面都具有一定的局限性。此外,文獻(xiàn)[16]強(qiáng)調(diào)了難樣本三元組損失在增強(qiáng)類內(nèi)緊湊性和類間差異性方面的重要作用。而在人臉活體檢測(cè)中,各個(gè)領(lǐng)域內(nèi)不同類別的樣本往往比同類樣本更相似,這會(huì)導(dǎo)致模型學(xué)習(xí)的廣義特征空間識(shí)別能力顯著下降。針對(duì)該問題,Jia等人[12]提出了非對(duì)稱三元組損失,能夠在分離不同類別的同時(shí),使假臉特征空間更加分散而真臉特征空間更加聚集。Shao等人[17]采用雙力三重挖掘約束,使得每個(gè)主體到其域內(nèi)正樣本的距離小于其域內(nèi)負(fù)樣本的距離,而每個(gè)主體跨域的正樣本的距離小于負(fù)樣本的距離。
不同于上述方法,本文提出了一種基于內(nèi)容風(fēng)格增強(qiáng)和特征嵌入優(yōu)化的方法(content style enhancement and feature embedding optimization,CSEFO),通過兩個(gè)結(jié)合不同注意力機(jī)制的自適應(yīng)模塊,有效地將完整圖像的內(nèi)容和風(fēng)格表示進(jìn)行分離,自適應(yīng)地整合局部特征與全局特征的相關(guān)性并提升它們的表征能力。相對(duì)于現(xiàn)有的域泛化人臉活體檢測(cè)方法,本文考慮從數(shù)據(jù)圖像的風(fēng)格和內(nèi)容方向兩個(gè)不同的側(cè)重點(diǎn)去增強(qiáng)特征表示,從而解決現(xiàn)有方法在跨數(shù)據(jù)集上模型泛化性能較差的問題。與此同時(shí),考慮到傳統(tǒng)的兩階段方法在大規(guī)模人臉活體檢測(cè)數(shù)據(jù)集上訓(xùn)練效率低下的問題,本文還引入了自適應(yīng)實(shí)例歸一化(adaptive instance normalization,AdaIN)層[18]。AdaIN根據(jù)增強(qiáng)的內(nèi)容和風(fēng)格表示自動(dòng)地調(diào)整參數(shù),實(shí)現(xiàn)了一種實(shí)時(shí)、高效的端到端特征級(jí)融合,使其在現(xiàn)實(shí)世界的大規(guī)模訓(xùn)練中更具適用性。此外,針對(duì)在人臉活體檢測(cè)數(shù)據(jù)集中,各個(gè)數(shù)據(jù)領(lǐng)域內(nèi)由于部分不同類別的樣本比同類樣本具有更高的相似性而導(dǎo)致模型學(xué)習(xí)的特征空間識(shí)別能力下降的問題,本文采用平均負(fù)樣本的半難樣本三元組挖掘策略,減少類內(nèi)特征聚類過程中硬負(fù)樣本的阻礙,從而降低相似特征對(duì)模型性能的影響。同時(shí),本文調(diào)整特征空間中的樣本分布,優(yōu)化特征嵌入,增強(qiáng)同類樣本的相似性,加大不同類別之間的差異性,進(jìn)一步增強(qiáng)了模型的表征能力,使其在特征空間中能更好地區(qū)分真實(shí)人臉和偽造人臉,并在四個(gè)被廣泛用于人臉活體檢測(cè)研究的公開數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)驗(yàn)證。
1 本文方法
本文模型整體結(jié)構(gòu)如圖1所示。以在ImageNet上預(yù)訓(xùn)練好的ResNet-18[19]為主干特征提取網(wǎng)絡(luò),將所提取的特征輸入到內(nèi)容自適應(yīng)模塊(content self-adaptation module,CSM)和風(fēng)格自適應(yīng)模塊(style self-adaptation module,SSM)中,分別強(qiáng)化兩種特征的表征能力。隨后,通過內(nèi)容風(fēng)格特征融合模塊將增強(qiáng)后的內(nèi)容和風(fēng)格特征進(jìn)行有機(jī)融合,產(chǎn)生新的組合特征,并將其輸入特定的分類器進(jìn)行分類。同時(shí),采用領(lǐng)域鑒別器進(jìn)行對(duì)抗訓(xùn)練,隨著數(shù)據(jù)采集條件和環(huán)境的多變,領(lǐng)域之間的差異也變得顯著,對(duì)抗訓(xùn)練在此發(fā)揮關(guān)鍵作用,助力模型準(zhǔn)確捕捉數(shù)據(jù)的本質(zhì)特征,更好地適應(yīng)領(lǐng)域間的變化,即使在未知領(lǐng)域中仍能夠有效泛化,確保其持續(xù)可靠的性能。此外,通過一種平均負(fù)樣本的半難樣本三元組挖掘算法,挑選恰當(dāng)?shù)恼?fù)樣本。據(jù)此調(diào)整特征空間中的樣本分布,以優(yōu)化特征嵌入,從而增強(qiáng)模型的表征能力和改進(jìn)相似度度量。這可以顯著提升模型的分類準(zhǔn)確性以及在各種場(chǎng)景下的泛化能力,為整個(gè)人臉活體檢測(cè)方法切實(shí)帶來性能提升。
1.1 內(nèi)容和風(fēng)格自適應(yīng)模塊
如圖1所示,在內(nèi)容和風(fēng)格自適應(yīng)模塊中,首先使用經(jīng)過預(yù)訓(xùn)練的ResNet-18作為通用特征提取器,對(duì)所有域的圖像進(jìn)行特征提取。這個(gè)特征提取過程將原始圖像從其各自的特征空間映射到了一個(gè)通用的特征空間,然后將獲得的通用特征輸入內(nèi)容自適應(yīng)模塊CSM和風(fēng)格自適應(yīng)模塊SSM。更具體地說,先將來自多個(gè)源域的圖像批次輸入到通用特征提取器F中,從中得到特征表示Fx;再將Fx分別傳遞給內(nèi)容自適應(yīng)模塊CSM和風(fēng)格自適應(yīng)模塊SSM。通過這兩個(gè)自適應(yīng)模塊,將Fx分解成內(nèi)容特征Fxc和風(fēng)格特征Fxs,這種分解能夠有效地將內(nèi)容和風(fēng)格信息進(jìn)行自適應(yīng)分離,增強(qiáng)內(nèi)容特征和風(fēng)格特征的相關(guān)性,并提升它們的表征能力。這種內(nèi)容和風(fēng)格自適應(yīng)模塊的設(shè)計(jì),充分利用了通用特征提取器的能力,并通過獨(dú)立的模塊對(duì)內(nèi)容和風(fēng)格進(jìn)行拆解和特征表示增強(qiáng),從而為模型提供了更豐富的上下文信息,有助于在后續(xù)的處理中更好地捕獲圖像的內(nèi)在特征。
基于位置的內(nèi)容自適應(yīng)模塊CSM使用位置注意力來捕獲特征圖內(nèi)各個(gè)位置之間的關(guān)聯(lián)性。如圖2所示,通過自主學(xué)習(xí)每一位置的權(quán)重,將更廣泛的上下文信息轉(zhuǎn)換為局部特征,從而使模型更加集中于圖像中關(guān)鍵的空間位置。這種處理方式有助于提升內(nèi)容特征的表示能力,讓模型能夠更為精準(zhǔn)地關(guān)注圖像內(nèi)重要的空間要素。
基于圖像通道的風(fēng)格自適應(yīng)模塊SSM則運(yùn)用通道注意力集中關(guān)照特征圖內(nèi)各個(gè)通道之間的關(guān)聯(lián)性,如圖3所示,它借助全局信息,智能地調(diào)整每個(gè)通道的權(quán)重。由于每一通道內(nèi)涵蓋特定類別的信息,且不同的語義響應(yīng)相互交織,通過探索通道之間的相互依賴關(guān)系能夠強(qiáng)調(diào)互相關(guān)聯(lián)的特征映射,進(jìn)而提升特定語義的特征表現(xiàn)。此過程既強(qiáng)化了重要特征通道,又抑制了其他非重要特征通道。而且,特征圖之間的通道式內(nèi)積呈現(xiàn)出了圖像的風(fēng)格。具體過程與位置注意力模塊一樣,但位置注意力模塊是去掉矩陣的通道數(shù)據(jù),而通道注意力模塊是去掉空間數(shù)據(jù)增強(qiáng)風(fēng)格特征的表示。
1.2 內(nèi)容和風(fēng)格特征融合模塊
AdaIN是一種用于圖像風(fēng)格遷移和圖像合成的技術(shù),通過將內(nèi)容圖像的特征圖歸一化,并使用風(fēng)格圖像的均值和標(biāo)準(zhǔn)差對(duì)其進(jìn)行重新縮放和偏移,從而將內(nèi)容圖像的特征統(tǒng)計(jì)信息調(diào)整為類似風(fēng)格圖像的分布,實(shí)現(xiàn)內(nèi)容和風(fēng)格的融合。在內(nèi)容和風(fēng)格特征融合模塊中,主要基于AdaIN算法,將由上一節(jié)中的CSM以及SSM得到的內(nèi)容增強(qiáng)特征Fxc和風(fēng)格增強(qiáng)特征Fxs進(jìn)行融合,以進(jìn)一步改進(jìn)特征表示。具體來說,通過將內(nèi)容特征Fxc的特征進(jìn)行實(shí)例歸一化,使其統(tǒng)計(jì)特性接近于風(fēng)格特征Fxs,計(jì)算公式如下:
其中:σ(·)和μ(·)分別表示特征的均值和標(biāo)準(zhǔn)差;而γ和β是根據(jù)風(fēng)格增強(qiáng)特征Fxs生成的仿射參數(shù),計(jì)算公式為
γ,β=MLP(AMP(Fxs))(6)
其中:MLP代表多層感知器,通過多階非線性變換深化了對(duì)數(shù)據(jù)的抽象特征學(xué)習(xí);而AMP則表示自適應(yīng)最大池化,這是一種能夠自主調(diào)整的池化方法。為實(shí)現(xiàn)內(nèi)容與風(fēng)格的融合,本文將AdaIN層的輸出與內(nèi)容特征Fxc逐元素相加,得到了融合的增強(qiáng)特征S(Fxc,F(xiàn)xs),具體的計(jì)算方式為
S(Fxc,F(xiàn)xs)=AdaIN(Fxc,γ,β)+Fxc(7)
1.3 領(lǐng)域?qū)箤W(xué)習(xí)模塊
由于不同領(lǐng)域的偽造人臉分布差異顯著,很難為偽造人臉尋找一個(gè)緊湊和通用的特征空間,所以在得到融合的增強(qiáng)特征S后,本文通過對(duì)抗學(xué)習(xí)方法最小化多個(gè)源域的真實(shí)人臉的分布差異,使得不同來源的真實(shí)人臉特征不可區(qū)分,從而增強(qiáng)模型的泛化性能。如圖1所示,將融合后的增強(qiáng)特征S輸入域判別器D,域判別器D用于區(qū)分輸入特征的不同來源。在學(xué)習(xí)過程中,領(lǐng)域特征提取器的參數(shù)通過最大化領(lǐng)域判別器的損失函數(shù)進(jìn)行優(yōu)化,而領(lǐng)域判別器的參數(shù)則采用相反的目標(biāo)進(jìn)行優(yōu)化。為了降低訓(xùn)練復(fù)雜度,在領(lǐng)域特征提取器和領(lǐng)域判別器之間引入了一個(gè)梯度反轉(zhuǎn)層(gradient reverse layer,GRL)[20],可以在反向傳播過程中通過乘以負(fù)標(biāo)量反轉(zhuǎn)梯度方向。由于涉及多個(gè)源域,本文采用標(biāo)準(zhǔn)的交叉熵?fù)p失,在對(duì)抗學(xué)習(xí)下優(yōu)化網(wǎng)絡(luò),具體計(jì)算公式為
其中:YD是域標(biāo)簽集;N是不同數(shù)據(jù)域的數(shù)量;G表示特征生成器;D表示域判別器。
1.4 平均負(fù)樣本的半難樣本三元組挖掘
在人臉活體檢測(cè)中,由于攻擊類型和數(shù)據(jù)庫(kù)采集方式的多樣性,導(dǎo)致偽造人臉之間的分布差異很大;且有些偽造人臉圖像與真實(shí)人臉圖像之間的差異較小,如圖4(c);而其他偽造人臉圖像與真實(shí)人臉的差異較大,如圖4(b)(d)。對(duì)于那些差異較大的偽造人臉,模型可以輕易地將它們與真實(shí)人臉區(qū)分開,因此這些負(fù)樣本對(duì)模型的訓(xùn)練幫助有限。為了更好地訓(xùn)練模型,需要引入差異較小的偽造人臉圖像,挖掘相對(duì)較難的樣本三元組,使得模型能夠更好地區(qū)分它們。
在打印和重放攻擊中,當(dāng)將偽造人臉作為錨樣本時(shí),不同類別的負(fù)樣本(真實(shí)人臉)與同一批的正樣本(偽造人臉)之間可能具有相似的特征,如圖4(a)(c)。而將真實(shí)人臉作為錨樣本時(shí),同一個(gè)人的假臉之間往往具有相似的面部特征,而非同一個(gè)人的真實(shí)臉之間往往具有不同的面部特征,這使得領(lǐng)域中的每個(gè)真臉錨樣本的相同身份的負(fù)樣本比不同身份的正樣本更相似,如圖5所示。這種相似性可能破壞錨樣本與正樣本之間的聚集性和錨樣本與負(fù)樣本之間的排斥性,使得模型學(xué)習(xí)到的廣義特征空間的識(shí)別能力下降。為解決這個(gè)問題,本文提出了一種平均負(fù)樣本的半難樣本三元組挖掘優(yōu)化特征嵌入,能夠更好地分別聚集不同領(lǐng)域的真臉和假臉,并且讓提取的所有領(lǐng)域的真臉和假臉在特征空間更加分散,產(chǎn)生更好的決策邊界,從而增強(qiáng)模型的表征能力和改進(jìn)相似度度量,提高檢測(cè)效果。
假設(shè)數(shù)據(jù)樣本來自三個(gè)不同源域,訓(xùn)練時(shí)每一批樣本中有來自不同源域相同數(shù)量的真實(shí)人臉和偽造人臉樣本,將所有領(lǐng)域的真實(shí)人臉歸為一類,而把所有領(lǐng)域的偽造人臉歸為另一類。由于一些硬負(fù)樣本比一般的正樣本有更多的相似特征,這比不同類別之間的排斥更妨礙類內(nèi)的聚集。因此,對(duì)真假人臉進(jìn)行兩類平均負(fù)樣本的半難樣本三元組挖掘,可以側(cè)重于類內(nèi)特征聚集過程中消除難負(fù)樣本的阻礙。在難樣本三元組損失中,將錨樣本和硬負(fù)樣本之間的歐幾里德距離轉(zhuǎn)換為一個(gè)批次內(nèi)的常數(shù),這樣就在梯度中消除了硬負(fù)樣本的影響,使得網(wǎng)絡(luò)模型可以集中地學(xué)習(xí)類內(nèi)的共同特征,如式(9)所示。
其中:ai是一小批樣本D中第i個(gè)錨樣本的特征表示;ph是一批樣本D中與ai屬于同一類別的正樣本的特征表示;nh是一批樣本D中與ai屬于不同類別的負(fù)樣本的特征表示;dist(ai,ph) 是特征向量ai和ph之間的歐幾里德距離;α是一個(gè)正數(shù),表示正負(fù)樣本之間的最小距離差異;而β=dist(ai,nh)是在批次D中動(dòng)態(tài)計(jì)算的,因此它在批次內(nèi)是恒定的,但批次之間是可變的,可以消除硬負(fù)樣本的影響。
但是,如果完全消除硬負(fù)樣本的影響,也就完全消除了類之間的排斥,當(dāng)不同類的特征向量之間的距離很近時(shí),這可能會(huì)損害網(wǎng)絡(luò)的檢測(cè)性能。因此,平均負(fù)樣本的半難樣本三元組挖掘需要同時(shí)強(qiáng)調(diào)類間排斥,即真假人臉之間的排斥,如式(10)~(12)所示。
其中:L2降低了負(fù)樣本對(duì)同一批樣本中類內(nèi)聚集的影響,保留了不同類之間的排斥功能,從而擴(kuò)大了不同類別之間的距離。
綜上所述,平均負(fù)樣本的半難樣本三元組損失函數(shù)如下:
Ltri=L1+L2(13)
本文采用平均負(fù)樣本的半難樣本三元組挖掘損失,通過針對(duì)真實(shí)和偽造類別進(jìn)行難樣本的三元組挖掘,從而優(yōu)化特征嵌入,更好地捕捉真實(shí)和偽造類別之間的界限,有助于模型更準(zhǔn)確地學(xué)習(xí)真實(shí)和偽造類別的邊界,進(jìn)而在未知領(lǐng)域中呈現(xiàn)更出色的人臉活體檢測(cè)效果。
1.5 分類器模塊
鑒于所有源域數(shù)據(jù)都已經(jīng)標(biāo)記,因此這里加入了一個(gè)有監(jiān)督的分類器,以內(nèi)容和風(fēng)格特征融合模塊的輸出作為輸入,并在網(wǎng)絡(luò)訓(xùn)練過程中,在模型的輸出層使用負(fù)對(duì)數(shù)似然損失作為分類器的損失函數(shù)。對(duì)于分類問題,該損失函數(shù)衡量了模型的輸出概率分布與真實(shí)標(biāo)簽分布之間的差異,其計(jì)算公式為
其中:N是一批訓(xùn)練樣本的數(shù)量;yi是第i個(gè)樣本的實(shí)際類別標(biāo)簽;Pi,yi是第i個(gè)樣本中實(shí)際類別標(biāo)簽yi對(duì)應(yīng)的預(yù)測(cè)概率,通過log_softmax()計(jì)算得到。
1.6 模型損失函數(shù)
綜上所述,本文采用端到端的方式訓(xùn)練模型,總體損失函數(shù)包括分類損失、對(duì)抗損失和平均負(fù)樣本的半難樣本三元組損失三種,具體計(jì)算公式如下:
Lall=Lnll+λ1Ladv+λ2Ltri(15)
其中:λ1和λ2為兩個(gè)超參數(shù),在文本中分別設(shè)備為0.5和0.5,用于平衡不同損失函數(shù)的比例。
2 實(shí)驗(yàn)與分析
2.1 數(shù)據(jù)集
本文使用四個(gè)廣泛用于人臉活體檢測(cè)研究的公開數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)驗(yàn)證。
a)CASIA-FASD數(shù)據(jù)集[21]包含600個(gè)真實(shí)人臉視頻和偽造人臉視頻,按照低、中、高圖像質(zhì)量分成三組,每組有4個(gè)視頻,其中1個(gè)為真,其余3個(gè)分別是扭曲打印圖像、剪切圖像和視頻重放三種攻擊。
b)REPLAY-ATTACK數(shù)據(jù)集[22]包含1 300個(gè)真實(shí)人臉視頻和偽造人臉視頻,主要是在不同的人物、光照條件、設(shè)備和攻擊方式下采集。
c)MSU-MFSD數(shù)據(jù)集[23]由35名被試者的280個(gè)真實(shí)和虛假人臉視頻組成。真實(shí)視頻采用電腦和手機(jī)兩種采集方式,欺騙視頻分為三類,依次是高分辨率視頻回放、手機(jī)視頻回放和打印攻擊。
d)OULU-NPU數(shù)據(jù)集[24]是基于55個(gè)人物的4 950個(gè)視頻,由6種手機(jī)前置攝像頭在3個(gè)不同的(光照條件和背景場(chǎng)景)地點(diǎn)收集,真實(shí)與攻擊比例為1∶4。
2.2 數(shù)據(jù)預(yù)處理
上述數(shù)據(jù)集包含圖像和視頻數(shù)據(jù),對(duì)于視頻數(shù)據(jù),以特定的間隔提取圖像幀,對(duì)于圖像數(shù)據(jù),使用MTCNN算法[25]對(duì)輸入圖像進(jìn)行人臉檢測(cè)和對(duì)齊,將所有的圖像裁剪為256×256×3的大小作為RGB輸入信號(hào),并對(duì)數(shù)據(jù)進(jìn)行統(tǒng)一的隨機(jī)中心裁剪、隨機(jī)水平翻轉(zhuǎn)以及標(biāo)準(zhǔn)化等預(yù)處理操作。
2.3 實(shí)驗(yàn)設(shè)置
在本實(shí)驗(yàn)中,采用了NVIDIA GeForce RTX 2080Ti顯卡作為硬件環(huán)境,編程語言為Python 3.9,并使用PyTorch深度學(xué)習(xí)框架選擇了隨機(jī)梯度下降作為模型的優(yōu)化器,將動(dòng)量參數(shù)設(shè)置為0.9,以增加訓(xùn)練的穩(wěn)定性。為了控制模型的復(fù)雜度,權(quán)值衰減設(shè)置為5E-4。在訓(xùn)練過程中,數(shù)據(jù)的批量大小為120,而初始學(xué)習(xí)率設(shè)定為0.01,每經(jīng)過100輪訓(xùn)練將學(xué)習(xí)率減半,以便更好地引導(dǎo)模型收斂。
2.4 評(píng)價(jià)指標(biāo)
在實(shí)驗(yàn)中,采用了半全錯(cuò)誤率(half total error rate,HTER)和曲線下的面積(area under curve,AUC)作為評(píng)價(jià)指標(biāo),用于衡量算法的優(yōu)劣。其中,半全錯(cuò)誤率是錯(cuò)誤拒絕率(FRR)和錯(cuò)誤接受率(FAR)總和的一半,其計(jì)算公式如式(16)(17)所示。
其中:TP、FP、TN和FN分別表示真正例、假正例、真負(fù)例和假負(fù)例;FAR表示錯(cuò)誤接受率;FRR表示錯(cuò)誤拒絕率。而曲線下的面積(AUC)是指在ROC曲線上方的面積,ROC曲線是用于評(píng)估分類模型性能的工具。AUC的取值在0~1,當(dāng)AUC越接近1時(shí),說明模型的性能越好。
2.5 實(shí)驗(yàn)結(jié)果分析
2.5.1 跨數(shù)據(jù)集實(shí)驗(yàn)
為了驗(yàn)證本文方法在跨數(shù)據(jù)集場(chǎng)景下的泛化能力,本節(jié)進(jìn)行了跨數(shù)據(jù)集測(cè)試實(shí)驗(yàn),選用的四個(gè)數(shù)據(jù)集都是用不同的捕獲設(shè)備、攻擊類型、照明條件、背景場(chǎng)景和種族收集的,因此,這些數(shù)據(jù)集之間存在明顯的領(lǐng)域差異。根據(jù)先前的工作,采用留一測(cè)試協(xié)議的方式評(píng)估算法的性能。具體來說,將每個(gè)數(shù)據(jù)集均視為一個(gè)領(lǐng)域,隨機(jī)選取一個(gè)數(shù)據(jù)集作為測(cè)試的目標(biāo)域,其余三個(gè)數(shù)據(jù)集作為訓(xùn)練時(shí)的源域。因此,總共有OCI-M、OMI-C、OCM-I和ICM-O四個(gè)測(cè)試任務(wù),其中OCI-M表示是在OULU-NPU、MSU-MFSD和REPLAY-ATTACK上訓(xùn)練,而在CASIA-FASD上測(cè)試的協(xié)議,另外三個(gè)類似。實(shí)驗(yàn)結(jié)果如表1所示,可以看出,以ResNet為主干的本文算法在四個(gè)跨領(lǐng)域評(píng)估設(shè)置下超越了大多數(shù)現(xiàn)有方法。與MADDG、SSDG-M、SSAN等對(duì)抗域泛化方法相比較,在大多數(shù)場(chǎng)景下,本文方法都達(dá)到了最優(yōu)效果。它可以在人臉活體檢測(cè)中將完整的圖像表示分離為內(nèi)容和風(fēng)格特征,并分別增強(qiáng)其特征表示,進(jìn)而可以較好地提高跨場(chǎng)景活體檢測(cè)模型的泛化能力。另外,SSAN雖然使用了BN和IN的結(jié)構(gòu)來更好地分離內(nèi)容和風(fēng)格,但由于BN提取的特征本質(zhì)上對(duì)于域移動(dòng)較脆弱,而IN提取的特征可能會(huì)丟失一些鑒別信息,這使得其在領(lǐng)域泛化方面存在一定的局限性。從表1實(shí)驗(yàn)結(jié)果可以看出,除了在OMI-C測(cè)試場(chǎng)景中,SSAN方法都不如本文所采取的兩個(gè)基于獨(dú)特的注意力機(jī)制的內(nèi)容和風(fēng)格特征自適應(yīng)模塊;而在OMI-C測(cè)試任務(wù)下,本文方法性能不如SSAN(R),這主要是因?yàn)镾SAN(R)方法中的IN結(jié)構(gòu)注重于保留樣本內(nèi)的特征信息,容易丟失一些有助于分類鑒別信息的全局特征,比如背景信息中的照片剪切位置和視頻的莫爾條紋。然而,由于CASIA-FASD數(shù)據(jù)集中存在較多的低分辨率圖像數(shù)據(jù),其局部特征更加顯著,而背景或場(chǎng)景信息類的全局特征差異并不明顯,所以只看OMI-C測(cè)試結(jié)果,其性能結(jié)果較優(yōu)。但根據(jù)其他最新的數(shù)據(jù)集測(cè)試結(jié)果和整體來看,本文方法在實(shí)際應(yīng)用場(chǎng)景中的性能更加優(yōu)異。
2.5.2 消融性實(shí)驗(yàn)
為了驗(yàn)證本文方法各個(gè)組成部分的貢獻(xiàn),通過分別去掉 模型中的內(nèi)容和風(fēng)格自適應(yīng)模塊、領(lǐng)域?qū)箤W(xué)習(xí)和平均負(fù)樣本的半難樣本三元組挖掘來進(jìn)行消融實(shí)驗(yàn),從而驗(yàn)證各個(gè)組成部分的作用。所有結(jié)果都以相同的方式測(cè)量,消融實(shí)驗(yàn)的結(jié)果如表2所示。表中“-SCFM”表示去掉內(nèi)容和風(fēng)格自適應(yīng)模塊,“-adv”表示去掉域鑒別器,“-trihard”表示去掉平均負(fù)樣本的半難樣本三元組損失。從表2中的數(shù)據(jù)可以看出,首先,當(dāng)移除任何一個(gè)模塊后,模型的測(cè)試精度都會(huì)出現(xiàn)下降,這明顯表明了所有模塊對(duì)于提升泛化性能的積極影響。另外,相比于去掉其他模塊,去掉平均負(fù)樣本的半難樣本三元組損失對(duì)結(jié)果產(chǎn)生了更大的影響,這說明了優(yōu)化特征嵌入對(duì)于整個(gè)模型性能提高的重要性。
2.5.3 有限源域?qū)嶒?yàn)
本文通過限制源域的數(shù)量來進(jìn)一步評(píng)估本文方法的泛化性能,如表3所示。選擇MSU-MFSD和REPLAY-ATTACK這兩個(gè)分布差異較大的數(shù)據(jù)集作為源域,而剩下的OULU-NPU和CASIA-FASD數(shù)據(jù)集分別用來測(cè)試,總共有MI-C和MI-O兩個(gè)測(cè)試任務(wù)。從表3中可以看出,盡管源數(shù)據(jù)有限,但本文方法實(shí)現(xiàn)了最低的HTER和最高的AUC,這證明了本文方法在挑戰(zhàn)性任務(wù)中的良好泛化能力。
3 可視化和分析
3.1 注意力可視化
本文使用Grad-CAM方法[33]來進(jìn)行注意力可視化分析。基于模型的梯度信息,通過計(jì)算特定類別的輸出相對(duì)于特征圖的梯度,用于確定哪些區(qū)域?qū)τ谠擃悇e的預(yù)測(cè)貢獻(xiàn)較大,然后,通過對(duì)梯度和特征圖進(jìn)行加權(quán)求和,生成一個(gè)類激活映射(class activation map,CAM)。生成的類激活映射可以疊加到原始圖像上,將圖像中對(duì)預(yù)測(cè)結(jié)果影響最大的區(qū)域可視化出來,即標(biāo)識(shí)出對(duì)于模型分類決策最有影響力的區(qū)域。如圖6所示,第一至三列均為真實(shí)人臉,其余列為偽造人臉;第一行為原始圖像,其余行為OCM-I訓(xùn)練任務(wù)下CSM、SSM和SCF模塊激活區(qū)的可視化,其中,SCF為內(nèi)容和風(fēng)格特征融合模塊。可以觀察到,無論是真實(shí)人臉還是偽造人臉,內(nèi)容特征自適應(yīng)模塊都側(cè)重于人臉面部區(qū)域(如眼睛、鼻子和嘴巴),而風(fēng)格特征自適應(yīng)模塊側(cè)重背景、光照、邊緣等區(qū)域。當(dāng)增強(qiáng)的內(nèi)容和風(fēng)格融合后,會(huì)表現(xiàn)出不同的激活特性:a)對(duì)于真實(shí)人臉,本文方法側(cè)重于人臉區(qū)域?qū)ふ遗袛嗑€索;b)而對(duì)于偽造人臉,可以根據(jù)不同的攻擊關(guān)注不同的區(qū)域,除了在人臉面部區(qū)域?qū)ふ遗袛嗑€索外,本文方法也將關(guān)注來自風(fēng)格特征區(qū)域的欺騙線索,比如在打印攻擊中的剪切照片邊緣等,這表示通過自適應(yīng)模塊增強(qiáng)內(nèi)容特征和風(fēng)格特征的相關(guān)性并提升它們的表征能力后,有助于模型更準(zhǔn)確地捕捉區(qū)分性特征,從而提高模型的準(zhǔn)確性。
3.2 特征可視化
為了分析通過本文方法學(xué)習(xí)的特征空間,使用t-SNE [34]可視化不同情況下的特征分布。圖7是以O(shè)ULU-NPU、CASIA-FASD 和REPLAY-ATTACK作為源域訓(xùn)練模型時(shí)的t-SNE 特征可視化圖。實(shí)驗(yàn)從每個(gè)源域分別選擇2 000個(gè)真實(shí)人臉樣本和2 000個(gè)偽造人臉樣本。圖7(a)表示原始特征的t-SNE 特征可視化圖,圖7(b)表示不使用平均負(fù)樣本的半難樣本三元組挖掘的模型訓(xùn)練完成后的t-SNE 特征可視化圖,圖7(c)表示使用平均負(fù)樣本的半難樣本三元組挖掘的模型訓(xùn)練完成后的t-SNE 特征可視化圖。可以看出,相較于圖7(a)(b),圖7(c)表示的模型在平均負(fù)樣本的半難樣本三元組挖掘下,不同領(lǐng)域的同類真實(shí)人臉樣本和同類偽造人臉樣本在特征空間中的分布更加緊湊,而真實(shí)人臉樣本與偽造人臉樣本的類與類之間的分布差異更大。這表明平均負(fù)樣本的半難樣本三元組挖掘能夠有效提升類內(nèi)緊湊性和類間區(qū)分性,使得模型的決策邊界更加清晰和準(zhǔn)確。這樣的優(yōu)化能夠顯著提升模型的分類準(zhǔn)確性,為整個(gè)人臉活體檢測(cè)方法帶來了實(shí)質(zhì)性的性能提升。
4 結(jié)束語
本文提出了一種基于內(nèi)容風(fēng)格增強(qiáng)和特征嵌入優(yōu)化的人臉活體檢測(cè)方法。該方法首先將多個(gè)源域的特征通過兩個(gè)獨(dú)特注意力機(jī)制的內(nèi)容自適應(yīng)模塊和風(fēng)格自適應(yīng)模塊,有效地進(jìn)行內(nèi)容和風(fēng)格表示自適應(yīng)分離,增強(qiáng)內(nèi)容特征和風(fēng)格特征的相關(guān)性并提升了它們的表征能力;其次,通過對(duì)抗訓(xùn)練提取多個(gè)源域真實(shí)人臉的領(lǐng)域共享特征,從而提高跨數(shù)據(jù)集測(cè)試時(shí)的模型泛化性能;最后,引入一種平均負(fù)樣本的半難樣本三元組挖掘方法,通過這種方法對(duì)特征嵌入進(jìn)行優(yōu)化,進(jìn)一步提升了模型的分類準(zhǔn)確率。為了驗(yàn)證上述方法的有效性,本文在四個(gè)廣泛應(yīng)用人臉活體檢測(cè)研究的公開數(shù)據(jù)集上進(jìn)行了跨庫(kù)測(cè)試和消融實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果充分證明了該方法的優(yōu)良性能。但需要注意的是,特定的內(nèi)容和風(fēng)格特征可能會(huì)包含領(lǐng)域特有的信息,它們有可能限制模型在不同領(lǐng)域中的泛化性能,因此,后續(xù)工作可以考慮引入約束條件進(jìn)一步增強(qiáng)方法的性能。
參考文獻(xiàn):
[1]Raghavendra R, Raja K B, Busch C. Presentation attack detection for face recognition using light field camera[J]. IEEE Trans on Image Processing, 2015,24(3): 1060-1075.
[2]Galbally J, Marcel S, Fierrez J. Image quality assessment for fake biometric detection: application to iris, fingerprint, and face recognition[J]. IEEE Trans on Image Processing, 2013,23(2): 710-724.
[3]Wang Shunyi, Yang Shihung, Chen Yonping, et al. Face liveness detection based on skin blood flow analysis[J]. Symmetry, 2017,9(12): 305.
[4]Wang Yan, Nian Fudong, Li Teng, et al. Robust face anti-spoofing with depth information[J]. Journal of Visual Communication and Image Representation, 2017,49: 332-337.
[5]Song Xiao, Zhao Xu, Fang Liangji, et al. Discriminative representation combinations for accurate face spoofing detection[J]. Pattern Recognition, 2019, 85: 220-231.
[6]Muhammad A, Zhu Ming, Javed M Y. CNN based spatio-temporal feature extraction for face anti-spoofing[C]//Proc of the 2nd International Conference on Image, Vision and Computing. Piscataway, NJ: IEEE Press, 2017: 234-238.
[7]Ur Rehman Y A, Po Laiman, Komulainen J. Enhancing deep discriminative feature maps via perturbation for face presentation attack detection[J]. Image and Vision Computing, 2020, 94: 103858.
[8]Yang Jianwei, Lei Zhen, Li S Z. Learn convolutional neural network for face anti-spoofing [EB/OL]. (2014-08-26). https://arxiv.org/abs/1408.5601.
[9]Liu Yaojie, Stehouwer J, Jourabloo A, et al. Deep tree learning for zero-shot face anti-spoofing[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2019: 4675-4684.
[10]郝瑾琳, 陳雪云. 結(jié)合對(duì)比學(xué)習(xí)與空間上下文的人臉活體檢測(cè)[J]. 廣西大學(xué)學(xué)報(bào): 自然科學(xué)版, 2021,46(6): 1579-1591. (Hao Jinlin, Chen Xueyun. Face anti-spoofing based on spatial contex-taware contrastive learning[J]. Journal of Guangxi University: Na-tural Science Edition, 2021, 46(6): 1579-1591.)
[11]蔡體健, 塵福春, 劉文鑫. 基于條件對(duì)抗域泛化的人臉活體檢測(cè)方法[J]. 計(jì)算機(jī)應(yīng)用研究, 2022,39(8): 2538-2544. (Gai Tijian, Chen Fuchun, Liu Wenxin. Face anti-spoofing method based on conditional adversarial domain generalization[J]. Application Research of Computers, 2022,39(8): 2538-2544.)
[12]Jia Yunpei, Zhang Jie, Shan Shiguang, et al. Single-side domain generalization for face anti-spoofing[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2020: 8481-8490.
[13]Wang Zhuo, Wang Zezheng, Yu Zitong, et al. Domain generalization via shuffled style assembly for face anti-spoofing[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Pisca-taway, NJ: IEEE Press, 2022: 4113-4123.
[14]Wang Chienyi, Lu Yuding, Yang Shangta, et al. PatchNet: a simple face anti-spoofing framework via fine-grained patch recognition[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Re-cognition. Piscataway, NJ: IEEE Press, 2022: 20249-20258.
[15]Wang Jiong, Zhou Zhao, Jin Weike, et al. VLAD-VSA: cross-domain face presentation attack detection with vocabulary separation and adaptation[C]//Proc of the 29th ACM International Conference on Multimedia. New York: ACM Press, 2021: 1497-1506.
[16]Lyu Yihao, Gu Youzhi, Liu Xinggao. The dilemma of trihard loss and an element-weighted trihard loss for person re-identification[C]//Proc of the 34th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2020: 17391-17402.
[17]Shao Rui, Lan Xiangyuan, Li Jiawei, et al. Multi-adversarial discriminative deep domain generalization for face presentation attack detection[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2019: 10015-10023.
[18]Huang Xun, Belongie S. Arbitrary style transfer in real-time with adaptive instance normalization[C]//Proc of IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2017: 1510-1519.
[19]He Kaiming, Zhang Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2016: 770-778.
[20]Ganin Y, Lempitsky V. Unsupervised domain adaptation by backpropagation[C]//Proc of the 32nd International Conference on International Conference on Machine Learning.[S.l.]: JMLR.org, 2015: 1180-1189.
[21]Zhang Zhiwei, Yan Junjie, Liu Sifei, et al. A face antispoofing database with diverse attacks [C]//Proc of the 5th IAPR International Conference on Biometrics. Piscataway, NJ: IEEE Press, 2012: 26-31.
[22]Chingovska I, Anjos A, Marcel S. On the effectiveness of local binary patterns in face anti-spoofing[C]//Proc of International Conference of Biometrics Special Interest Group. Piscataway, NJ: IEEE Press, 2012: 1-7.
[23]Wen Di, Han Hu, Jain A K. Face spoof detection with image distortion analysis[J]. IEEE Trans on Information Forensics and Security, 2015, 10(4): 746-761.
[24]Boulkenafet Z, Komulainen J, Li Lei, et al. OULU-NPU: a mobile face presentation attack database with real-world variations[C]//Proc of the 12th IEEE International Conference on Automatic face & Gesture Recognition. Piscataway,NJ:IEEE Press, 2017: 612-618.
[25]Zhang Kaipeng, Zhang Zhanpeng, Li Zhifeng, et al. Joint face detection and alignment using multitask cascaded convolutional networks[J]. IEEE Signal Processing Letters, 2016, 23(10): 1499-1503.
[26]Wang Guoqing, Han Hu, Shan Shiguang, et al. Cross-domain face presentation attack detection via multi-domain disentangled representation learning[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2020: 6677-6686.
[27]Shao Rui, Lan Xiangyuan, Yuen P C. Regularized fine-grained meta face anti-spoofing[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 11974-11981.
[28]Yu Zitong, Wan Jun, Qin Yunxiao, et al. NAS-FAS: static-dynamic central difference network search for face anti-spoofing[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2020,43(9): 3005-3023.
[29]Chen Zitong, Yao Taiping, Sheng Kekai, et al. Generalizable representation learning for mixture domain face anti-spoofing[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2021: 1132-1139.
[30]Wang Jingjing, Zhang Jingyi, Bian Ying, et al. Self-domain adaptation for face anti-spoofing[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2021: 2746-2754.
[31]Liu Shubao, Zhang Keyue, Yao Taiping, et al. Dual reweighting domain generalization for face presentation attack detection [EB/OL]. (2021-06-30). https://arxiv.org/abs/2106.16128.
[32]Liu Shuhao, Zhang Keyue, Yao Taiping, et al. Adaptive normalized representation learning for generalizable face anti-spoofing[C]//Proc of the 29th ACM International Conference on Multimedia. New York: ACM Press, 2021: 1469-1477.
[33]Selvaraju R R, Cogswell M, Das A, et al. Grad-CAM: visual explanations from deep networks via gradient-based localization[C]//Proc of IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2017: 618-626.
[34]van der Maaten L, Hinton G. Visualizing data using t-SNE[J]. Journal of Machine Learning Research, 2008,9: 2579-2605.