999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種輕量化EfficientNetV2換臉檢測(cè)的方法

2022-12-21 10:06:02
信息記錄材料 2022年10期
關(guān)鍵詞:實(shí)驗(yàn)檢測(cè)模型

李 昂

(1福建師范大學(xué)計(jì)算機(jī)與網(wǎng)絡(luò)空間安全學(xué)院 福建 福州 350007)

(2數(shù)字福建大數(shù)據(jù)安全技術(shù)研究所 福建 福州 350117)(3福建省公共服務(wù)大數(shù)據(jù)挖掘與應(yīng)用工程技術(shù)研究中心 福建 福州 350117)

0 引言

隨著深度學(xué)習(xí)技術(shù)的完善與發(fā)展,為人們帶來便利同時(shí)也會(huì)相應(yīng)的帶來一定的風(fēng)險(xiǎn)。尤其是換臉技術(shù)的不斷升級(jí)改進(jìn),換臉方法所需的技術(shù)門檻越來越低,而生成的假臉則越來越逼真。因此為了達(dá)到更好的檢測(cè)精度,檢測(cè)模型不得不加深網(wǎng)絡(luò)架構(gòu),增加更多的參數(shù)量以獲得更好的準(zhǔn)確率,但又會(huì)導(dǎo)致模型復(fù)雜性過高,網(wǎng)絡(luò)運(yùn)算效率降低等一系列問題。

現(xiàn)如今換臉檢測(cè)算法網(wǎng)絡(luò)模型復(fù)雜和參數(shù)冗余的問題是普遍存在的,大多的換臉檢測(cè)模型依靠重復(fù)堆疊網(wǎng)絡(luò)模塊,或大量引入殘差結(jié)構(gòu),運(yùn)行效率較低。故部分換臉檢測(cè)模型為了優(yōu)化網(wǎng)絡(luò)模型,提高訓(xùn)練速度,通過研究輕量級(jí)網(wǎng)絡(luò)來解決這個(gè)問題。現(xiàn)如今一些方法雖然降低了模型的復(fù)雜度,減輕模型的計(jì)算負(fù)載,但所得到的檢測(cè)效果都不盡人意。

而本文基于EfficientNetV2網(wǎng)絡(luò),對(duì)其進(jìn)行輕量化改進(jìn),從而提高了模型的檢測(cè)效率。首先,將原網(wǎng)絡(luò)注意力機(jī)制SENet模塊改進(jìn)為高效通道注意力模塊(efficient channel attention,ECA),可使一維卷積自適應(yīng)地確定卷積核的大小,降低了網(wǎng)絡(luò)模型的復(fù)雜度[1]。其次對(duì)網(wǎng)絡(luò)架構(gòu)進(jìn)行優(yōu)化,將原始EfficientNetV2特征提取模塊中的各個(gè)stage的卷積層數(shù)進(jìn)行調(diào)整,簡化了網(wǎng)絡(luò)模型架構(gòu),提高了網(wǎng)絡(luò)的運(yùn)行速率。最后,通過實(shí)驗(yàn)對(duì)比分析其他的網(wǎng)絡(luò)模型,驗(yàn)證改進(jìn)后模型的性能效果。

1 輕量化EfficientNetV2網(wǎng)絡(luò)模型

1.1 EfficientNetV2網(wǎng)絡(luò)模型

EfficientNetV2[2]模型是Google團(tuán)隊(duì)在CVPR2021上提出的對(duì)EfficientNet模型的升級(jí)版本。EfficientNetV2模型相比較于EfficientNet,它擁有更高的性能和更短的訓(xùn)練周期。EfficientNetV2分為Stage0到Stage7。第0個(gè)Stage是一個(gè)卷積核大小為3×3步距為2的普通卷積層,之后的Stage1~Stage3和Stage4~Stage6分別是在重復(fù)堆疊Fused-MBConv和MBConv結(jié)構(gòu),而Stage7由一個(gè)普通的1x1的卷積層。EfficientNetV2模型在Stage4~Stage6中都使用了通道注意力機(jī)制,即SE(Squeeze-and-Excitation)壓縮-激勵(lì)模塊[3]。

1.2 提出的輕量化EfficientNetV2模型

針對(duì)上述情況,本文從通道注意力機(jī)制SE模塊和各階段堆疊次數(shù)對(duì)EfficientNetV2進(jìn)行優(yōu)化,提出的輕量化EfficientNetV2網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

圖1 本文提出的輕量化EfficientV2網(wǎng)絡(luò)模型

一方面,EfficientNetV2模型在Stage4~Stage6中使用的通道注意力機(jī)制是SE模塊,其全局平均池化層和兩個(gè)全連接層構(gòu)成的殘差結(jié)構(gòu)產(chǎn)生的冗余的參數(shù)量會(huì)增加網(wǎng)絡(luò)的計(jì)算負(fù)擔(dān)。針對(duì)這種情況,本文采用更加輕量化的注意力機(jī)制高效通道注意力模塊ECA來代替SE模塊,減少了模型參數(shù)量和提升網(wǎng)絡(luò)的運(yùn)算效率。

另一方面,上述網(wǎng)絡(luò)每個(gè)階段的堆疊次數(shù)隨著網(wǎng)絡(luò)層數(shù)的加深大致呈指數(shù)型增長,影響了網(wǎng)絡(luò)模型的計(jì)算速度,還有可能導(dǎo)致梯度消失的問題。本算法重新定義網(wǎng)絡(luò)各階段重復(fù)堆疊的次數(shù)減少各階段網(wǎng)絡(luò)堆疊次數(shù),在保證網(wǎng)絡(luò)準(zhǔn)確率的情況下實(shí)現(xiàn)網(wǎng)絡(luò)的輕量化改造。

1.3 ECA模塊

在EfficientNetV2網(wǎng)絡(luò)中,通道注意力機(jī)制使用了SENet,是在CVPR2017上首次被提出的,其中心思想是動(dòng)態(tài)調(diào)節(jié)特征矩陣各層的重要程度,但SENet不利于網(wǎng)絡(luò)模型的輕量化,影響了網(wǎng)絡(luò)模型的計(jì)算速度還有可能導(dǎo)致梯度消失的問題。

ECA(Efficient Channel Attention)高效通道注意力模塊正是一種不降維的局部跨信道交互策略,其通過非線性自適應(yīng)確定的一維卷積來實(shí)現(xiàn)。因此本文使用ECA模塊既避免了維度縮減,又有效捕獲了跨通道交互。如圖2所示,ECA模塊去掉了SE模塊的2層全連接層,采用一維卷積。實(shí)驗(yàn)證明,這種方法可以保證運(yùn)算效率和檢測(cè)準(zhǔn)確性。此外,ECA模塊可以通過大小為k的快速一維卷積有效實(shí)現(xiàn),其中內(nèi)核大小k代表本地跨通道交互的覆蓋范圍。

圖2 ECANet模塊結(jié)構(gòu)示意圖

本文將注意力機(jī)制 SE模塊改進(jìn)為 ECA模塊,既避免降維導(dǎo)致的副作用,提高了網(wǎng)絡(luò)模型的精度,同時(shí)大大減少了參數(shù)量,簡化了網(wǎng)絡(luò)模型架構(gòu),提高了網(wǎng)絡(luò)的運(yùn)行速率,實(shí)現(xiàn)網(wǎng)絡(luò)輕量化的構(gòu)想。

1.4 模型優(yōu)化

在EfficientNetV2網(wǎng)絡(luò)中,隨著網(wǎng)絡(luò)深度的增加,每層的重復(fù)堆疊次數(shù)大致呈指數(shù)型增長,其會(huì)大大減慢訓(xùn)練和測(cè)試過程。故本節(jié)重新定義EfficientNetV2每個(gè)階段的重復(fù)次數(shù)。在原網(wǎng)絡(luò)中,Stage1~Stage6中Fuse-MBconv(MBConv)的重復(fù)次數(shù)為[2,4,4,6,9,15],而本文將每階段的重復(fù)次數(shù)調(diào)整為[1,2,1,3,3,6]。

原網(wǎng)絡(luò)層數(shù)復(fù)雜,所消耗的計(jì)算資源多。因此對(duì)原網(wǎng)絡(luò)的簡化,保留了網(wǎng)絡(luò)中的核心架構(gòu),減少了網(wǎng)絡(luò)參數(shù),簡化了計(jì)算量同時(shí)也能達(dá)到很好的分類檢測(cè)效果。

2 實(shí)驗(yàn)結(jié)果

本節(jié)首先介紹了實(shí)驗(yàn)數(shù)據(jù)集,其次是實(shí)驗(yàn)環(huán)境和實(shí)驗(yàn)參數(shù)的設(shè)置,最后分析模型的效果,并與修改前的網(wǎng)絡(luò)和現(xiàn)有換臉檢測(cè)方法做對(duì)比。

2.1 實(shí)驗(yàn)數(shù)據(jù)集

本文所使用的數(shù)據(jù)集是FaceForensics++(FF++)[4],包含1000段來自于YouTube上的真實(shí)視頻,基于DeepFakes,F(xiàn)ace2Face,F(xiàn)aceSwap,F(xiàn)aceShifter,NeutralTextures五種篡改方式進(jìn)行面部圖像的篡改合成。此外為了生成質(zhì)量等級(jí)不同的視頻,其使用由兩種不同壓縮率,即高質(zhì)量HQ(c23)和低質(zhì)量LQ(c40)。本文選取了DeepFakes、Face2Face、FaceSwap、FaceShifter、NeutralTextures五種篡改方式的數(shù)據(jù)集作為本實(shí)驗(yàn)的數(shù)據(jù)集,將每段視頻取30幀的方式得到實(shí)驗(yàn)樣本的數(shù)據(jù)集。

2.2 實(shí)驗(yàn)環(huán)境及參數(shù)

本文實(shí)驗(yàn)使用CPU為Intel(R) Xeon(R) Silver 4210R CPU @ 2.40GHz,顯卡為NVIDIA GeForce RTX 3080,CUDA版本為11.5。深度學(xué)習(xí)框架使用pytorch,版本為1.10.0。為提高模型分類精度和訓(xùn)練效率,本文實(shí)驗(yàn)的損失函數(shù)為CrossEntropyLoss,采用Adam優(yōu)化器進(jìn)行優(yōu)化,學(xué)習(xí)率為3e-4,每次實(shí)驗(yàn)訓(xùn)練200輪,實(shí)驗(yàn)采用準(zhǔn)確率(Acc)作為評(píng)價(jià)指標(biāo)。

2.3 實(shí)驗(yàn)結(jié)果

2.3.1 改進(jìn)后的參數(shù)量的變化

本小節(jié)將提出的網(wǎng)絡(luò)與原EfficientNetV2網(wǎng)絡(luò)在參數(shù)量方面進(jìn)行比較,通過實(shí)驗(yàn)可知:EfficientNetV2、只使用ECA模塊、只簡化每個(gè)階段stag和簡化每個(gè)階段Stage&ECA模塊的參數(shù)量分別為20.78 M、17.12 M、8.67 M和7.32 M。從結(jié)果來看,不管是簡化每個(gè)階段的重復(fù)次數(shù)還是用ECA模塊替換原SENet,在網(wǎng)絡(luò)參數(shù)上都有了明顯的減少,三種方法的參數(shù)量較原模型分別減少了17.61%、58.28%和64.78%,提高了運(yùn)算速度,符合本文輕量化網(wǎng)絡(luò)的目的。

2.3.2 ECA模塊

在本節(jié),我們將只替換ECA模塊得到的網(wǎng)絡(luò)結(jié)構(gòu)與EfficientNetV2在FaceForensice++(FF++)數(shù)據(jù)集的5種篡改類型上的每輪訓(xùn)練所需要的平均時(shí)間(秒)和檢測(cè)準(zhǔn)確率進(jìn)行比較,結(jié)果圖3所示。

圖3 在基于c23和c40的五種篡改方式數(shù)據(jù)集上訓(xùn)練一輪所需時(shí)間的對(duì)比(0:Deepfakes 1:Face2Face 2:FaceShifter 3:FaceSwap 4:NeuralTextures)

在原EfficientNetV2模型基礎(chǔ)上將SE模塊修改為ECA,在訓(xùn)練時(shí)間上發(fā)生了顯著的變化。首先對(duì)于5種篡改方式,在訓(xùn)練時(shí)間上都有顯著的縮短,整體上大約下降了6.17%,在提高網(wǎng)絡(luò)模型的運(yùn)算效率方面有了顯著的改善。因此,這項(xiàng)實(shí)驗(yàn)證明了本文的想法在提高網(wǎng)絡(luò)效率,構(gòu)造輕量化網(wǎng)絡(luò)模型方向上是可行的。

此外,在原EfficientNetV2模型基礎(chǔ)上將SE模塊修改為ECA,在準(zhǔn)確率Acc方面表現(xiàn)不俗,除了FaceSwap和NeuralTextures在c40上準(zhǔn)確率Acc略微下降外,其余的準(zhǔn)確率都有上升。具體如表1所示:

表1 與EfficientNetV2準(zhǔn)確率的對(duì)比

2.3.3 與其他模型的比較

將本文方法與其他方法在FaceForensice++壓縮率為c40的低質(zhì)量數(shù)據(jù)集上的4種篡改類型上的檢測(cè)準(zhǔn)確率進(jìn)行比較,結(jié)果如表2所示。對(duì)比實(shí)驗(yàn)結(jié)果如下:

表2 與其他方式對(duì)比實(shí)驗(yàn)結(jié)果

實(shí)驗(yàn)結(jié)果表明:在僅使用ECA模塊的模型(Ours1)和簡化每個(gè)階段Stage并且使用ECA模塊的模型(Ours2)上,雖在FaceSwap和NeuralTextures兩種篡改方式上準(zhǔn)確率略微下降,而在DeepFakes和Face2Face的篡改方式上,準(zhǔn)確率都有較為明顯的提升,并且在綜合所有篡改方式進(jìn)行測(cè)試時(shí),本文的兩種模型都比EfficientNetV2模型有著較為明顯的提升。更重要的是,兩種模型的參數(shù)量比原模型分別減少了17.61%和64.78%,所需要的運(yùn)算時(shí)間也大幅度提升。因此本文算法將EfficientNetV2輕量化改造后,模型的參數(shù)量和訓(xùn)練時(shí)間都大幅度降低,在保證檢測(cè)準(zhǔn)確度的情況下,能夠更加高效的完成換臉檢測(cè)任務(wù),輕量化構(gòu)想有效可行。

3 結(jié)論

本文基于EfficientNetV2網(wǎng)絡(luò),提出一種輕量化的換臉檢測(cè)模型。首先,將注意力機(jī)制SE模塊改進(jìn)為ECA模塊,減少了模型的參數(shù)量;其次,對(duì)網(wǎng)絡(luò)架構(gòu)進(jìn)行優(yōu)化,將原始EfficientNetV2特征提取模塊中的各個(gè)stage(階段)的卷積層數(shù)進(jìn)行調(diào)整,簡化了網(wǎng)絡(luò)模型架構(gòu),提高了網(wǎng)絡(luò)模型的運(yùn)算效率。

猜你喜歡
實(shí)驗(yàn)檢測(cè)模型
一半模型
記一次有趣的實(shí)驗(yàn)
“不等式”檢測(cè)題
“一元一次不等式”檢測(cè)題
“一元一次不等式組”檢測(cè)題
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
做個(gè)怪怪長實(shí)驗(yàn)
3D打印中的模型分割與打包
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
主站蜘蛛池模板: 9啪在线视频| 亚洲视频无码| 男女性色大片免费网站| 亚洲AV无码不卡无码| 亚洲男人的天堂在线观看| 色香蕉影院| 久久精品人人做人人综合试看| 激情综合图区| 91亚洲视频下载| 中国精品久久| 午夜精品久久久久久久无码软件| 四虎成人免费毛片| 精品久久香蕉国产线看观看gif | 国产福利在线免费| 日本精品影院| 国产成人久久综合一区| 福利在线不卡一区| 好紧好深好大乳无码中文字幕| 欧美第一页在线| 欧美综合区自拍亚洲综合绿色| 免费不卡在线观看av| 亚洲精品色AV无码看| 日韩A∨精品日韩精品无码| 久久综合色播五月男人的天堂| 91精品人妻一区二区| 国产精品美女自慰喷水| 国产特级毛片aaaaaaa高清| 日韩无码真实干出血视频| 在线观看国产精美视频| 欧美高清国产| 毛片在线播放网址| 久久精品aⅴ无码中文字幕| 四虎综合网| 国产产在线精品亚洲aavv| 亚洲日韩国产精品无码专区| 欧美福利在线| 精品国产美女福到在线直播| 久久久久夜色精品波多野结衣| 欧美丝袜高跟鞋一区二区| 色综合久久88| 一级一级特黄女人精品毛片| 制服无码网站| 成人午夜亚洲影视在线观看| 99激情网| 激情综合网激情综合| 亚洲综合片| 97久久超碰极品视觉盛宴| 国产毛片基地| 性色生活片在线观看| 爆操波多野结衣| AV在线天堂进入| 国产理论最新国产精品视频| 久久久精品无码一区二区三区| 天天摸天天操免费播放小视频| 99在线观看国产| 国产真实乱子伦视频播放| 中文字幕在线视频免费| 99这里只有精品6| 8090成人午夜精品| 亚洲最大情网站在线观看 | 国产视频一二三区| 色综合中文| 国产欧美日韩va| 久久综合九色综合97网| 91久久夜色精品国产网站| 亚洲日韩精品无码专区| 日韩一级二级三级| 亚洲福利网址| 性欧美精品xxxx| 天天色天天操综合网| 国产美女精品在线| 国产黄色爱视频| 国产精品v欧美| 欧美一级视频免费| 日韩中文无码av超清| 97久久免费视频| 国产精品观看视频免费完整版| 19国产精品麻豆免费观看| 高潮毛片无遮挡高清视频播放| 国产美女在线免费观看| 高清乱码精品福利在线视频| 久久永久精品免费视频|