999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進(jìn)CycleGAN 的素描頭像彩色化算法

2024-01-01 00:00:00廖振林國(guó)軍黃丹胡鑫游松蘭江海周旭金若水
宜賓學(xué)院學(xué)報(bào) 2024年6期

摘 要:針對(duì)現(xiàn)階段由素描頭像生成的彩色頭像圖像清晰度低、人臉識(shí)別率不高和視覺(jué)質(zhì)量不佳等問(wèn)題,提出一種改進(jìn)CycleGAN 的素描頭像彩色化算法:對(duì)U-Net 自編碼器的第一個(gè)特征提取模塊進(jìn)行優(yōu)化,設(shè)計(jì)一種多尺度自注意力機(jī)制特征提取模塊,從多個(gè)尺度提取輸入圖像以減少輸入圖像的細(xì)節(jié)信息丟失,將提取的特征用通道堆疊的方式進(jìn)行特征融合,對(duì)融合的特征嵌入SENet 自注意力機(jī)制,以引導(dǎo)模型對(duì)特征重點(diǎn)區(qū)域的關(guān)注度,最后再降低融合特征的通道維數(shù);對(duì)生成頭像與真實(shí)頭像添加L1像素?fù)p失和感知損失,以進(jìn)一步提升生成頭像的質(zhì)量. 實(shí)驗(yàn)結(jié)果表明:較基礎(chǔ)模型CycleGAN 生成的彩色頭像,在CUHK 數(shù)據(jù)集FID 值降低了22.23、Rank-1 值提高了16%,在AR 數(shù)據(jù)集FID 值降低了15.34、Rank-1 值提高了9.3%.

關(guān)鍵詞:CycleGAN;多尺度特征提取;SENet;監(jiān)督學(xué)習(xí);L1像素?fù)p失;感知損失

中圖分類號(hào):TP391.41

DOI: 10.19504/j.cnki.issn1671-5365.2024.06.04

隨著經(jīng)濟(jì)社會(huì)的飛速發(fā)展,人們?cè)絹?lái)越重視公共安全. 當(dāng)前常用的生物識(shí)別特征有人臉、指紋、DNA 和聲音等,人臉相較于其它生物特征具有更直觀、更容易獲取等突出特點(diǎn),被廣泛應(yīng)用在公共安全領(lǐng)域. 素描頭像在刑事偵查領(lǐng)域有著廣泛應(yīng)用,但素描頭像主要體現(xiàn)人臉的邊緣信息和輪廓信息,與真實(shí)人臉差異較大. 因此,將素描頭像轉(zhuǎn)換成彩色頭像,能更好地協(xié)助警方初步鎖定犯罪嫌疑人身份.

素描頭像的彩色化是人臉頭像合成的一個(gè)分支. 人臉頭像的合成主要有兩種方法: 傳統(tǒng)的合成方法和深度學(xué)習(xí)的方法. (1)傳統(tǒng)的合成方法有基于數(shù)據(jù)驅(qū)動(dòng)的方法和基于模型驅(qū)動(dòng)的方法. 基于數(shù)據(jù)驅(qū)動(dòng)的方法主要有基于子空間學(xué)習(xí)的局部線性嵌入(Locally Linear Embeding, LLE)法[1]和基于馬爾可夫隨機(jī)場(chǎng)(Markov Random Field, MRF)法[2]. 數(shù)據(jù)驅(qū)動(dòng)的方法合成的人臉頭像,一些重要的人臉特征(如眼鏡)可能會(huì)缺失在合成的人臉頭像中[3],且合成的人臉頭像也較模糊. 基于模型驅(qū)動(dòng)的方法,如Chang 等人提出的基于貝葉斯學(xué)習(xí)的方法[4],它能學(xué)到彩色頭像與素描頭像轉(zhuǎn)換的映射關(guān)系,但合成的素描頭像在某些地方會(huì)丟失素描風(fēng)格. (2)深度學(xué)習(xí)的方法有基于卷積神經(jīng)網(wǎng)絡(luò)的方法和基于生成對(duì)抗網(wǎng)絡(luò)(Generating Adversarial Networks, GAN)[5]的方法. Zhang 等人[6]提出了一種由6 個(gè)卷積層組成的神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)實(shí)現(xiàn)了彩色頭像到素描頭像端到端的非線性映射,但合成的素描頭像出現(xiàn)了模糊和失真. 自GAN 的概念被提出以后,越來(lái)越多的生成對(duì)抗模型不斷涌現(xiàn)出來(lái),極大地促進(jìn)了圖像跨域轉(zhuǎn)換的發(fā)展. Isola 等人[7]提出了Pix2Pix,通過(guò)分割的語(yǔ)義標(biāo)簽或圖像的邊緣完成圖像的轉(zhuǎn)換,轉(zhuǎn)換圖像的質(zhì)量得到了顯著提升,但該模型需要配對(duì)的圖像進(jìn)行訓(xùn)練,模型的使用場(chǎng)合受到了限制. Zhu 等人[8]提出了CycleGAN,該模型包含兩個(gè)生成對(duì)抗網(wǎng)絡(luò)的循環(huán)重建,相較于其它模型而言能更好地保持輸入圖像的結(jié)構(gòu),由于它是無(wú)監(jiān)督學(xué)習(xí)的模型,因此無(wú)需配對(duì)的數(shù)據(jù)集就可以完成圖像的跨域轉(zhuǎn)換.Anoosheh 等人[9]提出了ComboGAN,其生成器由多個(gè)編碼器和多個(gè)解碼器組成,域編碼器將輸入圖像映射到公共空間,域解碼器將映射到共空間的特征向量解碼實(shí)現(xiàn)圖像的跨域轉(zhuǎn)換. Heusel 等人[10]提出了BicycleGAN,該模型可以通過(guò)一次訓(xùn)練實(shí)現(xiàn)向多個(gè)域轉(zhuǎn)換的效果.

就素描頭像的彩色化任務(wù)而言,轉(zhuǎn)換前后頭像的結(jié)構(gòu)基本保持一致,故本文選用CycleGAN 作為基礎(chǔ)模型. 然而,CycleGAN 的生成器在對(duì)輸入圖像進(jìn)行特征提取時(shí)采取單一尺度的卷積核,無(wú)法充分提取輸入圖像的細(xì)節(jié)信息,故本文提出了一種多尺度自注意力機(jī)制特征提取模塊. 此外,彩色頭像含有豐富的細(xì)節(jié)、紋理和色彩等信息,本文將Cycle?GAN 轉(zhuǎn)為監(jiān)督學(xué)習(xí)模型,通過(guò)添加L1 像素?fù)p失和感知損失來(lái)約束生成頭像和真實(shí)頭像的相似度,從而引導(dǎo)模型生成更加真實(shí)的彩色頭像.

1 本文方法

1.1 模型的整體網(wǎng)絡(luò)框架

模型的整體網(wǎng)絡(luò)框架見(jiàn)圖1. 為便于描述,用X表示真實(shí)的彩色頭像組成的集合,設(shè)真實(shí)的彩色頭像滿足的分布為P (x );用Y 表示真實(shí)的素描頭像組成的集合,設(shè)真實(shí)的素描頭像滿足的分布為Q (y ).生成器G 將彩色頭像xi 轉(zhuǎn)換為素描頭像yi_fake,生成器F 在將轉(zhuǎn)化的素描頭像yi_fake 轉(zhuǎn)為循環(huán)的彩色頭像rec_xi. 生成器F 將素描頭像yi 轉(zhuǎn)換為彩色頭像xi_fake,生成器G 在將轉(zhuǎn)化的彩色頭像xi_fake 轉(zhuǎn)為循環(huán)的素描頭像rec_yi. 鑒別器DY 鑒別真實(shí)的彩色頭像和轉(zhuǎn)換的彩色頭像xi_fake,鑒別器DX 鑒別真實(shí)的素描頭像和轉(zhuǎn)換的素描頭像yi_fake.

1.2 U?Net 生成器優(yōu)化

U?Net 生成器[11]由編碼器、解碼器和跳層連接三部分組成. 編碼器與解碼器之間的跳層連接,能使生成頭像更好地保留輸入頭像的結(jié)構(gòu)信息[12].U?Net 生成器在對(duì)輸入圖像進(jìn)行特征提取時(shí)采取單一尺度的卷積核,無(wú)法充分地提取輸入圖像的細(xì)節(jié)信息. 為此,本文對(duì)U?Net 生成器的第一個(gè)特征提取模塊進(jìn)行了優(yōu)化設(shè)計(jì),設(shè)計(jì)了一種多尺度自注意力機(jī)制特征提取模塊. 優(yōu)化后的U?Net 生成器的網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示.

多尺度自注意力機(jī)制特征提取模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示,該模塊有3 個(gè)特征提取分支,自下向上分別為第一特征提取分支、第二特征提取分支和第三特征提取分支. 輸入頭像經(jīng)三個(gè)特征提取后,再采用通道連接的方式進(jìn)行特征融合,為提高模型對(duì)融合后特征重點(diǎn)區(qū)域的關(guān)注度嵌入自注意力機(jī)制(Squeeze-and-Excitation Networks, SENet)[13],最后再降低特征的通道維數(shù).

1.3 鑒別器結(jié)構(gòu)

鑒別器采用PatchGAN[7]的鑒別器,整個(gè)網(wǎng)絡(luò)由5 個(gè)卷積層組成,第1 個(gè)卷積層由卷積和LeakRelu 激活函數(shù)組成,中間的3 個(gè)卷積層都是由卷積、批量歸一化(BatchNorm)和LeakRelu 激活函數(shù)組成,最后一個(gè)卷積層由一個(gè)卷積組成. 輸入圖像被映射為一個(gè)30×30 的矩陣,矩陣中的每個(gè)數(shù)值對(duì)應(yīng)輸入圖像中某一區(qū)域?yàn)檎鎸?shí)圖像的概率.

普通GAN 的鑒別器將輸入圖像映射成一個(gè)值,該值是對(duì)整幅圖像進(jìn)行評(píng)價(jià). 相較而言,PatchGAN的鑒別器能更好地對(duì)生成圖像的細(xì)節(jié)信息進(jìn)行約束,從而提高生成圖像的質(zhì)量.

1.4 損失函數(shù)

(1)生成頭像與真實(shí)頭像的L1 像素?fù)p失

由于L1 距離約束能使模型生成更加清晰的圖像[7],為提高生成頭像的質(zhì)量,對(duì)生成頭像與真實(shí)頭像添加了L1 像素?fù)p失,L1 像素?fù)p失的計(jì)算式為:

Lxy = λxyExi ~ P (x)||G(x "i ) - yi|| 1 (1)

Lyx = λyx Eyi ~ Q (y )||F (y "i ) - xi ||1 (2)

式中λxy 和λyx 為權(quán)重系數(shù).

(2)生成頭像與真實(shí)頭像感知損失. 雖然添加L1像素?fù)p失可以改善生成圖像的質(zhì)量,但不能很好地對(duì)生成頭像的細(xì)節(jié)、紋理和色彩等信息進(jìn)行約束. 為此,對(duì)生成頭像與真實(shí)頭像添加感知損失. 本文采用在ImageNet 數(shù)據(jù)集[10]上預(yù)訓(xùn)練好的VGG-19[14]網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò),輸出特征提取網(wǎng)絡(luò)的relu1_1、relu2_1、relu3_1、relu4_1、relu5_1 層提取的特征,?1 () 表示relu1_1 輸出的特征,?2 () 表示relu2_1 輸出的特征,以此類推. 生成頭像與真實(shí)頭像的感知損失為:

式中λsx 和λsy 為權(quán)重系數(shù).

(3)生成對(duì)抗損失. 采用最小二乘損失作為GAN 的對(duì)抗損失能使模型的訓(xùn)練過(guò)程更加穩(wěn)定[15],因此,模型的生成對(duì)抗損失為:

Lc_GAN (G,F(xiàn),D )= LGAN (G,DY,X,Y ) + LGAN (F,DX,Y,X )= Exi ~ P (x )[ log (D )] Y (xi )+Eyi ~ Q (x )[ log (1 - D )] Y (F (yi ))+Eyi ~ Q(x )[ log (D )] X (yi )+Exi ~P ( x )[log (1 -DX (G( xi )))] (5)

(4)循環(huán)一致性損失. 輸入頭像與循環(huán)頭像應(yīng)盡可能一致. 因此,循環(huán)一致性損失為:

Lcyc = λcyc Eyi ~ Q (x )||G(F (y "i )) - yi|| 1 (6)

Lcxc = λcxc Exi ~ P (x )||F (G(x "i )) - xi ||1 (7)

式中λcyc 和λcxc 為權(quán)重系數(shù).

(5)本體映射損失. 對(duì)于真實(shí)的彩色頭像xi,通過(guò)生成器F 轉(zhuǎn)換后應(yīng)與xi 盡可能一致. 同理,對(duì)于真實(shí)的素描頭像yi,通過(guò)生成器G 轉(zhuǎn)換后也應(yīng)與yi 盡可能一致. 因此,本體映射損失為:

Lyc = λyc Eyi ~ Q (x )||G(y"i ) - yi ||1 (8)

Lxc = λxc Exi ~ P (x )||F (x "i ) - xi ||1 (9)

式中λyc 和λxc 為權(quán)重系數(shù).

(6)總損失函數(shù). 綜上,模型的總損失函數(shù)為:

Ltotal = Lc_GAN + Lcyc + Lcxc + Lyx + Lxy+Lyc + Lxc + Lsx + Lsy (10)

2 實(shí)驗(yàn)設(shè)置、結(jié)果與分析

為驗(yàn)證素描頭像彩色化任務(wù)的有效性,將本文模型與Pix2Pix、CycleGAN、BicycleGAN 和Combo?GAN 模型進(jìn)行了對(duì)比實(shí)驗(yàn).

2.1 數(shù)據(jù)集介紹

本文選取CUHK 數(shù)據(jù)集和AR 數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)驗(yàn)證. CUHK 數(shù)據(jù)集總共有188 對(duì)素描頭像,訓(xùn)練集有88 對(duì)素描頭像,測(cè)試集有100 對(duì)素描頭像. AR 數(shù)據(jù)集總共有123 對(duì)素描頭像,訓(xùn)練集有80 對(duì)素描頭像,實(shí)驗(yàn)時(shí)將以上圖像裁剪后調(diào)整到256×256.

2.2 實(shí)驗(yàn)設(shè)置

(1)實(shí)驗(yàn)環(huán)境. 實(shí)驗(yàn)在Windows 10 的環(huán)境下進(jìn)行,CPU 為Intel?Core? i7-4770,GPU 為NVIDIAGeForce RTX 3060(顯存12 GB),采用pytorch 的框架進(jìn)行實(shí)驗(yàn).

(2)實(shí)驗(yàn)參數(shù). 兩個(gè)數(shù)據(jù)集訓(xùn)練時(shí),批大小均設(shè)置為1,均迭代200 輪,在前100 輪時(shí)學(xué)習(xí)率均設(shè)置為0.0002,在后100 輪學(xué)習(xí)率從0.0002 線性衰減到0. 在CUHK 數(shù)據(jù)集訓(xùn)練時(shí)損失函數(shù)中的參數(shù)取值為:λcyc和λcxc 均為5,λyc 和λxc 均為0.5,λxy 和λyx 為1,λsx 和λsy均為0.2. 在AR 數(shù)據(jù)集訓(xùn)練時(shí)損失函數(shù)中的參數(shù)取值為:λcyc 和λcxc 均為5,λyc 和λxc 均為0.5,λxy 和λyx 均為1,λsx 和λsy 均為0.5.

2.3 實(shí)驗(yàn)結(jié)果評(píng)估

(1)定性實(shí)驗(yàn)評(píng)估. 各模型在CUHK 數(shù)據(jù)集和AR 數(shù)據(jù)集生成的彩色頭像見(jiàn)圖4,圖中上面兩行為各模型在CUHK 數(shù)據(jù)集生成的彩色頭像,下面兩行為各模型在AR 數(shù)據(jù)集生成的彩色頭像. 由圖4 可知,本文模型生成的彩色頭像與真實(shí)的彩色圖像更相似、視覺(jué)質(zhì)量更佳.

(2)定量實(shí)驗(yàn)評(píng)估. FID(Fréchet Inception Dis?tance)[16]用于評(píng)估生成圖像和真實(shí)圖像相似度,其值越小表明生成圖像與真實(shí)圖像越相似. Rank-k[17]是人臉識(shí)別的一個(gè)評(píng)價(jià)指標(biāo),表示在人臉庫(kù)中與輸入人臉最相似前k 張人臉圖像中找到正確人臉的概率. 設(shè)素描頭像和真實(shí)的彩色頭像均為m 張,且素描頭像和真實(shí)的彩色頭像一一對(duì)應(yīng),真實(shí)的彩色頭像組成人臉庫(kù);對(duì)于每張輸入素描頭像,采用Dlib[18]庫(kù)中的人臉識(shí)別模型提取輸入圖像與人臉庫(kù)中的圖像,進(jìn)而得到每張圖像的特征向量;然后比對(duì)輸入圖像的特征向量與人臉庫(kù)中每張圖像的特征向量,得到與人臉庫(kù)中每張圖像的相似度;若與輸入圖像最相似的前k 個(gè)人臉中,找到與之對(duì)應(yīng)的真實(shí)的彩色頭像則yik 記為1,否則yik 記為0,則Rank?k 值計(jì)算如下:

各模型將CUHK 測(cè)試集中的素描頭像和AR 測(cè)試集中的素描頭像,轉(zhuǎn)換成彩色頭像的性能指標(biāo)分別見(jiàn)表1 和表2. 由表1 和表2 可知,本文模型轉(zhuǎn)換的彩色人臉頭像的FID 值最小,Rank-1、Rank-3 和Rank-5 的值均最大,即本文模型轉(zhuǎn)換的彩色頭像與真實(shí)的彩色頭像更相似、人臉識(shí)別率更優(yōu).

各模型將CUHK 測(cè)試集中的素描頭像轉(zhuǎn)換為彩色頭像的人臉識(shí)別率和素描頭像的人臉識(shí)別率見(jiàn)圖5,將AR 測(cè)試集中的素描頭像轉(zhuǎn)換為彩色頭像的人臉識(shí)別率和素描頭像的人臉識(shí)別率見(jiàn)圖6. 由圖5和圖6 可知,本文模型轉(zhuǎn)換的彩色頭像的人臉識(shí)別率曲線位于其它模型的上方,進(jìn)一步說(shuō)明本文模型轉(zhuǎn)換的彩色頭像的人臉識(shí)別率更優(yōu).

2.4 消融實(shí)驗(yàn)

為探索多尺度自注意力機(jī)制特征提取模塊、L1像素?fù)p失和感知損失對(duì)素描頭像彩色化任務(wù)的有效性,在CUHK 數(shù)據(jù)集上做了消融實(shí)驗(yàn). 基礎(chǔ)組為CycleGAN,第一組為對(duì)U?Net 生成器的第一個(gè)特征提取模塊進(jìn)行了優(yōu)化設(shè)計(jì),即采取了多尺度自注意力機(jī)制特征提取模塊提取輸入圖像,第二組為在第一組的基礎(chǔ)上添加L1 像素?fù)p失,第三組為在第二組的基礎(chǔ)上添加感知損失. 各對(duì)照組將CUHK 測(cè)試集中的素描頭像轉(zhuǎn)換為彩色頭像的性能指標(biāo)見(jiàn)表3.由表3 可知,多尺度自注意力機(jī)制特征提取模塊可以降低彩色頭像的FID 值,且能提高彩色頭像的人臉識(shí)別率,L1 像素?fù)p失雖然使彩色頭像的FID 值有輕微增大,但人臉識(shí)別率有明顯提高;感知損失可以降低彩色頭像的FID 值和提高彩色頭像的人臉識(shí)別率.

3 結(jié)語(yǔ)

本文提出了一種素描頭像彩色化算法首先,設(shè)計(jì)一種多尺度自注意力機(jī)制特征提取模塊,實(shí)現(xiàn)對(duì)輸入圖像多尺度特征提取,同時(shí)通過(guò)添加SENet 注意力機(jī)制的方式來(lái)提高模型對(duì)感興趣區(qū)域的關(guān)注度然后,添加生成頭像與真實(shí)頭像L1 像素?fù)p失和感知損失,以提高轉(zhuǎn)換頭像的質(zhì)量實(shí)驗(yàn)結(jié)果表明:本文模型轉(zhuǎn)換的彩色頭像較其它模型轉(zhuǎn)換的彩色頭像,視覺(jué)質(zhì)量更佳、與真實(shí)的彩色頭像更相似和人臉識(shí)別率也更優(yōu).

參考文獻(xiàn):

[1] LIU Q, TANG X, JIN H, et al. A nonlinear approach forface sketch synthesis and recognition[C]//IEEE ComputerSociety Conference on Computer Vision and Pattern Recog?nition. San Diego: IEEE, 2005. doi:10.1109/CVPR.2005.39.

[2] WANG X, TANG X. Face photo-sketch synthesis and rec?ognition[J]. IEEE Transactions on Pattern Analysis and MachineIntelligence, 2008, 31(11): 1955-1967. doi: 10.1109/TPAMI.2008.222.

[3] 孫銳,孫琦景,單曉全,等. 基于多殘差動(dòng)態(tài)融合生成對(duì)抗網(wǎng)絡(luò)的人臉?biāo)孛?照片合成方法[J]. 模式識(shí)別與人工智能,2022,35(3):207-222.

[4] CHANG L, ZHOU M, DENG X, et al. Face sketch synthe?sis via multivariate output regression[C]//JACKO J A.Human-Computer Interaction. Berlin Heidelberg: Springer,2011: 555-561. doi:10.1007/978-3-642-21602-2_60.

[5] GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, etal. Generative adversarial nets[C]//Proceedings of the 27th In?ternational Conference on Neural Information Processing Sys?tems. Cambridge: MIT Press, 2014: 2672-2680.

[6] ZHANG D, LIN L, CHEN T, et al. Content-adaptivesketch portrait generation by decompositional representationlearning[J]. IEEE Transactions on Image Processing, 2017, 26(1): 328-339. doi:10.1109/TIP.2016.2623485.

[7] ISOLA P, ZHU J Y, ZHOU T, et al. Image-to-image trans?lation with conditional adversarial networks[C]//IEEE Con?ference on Computer Vision and Pattern Recognition. Hono?lulu: IEEE, 2017: 5967-5976. doi:10.1109/CVPR.2017.632.

[8] ZHU J Y, PARK T, ISOLA P, et al. Unpaired image-toimagetranslation using cycle-consistent adversarial networks[C]//IEEE International Conference on Computer Vision.Venice: IEEE, 2017: 2242-2251. doi: 10.1109/ICCV.2017.244.

[9] ANOOSHEH A, AGUSTSSON E, TIMOFTE R, et al.ComboGAN: Unrestrained scalability for image domain trans?lation[C]//IEEE Conference on Computer Vision and Pat?tern Recognition Workshops. Salt Lake City: IEEE, 2018:896-8967. doi:10.1109/CVPRW.2018.00122.

[10] HEUSEL M, RAMSAUER H, UNTERTHINER T, et al.GANs trained by a two time-scale update rule converge to alocal nash equilibrium[C]//Advances in Neural InformationProcessing Systems. Red Hook: Curran Associates Inc., 2017:6629-6640. doi:10.48550/arXiv.1706.08500.

[11] RONNEBERGER O, FISCHER P, BROX T. U-net:Convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted In?tervention. Munich: Springer, 2015: 234-241. doi: 10.1007/978-3-319-24574-4_28.

[12] 陳金龍,劉雄飛,詹曙. 基于無(wú)監(jiān)督生成對(duì)抗網(wǎng)絡(luò)的人臉?biāo)孛鑸D像真實(shí)化[J]. 計(jì)算機(jī)工程與科學(xué),2021,43(1): 125-133.

[13] Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]//IEEE/CVF Conference on Computer Vision and PatternRecognition. Salt Lake City: IEEE, 2018: 7132-7141. doi:10.1109/CVPR.2018.00745.

[14] SIMONYAN K, ZISSERMAN A. Very deep convolutionalnetworks for large-scale image recognition[J]. 2014-09-04.arXiv:1409.1556.

[15] MAO X, LI Q, XIE H, et al. Least squares generative adver?sarial networks[C]//IEEE International Conference on Com?puter Vision. Venice: IEEE, 2017: 2813-2821. doi: 10.1109/ICCV.2017.304.

[16] CRESWELL A, WHITE T, DUMOULIN V, et al. Generativeadversarial networks: An overview[J]. IEEE Signal ProcessingMagazine, 2018, 35(1): 53-65.doi:10.1109/MSP.2017.2765202.

[17] FANG H, COSTEN N. From rank-n to rank-1 face recog?nition based on motion similarity[C]//British Machine VisionConference. London: 2009: 1-11. https://www.researchgate.net/publication/221259929_From_Rank-N_to_Rank-1_Face_Recognition_Based_on_Motion_Similarity.

[18] KING D E. Dlib-ml: A machine learning toolkit[J]. TheJournal of Machine Learning Research, 2009(10): 1755-1758. https://dl.acm.org/citation.cfm?id=1755843.

【編校:王露】

基金項(xiàng)目:四川省科技廳項(xiàng)目“基于慢性帕金森病獼猴模型的運(yùn)動(dòng)皮層神經(jīng)元編碼規(guī)律研究”(2022YFSY0056)

主站蜘蛛池模板: 青草午夜精品视频在线观看| 亚洲一道AV无码午夜福利| 国产精品林美惠子在线播放| 丁香综合在线| 国产91高跟丝袜| 国产一级视频在线观看网站| 亚洲黄色网站视频| 日韩大片免费观看视频播放| 四虎永久在线精品国产免费| 国产SUV精品一区二区| 亚洲天堂.com| 亚洲第一在线播放| 蜜臀AV在线播放| 99这里只有精品在线| 久久毛片基地| 综合色在线| 中文字幕在线视频免费| 欧美a网站| 国内熟女少妇一线天| 国产免费怡红院视频| 国产高潮流白浆视频| 久久综合九色综合97网| 伊人成人在线| 免费看一级毛片波多结衣| 亚洲日本一本dvd高清| 欧美成人在线免费| 五月婷婷亚洲综合| 精品一区二区久久久久网站| 欧美在线黄| 国产精品人成在线播放| 青青草原国产免费av观看| 亚洲三级色| 有专无码视频| 久久国产黑丝袜视频| 91美女视频在线观看| 国产福利影院在线观看| 国产无遮挡猛进猛出免费软件| 亚洲美女高潮久久久久久久| 99国产精品免费观看视频| 免费福利视频网站| 狠狠色噜噜狠狠狠狠色综合久| 亚洲第一区欧美国产综合| 中文纯内无码H| 四虎成人免费毛片| 亚洲国产精品一区二区第一页免 | av在线无码浏览| 小13箩利洗澡无码视频免费网站| 欧美中文字幕在线视频| 免费无码又爽又黄又刺激网站| 在线观看网站国产| 日韩美毛片| 天天色天天综合| 欧美色视频在线| 久久毛片网| 中文字幕免费在线视频| 亚洲国产精品成人久久综合影院| 久久精品丝袜| 伊人久久久久久久| 激情亚洲天堂| 青青久久91| 免费中文字幕在在线不卡| 亚洲日韩精品无码专区| 精品国产香蕉伊思人在线| 91精品综合| av在线手机播放| 白浆免费视频国产精品视频| 99爱在线| 成人亚洲天堂| 日韩 欧美 国产 精品 综合| 久久亚洲精少妇毛片午夜无码 | 久久精品最新免费国产成人| 色婷婷亚洲综合五月| 亚洲一区二区三区中文字幕5566| 亚洲中文字幕在线一区播放| 毛片在线区| 亚洲国产精品一区二区第一页免| 伊人久久青草青青综合| 91精品小视频| 伊人久久大香线蕉aⅴ色| 国产精品九九视频| 国产人人射| 亚洲第一精品福利|