999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

復(fù)合因素影響下嫌疑人發(fā)型變化的深度模擬

2025-04-10 00:00:00劉耀暉孫鵬郎宇博沈喆孫德廷宋強
計算機應(yīng)用研究 2025年3期

摘 要:年齡、偽裝等復(fù)合因素影響下,命案積案中嫌疑人的相貌、發(fā)型等體貌特征變化具有明顯的不確定性。針對上述問題,提出雙重風(fēng)格遷移生成對抗網(wǎng)絡(luò)(dual style transfer generative adversarial network,DstGAN)對人像發(fā)型變化進行模擬。首先,設(shè)計了雙重StyleGAN生成器,借助人像年齡化模型,將人像年齡化信息與發(fā)型變化相結(jié)合,提高客觀因素影響下發(fā)型模擬結(jié)果的真實度。其次,引入BiSeNET算法對輸入人像及其目標(biāo)發(fā)型進行語義分割后得到目標(biāo)人像語義圖,并在FS潛在空間中利用交叉熵損失函數(shù)約束GAN逆映射生成的語義圖,與模擬后的語義圖實現(xiàn)語義對齊,避免出現(xiàn)非自然融合現(xiàn)象。最后,為進一步擴充發(fā)型變化種類,通過在RM潛在空間中對發(fā)型向量進行編輯,修改輸入人像發(fā)型所包含的語義屬性,實現(xiàn)對于光頭等特殊發(fā)型的模擬。DstGAN與一些經(jīng)典發(fā)型變化模型相比,更加有效地保證了人臉身份特征的一致性,更加平滑地實現(xiàn)發(fā)型與面部邊緣的過渡。同時DstGAN在PSNR、SSIM等指標(biāo)評價的結(jié)果中,相比于經(jīng)典發(fā)型變化模型,均取得最為優(yōu)異的客觀評分,表明DstGAN模擬發(fā)型變化的人像清晰度更高、感知質(zhì)量更優(yōu)、皮膚紋理更真實。

關(guān)鍵詞:命案積案;發(fā)型變化;風(fēng)格遷移;BiSeNET算法;語義編輯

中圖分類號:TP391.9"" 文獻標(biāo)志碼:A"" 文章編號:1001-3695(2025)03-041-0955-06

doi:10.19734/j.issn.1001-3695.2024.04.0215

Deep simulation of suspect hairstyles under influence of multiple factors

Liu Yaohui1,Sun Peng1,2,Lang Yubo1,Shen Zhe3,Sun Deting4,Song Qiang5

(1.Public Security Information Technology amp; Information,Criminal Investigation Police University of China,Shenyang 110854,China;2.Key Laboratory of Forensic Expertise,Judiciary,Shanghai 200063,China;3.Civil Aviation College,Shenyang Aerospace University,Shen-yang 110135,China;4.Criminal Investigation Detachment,Dalian Public Security Bureau,DalianLiaoning 116000,China;5.Video Detection Lab,Liaoning Provincial Public Security Dept.,Shenyang 110032,China)

Abstract:

The age,disguise,and other combined factors significantly affect the uncertainty of the appearance,hairstyle,and other physical characteristics of suspects in unsolved murder cases.To address this problem,this paper proposed a dual style transfer generative adversarial network(DstGAN)to simulate changes in human facial hairstyles.Firstly,it designed a dual StyleGAN generator,leveraging a facial aging model to combine aging information with hairstyle changes,thereby enhancing the realism of simulated hairstyles under the influence of objective factors.Secondly,it introduced the BiSeNET algorithm to perform semantic segmentation on the input image and its target hairstyle,obtaining a semantic map of the target image.In the FS latent space,it employed the cross-entropy loss function to constrain the semantic map generated by the GAN inverse mapping to align with the simulated semantic map,preventing unnatural fusion.Finally,to further expand the types of hairstyle changes,it edited the hairstyle vector in the RM latent space by modifying the semantic attributes contained in the input hairstyle,achieving the simulation of special hairstyles such as bald heads.Compared to some classical hairstyle change models,DstGAN more effectively ensured the consistency of facial identity features and achieved a smoother transition between the hairstyle and facial edges.Additionally,DstGAN achieves the most outstanding objective scores in PSNR,SSIM,and other indicator evaluations compared to classical hairstyle change models,indicating that DstGAN produces simulated images with higher image clarity,better perceptual quality,and more realistic skin textures.

Key words:homicide cases accumulated;hairstyle changes;style transfer;BiSeNET algorithm;semantic editing

0 引言

命案積案因其對個體生命權(quán)的嚴(yán)重侵害以及對社會秩序造成的深遠影響而備受關(guān)注。此類案件通常具有案發(fā)時間長、嫌疑人反偵查意識強等特點,

嫌疑人體貌特征變化具有明顯的不確定性和突然性,對視頻偵查工作提出了巨大挑戰(zhàn)[1]。模擬嫌疑人體貌特征變化可以幫助偵查人員更直觀地鎖定目標(biāo),從而確定其逃逸軌跡。

發(fā)型作為一類常見的體貌特征,容易受到年齡變化、偽裝遮擋等因素的影響而產(chǎn)生較大的變化,誤導(dǎo)刑事偵查工作的方向。圖1為嫌疑人實際案件中發(fā)型變化對比。經(jīng)過文獻整理發(fā)現(xiàn),現(xiàn)階段發(fā)型變化模擬研究工作主要分為兩個方向。一是對發(fā)型建模的研究,包含幾何建模、物理建模和圖像建模。楊杰凱[2]通過Kinect為頭發(fā)輪廓獲取提供了新途徑,但其應(yīng)用受限于環(huán)境光照和拍攝條件。Chai等人[3]通過交互式標(biāo)注實現(xiàn)了3D頭發(fā)模型的構(gòu)建,但未能模擬頭發(fā)的物理生長過程。Echevarria等人[4]保留了原始人像圖像中豐富的顏色和幾何信息,但模擬結(jié)果僅呈現(xiàn)了發(fā)型的表層特征,真實感不強。Ding等人[5]通過螺旋線匹配技術(shù),實現(xiàn)了更為精細的發(fā)絲級模型構(gòu)建,但難以表現(xiàn)頭發(fā)的物理生長狀態(tài)。在上述研究基礎(chǔ)上,Chai等人[6]嘗試引入深度學(xué)習(xí)技術(shù)進行自動發(fā)型建模,提升了建模效率,但該方法的模型質(zhì)量受限于訓(xùn)練樣本的分布。二是基于生成對抗網(wǎng)絡(luò)(GAN)外貌合成技術(shù)的研究。Tan等人[7]將修復(fù)網(wǎng)絡(luò)與條件化的SPADE模塊相結(jié)合進行目標(biāo)人像頭發(fā)的模擬繪制,雖然獲得了較好的仿真結(jié)果,但因其對于預(yù)練網(wǎng)絡(luò)的過度依賴可能導(dǎo)致圖像中的偽影和不自然邊界問題。Shen等人[8]提出了在StyleGAN潛在空間中訓(xùn)練男性頭發(fā)分離邊界的方法,盡管為去除頭發(fā)提供了新的方向,但可能會引起面部身份特征的顯著偏差。Saha等人[9]通過將頭發(fā)屬性分解,并且在潛在空間中優(yōu)化缺失的頭發(fā)結(jié)構(gòu)細節(jié),但仍未能充分利用潛在空間捕捉和保留圖像中的特定細節(jié),例如痣或皺紋。Wu等人[10]通過在StyleGAN的潛在空間中分解預(yù)訓(xùn)練權(quán)重或在新的通道級糾纏風(fēng)格參數(shù)空間中工作,發(fā)現(xiàn)了潛在語義路徑,但在處理長發(fā)女性肖像時可能會產(chǎn)生明顯的偽影。Abdal等人[11]通過條件連續(xù)正規(guī)化流對StyleGAN生成的圖像進行屬性條件探索,實現(xiàn)了連續(xù)的全局老化過程,并通過編輯性別屬性為生成不同性別潛在編碼提供了新方法,但可能導(dǎo)致頭部尺寸變小并改變面部身份。

上述方法在發(fā)型變化模擬任務(wù)中取得了一定效果,但仍存在一些共性問題。目前發(fā)型變化模擬模型過多關(guān)注于發(fā)型模擬的相似性,而忽略了人像面部身份特征的一致性保留,以及輸入人像與目標(biāo)發(fā)型之間的自然融合度。同時現(xiàn)有模型并未充分考慮發(fā)型變化往往受主客觀因素影響,其中客觀因素所帶來的影響通常因面部年齡特征與發(fā)型變化的不匹配,導(dǎo)致模擬結(jié)果缺乏真實感。

在第二類方法基礎(chǔ)之上,本文提出一種方法用于模擬犯罪嫌疑人因年齡、偽裝等因素影響下的發(fā)型變化,主要貢獻如下:

a)提出了雙重風(fēng)格遷移生成對抗網(wǎng)DstGAN,引入人像年齡化模型,實現(xiàn)年齡化信息的嵌入及發(fā)型變化的模擬,解決受客觀因素影響下發(fā)型模擬結(jié)果出現(xiàn)的人像真實度不足的問題。

b)引入了BiSeNET對輸入人像和目標(biāo)發(fā)型分別進行語義分割,并且在FS潛在空間完成語義在空間中區(qū)分并訓(xùn)練具有不同發(fā)型特征的潛碼,建立了分離邊界,實現(xiàn)對頭發(fā)長度等屬性的語義編輯,填補部分發(fā)型無法通過語義分割生成掩碼的不足,擴充發(fā)型變化種類。

1 方法介紹

1.1 總體框架

DstGAN框架如圖2所示,通過對大量案例中出現(xiàn)的嫌疑人發(fā)型變化的分析,將變化的因素分為兩個方面:一方面為客觀因素引起的發(fā)型變化,另一方面為嫌疑人主觀因素引起的發(fā)型變化。客觀因素引起的發(fā)型變化是指由于時間、環(huán)境等其他外部因素導(dǎo)致的,嫌疑人在發(fā)量、顏色等屬性方面的改變,但由該因素造成的變化往往忽略其面部特征隨時間而發(fā)生的改變,導(dǎo)致模擬出的發(fā)型變化人像缺乏真實感,難以應(yīng)用于實際工作之中;主觀因素引起的發(fā)型變化是指出于個人意愿或目的而故意改變自身發(fā)型,通過剪發(fā)、燙發(fā)、戴假發(fā)或其他可以改變外觀的發(fā)型設(shè)計來掩飾身份、混淆偵查方向。

首先,對采集到的人像進行對齊、調(diào)整分辨率、圖像清晰化等預(yù)處理操作,以確保輸入人像符合模型的輸入規(guī)范。其次,對于案發(fā)時間距今較為久遠案件中的嫌疑人,利用MIIGAN網(wǎng)絡(luò)[12,13]對其輸入人像進行年齡變化模擬。最后,根據(jù)使用者的具體需求,決定是否執(zhí)行頭發(fā)的去除操作。在FS潛在空間中,主要對輸入人像進行特征提取、特征融合、語義對齊等操作;在RM潛在空間中,主要通過訓(xùn)練發(fā)型分離邊界,修改發(fā)型所包含的語義屬性并且通過潛碼擴散的過程,實現(xiàn)輸入人像面部特征與目標(biāo)發(fā)型的融合。

1.2 發(fā)型變化方法

1.2.1 基于BiSeNET算法的發(fā)型變化方法

基于BiSeNET算法的發(fā)型變化方法是以StyleGAN2作為生成器,通過將輸入人像與目標(biāo)發(fā)型的語義掩碼相疊加,在保持人像面部信息一致的同時,模擬發(fā)型的變化[14]。將輸入人像嵌入生成器潛在空間的方法借鑒了II2S算法[15]中提出的新標(biāo)準(zhǔn)化空間PN來解決潛在變量之間的依賴關(guān)系,采用了一種容量更大的潛在空間表示——FS空間。在這個空間中,原始的W+潛在編碼中的前m個風(fēng)格塊被替換為一個新的結(jié)構(gòu)張量F,這個張量負責(zé)編碼發(fā)型的結(jié)構(gòu)信息,如發(fā)型的形狀和布局。而W+潛在編碼的其余部分則轉(zhuǎn)變成外觀代碼S,它負責(zé)控制發(fā)型的外觀屬性,如顏色和紋理細節(jié),綜上,F(xiàn)S空間實現(xiàn)了對發(fā)型特征位置的精細控制,使得潛碼在潛在空間中進行合成時,避免了因噪聲嵌入導(dǎo)致的過擬合現(xiàn)象,以及在下游編輯和合成時所帶來的圖像偽影,同時也極大程度上保證了人像基本身份信息不隨訓(xùn)練過程而發(fā)生改變。

對于輸入人像語義掩碼的獲取,利用BiSeNET語義分割算法[16]對參考圖像Ia進行分割。圖3為Ia的語義分割圖,分割過程可以表示為

1.3 人像年齡化模擬方法

本文通過multi-domain image-to-image generative adversarial network(MIIGAN)來模擬輸入人像的年齡變化。通過重建數(shù)據(jù)集并調(diào)整訓(xùn)練參數(shù),構(gòu)建了一個更為符合中國人像面部特征的年齡變化模擬網(wǎng)絡(luò)模型,可以生成與輸入人像目標(biāo)年齡更為接近的模擬人像。MIIGAN的網(wǎng)絡(luò)結(jié)構(gòu)由條件生成器、年齡編碼器以及判別器組成,其中條件生成器包括身份編碼器、年齡編碼生成器、映射網(wǎng)絡(luò)、解碼器等。生成器和判別器之間相互對抗,通過self-reconstruction loss、cycle loss、age vector loss和feature loss等損失函數(shù)約束,不斷優(yōu)化生成器和判別器的參數(shù),使模型最終達到納什均衡狀態(tài)。

2 仿真實驗

2.1 實驗細節(jié)

數(shù)據(jù)集:采用CelebAMask-HQ高分辨率人像數(shù)據(jù)集作為訓(xùn)練數(shù)據(jù),其中包含細粒度的掩碼標(biāo)簽。該數(shù)據(jù)集由超過30 000張512×512分辨率的人臉圖像組成,其中每張圖像都帶有19個人像各部位組件類別的語義掩碼。同時收集了7 000張亞洲人像數(shù)據(jù),從其中選取畫質(zhì)較為清晰的圖像作為訓(xùn)練數(shù)據(jù),其余部分作為測試集。

實驗數(shù)據(jù)預(yù)處理:首先對收集到的人像數(shù)據(jù)進行數(shù)據(jù)篩選,去除數(shù)據(jù)中過于模糊、人像面部出現(xiàn)明顯扭曲、拍攝信息不全等效果欠佳的數(shù)據(jù)。然后對篩選后保留的人像數(shù)據(jù)進行裁剪,去除不必要的背景,根據(jù)Dlib庫中的目標(biāo)檢測器檢測出面部關(guān)鍵點對人像面部進行角度校正,同時將所有人像數(shù)據(jù)調(diào)整為規(guī)定的分辨率,以便在神經(jīng)網(wǎng)絡(luò)中進行統(tǒng)一處理。最后通過采取對比度增強、降噪、超分辨率處理等圖像增強處理方法,提高人像數(shù)據(jù)的清晰度[19]。

推理流程:a)需對原始人像進行預(yù)處理操作,保證后續(xù)網(wǎng)絡(luò)的正常運行;b)根據(jù)發(fā)型變化的影響因素,決定是否執(zhí)行年齡化模擬模型;c)將經(jīng)過上述處理的人像,按照目標(biāo)發(fā)型的種類不同,分別傳入FS或RM潛在空間,進行信息解耦、發(fā)型變化等操作,最終通過生成器輸出發(fā)型變化的模擬結(jié)果[20]。

2.2 實驗設(shè)置

2.2.1 實驗環(huán)境

系統(tǒng)版本W(wǎng)indows 10;深度學(xué)習(xí)框架PyTorch 1.12.0;Python版本3.7;軟件環(huán)境為anaconda;處理器為Intel CoreTMi7-9750H CPU;GPU為NVIDIA GeForce GTX 1660 Ti。

2.2.2 超參數(shù)設(shè)置

實驗采用了批量訓(xùn)練方法,將所搜集建立的數(shù)據(jù)集劃分為多個batch進行實驗,batch size因電腦顯存有限,故設(shè)定為1~3,訓(xùn)練周期為800輪次。實驗使用了Adam優(yōu)化器[21]設(shè)置β1=0,β2=0.999,同時應(yīng)用了非飽和的對抗性損失[22]與r1正則化[23]。實驗初期,將初始學(xué)習(xí)率設(shè)置為10-5,并且在第50和100個訓(xùn)練輪次后開始衰減。將映射網(wǎng)絡(luò)的學(xué)習(xí)率降低為原來的1%,并且對生成器的權(quán)值采用了指數(shù)移動平均的方法。

2.3 實驗分析

2.3.1 結(jié)果分析

圖5是由DstGAN模型生成的模擬人像變化效果圖。(b)~(d)是嫌疑人主觀因素影響下的發(fā)型變化,依次為佩戴假發(fā)、佩戴不同顏色的假發(fā)、光頭偽裝;(e)是只對面部特征進行增齡的人像,(f)(g)是客觀因素影響下的發(fā)型變化,分別為增齡后人像發(fā)型模擬、增齡后光頭發(fā)型模擬;(h)(i)展示了將主、客觀因素影響相結(jié)合生成的人像結(jié)果。

根據(jù)圖5所示的實驗結(jié)果可以看出,DstGAN模型對發(fā)型進行變化的過程中,維持了面部膚色、紋理、形態(tài)、輪廓等特征不受發(fā)型干擾,避免了可能產(chǎn)生的畸變現(xiàn)象。此外,模型能夠平滑地實現(xiàn)發(fā)型與面部特征的融合,未產(chǎn)生非自然融合現(xiàn)象,人像無明顯噪聲、斑塊以及模糊,顯著提升了人像的視覺觀感。本文方法能夠使年齡變化模擬人像的特征屬性與變化后的發(fā)型相匹配,從而增強了年齡預(yù)測、人像特征推斷以及圖像重建的準(zhǔn)確性與精細度。

2.3.2 消融實驗

為驗證DstGAN模塊的有效性,將所提方法分為發(fā)型變化模塊(hairstyle change)以及年齡變化模塊(MIIGAN)進行比對。針對客觀時間因素引起的發(fā)型變化設(shè)計了消融實驗比對,不同模塊的實驗效果如圖6所示。由于在年齡結(jié)合發(fā)型變化領(lǐng)域的定量評價指標(biāo)較少,所以提出了一種新的定量評估方法。該定量評估方法由兩部分構(gòu)成:第一部分是對于消融結(jié)果進行年齡評估,衡量人像老齡化的效果;第二部分是對于消融結(jié)果進行老齡化發(fā)型評估。

年齡定量評估:通過調(diào)用騰訊云中人臉屬性判別系統(tǒng)API,獲取消融結(jié)果的年齡信息,結(jié)果如表1所示,通過大量消融數(shù)據(jù)得到的年齡頻率分布如圖7所示。

老齡化發(fā)型評估:為了驗證老齡化發(fā)型變化的效果,通過添加掩膜以及調(diào)整人像色階范圍,降低人像面部特征在運算過程中造成的影響,經(jīng)該過程處理后的人像如圖8所示。將處理后的人像采用局部二值法(LBP)提取發(fā)型特征,并利用歐氏距離計算兩個LBP特征圖像之間的距離,從而比較兩幅圖像中發(fā)型的差異,包括紋理差異、發(fā)際差異等,原始人像發(fā)型與老齡化發(fā)型之間的平均LBP歐氏距離,如表1所示。

局部二值法提取特征計算為

LBPIn(xc,yc)=∑p-1p=02ps(ip-ic)

(12)

其中:In表示不同模塊經(jīng)過掩膜、色階調(diào)整后的人像;n代表Origin、MIIGAN、Hairstyle Change三種不同類別結(jié)果;(xc,yc)代表鄰域的中心元素,它的像素值為ic、ip鄰域內(nèi)其他像素的值;s(ip-ic)是符號函數(shù),定義公式為

s(ip-ic)=1(ip-ic)≥00(ip-ic)≤0

(13)

對于不同模塊的消融特征圖歐氏距離的計算公式為

d=∑ni=1(Ixin1-Iyin2)2

(14)

其中:Ixin1和Iyin2分別是兩種模塊人像的第i個元素。

2.3.3 實驗對比

將本文方法與當(dāng)前最新公開代碼的主流發(fā)型變化模型Design Your Hair by Text and Reference Image(HairCLIP)[24]和Latent Optimization for Pose-Invariant Hairstyle Transfer via Local-Style-Aware Hair Alignment(S-Y-Hair)[25]分別對基于主、客觀因素影響引起的人像發(fā)型進行模擬,將模擬結(jié)果進行比較,通過定性和定量對比實驗以驗證本文方法的有效性,模擬結(jié)果均來自原作者提供的官方實現(xiàn)模型。HairCLIP、S-Y-Hair與DstGAN的結(jié)果比對展示如圖9所示。

1)定性分析 由圖9可見,雖然HairCLIP能夠生成高分辨率圖像,在發(fā)型紋理和處理面部、發(fā)型過渡等方面具有足夠真實、柔滑的模擬結(jié)果,但與DstGAN相比,它缺乏對于人像面部個性特征以及身份特征的保留,很難保證人像身份的一致性。DstGAN相比于S-Y-Hair模型能夠有效地實現(xiàn)發(fā)型與人像面部間的平滑融合,在發(fā)型和面部的過渡區(qū)域不會出現(xiàn)明顯的棱角、鋸齒現(xiàn)象;在宏觀特征上,可以準(zhǔn)確模擬人像的頭部輪廓,與原始人像頭部保持高度一致。

2)定量分析 本文采用峰值信噪比(PSNR)、結(jié)構(gòu)相似性(SSIM)、平均感知圖像質(zhì)量指數(shù)(LPIPSI)、平均誤差(MAE)三種指標(biāo),對不同發(fā)型變化模型所模擬出的結(jié)果進行相似度評估。由表2可以看出,在PSNR、LPIPS指標(biāo)上,本文方法優(yōu)于MichiGAN、HairCLIP、LOHO、S-Y-Hair四種發(fā)型變化模型,表明DstGAN在最大化信號與噪聲比方面表現(xiàn)更佳,生成的圖像具有更高清晰度,在感知質(zhì)量上更接近于輸入人像;在SSIM指標(biāo)上取得的分數(shù)遠高于其他三種方法,在保持人像結(jié)構(gòu)和紋理方面更為出色;MAE指標(biāo)表明DstGAN在圖像細節(jié)重建上更為精確。

3 結(jié)束語

本文所提出的雙重風(fēng)格遷移生成對抗網(wǎng)絡(luò)有效地解決了由于客觀和主觀因素導(dǎo)致的發(fā)型變化模擬問題。通過結(jié)果分析、比對,證明了本文方法能夠模擬生成種類豐富、真實自然的發(fā)型。該方法不僅為偵查人員提供了一種新的技術(shù)手段,而且為相關(guān)領(lǐng)域的研究提供了新的視角和技術(shù)支持,有助于提高命案積案的偵破率,并為維護社會治安和公共安全作出貢獻。

未來的工作將進一步優(yōu)化模型性能,探索更多與實際偵查需求相結(jié)合的應(yīng)用場景,并考慮在更復(fù)雜或更龐大數(shù)據(jù)集上的應(yīng)用。此外,研究將關(guān)注于提高模型的泛化能力,以及在現(xiàn)實世界問題中的有效性和魯棒性。

參考文獻:

[1]張思晗.智慧偵查時代命案積案偵查僵局的突破路徑研究[J].刑事司法科學(xué)與治理,2022,3(2):102-108.(Zhang Sihan.Research on breakthrough path of homicide investigation deadlock in the era of intelligent investigation[J].Journal of Criminal Justice Science and Governance,2022,3(2):102-108.)

[2]楊杰凱.基于深度圖的頭發(fā)建模[D].天津:天津大學(xué),2013.(Yang Jiekai.Hair modeling based on depth map[D].Tianjin:Tianjin University,2013.)

[3]Chai Menglei,Wang Luedi,Weng Yanlin,et al.Dynamic hair manipulation in images and videos[J].ACM Trans on Graphics,2013,32(4):75.1-75.8.

[4]Echevarria J I,Bradley D,Gutierrez D,et al.Capturing and stylizing hair for 3D fabrication[J].ACM Trans on Graphics,2014,33(4):1-11.

[5]Ding Zhipeng,Bao Yongtang,Qi Yue,et al.Single-view hair modeling based on orientation and helix fitting[C]//Proc of International Conference on Virtual Reality and Visualization.Piscataway,NJ:IEEE Press,2016:286-291.

[6]Chai Menglei,Shao Tianjia,Wu Hongzhi,et al.Auto hair:fully automatic hair modeling from a single image[J].ACM Trans on Graphi-cs,2016,35(4):116.1-116.12.

[7]Tan Zhentao,Chai Menglei,Chen Dongdong,et al.MichiGAN:multi-input-conditioned hair image generation for portrait editing[EB/OL].(2020-10-30).https://arxiv.org/abs/2010.16417.

[8]Shen Yujun,Gu Jinjin,Tang Xiaoou,et al.Interpreting the latent space of GANs for semantic face editing[C]//Proc of IEEE Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:9240-9249.

[9]Saha R,Duke B,Shkurti F,et al.Loho:latent optimization of hairstyles via orthogonalization[C]//Proc of IEEE/CVF Conference on Compu-ter Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:1984-1993.

[10]Wu Zongze,Lischinski D,Shechtman E.Stylespace analysis:disentangled controls for StyleGAN image generation[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:12858-12867.

[11]Abdal R,Zhu Peihao,Mitra N J,et al.StyleFlow:attribute-conditioned exploration of StyleGAN-generated images using conditional continuous normalizing flows[J].ACM Trans on Graphics,2021,40(3):1-21.

[12]Karras T,Laine S,Aila T.A style-based generator architecture for gene-rative adversarial networks[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:4401-4410.

[13]Or-El R,Sengupta S,F(xiàn)ried O,et al.Lifespan age transformation synthesis[C]//Proc of the 16th European Conference on Computer Vision.Cham:Springer,2020:739-755.

[14]Zhu Peihao,Abdal R,F(xiàn)emiani J,et al.Barbershop:GAN-based image compositing using segmentation masks[EB/OL].(2021-10-16).http://doi.org/10.1145/3478513.3480537.

[15]Zhu Peihao,Abdal R,Qin Yipeng,et al.Improved StyleGAN embedding:where are the good latents?[EB/OL].(2021-10-15).https://arxiv.org/abs/2012.09036.

[16]Yu Changqian,Wang Jingbo,Peng Chao,et al.BiSeNet:bilateral segmentation network for real-time semantic segmentation[C]//Proc of European Conference on Computer Vision.Cham:Springer,2018:325-341.

[17]Wu Yiqian,Yang Yongliang,Jin Xiaogang.HairMapper:removing hair from portraits using GANs[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:4217-4226.

[18]Lee C H,Liu Ziwei,Wu Lingyun,et al.MaskGAN:towards diverse and interactive facial image manipulation[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:5548-5557.

[19]陳秋雨,蘆天亮.改進人臉特征矯正網(wǎng)絡(luò)的遮擋人臉識別方法[J].計算機應(yīng)用研究,2023,40(5):1535-1541.(Chen Qiuyu,Lu Tianliang.Improved face feature rectification network for occluded face recognition[J].Application Research of Computers,2023,40(5):1535-1541.)

[20]周毅巖,石亮,張遨,等.基于解糾纏表示學(xué)習(xí)的人臉反欺騙算法[J].計算機應(yīng)用研究,2024,41(8):2502-2507.(Zhou Yiyan,Shi Liang,Zhang Ao,et al.Face anti-spoofing algorithm based on disentangled representation learning[J].Application Research of Computers,2024,41(8):2502-2507.)

[21]Kingma D P,Ba J.Adam:a method for stochastic optimization[EB/OL].(2017-01-30).https://arxiv.org/abs/1412.6980.

[22]Goodfellow I,Pouget-Abadie J,Mirza M,et al.Generative adversarial nets[C]//Proc of the 27th International Conference on Neural Information Processing Systems.Cambridge,MA:MIT Press,2014:2672-2680.

[23]Mescheder L,Geiger A,Nowozin S.Which training methods for GANs do actually converge?[C]//Proc of International Conference on Machine Learning.[S.l.]:PMLR,2018:3481-3490.

[24]Wei Tianyi,Chen Dongdong,Zhou Wenbo,et al.Hairclip:design your hair by text and reference image[C]//Proc of I

EEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:18051-18060.

[25]Kim T,Chung C,Kim Y,et al.Style your hair:latent optimization for pose-invariant hairstyle transfer via local-style-aware hair alignment[C]//Proc of European Conference on Computer Vision.Cham:Springer,2022:188-203.

主站蜘蛛池模板: 日本欧美一二三区色视频| 蝴蝶伊人久久中文娱乐网| 久久综合AV免费观看| 国产精品成人久久| 亚洲天堂精品在线观看| 免费AV在线播放观看18禁强制| 中国国产A一级毛片| 国产Av无码精品色午夜| 国产青青草视频| 国产黄色视频综合| 国产在线一二三区| 成人午夜视频免费看欧美| 国产真实乱人视频| 国产综合精品日本亚洲777| 日韩黄色大片免费看| 欧美中文字幕无线码视频| 91精品情国产情侣高潮对白蜜| 九色91在线视频| 亚洲天堂免费| 日韩小视频网站hq| 一级一级特黄女人精品毛片| 国产一区二区三区日韩精品| 在线免费a视频| 亚洲人成网18禁| 亚洲成人网在线观看| 亚洲人成网18禁| 91精品小视频| 色男人的天堂久久综合| 亚洲人成网站18禁动漫无码| 欧美亚洲欧美| 久久特级毛片| 米奇精品一区二区三区| 99久久国产自偷自偷免费一区| 极品尤物av美乳在线观看| 精品国产一二三区| 日韩少妇激情一区二区| 2018日日摸夜夜添狠狠躁| 久久久久人妻一区精品色奶水| 亚洲国产亚洲综合在线尤物| 亚洲一区二区日韩欧美gif| 就去色综合| 四虎成人精品| 国产美女91视频| 日韩欧美视频第一区在线观看| 国产国产人成免费视频77777 | 亚洲人成在线精品| 亚洲中文字幕无码mv| 全部免费毛片免费播放| 国产一级片网址| 亚洲国产午夜精华无码福利| 婷婷色狠狠干| 欧美精品一二三区| 国产精品区视频中文字幕| 亚洲 日韩 激情 无码 中出| 国产大全韩国亚洲一区二区三区| 中文字幕天无码久久精品视频免费 | 亚洲性视频网站| 天堂在线亚洲| 亚洲国产精品成人久久综合影院| 婷婷亚洲最大| 又黄又爽视频好爽视频| 日韩午夜片| 欧美成人午夜视频免看| 久久精品国产亚洲麻豆| 久久亚洲日本不卡一区二区| AV无码无在线观看免费| 成人欧美在线观看| 欧美一道本| 男女精品视频| 亚洲精品大秀视频| 少妇人妻无码首页| 福利国产在线| 欧美国产在线精品17p| 国产精品人莉莉成在线播放| 一级香蕉人体视频| 国产精品成人一区二区不卡| 精品视频在线观看你懂的一区| 国产JIZzJIzz视频全部免费| 91亚洲视频下载| 激情综合网激情综合| 免费jizz在线播放| 成人免费午夜视频|