999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合高頻濾波和偽影損失的人臉超分辨率重建

2023-01-01 00:00:00孫紅宋冬豪陳玉娟
計算機應用研究 2023年6期

摘 要:人臉超分辨率重建的需求愈發強烈,針對現有方法在恢復圖像時高頻信息丟失嚴重導致平滑,同時伴隨著偽影的問題,提出了融合高頻濾波和偽影損失的重建方法。該方法能夠獲取人臉高頻信息,在不影響細節紋理的情況下去除偽影,以生成對抗網絡模型為框架,引入自適應殘差結構以減少計算成本,使用Ranger優化器來緩解訓練的不穩定。實驗中,使用不同縮放因子,該方法相較于其他方法擁有更高的PSNR值和SSIM值。2倍、4倍、8倍縮放時在CelebAMask-HQ數據集上的PSNR值分別為37.88 dB、32.50 dB、29.51 dB,同時模型收斂速度較快,表明該方法的高效性與穩定性。

關鍵詞:高頻濾波;偽影損失;自適應殘差;生成對抗網絡

中圖分類號:TP391.4文獻標志碼:A

文章編號:1001-3695(2023)06-049-1906-06

doi:10.19734/j.issn.1001-3695.2022.09.0489

Face image super-resolution fusing with high-frequency filtering and artifact loss

Sun Hong,Song Donghao,Chen Yujuan

(School of Optical-Electrical amp; Computer Engineering,University of Shanghai for Science amp; Technology,Shanghai 200093,China)

Abstract:The demand for super-resolution reconstruction of faces is becoming more and more intense.In light of the problem that the existing method causes smooth due to severe loss of high-frequency information and has artifacts when restoring images,this paper proposed a reconstruction method that combined high-frequency filtering and artifact loss.This method could obtain high-frequency information of the face and remove artifacts without affecting the detailed texture.Using the framework of generative adversarial network,it introduced an adaptive residual structure to reduce computational costs and the Ranger optimizer to alleviate the instability of training.In the experiment,using different scaling factors,the method has higher PSNR and SSIM values than other methods.The PSNR values on the CelebAMask-HQ dataset at ×2,×4,and ×8 scaling are 37.88 dB,32.50 dB and 29.51 dB,respectively,the model converges faster,indicating the efficiency and stability of the method.

Key words:high-frequency filtering;artifact loss;adaptive residual;generative adversarial networks

0 引言

人類對高質量圖像的需求日益提高,超分辨率(super-resolution,SR)重建技術發展突飛猛進[1]。超分辨率重建技術是一種將低分辨率圖像轉換成高分辨率圖像的技術[2],從而使得圖像更加清晰,豐富圖像信息量。人臉清晰度的需求在當前更為突出,如監控無法捕捉到清晰的人臉而影響破案等,但單方面提高監控捕捉的清晰度代價過大,故人臉超分辨率重建是一個有效方法。單幅圖像超分辨率(single image super resolution,SISR)重建的學習方法分為傳統方法和深度學習[3]。

傳統方法可分為三種:a)基于插值的方法包括最鄰近插值等,

盡管其簡單而且能夠快速處理圖像,但效果較差,細節丟失嚴重;b)基于重構的方法需要大量的先驗知識[4],不適用于實際場景,主要分為頻域方法和空域方法,包括最大后驗概率法等;c)淺層學習的方法主要包括流形學習、機器學習等。基于深度學習的方法就是將深度學習引入圖像重建中,在重建效果上遠遠優于傳統方法[5]。

1 相關工作

1.1 基于卷積網絡的超分方法

超分辨率卷積網絡(super-resolution convolutional neural network,SRCNN)[6]使用三個卷積層,損失函數為均方誤差(mean squared error,MSE),效果顯著。至此,超分辨率重建在深度學習的探索逐漸開啟。FSRCNN(fast super-resolution convo-lutional network)[7]是對SRCNN的改進,使用反卷積層代替SRCNN中的雙三次插值,用更小的卷積核和更多的映射層。ESPCN(efficient sub-pixel convolutional neural network)[8]提出了亞像素卷積層,激活函數采用tanh替代了ReLU。以上網絡結構小,重建效果有限。

殘差網絡在超分辨率中廣泛應用。VDSR(very deep convolutional network)[9]引入殘差網,效果提升明顯。DRRN(deep recursive residual network)[10]結合了VDSR和DRCN(deeply-recursive convolutional network)[11],用更深的網絡結構來提升性能。同期提出的LapSRN(Laplacian pyramid network)[12]由多級網絡組成,能夠適應不同的上采樣倍數,監督每一級的結果,取得了不錯的效果。SRDenseNet(super-resolution using dense skip connections)[13]提出的稠密塊能夠加強特征傳播,將低層特征和高層特征結合,性能得到了提升。EDSR(enhanced deep residual networks)[14]去除了批歸一化層,表明在相同的計算資源下能夠提取更多特征。以上網絡雖能獲得較好的重建效果,但由于網絡層數的限制,往往會造成圖像的失真感。

1.2 基于生成對抗網絡的超分方法

超分辨率重建生成對抗網絡(super-resolution generative adversarial network,SRGAN)[15]首次將生成對抗網絡(generative adversarial network,GAN)[16]模型應用于SR領域,利用感知損失和對抗損失[17]來恢復圖片的真實感,但恢復的圖像往往會因丟失高頻細節而顯得比較平滑。ESRGAN(enhanced super-resolution generative adversarial networks)[18]相較于SRGAN去除掉所有的批歸一化層,提高泛化能力的同時結合了殘差網絡和密集連接來代替原始基礎塊,使得紋理更清晰。

近年來又興起通過探索GAN的逆變換處理圖像超分,如PULSE(photo upsampling via latent space exploration)[19]模型,通過預訓練的生成網絡,使生成的HR(high resolution)降采樣的LR(low resolution)與真實的LR更接近,但由于隱向量的不確定性易造成圖像的失真。GLEAN(generative latent bank for large-factor image super-resolution)[20]的結構為encode-bank-decode,精髓在于bank,使用預訓練的參數,從而在之后的超分過程中不參與訓練,具有很好的魯棒性。

1.3 本文貢獻

上述在超分辨率中采用生成對抗網絡的模型適應性廣,無法在處理人臉圖像時重建出更多的細節,而試圖引入面部先驗知識的模型卻往往忽略了GAN訓練的不穩定性。由于GAN在恢復細節紋理上占優勢,本文以GAN框架為基礎。為解決紋理細節丟失的問題,考慮到高頻信息對重建細節的重要性,受高通濾波器的啟發,提出了高頻濾波模塊。

比較了三類圖像基于GAN的重建效果,大面積平坦區域的圖像較容易超分,如海平面圖像;具有細粒度紋理但無清晰結構的圖像雖然較難超分,但由于本身的結構不清晰,所以超分的視覺效果良好,如樹葉圖像;既具有細粒度紋理又具有清晰結構的圖像,如人臉圖像,當重建的細節不適應自身結構時會產生了偽影,嚴重影響視覺效果。針對GAN重建出的圖像存在偽影這一痛點,分析了三類超分圖像的局部信息,發現超分圖像與真實圖像之間的殘差方差可以區分出真實紋理還是偽影,故設計了偽影損失,得到通過局部判別方法[21]的損失函數。

綜上,本文基于GAN模型,提出了融合高頻濾波和偽影損失的人臉超分辨率重建模型(face image super-resolution fusing with high-frequency filtering and artifact loss,FSRHFA)。本文主要貢獻如下:

a)由于人臉結構清晰,重建較為復雜,發絲等細節直接影響超分效果,將高頻濾波模塊融入生成對抗網絡中,來捕捉圖像的紋理細節。

b)采用自適應殘差特征塊,使模型能夠自適應地調整殘差路徑和權重,動態調整特征圖大小,以降低訓練過程中的計算量。

c)雖然基于生成對抗網絡的超分辨率模型能夠產生更多細節,但同時也伴隨著偽影。本文在損失函數中增加了偽影損失,采用了一種局部判別的學習方法,能夠在不影響細節的情況下有效去除偽影。

d)在判別網絡中使用密集塊和Ranger優化器,緩解GAN訓練不穩定的問題。

2 網絡結構

本文基于生成對抗網絡,設計了融合高頻濾波和偽影損失的模型來完成單幀的人臉超分辨率重建,如圖1所示。基于GAN框架,主要分為生成網絡(generator,G) 、判別網絡(discriminator,D)。輸入低分辨率圖像后,生成網絡會經過一個3×3的卷積,主要是對圖像進行淺層特征提取,接著會經過一系列由高頻濾波塊(high-frequency filtering module,HFM)和自適應殘差特征塊(adaptive residual feature block,ARFB)組成的高保留塊(high preserving block,HPB)[22]來降低處理特征的分辨率,同時又能很好地保留高頻特征。在重建部分將淺層特征和經過高保留塊處理的高頻特征分別進行卷積和像素重組處理,并通過殘差連接。在判別網絡中,使用連續的密集塊(dense block,DB)進行降采樣,Ranger[23]作為優化器。

2.1 生成網絡

生成網絡G由淺層特征提取模塊、高保留模塊、重建模塊三大部分組成,作用是將低分辨率圖像重建成高分辨率圖像。

2.1.1 淺層特征提取模塊

2.1.2 高保留模塊HPB

2.1.3 重建模塊

2.2 判別網絡

判別網絡D的作用為判斷生成網絡輸出的超分辨率圖像SR和真實圖像HR何為真,其網絡結構如圖1(b)所示。同樣先使用一個卷積層提取淺層特征信息,再用步長為2的卷積層來減少特征圖尺寸,接著連續經過密集塊DB作用,每一個DB塊如圖4所示。最后在全連接以后使用激活函數,對網絡進行二分類[24],輸出分類結果。激活函數為LeakyReLU和sigmoid,可以避免過擬合的情況。

2.3 損失函數

2.3.1 MSE損失

2.3.2 感知損失

2.3.3 對抗損失

2.3.4 偽影損失

在超分辨率重建過程中,目標為保留更多的細節,在此前提下能去除盡可能多的偽影。對于同一張圖像的不同區域,同一網絡恢復出的細節存在差距,如LR的平坦區域恢復的效果比存在毛發的區域更佳。因此,提出一種將SR和HR的殘差的局部方差來區別細節和偽影的判別學習方法。

3 實驗結果與分析

本實驗基于Ubuntu 20.04操作系統,使用開源框架PyTorch 1.11.0以及CUDA 11.3,Python版本為Python 3.8;硬件方面采用NVIDIA GeForce RTX 3090 GPU,顯存為24 GB。每個訓練批次的大小為64,其中計算偽影損失中的縮放系數α的取值設為5,學習率設置為0.000 1,迭代次數為100,使用Ranger作為優化器,Ranger結合了RAdam和LookAHead的優勢,以緩解GAN訓練不穩定的問題。

3.1 數據集和評價指標

3.2 高頻濾波實驗

高頻濾波模塊作為高保留塊的重要部分,能夠很好地保留LR的高頻信息,如細節紋理和邊緣信息,從而提升模型超分辨率重建的效果。

不同于常用的基于傅里葉變換的高頻濾波,本文先由HR降采樣獲得LR,對LR的特征映射TL進行全局平均池化,再上采樣恢復到原始的尺寸大小,得到TU,最后將TL按元素減去TU得到高頻信息。

圖5為CelebA數據集其中的一張圖片經過高頻濾波模塊后,得到的TL、TU和高頻信息。可以看到TU比TL更為光滑,因為TU為TL的平均信息,高頻信息也保留了人臉的輪廓、頭發等,能夠很好地幫助后續的圖像重建工作。

3.3 消融實驗

為了驗證FSRHFA的有效性以及每個模塊都能夠提升網絡性能,設計了消融實驗,主要分為是否添加高頻濾波模塊、是否添加偽影損失函數、是否使用Ranger優化器,使用的數據集為CelebA,縮放因子為4,不使用Ranger優化器的模型使用Adam優化器。

表1中的√表示使用,對三種模塊進行了組合,共8組。其中模型1不添加任何模塊,模型2~4和模型5~7分別添加其中的一種和兩種,而模型8添加了全部模塊,為本文提出的模型FSRHFA。

相比模型1,從模型2~4可以看出,每個模塊的增加都可以提高PSNR系數,其中添加偽影損失的效果最佳。模型5~7添加了兩部分,效果優于只添加其中一種模塊的模型,添加了高頻濾波和偽影損失的模型5效果更為突出。模型8添加了三者,PSNR值為32.14 dB,分別高于模型5~7 0.62 dB、1.25 dB、0.92 dB,再次表明偽影損失對效果的提升明顯,相較模型1,提高了3.79 dB,說明了算法的有效性。

3.4 性能分析

圖6中的縱坐標表示PSNR,橫坐標表示迭代次數,在CelebAMask-HQ數據集上,對比分析FSRHFA、SRGAN和引入先驗條件的基于空間特征調制生成對抗網絡(spatial feature transform generative adversarial networks,SFTGAN) 。可以看出,SFTGAN由于融入了先驗人臉信息,所以比SRGAN的效果更好,FSRHFA則收斂更快,在訓練20輪左右之后就已經趨于穩定,效果也優于兩者,充分說明了融合了高頻濾波和偽影損失的網絡更為穩定且更加優越。

圖7是CelebAMask-HQ數據集使用FSRHFA,分別在2倍、4倍、8倍下采樣時的可視化PSNR值,當迭代輪次為100時, PSNR值依次為37.88 dB、32.50 dB、29.51 dB。從圖中可以看出,在2倍縮放時,模型在30輪之后逐漸趨于平穩,而4倍和8倍時在18輪左右之后就已基本穩定。在訓練過程中,4倍時的網絡訓練最為穩定,低倍或者高倍多多少少伴隨著振蕩。總體來說,FSRHFA收斂較快,效果可觀。

3.5 對比實驗

該部分選擇了一些使用不同的方法來對圖像進行重建的模型,包括前沿算法和經典算法,基于插值的BiCubic,基于生成對抗網絡的SRGAN、GLEAN、SFTGAN,還有經典模型SRCNN、VDSR、DRRN。在CelebA和CelebAMask-HQ數據集上分別進行2倍、4倍、8倍的縮放,具體的PSNR和SSIM數值如表2所示,最優值用黑體標出。

總體來說,基于生成對抗網絡方法的模型重建效果相對較好。在CelebA數據集上,縮放因子為2和8時,FSRHFA的PSNR值最優,為37.69 dB和29.77 dB,相較于SRGAN提升了1.67 dB和3.52 dB,由此可見FSRHFA在高倍時的優化更為明顯。在4倍時PSNR值低于SFTGAN的32.44 dB,這是由于SFTGAN融入了人臉的先驗知識造成的。FSRHFA的SSIM值在2倍和4倍時優于其他算法,盡管在8倍時略低于GLEAN 算法0.006,但在低倍時優于該算法0.010和0.008,這與GLEAN使用的預訓練GAN模型有關。

圖8為CelebA數據集中的一張人臉圖片在縮放因子為4時使用不同算法的重建效果圖,HR分辨率為128×128,LR為32×32,可見基于插值和SRCNN恢復的圖像比較模糊,SRGAN則在牙齒、牙縫等部分存在偽影,影響視覺效果,FSRHFA相比GLEAN和SFTGAN在睫毛、發絲等細節部分重建更優,紋理更為清晰。

在CelebAMask-HQ數據集上,FSRHFA的PSNR和SSIM值皆為最優,在2倍、4倍、8倍時的PSNR值分別為37.88 dB、32.50 dB、29.51 dB,具體PSNR值隨迭代次數的變化如圖7所示,SSIM值可以更好地評估結果,在該數據集上,FSRHFA在8倍時優于GLEAN,彌補了在CelebA數據集上的不足,這與數據集圖片的原始分辨率大小密不可分。

不同算法在CelebAMask-HQ數據集上重建效果對比圖如圖9所示,縮放因子為4,HR分辨率為1024×1024,LR分辨率為256×256,FSRHFA在背景顏色、膚色等方面的恢復更為真實,這是由于加入了偽影損失的結果。圖8和9充分說明了FSRHFA的優越性。

為了驗證FSRHFA在其他專門針對人臉圖像的超分辨率重建網絡前同樣具有優勢,又選取了三種網絡與FSRHFA進行對比,分別為基于卷積網絡的DPDFN[26]、基于深度強化學習的Attention-FH[27]以及基于生成對抗網絡的PSFRGAN[28]。在此對比實驗中選取CelebA以及MTFL數據集,考慮到人臉超分網絡具有針對性,2倍縮放因子下各網絡效果區別不大,因此只在高倍下進行對比實驗。具體PSNR值和SSIM值如表3所示,最優值已用黑體標出。

總體來說,無論是CelebA還是MTFL數據集,FSRHFA都優于其他三種網絡。在縮放因子為8時,FSRHFA的PSNR和SSIM值均為最佳,在CelebA數據集上,PSNR值分別高于其他三種網絡0.43 dB、0.08 dB、0.19 dB,優勢較為明顯。盡管在4倍縮放時,使用MTFL數據集,FSRHFA的PSNR值略低于PSFRGAN的PSNR值0.06 dB,這與PSFRGAN提出的語義感知損失有關,但FSRHFA的SSIM值比其高出0.008,在8倍縮放時也均占優勢。

圖10為不同人臉超分網絡在MTFL數據集上的效果對比,縮放因子為4,HR的分辨率為150×150,LR的分辨率為38×38。Attention-FH由于利用圖像的全局依賴性,遞歸性地增強臉部信息,所以整體的還原度較好,但在瞳孔、人中等細節部分較為模糊,而FSRHFA無論是在嘴唇、指甲等易產生偽影的部分還是背景、臉部油光等全局部分都能夠進行有效還原,效果也優于其他三種算法。

4 結束語

本文以GAN框架為基礎,融合了高頻濾波模塊和偽影損失,在人臉超分辨率重建上取得了較好的效果。高頻濾波模塊能夠保留人臉的紋理細節等高頻信息,偽影損失的加入在保證不影響細節的情況下去除偽影,使得圖像更加真實,在恢復背景顏色等方面更為優越。自適應殘差模塊能夠動態調整特征圖的大小以減少計算量,Ranger優化器用于緩解GAN訓練不穩定的問題。實驗表明,在不同數據集上,FSRHFA恢復出的細節和紋理質量高,圖像更為逼真,評價指標PSNR、SSIM優于其他算法。

綜上所述,本文方法可行性較強,可應用在由于硬件而導致捕捉的圖像畫質不清晰等情況下,如監控捕捉到了罪犯的臉部圖像,但由于畫質不清晰或圖像中的人臉部分過小,從而影響破案時,即可提取出模糊的人臉部分,該部分作為FSRHFA的輸入圖像,經過重建得到高質量的人臉圖像以至于能夠辨認。本文提出的FSRHFA穩定性與重建效果可觀,因此能夠有效還原真實圖像。

參考文獻:

[1]袁昆鵬,席志紅.基于深度跳躍級聯的圖像超分辨率重建[J].光學學報,2019,39(7):235-244.(Yuan Kunpeng,Xi Zhihong.Image super resolution based on depth jumping cascade[J].Acta Optica Sinica,2019,39(7):235-244.)

[2]應自爐,龍祥.多尺度密集殘差網絡的單幅圖像超分辨率重建[J].中國圖象圖形學報,2019,24(3):410-419.(Ying Zilu,Long Xiang.Single-image super-resolution construction based on multi-scale dense residual network[J].Journal of Image and Graphics,2019,24(3):410-419.)

[3]陳貴強,何軍,羅順茺.基于改進CycleGAN的視頻監控人臉超分辨率恢復算法[J].計算機應用研究,2021,38(10):3172-3176.(Chen Guiqiang,He Jun,Luo Shunchong.Super resolution recovery algorithm for video surveillance face based on improved CycleGAN[J].Application Research of Computers,2021,38(10):3172-3176.)

[4]高飛,余曉玫.一種Enlighten-GAN網絡的指紋超分辨率重建方法[J].激光與紅外,2022,52(10):1577-1584.(Gao Fei,Yu Xiaomei.Enlighten-GAN for super resolution reconstruction in mid-resolution fingerprint images[J].Laser amp; Infrared,2022,52(10):1577-1584.)

[5]王旸.超分辨率圖像重建效果優化算法研究[J].控制工程,2018,25(5):740-745.(Wang Yang.An optimal algorithm for super-resolution image reconstruction[J].Control Engineering of China,2018,25(5):740-745.)

[6]Dong Chao,Loy C C,He Kaiming,et al.Learning a deep convolutional network for image super-resolution[C]//Proc of European Conference on Computer Vision.Cham:Springer,2014:184-199.

[7]Dong Chao,Loy C C,Tang Xiao’ou.Accelerating the super-resolution convolutional neural network[C]//Proc of European Conference on Computer Vision.Cham:Springer,2016:391-407.

[8]Shi Wenzhe,Caballero J,Huszár F,et al.Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:1874-1883.

[9]Kim J,Lee J K,Lee K M.Accurate image super-resolution using very deep convolutional networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:1646-1654.

[10]Tai Ying,Yang Jian,Liu Xiaoming.Image super-resolution via deep recursive residual network[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:2790-2798.

[11]Kim J,Lee J K,Lee K M.Deeply-recursive convolutional network for image super-resolution[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:1637-1645.

[12]Lai W S,Huang J B,Ahuja N,et al.Deep Laplacian pyramid networks for fast and accurate super-resolution[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:5835-5843.

[13]Tong Tong,Li Gen,Liu Xiejie,et al.Image super-resolution using dense skip connections[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2017:4809-4817.

[14]Lim B,Son S,Kim H,et al.Enhanced deep residual networks for single image super-resolution[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition Workshops.Piscataway,NJ:IEEE Press,2017:1132-1140.

[15]Ledig C,Theis L,Huszár F,et al.Photo-realistic single image super-resolution using a generative adversarial network[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2017:105-114.

[16]Goodfellow I,Pouget-Abadie J,Mirza M,et al.Generative adversarial networks[J].Communications of the ACM,2020,63(11):139-144.

[17]Zhang Xianchao,Cheng Ziyang,Zhang Xiaotong,et al.Posterior promoted GAN with distribution discriminator for unsupervised image synthesis[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:6515-6524.

[18]Wang Xintao,Yu Ke,Wu Shixiang,et al.ESRGAN:enhanced super-resolution generative adversarial networks[C]//Proc of European Conference on Computer Vision Workshops.Berlin:Springer,2018:63-79.

[19]Menon S,Damian A,Hu Shijia,et al.Pulse:self-supervised photo upsampling via latent space exploration of generative models[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:2434-2442.

[20]Chan K C K,Wang Xintao,Xu Xiangyu,et al.GLEAN:generative latent bank for large-factor image super-resolution[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:14240-14249.

[21]Liang Jie,Zeng Hui,Zhang Lei.Details or artifacts:a locally discriminative learning approach to realistic image super-resolution[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:5647-5656.

[22]Lu Zhisheng,Li Juncheng,Liu Hong,et al.Transformer for single image super-resolution[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:456-465.

[23]Wright L,Demeure N.Ranger21:a synergistic deep learning optimizer[EB/OL].(2021-06-25)[2022-11-18].https://arxiv.org/abs/2106.13731v1.

[24]李曉萌,陳兆學.基于GAN的人臉超分辨率重建算法研究[J].光學技術,2021,47(1):101-106.(Li Xiaomeng,Chen Zhaoxue.Research on GAN-based face super-resolution reconstruction algorithm[J].Optical Technique,2021,47(1):101-106.)

[25]胡德敏,王揆豪,林靜.漸進式生成對抗網絡的人臉超分辨率重建[J].小型微型計算機系統,2021,42(9):1955-1961.(Hu Demin,Wang Kuihao,Lin Jing.Progressive GAN for face image super-resolution[J].Journal of Chinese Computer Systems,2021,42(9):1955-1961.)

[26]Jiang Kui,Wang Zhongyuan,Yi Peng,et al.Dual-path deep fusion network for face image hallucination[J].IEEE Trans on Neural Networks and Learning Systems,2022,33(1):378-391.

[27]Cao Qingxing,Lin Liang,Shi Yukai,et al.Attention-aware face hallucination via deep reinforcement learning[C]//Proc of IEEE Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:2017:1656-1664.

[28]Chen Chaofeng,Li Xiaoming,Yang Lingbo,et al.Progressive semantic-aware style transformation for blind face restoration[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:11891-11900.

主站蜘蛛池模板: 国产精品手机在线播放| 毛片视频网址| 亚洲精品无码不卡在线播放| 欧美在线观看不卡| 久久免费视频6| 国产小视频在线高清播放| 亚洲欧美不卡视频| 日韩毛片免费| 亚洲无线观看| 91麻豆精品视频| 98超碰在线观看| 国产偷国产偷在线高清| 日韩精品一区二区三区免费| 亚洲aaa视频| 综合网天天| 97se亚洲综合在线| 日韩资源站| 首页亚洲国产丝袜长腿综合| 亚洲无码熟妇人妻AV在线| 99热这里只有精品久久免费| 2021国产乱人伦在线播放| 亚洲国产中文综合专区在| 日韩视频免费| 精品超清无码视频在线观看| 精品人妻无码中字系列| аⅴ资源中文在线天堂| 亚洲一区二区三区国产精品| 亚洲av无码牛牛影视在线二区| 99视频在线免费| 亚洲高清资源| 国产男人天堂| 女人18毛片一级毛片在线 | 538国产视频| 欧洲精品视频在线观看| 国产免费怡红院视频| 黄网站欧美内射| 亚洲人在线| 97视频在线观看免费视频| 成人自拍视频在线观看| 免费一级α片在线观看| 热久久国产| 成人午夜久久| 天天综合网色中文字幕| 老司国产精品视频| 最新亚洲人成无码网站欣赏网| 精品色综合| 伊人无码视屏| 国产成人做受免费视频| 99国产精品免费观看视频| 中国一级特黄大片在线观看| 久久久久中文字幕精品视频| 久久久久无码精品| 亚洲AV无码乱码在线观看裸奔| 一级毛片在线播放| 三上悠亚在线精品二区| 成人年鲁鲁在线观看视频| 中文字幕首页系列人妻| 成色7777精品在线| 日韩高清中文字幕| 国产成人精品一区二区秒拍1o| 久久夜色精品| 国产人前露出系列视频| 尤物亚洲最大AV无码网站| 欧美成人精品在线| 丝袜无码一区二区三区| 特级做a爰片毛片免费69| 国产AV毛片| 成人午夜视频免费看欧美| 97在线免费视频| 影音先锋丝袜制服| 精品人妻无码区在线视频| 无码免费试看| 丁香五月亚洲综合在线| 片在线无码观看| a毛片免费在线观看| 青青草国产在线视频| 波多野结衣无码AV在线| 国产日韩欧美精品区性色| 亚洲国产天堂久久综合| 超薄丝袜足j国产在线视频| 毛片免费观看视频| 97久久超碰极品视觉盛宴|