999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進(jìn)的生成對抗網(wǎng)絡(luò)圖像超分辨率重建

2020-02-18 15:20:10黃初華
關(guān)鍵詞:特征

李 誠,張 羽,黃初華

貴州大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,貴陽550025

1 引言

超分辨率圖像重建(Super Resolution Image Reconstruction,SRIR)[1-2]是近年來計(jì)算機(jī)視覺和圖像處理領(lǐng)域的一個(gè)研究熱點(diǎn),由于廣泛的應(yīng)用場景和理論價(jià)值,超分辨率圖像重建引起了研究者的廣泛關(guān)注。超分辨率圖像重建本質(zhì)上是如何由一幅或多幅低分辨率(Low Resolution,LR)圖像生成一個(gè)具有良好視覺效果和接近真實(shí)圖像的高分辨率(High Resolution,HR)圖像的問題。在圖像的實(shí)際應(yīng)用中,為了減輕傳輸或存儲負(fù)擔(dān)等問題,通常對圖像進(jìn)行下采樣等降質(zhì)操作,而降質(zhì)操作具有不可逆性,所以該問題是病態(tài)問題。因此從低分辨率圖像重建為高分辨率圖像的關(guān)鍵是找到低分辨率和高分辨率圖像之間的映射關(guān)系。

目前主流的超分辨率重構(gòu)技術(shù)大致分為三類:基于插值[3]、基于重建[4-5]和基于學(xué)習(xí)[6-8]的方法。基于插值的方法,例如最近鄰域插值和雙三次插值,該類方法能有效地增強(qiáng)圖像分辨率,但圖像邊緣部分會出現(xiàn)模糊。基于重建的方法重點(diǎn)是恢復(fù)圖像丟失的高頻信息,該類方法簡單且工作量低,但無法處理結(jié)構(gòu)比較復(fù)雜的圖像。基于學(xué)習(xí)的方法是近年來的主流方法,該類方法旨在通過對大量數(shù)據(jù)樣本的學(xué)習(xí),建立低分辨率圖像和高分辨率圖像之間的映射關(guān)系。其中,基于深度學(xué)習(xí)[9]的超分辨率重建相比于傳統(tǒng)只能人工提取特征進(jìn)行相對簡單的函數(shù)擬合的淺層學(xué)習(xí),深度學(xué)習(xí)可以自動學(xué)習(xí)得到層次化的特征表示,實(shí)現(xiàn)更加復(fù)雜的非線性函數(shù)模型逼近。基于深度學(xué)習(xí)的算法性能超越了之前的很多經(jīng)典算法。

Dong等人[10]首次將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于超分辨率重建上,提出基于卷積神經(jīng)網(wǎng)絡(luò)的超分辨率(Super-Resolution Convolutional Neural Network,SRCNN)算法,使用3個(gè)卷積層,將圖像特征從低分辨率空間非線性映射到高分辨率空間,重建效果優(yōu)于其他傳統(tǒng)算法。Kim等人[11]加深了卷積層數(shù),提出了一個(gè)20層的深度卷積神經(jīng)網(wǎng)絡(luò)模型(Very Deep Convolutional Networks,VDSR),提高了圖像的重建質(zhì)量。Kim等人[12]提出的基于深度循環(huán)神經(jīng)網(wǎng)絡(luò)的圖像超分辨率重建(Deeply-Recursive Convolutional Network,DRCN)和Tai等人[13]提出的基于深度循環(huán)殘差網(wǎng)絡(luò)的圖像超分辨率重建(Deep Recursive Residual Network,DRRN)均在網(wǎng)絡(luò)中加入循環(huán)神經(jīng)網(wǎng)絡(luò),大幅度減少了網(wǎng)絡(luò)參數(shù)。Tong等人[14]提出使用密集跳躍連接實(shí)現(xiàn)圖像超分辨率重建(Super-Resolution Dense Skip Connections Network,

SRDenseNet),脫離了加深網(wǎng)絡(luò)層數(shù)和加寬網(wǎng)絡(luò)結(jié)構(gòu)來提升網(wǎng)絡(luò)性能的定式思維,有效地提高了重建質(zhì)量。Zhang等人[15]將殘差塊(Residual Block)和密集塊(Dense Block)整合為殘差密集塊(Residual Dense Block,RDB),提出殘差密集網(wǎng)絡(luò)(Residual Dense Network,RDN),并應(yīng)用在超分辨率重建上,提高重建質(zhì)量。

隨著近年來生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)的出現(xiàn),Ledig等人[16]首次將GAN應(yīng)用到超分辨率重建上,提出了基于生成對抗網(wǎng)絡(luò)的超分辨率重建(Super-Resolution Generative Adversarial Networks,SRGAN),在將殘差網(wǎng)絡(luò)(Residual Network,ResNet)作為生成器部分的基礎(chǔ)上,增加一個(gè)判別器,使用MSE損失函數(shù)和VGG損失函數(shù)來重建逼真的超分辨率圖像,實(shí)驗(yàn)證明,生成對抗網(wǎng)絡(luò)能適用于超分辨率重建。之后,Lim等人[17]提出的增強(qiáng)深度殘差(Enhanced Deep Super-Resolution,EDSR)網(wǎng)絡(luò)在SRGAN的結(jié)構(gòu)基礎(chǔ)上修改了殘差塊的設(shè)計(jì),去除了其中的批歸一化(Batch Normlization,BN)層,實(shí)驗(yàn)證明,去除BN層后可以節(jié)省約40%的GPU內(nèi)存空間。

由于生成對抗網(wǎng)絡(luò)在超分辨率重建領(lǐng)域的優(yōu)勢,本文基于生成對抗網(wǎng)絡(luò)框架,提出基于殘差密集網(wǎng)絡(luò)的生成對抗網(wǎng)絡(luò)的圖像超分辨率重建算法。在SRCNN基礎(chǔ)上添加判別器網(wǎng)絡(luò),擴(kuò)展成生成對抗網(wǎng)絡(luò)框架,并分別架構(gòu)生成器網(wǎng)絡(luò)和判別器網(wǎng)絡(luò):使用殘差密集網(wǎng)絡(luò)作為生成對抗網(wǎng)絡(luò)的生成器網(wǎng)絡(luò),將殘差塊替換為殘差密集塊,加深網(wǎng)絡(luò)深度以及提高特征信息的利用率;使用PatchGAN作為判別器網(wǎng)絡(luò)部分,解決訓(xùn)練不穩(wěn)定和收斂慢的問題。

2 相關(guān)工作

2.1 生成對抗網(wǎng)絡(luò)

GAN是Goodfellow等人[18-19]在2014年提出的一種生成式模型。其思想受博弈論中的二人零和博弈(即二人的利益之和為零,一方的所得正是另一方的所失)的啟發(fā),由一個(gè)生成器和一個(gè)判別器構(gòu)成。生成器捕捉真實(shí)數(shù)據(jù)樣本的潛在分布,并生成新的數(shù)據(jù)樣本;判別器是一個(gè)二分類器,判別輸入的是真實(shí)數(shù)據(jù)還是生成數(shù)據(jù)。生成器和判別器均可采用深度神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)。GAN發(fā)展至今,其家族在不斷擴(kuò)大,常用的模型有DCGAN(Deep Convolutional Generative Adversarial Networks)[20]、WGAN(Wasserstein GAN)[21]、PatchGAN[22]等。目前GAN已經(jīng)在圖像處理、計(jì)算機(jī)視覺、語音識別等方面得到了應(yīng)用。相較于其他方法,加入GAN算法的模型能充分利用圖像信息,因此模型的準(zhǔn)確率均有提高。

2.2 SRCNN算法

Dong等人[10]提出了基于卷積神經(jīng)網(wǎng)絡(luò)的超分辨率算法,將深度學(xué)習(xí)應(yīng)用到圖像超分辨率重建中,這是首次將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)應(yīng)用到超分辨率重建領(lǐng)域。

SRCNN直接學(xué)習(xí)高低分辨率圖像之間的端對端映射。映射表現(xiàn)為一個(gè)深度卷積神經(jīng)網(wǎng)絡(luò),輸入的是低分辨率圖像,輸出的是高分辨率圖像。SRCNN網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。SRCNN不像傳統(tǒng)的稀疏表示的圖像超分辨率重建分開處理每個(gè)部件,它共同優(yōu)化了所有的層,有很好的重建質(zhì)量,在實(shí)際應(yīng)用中也取得了很好的效果。

SRCNN從總體上大致由特征提取和表示、非線性映射、重建三部分組成,每層負(fù)責(zé)特定的任務(wù)。

圖1 SRCNN網(wǎng)絡(luò)架構(gòu)

圖像塊提取和表示:該操作從低分辨率圖像中提取多個(gè)特征塊,并將每個(gè)特征塊表示為高維度向量,這些向量構(gòu)成第一層的特征圖。

非線性映射:該操作是非線性地將來自第一層的每個(gè)高維向量映射到另一個(gè)高維向量上。每個(gè)映射向量都是一個(gè)高分辨率圖像塊的表示,這些映射向量構(gòu)成了第二層的特征圖。

重構(gòu):該操作集合了上一層的高分辨率圖像塊,來生成最終的高分辨率圖像。

3 本文方法

3.1 算法結(jié)構(gòu)

圖像超分辨率重建通常是通過提取低分辨率圖像的細(xì)節(jié)信息、重建等步驟得到相應(yīng)的高分辨率圖像,在特征信息的利用上存在著利用率不高的問題。本文通過增加一個(gè)判別器網(wǎng)絡(luò),將原本基于卷積網(wǎng)絡(luò)框架拓展成基于生成對抗網(wǎng)絡(luò)框架,用生成對抗網(wǎng)絡(luò)來約束圖片。其中生成器網(wǎng)絡(luò)部分使用RDB提高特征信息利用率,提高生成圖像質(zhì)量。判別器網(wǎng)絡(luò)部分使用PatchGAN來提高收斂速度和提高重建圖像質(zhì)量。本文網(wǎng)絡(luò)框架如圖2所示。

本文主要在網(wǎng)絡(luò)架構(gòu)和特征利用方面對SRCNN進(jìn)行改進(jìn),與SRCNN和SRGAN結(jié)構(gòu)相比,本文有以下特點(diǎn):

(1)使用殘差網(wǎng)絡(luò)和密集網(wǎng)絡(luò)結(jié)合后的殘差密集網(wǎng)絡(luò)來替代SRCNN中特征提取和表示、非線性映射、重建三部分,使用殘差網(wǎng)絡(luò)增加網(wǎng)絡(luò)的深度,使用密集網(wǎng)絡(luò)提高對圖像特征信息的利用,最終提高重建圖像的質(zhì)量。

(2)使用PatchGAN替換GAN的原始判別器網(wǎng)絡(luò)部分,與SRGAN的判別器網(wǎng)絡(luò)部分相比,PatchGAN輸出的是一個(gè)N×N的矩陣。本算法在原本SRGAN可以提高重建圖像質(zhì)量的基礎(chǔ)上,將輸入圖像以圖像塊的形式進(jìn)行處理,可以減少參數(shù)量和運(yùn)算量,以解決收斂慢的問題。

3.2 生成器網(wǎng)絡(luò)

SRCNN算法以及一些基于SRCNN的算法,很多情況都只是通過加深網(wǎng)絡(luò)的深度來提高重建圖像質(zhì)量,這種加深網(wǎng)絡(luò)深度方法雖然可以提高重建圖像的質(zhì)量,但每層的特征信息無法被重復(fù)利用,導(dǎo)致特征利用率低,重建圖像質(zhì)量不高。本文算法使用將殘差網(wǎng)絡(luò)和密集網(wǎng)絡(luò)結(jié)合在一起的殘差密集網(wǎng)絡(luò)構(gòu)成生成器網(wǎng)絡(luò),在使用殘差網(wǎng)絡(luò)加深網(wǎng)絡(luò)深度的基礎(chǔ)上,使用密集網(wǎng)絡(luò),通過RDB將所有具有相同特征映射大小的特征圖連接起來,每層的輸入都附加了前面所有層的輸出,通過從前面層到后續(xù)層的短路徑不僅可以緩解梯度消失問題,而且增強(qiáng)了特征傳播,促進(jìn)了特征再利用,保留了前向傳播的特性。這種卷積層和激活層的輸出附加到后面卷積層的輸入的方法,使得網(wǎng)絡(luò)具有連續(xù)記憶的功能,每層的狀態(tài)得以連續(xù)傳遞,將每層的特征信息重復(fù)利用,解決SRCNN中特征信息利用率低的問題。

圖2 本文網(wǎng)絡(luò)架構(gòu)

生成器網(wǎng)絡(luò)架構(gòu)使用RDB構(gòu)建,主要由輸入、特征提取、殘差密集塊、特征融合、全局殘差學(xué)習(xí)(Global Residual Learning,GRL)、重建和輸出組成。每層詳細(xì)介紹如下:

(1)特征提取層:使用3×3卷積核的卷積層對輸入的低分辨率圖像進(jìn)行卷積處理,提取特征圖。

(2)RDB層:由RDB組成,結(jié)構(gòu)如圖3所示,使用由卷積層和激活層組成的特征提取單元多次重復(fù)串接組成,這樣可以在獲得較深的網(wǎng)絡(luò)層數(shù)的前提下,通過密集連接重復(fù)利用前后特征信息。LRL(Local Residual Learning)為局部殘差學(xué)習(xí)。本文引入EDSR[17]的網(wǎng)絡(luò)架構(gòu)特點(diǎn)刪除殘差網(wǎng)絡(luò)結(jié)構(gòu)中的BN層,因?yàn)槭褂肂N層來歸一化特征會使得網(wǎng)絡(luò)參數(shù)大量增加,占用較多內(nèi)存,不利于網(wǎng)絡(luò)收斂,所以生成器網(wǎng)絡(luò)部分刪除BN層,提高收斂速度。

圖3 RDB塊結(jié)構(gòu)

(3)特征融合層:將每個(gè)殘差塊輸出的特征圖進(jìn)行連接,形成密集特征融合。

(4)GRL層:在特征圖進(jìn)行重建之前,將輸入圖像經(jīng)過底層卷積操作后得到的特征圖再次融合到經(jīng)過殘差塊提取的特征圖中,形成全局殘差學(xué)習(xí),這樣做有利于網(wǎng)絡(luò)訓(xùn)練和梯度保持。

(5)重建模塊:使用反卷積層對特征圖進(jìn)行擴(kuò)充處理,反卷積可以加速超分辨率圖像的重建過程,同時(shí)獲取的大量LR圖像的紋理信息可以被用于推斷HR圖像的細(xì)節(jié)信息。

3.3 判別器網(wǎng)絡(luò)

判別器部分受到Isola等人[22]提出的基于圖像塊的判別器PatchGAN的啟發(fā),設(shè)計(jì)6層的卷積神經(jīng)網(wǎng)絡(luò)作為判別器網(wǎng)絡(luò)。該判別器網(wǎng)絡(luò)由卷積層、批歸一化層、激活層和最大池化層交替構(gòu)成,卷積層和最大池化層的步幅均設(shè)置為2,以增大輸出特征的感受野,批歸一化層的使用可以提高判別器網(wǎng)絡(luò)的泛化能力。

GAN一般情況下的網(wǎng)絡(luò)結(jié)構(gòu),在一些人的實(shí)驗(yàn)中已經(jīng)表明對于要求高分辨率、高細(xì)節(jié)保持的圖像領(lǐng)域并不適合,與SRGAN的原本判別器網(wǎng)絡(luò)相比,PatchGAN辨別器網(wǎng)絡(luò)對小尺寸的圖像塊進(jìn)行運(yùn)算,大大減少了參數(shù)數(shù)量和運(yùn)算量,緩解了原本GAN網(wǎng)絡(luò)收斂慢的問題。而Isola等通過實(shí)驗(yàn)驗(yàn)證,當(dāng)圖像塊的尺寸大于70×70時(shí),生成圖像的效果已經(jīng)十分接近對真實(shí)圖像進(jìn)行判定的結(jié)果。因此,本文算法使用判別器網(wǎng)絡(luò)部分可以提高重建圖像質(zhì)量和解決收斂速度慢的問題。

3.4 損失函數(shù)

本文采用均方誤差(Mean Square Error,MSE)損失和對抗損失的加權(quán)和作為訓(xùn)練生成器網(wǎng)絡(luò)的目標(biāo)函數(shù),而未使用SRGAN中的VGG損失。基于像素的MSE損失用于保留圖像的低頻部分,對抗損失用于恢復(fù)圖像的高頻信息。損失函數(shù)表達(dá)式如下:

LG=LMSE+αLA

其中,LG是生成網(wǎng)絡(luò)的總體損失,LMSE為MSE損失,LA為對抗損失,α為加權(quán)系數(shù)權(quán)重。

3.4.1 MSE損失

為獲得高質(zhì)量的重建圖像,算法采用MSE損失計(jì)算生成圖像與目標(biāo)圖像對應(yīng)像素的歐幾里德距離。MSE更接近人的視覺感知,對數(shù)值差異較大的異常像素點(diǎn)更加敏感,但難以捕捉圖像感知上的區(qū)別,因此將MSE作為目標(biāo)函數(shù)的網(wǎng)絡(luò)模型生成的圖像趨于平滑。而像素是數(shù)字圖像的最小單位,減小像素間的差距能夠更加快速、有效地保證圖像信息的準(zhǔn)確性,因此MSE損失雖然會丟失圖像的一部分高頻信息,但能夠很好地恢復(fù)圖像的低頻內(nèi)容。

MSE損失函數(shù)表達(dá)式如下:

式中,IHi代表高分辨率圖像,ILi代表低分辨率圖像,G(x,θ)代表生成網(wǎng)絡(luò)學(xué)習(xí)低分辨率圖像和高分辨率圖像之間的映射函數(shù)。

3.4.2 對抗損失

基于生成網(wǎng)絡(luò)和對抗網(wǎng)絡(luò)的對抗機(jī)制,參照SRGAN網(wǎng)絡(luò)的對抗損失函數(shù),設(shè)定對抗損失的表達(dá)式如下:

其中,D(G(ILi,θ))為判別器網(wǎng)絡(luò)判定生成圖像為真實(shí)圖像的概率。

4 實(shí)驗(yàn)與分析

4.1 訓(xùn)練細(xì)節(jié)

本文方法基于PyTorch框架進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)的硬件參數(shù)如下:IntelCorei7-4790K 4.00 GHz,NVIDIA GTX1060 6 GB。采用NTIRE2017中提供的DIV2K訓(xùn)練集,該訓(xùn)練集由1 000幅RGB圖像組成,其中訓(xùn)練集包含800幅圖像,驗(yàn)證集和測試集各100幅圖像,所有圖像至少在垂直或水平上包含2 040像素。訓(xùn)練部分不采用原本SRCNN的優(yōu)化,而使用Adam算法進(jìn)行優(yōu)化,總迭代次數(shù)為100次,初始學(xué)習(xí)率設(shè)置為10-4,隨迭代進(jìn)行,微調(diào)學(xué)習(xí)率,損失函數(shù)的參數(shù)α經(jīng)交叉驗(yàn)證設(shè)為0.1。

4.2 實(shí)驗(yàn)測試

為驗(yàn)證本文的超分辨率重建算法性能,實(shí)驗(yàn)選用通用的基準(zhǔn)測試集Set5、Set14、BSD100進(jìn)行測試,并將測試結(jié)果與Bicubic[23]、SRCNN[10]、VDSR[11]、DRCN[12]、SRGAN[16]等算法在主觀效果和客觀指標(biāo)兩方面進(jìn)行對比。為了保證客觀準(zhǔn)確的對比,所有網(wǎng)絡(luò)模型均在放大因子為4的比例下進(jìn)行實(shí)驗(yàn)測試,由于測試平臺配置不同,所得測試結(jié)果可能與原文獻(xiàn)數(shù)據(jù)略有不同。

4.2.1 主觀效果

為保證對比效果,從Set5和Set14數(shù)據(jù)集中各選取一張圖片,在放大4倍的情況下,比較各個(gè)算法的實(shí)際重建情況。不同算法在Set5和Set14上的重建效果圖如圖4和圖5所示。

圖4 Set5數(shù)據(jù)集上重建效果

圖5 Set14數(shù)據(jù)集上重建效果

圖4表示的是在Set5測試集上,放大因子為4時(shí),本文提出的超分辨率重建算法和其他算法的對比結(jié)果。Set5測試集中嬰兒的圖像在放大細(xì)節(jié)后可以觀察到,本文提出的算法重建圖像質(zhì)量更好,細(xì)節(jié)部分紋理更加清晰。圖5表示的是在Set14測試集上,放大因子為4時(shí)。本文提出的超分辨率重建算法和其他算法的對比結(jié)果。通過Set14測試集中狒狒圖像在邊緣處放大后的細(xì)節(jié)可以看出,本文重建算法的紋理與Bicubic、SRCNN、VDSR等算法重建的圖像對比,本文算法重建后更加清晰。

4.2.2 客觀效果

本文采用目前圖像處理中常用的兩個(gè)檢測指標(biāo):峰值信噪比(Peak Signal to Noise Ratio,PSNR)和結(jié)構(gòu)相似性(Structural Similarity,SSIM)作為客觀評價(jià)指標(biāo),從而更準(zhǔn)確地表明本文算法相較其他算法的優(yōu)越性。PSNR反映兩幅圖像對應(yīng)像素點(diǎn)間的誤差,其值越高表明輸出圖像失真越少,圖像重建質(zhì)量越好。SSIM是表示兩幅圖像相似度的評價(jià)指標(biāo),其值越接近于1代表輸出圖像越接近于原始高分辨率圖像,即重建效果越好。

在放大因子為4的情況下,僅對本文算法的生成器網(wǎng)絡(luò)部分進(jìn)行性能測試,在基準(zhǔn)數(shù)據(jù)集Set5、Set14、BSD100下測試其平均PSNR值(dB)和測試時(shí)間(s),如表1所示。

表1 各數(shù)據(jù)集上生成器網(wǎng)絡(luò)測試結(jié)果

在放大因子為4時(shí),在基準(zhǔn)數(shù)據(jù)集Set5、Set14、BSD100下與Bicubic[23]、SRCNN[10]、VDSR[11]、DRCN[12]、SRGAN[16]算法對比PSNR和SSIM值如表2和表3所示。可以看出,本文方法在Set5、Set14和BSD100上PSNR的效果要普遍優(yōu)于比較算法,比較算法的PSNR值比最高的SRResNet算法分別高0.34 dB、0.28 dB和0.10 dB,除了在Set14上的SSIM值要比SRResNets低0.033以外,SSIM值在Set5和BSD100上要高0.003 4和0.003 1,因此可以證明本文算法要優(yōu)于其他算法。

表2 標(biāo)準(zhǔn)數(shù)據(jù)集Set5、Set14和BSD100上PSNR值對比dB

表3 標(biāo)準(zhǔn)數(shù)據(jù)集Set5、Set14和BSD100上SSIM值對比

5 結(jié)束語

本文針對圖像超分辨率重建中特征信息利用率低的問題,結(jié)合生成對抗網(wǎng)絡(luò)和卷積網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu),提出了基于殘差密集生成對抗網(wǎng)絡(luò)的圖像超分辨率重建算法,通過將SRCNN擴(kuò)展為生成對抗網(wǎng)絡(luò)框架,構(gòu)建網(wǎng)絡(luò)的生成器和判別器部分,定義損失函數(shù)。本文提出的算法可以較好地增強(qiáng)特征傳播,促進(jìn)特征再利用,提高特征利用率。通過實(shí)驗(yàn)部分的主觀效果和客觀數(shù)據(jù)對比,可以看出本文算法能夠較全面地提取低分辨率圖像特征,較好地提高對特征信息的重復(fù)利用率,較充分地恢復(fù)圖像的紋理信息,在加速模型收斂的同時(shí),進(jìn)一步提升圖像重建質(zhì)量。未來研究工作主要是對特定的領(lǐng)域或特定的場景圖像進(jìn)行超分辨率重建,以及將基于深度學(xué)習(xí)的方法與傳統(tǒng)方法相結(jié)合實(shí)現(xiàn)更優(yōu)的超分辨率重建算法。

猜你喜歡
特征
抓住特征巧觀察
離散型隨機(jī)變量的分布列與數(shù)字特征
具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
月震特征及與地震的對比
如何表達(dá)“特征”
被k(2≤k≤16)整除的正整數(shù)的特征
不忠誠的四個(gè)特征
詈語的文化蘊(yùn)含與現(xiàn)代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 久久五月视频| 99热亚洲精品6码| 国模私拍一区二区| 亚洲第一网站男人都懂| 毛片一区二区在线看| 亚洲中文无码av永久伊人| 不卡视频国产| 91成人在线观看| 99ri国产在线| 亚洲无码高清视频在线观看| 欧美成人综合在线| 精品国产Ⅴ无码大片在线观看81| 精品视频福利| 亚洲欧美天堂网| 成人免费午间影院在线观看| 四虎亚洲国产成人久久精品| 一区二区理伦视频| 亚洲人成电影在线播放| 乱人伦99久久| 亚洲男人天堂久久| 中文字幕欧美日韩高清| 国产精品男人的天堂| 狠狠色丁婷婷综合久久| 国产精品一区二区在线播放| 免费一级毛片| 免费人成视网站在线不卡 | 69免费在线视频| 亚洲国产黄色| 99热免费在线| 99爱在线| 五月婷婷亚洲综合| 国产凹凸视频在线观看| AV熟女乱| 四虎影视永久在线精品| 久久99国产视频| 国产精品v欧美| 最新午夜男女福利片视频| 亚洲国产日韩视频观看| 99一级毛片| 最近最新中文字幕在线第一页 | 新SSS无码手机在线观看| 国产在线第二页| 国产自视频| 毛片手机在线看| 精品亚洲麻豆1区2区3区| 国产不卡网| 国产毛片片精品天天看视频| 精品伊人久久久久7777人| 亚洲人精品亚洲人成在线| 狼友av永久网站免费观看| 噜噜噜综合亚洲| 国产新AV天堂| 亚洲成A人V欧美综合| 亚洲国产av无码综合原创国产| 久久黄色免费电影| 日韩a级毛片| 中文字幕在线永久在线视频2020| 欧美久久网| 2020最新国产精品视频| 久久这里只有精品66| 国产一二三区在线| 色老二精品视频在线观看| 五月综合色婷婷| 久久精品无码专区免费| 国产色爱av资源综合区| 欧美一级高清免费a| 欧美色丁香| 国产无吗一区二区三区在线欢| 久久公开视频| 免费精品一区二区h| 97人人做人人爽香蕉精品| 播五月综合| 一本一道波多野结衣一区二区| 国产福利免费观看| av色爱 天堂网| 98超碰在线观看| 毛片免费高清免费| 91精品国产一区自在线拍| 极品国产在线| 国产精品免费p区| 亚洲国产一区在线观看| 欧美成a人片在线观看|