999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對抗網絡與噪聲分布的圖像超分辨率重建方法

2023-04-29 15:36:53王曄孫志寬李征
四川大學學報(自然科學版) 2023年3期
關鍵詞:特征信息模型

王曄 孫志寬 李征

現有的圖像超分辨率重建方法都較少考慮真實低分辨率圖像中包含的噪聲信息,因此會影響圖像的重建質量.受真實圖像去噪算法的啟發,本文引入一個噪聲分布收集網絡來收集低分辨率圖像的噪聲分布信息,并采用生成對抗網絡的模型設計,提高含噪聲圖像的重建質量.噪聲分布信息會分別輸入到超分辨率重建網絡和判別網絡,在重建過程中去除噪聲的同時保證有用高頻信息的恢復,另外由于判別網絡的能力對整個模型的性能有著重要影響,選擇使用 U-Net 網絡來獲得更好的梯度信息反饋.與經典圖像超分辨率重建算法的對比以及消融實驗表明,使用噪聲收集網絡和 U-Net 判別網絡后,本文模型在噪聲低分辨率圖像重建任務中獲得了更好的性能.

圖像超分辨率; 生成對抗網絡; 真實圖像; 噪聲分布

TP391A2023.032001

收稿日期: 2022-06-20

基金項目: 國家重點研發計劃項目(2020YFA0714003); 國家重大項目(GJXM92579); 四川省科技廳重點研發項目(2021YFQ0059)

作者簡介: 王曄(1997-), 女, 山西晉城人, 碩士研究生, 主要研究領域為計算機視覺與圖像處理. E-mail: yesica1230@163.com

通訊作者: 李征. E-mail: lizheng@scu.edu.cn

An image super-resolution reconstruction method based onGenerative Adversarial Network and noise distribution

WANG Ye1, SUN Zhi-Kuan1, LI Zheng1, 2

(1.College of Computer Science(College of Software), Sichuan University, Chengdu 610065, China;

2.Tianfu Engineering-Oriented Numerical Simulation & Software Innovation Center, Sichuan University, Chengdu 610207, China)

Existing image super-resolution reconstruction methods take less into account the noise information contained in real low-resolution images, which will affect the quality of image reconstruction. Inspired by the real image denoising algorithm, this paper introduces a noise distribution collection network to collect noise distribution information of low-resolution images, and adopts a model design of Generative Adversarial Network to improve the reconstruction quality of noisy images. The noise distribution information will be input to the super-resolution reconstruction network and the discriminant network respectively. During the reconstruction process, the noise is removed during while ensuring the recovery of useful high-frequency information, because the ability of the discriminant network has an important impact on the performance of the entire model, the U-Net network is selected to obtain better gradient information feedback. Comparison with the classical image super-resolution reconstruction methods and ablation experiments,the resluts show that the proposed model obtains better performance in the noisy low-resolution image reconstruction task after using the noise collection network and the U-Net discriminant network.

Image super-resolution; Generative Adversarial Network; Real images; Noise distribution

1 引 言

隨著科技的發展,作為重要信息載體的圖像擁有了越來越高的分辨率.更高的像素密度展示了更多的紋理細節,蘊涵更豐富的信息,在很多場景中高分辨率圖像都極具價值,比如CT圖像、核磁共振圖像、監控視頻和衛星遙感圖像等.但高分辨率的圖像對成像設備和環境因素要求很高.在實際生活中,人們往往獲取不到期望的高質量圖片.因此,在軟件層面上圖像超分辨率重建技術滿足了這樣的需求[1-3].

圖像超分辨率重建技術需要為低分辨率圖像恢復出更多的紋理信息,也就是擁有更多高頻細節.真實場景中的自然低分辨率圖像是通過相機鏡頭捕捉到的,經過了復雜的退化過程,常常包含不少的噪聲信息,對圖像重建過程并無用處.并且由于其圖像也是高頻信息,可能會在重建過程中被放大,從而生成偽影降低圖像的重建質量.如果將低分辨率圖像先進行去噪,然后再進行圖像的超分辨率重建,則會導致部分有用的高頻信息在去噪過程中被過濾丟失,尤其是一些紋理細節[4].圖像的先驗信息被破壞,對后續的重建過程會有影響,使得圖像重建質量一般.一些面向真實場景的圖像超分辨率重建算法都是基于模糊核估計,在考慮噪聲影響時只是添加一些人工合成的噪聲信息.因此本文主要的貢獻是:(1) 提出一個噪聲收集網絡用于收集圖像真實的噪聲分布信息,并能夠拓展到已有的算法模型中;(2) 提出一個新的的圖像超分辨率網絡模型,適用于含噪聲的低分辨率圖像重建.

2 相關工作

圖像超分辨率重建算法的出現最早可追溯到1960年.早期的傳統方法主要分為三大類:基于插值的方法、基于重建的方法以及基于學習的方法.基于插值的常見方法有雙三次插值、雙線性插值以及最鄰近插值等.先將低分辨率圖像放大到想要的尺寸,再將待插值的像素信息利用數學模型計算出來,獲得高分辨率圖像,運行速度快.但由于是線性運算,獲得的高分辨率圖像會出現局部平滑,效果一般.基于重建的方法主要基于頻率域和空間域,考慮圖像的先驗知識和退化過程進行建模,根據模型來逆向重建,經典方法有最大后驗概率法[5]、迭代反投影法[6]以及凸集投影法[7].基于學習的方法就不再人為定義圖像的先驗知識,通過低分辨率圖像和高分辨率圖像構成的樣本數據學習映射關系來構建模型,主要方法有領域嵌入法[8]、基于稀疏表示的算法[9]以及錨定鄰域回歸法[10]等.

隨著卷積神經網絡(Convolution Neural Network, CNN)的蓬勃發展,2014年Dong等人首次提出了基于CNN的圖像超分辨率算法SRCNN[9],網絡類型為端到端,效果比傳統算法更好.之后他們又提出了FSRCNN[12],速度更快,復雜度更低,但使用在特征重建時的反卷積操作使得結果出現了棋盤格.針對這一問題,Shi等人在2016年提出采用亞像素卷積的神經網絡結構[13],但在網絡深度上具有局限性.同年Kim等人受殘差網絡的啟發提出了VDSR[14],使用全局殘差大大加深了網絡結構.同年,Ledig等人提出了SRResNet[15],將全局殘差與局部殘差相結合.NTIRE2017挑戰賽[16]中獲得超分辨率冠軍的EDSR算法[17]開創性地移除了批量歸一化. Tong等人在同年提出SRDenseNet[18],使用了密集稠密連接.在2018年Zhang等人結合密集連接與殘差連接提出了RDN[19],同年又提出了基于注意力機制的RCAN[20],500層的網絡深度獲得了更好的重建效果.2019年基于反饋機制,Li等人提出了SRFBN[21],訓練策略采用課程學習.同年Muqeet等人提出HRAN[22],使用了殘差注意力.2020年Hyun等人提出VarSR[23],從一張低分辨率圖像中恢復出多張高分辨率圖像.2021年,Qiao等人提出基于傅里葉域注意力的網絡模型[24],應用于顯微鏡圖像,拓展了圖像超分辨率的應用領域.

生成對抗網絡(Generative Adversarial Network, GAN)是由Goodfellow等人[25]在2014年提出的,使用兩個神經網絡,分別為生成器和判別器,被廣泛應用于圖像生成和語音生成等領域.Ledig等人在2017年提出了SRGAN[15],這是第一次在圖像超分辨率領域使用GAN的網絡結構.2018年,Wang等人提出了改進后的ESRGAN[26],提高模型訓練的穩定性.

圖像超分辨率算法在人工數據集上的性能已接近瓶頸,然而由于對圖像退化過程的簡化,大多數算法在真實圖像數據集上的表現不盡如人意,因此面向真實場景的超分辨率算法獲得了越來越多的關注.2018年Schocher等人提出了ZSSR[27],僅利用圖像本身的內部信息進行重建,是超分辨率重建領域首個基于CNN的無監督學習算法.2019年Fritsche等人提出FSSR[28],利用圖像中的低頻區域和高頻區域.2021年Wang等人提出DASR[29],利用對比學習機制學習退化過程.

3 方 法

本文提出了一個基于生成對抗網絡與噪聲分布的圖像超分辨率算法模型,使用生成對抗的網絡設計結構,在超分辨率重建網絡之前添加一個噪聲分布收集網絡(Noise Distribution Collection Network, NDCN),共同組成生成網絡部分,判別網絡使用U-Net網絡結構,整體流程如圖1所示.首先使用NDCN網絡獲取輸入帶噪聲低分辨率圖像中的噪聲分布信息,然后再將其與低分辨率圖像一同輸入到圖像超分辨率重建網絡,重建出的圖片與噪聲分布信息一同輸入到判別網絡.

3.1 NDCN網絡

Guo等人在2019年提出了CBDNet[30]用于真實噪聲圖像去噪.該網絡模型由兩部分組成,分別為噪聲估計子網絡和非盲去噪子網絡.受益于其中噪聲估計子網絡的設計,本文提出了一個NDCN網絡.CBDNet中噪聲估計子網絡的結構非常簡單,使用了五層全卷積網絡,并且沒有池化操作和批量歸一化.為了能夠收集到更深層次的特征信息,更關注屬于高頻信息的噪聲,并且更加準確,本文使用編碼塊-解碼塊的網絡結構和自注意力機制,另外使用跳躍連接使得深層特征與淺層特征可以實現多層次特征融合.第一層卷積后將特征輸入到網絡末端,由于自注意力模塊計算量較大,僅在編碼塊的末尾添加一個自注意力模塊.為了降低網絡模型的計算量,在編碼塊中進行降采樣操作,使用最大池化來使特征圖尺寸減少為原來的一半.之后在解碼塊中恢復特征圖尺寸,采用的是反卷積上采樣的方式,這樣便減少了全連接CNN中的計算開銷.

編碼塊由兩個卷積層和ReLU激活函數組成.卷積核大小設置為3×3,步長設置為1,特征圖尺度減小的同時增加通道數,解碼塊中的卷積核和編碼塊中設置相同.提取深層特征的同時壓縮通道數,最終NDCN網絡輸出與輸入尺寸相同的特征圖,其中包含有噪聲分布信息,并與含有噪聲的LR圖像一同輸入到重建網絡中,指導生成更好的圖像重建結果.

自注意力模塊可表示為:

Attention(Q,K,V)=Softmax(QKTdk)V(1)

其中,Q表示查詢向量矩陣;K表示鍵向量矩陣;V表示值向量矩陣;dk表示縮放因子.自注意力機制使用不同的參數矩陣對Q、K、V執行多種線性變換,計算Q和K之間的相似性,重復多次后將結果拼接起來.

3.2 圖像超分辨率重建網絡

重建網絡使用經典的密集連接和殘差連接的方式.在特征映射階段使用引入了混合注意力模塊(Mixed Attentions Module, MAM)的密集殘差注意力塊(Residual Dense Attention Block, RDAB).混合注意力包括空間注意力和頻率通道注意力,實現對不同的特征信息進行有針對性地處理,在增強有用信息的同時,抑制無用信息.多個RDAB組成一個密集殘差注意力組(Residual Dense Attention Group, RDAG),其中用密集連接的方式將不同層級的特征圖按通道相加,結果輸入到下一個RDAG模塊中,在減少計算量的同時保證多層級網絡的特征復用.另外為了減少模型的參數量,在網絡中使用1×1的卷積,壓縮通道數.

3.2.1 MAM模塊 在CNN中,通道之間的信息相似性導致存在冗余,并且直接使用全局平均池化處理會導致通道多樣性信息丟失,而空間注意力使網絡更注重高頻信息,在關鍵區域增強特征表達,因此本文在超分辨率重建網絡中使用多頻率通道注意力和空間注意力結合的MAM模塊,在通道中考慮不同位置空間關系的同時保持通道的多樣性信息.

多頻率通道注意力在FcaNet[31]中提出,在頻域中應用全局平均池化,采用DCT變換多頻譜.二維DCT可見式(2),DCT將二維輸入變換到頻率域見式(3).

φi,j=cosπhH12+icosπwW12+j(2)

fh,w=∑H-1i=0∑W-1j=0φi,jxi,js.t. h∈{0,1,…,H-1},w∈{0,1,…,W-1}(3)

其中,cos(·)表示余弦基函數,不同的h、w產生不同的頻率組合;xi,j為輸入信號;fh,w為二維頻譜.

在多頻率通道注意力機制中,會計算出所有頻率分量的結果.在其中挑選出表現性能最優的K個分量,K值可根據特征圖通道被劃分出的組數來設置.在通道數為C的特征圖輸入后,根據通道數劃分出n個子特征圖,分配到每個子特征圖中的通道數為C′=C/n,那么n個頻率組合為[F0,F1,...,Fn-1].根據式(2)計算得到相應的頻率響應.多頻譜向量F即由這些頻率組合壓縮而成,可見式(4).

F=compress(X)=concat([F0,F1,...,Fn-1])(4)

其中,X表示特征圖;compress(·)表示壓縮操作;將H×W×C壓縮為1×1×C;concat表示向量串聯.

最后使用全連接層和通道信息對多頻譜向量進行整合,使用Sigmoid激活函數計算注意力權重,可見式(5).

fca(X)=σ(fc(F))Hscale(X)(5)

其中,fc(·)表示全連接層;σ(·)表示激活函數;Hscale(·)表示按通道相乘.

在多頻譜通道注意力后加入空間注意力共同構成MAM模塊,對特征自適應性實現再校準,多響應包含豐富信息的通道和空間特征,同時抑制不重要的通道和空間特征.

3.2.2 RDAB模塊 對于圖像超分辨率重建任務來說,目標圖像一般具有較少的高頻信息和較多的低頻信息.網絡模型要在此情況下重建出盡可能多的高頻信息,而低頻信息基本變化不大,因此可以使用全局殘差的方法.低頻信息直接映射到網絡末端,殘差學習部分使用高頻信息.

批歸一化處理(Batch Normalization, BN)可以加快模型收斂速度,同時一定程度緩解出現在深層網絡的“梯度彌散”,因此幾乎是卷積神經網絡的標配處理技巧.但在圖像超分辨率重建過程中,BN層會歸一化圖像的色彩分布,使得對比度信息受損,從而影響圖像重建的質量.另外BN層的計算會耗費大量資源,去掉后反而可以利用空間堆疊更多網絡.因此本文中的殘差結構同樣選擇去除BN層.殘差單元計算過程見式(6).

fRU(x)=x+ReLU(Conv(ReLU(Conv(x))))(6)

其中,x表示輸入;ReLU表示激活函數;Conv表示卷積.

RDAB模塊中包括殘差單元和MAM模塊.輸入的特征圖通過殘差單元學習高頻信息,同時使用短跳躍連接將特征圖輸入到Concat層.在Concat層中對特征圖和不同的殘差單元輸出結果進行通道拼接.使用該連接方式既能保留之前的輸出結果,又能復用在深層次網絡中學習的特征,提高了網絡的特征表達.在Concat層后使用1×1卷積核進行通道壓縮,再輸入到MAM模塊中計算通道和空間位置的相應權重,使用殘差連接將RDAB模塊的輸入與MAM模塊的輸出相加,最終得到RDAB模塊的輸出.

3.2.3 RDAG結構 為了構建更深的殘差網絡,不同于對殘差網絡層直接進行堆疊,RDAG結構使用了殘差內嵌殘差的方式,更有利于模型訓練[17].短跳躍連接使得網絡可以直接映射跳過大量低頻信息,集中殘差學習高頻信息.用公式表達網絡中第m個RDAG可見式(7).

Gm=HmGm-1=HmHm-1…H1G0…(7)

其中,Hm表示第m個RDAG的過程;Gm表示第m個RDAG的輸出;Gm-1表示第m個RDAG的輸入;G0表示淺層特征.

3.3 判別網絡

GAN網絡模型中使用的判別網絡為VGG19,在提取真實場景的圖像特征時表現一般.為了提高判別網絡的能力,本文選擇使用U-Net網絡作為判別網絡優化模型性能,使得重建出的高分辨率圖像增強了細節信息.

U-Net網絡是編碼-解碼的架構.為了充分融合網絡的上下文信息,從解碼塊到編碼塊使用跳躍連接的方式,對不同尺寸的特征圖進行多層次的特征拼接,并且由全卷積層組成,可以處理任意形狀和大小的圖片.編碼塊的下采樣用最大池化的方式,使用了兩個卷積層再加一個最大池化層,每個卷積層后加一個激活函數,每次降采樣后使得通道數加倍.解碼塊對特征圖使用反卷積進行上采樣,得到更大分辨率的特征圖后拼接由編碼塊跳躍傳遞過來的特征圖,結合了全局信息和局部信息,融合了深層特征和淺層特征,獲得更多細節信息.由于重建出的高分辨率圖像與噪聲分布信息圖像的尺寸不同,使用了卷積層來調整大小為統一的32×32,融合后輸入到U-Net網絡中.

3.4 損失函數

3.4.1 內容損失 對于圖像的像素損失和噪聲損失,均使用L1損失函數.噪聲損失是通過噪聲分布信息和低分辨率圖像中的噪聲來計算,分別表示為式(8)和式(9).計算損失時對低分辨率圖像使用高通濾波器,減少被低頻信息影響.

LG1=1m∑mi=1IiSR-IiHR1(8)

LGn=1m∑mi=1Ni-HIiLR1(9)

其中,m表示批處理圖像的大小;Ni表示第i個圖像的噪聲分布信息;H(·)表示高通濾波;IiLR表示第i個低分辨率圖像.

3.4.2 感知損失 感知損失注重的是特征層面,特征提取使用預訓練好的VGG19網絡.僅使用內容損失,會使得最后獲得的圖像比較平滑,缺乏高頻細節.感知損失可以彌補這個問題.其表達式如下.

LGp=1m∑mi=1VGGlIiSR-VGGlIiHR1(10)

其中,VGGl(·)表示VGG在第l層輸出的特征圖.

3.4.3 對抗損失 生成對抗網絡是非常具有開創性和應用前景的網絡模型,但也存在著難以訓練的弊端.過優的判別網絡可能造成生成網絡的梯度消失,而差勁的判別網絡無法對生成網絡的訓練進行有效指導.因此對生成對抗網絡損失函數的優化方案不斷涌現.WGAN[32]引入了Wasserstein距離來量化生成樣本分布和真實樣本分布間的差距,定義見式(11).

W(pr,pG)=infγ~Π(pr,pG)E(x,y)~γ[‖x-y‖](11)

其中,x表示真實樣本;y表示生成樣本;pr表示真實樣本分布;pG表示生成樣本分布;Π(pr, pG)為pr與pG所有可能的聯合分布集合;‖x-y‖表示樣本間距離;E(x,y)~γ[·]表示期望值;inf表示下限;W(pr,pG)表示聯合分布集合中的期望值下限.

但該公式不能直接求解,需要滿足Lipschitz連續才能求解,因此近似表示為式(12).

Wpr,pG=1Ksup‖f‖L≤KEx~pr[f(x)]-

Ey~pG[f(y)](12)

其中,‖f‖L表示 Lipschitz 常數;K表示一個非負的常數;sup表示上限.

使用參數組w定義一系列函數,同時生成網絡與Ex~pr[f(x)]無關,因此可獲得生成網絡和判別網絡的損失函數分別為式(13)和式(14).

LG=-Ey~pGfw(y)(13)

LD=Ey~pGfw(y)-Ex~prfw(x)(14)

之后在使用Wasserstein距離的基礎上,WGAN_GP[33]又在判別網絡中引入了梯度約束項來幫助滿足Lipschitz連續,定義見式(15).

SymbolQC@xD(x)2-12(15)

本文超分辨率重建網絡使用的對抗損失函數為

LGadv=-EISRG~pGDISRG(16)

在判別網絡中添加了梯度約束項的對抗損失函數為

LGadv=-EISRG~pGDISRGLDadv=

EISRG~pGDISRG-EIHRR~prDIHRR+

λEISRG~pGSymbolQC@ISRGDISRG2-12(17)

本文中超分辨率重建網絡的損失函數包括內容損失、感知損失以及對抗損失三部分.損失函數表示為

LG=λALGadv+λCLG1+λNLGn+λPLGp(18)

其中,λA、λC、λN與λP為損失函數的權重系數.在本文模型中,我們設置λA=5×10-2, λC=1×10-2,λN=1×10-2,λP=1.

4 實 驗

4.1 數據集

本文基于真實圖像的噪聲分布設計網絡模型,使用真實場景的圖像數據集DIV2K[14]和RealSR[34]作為訓練數據集.DIV2K在NTIRE2017時被提出,在圖像超分辨率重建領域應用非常廣泛,作為NTRIE和PIPM系列競賽的基準數據集,其中包含了1000張高質量圖片,涵蓋了豐富的場景,有人物、風景以及生活場景等,分辨率達到2 K,有800張作為訓練數據,100張作為驗證數據,100張作為測試數據.RealSR數據集中的圖片采集自Canon 5D3和Nikon D810兩種相機,通過調整相機的焦距獲得具有不同尺度因子的低分辨率-高分辨率圖像對.數據集有3個版本,版本1有234個場景,204個用于訓練,30個用于測試;版本2和版本3都是包含559個場景,其中459個用于訓練,100個用于測試,不同在于版本2 的高質量圖片和低質量圖片有著相同的分辨率,版本3是不同的分辨率.測試數據集使用AIM2019測試集和RealSR測試集.AIM2019測試集數據來自于DIV2K,制作低分辨率圖像時使用了不同的退化過程,包括隨機的噪聲信息,與RealSR數據集相比有較高的噪聲強度.

4.2 評價指標

在圖像超分辨率重建領域,驗證模型有效性常見的評價指標是峰值信噪比(Peak Signal to Noise Ratio, PSNR)和結構相似性(Structural Similarity, SSIM)[35].模型性能越好,獲得的數值越高.而使用的評價指標學習感知圖像塊相似度(Learned Perceptual Image Patch Similarity, LPIPS)[36]則是數值越低,模型性能越好.

4.2.1 PSNR PSNR是信號最大功率和破壞性噪聲功率的比值.由于信號的動態范圍比較大,表示時使用對數分貝單位,其定義為

PSNRIHR,ISR=10×log102n-12MSEIHR,ISR(19)

其中,MSE表示兩個圖像的均方誤差;n表示像素的位深,一般取值為8,則像素的最大值為255.MSE越小,PSNR越大,則表明圖像相似度越高,在圖像超分辨重建領域則表明圖像重建質量越好.PSNR高于38 dB時人眼便很難分辨圖像之間的差異,低于20 dB時圖像質量便很差,不能被接受.

4.2.2 SSIM SSIM是從圖像組成的角度來估計兩個圖像之間的相似度.結構信息、亮度和對比度組合起來共同反應失真建模.給定圖像x和y,SSIM定義表示為

SSIM(x,y)=2μxμy+c12σxy+c2μ2x+μ2y+c1σ2x+σ2y+c2(20)

其中,μx表示x的平均值;σ2x表示x的方差;μx表示y的平均值;σ2y表示y的方差;σxy表示x和y的協方差;c1和c2表示常數,用來維持穩定.SSIM值的范圍是[0,1],值為1時,表示兩幅圖像完全相同.

4.2.3 LPIPS LPIPS用來度量生成圖像和真實圖像的特征差異,與人類的感知更加一致,需要將兩個圖像輸入到網絡中,計算方式表示為

dx,x0=∑l1HlWl∑h,wwl⊙y^lh w-y^l0h w22(21)

其中,x表示真實圖像;x0表示生成圖像;HlWl表示第l層特征圖大小;y^lh w和y^l0h w分別表示真實圖像和生成圖像第l層提取的特征;wl表示通道向量,在每個通道中計算L2獲得差異,最后計算加權平均值.

4.3 實驗設置

為獲得更多訓練數據,對數據集進行數據增強,分別進行90°、180°以及270°旋轉,對旋轉后的圖像再做水平方向和垂直方向的鏡像反轉.由于硬件設備有限,在訓練前將圖像裁剪為32×32的圖像塊,重建后的圖像塊為128×128.

訓練網絡的過程中,網絡參數的迭代優化使用Adam算法,其中設置β1=0.9,β2=0.999,β=10-8,學習率初值設置為1×10-4,在訓練過程中按周期減半.實驗過程使用到的硬件環境CPU為 Intel i5-10400F @2.90 GHz,32 G的計算內存,GPU為NVIDIA GTX 1080Ti,系統環境為Windows 10,使用深度學習框架PyTorch和開發環境PyCharm.

4.4 方法對比

在圖像超分辨率重建任務中,4倍放大的重建難度最高,其效果也更能展現模型性能,由于篇幅原因,本文僅給出了不同方法在RealSR測試集和AIM2019測試集進行4倍放大重建的實驗結果.

由表1可看出,本文模型在含有噪聲信息的低分辨率圖像重建結果中具有最優表現.相比基于真實場景的無監督網絡模型DASR,PSNR增長了0.66 dB,SSIM增長了0.0308,LPIPS降低了0.085,在各項指標中有著不同程度的提升.另外相比于經典的SRGAN方法提升較大,PSNR增長了2.7,SSIM增長了0.0652,LPIPS降低了0.962.

由于AIM2019測試集包含較多的噪聲信息,在表1中可看到,較于RealSR測試集整體的指標表現均有下降,但本文模型的重建表現仍為最佳.相較于DASR,PSNR增長了0.44 dB,SSIM增長了0.0339,LPIPS降低了0.118.

除了使用PSNR、SSIM和LPIPS這樣的量化指標來驗證本文模型的效果,還可通過視覺效果圖來進行分析.本文給出了AIM2019測試集中“0846”、“0883”和“0898”的結果展示.從圖5中可以看出,低分辨率圖像包含較明顯的噪聲信息,SRCNN、SRGAN、ESRGAN、RCAN和ZSSR的重建效果一般,DASR稍好一點,但噪聲問題仍存在,無法較好抑制噪聲.而本文模型重建出的結果更清晰,視覺效果與高分辨率圖像更接近,較好地抑制了噪聲.

4.5 消融實驗

為驗證本文模型中NDCN網絡的優勢,用經典去噪方法中值濾波(Median filter)處理圖像后再使用本文的重建網絡.另外對NDCN網絡和判別網絡兩部分進行消融實驗對比(結果如表2),去掉噪聲收集網絡,并使用傳統的 VGG19 判別網絡,然后再分別添加噪聲收集網絡和使用U-Net判別網絡.

由表2可知,對低分辨率圖像先進行去噪再進行圖像超分辨率重建的方法性能較差,說明將圖像去噪與超分辨率重構融合處理的思想具有一定的優勢.另外本文網絡模型與不使用噪聲收集網絡和U-Net判別網絡的設置下相比,PSNR值增長了0.73 dB,SSIM增長了0.0208,LPIPS下降了0.135.在與分別不使用噪聲收集網絡和U-Net判別網絡的情況對比時,指標體現的效果均有不同程度的下降,說明噪聲收集網絡和U-Net判別網絡都對網絡模型的效果提升做出了貢獻.

5 結 論

本文基于存在噪聲信息的真實場景低分辨率圖像來展開圖像超分辨率研究.直接對含有噪聲信息的低分辨率圖像進行重建會影響圖像的重建質量,而如果在重建前進行去噪處理,會使得對重建過程有用的高頻信息也被過濾掉,原有信息被破壞,提高了圖像重建的難度.因此本文提出了一種新的基于噪聲分布的真實圖像超分辨率算法模型,使用生成對抗網絡的結構設計,通過引入NDCN網絡,能夠獲取低分辨率圖像的噪聲分布,用于指導生成網絡和判別網絡,并在此基礎上利用U型網絡提高判別網絡的判斷能力,在完成圖像重建任務的同時降低噪聲信息對圖像質量的影響.

雖然本文網絡模型在包含噪聲信息的真實場景圖像超分辨率重建任務中有著不錯表現,但真實場景下的自然圖像超分辨率重建還面臨著很多問題.比如,現在用于超分辨率重建的真實場景數據集包含成對低分辨率和高分辨率圖像的數量并不多.未來可從兩個方面考慮該問題的解決方案.一方面是從擴充數據集的角度,考慮真實低分辨率圖像的多種退化過程,生成更貼近自然的低分辨率圖像;另一方面是從非成對數據集訓練方法的角度,只需要任意真實場景的高分辨率圖像和低分辨率圖像就可進行訓練.

參考文獻:

[1] 李千, 趙逢禹. 融合多路徑與混合注意力的遙感圖像超分辨率重建[J/OL]. 小型微型計算機系統, 錄用定稿[2022-06-02].https://kns.cnki.net/kcms/detail/21.1106.TP.20220513.1247.014.html.

[2] 夏英, 黃秉坤.采用改進YOLOv3的高分辨率遙感圖像目標檢測[J].重慶郵電大學學報: 自然科學版, 2022, 34: 383.

[3] 朱海琦, 李宏, 李定文, 等. 基于生成對抗網絡的單圖像超分辨率重建[J]. 吉林大學學報: 理學版,? 2021,? 59: 1491.

[4] 張意, 闞子文, 邵志敏, 等.基于注意力機制和感知損失的遙感圖像去噪[J]. 四川大學學報: 自然科學版,? 2021, 58: 042001.

[5] Schultz R R, Stevenson R L. Extraction of high-resolution frames from video sequences [J]. IEEE T Image Process, 1996, 5: 996.

[6] Irani M, Peleg S. Improving resolution by image registration [J]. CVGIP: Graph Mod Image Process, 1991, 53: 231.

[7] Elad M, Feuer A. Restoration of a single superresolution image from several blurred, noisy, and undersampled measured images [J]. IEEE T Image Process, 1997, 6: 1646.

[8] Chang H, Yeung D Y, Xiong Y. Super-resolution through neighbor embedding [C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2004.

[9] Yang J, Wright J, Huang T S, et al. Image super-resolution via sparse representation [J]. IEEE? T Image Process, 2010, 19: 2861.

[10] Timofte R, De Smet V, Van Gool L. Anchored neighborhood regression for fast examplebased super-resolution [C]//Proceedings of the IEEE International Conference on Computer Vision. Piscataway: IEEE Computer Society, 2013.

[11] Dong C, Loy C C, He K, et al. Image super-resolution using deep convolutional networks [J]. IEEE T Pattern Anal, 2015, 38: 295.

[12] Dong C, Loy C C, Tang X. Accelerating the super-resolution convolutional neural network [C]//Proceedings of the European Conference on Computer Vision. Berlin: Springer, 2016.

[13] Shi W, Caballero J, Huszár F, et al. Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2016.

[14] Kim J, Lee J K, Lee K M. Accurate image super-resolution using very deep convolutional networks [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2016.

[15] Ledig C, Theis L, Huszár F, et al. Photo-realistic single image super-resolution using a generative adversarial network [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2017.

[16] Agustsson E, Timofte R. Ntire 2017 challenge on single image super-resolution: Dataset and study [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2017.

[17] Lim B, Son S, Kim H, et al. Enhanced deep residual networks for single image superresolution [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2017.

[18] Tong T, Li G, Liu X, et al. Image super-resolution using dense skip connections [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2017.

[19] Zhang Y, Tian Y, Kong Y, et al. Residual dense network for image super-resolution [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2018.

[20] Zhang Y, Li K, Li K, et al. Image super-resolution using very deep residual channel attention networks [C]//Proceedings of the European Conference on Computer Vision. Berlin, German: Springer, 2018.

[21] Li Z, Yang J, Liu Z, et al. Feedback network for image super-resolution [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2019.

[22] Muqeet A, Iqbal M T B, Bae S H. HRAN: Hybrid residual attention network for single image super-resolution [J]. IEEE Access, 2019, 7: 137020.

[23] Hyun S, Heo J P. VarSR: Variational super-resolution network for very low resolution images [C]//Proceedings of the European Conference on Computer Vision. Berlin: Springer, 2020.

[24] Qiao C, Li D, Guo Y, et al. Evaluation and development of deep neural networks for image super-resolution in optical microscopy [J]. Nat Methods, 2021, 18: 194.

[25] Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets [C]//Neural Information Processing Systems. Cambridge: MIT Press, 2014.

[26] Wang X, Yu K, Wu S, et al. Esrgan: enhanced super-resolution generative adversarial networks [C] //Proceedings of the European Conference on Computer Vision. Berlin: Springer, 2018.

[27] Shocher A, Cohen N, Irani M. “zero-shot” super-resolution using deep internal learning [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2018 .

[28] Fritsche M, Gu S, Timofte R. Frequency separation for real-world super-resolution [C]//Proceedings of the IEEE/CVF International Conference on Computer Vision Workshop. Piscataway: IEEE Computer Society, 2019.

[29] Wang L, Wang Y, Dong X, et al. Unsupervised degradation representation learning for blind super-resolution [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2021.

[30] Guo S, Yan Z, Zhang K, et al. Toward convolutional blind denoising of real photographs [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2019.

[31] Qin Z, Zhang P, Wu F, et al. Fcanet: frequency channel attention networks [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2021.

[32] Arjovsky M, Chintala S, Bottou L. Wasserstein generative adversarial networks [C]//Proceedings of the International Conference on Machine Learning. New York: PMLR, 2017.

[33] Gulrajani I, Ahmed F, Arjovsky M, et al. Improved training of wasserstein GANs [J]. Neur IPS, 2017, 30: 5767.

[34] Cai J, Zeng H, Yong H, et al. Toward real-world single image super-resolution: a new benchmark and a new model [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2019.

[35] Wang Z, Bovik A C, Sheikh H R, et al. Image quality assessment: from error visibility to structural similarity [J]. IEEE T Image Process, 2004, 13: 600.

[36] Zhang R, Isola P, Efros A A, et al. The unreasonable effectiveness of deep features as a perceptual metric [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Computer Society, 2018.

引用本文格式:

中 文: 王曄, 孫志寬, 李征. 基于生成對抗網絡與噪聲分布的圖像超分辨率重建方法[J]. 四川大學學報: 自然科學版, 2023, 60: 032001.

英 文: Wang Y, Sun Z K, Li Z. An image super-resolution reconstruction method based on Generative Adversarial Network and noise distribution [J]. J Sichuan Univ: Nat Sci Ed, 2023, 60: 032001.

猜你喜歡
特征信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 欧美在线黄| 欧美中文字幕第一页线路一| 国产麻豆精品久久一二三| 无码精品一区二区久久久| 国产区福利小视频在线观看尤物| 精品国产自在在线在线观看| 久久国产V一级毛多内射| 国产第一页屁屁影院| 欧美人与性动交a欧美精品| 欧美成人午夜视频| 啊嗯不日本网站| 韩日无码在线不卡| 欧美一级99在线观看国产| 国产午夜无码片在线观看网站| 国产福利免费视频| 欧美激情网址| 欧美A级V片在线观看| 日韩欧美国产成人| 国产日本一区二区三区| 国产成人精品一区二区| 国产一区免费在线观看| 亚洲一级毛片| 国内精品一区二区在线观看| 日韩免费毛片| 亚洲天天更新| 国产中文在线亚洲精品官网| 国产免费久久精品99re不卡| 伊人91视频| 四虎精品免费久久| 野花国产精品入口| 97青草最新免费精品视频| 99re经典视频在线| 91精品综合| 国产乱人伦偷精品视频AAA| 亚洲最大看欧美片网站地址| 久久免费视频6| 超薄丝袜足j国产在线视频| 免费福利视频网站| 91成人在线免费视频| 日韩二区三区无| 成人免费网站久久久| 国产 日韩 欧美 第二页| 欧美一级在线看| 精品国产成人三级在线观看| 国产黄网永久免费| 午夜啪啪网| 久久国产免费观看| 人人澡人人爽欧美一区| 女人爽到高潮免费视频大全| 欧美色亚洲| 久久伊人色| 国产成人综合久久| 538精品在线观看| 中文字幕66页| 亚洲国产成人久久77| 日韩无码视频专区| 免费全部高H视频无码无遮掩| 久久一本精品久久久ー99| 在线观看热码亚洲av每日更新| 婷婷久久综合九色综合88| 日韩欧美成人高清在线观看| 国产日韩欧美成人| 免费人成视频在线观看网站| 国产AV无码专区亚洲A∨毛片| 国产全黄a一级毛片| 久久黄色毛片| 大陆精大陆国产国语精品1024| 亚洲成人在线免费| 激情综合网址| 又猛又黄又爽无遮挡的视频网站 | 91麻豆精品视频| 国产精品成| 欧美 国产 人人视频| 日韩免费中文字幕| 国产女人水多毛片18| 国产欧美在线观看视频| 91精品视频在线播放| 国产XXXX做受性欧美88| 91香蕉视频下载网站| 在线观看视频一区二区| 扒开粉嫩的小缝隙喷白浆视频| 蜜桃臀无码内射一区二区三区|