999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進生成對抗網絡的單幀圖像超分辨率重建

2021-05-11 02:39:38陳宗航胡海龍姚劍敏林志賢
液晶與顯示 2021年5期
關鍵詞:方法模型

陳宗航,胡海龍,姚劍敏,2*,嚴 群,2,林志賢

(1.福州大學 物理與信息工程學院,福建 福州350108;2.晉江市博感電子科技有限公司,福建 晉江362200)

1 引 言

生活中許多領域都對圖像的分辨率有著較高的要求,如安防、醫療、航天、刑偵等,而圖像超分辨率(Super Resolution,SR)重建技術也漸漸成為近年來研究的熱門話題。圖像超分辨率技術于1984年首次被提出[1],其指的是通過某種方法將低分辨率的圖像重建為高分辨率的圖像,它是圖像處理和計算機視覺領域的重要研究方向。圖像超分辨率方法主要有基于差值的方法、基于重建的方法和基于學習的方法[2]。基于差值的方法是利用某個像素點周圍的像素值以及其中相對的位置關系,依據數學方法來進行評估,主要有最近鄰插值法[3]和雙三次插值法[4]。基于重建的方法主要是利用自然預想的先驗知識(如平滑性),常見的方法有凸集投影[5]以及最大后驗概率法[6]。基于學習的方法主要有傳統的機器學習方法和近年來被廣泛應用的深度學習的方法。基于機器學習的方法一般是結合矩陣變換的相關方法來學習其中復雜的映射關系,需要人為地提取特征進行學習。與傳統方法相比,基于深度學習的超分辨率重建不需要手動進行特征提取,而是經過神經網絡自動地提取復雜豐富的特征,然后學習兩幅圖片之間的映射關系,且通過深度學習方法還原的高分辨率圖像具有更豐富的紋理信息和更清晰的視覺感知。

Dong等人提出了SRCNN(Super-Resolution using Convolutional Neural Network)[7],其是深度學習應用在超分辨率領域的開山之作,對圖像超分辨率的重建效果和速度取得了重大突破。而后VDSR[8]、LapSRN[9-10]等又在SRCNN的基礎上做出了許多改進,極大地推動了圖像超分辨率技術的發展。之后Ledig等人[11]將生成對抗網絡[12](Generative Adversarial Networks,GAN)應用在圖像超分辨率重建中,提出了SRGAN算法,使得圖像在重建后擁有更多的高頻細節,感受野更好,但是其中GAN網絡的訓練不穩定,訓練時間也較長。本文設計了不同于SRGAN的生成對抗網絡,且在損失函數中使用了與MSE[13]不同的SmcothL1損失并引入了Earth-Mover距離[14]的思想來穩定網絡的訓練,實驗證明圖像評價指標PSNR和SSIM都有提升。

2 網絡模型設計

2.1 生成對抗網絡

生成對抗網絡是由Goodfellow提出的一種基于生成模型的網絡。其靈感來自于零和博弈論中的納什均衡[15]。GAN網絡的訓練目標就是生成網絡G強大到可以混淆判別網絡D的同時,判別網絡D又能很好地分辨出生成網絡G生成的圖像和原始圖像,GAN的目標函數可以表示為:

minmaxV(D,G)=Ex~Pdata(x)[lgD(x)]+

EZ~P(Z)[lg(1-D(G(Z))],

(1)

其中:Pdata(x)表示真實樣本的分布,而P(z)表示生成網絡的分布。判別函數D希望真實數據的D(x)概率更大,D(G(z))更小,對于D來說希望這個目標函數的值更大,生成網絡函數G則希望G(z)更接近x,使得D(G(z))更大,這時目標函數的值就會更小。這也體現了GAN網絡中的G網絡和D網絡一種對抗的特點。SRGAN的訓練流程如圖1所示。

圖1 SRGAN訓練流程Fig.1 Training process of SRGAN

首先,對原始的高分辨率圖像HR進行某種方法的預處理以獲得低分辨率圖像LR;后將低分辨率圖像送入生成網絡G中,得到生成高分辨率圖像SR;再將SR和原始高分辨率圖像HR組成一個圖像對送入判別網絡D中。判別網絡的輸出實際上是一個判斷圖片是HR還是SR的二分類問題。在獲得判別結果的誤差后,調整模型的參數,以使模型能夠在學習過程中自動更新參數信息。

2.2 基于DenseNet的生成網絡

SRGAN中使用的生成網絡為ResNet[16],這是一種殘差網絡,而DenseNet[17]提出了一個密集型的連接模型,具體來說就是每一層除了會接受上一層的輸出作為輸入還會接受之前所有層的輸出作為輸入。其簡易原理圖如圖2所示。

圖2 DenseNet簡易原理圖Fig.2 Simple schematic diagram of DenseNet

DenseNet每個層都會與之前所有層channel維度上相連接,并作為下一層的輸入。當一個DenseNet網絡有L層時,DenseNet總共會包含L(L+1)/2個連接,且DenseNet是直接合并來自不同層的特征圖,這可以更好地實現特征復用,提升網絡的訓練效率。

2.2.1 子像素卷積

子像素卷積[18](Sub-pixel convolution)是一種較為特別的圖像和特征圖的放大方法,其又可以稱作像素清洗(Pixel shuffle)。以往的DenseNet使用較多的上采樣方法為逆卷積,但是逆卷積往往會摻雜過多的人工因素,而子像素卷積的過程是需要學習的,相比于逆卷積,這種通過樣本學習的方式得到放大圖像或者特征圖所需參數的方法其放大性能更為準確。子像素卷積模塊如圖3所示。

圖3 子像素卷積模塊Fig.3 Module of sub-pixel convolution

2.2.2 生成網絡模型

本文采用了8×8的密集連接模塊,輸入圖像需要經過一個4倍的下采樣過程。EDSR[19]中提出BN層(批規范化層)[20]用于解決較高層的計算機視覺問題,而BN層并不適合應用在圖像超分辨率這類低層的計算機視覺問題中。如果將BN層加入到生成網絡中,其會消耗與它之前的卷積層相同的計算資源,且并不會對重建出的圖像質量有所幫助。因此本文的DenseNet網絡與以往不同的是去除了冗余的BN層,之后在相同的硬件條件下,就可以在模型中加入更多的網絡層或者增加各層提取的特征來提高模型性能。生成網絡的整體的網絡結構如圖4所示。其中k代表卷積核個數,n代表通道數,s代表步長。將高分辨率圖像HR通過一定方法生成低分辨率圖像LR之后,LR和HR組成一個圖像對送入網絡訓練。首先經過一個卷積模塊,用于提取低水平特征,該卷積模塊由一個卷積層和一個Relu[21]激活函數構成;之后進入密連接模塊,其中有8個密連接塊(DenseBlock),每個密連接塊中有8個密連接層,每個密連接層也采用了一個卷積層加一個Relu激活函數的結構。其中各個塊和層均采用了上文提到的DenseNet結構,即各個塊和層除了接受上一個塊和層的輸出還會接受之前每一個塊和層的輸出。通過兩個子像素卷積塊進行放大生成高分辨率圖像。

圖4 生成網絡結構圖Fig.4 Structure diagram of generator

2.2.3 判別網絡模型

在判別網絡中,保留了BN層以用于穩定訓練。由于本文引入了Earth-Mover距離的思想,因此判別網絡的任務從判斷生成圖片和原始圖片的二分類任務變為了擬合任務,所以在最后一層不使用sigmoid層,以保證損失的收斂。判別網絡結構如圖5所示。在判別網絡中,采用8個卷積核大小為3×3的卷積模塊進行特征提取。s1代表步長為1,n代表輸出通道數。隨著卷積層數的不斷加深,特征個數在第3,5,7層時加倍,使用了LeakyRelu激活函數,在第2至第8個層加入了BN穩定網絡的訓練,最后通過一個全連接層輸出一個一維的張量。

圖5 判別網絡結構圖Fig.5 Structure diagram of discriminator

3 損失函數

在SRGAN中,其損失函數為:

(2)

式(2)中第一項代表了內容損失,可以表示為:

(3)

式(3)的第一項是原始高清圖像HR和生成網絡生成的圖像的像素之間的損失,公式如下

(4)

而由于單純地使用MSE易使得圖像過于平滑,缺乏高頻細節,所以SRGAN提出了基于VGG19網絡提取特征的損失,公式如下

(5)

式(5)表示用VGG19對原始高清圖HR和重建出的圖像SR分別進行計算,得到兩幅圖的特征圖,之后再對其計算MSE值,式中H和W分別代表圖片的寬和長,φi,j表示通過截取VGG19網絡的第i層最大池化和第j層卷積層后的特征圖。

式(2)的第二項指的是低分辨率圖像通過生成網絡生成高分辨率SR圖像后再經過判別網絡得出的值與真實值的交叉熵。

由于MSE損失函數容易放大最大誤差和最小誤差之間的差距,且對異常點較為敏感。本文采用SmoothL1損失來指導訓練的過程。得到的感知損失為:

(6)

由于GAN網絡訓練不穩定,不易通過觀察損失來了解訓練過程的好壞,且Matin[22]等人通過研究GAN的原理解釋了GAN訓練過程不穩定的原因。主要是由于等價優化的距離衡量JS散度不合理導致,因此本文引入Earth-Mover(EM)距離進行優化。本文模型的EM距離定義為:

L=Ex~Pg[DθD(IHR)]-Ex~Pr[DθD(ILR)],

(7)

生成網絡的目標就轉變為盡可能最小化EM距離。

4 實驗與分析

實驗硬件資源為i5-6500處理器搭配一塊GTX 1060 6G 加速計算。軟件環境有cuda10.1配合顯卡加速,pytorch1.4.0用于網絡搭建和損失函數的定義,用python3.6.10進行編程。實驗的訓練集來自公開數據集COCO2014中隨機選取的5000張圖片,測試集采用SET5、SET14、BSD100基準測試集,用與生成效果圖和對比評價指標。為驗證本文模型的圖像超分辨率效果,實驗選取了經典的傳統方法雙三次插值(Bicubic)以及3種深度學習的方法SRCNN、VDSR、SRGAN進行實驗對比。

4.1 評價指標

本文實驗采用峰值信噪比(PSNR)與結構相似性(SSIM)[23]兩項客觀評價指標進行對比。PSNR的定義為:

(8)

本文計算PSNR的方法是先將圖片轉化為YCbCr格式,然后只對Y分量進行PSNR計算。

SSIM針對SR和HR兩張圖片進行計算,其公式為:

(9)

4.2 結果分析

本文首先對模型的生成網絡進行預先訓練,之后才開始訓練整個網絡。訓練過程中通過tensorboard觀察網絡訓練穩定性和訓練的程度。圖6所示(橫坐標為迭代輪數,縱坐標為損失值)為原始GAN訓練過程的判別損失圖,其損失值此起彼伏是因為判別網絡和生成網絡正在進行對抗,所以很難通過觀察損失來判定訓練過程的好壞,GAN的訓練相當不穩定。

圖6 原始GAN判別損失Fig.6 D_loss of original GAN

圖7所示為本文模型訓練過程的損失變化。可以看出隨著訓練的進程,損失逐漸趨于某一值開始收斂,這也符合了Earth-Mover距離的思想。

圖7 本文模型判別損失Fig.7 Ours d_loss

本次實驗通過PIL庫對低分辨率圖像進行雙三次差值重建,并且重建了SRCNN、VDSR、SRGAN模型進行了實驗對比,實驗結果如圖8所示,分別展示了每個模型在測試集中的重建效果。其中圖8(a)是通過雙三次差值重建的高分辨率圖像,圖8(b)是通過SRCNN模型重建的高分辨率圖像,圖8(c)是通過VDSR模型重建的高分辨率圖像,圖8(d)是通過SRGAN模型重建的高分辨率圖像,圖8(e)是通過本文模型重建的高分辨率圖像;圖8(f)是原始高分辨率圖像。

圖8 重建圖像Fig.8 Reconstructed images

可以看出通過雙三次差值重建出的圖像特征明顯模糊,而SRGAN和本文的模型重建的圖像不僅較為清晰且擁有許多的紋理細節。為了進一步比較各模型重建圖像的效果,圖9展示了放大圖像某一部分后的圖像對比。

圖9 細節對比圖Fig.9 Detail comparison

從圖(9)中可以看出本文的模型重建出的圖像細節更加清晰,色彩亮度更加接近原始圖像。

接著我們使用PSNR和SSIM兩個圖像評價指標對各算法的重建效果進行評估,從而更準確嚴謹地比較各個算法間的優劣。PSNR越高代表重建出的圖像質量越好,失真越少。SSIM值越接近1代表生成的圖像結構越接近于原始圖像,原圖的SSIM值為1。本文采用的放大倍數為4倍,使用skimage工具包進行PSNR和SSIM的計算。表1和表2是各算法在各測試集上的平均PSNR和SSIM對比。從圖像指標中可以看出傳統的雙三次差值方法的圖像重建質量落后于深度學習方法,并且通過計算3個測試集指標的平均值,本文方法的PSNR高出SRGAN約2.02 dB,SSIM約高出0.042(5.6%)。

表1 在測試集SET5、SET14和BSD100上的PSNR對比Tab.1 Comparison of PSNR on test sets SET5,SET14 and BSD100

表2 在測試集SET5、SET14和BSD100上的SSIM對比Tab.2 Comparison of SSIM on test sets SET5,SET14 and BSD100

續 表

通過損失函數、重建圖像以及評價指標的對比,本文方法的網絡訓練的穩定性要優于SRGAN,且重建出的圖像質量要優于其他算法。

5 結 論

本文提出了一種基于DenseNet的生成對抗網絡來進行圖像超分辨率重建。與以往不同的是,本文將子像素卷積模塊加入DenseNet的網絡中,并且移除了冗余的BN層,提高了特征復用率的同時加快了模型訓練的效率。本文引入了Earth-Mover距離,重新設計了損失函數,使得判別網絡的任務由二分類任務轉變為擬合任務。在損失函數中改用了SmoothL1來計算VGG提取的特征圖,以防止MSE損失放大最大誤差和最小誤差之間的差距。最后通過實驗驗證,本文提出的方法在SET5、SET14以及BSD100三個基準測試集上的圖像質量明顯好于其他方法,且對比同樣基于生成對抗網絡的SRGAN,平均PSNR高出約2.02 dB,SSIM高出約0.042(5.6%)。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 热re99久久精品国99热| 亚洲狼网站狼狼鲁亚洲下载| 真实国产乱子伦视频| 无码高潮喷水在线观看| 黄色福利在线| 四虎综合网| 97国产在线视频| yjizz视频最新网站在线| 少妇精品久久久一区二区三区| 超碰免费91| 国产免费a级片| 国产一级二级在线观看| 欧美日韩在线国产| 蜜桃视频一区| 国产女人水多毛片18| 久久夜色精品国产嚕嚕亚洲av| AV在线天堂进入| 免费高清a毛片| 国产精品无码一二三视频| 114级毛片免费观看| 欧美一区二区人人喊爽| 一区二区欧美日韩高清免费| 免费无码AV片在线观看中文| 欧美综合成人| 超清无码一区二区三区| 国产丝袜啪啪| 国产97视频在线| 97在线免费视频| 国产午夜在线观看视频| 91青青在线视频| 久久黄色小视频| 国产美女91视频| 国产成人精品第一区二区| 亚洲欧美人成电影在线观看| 国产一二三区在线| 亚洲最大看欧美片网站地址| 伊人久久影视| 中文字幕永久视频| 在线观看亚洲天堂| av在线人妻熟妇| 三上悠亚一区二区| 色男人的天堂久久综合| 国产精品永久不卡免费视频| 亚洲精品第一在线观看视频| 99性视频| 国产97视频在线观看| 538国产视频| 国产综合色在线视频播放线视| 欧美成人精品一级在线观看| 国产拍在线| 污网站免费在线观看| 亚洲不卡av中文在线| aaa国产一级毛片| 日本黄色不卡视频| 波多野结衣国产精品| 无码电影在线观看| 日本一区二区不卡视频| 91精品免费久久久| 欧美亚洲一区二区三区导航| 亚洲成a人片77777在线播放 | 欧洲高清无码在线| 免费观看无遮挡www的小视频| 国产91特黄特色A级毛片| 国产精品自拍露脸视频| 久久久国产精品免费视频| 又猛又黄又爽无遮挡的视频网站| 搞黄网站免费观看| 在线欧美一区| 欧美亚洲中文精品三区| 亚洲人网站| 一级毛片在线免费视频| 亚洲无码精品在线播放| 国产午夜无码片在线观看网站| 黄色三级网站免费| 久久久久青草大香线综合精品 | 午夜日b视频| 国模极品一区二区三区| 国产av剧情无码精品色午夜| 国产国模一区二区三区四区| 91精品福利自产拍在线观看| 91毛片网| 亚洲网综合|