999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合結構自相似性和卷積網絡的單幅圖像超分辨率

2018-05-21 00:50:24陳云華姬秋敏
計算機應用 2018年3期
關鍵詞:方法

向 文,張 靈,陳云華,姬秋敏

(廣東工業大學 計算機學院,廣州 511400)

超分辨率(Super Resolution, SR)圖像重建是指對低質量、低分辨率(Low-Resolution, LR)圖像進行處理,恢復出高分辨率(High-Resolution, HR)圖像的技術,在軍事、醫學、公共安全、計算機視覺等方面都存在著廣泛的應用前景。超分圖像重建的一種方法是采用大量高分辨率圖像學習,以得到圖像的高頻細節對低分辨率圖像進行恢復[1-4]。目前算法多依賴訓練數據庫數據,沒有充分利用待重構圖片自身的結構特點,造成重構效果不佳[5-7]。Freedman等[8]指出在單幅圖像的局部空間鄰域內存在大量結構自相似的圖像塊,因而提出了一些利用局部結構自相似性方法[9-10],但是這些算法不能有效處理沒有重復結構的不規則紋理圖像塊,圖像塊間的錯誤匹配會帶來很多虛假紋理,重構效果難以保證。鑒于目前存在的問題,本文提出了一個基于待重構圖像的結構相似性特征和卷積神經網絡(Convolution Neural Network, CNN)相結合的超分圖像重構方法,從單幅低分辨率圖像中獲取自身結構在相同尺度和不同尺度下的結構冗余信息,并結合深度學習方法進行超分辨率重建。首先提取單幅圖像在相同及不同尺度下的重復出現結構特征;然后融合高分辨率字典圖像塊輸入到CNN中進行學習,從而實現單幅低分辨率圖像的重構,實驗結果驗證了本文算法的有效性。

1 卷積神經網絡模型

近年來,深度學習在許多計算機視覺圖像問題上取得了很大的成功,說明了神經網絡模型在學習數據集本質特征上具有強大的能力。有研究學者提出了基于卷積神經網絡的圖像超分辨率(Super-Resolution Convolution Neural Network, SRCNN)方法[11],利用外部數據庫中成對的LR和HR圖像,通過CNN模型獲得相應的先驗信息,來實現超分辨率重建。超分辨率卷積神經網絡由三層卷積層構成,分別為特征提取、非線性映射和高分辨率圖像重構,該算法框架如圖1所示。SRCNN的深度學習網絡中的三個卷積網絡公式表達如下:

Y1=max(0,W1*X+B1)

(1)

Y2=max(0,W2*Y1+B2)

(2)

Y3=max(0,W3*Y2+B3)

(3)

其中:矩陣X代表LR子圖像;Yi(i=1,2,3) 表示每個卷積層的輸出;Wi(i=1,2,3)和Bi(i=1,2,3)分別代表神經元卷積核和神經元偏置向量;*表示卷積運算,卷積得到的特征圖要再經ReLU激活函數max(0,x)進行處理。在訓練過程,該神經網絡需要學習參數Θ={W1,W2,W3,B1,B2,B3},該參數通過最小化神經網絡輸出與HR圖像之間的誤差損失進行訓練估計。給定高分辨率圖像Yi與其相應的低分辨率圖像集合Xi,用其均方誤差L(Θ)作為驅動損失函數:

(4)

式(4)可通過隨機梯度下降和反向傳播算法進行訓練求解。

圖1 SRCNN 算法框架 Fig. 1 Structure of SRCNN algorithm

2 結構自相似性理論

2.1 圖像的多尺度自相似

在整幅圖像的各個區域之間普遍存在的相似特性統稱為圖像相似性。有研究[12]表明,對于自然圖像中一個5×5的圖像塊,在該圖像中能發現大量與其相似的相同尺度和不同尺度的圖像塊。統計表明,超過90%的圖像塊能找到至少9個相同尺度的相似圖像塊;超過80%的圖像塊能找到至少9個不同尺度的相似圖像塊。根據這種圖像相似性,可以在相同尺度和不同尺度上提取出圖像自身的很多冗余信息。Candocia等[13]指出一般的圖像具有如下兩個特點:整幅圖像中存在著大量具有相似結構的區域;并且這些結構的相似性在多個尺度上可以保持。

在本文中采用非局部塊匹配的方法對外部數據庫在相同尺度和不同尺度上搜尋相似圖像塊,組成具有多尺度結構自相似性的LR和HR圖像塊對,將這種LR和HR圖像塊對作為訓練樣本字典。另外對內部數據庫采取同樣的方法在多尺度上搜索相似高分辨率圖像塊作為內部高分辨率字典。

圖2 在相同尺度和不同尺度相似圖像塊的SR方法 Fig. 2 SR method of similar image blocks on same scale and difierent scales

2.2 非局部自相似性約束

由于非局部圖像塊之間可以提供額外的有用信息,因此利用不同區域圖像塊之間的相似性似乎能夠獲得更高的圖像分辨率[14]。它們首先將訓練圖像分成大小相同的圖像塊,然后經過將高、低分辨率圖像塊進行配對形成字典,最后在字典中尋找與低超分辨率圖像塊相似的若干圖像塊,將全部選中的圖像塊加權整合得到近似的高分辨率圖像塊,接著將全部的近似高分辨率圖像塊融合得到全部的高分辨率結果圖像。學者們經過研究分析提出[15-16]:一方面,自然圖像在其紋理、物體邊緣等區域存在豐富的相似性,低分辨率圖像可以根據該相似性重建出丟失的高頻細節;另一方面,高、低分辨率圖像之間具有近鄰保持關系。

(5)

其中:I為單位矩陣,B為權值矩陣,ψ為字典矩陣。

3 基于結構自相似性的神經網絡算法

3.1 低分辨率降質模型

LR圖像是由HR圖像經過模糊、降采樣以及噪聲污染得到的[17],整個降質過程近似地表示為一個線性過程,那么圖像降質模型可以表示為:

X=HSY+n

(6)

其中:H是下采樣操作,S是模糊算子,n是噪聲污染矩陣。SR問題就是已知給定的單幅LR圖像矩陣X,重建出相同場景中的HR圖像矩陣Y。為了準確估計出HR圖像矩陣Y,需要引入圖像的一些先驗或正則約束項:

(7)

(8)

其中μ為正則化參數,最后使用迭代反投影算法對圖像進一步提升。

3.2 算法實現

先利用原始低分辨率圖像的非局部自相似性提供先驗知識,用多尺度的方法搜索到初始超分辨率圖像塊的最佳匹配塊,作為內部字典,進行非局部的方法學習得到非局部正則化約束項。深度學習普遍從大數據訓練,使用了一個由91張圖像組成的小型訓練集[3],將此數據庫用多尺度的方法進行搜索得到圖片的最佳匹配塊與低分辨率圖像塊形成高低分辨率塊對,作為外部字典,輸入到卷積神經網絡進行訓練得到卷積神經網絡模型參數;然后再用卷積神經網絡模型參數對原始低分辨率圖像進行重建,防止偽影加入由內部數據庫得到的非局部正則化約束項。該算法分為4個部分:初始插值、非局部塊匹配、神經網絡模型學習和非局部正則化約束。

1)初始插值:本文選取現有比較常用且重建視覺效果較好的三次雙線性插值算法得到初始超分辨率圖像,插值算法的選取對最終超分辨率結果產生一定的影響,較好的插值算法必然會得到較好的最終結果。

(9)

3)神經網絡模型學習:卷積神經網絡模型具有很強的特征學習能力,在這里采用SRCNN算法中三層卷積神經網絡模型對高低分辨率圖像塊進行學習。將塊匹配得到的高低分辨率圖像塊對輸入超分辨率卷積神經網絡,經過三層卷積層, 通過特征提取、非線性映射,最終得到需要的超分變辨率圖像參數模型Θ。

4)非局部正則化約束:這部分結合卷積神經網絡模型,非局部正則化參數和字典等參數根據式(8)進行計算,得到重建的超分辨率圖像。

3.3 算法優化

使用迭代反投影算法對重建的圖片進行提升,該方法采用下采樣子像素位移圖像降質模型[18]采樣獲得多幀LR圖像,將其配準, 最后通過對模擬LR圖像和觀測LR圖像的誤差進行迭代反投影到HR圖像。假設輸入K幅觀測LR序列圖像為fk(m1;m2),分辨率為M1×M2,估計的HR圖像f(n1;n2)擴大了l倍,則(N1;N2)= (lM1)×(lM2)。用迭代反投影(Iterative Back Projection, IBP)方法對HR圖像進行估計,公式可表示為:

(10)

3.4 算法流程

本文提出的結構自相似性結構神經網絡算法分為兩個階段,分別為訓練階段和重建階段,具體步驟如下。

3.4.1 訓練過程

步驟1 輸入外部數據庫,將其縮小至原來的1/3,獲得低分辨率圖像,將其進行插值放大得到初始高分辨率圖像。

步驟2 將外部數據庫中的初始高分辨率圖像和低分辨率圖像劃分成3×3的小塊。

步驟3 取塊,在相同尺度和不同尺度下用非局部塊匹配搜索的方法,利用式(9)找到最匹配的塊組,再用加權平均的方法求出最匹配塊。

步驟4 將匹配塊和一一對應的低分辨率塊組成具有結構自相似性的LR和HR圖像塊對,作為外部訓練樣本字典。

步驟5 將具有結構自相似性的外部數據庫LR和HR圖像對作為訓練庫輸入卷積神經網絡。

步驟6 利用式(4)學習LR到HR圖像的映射函數,得到訓練參數集Θ={W1,W2,W3,B1,B2,B3}。

3.4.2 重建過程

步驟1 利用雙三次插值將輸入單幅LR圖像放大到和HR圖像大小一樣,作為初始重建圖像X0。

步驟2 將初始重建圖像X0用多尺度非局部正則化方法提取內部字典和非局部正則化約束參數矩陣。

步驟3 利用式(8)將外部訓練樣本字典作為輸入,正則化約束參數矩陣作為初始訓練參數通過卷積神經網絡學習得到卷積神經網絡模型參數。

步驟4 利用內部字典和卷積神經網絡模型參數重建目標圖像。

步驟5 采用迭代反投影算法對目標圖像進一步提升重建效果。

3.5 算法示例

為了更加清晰、明確地說明本文算法,給出算法流程如圖3所示。

經過卷積神經網絡的過程是一種端對端映射的過程,可以用圖4的簡單示例來表示。圖4中的過程由箭頭指引分別為:輸入、第一層的特征圖、第二層的特征圖和輸出。

圖3 本文算法流程 Fig. 3 Flow chart of the proposed algorithm

圖4 卷積神經網絡的示例 Fig. 4 Examples of CNN

4 實驗結果與分析

4.1 實驗設置

為了驗證所提方法的有效性,選取3個國際公開的SR數據庫:Set5、Set14和Urban100,并在三種常用放大因子(2、3和4)情況下進行實驗驗證。實驗中采用三層卷積神經網絡進行學習,利用式(1)~(3)學習得到神經網絡模型,第1層的卷積核和神經元個數為9×9和64,第2層的卷積核和神經元個數為1×1和32,第3層的卷積核和神經元個數為5×5和1,本文訓練次數為5萬次。實驗中以雙三次插值(Bicubic)方法作為基準對比方法,并選擇K-SVD(Singular Value Decomposition)、卷積神經網絡作為對比實驗,以檢驗本方法的性能。利用峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)評價不同圖像SR方法的性能。

4.2 實驗結果對比

通過實驗結果來驗證本方法的有效性。為了評價圖像重建的質量,同時從主觀視覺和客觀評價兩個方面衡量對比結果。以數據庫Set14中的斑馬圖像為例,圖5為放大3倍情況下,不同方法的主觀視覺圖和相應峰值信噪比。

圖5 四種對比算法的圖像重建結果比較 Fig. 5 Image reconstruction comparison of four algorithms

主觀上,可以看出本文算法的視覺效果最好,優于現有方法中的CNN方法和K-SVD。其他對比方法,在重構的圖像邊緣處容易產生偽影和振鈴效應,一些細節沒有較好地恢復出來。本文算法恢復的局部細節信息清晰細膩,整體效果更接近原始圖像。由于本文算法考慮了內在圖像塊自相似特性,因此恢復的視覺效果最好,產生的邊緣也更清晰??陀^指標評價上,同樣以斑馬圖像(zebra)為例,在放大3倍的情況下,如表1:雙三次插值方法的峰值信噪比最低,只有26.633 dB;最好的對比算法只有28.867 dB左右;而本文算法在峰值信噪比上是最好的,能夠達到28.937 dB。

表1 不同SR方法的平均峰值信噪比對比 dBTab. 1 Average PSNR comparison of different SR methods dB

5 結語

本文算法從深度卷積網絡的角度來考慮單幅圖像的超分辨率問題,提出了一種基于結構相似性和卷積神經網絡的單幅圖像超分辨率重建算法。該算法通過圖像的尺度分解獲得自身結構相似性的訓練樣本,充分利用了輸入圖像自身具有的結構自相似性,解決了訓練樣本過于分散的問題。訓練樣本通過內在數據庫和外部數據庫相結合的方法,充分考慮了訓練得到的先驗知識和圖像內在的結構自相似性。訓練過程中的先驗知識通過卷積神經網絡的端對端的非線性映射得到,圖像內在的結構自相似性通過非局部正則化約束項得到。最后采用迭代反投影算法進一步優化重建效果。本文算法與Bicubic、K-SVD和SRCNN等經典算法相比,可以得到更好的超分辨率重建效果。

參考文獻(References)

[1] LI Z, HE H, WANG R, et al. Single image super-resolution via directional group sparsity and directional features [J]. IEEE Transactions on Image Processing, 2015, 24(9): 2874-2888.

[2] DONG C, LOY C C, HE K, et al. Image super-resolution using deep convolutional networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(2): 295-307.

[3] YANG J, WRIGHT J, HUANG T S, et al. Image super-resolution via spare representation [J]. IEEE Transactions on Image Processing, 2010, 19(11): 2861-2873.

[4] TIMOFTE R, de SMET V, van GOOL L. Anchored neighborhood regression for fast example-based super-resolution [C]// ICCV ’13: Proceedings of the 2013 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2013: 1920-1927.

[5] TIMOFTE R, de SMET V, GOOL L. A+: adjusted anchored neighborhood regression for fast super resolution [C]// ACCV 2014: Proceedings of the 2014 Asian Conference on Computer Vision, LNCS 9006. Berlin: Springer-Verlag, 2014: 111-126.

[6] YANG C Y, YANG M H. Fast direct super-resolution by simple functions [C]// ICCV ’13: Proceedings of the 2013 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2013: 561-568.

[7] DAI D, TIMOFTE R, van GOOL L. Jointly optimized regressors for image super-resolution [J]. Computer Graphics Forum, 2015, 34(2): 95-104.

[8] FREEDMAN G, FATTAL R. Image and video upscaling from local self-examples [J]. ACM Translations on Graphics, 2011, 30(2): Article No. 12.

[9] PROTTER M, ELAD M, TAKEDA H, et al. Generalizing the nonlocal-means to super-resolution reconstruction [J]. IEEE Transactions on Image Processing, 2009, 18(1): 36-51.

[10] MAIRAL J, BACH F, PONCE J, et al. Non-local sparse models for image restoration [C]// ICCV ’09: Proceedings of the 2009 IEEE 12th International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2009: 2272-2279.

[11] DONG C, LOY C C, HE K, et al. Learning a deep convolutional network for image super resolution [C]// ECCV 2014: Proceedings of the 2014 European Conference on Computer Vision, LNCS 8692. Berlin: Springer-Verlag, 2014: 184-199.

[12] GKASNER D, BAGON S, IRANI M. Super-resolution from a single image [C]// ICCV ’09: Proceedings of the 2009 IEEE 12th International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2009: 349-356.

[13] CANDOCIA F M, PRINCIPE J C. Super-resolution of images based on local correlations [J]. IEEE Transactions on Neural Networks, 1999, 10(2): 372-380.

[14] DONG W, ZHANG L, SHI G, et al. Nonlocally centralized sparse representation for image restoration [J]. IEEE Transactions on Image Processing, 2013, 22(4): 1620-1630.

[15] YOU X, XUE W, LEI J, et al.Single image super-resolution with non-local balanced low-rank matrix restoration [C]// ICPR 2016: Proceedings of the 2016 23rd International Conference on Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 1255-1260.

[16] XU J, ZHANG L, ZUO W, et al. Patch group based nonlocal self-similarity prior learning for image denoising [C]// ICCV ’15: Proceedings of the 2015 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2015: 244-252.

[17] TEKALP A M, OZKAN M K, SEZAN M I. High-resolution image reconstruction from lower-resolution image sequences and space-varying image restoration [C]// ICASSP ’92: Proceedings of the 1992 IEEE International Conference on Acoustics, Speech and Signal Processing. Washington, DC: IEEE Computer Society, 1992: 169-172.

[18] LU Y, IMANURA M. Pyramid-based super-resolution of the undersampled and subpixel shifted image sequence [J]. International Journal on Systems Technology, 2002, 12(6): 254-263.

[19] AHARON M, ELAD M, BRUCKSTEIN A.K-SVD: an algorithm for designing overcomplete dictionaries for sparse representation [J]. IEEE Transactions on Signal Processing, 2006, 54(11): 4311-4322.

This work is partially supported by the Guangdong Natural Science Foundation Doctoral Program (2014A030310169), the Natural Science Foundation Project of Guangdong Province (2016A030313703, 2016A030313713), the Science and Technology Project of Guangdong Province (2016B030305002), the Science and Technology Project of Guangdong Department of Transportation (Sci. and Tech.- 2016- 02- 030).

XIANGWen, born in 1993, M. S. candidate. His research interests include image processing, pattern recognition.

ZHANGLing, born in 1968, Ph. D., professor. Her research interests include data mining, computer vision, wireless sensor.

CHENYunhua, born in 1977, Ph. D., lecturer. Her research interests include computer vision, pattern recognition, deep learning.

JIqiumin, born in 1992, M. S. candidate. Her research interests include image processing, pattern recognition.

猜你喜歡
方法
中醫特有的急救方法
中老年保健(2021年9期)2021-08-24 03:52:04
高中數學教學改革的方法
河北畫報(2021年2期)2021-05-25 02:07:46
化學反應多變幻 “虛擬”方法幫大忙
變快的方法
兒童繪本(2020年5期)2020-04-07 17:46:30
學習方法
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
最有效的簡單方法
山東青年(2016年1期)2016-02-28 14:25:23
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 青青青国产视频| 色男人的天堂久久综合| 97se亚洲综合在线| 天堂网亚洲综合在线| 黄色三级网站免费| 亚洲av片在线免费观看| 无遮挡一级毛片呦女视频| 精品国产免费第一区二区三区日韩| 中文字幕亚洲另类天堂| 欧美国产日韩在线观看| 久久香蕉国产线看观看式| 欧美视频在线观看第一页| 中文字幕亚洲精品2页| 國產尤物AV尤物在線觀看| 精品無碼一區在線觀看 | 免费中文字幕在在线不卡| a毛片在线免费观看| 欧美日韩另类国产| 91高清在线视频| 欧美精品成人一区二区视频一| 国产精品亚洲va在线观看| 精品1区2区3区| 日本免费高清一区| 国产91成人| 精品国产电影久久九九| 四虎在线观看视频高清无码| 久操中文在线| www.91在线播放| 最新亚洲人成无码网站欣赏网 | 久久男人视频| 免费无码又爽又刺激高| 在线看AV天堂| 亚洲伦理一区二区| 999国产精品| 国产a网站| 秋霞一区二区三区| 91激情视频| 最新日韩AV网址在线观看| 亚洲一本大道在线| 久一在线视频| 亚洲av片在线免费观看| 99久久精彩视频| 久久久久亚洲av成人网人人软件 | 久久香蕉国产线看观看精品蕉| 麻豆精品在线| 国产成人一区在线播放| 免费av一区二区三区在线| 91福利在线看| 91av成人日本不卡三区| 亚洲欧美激情小说另类| 免费三A级毛片视频| 亚洲欧美一区二区三区蜜芽| 国产精品页| 免费一级α片在线观看| 尤物成AV人片在线观看| 超碰91免费人妻| 亚洲欧美成人综合| 久久婷婷六月| 91青青在线视频| 午夜少妇精品视频小电影| 东京热av无码电影一区二区| 日韩不卡高清视频| 亚洲中文字幕23页在线| 国产精品天干天干在线观看| 免费观看欧美性一级| 精品一区二区三区中文字幕| 亚洲天堂视频在线观看| 国产激情无码一区二区免费| 国产白浆在线观看| 亚洲欧美另类色图| 亚洲精品国产首次亮相| 久久久亚洲国产美女国产盗摄| 日本欧美中文字幕精品亚洲| 久久国产成人精品国产成人亚洲| 天天综合网在线| 国产99视频精品免费视频7| 在线观看国产精品一区| 亚洲激情区| 四虎亚洲国产成人久久精品| 国产jizzjizz视频| 丰满少妇αⅴ无码区| 国产乱子伦视频三区|