999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的圖像超分辨率研究

2021-11-28 10:53:41陳錦倫王勇王瑛
電腦知識與技術(shù) 2021年30期
關(guān)鍵詞:深度學(xué)習(xí)

陳錦倫 王勇 王瑛

摘要:圖像超分辨率是由低分辨率圖像重建生成高分辨率圖像的過程,是計算機(jī)視覺領(lǐng)域的一個研究熱點(diǎn)。近年來,隨著圖像超分辨率技術(shù)理論的不斷創(chuàng)新,從傳統(tǒng)的插值法、重構(gòu)法發(fā)展到主流的深度學(xué)習(xí)算法。文中從圖像超分辨率的定義出發(fā),梳理了圖像超分辨率各個時期的代表性算法,詳細(xì)介紹了基于卷積神經(jīng)網(wǎng)絡(luò)、殘差網(wǎng)絡(luò)與生成對抗網(wǎng)絡(luò)三個主流的超分辨率模型,并討論了各個模型的網(wǎng)絡(luò)結(jié)構(gòu)、學(xué)習(xí)策略以及損失函數(shù)等問題。最后,對圖像超分辨率當(dāng)前的研究情況進(jìn)行總結(jié)。

關(guān)鍵詞: 圖像超分辨率; 深度學(xué)習(xí); 神經(jīng)網(wǎng)絡(luò); 計算機(jī)視覺

中圖分類號:TP18? ? ? 文獻(xiàn)標(biāo)識碼:A

文章編號:1009-3044(2021)30-0024-02

開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):

Image Super Resolution Based on Deep Learning

CHEN Jin-lun,WANG Yong,WANG Ying

(School of Computer, Guangdong University of Technology, Guangzhou 510006, China)

Abstract:Image super resolution is the process of generating high resolution image from low resolution image. It is a research hotspot in the field of computer vision. In recent years, with the continuous innovation of the technical theory of image super resolution, the traditional interpolation and reconstruction methods have developed to the mainstream algorithms based on deep learning. In this paper, starting from the definition of image super-resolution, representative algorithms of each period are sorted out.Then, three main super-resolution models based on convolutional neural network, residual network and generative adversarial network are introduced in detail.Also, the network structure, learning strategy and loss function of each model are discussed in particular. Finally, the development of image super-resolution is summarized.

Key words:image super-resolution; deep learning; neural network; computer vision

1 引言

近年來,隨著智能手機(jī)、平板電腦的普及,人們對高分辨率圖像的需求日益擴(kuò)大,如何獲取高質(zhì)量圖像越來越受到關(guān)注。在圖像形成過程中,環(huán)境噪聲、欠采樣、光學(xué)模糊、運(yùn)動模糊等因素都會造成圖像成像質(zhì)量較差、分辨率較低[1]。在實(shí)際應(yīng)用中,由于受到開發(fā)成本、工藝水平等原因,單純通過改善硬件設(shè)備來提高圖像分辨率是不現(xiàn)實(shí)的。為了解決這一問題,圖像超分辨率(Super-resolution)[2]技術(shù)應(yīng)運(yùn)而生,通過計算機(jī)軟件算法提高分辨率,獲取高質(zhì)量圖像。

圖像超分辨率是將給定的一張低分辨率(LR)圖像恢復(fù)為對應(yīng)的具有更高視覺質(zhì)量的高分辨率(HR)圖像的任務(wù)。高分辨率圖像細(xì)節(jié)清晰、色彩豐富,被廣泛應(yīng)用于安全監(jiān)控、醫(yī)療成像、衛(wèi)星圖像、視頻直播等[3]領(lǐng)域。早期的研究人員通過基于插值的方法、基于重構(gòu)的方法進(jìn)行超分辨率圖像重建,得到的圖像較為模糊,缺少細(xì)節(jié)信息。傳統(tǒng)方法在LR與HR空間之間建立的映射定義不清晰,算法效率較低。基于深度學(xué)習(xí)的方法擁有強(qiáng)大的特征學(xué)習(xí)、特征提取能力,構(gòu)建的神經(jīng)網(wǎng)絡(luò)在理論上可以模擬任何一種函數(shù),通過端到端的模型訓(xùn)練,直接從數(shù)據(jù)中學(xué)習(xí)LR圖像與HR圖像之間的映射關(guān)系,相比傳統(tǒng)方法在性能、各項(xiàng)評估基準(zhǔn)上都有著顯著的提升。

2 圖像超分辨率簡介

圖像超分辨率的目標(biāo)是將一張低分辨率圖像恢復(fù)為對應(yīng)的高分辨率圖像。通常,用[y]表示低分辨率圖像,用[x]表示相應(yīng)的高分辨率圖像,圖像下采樣過程建模為:

[y=(x?k)↓s+n]? ? ? ? ? ? ? ? ? ? (1)

其中[k]表示模糊內(nèi)核,[x?k]為高分辨率圖像與模糊內(nèi)核的卷積運(yùn)算,[↓s]表示縮放系數(shù)為s的下采樣運(yùn)算,[n]為獨(dú)立的噪聲項(xiàng)。下采樣過程通常是未知的,可能會受到壓縮偽影、散焦模糊、傳感器噪聲等因素影響。在圖像超分辨率模型中,要求盡可能從低分辨率圖像[y]中恢復(fù)真實(shí)高分辨率圖像[x]的近似值[x]。

[x=F(y;θ)]? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?(2)

其中[F]為超分辨率模型函數(shù),[θ]為函數(shù)[F]的參數(shù)。本質(zhì)上,求解公式(2)不滿足“解的唯一性”,屬于一個經(jīng)典的不適定問題。對于同一張LR圖像,始終存在若干張可能對應(yīng)的HR圖像,而不是唯一一張對應(yīng)的HR圖像。目前,圖像超分辨率的主流算法可分為兩大類:基于插值、基于重構(gòu)的傳統(tǒng)方法與基于深度學(xué)習(xí)的方法。

3 研究現(xiàn)狀

3.1 傳統(tǒng)方法

傳統(tǒng)的圖像超分辨率方法主要分為基于插值的方法與基于重構(gòu)的方法。插值法利用圖像相鄰像素點(diǎn)之間的連續(xù)性和關(guān)聯(lián)性,選擇合適的像素坐標(biāo)進(jìn)行圖像插值。常見的插值法有最近鄰插值法、雙線性插值法、雙三次插值法等。其中,雙三次插值法利用16個相鄰像素點(diǎn)的信息來計算待插入的像素值,在原圖像兩個軸上分別進(jìn)行三次插值。與雙線性插值法相比,雙三次插值法利用的像素點(diǎn)信息更多,輸出的圖像效果更平滑。基于插值的方法簡單易實(shí)現(xiàn),僅利用原圖像相鄰像素點(diǎn)間的信息去提高分辨率,而沒有考慮整張圖像的語義信息。插值法重建速度較快,可以在線性時間內(nèi)實(shí)時重建高分辨率圖像,雖然增加了圖像的像素點(diǎn),但是輸出的圖像質(zhì)量較低,容易出現(xiàn)模糊偽影。

基于重構(gòu)的方法,對光學(xué)模糊、運(yùn)動模糊等成像因素建立數(shù)學(xué)優(yōu)化模型,利用圖像的先驗(yàn)知識來約束解空間,從圖像下采樣模型中得出低分辨率與高分辨率圖像之間的內(nèi)在關(guān)系,逆推生成高分辨率圖像。常見的重構(gòu)法有迭代反向投影法、凸集投影法、最大后驗(yàn)概率估計法[4]等。其中,最大后驗(yàn)概率估計法基于概率統(tǒng)計理論,通過貝葉斯定理求解問題,使重建圖像的統(tǒng)計后驗(yàn)概率最大。與插值法相比,重構(gòu)法更關(guān)注圖像下采樣的實(shí)際情況,同時也獲得較好的重建效果。但是隨著放大系數(shù)的增大,重構(gòu)法的性能會急劇下降,重建過程非常耗時。

3.2 基于深度學(xué)習(xí)的方法

深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支,可以處理大量非結(jié)構(gòu)化數(shù)據(jù),自動學(xué)習(xí)數(shù)據(jù)的層次表示。近年來,隨著計算機(jī)硬件的高速發(fā)展,深度學(xué)習(xí)在計算機(jī)視覺、自然語言處理等領(lǐng)域均取得了較好的效果。大多數(shù)深度學(xué)習(xí)模型都是基于神經(jīng)網(wǎng)絡(luò)的,具有較好的非線性學(xué)習(xí)能力,這點(diǎn)在圖像超分辨率中有很大的優(yōu)勢。基于深度學(xué)習(xí)的圖像超分辨率方法,通過在大量的低分辨率、高分辨率圖像對中進(jìn)行端到端的訓(xùn)練學(xué)習(xí),提取有效的高頻特征,解決了傳統(tǒng)方法難以學(xué)習(xí)圖像深層特征的瓶頸。

3.2.1 基于SRCNN及其改進(jìn)方法

Dong等人[5]提出的SRCNN模型,是深度學(xué)習(xí)應(yīng)用于圖像超分辨率領(lǐng)域的開山之作。SRCNN通過三層結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò),完成圖像塊提取、非線性映射、圖像重建等過程。網(wǎng)絡(luò)第一層為圖像塊提取層,輸入經(jīng)過雙三次插值預(yù)處理的LR圖像,應(yīng)用9x9的卷積核提取[n1]個特征圖。第二層為非線性映射層,將[n1]維的LR圖像特征圖映射到[n2]維HR圖像特征圖的映射空間。第三層為重建層,通過全連接的方式聚合[n2]維的HR特征圖重建生成HR圖像。SRCNN采用逐像素?fù)p失為優(yōu)化目標(biāo),通過最小化重建圖像[Y]與原始高分辨率圖像[X]間的均方誤差(MSE)訓(xùn)練網(wǎng)絡(luò)。

[L(θ)=1ni=1n∥Yi;θ-Xi∥2]? ? ? ? ? ? ? ? ? ? (3)

其中[L(θ)]為損失函數(shù),[θ]為網(wǎng)絡(luò)模型的參數(shù),[n]為訓(xùn)練樣本的數(shù)量,[F]表示LR與HR空間之間的映射函數(shù),[Y]為重建圖像,[X]為相應(yīng)的原始高分辨率圖像。通過不斷的迭代訓(xùn)練,SRCNN以端到端的方式學(xué)習(xí)LR圖像到HR圖像的抽象映射。與傳統(tǒng)方法相比,SRCNN在峰值信噪比(PSNR)與結(jié)構(gòu)相似度(SSIM)等評價指標(biāo)上均取得了更好的表現(xiàn)。隨后,Dong等人[6]繼續(xù)改進(jìn)SRCNN,提出了FSRCNN模型。FSRCNN使用反卷積來進(jìn)行圖像上采樣,解決了SRCNN輸入圖像前需要進(jìn)行插值預(yù)處理的問題,減少了輸入誤差;使用1x1的卷積核進(jìn)行降維并且加深了網(wǎng)絡(luò)深度,最終取得了更好的圖像重建效果。

3.2.2 基于殘差學(xué)習(xí)的方法

Kim等人[7]提出的VDSR模型,首次將殘差結(jié)構(gòu)應(yīng)用于超分辨率重建。該模型的網(wǎng)絡(luò)深度達(dá)20層,更深的網(wǎng)絡(luò)結(jié)構(gòu)擁有更大的有效感受野,VDSR的有效感受野為41x41,可以在特征提取中融合更多的上下文信息。但是網(wǎng)絡(luò)模型越深,隨之而來的是梯度爆炸問題。殘差網(wǎng)絡(luò)[8]中的跳躍鏈接(skip conections)可以巧妙避免該問題。由于圖像超分辨率是從圖像到圖像的轉(zhuǎn)換任務(wù),其中輸入圖像與輸出圖像是密切相關(guān)的,因此VDSR模型提出僅學(xué)習(xí)原始HR圖像和輸入LR圖像之間的殘差,從而避免了學(xué)習(xí)從完整圖像到圖像的復(fù)雜轉(zhuǎn)換任務(wù)。殘差圖像[r]的定義如下:

[r=y-x]? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?(4)

其中[r]為殘差圖像,[y]為原始HR圖像,[x]為插值后的LR圖像。網(wǎng)絡(luò)的優(yōu)化目標(biāo)為最小化殘差圖像[r]與輸出圖像[f(x)]之間的誤差,損失函數(shù)[L]的定義如下:

[L=12∥r-f(x)∥2]? ? ? ? ? ? ? ? ? ? ? ? ? ? ?(5)

其中[L]為損失函數(shù),[r]為殘差圖像,[f(x)]為網(wǎng)絡(luò)輸出的預(yù)測圖像。由于網(wǎng)絡(luò)只需要學(xué)習(xí)圖像的殘差,而大多數(shù)圖像塊的殘差值接近于0,因此大大降低了網(wǎng)絡(luò)的復(fù)雜度與訓(xùn)練成本。相比線性網(wǎng)絡(luò),VDSR模型的訓(xùn)練速度更快,輸出結(jié)果能夠保留較好的圖像高頻細(xì)節(jié)。此外,該模型將不同縮放系數(shù)的LR圖像混合在一起訓(xùn)練,將單一倍數(shù)的超分模型改進(jìn)為適應(yīng)多倍數(shù)的超分模型,并取得了較好的泛化效果。

3.2.3 基于生成對抗網(wǎng)絡(luò)的方法

生成對抗網(wǎng)絡(luò)(GAN)是由Goodfellow 等人[9]提出的無監(jiān)督學(xué)習(xí)模型,主要包括一個生成器網(wǎng)絡(luò)和一個判別器網(wǎng)絡(luò),兩個網(wǎng)絡(luò)同時訓(xùn)練,以相互博弈的方式去競爭學(xué)習(xí)。Ledig等人[10]提出的SRGAN模型,將生成對抗網(wǎng)絡(luò)應(yīng)用于圖像超分辨率。該模型的生成器網(wǎng)絡(luò)G通過輸入的低分辨率圖像,不斷生成高分辨率圖像。判別器網(wǎng)絡(luò)D則需要判斷輸入的圖像是生成的高分辨率圖像,還是真實(shí)的高分辨率圖像。兩個網(wǎng)絡(luò)不斷迭代訓(xùn)練,直至判別器網(wǎng)絡(luò)D無法判斷輸入的圖像來自生成圖像還是真實(shí)圖像,兩者達(dá)到了博弈均衡,最后生成器網(wǎng)絡(luò)G輸出逼真的高分辨率圖像。

大多數(shù)的超分模型都是以均方誤差作為損失函數(shù),導(dǎo)致生成的高分辨率圖像過于平滑,與人的視覺感知不一致。SRGAN在損失函數(shù)中引入感知損失(perceptual loss),嘗試從人類觀感的角度去評估圖像質(zhì)量。在4倍放大圖像時,SRGAN輸出圖像的平均PSNR值雖然略低于SRCNN,但是生成圖像的紋理細(xì)節(jié)清晰,視覺效果逼真,更符合人類的觀感需求。

4? 總結(jié)

圖像超分辨率的發(fā)展經(jīng)歷了基于插值、基于重構(gòu)和基于深度學(xué)習(xí)的三個階段。近年來,隨著深度學(xué)習(xí)技術(shù)的蓬勃發(fā)展,基于深度學(xué)習(xí)的超分辨率模型已經(jīng)成為圖像超分辨率領(lǐng)域的主流算法,并廣泛應(yīng)用于各個領(lǐng)域。相比傳統(tǒng)方法,深度學(xué)習(xí)模型擁有強(qiáng)大的特征提取能力,能夠在數(shù)據(jù)中自動學(xué)習(xí)從LR圖像到HR圖像的復(fù)雜映射,重建出紋理清晰、細(xì)節(jié)豐富的高分辨率圖像,有效解決了傳統(tǒng)方法難以學(xué)習(xí)圖像高頻信息、生成圖像含有模糊偽影等問題。

參考文獻(xiàn):

[1] 謝海平,謝凱利,楊海濤.圖像超分辨率方法研究進(jìn)展[J].計算機(jī)工程與應(yīng)用,2020,56(19):34-41.

[2] Nasrollahi K,Moeslund T B.Super-resolution:a comprehensive survey[J].Machine Vision and Applications,2014,25(6):1423-1468.

[3] 王威,張彤,王新.用于圖像超分辨率重構(gòu)的深度學(xué)習(xí)方法綜述[J].小型微型計算機(jī)系統(tǒng),2019,40(9):1891-1896.

[4] Liu C,Sun D Q.On Bayesian adaptive video super resolution[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(2):346-360.

[5] Dong C,Loy C C,He K M,et al.Image super-resolution using deep convolutional networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2016,38(2):295-307.

[6] Dong C,Loy C C,Tang X O.Accelerating the super-resolution convolutional neural network[C]//Computer Vision - ECCV 2016,2016:391-407. DOI:10.1007/978-3-319-46475-6_25.

[7] Kim J,Lee J K,Lee K M.Accurate image super-resolution using very deep convolutional networks[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).June 27-30,2016,Las Vegas,NV,USA.IEEE,2016:1646-1654.

[8] He K M,Zhang X Y,Ren S Q,et al.Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).June 27-30,2016,Las Vegas,NV,USA.IEEE,2016:770-778.

[9] Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial networks[C]. Proceedings of the Advances in Neural Information Processing Systems, Quebec, Dec 8-13, 2014:2672-2680.

[10] Ledig C,Theis L,Huszár F,et al.Photo-realistic single image super-resolution using a generative adversarial network[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).July 21-26,2017,Honolulu,HI,USA.IEEE,2017:105-114.

【通聯(lián)編輯:唐一東】

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 久久婷婷六月| AV色爱天堂网| 日韩免费视频播播| 国产成人调教在线视频| 国产在线拍偷自揄观看视频网站| 亚洲精品动漫在线观看| 99无码中文字幕视频| 亚洲永久精品ww47国产| 国产美女在线免费观看| 狠狠躁天天躁夜夜躁婷婷| 国产网站一区二区三区| 日韩人妻精品一区| 亚洲成a∧人片在线观看无码| 日韩在线视频网| 色偷偷男人的天堂亚洲av| 91精品国产综合久久不国产大片| 国产粉嫩粉嫩的18在线播放91| 久久亚洲中文字幕精品一区 | 日本少妇又色又爽又高潮| 丁香婷婷综合激情| 日本黄色不卡视频| 免费又黄又爽又猛大片午夜| 免费a级毛片18以上观看精品| 午夜性刺激在线观看免费| 国产亚洲日韩av在线| 欧美另类第一页| 国产一级妓女av网站| 国产区福利小视频在线观看尤物| 无码精品一区二区久久久| 天天综合天天综合| 国产H片无码不卡在线视频| 精品夜恋影院亚洲欧洲| a毛片免费在线观看| 欧美有码在线| 欧日韩在线不卡视频| 亚洲成在人线av品善网好看| 亚洲国产天堂久久综合226114| 国产精品jizz在线观看软件| 国产靠逼视频| 国产成本人片免费a∨短片| 国产哺乳奶水91在线播放| 五月婷婷欧美| 国产精品欧美激情| a亚洲视频| 国产乱子伦手机在线| 欧美日韩综合网| 国产成人久久综合一区| 青青青伊人色综合久久| 欧美国产日本高清不卡| 国产丝袜无码精品| 欧美亚洲一区二区三区在线| 国产精品手机在线观看你懂的| 一级毛片免费观看久| 国产午夜一级淫片| 538精品在线观看| 亚洲一级无毛片无码在线免费视频| 成人免费视频一区二区三区| 亚洲综合香蕉| 无码视频国产精品一区二区| 日韩a级毛片| 欧美日韩北条麻妃一区二区| 无码内射在线| 91久久夜色精品| 亚洲国产精品日韩欧美一区| 91在线视频福利| 成人毛片在线播放| 在线观看欧美国产| 97国产在线播放| 成年人国产视频| 国产精品视频3p| 国产女人爽到高潮的免费视频| 亚洲综合18p| 超碰色了色| 狠狠做深爱婷婷久久一区| 色综合天天娱乐综合网| 欧美无专区| 国产永久在线观看| 54pao国产成人免费视频| 国产精品.com| 亚洲天堂网视频| 国产成人综合久久| 无码一区18禁|