999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于殘差學習的圖像超分辨率重構方法

2021-08-27 06:38:22陳啟超
計算機技術與發展 2021年8期
關鍵詞:特征方法

張 敏,黃 剛,陳啟超

(南京郵電大學 計算機學院,江蘇 南京 210046)

0 引 言

圖像超分辨率(image super-resolution,SR)一直是底層視覺領域的研究熱點,分辨率是評估圖像質量的重要指標,圖像分辨率越高,圖像就具有越高的像素密度,意味著圖像包含越豐富的細節信息。然而,在實際的圖片采集過程中,受采集設備、拍攝環境等諸多客觀因素的影響,獲取到的圖片往往無法滿足實際需求。因此,提高圖像分辨率,改善圖像質量,成為人們所關注的熱點問題。圖像超分辨率重構方法[1-3]從算法的角度,以低成本手段將一幅或者多幅低分辨率圖像轉化為高分辨率圖像,恢復圖像細節,在衛星遙感、醫學影像以及視頻監控等領域有著重要的應用并取得了顯著的成效。圖像超分辨率主要分為兩類,分別是單幀圖像超分辨率(single image super-resolution,SISR)以及多幀圖像超分辨率(multiple image super-resolution,MISR),文中主要討論的是單幀圖像超分辨率方法。

目前,圖像超分辨率算法研究的三個主要方向分別為基于插值(interpolation based)的圖像重建算法[4-5]、基于重構(reconstruction based)的圖像重建算法[6]以及基于學習(learning based)的圖像重建算法[7-9]。基于插值的方法最典型的有雙三次插值法,利用鄰近已知像素點的灰度值計算待插入像素點的值,簡單高效,但重建的高分辨率圖像細節丟失問題較為嚴重,往往達不到理想效果。基于重構的超分辨率重建算法,如Yang等人[6]提出的迭代反投影,在很大程度上依賴于先驗條件,生成的圖像過于平滑。基于學習的圖像超分辨率重建算法是目前的研究熱點,該方法通過訓練樣本學習低分辨率圖像與高分辨率圖像之間的映射關系,進而重建出高分辨率圖像。典型的基于學習的方法主要有鄰域嵌入算法、稀疏編碼算法以及基于卷積神經網絡的算法等。

隨著海量數據的出現以及深度學習技術的發展,基于卷積神經網絡的方法在圖像處理領域取得了巨大成功,產生了重要的影響。2014年,Dong等人[10]首先將卷積神經網絡引入圖像超分辨率領域,開創性地提出SRCNN方法,以端到端的方式來學習低分辨率圖像與高分辨率圖像之間的映射關系,極大地簡化了超分辨算法的工作流程。該算法以傳統的稀疏編碼與深度學習之間的關系為基礎,將經雙三次插值后的低分辨率圖像作為輸入,利用三個卷積層,將圖像從低分辨率空間非線性映射到高分辨率空間,完成了圖像的提取和特征表示、非線性映射以及圖像重建過程,直接重建出高分辨率圖像,實現了端到端的圖像重建,其重建效果顯著優于傳統的超分辨率算法,證明了深度學習在圖像超分辨率領域的卓越性能。之后,Dong等人[11]又提出FSRCNN對SRCNN加以改進,提出以低分辨率圖像作為網絡的輸入進行訓練,并在網絡的最后通過反卷積層放大尺寸并重建出高分辨率圖像。2016年,Kim等人[12]提出了一個20層的深度卷積神經網絡模型VDSR對圖像特征進行深度提取,并通過引入殘差模型加快了網絡的收斂速度,提高了模型的泛化能力。

基于對圖像重建性能以及網絡的訓練時間角度的考慮,文中提出了一種基于深度殘差網絡的圖像超分辨率重建方法。該方法以原始的低分辨率圖像作為模型的輸入,用較小的卷積核級聯出深層卷積網絡,以更好地提取圖像的邊緣信息。為加快網絡收斂速度,避免梯度爆炸和梯度消失,引入殘差學習,之后利用反卷積層[11,13]進行上采樣,重建出目標尺寸的高分辨率圖像。實驗結果表明,該方法能夠有效地提高特征信息的利用率,恢復圖像細節,達到較好的圖像重建效果。

1 相關工作

1.1 FSRCNN算法

SRCNN將原始的低分辨率圖像經過雙三次插值后,作為網絡的輸入進行訓練,其計算成本影響了網絡的實時性能和運算速度。在重建高分辨率圖像時,由于SRCNN的網絡層數相對較少,且在圖像特征提取與表示、非線性映射、圖像重建等三個模塊分別使用了9×9、1×1以及5×5大小的卷積核,感受野相對較小,依賴于小圖像區域的上下文,沒有充分利用到上下文信息,導致重建出的圖像精度不夠,超分辨率性能有待進一步提升。

FSRCNN是對SRCNN的改進,該算法的網絡結構在使用小型濾波器并加深網絡的基礎上,設計“漏斗”結構的卷積網絡,在網絡末端引入反卷積層,直接從原始的低分辨率圖像學習到高分辨率圖像的映射,省去了圖像的預處理階段;降低輸入特征的維度;采用了較小尺寸的卷積核和更深層次的網絡結構。

FSRCNN網絡結構如圖1所示。該網絡由5個部分組成,分別用于特征提取、特征收縮、非線性映射、特征擴張以及反卷積重建,每個部分負責不同的任務。特征提取模塊負責從低分辨率圖像中提取多個特征塊,并將每個特征塊表示為高維度向量,這些高維向量組成一組特征圖。特征收縮部分通過應用1×1的卷積核進行降維,減少網絡的參數,降低計算復雜度。非線性映射模塊非線性地將前一層的高維向量映射到另一個高維向量上。因低維度的特征帶來的重建效果不是太好,因此特征擴張模塊應用1×1的卷積核進行擴維,相當于收縮的逆過程。反卷積重建過程相當于卷積層的逆操作,將圖像放大到目標大小,實現了圖像的上采樣。

圖1 FSRCNN網絡結構

FSRCNN在保證修復質量的前提下,提高了網絡的運行速度,保證了圖像重建的實時性。但是,該方法仍存在一定的局限性,一方面由于卷積層數相對較少,無法充分提取細節特征,另一方面,圖像在經過卷積操作后,尺寸減小,邊緣信息丟失,一定程度上降低了圖像的重建質量。

1.2 VDSR算法

SRCNN和FSRCNN都是通過淺層網絡學習低分辨率圖像與高分辨率圖像之間的映射關系以重建高分辨率圖像,收斂速度相對較慢,訓練時間長,圖像的恢復質量有待提升。

為了改進上述問題,Kim等人提出深度卷積網絡VDSR。該網絡受用于ImageNet分類[14]的VGG-net的啟發,提出了一種高度精確的單圖像超分辨率方法,使用了非常深的卷積網絡對圖像進行超分辨率重構,其網絡結構如圖2所示。

圖2 VDSR網絡結構

在圖像超分辨率重構任務中,網絡的任務是通過學習低分辨率圖像與高分辨率圖像之間的映射關系恢復出高分辨率圖像,低分辨率圖像與高分辨率圖像共享低頻信息,用原始的低分辨率圖像作為網絡的輸入有利于保留低頻信息,重建出精度較高的高分辨率圖像。該方法通過殘差連接學習高分辨率圖片與低分辨率圖片中之間的高頻殘差,將插值預處理后的低分辨率圖像作為輸入并預測圖像細節,通過在深度網絡結構中級聯小型濾波器增加圖像的局部感受野,以高效利用大型圖像區域的上下文信息;采用殘差學習和可調節的梯度剪切來加快收斂速度,隨著網絡加深,重建精確度顯著提高;另外,在每次進行卷積操作前進行零填充,使得卷積前后的特征圖大小保持一致。該方法克服了SRCNN收斂速度慢以及上下文信息缺乏關聯性等問題。實驗結果表明,該方法無論在重建精度還是在重建速度方面都有較好的優勢。

在SRCNN中,輸入的精確副本必須經過所有層,直到到達輸出層為止。由于具有許多權重層,因此需要消耗大量內存。Kim等考慮到低分辨率圖像和高分辨率圖像在很大程度上共享相同的信息,因此VDSR引入殘差學習,對殘差圖像進行建模,即當輸入和輸出高度相關時,僅學習殘差,并以更高的學習率進行訓練,大大提升了網絡的收斂速度。另外,該方法在網絡結構中多次級聯小型濾波器,相比大尺寸的濾波器而言,不僅擁有更少的參數,而且有效地利用了大圖像區域的上下文信息,擴大感受野,使得重建精度顯著提升。

2 文中方法

在FSRCNN和VDSR等方法的基礎上,文中提出了一種基于殘差學習的圖像超分辨率重構方法。該方法以原始的低分辨率圖像作為模型的輸入,用較小的卷積核級聯出深層卷積網絡,首先通過一層卷積操作將圖像特征非線性地映射為高維向量,提取圖像的特征信息。為加快網絡收斂速度,避免梯度爆炸和梯度消失,引入殘差塊,最后利用反卷積層進行上采樣重建出目標尺寸的高分辨率圖像。另外,為防止每次的卷積運算時特征圖變小以及充分利用圖像邊緣信息,在每個卷積層之前進行零填充,使得輸入特征與輸出特征具有相同尺寸。方法的模型結構如圖3所示。

圖3 文中方法

文中方法堆疊了兩個殘差塊,第一個殘差塊用于學習圖像的淺層特征,第二個殘差塊用于恢復圖像細節信息,最后通過反卷積層進行上采樣,重建出最終的高分辨率圖像。在卷積過程中使用零填充保證輸出圖像與輸入圖像尺寸相等,以減少圖像的細節信息丟失。因池化層對卷積后的結果進行下采樣,降低特征維度,用以簡化卷積層的輸出信息,導致細節信息丟失,而超分辨率算法的目標是增加圖像的細節信息,故文中方法不使用池化層。

2.1 深度卷積網絡

Simonyan等[14]指出使用一個較大的卷積核等價于連續使用幾個較小的卷積核,且使用更深層次的小卷積核網絡可以更好地提取圖像中的特征信息。文中方法使用深度非線性映射直接對未經插值的原始低分辨率圖像進行特征提取,每一層卷積層都由64個通道組成,卷積核大小為3×3。通過級聯3×3的小卷積核,可以有效地增加局部感受野,充分利用大圖像區域中的上下文信息,使得重構出的圖像細節更加細膩。另外,在每次卷積操作之前需要對特征圖像進行零填充,不僅可以確保卷積之后圖像大小不變,還可以提升邊緣預測的準確性。第l層的操作如公式(1)所示:

fl=φ(Wl*f(l-1)+bl)

(1)

其中,Wl和bl分別為第l層的網絡權重和偏置,f(l-1)表示上一層的輸出。

文中方法選用修正線性單元(ReLu)作為反卷積操作及每次卷積操作之后的激活函數[15],是目前應用最為廣泛的激活函數。ReLu是一個分段函數,當輸入為負數時,函數的輸出為0;當輸入為正數時,其輸出為輸入時的值。相比于其他類型的激活函數,一方面,ReLu作為激活函數計算量較小,可以加快網絡的收斂速度,另一方面ReLu能在一定程度上避免梯度消失,具有更加出色的性能,其公式表示如下:

(2)

2.2 殘差塊

當網絡深度增加后可以進行更加復雜的特征提取,模型可以取得較好的效果。但是,當傳統的卷積網絡達到一定的深度之后存在梯度消失與梯度爆炸[16]的現象;另一方面,隨著深度的增加,網絡退化會導致整體的性能下降。

為解決以上問題,He等人[17]提出殘差學習,通過前饋卷積網絡與跳躍連接構成殘差塊,大大提高了網絡的性能,相較于傳統卷積網絡,殘差網絡收斂速度更快,損失更低,同時保證了輸出特征的表達能力,其模型結構如圖4所示。Kim等人將殘差學習引入圖像超分辨率領域,網絡只需學習高分辨率圖像與低分辨率圖像之間的高頻殘差,提高了訓練效率。

圖4 原始殘差塊

傳統殘差塊中批量正則化對卷積層的輸出特征作正則化處理,導致信息部分丟失,同時由于批量正則化參數與卷積操作參數量相同,消耗大量內存。因此,Lim等人[18]改善了殘差模塊的使用,相對于傳統的殘差模塊移除了批量正則化BN層,減少了網絡參數,在很大程度上提高了網絡的性能。因此文中方法使用改善后的殘差塊,殘差塊中只包含卷積層和修正線性單元ReLu,其結構如圖5所示。

圖5 改進的殘差塊

文中方法疊加了兩個殘差塊,兩個殘差塊都接收了原始低分辨率圖像作為輸入數據,共享低頻信息,減少訓練過程中的信息丟失,使得圖像的細節信息更加豐富。

網絡以原始的低分辨率圖像作為輸入圖像經過第一個殘差塊學習到殘差圖像,該殘差圖像與低分辨率圖像結合是第一個殘差塊的輸出,也即為第二個殘差塊的輸入。每一個殘差塊的輸出如公式(3)所示:

xl+1=f+xl

(3)

其中,xl和xl+1分別表示殘差塊的輸入向量和輸出向量,函數f表示待學習的殘差映射。

2.3 反卷積

VDSR借助于雙三次插值對原始的低分辨率圖像進行預處理,經雙三次插值放大之后的圖像作為輸入,會使得網絡計算復雜度顯著增加,增加網絡的訓練難度,性能低且運算速度慢。

文中方法直接在網絡的最后利用反卷積層對圖像進行上采樣。反卷積又叫做轉置卷積,可以視為卷積的逆過程。

將低分辨率圖像經過零填充與3×3的反卷積核作用得到上采樣特征圖,使得最終的輸出圖像大小與目標圖像的大小相同,輸入圖像與輸出圖像尺寸關系如式(4)。反卷積層的添加,一方面省去了預處理階段,另一方面降低了計算的復雜度。

(4)

其中,W1和H1分別表示輸入圖像的寬和高,W2和H2分別表示輸出圖像的寬和高,S表示卷積核移動的步長大小,F為卷積核的大小,P表示0填充。

2.4 損失函數

圖像超分辨率重建的目標是通過訓練得到低分辨率圖像于高分辨率圖像之間的映射函數,使得重建出的圖像與原始的低分辨率圖像之間的差值,也即損失函數的值越小越好。

文中使用均方誤差(mean square error,MSE)作為損失函數來優化參數訓練模型,如公式(5)所示。

(5)

其中,H和W分別表示圖像的高和寬,X(i,j)和Y(i,j)分別表示重建圖像與原圖對應的像素點。

3 實驗分析

3.1 數據集

DIV2K是用于圖像恢復的高質量圖像數據集,其中包含800張訓練圖像,100張驗證圖像以及100張測試圖像。文中方法使用該數據集的800張訓練圖像作為訓練數據集。采用Set5、Set14基準數據集作為測試數據集。

3.2 評價標準

單圖像超分辨率方法的評價標準通常分為主觀評價和客觀評價。主觀評價是由人眼直觀地對原始圖像與生成圖像進行比較。為驗證模型的質量,通常需要使用峰值信噪比(peak signal-to-noise ratio,PSNR)和結構相似性(structure similarity,SSIM)等客觀評價標準來針對不同的模型評價生成圖像的重建質量。

峰值信噪比通過計算對應像素點之間的誤差衡量圖像重建質量,其計算方法如公式(6):

(6)

其中,n表示每像素的比特數,一般為8,MSE是指原圖像與生成圖像之間的均方誤差。PSNR的單位為dB,數值越大表示圖像失真越小。

結構相似性對圖像的相似性從亮度、對比度和結構三個角度進行綜合衡量。假設x和y分別表示原始的高分辨率圖像和恢復出的高分辨率圖像,則計算方法如公式(7)所示:

SSIM(x,y)=l(x,y)*c(x,y)*s(x,y)

(7)

(8)

(9)

(10)

其中,l(x,y)表示亮度比較,c(x,y)表示對比度比較,s(x,y)表示結構比較;μx和μy分別表示兩幅圖像的像素均值,δx和δy表示兩幅圖像的標準差,δxy表示兩幅圖像中像素塊的協方差,C1、C2和C3為常數,用于避免分母為0時帶來的系統錯誤。SSIM取值范圍為[0,1],結果越接近1表示失真越小;當結果為1時,則表示輸入圖像與輸出圖像完全相同。

3.3 結果分析

文中方法在不同重建倍數下進行訓練,初始學習速率設置為10-4,動量參數設置為0.9,圖像批處理大小設置為64。實驗過程中通過Adam優化方法最小化MSE以更新參數。

為驗證文中方法的性能,針對不同的單圖像超分辨率重建的模型,在不同的數據集和重建倍數下進行實驗對比和數據分析。

使用訓練好的模型對低分辨率圖像進行2倍、3倍和4倍的超分辨率重建,圖6所示為放大2倍的情況下,各算法的重建效果對比。

圖6 重建效果對比

對比SRCNN、FSRCNN、VDSR以及文中方法等算法在不同重建倍數下的峰值信噪比和結構相似性,測試結果分別如表1和表2所示。

表1 不同算法在不同重建倍數下的平均PNSR

表2 不同算法在不同重建倍數下的平均SSIM

從表中數據可以看出,文中算法在不同重建倍數的PNSR平均值和SSIM平均值相比其他算法均有所提升,實現了較好的超分辨率重建性能。

具體來說,在Set5數據集中,在放大倍數為2、3、4的情況下,文中方法較VDSR方法而言,PNSR分別提高了0.36 dB、0.22 dB、0.04 dB,SSIM分別提高了0.003 0、0.002 1、0.006 4;在Set14數據集中,在放大倍數為2、3、4的情況下,文中方法較VDSR方法而言,PNSR分別提高了0.19 dB、0.13 dB、0.08 dB,SSIM分別提高了0.003 6、0.002 0、0.003 4。由此可見,文中方法的重建效果整體上優于其他三種方法。

4 結束語

為提高圖像重建精度,文中提出一種基于深度殘差網絡的圖像超分辨率算法,該算法將原始的低分辨率圖像作為輸入數據,用較小的卷積核級聯出深層卷積網絡進行特征提取,為加快網絡收斂速度,避免梯度爆炸和梯度消失,引入殘差學習,之后利用反卷積層進行上采樣重建出目標尺寸的高分辨率圖像。實驗結果表明,相比SRCNN、FSRCNN以及VDSR等方法,文中方法在主觀視覺效果和客觀評價指標上都有提升,實現了較好的圖像重建效果。在之后的研究工作中,可以嘗試將該方法應用于某一具體領域,如醫學影像、衛星遙感等。但該網絡的圖像重建效果仍然有待提升,未來將進一步優化網絡設計,以進一步提高超分辨率重建精度。

猜你喜歡
特征方法
抓住特征巧觀察
新型冠狀病毒及其流行病學特征認識
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
學習方法
抓住特征巧觀察
可能是方法不對
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
主站蜘蛛池模板: 三上悠亚在线精品二区| 国产一区二区三区免费| 精品一区二区三区无码视频无码| 欧美精品二区| 激情六月丁香婷婷| 久草视频一区| 欧美亚洲综合免费精品高清在线观看| 国产成人超碰无码| 99re免费视频| 伊在人亚洲香蕉精品播放| 88国产经典欧美一区二区三区| 国产精品夜夜嗨视频免费视频| Jizz国产色系免费| 人妻中文字幕无码久久一区| 亚洲Aⅴ无码专区在线观看q| 精品福利视频网| 中文字幕自拍偷拍| 国产精品999在线| 中文字幕在线永久在线视频2020| P尤物久久99国产综合精品| 欧美黄网站免费观看| 欧美精品导航| 欧美日本二区| 国产精品香蕉在线| 99视频在线免费| 国产精品va免费视频| 青青草久久伊人| 最近最新中文字幕在线第一页| 亚洲男人天堂网址| 亚洲大学生视频在线播放| 亚洲 欧美 中文 AⅤ在线视频| 国产剧情国内精品原创| 成人午夜网址| 天天躁夜夜躁狠狠躁躁88| 国内精品九九久久久精品| 婷婷综合在线观看丁香| 国产特一级毛片| 麻豆精品在线视频| 啊嗯不日本网站| 91极品美女高潮叫床在线观看| 亚洲天堂网视频| 99性视频| 亚洲日本韩在线观看| 91久久偷偷做嫩草影院免费看| 91年精品国产福利线观看久久| 久久狠狠色噜噜狠狠狠狠97视色| 国产综合在线观看视频| 亚洲国产看片基地久久1024| 欧美一级在线| 免费观看精品视频999| 波多野结衣国产精品| 日韩毛片视频| 国产一级毛片在线| 国产麻豆另类AV| 精品在线免费播放| 久久亚洲国产一区二区| 在线观看免费黄色网址| 欧美国产视频| 日韩精品中文字幕一区三区| 国产午夜在线观看视频| 在线看免费无码av天堂的| 亚洲欧美色中文字幕| 日韩国产高清无码| 亚洲欧美一区二区三区图片 | 日韩精品亚洲人旧成在线| 青青操国产视频| 亚洲成人精品| 99国产精品免费观看视频| 成人午夜网址| 精品一区二区无码av| jizz在线免费播放| www.国产福利| 成人在线不卡视频| 综合社区亚洲熟妇p| 男人的天堂久久精品激情| 免费a级毛片视频| 99在线国产| 美女被操91视频| 玩两个丰满老熟女久久网| 精品欧美一区二区三区久久久| 日韩福利视频导航| 无码免费的亚洲视频|