999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進的漸進式圖像超分辨率重建算法

2022-09-19 11:24:46譚仕立朱婷鴿
西安郵電大學學報 2022年2期

劉 穎,譚仕立,畢 萍,朱婷鴿

(1.西安郵電大學 通信與信息工程學院,陜西 西安 710121;2.西安郵電大學 無線通信與信息處理技術國際聯合研究中心,陜西 西安 710121;3.西安郵電大學 圖像與信息處理研究所,陜西 西安 710121)

單幀圖像超分辨率重建(Single Image Super-Resolution,SISR)是指由一幅低分辨率(Low-Resolution,LR)圖像重建出一幅對應的高分辨率(High-Resolution,HR)圖像,是計算機視覺和圖像處理的重要技術之一[1-2],現已廣泛應用于醫學圖像增強、視頻成像和目標識別等計算機視覺任務。然而,從LR圖像中能夠生成多個不同的HR圖像,因此SISR是一個不適定問題。為了解決這個逆問題,大量學習LR與HR圖像之間映射關系的超分辨率(Super-Resolution,SR)重建算法相繼被提出。

目前,超分辨率重建主要分為基于卷積神經網絡[3-11](Convolutional Neural Network,CNN) 和基于生成對抗網絡[12-14](Generative Adversarial Nets,GAN) 兩類方法?;诰矸e神經網絡的圖像超分辨率[3](Super-Resolution Convolutional Neural Networks,SRCNN)是最早將卷積網絡應用于SISR的方法,其重建效果優于非神經網絡方法。超深度卷積網絡[4](Very Deep Convolutional Networks,VDSR)引入殘差學習,擴展了網絡的深度。基于亞像素卷積的超分辨率[5](Efficient Sub-Pixel Convolutional Neural Network,ESPCN)方法在最后一層引入亞像素卷積網絡,將LR特征圖重新排列從而得到超分辨率圖像?;诰矸e神經網絡的快速超分辨率[6](Fast Super-Resolution Convolutional Neural Networks,FSRCNN)方法在模型末尾使用反卷積層直接學習原始LR圖像與HR圖像之間的映射關系。LapSRN[7]方法利用拉普拉斯金字塔網絡逐步重建HR圖像的殘差。文獻[8]利用多尺度殘差塊構建了高質量網絡?;贑NN的SISR方法表現出了優異的性能,大多數方法傾向于使用更大、更深的網絡重建圖像,但訓練這些模型需要更多的數據、時間和資源,開銷大但效果甚微。隨后,學者們開始關注網絡輕量化,如:文獻[9]通過多次回傳機制減少網絡參數;利用級聯殘差網絡[10](Cascading Residual Network,CARN)提出了輕量化的超分辨率方法;稀疏掩碼超分辨率[11](Sparse Mask Super-Resolution,SMSR)網絡利用空域掩碼與通道掩碼構建稀疏卷積,大幅減少了模型的計算量。

在另一類基于GAN的SISR方法中,基于生成對抗網絡的圖像超分辨率[12](Super-Resolution Generative Adversarial Network,SRGAN)方法把重建問題看作是圖像生成問題,通過生成器和判別器的不斷博弈從而達到視覺效果更好的重建結果?;贕AN的重建方法往往峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)不高,但其重建結果視覺效果好。采用GAN訓練獲得高效益的同時,常常也伴隨著極大的風險,這類方法訓練過程不穩定、訓練曲線震蕩較大、耗費資源多,不易掌控。

觀察上述兩類方法的模型可以發現,其均是直接通過最小化損失函數學習LR圖像和HR圖像之間的映射關系。然而,缺乏自然圖像的先驗信息使得真實的高頻細節信息重建尤為困難。因此,結合圖像先驗信息的重建方法成為另一類研究方向。圖像先驗信息包括總變差先驗[13]、稀疏先驗[14]和邊緣先驗[15]等,其中邊緣先驗最容易獲取,因此使用最為廣泛。深邊緣引導循環殘差[16](Deep Edge Guided Recurrent Residual,DEGR)網絡將圖像邊緣信息與遞歸網絡相結合,提出了邊緣引導的遞歸殘差網絡。軟邊緣提取網絡SeaNet[17]從LR圖中提取軟邊緣,并將其與重建的SR圖像進行卷積融合,學習到了更加豐富的高頻細節。殘差通道注意力網絡[18](Residual Channel Attention Networks,RCAN)提出了通道注意力機制,通過對特征通道之間的相互依賴性建模,自適應地重新縮放每個通道的特征,使網絡專注于更有用的通道。二階注意力網絡[19](Second-order Attention Network,SAN)提出了二階通道注意力機制,即利用二階梯度統計特性自適應的調整不同通道特征圖的權重。整體注意力網絡[20](Holistic Attention Network,HAN)引入了層注意力模塊和通道空間注意力模塊,分別學習不同層特征的權重以及各層特征的通道和空間相關性,獲得了較好的重建結果。但是,當遇到高倍數放大時,上述方法的效果并不理想。因此,擬對SeaNet模型進行改進,提出一種改進的漸進式圖像超分辨率重建算法。通過構建兩層漸進式SISR網絡實現LR圖像的重建,即網絡整體結構分為第一級放大重建和第二級細節重建。第一級放大重建中采用漸進式兩級放大重建結構,在殘差模塊中引入注意力機制,將注意力圖與輸入特征圖相乘以進行自適應特征優化,將更多資源分配給對重建起關鍵作用的特征通道中。第二級細節重建中采用軟邊緣提取網絡提取圖像的邊緣細節,使得重建結果在第一階段的基礎上有所提升。

1 兩層漸進式超分辨率重建網絡

1.1 兩層漸進式網絡結構

基于CNN架構的兩層漸進式網絡結構如圖1所示。第一層漸進式網絡是指整個網絡分為兩個階段,即第一階段的放大重建網絡和第二階段的細節重建網絡。第二層漸進式網絡是指在放大重建網絡中,先進行圖像特征提取,然后在重建階段采用一級放大和二級放大的逐級放大結構。

圖1 兩層漸進式網絡結構

在第一階段,粗超分辨率重建網絡的輸出可表示為

frough=FRIRN(ILR)

(1)

式中:FRIRN為粗超分辨率重建網絡;ILR為輸入的LR圖片。

在第二階段,軟邊緣網絡提取的邊緣和融合層的輸出結果分別表示為

fedge=FEdge-Net(ILR)

(2)

ffusion=Ffusion([frough,fedge])

(3)

式中,FEdge-Net為軟邊緣提取網絡;[]表示連接操作。

最終圖像重建的結果為

ISR=FIRN(ffusion)

(4)

式中,FIRN為細超分辨率重建網絡。

因此,第i個訓練樣本的網絡損失函數為

(5)

1.2 漸進式粗超分辨率重建網絡

漸進式放大網絡結構可以逐步修正重建圖像中的細節信息,尤其對高倍數放大的效果好。因此,粗超分辨率重建網絡采用漸進式的三級結構,如圖1中漸進式粗超分辨率重建網絡所示。LR圖像特征提取階段為第一級,由n1個殘差塊組成,主要用于對LR圖像進行特征提取。一級放大階段為第二級,通過反卷積層將LR圖像進行一級放大,再送入n2個殘差塊中進一步提取一級放大后圖像的特征。二級放大階段為第三級,再次通過反卷積層將一級放大后的圖像放大至目標尺寸,得到粗超分辨率重建結果frough。

在第一級和第二級網絡中均使用由特征提取模塊和卷積塊的注意力模塊[21](Convolutional Block Attention Module,CBAM)組成的殘差網絡結構,如圖2所示。

圖2 殘差塊結構

第m個殘差塊的輸出定義為

fb,m=[W2(W1fb,m-1+b1)+b2+Fc]+fb,m-1

(6)

式中:fb,m-1為第m-1個殘差塊的輸出,也是當前殘差塊的輸入;W1和W2分別為該殘差塊中第一層和第二層卷積層的權重;b1和b2分別為對應的偏置;為ReLU函數;Fc為注意力模塊網絡。

特征提取模塊由兩個卷積層和一個修正線性單元組成,CBAM由通道注意力和空間注意力兩部分串行組成。通過在通道和空間兩個獨立維度中依次推斷注意力圖,利用不同通道之間特征表示的相互依賴和相互作用,學習特征相關性,從而準確而快速地定位出目標區域,增強SR圖像的特征,同時抑制無用的噪聲。在殘差塊中加入注意力機制的策略可以提高網絡的學習能力,更有助于保留更細致的圖像特征。

重建圖像分辨率的提高是一個漸進的過程,因此低階特征對后續高階特性的影響較小,所以在殘差塊中并沒有使用長跳躍連接。

1.3 軟邊緣提取網絡

一幅圖像通常包含變化平緩的區域和變化劇烈的區域,事實上,變化平緩的區域主要由圖像的低頻信息構成,變化劇烈的區域主要由圖像的高頻信息構成,在視覺上體現為邊緣。

不同于傳統的Canny、Sobel和Roberts等圖像邊緣,由散度和梯度定義的軟邊緣也可以準確地保留圖像的高頻信息,故IEdge可定義為

IEdge=div(ux,uy)

(7)

軟邊緣提取網絡SeaNet將多尺度殘差網絡[22](Multi-scale Residual Network,MSRN)作為基本結構,并對其進行兩點改進:1)減少多尺度殘差塊的數量,降低復雜度;2)將學習ILR與IHR之間的映射應用于學習ILR與IEdge之間的非線性關系。

軟邊緣提取網絡的損失函數定義為

Edge=‖E(ILR-IEdge)‖1

(8)

式中:E(·)表示軟邊緣提取網絡;E(ILR)表示提取的軟邊緣圖像。

不同網絡提取的軟邊緣示例如圖3所示。軟邊緣提取網絡包含了放大模塊,因此提取的軟邊緣圖像與HR圖像有相同的維度,使得目標物邊緣清晰,重建效果更好,而Canny邊緣中存在噪聲和不連續點,對重建結果造成了影響。

圖3 網絡提取的軟邊緣

1.4 細節重建網絡

第二階段的細節重建網絡,分為融合層和細超分辨率重建網絡兩部分。

在重建前,需將軟邊緣提取網絡得到的高頻特征加入到第二階段的網絡中,故采用一個卷積層作為融合層,其輸出可定義為

ffusion=max(0,Wm[frough,fedge]+bm)

(9)

式中,Wm和bm分別為卷積層的權重和偏置。

細節重建網絡由兩個卷積層和n3個殘差塊構成,其中殘差塊由兩個卷積層和一個修正線性單元組成,每個殘差塊的輸出可定義為

fr,n=[W4(W3fr,n-1+b3)+b4]+fr,n-1

(10)

式中:W3和W4分別為該殘差塊中第一層和第二層卷積層的權重;b3和b4分別為對應的偏置;為ReLU函數,fr,n-1為前一個殘差塊的輸出,也是當前殘差塊的輸入,則全局殘差塊輸出為

fout=fr,n3+finput

(11)

式中,fr,n3和finput分別表示最后一個殘差塊的輸出和第一個殘差塊的輸入。

在訓練過程中,利用L1正則化定義內容損失函數content,計算SR圖像與HR圖像之間的最小差別,即

content=‖ISR-IHR‖1

(12)

綜上,總損失函數則可被定義為

total=content+λedge

(13)

至此,兩層漸進式網絡雖然由3部分網絡組成,但是3部分網絡之間呈前后關聯的關系,從而實現了端到端的一個整體的網絡訓練。

2 實驗與結果分析

2.1 實驗環境及數據集選取

實驗環境為NVIDIA Titan X GPU、pytorch 1.0版。選取DIV2K[23]為訓練數據集,其包含800幅訓練圖像,示例如圖4(a)所示。選取BSDS100[24]、Set5[25]、Set14[26]和Urban100[27]數據集為測試數據集,示例分別按列如圖4(b)所示,其包含多類場景圖像。

圖4 數據集選取示例

2.2 訓練策略

圖像預處理分為兩步:第一步,利用式(7)提取DIV2K訓練圖像的軟邊緣,將其作為軟邊緣提取網絡的目標邊緣;第二步,通過雙三次插值的方法將訓練圖像下采樣得到LR圖像,將其作為整個網絡的輸入。網絡中每個殘差塊的輸入和輸出通道數均為64,且殘差塊的卷積核大小均為3×3,其中,n1=12,n2=3,n3=40。

訓練時,迭代周期為750,初始學習率為0.000 1,學習率每隔200個周期減半。網絡的損失函數曲線如圖5所示。

圖5 損失函數曲線

2.3 結果分析

根據PSNR和結構相似性(Structural Similarity,SSIM)客觀評價指標,分別對比改進算法與含有圖像先驗信息的重建算法SelfExSR[27]、A+[28]、級聯結構卷積網絡(Cascaded Structure Convolutional Network Multi-View,CSCN-MV)[29]、SMSR[11]、DEGREE-MV[30](Deep Edge guided Recurrent Residual Multi-View)、ENet[31]、EINet[32]、SeaNet和無圖像先驗信息的重建算法Bicubic、SRCNN、ESPCN、FSRCNN、VDSR、深度遞歸網絡[33](Deeply Recursive Convolutional Network,DRCN)、LapSRN、DRRN[34]、MemNet[35]、MSRN的性能,結果分別如表1和表2所示。計算時需將所有圖像轉換到YCbCr空間并提取Y分量進行計算。

表1 改進算法與含有圖像先驗信息的重建算法的性能對比

表2 改進算法與無圖像先驗信息的重建算法的性能對比

表1中SelfExSR、A+和CSCN-MV均為非神經網絡算法,ENet和EINet為基于GAN架構的重建算法,其余算法為基于CNN架構的重建算法。由表1可知,基于CNN架構的重建算法的PSNR值要高于其余兩類算法。與EINet算法相比,后者使用的是Canny邊緣,而改進算法采用軟邊緣,圖像重建質量更高。對比SeaNet算法,改進算法設計了逐級放大網絡結構,提升了重建放大階段的圖像重建質量,獲得了較好的重建結果。自集成策略是指將測試圖像經過水平翻轉、垂直翻轉和轉換通道后再進行測試,之后對多個結果取均值,可以看出,改進算法引入該策略后性能有所提升。

表2中所列算法均是基于CNN架構的圖像重建算法,由表2可知,采用CNN架構并加入邊緣先驗信息,可以同時提升圖像的重建效果。另外,LapSRN也同樣采用了漸進式策略進行重建,但改進算法結構更復雜,網絡結構更深,因此重建結果更好。

改進算法與非神經網絡的學習模型Bicubic和SelfExSR,以及基于CNN和GAN的神經網絡模型SRCNN、VDSR、LapSRN、MSRN等部分典型重建算法的視覺效果對比分別如圖6和圖7所示。

圖6 4倍放大的部分實驗結果

圖7 8倍放大的部分實驗結果

由圖6和圖7可以看出,改進算法重建結果邊緣清晰可見,而且可以避免鋸齒效應。如圖6中第一組圖,改進算法對比其他算法恢復的邊緣更加清晰連續。如圖7的第二組圖,改進算法恢復的蝴蝶翅膀邊緣更加完整平滑,可以恢復出更清晰的圖像細節信息,圖像重建結果更好。

3 結語

兩層漸進式策略的SISR重建算法將SeaNet網絡框架進行改進,分為放大重建和細節重建兩個階段。在放大重建階段,采用了逐級放大的策略實現LR圖像到SR圖像的重建,保留了圖像更多的細節特征。在放大網絡中采用殘差結構,并在殘差塊中加入了注意力機制,增強了目標圖像的特征。實驗結果表明,改進算法取得的客觀評價指標比其他算法效果好,獲得了更加清晰化邊緣的超分辨率結果,且極大減少了鋸齒效應。下一步SISR研究工作可從以下幾個方面展開:在進行細節重建前,探索粗SR圖像與提取到的軟邊緣圖像進一步融合的策略;嘗試利用圖像其他先驗信息實現SR;結合基于GAN架構的EINet和基于CNN架構的重建算法的優點,得到PSNR和SSIM兩個均優的指標作為未來的研究方向。

主站蜘蛛池模板: 国产精品欧美在线观看| 久久人搡人人玩人妻精品| 99ri国产在线| 色香蕉网站| 国产高清国内精品福利| 精品一区二区三区无码视频无码| 伊人久久大线影院首页| 无码日韩人妻精品久久蜜桃| 在线观看免费国产| 国产区精品高清在线观看| 国产一级毛片网站| 日日噜噜夜夜狠狠视频| 日韩人妻无码制服丝袜视频| 一区二区在线视频免费观看| 亚洲视频欧美不卡| 婷婷综合亚洲| 婷婷久久综合九色综合88| 国产成人一区免费观看| 欧美福利在线观看| 欧美激情福利| 人妻精品久久无码区| 日韩欧美色综合| 亚洲人成在线精品| 九色在线观看视频| 国产麻豆aⅴ精品无码| 欧日韩在线不卡视频| 中文字幕欧美日韩| 欧美一级99在线观看国产| 亚洲国产日韩欧美在线| 中文成人在线视频| 91成人试看福利体验区| 国产97视频在线观看| 免费精品一区二区h| 青青青国产精品国产精品美女| 欧美专区在线观看| 欧美日韩在线第一页| 人人看人人鲁狠狠高清| 91九色国产porny| 亚洲欧洲自拍拍偷午夜色无码| 3p叠罗汉国产精品久久| 亚洲第一视频网| 国产成人久久777777| 国产精品成人观看视频国产| 成年人久久黄色网站| 日韩无码视频专区| 丁香亚洲综合五月天婷婷| 天天激情综合| 国产精品中文免费福利| 日韩精品一区二区三区大桥未久 | 日本高清有码人妻| 国产精品网曝门免费视频| 日韩高清无码免费| 全裸无码专区| 波多野结衣视频网站| 亚洲v日韩v欧美在线观看| 国产精品视频导航| 国产女主播一区| 视频一区视频二区中文精品| 国产成人永久免费视频| 国产XXXX做受性欧美88| 亚洲av无码久久无遮挡| 久热中文字幕在线| 网久久综合| 波多野结衣一级毛片| 国产三级毛片| 国产精品高清国产三级囯产AV| 99青青青精品视频在线| 全色黄大色大片免费久久老太| 成人午夜免费观看| 欧美日韩亚洲综合在线观看 | 日日拍夜夜嗷嗷叫国产| 精品综合久久久久久97| 欧美日韩资源| 999精品视频在线| 欧美黄网在线| 777国产精品永久免费观看| 伊人天堂网| 天天综合网色中文字幕| 日韩a在线观看免费观看| 国产免费网址| 中文字幕在线日本| a级毛片在线免费观看|