999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

內外部梯度聯合約束的圖像超分辨率重建方法

2022-01-14 03:02:28姜紅濤賴少川沈煥鋒
計算機工程 2022年1期
關鍵詞:方法模型

姜紅濤,孫 京,謝 成,賴少川,沈煥鋒,3

(1.中國石化銷售股份有限公司華南分公司,廣州 510130;2.武漢大學資源與環境科學學院,武漢 430079;3.地球空間信息技術協同創新中心,武漢 430079)

0 概述

圖像分辨率是度量圖像質量最為重要的指標之一,圖像分辨率越高,能夠觀察到的細節越多[1]。由于醫學圖像處理[2]、遙感衛星偵察[3]、視頻監控應用[4]及其他許多領域的實際需要,人們對圖像質量的要求越來越高。然而,由于獲取圖像時的外部條件和圖像系統的限制,在圖像的成像、傳輸、存儲過程中,會產生模糊、畸形和噪聲等降質情況。通過改進光學技術和圖像傳感器來提升分辨率,需要花費較高的經濟成本,而且圖像質量的提高也存在極限[1]。圖像超分辨率重建通過對多幅具有互補信息的低分辨率圖像進行處理,重構出一幅或多幅高分辨率圖像[5],可以有效克服現有圖像系統的固有分辨率限制,提升圖像應用能力[6]。

根據輸入低分辨率圖像的數量,超分辨率重建方法分為單幅超分辨率重建和多幅超分辨率重建兩大類。多幅超分辨率重建技術由TSAI等[7]于1984 年提出,其利用多幅具有亞像素位移的圖像提高空間分辨率的頻率域。之后,一些學者在此基礎上進行了改進和發展[8-10]。目前,國內外學者已經構建了多個空域處理的框架[11-13],其中,基于最大后驗估計(MAP)的方法引入正則化理論[13-15],能夠有效、靈活地在解空間添加先驗約束條件[16],成為當前研究的主流框架模型。然而,在很多實際應用中,利用有限數量的先驗參數模型很難獲得大量自然圖像的各種特征,同時,由于缺乏足夠數量的低分辨率退化圖像,重建過程中所能夠利用的幀間互補信息有限,多幅超分辨率重建技術存在缺少高頻細節信息的缺點。

單幅超分辨率重建可以分為基于插值的方法[17]、基于重建的方法[18]和基于學習的方法[19]。目前,基于學習的方法在單幅超分辨率重建的研究上取得了很大的成功,DONG 等[20]構建了三層卷積神經網絡SRCNN,并構造一個端到端的重建網絡,但這種淺層的深度網絡結構,重建的結果完全依賴于學習的特征,缺乏高頻細節。為獲得更好的超分性能,KIM 等[21]在SRCNN 的基礎上,在CNN 訓練中加入了殘差和遞歸結構,以便在單幅超分辨率重建中可以有效訓練深層神經網絡結構。針對基于學習超分辨率重建存在邊緣信息丟失、易產生視覺偽影等問題,謝珍珠等[22]提出基于邊緣增強的深層網絡結構用于圖像的超分辨率重建。然而,這些方法的結果依賴于訓練數據與測試數據的相似性,結果并不可信,而且僅使用外部先驗可能會產生一些偽影。

綜上所述,將多幅超分和單幅超分相結合是進一步提高超分辨率性能的有效途徑[23-24]。本文提出一種結合內外部梯度先驗的圖像超分辨率重建方法。集成深度學習方法的外部梯度先驗和?0范數的內部梯度、亮度聯合約束先驗,利用大量外部數據訓練深度卷積神經網絡,學習低分-高分圖像塊之間的隱射關系,得到初始的高分辨率梯度圖,作為外部梯度約束先驗,同時構建?0范數的梯度與亮度聯合約束作為重建方法的內部梯度約束先驗,通過聯合利用外部梯度先驗和內部梯度先驗的互補優勢,減少重建結果中可能存在的噪聲與偽影效果,增強重建圖像的高頻空間細節信息。

1 內外部梯度聯合約束超分辨率模型

在超分辨率重建過程中,低分辨率觀測圖像可以看作是由高分辨率場景經過一系列的降質過程(包括幾何運動、光學模糊、降采樣以及附加噪聲等)產生[5]。現實環境中的低分辨率序列圖像在獲取過程中經歷的模糊程度大致相同,可以得到如下圖像觀測模型:

其中:z表示重建圖像;gk表示輸入的某一幅低分辨率圖像(k為圖像編號,k=1,2,…,m);Mk、B、D和nk分別表示幾何運動矩陣、模糊矩陣、亞采樣矩陣和附加噪聲。當k=1 時,此觀測模型可以用于單幅超分辨率重建任務。

基于圖像觀測模型,由于低分辨率圖像中包含的信息不足以求解高分辨率圖像,超分辨率重建被證明是一個不適定反問題[25]。而正則化項包含高分解的先驗信息,可以補償丟失的高頻細節,因此,有必要在模型中引入特定的正則化項以獲得穩定解。本文采用基于最大后驗估計(MAP)的超分辨率重建方法,對上述病態問題進行有效的正則化約束,轉化成如下能量泛函最優化問題,通過最小化目標函數來獲得最優的高分圖像:

本文基于最大后驗估計框架,提出一種結合內外部梯度先驗的圖像超分辨率重建方法。通過聯合利用外部梯度先驗和內部梯度先驗的互補優勢,借助高分梯度信息來重建高分辨率圖像。模型表達式如式(3)所示:

其中:Gexternal(?z)為基于深度學習的外部梯度先驗;Ginternal(?z)為來自圖像本身的梯度先驗;λ和β是正則化參數。本文超分辨率重建主要分為如圖1 所示的2 個階段:首先利用網絡學習低分-高分圖像塊對之間的映射關系,通過輸入網絡的低分插值圖來獲得相應的高分圖像,從而得到初步的高分梯度圖,構造變分模型中的外部梯度約束先驗;其次通過構造?0范數的梯度與亮度聯合約束作為內部梯度約束先驗。在重建模型中同時加入內外部梯度先驗進行模型約束,減少重建結果中可能存在的噪聲與偽影,以獲得最優的超分辨率結果。

圖1 本文方法重建流程Fig.1 Reconstruction procedure of the proposed method

1.1 基于深度學習網絡的外部梯度先驗

梯度域在一定程度上有效地反映了自然圖像的高頻細節和邊緣信息,對于外部梯度先驗,可以用式(4)表示:

其中:ze表示通過殘差卷積神經網絡得到的初步高分辨率圖像;?ze=(?x ze,?y ze)為理想高分辨率圖像的梯度向量;?x ze為?ze的水平分量;?y ze為?ze的垂直分量。本文采用非線性深度神經網絡學習低分樣本與對應高分樣本的映射關系,對于圖像梯度的計算,需要分別從水平和垂直方向進行估算,所以得到的外部梯度先驗為:

利用深度網絡估計的初步高分辨率圖像的梯度,分別在水平和垂直方向進行梯度約束,λ1和λ2分別表示水平和垂直方向外部梯度先驗約束的參數。在本文中,采用基于深度遞歸殘差網絡(DRRN)方法[26],將多個殘差單元堆積在一起,如圖2 所示,在整體網絡結構中,將全局殘差學習和遞歸網絡相結合,通過利用全局和局部相結合的殘差學習結構降低訓練深層網絡的難度,同時加入遞歸學習結構用于在增加網絡深度的同時控制模型參數規模。

圖2 基于深度遞歸殘差網絡的超分辨率重建Fig.2 Super-resolution reconstruction based on deep recursive residual network

在本文的深度遞歸殘差網絡中,使用291 幅圖像構造訓練數據集,其中91 幅圖像來自YANG 等[27]提出的稀疏編碼超分辨率重建方法,200 幅圖像來自BSD 數據集[28]。為豐富圖像訓練集,更好地提取圖像特征,提高數據集的泛化能力,對291 幅圖像的訓練數據集進行數據增強,主要包括圖像的翻轉和旋轉,其中圖像旋轉的角度為90°、180°、270°,翻轉方式為水平翻轉。對于每個原始圖像,在訓練數據集中有7 個額外增強版本,同時將訓練圖像分割為64×64 大小的圖像塊,并考慮訓練時間和存儲復雜性,將圖像分割的步長設置為17。在本文的DRRN 網絡結構模型中疊加25 個局部殘差單元塊,用卷積層重建插值圖和高分辨率圖像之間的殘差,通過大量的外部訓練數據得到遞歸殘差網絡的模型參數。深度遞歸殘差網絡學習到的映射關系可以作為外部梯度先驗的獲取途徑,利用網絡學習低分-高分圖像塊之間的映射關系,在測試階段利用學習的映射關系獲得相應的高分圖像,從而得到初步的高分梯度圖,作為變分模型中的外部梯度約束先驗。

1.2 聯合先驗約束的重建方法

在MAP 圖像超分辨率重建模型中,常用的先驗模型有拉普拉斯先驗、TV 先驗、馬爾科夫隨機場先驗等,但由于亮度先驗是基于獨立像素而不是相鄰像素的差值,在圖像恢復中引入了嚴重的噪聲和偽影,而梯度先驗是基于相鄰像素之間的差異,使得恢復后的圖像具有較少的偽影[29]。本文為有效保留紋理細節信息,提高重建圖像質量,在多幅圖像超分辨率重建中采用了亮度和梯度聯合約束先驗,構建的?0范數亮度與梯度聯合約束先驗模型如下:

利用光流估計方法[30]獲得運動位移參數m,采用盲去模糊的方法[29]進行模糊核k估計,根據求得的運動位移m和模糊核k,構建對應的運動矩陣M和模糊矩陣B,因此,通過引入聯合先驗約束模型,令Wk=DBMk,將式(4)和式(6)代入式(3),最終所需求解的能量泛函如下:

重建模型中存在?0范數的先驗項,因此,通過交替方向乘子算法的凸集優化方法[31],添加輔助變量,將非線性優化轉換為求解增廣拉格朗日函數的問題。對于本文的重建模型,通過引入與z和?z相對應的輔助變量u和v,目標函數可以改寫為:

利用增廣拉格朗日的方法,將式(8)轉為無約束的優化問題:

其 中:α和μ是懲罰函數的懲罰參數。固 定z、u和v3 個變量中的2 個來求解另一個,通過對這3 個變量進行循環交替迭代求解,直到過程收斂。最后可以得到重建后的重建圖像z。

2 實驗與結果分析

本文針對的實驗對象是自然圖像,將通過模擬實驗來驗證本文所采用方法對于自然圖像信息重建的有效性,并分別用雙三次內插法、自適應自回歸(ASAR)方法[32]、深度遞歸殘差網絡(DRRN)方法[26]、亮度-梯度聯合約束(L0RIG)方法[33]和本文方法對實驗圖像進行重建實驗,比較分析本文方法的重建效果。實驗以多幀序列圖像中的參考圖像作為DRRN 的輸入圖像,輸出得到初步的高分辨率圖像ze,從而得到聯合重建模型中的外部梯度先驗。將多幀序列圖像輸入到聯合重建模型中,結合內外部梯度先驗約束信息,重建得到一幅高分辨率圖像作為最后的重建結果,重建模型如圖3 所示。

圖3 內外部梯度聯合約束超分辨率重建模型Fig.3 External and internal gradient joint constraint super-resolution reconstruction model

2.1 模擬序列圖像實驗

實驗中的圖像如圖4 所示。對于每一幅原高分辨率圖像,根據式(1)的圖像觀測模型,可以得到4 幅具有0.5 個像素位移的模擬圖像。模糊函數采用支持域為7×7、方差為1 的高斯模糊;通過隔像素取平均的方法對降質圖像進行降采樣,采樣因子設為2;最后每組圖像得到4 幅低分辨率圖像,在實驗中將使用這5 組圖像進行實驗。為評估重建圖像的質量,采用峰值信噪比(Peak Signal to Noise Ratio,PSNR)和結構相似性(Structure Similarity,SSIM)指數作為的評價標準,PSNR 和SSIM 值越大,表示重建結果越理想。

圖4 超分辨率模擬實驗圖像Fig.4 Super-resolution simulation experiment image

在模擬序列圖像實驗中,將本文聯合重建方法與三次內插法、ASAR 方法[32]、DRRN 方法[26]、L0RIG方法[33]處理的結果進行對比分析。以圖4 中的圖像作為模擬實驗數據,圖5 和圖6 給出了不同超分辨率方法的重建結果,矩形顯示了重建圖像的放大區域,以比較不同方法的定性性能,表1 為定量評價指標PSNR 和SSIM 的結果。在視覺效果上,相比其他4 種對比方法,本文方法能夠提供更多的高頻細節信息,有效減少噪聲和偽影。而ASAR 方法[32]的重建結果性能最差,缺少對高頻信息的恢復。DRRN 方法[26]的重建結果噪聲去除性能最好,但有些邊緣被過度平滑,在圖5(c)中,將Lean 圖像重建結果中選擇的區域放大后的圖像顯示,DRRN 方法[26]由于振環偽影效應導致Lean 圖像的眼睛區域存在錯誤重建。L0RIG 方法[33]的結果中明顯存在多處不理想的邊緣偽影,雖然能夠恢復一些丟失的細節,但不能抑制圖像上的噪聲。從圖5 顯示的放大區域可以清晰辨別內外梯度先驗聯合約束的方法,在超分辨率過程中對圖像細節信息的恢復能力要遠勝于其他幾種超分辨率重建方法,能夠獲得更好的定量指標。

表1 不同重建方法的定量結果比較Table 1 Quantitative results comparison for different reconstruction methods

圖5 Lena 在不同方法下的重建結果對比Fig.5 Comparison of reconstruction results of Lena under different methods

圖6 Parrot 在不同方法下的重建結果對比Fig.6 Comparison of reconstruction results of Parrot under different methods

表1 給出了實驗中具體的PSNR 和SSIM 評價指標結果,根據PSNR 和SSIM 兩種客觀評價指標,在對Monarch 圖像的實驗中,ASAR方法[32]的PSNR值為22.581 dB,DRRN方法[26]的PSNR值為23.706 dB,L0RIG 方法[33]的PSNR 值為24.037 dB,本文方法的PSNR 值為25.763 dB。定量結果表明了本文方法有效提高了超分辨率重建性能,通過結合深度學習的外部梯度先驗和?0范數的內部梯度、亮度聯合約束先驗,在保留低頻內容的同時恢復高頻細節,在噪聲去除和邊緣保護上能達到較好的平衡效果,并且在圖像的細節信息恢復上性能更加顯著。

2.2 真實序列圖像實驗

本文展示了兩組真實實驗,文本和磁盤的真實圖像灰度序列是多維信號處理研究組(MDSP)基準數據集[34]的一部分。在真實實驗中,無法用PSNR 和SSIM等指標定量地比較不同超分辨率方法的重建結果,本文采用主觀評價的方法對圖像質量進行評價。將序列圖像的中間幀作為本次重構的參考圖像幀,將圖7(a)和圖8(a)選為參考圖像。圖7(b)和圖8(b)為雙三次內插結果,圖7(c)和圖8(c)為ASAR 方法[32]重建結果,圖7(d)和圖8(d)為DRRN 方法[26]重建結果,圖7(e)和圖8(e)為L0RIG 方法[33]重建結果,圖7(f)和圖8(f)為本文方法重建結果。

圖7 Text 在不同方法下的真實圖像重建結果對比Fig.7 Comparison real image reconstruction results of Text under different methods

圖8 Disk 在不同方法下的真實圖像重建結果對比Fig.8 Real image reconstruction results of Disk under different methods

為了更好地進行視覺比較,將圖7 和圖8 中部分方框區域分別進行放大顯示,該方法還能較好地保留真實圖像中的細節信息,表明超分辨圖像具有較好的視覺質量。從對比結果可以看出,本文算法和亮度-梯度聯合方法都能得到比三次卷積內插結果質量更好的高分辨率圖像,同時,本文算法在視覺上明顯優于ASAR 方法[32]和DRRN 方法[26],重建結果有效的減少圖像中存在的模糊和噪聲,增強圖像的細節信息,能更清晰地重建出圖像上的文字等細節。

3 結束語

本文提出一種基于內外部梯度先驗聯合約束的圖像超分辨率重建方法,利用深度學習的外部梯度先驗和?0范數的內部梯度、亮度聯合約束先驗的互補優勢,增強圖像的先驗信息,借助高分辨率的梯度信息重建超分辨率圖像,從而增強重建結果的高頻空間細節信息,抑制噪聲與偽影。在模擬和真實序列圖像上的實驗結果表明,本文方法能夠提高圖像重建精度,減少模糊和噪聲,增強圖像中的細節信息。本文引入梯度結構并與利用內外部圖像的先驗信息相結合,增強重建圖像的幾何結構,下一步嘗試將模型重建的結果作為神經網絡結構的先驗約束,以生成具有豐富紋理細節的重建圖像。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: AV不卡国产在线观看| 欧美综合激情| 91娇喘视频| 99国产在线视频| 久久人搡人人玩人妻精品| 亚洲美女视频一区| 免费观看男人免费桶女人视频| 久热中文字幕在线| 亚洲欧洲日韩综合| 亚洲欧美天堂网| 99r在线精品视频在线播放| 日韩亚洲综合在线| 妇女自拍偷自拍亚洲精品| 91精品国产一区自在线拍| 四虎国产精品永久一区| 久久狠狠色噜噜狠狠狠狠97视色| 亚洲午夜久久久精品电影院| 欧美色视频在线| 亚洲综合经典在线一区二区| 国产真实乱了在线播放| 一本大道东京热无码av| av在线5g无码天天| 亚洲精品无码成人片在线观看| 国内精品视频| 人人91人人澡人人妻人人爽| 国产精品一老牛影视频| 美女被操黄色视频网站| 日韩欧美亚洲国产成人综合| 国产精品久久久久久久伊一| 国产精品流白浆在线观看| 亚洲首页在线观看| 欧美国产菊爆免费观看| 日本三区视频| 亚洲免费播放| a级毛片一区二区免费视频| 激情视频综合网| 成人在线综合| 久草视频中文| 奇米影视狠狠精品7777| 最新国语自产精品视频在| 91精品国产自产91精品资源| 亚洲欧美日韩天堂| 四虎永久在线视频| 国产精品九九视频| 欧美精品另类| 日本免费一区视频| 成人在线亚洲| 亚洲成aⅴ人在线观看| 麻豆国产精品一二三在线观看| 欧美精品二区| 久久99国产精品成人欧美| 高清免费毛片| 91视频99| 在线亚洲小视频| 久久综合AV免费观看| 久久综合九九亚洲一区| 99在线视频精品| 丝袜亚洲综合| 日韩AV无码免费一二三区| 91在线激情在线观看| 欧美精品一区在线看| 国产主播福利在线观看| 亚洲区欧美区| 亚洲日本一本dvd高清| 亚洲福利视频网址| 色屁屁一区二区三区视频国产| 亚洲国产成人久久精品软件| 欧美亚洲一区二区三区导航| 成人永久免费A∨一级在线播放| 亚洲人成网站日本片| 97超碰精品成人国产| 欧美日韩精品在线播放| 制服丝袜无码每日更新| 亚洲欧美一区二区三区麻豆| 日本不卡在线播放| 天天干天天色综合网| 99国产精品国产| 欧美不卡视频在线| 在线精品自拍| 广东一级毛片| 嫩草影院在线观看精品视频| AV天堂资源福利在线观看|