999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于L曲線調(diào)參的FOTV-ADMM超分辨率圖像重建*

2021-08-30 01:45:14楊曉梅徐秋怡田巧玉
電訊技術(shù) 2021年8期
關(guān)鍵詞:細(xì)節(jié)效果

徐 文,楊曉梅,徐秋怡,田巧玉,劉 凱

(1.四川大學(xué)錦江學(xué)院 電氣與電子信息工程學(xué)院,四川 眉山 620860; 2.四川大學(xué) 電氣工程學(xué)院,成都610207;3.中央民族大學(xué) 信息工程學(xué)院,北京100081)

0 引 言

大數(shù)據(jù)信息時代,超分辨率圖像重建技術(shù)通過軟件編程的方式來提高圖像的分辨率,在沒有替換原有的成像設(shè)備前提下,從包含不同細(xì)節(jié)的低分辨圖像中采集有用信息融合成一幅高分辨圖像。其技術(shù)主要的思想是用同一場景的圖像序列的時間分辨率來換取更高的一個空間分辨率[1]。通過超分辨重建的方法處理視頻圖像就是從多個低分辨率圖像中連續(xù)幀之間的相關(guān)聯(lián)系來得到原始圖像中高分辨圖像的相關(guān)信息,獲得更清晰、分辨率更高、內(nèi)容信息更加豐富的圖像視頻信息。超分辨率圖像和視頻重建在監(jiān)控設(shè)備、衛(wèi)星圖像和醫(yī)學(xué)影像等領(lǐng)域都有重要的應(yīng)用價值。

20世紀(jì)80年代,Tsai和 Huang[2]首先發(fā)現(xiàn)了基于序列或多幀圖像的超分辨率重建問題,他們通過實驗分析且證明了從互相平移得到的圖像序列中能夠獲取到分辨率更高的靜態(tài)圖像,并且給出了在從時域轉(zhuǎn)換到頻域里解決問題的方法。近年來,壓縮感知增強技術(shù)和超分辨率圖像復(fù)原技術(shù)為圖像復(fù)原的研究注入了新的力量[3-9]。人工智能中深度學(xué)習(xí)的發(fā)展,突破了圖像的分割和分類的傳統(tǒng)技術(shù),特別是基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的單幅圖像重建(Super-Resolution CNN,SRCNN)[10]算法能夠快速重建高分辨率的圖像。但SRCNN算法對網(wǎng)絡(luò)參數(shù)敏感,要求訓(xùn)練參數(shù)稠密,減緩了訓(xùn)練速度,對細(xì)節(jié)恢復(fù)效果欠佳。VDSR(Accurate Image Super-Resolution Using Very Deep Convolutional Networks)[11]算法提出只針對殘差進(jìn)行訓(xùn)練,減輕了網(wǎng)絡(luò)的負(fù)擔(dān),又加速了學(xué)習(xí)速率。再之后的SRGAN(Super-Resolution GAN)[12]等算法將生成式對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)用于SR問題,提升重建圖片的真實感。

從數(shù)學(xué)角度看,超分辨率重建是一個典型的病態(tài)不適應(yīng)問題[13]。 對于不適應(yīng)問題,正則化的求解方法是非常有效的。正則化的方法為保證求解過程的穩(wěn)定性,通過加入性質(zhì)不同的先驗信息來約束重建過程,從而將超分辨率圖像重建由病態(tài)轉(zhuǎn)為良態(tài)問題。相對于深度學(xué)習(xí)圖像處理問題,基于三層神經(jīng)網(wǎng)絡(luò)SRCNN算法雖然通過使用較大的卷積核可以減少計算量,但卷積計算時大量丟失高頻信息,對于紋理的處理仍然出現(xiàn)過平滑,特征的提取不夠準(zhǔn)確,重建質(zhì)量受到影響。SRGAN算法能提升高頻圖像真實感,但仍存在放大細(xì)節(jié)部分的像素塊模糊[12]。 考慮到此類模型訓(xùn)練的數(shù)據(jù)量龐大與研究設(shè)備費用高昂問題,本文仍堅持以傳統(tǒng)非深度學(xué)習(xí)的方法為研究重點,探討正則項的選取對于圖像高頻紋理細(xì)節(jié)重建保持問題,分析超分辨率圖像重建的過平滑現(xiàn)象根源,改善圖像重建質(zhì)量。

2 超分辨率圖像重建方法

本文提出基于傳統(tǒng)的全變分正則化(Total Variation,TV)模型引入了交替方向乘子法(Alternating Direction Method of Multipliers,ADMM)[14]。 ADMM重建算法將有約束的問題轉(zhuǎn)化為無約束的問題,在求解模型中某一個變量的同時固定另一個變量,通過固定迭代的方式更新模型中的每一個變量達(dá)到求解目的。針對TV-ADMM重建效果中出現(xiàn)的問題,本文引入分?jǐn)?shù)階全變分(Fractional Order Total Variation,FOTV)正則項約束的模型,同樣使用ADMM算法進(jìn)行求解,改善超分辨率圖像重建效果。

2.1 ADMM算法

ADMM算法是專門用于解決可分離凸規(guī)劃問題而被提出的一種方法,適用于各類優(yōu)化問題。ADMM算法一般解決的問題形式如下[14]:

minf(x)+g(z)

(1)

s.t.A(x)+B(z)=C。

(2)

式中:x∈n,z∈m,A∈p×n,B∈p×m,C∈p,p、m、n分別為空間的維度;f(x)和g(z)表示的是凸函數(shù);增廣拉格朗日(Lagrangian)函數(shù)用于求解凸優(yōu)化問題,

Lρ(x,z,λ)=f(x)+g(z)+λT(Ax+Bz-C)+

(3)

式中:λ為Lagrangian 乘子,ρ>0為懲罰參數(shù)。

ADMM算法的迭代步驟如下:

xk+1=arg minxLρ(x,zk,λk) ,

(4)

zk+1=arg minzLρ(xk+1,z,λk),

(5)

λk+1=λk+ρ(Axk+1+Bzk+1-C) 。

(6)

式中:ρ>0是懲罰參數(shù)。ADMM迭代算法包括x、z變量極小化和一個對偶變量的迭代。為方便計算,將ADMM算法迭代步驟等價為下列式子,定義參量

r=Ax+Bz-C,

(7)

計算得到

(8)

(9)

(10)

uk+1=uk-Axk+1+Bzk+1-C。

(11)

乘子法和ADMM乘子法類似,把x、z兩個變量一起求解,而ADMM是將目標(biāo)函數(shù)分離求解,和Gauss-Seidel方法迭代一步類似。和乘子法相似,只是用zk+1最小化式子:

(12)

其中用到了對偶式子

(13)

ADMM算法的有效性主要由選取的拉格朗日(Lagrange)乘子決定,可以從算法的收斂性分析中得出。

2.2 基于TV-ADMM的超分辨率圖像重建

超分辨率圖像退化模型表示為[15]

Y=DHMu+n。

(14)

式中:u為高清圖像,Y為低分辨率圖像,D為下采樣因子,H為模糊因子,M為運動因子,n為隨機噪聲,μ為正則化參數(shù),本文中沒有移位變換所以M不考慮為1。基于TV全變分約束的正則化圖像重建模型描述為以下形式:

(15)

模型由保真項和正則項組成,其中正則項φ(u)=TV(u)為全變分[16]可以表示為圖像像素離散梯度之和,即離散梯度的l1范數(shù)形式:

(16)

(17)

(18)

超分辨率圖像重建問題(15)是病態(tài)的逆問題,ADMM算法通過引入變量d替換原模型中的不可微項φ(u),可以得到與其等價的約束優(yōu)化問題:

(19)

對于約束優(yōu)化問題,其增廣拉格朗日乘子函數(shù)

(20)

式中:<>表示內(nèi)積。從而將式(20)轉(zhuǎn)換為兩個子問題m、n。

(1)子問題m:固定u求d

(21)

子問題m可以通過收縮閾值方法求解:

(22)

(23)

(2)子問題n:固定d求u

(24)

問題(24)等價于

(25)

本文中φ(u)=u為正則項,其中Y是輸入的低分辨圖像。用快速傅里葉變換處理公式(25),得

μHTDT(DHu-T)+λT+βTu-βTd=0,

(26)

(27)

更新

λk+1=λ-γβ(dk+1-u) ,

(28)

Yk+1=Yk+(Y-DHuk+1) 。

(29)

2.3 基于L曲線調(diào)參的FOTV-ADMM圖像重建

L曲線是以(‖Axμ-b‖2,‖xμ‖2)為坐標(biāo)所構(gòu)成的一條單調(diào)遞減曲線,該項對應(yīng)于本文模型(15)中的‖Y-DHu‖,這些點與正則化參數(shù)呈一一對應(yīng)的關(guān)系。圖1為Tikhonov正則化的L曲線[17],其中圓圈表示TGSVD正則化的L曲線。

圖1 Tikhonov正則化的L曲線

‖Axμ-b‖2為殘差項,‖Lxμ‖2為正則化解,對于L曲線法來說,作為基本問題需要同時考慮到正則化解和殘差項。圖1中L曲線水平部分與垂直部分的相交處作為正則化最優(yōu)參數(shù)解。由于正則化參數(shù)過大會引起正則化誤差主導(dǎo)水平位置對應(yīng)的正則化解,過小則會使垂直部分對應(yīng)的正則化解主要受到b中的誤差影響,而在相交處,均衡了都較小的一個,因此這個相交點就對應(yīng)了一個最優(yōu)的正則化參數(shù)。所以采用L曲線法,實際上就是為了求出曲線相交處的位置。

自適應(yīng)的離散L曲線算法的關(guān)鍵之處就是適量的移除曲線上的點,來盡可能快速地找到該曲線的相交處。自適應(yīng)算法的流程如下:

Step1 初始化處理,將所有殘差項和正則化解為0的點進(jìn)行移除。

Step2 選出所有的轉(zhuǎn)折點。

Step3 選出真正的相交處。

本文基于L曲線曲率最大的規(guī)則即曲線是二次可微的,求解最大曲率點K(μ):

(30)

式中:ρ=‖Axu-b‖2,η=‖xμ‖2,ρ′表示的是對μ求導(dǎo)。但如果采用的正則化方法求得的正則化參數(shù)是非連續(xù)變動的,則該曲線不可微,所以不能直接求出曲率,需要利用一條曲線去擬合這些離散點去選取正則化參數(shù),接著再尋找相交處的位置,然后從離散點中選擇離擬合曲線相交處最近的點,這個點就是最佳正則化參數(shù)。

分?jǐn)?shù)階理論中出現(xiàn)了不同定義的分?jǐn)?shù)階函數(shù),利用其中的Grümwald-Letnikov(G-L)定義構(gòu)造分?jǐn)?shù)階梯度算子。一般意義下的二次項系數(shù)定義為

(31)

式中:

(32)

(33)

(34)

(35)

(36)

分?jǐn)?shù)階可以表示為

(37)

其中根據(jù)分?jǐn)?shù)階不同階次的幅頻曲線,a的取值范圍為1

在求代價方程(15)最小值的過程中,基于G-L定義選取分?jǐn)?shù)階作為正則項約束,重建問題(15)表示為

(38)

(39)

A=u-μHTDT(DHu-Y)。

(40)

類似于全變分求解,根據(jù)分?jǐn)?shù)階的約束問題,本文使用ADMM算法求解,引入變量p表示au,原目標(biāo)問題變?yōu)橛屑s束的優(yōu)化問題:

(41)

對于分?jǐn)?shù)階優(yōu)化問題,其增廣拉格朗日乘子函數(shù)

(42)

ADMM算法將問題(41)轉(zhuǎn)換為兩個子問題求解。

(1)子問題1:固定u求p

(43)

可以通過收縮閾值方法求解子問題1:

(44)

(2)子問題2:固定p求u

子問題2的求解中涉及到正則化參數(shù)μ的選取。根據(jù)正則項變化連續(xù),本文首先計算該點曲率K(μ),將其設(shè)置為最大曲率點K(μ)max,與之后迭代過程中通過殘差項計算曲率再更新參數(shù)μ。

(45)

問題(45)等價于

(46)

使用快速傅里葉變換處理公式(46),得

(47)

更新拉格朗日乘子和近端映射算子:

λk+1=λ-γβ(pk+1-au),

(48)

Ak+1=u-μk+1HTDT(DHu-Yk+1) 。

(49)

基于參數(shù)自適應(yīng)的FOTV-ADMM算法流程如下:

Step1 初始化ε=1×10-4,γ=2,μ=0.000 3,β=0.008,a=1.2,Y0=Y,u0=FillUnknown(Y)。

Step2 計算Ak+1=uk-μHTDT(DHuk-Yk)。

Step4 引入變量p=au。

Step6 更新正則化參數(shù)μk+1。

Step8 迭代更新λk+1=λk-γβ(pk+1-uk+1),Yk+1=Yk+(Y-DHuk+1)。

Step9 若‖uk+1-uk‖2≤ε停止迭代。

Step10 輸出uk+1。

其中ε為迭代終止閾值,在本文中的u0由Y采用雙線性插值方法填充得到。本文算法均可通過matlab/C++編程實現(xiàn)。算法流程圖如圖2所示。

圖2 算法流程

3 實驗與結(jié)果分析

3.1 實驗設(shè)置及評價指標(biāo)

選取Matlab2014b作為軟件仿真平臺,深度學(xué)習(xí)對比算法環(huán)境為Window7+caffe架構(gòu)+cuda6.0+NVIDIA333.11。分別選取Lena(512×512)、Lena(256×256)、Baboon(512×512)、Caneraman(256×256)、Barbara(512×512)、Pepper(490×490)、Girl(280×280)作為2倍超分辨率圖像的實驗原圖,如圖3所示。

圖3 原始超分辨率圖像

超分辨率圖像重建的結(jié)果往往依靠人眼視覺來判斷,因人而異,作為主觀評價,不能做到統(tǒng)一。

在選擇重建效果評價標(biāo)準(zhǔn)上本文選擇峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和結(jié)構(gòu)相似性度量(Structural Similarity,SSIM)兩種公認(rèn)客觀的評價指標(biāo)來證明本文提出方法的有效性,兩種指標(biāo)越大就代表重建的效果越好[16]。

3.2 各圖像的2倍超分辨率重建結(jié)果對比

實驗選取圖1的5幅原始圖像來做2∶1等間距下采樣,之后以2倍超分辨率來進(jìn)行實驗,對比的算法為Bilinear Interpolation雙線性插值法、Bicubic interpolation雙三次插值法、深度學(xué)習(xí)算法SCRNN和VDSR算法、TV-ADMM和FOTV-ADMM以及基于L曲線調(diào)參的FOTV-ADMM算法(簡寫為AFOTV),模糊核選取高斯模糊。表1為在2倍超分辨率下各算法的客觀實驗效果對比,表2為Lena512在不同算法下2~8倍數(shù)超分辨重建實驗結(jié)果,表3為選取Cameraman256灰度圖像加入高斯噪聲均值為0方差從0.001~0.02變化的高斯噪聲各算法的重建實驗結(jié)果對比,所有實驗迭代次數(shù)為50次。由于篇幅限制只選取部分主觀實驗結(jié)果展示,圖像Lena512帽子邊緣細(xì)節(jié)圖對比分析如圖4所示,Barbara衣服紋理部分如圖5白框標(biāo)注所示。圖6為Lena512圖L曲線參數(shù)調(diào)節(jié)結(jié)果

表1 2倍超分辨率各算法的PSNR和SSIM值對比 單位:dB

表2 Lena(512)2~8倍放大的各方法PSNR和SSIM值對比 單位:dB

表3 不同方差的高斯噪聲下各算法的PSNR和SSIM值對比 單位:dB

圖4 2倍超分辨率Lena帽子細(xì)節(jié)圖實驗效果展示

圖5 2倍超分辨率Babara圍巾細(xì)節(jié)圖實驗效果展示

圖6 Lena512圖L曲線參數(shù)調(diào)節(jié)結(jié)果

(a)不同放大倍數(shù)下各算法重建PSNR值曲線

(b)不同噪聲下各算法重建PSNR值曲線圖7 各算法在不同條件下重建效果曲線圖

圖7(a)為TV-ADMM和FOTV-ADMM算法以及AFOTV-ADMM算法細(xì)節(jié)放大圖。從主觀實驗圖中可以看出在Lena帽子的邊緣和頭發(fā)的紋理細(xì)節(jié)上FOTV重建的圖像比其他方法重建圖像更清晰,細(xì)節(jié)保留效果TV-ADMM法容易丟失部分圖像細(xì)節(jié)紋理信息,帽沿邊緣羽毛出現(xiàn)過平滑現(xiàn)象;Bilinear法整體效果較模糊、細(xì)節(jié)不清晰;Bicubic從Barbara細(xì)節(jié)圖上的紋理效果重建來看稍遜于AFOTV和算法。

FOTV模型算法有獨特的幅頻特性優(yōu)勢,能很好地保留圖像邊緣特征,更多的圖像紋理信息也能保留,有提升高頻的作用,中頻也隨之增強,非線性保留低頻部分。利用分?jǐn)?shù)階不僅能保持圖像邊緣特征,對于處理平滑區(qū)域內(nèi)灰度變化小的紋理細(xì)節(jié)信息也有很好的效果。TV模型是比較經(jīng)典的模型,現(xiàn)實生活中,很多信號是非線性不連續(xù)的,這種約束方法常常模糊圖像的邊緣。AFOTV模型通過L曲線調(diào)節(jié)正則化參數(shù),使復(fù)原圖像邊緣更加清晰,紋理部分也更接近原始圖形,更好地保留了圖像紋理信息。深度學(xué)習(xí)算法在圖像亮度方面的改善是比較明顯的,信噪比(Signal-to-Noise Ratio,SNR)值也有比較好的表現(xiàn),但整體由于深層卷積操作,求解最優(yōu)均方誤差(Mean Square Error,MSE)還是會帶來過平滑現(xiàn)象,對細(xì)節(jié)的恢復(fù)也存在一定問題。VDSR算法采樣殘差網(wǎng)絡(luò)的思想加速了網(wǎng)絡(luò)學(xué)習(xí)速度提升了效率能獲得穩(wěn)定效果,但總的來說深度學(xué)習(xí)算法學(xué)習(xí)要求時間較長,設(shè)備性能要求普遍較高。

由表2可知,放大倍數(shù)越大,AFOTV算法處理的峰值信噪比值也更大一些。圖6中AFOTV算法在2倍放大時處理效果較佳,結(jié)構(gòu)相似度的值要比TV算法大;在其他倍數(shù),較深度學(xué)習(xí)網(wǎng)絡(luò)有較大的差距,但結(jié)構(gòu)相似度性上表現(xiàn)更好。表3和圖7表明,在噪聲較大的時候得益于TV的過平滑重建現(xiàn)象,TV的去噪能力較其他幾種算法好,但對細(xì)節(jié)的還原度上有待改進(jìn);FOTV和AFOTV算法對紋理細(xì)節(jié)恢復(fù)較好,但在對高頻噪聲抑制方面性能還有待提升。

4 結(jié)束語

圖像中灰度變化較緩慢的區(qū)域?qū)?yīng)低頻平滑部分,TV-ADMM算法對于圖像低頻信號的重建有較好的效果,但由于圖像邊緣的灰度值變化快,將連續(xù)高頻率的光滑細(xì)節(jié)處理成分段等值信號容易出現(xiàn)階梯效應(yīng)和過平滑現(xiàn)象。本文提出的FOTV-ADMM算法實驗結(jié)果表明,該算法適合于邊緣比較銳利陡峭的圖像,防止出現(xiàn)過平滑現(xiàn)象的同時能有效保留圖像的細(xì)節(jié)和結(jié)構(gòu)相似度。對于灰度值變化快的區(qū)域,增大正則化參數(shù)有利于提升重建質(zhì)量但不能過大造成平滑,L曲線的調(diào)節(jié)選參不同于傳統(tǒng)手動調(diào)參算法,能有效改善重建質(zhì)量,在國防監(jiān)控,醫(yī)學(xué)診療圖像恢復(fù)等領(lǐng)域具有較大的實用價值。下一步將在降低算法復(fù)雜度和減少訓(xùn)練時間上開展更多的研究應(yīng)用。

猜你喜歡
細(xì)節(jié)效果
按摩效果確有理論依據(jù)
以細(xì)節(jié)取勝 Cambridge Audio AXR100/ FOCAL ARIA 906
迅速制造慢門虛化效果
留心細(xì)節(jié)處處美——《收集東·收集西》
奇妙的細(xì)節(jié)
抓住“瞬間性”效果
中華詩詞(2018年11期)2018-03-26 06:41:34
細(xì)節(jié)取勝
Coco薇(2016年10期)2016-11-29 19:59:58
模擬百種唇妝效果
Coco薇(2016年8期)2016-10-09 02:11:50
決定成敗的,絕不是細(xì)節(jié)
山東青年(2016年1期)2016-02-28 14:25:30
3D—DSA與3D—CTA成像在顱內(nèi)動脈瘤早期診斷中的應(yīng)用效果比較
主站蜘蛛池模板: 国产在线视频自拍| 欧美www在线观看| 亚洲中文字幕97久久精品少妇| 亚洲欧洲日产国产无码AV| 欧美色亚洲| 亚洲天堂自拍| 成人无码区免费视频网站蜜臀| 91精品国产91久无码网站| 1024你懂的国产精品| 91无码国产视频| 试看120秒男女啪啪免费| 亚洲不卡网| 亚洲一级毛片在线播放| 亚洲精品卡2卡3卡4卡5卡区| 国产在线观看一区二区三区| 五月婷婷亚洲综合| 91小视频在线观看| 91免费精品国偷自产在线在线| 国模视频一区二区| 久久精品无码中文字幕| 在线观看国产一区二区三区99| 啦啦啦网站在线观看a毛片| 亚洲一区第一页| 啊嗯不日本网站| 久久综合色天堂av| 无码AV高清毛片中国一级毛片| 久久精品人人做人人爽97| 国产成人91精品免费网址在线 | 国产精品网拍在线| 91一级片| 欧美另类视频一区二区三区| 亚洲免费福利视频| 国产经典三级在线| 国产精品极品美女自在线| 国产精品久久久久婷婷五月| 国产在线98福利播放视频免费| 在线a视频免费观看| 萌白酱国产一区二区| 精品人妻一区二区三区蜜桃AⅤ| 99久久无色码中文字幕| 99久久无色码中文字幕| 日韩一区二区三免费高清| 色九九视频| 她的性爱视频| 欧美激情第一欧美在线| 国产在线视频福利资源站| 国产麻豆精品久久一二三| 久久综合伊人77777| 日韩区欧美国产区在线观看| www.精品国产| 亚洲天堂网2014| 国产美女91呻吟求| 久久亚洲高清国产| 欧美不卡视频一区发布| 国产不卡在线看| 91亚洲视频下载| 国产一区二区免费播放| 国产乱子精品一区二区在线观看| 美女亚洲一区| 国产精品.com| www欧美在线观看| 韩国自拍偷自拍亚洲精品| 国产区免费精品视频| 亚洲系列无码专区偷窥无码| 91久久精品国产| 9cao视频精品| 99成人在线观看| 亚洲A∨无码精品午夜在线观看| 茄子视频毛片免费观看| 国产精品网址在线观看你懂的| 久久鸭综合久久国产| 久久亚洲国产一区二区| 中文字幕中文字字幕码一二区| 午夜小视频在线| 99精品视频九九精品| 久久精品只有这里有| 国产综合日韩另类一区二区| 高清欧美性猛交XXXX黑人猛交| 色吊丝av中文字幕| 激情乱人伦| 久久综合五月| 国产鲁鲁视频在线观看|