999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于內(nèi)-外部互補先驗的亞像素分辨率衍射成像算法研究

2023-08-21 08:45:26石保順吳一凡練秋生
燕山大學學報 2023年4期
關鍵詞:方法模型

石保順,吳一凡,練秋生,?

(1.燕山大學 信息科學與工程學院,河北 秦皇島 066004;2.燕山大學 河北省信息傳輸與信號處理重點實驗室,河北 秦皇島 066004)

0 引言

衍射成像作為相位恢復的一個特例,其研究最早可追溯到20 世紀40 年代。Gabor 利用參考信號線性化相位恢復問題,并因此獲得了1971 年諾貝爾物理獎。20 世紀 50 年代, Karle 和Hauptman 對二進制原子晶體的衍射成像做出了重大貢獻,于1985 年獲得了諾貝爾化學獎。Eric Betzig、Stefan W.Hell 和William E.Moerner 為打破衍射極限的高分辨率熒光顯微鏡的研發(fā)做出了重要貢獻,于2014 年獲得諾貝爾化學獎。高分辨率衍射成像引起了清華大學戴瓊海院士課題組[1]、曹良才課題組[2]和深圳大學屈軍樂課題組[3]的高度重視。他們的研究成果將高分辨率成像帶入了一個新紀元。亞像素分辨率衍射成像(Sub-pixel Resolution Diffraction Imaging,SRDI)旨在利用計算成像技術突破觀測設備像素大小對成像分辨率的限制進行高(超)分辨率衍射成像,該技術成為了突破衍射極限分辨率的重要手段?,F(xiàn)有亞像素分辨率衍射成像方法可分為以下幾大類:傳統(tǒng)像素分辨率衍射成像方法[4-9]、基于亞像素間距(Subpixel-pitch)平移的方法[11-12]、基于多波長的波長掃描方法[13-14]、基于多距離衍射成像的方法[15-17]和基于稀疏性的方法[18-24]。

理論上,傳統(tǒng)像素分辨率衍射成像算法可通過調(diào)整非線性采樣算子或建立合適的優(yōu)化模型用于亞像素分辨率衍射成像。在一些成像領域,例如同軸數(shù)字全息成像,亞像素分辨率成像方法首先利用拼接法、內(nèi)插法或外推法獲得高分辨率衍射強度圖樣[4],然后直接采用像素分辨率衍射成像算法進行高分辨率圖像重建。按照不同的模型、數(shù)值求解方法及利用先驗知識的方式,大致可將現(xiàn)有像素分辨率衍射成像算法分為以下幾大類:交替投影方法、基于最小二乘估計的方法及基于正則化的方法。交替投影法, 例如 GS(Gerchberg Saxton)算法[5],通常尋找同時滿足測量域約束集合(幅值或強度值約束集合)和圖像空域約束集合的交集。該方法簡單、有效,但容易陷入停滯狀態(tài)?;谧钚《斯烙嫷难苌涑上袼惴?例如WF (Wirtinger Flow)算法[6],通常構造最小二乘估計問題,然后利用梯度下降方法對該問題進行求解?;谧钚《斯烙嫷难苌涑上袼惴ㄔ诶碚撋嫌袊栏竦淖C明保證收斂性,但重建高質(zhì)量圖像所需的衍射強度圖樣數(shù)量多。為解決該問題,基于正則化的衍射成像方法通過正則化模型將圖像先驗引入到圖像重建中[7-11]。該類方法首先融合數(shù)據(jù)保真項與蘊含圖像先驗的正則項構建衍射成像優(yōu)化模型,然后利用優(yōu)化方法對所對應的問題進行求解。Tillmann 等人[7]利用盲字典學習框架進行衍射成像,重建性能優(yōu)于未利用任何先驗知識的WF 算法。天津師范大學的?;圪e[8]課題組利用全變差(Total Variation,TV)正則化針對被泊松噪聲污染的測量數(shù)據(jù)進行衍射成像,實驗表明了TV 正則化模型的有效性。Shi 等人[9]構建了一個可學習實例自適應和空間變化閾值函數(shù)的深度收縮對偶框架網(wǎng)絡正則化項,并提出了一種用于衍射成像的深度展開方法,實現(xiàn)了低信噪比下高質(zhì)量重建。同時Shi 等人[10]利用基于加權l(xiāng)1范數(shù)的卷積稀疏編碼模型以及深度展開技術構建了一個模型架構可解釋的先驗模塊,基于該模塊構建了一個模型驅(qū)動的相位恢復網(wǎng)絡。上述方法雖然給亞像素分辨率衍射成像提供了思路并且可作為亞像素分辨率衍射成像方法的一部分,但并未直接給出具體的亞像素分辨率衍射成像算法。

基于亞像素間距平移的方法是通過對光源或樣本進行亞像素間距平移,獲取多幅低分辨率衍射強度圖樣,并利用這些衍射強度圖樣進行高分辨率成像。該類方法最早可追溯到Ozcan[12]課題組對無透鏡片上數(shù)字同軸全息成像系統(tǒng)的研究。他們發(fā)現(xiàn)全息圖并不能無限增大,通過增大全息圖提升分辨率的方法受到了限制。為突破該限制,Ozcan 等人利用小孔在二維平面進行亞像素間距平移并記錄多幅低分辨率全息圖以獲取更多關于原始圖像的信息。實驗表明,通過多幅低分辨率全息圖利用像素超分辨率方法能夠達到亞微米分辨率成像。Ozcan 課題組首次將亞像素的概念引入到無透鏡片上成像系統(tǒng)中,并提出了具體的亞像素分辨率衍射成像方法?;趤喯袼亻g距平移的成像方法[13]通常包含以下幾步:記錄多幅低分辨率衍射強度圖樣、重建高分辨率衍射強度圖樣及圖像再現(xiàn)。重建高分辨率衍射強度圖樣通常融合數(shù)據(jù)保真項和對高頻成分施加約束的懲罰項構建優(yōu)化模型。該優(yōu)化模型可直接求解或迭代求解。圖像再現(xiàn)步驟通常利用基于角譜、菲涅爾變換的反向傳播技術或傳統(tǒng)衍射成像方法重建圖像?;诙嗖ㄩL的波長掃描方法[14-15]首先通過窄光譜帶選擇或壓縮側(cè)照明獲取不同波長的光波,然后利用這些光波多角度依次照明樣本并記錄多幅衍射強度圖樣。該方法與基于亞像素間距平移的方法相比,需要較少的測量數(shù)據(jù)就能夠進行高分辨率成像且不需要亞像素間距平移?;诙嗑嚯x衍射成像的方法是在觀測設備和樣本的不同距離上記錄多幅衍射強度圖樣,利用亞像素分辨率衍射成像技術重構高分辨率圖像[16-18]。該類方法引起了哈爾濱工業(yè)大學的劉正君[17-18]課題組的重視,該課題組提出了對噪聲魯棒的亞像素分辨率衍射成像方法。

上述基于亞像素間距平移、多波長、多距離的方法大都通過構建的光學系統(tǒng)記錄多幅衍射強度圖樣以進行亞像素分辨率衍射成像,但并未考慮圖像的先驗知識,成像質(zhì)量和成像分辨率仍有提升空間?;谙∈栊缘姆椒ɡ孟∈柘闰炦M行亞像素分辨率衍射成像。Song 等人利用l0偽范數(shù)衡量圖像的空域稀疏性,在無透鏡數(shù)字同軸全息系統(tǒng)下實現(xiàn)了超分辨率因子為3 的亞像素分辨率衍射成像。Fournier 等人[19]以l1范數(shù)衡量圖像空域稀疏性提出了基于反問題求解的亞像素分辨率成像算法,實驗結果表明該算法能夠重建高分辨率圖像且能夠減小孿生像及邊界效應的影響。上述算法僅利用了圖像的空域稀疏性,然而,多數(shù)圖像本身并不是稀疏的,而是在某種字典或稀疏變換下是稀疏的,故上述算法應用有限?;谧兎帜P?Vladimir Katkovnik[20-22]課題組利用圖像在BM3D ( Block matching and 3D collaborative filtering)框架下的稀疏性提出了亞像素分辨率衍射成像算法SR-SPAR。該方法通過含泊松噪聲的相位編碼衍射圖樣交替進行菲涅爾幅值約束和BM3D 濾波,實驗證實其重建質(zhì)量優(yōu)于SR-GS 算法(根據(jù)GS 算法改編的亞像素分辨率成像算法)。上述方法通過薄透鏡和空間光調(diào)制器對觀測圖像進行相位編碼,硬件復雜度高。隨后,他們舍棄了薄透鏡,直接利用空間光調(diào)制器對觀測圖像進行孔徑相位編碼,并通過角譜變換建模光波傳播過程,實現(xiàn)了超分辨率因子為4 的亞像素分辨率成像。在低信噪比情況下,該算法仍然能夠高質(zhì)量成像[22]。SR-SPAR 算法構建的數(shù)據(jù)保真函數(shù)是非平滑的,算法收斂性難以保證。為解決該問題,Bacca 等人[23]對數(shù)據(jù)保真函數(shù)進行了平滑處理,利用TV 正則項構建了成像模型。實驗表明,在超分辨率因子為4 時,Bacca 等人的算法成像質(zhì)量優(yōu)于SR-SPAR 算法。Gao 等人[24]以WF 框架為基礎引入Nesterov 動量用以加速算法收斂,提出了AWFTV 算法,并利用梯度稀疏性重建圖像。該算法在保證重建質(zhì)量的同時減少了測量數(shù)據(jù),加快了收斂速度。上述利用稀疏先驗進行亞像素分辨率衍射成像的算法是通過解析方法構建的先驗模型,難以充分描述所有圖像的統(tǒng)計分布信息。為解決該問題,Shi 等人[25]提出了融合深度去噪器先驗的稀疏表示正則化模型,有效提高了亞像素分辨率衍射成像的成像質(zhì)量及分辨率,并通過實驗證明了深度去噪器先驗在實圖像上亞像素分辨率衍射成像的有效性。

為提高亞像素分辨率衍射成像的成像質(zhì)量及分辨率,現(xiàn)有亞像素分辨率衍射成像方法大多是利用圖像固有的先驗知識設計或?qū)W習正則項來約束重建過程?;趫D像內(nèi)部先驗的方法利用待重建圖像本身的先驗信息,如空域稀疏性、梯度稀疏性及非局部相似性等,忽視了圖像之間普遍存在的外部先驗信息,即通過外部數(shù)據(jù)集學習到的先驗。基于圖像間共有外部先驗的方法例如基于深度卷積網(wǎng)絡的成像方法,通常需要大量難以獲取的高分辨率圖像進行訓練,且存在泛化能力較差的問題。為彌補這些不足,本文將能夠利用圖像非局部相似性的BM3D 框架與能夠捕獲外部先驗特征的深度卷積稀疏編碼模型相結合,提出了一種面向復圖像的亞像素分辨率衍射成像算法,簡稱SRDI-doubleR。理論上該方法能夠利用內(nèi)部先驗與外部先驗的互補性進行衍射成像,進而提升重建復圖像過程中偽影去除和細節(jié)保留能力。與現(xiàn)有亞像素分辨率衍射成像相比,本文提出的算法有望重建出更高分辨率、更高質(zhì)量且具有更多細節(jié)的復圖像。

1 亞像素分辨率衍射成像

亞像素分辨率衍射成像旨在從記錄的低分辨率衍射圖樣中恢復高分辨率圖像。圖1 給出了亞像素分辨率衍射成像的示意圖。在物體平面上,連續(xù)物體由大小為Δo×Δo的像素離散化。與傳感器的固定像素大小Δs×Δs相反,物體的像素大小Δo是可計算的。當Δo<Δs時,從觀測數(shù)據(jù)中恢復具有小像素尺寸的物體,該成像過程稱為亞像素分辨率衍射成像。一束相干光照射物體,經(jīng)光學系統(tǒng)調(diào)制后到達傳感器平面,此衍射過程可通過角譜法計算的線性變換過程進行建模。入射光到達傳感器平面后,入射到同一像素上的所有光子都被轉(zhuǎn)換成單個強度信號,在數(shù)學上,強度信號可以被認為是對應子像素信號的加權和。在超分辨率因子為2 的情況下,物體的像素尺寸是傳感器像素尺寸的2 倍,物體的像素數(shù)是傳感器像素數(shù)的4 倍,經(jīng)傳感器采樣獲得低分辨率衍射圖案的像素值是對應4 個子像素值的總和。理論上,亞像素分辨率衍射成像采樣模型可以建模為

圖1 亞像素分辨率衍射成像說明圖Fig.1 Subpixel resolution diffraction imaging figure

其中,x=|x|exp(j∠x)∈Cn表示觀測樣本的復透射率即待重建復圖像,|x|∈Rn和∠x∈Rn分別表示x的振幅和相位圖像。n表示加性高斯白噪聲對應的向量,A?∈Cm×n表示L個采樣矩陣構成的集合中第?個采樣矩陣,y?∈Rd表示傳感器采集到的衍射強度圖樣。S∈Rd×m表示傳感器像素的下采樣算子,其中m=Υd,Υ表示下采樣因子。|·|及下文中均表示逐元素運算符。

根據(jù)最大后驗概率準則,從低分辨率衍射強度圖樣y中重建觀測樣本x的優(yōu)化模型可表示為

式中,第一項為數(shù)據(jù)保真度項,由于低階振幅的數(shù)據(jù)保真度函數(shù)更有利于加快算法收斂,且文獻[26]驗證了利用低階保真度函數(shù)作為亞像素分辨率相位恢復中數(shù)據(jù)保真度函數(shù)的優(yōu)越性能,本文構建的數(shù)據(jù)保真度項保證重建振幅圖樣逼近觀測振幅圖樣。第二項為正則化項,可通過該項引入圖像的先驗知識,λ為正則化參數(shù)用以平衡數(shù)據(jù)保真項和正則化項的比重。

式(2)定義的優(yōu)化問題可采用近端梯度算法進行求解,但由于近端梯度算法收斂較慢,AWFTV算法引入Nesterov 動量項加速算法收斂。具體迭代步驟如下(以第t次迭代為例):

其中,?F(·)為數(shù)據(jù)保真函數(shù)的Wirtinger 梯度,?為步長。AWFTV 框架根據(jù)Nesterov 方法令動量項的參數(shù)βt=t/(t+3);u(0)=x(0)。prox(·)為鄰近算子,其定義為

其中,TV(·)表示TV正則化項。

當式(6)中λ=0 時,則為AWF 算法。該算法較AWFTV 算法缺少正則項約束,未能利用圖像的梯度稀疏先驗知識,因此其重建質(zhì)量通常較低。

2 融合內(nèi)-外部互補先驗的亞像素分辨率衍射成像算法

2.1 基于BM3D 框架的表示模型

BM3D 算法[27]是利用圖像自身冗余信息進行去噪的非局部算法,過程主要分為三個步驟:

1) 分組:將輸入圖像分成大小相同的塊,通過塊間歐式距離在鄰域內(nèi)搜索參考塊的相似塊并將參考塊與相似塊堆疊成三維數(shù)組,構造若干三維數(shù)組。

2) 協(xié)同濾波:對三維數(shù)組經(jīng)變換后的系數(shù)矩陣進行硬閾值濾波。

3) 合成:對濾波后的頻譜進行反演,計算每個塊的估計值并將圖像塊放回原始位置,利用加權平均值得到最終重建圖像。

BM3D 算法的過程可通過框架表示[28],其解析框架表示模型為

其中,w為表示系數(shù),B表示相似塊組成的組數(shù)。解析算子Ψb定義為

其中,Jb={jb,1,…,jb,K}表示第b組中圖像塊索引的集合,每組中圖像塊的總數(shù)為K。dj表示1D 塊間變換D1的第j列,D2表示1D 塊內(nèi)變換,Bj表示整個圖像的取塊算子。估計圖像由組估計中塊的加權平均值獲得,權重為gb。與上述推導類似,綜合框架模型可表示為

針對實值圖像x的去噪問題,BM3D 去噪框架可描述為

其中,Hσ表示閾值為噪聲標準差σ的硬閾值算子。

本文根據(jù)上述表示模型,利用BM3D 的解析框架構建正則化模型以利用圖像的非局部相似性。本文將基于復圖像x內(nèi)部塊相似性先驗的正則項定義為

其中,λ表示正則化參數(shù)。

2.2 基于外部先驗的卷積稀疏編碼正則化模型

深度展開卷積稀疏編碼是將傳統(tǒng)卷積稀疏編碼迭代過程展開成深度神經(jīng)網(wǎng)絡,其優(yōu)化模型可表示為

其中,D表示卷積字典,α表示對應的表示系數(shù),γ表示正則化因子。φ(·)表示α的稀疏懲罰函數(shù),通常采用‖·‖0或‖·‖1衡量稀疏性。上式中,,?表示二維卷積算子,C表示通道數(shù)。

式(13)中第一項為圖像在卷積字典下的表示誤差,第二項是對表示系數(shù)進行稀疏約束的正則項。傳統(tǒng)方法通常通過交替優(yōu)化方法求解上述優(yōu)化問題,即卷積稀疏編碼步驟和卷積字典更新步驟交替進行。深度卷積稀疏編碼將上述交替迭代的過程展開成網(wǎng)絡,卷積字典和超參數(shù)均通過端到端的方式進行學習。學習過程中,代表N個訓練樣本對,xi代表噪聲圖像,代表干凈圖像。式(13)可表示為雙層優(yōu)化問題

其中,L(:,:)表示損失函數(shù),σi表示xi的噪聲水平。式(14)約束項定義的優(yōu)化問題可以通過ISTA 迭代求解:

其中,S表示收縮(Shrinkage)函數(shù),λ,η表示超參數(shù),rot180(D)表示D旋轉(zhuǎn)180°?,F(xiàn)有的深度展開方法通過兩個DNN 模塊來參數(shù)化α和D以構建網(wǎng)絡架構。然而參數(shù)化兩個獨立的卷積模型違反了數(shù)學約束(rot180(D)和D滿足轉(zhuǎn)置約束),背離了卷積字典的物理意義。此外,參數(shù)化一個通用字典D來表示所有圖像,削弱了圖像表示的靈活性。為解決上述深度展開卷積稀疏編碼的局限性,文獻[29]提出了一種新的深度展開框架,即DCDicL 算法。該算法針對每張圖像采用自適應的字典,從大量數(shù)據(jù)中學習字典D并求解表示系數(shù)α,其優(yōu)化模型為

將上式轉(zhuǎn)化為雙層優(yōu)化問題

DCDicL 方法通過求解式(17)的約束項對應的優(yōu)化問題,并將求解的迭代過程展開成網(wǎng)絡。網(wǎng)絡訓練過程中,損失函數(shù)定義為式(17)中所對應的代價函數(shù), 并采用基于梯度的 ADAM(Adaptive moment estimation)方法[30]對待學習的網(wǎng)絡參數(shù)θ進行更新。為分離式為求解式(17)中的約束項對應的優(yōu)化問題,引入輔助變量D′和α′,轉(zhuǎn)化為求解以下兩個優(yōu)化問題:

展開的每個階段中數(shù)據(jù)項α′和D′的子問題通過閉式解求得,將先驗項α和D的子問題看作兩個鄰近算子,通過兩個網(wǎng)絡近似求解,最終自適應的獲得每個圖像的α和D估計。

根據(jù)上述深度展開卷積稀疏編碼模型,本文采用經(jīng)DCDicL 算法事先訓練好的深度展開的卷積字典表示圖像,并將復圖像基于深度展開卷積稀疏編碼的正則化項表示為

其中,α1和α2表示振幅和相位圖像的表示系數(shù),β表示控制振幅圖像和相位圖像表示誤差比重的正則化參數(shù),γ1和γ2用以控制稀疏正則項的比重。

2.3 優(yōu)化模型

為提升亞像素分辨率衍射成像的重建質(zhì)量,充分挖掘圖像固有先驗,本文結合基于BM3D 框架的內(nèi)部先驗與基于深度展開卷積稀疏編碼模型的外部先驗,構建能夠融合內(nèi)部和外部先驗的優(yōu)化模型

其中,λ1和β1表示控制內(nèi)部先驗和外部先驗比重的正則化參數(shù)。式中第一項為用以保證重建圖像與測量數(shù)據(jù)相匹配的數(shù)據(jù)保真項,第二項和第三項分別表示基于BM3D 算法框架與基于深度展開卷積稀疏編碼模型的正則化項,二者的結合以充分挖掘圖像固有先驗信息。

2.4 模型求解

由于式(21)中每一項均包含變量x,引入輔助變量u,v用以去耦合,將其轉(zhuǎn)化為

采用半二次分裂方法對上式進行求解,即

具體迭代步驟如下(對于第t次迭代)

1) 更新圖像x

采用梯度下降方法對式(24)定義的優(yōu)化問題進行求解,代價函數(shù)的Wirtinger 梯度可表示為

因此式(24)中復圖像x(t)更新為

其中,τ表示步長。

2) 更新輔助變量u

其中λ2=λ1λ。求解過程在將復圖像x,u的振幅和相位視為單獨變量,式(27)可分解為以下兩個優(yōu)化問題

上述兩個優(yōu)化問題在數(shù)學上難于精確求解,本文中將式(28)~(29)看作兩個鄰近算子采用BM3D 去噪器進行近似求解[22],即

其中,σ1,σ2分別表示輸入的振幅和相位圖像的噪聲標準差。

3) 更新變量α1,α2,v

固定變量x(t)、u(t),更新輔助變量α1,α2,v的優(yōu)化問題為

其中,β2=β1β。

對復圖像v的振幅和相位分別進行求解,將式(32)分解為以下兩個優(yōu)化問題:

式(33)~(34)求解過程類似,為簡化推導,以式(33)為例。將式(33)分解為優(yōu)化α1和|v|的兩個優(yōu)化模型

求解式(35)是典型的卷積稀疏編碼問題,本文采用DCDicL 算法訓練好的深度卷積字典進行卷積稀疏編碼,的求解過程采用DCDicL 算法中表示系數(shù)的求解方法。要獲得式(36)的最優(yōu)解,∠x(t)與∠v(t-1)需相等,因此將該式化簡為

對式(37)代價函數(shù)中|v|求導,并令其導數(shù)為零,最終獲得|v(t)|的閉式解為

更新輔助變量v的相位∠v過程與更新振幅|v|的過程同理,∠v(t)的閉式解為

通過交替更新圖像x、輔助變量u、表示系數(shù)α1,α2和輔助變量v求解式(21)定義的優(yōu)化問題能夠獲得滿意解。SRDI-doubleR 算法具體實現(xiàn)步驟如下:

輸入:測試數(shù)據(jù)y,循環(huán)迭代次數(shù)Iiter,每次循環(huán)中梯度下降迭代次數(shù)kk

1:初始化xinit

2:fort=1:Iiter

3: fork=1:kk

4: 根據(jù)x(t,k)=x(t-1,k)-τ?f(x(t-1,k))更新復圖像x

5: end

6:根據(jù)|u(t)| =ΨBM3D(|x(t)|,σ1) 和∠u(t)=ΨBM3D(∠x(t),σ2) ,利用BM3D 去噪器更新輔助變量u

7:利用DCDicL 算法訓練好的深度卷積字典更新α1和α2

8:根據(jù)式(38)、(39)關于|v(t)|和∠v(t)的閉式解更新輔助變量v

10:end

輸出:重建振幅圖像|x|和相位圖像∠x

3 結果與討論

本文采用文獻[26]中基于相位調(diào)制分集的全息成像系統(tǒng),其采樣模型y?=S|A?x|2+n中采樣矩陣A?=QHM?,M?∈Cn×n表示通過SLM 僅進行相位調(diào)制的算子、H∈Cn×n表示自由空間傳播算子和Q∈Cm×n表示圖像裁剪算子,用以模擬傳感器空間大小的約束過程。所有實驗均采用隨機初始值,隨機種子固定。本文采用峰值信噪比(Peak Signal to Noise Ratio, PSNR)、結構相似性(Structure Similarity Index Measure, SSIM)和均方根誤差(Root Mean Square Error, RMSE)作為客觀指標。PSNR 值越高,說明圖像重建質(zhì)量越高;SSIM 值越高,說明兩幅圖像相似程度越高;RMSE值越低,說明重建圖像與原始圖像偏差越小。所有實驗均在Intel Core i9-10850K@3.60 GHz、內(nèi)存64GB、NVIDIA GTX 3080 Ti GPU 平臺運行。

3.1 仿真實驗

圖2 測試圖像Fig.2 Test images

3.1.1 內(nèi)-外部先驗對重建結果影響分析

為驗證內(nèi)-外部先驗融合的有效性,本節(jié)利用SRDI-doubleR、SRDI-BM3D 和SRDI-DCDicL 算法進行亞像素分辨率衍射成像實驗并對比其實驗結果。圖3 給出了測試圖像在L=8,Υ=2×2 情況下三種算法重建復圖像的平均PSNR 和SSIM 值的比較,從圖中可以看出SRDI-doubleR 算法的平均PSNR 和SSIM 值在振幅和相位圖像上均高于基于內(nèi)部先驗的SRDI-BM3D 算法和基于外部先驗的SRDI-DCDicL 算法,說明了本文算法融合內(nèi)部和外部先驗的有效性。

圖3 L=8,Υ=2×2 情況下不同算法平均PSNR 和SSIM 值比較Fig.3 Comparison of average PSNR and SSIM values for different algorithms in the case of L=8,Υ=2×2

3.1.2 不同采樣因子重建結果對比

為驗證本文算法的有效性,本節(jié)針對不同采樣因子情況,比較本文SRDI-doubleR 算法與AWF、AWFTV[24]、DIPTV[31]、PatchNRTV[32]算法重建復圖像的性能。針對不同采樣因子SRDIdoubleR 算法的參數(shù)通過經(jīng)驗調(diào)整設置,迭代次數(shù)設置為300 次,每次迭代中梯度下降次數(shù)設為10次,其他參數(shù)設置如表1 所示。本文通過小波域估計算法[33]對噪聲標準差進行估計,采用與文獻[20]輸入噪聲標準差相同的計算方式,即估計標準差乘以常數(shù),CA和CP分別表示振幅和相位圖像估計標準差所乘常數(shù)。

表1 SRDI-doubleR 算法參數(shù)設置Tab.1 Parameter settings of the SRDI-doubleR algorithm

表2 中給出了不同算法在Υ=2×2 及Υ=4×4兩種情況下重建三組復圖像的振幅和相位圖像的PSNR、SSIM 和RMES 值。由表2 可知,本文所提出算法在不同采樣因子下PSNR、SSIM 和RMSE值均明顯高于對比算法。AWF 算法未能充分利用圖像固有先驗信息,重建性能較差,AWFTV 算法較AWF 算法充分利用了圖像的梯度稀疏先驗,重建性能具有顯著提升。DIPTV 和PatchNRTV 算法屬于無監(jiān)督方法,重建性能比AWFTV 算法較差。本文算法通過融合內(nèi)部與外部互補先驗知識,充分挖掘編碼衍射強度圖樣中的信息,重建復圖像的性能較AWFTV 算法具有顯著提升。

表2 Υ=2×2 和Υ=4×4 情況下不同算法重建圖像PSNR、SSIM 和RMSE 值的比較Tab.2 Comparison of PSNR,SSIM and RMSE values of images reconstructed by different algorithms in the case of Υ=2×2 and Υ=4×4

為進一步說明算法的有效性,圖4 展示了采樣因子Υ= 4×4 時,不同算法重建Cameraman-Peppers 復圖像的視覺效果及部分放大效果圖。由重建圖像及放大部分可以看出,AWF 算法重建效果較差,重構的振幅及相位圖像均存在大量偽影并且細節(jié)大量缺失,重建的Peppers 圖像偽影和模糊較為明顯;DIPTV 算法也存在較多的偽影,在重建的相位圖像中偽影較多;PatchNRTV 算法重建的復圖像存在少量偽影,去偽影能力優(yōu)于AWF算法和DIPTV 算法,但在重建過程中仍缺失部分細節(jié)信息;AWFTV 算法重建復圖像整體效果優(yōu)于AWF、DIPTV 和PatchNRTV 算法,但也存在少量的偽影及細節(jié)信息的缺失;本文提出的SRDIdoubleR 算法重建復圖像視覺效果較好,能夠消除偽影并且重建出了更多的細節(jié)信息。

圖4 Υ=4×4 情況下不同算法重建Cameraman (A)-Peppers (P)圖像的對比Fig.4 Comparison of different algorithms to reconstruct Cameraman (A)-Peppers (P) images in the case of Υ=4×4

3.1.3 不同編碼衍射圖樣數(shù)量重建結果對比

本文針對不同編碼衍射圖樣數(shù)量情況,將本文SRDI-doubleR 算法與AWFTV 算法重建復圖像的性能進行比較。圖5 給出了兩種算法在下采樣因子Υ=2×2 為時L分別為4、8、16、32 情況下重建復圖像的PSNR 值曲線圖。從圖中可以明顯看出兩種算法重建振幅圖像和相位圖像時隨著編碼衍射圖樣數(shù)量的增加,重建效果顯著增強。在Cameraman-Peppers 和Boats-Lena 兩組復圖像的重建過程中,SRDI-doubleR 算法重建的振幅圖像和相位圖像的PSNR 值均比AWFTV 算法高2~3 dB左右,Blood cell-Pollen 復圖像在L= 4、8、16 情況下SRDI-doubleR 算法重建的振幅和相位圖像的PSNR 值高于AWFTV 算法的PSNR 值,在L= 32時AWFTV 算法重建的振幅和相位圖像的PSNR值略優(yōu)于SRDI-doubleR 算法。

圖5 不同L 情況下SRDI-doubleR 與AWFTV 算法重建復圖像PSNR 值比較Fig.5 Comparison the PSNR values of complex images reconstructions with the SRDI-doubleR and AWFTV algorithms under different L conditions

3.2 物理實驗

為驗證算法在實際數(shù)據(jù)中的性能,本文采用由全息成像系統(tǒng)[24]獲得的實際低分辨率衍射強度圖樣測試本文算法,系統(tǒng)配置的詳細描述可參考文獻[34]。上采樣率設置為Υ=2×2,分別選取張編碼強度圖樣,圖6 給出了AWF、AWFTV 及SRDI-doubleR 算法重建相位型鑒別率板實際數(shù)據(jù)的效果圖。由于成像系統(tǒng)建模誤差不可避免,且實驗發(fā)現(xiàn)算法在實際數(shù)據(jù)中更容易收斂,因此上述三種算法的循環(huán)迭代次數(shù)較仿真實驗均減少10倍。從圖6 中可以看出隨著編碼衍射強度圖樣數(shù)量的增加重建質(zhì)量不斷提升,SRDI-doubleR 算法較AWF 和AWFTV 算法偽影減少,重建出了更多的高頻細節(jié)信息。在光學實驗中,偽影不僅源于測量噪聲,而且源于成像系統(tǒng)的建模誤差,這些誤差在實際應用中是不可避免的[24]。

圖6 重建相位型鑒別率板實際數(shù)據(jù)的效果圖對比.Fig.6 Comparison of renderings reconstructed the actual data about the phase type discrimination rate plate

4 結論

本文利用基于內(nèi)部先驗的BM3D 框架與基于外部先驗的深度展開卷積稀疏編碼模型構建了一種能融合內(nèi)-外部互補先驗的正則化模型,并將其用于亞像素分辨率衍射成像。該算法能夠有效融合內(nèi)部與外部互補先驗知識,利用少量編碼衍射圖像對復圖像進行重建,實驗結果表明該算法在仿真數(shù)據(jù)中重建復圖像的質(zhì)量優(yōu)于現(xiàn)有亞像素分辨率衍射成像。將該算法用于無透鏡片上顯微鏡的實際數(shù)據(jù)中,該算法較利用梯度稀疏性的AWFTV 算法能夠重建出更多的高頻細節(jié)信息。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
學習方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 国产成人精彩在线视频50| 一本大道无码高清| 午夜日b视频| 国产人成网线在线播放va| 国产美女在线观看| 思思热精品在线8| 亚洲国产精品无码AV| 久久这里只有精品2| 波多野结衣的av一区二区三区| 福利在线免费视频| 国产成人免费| 亚洲美女久久| 亚洲精品国产综合99久久夜夜嗨| 中文字幕在线观看日本| 色综合综合网| 三区在线视频| 亚洲欧洲天堂色AV| 亚洲中文字幕23页在线| 精品无码一区二区三区电影 | 深夜福利视频一区二区| 亚洲AⅤ无码国产精品| 91精品免费高清在线| 国产高清在线观看91精品| 亚洲男人的天堂视频| 国产在线精品人成导航| 丁香五月婷婷激情基地| 精品伊人久久久久7777人| 亚洲人精品亚洲人成在线| 国产午夜福利在线小视频| 国产不卡国语在线| 日本午夜三级| 波多野结衣第一页| www亚洲天堂| 欧美黑人欧美精品刺激| 亚洲swag精品自拍一区| 国产成年女人特黄特色大片免费| 成人自拍视频在线观看| 2020精品极品国产色在线观看| 综合天天色| 国产精品妖精视频| 国产精品久久久久久久久久久久| 亚洲αv毛片| 亚洲区视频在线观看| 国产性精品| 国产综合精品日本亚洲777| 色综合五月| 伊人久久大香线蕉综合影视| 国产原创演绎剧情有字幕的| 日本精品αv中文字幕| 成人福利一区二区视频在线| 久久久久中文字幕精品视频| 国产精品真实对白精彩久久| 99在线视频免费观看| 人妻精品久久久无码区色视| 欧美无专区| 婷婷成人综合| 不卡无码h在线观看| 亚洲人视频在线观看| 日韩国产亚洲一区二区在线观看| 伊人久久精品无码麻豆精品| 亚洲天堂啪啪| 欧美狠狠干| 免费国产福利| 欧美区一区| 精品国产成人三级在线观看| 久久99久久无码毛片一区二区| 精品一区二区无码av| 欧美亚洲综合免费精品高清在线观看| 日韩大乳视频中文字幕| 91精品在线视频观看| 无码专区国产精品第一页| 欧美亚洲日韩不卡在线在线观看| 91色国产在线| 97久久人人超碰国产精品| 色综合婷婷| 欧美特黄一级大黄录像| 欧美日韩第三页| 她的性爱视频| 国产爽歪歪免费视频在线观看| 国产视频只有无码精品| 天堂亚洲网| 国产爽歪歪免费视频在线观看 |