999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多尺度循環(huán)殘差神經(jīng)網(wǎng)絡(luò)的圖像去運(yùn)動(dòng)模糊

2022-03-22 03:34:42睿,周,劉鵬,劉
關(guān)鍵詞:模型

方 睿,周 愉+,劉 鵬,劉 凱

(1.成都信息工程大學(xué) 計(jì)算機(jī)學(xué)院,四川 成都 610225; 2.成都信息工程大學(xué) 控制工程學(xué)院,四川 成都 610225)

0 引 言

最為典型的引起圖像退化的原因主要有如下3點(diǎn):大氣湍流、太陽輻射等引起的失真、相機(jī)和物體相對(duì)運(yùn)動(dòng)產(chǎn)生的模糊、對(duì)焦不準(zhǔn)產(chǎn)生的模糊。圖像運(yùn)動(dòng)模糊是指拍攝時(shí),被拍攝的目標(biāo)物體與攝像裝置之間發(fā)生相對(duì)運(yùn)動(dòng),而引發(fā)的模糊。圖像模糊的過程被建模為如下形式

IB=K(M)*IS+N

(1)

式中:IB是模糊后的圖像,K(M) 是模糊核,IS代表清晰的圖像,*表示空間卷積,N為加性噪聲。目前圖像復(fù)原算法大致分為兩種:一是傳統(tǒng)方法。圖像復(fù)原的最初手段是直接做逆濾波,在上個(gè)世紀(jì)六十年代中期已經(jīng)被大范圍應(yīng)用在該領(lǐng)域,但有結(jié)果表明直接逆濾波的性能是比較差的。文獻(xiàn)[1]提到,Shan和Fergus等都是通過各種方法構(gòu)建了圖像恢復(fù)過程的正則項(xiàng),雖然在一定程度上抑制了振鈴效應(yīng),減少了噪聲等,但是他們的復(fù)原結(jié)果并不是很理想。傳統(tǒng)方法有一個(gè)共同的特點(diǎn)就是都要預(yù)估模糊核,對(duì)圖像噪聲和飽和很敏感[2],并且一般產(chǎn)生的運(yùn)動(dòng)模糊都是非均勻模糊,精確預(yù)估模糊核是很難的。二是基于學(xué)習(xí)的方法,它是通過學(xué)習(xí)大量的數(shù)據(jù)樣本學(xué)習(xí)得到一個(gè)網(wǎng)絡(luò)模型,然后把運(yùn)動(dòng)模糊圖像放到該模型中,端到端地復(fù)原出潛在的清晰圖像。深度學(xué)習(xí)的典型算法之一是卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)[3],隨之發(fā)展,CNN逐漸在圖像復(fù)原領(lǐng)域也受到了很大的重視。Sun等[4]利用深度學(xué)習(xí)方法,首先嘗試預(yù)測給定圖像的小區(qū)域中的運(yùn)動(dòng)模糊核信息,然后嘗試?yán)迷撃:^察來恢復(fù)清晰圖像。該方法在對(duì)模糊核添加約束的條件下,使處理后的圖片達(dá)到了較為理想的去模糊效果。Schuler等[5]以粗糙到精細(xì)的方式堆疊了多個(gè)CNN,以模擬迭代優(yōu)化。Chakrabarti等[6]在頻域中預(yù)測了反卷積核,這些方法遵循傳統(tǒng)框架,只有其中幾個(gè)部分被CNN模塊取代。Ke等[7]提出一種不同層數(shù)的CNN以處理模糊圖像,取得了較好的效果。這些網(wǎng)絡(luò)的共同不足之處在于網(wǎng)絡(luò)層數(shù)較淺,很難提取到圖片更深層次的語義信息。之后U-net[8]得到了改進(jìn),也稱為編碼器-解碼器網(wǎng)絡(luò)[9],極大地提高了回歸能力,并在FlowNet的最新工作中被廣泛使用[10]。Nah等[11]訓(xùn)練了一個(gè)多尺度的深度網(wǎng)絡(luò)(MS-CNN),通過端到端的方法逐步恢復(fù)清晰的圖像,在圖像去模糊方面是比較成功的,但仍然存在圖像運(yùn)動(dòng)模糊的問題。Tao等[12]在Nah的基礎(chǔ)上進(jìn)行改進(jìn),提出了尺度循環(huán)網(wǎng)絡(luò)(SRN-DeblurNet)簡稱SRN,它是由香港中文大學(xué)、騰訊優(yōu)圖實(shí)驗(yàn)室和曠視科技的研究者合作提出的模型。但是不足的是它們使得圖像復(fù)原的結(jié)果邊緣特征并不明顯,高頻信息少,原因在于他們依賴于最小化L2損失,導(dǎo)致復(fù)原后的圖像為均值最優(yōu)顯得過于平滑,并產(chǎn)生偽影現(xiàn)象,使得最后的復(fù)原結(jié)果上在視覺感知上并不能符合我們的要求,并且它們?cè)诰矸e層使用大的卷積核,就導(dǎo)致對(duì)特征的學(xué)習(xí)能力不強(qiáng)。

針對(duì)上述問題,本文在SRN的基礎(chǔ)上改進(jìn)了一種用于圖像去運(yùn)動(dòng)模糊的更有效的網(wǎng)絡(luò)結(jié)構(gòu)。加深了SRN的網(wǎng)絡(luò)結(jié)構(gòu),在網(wǎng)絡(luò)中堆疊多個(gè)小卷積核代替大卷積核,使其可以更好擬合圖片的特征信息。并且為使紋理信息更強(qiáng),保護(hù)圖像邊緣信息等,本文進(jìn)行了多損失融合改進(jìn)。并將其應(yīng)用于真實(shí)運(yùn)動(dòng)模糊圖片的處理,實(shí)驗(yàn)結(jié)果表明,改進(jìn)算法生成的網(wǎng)絡(luò)模型取得了更好的去模糊結(jié)果,主觀視覺效果和客觀評(píng)價(jià)指標(biāo)明顯改善,圖像清晰度提高,細(xì)節(jié)損失減少。

1 多尺度循環(huán)卷積神經(jīng)網(wǎng)絡(luò)算法改進(jìn)

1.1 改進(jìn)思想

網(wǎng)絡(luò)的深度和寬度是影響網(wǎng)絡(luò)效果的最重要的兩個(gè)因素。因此本文基于這兩點(diǎn)對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn)。首先在網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)上,本文在Tao等[12]提出的SRN網(wǎng)絡(luò)結(jié)構(gòu)上進(jìn)行改進(jìn),加深了SRN的網(wǎng)絡(luò)結(jié)構(gòu),在其卷積層使用堆疊的小卷積核代替大卷積核,不僅與原來具有相同的感受野,而且可以減少網(wǎng)絡(luò)的參數(shù),對(duì)特征的學(xué)習(xí)能力更強(qiáng),更好地?cái)M合圖片的特征信息。同時(shí)為了提高模型訓(xùn)練過程中的收斂速度,防止過擬合,提高圖像中的高頻細(xì)節(jié)信息,保護(hù)圖像邊緣信息等,本文進(jìn)行了多損失融合改進(jìn)。如圖1所示,使得改進(jìn)后的網(wǎng)絡(luò)在客觀評(píng)價(jià)指標(biāo)取得更高的值以外,主觀視覺效果也得到一定的改善。保護(hù)圖像邊緣信息等,本文進(jìn)行了多損失融合改進(jìn)。

圖1 改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)

1.2 復(fù)原過程

該網(wǎng)絡(luò)由3個(gè)尺度的網(wǎng)絡(luò)組成,每一個(gè)尺度都是由編碼器-解碼器(encoder-decoder)[9]網(wǎng)絡(luò)構(gòu)成,它是對(duì)稱的CNN結(jié)構(gòu)。在本文中,為滿足本文任務(wù)需求,我們?cè)诖嘶A(chǔ)上設(shè)計(jì)了一個(gè)參數(shù)更少并且易于訓(xùn)練的網(wǎng)絡(luò)結(jié)構(gòu),如圖1所示。在每個(gè)尺度上生成清晰的圖像,作為圖像去模糊任務(wù)的子問題,它將模糊圖像和初始去模糊結(jié)果(從先前尺度上進(jìn)行上采樣)作為輸入,并且在該尺度下估計(jì)清晰圖像。因此,每個(gè)尺度輸出的圖像如式(2)所示

Ii,hi=Ndeblur(Bi,Ii+1,hi+1;θSR)

(2)

式中:i是其尺度標(biāo)號(hào),Bi代表第i個(gè)尺度下模糊的圖片,Ii代表第i個(gè)尺度下估計(jì)的清晰圖片。N是前面所提出的多尺度循環(huán)網(wǎng)絡(luò),θSR是訓(xùn)練中產(chǎn)生的參數(shù)。由于網(wǎng)絡(luò)是循環(huán)的,因此隱藏狀態(tài)特征hi可以跨越尺度,從先前的網(wǎng)絡(luò)中捕獲圖像結(jié)構(gòu)和內(nèi)核信息。

為保證此網(wǎng)絡(luò)可以解決更加復(fù)雜的運(yùn)動(dòng)模糊問題,我們?cè)诖司W(wǎng)絡(luò)中做了一些改進(jìn),如圖2所示,本文加深了InBlock和OutBlocks的結(jié)構(gòu),在其卷積層使用了2個(gè)3×3堆疊的卷積核。在編碼器/解碼器網(wǎng)絡(luò)中,每個(gè)尺度網(wǎng)絡(luò)包含1個(gè)InBlock,2個(gè)EBlock,然后是ConvLSTM循環(huán),2個(gè)DBlock和1個(gè)OutBlock。編碼器部分,每一層卷積層后面添加3個(gè)殘差網(wǎng)絡(luò),稱之為EBlock;解碼器部分,使用了2個(gè)DBlocks(Decoder ResBlock),每一層去卷積層前面添加3個(gè)殘差網(wǎng)絡(luò),稱之為DBlock。InBlock產(chǎn)生32通道特征圖,OutBlock將先前的要素圖作為輸入并生成輸出圖像。EBlock的通道數(shù)量分別為64,128。DBlock通道數(shù)量分別為128,64。每一個(gè)殘差網(wǎng)絡(luò)都包含2個(gè)卷積層,它是為了提供更大的感受野并且防止訓(xùn)練過程中梯度消失的問題。中間部分使用的是ConvLSTM循環(huán),Conv和Deconv中使用的激活函數(shù)都是ReLU。該網(wǎng)絡(luò)可以被表示為式(3)

(3)

式中:i是其尺度標(biāo)號(hào),Bi代表第i個(gè)尺度下模糊的圖片,Ii代表第i個(gè)尺度下估計(jì)的潛在清晰圖片。NEnconder是前面所提出的編碼器網(wǎng)絡(luò),θE是編碼器訓(xùn)練過程中產(chǎn)生的參數(shù)。NDecoder是解碼器網(wǎng)絡(luò),θD是解碼器訓(xùn)練中產(chǎn)生的參數(shù)。θLSTM是ConvLSTM訓(xùn)練時(shí)產(chǎn)生的參數(shù),hi是隱藏狀態(tài)特征。

圖2 卷積核堆疊替代5*5卷積核

1.3 多損失融合改進(jìn)

損失函數(shù)是影響圖像復(fù)原效果的主要因素之一,它是用來估量模型的預(yù)測值與真實(shí)值的不一致程度,損失函數(shù)越小,預(yù)測值越逼近真實(shí)值。為了估計(jì),需要通過最小化損失函數(shù)在訓(xùn)練過程中不斷優(yōu)化網(wǎng)絡(luò)的參數(shù),如下所示

(4)

在本文中,感知損失Lx、L1損失融合被用來提高復(fù)原后圖像的細(xì)節(jié),提升模型訓(xùn)練過程中的收斂速度,改善由于使用傳統(tǒng)L2損失函數(shù)作為優(yōu)化目標(biāo)會(huì)導(dǎo)致生成圖像上的模糊偽像[13]。

1.3.1 感知損失

由于使用L2損失函數(shù)作為優(yōu)化目標(biāo)會(huì)導(dǎo)致生成圖像上的模糊偽像,且容易在視覺感知上產(chǎn)生平滑,所以在本文中,使用了近兩年提出來的感知損失[14]。感知損失是簡單的L2損失,在網(wǎng)絡(luò)模型訓(xùn)練中,訓(xùn)練速度快,并且收斂效果好,具有高頻細(xì)節(jié)信息。故以感知損失函數(shù)表示生成圖像I與清晰圖像S之間的差異,它的定義如下,可參考文獻(xiàn)[14]

(5)

式中:φi,j是VGG19網(wǎng)絡(luò)中激活之后的第j個(gè)卷積在第i層最大池化之前所取得的特征映射,Wi,j是特征映射的寬度,Hi,j是特征映射的高度。

1.3.2 L1損失

本文在損失函數(shù)中添加了L1范數(shù)損失函數(shù),無論對(duì)于什么樣的輸入值,都有著穩(wěn)定的梯度,不會(huì)導(dǎo)致梯度爆炸問題,具有較為穩(wěn)健性的解。因?yàn)樽钚〗^對(duì)值偏差能處理數(shù)據(jù)中的異常值,所以它的魯棒性更好,同時(shí)也能夠保護(hù)圖像邊緣部分的信息

(6)

式中:Ii為本網(wǎng)絡(luò)中第i尺度輸出的去模糊圖片,Si是清晰圖像像素值。

1.3.3 總損失

對(duì)于本文提出的去模糊算法,總損失函數(shù)由感知損失Lx、L1損失融合而成,最小化復(fù)原圖像與真實(shí)圖像的誤差,保證圖像的復(fù)原質(zhì)量,其中k為融合系數(shù)

L=Lx+k·L1

(7)

趨向視覺感知的損失函數(shù)能夠提高感知質(zhì)量,但是評(píng)價(jià)指標(biāo)較低,且缺少生成約束。因此為了平衡PSNR指標(biāo)與視覺感知質(zhì)量,總損失融合了以上感知損失Lx、 和L1損失。

1.4 小卷積核堆疊

多個(gè)小卷積核疊加使用遠(yuǎn)比一個(gè)大的卷積核單獨(dú)使用效果要好得多。在VGG16[15]中,使用了更小的卷積核來保證當(dāng)前網(wǎng)絡(luò)精度的情況下,減少了參數(shù)。圖像去運(yùn)動(dòng)模糊處理需要大的感受野,所以SRN結(jié)構(gòu)的卷積層中原先使用的都是5*5,但是大的卷積核存在加大了網(wǎng)絡(luò)參數(shù)并且特征學(xué)習(xí)能力不強(qiáng)的問題。

假設(shè)圖片(Input)尺寸為M×M, 卷積核(Filter)大小為K×K, 填充(Padding)為P, 步長(stride)為S, 則卷積輸出(Output)特征圖大小為式(8)

Output=(M+2P-K)/S+1

(8)

為保證此網(wǎng)絡(luò)可以解決更加復(fù)雜的運(yùn)動(dòng)模糊問題,所以在此網(wǎng)絡(luò)中做了一些改進(jìn),在卷積層中使用2個(gè)3*3的卷積核替代原先的卷積核,如圖2所示。如式(8)所示,改進(jìn)之后的網(wǎng)絡(luò)在保持感受野大小不變的情況之下,減少了網(wǎng)絡(luò)訓(xùn)練中的參數(shù),并且具有更多的非線性,使得對(duì)特征能力的學(xué)習(xí)能力變強(qiáng)。

2 實(shí)驗(yàn)結(jié)果分析

本文的所有實(shí)驗(yàn)均是在基于TensorFlow框架的深度學(xué)習(xí)服務(wù)器平臺(tái)上進(jìn)行,使用的計(jì)算機(jī)是3.7 GHz的i3處理器臺(tái)式機(jī),NVIDA GTX1060顯卡,16 GB RAM。

2.1 數(shù)據(jù)集預(yù)處理

為實(shí)現(xiàn)與現(xiàn)有先進(jìn)的MS-CNN、SRN等去模糊算法比較,本文使用兩個(gè)指定的標(biāo)準(zhǔn)數(shù)據(jù)集來訓(xùn)練和測試我們的模型。此外,我們?cè)谡鎸?shí)的模糊圖像數(shù)據(jù)集上驗(yàn)證了模型的泛化能力。

(1)GoPro公開數(shù)據(jù)集:Nah等[11]創(chuàng)建了GoPro數(shù)據(jù)集,它模擬復(fù)雜的相機(jī)抖動(dòng)和物體運(yùn)動(dòng),其中含有的運(yùn)動(dòng)模糊場景有行人移動(dòng)、車輛運(yùn)動(dòng)等,更適合于真實(shí)場景中的模糊圖像。模型在256×256像素的GoPro數(shù)據(jù)集上訓(xùn)練,其中包括3214對(duì)模糊/清晰的圖片。本文中使用其中的2103對(duì)進(jìn)行訓(xùn)練,剩余的1111對(duì)進(jìn)行測試。

(2)K?hler數(shù)據(jù)集:K?hler數(shù)據(jù)集是評(píng)估盲去模糊的標(biāo)準(zhǔn),由4個(gè)清晰圖像和相應(yīng)的48個(gè)模糊圖像組成,這些模糊圖像是由重播記錄的6D攝像機(jī)運(yùn)動(dòng)引起的,本文將K?hler數(shù)據(jù)集用作模型性能評(píng)估的測試集。

(3)真實(shí)的模糊圖像數(shù)據(jù)集:本文還對(duì)實(shí)際情況下的圖片進(jìn)行了測試,本數(shù)據(jù)集由10個(gè)清晰圖像和相應(yīng)的50個(gè)模糊圖像組成,這些圖片包括都是汽車在高速行駛下,通過行車記錄儀設(shè)備拍攝得到行駛中的汽車車牌、交通線、建筑等視頻,再使用空間變化的運(yùn)動(dòng)模糊退化模型方法合成的運(yùn)動(dòng)模糊圖像,目的是為了驗(yàn)證模型的泛化能力。

2.2 模型訓(xùn)練以及評(píng)價(jià)標(biāo)準(zhǔn)

對(duì)于模型訓(xùn)練,本文使用Tensorflow訓(xùn)練我們所提出的模型。對(duì)于網(wǎng)絡(luò)優(yōu)化問題,本文采用Adam優(yōu)化器,其中參數(shù)均為默認(rèn)值,β1=0.9,β2=0.999,ε=10-8。 訓(xùn)練到2000 epochs時(shí),學(xué)習(xí)率從初始值1e-4下降到1e-6。 在多次實(shí)驗(yàn)的結(jié)果調(diào)整下,本模型將k值設(shè)置為0.05。每一次迭代,我們對(duì)一批16張模糊圖像進(jìn)行采樣,將訓(xùn)練集尺寸隨機(jī)剪裁為256×256作為訓(xùn)練的輸入。

對(duì)復(fù)原后的圖像評(píng)價(jià)標(biāo)準(zhǔn)主要分為兩種:主觀評(píng)價(jià)標(biāo)準(zhǔn)和客觀評(píng)價(jià)標(biāo)準(zhǔn)。主觀評(píng)價(jià)標(biāo)準(zhǔn)具有簡單直觀的特點(diǎn),通過肉眼去觀察對(duì)比,這種方式容易受到主觀因素等多方面的影響,比如每個(gè)人的心理狀態(tài)。客觀評(píng)價(jià)標(biāo)準(zhǔn)采用峰值信噪比(PSNR)和結(jié)構(gòu)相似性(SSIM),其中PSNR和SSIM的值越大,就代表圖像失真越少,復(fù)原的效果越好。綜上所述,要綜合考慮客觀評(píng)價(jià)標(biāo)準(zhǔn)和主觀評(píng)價(jià)標(biāo)準(zhǔn)才能對(duì)復(fù)原后的圖像做出科學(xué)、客觀的評(píng)價(jià)。

PSNR定義如式(9)、式(10)所示

PSNR=10lg((2n-1)2/MSE)

(9)

(10)

其中,圖像的大小為H×W,S為清晰圖像,Y為模糊圖像通過網(wǎng)絡(luò)復(fù)原后的圖像,這里的n取值為8,因?yàn)楸疚氖褂玫氖遣噬珗D像。

SSIM定義如式(11)~式(14)所示,SSIM的取值為[0,1],值越大,代表圖像失真越小,圖像的去模糊效果越好。分別從亮度l(X,Y)、 對(duì)比度c(X,Y)、s(X,Y) 結(jié)構(gòu)這3個(gè)方面進(jìn)行比較

SSIM(X,Y)=l(X,Y)·c(X,Y)·s(X,Y)

(11)

(12)

(13)

(14)

其中,X為清晰圖像,Y為模糊圖像通過網(wǎng)絡(luò)復(fù)原后的圖像,μX為圖像X的均值,μY為圖像Y的均值;σX為圖像X的方差,σY為圖像Y的方差;σXY為圖像X、Y的協(xié)方差。c1、c2、c3均為常數(shù),避免除零,c1=(K1×L)2,c2=(K2×L)2,c3=c2/2,K1=0.01,K2=0.03, 均為默認(rèn)值,L=255。

2.3 實(shí)驗(yàn)結(jié)果

2.3.1 多損失融合性能驗(yàn)證

這一部分將通過實(shí)驗(yàn)驗(yàn)證該損失融合的性能,在本文的圖像去運(yùn)動(dòng)模糊任務(wù)中,我們將其與L2損失進(jìn)行比較。多損失融合性能驗(yàn)證模型設(shè)計(jì)見表1。

表1 多損失融合性能驗(yàn)證模型設(shè)計(jì)

感知損失可以使得模型具有更好的復(fù)原效果,邊緣特征更加明顯。Net-L2模型使得復(fù)原后的圖像為均值最優(yōu)顯得過于平滑,并產(chǎn)生偽影現(xiàn)象,使得最后的復(fù)原結(jié)果上在視覺感知上并不能符合我們的要求。Net-PR1模型使得復(fù)原后的效果更加逼真,提高了復(fù)原后圖像的細(xì)節(jié),改善了由于使用傳統(tǒng)L2損失函數(shù)作為優(yōu)化目標(biāo)會(huì)導(dǎo)致生成圖像上的模糊偽像。如圖3所示,從左到右依次為:模糊圖像、Net-L2的去模糊結(jié)果、Net-PR1模型的去模糊結(jié)果。

圖3 不同損失函數(shù)的去模糊結(jié)果

該模型在GoPro數(shù)據(jù)集上訓(xùn)練迭代55萬次后達(dá)到收斂狀態(tài)。表2列出了兩種模型在GoPro測試集下平均PSNR和SSIM值的比較。

表2 GoPro測試集下的質(zhì)量評(píng)價(jià)

從表2的結(jié)果中可以看出Net-PR1模型在測試集上的平均PSNR值和SSIM值都比Net-L2模型要高,多損失的融合改進(jìn)也使得圖片質(zhì)量效果更好。

2.3.2 小卷積核堆疊性能驗(yàn)證

本文在2.3.1的實(shí)驗(yàn)基礎(chǔ)上,為了驗(yàn)證小卷積核堆疊的性能,本文訓(xùn)練了經(jīng)小卷積核堆疊處理與未經(jīng)過處理的兩個(gè)模型進(jìn)行比較,驗(yàn)證模型設(shè)計(jì)見表3。

表3 小卷積核堆疊性能驗(yàn)證模型設(shè)計(jì)

實(shí)驗(yàn)設(shè)置550 000次迭代,每經(jīng)過5000次訓(xùn)練保存并輸出模型,并對(duì)模型在GoPro數(shù)據(jù)集中進(jìn)行PSNR指標(biāo)檢測,結(jié)果顯示網(wǎng)絡(luò)如果在卷積層使用小卷積核堆疊的模型PSNR評(píng)價(jià)指標(biāo)要明顯高于直接在卷積層使用大的卷積核的模型,其中比較結(jié)果如圖4所示。

圖4 小卷積核堆疊性能驗(yàn)證PSNR指標(biāo)結(jié)果比較

在卷積層應(yīng)用小卷積核堆疊后的Net-KS模型,在保持感受野大小不變的情況之下,減少了網(wǎng)絡(luò)訓(xùn)練中的參數(shù),并且具有更多的非線性,使得對(duì)特征能力的學(xué)習(xí)能力變強(qiáng)。結(jié)果顯示Net-KS模型的圖像復(fù)原具有更清晰逼真的細(xì)節(jié)紋理,其中比較結(jié)果如圖5所示。

圖5 小卷積核堆疊性能驗(yàn)證視覺質(zhì)量比較

2.3.3 與其它模型比較

整個(gè)訓(xùn)練過程是在GoPro訓(xùn)練集上進(jìn)行的,經(jīng)過550 000次迭代后達(dá)到收斂狀態(tài)。將本文方法ELKS-SRN與其它算法從主觀上和客觀上進(jìn)行比較。圖6主要是主觀上對(duì)從GoPro數(shù)據(jù)集上的測試集進(jìn)行評(píng)價(jià),其中的測試圖包含了各個(gè)不同的運(yùn)動(dòng)模糊場景。圖6中的圖像從左到右依次為模糊圖像、文獻(xiàn)[7]的去模糊結(jié)果、文獻(xiàn)[12]模型的去模糊結(jié)果以及本文所提模型的去模糊結(jié)果。

圖6 GoPro數(shù)據(jù)集去模糊結(jié)果

從圖6的運(yùn)動(dòng)模糊圖像復(fù)原結(jié)果來看,本文提出的模型去模糊效果在高頻細(xì)節(jié)和邊緣特征等方面明顯好于文獻(xiàn)[12]。本文復(fù)原后的圖像消除了較明顯的偽影,如第一張圖中的指示牌邊緣以及車牌中的字符“0”“1”“2”等。本文所提出的去運(yùn)動(dòng)模糊算法盡可能保證了復(fù)原后圖像的真實(shí)度,提升了圖像的高頻細(xì)節(jié)信息,保護(hù)了圖像的邊緣特征。該模型有效地解決了物體間相對(duì)運(yùn)動(dòng)造成的模糊。

圖7是K?hler數(shù)據(jù)集中的去模糊結(jié)果,從上到下依次為模糊圖像、Tao等的去模糊結(jié)果、本文所提模型的去模糊結(jié)果。如圖7所示,我們對(duì)比第一幅圖中的圖(c)、圖(e),可以看出圖(e)的紋理信息比圖(c)強(qiáng),圖(c)圈出來的墻壁明顯過于平滑。對(duì)比圖(d)、圖(f)兩張圖片可以發(fā)現(xiàn),圖(d)圈出來的那一排時(shí)針數(shù)字,邊緣模糊,其中還出現(xiàn)較明顯的偽影現(xiàn)象,相較于圖(d)來說,圖(f)圖恢復(fù)得更好,邊緣特征較明顯,沒有出現(xiàn)大幅度的偽影現(xiàn)象。相較于圖(f),圖(d)中的時(shí)針數(shù)字“9”周圍邊緣比較模糊,邊緣特征沒有圖(f)明顯。

圖7 K?hler數(shù)據(jù)集去模糊結(jié)果

表4列出了幾種算法比較,從左到右分別是GoPro測試集下平均PSNR與SSIM值、K?hler測試集下平均PSNR與SSIM值、在測試集中恢復(fù)圖片的平均時(shí)間。

從表4的結(jié)果中可以看出本文所提出的模型在測試集上的平均PSNR值和SSIM值都比前面提出的算法要高,特別相對(duì)于Tao等來說,雖然我們?cè)诖嘶A(chǔ)上加深了整個(gè)網(wǎng)絡(luò)結(jié)構(gòu),但是并沒有使網(wǎng)絡(luò)的收斂速度變慢,反之,恢復(fù)的時(shí)間反而更快。驗(yàn)證了在卷積層使用小卷積核疊代替

表4 測試集下的質(zhì)量評(píng)價(jià)以及性能

大卷積核會(huì)使得整個(gè)網(wǎng)絡(luò)收斂速度更快,多損失的融合改進(jìn)也使得圖片質(zhì)量效果更好。

2.3.4 真實(shí)模糊圖片處理

為驗(yàn)證模型的泛化能力,本文再對(duì)真實(shí)的模糊圖片進(jìn)行處理,因?yàn)镚opro測試集和K?hler測試集中的圖片是在高速相機(jī)下采集后合成的,它和實(shí)際情況下的模糊圖片有可能不同,所以在這一小節(jié),本文使用訓(xùn)練好的模型來處理實(shí)際情況下的模糊圖片,這些圖片都是實(shí)際情況中,汽車在高速行駛下,通過行車記錄儀設(shè)備拍攝得到行駛中的汽車、交通線、建筑等視頻。去模糊結(jié)果對(duì)比如圖8所示,圖8中的圖像從左到右依次為模糊圖像、文獻(xiàn)[12]模型的去模糊結(jié)果以及本文所提模型的去模糊結(jié)果。

圖8 真實(shí)模糊圖片去模糊結(jié)果

在實(shí)際場景下,本文提出的去模糊算法相較于其它算法保證了圖片的復(fù)原效果,并且邊緣模糊小。如在第一張圖片中,“大眾的標(biāo)志”、“標(biāo)志旁邊的棱”、“3”等字符的去模糊處理效果都較好;第二張圈出來的“交通線”的去模糊結(jié)果顯示出整張圖片的模糊程度減小;第三張圖片中的車牌,文獻(xiàn)[12]還原的車牌字符“6”“2”相較于本文所提出的去模糊模型明顯帶有一定的失真,并且邊緣模糊區(qū)域大,而本文的去模糊效果好。所以綜上所述,本文提出的算法可以較好地處理運(yùn)動(dòng)模糊。

3 結(jié)束語

本文提出了一種改進(jìn)的圖像去運(yùn)動(dòng)模糊方法,通過多損失融合和在卷積層使用小型卷積核堆疊平衡了評(píng)價(jià)指標(biāo)(PSNR、SSIM)與感知質(zhì)量,提高圖像中的高頻細(xì)節(jié)信息等,并且使得網(wǎng)絡(luò)參數(shù)更少更容易訓(xùn)練,并且更好擬合圖片的特征信息。最終的實(shí)驗(yàn)結(jié)果表明,改進(jìn)算法生成的網(wǎng)絡(luò)模型取得了更好的去模糊結(jié)果,主觀視覺效果和客觀評(píng)價(jià)指標(biāo)明顯改善,圖像清晰度顯著提高,細(xì)節(jié)損失減少,并且算法在去模糊的速度上相比于其它的算法也有明顯的提升。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 青青操国产视频| 女同久久精品国产99国| 国产成人欧美| 2020国产在线视精品在| 亚洲精品无码久久毛片波多野吉| 国产原创自拍不卡第一页| 婷婷99视频精品全部在线观看| 97免费在线观看视频| 国产成人综合久久精品尤物| 国产中文在线亚洲精品官网| 亚洲国产亚洲综合在线尤物| 色精品视频| 日韩精品无码免费一区二区三区| 人人91人人澡人人妻人人爽 | 欧美国产综合色视频| 亚洲色图欧美视频| 久久国产精品嫖妓| 高清欧美性猛交XXXX黑人猛交| 999国内精品视频免费| 日本免费福利视频| 欧美一区中文字幕| 有专无码视频| 亚洲精品成人7777在线观看| 天天躁夜夜躁狠狠躁躁88| 日本亚洲成高清一区二区三区| 亚洲人成网站观看在线观看| 国产正在播放| 精品国产成人三级在线观看| 99在线观看国产| 91综合色区亚洲熟妇p| 国产午夜无码专区喷水| 免费看a级毛片| 美女无遮挡拍拍拍免费视频| 国产精品成人啪精品视频| 日韩A∨精品日韩精品无码| 久久国产亚洲欧美日韩精品| 26uuu国产精品视频| 日韩无码真实干出血视频| 大学生久久香蕉国产线观看| 久久国产精品麻豆系列| 一本大道视频精品人妻 | 亚洲欧洲日产无码AV| 日韩精品亚洲人旧成在线| 中文精品久久久久国产网址| 伊人久久青草青青综合| 中文字幕有乳无码| www亚洲精品| 国产网站一区二区三区| 日韩人妻精品一区| 在线观看国产小视频| 日韩免费中文字幕| 一本大道无码日韩精品影视| 波多野结衣在线se| 中文字幕色在线| 成人年鲁鲁在线观看视频| 青青青国产精品国产精品美女| 日韩大乳视频中文字幕 | 国产成人精品综合| 国产精品免费福利久久播放| 丝袜久久剧情精品国产| 亚洲高清中文字幕| 久久福利片| 久久黄色影院| 国产亚洲精品97AA片在线播放| 色悠久久综合| 欧美性久久久久| 无码高潮喷水在线观看| 97亚洲色综久久精品| 国产网站在线看| 日韩中文无码av超清| 亚洲欧美日本国产综合在线| 亚洲美女AV免费一区| 久久成人18免费| 日韩毛片免费| 久久精品电影| 欧美成人午夜视频| 欧美成人综合在线| 亚洲天堂777| 成人久久精品一区二区三区| 日韩精品亚洲一区中文字幕| 欧美成人怡春院在线激情| 国产成人精品日本亚洲77美色|