999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于近似U型網絡結構的圖像去噪模型

2022-08-24 06:30:44靳華中張修洋葉志偉張聞其夏小魚
計算機應用 2022年8期
關鍵詞:信息模型

靳華中,張修洋,葉志偉,張聞其,夏小魚

(湖北工業大學計算機學院,武漢 430068)

0 引言

圖像去噪在許多實際應用中是必不可少的[1]。在圖像處理的低層視覺中它是一個經典且具有挑戰性的問題。根據圖像退化模型y=x+v,圖像去噪的目標是從噪聲觀測值y中恢復出干凈的圖像x,而一個常見的假設是v為標準差為σ的加性高斯白噪聲[2]。在過去的幾十年中,人們提出各種算法對圖像進行先驗建模,并且有些取得了不錯的效果,例如塊匹配三維協調濾波(Block-Matching and 3D coordinated filtering,BM3D)算法[3]、同時稀疏編碼學習(Learned Simultaneous Sparse Coding,LSSC)算法[4]、非局部集中的稀疏表示(Nonlocally Centralized Sparse Representation,NCSR)算法[5]和加權核范數最小化(Weighted Nuclear Norm Minimization,WNNM)算法[6]。盡管上述算法去噪效果較好,但大多數都存在兩個缺點:第一,這些算法通常在測試階段的優化步驟很復雜,導致去噪整體耗時較長;第二,這些算法的模型通常是非凸的,并且大多數參數需要手動選擇。為了克服上述缺點,Schmidt 等[7]出了一種收縮場級聯(Cascade of Shrinkage Fields,CSF)算法,將基于隨機場的模型和展開的半二次優化算法統一到一個學習框架中。Chen 等[8]提出了一種可訓練的非線性反應擴散(Trainable Nonlinear Reaction Diffusion,TNRD)模型,該模型通過展開固定數目的梯度下降推理步驟來學習圖像的修改域先驗。盡管CSF 和TNRD 在運算效率和去噪效果方面展現出了較好的結果,但它們本質上受限于先驗的形式。具體來說,它們的先驗是基于分析的模型,即只能捕捉到圖像結構的部分特性,并且參數都需要手動設置,導致其具有一定的局限性。隨著深度學習的興起,人們開始嘗試使用深度學習的方法去處理圖像的去噪問題,Zhang 等[9]將圖像去噪視作一個簡單的判別學習問題,通過前饋卷積神經網絡(Convolutional Neural Network,CNN)將噪聲從圖像中分離出來,由此提出了去噪卷積神經網絡(Denoising Convolutional Neural Network,DnCNN)模型。該模型將整流器線性單元(Rectified Linear Unit,ReLU)[10]、批量歸一化[11]和殘差學習[12]巧妙地引入到傳統的CNN 中,導致DnCNN 模型不僅加快了算法的訓練過程,而且提高了去噪性能。但在實際應用中,人們發現這樣的網絡結構在訓練過程中容易發生過擬合,導致無法獲取到圖片的全部信息,從而造成較差的去噪效果。文獻[13]提出了在DnCNN中使用卷積與反卷積進行疊加的形式進行網絡處理,并進一步修改損失函數,雖然得到了比DnCNN 模型更好的效果,但是在精度和效率上的提升并不是很明顯。

本文基于DnCNN 模型提出了一種基于近似U 型網絡結構的圖像去噪模型。在本文的網絡結構中,卷積神經網絡層用于提取圖像的特征信息,反卷積神經網絡層則主要用于復原圖像,恢復并放大一些圖像處理過程中遺漏的細節信息。為了縮短訓練的時長,本文采用了步長為2 的卷積層縮放圖像,這樣可以在保留圖像信息的同時,達到縮短訓練時間的效果。在網絡的后半段,同樣采用步長為2 的反卷積層恢復圖像。為了得到純噪聲圖像,本文保留了DnCNN 中原有的殘差學習用于過濾出干凈的圖像,使得網絡中的計算負載量進一步地減小,以縮短訓練時長。

實驗結果表明,在已知噪聲級別的高斯降噪中,本文模型比經典去噪算法BM3D 和基于深度學習的去噪模型DnCNN 的降噪效果更好,并且比DnCNN 的訓練時長更短。

1 相關工作

1.1 DnCNN模型

DnCNN 模型是目前深度學習應用于圖像去噪領域所公認的較為優秀的模型。相較于傳統的圖像去噪算法在峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)上有明顯的提升。如圖1,DnCNN 的網絡結構主要分為三個部分,在網絡的第1層,使用了64 個大小為3×3 的濾波器生成64 個特征圖,然后利用ReLU 處理非線性;在網絡的第2~15 層,使用了64 個大小為3×3 的濾波器,并且在卷積和ReLU 之間添加批量歸一化;在網絡的第16 層,使用了大小為3×3 的濾波器重建輸出,然后在網絡的末端采用殘差學習過濾出干凈的圖像。DnCNN 模型的提出主要有兩個貢獻:第一,為高斯去噪提出了一個端到端的可訓練的深度卷積神經網絡模型;第二,發現將批量歸一化和殘差學習結合可以使卷積神經網絡學習獲得極大的收益,即利用殘差學習,可以通過隱藏層逐漸將圖像結構與噪聲觀測分離,利用批量歸一化則可以減輕內部協變量偏移。兩者相結合從整體上加快了網絡的訓練速度,并且提高了去噪性能。

圖1 DnCNN網絡結構Fig.1 DnCNN network structure

1.2 反卷積

反卷積[14]又被稱為轉置卷積(Transposed Convolution)。相對來說,卷積層的前向傳播過程就是反卷積的反向傳播過程,卷積層的反向傳播過程就是反卷積的前向傳播過程。卷積操作是將原有的圖片進行了矩陣的卷積運算,將整體的視野放到局部,從而得到圖像的細粒度特征信息。而反卷積的操作則是類似于卷積的逆過程,即能夠將局部的視野重新擴充到整體,并且恢復出原圖像的粗粒度特征信息。利用反卷積網絡可以學習到圖像的邊緣、線條信息,并以一種無監督的方式恢復圖像視覺中的中層特征。卷積神經網絡在訓練時直接獲取到了圖像的特征信息,而反卷積網絡在訓練時則獲取到了圖像中空域范圍更大的特征信息,即多個局部信息的延展和綜合。由此可以看出,卷積與反卷積是兩個密不可分的過程,雖然它們在物理形式上只是兩個逆過程,但在應用于圖像信息提取時,兩種方法可以學習到圖像中的不同信息,因此結合起來使用是可行的。

1.3 U-Net

U-Net[15]是比較早使用多尺度特征進行語義分割的算法之一,由于其壓縮和擴展過程呈現出的U 型結構而得名。U-Net 網絡結構如圖2 所示。

圖2 U-Net網絡結構Fig.2 U-Net network structure

網絡的輸入端采用不同步長的卷積操作將圖像進行一定的壓縮,然后在網絡的對稱位置采用相同步長的反卷積進行圖像恢復。由于上采樣過程會丟失部分語義特征,于是將同一水平位置的特征圖進行疊加,以恢復部分語義信息,由此提高分割的精度。在圖像壓縮領域,U-Net 也受到了廣泛的關注。輸入一幅圖像,進行下采樣編碼,得到一串比原先圖像更小的特征,相當于對圖像進行了壓縮,然后經過解碼,理想的狀態是能恢復到原來的圖像。U-Net 在生物醫學影像分割的實際應用中也有較好的表現。下采樣進行特征提取,得到圖像的位置和語義信息;上采樣將抽象的特征再還原解碼到原圖的尺寸,得到分割的結果;長連接將輸入圖像的信息保留,有助于還原降采樣所帶來的信息損失。U-Net 不僅應用廣泛,其U 型結構也啟發了許多后續算法的研究。

2 基于近似U型網絡結構的圖像去噪模型

2.1 近似U型的網絡結構

圖3 虛線框中的內容是本文基于原有的DnCNN 上作出改進的部分。即將深度卷積神經網絡中原有的線性網絡結構,修改為近似U 型的網絡結構。由于其原有的網絡結構均采用步長為1 的卷積層,導致在訓練過程中,雖然能夠獲取到更多的圖像信息,但也會因此造成網絡的訓練速度變慢。為了不漏掉原有圖像的信息,同樣在前4 層采用了步長為1的卷積層;而在第5 層,采用步長為2 的卷積層,讓圖像進行縮放,使后續網絡層的輸入變為較小尺寸的圖像,既保證了原有的圖像信息,又減小了網絡中的運算負荷;相對應的,在第14 層也采用了步長為2 的反卷積層以恢復圖像到原有的尺寸,使網絡整體呈現出一個近似U 型的對稱結構。這樣的結構可以在保證圖像原有信息不丟失的情況下,縮短網絡訓練的時長;并且通過不同步長的卷積層,網絡也能夠從不同大小的感受野學習圖像信息,從而達到更好的訓練效果。

圖3 近似U型的網絡結構Fig.3 Approximate U-shaped network structure

2.2 引入反卷積

卷積神經網絡普遍用于提取圖片中的特征信息來學習,但是只采用連續的卷積很容易造成網絡的過擬合,導致信息的遺漏。而在DnCNN 中,每一層都采用Conv+BN+ReLU 的結構,因此容易產生過擬合導致去噪效果不佳。于是在本文的網絡結構中,引入了卷積層和反卷積層相結合的方式:一方面利用卷積神經網絡良好的特征學習能力進行初步的圖像特征學習;另一方面利用反卷積神經網絡強大的恢復能力進行圖像的復原,使復原后的圖像在細節方面的表現更好。由于反卷積的上采樣操作使圖像的信息得到了恢復和放大,使網絡進一步學習到圖像的潛在細節特征。因此在近似U型的網絡結構中,本文在不同尺寸輸入圖像的處理過程中都采用了卷積與反卷積相結合的方式,使得整個網絡的學習效率進一步提高。

2.3 疊加圖像信息

由于采用了近似U 型的網絡結構,本文參考了U-Net 中為了消除上采樣造成部分特征丟失所進行的疊加操作。在近似U 型結構中,只有處于同一水平下的圖像尺寸相同,能夠進行疊加。如圖3 所示,將第4 層進行反卷積處理后的輸出圖像與第15 層的輸出圖像進行了疊加,第9 層和第10 層的輸出圖像也進行了疊加。通過圖像的疊加,可以將前面網絡中的特征信息傳遞到后續的網絡中,使去噪的精度得到進一步的提升。

近似U 型網絡結構的設計提升了網絡整體的訓練速度并且從多個尺寸的圖像獲取到了信息,而反卷積和疊加操作也盡可能多地保留了圖像的細節信息。兩者結合使本文的近似U 型網絡結構的圖像去噪模型在速度與精度兩個方面均不輸于當前去噪領域的其他算法。

3 實驗與結果分析

3.1 數據與參數設置

訓練和測試數據:對于未知噪聲水平的高斯去噪,使用了400 幅大小為180×180 的灰度圖進行訓練。為了訓練用于高斯去噪的網絡模型,設置了三個噪聲水平,即σ=15,25,50。并將每個patch 的大小設置為30×30,裁剪了128×3 466 個patch 來訓練模型。為了測試本文的訓練網絡,在圖像去噪領域應用較為廣泛的兩個測試集上與其他算法進行對比。一個是來自伯克利分割數據集(Berkeley Segmentation Dataset 68,BSD68)[9]的68 幅自然圖像的測試數據集,另一個是來自Set12 數據集[9]的12 幅灰度圖像。這些圖像都只用于評估高斯去噪方法,并不包括在訓練數據集中。

網絡結構和參數:本文訓練模型所采用的優化器為Adam,初始學習率設置為0.001,迭代周期為50,在每迭代10 個周期后,學習率減少至原來的1/10。本文模型采用改進后的DnCNN 模型作為生成器,輸入的圖片采用30×30 的樣本塊,模型的深度修改為20 層,其中第1 層采用的是Conv+ReLU 的結構,2 至10 層采用的是Conv+BN+ReLU 的結構,11至19 層采用的是Deconv+BN+ReLU 的結構,最后在20 層進行Conv 的全卷積并采用了殘差學習策略以輸出干凈的圖像。整個結構中的網絡層中均采用3×3 的卷積核,卷積核數均為64,在第6、16 層采用的卷積步長為2,其余層的步長均為1。本文使用的激活函數ReLU 均采用默認參數,且利用圖像質量評價指標峰值信噪比(PSNR)進行不同算法之間的去噪效果對比。PSNR 為圖像的峰值信噪比,常用作圖像壓縮去噪等領域中信號重建質量的檢測方法,它通過均方差(Mean Square Error,MSE)進行定義。例如兩個m×n的單色圖像I和K,它們的均方差PMSE定義為:

峰值信噪比IPSNR為:

其中:MAXI表示圖像點顏色的最大數值,即如果每個采樣點用n=8 位表示,那么MAXI=28-1=255。

本文使用Windows 10 系統,基于PyCharm 的Python3.6加tensorflow1.12 的軟件環境,運行在一臺搭載Intel Core i7-9700F CPU @ 3.00 GHz 處理器和NVIDIA GeForce RTX 2060 SUPER 顯卡的PC 上。使用GPU 進行網絡訓練時間為4 752 s。

3.2 實驗結果與分析

將本文提出的模型與幾種較為先進的去噪算法進行了比較,包括兩種基于非局部相似性的算法,即BM3D 算法和WNNM 算法;一種生成算法,即期望塊對數似然估計(Expected Patch Log Likelihood,EPLL)算法[16];三種基于判別訓練的算法,即多層感知機(MultiLayer Perceptron,MLP[17])算法、CSF[18]算法、TNRD[19]算法和DnCNN-B 模型。并且均使用目前發布的基于同樣測試集的最優實驗結果與本文的實驗結果進行對比。

不同算法在BSD68 數據集上的平均PSNR 結果如表1 所示。可以看到,本文模型在三種不同的噪聲下均獲得比其他算法更好的PSNR 結果。與其他算法相比,本文模型能得到0.04 dB~0.66 dB 的提升。特別是在σ=15 的情況下,本文模型的PSNR 相較于對比模型提升得更多。

表1 不同模型在BSD68數據集上的峰值信噪比對比 單位:dBTab.1 PSNR comparison of different models on BSD68 dataset unit:dB

表2~4 分別列出了噪聲水平在15、25、50 時不同算法對于Set12 中的12 幅測試圖像的PSNR 結果。每個圖像和每個噪聲級別最佳的PSNR 結果以粗體突出顯示。可以看出,在大多數圖像上,本文模型均能獲得最高PSNR,但是在重復結構占主導地位的兩個圖像“House”和“Barbara”上未能達到最佳效果。因為基于非局部相似性的算法通常在規則和重復的結構圖像上表現更好,而基于辨別訓練的算法通常在不規則紋理圖像上表現更好。從12 幅圖像的平均PSNR 上看,本文模型還是領先于所有對比算法0.0 dB~0.78 dB,并且在低噪聲的情況下,本文模型表現更加突出。

表2 Set12數據集中每幅圖片的峰值信噪比對比(σ=15) 單位:dBTab.2 PSNR comparison of each picture in Set12 dataset(σ=15) unit:dB

為了進一步分析本文模型與DnCNN 模型在更多噪聲強度下對圖像的去噪效果,表5 列出了本文與DnCNN 模型在10~50 噪聲強度下的去噪情況,并記錄了每增強5 噪聲強度時,基于Set12 測試集的平均PSNR 和對應差值。由表5 的前2~3 列數據分析可知,本文模型與DnCNN 均在噪聲強度依次增強時去噪效果減弱,這是普遍存在的正常現象。因為噪聲的強度與去噪效果存在反比關系。但是橫向對比來看,在任意噪聲強度下,本文模型均能夠取得比DnCNN 模型更高的PSNR 值,這說明本文模型在不同的噪聲強度下仍保證了一定程度的魯棒性。

表3 Set12數據集中每幅圖片的峰值信噪比對比(σ=25) 單位:dBTab.3 PSNR comparison of each picture in Set12 dataset(σ=25) unit:dB

表4 Set12數據集中每幅圖片的峰值信噪比對比(σ=50) 單位:dBTab.4 PSNR comparison of each picture in Set12 dataset(σ=50) unit:dB

由表5 的第3 列數據可以看出,本文模型在低噪聲值時的去噪效果與DnCNN 模型的差值較大,而在噪聲逐步增強時,兩者效果越來越趨近。這是因為在低噪聲的情況下,圖像能夠展示出更多的細節特征,由于本文模型在細節的處理與學習上比DnCNN 更好,所以獲取到了較好的結果。而在噪聲逐步增強的過程中,原圖像的細節信息逐步被噪聲所模糊,神經網絡所能學習到的特征也會有所減弱,導致不同神經網絡模型所學習到的特征有限,無法產生大的差距。這也是由現實情況所決定的,人眼是無法從高噪聲圖像中獲取到圖像的具體內容。在噪聲添加達到一定的閾值之后,整張圖片就會顯示出花白,從而無法辨認出圖像的原本特征。但是整體上可以看出,本文模型在任意的噪聲強度下,相較于DnCNN 在去噪效果上都有一定的提升。

表5 Set12數據集上不同噪聲強度下本文模型與DnCNN模型對比Tab.5 Comparison of the proposed model and DnCNN model under different noise intensities on Set12 dataset

表6 中分別記錄了在采用2 步長的網絡結構下與采用1步長的網絡結構下的峰值信噪比和訓練時長。從表6 中可以看出,在采用了2 步長對圖像的大小進行了處理后,不僅可以將訓練時長縮短至原來的一半左右,還在峰值信噪比上獲得了一定的提升,這是由于單一的網絡結構容易造成深度神經網絡的過擬合導致峰值信噪比的降低,而采用不同步長的卷積方式則可以很好地避免這個問題。

表6 Set12數據集上不同步長網絡峰值信噪比與訓練時長對比Tab.6 Comparison of PSNR and training time for networks with different strides on Set12 dataset

圖4~6 是σ=25 時原圖像、噪聲圖、本文模型去噪圖與DnCNN 去噪圖的橫向對比。為了進一步地觀察圖像中的細節部分,將綠框標識出的區域進行了3 倍放大并用紅框圈出。從圖4 可以很明顯地觀察到,在圖像直線部分的去噪中,本文模型在細節的保留上比DnCNN 要做得更好。圖5 則展示出了本文模型在圖像字體去噪中的卓越表現,顯然本文去噪后圖像的字體仍然是清晰可見的,而DnCNN 中的字體則已經模糊不清了。在曲線去噪的部分,從圖6 可以看出,本文模型去噪后的曲線顯得更加的平滑和均勻,且更接近原圖的輪廓。從這些圖像去噪效果的直接比較中可以發現,本文模型不僅可以恢復出原圖像清晰的邊緣和精細的細節,還可以在各種區域上產生比DnCNN 更好的視覺結果。

圖4 DnCNN與本文模型去噪后的局部對比圖(Monar)Fig.4 Local comparison diagram of DnCNN and the proposed model after denoising(Monar)

圖5 DnCNN與本文模型去噪后的局部對比圖(Airpl)Fig.5 Local comparison diagram of DnCNN and the proposed model after denoising(Airpl)

圖6 DnCNN與本文模型去噪后的局部對比圖(Parrot)Fig.6 Local comparison diagram of DnCNN and the proposed model after denoising(Parrot)

圖7 是基于Set12 數據集σ=25 時的平均PSNR 隨迭代次數變化的折線圖。一共迭代了50 次且每2 代進行一次記錄。從圖7 可以很明顯地看出:本文模型在前期的收斂趨勢和DnCNN 相似,但是當迭代周期達到18 時候,本文模型已經趨于穩定,此時的平均PSNR 為30.46 dB;DnCNN 在第30 周期及以后仍存在不穩定的趨勢。從單個周期的訓練時長上看,本文模型在一個周期內所花費的時長大概為264 s,要略高于DnCNN 的161 s。但從總的訓練時長上看,本文模型總時長為4 752 s,而DnCNN 模型則為8 050 s。這樣計算出,本文所花費的總訓練時長比DnCNN 模型縮短了約41%。由上述分析可以得到,本文模型在保證收斂速度的同時,進一步提高了去噪的精度。

圖7 DnCNN與本文模型訓練收斂速度對比圖(σ=25)Fig.7 Comparison diagram of training convergence speed between DnCNN and the proposed model(σ=25)

表7 為本文模型和其他幾種算法在Set12 測試集上處理圖像的用時比較。由于本文模型與DnCNN 均為基于深度學習的模型,在運行前已經預先將模型訓練完成,所以在運行時間上還是占有相當大的優勢。

表7 各模型執行時間對比單位:sTab.7 Comparison of execution time of each model unit:s

4 結語

本文基于去噪卷積神經網絡(DnCNN)模型提出了一種基于近似U 型網絡結構的圖像去噪模型。該模型采用殘差學習以分離干凈圖像與噪聲,利用不同步長的卷積層進行圖像的卷積與反卷積,構建出了一種近似U 型的網絡結構,并在不同大小感受野下采用了信息疊加操作。本文提出的模型不僅縮短了網絡的訓練時長,還提高了網絡的去噪性能。但目前此模型仍存在部分局限性,只能用于處理添加了高斯白噪聲的圖像,未來將對模型進行改進并嘗試將其應用于真實場景下的去噪。

猜你喜歡
信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
一個相似模型的應用
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 亚洲中文字幕av无码区| 麻豆精品久久久久久久99蜜桃| 国产午夜无码片在线观看网站| 国产成人高精品免费视频| 黄色免费在线网址| 精品国产香蕉在线播出| 污网站免费在线观看| 精品福利国产| 思思热在线视频精品| 9999在线视频| 国产成人一二三| 91系列在线观看| 麻豆精品视频在线原创| 亚洲国产AV无码综合原创| 毛片免费观看视频| 乱色熟女综合一区二区| 久久精品国产91久久综合麻豆自制| 国产91熟女高潮一区二区| 国产原创自拍不卡第一页| 亚洲成人免费在线| 夜夜操国产| 91精品日韩人妻无码久久| 九九九久久国产精品| 国产在线一区二区视频| 久久国产亚洲偷自| 五月天在线网站| 香蕉视频国产精品人| 国产精品永久在线| 美女啪啪无遮挡| 欧美中文字幕一区| 亚洲首页在线观看| 欧美黄网在线| 中文字幕va| 在线a网站| 欧美一级视频免费| 亚洲最大综合网| 999国内精品视频免费| 国产女人在线观看| 国产精品第一区在线观看| 欧美日韩成人| 亚洲视频无码| 国产成人夜色91| 国产日韩欧美视频| 久久国产成人精品国产成人亚洲| 国产福利免费视频| 国产99视频免费精品是看6| 亚洲男人天堂久久| 国产a v无码专区亚洲av| 色哟哟国产成人精品| 国产精品一区不卡| 亚洲va视频| 成人久久18免费网站| 久996视频精品免费观看| 亚洲欧美日韩成人在线| 亚洲天堂免费在线视频| 依依成人精品无v国产| 日本福利视频网站| 四虎国产成人免费观看| 久久国产亚洲欧美日韩精品| 青青草原国产免费av观看| 中文字幕在线欧美| 欧美中文字幕无线码视频| 中文字幕亚洲电影| 国产高颜值露脸在线观看| 久久久精品国产SM调教网站| 99re热精品视频国产免费| 在线观看精品国产入口| 日本黄色a视频| 午夜影院a级片| 找国产毛片看| 久久综合色天堂av| 国产成人乱码一区二区三区在线| 亚洲精品黄| 亚洲女同欧美在线| 日本精品影院| 国产91无毒不卡在线观看| 国产精品欧美激情| 黄色成年视频| 五月婷婷综合在线视频| 色综合中文字幕| 91精品啪在线观看国产60岁| 青青青国产免费线在|