陳鈞榮,林涵陽,陳羽中
1(福州大學 數學與計算機科學學院,福州 350105) 2(江蘇大學 計算機科學與通信工程學院,江蘇 鎮江 212013)
圖像的采集、存儲以及傳輸過程中不可避免的給圖像引入不同的噪聲,噪聲的存在使得完整的圖像信息無法被獲得,這將嚴重影響圖像顯著性檢測[1,2]、圖像分割[3]、圖像分類[4-6]等高級視覺理解任務,特別是在醫學領域,醫學圖像只要被噪聲污染,就有可能影響醫生對病人的病情的判斷和后期治療,因此,研究圖像去噪的方法具有重要的現實意義.噪聲的來源復雜,且噪聲的類型多樣,圖像一旦染上噪聲就很難恢復出其原有的內容和紋理,因此,圖像去噪的目的是利用一張可觀測的噪聲圖像,盡可能恢復出其原有的內容和紋理.對圖像去噪的研究方法大致可被分為兩類:1)傳統方法;2)基于卷積神經網絡的方法.傳統的方法主要有空域像素特征去噪算法[7-9]、變換域去噪算法[10-12]和空域與其它域結合的去噪算法[13]等.例如三維塊匹配濾波算法BM3D[14],WNNM[15],CSF[16]等,他們通常利用圖像中像素間的特征,自相似性、稀疏性和平滑性等噪聲圖像的先驗信息,以此來達到去噪的目的,雖然能產生一定的去噪效果,但由于先驗信息手工獲取復雜,得到的傳統去噪方法通常時間復雜度較高,并且存在紋理丟失等問題,因此,難以應用在實際生活中.
近些年來,由于卷積神經網絡(CNN)表現出強大的自動提取特征的能力,并且能用圖形處理器加速處理,基于卷積神經網絡的方法受到廣泛的關注和用于圖像去噪的任務的研究.在基于CNN的去噪方法早期,一個性能與BM3D相媲美的三層卷積神經網絡[17]最先被提出,它不僅能達到與BM3D相同的去噪性能,而且處理速度大幅度提升,引起了業界的關注以及學術界的研究.Mao等人提出了一個端到端的網絡[18],有效地利用編碼-解碼網絡去除噪聲,并且使用跳級連接,有效的防止梯度消失,該方法有效的降低圖像的噪聲的同時,仍存在重建出的圖像過于平滑的問題.Zhang等人提出了一個結合殘差學習和批歸一化操作的網絡DnCNN[19],該方法的去噪性能提升了,但是恢復出的圖像紋理信息并沒有得到較好的恢復尤其是在噪聲幅度越高時越明顯,因此,Liu等人提出了一個新的基于空洞卷積的多尺度圖像去噪方法[20],該方法從輸入中提取多種不同尺度的特征圖,增加了網絡的視野域,一定程度上對恢復圖像的紋理信息有幫助.此后,Zhang等人提出[21],利用可以恢復的上下采樣,將噪聲圖像下采樣成多張,在小圖上實現去噪,使得網絡不增加消耗的同時擴展了視野域.Zhang等人也提出了一個基于非局部注意力機制的網絡RNAN[22],該方法有效的利用圖像的非局部的先驗信息,恢復出的圖像的紋理得到進一步優化.雖然所提到的這些基于CNN的去噪方法都表現出現有的先進的去噪性能,但是它們在去除噪聲的同時,對圖像紋理會引入一定程度的破壞,導致去噪后圖像無法保留圖像的紋理.
為了克服以上的缺點,本文在基于CNN的U型網絡U-Net[23]的基礎上,構建了一個能有效的重建出更多圖像紋理的圖像融合去噪網絡,考慮到不同輸入圖像的含有不同的圖像信息,本文提出使用兩個參數獨立的編碼器來分別提取更多有用的信息,并提出了一個串聯連接方式的融合模塊,來更好的利用它們所提取的信息和去除冗余信息,最后使用解碼器重建圖像,網絡中在對稱的卷積層上均使用U-Net的對等連接,并采用均方誤差來訓練網絡.所提出的網絡均由卷積層,批歸一化操作(BN)和非線性函數(LeakyReLU)構成,每一層輸出的特征圖都作為下一層的輸入.編碼器和解碼器是對稱的,分別由兩層卷積層構成,融合器包括一層卷積層和多個殘差塊.
本文的圖像融合去噪方法首先選取一個去噪方法的兩個含有不同去噪參數(其中一個參數與噪聲圖像的噪聲幅度相同,另一個略小于噪聲圖像的噪聲幅度)的預訓練模型,再將同一張噪聲圖像分別放入兩個預訓練模型中得到兩張初始去噪結果;通過上述方法得到的兩個初始去噪結果中一個結果中去噪效果比紋理保留效果好,另一個結果中紋理保留比去噪效果好;接著將兩張初始去噪結果分別放在不同的編碼器中抽取圖像的特征,得到包含不同信息的特征圖,然后利用殘差塊組合而成的融合器融合兩種特征,最后由解碼器重建出無噪聲圖像.圖1給出了一個例子,(a)為σ=70的噪聲圖像,(b)為σ=70的去噪參數得到的DnCNN[19]的去噪結果,(c)為σ=67.5的去噪參數得到的DnCNN[19]的去噪結果,(d)為本文的融合去噪方法融合(b)(c)得到的去噪結果,圖1中可以看出,圖(b)在低頻區域恢復出的圖像更好,圖(c)在高頻區域能保留更多的紋理信息,從(d)圖中明顯的看出本文的方法能由(b)和(c)圖融合出包含更多圖像紋理的更好的去噪圖像.
論文結構如下:第2節中,簡要介紹U-Net網絡、殘差塊與卷積神經網絡的基礎知識;第3節中,詳細介紹本文的圖像融合去噪方法;在第4節中,將本文的圖像融合去噪方法與現有的幾種先進的基于卷積神經網絡的圖像去噪方法進行主觀視覺和客觀指標的實驗對比;第5節中,對本文的工作進行總結.

圖1 融合特征的圖像去噪結果Fig.1 Image denoising results of fusion features
U-Net[23]最初用于語義分割領域,整體的框架是編碼-解碼,它在編碼和解碼的對稱的卷積層上加上對等連接使得網絡能更好更快捷的學習,整個網絡多達20層的卷積層和多個池化(pooling)操作以及4次對稱的上下采樣,由于U-Net取得不錯的性能,很多分割問題都會先嘗試使用U-Net解決.其中的編碼-解碼框架可以用于壓縮圖像和去噪,下采樣可以增加視野域以及減少過擬合的風險,從輸入圖像中提取有用的特征,上采樣可以將特征重建成圖像,因此,本文將在U-Net的基礎上進行去噪,并且由于在淺層的卷積層提取的特征包含更多高頻信息,隨著網絡變深高頻信息將減少,因此本文的方法僅使用U-Net的前兩層和后兩層以及對等連接,前兩層下采樣層用于抽取圖像的特征,經過融合模塊后,由后兩層上采樣層重建出圖像.
殘差網絡(ResNet)[24]是在經典的VGG分類網絡提出之后的又一個在分類任務上的突破,目前已經廣泛用于各種計算機領域的應用中,它的主要貢獻就是提出了殘差塊.殘差塊的目的是解決一種由深度增加引起的退化問題,即隨著網絡的層數增加,達不到理論上的高分類性能,反而性能更低.殘差塊的優點是在上下層之間引入跳級連接,使得不同層之間的特征能夠相互傳遞,避免了增加網絡的層數會引起梯度消失的問題,實際上殘差塊能得到不同層之間信息的融合,殘差塊的使用能增加網絡的深度和視野域,利于得到更好的性能,因此,在本文所提出的方法中,提出使用由殘差塊組合而成的融合模塊來達到融合不同分支的特征圖的目的,并有效的避免了梯度消失的問題,實驗證明了它的有效性.
近年來,卷積神經網絡(CNN)能自動提取圖像的特征,只要網絡設計得當,它能自動學習到問題的解.CNN是一種可以使用反向傳播算法來訓練的前饋神經網絡,廣泛應用于深度學習的各種算法中,包括的結構有卷積層(Conv)、池化層(pooling)、線性整流層和損失函數層.卷積層可以獲得圖像中每個部分的權重,池化層可以用來作為下采樣操作并防止過擬合,但是由于池化操作將損失部分信息,圖像去噪任務需要盡可能多恢復圖像信息,因此,在本文中不使用池化操作,線性整流層的函數可以增加網絡的對非線性的擬合能力,損失函數用于指導網絡優化權重的方向,并且CNN的參數共享機制,大大降低了網絡的復雜度,在本文中,將利用CNN的優點,結合U-Net和殘差塊,提出一種基于卷積神經網絡的圖像融合去噪方法.
本文的融合特征并保留紋理的圖像去噪方法(Texture-Preserving Image Denoising Method Based on U-Net Fusion,IFDNet)的結構圖如圖2所示,它分為特征提取(編碼器)、特征融合(融合模塊)和圖像重建(解碼器)3個部分.IFDNet方法的步驟如下:
1)選取一個現有的去噪方法,使用一張噪聲圖像預訓練出該方法的兩個不同去噪參數的預訓練模型即圖2中的預訓練模型A和預訓練模型B;
2)將步驟1所得的初始去噪結果1和初始去噪結果2放入IFDNet中的兩個相同的但參數獨立的編碼器中提取不同的圖像特征;
3)將步驟2所得的特征放入融合模塊進行特征融合,去除冗余的特征得到更有用的特征;
4)利用解碼器從步驟3所得的特征圖中重建出最終的融合去噪圖像.

圖2 基于U-Net融合的保留紋理的圖像去噪方法的結構圖Fig.2 Structure of texture-preserving image denoising method based on U-Net fusion
IFDNet的網絡由特征提取、特征融合和圖像重建3個模塊組成,由于網絡層數越深,所包含的特征中高頻信息越少,特征越抽象并且容易梯度消失,IFDNet的特征抽取模塊包含兩層下采樣層,且無池化操作.如圖1所示,不同的去噪參數的去噪模型得到的去噪結果所包含的信息不同,較小的去噪參數的模型的初始去噪結果在高頻區域保留較多的圖像紋理,而較大的去噪參數的模型的初始去噪結果在低頻區域的去噪性能更好,為了更好的從初始去噪結果1和初始去噪結果2中分別提取出有用的信息,本文使用兩個參數獨立的編碼器來分別提取輸入圖像的特征圖.為了融合不同分支的特征,本文提出了一種基于ResNet殘差塊[24]的融合模塊,如圖3所示,它包括對稱的上采樣卷積層和下采樣卷積層、通道拼接操作以及多個串聯的殘差塊,殘差塊包括兩個卷積-批歸一化層和特征相加操作,通道拼接操作將不同分支的特征拼接起來得到不同的有用信息,雖然有冗余但是它能提供更多的信息,拼接的特征經過一個卷積層,將得到的特征進行整合后,送入多個串聯的ResNet殘差塊中,從冗余的特征中進一步提取更重要的特征,在最后的融合部分為了保持輸出的分辨率不變,加上了一個上采樣卷積層.最后,為了保持輸出的圖像的分辨率和輸入是一樣的,圖像重建部分使用與特征提取器對應的兩層上采樣卷積卷積,它的輸入是特征融合后的融合特征圖.本文的圖像融合去噪網絡的各層參數如表1所示.

表1 本文的圖像融合去噪網絡各層參數Table 1 Parameter for the layers of the proposed IFDNet
表1中的激活函數,前4層為leakyrelu,后4層為relu,融合模塊包括以下幾個操作:下采樣卷積+激活函數函數、通道拼接操作、多個串聯的殘差塊和上采樣卷積+激活函數,其中,殘差塊包括兩個卷積+批歸一化操作和特征相加操作.

圖3 融合模塊結構圖Fig.3 Structure of the proposed fusion module
損失函數是本文的圖像融合去噪方法中重要的一部分,為了優化本文所提出的方法,尋找一個合適的損失函數來訓練IFDNet是必要的,在圖像去噪任務中,常見的損失函數有L1損失和L2損失,并且訓練的約束越多,訓練得到的網絡參數并不一定是最優的,因此,本文的網絡使用的損失函數為輸出與原圖間像素層的L2[25]損失,見公式(1):
(1)

高斯噪聲是目前圖像去噪領域中研究比較廣泛的噪聲之一,本文所有的實驗使用高斯噪聲作為圖像的噪聲.為了驗證本文所提出的方法的有效性,在人工合成的噪聲圖像做了幾組實驗.將實驗結果與現有的主流圖像去噪方法Zhang等人提出的DnCNN[19]以及Zhang等人提出的FFDNet[21]作比較,并進行視覺效果和定量指標的對比,為了公平起見,兩種方法的代碼均由作者發布的,不做參數的修改.
本文所提出的基于CNN的網絡需要噪聲圖像和對應的無噪聲圖像的圖像對作為訓練集.由于這樣的圖像對數據集難以獲取,因此,需要手工合成訓練集,過程如下:首先,選取BSD500[26]中的400張訓練圖像和ImageNet[27]中400張驗證圖像,總共800張作為干凈的無噪聲圖像,然后利用高斯函數產生均值為0,方差為σ的高斯噪聲,最后將產生的高斯噪聲加到干凈圖像圖像中,即可完成訓練集的制作.本文的對比實驗包括7組不同方差(σ=10,20,30,40,50,60,70),驗證和測試使用與訓練數據同種加噪方式,其中驗證集是BSD500中減去BSD400的400張訓練集和BSD68[28]的68張測試集所剩下的32張,多個測試集的使用可以有效的防止在一個數據集上過擬合,因此,測試集使用BSD68和Set14[29]兩個不同的數據集.
使用4.1所提到的800張加上噪聲的圖像的訓練集,訓練時,首先選定兩個噪聲參數分別為σ和σ′=σ-k的DnCNN[19]去噪模型,得到同一張噪聲圖像(噪聲方差為σ)的不同初始去噪結果;然后,分別在圖像的同一位置將初始去噪結果和原圖裁剪成相同的256×256大小的圖像塊,作為網絡的輸入來訓練所提出的IFDNet網絡,其中使用的數據增強方式為隨機翻轉和隨機旋轉,batchsize大小設置為10,使用ADAM[30]優化器來優化IFDNet,并將學習率設置為0.0002,其它設置為默認設置.訓練的epoch大小設置為20,最終得到的模型為訓練時在驗證集上取得的性能最好的模型.測試時,網絡能適應任意大小的噪聲圖像.所提出的方法使用TensorFlow框架和matlab來實現算法.
為了評估所提出的IFDNet的有效性,本文使用兩種常見的客觀評價指標和主觀視覺效果來評價IFDNet生成的圖像的質量,兩個客觀評價指標分別為峰值信噪比(PSNR)和結構相似性(SSIM).
PSNR是最普遍的用于評價圖像畫質的指標,理論上,只要PSNR的值越高,那么生成的圖像的質量就越好,它的定義如下:
(2)
式中:
(3)
其中,MAX表示圖像中所有像素中的最大差值,MSE為干凈圖像G與IFDNet輸出的去噪后的圖像D的像素間的均方誤差,H,W表示圖像的高和寬,G(i,j)和D(i,j)分別表示干凈圖像G和IFDNet輸出的去噪后的圖像D的像素點(i,j),理論上,MSE的值越小,證明IFDNet輸出的去噪后的圖像D的像素值與干凈圖像G之間的像素值越接近,PSNR的值就越高,圖像的質量就越好.
不同于PSNR的比較,SSIM是廣泛使用的用于評價生成圖像與參考圖像之間的相似性的指標,一定程度上更能反映出更符合人眼的評估系統,它的定義如下:
(4)

為了使本文的方法能有效地融合不同的特征并產生更多紋理,選擇一個合理的σ′=σ-k的參數k是必須的.若參數k選擇太小則其對應模型的去噪結果與參數為σ的模型的去噪結果相近,無法提供足夠多的紋理用于方法的融合,若參數k選擇太大則其對應模型的去噪結果在保留紋理的同時也保留了更多的圖像噪聲,不利于方法的特征融合,因此,選擇一個k值適中的參數σ′能使得所提出的方法性能更佳.針對k值的選擇,本文做了一個不同k值下的圖像去噪性能的對比實驗,實驗的第1個DnCNN模型的噪聲參數均采用σ=50的高斯噪聲,第2個DnCNN模型的噪聲參數σ′的參數k分別選擇1.5、2.5、3.5和4.5,并在驗證集上評估它們的PSNR和SSIM值,如表2所示,參數k選擇1.5、2.5或者3.5,所得到的PSNR值的差別并不明顯,k為3.5時略微有下降趨勢,但三者具有相近的SSIM,然而參數k選擇4.5時,PSNR和SSIM明顯有下降趨勢,因此,[1.5-3.5]為參數k的合理取值范圍.綜上所述,本文選擇參數k為1.5和3.5的中值即參數σ′=σ-2.5.

表2 不同參數在IFDNet上的性能比較Table 2 Comparison performance of different parameters on IFDNet
4.5.1 實驗1.主觀視覺效果對比
為了證明IFDNet的去噪性能,圖4和圖5展示了兩張不同圖像由不同去噪方法得到的去噪結果的視覺效果對比.為了使視覺對比效果更明顯,本文使用測試后的圖像經過裁剪的部分圖像作為對比區域.圖4展示了當噪聲等級為σ=40時,不同方法BSD68[28]上的Test011圖像的去噪結果的視覺效果對比,圖4(a)為無噪聲圖像,圖4(b)為噪聲圖像,圖4(c)為傳統方法BM3D[14]的去噪結果圖,圖4(d)為DnCNN[19]的去噪結果圖,圖4(e)為FFDNet[21]的去噪結果圖,圖4(f)為所提出的方法的去噪結果圖.一方面,首先可以看到BM3D的去噪結果圖是模糊的,DnCNN的去噪結果圖的樓層的結構并沒有恢復出來,而FFDNet的左邊的樓層結構雖然恢復出來了,然而右邊的樓層結構仍然與參考圖像相差甚遠,并且所恢復出來的樹是模糊的,另一方面,本文的IFDNet在恢復圖像細節和結構方面表現出了很好的性能,并且能夠獲得比其他方法更好的視覺效果.圖5展示了當噪聲等級為σ=70時,不同方法BSD68[28]上的Test009圖像的去噪結果的視覺效果對比,圖5(a)為無噪聲圖像,圖5(b)為噪聲圖像,圖5(c)為傳統方法BM3D[14]的去噪結果圖,圖5(d)為DnCNN[19]的去噪結果圖,圖5(e)為FFDNet[21]的去噪結果圖,圖5(f)為所提出的方法的去噪結果圖.可以很明顯的觀察到BM3D的去噪結果圖有很多瑕疵沒有去除干凈,并且紋理丟失相當嚴重,DnCNN的去噪結果的眼角紋理和老虎的胡須沒有被恢復出來,整張圖像的噪聲去除的不干凈,視覺效果更模

圖4 不同方法在σ=40時的去噪結果的視覺效果對比Fig.4 Comparison of visual effects of denoising results computed by different methods at σ=40

圖5 不同方法在σ=70時的去噪結果的視覺效果對比Fig.5 Comparison of visual effects of denoising results computed by different methods at σ=70
糊,而FFDNet的去噪效果甚至改變了老虎眼睛的紋理,耳朵也是模糊的,本文的IFDNet能更好的恢復出耳朵、眼睛和胡須等紋理信息,整體視覺效果清晰.綜合圖4和圖5的視覺效果對比,本文的IFDNet的去噪圖像噪聲去除的更干凈,且更能保存圖像紋理.
4.5.2 實驗2.IFDNet在數據集BSD68上的實驗性能
實驗2的主要目的是測試所提出的IFDNet在數據集BSD68[28]上的實驗性能.表3和表4分別為不同方法在數據集BSD68上的PSNR和SSIM結果,表3中的行分別為噪聲參數為σ=10,20,30,40,50,60,70時不同方法所產生的PSNR數值,列分別為同一方法在不同去噪參數時的PSNR數值,所包含的方法有:去噪參數為σ時的BM3D[14]模型,去噪參數為σ時的DnCNN[19]模型,去噪參數為σ-2.5的DnCNN模型,FFDNet[21]模型和本文的IFDNet.從表3中首先可以看出所提出的IFDNet的平均PSNR值比BM3D高出2.48dB,比DnCNN(σ)高出1.26dB,比DnCNN(σ-2.5)高出1.81dB,比FFDNet高出1.08dB,然后每個噪聲參數的模型得到PSNR值均比所對比的方法高,尤其是在噪聲參數為20時,本文的方法比所對比的方法高出3dB左右.表4中的行分別為噪聲參數為σ=10,20,30,40,50,60,70時不同方法所產生的SSIM數值,列分別為同一方法在不同去噪參數時的SSIM數值.從表4中可以看出,IFDNet的結構相似度大部分都在所對比的方法中取得最高值,只有在噪聲參數為30時,略低于FFDNet,并且所得到的平均結構相似度也是最高的.因此,綜合PSNR和SSIM兩個客觀評價指標,本文所提出的方法在去噪的性能上是優于所對比的方法的.

表3 不同方法在數據集BSD68上的PSNR(dB)結果(最優結果用粗體表示)Table 3 PSNR results of different methods on the dataset BSD68 (the best performance value in each row is shown in bold)

表4 不同方法在數據集BSD68上的SSIM結果Table 4 SSIM results of different methods on the dataset BSD68
4.5.3 實驗3.IFDNet在數據集Set14上的實驗性能
為了驗證所提出的方法具有泛化能力,實驗3使用與實驗2完全不同的數據集Set14[29]對IFDNet的實驗性能進行測試.所對比的指標為與實驗2相同的PSNR和SSIM.表5為不同方法在數據集Set14上的PSNR結果,表6為不同方法在數據集Set14上的SSIM結果.表5中的行分別為噪聲參數為σ=10,20,30,40,50,60,70時不同方法所產生的PSNR數值,列分別為同一方法在不同去噪參數時的PSNR數值.從表5中可以看出IFDNet在各個噪聲水平時的PSNR值均比BM3D高,尤其在噪聲水平越高時越明顯,在噪聲參數為10時略低于FFDNet[21]和DnCNN[19]的PSNR值,在噪聲參數為30和50時,IFDNet的PSNR值比FFDNet低,但與DnCNN高,在其它噪聲參數時,所提出的方法的PSNR值均比兩個對比的方法高,7組對比實驗的平均PSNR也比所對比的兩個方法高.表6中的行分別為噪聲參數為σ=10,20,30,40,50,60,70時不同方法所產生的SSIM數值,列分別為同一方法在不同去噪參數時的SSIM數值.從表6中可以看出,IFDNet的SSIM值在噪聲參數為30和50時比FFDNet低,但比DnCNN高,在其它噪聲參數時比兩個對比的方法高,平均值也比DnCNN和FFDNet高,并且各個噪聲水平上的SSIM值也都高出傳統的BM3D算法.因此,綜合表5和表6的數值對比,實驗3證明了,所提出的方法在不同數據集上具有較強的泛化能力.

表5 不同方法在數據集Set14上的PSNR(dB)結果Table 5 PSNR results of different methods on the dataset Set14

表6 不同方法在數據集Set14上的SSIM結果Table 6 SSIM results of different methods on the dataset Set14
對比實驗的結果表明,本文的方法在不同數據集上具有良好的去噪性能和泛化性能,為了證明本文的方法具有一定的魯棒性,本文做了一個噪聲圖像的噪聲方差與訓練網絡的噪聲方差不一致時的魯棒性測試實驗.實驗中訓練網絡的噪聲方差σ=50,σ′=47.5,測試的噪聲圖像的方差選用50±1.5,在測試集測試的結果的PSNR值和SSIM值如表7和表8所示,當測試的方差為51.5時,IFDNet的去噪結果的PSNR值分別高于融合前的兩個分支0.09和0.67,SSIM值分別高于融合前的兩個分支0.006和0.032,當測試的方差為48.5時,IFDNet的去噪結果的PSNR值和SSIM值相較于融合前也略有提升.綜上所述,當噪聲圖像的噪聲方差與訓練網絡的噪聲方差有偏差時,本文的方法仍然有效,可以實現對兩個分支的融合并提高去噪性能.

表7 魯棒性測試實驗的PSNR值Table 7 PSNR values of the robustness test

表8 魯棒性測試實驗的SSIM值Table 8 SSIM values of the robustness test
本文針對現有的基于卷積神經網絡的圖像去噪方法在去除噪聲的同時,對圖像紋理會引入一定程度的破壞,導致去噪后圖像無法保留圖像的紋理的問題,提出了一種融合特征并保留紋理的圖像去噪方法.該方法首先選取一種去噪方法,利用該去噪方法的兩個不同去噪參數的預訓練模型分別得到同一張噪聲圖像的不同初始去噪結果,然后為了增加可以融合的信息,利用兩個編碼器分別提取不同去噪結果的特征,并同時放入融合模塊融合圖像的特征,最后利用解碼器重建出無噪聲圖像.實驗證明,所提出的方法在不同數據集上具有較強的泛化能力,產生的無噪聲圖像所恢復出來的紋理信息更符合其原本的紋理,也證明了所提出的融合的方法能夠有效的利用圖像的先驗信息,融合出更清晰的圖像紋理.與兩種現有的流行的圖像去噪方法相比,所提出的方法無論在視覺效果還是在客觀指標上皆優于這兩種主流方法.