999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

雙通道擴張卷積注意力圖像去噪網(wǎng)絡

2023-01-01 00:00:00曹義親邱沂
計算機應用研究 2023年5期

摘要:針對深度學習圖像去噪算法存在網(wǎng)絡過深導致細節(jié)丟失的問題,提出一種雙通道擴張卷積注意力網(wǎng)絡CEANet。拼接信息保留模塊將每一層的輸出特征圖融合,彌補卷積過程中丟失的圖像細節(jié)特征進行密集學習;擴張卷積可以在去噪性能和效率之間進行權衡,用更少的參數(shù)獲取更多的信息,增強模型對噪聲圖像的表示能力,基于擴張卷積的稀疏模塊通過擴大感受野獲得重要的結構信息和邊緣特征,恢復復雜噪聲圖像的細節(jié);基于注意力機制的特征增強模塊通過全局特征和局部特征進行融合,進一步指導網(wǎng)絡去噪。實驗結果表明,在高斯白噪聲等級為25和50時,CEANet都獲得了較高的峰值信噪比均值和結構相似性均值,能夠更高效地捕獲圖像細節(jié)信息,在邊緣保持和噪聲抑制方面,具有較好的性能。相關實驗證明了該算法進行圖像去噪的有效性。

關鍵詞:圖像去噪;深度學習;擴張卷積;注意力機制

中圖分類號:TP391文獻標志碼:A

文章編號:1001-3695(2023)05-041-1548-05

Abstract:Forimagedenoising,thispaperproposedCEANetwhichhadadual-channeldilatedconvolutionwithattentionmechanismtosolvetheproblemofinformationlosscausedbydeepneuralnetwork.Reservingblockmergedoutputfeaturemapsofeachlayertomakeupthelossofdetailinformationduringconvolution.Dilatedconvolutionachievedbetterbalancebetweendenoisingperformanceandefficiency,extractingmorefeatureswithlessparametersandenhancingtherepresentationcapabilityofthemodelfornoisyimages.Thesparsemoduleofdilatedconvolutionexpandedthereceptivefieldtoextractsignificantstructuralinformationandedgefeaturesandrecoverdetailsofcomplicatednoisyimages.Thefeatureenhancementmodulebasedonattentionmechanismfurtherguidednetworkforimagedenoisingbyfusingglobalfeatureswithlocalfeatures.TheexperimentalresultsshowthatCEANetachieveshighpeaksignal-to-noiseratioandstructuresimilaritymeanvalueatGaussianwhitenoiselevelof25and50,whichcancaptureimagedetailinformationmoreefficientlyandhasbetterperformanceinedgeretentionandnoisesuppression.Throughtheabovecomparativeexperimentsprovedtheeffectivenessofthealgorithmframework.

Keywords:imagedenoising;deeplearning;dilatedconvolution;attentionmechanism

0引言

圖像去噪[1]是圖像處理任務的重要內容之一,有助于對圖像內容進行進一步的區(qū)分和解釋,在計算機視覺領域有著重要意義。高斯噪聲是最常見且最具有代表性的噪聲,是指概率密度函數(shù)服從高斯分布(正態(tài)分布)的一類噪聲,噪聲等級也就是指概率密度函數(shù)服從高斯分布的方差。傳統(tǒng)的去噪算法可以分為空間域濾波[2]和頻率域濾波[3]。空域濾波器[2]是在圖像空間域借助模板對圖像進行操作,圖像每一個像素的取值都是根據(jù)模板對輸入像素值進行計算得到的。頻域濾波器[3]是將圖像在頻率域內的信息與算法函數(shù)利用傅里葉變換[4]進行相乘操作。傳統(tǒng)的去噪方法容易丟失許多的細節(jié),效果不佳。針對這一問題,可采用圖像先驗模型進行去噪。Buades等人[5]提出非局部均值(non-localmeans,NLM)去噪方法,使用自然圖像中普遍存在的冗余信息來去噪,以圖像塊為單位在圖像中尋找相似區(qū)域,再對這些區(qū)域求平均,從而去掉圖像中的高斯噪聲。Dabov等人[6]提出的BM3D(blockmethodof3-dimension)算法不僅使用了非局部去噪方法,同時結合小波變換域去噪方法,得到了非常好的效果。隨著深度學習的研究發(fā)展,基于深度學習的圖像去噪算法表現(xiàn)出良好的性能。2017年Zhang等人[7]提出的DnCNN算法,使用了殘差學習[8]和批量標準化[9],在較深的網(wǎng)絡條件下,依然能大幅度提升去噪性能。但是,基于深度學習的圖像去噪算法要提取特征,可能導致細節(jié)提取不夠充分,而且輸入圖像與輸出圖像的尺寸需保持一致,這就使得網(wǎng)絡的計算量很大。2020年Tian等人[10]提出ADNet算法,采用注意力引導的降噪卷積神經(jīng)網(wǎng)絡,注意力機制用于精細提取隱藏在復雜背景中的噪聲信息,擴張卷積擴大感受野,以捕獲更多的噪聲,達到更好的去噪效果。

針對深度學習去噪算法存在網(wǎng)絡過深導致細節(jié)丟失的問題,本文提出一種雙通道擴張卷積[11]注意力網(wǎng)絡用于去除圖像高斯噪聲。網(wǎng)絡由拼接信息保留模塊、擴張卷積稀疏模塊和注意力特征增強模塊組成。拼接信息保留模塊通過concat[12]層將每一層的輸出特征圖融合,彌補卷積過程中丟失的圖像細節(jié)特征,進行密集學習;擴張卷積稀疏模塊由擴張卷積和普通卷積來組成,可以減小網(wǎng)絡深度,在不額外引入?yún)?shù)和計算代價的情況下,通過擴大感受野來提取像素的領域信息,使得網(wǎng)絡充分學習局部特征和全局特征;注意力特征增強模塊利用注意力機制提取隱藏在復雜背景中的潛在噪聲特征,達到更好的去噪效果。

1相關工作

1.1擴張卷積

擴張卷積(dilatedconvolution)[11]也被稱為空洞卷積或者膨脹卷積,是在標準的卷積核中注入空洞,以此來增加模型的感受野,擴大感受野是在卷積神經(jīng)網(wǎng)絡中捕獲更多圖像細節(jié)信息的常用方法。一般來說,卷積神經(jīng)網(wǎng)絡擴大感受野的方法是增加網(wǎng)絡的深度和寬度,增加網(wǎng)絡深度會導致網(wǎng)絡層數(shù)過深,訓練困難,增加網(wǎng)絡寬度可能會涉及更多的參數(shù),增加模型的復雜性。在這里,本文用一個例子來說明。擴展因子為2的擴展卷積的感受野大小為(4n+1)×(4n+1),其中n表示給定深度卷積神經(jīng)網(wǎng)絡的深度。假設n為10,給定卷積神經(jīng)網(wǎng)絡的感受野大小為41×41。因此,它可以映射41×41的上下文信息。與標準卷積為3×3、膨脹因子為1的20層卷積神經(jīng)網(wǎng)絡具有相同的效果。擴張卷積在增加深度卷積神經(jīng)網(wǎng)絡的深度和寬度之間進行了權衡,考慮到這些原因,一些學者在卷積神經(jīng)網(wǎng)絡中使用了擴張卷積來進行圖像處理[13]。圖1(a)是基礎的卷積核,擴張卷積就是在這個基礎卷積核中加入間隔,圖1(b)對應3×3的dilationrate=2的擴張卷積,但是間隔為1,也就是相當于圖像塊的感受野是7×7的,可以理解為kernelsize變成了7×7,但是卻只有9個點有參數(shù),其余的位置參數(shù)都是0,與輸入特征圖對應位置的像素進行卷積計算,其余的位置都略過。為了提取更多的圖像特征,降低模型復雜度,本文采用一種基于擴張卷積的稀疏機制,以提高去噪性能。

1.2注意力機制

對于圖像去噪而言,提取和選擇合適的特征信息十分關鍵。在給定的復雜背景中提取特征是一個難題,為使網(wǎng)絡可以提取到圖像中更重要的特征,本文使用基于通道注意力的注意力機制(attentionmechanism)[14]。注意力機制關注同一網(wǎng)絡中不同分支的影響,指導前階段的圖像提取特征,為之前的網(wǎng)絡提供補充信息。在圖像處理任務中,注意力機制可以根據(jù)特征圖中的重要程度將不同的特征信息分配不同的權重,重點關注有用特征,對不重要的特征賦予較小的權重。

2雙通道擴張卷積注意力網(wǎng)絡

2.1設計思路

雙通道網(wǎng)絡可以提取互補特征,增強去噪能力。Huang等人[15]提出DenseNet網(wǎng)絡結構,其每一層輸入來自前面所有層的輸出。DenseNet緩解了梯度消失問題,增強了特征傳播,鼓勵特征重用,并利用密集短接的結構降低網(wǎng)絡的計算復雜度,減少網(wǎng)絡參數(shù)數(shù)量。受此啟發(fā),構思了拼接信息保留模塊,將每一層網(wǎng)絡的輸出特征圖進行融合,這樣可以彌補丟失的細節(jié),提升網(wǎng)絡表達能力,保證層間信息最大限度的傳遞。通過對Tian等人[10]提出的擴張卷積實驗復現(xiàn)研究,使用擴張卷積可以擴大感受野獲取更多有用的信息。受此啟發(fā),構思了擴張卷積稀疏模塊,擴張卷積通過減小網(wǎng)絡深度來提高去噪性能,將擴張卷積和普通卷積不規(guī)則地結合在一起,且擴張卷積層數(shù)較少,滿足稀疏機制的定義。最后,將雙通道網(wǎng)絡提取的特征進行融合,并通過注意力機制特征增強模塊來指導網(wǎng)絡去噪,使得網(wǎng)絡充分學習局部特征和全局特征,以達到更好的去噪效果。

2.2實現(xiàn)方法

2.2.1基于擴張卷積的稀疏機制

利用擴張卷積在去噪性能和效率之間進行權衡,用更少的參數(shù)獲取更多的信息,增強模型對噪聲圖像的表示能力。采用基于擴張卷積的稀疏機制以擴大感受野獲得重要的結構信息和邊緣特征,恢復復雜噪聲圖像的細節(jié)。

眾所周知,網(wǎng)絡的多樣性更大,其表示能力更強,所以將擴張卷積不規(guī)則地放置在網(wǎng)絡層中,以促進網(wǎng)絡體系結構的多樣性。擴張卷積稀疏機制利用擴張卷積[12]擴大感受野,在卷積神經(jīng)網(wǎng)絡中捕獲更多圖像細節(jié)信息。隨著深度的增長,網(wǎng)絡層中的淺層網(wǎng)絡對深層網(wǎng)絡的影響越來越小,如果在淺層上放置連續(xù)的擴張卷積,那么深層網(wǎng)絡就不能完全映射淺層網(wǎng)絡的特征信息。此外,如果在第1層設置了擴張卷積,則第1層卷積核中填充了一些零,會降低去噪性能,因此擴張卷積只能從第2層開始設置。通過實驗對比,擴張卷積稀疏模塊分別在第2、5、9、12層網(wǎng)絡設置擴張卷積時效果更好,讓網(wǎng)絡可以利用較少的擴張卷積層來獲取更多有用的信息。將擴張卷積和普通卷積不規(guī)則地結合在一起,且擴張卷積層數(shù)較少,滿足稀疏機制的定義。擴張卷積可以用更少的參數(shù)點獲取更多的信息,這不僅提高了去噪性能和訓練效率,而且降低了復雜性。在圖像去噪過程中,結合擴張卷積和batchnormalization降低了計算量,驗證了擴張卷積在圖像應用中的有效性。

2.2.2基于密集連接的拼接信息保留

為保證層間信息最大限度的傳遞,基于密集連接進行拼接信息保留,將每一層網(wǎng)絡的輸出特征圖進行融合,以彌補丟失的細節(jié),提升網(wǎng)絡表達能力。

在拼接信息保留過程中添加12個concat層,經(jīng)過每一個concat層時,前面conv層的輸出都將拼接起來作為下一個conv層的輸入。concat1~concat12的連接可以彌補卷積過程中丟失的圖像細節(jié)特征,進行密集學習。第1層卷積層的卷積核個數(shù)為16,在第2~13層的每一層卷積核個數(shù)都設置為12。因此,特征圖的數(shù)量在concat1后為28,在concat12后為160。這加強了特征的傳輸,更有效地利用了特征信息。

2.2.3基于注意力機制的雙通道特征融合

使用雙通道網(wǎng)絡將提取的特征進行融合,并通過注意力機制指導網(wǎng)絡去噪,使得網(wǎng)絡充分學習局部特征和全局特征,以獲得更好的去噪效果。雙通道特征融合是不同的子網(wǎng)絡結構提取不同的圖像細節(jié)特征,將兩個子網(wǎng)絡最后輸出的特征圖拼接后,作為下一個卷積層的輸入。在注意力特征增強過程中,第二個conv層使用1×1的卷積,將獲得的特征壓縮成向量作為調整前一階段的權重,利用獲取的權重乘以前一個conv層網(wǎng)絡的輸出,指導前階段的網(wǎng)絡提取隱藏在復雜背景中的潛在噪聲特征。1×1的卷積可以減少參數(shù)的數(shù)量,提高去噪效率,最終結果比普通的卷積層更能有效提取特征。

2.3網(wǎng)絡結構

如圖2所示,雙通道擴張卷積注意力圖像去噪網(wǎng)絡由拼接信息保留模塊(concatinformationretentionblock,CIRB)、擴張卷積稀疏模塊(expandedconvolutionsparseblock,ECSB)和注意力特征增強模塊(featureenhancementblockbasedonanattentionmechanism,AFEB)組成。

拼接信息保留模塊CIRB利用密集連接[16]的思想,每一網(wǎng)絡層的輸出都經(jīng)過concat層進行拼接操作,其中第1層為conv,卷積核大小為3×3,個數(shù)為16。這一層的主要功能是提取網(wǎng)絡的淺層特征,第2~13層為拼接信息模塊的核心部分,為conv+BN+ReLU,其中卷積核大小為3×3,個數(shù)為12。

考慮到網(wǎng)絡特征感受野大小有限制,擴張卷積稀疏模塊ECSB由擴張卷積和普通卷積來組成。此模塊有12層網(wǎng)絡層,主要有conv、dilatedconv+BN+ReLU和conv+BN+ReLU三種類型,第1層網(wǎng)絡為conv層,分別在第2、5、9、12層網(wǎng)絡設置擴張卷積層dilatedconv+BN+ReLU,擴張率為2,讓網(wǎng)絡具有稀疏性。其中第1~11層的卷積核大小為3×3,個數(shù)為64,第12層網(wǎng)絡層的卷積核大小為3×3,個數(shù)為3。擴張卷積不僅可以減小網(wǎng)絡深度、提高去噪性能,還可以在不額外引入?yún)?shù)和計算代價的情況下,通過擴大感受野來提取像素的領域信息。因此,稀疏模塊可以獲得重要的結構信息和邊緣特征。

通過使用雙通道網(wǎng)絡結構,將拼接信息保留模塊CIRB與擴張卷積稀疏模塊ECSB提取出的特征融合,使用注意力特征增強模塊AFEB來指導網(wǎng)絡進行圖像去噪。在注意力特征增強模塊中,第一個conv層的卷積核大小為1×1,個數(shù)為3,經(jīng)過下一個concat層后,與最初輸入的圖像進行拼接,得到新的特征圖,在第二個conv層使用1×1的卷積,將獲得的特征壓縮成向量作為調整前一階段的權重,利用獲取的權重乘以前一個conv層網(wǎng)絡的輸出,指導前階段的網(wǎng)絡提取隱藏在復雜背景中的潛在噪聲特征。

2.4基于CEANet的圖像去噪算法

CEANet圖像去噪算法具體流程如圖3所示。在訓練時將訓練集中的圖像剪裁至大小相同的圖像,再將訓練集圖像加上噪聲輸入至本文網(wǎng)絡中,通過損失函數(shù)訓練進行反向傳播調節(jié)參數(shù),最后使網(wǎng)絡達到收斂。測試時,將含噪聲的測試圖像輸入至訓練好的網(wǎng)絡中,可直接輸出相對應的去噪后的圖像。

為選擇損失函數(shù),使用L1loss和L2loss進行對比實驗,表1中兩個對比實驗的實驗參數(shù)設定除損失函數(shù)外完全相同,批處理大小為64,每輪次訓練3725個樣本數(shù)據(jù),epoch為150,訓練期間學習率固定為0.001,實驗結果如表1所示。由表1可以看出,采用損失函數(shù)L2loss的圖像PSNR均值比采用損失函數(shù)L1loss高出了0.35dB,損失函數(shù)選擇L2loss的效果更好。

其中:R(yi,Θ)為噪聲輸入的估計殘差圖像;yi為輸入的含噪圖像;xi為純凈圖像;(yi-xi)得到的是標準的殘差圖像;N為一個batch的輸入樣本數(shù)量。在訓練過程中不斷迭代,將損失函數(shù)降低,也就是將估計殘差與標準殘差之間的誤差降低,這樣預測的去噪圖像才能更接近原純凈圖像,獲得更好的去噪效果。

3實驗及結果分析

3.1度量標準

實驗采用的評價標準包括主觀評價和客觀評價。主觀評價即為人為肉眼觀測圖像,評價模型輸出圖像的去噪效果。客觀評價[17]采用峰值信噪比(PSNR)和結構相似性(SSIM)來檢驗圖像的去噪效果。峰值信噪比[18]是通過均方誤差評價圖像質量的指標,通過PSNR值的大小來判斷去噪效果,PSNR表示一幅圖與其對應的原圖之間的相似度。PSNR的值越高,說明去噪效果越好。PSNR的公式為

3.2實驗條件

實驗的訓練集選取的是BSD400[19],一共包含了400張灰度圖像,大小均為180×180,包括人物、建筑及自然風景等種類。其中,為了網(wǎng)絡訓練的收斂,裁剪框的尺寸(patchsize)為40,滑動步長(stride)為10,裁剪了訓練集中的380張圖像得到215552張40×40的子圖像塊,并將此作為訓練集,剩下的20張圖像作為驗證集。為了驗證網(wǎng)絡的魯棒性和實用性,使用了兩個不同的測試集,測試集則來源于Set12[20]、Set68[21]。

實驗參數(shù)設定:批處理大小為64,每輪次訓練3725個樣本數(shù)據(jù),epoch為150,訓練期間學習率固定為0.001。計算機的CPU配置為IntelCorei7,GPU為GTX3060Ti,運行內存為16GB,操作系統(tǒng)為Windows10,在PyTorch深度學習框架上訓練、驗證和測試神經(jīng)網(wǎng)絡,該框架能夠使用GPU加速訓練,節(jié)省訓練時間,用于訓練、測試的軟件為PyCharm,Python版本為3.6。

3.3實驗結果分析

為評價算法的去噪效果,選擇了NLM[5]、BM3D[6]、DnCNN[7]、ADNet[10]、DudeNet[22]、BRDNet[23]六種算法與本文算法進行對比實驗,在測試集Set12[20]和Set68[21]中隨機選取六張圖片作為測試圖像,分別向測試圖像加入的噪聲等級σ=25和50的高斯白噪聲,從主觀和客觀兩方面對測試后的圖像進行評估,比較各算法的去噪能力。

當高斯白噪聲σ=25時,六幅測試原圖如圖4所示。

表2為各算法去噪后的PSNR值。由表2可知,本文算法的PSNR均值最高,相對于其他對比算法去噪效果較好。本文算法處理后的圖像PSNR均值對比傳統(tǒng)去噪算法NLM、BM3D高出了0.713~2.214dB,對比深度學習去噪算法DnCNN高出了0.217dB、ADNet算法高出了0.19dB、DudeNet算法高出了0.118dB、BRDNet算法高出了0.1dB。表3為6幅含噪測試圖像經(jīng)各算法去噪后的SSIM值。從表3中可以看出,本文算法的SSIM均值為0.94,高于所有對比算法,相對提升了0.02~0.13。

在418×321分辨率下,DudeNet的去噪效果略優(yōu)于本文算法,這是因為tree圖片紋理相比其他圖片更為復雜,在去噪過程中存在較多干擾因素,在DudeNet中,有2個收集和融合全局特性和局部特性的增強塊,各自為其后面的網(wǎng)絡層提供補充信息,后面網(wǎng)絡層對提取的信息做進一步細化,從而提高去噪效果。本文算法與DudeNet在tree圖片的實驗結果差距僅為0.132dB,但在其他圖片中的去噪效果均優(yōu)于DudeNet,相比DudeNet,本文算法的實驗結果更為穩(wěn)定,魯棒性更強。

表4是不同算法對五幅測試圖像的去噪平均耗時。可以看出本文算法對于256×256像素的圖像處理耗時均值為0.049s,與傳統(tǒng)算法NLM相當,遠小于深度學習DnCNN、ADNet、DudeNet、BRDNet算法。

圖5、6分別為Cman、tree圖像去噪效果對比,圖中線框表示的是選取的局部放大區(qū)域,右下角為放大后的區(qū)域。可以看出,NLM和BM3D去噪算法對圖像邊緣細節(jié)的處理較差,DnCNN、ADNet、DudeNet和BRDNet算法在視覺效果上與本文算法相差不大,但從局部放大的區(qū)域來看,本文算法在細節(jié)處理能力上表現(xiàn)更好,更能還原原圖像的邊緣細節(jié)以及紋理細節(jié)。

當高斯白噪聲等級σ=50時,在測試圖像集隨機選取了六幅測試圖像,原圖如圖7所示。表5為各算法的測試圖像去噪后的PSNR值,可以看出本文算法的PSNR均值相較于其他對比算法提高了0.188~2.618dB。表6為六幅含噪測試圖像經(jīng)各算法去噪后的SSIM值,本文算法在六幅測試圖像的SSIM值均高于其他對比算法,均值達到了0.912,相較于其他對比算法提高了0.012~0.242。圖8和9分別為man和airplane圖像去噪效果對比,從整體來看,NLM和BM3D去噪后的圖像與深度學習算法去噪后的圖像相差很大。DnCNN、ADNet、DudeNet、BRDNet算法的視覺去噪效果比本文算法略差,本文算法對于原圖像的邊緣細節(jié)以及紋理細節(jié)的恢復效果更好。

4消融實驗

為了驗證所提出的雙通道擴張卷積注意力圖像去噪網(wǎng)絡的有效性,針對本文提出的網(wǎng)絡結構,分別設計了去除拼接信息保留模塊CIRB、擴張卷積稀疏模塊ECSB和注意力特征增強模塊AFEB及其組合五種不同的實驗網(wǎng)絡。所有網(wǎng)絡的實驗訓練設置相同,將Set12數(shù)據(jù)集作為測試集,以PSNR值評估去噪性能,以驗證三個模塊的有效性。

當高斯白噪聲等級σ=25時,表7為各消融實驗在Set12數(shù)據(jù)集上去噪后的PSNR值。本文算法在12幅測試圖像的PSNR值均高于各實驗網(wǎng)絡,均值達到了30.375dB,相較于各實驗網(wǎng)絡提高了0.298~0.818dB。

當高斯白噪聲等級σ=50時,表8為各消融實驗在Set12數(shù)據(jù)集上去噪后的PSNR值,本文算法在12幅測試圖像的PSNR值均高于各實驗網(wǎng)絡,均值達到了27.145dB,相較于各實驗網(wǎng)絡提高了0.276~1.838dB。

表7、8中的具體數(shù)據(jù)表明,各模塊的去除都會帶來去噪效果不同程度的降低,充分驗證了三個模塊的有效性。

5結束語

本文使用了雙通道深度學習的方法對高斯噪聲進行去噪。拼接信息保留模塊通過concat層將每一層的輸出特征圖融合,彌補卷積過程中丟失的圖像細節(jié)特征,進行密集學習。擴張卷積可以在去噪性能和效率之間進行權衡,用更少的參數(shù)獲取更多的信息,提高模型對噪聲圖像的表示能力。稀疏機制能夠獲得重要的結構信息和邊緣特征,恢復復雜噪聲圖像的細節(jié)。注意力機制可以提取隱藏在復雜背景中的潛在噪聲信息。實驗結果表明,雙通道結構增強了模型對噪聲圖像細節(jié)的表達能力,有效提高了去噪性能和處理速度。后期將針對如何保留圖像的結構特征、細節(jié)特征,在獲得更好的去噪效果的同時進一步減少去噪時間。

參考文獻:

[1]TianChunwei,F(xiàn)eiLunke,ZhengWenxian,etal.Deeplearningonimagedenoising:anoverview[J].NeuralNetworks,2020,131:251-275.

[2]GetisA,GriffithDA.Comparativespatialfilteringinregressionanalysis[J].GeographicalAnalysis,2002,34(2):130-140.

[3]ArmstrongJ.Peak-to-averagepowerreductionforOFDMbyrepeatedclippingandfrequencydomainfiltering[J].ElectronicsLetters,2002,38(5):246-247.

[4]AbuturabMR,AlfalouA.Multiplecolorimagefusion,compression,andencryptionusingcompressivesensing,chaotic-biometrickeys,andopticalfractionalFouriertransform[J].Opticsamp;LaserTechnology,2022,151:108071.

[5]BuadesA,CollB,MorelJM.Anon-localalgorithmforimagedenoising[C]//ProcofIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2005:60-65.

[6]DabovK,F(xiàn)oiA,KatkovnikV,etal.Imagedenoisingbysparse3Dtransform-domaincollaborativefiltering[J].IEEETransonImageProcessing,2007,16(8):2080-2095.

[7]ZhangKai,ZuoWangmeng,ChenYunjin,etal.BeyondaGaussiandenoiser:residuallearningofdeepCNNforimagedenoising[J].IEEETransonImageProcessing,2017,26(7):3142-3155.

[8]KimG,ParkJ,HaS,etal.Bidirectionaldeepresiduallearningforhazeremoval[C]//ProcofIEEE/CVFConferenceonComputerVisionandPatternRecognition.2019:46-54.

[9]IoffeS,SzegedyC.Batchnormalization:acceleratingdeepnetworktrainingbyreducinginternalcovariateshift[C]//ProcofInternatio-nalConferenceonMachineLearning.2015:448-456.

[10]TianChunwei,XuYong,F(xiàn)eiLunke,etal.Attention-guidedCNNforimagedenoising[J].NeuralNetworks,2020,124:117-129.

[11]AliZ,IrtazaA,MaqsoodM.AnefficientU-Netframeworkforlungnoduledetectionusingdenselyconnecteddilatedconvolutions[J].TheJournalofSupercomputing,2022,78(2):1602-1623.

[12]LiuYang,AnwarS,ZhengLiang,etal.GradNetimagedenoising[C]//ProcofIEEE/CVFConferenceonComputerVisionandPatternRecognitionWorkshops.Piscataway,NJ:IEEEPress,2020:508-509.

[13]WuHuikai,ZhangJunge,HuangKaiqi,etal.FastFCN:rethinkingdilatedconvolutioninthebackboneforsemanticsegmentation[EB/OL].(2019-03-28).https://arxiv.org/abs/1903.11816.

[14]ZhuZheng,WuWei,ZouWei,etal.End-to-endflowcorrelationtrackingwithspatial-temporalattention[C]//ProcofIEEE/CVFConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2018:548-557.

[15]HuangGao,LiuZhuang,VanDerMaatenL,etal.Denselyconnectedconvolutionalnetworks[C]//ProcofIEEEConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2017:4700-4708.

[16]HuangGao,LiuShichen,VanDerMaatenL,etal.CondenseNet:anefficientDenseNetusinglearnedgroupconvolutions[C]//ProcofIEEEConferenceonComputerVisionandPatternRecognition.2018:2752-2761.

[17]佟雨兵,張其善,祁云平.基于PSNR與SSIM聯(lián)合的圖像質量評價模型[J].中國圖象圖形學報,2006,11(12):1758-1763.(TongYubing,ZhangQishan,QiYunping.ImagequalityevaluationmodelbasedonPSNRandSSIM[J].ChineseJournalofImageandGraphics,2006,11(12):1758-1763.)

[18]LeeW,SonS,LeeKM.AP-BSN:self-superviseddenoisingforreal-worldimagesviaasymmetricPDandblind-spotnetwork[C]//ProcofIEEE/CVFConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2022:17725-17734.

[19]JinLianghai,ZhangWenhua,MaGuangzhi,etal.LearningdeepCNNsforimpulsenoiseremovalinimages[J].JournalofVisualCommunicationandImageRepresentation,2019,62:193-205.

[20]GuoYongcun,JiaXiaofen,ZhaoBaiting,etal.MultifeatureextractingCNNwithconcatenationforimagedenoising[J].SignalProcessing:ImageCommunication,2020,81:115690.

[21]ChengShen,WangYuzhi,HuangHaibin,etal.NBNet:noisebasislearningforimagedenoisingwithsubspaceprojection[C]//ProcofIEEE/CVFConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEEPress,2021:4894-4904.

[22]TianChunwei,XuYong,ZuoWangmeng,etal.DesigningandtrainingofadualCNNforimagedenoising[J].Knowledge-BasedSystems,2021,226:106949.

[23]TianChunwei,XuYong,ZuoWangmeng.ImagedenoisingusingdeepCNNwithbatchrenormalization[J].NeuralNetworks,2020,121:461-473.

主站蜘蛛池模板: 欧美一道本| 最新亚洲人成网站在线观看| 亚洲第一成年免费网站| 亚洲v日韩v欧美在线观看| 99r在线精品视频在线播放| 97影院午夜在线观看视频| 国产日本一区二区三区| 婷婷激情五月网| AV无码一区二区三区四区| 国产色婷婷视频在线观看| 国产尤物在线播放| 免费中文字幕在在线不卡| 亚洲AV一二三区无码AV蜜桃| 岛国精品一区免费视频在线观看 | 国产精品亚洲综合久久小说| 欧美激情视频一区二区三区免费| 国产精品亚洲片在线va| 二级毛片免费观看全程| 一级毛片基地| 青青操国产| 国内丰满少妇猛烈精品播| 亚洲av中文无码乱人伦在线r| 国产欧美专区在线观看| 国产无遮挡猛进猛出免费软件| 亚洲欧洲日韩国产综合在线二区| 亚洲午夜18| 狠狠色狠狠色综合久久第一次| 国产麻豆永久视频| 福利国产微拍广场一区视频在线| 国产91透明丝袜美腿在线| 国产成人免费手机在线观看视频| 狠狠色香婷婷久久亚洲精品| 2048国产精品原创综合在线| 国产黄色片在线看| 国产美女精品人人做人人爽| 国模沟沟一区二区三区| 五月婷婷激情四射| 亚洲高清日韩heyzo| 国产精品久久久久久久久kt| 国产精品久久久久久久伊一| 色天天综合| 亚洲乱亚洲乱妇24p| 亚洲人妖在线| 黄色国产在线| 久久久久青草线综合超碰| 亚洲第一天堂无码专区| 色婷婷电影网| 天堂成人av| 久久中文无码精品| 高清久久精品亚洲日韩Av| 亚洲人网站| 色香蕉影院| 亚洲成a人片| 99这里只有精品在线| 婷婷中文在线| 欧美日韩在线第一页| 国产夜色视频| 成人免费黄色小视频| 国产精品女同一区三区五区| 国产在线视频自拍| 午夜国产在线观看| 国产精品夜夜嗨视频免费视频| 欧美成人精品在线| 日韩国产综合精选| 国产精品太粉嫩高中在线观看| 22sihu国产精品视频影视资讯| 草草线在成年免费视频2| 国产精品污污在线观看网站| 色国产视频| 伊人天堂网| 色国产视频| 日本精品αv中文字幕| 呦女亚洲一区精品| 91小视频在线观看免费版高清| 999精品色在线观看| 婷婷激情亚洲| 成人福利在线观看| 9966国产精品视频| 五月天丁香婷婷综合久久| 丁香六月激情婷婷| 亚洲伦理一区二区| 在线看片国产|