999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

卷積神經網絡下的圖像去噪技術研究綜述

2020-12-03 01:54:50劉群
數碼設計 2020年14期

劉群

摘要:圖像去噪在計算機視覺領域仍然是一個活躍且具有挑戰性的研究內容,同時也在視頻感知與智能分析、遙感成像和航天圖像分析等多個高新技術產業中有著廣泛的應用。在眾多去噪方法中,卷積神經網絡(Convolutional neural network,CNN)憑借其強大的特征學習能力在圖像去噪研究領域中取得巨大突破。然而,基于CNN的圖像去噪技術仍存在以下兩個至關重要的問題有待解決:第一,去噪的本質是在去除噪聲的同時盡可能完整地保留圖像本身的信息,但目前去噪后圖像仍會不可避免地丟失圖像細節信息;第二,基于CNN的圖像去噪技術在加性高斯白噪聲(Additive Gaussian White Noise,AWGN)圖像上表現突出,但在真實噪聲圖像上表現不佳,甚至還不如傳統方法。對此,本文針對卷積神經網絡下的圖像去噪技術進行了研究梳理。

關鍵詞:圖像去噪技術;計算機視覺領域;卷積神經網絡;圖像信息

中圖分類號:TP391.41;TP183文獻標識碼:A文章編號:1672-9129(2020)14-0039-01

1基于圖像先驗知識的去噪方法研究

圖像去噪通過對圖像數據本身的重建以起到去噪的作用,其中圖像數據本身的特性即圖像先驗知識。若能夠很好地利用自然圖像的先驗信息,就可以從退化的圖像上恢復原始圖像,因此基于圖像先驗知識的去噪方法的性能主要取決于研究者對圖像先驗知識的設計和使用。圖像先驗知識主要包括圖像的分段光滑特性、稀疏性和非局部自相似性(Non-local Self-Similar,NLSS)。圖像的分段光滑特性是最直觀的先驗知識,即“優良”圖像中鄰近像素是相關的。A.N.等人提出基于此先驗的正則性約束Tikhonov正則,Tikhonov正則將圖像中各個像素點梯度模平方的累積作為描述圖像光滑性的測度,強調對大梯度的懲罰,然而圖像本身是以存在突變為其固有特征,那些本應具有大梯度的邊緣、細節等特征由此被“無辜傷及”,因此產生了過分光滑的圖像去噪結果。Rudin等人提出全變分(TotalVariation,TV)正則,該正則彌補了Tikhonov正則的不足,將梯度模平方的累積替換為梯度模的累積,在一定程度上保留了邊緣特征,但對于圖像中紋理結構和快速震蕩成分的保持仍然存在不足。為了解決上述的問題,許多學者利用灰度變換和直方圖均衡兩種技術來增強圖像的對比度;運用梯度算子、拉普拉斯算子以及反銳化掩模法等技術來提高邊緣細節信息,這些方法雖然在一定程度上獲得了很好的去噪效果,但是也容易使圖像邊緣紋理結構產生欠增強或過增強的現象。

2基于卷積神經網絡的去噪方法研究

CNN在2008年被首次應用于圖像去噪,并憑借其突出的特征表征能力在圖像去噪上取得了非常顯著的成果。與基于圖像先驗知識的去噪方法不同,神經網絡模型避免了其在學習和推斷過程中的復雜計算。CNN自動提取特征的性質對減少圖像應用中的計算成本非常重要,因此被廣泛應用于圖像去噪。由于真實噪聲圖像不多,AWGN圖像被廣泛用于去噪模型的訓練。為適應不同水平的噪聲,Cha等人網提出了一種全卷積自適應圖像去噪網絡。該網絡使用一種基于上下文的像素化映射的方法可在一定程度上保留圖像細節信息,但容易出現偽影現象。Chen等人基于生成對抗網絡(Generative adversarial networks,GAN)提出了一種盲去噪模型。該模型分為三個部分:噪聲提取、噪聲生成和用于區分噪聲圖像和去噪后的圖像的對抗網絡。這個模型可克服偽影現象,但它容易生成錯誤的圖像細節信息。Wang等人提出一種基于殘差學習的深層圖像去噪算法。然而,較深的網絡雖擁有較大的感受野區域,但特征傳播更困難。為了加強網絡頂層特征的圖像細節表征能力,Mao等人提出了深度卷積編碼——解碼去噪網絡。該網絡在卷積層和反卷積層之間設計跳線連接結構。此結構提高了頂層到底層的梯度傳播效率,但網絡較深,不容易收斂。為了同時克服感受野與深層網絡之間的矛盾,2017年,Zhang等人采用擴張卷積來學習殘差圖像并提出IRCNN模型。進一步地,為了讓一個模型能處理多個低級任務,zhang等人提出一個由卷積層、批次歸一化層(Batch normalization,BN)、線性激活單元(Rectified Linear Unit,ReLU)和殘差學習組成的去噪網絡DnCNN。考慮到去噪性能與去噪速度的關系,Lefkimmiatis等人將NLSS和CNN相結合提出的彩色非局部網絡(Colornon-localnetwork,CNLNet)可有效地去除彩色圖像噪聲。殘差學習在圖像去噪中具有突出表現,但稍顯遺憾的是,噪聲不可能被充分的學習,因此所學習到的殘差圖中不僅包含噪聲,其中包含圖像細節信息,從而不可避免的導致圖像細節信息的丟失。

3結語

綜上所述,視覺是人類獲取外界信息進行認知反應的重要途徑,人類有70%的信息是通過視覺感知獲得,而視覺獲取信息的豐富程度依賴于作為信息載體的圖像的質量。日益發展的科技使人們越來越容易獲得更多且豐富的圖像,為了從這些巨大的信息源中獲取更精確的認知反應,人們對圖像去噪的需求也越來越迫切。

參考文獻:

[1]呂永標,趙建偉,曹飛龍.基于復合卷積神經網絡的圖像去噪算法[J].模式識別與人工智能,2017(02):97-105.

[2]錢滿,張向陽,李仁昌.改進卷積神經網絡SAR圖像去噪算法[J].計算機工程與應用,2020,56(14):176-182.

主站蜘蛛池模板: 亚洲国产综合自在线另类| 无码aaa视频| 国产成人高清精品免费5388| 国产毛片久久国产| 国产高清不卡| 免费久久一级欧美特大黄| 精品少妇人妻av无码久久| 国产一级小视频| 99久久精品免费看国产电影| 欧美激情视频一区| 国产情侣一区| 欧美日韩v| 欧美笫一页| 久久国产精品嫖妓| 四虎永久免费地址| 全裸无码专区| 精品视频在线一区| 精品福利网| 亚洲人成网站观看在线观看| 播五月综合| 中文字幕av无码不卡免费| 一区二区三区毛片无码| 最新日韩AV网址在线观看| 欧美另类视频一区二区三区| 亚洲综合专区| 免费Aⅴ片在线观看蜜芽Tⅴ| 全部免费特黄特色大片视频| 扒开粉嫩的小缝隙喷白浆视频| 国产色婷婷视频在线观看| 日韩一二三区视频精品| 一本久道久久综合多人 | av无码久久精品| 国产精品永久在线| 亚洲码一区二区三区| 午夜在线不卡| 99精品这里只有精品高清视频| 99热这里只有精品免费国产| 2020国产免费久久精品99| 一本久道热中字伊人| 亚洲成人网在线播放| 四虎成人精品| 在线国产资源| 欧美自慰一级看片免费| 熟妇人妻无乱码中文字幕真矢织江| a在线观看免费| 久久久波多野结衣av一区二区| 精品视频一区在线观看| 日韩在线2020专区| 日韩二区三区| 亚洲第一极品精品无码| www.亚洲色图.com| 97久久超碰极品视觉盛宴| 欧美精品亚洲日韩a| 一区二区三区高清视频国产女人| 亚洲黄网在线| 狠狠色丁香婷婷| 亚洲国产天堂久久综合226114| 久久人午夜亚洲精品无码区| a级毛片免费网站| 69综合网| 华人在线亚洲欧美精品| 久久久久亚洲AV成人人电影软件| 免费一级成人毛片| 亚洲三级电影在线播放| 欧美乱妇高清无乱码免费| 国产男女免费完整版视频| 亚洲天堂日本| 国产丰满成熟女性性满足视频| 免费 国产 无码久久久| 国产一区二区在线视频观看| 久久国产拍爱| 欧美日韩国产系列在线观看| 亚洲Aⅴ无码专区在线观看q| 亚洲日韩Av中文字幕无码| 99久久精品免费看国产免费软件 | 国产欧美高清| 久久国产乱子| 国产成人亚洲日韩欧美电影| h网址在线观看| 国产原创第一页在线观看| 色综合激情网| 大陆精大陆国产国语精品1024|