

摘 要 基于深度神經網絡的學習是目前計算機領域的熱門話題。全卷積網絡在圖像處理、語義分割方面有著廣泛的應用。在暗光條件下,受到低信噪比和低亮度的影響,圖片的質量會受到很大的影響。目前,很多關于去噪、去模糊、圖像增強等技術的研究已被相繼提出,但是在一些極端條件下,這些技術的作用就很有限了本文網絡實現的核心觀點是,介紹全卷積神經網絡,利用全卷積神經網絡進行圖像處理以及網絡的訓練過程。
關鍵詞 神經網絡 圖像處理 語義分割
中圖分類號:TP391 文獻標識碼:A
0引言
近年來,隨著互聯網的迅猛發展而產生的大量數據以及計算機硬件的飛速發展和各種機器學習算法的不斷優化,基于神經網絡的深度學習在計算機視覺及圖像識別分類、自然語言處理、語音識別等領域成果卓著。全卷積神經網絡作為深度學習的一個重要部分,以其獨特的結構優勢,在圖像處理方面取得了廣泛的應用。
1全卷積網絡FCN
卷積網的每層數據是一個h*w*d的三維數組,其中h和w是空間維度,d是特征或通道維數。第一層是像素尺寸為h*w,顏色通道數為d的圖像。高層中的位置和圖像中它們連通的位置相對應,被稱為接收域。
卷積網是以平移不變性作為基礎的。其基本組成部分(卷積,池化和激勵函數)作用在局部輸入域,只依賴相對空間坐標。在特定層記Xij為在坐標(i,j)的數據向量,在下一層中有Yij,Yij的計算公式如下:
其中k為卷積核尺寸,s是步長或下采樣因素,fks決定了層的類型:一個卷積的矩陣乘或者是平均池化,用于最大池的最大空間值或者是一個激勵函數的一個非線性元素,亦或是層的其他種類等等。當卷積核尺寸和步長遵從轉換規則,這個函數形式被表述為如下形式:
當一個普通深度的網絡計算一個普通的非線性函數,一個網絡只有這種形式的層計算非線性濾波,我們稱之為深度濾波或全卷積網絡。FCN理應可以計算任意尺寸的輸入并產生相應(或許重采樣)空間維度的輸出。
2訓練網絡
2.1數據集獲取
室外場景下,相機的亮度一般在0.2 lux 和5 lux 之間。室內圖像通常更暗。在室內場景中的相機亮度一般在0.03 lux 和0.3 lux 之間。輸入圖像的曝光時間設置為1/30和1/10秒。在每個場景中,相機設置 (如光圈,ISO,焦距和焦距) 進行了調整,以最大限度地提高參考圖像(長曝光時間)的質量。
2.2模型訓練
使用 L1 損失和 Adam 優化器,開始訓練網絡。在訓練過程中,網絡輸入是原始的短曝光圖像,在 sRGB 空間中的真實數據是相應的長曝光時間圖像(由一個原始圖像處理庫 libraw 處理過得參考圖像)。然后為每臺相機訓練一個網絡,并將原始圖像和參考圖像之間曝光時間的倍數差作為放大因子(例如,x100,x250,或x300)。在每次訓練迭代中,隨機裁剪一個512?12的補丁用于訓練并利用翻轉、旋轉等操作來隨機增強數據。初始學習率設定為0.0001,在2000次迭代后學習率降為0.00001,訓練一共進行4000次迭代。
2.3實驗結果
在本次實驗中,通過網絡訓練最終得出實驗結果,可以看到經過4000次迭代的圖像清晰可見。如圖1所示:
3損失函數
L1正則化和L2正則化可以看做是損失函數的懲罰項。所謂“懲罰”是指對損失函數中的某些參數做一些限制。對于線性回歸模型,使用L1正則化的模型建叫做Lasso回歸。本文評估了幾個損失函數后最終采用L1損失函數,L1正則化有助于生成一個稀疏權值矩陣。公式如下:
4總結
由于圖像低光子數和低信噪比的影響,快速低光成像系統是一個艱巨的挑戰。黑暗中快速成像系統更是被認為是一種不切實際、與傳統的信號處理相悖的技術。基于 FCN 模型結構,通過端到端訓練,改善了傳統的處理低光圖像的方法。實驗結果表明該方法能夠成功抑制噪聲并正確地實現顏色轉換,表現出較好的性能,并展現了該領域不錯的研究前景。
作者簡介:秦瑜(1991—),女,漢,河南省三門峽市,長安大學碩士研究生,基于全卷積網絡FCN的圖像處理。
參考文獻
[1] Eigen,D.&D. Krishnan, and R. Fergus. Restoring an imagetaken through a window covered with dirt or rain[J].In Com-puter Vision (ICCV), 2013 IEEE International Conferenceon,2013:633-640.
[2] Matan,O.&C. J. Burges&Y. LeCun&J. S. Denker. Multi-digit recognition using a space displacement neural network[J].In NIPS,1991:488-495
[3] Krizhevsky,A.&I.Sutskever&G. E. Hinton. Imagenetclassification with deep convolutional neural networks[J]. InNIPS, 2012.
[4] Zeiler,M.D.&R.Fergus.Visualizing and understanding convolutional networks[J].In Computer Vision-ECCV ,2014:818-833..
[5] Long,J.&E.Shelhamer&T. Darrell. Fully convolutionalnetworks for semantic segmentation[J].In CVPR, 2015.