999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進SRGAN 的圖像超分辨率算法

2022-09-18 04:36:28劉嵩山王華軍李特李光志萬軍馬瑜
西華大學學報(自然科學版) 2022年5期
關鍵詞:效果模型

劉嵩山,王華軍,李特,李光志,萬軍,馬瑜

(成都理工大學計算機與網絡安全學院,四川 成都 610059)

在大數據時代下,圖像數據被人們廣泛使用,但是圖像在采集的過程中,受設備性能、成本、圖像壓縮等一系列因素的影響導致圖像的成像效果并不理想;因此,無法滿足在一定特殊場景下的需求,如衛星遙感[1]、醫學[2]、生物特征識別[3]等。

圖像的超分辨率重建(super-resolution,SR)就是用低分辨率圖像生成對應的高分辨率圖像的過程。傳統的SR 算法大多是基于插值的超分辨率重建算法,這類算法的優點是原理簡單,速度較快。但是其高度依賴于鄰域信息,且重建后的圖像較為模糊,甚至出現振鈴現象。傳統的機器學習算法通過對一組包括HR 圖像和LR 圖像的樣本集合進行訓練,學習得到一個聯合系統模型。但是這類方法高度依賴于字典設計,且計算復雜、實時性不高。近年來,隨著深度學習技術的發展,特別是卷積神經網絡(CNN)重新被人們重視,越來越多的深度學習算法被用于SR 算法中。首次將CNN 用于SR 算法的是SRCNN[4],這種方法比傳統方法效果更好,但是計算量大,進而導致訓練速度慢。2015年,隨著何凱明團隊的ResNet[5]問世,很好地解決了深度學習算法訓練中梯度消失的問題。2016 年Kim等[6-7]首次將殘差網絡運用于SR 算法中,這一舉措解決了收斂速度慢的問題,優化了模型,圖像重建后的質量進一步提升。2017 年,Ledig等[8]首次將GAN 應用于圖像超分辨率領域,提出了SRGAN。SRGAN 的網絡模型由生成器和鑒別器兩個部分構成。生成器部分將LR 圖像重建成對應的SR 圖像,鑒別器部分將生成器生成的高分辨率圖像SR 與真實的高分辨率圖像HR 進行比較然后給出圖像質量分數,當生成器生成的SR 圖像能夠使鑒別器分辨不出真的HR 圖像和生成器重建的SR 圖像時,表明網絡模型的重建效果很好。

基于深度學習圖像超分辨率的重建算法取得了很好的效果,但是依然存在以下幾個問題:(1)SRGAN網絡模型結構本身參數數量龐大,包含生成器和鑒別器兩個部分;(2)SRGAN 的生成器網絡模型中沒有注意力機制,導致圖像特征表達能力不足;(3)以LeakyReLU 函數作為激活函數的激活層對小于等于0 的圖像信息數據泛化能力不夠,甚至可能出現梯度爆炸。

針對以上問題,本文提出一種基于SRGAN 的圖像超分辨率重建算法SRGAN-E。該算法通過添加輕量級注意力機制,在不大幅度增加模型復雜程度的情況下提升模型中生成器的部分性能,并優化鑒別器中激活函數,以獲得更好的準確性和泛化能力。改進后的算法在DIV2K 數據集進行訓練,將Set5、Set14、BSDS100、Urban100作為測試集,實驗結果表明,與SRGAN 相比SRGAN-E的PSNR和SSIM 值均有提高。

1 SRGAN 算法結構

SRGAN 網絡模型由兩部分構成。第一部分是生成器,生成器的網絡模型為SRResNet,網絡結構圖如圖1所示,輸入為低分辨率圖像LR,LR∈RM×N×3,低分辨率圖像通過卷積層、激活層后,得到多張特征圖,特征圖依次經過B 個殘差塊,殘差塊由卷積層、BN 層、PReLu 激活層組成。殘差塊將前面得到的特征圖進行深層次提取得到新的特征圖,然后進行上采樣放大圖像,最后通過卷積層將特征圖維度轉換為 3,輸出成高分辨率圖像SR。

圖1 生成器模型

SRGAN 算法的第二部分是鑒別器。鑒別器的網絡模型結構圖如圖2所示,分別將重建后的高分辨率圖像SR和真實高分辨率圖像HR 輸入鑒別器,高分辨率圖像通過卷積層后,進入激活層,然后經過若干個卷積層、BN 層、激活層后,將特征圖進行平均池化,然后經過兩次卷積層,激活層后輸出高分辨率圖像的質量分數。

圖2 鑒別器模型

SRGAN 算法很好地將GAN 運用于圖像的超分辨率重建,在Set5 等測試集上有很好的表現,但是也存在參數數量巨大且缺乏注意力機制等問題。本文在SRGAN 的基礎上進行改進,提出了一種圖像超分辨率重建算法SRGAN-E。

2 改進的SRGAN 圖像超分辨率重建算法

2.1 基礎網絡的改進

2.1.1 刪除BN 層,提高圖形的重建效果

BN 層在卷積神經網絡中起著重要作用,不但可以加快訓練速度,還具有正則化的效果。BN 層的存在使得卷積神經網絡可以去掉使用頻繁的dropout 層,L1 正則化或L2 正則后,也同樣具備防止過擬合的效果,進而提高模型的訓練精度。但是在圖像超分辨率重建過程中,BN 層的存在會降低圖形的重建效果。陳文文[9]詳細闡述了BN 層降低圖形的重建效果的具體原因:BN 層會對輸入到網絡的每個批次的圖像塊做歸一化處理,歸一化操作會破壞圖像的色彩、亮度等信息;BN 層會使網絡在每次迭代時都去學習適應不同的分布,導致網絡的訓練速度大大降低。Lim等[10]的論文中也證明了BN 會增加時間復雜度,減緩訓練速度。因此,本文在改進SRGAN 算法時為了提高圖形的重建效果將刪除BN 層。

2.1.2 引入一維卷積注意力機制,降低參數數量

自從神經網絡重新進入人們的視野以來,基于卷積神經網絡的算法不斷創新也推動著計算機視覺技術的高速發展,如AlexNet[11]、ResNet[5]、ResNeXt[12]等。近年來,越來越多的科學家將注意力機制融入卷積神經網絡,實踐證明注意力機制在提升算法性能方面有著非常顯著的效果。計算機視覺中的注意力機制可以分為3 種:一是通道域注意力,只關注圖的空間位置關系,不關注通道,如SENet[13];二是空間域注意力,不關注通道中每個像素點的差異,對特征的所有通道進行加權,如STN[14];三是混合域注意力,既包含通道注意力,又包含空間域注意力,這樣的注意力機制在實際應用中應用較為廣泛,但是也因為其結構更加復雜導致模型的參數量增大進而導致網絡訓練困難,如CBAM[15]。

2020 年,WANG等[16]通過引入一維卷積提出了輕量級注意力模型ECA-Net,因為SRGAN 中參數個數太過龐大,本文將參考ECA-Net 的通道注意力進行模型的優化。CBAM 注意力機制雖然使得網絡關注了上下文信息,但是CBAM 在過程中進行了通道壓縮,使得網絡在運算過程中舍棄了部分特征圖信息,最終使得注意力機制的特征表達能力下降;因此,本文參考ECA-Net 設計的注意力機制直接對全局池化后的通道特征圖進行一維卷積,并沒有壓縮特征圖,使得特征圖信息完全保留了下來,而且,在個過程中,也因為一維卷積而沒有對整個特征圖進行二維卷積運算使得參數數量不增反降。

2.1.3 改進殘差塊

加入注意力機制后的殘差塊如圖3所示。首先使用全局平均池化和全局最大池化來聚合特征圖F 的空間信息,生成的通道描述符分別為和,然后用卷積核長度為k的一維卷積來聚合該通道k個鄰域內的信息,將卷積后的兩個特征元素求和,然后通過Sigmoid 函數運算得到Mc(F)∈ Rc×1×1,計算過程如式(1)所示。

其中:δ是Sigmoid 函數;表示卷積核大小為k的一維卷積操作。Wang等[16]指出一維卷積核的大小k和通道數c 成正比,那么k和c之間的映射關系表示為

其中:最簡單的映射是線性函數 φ(k)=γ·k-b;而通道數c 通常設置成2 的冪。根據線性函數擴展到非線性,因此將映射函數表示為

圖3 改進后的殘差塊結構模型

根據上述函數推導出:

式中:c是特征圖的通道數;O(x)表示與x最接近的奇數。通常γ取2,b取1,因此得到k的計算方式為

然后將式(1)中Mc(F)的結果乘到池化前的特征圖上,這樣的注意力機制便可以讓模型自發地去注意圖像的重點區域。最后為了防止出現梯度在深層網絡中消失的問題,將進入殘差塊的特征圖加到主干網絡中,計算過程如式(6)、式(7)所示:

X為輸入殘差塊前的特征圖。

2.2 優選鑒別器中的激活函數

在SRGAN 中,鑒別器起著對重建后的圖像進行鑒別的作用,其性能的好壞關系著最后重建后的圖像的質量的好壞,在原SRGAN 中,使用LeakyReLU函數作為激活函數,其函數的形式如下:

LeakyReLU 函數從ReLU 函數的基礎上優化而來,相比較ReLU 函數而言,函數值在大于等于0的部分是一樣的,在小于0 的部分,也存在斜率,而不是像ReLU 函數那樣等于0,這樣就解決了神經網絡在反向傳播過程中的梯度消失的問題。

且LeakyReLU 函數沒有上限,這樣,在大于0的部分也不會出現梯度消失。

但是,LeakyReLU 函數沒有下限,且函數是單調遞增,函數在0 點處的左導數和右導數不相等導致函數不光滑。針對以上缺點,本文選擇將Mish[17]函數作為鑒別器的激活函數,Mish 函數的形式為

則根據函數計算出對應的導數為

由式(10)可知,f′(-1.2)≈0,f′(x)在小于-1.2 的區間小于0,在大于-1.2 的區間大于0,則函數在0點附近會先遞減再遞增,函數在0 點附近的圖像如圖4所示,函數沒有上限,最小值大約在-1.2 左右取得,約為-0.31。

首先,相比較LeakyReLU 函數,Mish 函數有下界,這一特點可以幫助模型實現強正則化效果。因為正則化的目的是防止過擬合,而如果激活函數沒有下界,則在特征圖中代表像素信息的數字在輸入激活函數后可能會越來越小,從而導致網絡權重在負方向上一直增大,最后導致網絡中的神經元走向極端。

其次,Mish 函數并不像LeakyReLU 函數那樣一直遞增,而是先減小后增大。且在0 點的左半邊小于0,這樣使得輸入的信息為較小的負數時,通過激活函數將信息適當放大;而當輸入信息為較大的負數時,通過激活函數將信息適當縮小,這樣就能很好地防止梯度爆炸。

最后,Mish 函數在0 點處連續,且左導數和右導數相等,使得函數在0 點處光滑,這一特性使函數避免了奇異性,神經網絡在反向傳播時,函數在0 點處依然可以求導,這樣就使得模型具有很好的泛化能力。

綜上所述,在鑒別器中我們選擇將Mish 函數作為激活函數,且與生成器一樣,去掉BN 層,鑒別器網絡模型結構圖如圖5所示。

圖4 Mish 函數圖像

圖5 改進后的鑒別器模型

3 實驗結果和分析

3.1 實驗環境

本文所使用的硬件環境的處理器是Intel(R)Xeon(R) Gold 5218 CPU @ 2.30 GHz,運行內存為125 G,顯卡版本為NVIDIA GEFORCE RTX 2080Ti,操作系統為Ubantu20.04。整個實驗基于深度學習框架pytorch 1.9 進行,實驗環境是python 3.8,GPU加速軟件為 CUDA 10.2.89和 CUDNN7.6.5。在訓練階段,使用Adam 優化器,學習率為1e-3,一共訓練100 輪。損失函數為對抗損失和內容損失。

3.2 數據集

3.2.1 訓練集

本文采用訓練集是圖像超分辨率領域的經典數據集DIV2K,數據集包含800 張訓練圖像,100張驗證圖像和100 張測試圖像。訓練集中包含低分辨率圖像和對應的高分辨率圖像。

3.2.2 測試集

本文采用的測試集是個標準基準數據集:Set5,Set14,BSDS100,Urban100。Set5 數據集是由5 張圖片組成,應用廣泛。Set14 數據集共有 14 張圖片。與 Set5 相比,Set14 所包含的圖像更多,分辨率也更高。BSDS100 數據集共有 100 張圖片,相比較Set5和Set14,BSDS100 圖像所包含的內容更加豐富。Urban100 數據集共有 100 張圖片,與BSDS100 數據集相比較,分辨率更高。

3.3 評測指標

為驗證改進算法的性能,本文使用峰值信噪比(PSNR)和結構相似性(SSIM)兩種客觀評價標準作為圖像超分辨率重建評價標準。

峰值信噪比(PSNR)經常用作圖像壓縮等領域中信號重建質量的測量,它非常簡單地通過均方差(MSE)進行定義。兩個m×n單色圖像S和H,峰值信噪比(PSNR)定義為:

結構相似性(SSIM),也是一種全參考的圖像質量評價指標,它分別從亮度、對比度、結構三方面度量圖像相似性。

式中:l(S,H)表示亮度比較函數;α為調節亮度的參數;c(S,H)表示對比度函數;β為調節對比度的參數,β> 0;s(S,H)表示結構函數;γ為調節結構函數的參數,γ> 0。

根據重建后的圖像和原始高分辨率圖像得到每個測試集上所有圖像的PSNR 值和SSIM 值,然后在每個測試集上求得平均值,得到最終的PSNR值和SSIM 值。

3.4 實驗結果及分析

3.4.1 消融實驗

在改進算法的過程中,本文將鑒別器中的激活函數從LeakyReLU 函數改為Mish 函數,為了驗證這一選擇是合理的,我們改變前文中的生成器部分,鑒別器部分在去掉BN 層以后,還是使用LeakyReLU函數作為激活函數,然后進行訓練,得到權重文件后在測試集上進行測試,然后和鑒別器中的激活函數改變后的效果進行比較,得到表1和表2。

表1 改進后的算法鑒別器中分別為LeakyReLU 函數和Mish 函數的PSNR 對比結果

表2 改進后的算法鑒別器中分別為LeakyReLU 函數和Mish 函數的SSIM 對比結果

由表1和表2可知,在測試指標PSNR 中,Set5和BSDS100 兩個數據集上,LeakyReLU 函數的表現更好,在另外兩個數據集上Mish 函數表現更好,但是在測試指標SSIM 中,4 個測試集上,Mish 函數的表現都更好。Set5和BSDS100 兩個數據集與Set14和Urban100 數據集相比,Set14和Urban100兩個數據集內容更加豐富,分辨率也更高,Mish 函數對于分辨率更高的圖像的效果更好,而LeakyReLU函數對于低分辨率的圖像的效果更好。所以盡管出現了LeakyReLU 函數表現更好的特殊的情況,本文還是認為Mish 函數作為激活函數更好,特別是對高分辨率的圖像更是如此。

3.4.2 對比實驗

為了驗證本文優化算法的效果,本文選取了一些經典算法進行實驗,先將每個算法訓練100 輪,得到相應的權重文件,然后在4 個測試集上進行測試得到在放大因子4 倍的情況下的4 個測試集的PSNR和 SSIM 值,具體如表3和表4所示。

表3 每個算法在4 個測試集上的PSNR值

表4 每個算法在4 個測試集上的SSIM值

由表3和表4可知,改進后的SRGAN-E 算法與原始的SRGAN 算法相比,在4 個測試集上PSNR的平均值增加了0.345,SSIM 的平均值增加了0.009,進而證實了改進的SRGAN-E 算法是有效的。

為驗證前文闡述的參數數量減少的真實性,本文在實驗時通過pytorch 提供的parameters()函數獲取網絡的參數數量(如表5所示),由于鑒別器的優化不涉及參數數量的改變,所以表5中只是生成器的參數。

表5 生成器參數數量

由表5可知,SRGAN-E 算法的生成器參數數量與SRGAN 算法相比,不增反降,減少了1 388 個。圖像的重建效果卻有所提升。SRGAN+CBAM 的方法雖然提升了重建效果;但是基于CBAM 的注意力機制中存在兩次二維卷積,使得參數數量在原模型上進一步增加,而且,也因為卷積運算時壓縮了特征圖的通道數,使得圖像信息損失進而導致重建效果無法進一步提高。本文所提出的算法通過一維卷積的方式保留了圖像的信息,也因為一維卷積的卷積核規模更小,使得參數有所下降,且模型的性能無論與較原始的SRGAN 算法相比,還是與SRGAN+CBAM 算法相比,算法的性能都得到了提升。

3.5 超分辨率重建改進算法的效果

為了展示改進算法的重建效果,我們從測試集中隨機選取了一張低分辨率圖片分別進行原始SRGAN 算法測試和本文改進后的SRGAN-E 算法測試,然后得到的效果如圖6所示。

由圖6可以看出,無論是客觀測試指標上還是從視覺效果上,都可以看出本文提出的SRGANE 算法都比原始SRGAN 算法在提升圖像重建效果的性能上更加優異。

圖6 放大因子為 4 倍的重建圖像結果

4 結論

為了解決SRGAN 算法中存在的問題,本文通過添加一維卷積注意力機制,優選激活函數等措施,提出了一種改進的圖像超分辨率重建算法SRGAN-E。與原始的SRGAN 算法相比,改進后的SRGAN-E 算法在4 個測試集上的PSNR和SSIM兩個評價指標上都有所提升,且減少了SRGAN 中的生成器參數數量。在本文中,僅僅是對生成器和鑒別器的性能進行了優化,雖然參數數量有所減少,但是數量依舊還是龐大,還需要進行更加深層次的優化以到達在不降低重建圖像質量的情況下提高模型訓練速度的目的。

猜你喜歡
效果模型
一半模型
按摩效果確有理論依據
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
迅速制造慢門虛化效果
抓住“瞬間性”效果
中華詩詞(2018年11期)2018-03-26 06:41:34
3D打印中的模型分割與打包
模擬百種唇妝效果
Coco薇(2016年8期)2016-10-09 02:11:50
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
3D—DSA與3D—CTA成像在顱內動脈瘤早期診斷中的應用效果比較
主站蜘蛛池模板: 亚洲国产精品无码AV| 欧美精品亚洲精品日韩专区va| 亚洲a级毛片| 国产凹凸视频在线观看| 视频国产精品丝袜第一页| 国产精品久久久精品三级| 国产日韩欧美黄色片免费观看| 69av免费视频| 欧美午夜精品| 亚洲成人动漫在线观看 | 老司机精品一区在线视频 | 亚洲v日韩v欧美在线观看| 夜精品a一区二区三区| 一区二区理伦视频| 国产微拍一区| 国产精品久久自在自2021| 国产成在线观看免费视频| 狠狠色丁婷婷综合久久| 97国产成人无码精品久久久| 国产黑人在线| 国产三级国产精品国产普男人 | 欧美日韩激情| 亚洲第一成年网| 在线观看91精品国产剧情免费| 欧美视频在线不卡| 日日碰狠狠添天天爽| 亚洲成av人无码综合在线观看 | 欧美一区二区三区不卡免费| 欧美中文字幕一区| 91小视频在线观看| 国产久操视频| 国产交换配偶在线视频| 久久婷婷综合色一区二区| 亚洲视频在线青青| 亚洲人成人无码www| 沈阳少妇高潮在线| 国产精品19p| 97在线公开视频| 无码网站免费观看| 视频二区中文无码| 毛片一级在线| 欧美亚洲日韩不卡在线在线观看| 久久久精品无码一二三区| 国产日韩av在线播放| 亚洲天堂伊人| 国产成人精品一区二区三区| 好紧太爽了视频免费无码| 最新无码专区超级碰碰碰| 岛国精品一区免费视频在线观看| 最新精品久久精品| 国产成人三级在线观看视频| 午夜欧美理论2019理论| 亚洲成人高清在线观看| 欧美黄网站免费观看| 日韩乱码免费一区二区三区| 欧美日本在线观看| 亚洲综合婷婷激情| 国产香蕉一区二区在线网站| 无码久看视频| 国产无遮挡猛进猛出免费软件| 日本不卡视频在线| 不卡午夜视频| 久久亚洲高清国产| 精品免费在线视频| 国产一级二级三级毛片| 日韩第一页在线| 国产一区二区三区免费| 婷婷综合在线观看丁香| 婷婷伊人五月| 国产精品污视频| 爱色欧美亚洲综合图区| 国产一区二区精品高清在线观看| 中文字幕精品一区二区三区视频| 亚洲欧美日韩成人在线| 免费人成视网站在线不卡| 日韩无码视频播放| 亚洲AⅤ综合在线欧美一区| 国产在线观看第二页| 国产欧美视频在线| 中文字幕亚洲综久久2021| 色婷婷天天综合在线| 色135综合网|