999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深層特征差異性網絡的圖像超分辨率算法

2024-04-11 07:29:50程德強錢建生寇旗旗
電子與信息學報 2024年3期
關鍵詞:特征提取特征模型

程德強 袁 航 錢建生 寇旗旗 江 鶴*

①(中國礦業大學信息與控制工程學院 徐州 221116)

②(中國礦業大學計算機科學與技術學院 徐州 221116)

1 引言

高分辨率圖像在智能監控[1]、醫學成像[2]和目標跟蹤[3]等領域十分重要。然而,獲得圖像的硬件設備存在局限且成本高昂[4]。相較之下,基于信號處理的超分辨率重建算法更加靈活,成本更低。

圖像超分辨率(Super-Resolution, SR)重建有3類方法,即插值法[5]、重建法[6]和學習法[7-10]。近年來,深度學習在計算機視覺中逐漸占據重要地位,Dong等人[11]提出了基于深度學習的卷積神經網絡SRCNN (Super-Resolution Convolutional Neural Network),并基于此實現了SR重建。Shi等人[12]提出了ESPCN (Efficient Sub-pixel Convolutional Neural Network),首次用亞像素卷積來實現了SR重建。Lim等人[13]提出EDSR (Enhanced Deep residual networks for single image Super-Resolution),將不適合SR重建的批歸一化層移除,極大減少了網絡參數量,同時提升了重建性能。Li等人[14]提出MSRN (Multi-Scale Residual Network),在網絡中充分地融合全局和局部特征,避免了特征消失。Hui等人[15]提出IMDN (Information Multi-distillation Network),使用了自適應裁剪方法。Cheng等人[16]在此基礎上提出遞歸交叉的方式學習特征,取得了更好的效果。He等人[17]受到常微分方程啟發,組成了網絡OISR-RK2 (ODEInspired network design for single image Super-Resolution)來實現SR重建。Li等人[18]在DID(a nested Dense In Dense structure)中提出用嵌套密集結構來融合特征信息。Gao等人[19]混合卷積神經網絡和Transformer,提出了輕量級的高效網絡LBNet (Lightweight Bimodal Network)。基于Transformer結構,Choi等人[20]利用滑動窗口擴大感受野,使網絡能夠更好地恢復退化像素。

雖然以上算法有著較好的重建性能,但仍然存在以下問題:(1) 部分網絡通過加深網絡深度來提升性能,但同時會帶來更大的參數量,增加網絡的訓練難度;(2) 網絡的感受野較小,使其不能充分捕獲特征來擬合潛在退化模型,進而造成上下文信息的損失;(3) 傳統網絡往往是深層特征的堆疊,忽略了深層特征的差異性,容易造成信息冗余。

為了解決以上提出的這些問題,本研究提出了深層特征差異性網絡(DFDN),創新點具體如下:

(1)提出相互投影融合模塊MPFB(Mutual-Projected Fusion Block),利用交替上下采樣對不同深度的差異性信息進行捕獲和融合。

(2)受增強空間注意力ESA (Enhanced Spatial Attention)的啟發,本研究提出了性能更好的注意力機制,它可以充分學習特征的差異性信息。

(3)本研究提出了一種深層特征差異性網絡用于實現SR任務,不僅在量化指標上取得了最優的成績,同時在主觀視覺方面表現優異。

2 網絡模型

淺層特征提取使用兩個卷積核為3的卷積層,對輸入圖像進行初步的特征提取。對于深層特征提取模塊,本研究選擇嵌入3個殘差特征融合模塊(Residual Feature Fusion Block, RFFB),并采用遞歸方式連接,以實現特征的多層提取。重建模塊采用的是Shi等人提出的亞像素卷積上采樣。圖1描述了本研究提出的網絡結構,其中藍色虛線框將網絡分為3個部分,分別對應淺層特征提取、深層特征提取和圖像重建3個過程。

圖1 整體網絡結構圖

2.1 淺層特征提取

本研究使用卷積層來對輸入圖像進行淺層特征提取 3×3,如圖1所示,該過程可以表示為

在式(1)中,ILR代表輸入的低分辨率圖像,conv3是卷積核大小為3×3的卷積層,B0表示淺層特征。

2.2 深層特征提取

深層特征提取模塊由3個RFFB組成,以遞歸方式連接,這個過程可以用式(2)、式(3)描述。

其中,Hn為第n個RFFB模塊,b0為經過卷積層轉換通道數后的輸出,B1為輸出的深層特征。

MPFB的結構圖如圖2所示,在MPFB中,首先對輸入的特征進行特征提取并輸出不同深度的特征圖,為了集中于更多的信息特征,本研究首先計算第1層和第2層特征圖之間的差異性信息O1,然后,對差異性信息O1進行像素掩碼,該過程使用卷積核為1×1的卷積層,并與第2層特征圖進行特征相加獲得新的特征圖O2,如式(4)和式(5)所示。

圖2 相互投影融合模塊結構圖

式(5)中 c onv1為 1×1的卷積核。接著,對特征圖O2和第3層特征圖分別進行上采樣,獲得兩者之間的差異性信息O3,將差異性信息O3降采樣,與特征圖O2進行特征相加,并通過一個卷積核為1×1的卷積層降維,最終得到MPFB融合了3層特征之后的特征圖,如式(6)、式(7)所示。其中Hu為亞像素卷積上采樣,Hd為步幅卷積實現的下采樣,步幅為2,O4為一個MPFB模塊的輸出。

差異性信息表示在一個特征中存在,而在另一個特征中不存在的信息。差異性信息之間的投影使得網絡繞過共有信息,去更多地關注信息的不同,從而提高了判別能力。本研究提出的網絡結構借鑒了DBPN (Deep Back-Projection Network)[21]的反投影思路,確保在融合不同特征的同時,進行差異性信息的學習。在圖2中可以看到,輸入特征會經過3層遞歸殘差網絡RRB (Recursive Residual Network)的特征提取,其結構如圖2(b)所示。RRB由殘差塊和卷積層組成,本研究采用了Lim等人提出的簡化殘差塊RB (Residual Block),如圖2(c)所示。

2.3 差異性空間注意力模塊

受到ESA(Enhanced Spatial Attention)[22]的啟發,本文提出了差異性空間注意力模塊DSA (Differentiated Spatial Attention),如圖3所示,該注意力模塊被放置在MPFB的末端,盡可能地讓網絡感興趣的區域中集中更多具有代表性的特征,同時也能夠對特征差異性進行學習。

圖3 DSA模塊

在設計注意力模塊時,有幾個因素必須被考慮。首先,注意力模塊必須有較小的參數量,因為它將被多次用在網絡中。其次,該模塊還需具有足夠大的感受野來學習特征[23]。本研究設計的注意力模塊用1×1的卷積層來減小信道尺寸,從而實現輕量級的設計。然后,為了保證感受野足夠大,本研究使用步幅為3的最大池化層。與此同時,本研究注意到ESA中缺少對差異性信息之間的學習,因此,分別在步幅卷積和最大池化后面加入上采樣層和Conv Groups,在恢復空間維度的基礎上學習兩個分支間的差異性信息。Conv Groups的結構圖如圖3(b)所示,它由卷積層和激活層組成。上采樣模塊采用的是雙線性插值法,下采樣模塊則是利用步幅為2的步幅卷積來實現。除此之外,本研究還使用跳躍連接將空間維度縮減之前的高分辨率特征直接傳遞到注意力模塊的末端,與剛剛學習到的殘差特征融合。

2.4 圖像重建模塊

本研究選用亞像素卷積作為網絡的重建方法,如圖4所示,其中Shuffle為像素操作。

圖4 亞像素卷積

相比于流行的SR網絡中的重建模塊,本研究還添加了一條重建支路,該重建支路使用卷積核為5×5的卷積層和一個亞像素卷積層,直接從輸入圖像中提取粗尺度的特征并進行重建,過程用式(8)、式(9)表示。在公式中: conv5代表卷積核為5×5的卷積層。最后,對兩者相加之后的特征圖進行重建,將特征圖的通道數轉化為3,如式(10)所示。

3 實驗結果及分析

3.1 實驗細節

實驗采用Ubuntu18.04平臺,代碼框架為Pytorch1.7,處理器為Intel(R) Core? i7-7800X CPU @2.5 GHzx12,內存為32 GB,顯卡為GTX1080Ti,顯存為11 GB, cuda版本為8.0。訓練過程中,采用DIV2K數據集作為訓練數據集。初始學習率為0.000 1,每訓練200輪學習率降為之前的一半,損失函數為L1, 優化器使用Adam,其參數為β1=0.9:ε=10-8,β1=0.9,β2=0.999。

3.2 性能評價指標

本研究選擇SR任務中通用的峰值信噪比(PSNR)和結構相似性(SSIM)作為重建性能的評價指標。PSNR衡量了像素域之間的差異,它的單位為dB,PSNR數值越大,證明方法越優。考慮到評價的全面性,本研究還選用了SSIM作為另一個評價指標,它的數值越接近1,表示重建出來的圖像與原圖像越相似。

3.3 消融研究

為了驗證MPFB和注意力模塊的有效性,本研究分別將MPFB和注意力模塊去除,以Urban100[24]作為測試數據集,進行消融研究。

從表1的數據可以看出,若移除本研究提出的MPFB和注意力模塊,PSNR分別降低了0.14 dB和0.11 dB, SSIM分別降低0.001 3和0.000 9,這證明了MPFB和注意力模塊能夠有效地提升模型性能,改善重建效果。

表1 MPFB模塊和DSA模塊對模型性能的影響

3.4 網絡性能對比

本研究將提出的模型DFDN與SRCNN[11], VDSR[25], CARN[26], MSRN[14], IMDN[15], OISRRK2[17], LatticeNet[27], DID-D5[18], LBNet[19], NGswin[20], SwinIR-light[28]等多種SR算法比較,并測試PSNR和SSIM的值。為了比較的公平性,本研究修改了DID網絡中密集塊的卷積數,將參數量調整到與DFDN相似的大小,并命名為DID-D5。

表2展示了10種算法在數據集Set5[29], Set14[30],BSD100[31]和Urban100[24]上3種不同縮放因子的情況下測試的結果。圖5-圖6為不同算法重建出的圖像對比圖,本研究從Set14和Urban100數據集中選取了3張圖片,對比不同模型的重建效果。從對比圖中看出, DFDN相比于其它算法,能夠重建出紋理更加清晰的圖像。

表2 縮放因子為2、3、4時在基準數據集下的指標對比

圖5 Set14中barbara重建結果

圖6 Urban100中Img075重建結果

圖7 Urban100中Img092的重建結果

3.5 模型參數分析

將MPFB的數量記為M,將每個模型訓練400輪,以Urban100數據集為測試集,其中在計算重建時間時假設SR尺寸為1920×960。

從表3中的測試結果可以看出,當MPFB數量從2增加到3時,參數量增加了1.61 M,而PSNR值僅提高了0.15 dB, SSIM也僅提高了0.001。考慮到在模型參數量提升的同時,網絡訓練的難度也會加大,本研究最終選擇M=2的模型。

表3 不同MPFB數量對網絡性能的影響

為了驗證提出的注意力模塊DSA相較于ESA擁有更好的性能,本研究進行了消融實驗。從表4中可以清晰地看出,本研究模型在Set5, BSD100,Urban100等3個數據集上的重建結果均優于使用ESA的模型,且在Set14數據集上差距微小,證明DSA能夠更好地對完成圖像重建任務。

表4 不同注意力模塊對網絡性能的影響

為了驗證通道數對網絡性能的影響,將不同通道數下的數據進行對比,使用的測試集為Set5,對比結果如表5所示。當通道數為64時,相比于本模型,模型性能略微提升,但參數量卻大幅增加了83.99%,重建時間也增加了34.10%。

表5 通道數對網絡性能的影響

本研究進一步分析MPFB中特征提取殘差塊數量Res對模型性能的影響。將殘差塊的數量分別設置為2, 4, 6,對其在Set5數據集上的重建結果進行對比,表6為對比結果。實驗結果表明,增加模型殘差塊數量,對PSNR和SSIM值都有部分提升,然而過多的殘差塊卻帶來了參數量和重建時間的增長,以及梯度消失的隱患,綜合考慮以上因素,本研究將殘差塊數量置為4。

表6 不同殘差塊數量對網絡性能的影響

本研究將RFFB的數量記為D,為提高訓練速度,設第一個RFFB的通道數為16,其余皆為32,

測試集為Urban100,結果如表7所示。可以從表中清晰地看出,每增加一個RFFB模塊都會帶來參數量的大幅度提升。綜合考慮重建速度和性能指標,本研究最終確定RFFB的數量為3。

表7 不同RFFB數量對網絡性能的影響

3.6 與基于Transformer算法的對比

相比于CNN,研究者們嘗試用Transformer來實現圖像超分辨率重建任務,如SwinIR、NGswin等,將本研究算法與其在參數量和性能指標兩方面進行對比,如表8所示,測試集為4倍Urban100。

表8 與基于Transformer算法的對比

相比于參數量為11.8M的SwinIR, DFDN在參數量減少67.29%的情況下,指標僅降低了0.49%,而相比于SwinIR-light、LBNet等參數量較少的網絡,DFDN通過犧牲小部分參數量,換來了指標的大幅度提升,達到了參數量與指標之間的平衡。

3.7 高頻細節恢復能力的對比

為了驗證DFDN在學習圖像高頻細節方面的能力,本研究設計了對比實驗,使用均方誤差MSE(Mean Square Error)作為度量標準。MSE值越大,說明該圖像塊的重建結果與真實結果之間的差距越大,即模型的性能越差。

具體而言,實驗通過計算重建圖像和真實圖像Y通道分量的MSE值來評估模型性能,如式(12)所示。其中,ISR和IHR分別為重建圖像和輸入圖像的Y通道分量,H和W為圖像塊的高和寬。

圖8-圖10展示了本研究提出的模型與先進的Transformer模型在恢復細節信息方面的對比。可以觀察到,在紋理特別復雜的區域(如頭發、草地、云朵),DFDN具有最小的MSE值。這進一步證明了DFDN在不規則紋理細節上能夠充分關注到圖像的高頻細節信息。

圖8 Set5中head的差異圖

圖9 B100中291 000的差異圖

圖10 Urban100中Img027的差異圖

4 結論

本文提出了一種深層特征差異性重建網絡,該模型通過構建特征融合模塊、差異性空間注意力模塊解決了現有網絡不能夠充分學習圖像特征差異性的問題。該模型核心模塊由6個相互投影融合模塊和3個差異性空間注意力模塊構成。相互投影融合模塊將提取到的差異性信息充分融合學習,從而有效地關注圖像細節。通過在多個公開測試集上的實驗結果表明,本研究提出的網絡模型在保持了參數量和處理效率的同時,對圖像細節信息的提取能力、量化評價指標和主觀視覺效果上均優于現有的網絡。本文未來的后續實驗中將進一步優化網絡結構、研究出參數量更小,性能更高效的模型。

猜你喜歡
特征提取特征模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
3D打印中的模型分割與打包
基于MED和循環域解調的多故障特征提取
主站蜘蛛池模板: 欧美精品另类| 国产在线麻豆波多野结衣| 中国国产高清免费AV片| 18禁黄无遮挡网站| 亚洲V日韩V无码一区二区| 国产精品永久不卡免费视频| 国产尤物视频网址导航| 免费jjzz在在线播放国产| 538国产视频| 亚洲中文字幕在线精品一区| 美女无遮挡拍拍拍免费视频| 91毛片网| 国产亚洲视频在线观看| 99久久精品久久久久久婷婷| 欧美国产精品不卡在线观看 | 中文字幕永久在线看| 东京热av无码电影一区二区| 日本久久久久久免费网络| 99热这里只有精品在线播放| 亚洲AV无码久久天堂| 国产精品福利在线观看无码卡| 国产欧美日韩专区发布| 毛片免费观看视频| 亚洲黄网在线| 激情无码视频在线看| 无码国产伊人| 蜜臀AVWWW国产天堂| 一本大道无码日韩精品影视| 国模在线视频一区二区三区| 色综合网址| 国产男女免费完整版视频| 国产成人综合日韩精品无码不卡| 成人免费黄色小视频| 久996视频精品免费观看| 一级毛片免费观看久| 中文字幕第4页| 无码高潮喷水专区久久| 超清无码一区二区三区| 91精品国产福利| 亚洲av无码专区久久蜜芽| 夜夜操狠狠操| 国产亚洲精品资源在线26u| 黄色不卡视频| 亚洲精品无码不卡在线播放| 亚洲国产系列| 又猛又黄又爽无遮挡的视频网站| 成人在线观看一区| 一级毛片在线直接观看| 91免费国产高清观看| 国产无人区一区二区三区| 国产一在线观看| 在线无码私拍| 国产女人综合久久精品视| 日本国产一区在线观看| 51国产偷自视频区视频手机观看| 欧美不卡二区| 午夜国产理论| 白丝美女办公室高潮喷水视频| 国产成人综合日韩精品无码首页| 日韩视频免费| 精品欧美一区二区三区久久久| 亚洲系列无码专区偷窥无码| 嫩草国产在线| 视频一区视频二区日韩专区| 亚洲区欧美区| 色综合中文| 美女内射视频WWW网站午夜| 东京热av无码电影一区二区| 一区二区三区在线不卡免费| 亚洲成AV人手机在线观看网站| 欧美一道本| 99在线观看免费视频| 色综合激情网| 国产凹凸视频在线观看 | 动漫精品中文字幕无码| www亚洲精品| 91青青草视频在线观看的| 精品视频福利| 九色在线观看视频| 69视频国产| 伊人91在线| 亚洲欧美另类专区|