999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于自適應級聯的注意力網絡的超分辨率重建

2022-08-30 13:50:58陳一鳴周登文
自動化學報 2022年8期
關鍵詞:特征實驗信息

陳一鳴 周登文

單圖像超分辨率(Single image super-resolution,SISR)[1]技術是一個經典的計算機視覺任務,旨在從一個低分辨率(Low-resolution,LR)圖像生成對應的高分辨率(High-resolution,HR)圖像,在醫學成像、監控和遙感等領域有十分廣泛的應用.SISR 是一個病態的逆問題,要重建逼真的HR 圖像非常困難,因為一個LR 圖像可與多個HR 圖像對應,需要假定的先驗知識,正則化原HR 圖像解[2].

近年來,深度學習[3]技術顯著改進了SISR 性能,并主導了當前SISR 技術的研究.Dong 等[4]提出了第1 個基于卷積神經網絡的SISR 算法稱為超分辨率卷積神經網絡(Super-resolution convolutional neural network,SRCNN).SRCNN 只有3個卷積層,感受野較小.之后的SISR 方法的一個趨勢是:逐步加深網絡,從而獲得更強的LR-HR 映射能力,同時擁有更大的感受野,能夠融入更多的背景信息,改進了SISR 性能[5].然而加深網絡也會帶來一些問題:更大的網絡(更深或更寬),會有更多的參數,需要更大的內存和更強的計算力,這阻礙了在資源受限的設備,如移動設備上的實際應用.當前已有一些引人注意的基于輕量級網絡的SISR方法被提出.Kim 等[6]提出的深度遞歸卷積網絡(Deeply-recursive convolutional network,DRCN)方法,使用深度遞歸的方法,在卷積層之間共享參數,在加深網絡的同時,盡可能不增加網絡參數量.Tai 等[7]提出的深度遞歸殘差網絡 (Deep recursive residual network,DRRN),也使用了深度遞歸的方法.與DRCN 的區別在于DRRN 在殘差塊之間共享參數,不僅顯著地減少了參數量,而且性能也顯著更好.Tai 等[8]也提出了深度持續記憶網絡(Deep persistent memory network,MemNet)方法,使用記憶模塊,并多次遞歸,既能控制參數量,也能更好地利用多層特征信息.Ahn 等[9]提出的級聯殘差網絡(Cascading residual network,CARN)方法,使用級聯殘差的形式,重用不同層次的信息.Li 等[5]提出的輕量級超分辨率反饋網絡 (Lightweight super-resolution feedback network,SRFBN-S)方法,使用循環神經網絡結構,共享隱藏層的參數,并多次利用各個隱藏層的輸出,從而改進了網絡性能.

本文提出了一個新的輕量級SISR 模型,稱為自適應級聯的注意力網絡(Adaptive cascading attention network,ACAN).與當前類似的尖端SISR 方法相比,ACAN 有更好的性能和參數量平衡.的主要貢獻包括:1)提出了自適應級聯的殘差(Adaptive cascading residual,ACR)連接.殘差塊之間的連接權重,是在訓練中學習的,能夠自適應結合不同層次的特征信息,以利于特征重用.2)提出了局部像素級注意力(Local pixel-wise attention,LPA)模塊.其對輸入特征的每一個特征通道的空間位置賦予不同的權重,以關注更重要的特征信息,更好地重建高頻信息.3)提出了多尺度全局自適應重建(Multi-scale global adaptive reconstruction,MGAR)模塊,不同尺寸的卷積核處理不同層次的特征信息,并自適應地組合處理結果,以產生更好的重建圖像.

1 相關工作

1.1 注意力機制

注意力機制在計算機視覺領域中已經引起了越來越多的關注[10-12].在圖像分類問題中,Wang 等[11]設計了軟掩模支路,同時探索特征在空間維度和通道維度上的關系.Hu 等[12]提出了輕量級的擠壓和激勵(Squeeze-and-excitation,SE)模塊,在網絡訓練過程中探索特征通道之間的內在聯系.在圖像理解問題中,Li 等[13]提出了引導的注意推理網絡,網絡預測結果能夠聚焦于感興趣的區域.Liu 等[14]首次將注意力機制引入到SISR中,提出了全局的注意力產生網絡,能夠定位輸出特征的高頻信息,以改進SISR 性能.Zhang 等[15]提出的殘差通道注意力網絡 方法,使用通道注意力機制,能夠選擇攜帶信息豐富的特征通道.本文主要受Wang 等[11]和Liu 等[14]的啟發,提出了局部像素級注意力模塊.在像素級別上定位高頻信息豐富的區域,以更好地利用特征.

1.2 上采樣層

上采樣層是SISR 重建中很重要的一個組成部分.早期基于深度學習的SISR 方法[4,8,16],一般先將LR 圖像,用雙三次插值到目標HR 圖像的尺寸,再輸入到網絡模型.這有助于減輕學習難度,但大大增加了網絡的計算量與參數量[17].目前常用的重建方法是直接輸入原始的LR 圖像[18-19],再將網絡模型的輸出上采樣得到重建的HR 圖像.文獻[18]和文獻[20]使用轉置的卷積作為上采樣層,文獻[15]和文獻[19]使用亞像素卷積進行上采樣.這些單尺度上采樣能緩解預上采樣的弊端,但是,其同樣存在難以充分利用網絡模型產生的豐富的特征信息的問題.本文提出了一種多尺度全局自適應的上采樣方式:針對不同的層次特征使用不同尺寸的卷積核,多尺度地利用網絡模型產生的特征信息,并能夠根據自適應參數,自適應選擇不同層次特征的結合方式,以改進超分辨率的重建效果.

2 方法

本文ACAN 網絡模型主要包括:淺層特征提取模塊(Shallow features extract block,SFEB)、非線性映射模塊(Non-linear mapping block,NLMB)、多尺度全局自適應重建模塊和全局殘差連接,如圖1 所示.SFEB 是一個3×3 卷積層,提取輸入LR 圖像的淺層特征,并將提取的特征輸入到NLMB 模塊.本文使用的所有大小的卷積層的尾部都伴隨著激活層,并且使用PReLU 作為所有激活層的激活函數,后文不再詳細說明.受SRFBN[5]的啟發,本文在NLMB中采用類似結構,并在層次特征提取模塊(Hierarchical features extract block,HFEB)之間參數共享,以減少參數量.NLMB是HFEB 的多次遞歸,在SFEB 的基礎上進一步進行深層特征的提取.HFEB 由2 個3×3 的卷積層和一個提取及掩模(Extract-and-mask,EM)模塊組成.由于本文設計的ACR 連接,第1 個HFEB 的輸入僅為SFEB 的輸出,之后遞歸的每一次,HFEB的輸入都包含兩個部分:1)上一層HFEB 的輸出;2)前面所有HFEB的輸出與對應的自適應參數相乘后的和,并直接輸入到當前HFEB 的EM 模塊中.MGAR 模塊則接收NLMB 所有輸出重建殘差圖像;最后,全局殘差連接產生雙三次插值的LR圖像,與殘差圖像相加之后即為重建的HR 圖像.由于文獻[21]已經指出L2 函數作為損失函數所謂缺點,所以本文使用L1 損失函數,如下式所示:

圖1 自適應級聯的注意力網絡架構(ACAN)Fig.1 Adaptive cascading attention network architecture (ACAN)

第2.1~2.3 節詳細介紹HFEB、EM 模塊和MGAR模塊.

2.1 層次特征提取模塊(HFEB)

HFEB 的重要特征是:每個HFEB 的輸入來源不同.由于信息在流動過程中會不斷損耗,因此希望使用跳躍連接解決這個問題.為了有效地進行特征重用,同時考慮參數量的問題,最終搭建了自適應級聯殘差(ACR)連接,如圖1 所示.ACR 連接結構上類似于級聯連接,但本質上仍為殘差連接,并通過自適應參數控制信息流動.由圖1 可知,由于ACR 連接,除第1 個HFEB 的輸入只接收SFEB的輸出外,之后的每個HFEB 的輸入都包括兩個部分:1)上一層HFEB 的輸出;2)前面所有HFEB的輸出與對應的自適應參數相乘后的和.

在第t個HFEB 中,第1 部分輸入(即第t-1個HFEB 的輸出),先經過兩個3×3 的卷積層,然后將輸出乘上對應的自適應參數,并與第2 部分輸入相加,再輸入到其中的EM 模塊進行高頻信息的定位與提取.第t個HFEB 的表達式如下:

式中,fHFEB表示HFEB,分別為第t個HFEB 的第1 部分輸入和第2 部分輸入,為第t個HFEB 的輸出.

2.2 提取及掩模(EM)模塊

在每個HFEB 中,使用EM 模塊選擇和提取高頻特征信息.EM 模塊主要由特征預處理單元、特征提取模塊和局部像素級注意力模塊3 個部分組成,如圖2 所示.

圖2 提取及掩膜模塊Fig.2 The extract and mask block

如前所述,第t個EM 模塊的輸入來自兩部分:1)當前HFEB 中,經過兩個3×3 卷積層的輸出,乘上對應的自適應參數αt后的積;2)前面所有HFEB 的輸出與對應的自適應參數相乘后的和.二者之和為當前EM 模塊的輸入.EM 模塊的輸入可表示如下:

為了緩解梯度消失的問題,在EM 模塊外增加了局部殘差連接.第t個HFEB 中EM 模塊的輸出可表示如下:

下面詳細介紹EM 模塊的各個組成部分.

2.2.1 特征預處理單元

為了初步選擇信息更豐富的特征,先在EM 模塊中,使用類似于Hu 等[12]提出的SE 模塊,進行通道級的特征選擇.為了加權各個特征通道,將SE 模塊中的Sigmoid 門函數替換成Softmax 門函數.同時為了減少因Softmax 門函數引起的信息損失,增加了局部殘差連接.修改的SE 模塊,可表示如下:

式中,fSE*表示修改后的SE 模塊,Isum_in和ISE*是EM 模塊的輸入和輸出.

2.2.2 特征提取模塊

修改后的SE 模塊的輸出ISE*,輸入至特征提取模塊,進行高頻信息的提取,如圖3 所示.

圖3 特征提取模塊Fig.3 Feature extracting block

Haris 等[22]已經證明了使用遞歸的上下采樣進行特征提取的有效性.因此,也使用這種采樣方式進行特征提取.輸入特征ISE*,先通過4×4 的轉置卷積層上采樣得到,然后,經過6×6 的卷積層下采樣得到,如下所示:

特征提取模塊中,使用的兩次轉置卷積和兩次卷積,都使用了參數共享.特征提取模塊fup_down可表示如下:

2.2.3 局部像素級注意(LPA)模塊

由于通道注意力機制只按通道攜帶的信息量多少進行選擇,對于高頻信息的定位可能不夠準確.受Wang 等[11]和Liu 等[14]的啟發,提出局部像素級注意(LPA)模塊,進行像素級的高頻信息定位.LPA模塊如圖4 所示,為了減小參數量,各卷積層的參數都是共享的.

圖4 局部像素級注意力模塊Fig.4 Local pixel-wise attention block

在壓縮階段,使用了2 個連續的3×3 卷積層-最大池化操作.最大池化下采樣有助于擴大感受野和定位高頻特征信息區域.壓縮階段可表示如下:

ISE*和Iexp分別是LPA 模塊的輸入特征和壓縮階段的輸出特征.W0是卷積層的參數(省略偏差以簡化符號),f↓表示最大池化的下采樣.

在擴張階段,設置與壓縮階段對稱的2 個連續的上采樣-3×3 卷積層,并使用雙三次插值作為上采樣方式.考慮到下采樣會造成部分信息丟失,在擴張階段和壓縮階段的對應位置處建立了跳躍連接,并且引入了可學習的自適應參數α,調節從壓縮階段連接到擴張階段的特征信息.擴張階段如下所示:

式中,Iext和Imask分別是擴張階段的輸入(即壓縮階段的輸出Iexp再經過3×3 的卷積層之后的輸出)和擴張階段的輸出,Imask同時也是LPA 模塊的輸出.I1和I2分別是壓縮階段第1 次和第2 次卷積層的輸出,α1和α2是自適應參數.f↑是雙三次插值上采樣.

2.3 多尺度全局自適應重建(MGAR)模塊

文獻[4-9]大多是單尺度的重建,受MSRN[21]的啟發,提出了多尺度重建的MGAR 模塊,可以利用NLMB 中提取的層次特征,進一步改進SISR 重建性能.MGAR 模塊與MSRN 中MSRB的區別在于:MGAR 模塊是一個SISR 重建模塊,多尺度利用之前的層次特征,重建殘差圖像;MSRB 是一個特征提取模塊,僅處理前一個MSRB 輸出的特征.

MGAR 模塊如圖5 所示.由于NLMB 中低層HFEB 的感受野較小,故在MGAR 模塊中使用較大的卷積核與之對應,然后,逐漸減少卷積核的大小.考慮到參數量的約束,選取最大的卷積核尺寸為9,最小的卷積核尺寸為3.假定NLMB 中有T個HFEB,第t(1≤T≤8)個HFEB 的輸出在MGAR 模塊中對應的卷積核的尺寸計算為:

圖5 多尺度全局自適應重建模塊Fig.5 Multi-scale global adaptive reconstruction block

當T>8 時,由于此時網絡已經有足夠的深度,所以設置MGAR 模塊中前8 層的卷積核大小與T=8時相同,之后的卷積核大小均設置為3.

MGAR 模塊的每一個輸入,與對應卷積核卷積后,再與一個可學習的自適應參數相乘,作為當前支路的輸出.各個分支的和,經過亞像素卷積[19]上采樣之后,作為MGAR 模塊的最終輸出.對輸入的LR 圖像進行雙三次上采樣后,與MGAR 模塊的輸出求和,得到重構的HR 圖像,用公式表示如下:

式中,ISR是輸出的HR 圖像,ILR是輸入的LR 圖像,fMGAR和fup分別表示MGAR 模塊和雙三次插值的上采樣.

3 實驗細節

3.1 設置

本文實驗保持與之前的研究文獻設置相同.訓練圖像:DIV2k 數據集[23]中800 張高質量圖像;測試圖像:共同使用的Set5[24],Set14[25]、Urban100[26]、B100[27]和Manga109[28]測試集;驗證圖像:DIV2k 數據集中第801~810 張高質量圖像;訓練圖像增擴:進行90、180、270 度旋轉、水平翻轉和隨機裁剪.訓練階段:在RGB 顏色空間上進行訓練,并且使用梯度裁剪策略穩定訓練過程.測試階段:所有彩色圖像均轉換到YCrCb 顏色空間,在亮度通道Y 上進行測試.每一個最小批訓練輸入:16 個48×48 的圖像.使用Adam 優化器[29]訓練網絡,其中設置β1=0.9,β2=0.999,?=10-8.初始學習率e=10-4,每經過200 個回合,學習率e衰減一半.使用NVIDIA GeForce RTX 2080Ti GPU (11GB 內存)和PyTorch 框架構建網絡.

在NLMB 中,每個HFEB 的第1 個卷積層,輸出通道數為128,其余卷積層的輸出通道數均為64.ACR 連接中,所有自適應參數的初始值為0.2.在MGAR 模塊中,所有的自適應參數初始化為 1/n,n是NLMB 中HFEB 的個數,并且每個卷積層的輸入通道數為64,輸出通道數為 3×r×r,此處的r代表放大因子.除網絡模型深度對圖像重建的影響的對比實驗外,在其他所有實驗中均設置n=8 個HFEB.使用測試圖像進行客觀定量比較,使用驗證圖像選擇模型參數及相關結構.

3.2 模型分析

3.2.1 MGAR 模塊中卷積核尺寸的選擇

在MGAR 模塊中,選擇卷積核尺寸為9、7、5、3 的排列順序,具體參見第2.3 節.下面分析不同排列順序對重建結果的影響,MGAR 模塊結構見圖5.MGAR 模塊的輸入來自NLMB 的HFEB,淺層HFEB 的感受野較小,使用較大的卷積核,以提取更加全局的背景信息;深層HFEB 的感受野較大,使用較小的卷積核,防止提取不相關的背景信.在MGAR 模塊中,每個卷積層的輸出特征如圖6 所示.淺層HFEB 輸出的特征包含更多連續的高頻信息,深層HFEB 輸出的特征包含更多分散的高頻信息.不同層次特征信息互補,可以增強HR圖像的重建效果.

圖6 非線性映射模塊中每個HFEB 輸出特征的可視化結果Fig.6 Visual results of each HFEB's output feature in non-linear mapping

下面設置4 組對比實驗,進一步量化卷積核的排列順序對重建結果的影響.4 組實驗使用的卷積核尺寸分別是:第1 組為9、7、5、3;第2 組為3、5、7、9;第3 組均為3;第4 組均為9.實驗結果如表1所示,由于第1 組實驗合理設置了卷積核的尺寸,因此獲得最好的重建效果.

表1 不同卷積核的排列順序對重建效果的影響Table 1 Effect of convolution kernels with different order on reconstruction performance

3.2.2 不同層次特征對重建結果的影響

為分析NLMB 中不同層次特征對重建結果的影響,依次移除MGAR 模塊中不同大小的卷積層,計算重建HR 圖像的峰值信噪比(Peak signal-tonoise ratio,PSNR).計算結果如表2 所示,與越小卷積核對應的HFEB 產生的層次特征對重建結果影響更大,即更深層的HFEB 產生的層次特征,對重建結果的影響更大.

表2 不同層次特征對重建效果的影響Table 2 Impact of different hierarchical features on reconstruction performance

3.2.3 MGAR 模塊的優勢

下面分析MGAR 模塊相比于普通單尺度重建模塊的優勢.由于使用了類似深度反向投影網絡(Deep back-projection networks,DBPN)[22]方法的采樣方式,所以在DBPN 上進行實驗,并且用MGAR模塊替換原有的單尺度重建模塊.在DBPN 中設置T=6,假定原始DBPN 方法稱為O-DBPN;用MGAR 模塊替換后的DBPN 方法稱為M-DBPN.重建結果如表3 所示,使用了MGAR 模塊的DBPN方法,比原始DBPN 方法的重建性能更好.

表3 原始DBPN (O-DBPN)和使用MGAR 模塊的DBPN (M-DBPN)的客觀效果比較Table 3 Objective comparison between original DBPN(O-DBPN)and DBPN (M-DBPN)using MGAR module

3.2.4 LPA 模塊的設計考慮

LPA 模塊中未包含Sigmoid 門函數.為了解Sigmoid 門函數的作用,進行了LPA 模塊末尾包含和不包含Sigmoid 門函數2 種情形實驗.實驗結果如表4 所示,帶有Sigmoid 門函數的LPA模塊性能要低一些.

表4 Sigmoid 門函數的有無對LPA 模塊性能的影響Table 4 Influence of Sigmoid gate function to LPA block

LPA 模塊另一個考慮的因素是:壓縮階段和擴張階段對應位置的跳躍連接方式,具體參見第2.2.3 節.本文設計了3 個對比實驗:實驗1 是直接使用殘差連接;實驗2 是去掉殘差連接;實驗3 是帶有自適應參數的殘差連接. 實驗結果如表5 所示,實驗2比實驗1 效果好一些,實驗3 效果最好.說明直接引入壓縮階段的特征確實會影響LPA 模塊對高頻信息的定位,并且加入自適應參數能夠很好地緩解這個問題.

表5 不同殘差的連接方式對重建效果的影響Table 5 Effect of different residual connection methods on reconstruction performance

3.2.5 LPA 模塊對重建結果的影響

為驗證LPA 模塊對重建效果的影響,進行以下兩種情形的對比試驗:在HFEB 的EM 模塊中,包含和不包含LPA 模塊.實驗結果如表6 所示,可以看出有LPA 模塊效果更好.說明LPA 模塊確實對重建效果有幫助.

表6 使用和未使用LPA 模塊的客觀效果比較Table 6 Comparison of objective effects of ACAN with and without LPA module

3.2.6 ACR 連接對重建結果的影響

ACR 連接參見圖1(a).為了觀察ACR 連接的有效性,分別在NLMB 中使用ACR 連接、殘差連接和級聯連接進行對比實驗,實驗結果如表7所示.

從表7 可以看出,殘差連接優于級聯連接,ACR連接效果最好.由此可見,使用自適應的級聯殘差能更有利地進行特征重用,改進了SISR 的重建性能.

表7 NLMB 使用3 種不同連接方式對重建效果的影響Table 7 Impact of using three different connection methods on NLMB on reconstruction performance

3.3 網絡模型深度選擇

為了探索NLMB 中HFEB 的個數(表示為T),對于重建性能的影響.設置了4 組對比實驗:在放大因子為2 的情況下,T=1,3,6,8,對應的訓練曲線及測試曲線如圖7 和圖8 所示.可以看出,HFEB的多次級聯有利于提高重建效果.

圖7 包含不同個數的HFEB 的ACAN 在驗證集上的性能比較Fig.7 Performance comparison of ACAN on validation set with different numbers of HFEB

圖8 包含不同個數的HFEB 的ACAN 在Set5 測試集上的性能比較Fig.8 Performance comparison of ACAN on Set5 testing set with different number of HFEB

為了進一步精確T的選擇,在放大因子為2 的情況下設置T=6,7,8,9 進行對比實驗.由表8可以看出,T=8 是合理的選擇.

表8 不同網絡模型深度對重建性能的影響Table 8 Impact of different network depths on reconstruction performance

3.4 與當前先進的方法比較

本文ACAN 方法與高分辨率圖像 (High resol-ution,HR)、雙三次插值 (Bicubic interpolation,Bicubic)、SRCNN、LapSRN、SRFBN-S、CARN、FSRCNN、VDSR 和SRMDNF 9 個方法進行主觀效果比較.

1)客觀定量結果.本文ACAN 方法與SRCNN[4]、快速超分辨率卷積神經網絡(Fast superresolution convolutional neural networks,FSRCNN)[18]、極深卷積神經網絡(Very deep convolutional networks,VDSR)[16]、DRCN[6]、拉普拉斯金字塔超分辨率網絡(Laplacian pyramid super-resolution network,LapSRN)[30]、DRRN[7]、MemNet[8]、用于多重無噪衰減的超分辨率網絡(Super-resolu-tion network for multiple noise-free degradations,SRMDNF)[31]、CARN[9]和SRFBN-S[5]10 個當前類似的先進方法進行比較,同時采用自組方法[32],進一步提高ACAN 的性能(稱為ACAN+).采用共同的客觀度量標準:平均峰值信噪比(PSNR)和結構相似性(Structural similarity index,SSIM)[33],計算結果如表9 所示.最好結果與次好結果分別用加粗和下劃線標出.ACAN+的平均PSNR 和SSIM度量顯著優于其他方法,包括之前最好的方法CARN,而在×2 情況下參數量大約只有其一半.即使未使用自組方法,本文ACAN 方法也優于其他所有的方法.本文方法性能提升的原因主要有:ACR 連接、LPA 模塊和MGAR 模塊發揮了作用.LPA 模塊能夠更加精準地選擇高頻特征信息,MGAR 模塊能夠充分利用多尺度的特征信息,ACR 連接更有效地進行特征重用,這些因素導致了本文ACAN 方法性能的顯著提高.

表9 各種SISR 方法的平均PSNR 值與SSIM 值Table 9 Average PSNR/SSIM of various SISR methods

2)主觀效果比較:如圖9 所示:第1 組圖是Urban 100 數據集中的image 024 在 ×4 下的比較結果;第2 組圖是Urban 100 數據集中的image 061 在 ×4 下的比較結果;第3 組圖是Urban 100數據集中的img 092 在 ×4 下的比較結果.ACAN方法顯著優于其他方法.以Urban 100 中的img 061 圖像為例,在放大因子為4 的情況下,對于圖中玻璃上難以恢復的網格細節,SRFBN-S、CARN和SRMDNF 方法都遭遇了嚴重的失真,SRCNN方法的重建圖像遭遇到嚴重模糊.而ACANCAN幾乎完美地恢復了原HR 圖像中紋理和網格信息.在放大因子為4 的情況下,另外兩個圖像的結果也與img 061 圖像的結果類似.本文方法之所以能夠更好地重建紋理和網格信息,主要得益于ACR 連接、LPA 模塊和MGAR 模塊.ACR連接能夠有效地重用特征;LPA 模塊能夠準確定位特征中的高頻信息;MGAR 模塊能夠利用多尺度層次特征.因此,能夠更好地恢復規則的形狀和結構[34].由于Urban 100 數據集中,包含較多建筑物的規則結構[22],本文方法性能提升顯著.如何進一步提升不規則的形狀和結構重建效果,仍是有待研究和解決的問題.

圖9 視覺比較結果Fig.9 Visual comparison of images

4 結束語

本文提出了一個新的輕量級單圖像超分辨率方法,使用自適應級聯的注意力網絡(ACAN)能夠高質量重建超分辨率圖像.本文的局部像素級注意力(LPA)模塊,通過對輸入特征進行像素級的高頻信息定位,加強了特征流動過程中對高頻特征信息的選擇能力;本文的多尺度全局自適應重建(MGAR)模塊,使用不同尺寸的卷積核,能夠自適應地選擇和組合多尺度的特征信息;本文的自適應級聯殘差(ACR)連接,能夠自適應地組合不同層次特征.充分的實驗結果也驗證了ACAN 方法的良好性能.

猜你喜歡
特征實驗信息
記一次有趣的實驗
如何表達“特征”
做個怪怪長實驗
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 亚洲资源在线视频| 无码电影在线观看| 99成人在线观看| 毛片在线看网站| 成年人视频一区二区| 在线观看热码亚洲av每日更新| 制服丝袜一区| 国产成人AV男人的天堂| 免费观看无遮挡www的小视频| 精品夜恋影院亚洲欧洲| 免费观看欧美性一级| 18禁影院亚洲专区| 手机成人午夜在线视频| 亚洲欧美人成人让影院| 精品剧情v国产在线观看| 91精品国产情侣高潮露脸| 在线看AV天堂| 亚洲第一区欧美国产综合| 欧美日本中文| 99精品欧美一区| 免费高清自慰一区二区三区| 99视频在线看| 国产欧美在线视频免费| 久久综合结合久久狠狠狠97色 | 欧美日韩国产一级| 日本日韩欧美| 国产精品手机视频一区二区| 91无码人妻精品一区| 五月婷婷综合色| 青青热久免费精品视频6| 2021国产精品自拍| 国产美女精品一区二区| 欧美亚洲日韩中文| 久久黄色免费电影| 久久免费成人| 亚洲中文精品人人永久免费| 日韩黄色大片免费看| h网址在线观看| 欧美69视频在线| 人妻精品久久无码区| 91口爆吞精国产对白第三集| 性欧美精品xxxx| 日本三区视频| 波多野结衣在线一区二区| 刘亦菲一区二区在线观看| 免费无遮挡AV| 一区二区日韩国产精久久| 97久久免费视频| 亚洲欧美另类久久久精品播放的| 亚洲天堂福利视频| 国产精品一区二区不卡的视频| 一级一毛片a级毛片| 精品国产免费观看| 国产一在线观看| 欧美精品伊人久久| 国产91久久久久久| 精品无码人妻一区二区| 欧美激情网址| 国产精品熟女亚洲AV麻豆| 亚洲男人的天堂在线| 国产在线精彩视频论坛| 久久特级毛片| 欧美一级片在线| 国产欧美视频在线| 国产真实乱了在线播放| 91综合色区亚洲熟妇p| 国产成人福利在线视老湿机| 91视频99| 久久鸭综合久久国产| 久久天天躁狠狠躁夜夜2020一| 日韩AV无码免费一二三区| 91蝌蚪视频在线观看| 在线播放国产99re| 亚洲国产亚洲综合在线尤物| 日韩欧美中文| 免费视频在线2021入口| 欧美国产日韩在线| 国产一区二区精品福利| 色综合成人| 国产精品视频久| 天天色综网| 欧美亚洲国产精品久久蜜芽|