999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合全局自注意力與加權層級聚合的圖像超分辨率重建方法

2025-04-30 00:00:00王丹陽唐滿
無線互聯科技 2025年7期

摘要:由于現行方法在圖像超分辨率重建中應用效果較差,重建圖像峰值信噪比和結構相似性指數比較低,圖像質量較差,失真程度較高,無法達到預期的重建效果。為此,文章提出結合全局自注意力與加權層級聚合的圖像超分辨率重建方法。該方法利用卷積神經網絡對低分辨率圖像多尺度卷積操作,提取低分辨率圖像特征;引入全局自注意力機制提取圖像深度全局特征,通過對圖像全局特征加權層級聚合,重建超分辨率圖像,實現結合全局自注意力與加權層級聚合的圖像超分辨率重建。實驗證明,設計方法重建圖像峰值信噪比平均值為76.53 dB,結構相似性指數在0.7以上,能夠實現圖像超分辨率高精度、高質量重建。

關鍵詞:全局自注意力;加權層級聚合;超分辨率;重建;峰值信噪比;結構相似性指數

中圖分類號:TP391.41

文獻標志碼:A

0 引言

圖像超分辨率重建技術作為圖像處理領域的一項重要技術,從低分辨率圖像中恢復出高分辨率圖像,以提高圖像的清晰度[1。隨著計算能力的增強和數字圖像處理技術的發展,圖像超分辨率重建技術逐漸擴展到更廣泛的領域,如醫學成像、視頻監控、顯微鏡圖像分析以及消費電子產品的圖像顯示等。在現代社會中,高質量的圖像對于各種應用場景都至關重要。例如,在公共安全領域,高分辨率的監控圖像可以提供更多的紋理和細節信息,有助于警方獲取高質量的證據。在國內,圖像超分辨率重建技術的研究比較活躍。多所高校和研究機構在這一領域取得了顯著成果。

黃俊煬等[2提出了多域字符距離感知的重建方法,通過分析文本圖像中字符間的距離與布局特征,結合深度學習實現對圖像超分辨率重建。陳書理等3提出了聯合圖像—頻率監督的重建方法,通過同時考慮圖像的空間域和頻率域信息,利用深度學習網絡進行監督學習,重建高分辨率圖像。

盡管圖像超分辨率重建技術研究取得了一定的成果,但是現行方法仍然存在局限性,重建圖像質量較差并且失真程度比較高。為此,文章提出結合全局自注意力與加權層級聚合的圖像超分辨率重建方法。

1 圖像超分辨率重建框架設計

文章提出的圖像超分辨率重建框架采納一種循序漸進的策略,從粗略到精細地優化低分辨率圖像精度,進而提升圖像質量,特別是在邊緣重建與紋理細節呈現方面。圖像超分辨率重建框架分為2個重建階段,具體結構如圖1所示。

在第一階段中,該方法直接采納原始的低分辨率圖像作為輸入,省略傳統方法中必要的插值放大預處理步驟,減輕計算負擔。文章提出一種基于10個殘差元的卷積神經網絡,該模型中包含2個3×3卷積核卷積神經網絡,各層可產生64幅特征圖譜,通過改進的線性元作為激勵函數,提高神經網絡的非線性表達能力[4。經過特征提取與變換后,利用一個核大小為5×5的反卷積層執行上采樣操作,通過調整步長,實現不同尺度的圖像放大,最后,得到一張粗略的、具有較高分辨率特征圖像。

第二階段,該方法以前一階段的輸出作為起點,引入全局自注意力模塊進行圖像的進一步精細化處理。該過程中,將輸入的圖像引入主干支路,將其引入全局自注意力分支。在主干支路中,利用殘差單元對圖像進行深度提取,在此基礎上,采用卷積網絡對圖像進行降維處理,形成具有自主注意力的矩陣法。該矩陣法能夠模擬和捕獲圖像中任意2個像素點間的對應關系。通過矩陣乘法運算,將注意力機制與原始特征相結合,生成一個融合全局上下文信息的特征表示。最后,將主干支路與自注意力支路的高層特征進行加權聚合,利用全局自注意力特征增強圖像的細節恢復能力,特別是高頻成分的重建,從而重建超分辨率圖像。

2 結合全局自注意力與加權層級聚合的圖像超分辨率重建

2.1 圖像多尺度卷積

本節利用卷積神經網絡對低分辨率圖像多尺度卷積操作,提取低分辨率圖像特征。在特征提取的過程中,來自上一層的特征圖分別經過3種不同尺寸的卷積核進行處理:首先是1×1的卷積層,對特征線性變換和跨通道信息整合;然后輸入3×3的卷積層,捕捉圖像中的局部空間特征;最后輸入5×5的卷積層,捕捉更為廣泛的空間上下文信息[5。除卷積操作外,特征圖經過一個3×3的最大池化層,降低特征圖的分辨率,保留最重要的特征信息,具體如圖2所示。

如圖2所示,給定低分辨率圖像X,輸入卷積神經網絡,卷積操作公式如下:

O=∑i=1X(x,y)*K(1)

式中,O表示卷積操作輸出低分辨率圖像特征圖;i表示卷積核數量;X(x,y)表示像素位置(x,y)處的圖像像素值;K表示卷積核權重值。利用以上公式將低分辨率圖像多層卷積,將輸出特征圖輸入最大池化層進行池化操作,用公式表示為:

k=(1/HM)∑H/j=1∑M/n=1O(j,n)(2)

式中,k表示最大池化輸出;H表示特征圖高度;M表示特征圖寬度;O(j,n)表示卷積提取特征圖上第j行、第n列的像素值。經過以上處理后,得到的多個特征圖并不會立即被丟棄或簡單相加,采用堆疊的方式合并起來,得到低分辨率圖像特征集k={k1,k2,…,kc},為后續基于全局自注意力的圖像深層特征提取奠定基礎。

2.2 基于全局自注意力的圖像深層特征提取

本文提出一種全局自我注意機制,以實現對復雜情境依存關系的建模,進一步豐富特征表達的內涵。該方法利用自注意力支路對圖像中的上下文信息進行局部化編碼,提高圖像的整體性,增強圖像的表達能力。自注意力支路接收來自第一階段輸出的特征k={k1,k2,…,kc}然后,將這些特性輸入一個1×1的卷積網絡并用 ReLU激活功能對其進行處理,得到3張新的特征圖k(x)、k(y)、k(z),隨后,利用轉置矩陣將k(x)與k(y)進行矩陣乘法運算,應用softmax層,計算出注意力特征。這一過程的數學表達式為:

Ej,n=exp[k(x)j,k(y)n]/∑L/j=1exp[k(x)j,k(y)n](3)

式中,Ej,n表示特征圖注意力特征,即特征圖中第j行對第n列位置的影響;L表示整個位置空間。當2個位置的特征越相似時,Ej,n值便越大,意味著它們之間的關聯性也更為緊密。本文將特征k(z)與轉置后的注意力特征Ej,n進行矩陣乘法運算,從而得到自注意力支路的最終輸出:

P=Ej,nk(z)(4)

式中,P表示低分辨率圖像特征圖的自注意力特征。按照以上步驟提取所有特征圖的自注意力特征,以此提取到低分辨率圖像全局自注意力特征。

2.3 基于加權層級聚合的圖像超分辨率重建

在此基礎上,本節引入加權層級聚合機制,對提取的各層級的低分辨率圖像全局特征加權聚合,實現圖像超分辨率重建[6。加權層級聚合融合2個ReLU激活函數以及2個卷積層,2個卷積層均采用3×3的卷積核大小,將提取的低分辨率圖像全局自注意力特征輸入卷積層,對其加權聚合,公式表示如下:

U=V[Pd,?d]+Pd(5)

式中,U表示重建后的超分辨率圖像;V表示激活函數;Pd表示第d層級圖像自注意力特征;?d表示該層級權重系數。設計方法依賴于卷積層和激活函數的組合,共同協作捕捉輸入自注意力特征圖中的高頻信息,從而生成更加精確的超分辨率圖像,以此實現結合全局自注意力與加權層級聚合的圖像超分辨率重建。

3 實驗論證

為了驗證結合全局自注意力與加權層級聚合的圖像超分辨率重建方法的可行性與可靠性,本文開展對比實驗。實驗使用HJHGF數據集,該數據集由800個低分辨率圖像組成,圖像大小為40×40。文章方法基于Pytorch平臺搭建,實驗在Linux系統Inter Core i8 CPU環境下進行,配置16 GB內存,128 GB固態硬盤。

為了使此次研究具有一定的參考性和學術性價值,本文在實驗中設置2組對照組,分別為黃俊煬等[2提出的多域字符距離感知的重建方法、陳書理等3提出的聯合圖像—頻率監督的重建方法,用對照組1和對照組2表示。

特征提取通道數設定為48,卷積核數量設為10,步長設定為0.1,學習率設為0.01,權重為0.256,最大迭代次數設定為100000次。隨機選取一個圖像樣本,重建前后如圖3所示。

重建后圖像清晰度遠遠高于重建前,說明設計方法可以完成圖像超分辨率重建。為了進一步本文驗證方法圖像超分辨率重建的效果,選擇圖像峰值信噪比(Peak Signal to Noise Ratio,PSNR)和結構相似性指數(Structural Similarity Index,SSIM)作為指標。PSNR是圖像中最大可能的信號功率和具有破壞性的噪聲功率的比值,是圖像質量評估領域中的一個重要指標,其計算公式為:

PSNR=10lg(255×255/Mse)(6)

式中,PSNR表示圖像峰值信噪比;Mse表示圖像均方誤差。PSNR取值范圍在20到80 dB之間。數值越高,表示圖像質量越高,即重建圖像與參考圖像的差異越小。SSIM量化評估2幅圖像之間的視覺相似性,其計算公式為:

SSIM=((2εaεb+l)(2σab+l)/(εab+l)(σab+l))(7)

式中,SSIM表示重建后圖像與原始圖像的結構相似性指數;εa、εb分別表示重建后圖像a與原始圖像b的平均值;σab表示重建后圖像a與原始圖像b的協方差。SSIM是一個無量綱的指標,其取值范圍通常在0到1之間。數值越接近1,表明2幅圖像在視覺上的相似性越高,重建后圖像失真程度越低。通過對比3種方法重建圖像峰值信噪比和結構相似性指數,評價文章方法對圖像超分辨率重建質量。

從圖4可以看出,在圖像超分辨率重建場景中,本文設計方法重建后圖像峰值信噪比遠高于其余2種方法,峰值信噪比平均值為76.53 dB,說明本文設計方法重建圖像質量較高;從圖5可以看出,本文設計方法重建圖像結構相似性指數在0.7以上,平均值為0.81,遠高于其余2種方法,說明重建的圖像失真程度非常低,結構與原始圖像基本一致。因此,通過以上對比證明,本文設計方法更適用于圖像超分辨率重建,重建圖像質量良好。

4 結語

本文提出的結合全局自注意力與加權層級聚合的圖像超分辨率重建方法,通過引入全局自注意力機制捕捉圖像中的長距離依賴關系,利用加權層級聚合策略有效融合不同層級的特征信息,顯著提升了圖像超分辨率重建的質量和效率。實驗結果表明,該方法在多個基準數據集上均取得了優異的性能,有效還原了圖像的高頻細節,同時保持了良好的圖像結構和紋理信息。未來,仍有多個潛在的研究方向值得探索。一方面,進一步深入研究全局自注意力機制的實現方式和優化策略,以提高其計算效率和泛化能力。另一方面,探索將該方法應用于更廣泛的圖像處理和計算機視覺任務中。此外,還可以結合最新的深度學習技術和硬件加速技術,進一步提升圖像超分辨率重建的實時性和實用性。

參考文獻

[1]易見兵,陳俊寬,曹鋒,等.輕量級重參數化的遙感圖像超分辨率重建網絡設計[J].光學精密工程,2024(2):268-285.

[2]黃俊煬,陳宏輝,王嘉寶,等.多域字符距離感知的場景文本圖像超分辨率重建[J].電子學報,2024(7):2262-2270.

[3]陳書理,張書貴,趙展.聯合圖像—頻率監督的圖像超分辨率重建算法[J].計算機應用研究,2023(2):623-627.

[4]蘆焱琦,陳明惠,秦楷博,等.基于金字塔長程Transformer的OCT圖像超分辨率重建[J].中國激光,2023(15):61-72.

[5]賈世杰,楊真杰,孫萬鑫.基于雙分支融合網絡的圖像超分辨率重建與增強[J].大連交通大學學報,2024(3):114-120.

[6]唐述,曾琬凌,楊書麗,等.基于Transformer的塊內塊間雙聚合的單圖像超分辨率重建網絡[J].計算機學報,2024(12):2783-2802.

(編輯 王雪芬)

Image super-resolution reconstruction methods combining global self-attention with weighted hierarchical aggregation

WANG Danyang, TANG Man

(Nanyang Institute of Technology, Nanyang 473004, China)

Abstract:Due to the poor application effect of current methods in image super-resolution reconstruction, the peak signal-to-noise ratio of the reconstructed image is low, and the structural similarity index is also relatively low. The image quality is poor, the degree of distortion is high, and the expected reconstruction effect cannot be achieved. Therefore, the article proposes an image super-resolution reconstruction method that combines global self-attention and weighted hierarchical aggregation. This method utilizes convolutional neural networks to perform multi-scale convolution operations on low resolution images and extract features from them; Introducing a global self-attention mechanism to extract deep global features from images, reconstructing super-resolution images by weighted hierarchical aggregation of global features, and achieving image super-resolution reconstruction that combines global self-attention and weighted hierarchical aggregation. Experimental results have shown that the average peak signal-to-noise ratio of the reconstructed image using the design method is 76.53 dB, and the structural similarity index is above 0.7, which can achieve high-precision and high-quality image super-resolution reconstruction.

Key words:global self-attention; weighted hierarchical aggregation; super-resolution; reconstruction; peak signal-to-noise ratio; structural similarity index

主站蜘蛛池模板: 久久夜夜视频| 亚洲视频在线青青| 一本大道无码日韩精品影视| 五月丁香伊人啪啪手机免费观看| 伊人久久精品亚洲午夜| 亚洲欧洲日韩久久狠狠爱| 国产成人免费手机在线观看视频 | 亚洲欧美激情小说另类| 女人一级毛片| 国产va在线观看免费| 成人免费视频一区二区三区| 国产福利在线观看精品| 亚洲视屏在线观看| 国产精品久线在线观看| 亚洲狼网站狼狼鲁亚洲下载| 国产香蕉在线视频| 精品一区二区三区自慰喷水| 99久久99这里只有免费的精品| 久久久久88色偷偷| 有专无码视频| 九色视频线上播放| 99热这里只有精品国产99| 国产91特黄特色A级毛片| 国产精品福利在线观看无码卡| 久久动漫精品| 国产爽爽视频| 麻豆精品久久久久久久99蜜桃| 欧美一区二区自偷自拍视频| 91福利片| 中文纯内无码H| 国产菊爆视频在线观看| 波多野结衣视频网站| 无码中文字幕乱码免费2| 成人午夜精品一级毛片| 青草视频网站在线观看| a天堂视频| 亚洲精品波多野结衣| 亚洲二区视频| 亚洲一级毛片免费看| 日韩最新中文字幕| 精品小视频在线观看| 玩两个丰满老熟女久久网| 美女一级毛片无遮挡内谢| 免费人成视网站在线不卡| 成人午夜免费观看| 欧美日韩第三页| 爽爽影院十八禁在线观看| 手机在线看片不卡中文字幕| 国产一区二区三区在线观看视频 | 99热这里只有精品免费国产| 免费一级α片在线观看| 国产一区二区三区在线无码| 亚洲色图欧美激情| 大香伊人久久| 婷婷综合亚洲| 亚洲天堂久久久| 亚洲AV无码一二区三区在线播放| 亚洲伊人天堂| 欧美伦理一区| 色窝窝免费一区二区三区| 亚洲国产成人精品一二区| 91娇喘视频| 国模私拍一区二区| 91口爆吞精国产对白第三集 | 91精品视频网站| 国产SUV精品一区二区| 亚洲无码免费黄色网址| 热思思久久免费视频| 青青草一区二区免费精品| 福利国产微拍广场一区视频在线| 在线国产91| 久久综合色视频| 亚洲综合狠狠| 欧美高清视频一区二区三区| 韩国v欧美v亚洲v日本v| 香蕉久久永久视频| 久久综合亚洲鲁鲁九月天| 亚洲无码四虎黄色网站| 亚洲AⅤ综合在线欧美一区| 91精品在线视频观看| 啪啪啪亚洲无码| 色偷偷一区二区三区|