999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于移位窗口多頭自注意力U型網絡的低照度圖像增強方法

2022-10-29 03:29:30孫幫勇趙興運吳思遠
電子與信息學報 2022年10期

孫幫勇 趙興運 吳思遠 于 濤*

①(西安理工大學印刷包裝與數字媒體學院 西安 710048)

②(中國科學院西安光學精密機械研究所光譜成像技術重點實驗室 西安 710119)

1 引言

利用現有成像傳感器在弱光條件下所獲取的圖像,多存在低對比度、噪聲大、顏色細節失真等缺陷,導致該類圖像的視覺感受質量較差,同時也會降低圖像分割、目標識別及視頻監控等后續圖像處理任務精度。低照度圖像增強算法,能夠提升弱光條件下退化圖像的視覺感受質量,形成近似于正常光照條件下的圖像質量,因此在計算機視覺相關領域具有較強應用前景,已成為圖像處理領域的研究熱點之一。

低照度圖像提升方法的關鍵,在保持原低照度圖像結構和不同位置亮度相關性的基礎上,提升圖像的整體亮度值并重建顏色信息。研究發現,低照度圖像增強方法主要分為3類,即基于底層圖像處理的方法、基于視網膜(Retinex)理論的方法和深度學習類的圖像增強方法。基于底層圖像處理的低照度增強方法,直接利用線性函數提高圖像亮度,雖然圖像全局的亮度得到提升,但是由于不考慮圖像亮度的空間分布,常導致增強圖像高亮區域過飽和、細節丟失嚴重等缺陷。后來,研究者又采用非線性映射函數提升圖像亮度,例如Kim等人[1]、Celik[2]所提出的直方圖均衡化(Histogram Equalization, HE)方法。這類非線性函數通過調整參數改變圖像亮度的提升幅度,以不同程度增加高亮區域和低亮區域的亮度信息,一定程度保證了增強后的圖像質量。該類算法操作簡單、效率高,但增強圖像常存在偽影缺陷,真實感不強。

基于Retinex理論的低照度圖像增強方法,通過模擬人眼視覺系統,將低照度圖像分解為照明分量和反射分量,通過調整照明分量提升圖像亮度和對比度。其中,Jobson等人[3]提出單尺度Retinex算法(Single-Scale Retinex, SSR),將高斯核作為卷積核對低照度圖像進行卷積操作,得到的結果近似表示為反射分量。同年,Jobson等人[4]又提出多尺度Retinex算法(Multi-Scale Retinex, MSR),MSR是SSR的改進算法,其采用不同尺度的高斯濾波,對濾波結果進行加權平均以估計照明圖像。Wang等人[5]提出保留圖像自然度的Retinex算法,利用Retinex理論和log雙邊轉換使光照分量映射更加接近自然色。Li等人[6]提出魯棒的Retinex算法,通過加入一個噪聲項來處理弱光圖像增強。該類算法在照明調節方面和低噪聲消除方面具有一定的效果,但算法模型較為復雜,需要人工設定合適的參數,無法自適應處理圖像的多樣性。

基于深度學習的低照度圖像增強方法,關鍵利用大規模訓練數據集對最佳網絡模型進行學習,建立低照度圖像和正常光照圖像之間的復雜映射關系。Lore等人[7]最先提出使用深度自編碼器網絡來增強低照度圖像,提升亮度的同時消除一定噪聲。Wei等人[8]基于Retinex理論提出Retinex網絡(Retinex decomposition for low-light enhancement Network, RetinexNet),采用兩個子網絡將低照度圖像分解成照明分量與反射分量,并對照明分量進行調整。Zhang等人[9]在RetinexNet基礎上提出點燃黑暗網絡(Kindling the Darkness, KinD),對圖像分解與重建結構進行優化,并添加圖像恢復網絡用于去除圖像噪聲。Chen等人[10]提出學習網絡(learning to See In the Dark, SID),直接對傳感器數據進行低照度圖像增強。Wang等人[11]提出深度光照估計網絡(Underexposed Photo Enhancement using Deep illumination estimation, DeepUPE),通過學習圖像-光照映射關系來預測平滑的光照映射。Jiang等人[12]提出無監督對抗網絡(Enlighten Generative Adversarial Network, EnlightenGAN),利用全局-局部鑒別器和自正則化注意力機制,實現了網絡結構不需要成對圖像數據集訓練,能夠適應真實的圖像狀態,應用領域更加廣泛。盡管基于深度學習的方法在一定程度上彌補了前兩類方法的不足,針對多數低照度圖像都能夠取得較好的視覺效果,但是,現階段對于較暗條件下拍攝的低照度圖像,該類方法仍不能有效抑制圖像噪聲,難以產生令人滿意的視覺質量。

基于以上研究發現,當前低照度圖像增強方法主要面臨兩個難題:(1)如何在不同曝光區域自適應提升圖像亮度,解決圖像的光照不均勻問題;(2)如何有效抑制圖像噪聲并保持顏色紋理細節的一致性,提高圖像信噪比。本文針對以上兩個低照度增強問題,建立了一種基于移位窗口多頭自注意力U型低照度圖像增強網絡。針對自適應提升圖像亮度問題,本文設計了移位窗口多頭自注意力模塊,利用多頭自注意力機制的特征提取優勢,對輸入輸出的全局依賴關系進行建模,在學習圖像亮度提升模型的同時,針對圖像照明不足區域的噪聲進行抑制。對于保持圖像顏色紋理細節一致性問題,本文將網絡整體框架設置為U型結構,利用下采樣模塊,增加深層網絡的感受野大小,使模型學習到圖像的全局特征。此外,為了緩解深層網絡在提取較高語義特征時丟失部分淺層信息的缺陷,本文加入跳躍連接,在編碼器和解碼器子網絡的相同尺寸的特征映射上進行聚合,使網絡解碼部分依然擁有網絡的淺層特征信息。利用U型網絡架構學習到的圖像全局特征,在恢復圖像時更好地保持圖像顏色紋理細節的一致性。本文其余結構如下:第2節介紹低照度圖像成像模型;第3節詳細講述本文提出的算法;第4節闡述實驗結果與分析;第5節為本文的結論。

2 低照度圖像成像模型

根據物體呈現色彩感知的光學原理,人眼形成色彩感覺基于3種因素:光、物體對光的反射以及人的視覺感知。特定光譜能量分布的可見光照射到物體上,在各波長位置上一定比例的光子被吸收,另一部分則被反射進入人眼,刺激視神經傳遞到大腦,在參考光源的對比下形成物體的色彩信息。與物體呈現色彩原理類似,數字相機成像中的圖像傳感器模擬人的視覺感受器,將讀取到的光信號轉變為數字信號形成圖像。如圖1所示,低照度圖像成像過程中,多存在遮蔽物等因素阻礙光源充分照射到目標物,當部分入射光分量到達物體表面,根據物體自身的物質特性吸收部分入射光并將其余光線反射,反射光線經過空氣介質傳播到相機,根據相機的成像響應模型將光信號轉變為數字信號形成數字圖像。

低照度環境下進行數字成像,多存在光源來源復雜、照度不均勻等問題,造成成像數字圖像的總體亮度值極低,可見度和對比度損失嚴重,并伴大量隨機噪聲;有時由于光照分布不均勻,部分區域照明充足而周邊區域卻亮度極低,從而出現細節丟失等問題。由以上成像模型分析可知,導致低照度圖像的主要成因是:入射光線不足;反射光從反射物體表面到相機傳感器之間的光衰減;相機成像傳感器對反射光的非線性響應函數。以下對該3個成因進行分析。

2.1 低照度圖像的入射光線不足成因

數字成像是一個將目標物表面光輻射強度轉換為圖像灰度的過程,其本質是光信號、電信號和數字信號的轉換,所形成的數字圖像信號強度主要取決于目標物體本身的亮度和成像傳感器的光電轉換特性。對于非自發光目標,物體本身的亮度與環境光輻射強度和表面吸收特性相關。數字成像時,物體表面亮度轉化為圖像灰度的過程可描述為

其中,f(x,y)代表數字圖像灰度值;i(x,y)代表照度分量,即入射到物體表面的光通量,主要由環境光源決定;r(x,y)代表反射分量,由物體的表面特性決定,·代表乘法運算。在夜晚、避光房間等光線不足環境下采集圖像時,光源照射在物體表面的光通量強度很低,照度分量i(x,y)很小,導致圖像灰度值f(x,y)范圍較小、分辨力差,從而形成退化的低照度圖像。

2.2 低照度圖像的反射光衰減成因

入射光照射在物體表面,產生的反射光在到達相機鏡頭之前的傳播路徑中,存在光衰減現象。光衰減主要受大氣透射系數、空氣中霧霾或塵土等顆粒以及成像景深等影響,較顯著的光衰減會導致圖像物體反射光進入鏡頭不充分,而與目標物無關的大氣散射光則可能進入相機,這將導致數字圖像出現細節丟失、質量下降等退化問題。一般,在理想的大氣環境下,不考慮霧、霾、塵土等粒子的光線散射影響,光衰減過程可以表示為

2.3 低照度圖像的相機響應曲線成因

相機拍攝圖像的處理流程如圖2所示,物體反射的光線進入相機鏡頭后,通過線性映射在圖像傳感器的表面形成輻照度E,利用快門控制一定時間后達到圖像傳感器足夠的曝光量,在圖像傳感器上進行光電轉換得到模擬信號,最后經過模數轉換等步驟形成每個像素的顏色值。

數字成像過程中,輻照度E映射到像素值Z的過程是一個非線性過程,稱為相機響應函數(Camera Response Function, CRF)。由于人眼對圖像中間階調的灰度敏感,為了模擬人眼感受,相機響應曲線一般呈S型曲線,提高對中間灰度的辨識度,而對較低和較高的數值不敏感。在低照度環境下,正常曝光時間內到達相機傳感器的光子數量較少,所獲取的圖像灰度集中在CRF較低的不敏感區域;同時對于部分極度微弱的光線環境,其光信號甚至可能無法引起相機傳感器響應,這將造成大量的圖像細節丟失。盡管可以通過調整光圈、延長快門時間來增加進入相機鏡頭的曝光量,或者調整相機感光度增加對光的靈敏度,來提升成像圖像整體的亮度,但利用這些手段拍攝的圖像多伴隨明顯顆粒感、復雜噪聲、顏色失真等問題。

3 本文算法

3.1 網絡框架

針對低照度成像中的傳感器響應不充分、顏色失真、復雜噪聲等問題,利用傳統模型對低照度圖像直接校正存在較大難度??紤]到深度網絡在建立復雜非線性映射關系的優勢,本文采用深度學習方法提出一種基于移位窗口多頭自注意力U型網絡的低照度增強方法。針對低照度圖像的一系列退化問題,設計了移位窗口多頭自注意力模塊,并配合編碼器解碼器網絡結構,不僅能夠自適應提升圖像亮度、抑制噪聲,并且還較好地保持圖像顏色紋理細節的一致性,有效提高了圖像的視覺感受質量和其他客觀評價指標。

本文所提低照度圖像增強網絡以U型架構為框架,主要由嵌入(Embedding)層、編碼器、解碼器、跳躍連接和擴張(Expanding)層組成,與現有的大量低照度提升方法不同,該網絡采用了移位窗口多頭自注意力模塊,可以更充分地提取圖像特征并學習低照度圖像和參考圖像的復雜映射關系。如圖3所示,所建立的增強網絡是一種端到端結構,輸入為待增強的低照度圖像,輸出為同尺度正常亮度的重建圖像。

如圖3,本文所提低照度圖像增強網絡包含圖像預處理、特征學習、圖像重建等過程。首先,利用Embedding模塊進行像素預處理,低照度圖像被劃分為多個大小為4×4的非重疊圖像塊(patch),每個patch內的像素值排列為一個向量,從而將輸入的像素級低照度圖像轉化為patch嵌入,以便于下一步提取圖像語義信息。然后,預處理后的嵌入圖像塊被輸入到3層結構的編碼器,編碼器應用了典型的U型神經網絡(U-Network, U-Net)[13]結構。編碼器每層由移位窗口多頭自注意力模塊和下采樣模塊組成,其中移位窗口多頭自注意力模塊負責特征表示學習,有效提取預處理圖像的特征信息,捕獲長期依賴關系,而下采樣模塊主要負責降低特征尺寸并增維。同時,本文在編碼器與解碼器之間單獨增加一個移位窗口多頭自注意力模塊,對編碼器獲取的長期依賴關系進行融合,防止編碼器可能出現的不收斂情況。類似地,解碼器也采用3層結構,每層由上采樣模塊和移位窗口多頭自注意力模塊組成,其中上采樣模塊負責增加特征尺度并降維,移位窗口多頭自注意力模塊負責從語義特征中恢復圖像信息。最后,利用Expanding模塊將解碼器輸出特征圖分辨率恢復到輸入分辨率并映射為紅綠藍(Red Green and Blue, RGB)3通道,所重建的圖像達到正常亮度范圍。

3.2 移位窗口多頭自注意力模塊

本文所建立低照度提升網絡的主要特色,采用移位窗口多頭自注意力模塊進行特征提取和學習,利用自注意力機制的特征提取優勢,獲取有用的圖像特征,建立圖像特征的長期依賴關系,有效保證了網絡模型建立正確的非線性映射關系。移位窗口多頭自注意力模塊由傳統多頭自注意力模塊改進而來,其通過劃分窗口將輸入圖像劃分為不同的窗口,并在每個窗口內部利用多頭自注意力模塊捕獲依賴關系,同時又利用移位窗口策略,完成了不同窗口之間的內容交互,極大地減少了網絡的計算復雜度。在窗口內單獨進行自注意力計算,無法獲取整體圖像全局特征信息,移位窗口策略是將輸入圖像采用像素循環位移方式,循環位移半個窗口大小,對輸入圖像進行像素位置改變,再通過劃分窗口將移位后輸入圖像劃分為不同的窗口,確保劃分窗口內與未移位窗口劃分,分別包含輸入圖像不同位置區域的特征信息,保證不同窗口內信息交互。移位窗口多頭自注意力模塊如圖4所示,由正則化層(Layer Normalization, LN)、窗口多頭自注意力(Windows based Multi-head Self-Attention,W-MSA)、移位窗口多頭自注意力(Shifted Window based Multi-head Self-Attention, SWMSA)、前饋網絡層和殘差連接組成。其中,LN正則化層主要作用是進行批量正則化處理,對輸入數據進行歸一化處理,從而保證輸入層數據分布的規則性。W-MSA和SW-MSA代表在不同區域窗口內進行自注意力計算,自注意力[14]計算可表示為

其中,Q代表查詢矩陣,K代表鍵矩陣,V代表值矩陣,d代表查詢矩陣或鍵矩陣的維度。B代表位置矩陣,取自偏置矩陣B ∈R(2M-1)(2M+1),M代表輸入嵌入塊內patch的數量。

本文所提移位窗口多頭自注意力模塊基于當前流行的自注意力機制改進而來,具有如下優勢:(1)采用窗口劃分,將自注意力計算由整張圖像限制在劃分窗口內,并通過移位窗口策略,確保不同窗口之間的信息交互,極大地降低了自注意力計算復雜度,使之網絡變得輕量化。(2)嘗試將自注意力機制用于圖像處理領域,并針對低照度圖像增強任務取得了較好的結果。

3.3 損失函數

考慮到低照度圖像增強任務的特殊性,以準確重建圖像亮度范圍、提高顏色真實性及消除噪聲等為目標,本文構建了一種綜合性損失函數。該損失函數主要由L1[15]損失函數、結構相似性(Structural SIMilarity index, SSIM)[16]損失函數、感知損失[17]函數和感知顏色損失[18]函數組成,被表示為

結構相似性損失:本文采用結構相似性SSIM損失函數從亮度、對比度和圖像結構3個方面來衡量真實圖像和預測圖像的結構損失,有助于恢復圖像的結構和局部細節。SSIM值范圍為0~1,其中值越高表示相似性越好

感知損失:本文采用結構感知損失約束真實圖像和預測圖像之間的差異,保持圖像感知和細節的真實性,同時保持感知和語義保真度

感知顏色損失:本文采用感知顏色損失約束增強結果與真實圖像在歐幾里得空間中的顏色差異,促使增強結果產生與參考圖像相似的顏色,保證增強結果的顏色一致性

4 實驗與結果分析

4.1 數據集及實驗設置

本文實驗數據使用Wei等人[8]提供的低照度圖像數據集(LOw-Light dataset, LOL),LOL數據集圖像分為室內和室外兩種場景,是在微光環境條件下獲取的真實微光圖像。為了適應網絡模型,對LOL整體數據集進行裁切處理,每張圖像被裁切為224像素×448像素。實驗采用裁切后LOL數據集中前689對圖像作為訓練集,后100對圖像作為測試集。另外,為了提高模型的泛化能力,訓練集中又加入900對人工合成圖像。

本文實驗環境配置如下,在Windows 10系統下采用Nvidia GTX 2080顯卡,運用Python編程語言和Pytorch框架實現網絡搭建。網絡參數設置中,批處理大小為6,epoch為1000次,使用ADAM優化器進行優化,前300輪生成模型的學習率為0.0001,后700輪次模型的學習率每隔300輪次縮小為原來的0.5。

4.2 評價指標

本文采用3個不同的有參考客觀評價指標:峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)、結構相似性(SSIM)和圖像感知相似度(Learned Perceptual Image Patch Similarity, LPIPS)[19]指標。PSNR是計算對應像素點間的誤差,即基于誤差敏感的圖像質量評價,測量圖像之間的保真度。SSIM更多地考慮圖像結構,分別從亮度、對比度、結構3方面度量圖像相似性。目標圖像和生成圖像的相似性,兩者越相似,SSIM和PSNR的評分越高。LPIPS利用深度神經網絡來評價生成圖像質量,評價圖像特征之間的感知距離,其數值越高意味著兩幅圖差異越大,越低意味著越相似。

4.3 實驗結果

為了驗證本文所提方法的有效性,分別將本文方法與當前較為流行的算法進行對比實驗,對比算法有多分支微光增強網絡(Multi-Branch Low-Light image/video Enhancement Network, MBLLEN)[20],RetinexNet[8],KinD[9]、全局照明和細節保護網絡(Global Lighting And Detail protection Network,GLADNet)[21]、自監督增強網絡(Self-supervised Image Enhancement network, SIE)[22]、零參考增強網絡(Zero-reference Deep Curve Estimation for low-light image enhancement, Zero-DCE)[23]。MBLLEN算法核心思想是提取不同層次的豐富特征,通過多個子網絡進行增強,最后通過多分支融合產生輸出圖像。RetinexNet算法基于經典Retinex理論,采用兩個子網絡將低照度圖像分解成照明分量與反射分量,并對照明分量進行調整。KinD算法在RetinexNet算法基礎上,對圖像分解與重建結構進行優化,并添加圖像恢復網絡用于去除圖像噪聲。GLADNet算法的核心思想是先計算出低照度輸入圖像的全局光照估計,然后在光照估計圖的指導下調整光照,并通過與原始輸入的級聯來補充細節。SIE算法是一種基于深度學習的自監督低照度圖像增強方法,只用低照度圖像進行訓練。Zero-DCE算法通過設計無參考損失函數,使得網絡在沒有任何參考圖像的情況下能夠進行端到端訓練。以上選取的算法,分別采用當前計算機視覺領域流行的不同方法,在低照度圖像增強領域非常具有代表性。對比實驗主要分為兩部分,分別從主觀評價、客觀評價兩方面進行比較??紤]到公平性,實驗時使用對比算法所提供的公開可用代碼和所推薦參數設置。

4.3.1 主觀評價

首先在LOL測試集上,將本文輸出結果視覺效果圖與對比算法輸出結果進行主觀比較。如圖5所示,選取部分具有代表性圖像的可視化結果,重點對比低照度圖像噪聲干擾、顏色失真以及正確提升圖像對比度等常見問題。明顯可以看出,RetinexNet算法的輸出效果最差,輸出圖像不僅存在嚴重的噪聲,并伴隨圖像部分區域過度曝光現象,具有非常差的視覺感受。MBLLEN, SIE, Zero-DCE算法的輸出效果比RetinexNet算法的輸出效果視覺感受要好,基本能夠正確提升圖像亮度,但提升亮度力度不夠,與參考圖像相比均整體亮度偏暗,且圖像細節方面存在部分輕微噪聲和顏色失真現象。GLADNet算法的輸出效果與前幾種算法相比,增加了圖像亮度提升的力度,造成輸出圖像整體亮度高于參考圖像,同時引起更加嚴重的顏色失真現象,輸出圖像整體色調偏黃。針對低照度圖像光照不均勻問題,以上算法均不能準確提升圖像亮度,并伴隨噪聲干擾以及顏色失真問題。KinD算法與本文算法在圖像亮度提升方面,均能夠準確提升不同區域圖像亮度,與參考圖像相比幾乎無差異,在噪聲抑制方面,都能夠獲得良好的視覺效果。在保持顏色一致性方面,KinD算法與本文算法的輸出結果在大部分場景下與參考圖像在顏色細節方面保持一致,但還存在部分場景顏色失真現象。例如針對綠色植被場景,KinD算法與本文算法的輸出結果均與參考圖像存在顏色差異,如圖5的圖像2所示,KinD算法和本文算法針對樹葉的輸出結果與參考圖像相比,輸出結果整體顏色稍微偏暗,樹葉之間的層次感不強,存在輕微顏色失真,但整體來看,本文算法比KinD算法具有更舒服的視覺效果。

綜上所述,本文算法在大部分場景下都能做到圖像細節及紋理信息的精準還原,但針對圖像大面積區域圖像顏色單一,層次信息強,例如草地、樹木以及綠色植被等這類圖像。本文算法的輸出結果同樣存在顏色失真現象,其主要原因是這類圖像大面積區域顏色較為單一,但又存在細微的明暗差別,且層次信息豐富,本文算法在抑制噪聲的同時,削弱了圖像的層次信息,導致輸出結果在該區域層次感不強,顏色恢復細節不到位??傮w來看,本文算法依然能夠取得較好的視覺效果,在圖像亮度提升、噪聲抑制、顏色恢復以及保持圖像結構紋理方面占有一定的優勢。

4.3.2 客觀評價

本文采用PSNR, SSIM和LPIPS 3種有參考圖像質量評價指標對本文算法與對比算法進行客觀評價,采用LOL測試集,客觀評價結果如表1所示??梢钥闯霰疚乃岢龅姆椒ㄔ赑SNR, SSIM和LPIPS 3個指標方面都取得了更好的結果,較對比算法中最優值分別提高了0.35 dB, 0.041, 0.031。證明了本文所提出的方法在低照度圖像亮度提升、噪聲去除以及紋理細節恢復等方面具有一定的優勢。

表1 不同算法處理后客觀評價指標結果圖

4.4 消融實驗

為了使網絡學習到最優模型,本文分別對編碼器3層結構中每一層移位窗口自注意力模塊數量以及損失函數系數進行消融實驗。在表2、表3中,分別量化了不同編碼器結構以及不同損失函數系數的有效性。通過主觀評價和客觀指標對比可以看出,當編碼器每層架構中的移位窗口多頭自注意力模塊的個數為[2, 2, 6],以及損失函數系數λs=0.25,λp=0.2,λc=0.05時,本文網絡模型獲得了最優效果,消融實驗中部分代表性測試圖像的視覺效果如圖6所示。

表2 不同編碼器結構在測試集上客觀評價指標

表3 不同損失函數系數在測試集上客觀評價指標

從圖6可以看出,當編碼器結構為[2, 2, 2]時,增強后的圖像明顯出現顏色不一致、圖像整體過亮等情況,并存在輕微噪聲。當編碼器結構為[2, 4,6]時,增強后的圖像較[2, 2, 2]結構時有了明顯的改進,但依然存在圖像整體偏亮,輕微的顏色偏差。當損失函數系數λs=0.2,λp=0.1,λc=0.05時,增強后的圖像能夠正確提升圖像亮度,但存在顏色不一致現象。當損失函數系數λs=0.15,λp=0.05,λc=0.02時,增強后的圖像能夠保持圖像顏色的一致性,但圖像整體偏亮。當編碼器結構為[2, 2,6],損失函數系數為λs=0.25,λp=0.2,λc=0.05時,增強后的圖像在亮度提升,噪聲去除以及保持顏色紋理細節方面較上述方案均有更好的視覺效果,并與參考圖像基本保持一致,只存在輕微的細節差別。

5 結束語

本文旨在解決低照度圖像亮度提升、噪聲抑制以及顏色細節恢復等問題,提出了一種基于移位窗口多頭自注意力機制的U型網絡框架,來實現低照度圖像的亮度信息重建。所建立的低照度增強網絡利用多頭自注意力機制的特征提取優勢,構建特征間的長依賴關系,更全、更廣地提取圖像語義特征;同時利用編/解碼器結構,采用分層提取不同層次語義特征,來獲取更大的感受野,獲得更廣泛的全局信息;通過跳躍連接,將對應相同尺度編/解碼器的不同語義特征進行融合,充分保留圖像紋理及顏色特征,擁有更好的圖像恢復效果。最后通過大量的實驗,主觀和客觀地比較本文方法與當前流行算法對低照度圖像的處理效果,結果表明,本文方法均取得較好的增強效果,基本解決了低照度圖像亮度提升、噪聲抑制以及顏色細節恢復等問題,但依然存在一定進步的空間。在后續工作中,將進一步對本文模型進行改進,使之擁有更好的泛化性能。

主站蜘蛛池模板: 久久精品日日躁夜夜躁欧美| 色婷婷色丁香| 成人国产三级在线播放| 人妖无码第一页| 国产幂在线无码精品| 2021国产精品自产拍在线观看| 国产H片无码不卡在线视频| 99无码中文字幕视频| 亚洲精品va| 中文字幕免费视频| 91精品国产自产91精品资源| 高清国产在线| 91亚洲视频下载| 国产一区二区免费播放| 69综合网| 国产丰满大乳无码免费播放| 天天色天天综合| 免费AV在线播放观看18禁强制| 亚洲一级毛片免费看| 青青草国产精品久久久久| 成人国产精品网站在线看| 欧美视频在线观看第一页| 欧美色亚洲| 欧美在线精品怡红院 | 国产精品尹人在线观看| a级免费视频| 国产成人久久777777| 欧美日本在线播放| 中文国产成人精品久久一| 欧美黄网站免费观看| yy6080理论大片一级久久| 91小视频在线观看| 日韩欧美高清视频| 农村乱人伦一区二区| 亚洲天堂成人在线观看| 亚洲中文久久精品无玛| 中文字幕天无码久久精品视频免费| 98超碰在线观看| 久久77777| 中文字幕 日韩 欧美| 在线观看国产精品第一区免费 | 麻豆精品在线| 亚洲精品在线91| 国产美女精品人人做人人爽| 91精品专区国产盗摄| 人人妻人人澡人人爽欧美一区| 国产第四页| 亚洲无码91视频| 国产精品999在线| 欧美中文一区| 欧洲亚洲一区| 国产精品永久久久久| 一区二区三区在线不卡免费| 国产一区二区三区精品久久呦| 香蕉eeww99国产精选播放| 激情视频综合网| 99精品国产自在现线观看| 中文无码伦av中文字幕| 中文字幕久久亚洲一区| 伦精品一区二区三区视频| 亚洲无码高清视频在线观看| 久久这里只有精品国产99| 久久综合丝袜日本网| 国产高清又黄又嫩的免费视频网站| 久久久久无码精品国产免费| 日韩大片免费观看视频播放| 天天做天天爱夜夜爽毛片毛片| 91国内视频在线观看| 国产精品无码作爱| 国产欧美一区二区三区视频在线观看| 亚洲六月丁香六月婷婷蜜芽| av色爱 天堂网| 国产日本一线在线观看免费| 一本久道久综合久久鬼色| 亚洲精品图区| 日本一区二区三区精品AⅤ| 毛片免费高清免费| 国产精品大白天新婚身材| 日韩一二三区视频精品| 国产精品一线天| 亚洲一级毛片| 亚洲成人在线网|