999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多模態退化特征學習的水下圖像增強

2025-08-04 00:00:00熊慶博陳磊梁曉莉劉天須
濟南大學學報(自然科學版) 2025年4期
關鍵詞:編碼器模態特征

中圖分類號:TP391文獻標志碼:A

Multi-modal Degradation Feature Learning for Underwater Image Enhancement

XIONG Qingbo 1 ,CHEN Lei 1 , LIANG Xiaoli 1 , LIU Tianxu2

(1. School of Software,Henan University,Kaifeng 45OO46,Henan,China; 2.Henan Provincial Transportation Dispatching Command Center,Zhengzhou 45Oo16,Henan,China)

Abstract:Toaddress the lack of generalizationand flexibilityin traditional underwater image enhancementmodels,a multi-modal degraded contrastive language-image pre-training(MD-CLIP)model was proposed.MD-CLIP model was trainedusingcontrastive learning toencodetheimage featuresand textfeaturesof low-qualityunderwaterimages into multi-modaldegraded features.Across-atentionmechanismand prompt embedding wereused to integrate themultimodal degraded featurespredictedbyMD-CLIP modelintotheunderwaterimageenhancementmodel,adjustingthe model's performance and generalization.Ablation and comparativeexperiments were conducted to validate the ffectivenessof themulti-modal degraded features.Theresultsshow that the multi-modal degraded featurespredicted by MD-CLIP model were embed into theunderwater image enhancement modelbyusing cross-atention mechanism,the image enhancement performanceand generalization performance of the model are significantlyimproved.MD-CLIP model can be added to other image enhancement models as a universal enhancement module.

Keywords:underwaterimage enancement;multi-modaldegradation feature;;contrastivelearning;cross-attentionmechanism

近年來,隨著海洋資源開發的興起,水下圖像增強技術備受關注。水下圖像增強技術不僅能夠提高海洋環境觀測的精度和深度[1],在推動海洋科學研究方面發揮關鍵作用,而且有助于提高海洋資源開發和管理的效率,為漁業、能源開發和礦產資源勘探等提供實質性幫助[2]。此外,該技術對于環境監測與保護、海底考古與文化保護,以及軍事與安全應用都具有重要意義,為這些領域提供更準確、清晰的數據支持,從而更好地保護海洋生態系統[3]綜合而言,水下圖像增強的研究對于拓展人類對海洋世界的認知,促進相關領域的發展和進步具有深遠而積極的影響。

水下圖像增強與一般的圖像增強具有明顯差異,這些差異主要是由水下成像過程中獨特的物理現象和環境各異所致,具體表現在以下幾個方面:1)光學特性差異。在水下環境中,水作為介質,對光的吸收和散射作用遠比空氣復雜。紅光在水中迅速衰減,導致圖像整體偏藍綠;同時,懸浮顆粒和浮游生物的背向散射會引人額外的模糊度和噪聲[4]。一般圖像通常在空氣中拍攝,受大氣散射影響較小,色彩失真和光線衰減問題不明顯。2)光線傳播路徑的復雜性。在水下環境中,光線在水中的傳播路徑受到深度、水質、懸浮物質以及光源位置等多種因素的影響,導致光線強度和色彩分布不均勻,增加了圖像處理的難度[5]。一般圖像的光照條件相對穩定且可預測,處理時可以較為直接地應用亮度、對比度調整等技術。3)退化模型的多樣性。在水下環境中,圖像退化包括色彩失真、對比度降低、模糊度增加、噪聲增大等多個方面,且這些退化因素相互交織,形成了復雜的多模態退化模式[6]。一般圖像的退化類型相對單一,如相機傳感器噪聲、運動模糊度等,可以通過針對性的算法進行有效處理。4)環境適應性要求。在水下環境中,水下場景的多樣性要求算法具備高度的自適應性和靈活性,能夠根據不同深度、水質、拍攝時間及角度的變化自動調整增強策略[7]。一般圖像的環境變量相對固定,算法設計時可針對性優化,無須過分強調環境適應性。

上述差異的存在導致傳統圖像增強技術難以直接應用于水下圖像處理,無法準確地模擬和補償水體引起的復雜退化效應,出現圖像增強效果不佳或不穩定等問題,因此,開發專門針對水下圖像增強的算法顯得尤為必要。通過深人理解水下成像的特殊性,結合多模態特征學習和先進的機器學習技術[8],可以更精準地預測和校正水下圖像的退化特征,進而實現更高質量的圖像增強,提高水下視覺任務的性能和效率,不僅能拓寬水下圖像應用的邊界,而且為探索和保護水下世界提供強有力的技術支持。

早期水下圖像增強的研究方法主要分為非物理模型和基于物理模型的2種[10]。非物理模型方法旨在修改圖像像素值,以提高水下模糊圖像的對比度。例如,Iqbal等[11]擴展了RGB顏色空間和HSV顏色空間的動態像素范圍,提高了水下圖像的對比度和飽和度。Ghani等[12]改進了Iqbal等的方法,解決了圖像過度增強或增強不足的問題。基于物理模型的方法將水下圖像增強視為一個不確定的逆問題,并利用手動提取的先驗特征來估計圖像形成模型的潛在參數[13]。例如,Chiang 等[14]和 Drews等[15]通過修改He等[16]提出的暗通道先驗(DCP)模型,實現了水下圖像增強。此外,Li等[17]提出一種混合方法,包括顏色校正和水下圖像去模糊,以提高退化水下圖像的視覺質量。Akkaynak等[18]提出一種改進的水下圖像形成方程,這是一種物理上更精確的模型。

隨著深度學習的發展和大型數據集的積累,數據驅動方法變得越來越流行。這些方法主要使用卷積運算來提取圖像特征,而不是使用手動提取的各種先驗特征;然而,由于缺乏水下圖像增強數據集,因此早期的研究使用生成對抗性網絡(GAN)來生成數據集或執行非配對學習。例如,Li等[19]首次將GAN應用于水下模糊圖像的生成。另外,Jamadandi等[20]使用小波變換來更好地重構信號,而Uplavikar等[21]通過引入分類器,使模型能夠更好地區分不同類型的水下模糊圖像。Li等[22]創建一個水下圖像增強基準模型,并提出一種基于該基準訓練的卷積神經網絡。此外,Li等[23]提出一種以介質傳輸為導向的具有多色空間嵌入的水下圖像增強網絡,結合物理模型的優勢來處理非彩色和低對比度的問題。最后,Huo等[24]通過使用小波增強學習策略,使網絡能夠在空間和頻域中逐步細化水下圖像。

上述幾乎所有算法都采用RGB色彩空間設置,但RGB色彩空間對亮度和飽和度等圖像屬性不敏感。為了解決這個問題,Wang等[25]提出了使用雙色空間的水下圖像增強卷積神經網絡( UIEC?2. Net),該網絡有效地將RGB色彩空間和HSV色彩空間集成在一個卷積神經網絡(CNN)中。由于光吸收和散射均取決于波長,因此水下圖像通常受顏色偏差和低能見度的影響。為了解決這些圖像退化問題,Zhang等[26]提出一種高效且魯棒的水下圖像增強(MLLE)方法,根據最小顏色損失原則和最大衰減映射引導融合策略局部調整輸入圖像的顏色和細節,最終解決圖像退化問題

現有的大多數水下圖像增強技術仍存在顯著局限,主要體現在以下幾個方面:

首先,傳統的水下圖像增強方法(如直方圖均衡化、濾波技術等),往往基于預設參數或通用模型,缺乏對特定水下環境的適應性。水體的光學特性隨深度、水質、光照條件等因素變化而變化,固定參數策略難以滿足多樣化的水下場景需求,導致圖像增強效果不穩定且普遍性受限。

其次,大多數基于深度學習的水下圖像增強模型在處理圖像退化問題時多集中于單一維度,而忽視了水下圖像退化的多模態特性。水下圖像的退化是一個復雜的多因素過程,單一策略難以全面捕捉和補償所有類型的退化特征。

鑒于此,本文中提出基于多模態退化特征學習的水下圖像增強方法,方法的核心是將多模態退化圖文對比(MD-CLIP)模型預測的多模態退化特征嵌入到非線性無激活網絡(NAFNet)模型中。MD-CLIP模型利用對比學習,首次將圖像特征與文本描述相結合,共同預測多模態退化特征,不僅能提高模型對水下環境多樣性的理解能力,還能增強模型在不同條件下的自適應性。進一步地,通過引入交叉注意力機制,將預測的退化特征融人圖像增強流程,實現更精準的圖像增強,克服傳統方法在處理復雜水下環境時的局限性。

MD-CLIP模型與實施

1. 1 MD-CLIP模型

MD-CLIP模型如圖1(a)所示。MD-CLIP模型的核心是控制圖文對比預訓練(CLIP)[27]模型的參數不變,使用CLIP中的文本編碼器和圖像編碼器來訓練更新控制器ContNet。ContNet是CLIP圖像編碼器的副本,但使用一些零初始化連接進行包裝,從而向編碼器添加控制,它操縱所有編碼器塊的輸出以控制圖像編碼器的預測。如圖1所示,MDCLIP模型凍結預訓練CLIP的圖像編碼器和文本編碼器中的參數,再通過對比學習訓練ContNet,預測輸人圖像的多模態退化特征即文本退化特征和圖像退化特征。訓練完成以后,使用交叉注意力機制將MD-CLIP模型預測的多模態退化特征嵌人其他圖像增強模型中,改進模型的性能和泛化性。MD-CLIP模型對比學習ContNet預測的文本退化特征與相應文本特征,其中文本特征是通過預訓練CLIP的文本編碼器編碼對應的文本信息產生的潛在特征向量,而文本信息包括輸入圖像的內容描述、所屬數據集類別和模糊度。將ContNet預測的圖像退化特征與目標圖像的圖像特征進行對比學習,圖像特征由預訓練CLIP的圖像編碼器編碼目標清晰圖像并受ContNet控制產生的潛在特征向量。MD-CLIP模型訓練完成以后,ContNet將能夠相對準確地預測輸人圖像的多模態退化特征,即文本退化特征與圖像退化特征。

在訓練MD-CLIP模型之前,應構建圖像-文本退化對作為MD-CLIP模型的輸入,如圖2所示。使用自舉式圖文預訓練模型(BLIP)[28]為所有目標清晰圖像生成圖像內容描述,輸入圖像的內容描述、所屬數據集和模糊度共同組成文本退化信息。文本退化信息與輸入的水下低質量圖像共同組成圖像-文本退化對,即MD-CLIP模型的輸入之一。除此之外,MD-CLIP模型的輸入還包括與水下低質量圖像相配對的目標清晰圖像。

圖1多模態退化圖文對比(MD-CLIP)模型結構及學習具有文本退化特征的嵌入提示模塊
圖2多模態退化特征提取(MD-CLIP)網絡模型的輸入信息

MD-CLIP網絡模型就是訓練ContNet的過程,ContNet通過大量數據訓練學習預測輸入圖像的多模態退化特征。本文中將構建的圖像-文本退化對和目標清晰圖像輸入到網絡中,ContNet接收輸入圖像學習預測輸入圖像的文本退化特征和圖像退化特征,文本退化特征與圖像退化特征共同組成多模態退化特征。MD-CLIP模型引用預訓練的CLIP模型,預訓練CLIP的圖像編碼器在輸人的目標清晰圖像和來自ContNet的控制因子共同作用下將圖像編碼為相應的圖像特征,并與ContNet預測的圖像退化特征對比學習。CLIP模型的文本編碼器將輸入的文本信息編碼成文本特征,與ContNet預測的文本退化特征對比學習。最后,使用多個數據集的大量數據訓練網絡模型,其中數據集包括水下圖像增強基準數據集(UIEB)、增強水下視覺感知數據集(EUVP)[29]和低光照水下圖像數據集(LSUI)[30]共3個水下圖像數據集。

1.2 實施細節

MD-CLIP模型使用的優化器是AdamW,學習率為0.00002。該優化器的2個系數(即貝塔系數)分別設置為0.90和0.98。批數量設置為64,最大訓練輪數設置為200。

構造數據集時,選擇UIEB、LSUI和EUVP中的配對數據集underwater_dark、underwater_imagenet和underwater_scenes作為訓練MD-CLIP模型的數據集。UIEB數據集由890張合成參考的真實水下圖像組成。LSUI數據集由4279幅真實的水下圖像及其相應的參考圖像組成。EUVP數據集包含單獨的配對和未配對圖像樣本集,其中,配對樣本包括高質量以及對應的低質量圖像。隨機選擇UIEB數據集的800對圖像用于訓練,剩下的90對圖像用于測試。隨機選擇LSUI數據集的3959對圖像用作訓練,剩下320對圖像用作測試。隨機選擇underwater_dark數據集的5350對圖像用于訓練,剩下200對圖像用于測試。隨機選擇underwater_imagenet數據集的3500對圖像用于訓練,剩下200對圖像用于測試。隨機選擇underwater_scenes數據集的1985對圖像用于訓練,剩下200對圖像用于測試。本文中使用的是交叉熵損失函數訓練MD-CLIP模型的損失函數。

1.3 將多模態退化特征集成到NAFNet模型中

本文中使用NAFNet作為圖像增強的基本框架,將預訓練的MD-CLIP模型應用到NAFNet網絡模型中。由于在NAFNet模型的不同點嵌入多模態退化特征對模型的性能產生不同的影響,因此,在實驗部分設置消融實驗,以確定多模態退化特征最有效的插入點。

最新的圖像重建技術如Uformer[31]和NAF-Net[32]等模型的圖像增強性能顯著提升。盡管多層變換器(Transformer)架構在圖像增強領域具有顯著優勢;但同時也帶來計算復雜性和資源需求增加的問題,因此本文中提出一種新穎、有效的統一圖像增強框架。將預訓練MD-CLIP網絡模型預測的多模態退化特征(MMF)集成到NAFNet網絡模型中,創建如圖3所示的整體網絡模型。保留基本的編碼器-解碼器架構和分層跳過連接模式,將MD-CLIP模型預測的MMF插入到網絡的解碼器部分。為了提高模型在圖像增強任務中的性能,本文中采用交叉注意力機制將MMF融合到網絡模型塊中

如圖3(a)所示,MMF被整合到類似Unet的網絡架構的解碼器段中。MMF由預訓練的MD-CLIP模型所預測的文本退化特征和圖像退化特征組成,這些獨特的模式協同促進了模型的圖像增強能力。MD-CLIP模型的預測結果是由圖像退化特征和文本退化特征組成的多模態退化特征組成,為了從預訓練的MD-CLIP模型中學習語義指導,本文中將圖像退化特征注人到NAFNet模塊中。同時,MD-CLIP模型預測的文本退化特征對于統一圖像增強是非常有效的,其目標是用單個模型處理多種退化類型的低質量水下圖像。為了有效利用這些文本退化特征,本文中將它們與提示學習模塊相結合,以進一步改進圖像增強性能,如圖1(b)所示。圖3(b)更詳細地說明了在NAFNet模塊中集成MMF特征后的特定結構配置。該配置強調了來自MD-CLIP模型的連接的多模態特征是如何在NAFNet模塊中無縫集成和處理的。值得注意的是,在這些多模態特征中,文本嵌入是專門設計用來增強網絡在統一圖像增強環境中識別和處理不同退化類型的能力的。這種有針對性的增強處理對于提高網絡分類和校正各種形式的圖像退化的適應性和精度至關重要

MMF一多模態退化特征。(a)使用交叉注意機制將多模態退化特征集成到NAFNet模型中
圖3多模態特征插入非線性無激活網絡(NAFNet)模型示意圖

1.4 損失函數

傳統的端到端水下圖像增強方法幾乎都集中在映射函數上,不能保證圖像增強結果的真實性,因此,本文中設計了基于鑒別器模型的損失函數,以保證圖像增強結果與原始觀測值一致。

設 B 為作為輸入的退化圖像, s 為對應的目標清晰圖像, g(B) 為圖像重建結果, Ds,Ds 分別為清晰、模糊圖像的判別器。為了保證圖像增強結果接近清晰圖像,使用L1范數計算像素損失 Lg (2號

Lg=|g(B)-S|1o

同時定義清晰圖像和模糊圖像的對抗損失 LDs ,使生成的圖像增強結果更加逼真。 LDs 表達式為

式中: Es 為對清晰圖像分布的期望; EB 對模糊圖像分布的期望; Ds(S) 為清晰圖像判別器對真實清晰圖像 s 的判別輸出值; )為模糊圖像判別器對生成器輸出的增強圖像 g(B) 的判別輸出值。

將訓練過程中的整體損失函數定義為

式中: N 為批次樣本數量; μ 為權重參數,取為 0.01 。

2 實驗與結果

實驗包括2個部分:一是用消融實驗驗證MDCLIP網絡模型對水下圖像增強模型的有效性,并探究MD-CLIP模型預測的多模態退化特征嵌入到NAFNet模型的最佳位置;二是比較嵌入了預訓練MD-CLIP模型的NAFNet模型與其他水下圖像增強模型的性能。實驗在一臺配備NVIDIAGeForceRTX3090顯卡的計算機上實現

在訓練NAFNet之前,首先將輸人圖像的分辨率調整為256像素 ×256 像素。在訓練過程中使用的優化器是Adam,學習率為0.0002,批數量設置為16,剪裁尺寸設置為256,最大訓練輪數設置為750。

每個訓練過程都會保存最新一次的可訓練參數,每50次迭代就會顯示來自測試集的圖像增強結果。對NAFNet網絡中MD-CLIP模型的插人位置進行實驗,以求取最優的插入位置。此外,本文中將集成了MD-CLIP模型的NAFNet模型分別與UT-UIE[30]]SyreaNet[33]、WaterNet[34]、SGUIE-Net[35]以及 RAUNE-Net[36] 共5種水下圖像增強模型進行比較,以驗證嵌人了多模態退化特征的NAFNet模型的水下圖像增強性能。

2.1 消融實驗

為了驗證MD-CLIP網絡模型對不同圖像增強模型的有效性,使用UIEB數據集訓練NAFNet、SGUIE-Net和RAUNE-Net模型,再將MD-CLIP模型分別插入到NAFNet、SGUIE-Net和RAUNE-Net模型中并開始訓練,最后統一評估訓練好的模型,評估指標為峰值信噪比(PSNR)和結構相似性(SSIM),評估結果如表1所示。結果顯示,MD-CLIP模型的插入使3個模型的圖像增強性能有不同程度的提高,說明MD-CLIP模型對提升圖像增強模型的性能是有效的。

表1多模態退化圖文對比(MD-CLIP)模型插入對不同圖像增強模型的有效性實驗結果

將MMF嵌入到NAFNet模型中,并對嵌入的不同位置設計實驗。使用UIEB數據集訓練NAFNet模型。將MD-CLIP模型訓練后的MMF分別插入到NAFNet模型的不同位置中并開始訓練,分別測試評估8種情況,評估指標為PSNR和SSIM,結果如表2所示。由表可知,將MD-CLIP模型插入到NAFNet模型的解碼器位置中對NAFNet模型的性能提升最顯著。

表2不同位置嵌入多模態退化圖文對比(MD-CLIP)模型對非線性無激活網絡(NAFNet)模型性能的影響
注: 分別表示NAFNet模型的編碼器、中部、解碼器位置,“ + ”為嵌入MD-CLIP模型,“-”為不嵌入MD-CLIP模型。

2.2 定量重構性能對比

將多模態退化特征嵌入到NAFNet模型的最佳位置,比較嵌入多模態退化特征的NAFNet模型與其他5種水下圖像增強模型的性能。為了確保比較的公平性,使用LSUI數據集重新訓練上述模型中使用的網絡。分別使用來自LSUI數據集的剩余320對圖像、從EUVP數據集中隨機選擇的600對圖像和從UIEB數據集中隨機選擇的90對圖像對上述模型在圖像增強性能方面進行測試評估,評估指標為PSNR和SSIM,結果如表3所示。由表可知,與其他模型相比,嵌入了多模態退化特征的NAFNet模型在LSUI數據集的性能大幅度提高,在EUVP、UIEB數據集上的性能也相對較好,驗證了MD-CLIP模型預測的多模態退化特征對NAFNet模型的圖像增強性能和泛化性都有一定的提升作用

表3插入集成多模態退化圖文對比(MD-CLIP)模型的非線性無激活網絡(NAFNet)模型與其他水下圖像恢復模型的性能比較
注: ① LSUI-320—LSUI數據集的剩余320對圖像。 ② EUVP-600—EUVP數據集中隨機選擇的600對圖像。 ③ UIEB-90—UIEB 數據集中隨機選擇的90對圖像。

2.3 定性重構性能對比

實驗測試了不同水下圖像增強模型在RUIE_Color90數據集的圖像增強效果,結果圖4所示。由圖可以看出,MD-CLIP模型對輸入圖像的增強效果最好,可以糾正水下圖像的顏色偏差,提高圖像的對比度和細節清晰度,增強圖像整體的視覺效果。相比之下,經過其他方法增強后的圖像出現暗背景或整體偏綠、偏藍的情況。圖5所示為不同水下圖像增強方法在U45數據集的視覺效果。結果顯示,本文方法的圖像增強效果也最好。

上述實驗結果不僅驗證了本文方法能夠顯著提升模型水下圖像恢復的性能,而且驗證了該方法具有優秀的泛化能力。

圖4不同水下圖像增強模型在RUIE_Color90數據集的視覺效果
圖5不同水下圖像增強模型在U45數據集的視覺效果

3 結語

本文中構建了一種多模態退化圖文對比(MDCLIP)模型,可以預測輸入圖像的多模態退化特征,從而幫助其他圖像恢復模型提高性能和泛化性。MD-CLIP模型的核心是設計一個ContNet模塊,該模塊利用預訓練CLIP模型的文本編碼器和圖像編碼器,通過對比學習具備預測輸人圖像多模態退化特征的功能。將用作訓練MD-CLIP模型的水下圖像數據集構建成圖像-文本退化對,再將這些混合圖像-文本退化對作為輸入訓練MD-CLIP模型。使用交叉注意力機制將MD-CLIP模型集成到水下圖像增強模型中,模型的圖像增強性能和泛化性能顯著提高。本文中選擇將MD-CLIP模型嵌入到NAFNet模型中,通過一系列實驗并對測試集進行評估,,結果表明,本文中所提出的MD-CLIP模型對NAFNet模型的圖像增強性能和泛化性都有一定的提升作用。

雖然本文中選擇將MD-CLIP模型集成到NAF-Net模型中,但這并不是MD-CLIP模型的唯一選擇。MD-CLIP模型可以作為一個通用的增強模塊添加到其他的圖像增強模型中。在未來的工作中,可以嘗試將MD-CLIP模型嵌入到更多的圖像增強模型中,探討不同模型的增強效果,并分析MD-CLIP模型對不同圖像增強模型的性能提升規律。

參考文獻:

[1] WANG H,ZHANGWB,REN P.Self-organized underwater image enhancement[J].ISPRS Journal of Photogrammetryand Remote Sensing,2024,215:1.

[2] ZHOUJC,PANG L,ZHANG D H,et al.Underwater image enhancement method via multi-interval subhistogram perspective equalization[J].IEEE Journal of Oceanic Engineering,2O23,48 (2):474.

[3] ZHOUJC,SUNJM,ZHANGWS,etal.Multi-viewunderwater imageenhancementmethod viaembedded fusion mechanism[J]. Engineering Applications ofArtificial Intelligence,2O23,121: 105946.

[4] PENGL T,ZHUCL,BIANLH.U-shape transformer for underwater image enhancement[J]. IEEE Transactions on Image Processing,2023,32:3066.

[5] LINSJ,LIZ,ZHENGFH,etal.Underwaterimageenhancement based on adaptive color correction and improved retinex algo rithm[J].IEEE Access,2023,11:27620.

[6] WANGH,SUNSX,RENP.Metaunderwatercamera:asmart protocol forunderwaterimage enhancement[J].ISPRSJournal of Photogrammetry and Remote Sensing,2023,195:462. Processing,2023,32:1442.

[8]HUANG YF, YUAN F, XIAO F Q,et al. Underwater image enhancement based on zero-reference deep network[J]. IEEE Journal of Oceanic Engineering,2023,48(3):903.

[9]SUN B Y,MEI Y P, YAN N,et al. UMGAN: underwater image enhancement network for unpaired image-to-image translation[J]. Journal of Marine Science and Engineering, 2023,11(2) : 447.

[10]YANG M,HU JT,LIC Y,et al. An in-depth survey of underwater image enhancement and restoration[J]. IEEE Access, 2019,7: 123638.

[11]IQBAL K, ODETAYO M, JAMES A, et al. Enhancing the low quality images using unsupervised colour correction method[ C]// 2010 IEEE International Conference on Systems,Man and Cybernetics,October10-13,2010,Istanbul,Turkey.New York: IEEE,2010:2241-2244.

[12]GHANI A S A,ISA N A M. Underwater image quality enhancement through integrated color model with Rayleigh distribution [J]. Journal of Visual Communication and Image Representation,2015,27:219.

[13]GHANI A SA,ISA N A M. Enhancement of low quality underwater image through integrated global and local contrast correction [J].Journal of Visual Communication and Image Representation,2015,37:332.

[14]ANCUTI C O,ANCUTI C,De VLEESCHOUWER C,et al. Color balance and fusion for underwater image enhancement[J]. IEEE Transactions on Image Processing,2017,27(1):379.

[15]DREWS P L J, NASCIMENTO E R, BOTELHO S S C,et al. Underwater depth estimation and image restoration based on single images[J]. IEEE Computer Graphics and Applications, 2016,36(2): 24.

[16]HE K M,SUN J, TANG X O. Single image haze removal using dark channel prior[J]. IEEE Transactions on Pattrn Analysis and Machine Intelligence,2010,33(12): 2341.

[17]LI C Y,GUO JC,GUO C L,et al. A hybrid method for underwater image correction[J].Pattern Recognition Letters,2017, 94: 62.

[18]AKKAYNAK D,TREIBITZ T. A revised underwater image formation model[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, June 18-23,Salt Lake City,UT, USA. New York: IEEE,2018: 5399.

[19]LIJ,SKINNER K A, EUSTICE R M, et al. Watergan: unsupervised generative network to enable real-time color correction of monocular underwater images[J]. IEEE Robotics and Automation Letters,2017,3(1) : 387.

[20]JAMADANDI A,MUDENAGUDI U.Exemplar-based underwater image enhancement augmented by wavelet corrected trasforms [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattrn Recognition Workshops,June 16-19,2019, Long Beach,USA.New York:IEEE,2019:11.

[21]UPLAVIKAR P M, WU Z Y, WANG Z Y. Al-in-one underwater image enhancement using domain-adversarial learning[EB/ OL].(2019-05-30)[2024-03-22]. htps://doi.org/10. 48550/arXiv.1905.13342.

[22]LIC Y,GUO CL,REN WQ,et al.An underwater image enhancement benchmark dataset and beyond[J].IEEE Transactions on Image Processing,2019,29:2629.

[23]LIC Y,ANWAR S,HOU JH,et al. Underwater image enhancement via medium transmission-guided multi-color space embedding[J]. IEEE Transactions on Image Processing,2O21,30: 2098.

[24] HUO FS,LI B H, ZHU X G. Efficient wavelet boost learningbased multi-stage progressive refinement network for underwater image enhancement[C]//2O21 IEEE/CVF International Conference on ComputerVision Workshops(ICCVW),October11-17, 2021,Montreal,BC,Canada.New York:IEEE,2O21:1944.

[25] WANGYD,GUOJC,GAOH,etal.UIEC -Net:CNNbased underwater image enhancement using two color space[J]. Signal Processing:Image Communication,2021,96:116250.

[26]ZHANG WD,ZHUANG P X,SUN H H,et al.Underwater imageenhancement via minimal color loss and locally adaptive contrast enhancement[J]. IEEE Transactions on Image Processing, 2022,31:1234.

[27] RADFORD A,KIM J W,HALLACY C,et al. Learning transferable visual’ models from natural language supervision [EB/ OL].(2021-02-26)[2024-03-21]. https://doi.org/10. 48550/arXiv.2103.00020.

[28]LI JN,LI D X,XIONG C M,et al. BLIP:bootstrapping language-image pretraining for unified vision-language understanding and generation[EB/OL]. (2022-01-28)[2024- 03-21]. https://doi.org/10.48550/arXiv.2201.12086.

[29]WANG R,ZHANG J,DAI D X,et al. Underwater image enhancementvia a unified deep learning framework[J].IEEETransactions on Image Processing,Z0zU,2y:1118.

[30] PENG L T, ZHU CL,BIAN L H. U-shape transformer for underwater image enhancement[J]. IEEE Transactions on Image Processing,2023,32:4112.

[31] WANG ZD,CUN XD,BAO JM,et al.Uformer:a general U-shaped transformer for image restoration[C]//2022 IEEE/CVF Conference on ComputerVision and Pattern Recognition(CVPR), June18-24,2022,NewOrleans,LA,USA.NewYork:IEEE, 2022:17683.

[32] CHENLY,CHUXJ,ZHANGXY,etal.Simplebaselinesfor image restoration[C]//AVIDAN S,BROSTOW G,CISSE M,et al.Computer Vision-ECCV 2O22:Lecture Notes in Computer Science,Vol 13667. Cham: Springer,2022:17.

[33] WENJJ,CUIJQ,ZHAO ZJ,etal.Syreanet:a physically guided underwater image enhancement frameworkintegrating synthetic and real images[C]//2O23 IEEE International Conference on Robotics and Automation (ICRA),May 29-June 2,2023. London,UnitedKingdom.New York:IEEE.2023.DOI:10. 1109/ICRA48891. 2023.10161531.

[34] ISLAMMJ,XIAY,SATTARJ.Fast underwater image enhancement for improved visual perception[J].IEEE Access,2O20,8: 124962.

[35] QI Q,LI K Q, ZHENG H Y, et al. Sguie-net:semantic attention guided underwater image enhancementwith multi-scale perception [J].IEEE Transactions on Image Processing,2022,31:511.

[36] PENGWZ,ZHOUCH,HURZ,etal.RAUNE-Net:a residual and attention-driven underwater image enhancement method[C]// ZHAIGT,ZHOUJ,YEL,etal.DigitalMultimediaCommunications:IFTC 2023,Vol 2066. Singapore:Springer,2023:15.

(責任編輯:劉飚)

猜你喜歡
編碼器模態特征
基于Transformer模型的圖書館借閱量預測研究
一種融合注意力機制與ED-LSTM模型的核工程虛擬測量方法
微型全國產化精密單軸轉臺設計
機電信息(2025年14期)2025-08-05 00:00:00
外部知識與內部上下文語義聚合的短文本新聞虛假檢測模型
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
國內多模態教學研究回顧與展望
基于HHT和Prony算法的電力系統低頻振蕩模態識別
由單個模態構造對稱簡支梁的抗彎剛度
計算物理(2014年2期)2014-03-11 17:01:39
主站蜘蛛池模板: 五月婷婷丁香综合| 亚洲无线一二三四区男男| 97se亚洲综合在线韩国专区福利| 国产精品尤物在线| 欧亚日韩Av| 欧美精品H在线播放| 香蕉伊思人视频| 欧美激情视频一区二区三区免费| 国产视频大全| 精品无码一区二区三区电影| 欧美日韩va| 久久女人网| 亚洲精品国产综合99| 亚洲AV无码久久天堂| 制服无码网站| 中文字幕丝袜一区二区| 国产青榴视频在线观看网站| 国产91精品最新在线播放| av在线人妻熟妇| 2021国产v亚洲v天堂无码| 四虎影视无码永久免费观看| 小蝌蚪亚洲精品国产| 欧美中文字幕在线视频| 国产成人精品一区二区秒拍1o| 精品成人免费自拍视频| 国产精品亚洲日韩AⅤ在线观看| 国产精品欧美激情| 免费中文字幕一级毛片| 国内精品视频区在线2021| 人人澡人人爽欧美一区| 综合久久久久久久综合网| 亚洲美女一区二区三区| 五月天天天色| 一本色道久久88综合日韩精品| 91年精品国产福利线观看久久| 蜜桃臀无码内射一区二区三区 | 国产情精品嫩草影院88av| 免费观看三级毛片| 无码高潮喷水在线观看| 国产亚洲视频中文字幕视频 | 国产在线精品美女观看| 欧美日韩第二页| 久久久久青草线综合超碰| 亚洲人成影院在线观看| 亚洲最大看欧美片网站地址| av一区二区三区高清久久| 97久久免费视频| 国产精品片在线观看手机版| 日本在线欧美在线| 国产自产视频一区二区三区| 中文字幕久久亚洲一区| a级高清毛片| 国产一在线观看| 国产精品内射视频| 日韩在线视频网| 日韩精品一区二区三区免费| 无码专区在线观看| a天堂视频| 在线免费亚洲无码视频| 国产传媒一区二区三区四区五区| 亚洲欧美激情另类| 波多野结衣中文字幕一区二区| 人人爽人人爽人人片| 欧美综合中文字幕久久| 免费AV在线播放观看18禁强制| 亚洲精品色AV无码看| 亚洲中文字幕97久久精品少妇| 亚洲成a人片在线观看88| 国产美女在线观看| 91久久国产综合精品女同我| 欧美一级在线| 亚洲日韩在线满18点击进入| 亚洲人成亚洲精品| 免费高清毛片| 欧美影院久久| 国产精品 欧美激情 在线播放| 亚洲综合九九| 日韩在线观看网站| 久久亚洲美女精品国产精品| 无码内射在线| 亚洲永久视频| 亚洲国内精品自在自线官|