999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合霧線先驗與對比度增強的圖像去霧研究

2024-01-01 00:00:00景竑元陳嘉星周昊宏晨陳艾東
北京聯合大學學報 2024年4期

[摘 要]經傳統大氣散射模型及霧線先驗算法處理后的圖像出現濃霧區域邊緣模糊、物體邊緣有光暈及顏色失真等現象,由此提出一種融合霧線先驗與對比度增強技術的去霧算法。該算法首先基于霧線先驗模型粗略估計有霧圖像的透射率系數;然后采用軟摳圖技術對粗略估計的結果進行校準,得到相對準確的透射率,并選取區域的亮點作為大氣環境光值,通過大氣散射模型獲得初步圖像;再結合邊緣信息,通過高斯濾波器對初步結果進行優化;最后用Frankle-McCann Retinex算法調節圖像的對比度,獲得優化后的去霧圖像。實驗結果表明:在客觀評價結果中,與霧線先驗算法相比,PSNR值平均提升了1.63左右,SSIM值平均提升了3%左右。由此可知,該算法與傳統去霧算法相比,圖像去霧效果顯著,在改善圖像細節的同時,也減小了圖像色彩失真的影響。

[關鍵詞]單幅圖像去霧;霧線先驗;軟摳圖;非均質霧;Retinex理論

[中圖分類號]TP 391.41 [文獻標志碼]A [文章編號]1005-0310(2024)04-0051-10

Research on Image Dehazing by Integrating Haze Line Prior and Contrast Enhancement

JING" Hongyuan, CHEN" Jiaxing, ZHOU" Hao, HONG" Chen, CHEN" Aidong

(College of Robotics, Beijing Union University, Beijing 100020, China)

Abstract:" After processing with traditional atmospheric scattering models and haze line prior algorithms, images often exhibit phenomena such as blurred edges in dense fog areas, halo effects around object edges, and color distortion. Consequently, a dehazing algorithm that integrates haze line prior with contrast enhancement techniques has been introduced. This algorithm initially provides a rough estimation of the transmission projection ratio coefficient of the hazy image based on the haze line prior model. Subsequently, soft matting technology is applied to calibrate the preliminary estimation results, yielding a relatively accurate transmittance. The bright spots within the region are chosen as the atmospheric light value, and a preliminary image is obtained through the atmospheric scattering model. Then, by incorporating edge information and employing a Gaussian filter, the preliminary results are optimized. Finally, the Frankle-McCann Retinex algorithm is used to adjust the contrast of the image, resulting in an optimized dehazed image. Experimental results show that, in objective evaluation metrics, the PSNR values have increased by an average of about 1.63, and the SSIM values have improved by an average of about 3%, compared to the haze line prior algorithms. This indicates that compared to existing mainstream traditional dehazing algorithms, this algorithm significantly improves the dehazing effect of images, enhancing image details while reducing the impact of color distortion.

Keywords: single image dehazing;fog line prior;soft matting;nonhomogeneous haze;Retinex theory

0 引言

戶外圖像的獲取常受到空氣中懸浮粒子(如霧、霾等)的影響,導致成像設備輸出的圖像出現對比度降低、飽和度下降、色調偏移等退化現象。在霧霾天氣條件下,由于圖像發生退化,大部分像素特征被霧氣干擾或覆蓋,進而影響目標的檢測、識別、追蹤等高級視覺任務算法的性能[1]。 因此,對由霧霾等天氣條件導致的退化圖像進行處理,具有重要的現實意義。

1 國內外研究現狀

目前,圖像去霧技術的研究包括基于視頻流的圖像去霧[2]、基于多目視覺的圖像去霧[3]和基于單幅圖像的去霧[4]等方向。其中,基于單幅圖像的去霧算法由于缺乏時間連續信息和多視角空間信息等特征,因此更具有挑戰性。目前, 基于單幅圖像的去霧算法主要用于均質霧氣的條件,但在真實的應用場景中,霧霾等懸浮粒子通常不符合均勻分布規律[5],因此,針對非均質有霧圖像的去霧算法更具有應用價值。

基于單幅圖像的去霧算法主要包括基于圖像增強的去霧算法、基于物理模型和先驗知識的圖像去霧算法及基于端到端神經網絡的圖像去霧算法等3個主流方向。

基于圖像增強的去霧算法主要通過頻域濾波、小波變換及對比度調節等方法銳化圖像在霧霾處的局部特征,提升圖像邊緣的對比度,進而實現圖像的視覺增強。該類算法的典型代表有基于Retinex的方法[6]和基于小波迭代融合的方法[7]等。該類算法在均質霧氣條件下的表現結果相對較好,但對于非均質有霧圖像中霧氣濃度的分布并不敏感,因此在實際應用中通常會造成對圖像無霧部分的過度調節,進而導致去霧效果下降。

基于物理模型和先驗知識的圖像去霧算法通常是對霧霾條件下的真實場景、大氣環境光值及透射率進行建模,構建大氣散射模型[8],并依據一定的先驗信息對大氣散射模型進行條件約束,通過估算大氣環境光值及透射率反推出無霧圖像。目前,被廣泛應用的先驗理論包括暗通道先驗[9]、霧線先驗[10]及顏色衰減先驗[11]等。該類算法具有較好的物理解釋性,且對均質有霧圖像及非均質有霧圖像都有較好的適應性。

隨著機器學習及深度學習技術的發展,研究者提出了一些基于端到端神經網絡的去霧算法。例如,楊燕等為了解決現有網絡去霧不徹底和細節保持不佳等問題,提出了一種分離特征和協同網絡下的端到端圖像去霧模型[12]。該類算法通過收集或合成大量匹配的有霧圖像與無霧圖像對,進行卷積神經網絡的訓練,并使用對應的測試集與驗證集對訓練后的模型進行評估與優化。該類算法的典型代表有一體化去霧網絡(all-in-one dehazing network,AOD-Net[13])、特征融合網絡(feature fusion attention network,FFA-Net[14])、基于編解碼的圖像去霧網絡(雙視覺注意網絡的聯合圖像去霧和透射率估計[15])及多尺度卷積神經網絡(multi-scale convolutional neural network,MSCNN[16])等。該類算法的去霧效果往往依賴于大量匹配的真實數據,然而采集有效的匹配數據具有一定難度,因此該類算法主要對合成的均質有霧數據集進行訓練和測試。大部分基于端到端神經網絡的去霧算法在均質有霧圖像數據集上表現較好,但訓練結果對訓練集的依賴性較強,且去霧算法的泛化性較差,不能很好地應用于實際場景之中。

基于物理模型的去霧算法以傳統大氣散射模型為主要研究對象,如He等提出的暗通道先驗假設:假設在有霧圖像中的非天空區域始終存在某些像素點,至少在一個顏色通道上具有很低的亮度值,基于該先驗知識建立關于大氣環境光 值與透射率之間的關系,進而通過大氣散射模型還原出清晰圖像[9]。該算法處理的去霧圖像結果整體偏暗,且天空區域會出現失真及光暈等現象。鑒于此問題,研究者提出了一些改進方法。楊燕等提出一種結合最小通道區間估計與透射率約束的方法,有效解決了復原圖像的光暈和顏色偏移等問題,但部分圖像的處理結果仍存在顏色飽和度失真的問題[17]。韓昊男等提出一種基于四叉樹細分的改進大氣光估計方法以及一種改進的引導濾波,來解決圖像過度增強或增強不足等問題[18]。該方法獲得的去霧圖像的顏色較為可靠,邊緣區域光暈效應減弱。Zhu等提出顏色衰減先驗方法,假設霧氣的濃度與圖像亮度和飽和度之差呈正比關系,通過梯度下降法對場景深度與霧氣濃度進行線性回歸,進而獲取相對準確的透射率值,再通過大氣散射模型完成圖像去霧過程[11]。然而,該方法在處理部分色調鮮艷的圖像時存在明顯的色彩失真問題。Berman等通過觀察圖像顏色受到霧氣影響而發生的變換,得出霧線的概念,并通過霧線先驗的方法計算透射率和大氣環境光值,從而生成去霧后的圖像[10]。該方法在均質霧氣條件下對戶外多色彩的場景比較敏感,但對非均質有霧圖像仍然存在部分區域去霧效果較差、去霧后圖像邊緣不光滑及引入光暈等問題。

2 大氣散射模型與相關理論

2.1 大氣散射模型

在霧霾天氣條件下,無人駕駛感知系統的成像原理可以由大氣散射模型[8]概括,其表達式如式(1)所示:

式中:x為圖像中像素點的索引;I(x)為無人駕駛系統實際觀測的圖像;J(x)為理想的清晰圖像;t(x)為介質的傳輸率,也稱為透射率;A為全局大氣環境光值。當假定大氣環境光值A在某一場景中為固定值時,介質的透射率t(x)可以由場景深度d(x)和大氣衰減系數β來表示,具體關系如式(2)所示:

式中:β為大氣衰減系數;d(x)為場景深度。由式(1)和(2)可知,使用大氣散射模型進行圖像去霧處理的主要任務為估計透射率t(x)或場景深度d(x),以及大氣環境光值A。目前常用的方法為:基于不同先驗知識對t(x)、I(x)與A之間的關系進行約束,進而完成對I(x)的復原。

2.2 霧線先驗

Berman等于2016年提出的霧線先驗方法表明,在自然條件下采集的清晰圖像中,具有相似顏色的像素點在RGB空間中成團狀分布[10]。清晰圖像在經過霧氣的退化后,原本成團狀分布的像素簇會被拉伸成一條直線,該直線 被稱為霧線。隨著霧氣濃度的增加,變化后的像素點與原像素簇的歐式距離隨之 增大。不同像素簇的霧線相交于一點,該點為霧氣濃度的理論最大值,即為無窮遠處的大氣環境光值。霧線先驗原理[10]如圖1所示,其中:A為全局大氣環境光值;C0為單幅圖片中理想黑色光強霧線的邊界約束點;C1為單幅圖片中理想白色光強霧線的邊界約束點;I(x1)和I(x2)分別為不同顏色簇在受到不同程度的霧氣影響后的衰減值,即為實際觀測像素值,當霧氣完全覆蓋該像素點時,該像素值為大氣環境光值。

基于霧線先驗可以對大氣散射模型進行同等變換,得到式(3):

式中:假設圖像在無霧條件下傳輸過程中的損失為0,即t(x)為1,則J(x)-A與I(x)-A相等,即采集圖像為真實圖像。由霧線先驗可知,有霧條件下的I(x)將轉變為J(x)與A點連線上的某一個點,此時,透射率t(x)也隨之發生變化。為了更直觀地表達霧線先驗,本文將RGB空間坐標系轉換為以A為原點的球面坐標系,如式(4)所示:

式中:IA(x)為無人駕駛系統實際觀測的圖像;r(x)為像素點到球心A的距離;θ和Φ分別為像素點在球面坐標系下的經度角和緯度角。對于同一對的J(x)和I(x)像素點,θ和Φ大致相同,由此可計算出大致的透射率t(x),如式(5)所示:

式中:rmax為像素點距離球心A的最遠距離。假設有霧圖像中的每一個顏色索引都存在某些受霧氣影響微弱的點,這些點可被看作不受霧氣影響的圖像采樣點,即在以A值為中心的球面坐標系中,這些點為距離原點最遠的點。由此可推出理想的清晰圖像J(x),如式(6)所示:

式中:t~(x) 為透射率。在已知大氣環境光值A的條件下,可通過此方法估計不同顏色簇的透射率,進而通過大氣散射模型對有霧圖像進行回歸。

2.3 Retinex理論

Retinex理論,即視網膜皮層理論[19],于20世紀60年代由Land等提出。該理論認為,人腦對色彩的感知是光與物質相互作用的結果[20]。由該理論衍生出的Retinex模型如圖2所示,它是一種基于光照的物理成像模型,被廣泛應用于圖像復原算法中。

由圖2可知,物體成像結果僅受物體反射光和環境光的影響,由此將Retinex模型表示為式(7):

式中:S(x,y)為環境光的照射分量;R(x,y)為成像目標物體的反射分量;L(x,y)為成像設備接收到的圖像信號。由Retinex理論可知,如在有霧圖像中對霧氣部分的像素進行適當變換,即可優化圖像的對比度,進而生成感知意義上的無霧圖像。在Retinex模型中,通常使用L(x,y)表示有霧圖像,R(x,y)表示待求的無霧圖像。將式(7)變換至對數域后,可以通過式(8)完成圖像去霧處理過程:

式中:r(x,y)為像素點到球心A的距離。基于Retinex理論及其模型,衍生出了大量的圖像去霧算法,其典型代表為single-scale Retinex(SSR)算法和multi-scale Retinex(MSR)算法。SSR算法和MSR算法都是將圖像的入射分量假定為高斯函數與圖像進行卷積的結果,并帶入式(8)中完成去霧處理。

3 本文算法

本文在Berman等提出的先驗算法的基礎上進行改進,流程圖如圖3所示。該算法首先估計大氣光值和初始透射率,利用軟扣圖對初始透射率進行細化,然后通過大氣散射模型對有霧圖像進行粗略處理,再使用高斯濾波器減少圖像邊緣光暈,最后利用Frankle-McCann Retinex算法[21]優化圖像的視覺效果,從而有效解決傳統基于霧線先驗去霧算法產生的邊緣退化問題。

3.1 透射率估計的優化

圖像透射率的估計是使用大氣散射模型設計圖像去霧算法的核心步驟,精確的透射率估計方法可以有效提升去霧后圖像的質量。通常情況下采用的優化方法為He等提出的導向濾波技術[22],該算法通過引入嶺回歸的思想,有效優化了透射率估計的方法。但該算法在提升處理速度的同時,舍棄了部分圖像邊緣的細節信息,導致圖像質量下降。

本文選取更為傳統的軟摳圖方法對圖像透射率進行優化,該方法由Levin等于2006 年提出,是一種封閉式摳圖算法[23]。該算法基于顏色線性模型及圖像前景與背景顏色值局部平滑的先驗條件,推導出像素點的透射率值與該點的顏色呈線性相關關系,由此得出透射率的代價函數如式(9)所示: E(t)=tTLt+λ(t-t~)T(t-t~) 。(9) 式中: t為細化透射率,t~為粗略估計的透射率; L為拉普拉斯矩陣;λ為正則化系數,本文將其取值為0.000 1。對式(9)進行求解可得式(10): t=λt~L+λU 。(10) 式中: U為與 L大小相同的單位矩陣,本文中 L與 U的大小均取值3×3。

3.2 邊緣光暈的處理

在基于霧線先驗算法的去霧處理過程中,物體的邊緣部分通常會產生光暈效應,導致邊緣比較模糊,難以對其進行精確估計。該現象主要是由透射率估計過程中引入的噪聲導致局部視覺對比度降低等問題引起的,因此對去霧后圖像進行高斯平滑處理,可以有效減少物體邊緣的光暈效應。

另外,去霧圖像中的物體邊緣光暈效應還受到物體邊界顏色對比度變化的不確定性等問題的影響。本文通過改進Frankle-McCann Retinex算法[21],緩解物體邊界偏色效應。Frankle-McCann Retinex算法是一種基于螺旋結構路徑的像素比較算法,其路徑選擇考慮了整幅圖像的全局明暗關系,可以有效避免局部光分量迅速變化所導致的偏色效應,其示意圖如圖4所示。

在圖4中,Frankle-McCann Retinex算法選取圖像中的最大亮度值點作為核心,圍繞該核心進行螺旋迭代,并估計其路徑上其他點的理論像素值,進而完成圖像的優化。該算法的核心公式如式(11)所示:

式中:NP為當前像素點;OP為路徑前一像素點;R為圓心點;(x,y)為算法的估計值;(xs,ys) 為圖像的初始值。

4 實驗結果與分析

為驗證本文算法的可行性,將其與常用的圖像去霧算法進行對比,并從主觀和客觀兩個方面給出分析結果。本文算法采用的軟件為Matlab 2019b,計算機CPU為Intel(R) Core(TM) i5-7200@2.50~2.70 GHz,操作系統為Windows 10。經多次實驗后,本文選取Non-local算法中的gramma值為1.09,正則化透射率的取值范圍為[0.1,0.95],高斯濾波器的窗口大小為5×5。本文選取公共數據集RESIDE[24]中的ITS(indoor training set)數據子集和OTS(outdoor training set)數據子集中的約1 500對有霧圖像、公共數據集NYU-Depth-V2[25]中的約800張合成有霧圖像及公共數據集O-Haze[5]中的45張真實有霧圖像 組成實驗驗證的數據集。本文選取He等的暗通道先驗(DCP)算法[9]、Fattal等的顏色線先驗算法[26]、Berman等的Non-local算法[10]、Ren等的IDE算法[27]及Qin等的FFA算法[14]作為對比驗證方法。

4.1 主觀評價

主觀評價通常以觀測者的主觀感受為基準,將紋理是否清晰、顏色是否有明顯的失真及細節是否可見等作為圖像評價的準則。主觀評價方法相對片面,不同觀察者對同一幅去霧后圖像的主觀感受可能不同,所以主觀評價存在著不確定性。本文通過選取測試圖庫中的幾幅圖像進行對比說明,去霧后的效果如圖5所示。

在圖5中,圖(a)為有霧圖像,圖(b)~(f)為對比算法的去霧結果,圖(g)為本文算法的去霧結果。 從上至下,第1幅圖像為RESIDE-ITS數據集中的室內生成圖像,由去霧結果可以看出:DCP算法和Non-local算法使物體邊緣處出現Halo現象;Fattal算法使圖像整體偏黑;IDE算法使墻體的整體亮度偏高,局部色彩失真;FFA算法使物體顏色出現明顯的失真;本文算法無論是在圖像邊緣處還是顏色對比度方面,效果都比較穩定 。第2幅圖像為O-Haze數據集中的戶外非均質有霧圖像,其中:DCP算法在圖像上半部分濃霧區域的去霧效果不佳;Fattal算法使圖像的上半部分整體呈偏灰色;Non-local算法對濃霧部分的處理相對較好,但圖像近景和遠景的邊緣相對較差;IDE算法的去霧效果不明顯;FFA算法的全局對比度較低;經本文算法去霧后,圖像對比度較高,右上濃霧區的處理效果一般,但仍高于其他算法。第3幅圖像為RESIDE數據集中的室內偏白背景圖像,其中:經DCP算法和Fattal算法去霧后,圖像都存在偽影問題;Non-local算法使圖像右側出現較嚴重的光暈效應;IDE算法使圖像中床面部分的色彩失真;FFA算法存在曝光過度現象;本文算法雖然使圖像右上部分的色彩失真,但整體效果相對較好。第4幅圖像為NYU-Depth-V2數據集中的室內合成有霧圖像,其中:DCP的去霧效果不佳;Fattal算法使圖像整體偏黑;Non-local算法存在嚴重的偽影效應;IDE算法存在黑色物體失真的問題;FFA算法存在局部顏色失真的問題;經本文算法去霧后的圖像,整體效果更佳。第5幅圖像為RESIDE-OTS數據集中的戶外實景霧圖,其中:DCP算法和Fattal算法都存在嚴重的天空區域色彩失真問題,尤其是經Fattal算法去霧后的圖像,天空區域呈偏紫色;Non-local算法在遠景處表現不佳;IDE算法在彩色部分的顏色飽和度相對較高,出現了局部失真現象;本文算法在視覺上優于Non-local算法。綜上所述,本文算法對圖像進行去霧處理后,圖像對比度明顯優于其他算法,并減輕了圖像邊緣處的Halo現象,在主觀評價中取得了較好的效果。

4.2 客觀評價

目前,圖像去霧領域的客觀評價指標主要包括兩類,分別是圖像的清晰度評價和圖像的結構相似性評價,其典型代表為峰值信噪比(peak signal-to-noise ratio,PSNR)[28]、 結構相似性(structural similarity,SSIM)[29]和學習圖像感知塊相似度(learned perceptual image patch similarity,LPIPS)[30]。本文選取這3種評價指標對本文算法在不同數據集上的處理結果進行客觀評價。通常來說,PSNR值越高、SSIM值越高及LPIPS值越低,圖像去霧后的質量越好。PSNR主要用于衡量去霧后圖像的整體信息含量,其值越大,圖像的細節信息越豐富,整體視覺效果越 好。PSNR的計算方法如式(12)和(13)所示:

式(12)中:I為去霧參考圖;K為去霧結果;圖像尺寸為m×n;MSE(mean square error)為兩張圖像的均方誤差。式(13)中:MAXI為圖像中可能存在的最大像素值,由于本文使用8 bit全彩色圖像,因此MAXI取值為255。

SSIM主要用于衡量去霧結果圖像與參考圖像的相似程度,其結果范圍為[-1,1]。一般認為,SSIM值越大,去霧效果越理想,當去霧結果與參考圖像完全一致時,SSIM值為1。SSIM的計算方法如式(14)所示:

式中:ux、uy分別為圖像x和y的均值;σx、σy分別為圖像x和y的標準差;σ2x、σ2y分別為圖像x和y的方差;σxy為圖像x和y的協方差;c1、c2為維持穩定的常數,本文取值為0.000 1。

LPIPS主要用于衡量去霧圖像與無霧圖像之間的差異性,相較于傳統評估方法,LPIPS更符合人類的感知情況。LPIPS的表達式如式(15)所示:

是空間中平均每一層網絡輸出的特征圖之間的距離,對其進行通道求和,然后將得到的兩個距離 值輸入評分網絡中;wl是與通道數同維度的可訓練權重參數。

表1為本文算法與目前常用的單幅圖像去霧算法在不同數據集上的客觀評價結果。由表1可知,本文提出的算法在RESIDE-ITS、OTS、偏白圖像集及NYU-Depth-V2合成圖像集中整體表現優秀。在O-Haze戶外真實有霧圖像集中,本文算法的圖像清晰度略低于DCP算法和Fattal算法,其主要原因為部分濃霧區域存在色彩失真的問題,但在圖像結構相似性上優于其他算法,整體去霧質量較高。

算法運行時間是衡量算法實時性的重要指標,較少的運行時間可以使算法具有較多的應用領域。本文選取多張分辨率為256×256的圖像,在相同的硬件條件下,對比不同算法的運行時間,其結果如表2所示。

由表2可知,運行時間最短的算法為DCP算法,該算法引入了導向濾波技術,使運行時間大幅縮短。本文算法是在Non-local算法的基礎上對圖像質量進行改進,因此,運算時間略長于原算法。

圖像復原方法的運行時間受硬件設備的計算性能、輸入圖像的尺寸及圖像結構等多方面因素的影響。盡管本文算法的運行時間略長于原算法,但可通過一系列優化措施應對實時性方面的挑戰。首先,采用塊處理策略和快速近似方法對算法進行優化,以減少計算復雜度,提高處理速度。其次,充分利用多核處理器的并行處理功能,進一步加速算法的執行。最后,引入數據預處理和后處理步驟,包括直方圖均衡化、灰度歸一化、邊緣增強和細節增強等,從而提高圖像質量。

4.3 無人駕駛識別系統評估

為驗證本文算法嵌入無人駕駛系統中的可行性,本文選取文獻[24]中的有霧圖像生成方法,對KITTI數據集[31]中的部分交通圖像進行霧圖的合成。本文利用YoLoV3圖像檢測方法[32],在KITTI數據集中公開的預訓練模型上,分別對原始圖像、有霧圖像及不同算法去霧后的圖像進行檢測對比,結果如圖6所示。

圖6中:圖(a)為采用RESIDE數據集中使用的有霧圖像合成方法進行 處理后的圖像,圖(h)為KITTI數據集中原始無霧圖像的檢測結果。由此可知,在受到霧氣影響的條件下,無人駕駛檢測系統的檢測精度會降低。圖(b)~(g)為采用本文算法及對比算法的檢測結果,通過對比車輛檢測數量及準確度可知,本文算法優于大部分對比算法。

表3為本文算法與其他算法在使用相同YoLoV3模型前提下的目標檢測數量對比結果。由表3可知,在使用本文算法對圖像進行復原后,目標檢測數量基本與無霧情況下相同。本文算法可以有效提升檢測效果,適用于惡劣條件下無人駕駛的視覺檢測系統。

5 結論

本文提出了一種融合霧線先驗與對比度增強技術的非均質圖像去霧算法,針對其他算法中常見的濃霧邊緣去霧效果模糊、去霧后物體邊緣存在光暈及色彩失真等問題進行改進。本文算法在霧線先驗算法的基礎上,使用軟摳圖技術替代原有的雙邊約束條件,使用高斯濾波及Frankle-McCann Retinex算法提高圖像質量。實驗結果表明,與其他常見的單幅圖像去霧算法相比,改進后的算法在主觀及客觀評價上均比較理想。本文算法在O-Haze戶外真實非均質數據集上的結果表現優秀,與Non-local算法相比,SSIM值提升了0.08,PSNR值提升了1.03。本文算法在自組建的RESIDE偏白背景數據集中也取得了優秀的效果,其中:PSNR值為21.44,比霧線先驗算法平均提升了1.63左右;SSIM值為0.85,比其他算法也有一定的提升。

另外,本文算法還存在一些不足。首先,該算法需要消耗較多的計算資源并涉及多個煩瑣的處理步驟,導致算法在實時性方面存在不足,需要在后續研究中對算法步驟進一步優化,以滿足無人駕駛場景下對實時性的要求。其次,在使用Frankle-McCann Retinex算法處理圖像后,圖像的局部顏色出現失真現象。因此,未來的研究重點將集中在如何使用自適應Retinex算法來優化圖像邊緣,從而有效解決邊緣失真的問題,進一步提升算法的整體性能和應用效果。

[參考文獻]

[1]QU Y Y,CHEN Y Z,HUANG J Y,et al.Enhanced pix2pix dehazing network[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.Beach: IEEE,2019:8160-8168.

[2]PENG S J,ZHANG H,LIU X,et al.Real-time video dehazing via incremental transmission learning and spatial-temporally coherent regularization[J].Neurocomputing,2021,458:602-614.

[3]PANG Y W,NIE J,XIE J,et al.BidNet: binocular image dehazing without explicit disparity estimation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.Seattle:IEEE,2020:5931-5940.

[4]ZHANG X Q,JIANG R H,WANG T,et al. Single image dehazing via dual-path recurrent network[J].IEEE Transactions on Image Processing,2021,30:5211-5222.

[5]ANCUTI C O,ANCUTI C,TIMOFTE R,et al.O-haze:a dehazing benchmark with real hazy and haze-free outdoor images[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops.Lake City:IEEE,2018:754-762.

[6]TANG Q F,YANG J,HE X J,et al.Nighttime image dehazing based on Retinex and dark channel prior using Taylor series expansion[J].Computer Vision and Image Understanding,2021,202:103086.

[7]KHAN H,SHARIF M,BIBI N,et al.Localization of radiance transformation for image dehazing in wavelet domain[J].Neurocomputing, 2020,381:141-151.

[8]NARASIMHAN S G,NAYAR S K.Contrast restoration of weather degraded images[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(6):713-724.

[9]HE K M,SUN J,TANG X O.Single image haze removal using dark channel prior[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(12):2341-2353.

[10]BERMAN D,TREIBITZ T,AVIDAN S.Non-local image dehazing[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Vegas: IEEE,2016:1674-1682.

[11]楊燕,梁小珍,張金龍.分離特征和協同網絡下的端到端圖像去霧[J].光學精密工程,2021,29(8):1931-1941.

[12]ZHU Q S, MAI J M, SHAO L. A fast single image haze removal algorithm using color attenuation prior[J].IEEE Transactions on Image Processing, 2015, 24(11):3522-3533.

[13]LI B Y, PENG X L, WANG Z Y, et al. AOD-NET: all-in-one dehazing network[C]//Proceedings of the IEEE International Conference on Computer Vision.Venice:IEEE,2017:4770-4778.

[14]QIN X, WANG Z L, BAI Y C, et al. FFA-Net: feature fusion attention network for single image dehazing[C]//Proceedings of the AAAI Conference on Artificial Intelligence.New York:AAAI,2020:11908-11915.

[15]馮燕茹.雙視覺注意網絡的聯合圖像去霧和透射率估計[J].光學精密工程,2021,29(4):854-863.

[16]FU Q L, LI S Q, WANG X. MSCNN-AM: a multi-scale convolutional neural network with attention mechanisms for retinal vessel segmentation[J].IEEE Access,2020,8:163926-163936.

[17]楊燕,李一菲,岳輝.一種自適應線性透射率估計去霧算法[J].應用光學,2019,40(3):447-453.

[18]韓昊男,錢鋒,呂建威,等.改進暗通道先驗的航空圖像去霧[J].光學精密工程,2020,28(6):1387-1394.

[19]JOBSON D J,RAHMAN Z,WOODELL G A.A multiscale Retinex for bridging the gap between color images and the human observation of scenes[J].IEEE Transactions on Image Processing,1997,6(7):965-976.

[20]LAND E H,MCCANN J J.Lightness and Retinex theory[J].Journal of the Optical Society of America,1971, 61(1): 1-11.

[21]COOPER T J, BAQAI F A. Analysis and extensions of the Frankle-McCann Retinex algorithm[J].Journal of Electronic Imaging, 2004,13(1): 85-92.

[22]HE K M, SUN J, TANG X. Guided image filtering[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,35(6): 1397-1409.

[23]LEVIN A,LISCHINSKI D,WEISS Y.A closed-form solution to natural image matting[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,30(2):228-242.

[24]LI B Y, REN W Q, FU D P, et al. Benchmarking single-image dehazing and beyond[J].IEEE Transactions on Image Processing, 2018,28(1):492-505.

[25]SILBERMAN N,HOIEM D,KOHLI P,et al.Indoor segmentation and support inference from RGBD images[C]// Proceedings of the 12th European Conference on Computer Vision.Florence:Springer,2012:746-760.

[26]FATTAL R. Dehazing using color-lines[J].ACM Transactions on Graphics (TOG),2014,34(1):1-14.

[27]JU M Y, DING C, REN W Q, et al. IDE: image dehazing and exposure using an enhanced atmospheric scattering model[J].IEEE Transactions on Image Processing,2021,30:2180-2192.

[28]PIRAHANSIAH F, ABDULLAH S N H S, SAHRAN S.Peak signal-to-noise ratio based on threshold method for image segmentation[J].Journal of Theoretical and Applied Information Technology,2013,57(2):158-168.

[29]WANG Z, BOVIK A C, SHEIKH H R, et al. Image quality assessment: from error visibility to structural similarity[J].IEEE Transactions on Image Processing,2004,13(4):600-612.

[30]ZHANG R, ISOLA P, EFROS A A, et al.The unreasonable effectiveness of deep features as a perceptual metric[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Lake City:IEEE,2018:586-595.

[31]GEIGER A, LENZ P, STILLER C,et al.Vision meets robotics:the KITTI dataset[J].International Journal of Robotics Research,2013,32(11):1231-1237.

[32]REDMON J, FARHADI A.Yolov3:an incremental improvement [EB/OL].(2018-04-08)[2023-11-05].https://arxiv.org/abs/1804.02767.

(責任編輯 白麗媛;責任校對 柴 智)

[收稿日期]2023-11-09

[基金項目]北京市教育委員會科研計劃項目(KM202111417008),北京聯合大學科研項目(ZK20202401、ZK80202005),北京聯合大學教改項目(JJ2021Q006)。

[作者簡介]景竑元(1988—),男,遼寧葫蘆島人,北京聯合大學機器人學院講師,博士,主要研究方向為機器視覺及圖像復原;陳嘉星(2001—),女,江西新余人,北京聯合大學機器人學院本科生,主要研究方向為圖像處理;周昊(1998—),男,江西吉安人,北京聯合大學機器人學院本科生,主要研究方向為圖像去霧及數據分析;宏晨(1974—),男,寧夏青銅峽人,北京聯合大學機器人學院副教授,博士,主要研究方向為多智能體系統、智能決策;陳艾東(1978—),女,遼寧鞍山人,北京聯合大學機器人學院教授、碩士研究生導師,博士,主要研究方向為信息與網絡安全、AI安全、圖像處理。E-mail: jqrhongyuan@buu.edu.cn

主站蜘蛛池模板: 40岁成熟女人牲交片免费| 人妻无码中文字幕第一区| 91无码网站| 亚洲欧美精品日韩欧美| 四虎亚洲国产成人久久精品| 青青青视频91在线 | 91九色国产porny| 毛片一级在线| 久久精品视频一| 国模沟沟一区二区三区| 午夜在线不卡| 久久国产拍爱| 色网站在线视频| 国产成人高清精品免费5388| 亚洲第一香蕉视频| 精品国产欧美精品v| 日韩a级毛片| 亚洲综合中文字幕国产精品欧美| 狠狠亚洲婷婷综合色香| 色天天综合| 色成人综合| 国产成人啪视频一区二区三区| 久久人妻系列无码一区| 大学生久久香蕉国产线观看 | 伊人久久大香线蕉综合影视| AV天堂资源福利在线观看| 欧美、日韩、国产综合一区| 亚洲国产午夜精华无码福利| 91青青草视频在线观看的| 超清无码熟妇人妻AV在线绿巨人| 97久久超碰极品视觉盛宴| 国产成熟女人性满足视频| 日韩在线视频网| 亚洲成人网在线观看| 伊人久久精品无码麻豆精品| 国产喷水视频| 久久婷婷五月综合97色| 久久精品人人做人人爽| 99在线观看视频免费| 波多野结衣无码视频在线观看| 日韩大乳视频中文字幕| 欧美黑人欧美精品刺激| 国产成人亚洲无码淙合青草| 亚洲欧美精品日韩欧美| 精品伊人久久久大香线蕉欧美| 在线五月婷婷| 国产主播在线一区| 亚洲日韩高清在线亚洲专区| 欧美在线精品怡红院 | 亚洲三级视频在线观看| 国产成人禁片在线观看| 丁香婷婷久久| 2022国产无码在线| 91在线高清视频| 天堂成人在线| 日韩国产综合精选| AV无码无在线观看免费| 亚洲制服丝袜第一页| 亚洲色图综合在线| 国产99视频在线| 国产一区自拍视频| 久久久久88色偷偷| 欧美a级在线| 伊人色婷婷| 国产第一页屁屁影院| 国产综合网站| 国产色伊人| 国产a网站| 午夜不卡视频| 日本一区高清| 亚洲第一黄色网址| 国产91在线免费视频| 亚洲国产精品无码AV| 99热这里只有精品免费| 九九视频免费看| 小说区 亚洲 自拍 另类| 88av在线| 在线观看无码av免费不卡网站| 日韩不卡高清视频| 亚洲精品国产成人7777| 老司机久久99久久精品播放| av天堂最新版在线|