梁中豪,彭德巍,金彥旭,郭 梁
(武漢理工大學計算機科學與技術學院,武漢430063)
(*通信作者電子郵箱lzhabc007@163.com)
近年,大霧天氣現象在日常的生活中變得越來越常見,尤其在清晨或是濕度比較高的區域。因為霧是由空氣中懸浮的水滴或者大量微小粒子對透過它的光線造成散射和吸收所形成的。大霧天氣會導致戶外拍攝的圖像模糊,對比度、飽和度偏低,顏色衰減,嚴重影響了交通部門監管、視頻監控以及圖像識別的正常運行。所以,對含霧圖像的處理復原具有很重要的意義,也是計算機視覺方面一個熱門的研究方向。
目前,對于霧天圖像處理的方法主要分為基于圖像處理的增強方法和基于物理模型的復原方法。基于圖像處理增強的典型算法有直方圖均衡化算法[1]與Retinex算法[2]。通過圖像增強的去霧算法,適用性廣,一般不用考慮圖像退化的主要原因,通過提高圖片的對比度、亮度來改善圖像的細節和視覺效果,但是正因為沒有完全考慮圖像退化的主要原因,容易對部分圖像信息造成一定程度的損失。基于物理模型的圖像復原算法有He算法(暗原色先驗算法)[3]、Fattal算法(均勻與非均勻霧的視覺增強算法)[4]、Tan算法(典型的基于深度學習去霧算法)[5]。這種基于物理模型的圖像復原主要是研究霧天圖像退化的物理機制,建立普適的霧天退化模型,演算退化的過程,補償退化過程造成的圖像信息損失,以便獲得無霧圖像的良好估計值,改善霧天圖像的質量。Tan[5]依據無霧圖像相對于有霧圖像必然具有更高的對比度,從而最大化提升有霧圖像的局部對比度來復原圖像;但是該算法容易使復原后的圖像顏色過于飽和造成失真。Fattal[4]假設光的傳播和場景目標表面遮光部分局部不相關,并在此基礎上推導出場景的傳輸圖,但對于缺少足夠的顏色信息,顏色暗淡的圖像不能夠得到良好的恢復效果。為了解決上述兩種算法的問題,He等[3]通過收集分析大量的無霧場景圖像,發現了一種可以估計霧氣濃度的暗原色先驗理論,從而提出了基于暗原色的單一圖像去霧算法,該算法可以對有霧圖像進行自然清晰的復原,但是當圖像中的場景目標亮度值與大氣光值相近時,暗原色先驗信息將失效,并且該算法處理時間長,計算代價大。后續研究人員為了解決He算法的不足,在此基礎上進行了多項改進。例如,He等[6]采用引導濾波來代替之前所用的軟摳圖算法;王一帆等[7]則使用雙邊濾波來提升去霧算法的效率;曾浩等[8]針對暗原色先驗去霧算法出現的邊緣殘霧、天空色彩失真等問題進行算法改進;陳丹丹等[9]則是通過修正大氣耗散函數來解決去霧后色彩失真問題。基于物理模型的圖像復原方法的另一大類為根據圖像深度關系的霧天圖像復原算法,根據圖像的深度信息是否已知可將該種算法簡單分為兩類:其一是由Oakley等[10]提出的根據已知的圖像深度信息對場景中的大氣光線進行預測的算法,但是此算法對實施的設備要求很高,需要雷達等裝置去獲取場景深度信息;另一類是用由Narasimhan等[11]根據圖像的輔助信息來提取含霧圖像的深度的算法,但是該算法同樣具有一定的局限性,只適用于霧氣稀薄的場景,在大霧天氣下效果不理想。近年,Tang等[12]運用學習框架對大量含霧圖像中的景物特征進行研究,利用圖像的紋理特征、顏色飽和度、對比度和暗原色圖生成了更為魯棒的傳播圖,從而生成更為自然的復原圖像。Cai等[13]也提出了利用卷積神經網絡來學習霧天圖像的特征,從而像人一樣可以運用大量的單目線索來估計傳播圖,但是由于某些場景的特殊性,會造成特定場景下的傳播圖評估不準確,去霧效果較差。比如在交通道路這種特殊場景下,近處路面霧氣濃度較小而遠處含有大片的天空區域,因此會導致中遠距離場景去霧強度偏低,而近距離路面區域去霧強度偏強。基于此本文在基于深度學習去霧算法的基礎上,提出一種新的方法來實現對霧天交通場景圖像的去霧優化。首先,根據深度學習所獲得的傳播圖推導出相對應的場景深度圖;然后,根據自適應的閾值來將原圖劃分為近、中、遠三部分,將原有的算法與深度圖特征相結合,對霧天近處的薄霧區弱增強,對道路間的行人和駕駛員所關注的中遠距離區域進行重點增強,遠處的天空區域弱增強,從而實現對霧天交通場景更為有效的去霧處理。
在霧霾天氣下,成像質量的降低有兩大原因:一方面由于大氣中懸浮粒子對入射光的散射作用,造成入射光從景物點傳播到成像設備的觀測點的過程中出現削弱衰減現象;另一方面由于大氣中的大氣微粒對周圍環境的入射光的反射作用,使部分微粒的反射光射向觀測點,造成成像的模糊。因此,大氣散射模型經過 McCartney的總結[14]和 He的簡化[3]被廣泛應用在計算機圖像處理與視覺領域,即:

式(1)中,x為輸入圖像像素點,I為輸入的原有霧圖像,J為去霧后復原圖像,A為周圍環境大氣光值,t為光路傳播圖,d為深度值;其中t隨著圖像的深度d呈現指數型的衰減,β為大氣散射系數,表示單位體積的大氣對光線的散射能力,一般取較小的常數。去霧的本質是從I中復原J,即式(1)也可以寫為:

根據式(3)可以了解到,若想要復原J,除了已知的含霧圖像I,還須求解出大氣光值A和傳播圖t;并且由式(2)可知,當d求出后便可以更精細化t的求解,改善復原圖像。
基于卷積神經網絡的去霧算法對大部分霧霾圖像的復原基本可以取得良好的效果,但對于霧天交通圖像的處理時,往往會造成中遠處霧氣濃度較高的區域殘留有大量霧氣。而類似于He等[3]和Tarel等[15]提出的傳統算法則會使近處路面和遠處天空區域過度增強,亮度和對比度過低,損失很多景物細節特征,造成復原圖像顏色失真或者對比度調節失衡。這是由于道路圖像中的前景色彩飽和度較高、霧氣濃度較小,而背景尤其是天空區域亮度較高,導致圖片的中、遠處部分與遠處的天空混合在一起,傳播圖對道路與天空的交界線附近區域的估計出現偏差,不能對圖像的近、中、遠三部分進行明顯的區分處理。為解決該問題,本文提出一個基于道路圖像特點的去霧算法,采用卷積神經網絡來學習與預測圖像中景物特征與傳播圖之間的關系,并推導出該景物深度圖,從而根據道路特點進行圖像的區域劃分,對各區域進行分別處理,最終完成基于場景深度的去霧算法。
通過收集與分析大量的道路圖像,并通過駕駛員視角來審視。道路圖像特點可以概括為3點:
1)圖像中包含有道路,且圖像中部以下的絕大部分是路面。
2)圖像近處路面平坦并向中遠處區域交界處延伸。
3)圖像近處霧氣濃度一般較小,霧氣濃度與車道線向遠處延伸距離成正比。
根據上述3點,本文區別于已有去霧算法對圖像整體進行統一增強處理的方式,本算法將圖像場景深度的相關表達式與大氣散射模型結合起來,對圖像近處區域進行弱增強,對中遠區域進行重點增強,實線對霧天道路場景更為有效的去霧處理。
2.2.1 算法流程
對于道路圖像,若將道路平面深度信息和卷積神經網絡所估計的傳播圖引入大氣散射模型,則可以取得更加良好的霧天道路圖像處理效果。由圖1可知復原含霧道路圖像的主要步驟有3個:1)傳播圖的估計;2)深度圖的估計與劃分;3)圖像處理幅度的確定。
2.2.2 基于卷積神經網絡的傳播圖估計
為了獲取霧天圖像與透射率之間的關系,本文根據Cai等[13]和Tang等[12]所提出的深度學習去霧理論來構造和訓練一個基于卷積神經網絡的傳播圖預測模型。模型架構如圖2所示。
該卷積神經網絡主要為4個部分,即特征提取、多尺度映射、局部極值和非線性回歸:
1)特征提取。網絡首層為卷積層(Convolution Layer),通過應用16個大小為5×5的卷積核對大小為3×16×16的圖像進行特征提取,獲取到大小為16×12×12的特征圖;第二層為切片層(Slice Layer),負責將上一層所得到的16×12×12特征圖進行Slice操作來將大小轉換為4×4×12×12,便于下一層,即按元素操作層(Eltwise Layer)對每4個一組的特征圖進行極大化處理,將維度為4×4×12×12的特征圖映射為4×12×12。
2)多尺度映射。第四層采用多尺度映射的方法來提高特征提取的精度,多尺度即采用三種尺度不同的卷積核來提取輸入圖片的特征。該層采用三種尺寸分別為3×3、5×5、7×7的卷積核來進行多尺度映射。
3)局部極值。第五層為池化層(Pooling Layer)。本層利用大小為7×7的卷積核對輸入圖像進行像素級的鄰近最大值提取操作,來克服特征圖的局部敏感性,并降低傳播圖的求解誤差。
4)非線性回歸。該部分首先設置一卷積層用于將輸入數據轉化為維度為1×1的特征圖,最后用BReLu激活層[13]來將維度為1×1的特征圖進行非線性的變化,使輸出數據的大小限制在[0,1]內,并最終得出學習到的傳播圖。

圖1 本文算法流程Fig.1 Flow chart of the proposed algorithm

圖2 卷積神經網絡模型Fig.2 Convolutional neural network model
2.2.3 深度圖的估計
對于深度圖的估計是該算法中的關鍵步驟。區別于其他去霧算法使用直接求取的圖像傳播圖來對含霧圖像進行處理,本文利用卷積神經網絡所求取的傳播圖t(x),再根據式(2),得出深度圖d(x):

式(4)中β的取值,即在相同大氣介質條件下大氣散射系數可以看作較小的常量,這里則令β為2.0,則式(4)可以進一步簡化為:

至此,可以得出深度圖d(x)。
2.2.4 深度圖劃分
深度圖的劃分是將含霧道路圖像劃分為遠、中、近三個區域。根據上文所總結的道路特點,即道路圖像的近處霧氣濃度較小且路面平坦。本文提出一種方法對場景按照深度進行劃分,并且取得了良好的效果。效果如圖3所示,該圖采用熱度圖來表示深度圖各區域的劃分,將原圖劃分為近、中、遠三個區域并分別用c、b、a來表示,且隨著深的增加而逐漸增強顏色飽和度,效果如圖3(c)所示。
該劃分方法首先假定一幅含霧道路圖像I符合上文所提出的道路圖像特點,則可以很明顯地發現道路沿著車道線向遠處延伸并達到了可見的極限距離。在該極限距離之上,深度與霧氣濃度會突然到達最大且急速變為能見度幾乎為0的區域。由此,本文根據深度圖d的數值變化率找出能見度等于0的區域分界線L,將圖像劃分為道路區域Rroad與天空區域Rsky:

式(6)中row與col分別為輸入圖像I的高度與寬度,d(wi,yc)表示深度圖中坐標(wi,yc)的深度值,所以h(wi)表示I中第wi行的平均深度。由此,進一步得出h(wi)的變化率函數h'(wi),即式(7)。式(7)中diff為求差函數,表示I中各行平均深度的變化數值,分母0.001為縮放因子,便于更直觀看出變化率。當輸入圖3(a)的row為480時,對圖像進行式(6)和式(7)操作后,得出h(wi)和h'(wi)分別如圖4和圖5所示。

圖3 場景深度區域劃分Fig.3 Division of scene depth area
根據圖4可以明顯地看出在row為250~350,深度發生了明顯的變化,與圖5所看到的信息相符。在row的值達到350之上后,遠處霧氣濃度加重,可見度幾乎為0。由此,可對h'(wi)中變化率大小為前百分之0.5的值所對應的wi取均值,來表示對應的區域分界線L。根據分界線L,將L的上區域標記為Rsky,下區域標記為Rroad,并將上下區域中的像素數量分別記作m1與m2。為了精細化各區域的求解,設置下閾值Dmin與上閾值Fmax,則Dmin為:

與下閾值類似,Fmax為:

之后,根據所求得的Dmin與Fmax對圖像進行卷積,更新Rroad與Rsky的值,即:

根據上述所求得的上閾值Fmax與下閾值Dmin來對圖像進行區域劃分是去霧的關鍵一步,傳統方法對不同的深度所伴隨的霧氣濃度處理強度一致,與本文有著差別。
至此,如圖3所示,式(10)和式(11)將輸入的含霧圖像I,劃分為近處路面、遠處天空與除前兩者之外的中遠距離區域三部分。

圖4 深度值Fig.4 Depth value

圖5 深度值變化率Fig.5 Rate of change in depth value
2.2.5 場景增強幅度的確定
將深度圖劃分為三部分之后,需要對各區域采用不同的增強處理。場景的增強幅度照H(x,y)可定義為:

式中:H(x,y)為需要求解的場景增強幅度映射圖,Depth(x,y)為所估計的深度圖。α(x,y)為一種非線性增強函數,該函數依據式(6)得出x所屬行的深度平均值h(wx),并根據當前像素(x,y)所屬區域來設置不同的加強系數,這是因為霧天道路圖像中霧氣的濃度一般和場景點到成像設備的距離成正比,距離越大,場景的霧氣濃度越高,愈加需要重點增強去霧強度,本文中深度平均值的系數采用常數0.5與0.9來避免處理的不穩定性,如需加強去霧程度可加大此系數。由于增強系數的非線性特征,造成了區域之間的段落感,為了使處理后的圖像更加自然平滑,需要對當前場景映射圖H(x,y)進行中值濾波操作來平滑各區域之間的交接處。由此,可以最終確定圖片各區域的增強幅度,并根據對各區域賦予的增強系數來對上述不同區域分別進行增強處理。
通過圖6可以明顯地看出,在根據閾值劃分的中、遠處區域(對應圖3(c)中的b區域)進行增強處理后,與圖6(a)沒有使用閾值進行區域劃分相比,圖6(b)具有更真實自然的無霧效果,色彩還原度更高。

圖6 劃分區域后去霧結果對比Fig.6 Comparison of dehazing results after dividing regions
由于收集大量成對的自然景觀清晰圖像與含霧圖像難度非常大,因此本文從網上收集了大量的無霧圖像,并如圖7所示將每幅圖像分割為多個大小為16×16的圖像塊。之后基于文獻[11]的假設,即利用大氣透射率的局部性、一致性,對所分割的圖像塊采用隨機的透射率t∈(0,1)和固定的大氣光α=1,并使用式(1)合成含霧的圖像塊。其中上述α設為1的目的是減少合成的不穩定性。

圖7 含霧圖像塊生成Fig.7 Foggy image block generation
根據上述方法,可以利用一組n幅無霧圖像塊JP={j1,j2,…,jn} 和一組隨機的透射率 tp={t1,t2,…,tn} 生成一組有霧圖像iset。本文將所收集的圖像隨機分割后大約有11000張,之后統一的對每個圖像塊用11種隨機透射率t進行合成,生成11張合成的含霧圖像塊。因此本文使用10萬張(去除噪聲圖像后)含霧圖像塊和對應的透射率t來充當訓練集,余下的1萬張含霧圖像塊來作為測試集。網絡中每層的濾波器權值使用標準差為0.001、均值為0的高斯分布進行隨機初始化,并且將偏置設為0。學習率初始為0.005,隨著訓練的迭代,每10萬次衰減50%。基于以上參數設置,本文網絡訓練迭代50萬次,并使用均方誤差(Mean-Square Error,MSE)作為損失函數,來最小化訓練塊的透射率與真實值之間的誤差。最終,憑借 Caffe框架[16],使用隨機梯度下降法(Stochastic Gradient Descent,SGD)來收斂,完成模型的訓練。
相較于傳統去霧步驟,本文新增加了場景增強幅度照的求取,并將它與大氣散射模型相結合,極大地優化了中遠處的場景還原細節,降低了較近區域被過度增強的可能性,并利

由式(14)可知,該復原方法利用增強幅度照H,對預定義的3個區域采用了不同的增強系數進行去霧處理,保證了一般道路行人或駕駛員所關注的中遠處區域獲得增強,而近處和上方“天空區域”獲得適當處理。根據式(2),在傳播圖中排除亮度大小為前0.1%的像素,取剩余像素中亮度的最大值作為大氣光值A。至此,已得到了復原圖像所需的全部參數。
由于目前缺少公開的具有標準結果的自然霧天道路場景數據集,因此為了檢驗本文算法的有效性,本文實驗使用公開的標準霧天道路圖像庫(Foggy Road Image Database,FRIDA)[17]中所包含的330張數字合成霧天道路圖像與36張霧天道路實際圖像組成測試數據集,進行了主觀對比與客觀定量評估兩組對比實驗,并對不同去霧算法的執行效率進行對比分析。其中FRIDA綜合了大量霧天交通場景中不同霧氣濃度以及不同霧氣種類的數字合成圖像,該圖像數據庫已被多次公開作為評估霧天交通場景去霧算法性能優劣的重要數據集,可以被直接地用作系統評估數據集;并為了評估自然道路中的實際去霧效果,輔以多張人為采集和網絡收集的霧天實際道路圖像來加入測試集。主觀實驗中依次對真實霧天道路場景與FRIDA中的合成霧天道路場景進行各算法去霧結果的主觀分析,并在隨后的客觀分析中依據FRIDA中合成霧天道路場景所匹配的標準結果對各算法去霧結果進行定量分析。本文實驗的運行系統為64位MacOS10.13,實驗平用增強幅度照H,使用大氣散射模型表達式來還原無霧圖片I,由此,復原圖像I'為:臺為Matlab R2016b。
3.2.1 主觀對比
圖8展示了部分真實霧天道路場景在He算法[6]、Tarel算法[18]、Cai算法[13]以及本文算法去霧處理后的效果對比組圖。選取上述算法原因為:He算法在傳統去霧算法中具有很強的代表性;而Tarel算法后期對道路的能見度與速度方面進行了優化;最后,Cai近期所提出的去霧算法是具有很強代表性的基于深度學習去霧算法之一。第一組實驗中,除了Tarel算法外其他算法均較好的去除了圖像中的霧氣。這是因為Tarel算法對含有復雜信息的道路圖像的處理欠缺魯棒性,使得近處路面區域霧氣濃度仍然過高,去霧程度明顯過低,并且在真實霧天道路圖像中對含霧區域出現了誤判,造成處理后圖像上部分區域亮度過低;而He算法對天空區域的處理顏色失真,顏色偏藍;Cai算法對遠處的區域處理強度不夠,仍留有少量霧氣;而本文算法整體去霧效果較好,遠處去霧后可以明顯看出山的輪廓,并沒有對天空區域過多地增強。第二組實驗中,各算法均表現優秀,尤其Tarel算法對圖像遠處進行了優化,增強了遠處的可見度,但對近處路面去霧處理程度不夠,亮度偏高;He算法與Cai算法對近處與遠處采取了同樣的處理幅度,分別造成近處路面亮度偏低與遠處場景亮度偏高;而本文算法對近處與遠處均有著良好的處理,分別采取不同的強度來避免處理過度造成圖像失真。第三組實驗He算法與Tarel算法再次出現了第一組實驗的問題,造成圖像的天空區域失真,Cai算法較好地對圖像進行了去霧,但是對遠處的場景去霧程度不夠,例如橋墩與樹木區域仍殘留有少量霧氣。本文算法對遠處霧氣濃度大的區域也進行了良好的去除,整體去霧效果較好,在遠處區域具有更好的輪廓。

圖8 各算法在自然道路圖像上的去霧效果對比Fig.8 Results of each dehazing algorithm on natural road images
為了更進一步比較各算法的去霧效果,本文采用具有標準結果的FRIDA[17]中的圖片來進行實驗,該數據庫為Tarel等創建并用于客觀地對比各圖像還原算法,數據庫中具有大量的含霧道路數字圖像,且配有相應的無霧圖像作為標準結果來進行對比。該實驗應用不同的去霧算法對圖片進行處理,再對比去霧后的照片與標準的無霧圖像來評估各算法的去霧效果。
圖9展示了FRIDA中部分圖片在各算法處理后,去霧效果圖與標準結果的部分對比組圖,三張圖分別對應了鄉鎮公路、城市間道路與十字路口場景。三組實驗中,He算法在去霧處理后,整體亮度與色彩飽和度均偏高,圖像細節還原程度較低,主要是由于He算法在估計透射率時過于依賴于顏色信息,對具有較高亮度的區域,誤認為將會有較低的透射率,造成顏色的過飽和;Tarel算法對圖像去霧效果明顯,但由于其算法對含有復雜信息的道路圖像處理欠缺魯棒性,使得近處路面區域霧氣濃度仍然過高,去霧程度明顯過低,并且在局部區域仍殘留有相當量的霧氣;Cai算法與上述兩種算法相比在整體去霧效果上表現較好,尤其對近處道路區域的圖像還原程度較高,但是與本文算法相比圖像在中遠處的霧氣仍殘留有霧氣,圖像細節還原程度較低,主要是因為Cai算法并沒有對不同景深的區域進行增強去霧處理。整體而言本文算法在去霧處理后具有更好的視覺效果,既有效地對霧天道路場景進行去霧處理也沒有明顯的顏色失真、圖像模糊等現象,更接近標準結果。

圖9 FRIDA數據庫各算法去霧結果與標準結果對比Fig.9 Comparison of defogging results and standard results on FRIDA for each dehazing algorithm
3.2.2 定量評估
為了客觀評價不同去霧算法之間的效果,該實驗采用均方誤差(MSE) 和結構相似性(Structural SIMilarity,SSIM)[19]指標對FRIDA中330張圖片進行評估,并在評估結果中截取圖9中所展示三組圖片對不同算法去霧結果進行對比。
均方誤差MSE是衡量圖像處理后與標準結果的相似程度的指標。均方誤差越小,圖像與標準結果越相近,圖像細節越清晰。如果假設一幅含霧圖像的大小為M*N,其定義為:

式中x(i,j)與^x(i,j)分別表示圖像第i行,第j列處理結果與標準結果的像素值。
表1和表2分別展示了不同算法去霧結果與標準結果的MSE與SSIM。SSIM值越大表示去霧結果與標準結果的結構相似度越大;MSE值越小,表示去霧結果與標準結果之間像素誤差越小,處理結果越相近。因此,較好的去霧算法所生成的圖像應具有較小MSE值與較大的SSIM值。

表1 圖9中各算法去霧結果與標準結果的均方誤差(MSE)Tab.1 MSE between dehazing results and standard results in Fig.9
從表1和表2總體來看,He算法相對于其他三種算法在三組圖像中都具有較高的MSE與較低的SSIM,表明其與標準結果相差最大。而Tarel算法與He算法相比具有較低的MSE與較高的SSIM,但在第二組實驗落后于He算法,主要原因在于Tarel算法對道路圖像進行了優化,提升了去霧后道路場景的可見性,但在某些場景去霧不均衡,易造成霧氣的殘留,對連續區域的去霧處理出現偏差。相比之下本文算法與基于卷積神經網絡的Cai算法具有更高的SSIM和更低的MSE,處理結果與標準結果更加接近;而本文算法與Cai算法相比,考慮了道路場景中區域的劃分來增強去霧效果。因此與上述三種算法相比,本文算法去霧結果所得出的MSE明顯更小,SSIM更大,表明其去霧結果與標準結果更為接近;同時,也與定性分析得出的結論相符合。

表2 圖9中各算法去霧結果與標準結果的結構相似度(SSIM)Tab.2 SSIM between dehazing results and standard results in Fig.9
3.2.3 算法效率分析
為了進一步對比分析各去霧算法的執行效率,本文從霧天道路標準標準數據庫FRIDA選取200張尺寸為640×480的圖像,對各個方法進行測試,記錄其平均運行時間。效率分析實驗中,為消除基于深度學習的去霧算法訓練時間的不穩定性,本文算法與其他基于深度學習的算法均使用已經訓練完畢的離線網絡模型。結果如圖10所示。

圖10 各去霧算法平均運行時間對比Fig.10 Time consumption comparison of different dehazing algorithms
從圖10可以明顯看出,He算法相較于其他算法的平均處理時間更長,效率更低;Tarel算法處理時間相較于He算法,處理時間更短,效率提升明顯,但比離線訓練完畢之后的兩種基于卷積網絡的去霧算法Cai算法和本文算法來說效率較低,處理時間較長;Cai算法和本文算法同為基于卷積網絡的去霧算法,所以平均處理時間較為接近,無明顯差距,平均處理時間僅相差0.04 s。總體而言,Tarel算法與He算法執行效率較低,Cai算法與本文算法有著較高的執行效率。
本文對基于深度學習的去霧算法和日常道路圖像的特點進行研究與分析,根據所獲得的圖像深度信息提出一種針對霧天道路圖像的去霧算法。首先,通過預訓練的卷積神經網絡對輸入圖像進行特征提取,獲取傳播圖的粗估計值,利用引導濾波對傳播圖進行細化;同時對輸入圖像進行暗原色提取獲得暗原色圖,求得大氣光值;其次,通過細化的傳播圖得到深度圖,并構造近中遠三處區域對深度圖進行劃分;然后,根據不同區域賦予處理增強系數,構造增強幅度照;最后,通過大氣散射模型求取無霧圖像。實驗結果表明,本文算法對含有日常道路的圖像具有較好的去霧效果,提高了濃霧圖像的對比度與清晰度,同時也為交通監管部門提供了一個可參考的實施方案。
然而,對某些場景來說,本文算法具有一定的局限性,如圖11(a)中出現的團霧僅分布在圖像中遠處區域使得道路圖像層次感降低,造成處理后圖像如圖11(b)中局部區域偏暗。這是由于在該區域場景深度圖劃分的閾值有較低魯棒性與準確性,并且大氣光值被視為全局不變,造成了該局部區域的增強幅度過大。因此,針對不同場景求取更為魯棒的閾值,自適應地采用大氣光值與劃分深度區域為之后的主要工作。

圖11 自然道路團霧和本文算法的去霧結果Fig.11 Agglomerate fog on real roads and defogging result of the proposed algorithm