李慧慧 秦品樂 梁軍



摘要:圖像去霧技術處理的目的是消除霧霾對視頻監控圖像的影響,提高霧霾圖像的視覺效果。目前,一般去霧圖像只是比較去霧后和去霧前的圖像,處理結果通常失真嚴重或過飽和,不能在保證細節清晰的同時保證顏色信息完整。針對上述問題,提出了一種基于大氣散射模型和光學原理,建立具有散射特性的HIS亮度轉換模型,并與RGB空間結合計算的圖像復原方法。該方法通過分析晴天圖像和霧霾圖像的對比關系,結合HSI空間人眼視覺最敏感的亮度分量計算出圖像場景的相對深度關系,利用大氣散射模型以及景深比,對霧霾視頻圖像進行清晰復原和結果的測評。實驗結果證明,與只從RGB空間計算的去霧霾方法對比,所提方法去霧效果更清晰,彩色失真和過飽和程度更小。
關鍵詞:視頻監控;去霧;大氣散射模型;圖像復原;景深
中圖分類號:TP752.2 文獻標志碼:A
Abstract:The purpose of image defogging is to remove the fog effect from image of surveillance video to improve the fog haze image visual effect. Presently, there is only a comparison between images before and after defogging, and the results are often distorted seriously and oversatuarted. Thereby, it is hard to ensure the clear details and the integrity of color information simultaneously. For tackling above problems, a new optimized method for images recovering was proposed with combination of HIS luminance component and RGB space, which was based on atmosphere scattering model and optical principals. In this method the relative depth relationship of image scene was analyzed by comparing images in fine and haze days with help of the most eyesensitive HSI luminance component. Finally, by utilizing atmosphere scattering model and the comparison of depth of field, the recovering and result evaluation were conducted on the video obtained in haze. The experimental results show that, compared with the defogging methods calculated in RGB space, the proposed method has more clear defogging results and smaller degree of color distortion and oversaturation.
Key words:video surveillance; defogging; atmosphere scattering model; image recovering; depth of field
0 引言
霧霾天氣下,道路監控攝像機的監控距離、圖像清晰度下降,導致監測到的車輛、人物等主體的關鍵細節信息丟失,降低了視頻監控系統的實用性, 因此霧天降質圖像或視頻的清晰化處理成為了計算機視覺和圖像處理領域的一大研究熱點。目前,較常用的有光學透霧和電子透霧兩種透霧技術。光學透霧是基于光波波長和霧霾濃度的特征,利用可穿透霧霾的近紅外波段光線進行成像,成像效果比較明顯,較好地運用在了海事、海洋的相關科研活動中[1]。然而光學透霧只能得到黑白監控畫面,鏡頭延伸有一定的限制,并且需要的鏡頭成本很昂貴。電子透霧技術主要分為兩類:一類是非模型的圖像增強方法,通過增強圖像的對比度,滿足主觀視覺的要求來達到清晰化的目的;另一類是基于物理模型的圖像復原方法,考察圖像退化原因,將退化過程進行建模,采用逆向處理,最終完成圖像的復原。將光學透霧和電子透霧結合起來稱為光電透霧,可以均衡兩者的優勢,達到更好的去霧效果。非模型方法只能相對地提高圖像質量,造成圖像部分信息的丟失。
基于物理模型,利用單幅圖像進行去霧,取得了一定效果,但是單幅圖像只能對原霧天圖像和去霧后的圖像進行對比,往往忽略了顏色信息的丟失和過飽和情況,造成對監控主體特征的錯誤判斷。He等[2]提出了暗通道優先,利用暗通道優先取得了很好的去霧效果,并且得到了深度圖像;但在實際使用過程中暗通道優先方法有一定的局限性,不能很好處理圖像中灰白色區域,且大量的計算使整個處理過程耗時太長,難以應用和推廣。基于物理模型,利用多幅圖像對比進行去霧是目前研究的熱點,但也有其局限性。如偏振方法去霧[3-7],需要不同拍攝角度或不同拍攝時間,取得了一定的效果,但這些方法對數據輸入要求較高,普通拍攝難以獲取合適的圖像。Narasimhan等[8]從RGB色彩空間出發,利用多幅霧天圖像計算出場景的三維結構,從而對場景圖像去霧。該方法近似大氣散射系統和波長無關,對與霧氣顏色接近的圖像部分恢復效果不理想,且無法用于動態監控視頻場景。陳功等[9]作了相應的改進,但只是從RGB色彩空間進行計算,RGB關聯較大,雖然分別對紅(R)、綠(G)、藍(B)分量作不同處理,但在計算場景深度時,以R通道為軸,會造成較大的色彩失真和飽和度。本文在此基礎上,針對去霧清晰度、色彩失真度及過飽和的問題,提出了基于大氣物理模型的新的計算方法,根據大氣霧霾粒子散射特性及人眼對紅光、綠光和藍光的不同敏感度設計出新的亮度轉換模型,并結合RGB色彩空間計算出場景深度與景深比,對圖像進行去霧處理,實驗證明,本文方法得到了更好的去霧效果。
1 大氣散射計算模型
大氣散射模型是霧天視頻場景圖像降質的物理原理,文獻[10-11]中對大氣散射模型進行了詳細的推導。在光的傳播過程中,撞上懸浮在空中的霧霾粒子,部分光就會被這些粒子散射掉,導致光束被削弱。大多數霧霾天氣主要是由一種較大的氣溶膠顆粒造成,其尺寸小于光波波長λ的1/10,此時發生的是瑞利散射,且不同波長的光波的散射程度是不同的。由于多次散射,遠處的光亮度大大降低,最終短波光被散射殆盡,無法到達成像設備,得到不清晰的霧霾視頻圖像。環境光照則是隨著光程增加逐漸增強,所以景深較大的場景點亮度較大,色彩和紋理特征也較模糊。由此,在霧天情況下,散射模型過程主要由衰減過程和環境光照組成。如圖1所示,描述了散射模型的過程。
2 基于散射特性亮度模型的改進算法
2.1 算法流程
本文利用一張晴天參考圖像和霧天參考圖像,通過參考點選取方法得到的兩個參考點,計算出部分模型參數,然后借助這些參數,將基于散射特性的HSI(HueSaturationIntensity)空間亮度轉換模型和RGB色彩空間近似的紅、綠、藍光波結合起來,計算出各個場景點相對于參考點的相對景深比關系,并利用計算得到的相對景深比計算出所有模型參數和場景各點的深度,晴天參考圖像對去霧結果圖像的飽和度和顏色信息適當地進行了還原,最后實現了對霧天視頻圖像的去霧處理。算法流程如圖2所示。
2.3 參考點選取
利用一張晴天參考圖像和霧天參考圖像,選取兩個參考點,用于之后的參數計算,對光學成像過程建模。霧霾天氣下場景物的可見度與場景深度有關,并且可見度較深度是呈指數下降的。陳功等[9]曾提到一種選取參考點的方法,即先利用先驗知識找幾個深度相同的場景點或一個景深相同的場景小區域,然后取這些場景點中顏色差異較大的兩個點。本文利用先驗知識找到景深相同的一個小矩形區域,區域大小選擇要適中,根據實際的圖像特征決定,找到最精確景深(AccurateDepth,AccDepth)區域。然后利用亮度轉換式(4)找出場景點中亮度差異最大的兩個點。
3 實驗結果及測評
3.1 實驗結果分析比較
為驗證本文算法的有效性,對大量的霧霾圖像進行了實驗,并分別從靜態場景和監控視頻進行了驗證。如圖4所示。從圖4(d)和圖4(e)的對比中可以看出,只從RGB空間計算結果過飽和且有少量失真,去霧效果也較差,加入HSI亮度分量的算法失真更少且更清晰。
3.2 實驗評估
實驗測評可以從主觀和客觀兩個方面分析。主觀分析的結果大致從圖4(d)和圖4(e)的結果對比圖像中看出清晰度和失真度等有了提升。
客觀測評的標準很多,吳迪等[14]從4個角度(失真程度、景物結構的相似性、局部對比度提高程度和色彩偏移程度)客觀地分析了各個去霧算法的測試結果,其中失真和色彩偏移都說明了色彩的保真度。本文根據自身算法的特點,分別從結構相似度和對比度提高程度等方面作了有效性評估。如圖5所示,圖5(a)、圖5(b)、圖5(c)分別為圖4(c)、圖4(d)、圖4(e)對應圖像的R、G、B三通道直方圖。
均方誤差(Mean Squared Error,MSE)和峰值信噪比(Peak SignaltoNoise Ratio,PSNR)是應用比較廣泛的評價失真圖像/視頻相對于原始圖像/視頻的相似程度或保真程度的兩個客觀量。本文用來測評去霧處理后的圖像與原霧霾圖像的保真度。計算方式如下:
對比去霧后的圖像與霧天圖像的差異,對圖5的直方圖進行分析,計算出實驗數據,如表1所示。MSE的數值越小,PSNR的值越大,經過去霧處理后的失真程度就越小。直方圖相關系數越大,表明兩幅圖像的相似度越高,將只從RGB空間計算的算法和本文算法處理后的結果分別與晴天參考圖像進行直方圖相關系數計算,從表1可知,本文算法的系數值更高,即結構相似度更高。從對比度比較可得,本文去霧算法結果圖像的對比度更好,細節更突出,去霧效果圖像更清晰。圖6為以城市建筑圖為例進行的實驗結果對比分析圖,晴天參考圖像和霧天參考圖像見圖3,表2為對應的數據分析比較。同圖4對比結果一致,可以看出本文算法去霧效果更優。
3.3 監控視頻應用
監控視頻是一個動態的場景,即場景中同時存在靜止的背景和運動的前景。 要使本文去霧算法針對于監控視頻霧霾圖像,必須估算出其前景深度。本文用參考背景圖像的場景深度來近似等價于同一位置上前景的深度。由于參考圖像中的前景會影響去霧效果,為了減少這種影響,首先分別對霧天和晴天的視頻進行背景提取,將得到的晴天和霧天的背景分別作為晴天參考圖像和霧天參考圖像。實驗證明,本文算法對于視頻圖像同樣有較明顯的去霧效果,如圖7所示。
4 結語
本文通過霧霾圖像對比,對現有RGB空間去霧算法進行分析,用基于散射特性的HSI空間亮度轉換模型和RGB空間結合計算各個模型參數,減少失真和過飽和,并得到更有效的去霧方法。目前,計算機視覺已經廣泛地應用在交通和安全監控系統中,圖像和監控視頻的去霧也已經成了計算機視覺重要的研究方向之一?,F有的去霧霾方法并不能適用于所有的場景,需要動手調整參數以提升算法的適用能力。然而,交通、安全監控等系統都需要一種能夠自動調參的自適應能力,這也是未來需要研究的重要內容之一。
參考文獻:
[1]鮑永欣. 海事調查取證系統的研究[D]. 大連:大連海事大學,2014:52-58.(BAO Y X. Research on forensics system for maritime investigation[D]. Dalian: Dalian Maritime University, 2014:52-58.)
[2]HE K, SUN J, TANG X. Single image haze removal using dark channel prior[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(12): 2341-2353.
[3]SCHECHNER Y Y, NARASIMHAN S G, NAYAR S K. Instant dehazing of images using polarization[C]// Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2001, 1: 325-332.
[4]SCHECHNER Y Y, NARASIMHAN S G, NAYAR S K. Polarizationbased vision through haze[J]. Applied Optics, 2003, 42(3):511-525.
[5]NAMER E, SCHECHNER Y Y. Advanced visibility improvement based on polarization filtered images[C]// Proceedings of the 2005 International Society for Optics and Photonics. Bellingham, WA: SPIE, 2005, 5888: 36-45.
[6]SHWARTZ S, NAMER E, SCHECHNER Y Y. Blind haze separation[C]// Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2006, 2: 1984-1991.
[7]SCHECHNER Y Y, AVERBUCH Y. Regularized image recovery in scattering media[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(9): 1655-1660.
[8]NARASIMHAN S G, NAYAR S K. Vision and the atmosphere[J]. International Journal of Computer Vision, 2002, 48(3):233-254.
[9]陳功,王唐,周荷琴.基于物理模型的霧天圖像復原新方法[J]. 中國圖象圖形學報,2008,13(5):888-893.(CHEN G,WANG T,ZHOU H Q. A novel physicsbased method for restoration of foggy day images[J]. Journal of Image and Graphics,2008, 13(5):888-893.)
[10]NAYAR S K, NARASIMHAN S G. Vision in bad weather[C]// Proceedings of the 7th IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 1999, 2: 820-827.
[11]NARASIMHAN S G, NAYAR S K. Removing weather effects from monochrome images[C]// Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2001, 2: 186-193.
[12](美)岡薩雷斯, (美)伍茲, (美)艾丁斯. 數字圖像處理[M]. 3版.阮秋琦,譯.北京:電子工業出版社,2012: 20-23. (GONZALEZ R C, WOODS R E, EDDINS S L. Digital Image Processing[M]. 3rd Ed. RUAN Q Q, translated. Beijing: Publishing House of Electronics Industry, 2012: 20-23.
[13]NARASIMHAN S G, NAYAR S K. Contrast restoration of weather degraded images[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(6): 713-724.
[14]吳迪,朱青松.圖像去霧的最新研究進展[J]. 自動化學報,2015,41(2):221-239.(WU D, ZHU Q S. The latest research progress of image dehazing[J]. Acta Automatica Sinica, 2015,41(2):221-239.)