紀玉臣,何軍平,姜永櫟,虞永方
(1.寧波市杭州灣大橋發展有限公司技術養護部,浙江 寧波 315327;2.杭州灣跨海大橋管理局技術與養護管理處,浙江 寧波 315033;3.寧波海視智能系統有限公司研發部,浙江 寧波 315040)
杭州灣跨海大橋作為特大型橋梁,因其處于海面上的地理位置關系,使得其天氣條件變化較多,而且表現不規律。而在普通的視頻監控中,使得監控畫面受環境因素的影響嚴重,主要表現的惡劣天氣如下:海面大風導致畫面抖動;夜晚對向車道燈光對射到攝像頭;雨水導致的路面積水;霧天引起的能見度過低。
海面大風導致畫面抖動。由于是跨海大橋,橋面海風風力較大,使得架設在橋面上的攝像機晃動,從而導致畫面的抖動。普通的智能監控所涉及的畫面往往是靜止的畫面,然后檢測畫面中運動物體,而整個畫面的抖動,使得檢測抖動畫面中的運動物體難度增加。
夜晚對向車道燈光對射到攝像頭。在夜晚高速行駛過程中,車輛用的都是光線強烈的遠光燈,對向車道的車輛照射出來的燈光往往使得畫面出現大片燈光,由于燈光也是運動物體,所以容易形成誤報,而且由于燈光占據了較大部分的視頻畫面,也導致了在燈光經過時,會使發生的交通事件檢測不到[1-4]。
雨水導致路面積水。雨天對于生處海面上的杭州灣大橋,是尋常的事,由于雨水會引起橋面積水,車輛在行駛過程中影射到橋面形成倒影,給檢測帶來難度。而如果下雨發生在夜間,橋面積水不僅會有車輛行駛過程中的倒影,還由于大橋兩側的燈光照射,會使橋面上的積水形成強烈的反光,影響檢測效果。
霧天引起的能見度過低。在霧天,能見度較低,車輛一旦出現停留,容易引起交通事故,但是由于攝像頭的分辨率較低,導致視頻畫面圖像模糊不清,這也是智能監控行業中難以實現的障礙。
智能交通事件檢測系統是目前世界交通運輸領域的前沿研究課題,發達國家提出并執行了一系列研究計劃,對交通事件的自動檢測因其能夠有效地預測交通事件的發生,并對已經發生的交通事件作出迅速的反應,基于視頻的交通監控技術的研究與應用,隨著數字圖像技術、計算機技術、模式識別技術的發展越來越被重視,近年來已經成為圖像處理、智能交通等研究領域的重點。

圖1 惡劣天氣的檢測情況
20世紀80年代末期以來,隨著先進的信息技術、電子傳感技術、數據通信傳輸技術、網絡技術和計算機硬件等高新技術的發展,將計算機視覺、圖像處理、模式識別、人工智能等技術應用于交通管理的理論與方法成為研究的重點和熱點。1984年美國明尼蘇達大學的機器視覺與人工智能實驗室首次開展了將計算機視覺應用于高級交通管理的研究[5]。1987年美國(Image Sensing Systems,ISS)公司研制出第一臺原型機,首次驗證了視頻檢測技術在交通領域的應用[6]。基于視頻的交通違章行為檢測技術取得了長足的進展,能夠對車輛闖紅燈、逆行、超速和違章停車等違章行為進行自動檢測和記錄,出現了成型的商業化產品。1994年,美國休斯飛機公司評測了當時存在的幾種檢測技術,包括視頻檢測技術,測評結果指出基于視頻圖像處理的車輛檢測系統已經具備了投入實際使用的潛力。MDOT(明尼蘇達運輸部)為FHWA(美國聯邦公路局)進行了更詳盡嚴格的測評,結果表明視頻檢測器的檢測準確性和可靠性可以達到令人滿意的程度[7-8]。同時隨著視頻車輛檢測技術的發展,人們已不滿足于僅僅檢測出車輛,FHWA進一步利用此技術提取交通參數,如交通流量,十字路口的車輛轉向信息等。日本東京大學的 Shunsuke KAMIJO,Katsushi IKEUCHI,Masao SAKAUCHI等人也做了很多深入的改進算法研究。主要的研究方向是如何根據運動估計、基于馬爾可夫(Markov)隨機場等技術進行運算,以解決運動目標的遮擋問題[9-12]。
在產品的實際應用方面,比較著名的有法國的Citilog,美國ISS公司的Autoscope系統、比利時路暢公司的Traficon系統和美國艾特銳視(Iteris)公司的Vantage系統,等。Autoscope系統在全球各種復雜道路、交叉路口進行控制,是交通數據采集以及事件檢測方面的佼佼者,它是現在交通管理系統最先進的解決方案;比利時的Traficon系統己在法國FOIX隧道、美國華盛頓州Lynnwood、美國華盛頓州塔科馬港市、瑞士、意大利、盧森保、挪威奧斯陸、比利時、安特衛普、北京四環路,杭州解放路隧道等地安裝使用;Vantage視頻車輛檢測器在全球已有3萬個系統的應用業績,已成為全球在用業績最多、最受用戶歡迎的車輛檢測產品之一[13-15]。除此之外,世界發達國家已開發出各種性能優越的區域交通控制管理軟件,例如:日本的Utms,英國道路和運輸研究所的 Scoot系統,法國的Prudyn系統,意大利的Utopia系統等。
與此同時國內研究機構也涉足此領域的研究,哈爾濱工業大學的張澤旭、李金宗、李寧寧等做過基于光流矢量和Canny邊緣檢測算子來進行運動目標的檢測和分割算法理論研究[16-17]。電子科技大學的魏波做過基于統計模式方法的運動目標檢測算法,首先利用較簡單的算法對運動場進行了粗略的估計,然后根據馬爾可夫(Markov)隨機場理論構造出運動場的間斷點分布模型,利用此模型來檢測運動場間的斷點,以此來實現運動目標的檢測,但未能實現跟蹤,也有單位對幀差算法進行了優化和改進,如模糊聚類算法、遺傳算法聚類等,但都只停留在理論算法的研究基礎上[18]。國內企業對基于視頻的高速交通事件檢測技術的應用大多處于研發和生產的初級階段,多數為“魚龍混雜”,沒有較成熟商用的系統。現國家對道路安全要求越來越高,單純的依靠人工監控方式已不能滿足現實的需求,有效的智能事件檢測系統成為道路監控的必然發展趨勢[19-20]。
對于目前大橋存在的安全問題,以及目前已具備的攝像頭資源,提出了整體解決方案,主要由4部分組成,前端數據采集、數據編碼傳輸、數據智能分析、自動報警處理。具體組成如圖2所示。

圖2 項目研究組成
前端數據采集:目前杭州灣大橋上的所有攝像頭,都能夠通過視頻信號直接傳輸到監控中心。為能夠在第一時間檢測到安全事件的發生,同時又不影響DVR的正常工作。在采集過程中采用通過視頻分配器將視頻信號分為兩路,一路分配到智能檢測設備上,一路分配到原有的DVR中保存視頻。
智能數據分析:獲取到杭州灣大橋上的視頻以后,需要對視頻進行處理,在處理過程中分為兩個部分。首先是對天氣條件的一個算法預處理,主要體現在對海風、下雨、夜晚燈光、霧等引起的客觀條件進行處理,得到一個穩定干凈的預處理圖像,從而能有效地進行后續的判斷和識別。得到預處理圖像以后,智能設備需要對視頻中是否存在需要檢測的安全事件進行判斷,從而得到安全事件的結果輸出。對于輸出的結果通過網絡發送到自動報警處理的客戶端。
數據編碼傳輸:智能數據分析處理完視頻后需要通過網絡傳輸到客戶端,由于直接將原始視頻信號傳輸存在著數據量過大的問題,需要對獲取到的視頻進行圖像編碼操作,以減少數據在傳輸過程中所占用的網絡資源。
自動報警處理:對于前面兩個過程,智能數據分析和數據編碼傳輸,處理完以后的結果需要通過網絡發送到自動報警處理中,自動報警處理需要對數據進行整合。首先需要對數據編碼傳輸中的編碼進行解碼操作,其次對于智能數據分析得到結果若是安全事件發生,則發出報警,存儲圖片和視頻并且在實時畫面中顯示報警位置和報警類型。通過報警聯動,將安全信號發送到橋面上,通過大功率喇叭和警示燈提醒過往車輛注意。
通過以上方式實現的算法在杭州灣大橋中已經應用,結果如圖3~圖6所示。




視頻處理技術已經成為智能交通中的一個重要組成部分,并顯示出更廣泛的應用前途。針對高速交通橋梁中存在的問題進行研究,分析了各個交通問題,提出了有效的解決方法,并將研究成果應用于杭州灣跨海大橋中通過,通過實際應用檢測,該系統具有良好的檢測效果。在實際的檢測過程中,也存在由于惡劣天氣所引起的一些誤報和漏報,這有待進一步提高。
[1]ABDOU I E,DUSAUSSOY N J.Survey of image quality measurements[C].Dallas,Texas:Processings of 1986 ACM Fall Joint Computer Conference,1986:71 -78.
[2]WANG Z,SHEIKH H R,BOVIK A C.Objective video quality assessment.111e handbook of video databases:design and applications[M].Ultra:CRC Press,2003.
[3]RUSSO F.An image enhancement technique combining sharpening and noise reduction[J].IEEE Transactions on Instrumentation and Measurement,2002,51(4):824 -828.
[4]ZAPOLO R F,SEARA R.A measure for perceptual image quality assesment[C].Barcelona,Spain:Proc.OfInt.Conf.on Image Proc,2003:433 -436.
[5]ROSENFELD A,VANDERBURG G.Coarse - fine template matching [J].IEEE Trans.Syst.Man.Cyb,1977(7):104-107.
[6]SHEIKH H R,BOVIK A C.Image information and visual quality[J].IEEE Transactions on Image Processing,2006,15(8):430-444.
[7]MAYACHE A,EUDE T,CHERIFI H.A comparison of image quality models and metrics based on human visual sensitivity[C].Chicago,Illinois,USA:Proc.of IEEE Int.Conf.on Image Processing,1998:409 -413.
[8]SHEIKH H R,BOVIC A C,CORMACK L.Blind quality assesment of JPEG2000 compressed images using natural scene statistics[C].Proc.of the Thirty - Seventh Asilomar Conf.on Signals,Systems and Computers,2003:1403 -1407.
[9]PORIKLI F.Achieving real- time object detection and tracking under extreme conditions[J].Journal of Real- time Image Processing,2006,10(1):33 -40.
[10]COMANICIU D,RAMESH V,MEER P.Real- time tracking of non - rigid objects using mean shift[J].IEEE Computer Vision and Pattern Recognition,2000(2):142 -149.
[11]詹翔,周焰.一種基于局部方差的霧天圖像增強算法[J].計算機應用,2007,27(2):510 -512.
[12]吳恩華,柳有權.基于圖形處理器(GPU)的通用計算[J].計算機輔助設計與圖形學報,2004,16(5):601-612.
[13]丁禮燈,席敏.淺談智能交通系統在交通管理中的應用[J].科技創業月刊,2008(4):149 -150.
[14]BRUNELLI R,POGGIO T.Face recognition:features versus templates[J].IEEE Trans.Pattern Anal.Machine Intell,1993(15):1042-1052.
[15]MAR'EE R,GEURTS P,PIATER J,et al.Random subwindows for robust image classification[C].San Diego,CA:Proc.IEEE Conf.on Computer Vision and Pattern Recognition,2005(1):34 -40.
[16]TURK M,PENTLAND A.Face recognition using eigenfaces[C].Maui,HI:Proc.IEEE Conf.on Computer Vision and Pattern Recognition,1991:586 -591.
[17]BLACK M,JEPSON A.Eigentracking:robust matching and tracking of articulated objects using a view-based representation[J].Intl.J.of Comp,1998(26):63 -84.
[18]MATAS J,CHUM O,URBANA M,et al.Robust widebaseline stereo from maximally stable extremal regions[J].Image and Vision Computing,2004,22(10):761 -767.
[19]MCILROY P,ROSTEN E,TAYLOR S,et al.Deterministic sample consensus with multiple match hypotheses[C].Oxford:British Machine Vision Conference,2010.
[20]MIKOLAJCZYK K,SCHMID C.Indexing based on scale invariant interest points[C].In IEEE International Conference on Computer Vision,2001:525 -531.