王佐成,賈 佳,薛麗霞
(1.重慶郵電大學 軟件學院,重慶400065;2.重慶郵電大學 計算機科學與技術學院,重慶400065)
車流量檢測是智能交通系統 (ITS)的一個重要課題,其基礎是對車輛的準確檢測[1-2]。 傳統的車輛檢測方法[3-7]由于存在著維護不方便且僅能提供一些簡單信息等問題,而使其應用受到限制[8]。近年來,基于視頻圖像處理的交通信息檢測技術與傳統技術在機動性、成本、檢測范圍、安裝和維護的方便性等方面有著顯著的優點,因而在ITS信息檢測中獲得越來越廣泛的應用。
目前已有很多機構對基于視頻的車輛檢測算法進行了研究,常用算法主要有:光流法[9]、背景差分法[10]、幀間差分法[11-12]。光流法在多數情況下算法較為復雜、運算量大,不適宜實時處理。背景差分法計算當前輸入幀與背景圖像的差值以提取目標,但需提供實時可靠的背景。幀間差分法是將序列圖像中相鄰兩幀或三幀進行差分運算,但一般很難獲得目標的完整輪廓。文獻 [11]使用兩幀差分和自適應閾值的方法求取運動目標,其在交通應用中產生“雙影”和 “空洞”現象較為明顯。文獻 [12]使用三幀差分和固定閾值的方法,雖能得到較為合適的目標輪廓,但在光線不斷變化等因素影響下,所采用的固定閾值適應性不強、抗噪性弱,降低了目標分割的準確度。
針對以上方法的不足,本文采用三幀差分、背景差分和自適應閾值算法,并與虛擬傳感器結合,使整個檢測算法只針對有實際計算價值的序列窗口圖像信息進行處理,實現了快速有效的車流量統計。
車輛在道路上沿車道行駛,因而可按每個車道進行虛擬檢測窗口的設置。針對首幀圖像,選取合適大小的與車輛行駛方向相垂直的矩形區域作為車輛檢測的處理分析窗口。窗口位置的選取首先要充分考慮攝像機安裝高度和傾角的影響,所拍攝的視頻是攝像頭安裝在道路前上方,并把虛擬窗口設置在獲取圖像靠近底部的位置,此時車輛間的間距比較大,不會存在相互遮擋的情況。窗口所取像素高度一般為5到10個像素,本文選取8個像素高度。此外,可在每條道路上相距合適位置設置多個虛擬檢測窗口,以進一步減少誤差、提高檢測精度。虛擬檢測窗口設置如圖1所示。

圖1 虛擬檢測窗口
背景模型的獲取有手動給出和基于統計兩種方式。手動給出的方法需要人在觀察到沒有前景時啟動相機而獲得。這種方法不僅增加了人力和物力的投入,且在多數情況下很難在沒有前景車輛的條件下獲得背景模型,如高速公路的車輛檢測系統。此時,基于統計獲得背景模型的方法就顯得更為方便、快速。
在實際交通場景中,某個區域存在目標的時間是有限的,序列視頻圖像中差異大的點一般是由運動目標移動引起的。因而在傳統統計平均法模型簡單、計算方便的優點之上,在虛擬檢測窗口內計算并除去序列視頻中差異大的圖像然后再求平均,不僅進一步大大縮短了運算時間和計算機資源占用率,同時得到了更好的初始化效果。
窗口背景模型初始化[13]基本思想及步驟如下:
(1)對視頻序列中一定數量幀n所對應的虛擬窗口內圖像,先對每個像素值Pi(x,y)求平均,均值記為

(2)計算總差值

(3)計算平均差值

(4)去除差異大的點

(5)對P′(x,y)再求平均值,記為B0(x,y),該值即可作為初始窗口背景模型的像素值。
改進的自適應窗口背景更新算法的思想為:首先從視頻序列中提取出連續三幀圖像對應的窗口圖像信息,圖像預處理[14]后進行連續兩幀圖像差分和動態閾值分割,將兩次差分后的二值圖像做相與運算,定位當前幀檢測窗口內相對于前一幀發生變化的區域;發生變化的區域內圖像信息使用模板背景中相應位置圖像信息替換,而窗口內未發生變化的區域圖像信息則用當前窗口幀相應位置圖像信息進行替換。具體步驟如下:
(1)初始化各參數,令迭代參數i=2;
(2)截取視頻序列中第一幀和第二幀窗口圖像I1、I2并保存,將獲取的初始窗口背景模型B0(x,y)作為I1對應的窗口背景;
(3)截取當前幀窗口圖像Ii的下一幀窗口圖像Ii+1,對其進行圖像預處理;
(4)分別求出連續兩幀窗口圖像幀間差分的二值圖BWi′(x,y)和BWi″(x,y)

式中:BW′i(x,y)、BW″i(x,y)——第i幀與第i-1幀、第i+1幀與第i幀窗口圖像幀間差分的二值圖;abs(Ii-Ii-1)——第i幀與第i-1幀圖像對應像素點差值的絕對值,abs (Ii+1-Ii)——第i+1幀與第i幀圖像對應像素點差值的絕對值;T′、T″——采用大津法閾值分割得到的自適應閾值。
(5)將二值圖像BWi′(x,y)和BWi″(x,y)相與并更新當前窗口背景Bi(x,y)

式中:BWi(x,y)——檢測窗口二值圖像在坐標位置(x,y)處的值,Bi(x,y)——檢測窗口背景圖像在坐標位置 (x,y)處的值;a——背景更新速度,它的取值對背景更新的效果有很大影響,大量實驗結果發現當a取值過大會導致背景更新的頻率過快,對圖像中的各種變化反應過于敏感而很容易在更新后的背景中引入噪聲點,而a取值過小則背景更新的頻率低,就不能及時反映出場景瞬時發生的變化。這兩種情況下得到的更新后背景都會大大降低車輛檢測的準確度,因而a的取值需經過反復實驗取最優,經驗值為0.05~0.1;
(6)保存第i+1幀窗口圖像為第i幀窗口圖像、第i幀窗口圖像為第i-1幀窗口圖像,并使i自增1。如果程序此時沒有結束則返回到步驟 (3)繼續執行。對于第i幀圖像,得到的圖像Bi(x,y)即為其更新后的檢測窗口背景。
為了獲得較為準確的運動車輛目標,在二值化差分后的圖像時,需要選擇一個合適的閾值T來分割出較高質量的運動區域。由于在交通場景中,光線和天氣狀況等環境因素會隨時發生快速變化,而固定閾值抗噪性弱,不能及時適應這些變化,將會大大降低目標檢測的準確度,因而需采用能夠自適應地對環境變化作出及時反應的分割閾值。
本文采用自適應的最大類間方差法,即大津法 (Ostu)閾值分割[15-16]。它是將檢測窗口圖像對應的直方圖在某一閾值處分割成兩組R0= {0~T-1}和R1= {T~m-1},(設圖像的灰度值為0~m-1級,pi為灰度值i出現的概率),則R0產生的概率為

R1產生的概率為

兩組的平均值分別為

和


兩組間的方差由式 (14)計算得出

從1~m-1之間改變T值,求上式為最大值時的T,也就是當被分成的兩組間方差為最大時,選取該值為最終的分割閾值T。
所有檢測窗口在同一水平線上覆蓋所有待檢測車道,每輛車同時只能在一個車道內運動,即使出現超車現象,該車也只能通過某個車道檢測窗口一次,不存在2輛車并排擠在同一個車道窗口和同一輛車同時經過2個車道窗口的現象,因此每個車道檢測窗口共存在下列4種現象:
(1)窗口內從無車到無車,表示沒有車通過檢測區;
(2)從無車到有車,表示有車駛入檢測區;
(3)從有車到有車,表示該輛車還沒駛出檢測區;
(4)從有車到無車,表示車輛駛出檢測區。
在車輛進入或駛出檢測區時計數均可,本文采用在車輛駛入檢測區時計數的方式。在每一幀圖像檢測后,標記當前幀是否為有車輛經過的狀態,以作為判斷以上4種現象并統計過往車輛個數的依據。
具體檢測步驟為:首先初始化參數 (包括設置虛擬檢測窗口和檢測最大幀數N等);讀入交通視頻流,提取一定數量的連續幀圖像,通過在虛擬窗口內計算并排除差異大圖像,然后對剩余圖像求均值,快速初始化窗口背景模型;模型建立后從第一幀開始提取連續三幀檢測窗口圖像并進行去噪、平滑等預處理;使用最大類間方差法定位目標區域并自適應更新背景,得到當前幀窗口圖像的參考背景;背景差分后,獲得窗口內車輛圖像信息,二值化并加權平均各像素值,如果所得均值超過了某閾值Th且前一幀圖像有無車輛的狀態標記flag=0,則認為該區域從無車狀態變為有車狀態,計數器就加1并置flag=1,否則置flag=0;當檢測幀數達到初始設置最大值N時,算法結束并統計出一定時間內的車流量。車流量檢測算法流程如圖2所示。
實驗采用交通道路旁固定攝像頭下幀大小為320×240、幀速率為25幀/s的2分鐘RGB視頻序列圖像,使用VC++6.0和OpenCV[17]進行仿真。為了便于觀察背景更新效果,實驗以文獻 [11]采用的兩幀差分自適應閾值法、文獻 [12]采用的三幀差分固定閾值法和本文采用的三幀差分自適應閾值法完整更新背景的單向2車道下檢測結果及使用此3種方法得到的對應窗口前景二值圖做對比;并以兩幀差分自適應閾值完整背景車流量檢測法、三幀差分自適應閾值完整背景車流量檢測法與本文采用的虛擬窗口車流量檢測法,在陰天和晴天兩種場景下的實時性和準確性方面進行比較。實驗中所用到的閾值為采用大津法閾值分割得到的自適應閾值。
圖3(e)為依次使用這3種方法得到的第120幀左車道窗口前景二值圖。對比可以看出圖3(b)方法更新的背景存在重影比較明顯,圖3(c)方法得到的前景目標分割效果較差,而采用圖3(d)方法得到的更新結果和前景二值圖均比其他兩種方法好。因而本文所采用的三幀差分自適應閾值法能夠較為準確地檢測交通車流量。


從表1結果可以看出本文檢測方法平均準確率可以達到98%以上,能夠滿足交通車流量檢測的準確性要求。表2采用3種方法分別對同一個視頻文件進行檢測,并統計3種方法的平均運行時間和陰天、晴天兩種場景下的車輛檢測準確率。實驗結果可以看出,本文方法在陰天和晴天兩種場景下檢測準確率和圖3(d)方法相當,且平均運行時間最短,能更好地滿足交通車流量檢測中對實時性的要求。

表1 不同車道車輛檢測實驗結果

表2 陰天和晴天下實驗結果
傳統的背景提取法是對整幅圖像進行計算以初始化和更新背景,本文則采用只針對幀圖像中虛擬檢測窗口內信息進行處理的方法,結合改進的背景更新算法快速初始化背景模型并實時更新檢測窗口背景,更為有效地檢測出一定時間內的車流量。這種針對虛擬窗口的計算方法,減去了對無效圖像信息的處理量,加快了求取有實際價值的窗口信息的速度,提高了檢測車流量的實時性。因而該方法更快速有效,在ITS中將會有廣泛的應用前景。
[1]YUE Yonghong.A traffic-flow parameters evaluation approach based on urban road video [J].International Journal of Intelligent Engineering &Systems,2009,2 (1):33-39.
[2]DU Lili,WANG Guoyu.Video-based techniques for vehicle detection and shadow eliminating method [J].Modern Electronic Technique,2009,32 (3):192-194 (in Chinese). [杜麗麗,王國宇.基于視頻的車輛檢測技術和陰影消除方法[J].現代電子技術,2009,32 (3):192-194.]
[3]LEE S,OH S C,SON B.Heuristic algorithm for traffic condition classification with loop detector data [C].Proceedings of International Conference on Computational Science and Its Applications,2005:816-821.
[4]Whitehouse K,ZHAO F,LIU J.Semantic streams:A framework for composable semantic interpretation of sensor data[C].Proceedings of Third European Workshop on Wireless Sensor Networks,2006:5-20.
[5]TONG F,TSO S K,XU T Z.A high precision ultrasonic docking system used for automatic guided vehicle [J].Sensor and Actuators A,2005,118 (2):183-189.
[6]Coifman B.Freeway detector assessment:Aggregate data from remote traffic microwave sensor [J].Transportation Research Record,2005,19 (17):149-163.
[7]PENG Chunhua,LIU Jianye,LIU Yuefeng,et al.Review of vehicle detection sensors [J].Transducer and Microsystem Technologies,2007,26 (6):4-7 (in Chinese).[彭春華,劉建業,劉岳峰,等.車輛檢測傳感器綜述 [J].傳感器與微系統,2007,26 (6):4-7.]
[8]JIANG Dalin,MA Junqiang.Survey on video-based vehicle de-tection and tracking methods [J].Chinese Journal of Scientific Instrument,2008,29 (4):759-762 (in Chinese). [蔣大林,馬軍強.基于視頻的車輛檢測與跟蹤方法綜述 [J].儀器儀表學報,2008,29 (4):759-762.]
[9]CHEN Zhenxue,WANG Guoyou,LIU Chenyun.Statistics of vehicle flows based on computer vision [J].Huazhong University of Science & Technology(Nature Science Edition),2006,34 (5):46-49 (in Chinese). [陳振學,汪國有,劉成云.基于計算機視覺的汽車流量檢測統計 [J].華中科技大學學報(自然科學版),2006,34 (5):46-49.]
[10]WANG Jing,BAO Wenxing.A video supported moving object detection technique based on difference algorithm [J].Computer Applications and Software,2009,26 (12):68-70(in Chinese).[王靜,保文星.一種基于差分算法的視頻運動目標檢測技術 [J].計算機應用與軟件,2009,26 (12):68-70.]
[11]XU Fangming,LU Guanming.Moving object detection based on ameliorative surendra background update arithmetic [J].Shanxi Electronic Technology,2009,39 (5):39-40 (in Chinese).[徐方明,盧官明.基于改進surendra背景更新算法的運動目標檢測算法 [J].山西電子技術,2009,39 (5):39-40.]
[12]MO Lin,LIAO Peng,LIU Xun.A motion detection algo
rithm based on background subtraction and three frame differencing [J].Control & Automation,2009,25 (4):274-276(in Chinese).[莫林,廖鵬,劉勛.一種基于背景減除與三幀差分的運動目標檢測算法 [J].微計算機信息,2009,25 (4):274-276.]
[13]WU Zhongshan,LEI Yunqi,WU Lvfang,et al.An algorithm for extraction and update of background [J].Journal of Xiamen University (Natural Science),2008,47 (3):348-352(in Chinese).[吳眾山,雷蘊奇,吳綠芳,等.一種實用的背景提取與更新算法 [J].廈門大學學報 (自然科學版),2008,47 (3):348-352.]
[14]Rafael C Gonzalez.Digital image processing [M].RUAN Qiuqi,RUAN Yuzhi,transl.2nd ed.Beijing:Electronics Industry Press,2009 (in Chinese).[岡薩雷斯.數字圖像處理 [M].阮秋琦,阮宇智,譯.2版.北京:電子工業出版社,2009.]
[15]XIE Fengying,ZHAO Danpei.Digital image processing by Visual C+ + [M].Beijing:Electronics Industry Press,2008(in Chinese).[謝鳳英,趙丹培.Visual C++數字圖像處理 [M].北京:電子工業出版社,2008.]
[16]XU Xinzheng,DING Shifei,SHI Zhongzhi,et al.New theories and methods of image segmentation [J].Acta Electronica Sinica,2010,38 (2A):76-82 (in Chinese). [許新征,丁世飛,史忠植,等.圖像分割的新理論和新方法 [J].電子學報,2010,38 (2A):76-82.]
[17]Gary Bradski,Adrian Kaehler.Learning OpenCV [M].YU Shiqi,LIU Ruizhen,transl.Beijing:Tsinghua University Press,2009 (in Chinese). [布 拉 德 斯 基, 克 勒. 學 習OpenCV[M].于仕琪,劉瑞禎,譯.北京:清華大學出版社,2009.]