邵建荃
(四川大學計算機學院,成都 610065)
非重疊場景下多攝像機車輛跟蹤研究
邵建荃
(四川大學計算機學院,成都 610065)
目標跟蹤是機器智能領域研究的一大研究方向。近年來,多攝像頭的協同跟蹤是跟蹤研究的一大熱點。實現一個簡單的非重疊場景下的多攝像頭跟蹤框架。可以實現自動檢測前景目標,并在兩個攝像頭間保持目標身份的同一性。具體來說前景檢測模塊實現混合高斯模型背景建模。在對多目標跟蹤模塊基本實現對出現的前景目標的識別與跟蹤。對跟蹤過程中出現的陰影、遮擋問題應用相應的解決方法,取得實際效果。對多目標匹配過程中特征的選取和時間信息的綜合利用做嘗試。嘗試使用顏色直方圖與SURF特征以及時間信息相結合的特征匹配方法。在活動分析過程中分析兩攝像點間車輛的速度。該方法也可以用于對一個交通系統中長距離行駛的車輛進行跟蹤,可以測量點對點的交通參數。
視頻監控;混合高斯背景模型;多目標跟蹤;圖像匹配
近年來,視頻監控設備的成本不斷降低,越來越多的監控設施被安裝使用并構成了龐大的覆蓋網絡。特別是在交通系統中,大多數的干道配有監控設備。這些攝像頭網絡提供了覆蓋很多地區的龐大數據。在這些數據,由于攝像頭角度以及拍攝分辨率原因,大多數無法準確地確定車輛身份。因此從這些數據中人工查找某一特定的車輛費時費力,猶如大海撈針。
而且,多數的智能交通系統僅限于運用單個或者少量的攝像頭信息。通常是形象化地檢查一條道路的交通流動,沒有對多個監控攝像頭的信息進行有效的融合。而不論是改善交通現狀還是處理交通逃逸、治安刑事案件,從交通網絡中搜索指定車輛、跟蹤車輛的運行時間都是必不可少的。這就要求當一輛車通過多個攝像頭時,可以保持其身份的同一性。因此道路交通中多個監控站點的車輛匹配跟蹤有十分重要的研究意義。
該系統的實現分為三大部分。第一部分為單攝像機跟蹤。第二部分為多攝像機跟中,第三部分為活動分析。具體分為以下步驟:
①處理攝像機提供的數據,做簡單的預處理,包括降低幀率,減小分辨率。這是為了在保證處理效果的基礎上提高處理速度。
②單攝像機背景建模。利用混合高斯對固定攝像頭的背景建模。
③利用背景差法計算前景。
④在HSV空間上對前景做去陰影處理。
⑤單攝像頭跟蹤。建立運動目標模型和目標行為模型后,運用最近鄰濾波和關聯矩陣相結合的方法進行多目標跟蹤。
⑥提取跟蹤目標的特征并融合形成特征向量。
⑦綜合多個特征進行目標匹配。
⑧對匹配對象進行活動分析。包括單個對象的行為分析與基于統計的活動分析。
2.1 實現環境
實驗的實驗環境如下:
系統運行環境:
操作系統:Windows 8
硬件配置:
CPU:Intel Core i3 CPU T6600@2.20GHz
內存空間:6GB
磁盤空間:500GB
編程語言:MATLAB
集成編譯環境:MATLAB 2012
2.2 數據采集
用兩臺數碼攝像機和配套的三腳架進行視頻采集。一臺攝像機架設在校醫院二樓,一臺架設在文華活動中心二樓,兩地點相距約150米。這兩個地點之間為直行路,有來回走動的車輛和行人。特別是文華活動中心附近有車與人停下,這對實驗造成較大影響。在地點1采集的圖片分辨率為320×240,幀率為18幀每秒,地點2采集的圖片分辨率為432×240,幀率為18幀每秒。地點示意圖以及代表幀如下:

圖1 拍攝地點
2.3 結果分析
(1)前景提取結果分析:
混合高斯模型可以較好地得到前景。通過參數的調整也可以處理輕微的抖動問題?;旌细咚鼓P偷膮涤虚撝礣與更新率α。通過試錯法對參數調整發現當T取0.6,α取0.01時能達到較好效果。在論文[3]中作者將落入的判斷閾值設為2.5倍的標準差。但在本文實驗中發現判斷閾值設置為4倍標準差效果會更好。對比如下:

圖2 拍攝場景

圖3 參數調整效果圖
圖3分別展示了T=0.2,α=0.01,閾值為2.5倍,T= 0.6,α=0.1,閾值為2.5倍,T=0.6,α=0.01,閾值為2.5倍,T=0.6,α=0.01,閾值為4倍下的典型效果圖。
在實驗過程中發現,當程序運行到4000幀以后,會出現兩個反?,F象。一是取值極為穩定的像素點慢慢變黑。二是車輛經過交多的像素點越來越容易將前景判斷為背景,且更新變快。
經過分析,原因為:


圖4 錯誤效果圖
原公式如上所示,若該像素點一直保持穩定(如均為[255 255 255]),則p會逐漸增大,而標準差σ逐漸減小。在某一時刻,(1-p)會小于0造成該點均值方差均為NaN。若該像素點變動較大(經常有車經過),則σ逐漸增大,隨著σ的增大引入的誤差逐漸增大(當幀數3000時最大標準差為30,與均值差值為2.5x30=75內的像素值均落入該模型)。導致本該是前景的像素值被判斷為背景。改進方法為每1000幀對模型重新初始化。改進前后對比如下:

圖5 對比效果圖
(2)去陰影結果分析:
陰影去除方法有明顯的效果。但也存在著一些問題。典型的處理結果如下:

圖6 陰影去除效果圖
去陰影方法可以有效地去除陰影。但在陰影面積過大的情況下容易造成將陰影與目標分裂,對跟蹤造成干擾。對于黑色車輛也容易將車輛誤當為陰影去除,造成檢測錯誤。
(3)單目標跟蹤結果分析:
我們僅分析對場景中汽車、自行車、摩托車、三輪車的跟蹤情況。在攝像點二10分鐘的拍攝過程中統計結果如下:

表1 跟蹤查全率
丟失的兩輛車是因為完全遮擋。由于攝像角度問題自行車會被樹木遮擋,所以捕獲率過低。
跟蹤過程可以較好地解決車輛合并與分裂問題。典型場景如圖7所示。

圖7 跟蹤結果示例
(4)目標匹配結果分析:
僅使用顏色直方圖法、僅使用SURF法,根據速度縮小搜索范圍后,結合速度、顏色直方圖、SURF特征匹配的正確率如下:

表2
典型車輛顏色直方圖對比、SURF特征對比如下:
從中可以看出在視頻采集時間(中午1點),通過文化大道的車輛的速度都較慢,這也和中午人流量大有關。
本文主要嘗試搭建非重疊場景下多目標跟蹤的框架,并討論了在此框架下的關鍵步驟。針對這些關鍵步驟相應設計了實驗,驗證了一些技術在該框架下的作用。在這個過程中出現了許多問題,并嘗試進行了解決:

圖8 特征對比示例圖
(5)檢測結果分析:
車輛的平均速度分布如下:

圖9 速度分布直方圖
(1)背景建模時間:在開始用MATLAB實現混合高斯模型時工作效率很低,無法滿足實驗需求。在改進算法(如更新率p的使用常數),并修改代碼(完全采用矩陣化運算)后,時間獲得了大幅提升。
(2)背景模型在長時間運行后不穩定:這個問題在本文中做了詳細論述,通過單步調試和對參數值的分析發現了自己實現中的漏洞,并做了改進。
(3)跟蹤過程中的遮擋、合并、分裂問題:原本系統設計僅簡單對前景進行提取,但由于這些問題導致提取的前景不能代表原有問題。只好設計了比較復雜的跟蹤系統,較好地解決了這一問題。
(4)特征的選?。河捎谂臄z角度、機型、焦距不同,導致視頻中車輛差距比較大。如何選取適當的特征是匹配成功的關鍵。
[1]Rojas J C,Crisman J D.Vehicle Detection in Color Images[C].Intelligent Transportation System,1997.ITSC'97.,IEEE Conference on. IEEE,1997:403-408.
[2]Kogut G T,Trivedi M M.Maintaining the Identity of Multiple Vehicles as They Travel Through a Video Network[C].Multi-Object Tracking,2001.Proceedings.2001 IEEE Workshop on.IEEE,2001:29-34.
[3]Stauffer C,Grimson W E L.Adaptive Background Mixture Models for Real-Time Tracking[C].Computer Vision and Pattern Recognition,1999.IEEE Computer Society Conference on.IEEE,1999,2.
[4]Pele O,Werman M.The Quadratic-Chi histogram Distance Family[M].Computer Vision-ECCV 2010.Springer Berlin Heidelberg, 2010:749-762.
[5]Herbert Bay,Tinne Tuytelaars,Luc Van Gool.SURF:Speeded Up Robust Features.Computer Vision-ECCV 2006 Lecture Notes in Computer Science Volume 3951,2006:404-417.
[6]Cucchiara R,Grana C,Piccardi M,et al.Improving Shadow Suppression in Moving Object Detection with HSV Color Information[C]. Intelligent Transportation Systems,2001.Proceedings.2001 IEEE.IEEE,2001:334-339.
[7]Swain M J,Ballard D H.Indexing Via Color Histograms[M].Active Perception and Robot Vision.Springer Berlin Heidelberg,1992: 261-273.
Research on Multi-Vehicle Tracking Methods under Non-Overlapping Field of Views
SHAO Jian-quan
(College of Computer Science,Sichuan University,Chengdu 610065)
Multi-Camera tracking which can be applied in vehicle tracking and traffic data measurement,has a promising application prospect in criminal investigation,hit-and-run accident handling and traffic situation improvement.Presently vehicles tracking under non-overlapping field of views are not involved in most intelligent transportation systems.Existing work holds problems like low precision and poor real-time performance.Realizes a simple tracking framework using multiple cameras under a non-overlapping field of views.Foreground objects can be detected automatically,while same objects are kept identical between two cameras.Specifically,the foreground detection module implements background modeling using a Gaussian Mixture Model,and appearing foreground objects are recognized and tracked in the multi-object tracking module.Applies specific methods,which achieves actual effect,to deal with shadow and occlusion problems in tracking process.Makes some attempts for the feature selection and comprehensive utilization of time information in multi-object tracking process.In feature matching,employs a combination of color histogram,SURF feature and time information.The activity analysis process computes the vehicles’driving speed on the road segment between two cameras.The proposed method can also be applied to track long-distance-traveling vehicles in a traffic system,in which point-to-point traffic parameters can be measured.
Video Surveillance;Gaussian Mixture Model;Multi-Object Tracking;Image Matching
1007-1423(2017)02-0049-05
10.3969/j.issn.1007-1423.2017.02.013
邵建荃(1991-),男,山西晉中人,碩士研究生,研究方向為多媒體計算
2016-11-17
2017-01-06