王 翔, 肖建力
(上海理工大學 光電信息與計算機工程學院,上海 200093)
?
基于視頻的交通參數檢測綜述
王 翔, 肖建力
(上海理工大學 光電信息與計算機工程學院,上海 200093)
為使智能交通系統發揮作用,必須對流量、密度及速度等交通流的核心參數進行檢測,目前已經有許多常見的方法,但在實際的檢測中,使用一種檢測方法只能檢測出部分參數,未能夠實現全部參數的檢測,尤其是密度參數非常難以檢測.現有的密度檢測方法大部分集中在局部場景的交通密度檢測上,對于連續場景的交通密度檢測很少涉及.現主要綜述了流量、密度及速度3個方面的檢測方法,并重點關注僅通過視頻數據能夠方便地檢測出多個交通參數的文獻.
智能交通系統; 視頻; 交通參數; 檢測
智能交通系統在現代城市生活中發揮著至關重要的作用,它對于保證城市交通的平穩運行、保障人民的安全出行起著不可替代的作用.要使智能交通系統發揮作用,首先必須獲得交通流的核心參數,具體包括流量、密度及速度等.對于這些核心參數的檢測,已經有許多常見的方法.根據使用的傳感器種類可以分為基于環形線圈的檢測方法[1-4]、基于超聲波的檢測方法[5-6]以及基于紅外檢測的方法[7-8].
環形線圈檢測器常用來檢測交通流量、速度及占有率等交通參數.該方法的工作原理是利用埋在車道路面下的環型線圈,當有車輛通過環型線圈時,環型線圈的電磁感應會發生變化,從而引起諧振回路的諧振頻率變化,通過對諧振頻率的計數采樣后,分析出是否有車輛通過[1].環形線圈檢測具有成本低、安裝方便、靈敏度高及受氣候影響小等優點.但是,在實際運用中,環形線圈容易因道路變形、施工等因素而損壞,其維護成本高,而且維護量大[2-4].另外,環形線圈對交通參數的檢測存在局限性,它僅能檢測交通速度、車輛類型等參數.
超聲波檢測主要用來檢測高速公路上車輛的速度和流量[5].超聲波檢測器是由一個控制單元和一個探針組成.探針用于發送和接收信號,通過探針發射一束超聲波,再接收從車輛或地面的反射波,根據反射波返回時間的差別來判斷是否有車輛通過,從而計算出交通流量.此外,基于位置固定的、成組的超聲波檢測器可以分別檢測出車輛通過各檢測器的時間,從而檢測出車輛的速度[6].超聲波檢測器具有檢測簡便、可移動及壽命長等優點,但檢測精度不高,且檢測精度很容易受檢測環境的影響.
紅外檢測器是具有良好應用前景的懸掛式或路側式交通檢測器,它常被用來檢測交通流量.紅外檢測器一般采用反射式檢測技術.反射式檢測器探頭包括一個紅外發光管和一個紅外接收管,其工作原理是通過調制脈沖發生器產生調制脈沖,再由紅外探頭向道路上輻射,當有車輛通過時,從車體反射回來的紅外線脈沖會被探頭的接收管接收,由紅外解調器解調,再經過選通、放大、整流和濾波后觸發驅動器輸出一個檢測信號[7-8].這種檢測方法具有快速準確、輪廓清晰的特點.但是,檢測精度易受氣候條件以及大氣中的懸浮顆粒或粉塵影響.
以上常見的交通參數檢測方法,可以檢測出流量、速度、密度3大核心交通參數中的一種或兩種,但是,無法同時實現對3大參數的全部檢測.尤其對于密度檢測來說,往往只能檢測出斷面上的密度,對于路段層面上的密度檢測來說無法實現.基于路段層面的密度檢測一直是智能交通領域的一個難點.近些年,不少學者開始將研究的方向瞄準基于視頻的交通參數檢測.究其原因,一是因為目前交通監控攝像頭的安裝已經十分普及,大量的監控視頻數據還沒有發揮應有的作用;二是分布在道路上的攝像頭已經組成了攝像頭網絡,為實現路段層面的密度檢測提供了很好的數據支撐.為此,本文將對基于視頻數據進行交通參數檢測的方法進行重點回顧,分別從流量檢測、速度檢測、密度檢測3個方面對相關的文獻進行探討和分析.
基于視頻的交通流量檢測的方法相對速度和密度檢測方法來說比較普遍,大體上包括基于目標檢測的光流法[9-13]、幀間差分法[14-19]、背景差分法[20-24]等.
1.1 光流法
計文平等[9]提出了一種基于虛擬線圈數據,使用光流法的車流量檢測方法.該方法通過設置虛擬線圈,取相鄰2幀圖像并通過光流法進行多次迭代計算出光流場信息,再根據光流場信息變化來判斷是否有車輛,最后對車輛數進行統計.該方法對雙車道和四車道的流量進行統計,其結果表明,該方法的檢測精度高,測量結果與實際結果相差比較小.光流法可以獲得被測物體的運動信息及其三維結構信息,光流法檢測也可以不用考慮場景信息,適用于視頻檢測器運動的情況[10-12].但是,光流法也存在缺陷,光流法是根據光流信息來判斷的,而光流是由于圖像的灰度變化引起的,因此,當光照變化或者圖像灰度對比度不夠時,也會造成光流信息變化,從而造成誤判[13].該方法的具體步驟總結于算法1.
算法1 基于虛擬線圈的光流法車流量檢測算法[9].
步驟1 設置虛擬線圈,選擇檢測區域.
步驟2 取出相鄰的2幀圖像,并通過光流法迭代n次來得到圖像的光流場信息,光流法迭代的次數由噪聲的大小確定,一般迭代次數達到10次就可以達到要求.
步驟3 根據光流場信息的變化來判斷是否有車輛,光流場數據發生變化則表明有車通過,否則,表示沒有車輛通過.最后對判斷結果進行統計,得到車流量,并返回步驟2.
1.2 幀間差分法
幀間差分法是對視頻圖像序列中相鄰2幀圖像作差分,從而獲得運動目標邊緣輪廓的方法.該方法的優勢在于可以適用于多個運動目標,即使攝像機移動也不影響運動目標的檢測結果[14-15].該方法主要通過運動物體會在視頻相鄰的2幀圖像之間出現較為明顯的差別將運動目標提取出來.其關鍵之處在于比較相鄰2幀圖像像素差的絕對值和設定的閾值,通過對兩者大小的比較來分析圖像序列運動特性,從而確定是否有運動物體[16].幀間差分法的穩定性比較好,能夠滿足實時性的要求,與光流法相比,幀間差分法不易受到光照的影響,但是,幀間差分法不能夠檢測出靜止的物體,而且對于運動速度過快的物體會造成檢測失誤.另外,該方法無法很好地區分圖像中物體重疊的區域,從而也會對檢測結果產生影響[17-19].為了彌補幀間差分法的不足,夏麗等[20]采用面積融合法與幀間差分法結合來解決問題.幀間差分法可以實現車輛的計數,但是,當發生車輛距離很近、車輛遮擋等問題時,檢測精度較低.而采用面積融合法與幀間差分法結合,可以利用面積融合法有效地解決車輛粘連、車輛遮擋問題,提高了計數范圍.其具體步驟總結于算法2.通過對不同路段的大量測量,其結果表明,該方法具有較為準確的精度,但對于不同的路段環境,檢測精度變化有些大.
算法2 面積融合法與幀間差分法相結合的交通流量檢測算法[20].
步驟1 讀入視頻,進行背景的初始化.
步驟2 采用混合高斯模型結合貝葉斯決策規則實現背景的自適應更新,以實現運動目標的提取.
步驟3 設立檢測區域,在檢測區內設置2條檢測線,對相鄰的2幀圖像進行幀間差分,若檢測線的像素差值有變化,則說明有車輛通過.
步驟4 記錄車輛進入和離開2條檢測線的幀號,分別用不同的成員變量來表示,通過步驟3的方法對車輛駛入和駛出檢測線作出判斷.
步驟5 對車輛的狀態進行判斷.若當前幀的檢測狀態為1,而前一幀的檢測狀態為0,表示車輛駛入檢測線;反之,為駛出檢測線.若兩狀態均為1,則表明車輛正在通過檢測線.對車流量進行統計.
1.3 背景差分法
背景差分法是指在理想背景的條件下,用當前幀與理想背景相減,從而比較精確地獲得運動物體.背景差分法的基本流程是首先根據視頻序列得到背景的初始化模型,然后將當前幀圖像與背景圖像作差分處理,提取出前景點;由于光照變化等影響,背景也會發生變化,所以,在運動檢測過程中背景模型要進行實時更新[21].與光流法相比,背景差分法的計算量較小、速度快,且滿足實時性的要求,但是,該方法對背景質量要求很高,涉及天氣及光照的影響,背景圖像需要不斷地更新[22-24].因此,背景提取是該方法的核心.關于背景提取的方法主要有統計中值法、均值法、單高斯模型法及混合高斯背景模型法等.
a. 統計中值法.
統計中值法是由中值濾波的方法演變而來的.中值濾波是一種非線性平滑技術,它將每一像素點的灰度值設置為該點某鄰域窗口內的所有像素點灰度的中值[25].統計中值法的基本思路如算法3所示.從背景合成的方面來看,統計中值法能夠較好地實現背景的提取,但統計中值法的運算復雜度較大,所占用的內存空間比較多.
算法3 統計中值法[25].
步驟1 假定在一定時間段內有n幅圖像.
步驟2 將n幅圖像進行灰度化,對每幀圖像上的某個點作時間上的采樣,并將該時段內通過目標的像素點視為噪聲,對其排序.
步驟3 取排在中間的像素點作為背景點.
b. 均值法.
均值法是選取某點在一段視頻序列中灰度值的平均值來代替該點的像素值.將運動車輛當作噪聲,用車輛運行一段時間的連續圖像作平均,就可以得到背景圖像[26-28].與統計中值法相比,均值法的模型簡單、計算量小.但是,考慮到實際上通過車輛的灰度值大小不均,有時偏大,有時偏小,從而會導致背景出現亮暗不均的情況.
c. 單高斯模型法.
單高斯模型法最早是由Wren等提出來的,其基本思想是利用單個高斯背景模型來模擬圖像中的每個像素,其中,每一個點的高斯模型都是獨立的[29].基于該思想,單高斯模型法的基本思路如算法4所示.單高斯模型法適用于處理微小變化和物體運動緩慢的場景.當場景比較復雜時,單高斯模型法得到的背景不如統計中值法和均值法,而且模型的穩定性不是很好,抗干擾能力不強.針對單高斯背景的不足,目前也有一些改進的方法,如陳銀等提出利用mean shift算法修正使背景更接近于真實背景模型,通過幀差法檢測出運動目標,并運用于流量統計[30].
算法4 基于單高斯模型的交通流量檢測算法[29].
步驟1 構建初始背景.對于視頻圖像序列中的每一個像素點,其在視頻序列中的變化可視為隨機過程,該過程可表示為X={x1,x2,x3,…,xn},而且該過程滿足高斯分布.
步驟2 背景匹配.當場景發生變化時,需要對新場景的每個像素點進行判斷.這里要設定一個閾值,通過該閾值與每個點的像素和灰度平均值相減的絕對值的比較,來確該點屬于前景還是背景.
步驟3 更新背景模型.運用視頻序列提供的實時信息來對背景模型進行更新.
d. 混合高斯背景模型法.
混合高斯模型是一種直觀概率密度模型,具有在一定時間內反映圖像運動的統計特性.混合高斯背景模型的基本思想是將每一個像素點所呈現的特征用K個狀態來表示,K取值越大,處理復雜場景的能力就越強,但運算量也隨之變大,影響實時效果[31-34].混合高斯模型是一種高級背景統計模型,它能夠準確地反映像素值分布和動態變化.目前已有許多基于混合高斯背景模型實現交通流量統計的方法.如田輝[35]提出了一種基于改進混合高斯模型的車流量統計方法,該方法的流程如圖1所示,整個算法包含2個主要部分.第一部分用于構建穩定的背景模型B.首先算法讀入第一幀圖像,并將第一幀圖像作為最初的背景模型,接著算法繼續讀入下一幀圖像,并用來更新背景模型,直到讀取到第T幀圖像,則穩定的背景模型構建完畢.T值一般根據實際的經驗進行人工設定.假設整個視頻一共m幀圖像,從第T+1到第m幀圖像被用來檢測交通流量.因此,算法的第二部分即為交通流量檢測以及背景模型的選擇性更新.從第T+1幀圖像開始,如果當前圖像矩陣In與背景模型的差異大于設定的閾值th(如式(1)所示)則需要使用當前圖像對背景進行更新,然后再利背景差分法進行交通流量檢測;否則,直接利用背景差分法進行交通流量檢測.
(1)
通過對車流量統計結果分析表明,基于改進混合高斯模型的車流量統計算法的檢測精度能夠達到90%以上,但也存在一定的漏檢率[35],其主要是由于車輛遮擋、車輛行駛過程中的橫向距離較小以及攝像機角度造成的.總之,該方法彌補了混合高斯模型在背景更新時會對每個像素點的K個模型進行更新,造成了模型的計算量非常大的缺陷,采用對有變化的背景區域的更新,提高運算效率,同時利用車輛的質心到檢測線的距離來判斷車輛,檢測精度較高.

圖1 基于改進混合高斯模型的車流量統計算法
除了上述幾種常見的檢測方法外,還有一些改進的檢測方法可運用于車流量統計方法.如Zhang等[36]提出了一種改進的前景檢測方法來實現流量檢測,其主要的流程如算法5所示.該方法的優點在于硬件需求少、成本低,消除了光照、惡劣天氣對車流量檢測精度的影響.與混合高斯背景建模相比,該方法可以有效地檢測出與背景顏色相似的運動對象,提高了檢測精度;劉騰飛[37]提出一種針對車體遮擋的車流量統計算法;何清等[38]通過利用現有的路面標記進行圖像對稱分割并計算圖像灰度值方差來判斷有無車輛通過,進而實現車流量統計;陳兆學等[39]提出了運用Mean Shift算法實現視頻車流量檢測的方法等.
算法5 改進的前景檢測算法[36].
步驟1 輸入視頻幀,以SCLTP模型作為紋理特征,通過紋理和顏色特征來實現前景檢測.
步驟2 融合紋理和顏色特征實現背景建模.
步驟3 計算紋理和顏色距離l.
步驟4 計算車流量.如果紋理和顏色距離l大于設定的閾值,則表示有車輛通過并進行車輛計數.
目前已有一些基于視頻的交通速度檢測方法[40-44].例如,宋煥生等[40]提出利用幀差法提取灰度圖像序列并選取特征值點,通過特征值點的真實位置與時間的關系,用最小二乘法擬合車輛速度;張帆[41]運用混合高斯模型提取運動目標,通過區域特征點的方法對車輛進行跟蹤以獲得運動軌跡來實現速度測量等.現介紹幾種比較典型的基于視頻的交通速度檢測方法:基于目標跟蹤的交通速度檢測[42]、基于序列圖像的交通速度檢測[43]以及基于運動矢量聚類的交通速度檢測[44].
2.1 基于目標跟蹤的交通速度檢測
基于視頻的交通速度檢測主要需解決2個問題:一是目標車輛檢測和跟蹤;二是視頻檢測器的標定.針對上述問題,盧彬等[42]提出了通過調用Opencv庫自帶的運動目標檢測方法,來實現對目標車輛的檢測和跟蹤,再依據公式來計算出目標的運動速度,其主要步驟如算法6所示.該方法利用Opencv庫提供的運動目標跟蹤框架來實現行駛車輛的定位和跟蹤,結合攝像機自動標定結果獲得車輛在檢測的2幀圖像間的行駛距離,從而檢測出車輛的行駛速度.速度v的計算如式(2)所示.

(2)
式中:k為比例系數;l′為車道線長度;p表示攝像機采集幀率;ΔN為幀數差.
通過實驗數據表明,該方法存在一定的誤差.造成誤差的原因主要有:一是Opencv庫團塊檢測法需要判斷許多幀才能確定團塊;二是由于實際速度由汽車經過的測試距離以及花費的時間所決定,而計算中所用的幀數為整數,利用幀數差求得的通過測試距離的時間有偏差,從而結果會有一定的誤差.但該方法比傳統的攝像機標定方法更加靈活,節省了大量的時間和計算量.
算法6 基于目標跟蹤的交通速度檢測算法[42].
步驟1 輸入視頻幀,通過Opencv自帶的運動目標檢測處理視頻,利用背景差分法結合幀差法得到運動區域,再經過圖像二值化及形態學處理,從而完整地檢測出運動目標.
步驟2 通過Kalman濾波器預測車輛行駛軌跡在當前圖像中的大小和具體位置,完成前后幀的目標匹配.
步驟3 完成攝像機的標定,得到圖像坐標與車輛空間坐標之間的轉換關系,接著根據平面坐標求得車輛實際空間的坐標,再根據速度式(2)求得所測車輛的速度.
2.2 基于序列圖像的交通速度測量
視頻圖像法通常將攝像機安裝在道路中央上方的一定高度,對來往的車輛進行直接測速,這種視頻檢測的方法只能夠在特定的區域內進行測速,而且檢測精度受到安裝設備精度的影響[43].針對常見車速測量方法存在測速準確性較低、自主性較差及靈活性不足等問題,劉紅亮等[45]建立了車載自主測速模型,將車輛的測速問題轉化為序列圖像的匹配問題.該方法主要思路為道路表面存在大小不同、形狀各異的顆粒,這些顆粒對光線的反射能力各有差異,不同強度和角度的反射光經過車載成像設備就可以得到路面信息的序列圖像,再借助于圖像匹配技術便可間接實現對車輛速度的連續自主測量[46-47].該方法的基本原理如圖2所示,相鄰幀圖像A′,B′之間擁有共同的地面成像區域,假定有一點m′處于共同的地面成像區域內,通過對相鄰2幀圖像A′,B′的序列圖像匹配來確定點m′的坐標,從而計算出點m′的像的運動速度,再結合成像設備透鏡放大倍率求出車輛的運動速度.該方法的檢測精度與GPS(global postioning system)測速的檢測精度相近,其測速誤差基本上控制在±0.5 m/s內,且速度誤差的均值與方差不大.該方法利用了車輛運行狀態的連續性和序列圖像的成像特性,具有測量精度高、自主性及靈活性好等優點.該方法的計算復雜度低、運行效率高,但該方法存在安裝相機困難,且不適合測量速度慢的物體等問題.

圖2 基于序列圖像的交通速度測量[45]
2.3 基于運動矢量聚類的交通速度檢測
與傳統攝像機相比,無人機具有較好的可移動性,這使其在交通參數檢測中得以運用.使用無人機可以同時監測連續拉伸道路,也可以集中在一個特定的道路段.無人機監測可以快速地為應急人員提供有用信息.Ke等[44]提出基于運動矢量聚類的交通速度檢測,該方法主要流程如算法7所示,通過設立特征點,運用光流法追蹤特征點并獲取特征點的運動矢量,然后對特征點的運動矢量聚類來求得交通流的平均速度,而具體某輛車的速度可以根據式(3)求得.
(3)
式中:la為標記檢測區的實際長度;lp為標記檢測區的像素;dp為車輛行駛的像素距離;f為視頻的幀率;v為車輛實際速度.
通過實際檢測數據與理論計算對比,得到該方法的平均錯誤率小于12%,檢測精度較高.
算法7 基于運動矢量聚類的交通速度檢測算法[44].
步驟1 選取特征點.通過Shi-Tomasi特征法獲取特征點.
步驟2 追蹤特征點.運用Kanade-Lucas算法獲取特征點運動到下一幀的運動矢量.
步驟3 特征點運動矢量聚類.使用k-means聚類算法對特征點的運動矢量進行聚類,求取交通流的平均速度.
步驟4 求取車輛的實際速度.利用式(3)求取車輛的實際速度.
交通密度是描述交通流特性的重要參數.交通流密度是衡量道路服務水平的指標之一,在研究劃分道路服務水平、分析交通瓶頸狀況、制定交通管理與控制政策均有重要運用[48].交通密度是指在某瞬時內,每單位道路長度上一條車道或整個道路上的車輛數,反映了道路上車輛的密集程度[49].基于視頻的交通密度參數檢測方法較少,Wassantachat等[50]提出利用在線支持向量機分類器結合背景建模技術實現交通密度測量;Asmaa等[51]提出利用車輛所占圖像的像素值與整個圖像的比值代替記錄車輛數來進行交通密度測量等.
樓俊杰等[52]提出基于時間占有率的交通密度測量方法.所謂時間占有率是指在道路觀測斷面上,車輛占用的時間累計值與測定時間的比值,時間占有率不僅與交通流量有關,還與車輛的長短及速度有關[53].該方法主要是利用時間占有率與交通密度的關系來計算密度.時間占有率與交通密度的關系為w=pt/L.w為交通密度,p為時間占有率,t為觀測時間,L為車輛長度與檢測區域長度和.通過對多個車道的密度測量后計算出平均交通密度,其結果表明,該方法雖然可以檢測出斷面上的密度,但是,其檢測的精度不高.該方法的具體步驟如算法8所示.
算法8 基于時間占有率的交通密度測量算法[52].
步驟1 讀取視頻圖像,利用背景差分法實現背景的更新,將圖像進行二值化處理,提取出運動目標.
步驟2 選擇檢測區域,設置2條比車身稍長的檢測線.當車輛通過第一條檢測線時,進入檢測區域的灰度值會發生變化,直到大于閾值時,則判斷有車輛通過,統計車流量.
步驟3 記錄目標車輛通過2條檢測線的時間差,根據2條檢測線的像素差以及攝像機標定參數估算出2條檢測線的實際距離,用該距離除以通過的時間差來得到車輛速度.
步驟4 計算時間占有率,根據時間占有率與交通密度的關系來推導出交通密度.
數據資源被認為是推動社會向前發展的重要“能源”.目前交通監控攝像頭在道路上的安裝已經非常普遍,海量的交通視頻數據正在產生.但是,對于這些視頻數據的利用還非常不充分,遠遠沒有發揮這些視頻數據資源的重要價值.可以預見,將來對于交通視頻的研究與分析將會是一個十分熱門的研究領域,如果研究人員能夠直接從視頻數據中獲取交通流的流量、密度、速度等信息,這對于智能交通系統的發展來說,將會是一個十分重要的突破,它將解決在目前的交通參數檢測方法中還沒有哪一種方法能夠實現一次完成交通流的流量、密度和速度檢測的難題.由于大量安裝的交通監控攝像頭能夠非常便捷地組成攝像頭網絡,這使得通過同一路段上的攝像頭網絡所采集到的視頻數據檢測出路段層面的交通密度成為可能,這將進一步提升智能交通系統的性能.未來交通參數的檢測方法可以向深度學習方向發展,基于神經網絡技術可以實現目標特征的檢測,再結合深度學習得到的特征,可以大大提高交通參數檢測的精度.另外,遷移學習也可運用于交通參數的檢測,遷移學習可以從現有的數據中遷移知識,用來幫助將來的學習,這樣可以大大提高檢測效率.總之,未來的交通參數檢測技術應向著智能化、網絡化、自主學習的方向發展,基于視頻的交通參數檢測方法將會是智能交通系統中更具有潛力的檢測方法.
[1] 王樹欣,伍湘彬.地感線圈在交通控制領域中的應用[J].電子世界,2005(8):47-48.
[2] 皮曉亮,王正,韓皓,等.基于環形線圈檢測器采集信息的交通狀態分類方法應用研究[J].公路交通科技,2006,23(4):115-119.[3] CARUSO M J,WITHANAWASAM L S.Vehicle detection and compass applications using AMR magnetic sensors[C]∥Proceedings of the Sensors Expo.Baltimore:Honeywell Inc.Solid State Electronics Center,1999:477-489.
[4] 童亮,李隱,谷云秋,等.基于微型地感線圈檢測器在交通流量調查系統中的研究與應用[J].公路交通科技(應用技術版),2015(4):271-272.
[5] 馬楓,張慶英.基于以太網的超聲波車流量自動檢測系統設計[J].武漢理工大學學報(交通科學與工程版),2007,31(1):180-182.
[6] JO Y,JUNG I.Analysis of vehicle detection with WSN-based ultrasonic sensors[J].Sensors,2014,14(8):14050-14069.
[7] 艾紅,孫碩.紅外測量在車流量監測中的應用[J].紅外技術,2008,30(4):201-204.
[8] IWASAKI Y,MISUMI M,NAKAMIYA T.Robust vehicle detection under various environmental conditions using an infrared thermal camera and its application to road traffic flow monitoring[J].Sensors,2013,13(6):7756-7773.
[9] 計文平,郭寶龍,丁貴廣.基于虛擬線圈的光流法車流量檢測[J].計算機仿真,2004,21(1):109-110.

[11] TAN H L,ZHAI Y P,LIU Y,et al.Fast anomaly detection in traffic surveillance video based on robust sparse optical flow[C]∥Proceedings of the 2016 IEEE International Conference on Acoustics,Speech and Signal Processing.Shanghai:IEEE,2016:1976-1980.
[12] DO V D,WOO D M.Multi-resolution estimation of optical flow on vehicle tracking under unpredictable environments[J].Advanced Science and Technology Letters,2016,129:32-36.
[13] 丁簫.基于視頻檢測技術的車流量統計系統設計研究[D].鄭州:鄭州大學,2014.
[14] 郝毫剛.基于五幀差分和背景差分的運動目標檢測算法[J].計算機工程,2012,38(4):146-148.
[15] SENGAR S S,MUKHOPADHYAY S.A novel method for moving object detection based on block based frame differencing[C]∥Proceedings of the 2016 3rd International Conference on Recent Advances in Information Technology.Dhanbad,India:IEEE,2016:467-472.
[16] 劉章軍.基于差分圖像的車流量檢測算法及實現[D].成都:西南交通大學,2011.
[17] AL-SMADI M,ABDULRAHIM K,SALAM R A.Cumulative frame differencing for urban vehicle detection[C]∥Proceedings of the SPIE 10011 First International Workshop on Pattern Recognition.Tokyo,Japan:International Society for Optics and Photonics,2016:100110G.
[18] 肖本賢,陸誠,陳昊,等.基于幀間差分法和不變矩特征的運動目標檢測與識別[C]∥第27屆中國控制會議論文集.昆明:中國自動化學會,2008:34-36.
[19] KACHROO P,SHLAYAN N,PAZ A,et al.Model-based methodology for validation of traffic flow detectors by minimizing human bias in video data processing[J].IEEE Transactions on Intelligent Transportation Systems,2015,16(4):1851-1860.
[20] 夏麗.基于視頻檢測技術的車流量統計算法研究[D].武漢:武漢理工大學,2012.
[21] 郭怡文,袁飛虎.基于背景差分的多車道車流量檢測系統[J].電光與控制,2010,17(9):90-93.
[22] JOUDAKI S,BIN SUNAR M S,KOLIVAND H,et al.Background subtraction methods in video streams:a review[J].Journal of Soft Computing and Decision Support Systems,2016,3(1):53-60.[23] SEENOUVONG N,WATCHAREERUETAI U,NUTHONG C,et al.A computer vision based vehicle detection and counting system[C]∥Proceedings of the 2016 8th International Conference on Knowledge and Smart Technology.Chiangmai,Thailand:IEEE,2016:224-227.
[24] 許倫輝,卜文萍,陳衍平,等.基于幀差法和背景差法融合的車流量檢測方法[J].計算機仿真,2012,29(2):353-357.
[25] 汪彩霞.視頻交通分析中背景估計與更新算法研究[D].西安:長安大學,2010.
[26] 耿秀麗,尤星星,呂文元.基于直覺模糊C-均值的客戶聚類和識別方法[J].上海理工大學學報,2015,37(1):13-17.
[27] 代建輝.智能交通系統車輛流量檢測技術的研究[D].天津:天津大學,2007.
[28] TIAN B,YAO Q M,GU Y,et al.Video processing techniques for traffic flow monitoring:a survey[C]∥Proceedings of the 2011 14th International IEEE Conference on Intelligent Transportation Systems.Washington,DC,USA:IEEE,2011:1103-1108.
[29] 王小平,張麗杰,常佶.基于單高斯背景模型運動目標檢測方法的改進[J].計算機工程與應用,2009,45(21):118-120.
[30] 陳銀,任侃,顧國華,等.基于改進的單高斯背景模型運動目標檢測算法[J].中國激光,2014,41(11):239-247.
[31] 夏海英,何利平,黃思奇.基于時空分布的混合高斯背景建模改進方法[J].計算機應用研究,2015,32(5):1546-1548.[32] WANG M J,JIN J S,HAN X F,et al.An algorithm of detecting moving foreground based on an improved Gaussian mixture model[C]∥Proceedings of the 11th Chinese Conference on Image and Graphics Technologies.Singapore:Springer,2016:125-136.
[33] ZHANG Y S,ZHAO C H,HE J,et al.Vehicles detection in complex urban traffic scenes using Gaussian mixture model with confidence measurement[J].IET Intelligent Transport Systems,2016,10(6):445-452.
[34] XIA H Y,SONG S X,HE L P.A modified Gaussian mixture background model via spatiotemporal distribution with shadow detection[J].Signal,Image and Video Processing,2016,10(2):343-350.
[35] 田輝.基于視頻的車流量統計算法研究[D].大連:大連海事大學,2012.
[36] ZHANG L B,WANG F,HU M,et al.A vehicle counting algorithm using foreground detection in traffic videos[C]∥Proceedings of the 3rd Interna-tional Conference on Multimedia Technology.Paris:Atlantis Press,2013.
[37] 劉騰飛.針對車體遮擋的車流量統計算法[D].武漢:武漢理工大學,2012.
[38] 何清,陳海進,施慧華.一種新型多車道車流量檢測算法[J].電視技術,2014,38(19):192-195.
[39] 陳兆學,鄭建立,施鵬飛.基于Mean Shift方法的視頻車輛檢測與分割[J].上海理工大學學報,2007,29(2):195-199.
[40] 宋煥生,張輝,付洋,等.一種基于視頻的車輛速度檢測方法:中國,CN102622895A[P].2012-08-01.
[41] 張帆.基于單目視頻的車輛對象提取及速度測定方法研究[D].昆明:昆明理工大學,2014.
[42] 盧彬,陳域,李冬生,等.基于視頻圖像的車速檢測方法[J].電視技術,2014,38(7):199-201.
[43] 金守峰,胡永彪,田明銳,等.基于序列圖像的車載測速方法與實驗[J].合肥工業大學學報(自然科學版),2013,36(3):271-274.[44] KE R M,KIM S,LI Z B,et al.Motion-vector clustering for traffic speed detection from UAV video[C]∥Proceedings of the 2015 IEEE First International Smart Cities Conference.Guadalajara,Mexico:IEEE,2015:1-5.
[45] 劉紅亮,陳維義,許中勝.基于序列圖像匹配的車載自主測速方法[J].系統工程與電子技術,2015,37(4):964-968.
[46] BOUMEHED M,ALSHAQAQI B,AMRAOUI M.Distance and speed measurement and classification of road traffic[J].International Journal of Applied Engineering Research,2016,11(2):1347-1352.
[47] NAEEM S,SIRAJ S.A framework to select edge detection method using multi-criteria decision making[C]∥Proceedings of the 2013 IEEE International Conference on Systems,Man and Cybernetics.Manchester,United Kingdom:IEEE,2013:730-735.
[48] ARASAN V T,DHIVYA G.混合交通流密度測定方法研究[J].交通運輸系統工程與信息,2010,10(4):50-61.
[49] FU M,XU P,LI X D,et al.Fast crowd density estimation with convolutional neural networks[J].Engineering Applications of Artificial Intelligence,2015,43:81-88.
[50] WASSANTACHAT T,LI Z D,CHEN J,et al.Traffic density estimation with on-line SVM classifier[C]∥Proceedings of the Sixth IEEE International Conference on Advanced Video and Signal Based Surveillance.Washington,DC,USA:IEEE,2009:13-18.
[51] ASMAA O,MOKHTAR K,ABDELAZIZ O.Road traffic density estimation using microscopic and macroscopic parameters[J].Image and Vision Computing,2013,31(11):887-894.
[52] 樓俊杰.基于視頻的交通參數檢測與分析[D].大連:大連交通大學,2013.
[53] 敖谷昌,賈元華,張惠玲.基于時間占有率分析的車輛折算系數研究[J].交通運輸系統工程與信息,2008,8(3):106-110.
(編輯:石 瑛)
Overview of Video-Based Traffic Parameters Detection
WANG Xiang, XIAO Jianli
(School of Optical-Electrical Information and Computer Engineering,University of Shanghai for Science and Technology,Shanghai 200093,China)
To make the intelligent traffic systems (ITS) work well,it needs to obtain the core traffic parameters,including the flow,speed,density,and so on.There are a lot of methods to detect the core traffic parameters currently.But,none of them can detect all of the core parameters at once.Especially,the density is difficult to be detected.There is only a few methods focusing on detecting the density in a local sense.As for in the global sense,there is not yet any feasible method.The detection methods were summarized from three aspects,such as the flow,density and speed.Those
which suggest that traffic parameters can be easily detected only by the video were studied deeply.
intelligent traffic systems; videos; traffic parameters; detection
1007-6735(2016)05-0479-08
10.13255/j.cnki.jusst.2016.05.011
2016-08-18
國家自然科學基金資助項目(61603257,61503250);上海理工大學國家級項目培育基金資助項目(16HJPY-QN03);上海高校青年教師培養資助計劃(ZZslg15018)
王 翔(1991-),男,碩士研究生.研究方向:智能交通.E-mail:1083703369@qq.com
肖建力(1982-),男,講師.研究方向:智能交通、數據挖掘.E-mail:audyxiao@sjtu.edu.cn
TP 391
A