999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

周界視頻監控中人員翻越行為檢測算法

2016-12-23 02:07:18張泰張為劉艷艷
西安交通大學學報 2016年6期
關鍵詞:前景特征檢測

張泰,張為,劉艷艷

(天津大學電子信息工程學院,300072,天津)

?

周界視頻監控中人員翻越行為檢測算法

張泰,張為,劉艷艷

(天津大學電子信息工程學院,300072,天津)

針對周界視頻監控應用環境特殊的問題,提出了一種人員翻越行為的檢測方法。該方法采用“目標檢測-人員跟蹤-軌跡分析”的流程。在算法的人員跟蹤過程中,將混合高斯模型得到的前景區域與KLT光流法得到的特征點運動信息結合起來,提出了一種新型跟蹤算法。該算法僅使用圖像的灰度信息作為輸入,一定程度上能夠適應目標形變及遮擋,并具有很強的魯棒性和實時性;在算法的軌跡分析過程中,結合墻體位置信息與先驗知識設計了一種新的軌跡分析的方法,不需要通過在線學習可直接對軌跡進行分析。實驗結果表明,該算法在測試視頻集上檢測準確率超過93%,與現有方法相比,能更好地適應實際應用中復雜的環境條件。

視頻監控;異常檢測;跟蹤;軌跡分析

智能視頻監控是計算機視覺領域中的重點研究課題之一,它以物體檢測、識別以及跟蹤為基礎,對視頻中對象的行為進行分析和描述[1-2]。目前,在學校、銀行、商店、車站、港口等一些重要的公共場所普遍架設了大量監控攝像機,為智能視頻監控的實現提供了硬件條件。

對于檢測人員翻越圍墻或護欄的行為,傳統的周界安防有很多種解決方案,例如紅外對射方案、微波對射方案、電子圍欄、電網等,但是它們都存在很多不足:防護等級較低,容易跨越或規避;不適合特殊天氣,受溫度、光照、天氣等影響,誤報率高;功耗很大;有危險性;無法判斷報警是否為誤報,需派遣人員實地查看。如果能利用現有的監控平臺獲取視頻并采用算法對人體行為進行分析來實現監控和報警,就可以較好地解決這些問題。

目前,國際上針對人員翻越圍墻的行為檢測算法的研究還處于起步階段。現有的一系列研究[3-5]都采用行為分析的思路,先根據人體輪廓剪影計算出人體星形骨架特征,然后利用這個特征訓練一個隱馬爾可夫模型(hidden markov model,HMM),將視頻中人體的動作分為行走、攀爬、跨越、下降4種狀態。當攀爬、跨越、下降3種狀態連續出現的時候,就可以認為發生了人員翻越圍墻的行為,但是這3篇文章考慮的模型比較理想,也只在僅有一個人的理想環境中做了測試,在實際應用環境中還有待改善。文獻[6-7]將該問題歸入行為分析的領域,認為可以提取相應特征,然后用HMM或貝葉斯網絡對其進行建模分析,但是這種方式同樣會面臨目標遮擋嚴重、特征難以提取的問題。文獻[8]提出對運動物體計算光流場,然后對光流場進行建模并用分類器進行分析,進而檢測一些異常行為,這種全局性的特征適合分析遮擋嚴重的情況,可以進行借鑒,但是光流場計算復雜度高,難以做到實時處理。

實際中的人員翻越行為一般有如下特點:全天候發生;場景較復雜,有其他人員或車輛影響;目標人員受墻體或圍欄的遮擋嚴重,自身形變非常大,運動沒有明顯的規律性;持續時間短,速度快。由于這些原因,設計算法時需考慮以下方面:受夜間紅外成像的限制,處理視頻的過程中只能使用圖像灰度信息;跟蹤算法需要具有魯棒性,能夠適應目標外觀的變化以及部分遮擋,還需要具有較高的實時性。

根據以上分析,本文提出了一種新穎的人員翻越行為檢測算法,采用“目標檢測-人員跟蹤-軌跡分析”的流程,針對人員由外至內的翻越行為的檢測達到了令人滿意的效果。

1 算法概述

算法分為目標檢測、人員跟蹤、軌跡分析3個部分。首先手工畫線標注墻體的位置;接著,根據墻體位置,對獲取的視頻圖片進行裁剪和縮放以減小算法的計算量;然后,對縮放之后的圖片序列使用混合高斯法進行背景建模[9]、形態學濾波、陰影去除,這就得到了圖像中的運動前景區域。

隨后使用前景塊外接矩形長與寬、面積、形狀復雜度等信息進行了粗略的分類,淘汰掉一些過大、過小或形狀特殊的前景塊,然后計算剩余團塊的外接矩形。對這些矩形進行位置判斷,當其與標注出的墻體位置滿足一定關系的時候進行頭部檢測,將檢測出頭部的目標交給跟蹤部分,使用跟蹤算法對其進行跟蹤并記錄他的運動軌跡,接著對跟蹤軌跡進行分析處理,判斷這一軌跡是否近似于翻越人員的軌跡。如果是,就可以輸出結果并進行報警。

2 算法的具體設計

本算法的主要工作集中在3個部分:①訓練了專用的分類器,用于檢測翻越人員的頭部;②設計了一種新型跟蹤算法,將混合高斯模型法得到的前景區域與KLT光流法(Kanade-Lucas-Tomasi,KLT)得到的特征點的運動信息結合起來,得到了僅使用灰度圖像作為輸入、適應目標形變及遮擋、魯棒性和實時性強的跟蹤算法;③針對本問題設計了一種新的軌跡分析的方法,不需要通過在線學習,直接對軌跡進行分析。

2.1 頭部檢測分類器的訓練

Adaboost算法[10]檢測速度較快,本算法中使用這種方法,能夠滿足視頻處理的實時性。

人員在翻越圍墻時頭部姿態與正常站立行走時有一定的差別,因此筆者構造了專用的訓練集。正樣本共1 300張圖片,來自之前錄制的一些人員翻越圍墻的視頻,以及人員做出翻越護欄、彎腰、鞠躬等動作時頭部的圖片。負樣本是以無人的街道、汽車、樹木、圍欄、標志牌以及人物陰影為主題的圖片。對這些圖片提取方向梯度直方圖特征,訓練一個20階的Adaboost分類器。該分類器能較好地檢測正在翻越圍墻的人員的頭部,并且具有較高的效率。

2.2 基于混合高斯背景法和KLT算法的跟蹤算法

近年來,學界提出了大量優秀的跟蹤算法[11-14],但是這些算法中,有些需要物體的顏色信息,有些對物體的形變遮擋缺乏適應能力,還有的實時性不足,因而本文選擇了一種比較經典的實時跟蹤算法作為基礎,結合應用環境對其進行改進。

KLT算法[15]是一種實時性非常優秀的特征點跟蹤算法。根據算法的具體應用環境,本文對它提出了兩個方面的改進:一是提出了一種重新計算特征點的策略;二是得到跟蹤目標對應的前景區域,并將這個前景區域與KLT算法的跟蹤結果融合。

2.2.1 基于KLT算法的特征點跟蹤策略 本算法通過在一定時機重新計算特征點來保證特征點在跟蹤對象圖像中梯度較大的部分均勻分布,進而確保隨后計算的位移矢量能夠代表跟蹤對象整體的位移,同時盡可能地減小計算特征點帶來的計算量。

在檢測到頭部之后,就認為頭部所在的前景區域外接矩形中包含了一個有翻越傾向的人,將這個矩形區域放入跟蹤隊列進行跟蹤。首先使用KLT算子檢測這個矩形中的特征點,接下來使用運動前景對這些特征點做篩選,保留落在運動前景之上的特征點,這就組成了需要進行跟蹤的點列

Pin={pin1,pin2,pin3,pin4,…}

(1)

使用LK光流法進行跟蹤,得到跟蹤成功的點列

Pout={pout1,pout2,pout3,pout4,…}

(2)

不需要在每一幀圖像中都使用KLT算子進行特征點檢測,跟蹤得到的點列經過后面步驟的選擇可以直接作為下一次跟蹤的輸入,但是隨著跟蹤的進行,人體本來被遮擋住的部分可能會逐漸顯露出來,這些部分沒有特征點覆蓋。同時,在每次跟蹤中也會丟失一部分特征點,這會造成特征點過少或分布不均勻,這時需要重新計算特征點。

本算法構造了兩個40×40像素大小的直方圖,通過它們之間的差來描述正在跟蹤的矩形區域中特征點分布的均勻程度。其中圖像梯度分布直方圖G是由正在跟蹤的矩形區域的圖像的梯度圖縮放至40×40像素得到的,特征點覆蓋直方圖H按以下步驟計算得到。

步驟1 將原圖中的特征點按坐標對應關系放置在40×40像素直方圖中,使該像素點的灰度值為最大值,然后使用Σ=2的高斯核的高斯濾波器對該直方圖進行濾波,得到直方圖Htemp。

步驟2 通過Htemp計算H,即通過比例系數r使得G、H兩個直方圖所有像素之和相等

(3)

(4)

由于進行了歸一化,這時

∑Gij=∑Hij=∑40×40

(5)

步驟3 得到了直方圖G與H之后,計算直方圖G和H之間的差,這個運算定義如下

‖G-H‖=∑‖Gij-Hij‖

(6)

(7)

最后對結果進行歸一化

Rdiff=‖G-H‖/∑40×40

(8)

該結果可以描述跟蹤得到的矩形區域中的特征點分布的均勻情況。當Rdiff>Tth時,意味著圖片中的特征點數過少或者分布很不均勻,這時重新計算特征點,得到分布更加均勻的結果。

2.2.2 跟蹤目標對應的前景區域的選擇 圖1給出了前景檢測的一些結果。可以看出,有時前景提取的結果并不準確,這使前景信息的使用變得比較困難。下面將闡述如何得到可以使用的前景信息。

圖1 前景提取中常出現的4種情況

本節從前景檢測的結果中計算出跟蹤目標對應的前景區域外接矩形,這一工作可以分為3個步驟。

步驟1 使用Kalman濾波器來對跟蹤目標的位置進行預測,得到預測矩形rk。

步驟2 在所有前景團塊的外接矩形中,找出與步驟1得到的預測矩形有重疊的矩形,并計算這些矩形所有“合理的”合并的結果。

前面已經得到前景區域的外接矩形。步驟1得到的預測矩形rk會與其中的一些外接矩形相交,如圖2所示。把與rk相交的矩形記為

Rb={rb1,rb2,rb3,rb4,…}

(9)

它們表示在這一幀中可能屬于跟蹤目標的前景矩形。本節最終要得到的跟蹤目標對應的前景區域的外接矩形,就是Rb中的某一個矩形或由Rb中的矩形合并得到(這里兩個矩形的合并指計算這兩個矩形的外接矩形)。將Rb中的矩形任意組合,可以得到

Rcb={rb1,rb2,rb3,…,rb1rb2,…,rb1rb2rb3,…}

(10)

但是,有些矩形組合合并之后的區域會包含本沒有出現在該組合中的矩形,或者會將兩個距離很遠的矩形合并起來而沒有包括距離它們各自都很近的另一個矩形。算法認為這些組合是不合理的組合,它會干擾算法后續的工作,例如圖2c中rb1與rb2的組合就屬于這種情況,使用圖算法可以計算得到合理的組合[17]。

(c)前景矩形以及前景矩形的幾種合理組合圖2 前景區域合理組合的計算

首先構建一個無向圖G={V,E,ω}。頂點V={V1,V2,…,Vn}表示Rb中的前景矩形,邊E={E1,E2,…,Em}表示這些矩形之間的距離。對每一條邊,都有一個權重系數,ωij表示前景矩形Vi和Vj之間距離的大小。從一個頂點出發,到另一個頂點的最短路徑可以通過Dijkstra算法求得。每一條最短路徑所經過的頂點的集合,都是一種合理的矩形組合,如圖2b所示。

將式(9)Rb中所有的矩形與由Dijkstra算法組合得到的矩形組合作為一個整體,記為

Rrcb={rb1,rb2,rb3,…,rbirbj,…}

(11)

它其中的元素是Rb中的矩形,以及由Rb中的多個矩形經過合理的合并形成的矩形。

(αS+αN+αE)1/2

(12)

其中

(13)

(14)

(15)

對于Rrcb中的每個元素,按照式(12)計算si的值,并選擇其中si值最大的元素作為跟蹤目標的前景區域,將這個元素記為rB。這就將分成幾部分的前景融合起來,解決了前景破碎的問題,并對前景干擾問題有一定的效果。

算法借鑒了民主融合策略[18]的合并方式,但與民主決策制算法的不同之處在于,每一項信息的權重并不是在線更新的,而是直接由當前幀的一些信息以及一些先驗知識計算得到的。由于這些信息在每一幀中變化很大且缺乏規律,此方法比在線更新的策略更適合這個問題。

定義權重函數的表示形式為

ωz=exp(-uz‖Q‖)

(16)

式中:z表示參與融合的各個信息;‖Q‖表示對信息質量的一種評價;uz是一個經驗系數。

對于前景矩形中心位置cB,權重系數的形式為

(17)

(18)

式中:M和N為Pout中點的總數和聚類結果中包含的點的個數。聚類中得到的點占總數的比例越大,位移矢量的信息質量就越高,權重也就越大,本算法中ud=2。

對于由Kalman濾波器預測的位置cB,權重系數的形式為

{1-exp[-ud(1-N/M)]}

(19)

式中:vk為原位置中心點到Kalman濾波器預測位置中心點的位移。當位移矢量權重較高時,由于可以比較明確地判斷物體的位移,Kalman濾波器預測結果的權重較低;否則,提高Kalman濾波器預測結果的權重,對物體的位置進行預測,本算法中uk=2。

最后對式(17)~式(19)計算得到的3個權重系數進行歸一化,得到歸一化權重系數

(20)

其中z在B、d、k中選擇,最終得到rresult中心點為

(21)

對于跟蹤目標對應的前景區域rB的大小,權重系數的形式與進行位置預測時相同

(22)

(23)

本算法中取Ω=0.7。對這兩個權重進行歸一化

(24)

z在B、p中選擇,最終得到的rresult大小Sresult為

(25)

式中:τ是一個時間常數,用來表示rresult的更新速率。每隔τ時間對結果進行更新,因為更新速度太快容易受到前景提取的噪聲影響。本算法中,1 s更新2.5次,Sresult計算完成。

至此得到了跟蹤矩形rresult的位置和大小信息,也就得到了最終的跟蹤結果。這個結果綜合了各部分的信息,解決了前景提取中融合與干擾的問題。融合過程在處理具體幀圖片時的結果如圖3所示。

使用rresult對Pout中的特征點進行篩選,去除落在rresult以外的點,剩余點還能應用在下一幀的跟蹤中。

2.2.4 退出跟蹤的策略 本算法給出了2個退出跟蹤的條件:一是跟蹤結果rresult中包含的前景面積過小的情況;二是一次性跟蹤丟失大量點的情況,它們表示人物消失、嚴重遮擋或者跟蹤出現錯誤。

2.3 基于先驗知識的軌跡分析

現有的軌跡分析方法大多需要通過離線或在線學習來獲取軌跡的規律,而本算法受其檢測行為及應用環境的限制,無法獲取代表全部環境和足夠多的學習樣本,所以算法使用墻體的位置信息以及一些先驗知識來對軌跡進行分析。

在跟蹤過程中,每處理一幀視頻,得到一段軌跡。在軌跡分析中,首先去除掉太短或太長的軌跡,然后對軌跡進行平滑,接著判斷軌跡的后幾段中是否與標注出的墻體位置的線段有交點。如果存在交點,說明有可能是人員翻越圍墻形成的軌跡,計算下列特征進行進一步判斷。

特征1 軌跡最高點在軌跡中間,即軌跡中間有一點在圖像中高于初始點和結束點的位置。

特征2 對軌跡最高點和最低點取平均,軌跡中有50%以上的點高度高于這個平均值。

特征3 軌跡的高度與寬度應滿足

(26)

式中:l為軌跡寬度,即最左側點與最右側點水平坐標之差的絕對值。h為軌跡高度,定義與l類似。θ為標注出的墻體位置的線段與水平方向所成的夾角。

特征4 軌跡初始點與結束點之間的距離D應滿足

(27)

(28)

其中h和θ的定義與上一步相同。

如果這些特征全部滿足,就將軌跡判定為人員翻越圍墻形成的軌跡,這時停止對該目標的跟蹤并保存當前幀圖片,發出警報信號;否則,繼續跟蹤并記錄目標軌跡。

3 實驗結果與分析

為了驗證算法的有效性,在天津市內選擇了3處合適的場景,架設海康網絡攝像頭及硬盤錄像機,錄制了8段共含有30次翻越實驗的視頻(其中8次為夜間拍攝),以及12段共計1 h左右的沒有出現翻越行為的視頻對算法進行實測。其中A場景中除了翻越人員,有2~3人在四周活動;B場景中,有大量人員及車輛在附近過往,夜間場景還伴有車燈等光源干擾;場景C中,大量人員、車輛在柵欄附近經過,場景中還有樹枝、線纜的抖動。實驗視頻中不包含用來訓練頭部檢測分類器的圖片。

實驗中使用的攝像頭幀率為25幀/s,場景圖片和其中標出的墻體位置如圖4所示。算法以標準C++程序實現,并使用了OpenCV計算機視覺庫,機器配置為Intel處理器i5-2400@3.10 GHz,6 GB內存臺式機,未用顯卡做加速。實驗中算法專門檢測翻入行為,即檢測從墻的外側翻入到有攝像頭的一側。

前景區域的選擇與各個信息融合的效果如圖3所示。即使出現前景破碎、融合和干擾的情況,本文算法也能合理地利用前景信息,結合特征點的運動信息正確地跟蹤人體的位置,而文獻[3-5]中的星形骨骼表示算法在這些情況下完全無法準確地計算人體星形骨架特征,后面的步驟也無法進行。實驗結果見表1,對比實驗見表2。

總計30次翻越行為,算法共檢出28次,檢出率在93.3%以上,并且全部20段視頻中無任何誤報。

注:白線框是前景團塊的外接矩形;虛線框是點劃線框是rk;黑線框是rresult圖3 各個信息及融合結果

視頻編號原始尺寸/像素縮放尺寸/像素檢出率平均耗時/ms·幀-1A960×576451×2882/2897B11920×1080492×5402/21354B21920×1080492×5402/21420B31280×720428×3604/4757B41280×720428×3604/4770B51280×720428×3607/8745B6(夜)1280×720428×3604/4757B7(夜)1280×720428×3603/41058C1?C121920×1080540×5170/01492

表2 翻越行為檢測算法與其他方法的實驗對比

注:圖中的白線為標注墻體位置的線段圖4 翻越行為檢測算法的實驗場景

由此可見,本文算法對翻越行為的檢測效果良好,并具有很強的魯棒性,對夜間場景也能正常處理。

由表1可以看出,算法平均處理一幀圖片的時間小于15 ms,每秒可以處理65幀以上,完全滿足實時性要求。

表2中本文算法的檢出率在現有的兩種方法之間,其他兩種算法的數據來自于文獻[3,5],但是實際上,其他兩種算法統計出的正確率來自于它對行走和翻越兩種行為識別結果的統計,而本文方法只統計了檢測翻越行為的結果。在測試視頻中,有數百個行人以及各種樣式的車輛從圍欄附近經過,均未發生誤報。算法將其視為非翻越行為,但未計入最后結果。本文算法測試環境非常復雜,而另兩種方法只在一個人活動的理想環境中做了簡單測試,墻體的角度非常單一,測試視頻長度也遠遠小于本文算法。實際上,在實際應用場景中本文算法的應用效果要遠遠好于另兩種算法。

總的來說,對于人員翻入行為,算法具有很好的檢測效果和很強的魯棒性,并且算法整體的實時性非常良好,有著重要的實用價值。

[1] HU W, TAN T, WANG L, et al. A survey on visual surveillance of object motion and behaviors [J]. IEEE Transactions on Systems, Man, and Cybernetics: Part C Applications and Reviews, 2004, 34(3): 334-352.

[2] KIM I S, CHOI H S, YI K M, et al. Intelligent visual surveillance-a survey [J]. International Journal of Control, Automation and Systems, 2010, 8(5): 926-939.

[3] YU E, AGGARWAL J K. Detection of fence climbing from monocular video [C]∥Proceedings of the 18th 2006 International Conference on Pattern Recognition. Piscataway, NJ, USA: IEEE, 2006: 375-378.

[4] YU E, AGGARWAL J K. Recognizing persons climbing fences [J]. International Journal of Pattern Recognition and Artificial Intelligence, 2009, 23(7): 1309-1332.

[5] YU E, AGGARWAL J K. Human action recognition with extremities as semantic posture representation [C]∥Proceedings of the IEEE Computer Vision and Pattern Recognition Workshops. Piscataway, NJ, USA: IEEE, 2009: 1-8.

[6] CHENG Guangchun, WAN Yiwen, SAVDAGAR A N, et al. Advances in human action recognition: a survey [J]. ArXiv Preprint ArXiv, 2015: 1501.05964.

[7] VISHWAKARMA S, AGRAWAL A. A survey on activity recognition and behavior understanding in video surveillance [J]. The Visual Computer, 2013, 29(10): 983-1009.

[8] ZHANG T, YANG Z, JIA W, et al. A new method for violence detection in surveillance scenes [J]. Multimedia Tools and Applications, 2015: 1-23.

[9] ZIVKOVIC Z. Improved adaptive Gaussian mixture model for background subtraction [C]∥Proceedings of the 17th 2004 International Conference on Pattern Recognition. Piscataway, NJ, USA: IEEE, 2004: 28-31.

[10]VIOLA P, JONES M. Fast and robust classification using asymmetric AdaBoost and a detector cascade [J]. Advances in Neural Information Processing System, 2002, 14: 1311-1318.

[11]KALAL Z, MIKOLAJCZYK K, MATAS J. Tracking-learning-detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1409-1422.

[12]HARE S, SAFFARI A, TORR P H S. Struck: structured output tracking with kernels [C]∥Proceedings of the 2011 IEEE International Conference on Computer Vision. Piscataway, NJ, USA: IEEE, 2011: 263-270.

[13]查宇飛, 楊源, 王錦江, 等. 利用密度描述符對應的視覺跟蹤算法 [J]. 西安交通大學學報, 2014, 48(9): 13-18. ZHA Yufei, YANG Yuan, WANG Jinjiang, et al. A visual object tracking algorithm using dense descriptors [J]. Journal of the Xi’an Jiaotong University, 2014, 48(9): 13-18.

[14]CEHOVIN L, KRISTAN M, LEONARDIS A. Robust visual tracking using an adaptive coupled-layer visual model [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(4): 941-953.

[15]SHI J, TOMASI C. Good features to track [C]∥Proceedings of the 1994 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, NJ, USA: IEEE, 1994: 593-600.

[16]CHENG Y. Mean shift, mode seeking, and clustering [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1995, 17(8): 790-799.

[17]FOGGIA P, PERCANNELLA G, SAGGESE A, et al. Real-time tracking of single people and groups simultaneously by contextual graph-based reasoning dealing complex occlusions [C]∥Proceedings of the 2013 IEEE International Workshop on Performance Evaluation of Tracking and Surveillance. Piscataway, NJ, USA: IEEE, 2013: 29-36.

[18]TRIESCH J, VON DER MALSBURG C. Democratic integration: self-organized integration of adaptive cues [J]. Neural computation, 2001, 13(9): 2049-2074.

(編輯 武紅江)

Detection Algorithm of Fence Climbing for Perimeter Video Surveillances

ZHANG Tai,ZHANG Wei,LIU Yanyan

(School of Electronic Information Engineering, Tianjin University, Tianjin 300072, China)

An algorithm to detect fence climbing is proposed to meet the specific requirements of perimeter video surveillance. The algorithm bases on a process like “object detection-tracking-trajectory analysis”. The main scheme of the algorithm combines foreground areas obtained from Gaussian mixture model with displacements of feature points obtained from KLT algorithm in personnel tracking stage. In this way, the tracking algorithm just takes advantage of the image grey scale information, can adapt deformation and shade of the objects in a certain extent and has a strong robustness as well as real-time effect. A new method for the analysis of trajectory is proposed in trajectory analysis stage by using the information of wall location and other prior knowledge instead of traditional online learning algorithms. Experimental results show that the proposed algorithm is more suitable for noisy environments than other existing algorithms. A recognition rate above 93% is obtained on a test video set.

video surveillance; anomaly detection; tracking; trajectory analysis

2016-03-03。 作者簡介:張泰(1992—),男,碩士生;張為(通信作者),男,教授。 基金項目:天津市科技支撐計劃重點資助項目(14ZCZDSF00020)。

時間:2016-04-15

10.7652/xjtuxb201606008

TP391.4

A

0253-987X(2016)06-0047-07

網絡出版地址:http:∥www.cnki.net/kcms/detail/61.1069.T.20160415.1612.014.html

猜你喜歡
前景特征檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
我國旅游房地產開發前景的探討
法德軸心的重啟及前景
如何表達“特征”
離岸央票:需求與前景
中國外匯(2019年11期)2019-08-27 02:06:32
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
量子糾纏的來歷及應用前景
太空探索(2016年10期)2016-07-10 12:07:01
主站蜘蛛池模板: 国内精品九九久久久精品| 欧美激情视频二区| 国产乱码精品一区二区三区中文| 亚洲性影院| 亚洲中文字幕日产无码2021| 日韩美女福利视频| 婷婷丁香在线观看| 亚洲黄网视频| 国产人在线成免费视频| 免费人成黄页在线观看国产| 日韩一二三区视频精品| 玖玖精品视频在线观看| 欧美日韩免费在线视频| 人妻中文字幕无码久久一区| 热re99久久精品国99热| 91外围女在线观看| 国产精品亚洲欧美日韩久久| 欧美日韩精品在线播放| 日韩欧美成人高清在线观看| 久久综合色播五月男人的天堂| 欧美啪啪视频免码| 超碰91免费人妻| igao国产精品| 色悠久久久久久久综合网伊人| 99精品在线视频观看| 欧美日本二区| 91美女视频在线| 精品色综合| 2022国产91精品久久久久久| 东京热高清无码精品| 亚洲欧美日韩成人高清在线一区| 国产真实自在自线免费精品| 国内精品视频在线| 97久久免费视频| 久久人搡人人玩人妻精品| 亚洲一区二区三区在线视频| 欧美色视频网站| 亚洲另类色| 日韩国产精品无码一区二区三区| 一边摸一边做爽的视频17国产 | 综合网天天| 全部免费特黄特色大片视频| 亚洲人在线| 91精品啪在线观看国产91| 91精品啪在线观看国产60岁| 亚洲女人在线| 欧美国产日产一区二区| 国产亚洲欧美日韩在线观看一区二区| 亚洲三级电影在线播放 | 国产精品成人观看视频国产| 婷婷在线网站| 欧美成人精品在线| 国产精品 欧美激情 在线播放| 91视频青青草| 国产福利小视频在线播放观看| 四虎国产永久在线观看| 色悠久久久久久久综合网伊人| 免费啪啪网址| 真实国产精品vr专区| 国产原创演绎剧情有字幕的| 午夜日本永久乱码免费播放片| 亚洲人成在线精品| 99ri精品视频在线观看播放| 男女性午夜福利网站| 国产精品无码久久久久久| 日韩欧美色综合| 欧美、日韩、国产综合一区| 亚洲 成人国产| 国产精品视频导航| 少妇极品熟妇人妻专区视频| 中文国产成人精品久久| 亚洲AV无码乱码在线观看裸奔| 最新国产网站| 国产精品欧美日本韩免费一区二区三区不卡 | 亚洲天堂免费观看| 色亚洲成人| 国产亚洲现在一区二区中文| 波多野结衣一区二区三区四区视频| 综合色在线| 国产中文一区a级毛片视频| 亚洲第一页在线观看| 91久久夜色精品国产网站|