999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Adaboost和碼本模型的手扶電梯出入口視頻監控方法

2017-11-15 06:02:39杜啟亮黎浩正田聯房
計算機應用 2017年9期
關鍵詞:檢測

杜啟亮,黎浩正,田聯房

(華南理工大學 自動化科學與工程學院,廣州 510640)(*通信作者電子郵箱466739850@qq.com)

基于Adaboost和碼本模型的手扶電梯出入口視頻監控方法

杜啟亮,黎浩正*,田聯房

(華南理工大學 自動化科學與工程學院,廣州 510640)(*通信作者電子郵箱466739850@qq.com)

針對傳統視頻監控方法無法對密集前景目標進行準確分割的問題,提出一種基于Adaboost和碼本模型的多目標視頻監控方法。首先,通過訓練得到Adaboost人頭分類器,利用碼本算法為垂直拍攝的手扶電梯出入口圖像建立背景模型,提取前景圖像對其進行人頭檢測和跟蹤;之后,剔除行人目標得到物件目標,對物件目標進行跟蹤;最后,根據行人和物件的運動特征進行監控。對12段出入口視頻序列的實驗結果表明,監控方法能夠準確穩定地跟蹤行人和物件,完成逆行檢測、客流統計、行人擁堵和物件滯留等監控任務,處理速度達到36幀/秒,目標跟蹤準確率達到94%以上,行為監控準確率達到95.8%,滿足智能視頻監控系統魯棒性、實時性和準確性的要求。

Adaboost;背景建模;視頻監控;人頭檢測;多目標跟蹤

0 引言

智能視頻監控技術由于其準確直觀和成本低廉的特點,被廣泛應用于公共管理與決策領域,如商場出入口客流統計、公交車乘客人數統計和電梯口擁堵檢測等。光照變化和目標遮擋是視頻監控中造成誤差的主要原因,為減小這兩種因素的不良影響,一般采取攝像頭垂直向下拍攝的方法。視頻監控的核心任務是運動目標檢測與跟蹤,主要有兩類方法:基于模板匹配的方法和基于統計分類的方法。

基于模板匹配的方法為目標建立特征模板,如人頭的類圓模板和人體外輪廓的矩形模板等,通過擬合圖像中與模板相匹配的前景目標進行檢測與跟蹤。該類方法計算量小,在檢測單個或多個分離目標時效果較好,在工程上應用較廣。潘浩等[1]用Sobel算子提取垂直拍攝的人體輪廓后進行曲線生長,能夠適應公交車門處不同角度人體的檢測需要,但是計算量大,處理速度只能達到6幀/秒。顧德軍等[2]首先采用高斯模型進行前景提取,之后根據輪廓特性和顏色特性為俯視的人頭建立模板,最后對前景圖像進行人頭模板匹配,但是高斯模型無法提取靜止的前景目標,因此無法進行滯留檢測。張姍姍等[3]提出了一種基于深度圖像的人頭檢測算法,利用立體匹配的方法有效解決了目標擁擠的問題,但是無法檢測被遮擋的目標。上述算法的性能在很大程度上取決于前景提取算法的效果,因此存在對光線變化敏感和易受陰影干擾的問題。

基于統計分類的方法首先獲取大量正負樣本,之后提取樣本的目標特征并訓練分類器或建立神經網絡進行目標檢測,準確率高且魯棒性強。文嘉俊等[4]和Li等[5]分別采用Haar特征和局部二值模式(Local Binary Pattern, LBP)特征訓練得到Adaboost人頭分類器,在垂直拍攝圖像中檢測人頭并進行客流監控,實現了多人過線時傳統方法難以準確完成的行人分割和計數,但是存在如背景中的椅子等誤檢。樸春赫等[6]結合傳統ViBe(Visual Background extractor)前景檢測算法,利用方向梯度直方圖(Histogram of Oriented Gradient, HOG)特征訓練得到SVM分類器進行行人檢測,有效消除目標殘影但是無法檢測水平拍攝圖像中被遮擋的目標。Zhao等[7]利用立體視覺和人工神經網絡建立了準確率很高的行人檢測系統但是處理速度只能達到10幀/秒。

本文在碼本模型前景提取算法的基礎上,提出基于Adaboost和碼本模型的多目標跟蹤算法。碼本模型是高效的背景建模方法,但是無法對多目標前景進行分割,為此本文引入Adaboost人頭分類器,利用檢測目標之間的獨立性完成目標分割,由此提高多目標跟蹤的準確性。本文的視頻監控方法主要應用于商場、地鐵出入口和手扶電梯出入口等人流密集的場合,完成目標檢測與跟蹤、客流統計、行人擁堵和物件滯留等視頻監控任務。

1 基于Adaboost和碼本模型的前景提取

本文采取圖1所示的攝像頭垂直向下拍攝的方法以減少光照變化和目標遮擋的不良影響,首先利用碼本算法提取包含行人目標和物件目標的前景圖像,訓練人頭分類器對行人目標進行檢測與跟蹤,之后剔除行人目標對物件目標進行跟蹤,最后根據行人和物件的運動特征進行目標行為監控,圖2為算法流程。

圖1 攝像頭安裝位置示意圖

圖2 視頻監控算法流程

1.1 基于碼本模型的前景提取

視頻監控的核心是背景建模和前景提取,在手扶電梯出入口等客流密集、背景復雜和光照變化頻繁的應用場合,需要同時考慮算法對復雜背景的自適應能力以及算法復雜度對效率的影響。碼本模型(Codebook Model)是一種高效的背景建模方法,基本思想是為圖像所有像素建立一個時間序列,根據序列觀察值對像素點進行分類。碼本模型不需要背景像素的先驗知識,只根據像素點時間特征提取前景圖像,因此計算量少且適用于復雜背景,步驟[8-9]如下:

1)為圖像每個像素建立一個碼本(CodeBook, CB),每個碼本由多個碼字(CodeWord, CW)組成。CW為六元組,包含背景更新的學習上下界IH和IL,當前像素的上下界Imax和Imin,上一次的更新時間tlast和記錄像素多久未被訪問的陳舊時間tst,根據圖像更新每個CB的狀態;

2)選擇一幀或者多幀建立背景的CB模型,背景建立幀數一般為視頻采集幀率的1~2倍;

3)設前景圖像的判定閾值上下界為IMmax和IMmin,對圖像中某一像素I(x,y),歷遍背景CB模型中的每個CW,如果存在一個CW的當前像素上下界Imax和Imin使得Imin-IMmin

4)隔一定幀數更新背景CB模型且進行時間濾波,設更新閾值Tst為更新次數的一半,歷遍像素CB中的每個CW,若陳舊時間tst大于更新閾值,則移除該CW。

采用帶連通域分析的邊緣生長算法對前景圖像進行輪廓提取,加入輪廓周長等先驗知識對輪廓圖像進行二次校正,得到包含行人和物件兩種目標的前景圖像,圖3為前景提取結果。

圖3 前景提取結果

1.2 基于Adaboost的人頭檢測

基于輪廓特征的傳統目標檢測方法無法對密集前景目標進行準確分割,在垂直拍攝的圖像中,人頭有顯著的橢圓形狀特征,且不隨前景目標密集程度發生變化,因此使用HOG特征的Adaboost分類器進行人頭檢測。HOG通過計算和統計圖像局部區域的梯度方向直方圖來構成特征[10],對目標圖像進行Gamma壓縮后計算梯度向量并建立方向直方圖,本文的HOG描述子胞元(Cell)為8×8的矩形像素塊,梯度方向數為9,塊(Block)為2×2的Cell串聯塊,也即16×16的矩形像素塊。

Adaboost是一種結構簡單的級聯分類器,首先對同一個訓練集訓練不同的弱分類器,之后把弱分類器級聯為強分類器,步驟[11]如下:

1)設N為樣本總數,將訓練集所有樣本的權重初始化為1/N;

2)以誤差最小原則訓練弱分類器,如果某一個訓練樣本已被正確分類,則在下一輪訓練過程中降低該樣本的權重,否則提高權重;

3)弱分類器級聯為強分類器,后者為前者的線性組合,誤差率越小的弱分類器在強分類器中的權重越大。

本文選取正樣本為3 850張垂直拍攝的人頭圖片,大小為24×24,負樣本為8 000張不同場景下的其他圖片,包括背景圖片和非人頭部位圖片,大小范圍為45×45到105×105,圖4為部分訓練集圖片。

設置分類器訓練的迭代層數為20,每層的最小命中率為0.999,最大誤檢率為0.5,最大迭代次數為100,表1為本文Adaboost分類器的訓練結果,圖5為人頭目標檢測結果。

表1 Adaboost分類器訓練結果

圖4 部分訓練集圖片

圖5 目標檢測結果

2 多目標跟蹤

多目標跟蹤的本質是目標特征的跟蹤,視頻監控任務中造成跟蹤誤差的主要原因有:1)檢測環境光照強度不足、不均或變化頻繁,環境噪聲造成分類器誤檢;2)訓練的分類器性能有限,出現漏檢(False Rejection)或誤檢(False Acceptance);3)訓練集規模過小,不足以訓練出高精度的分類器。本文針對前兩點建立了一種運動目標的跟蹤強度特征模型,能夠自適應地增添新出現的目標,丟棄應該停止跟蹤的過期目標,采用最小距離的目標匹配方法對多目標進行卡爾曼跟蹤,圖6為多目標跟蹤算法流程。

2.1 目標的跟蹤強度特征模型

根據分類器的檢測結果,觀測序列的運動目標數量和跟蹤序列的運動目標數量存在三種情況:1)觀測數M小于跟蹤數N,此時可能是運動目標離開檢測區域或分類器漏檢,為保證跟蹤序列的連續性,應當增補N-M組觀測值并降低未觀測到的運動目標的跟蹤強度;2)觀測數M大于跟蹤數N,此時可能是出現新的運動目標或分類器誤檢,應當增補M-N組跟蹤值并提高已檢測到的運動目標的跟蹤強度;3)觀測數M等于跟蹤數N,此時可能是分類器無差檢測或漏檢誤檢恰好使二者匹配,應當對觀測序列與跟蹤序列作最小距離目標匹配。本文將1)和3)合并為一種情況,設cf(k)和cf(k-1)分別為某運動目標在k時刻和k-1時刻的跟蹤強度,cfi(k)和cfd(k)分別為目標被連續觀測到和連續未被觀測到的幀數,cfi(k)·cfd(k)=0,則該目標的跟蹤強度特征按下式更新:

(1)

圖6 多目標跟蹤算法流程

2.2 最小距離目標匹配

觀測序列與跟蹤序列利用歐氏距離(Euclidean Metric)進行最小距離匹配,當觀測數M小于或等于跟蹤數N時,算法對M組已觀測目標作最小距離匹配,并在原地增補N-M組觀測值即假設未觀測到的運動目標靜止不動;當觀測數M大于跟蹤數N時,算法對N組已觀測目標作最小距離匹配,并以未匹配的觀測值為初始值新建M-N組跟蹤序列。設觀測序列為m,跟蹤序列為n,圖7為最小距離目標匹配的示意圖。

圖7 最小距離目標匹配示意圖

2.3 卡爾曼濾波器

卡爾曼濾波器(Kalman Filter)是一種擁有狀態估計功能的濾波器,通過迭代核心方程,狀態變量最終將收斂至一個最優自回歸解,即狀態變量的最優估計,利用卡爾曼濾波器預測下一時刻的系統狀態,從而完成多目標跟蹤任務,其時間與狀態共五個核心更新方程[12]如下:

(2)

對中心坐標Pp=(xp,yp) ,x(k)=[xpypΔxpΔyp]T為狀態變量,y(k)=[xpyp]T為觀測變量,A為狀態估計矩陣,H為觀測矩陣,q和r分別為估計噪聲和觀測噪聲,符合高斯分布,Q和R分別為其協方差矩陣,P為誤差協方差矩陣。本文建立行人和物件目標在手扶電梯出入口等環境下的線性運動模型并取值如下:

(3)

(4)

(5)

(6)

(7)

以觀測數M小于跟蹤數N為例,采用最小歐氏距離的目標匹配方法對兩個行人目標進行卡爾曼跟蹤,算法對M組已觀測目標作最小距離匹配,并在原地增補N-M組觀測值即假設未觀測到的運動目標靜止不動,同時降低未觀測到的運動目標的跟蹤強度,圖8為卡爾曼跟蹤結果及其軌跡,矩形框為觀測結果,圓形框為跟蹤結果,表2為跟蹤過程中觀測序列、跟蹤序列、歐氏距離和跟蹤強度的變化。

圖8 卡爾曼跟蹤結果

表2 跟蹤過程中卡爾曼濾波器的參數變化

3 基于運動特征的視頻監控

根據行人和物件的運動特征進行監控,主要是由二者的中心坐標計算運動速度和運動方向,判斷運動目標行為從而達到視頻監控的目的。本文對手扶電梯出入口上的運動目標進行下列4種行為監控:逆行檢測、客流統計、行人擁堵和物件滯留。設采樣幀數為n,運動目標在k時刻的跟蹤強度為cf(k),中心坐標Pp(k)=(xp(k),yp(k)),則運動速度和運動方向如下式所示:

(8)

(9)

3.1 逆行檢測

在手扶電梯出入口等存在正常前進方向的場所中逆行可能發生安全事故,因此需要對該行為進行監控。以手扶電梯前進方向為極軸,取逆時針方向為正方向建立極坐標系,則目標逆行的運動特征為:

-π/2<θ(k)<π/2

(10)

3.2 客流統計

在手扶電梯出入口監控區域設置客流計數線,按手扶電梯前進方向將出入口分割為內部區域Areain與外部區域Areaout,從k-n時刻某目標出現在監控區域并被跟蹤開始進行統計,經過n幀后在k時刻目標通過客流計數線,此時算法判定目標進入監控區域(客流數加1)或離開監控區域(客流數減1),當前客流統計過程結束,如圖9所示。

設k時刻該目標在內部區域存在的累計幀數為in(k),在外部區域存在的累計幀數為out(k),客流方向的起點閾值為Tbegin,終點閾值為Tend,且Tbegin>Tend,定義符號“∈”表示坐標包含于某區域內,則目標進入監控區域的運動特征為:

(11)

目標離開監控區域的運動特征為:

(12)

本文客流統計的起點閾值Tbegin=5,終點閾值Tend=2,運動目標通過客流計數線后,其累計幀數in(k)和out(k)均要清零,這樣能夠有效防止目標中心位置在計數線附近抖動所造成的客流誤檢。表3為某運動目標通過客流計數線進入或離開監控區域前后的運動特征變化,其中符號“#”表示目標進入監控區域的時刻,符號“*”表示目標離開監控區域的時刻。

圖9 客流統計過程示意圖

表3 目標進入或離開監控區域時的運動特征變化

3.3 行人擁堵與物件滯留

若手扶電梯出入口區域存在行人擁堵或大物件滯留,容易發生安全事故,因此需要對兩類行為進行監控,由于出入口區域面積較小,因此某目標在該區域內靜止或反復作小幅移動均認為是擁堵或滯留,設Tcf為擁堵滯留的跟蹤強度閾值,實驗中Tcf=2 000,則行人擁堵或物件滯留的運動特征如下:

cf(k)>Tcf

(13)

4 實驗結果與分析

為分析基于Adaboost和碼本模型的視頻監控方法的效果,對12段手扶電梯出入口視頻序列進行實驗,視頻包含不同光照環境下物件滯留、行人正常通過、逆行、滯留和擁堵等多種事件,算法在i5-6200U 2.40 GHz CPU、8 GB RAM、Windows 10操作系統的計算機上用C++編程實現。視頻圖像大小為480×272,處理速度達到36幀/秒。

4.1 目標跟蹤實驗結果

從某目標進入監控區域開始跟蹤,至其離開并結束跟蹤,設目標存在于監控區域期間經歷的總幀數為n,若算法能夠連續穩定地跟蹤目標位置且累計跟蹤幀數達到0.95n以上,則認為算法成功跟蹤該目標。設整個視頻監控過程中實際總目標數為TG(Target),則按上述方法定義成功跟蹤數為TP(True Positive),若算法將行人肩部或背景中的陰影等誤檢為人頭則計入誤檢數FP(False Positive),若無法檢測出某目標則計入漏檢數FN(False Negative)。本文采用文獻[13]的性能指標分析算法對行人目標及物件目標的跟蹤效果,分別是精確率PR(Precision)、召回率RE(Recall)和調和均值F1(F1Score),其中PR=TP/(TP+FP),RE=TP/(TP+FN),F1=2TP/(2TP+FP+FN)。圖10為目標跟蹤結果,圓形框為行人跟蹤結果及其軌跡,矩形框為物件跟蹤結果及其軌跡,表4為目標跟蹤性能指標。

圖10 目標跟蹤結果

目標跟蹤的結果和性能指標表明,算法能夠在行人目標和物件目標同時存在的情況下分別對其進行連續穩定的跟蹤,行人跟蹤的總調和均值為96.1%,物件跟蹤的總調和均值為94.9%,算法在光照充足且穩定的環境下性能達到最佳。

對行人跟蹤性能指標進行分析,Adaboost人頭分類器能夠有效抵抗檢測環境光照強度及其穩定性的影響。由于光照不足或不穩所造成的召回率降幅約為3%,說明不良的光照環境造成了更多漏檢,這與HOG特征基于方向梯度的特性相符合。但即使是惡劣的光照環境下算法的調和均值也能保持在94%以上,說明算法對環境光照的變化是魯棒的。在此基礎上,客流的擁擠情況是造成算法性能下降的主要原因,相同光照條件下,算法對稀疏客流的跟蹤性能比對擁擠客流的跟蹤性能提高3.5%以上。在稀疏情況下,俯視人體的肩部HOG特征與人頭相似,可能造成誤檢;而在擁擠情況下,人體邊緣的粘連、衣物顏色過深和行人相距過近造成的陰影等因素使人頭的HOG特征不再明顯,造成了更多漏檢,圖11為上述幾種誤檢或漏檢情況的例子。

圖11 幾種誤檢或漏檢情況

對物件跟蹤性能指標進行分析,碼本模型在手扶電梯出入口等光照變化緩慢均勻的環境下有較好的背景建模效果,但是作為一種傳統的背景建模方法,碼本模型無法分割擁擠情況下的粘連目標。對視頻監控這一任務而言,物件跟蹤一般為大件物品滯留判定提供有用信息,因此實際工程中視頻監控對物件跟蹤的性能要求較低。雖然在惡劣的光照環境下調和均值的降幅達到了9%以上,但引入某些先驗知識及矯正條件后,算法的物件跟蹤總計調和均值仍能夠達到94%以上,足以完成滯留判定任務。此外,算法的精確率較低而召回率較高,說明碼書模型一類的傳統背景建模方法主要缺點在于容易造成誤檢。由目標跟蹤的結果及性能指標來看,結合Adaboost和碼本模型的多目標跟蹤算法能夠準確地建立行人及物件目標的位置序列,這為目標行為監控奠定了良好的基礎。

表4 目標跟蹤性能指標

4.2 目標行為監控實驗結果

本文完成了視頻監控中逆行檢測、客流統計、行人擁堵和物件滯留等監控任務,仍然采用文獻[13]中的PR、RE和F1指標分析算法對目標行為的監控效果,圖12為目標行為檢測結果,表5為目標行為監控的性能指標。

圖12 目標行為檢測結果

分析目標行為檢測的結果和性能指標,其中逆行檢測和行人擁堵的效果僅決定于行人跟蹤的性能,因此二者的性能指標與行人跟蹤的相關指標相近。對客流統計而言,若無法保證行人跟蹤的性能,則目標在通過客流計數線時可能多次觸發即發生誤檢,表現在客流統計的精確率只有91.3%,與其他目標行為的指標相比數值較低,因此該行為的調和均值也是最低的。物件滯留主要利用碼本模型的相關背景建模與前景提取算法,在物件目標跟蹤部分的分析中已經提到,在良好的光照環境下,較低的跟蹤性能便足以完成該監控任務,因此物件滯留的調和均值能夠達到最高的97.2%。總體而言,算法能夠在各種環境下準確地完成基本的視頻監控任務,對各行為的檢測調和均值均達到93.9%以上,平均調和均值為95.8%,算法有較強的魯棒性。

表5 目標行為監控結果

5 結語

為了解決傳統視頻監控方法在密集目標場景下失效的問題,滿足智能監控系統的實時性需求,本文提出了一種基于Adaboost和碼本模型的多目標視頻監控方法,通過訓練得到Adaboost人頭分類器,利用碼本算法為垂直拍攝的手扶電梯出入口圖像建立背景模型,提取前景圖像對其進行人頭檢測和跟蹤,之后剔除行人目標得到物件目標,對物件目標進行跟蹤,最后根據行人和物件的運動特征進行監控。實驗表明,本文的監控算法能夠準確穩定地跟蹤行人和物件兩類目標,通過分析目標的運動特征能夠準確完成逆行檢測、客流統計、行人擁堵和物件滯留等監控任務,處理速度達到36幀/秒,目標跟蹤準確率達到94%以上,行為監控準確率達到95.8%,滿足智能視頻監控系統魯棒性、實時性和準確性的要求。但算法仍然存在不足,當檢測環境過暗或光照產生猛烈突變時,算法容易監控失敗。今后將會在多目標檢測與跟蹤方面改善算法的性能,增強算法在不同應用場合下的魯棒性,使其更好地應用在各種智能視頻監控系統當中。

References)

[1] 潘浩,高枝寶,何小海,等.基于計算機視覺的公交系統人流量檢測算法[J].計算機工程,2007,33(11):216-218.(PAN H, GAO Z B, HE X H, et al. Pedestrian flow detection algorithm in public transport system based on computer vision[J]. Computer Engineering, 2007, 33(11): 216-218.)

[2] 顧德軍,伍鐵軍.一種基于人頭特征的人數統計方法研究[J].機械制造與自動化,2010,39(4):134-138.(GU D J, WU T J. Pedestrian count method based on head feature [J]. Machine Building & Automation, 2010, 39(4): 134-138.)

[3] 張姍姍,景文博,劉學,等.一種基于深度信息的人頭檢測方法[J].長春理工大學學報(自然科學版),2016,39(2):107-111.(ZHANG S S, JING W B, LIU X, et al. A head detection method based on depth information [J]. Journal of Changchun University of Science and Technology (Natural Science), 2016, 39(2): 107-111.)

[4] 文嘉俊,徐勇,戰蔭偉.基于AdaBoost和幀間特征的人數統計[J].中國圖象圖形學報,2011,16(9):1729-1735.(WEN J J, XU Y, ZHAN Y W. People counting based on AdaBoost and inter-frame features [J]. Journal of Image and Graphics, 2011, 16(9): 1729-1735.)

[5] LI B, ZHANG J, ZHANG Z, et al. A people counting method based on head detection and tracking [C]// Proceedings of the 2014 International Conference on Smart Computing. Washington, DC: IEEE Computer Society, 2014: 136-141.

[6] 樸春赫,潘怡霖,趙海,等.基于改進ViBe的多行人檢測方法[J].東北大學學報(自然科學版),2016,37(4):481-485.(PAK C H, PAN Y L, ZHAO H, et al. Multi-pedestrian detection approach based on improved ViBe algorithm [J]. Journal of Northeastern University (Natural Science), 2016, 37(4): 481-485.)

[7] ZHAO L, THORPE C E. Stereo- and neural network-based pedestrian detection [J]. IEEE Transactions on Intelligent Transportation Systems, 2000, 1(3): 148-154.

[8] KIM K, CHALIDABHONGSE T H, HARWOOD D, et al. Real-time foreground-background segmentation using codebook model [J]. Real-Time Imaging, 2005, 11(3): 172-185.

[9] KIM K, CHALIDABHONGSE T H, HARWOOD D, et al. Background modeling and subtraction by codebook construction [C]// Proceedings of the 2004 International Conference on Image Processing. Piscataway, NJ: IEEE, 2004, 5: 3061-3064.

[10] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection [C]// Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2005, 1: 886-893.

[11] KéGL B. The return of AdaBoost.MH: multi-class Hamming trees [EB/OL]. [2016- 12- 20]. https://core.ac.uk/download/pdf/24989526.pdf.

[12] KELLY A. A 3D state space formulation of a navigation Kalman filter for autonomous vehicles [EB/OL]. [2016- 12- 20]. http://frc.ri.cmu.edu/users/alonzo/pubs/reports/kalman_V2.pdf.

[13] POWERS D M W. Evaluation: from precision, recall and F-measure to ROC, informedness, markedness and correlation [J]. Journal of Machine Learning Technologies, 2011, 2(1): 37-63.

VideomonitoringmethodofescalatorentranceareabasedonAdaboostandcodebookmodel

DU Qiliang, LI Haozheng*, TIAN Lianfang

(CollegeofAutomationScienceandEngineering,SouthChinaUniversityofTechnology,GuangzhouGuangdong510640,China)

Aiming at the problem that the traditional video monitoring method can not divide the dense foreground objects accurately, a multi-target video monitoring method based on Adaboost and codebook model was proposed. Firstly, the Adaboost human head classifier was obtained by training, and the background model was established for the vertical elevator image by the codebook algorithm. The foreground image was extracted and heads were detected and tracked. After that, the pedestrian targets were removed to get the object targets, and the object targets were tracked. Finally, the movement of pedestrians and objects was monitored. The experimental results on 12 entrance area videos show that the method can track pedestrians and objects accurately and stably. It can accomplish the monitoring tasks of retrograde detection, passenger statistics, pedestrian congestion and object retention. With the processing speed of 36 frames per second, the tracking-accuracy rate is above 94% and the monitoring-accuracy rate is 95.8%. The proposed algorithm meets robustness, real-time and accuracy requirements of the intelligent video monitoring system.

Adaboost; background modeling; video monitoring; head detection; multi-target tracking

2017- 03- 23;

2017- 05- 17。

廣州市產學研項目(201604010114);廣東省前沿與關鍵技術創新專項資金資助項目(2016B090912001);廣州市科信局國際合作項目(2012J5100001)。

杜啟亮(1980—),男,廣東佛山人,副研究員,博士,主要研究方向:機器人、機器視覺; 黎浩正(1994—),男,廣東番禺人,碩士研究生,主要研究方向:計算機視覺、機器學習; 田聯房(1969—),男,山東濟寧人,教授,博士,主要研究方向:模式識別、人工智能。

1001- 9081(2017)09- 2610- 07

10.11772/j.issn.1001- 9081.2017.09.2610

TP391.4

A

This work is partially supported by the Projects on the Integration of Industry, Education and Research of Guangzhou (201604010114), the Special Funds for Frontier and Key Technology Innovation of Guangdong (2016B090912001), the International Cooperation Projects of Science and Technology Information Bureau of Guangzhou (2012J5100001).

DUQiliang, born in 1980, Ph. D., associate research fellow. His research interests include robot, machine vision.

LIHaozheng, born in 1994, M. S. candidate. His research interests include computer vision, machine learning.

TIANLianfang, born in 1969, Ph. D., professor. His research interests include pattern recognition, artificial intelligence.

猜你喜歡
檢測
QC 檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
“有理數的乘除法”檢測題
“有理數”檢測題
“角”檢測題
“幾何圖形”檢測題
主站蜘蛛池模板: 国产嫖妓91东北老熟女久久一| 色亚洲激情综合精品无码视频| 欧美成人免费一区在线播放| 五月天福利视频| 久久精品无码一区二区日韩免费| 白浆视频在线观看| 国产在线精品美女观看| 伊人久久久大香线蕉综合直播| 伦精品一区二区三区视频| 人妻丰满熟妇αv无码| 国产成人综合亚洲欧美在| 成人福利视频网| 人人爱天天做夜夜爽| 日本高清视频在线www色| 色香蕉网站| 韩日免费小视频| 天堂成人在线视频| 国产人在线成免费视频| 怡春院欧美一区二区三区免费| 成年人福利视频| 91福利在线看| 国产精品伦视频观看免费| 国产肉感大码AV无码| 国产成人盗摄精品| 久久99热这里只有精品免费看| 国产亚洲精品无码专| 婷婷六月天激情| 91丨九色丨首页在线播放| 国产欧美网站| 国产h视频在线观看视频| 91麻豆精品视频| 中文无码毛片又爽又刺激| 波多野结衣无码中文字幕在线观看一区二区 | 国产成人无码AV在线播放动漫 | 国产精品林美惠子在线观看| 激情六月丁香婷婷四房播| jizz在线观看| 精品视频91| 91色爱欧美精品www| 久久婷婷色综合老司机| 欧美性精品不卡在线观看| 综1合AV在线播放| 中国成人在线视频| 欧美高清国产| 亚洲第一极品精品无码| 91精品国产自产91精品资源| 狠狠干欧美| 天堂在线视频精品| 欧美亚洲国产日韩电影在线| 国产成人8x视频一区二区| 国产探花在线视频| 人妻无码中文字幕第一区| 成人免费一级片| 无码日韩视频| 免费看a级毛片| 亚洲精品无码AV电影在线播放| 丝袜国产一区| 亚洲AV电影不卡在线观看| 欧美色视频在线| 全色黄大色大片免费久久老太| 91年精品国产福利线观看久久| 国产精品专区第1页| 日韩精品一区二区三区中文无码| 国产精选小视频在线观看| 国内精品视频| 国产成人一区二区| 亚洲一区无码在线| 欧美日韩精品在线播放| 夜夜高潮夜夜爽国产伦精品| 国产三级视频网站| 美女毛片在线| 制服丝袜在线视频香蕉| 色综合天天综合中文网| 日韩高清在线观看不卡一区二区| 国产精品亚洲专区一区| 国产成人一区| 国产丝袜无码一区二区视频| 亚洲AV无码久久天堂| 国产99精品久久| 亚洲美女操| 国产精品九九视频| 五月综合色婷婷|