999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Camshift的運動目標檢測跟蹤算法

2018-02-02 13:12:46邢定宇侯寶臨秦明偉
電腦知識與技術 2018年1期

邢定宇+侯寶臨+秦明偉

摘要:對傳統的運動目標跟蹤算法而言,目標檢測時由于環境因素的影響,難以準確檢測到目標區域。因此常采用手動選取運動目標的方法,但此方法由于智能化程度不高,且具有較強的主觀性和經驗性,所得數據缺乏足夠的說服力。針對于此,提出在多幀差分法的基礎上,采用連通區域搜索篩選出合適的運動目標并標定目標區域,確定運動目標后進行跟蹤;在目標跟蹤階段,實時更新標定區域內的融合特征向量,以提高后續跟蹤算法的準確性和魯棒性。實驗表明:該方法切實可行,在目標檢測階段,改進后的算法在增加少量計算量的前提下,篩選并標定出目標區域;在目標跟蹤階段,將計算區域縮小在標定跟蹤范圍內,提高了算法效率,且保證算法了的穩定性和魯棒性。

關鍵詞:目標檢測;多幀差分;連通域檢測;目標跟蹤

中圖分類號:TP391 文獻標識碼:A 文章編號:1009-3044(2018)01-0209-03

Abstract: For traditional moving target tracking algorithm, it is difficult to detect the target region accurately because of the influence of environmental. Therefore, the method of manually selecting tracking targets is often adopted. But the method is not sufficiently intelligent and has strong subjectivity and experience. So the data is not sufficiently convincing. To solve this problem, Based on the multi frame difference method, the connected region search is used to select and calibrate the appropriate moving region. In the target tracking phase, the fusion feature vector in the calibration area is updated in real time to improve the accuracy and robustness of the follow-up tracking algorithm. Experimental results show that the method is feasible. In the target detection phase, the improved algorithm can select and calibrate the target area under the premise of adding a small amount of computation. In the target tracking phase, the computation area is reduced in the calibration tracking range, which improves the efficiency of the algorithm and ensures the stability and robustness of the algorithm.

Key words: Target detection; Multi frame difference; Connected domain detection; Target tracking

1 概述

基于圖像序列的運動目標檢測跟蹤是圖像處理和計算機視覺領域的重要分支之一。即根據圖像序列在時間空間上的連續性與相關性,檢測到運動目標后,確定其在每幀圖像中的具體位置,并標記出來,為后續決策算法或者行為預測提供理論依據[1]。

近年來目標跟蹤相關研究日趨成熟,大體形成了目標檢測、特征提取、目標識別的理論體系。目標檢測按特征的判別性可分為紋理目標檢測和無紋理目標檢測,對紋理物體進行識別和檢測的有SIFT、SURF等;對無紋理物體進行檢測的有基于模板匹配的檢測算法以及其他拓展算法等。跟蹤算法可分為基于輪廓的跟蹤,基于特征點的跟蹤,基于相關濾波(Correlation Filter, CF)的跟蹤[2]等。

由于傳統跟蹤算法常采用手動圈定運動目標的方式,導致所得跟蹤特征具有較強主觀性和經驗性。本文基于簡單易實現的幀間差分法,用多幀差分進行預處理,通過連通區域搜索,篩選出目標運動區域。跟蹤階段在每幀圖片跟蹤目標標定后,增加特征的計算模塊,使得目標選取更為客觀,提高跟蹤算法準確性。

2 目標區域篩選

2.1 多幀差分

多幀差分是在傳統幀差法的基礎上提出的。傳統幀差法雖然便于實現,復雜度低,但易出現重疊、空洞的現象,所得目標輪廓往往不連續。且對于光變、背景干擾等場景,難以提取完整的目標信息。多幀差分,即對多幀連續的圖像做處理,最終確定運動目標的大致輪廓[3],基本流程如圖1所示。

以五幀為例,將中間幀Pk分別與Pk-2,Pk-1,Pk+1,Pk+2做差分運算,為避免所得結果顯示重疊和空洞,先作“與”運算得到PY1、PY2,所得結果再做“或”運算得到PH,在實際測試中,雖然能夠得到運動目標的大致區域,但由于光照變化、背景擾動等因素的影響,目標周圍存在許多不相關的噪聲。因此需要進一步處理排除噪聲干擾,以縮小目標的實際區域,為跟蹤算法做準備。

2.2 連通區域搜索

連通區域搜索可將圖像中連通的部分找出來,作出各連通區域最小外接矩形框,通過矩形框的位置關系判斷各個連通域間的關系:若矩形框存在重合部分,則認為其同屬于一個運動目標[4]。并通過實際場景中運動物體的大小,淘汰掉光照變化、環境噪聲和背景移動等造成的無效連通域。作出每個連通域的外接矩形框,在排除環境噪音和背景移動的前提下,最大限度確定運動目標區域,為后續目標跟蹤提供有用信息。endprint

3 運動目標跟蹤

傳統Camshift算法采用H分量作為特征向量,對圖像的旋轉、縮放等物理變換不敏感,在背景信息不復雜情況下可以滿足多數目標跟蹤[5]。但顏色直方圖是對于整幅圖片色彩分類的統計結果,不包括運動物體的位置信息,初始幀顏色直方圖一經確定便不作更改,因此遇到背景或其他物體顏色相同、相似的情況很容易受到干擾。

紋理特征作為一種重要的圖像特征,具有較強的光抗性,能夠有效彌補單一使用顏色特征帶來的影響,對紋理特征的定義如下[6]:

按八鄰域做出灰度圖像中心點上下左右四個方向的差值Qi,紋理圖像中心點定義為:

根據上式可得到整幅圖片的紋理信息,與顏色特征融合,可得到顏色-紋理特征的反向投影圖,以此建立目標模型,并在每幀跟蹤結束后計算標定范圍內新的融合特征反向投影圖[7]。由于該操作會增加額外計算量,增加算法時耗,做出實際算法耗時情況對比圖,如圖2所示。

由圖2可以看出,由于算法計算量的增加,每幀圖片的算法耗時均有所增加,但由于只計算跟蹤算法標記范圍內的特征,因此時耗增加并不多,平均每幀多耗時4ms。

4 實驗結果及分析

4.1 算法測試

為驗證改進后的算法性能,采用VGA分辨率(640*480),幀率30FPS的視頻作為測試視頻,在Window7環境下采用Visual studio 2012應用軟件和OpenCV 3.0處理庫完成跟蹤實驗;利用MATLAB R2014a完成實驗數據的統計整理等工作。用傳統手動選取目標區域并跟蹤的算法和本文提出的自動目標檢測、跟蹤算法進行對比實驗,如圖3所示。

主要測試算法在自然光照下目標發生形變的適應能力及抗遮擋能力。如圖3所示,傳統算法在遮擋前后,標記范圍忽大忽小,極易丟失跟蹤目標;本文算法在檢測階段選取的范圍包含了運動目標的大部分信息,且跟蹤過程中始終能夠準確標定運動物體的實際位置。即便在短暫遮擋后標記范圍出現變化,仍能夠準確圈定目標,保證跟蹤的穩定性。

4.2 測試數據分析

圖4為實驗一環境下,目標實際位置中心點與本文算法標記位置中心點對比圖。實際位置中心點為手動測量:取測試視頻其中200幀,從第20幀起,每隔5幀測量運動目標的最小外接矩形框,求出中心坐標。

將所測實際值按最小二乘法作曲線擬合,與算法標記位置值做平均中心誤差(Average Central Error, ACE),定義為算法標記中心位置與實際中心位置歐式距離的均值,如式(2)(3)所示:

Z表示平均中心誤差;A表示實際中心位置,T表示算法標記中心位置;下標x和y分別表示x方向和y方向;n表示測試的視頻幀數,由公式得出Zx為3.55pixel,Zy為6.215pixel。

圖5為相對速度的變化示意圖。其中實際值為手動測量中心點作最小二乘曲線擬合后逐幀差分后數據作得的圖像??梢钥吹綄嶋H值中有兩個峰值,分析原因,可能是由于障礙物遮擋時,測量到的最小外接矩形框只是運動目標的局部位置導致。由圖中可以看出,在絕大多數跟蹤過程中,本文算法的測試值與實際擬合值在相對速度的誤差其實很小,相對速度在x方向最大誤差為22pixel,平均誤差為1.25pixel,y方向最大誤差為27pixel,平均誤差為2.49pixel。

由實驗結果可得:本文算法在目標跟蹤的準確性和穩定性方面都比傳統算法性能更為優秀,但耗時略高于傳統算法。

5 總結

對于目標跟蹤而言,傳統做法往往是將目標檢測與跟蹤分開進行,采用手動選取目標,雖然對于跟蹤算法來說提高了運行效率,但在智能化方面卻略顯不足。本文采用多幀差分和連通區域搜索篩選的方法,準確檢測運動目標區域,并對跟蹤算法加以改進。實驗證明在物體光照、尺寸大小等發生改變,甚至出現短暫遮擋的情況下,均能穩定完成動目標跟蹤。但由于增加了檢測算法以及對每幀圖片進行特征更新,計算量稍有增加,在運行效率方面仍有待改進。

參考文獻:

[1] 王倩. 圖像運動目標檢測與跟蹤算法研究及應用[D].成都:電子科技大學2015.

[2] Henriques J F, Caseiro R, Martins P. High-speed tracking with kernelized correlation filters[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2015,37(3):583-596.

[3] 郭春鳳. 基于五幀差分法的動態目標檢測新算法[J].重慶科技學院學報:自然科學版,2015(5):87-89.

[4] 施隆照,王凱. 基于連通區域的復雜車牌的字符分割算法[J].計算機工程與設計,2016(8):2138-2142.

[5] 張穎穎,王紅娟,黃義定. 基于MeanShift和粒子濾波的行人目標跟蹤方法[J].計算機與現代化,2012(3):40-43.

[6] 黃清泉,陳亮,龐亮,等. 基于背景加權的聯合顏色紋理直方圖跟蹤算法[J].微型機與應用,2016(01):56-59.

[7] 劉苗,黃朝兵. 基于多特征自適應融合的MeanShift目標跟蹤方法[J].現代計算機:專業版,2016(11):68-72.endprint

主站蜘蛛池模板: 亚洲精品制服丝袜二区| 久久永久精品免费视频| 欧美成人手机在线观看网址| 激情无码视频在线看| 一级爆乳无码av| 不卡无码h在线观看| 自慰网址在线观看| 国产日本欧美在线观看| 熟女日韩精品2区| 日韩麻豆小视频| a亚洲视频| 国产毛片片精品天天看视频| 四虎亚洲国产成人久久精品| 亚洲最新网址| 思思99热精品在线| 亚洲精选高清无码| 无码国内精品人妻少妇蜜桃视频| 99re免费视频| 99在线视频精品| 久久国产拍爱| 8090成人午夜精品| aaa国产一级毛片| 欧美影院久久| 永久在线播放| 九九热这里只有国产精品| 欧美日韩午夜视频在线观看| 2020精品极品国产色在线观看| 97se亚洲综合在线天天| 欧美亚洲国产一区| 欧美中文字幕第一页线路一| 亚洲AV色香蕉一区二区| 72种姿势欧美久久久久大黄蕉| 精品少妇人妻无码久久| 国产成人1024精品下载| 亚洲精品国产综合99| 欧美三级日韩三级| 国产亚洲精品资源在线26u| 欧美日韩一区二区在线免费观看| 色综合天天综合中文网| 91精品亚洲| 久久久久人妻精品一区三寸蜜桃| 欧美综合激情| 色噜噜中文网| 国产日韩丝袜一二三区| 四虎成人免费毛片| 欧美 国产 人人视频| 狠狠做深爱婷婷久久一区| 四虎国产精品永久一区| 国产69精品久久| 欧美成人午夜影院| 精品成人免费自拍视频| 97超级碰碰碰碰精品| 国产欧美日韩精品第二区| 亚洲国产91人成在线| a天堂视频| 91精品视频在线播放| 日本不卡在线视频| 国产色图在线观看| 久久这里只精品国产99热8| 国产精品香蕉| 久久综合亚洲色一区二区三区| 国产呦视频免费视频在线观看| 成人午夜视频免费看欧美| 亚洲大尺码专区影院| 就去色综合| 亚洲欧美成人网| 日韩欧美国产中文| 潮喷在线无码白浆| 特级aaaaaaaaa毛片免费视频| 欧美色香蕉| 91福利一区二区三区| 黄色网站不卡无码| 欧美色香蕉| 成人国产精品2021| 72种姿势欧美久久久大黄蕉| 国产精品亚洲片在线va| 青草娱乐极品免费视频| 多人乱p欧美在线观看| 人妻丰满熟妇啪啪| 91尤物国产尤物福利在线| 亚洲第一黄色网| 国产69精品久久久久孕妇大杂乱 |