999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于全局最小化活動(dòng)輪廓的多目標(biāo)檢測(cè)跟蹤

2010-01-01 00:00:00許毅平周曼麗

摘 要:為了在噪聲干擾以及目標(biāo)和背景顏色相近情況下實(shí)現(xiàn)多目標(biāo)跟蹤,提出一種基于快速全局最小化的活動(dòng)輪廓模型的目標(biāo)檢測(cè)跟蹤算法。該算法結(jié)合了基于邊緣的活動(dòng)輪廓模型和基于區(qū)域的活動(dòng)輪廓模型,對(duì)能量泛函進(jìn)行全局最小化來(lái)檢測(cè)目標(biāo)活動(dòng)輪廓,用卡爾曼濾波預(yù)測(cè)目標(biāo)下一幀的特征信息,然后用改進(jìn)的最近鄰法進(jìn)行多目標(biāo)跟蹤。對(duì)圖像序列的實(shí)驗(yàn)結(jié)果表明該算法能有效地對(duì)運(yùn)動(dòng)背景下多目標(biāo)進(jìn)行跟蹤。

關(guān)鍵詞:活動(dòng)輪廓; 全局最小化; 多目標(biāo)跟蹤; 最近鄰法

中圖法分類號(hào):TP391

文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1001-3695(2010)02-0794-04

doi:10.3969/j.issn.1001-3695.2010.02.111

Multiple objects detecting and tracking based on

global minimization of active contour model

TU Qiu, XU Yi-ping, ZHOU Man-li

(Dept. of Electronics Information Engineering, Huazhong University of Science Technology, Wuhan 430074, China )

Abstract:This paper proposeded a multiple objects detecting and tracking algorithm, which was based on the fast global minimization of active contour model. The algorithm combined edge-based active contours model and region-based active contours into the framework of global minimization the energy functional to detect the objects contours.Predicted the features’ information of the objects using the Kalman filter. Then tracked the multiple objects by using the improved nearest neighbor method. Experimental results demonstrate the efficiency of the proposed approach.

Key words:active contour; global minimization; multiple objects tracking; nearest neighbor method

0引言

運(yùn)動(dòng)背景環(huán)境下運(yùn)動(dòng)目標(biāo)的檢測(cè)和跟蹤一直是計(jì)算機(jī)視覺(jué)研究中的難點(diǎn)和熱點(diǎn)。在目標(biāo)檢測(cè)中,光流法[1]是一種常用方法,該方法通過(guò)計(jì)算光流場(chǎng)并對(duì)光流場(chǎng)進(jìn)行分割來(lái)檢測(cè)和提取目標(biāo),但該方法抗噪性能差。基于均值偏移算法[2](mean shift)的運(yùn)動(dòng)目標(biāo)跟蹤是在基于顏色直方圖的基礎(chǔ)上利用無(wú)參估計(jì)優(yōu)化方法來(lái)定位目標(biāo),適用于任意場(chǎng)景下的目標(biāo)跟蹤,但是該方法通常須結(jié)合其他運(yùn)動(dòng)目標(biāo)檢測(cè)算法,或人為初始化目標(biāo)位置,并且不能提取目標(biāo)的輪廓?;诨顒?dòng)輪廓的目標(biāo)跟蹤首先通過(guò)活動(dòng)輪廓模型將圖像進(jìn)行分割,然后通過(guò)對(duì)分割的圖像區(qū)域進(jìn)行特征提取并與目標(biāo)進(jìn)行特征匹配來(lái)實(shí)現(xiàn)跟蹤。該方法能夠提取跟蹤目標(biāo)的輪廓,并在目標(biāo)存在形變的情形下也可以有效提取目標(biāo)輪廓,完成目標(biāo)跟蹤?;顒?dòng)輪廓由于具有很強(qiáng)的數(shù)學(xué)理論性以及有成熟的數(shù)值實(shí)現(xiàn)方案,目前成為計(jì)算機(jī)視覺(jué)中一個(gè)研究熱點(diǎn)。

活動(dòng)輪廓最初由Kass等人[3]于1988年提出,目前已廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)的各個(gè)研究和應(yīng)用領(lǐng)域,包括邊緣提取、圖像分割和運(yùn)動(dòng)目標(biāo)跟蹤等?;顒?dòng)輪廓模型一般可分為兩類:

a)參數(shù)活動(dòng)輪廓。該算法使用參數(shù)顯式表示輪廓曲線,曲線只能描述一個(gè)連通區(qū)域,因此只適用于單目標(biāo)檢測(cè),并且目標(biāo)輪廓的提取依賴于初始化輪廓,要求初始化輪廓必須接近目標(biāo)實(shí)際邊界?;趨?shù)活動(dòng)輪廓模型,Isard等人[4]提出B-樣條表示活動(dòng)輪廓曲線的CONDENSATION 算法。由于采用參數(shù)化的活動(dòng)輪廓,不可避免地對(duì)初始化輪廓要求靠近目標(biāo)的邊緣,無(wú)法處理目標(biāo)的拓?fù)渥兓?。?/p>

b)幾何活動(dòng)輪廓。一般采用水平集方法實(shí)現(xiàn)目標(biāo)輪廓提取,由于其運(yùn)動(dòng)方程不包含與曲線幾何結(jié)構(gòu)無(wú)關(guān)的參數(shù),能夠自動(dòng)處理曲線在運(yùn)動(dòng)過(guò)程中的拓?fù)浣Y(jié)構(gòu)變化,這使得幾何活動(dòng)輪廓模型更適合多目標(biāo)檢測(cè)。

在幾何活動(dòng)輪廓模型中,人們提出了許多算法。Caselles等人[5]提出了測(cè)地線活動(dòng)輪廓(GAC)模型,將傳統(tǒng)的snakes模型與測(cè)地線相結(jié)合,采用了Osher等人[6]提出的水平集方法實(shí)現(xiàn),使輪廓線能自然地分裂合并。平面的活動(dòng)輪廓曲線用水平集方法隱含地表示為一個(gè)三維曲面中等值的曲線(稱為零水平集),這樣使得活動(dòng)輪廓曲線的拓?fù)渥兓粫?huì)造成三維曲面的拓?fù)渥兓?,因而該方法可以同時(shí)動(dòng)態(tài)檢測(cè)幾個(gè)目標(biāo)而不需要知道場(chǎng)景確切目標(biāo)數(shù)目相關(guān)的先驗(yàn)知識(shí)。但由于GAC方法用到了傳統(tǒng)的snakes模型,它對(duì)輪廓線的初始位置比較敏感,容易陷入局部最小值。Chan等人[7]提出了無(wú)邊緣活動(dòng)輪廓(ACWE)模型,該模型本質(zhì)上是使用分段常數(shù)函數(shù)來(lái)檢測(cè)無(wú)明顯邊緣區(qū)域,實(shí)現(xiàn)目標(biāo)邊界的提取。Mansouri等人[8]提出基于區(qū)域競(jìng)爭(zhēng)和運(yùn)動(dòng)信息來(lái)進(jìn)行運(yùn)動(dòng)目標(biāo)的分割。為了充分利用區(qū)域和邊緣的信息,Paragios等人[9]提出了測(cè)地活動(dòng)區(qū)域的方法,實(shí)現(xiàn)對(duì)多目標(biāo)輪廓的檢測(cè)和跟蹤,但是在檢測(cè)跟蹤多目標(biāo)時(shí),需要多個(gè)模型的耦合完成,導(dǎo)致計(jì)算復(fù)雜。Bresson等人[10]提出了一種將GAC模型與ACWE模型相結(jié)合的全局最小化活動(dòng)輪廓模型,實(shí)現(xiàn)對(duì)靜態(tài)圖像的多目標(biāo)活動(dòng)輪廓提取。

本文在Bresson等人研究的基礎(chǔ)上,將全局最小化活動(dòng)輪廓模型引入到視頻跟蹤應(yīng)用中,提出了一種基于全局最小化活動(dòng)輪廓的多目標(biāo)檢測(cè)和跟蹤方法。該方法首先采用基于全局最小化活動(dòng)輪廓模型對(duì)目標(biāo)輪廓進(jìn)行提取,從而得到多個(gè)目標(biāo);提取目標(biāo)特征,并基于目標(biāo)特征采用改進(jìn)的最近鄰法對(duì)多個(gè)目標(biāo)進(jìn)行匹配,最終實(shí)現(xiàn)對(duì)多個(gè)目標(biāo)的跟蹤。在活動(dòng)輪廓演化過(guò)程中,合適的初始輪廓將有助于改善輪廓演化效率,為此,本文根據(jù)相鄰幀同一目標(biāo)活動(dòng)輪廓相似性特點(diǎn),給出了后續(xù)幀目標(biāo)初始活動(dòng)輪廓的設(shè)置方法,提高了目標(biāo)輪廓演化的速度。

1 多目標(biāo)檢測(cè)跟蹤算法 

運(yùn)動(dòng)目標(biāo)檢測(cè)跟蹤是從當(dāng)前幀分割出幾個(gè)區(qū)域,這些區(qū)域?qū)?yīng)于跟蹤的目標(biāo)。一般來(lái)說(shuō),基于水平集的目標(biāo)檢測(cè)跟蹤是通過(guò)給定的初始輪廓曲線,通過(guò)曲線演化到目標(biāo)輪廓得到目標(biāo)輪廓線,因而也確定了目標(biāo)的區(qū)域。本文提出基于快速全局最小化活動(dòng)輪廓模型的視頻多目標(biāo)檢測(cè)跟蹤算法,算法框圖如圖1所示。該算法主要應(yīng)用于空中拍攝的視頻圖像序列的多目標(biāo)檢測(cè)跟蹤,這類視頻圖像序列的主要特點(diǎn)是目標(biāo)形狀較小,大多數(shù)目標(biāo)間無(wú)遮擋情況。

1.1 活動(dòng)輪廓檢測(cè)

本文采用基于Bresson等人提出的全局最小化的活動(dòng)輪廓的理論模型來(lái)分割目標(biāo)活動(dòng)輪廓,將上一幀目標(biāo)的活動(dòng)輪廓相關(guān)信息作為下一幀目標(biāo)的初始活動(dòng)輪廓信息,并用改進(jìn)的最近鄰法進(jìn)行多目標(biāo)跟蹤。該模型聯(lián)合GAC模型和ACWE模型進(jìn)行全局最小化來(lái)檢測(cè)目標(biāo)邊界。標(biāo)準(zhǔn)GAC模型是基于圖像梯度檢測(cè)目標(biāo)邊界的,而ACWE模型是基于同質(zhì)亮度區(qū)域來(lái)檢測(cè)目標(biāo)邊界,因此本算法結(jié)合了基于邊緣的信息和基于區(qū)域的信息。為了得到活動(dòng)輪廓,最小化下列能量泛函:

E1(u,c1,c2,λ)=∫Ωg(x)|u|dx+λ∫Ω((c1-f(x))2-(c2-f(x))2)udx (1)

式(1)右邊第一項(xiàng)是帶有權(quán)重函數(shù)g的函數(shù)u(分割后的圖像)的總變分TVg(u)。當(dāng)函數(shù)g是邊緣檢測(cè)函數(shù),函數(shù)u是特征函數(shù) ψΩc,式(1)可改寫(xiě)成

E1(u=ψΩc,c1,c2,λ)=∫cgds+λ∫Ω((c1-f(x))2-(c2-f(x))2ψΩcdx=TVg( ψΩc)+λ∫Ωr1(x,c1,c2)ψΩcdx

(2)

因此最小化能量式(2)相當(dāng)于最小化∫cgds=EGAC(C),同時(shí)用兩個(gè)值分別為c1和c2的區(qū)域ΩC和Ω\\ΩC來(lái)近似f(在L2意義上)。這樣能量E1將測(cè)地線模型(式(2)等式右邊第一項(xiàng))與ACWE模型(式(2)等式右邊第二項(xiàng))結(jié)合起來(lái)了,而且可以證明能量E1存在全局最小值。Bresson等人還證明了凸約束最小化問(wèn)題min0≤u≤1{TVg(ψΩc)+λ∫Ωr1(x,c1,c2)udx}與凸的無(wú)約束最小化問(wèn)題min0≤u≤1{TVg(ψΩc)+λ∫Ωr1(x,c1,c2)u+αw(u)dx}具有相同的解。其中w(ξ)=max{0,2|ξ-1/2|-1}是個(gè)懲罰函數(shù),且要求α>λ/2‖r1(x)‖L∞(Ω)。

1.2活動(dòng)輪廓算法的數(shù)值實(shí)現(xiàn)

為了對(duì)上述理論的數(shù)值進(jìn)行快速計(jì)算,采用了基于TV范數(shù)的對(duì)偶形式的快速算法[10]。

將式(2)正則化:

minu,vEr2(u,c1,c2,λ,α,θ)=TVg(u)+12θ‖u-v‖2L2+∫Ωλr1(x,c1,c2)v+αw(v)dx(3)

其中:參數(shù)θ>0為一較小值。因?yàn)榉汉疎r2是凸的,它的最小值可通過(guò)關(guān)于u和v分別最小化Er2計(jì)算得到,迭代直至收斂。因此實(shí)際上是下列最小化問(wèn)題:

a)v固定,搜索u作為式(4)的解。

minu{TVg(u)+12θ‖u-v‖2L2}(4)

b)u固定,搜索v作為式(5)的解。

minv12θ‖u-v‖2L2+∫Ωλr1(x,c1,c2)v+αw(v)dx (5)

式(4)的解是

u=v-θ div p(6)

其中p=(p1,p2)由下式給出:

g(x)(θ div p-v)-|(θ div p-v)|p=0

上式可由不動(dòng)點(diǎn)方法解出:

p0=0

pn+1=pn+δt(div pn-v/θ)1+δtg(x)|(div pn-v/θ)| (7)

式(5)的解由式(8)給出:

v=min{max{u(x)-θλr1(x,c1,c2),0},1}(8)

通過(guò)利用TV范數(shù)的對(duì)偶形式的數(shù)值計(jì)算方法,由于不需要距離函數(shù),因此不需要周期地重新初始化距離函數(shù),大大減小了活動(dòng)輪廓模型的計(jì)算量。

對(duì)于視頻圖像序列中的活動(dòng)輪廓檢測(cè),在幀之間的迭代過(guò)程中利用相鄰幀之間最終分割結(jié)果具有一定相似性,將當(dāng)前幀最終分割信息u和p作為下一幀u和p的初始信息,這樣進(jìn)一步減小了后續(xù)幀的計(jì)算量。

下面給出本文目標(biāo)檢測(cè)跟蹤算法的活動(dòng)輪廓檢測(cè)部分:

a)初始化:u0=0,p0=0,t=0。

b)令t=t+1,設(shè)It是第t幀圖像。

c)計(jì)算邊緣檢測(cè)函數(shù)gt=11+β|(ItGσ)2|。

d)令u0t=ut-1,p0t=pt-1,i=0。

e)令i=i+1,i表示第t幀第i次迭代。

f)根據(jù)式(7)計(jì)算pit;根據(jù)式(6)計(jì)算uit;計(jì)算u≥0.5區(qū)域灰度均值c1;計(jì)算u<0.5區(qū)域灰度均值c2;計(jì)算rit(x,c1,c2)=(It(x)-c1)2+(It(x)-c2)2;根據(jù)式(8)計(jì)算vit。

g)如果 max(|ut-ut-1|)≤ε,則跳至h);否則跳至e)繼續(xù)執(zhí)行下一步迭代。

h)令ut=uit,pt=pit。

i)如果是最后一幀,則結(jié)束;否則跳至b)繼續(xù)下一幀操作。

1.3 多目標(biāo)跟蹤

得到活動(dòng)輪廓曲線后接著進(jìn)行目標(biāo)特征的提取,通過(guò)計(jì)算輪廓的面積、質(zhì)心、外接矩形框等參數(shù)設(shè)置一定閾值,刪除面積過(guò)大或過(guò)小的輪廓曲線,得到目標(biāo)及其相關(guān)特征(目標(biāo)輪廓的面積、目標(biāo)質(zhì)心、目標(biāo)外接矩形框等)。

提取了目標(biāo)及其特征后,使用卡爾曼濾波器預(yù)測(cè)下一幀目標(biāo)特征信息(輪廓的質(zhì)心位置和面積大小等),然后使用改進(jìn)的最近鄰法進(jìn)行匹配,最終實(shí)現(xiàn)對(duì)多目標(biāo)的跟蹤。

卡爾曼濾波器是基于最小均方誤差準(zhǔn)則對(duì)離散數(shù)據(jù)線性濾波的遞歸算法,在導(dǎo)航、目標(biāo)跟蹤中有廣泛的應(yīng)用。本文采用卡爾曼濾波器對(duì)目標(biāo)運(yùn)動(dòng)情況進(jìn)行估計(jì)。首先建立下列系統(tǒng)方程(t時(shí)刻):

xt=Axt-1+wt

其中:wt為系統(tǒng)噪聲,服從N(0,Q)的高斯分布。系統(tǒng)狀態(tài)xt是六維向量[x1,x2,S,Δx1,Δx2,ΔS,]T,分別是目標(biāo)質(zhì)心的x、y軸坐標(biāo)、目標(biāo)面積及它們?cè)讦(相鄰幀間時(shí)間間隔)時(shí)間內(nèi)的變化率。狀態(tài)轉(zhuǎn)移矩陣A為

A=100Δt00

0100Δt0

00100Δt

000100

000010

000001

測(cè)量方程為

zt=Hxt+vt

其中:vt為測(cè)量噪聲,服從N(0,R)的高斯分布。觀測(cè)矩陣H為

H=100000

010000

001000

實(shí)際實(shí)驗(yàn)中的測(cè)量值來(lái)自于用改進(jìn)的最近鄰法找到的匹配目標(biāo)的特征參數(shù)。

預(yù)測(cè)方程:

x^-t=Ax^t-1; P-t=APt-1AT+Q

校正方程:

Kt=P-tHT(HP-tHT+R)-1

x^t=x^-t+Kt(t-Hx^-t)Pt=(I-KtH)P-t

本文采用卡爾曼濾波方程預(yù)測(cè)跟蹤目標(biāo)的下一幀位置與面積,然后使用下面介紹的改進(jìn)的最近鄰法匹配當(dāng)前幀與下一幀的跟蹤目標(biāo),得到跟蹤目標(biāo)的特征參數(shù)作為卡爾曼濾波中的測(cè)量值,再使用卡爾曼濾波校正方程得到校正后的跟蹤目標(biāo)位置和面積。校正后的目標(biāo)特征參數(shù)又可用于目標(biāo)下一幀特征參數(shù)的預(yù)測(cè)。

最近鄰法是測(cè)量跟蹤目標(biāo)下一幀的質(zhì)心的預(yù)測(cè)位置與下一幀每個(gè)檢測(cè)到目標(biāo)質(zhì)心的歐氏距離,距離最小的兩個(gè)目標(biāo)認(rèn)為是同一個(gè)目標(biāo)。本文提出改進(jìn)的最近鄰法,除了使用質(zhì)心之間的距離(采用L1距離),還使用跟蹤目標(biāo)輪廓預(yù)測(cè)面積與檢測(cè)出目標(biāo)輪廓面積之間的距離(即面積差),因此要判斷為同一個(gè)目標(biāo),必須滿足L1距離最小,還要滿足最小L1距離小于某一個(gè)閾值,以及面積差小于某一個(gè)閾值。采用改進(jìn)最近鄰法可排除更多的干擾,使跟蹤算法更具魯棒性。

改進(jìn)的最近鄰法步驟如下(以下跟蹤列表中跟蹤目標(biāo)的位置及面積是經(jīng)過(guò)卡爾曼濾波預(yù)測(cè)的位置及面積):

a)如果是第1幀,則將本幀檢測(cè)出的所有K個(gè)目標(biāo)加入到跟蹤列表,記為O1(1),O2(1),…,OK(1)。

b)否則(假設(shè)是第t幀),在跟蹤列表中有K個(gè)跟蹤目標(biāo),記為O1(t),O2(t),…,OK(t)。

c)計(jì)算t+1幀中目標(biāo)到跟蹤列表中K個(gè)跟蹤目標(biāo)的L1距離和面積差,并按最鄰近規(guī)則進(jìn)行匹配。

設(shè)X為t+1幀某個(gè)目標(biāo),計(jì)算其到跟蹤列表中K個(gè)跟蹤目標(biāo)距離及其面積差:

D1i=‖C-Coi(t)‖L1;i=1,2,…,K

D2i=|S-Soi(t)|;i=1,2,…,K

在同時(shí)滿足D1i

Oj(t+1)=X;否則X作為一個(gè)新的跟蹤目標(biāo)OK+1(t+1)加到跟蹤列表中。

d)刪除跟蹤列表中步驟c)沒(méi)有得到更新的跟蹤目標(biāo),認(rèn)為該跟蹤目標(biāo)消失。

e)重復(fù)c)和d),直到程序結(jié)束。

2 實(shí)驗(yàn)結(jié)果

為了驗(yàn)證本文算法的有效性,在實(shí)驗(yàn)中采用了一個(gè)人工合成圖像序列(圖2)和一個(gè)VIVID[11]中的egtest1測(cè)試圖像序列。

為了驗(yàn)證本文算法的全局最優(yōu)性、算法所依賴的初始條件和計(jì)算速度,在實(shí)驗(yàn)中采用一個(gè)如圖2所示的序列。該圖像序列是開(kāi)始有重疊的兩個(gè)目標(biāo)(圖2中灰色背景下的兩個(gè)矩形物體,分別用A和B標(biāo)記)逐漸分離。其中右邊B目標(biāo)向右運(yùn)動(dòng)逐漸遠(yuǎn)離左邊A目標(biāo)。為了進(jìn)行對(duì)照,還采用了GAC和ACWE模型算法。圖3是GAC模型算法的實(shí)驗(yàn)結(jié)果;圖4是ACWE模型算法的實(shí)驗(yàn)結(jié)果;圖5是本文算法結(jié)果。從圖3(b)中可以看出,采用GAC模型算法會(huì)陷入局部最小值的情況,場(chǎng)景中的兩個(gè)目標(biāo)只作為一個(gè)目標(biāo)檢測(cè)出來(lái)了;而從圖4(b)和圖5(b)中可以看出,ACWE算法和本文算法都可以成功檢測(cè)出兩個(gè)目標(biāo)。對(duì)于初始輪廓線的依賴性實(shí)驗(yàn)中,筆者發(fā)現(xiàn)采用GAC模型的算法比較依賴于初始輪廓線,初始輪廓線需要將目標(biāo)基本全部包圍在里面(圖6(a))或基本完全在目標(biāo)內(nèi)部(圖6(b))才能分割出目標(biāo)來(lái)。對(duì)于采用ACWE模型算法,也需要給出初始輪廓線,采用圖6(a)~(d)所示的初始輪廓線均能較好地分割出目標(biāo),但是其計(jì)算量仍然依賴于初始輪廓線。采用圖6(a)所示的初始輪廓線,迭代次數(shù)要360次;而采用(d)所示的初始輪廓線,迭代次數(shù)高達(dá)29 999次。本文算法不需要初始輪廓線,因此本文算法不依賴于初始輪廓線。從計(jì)算速度來(lái)看,由于本文算法水平集數(shù)值實(shí)現(xiàn)中不需要計(jì)算距離函數(shù),而周期初始化距離函數(shù)是傳統(tǒng)水平集算法中計(jì)算量很大的部分,本文算法大大提高了計(jì)算速度,如表1所示。在賽揚(yáng)1.7 GHz CPU的電腦上,用MATLAB編程,對(duì)于采用GAC模型的算法處理如圖2(a)所示的圖像需要約4 h,5 920次迭代,采用ACWE模型的算法需要約603.8 s,360次迭代,而本文算法只需要6.12 s,11次迭代。由于本文算法在跟蹤視頻序列時(shí),利用相鄰幀的分割結(jié)果的相似性,將上一幀的分割結(jié)果u和p作為當(dāng)前幀u和p的初始化,使得計(jì)算量進(jìn)一步減小,如在處理egtest1圖像序列中平均只要120次迭代(不包括首幀圖像),否則需要380次迭代。

為了驗(yàn)證本算法在目標(biāo)與背景顏色相近情況及噪聲情況下的性能,在實(shí)驗(yàn)中采用egtest1測(cè)試圖像序列。首先使用mean shift跟蹤算法跟蹤一輛灰色車輛,如圖7(a)中圓圈所標(biāo)記的車輛。由于目標(biāo)與背景顏色的相似性,導(dǎo)致跟蹤失敗。從圖7可看出,到第590幀時(shí)跟蹤完全失敗(其中圖7(b)~(f)中與圓圈相交的曲線是算法跟蹤目標(biāo)的軌跡)。為了研究噪聲情況下的跟蹤,將噪聲加入圖像序列,加入的是均值為0。方差0.25的高斯噪聲。先用mean shift算法跟蹤噪聲情況下的紅色車輛,如圖8(a)圓圈所標(biāo)記車輛,即對(duì)應(yīng)未加噪聲時(shí)圖7(a)矩形框所標(biāo)記車輛,跟蹤過(guò)程如圖8所示。到第583幀,如圖8(f)所示,真實(shí)紅色車輛目標(biāo)位置是矩形框所標(biāo)記的位置,而算法跟蹤的位置是圓圈所標(biāo)記的位置,可以看出跟蹤失敗。而本文算法跟蹤過(guò)程如圖9所示。在加有噪聲情況下,本文算法成功地跟蹤了包括紅色車輛和灰色車輛在內(nèi)的多個(gè)目標(biāo)。實(shí)驗(yàn)中本文算法的參數(shù)選取如下:T=20;β=7.7×10-2;θ=0.14;

λ=3.5×10-5;δt=0.125;ε=0.01。

3 結(jié)束語(yǔ)

綜上所述,本文提出的算法可以對(duì)多個(gè)運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè)跟蹤,能自然地處理運(yùn)動(dòng)目標(biāo)的拓?fù)湫巫儯粫?huì)陷入局部最小值,計(jì)算量小,在噪聲情況下仍能對(duì)多個(gè)運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè)跟蹤。然而,該算法也存在一些需要改進(jìn)的地方,當(dāng)背景比較復(fù)雜時(shí),會(huì)檢測(cè)到虛假目標(biāo);另外算法效率還有待進(jìn)一步提高,這些都是今后的研究所要考慮的。

參考文獻(xiàn):

[1]裴繼紅,盧宗慶,謝維信. 基于圖像梯度場(chǎng)序列的雙向GDIM光流計(jì)算方法[J]. 電子學(xué)報(bào), 2007,35(7): 1301-1305.

[2]王玉全, 夏桂華, 趙國(guó)良. 一種自適應(yīng)色彩融合的mean shift跟蹤算法[J].計(jì)算機(jī)應(yīng)用研究, 2008,25(9): 2875-2877,2880.

[3]KASS M, WITKIN A, TERZOPOULOS D. Snakes: active contour models[J]. International Journal of Computer Vision, 1988,1(4): 321-331.

[4]ISARD M, BLAKE A.CONDENSATION-conditional density propagation for visual tracking[J]. International Journal of Computer Vision, 1998,29(1): 5-28.

[5]CASELLES V, KIMMEL R, SAPIRO G.Geodesic active contours[J]. International Journal of Computer Vision, 1997,22(1):61-79.

[6]OSHER S, SETHIAN J A. Fronts propagating with curvature-dependent speed: algorithms based on hamilton-jacobi formulations[J]. Journal of Computational Physics, 1988,79(1): 12-49.

[7]CHAN T F, VESE L A. Active contours without edges[J]. IEEE Trans on Image Processing, 2001,10(2): 266-277.

[8]MANSOURI A R, KONRAD J. Multiple motion segmentation with level sets[J]. IEEE Trans on Image Processing, 2003,12(2): 201-220.

[9]PARAGIOS N, DERICHE R. Geodesic active regions and level set methods for motion estimation and tracking[J]. Computer Vision and Image Understanding, 2005,97(3): 259-282.

[10]BRESSON X, ESEDOGLU S, VANDERGHEYNST P, et al. Fast global minimization of the active contour/snake model[J]. Journal of Mathematical Imaging and Vision, 2007,28(2):151-167.

[11]COLLINS R, ZHOU Xu-hui, TEH S K. An open source tracking testbed and evaluation Web site[C]//IEEE International Workshop on Performance Evaluation of Tracking and Surveillance.2005.

主站蜘蛛池模板: 久久久波多野结衣av一区二区| 亚洲精品成人福利在线电影| 国产精品自在拍首页视频8| 成人午夜亚洲影视在线观看| 国产精品不卡永久免费| 丰满的少妇人妻无码区| 人禽伦免费交视频网页播放| 华人在线亚洲欧美精品| 日韩黄色精品| 亚洲福利片无码最新在线播放| 亚洲精品中文字幕午夜| 国产精品自在线拍国产电影| 色老头综合网| 国产成人免费观看在线视频| 极品国产在线| 亚洲婷婷在线视频| 欧美精品v欧洲精品| 一本大道在线一本久道| 中字无码av在线电影| 9cao视频精品| www.av男人.com| 天堂亚洲网| 國產尤物AV尤物在線觀看| 亚亚洲乱码一二三四区| 1769国产精品视频免费观看| 亚洲精品麻豆| 国产美女91视频| 无遮挡国产高潮视频免费观看| 国产99热| 亚洲欧美日韩另类在线一| 欧美亚洲国产精品久久蜜芽| 久久久久夜色精品波多野结衣| AV不卡国产在线观看| 一区二区三区高清视频国产女人| 欧洲av毛片| 国产最新无码专区在线| 亚洲成a人片| 老色鬼久久亚洲AV综合| 中国黄色一级视频| 无码福利视频| 久久久久无码精品国产免费| 国产91无毒不卡在线观看| 国产精品欧美激情| 亚洲婷婷在线视频| h视频在线播放| 亚洲欧美日韩色图| 欧美区一区| 国产va免费精品| av在线5g无码天天| jizz亚洲高清在线观看| 免费人欧美成又黄又爽的视频| 亚洲国产无码有码| 国产白浆在线| 97国产精品视频自在拍| 美女内射视频WWW网站午夜| 2021亚洲精品不卡a| 久久性妇女精品免费| 91无码人妻精品一区二区蜜桃| 久久久久久久久久国产精品| 欧美日韩免费观看| 欧美另类第一页| 欧美综合在线观看| 精品人妻无码区在线视频| 国产情侣一区| 亚洲精品无码av中文字幕| 999国产精品永久免费视频精品久久 | 久热中文字幕在线| 国产丝袜第一页| 国产欧美另类| 波多野结衣一区二区三区AV| 91青草视频| 爱色欧美亚洲综合图区| 国产成人亚洲无码淙合青草| 高清免费毛片| 内射人妻无码色AV天堂| 在线视频亚洲色图| lhav亚洲精品| 免费在线视频a| 国产美女人喷水在线观看| 久久综合AV免费观看| 国产精品入口麻豆| 在线毛片免费|