999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于像素自適應(yīng)背景建模的運(yùn)動(dòng)目標(biāo)分割

2018-03-19 05:56:29李宗民張洲凱劉玉杰
關(guān)鍵詞:前景背景方法

李宗民,張洲凱,劉玉杰

(中國(guó)石油大學(xué) 計(jì)算機(jī)與通信工程學(xué)院,山東 青島 266580)

0 引 言

視頻目標(biāo)分割技術(shù)[1]近幾十年經(jīng)歷了很大的發(fā)展。最早的方法有背景減除法和幀差法,后來(lái)相繼提出了基于卡爾曼濾波、基于光流的方法、基于高斯混合模型的方法、基于背景建模的方法等。總體上經(jīng)歷了從基于空域、基于時(shí)域到基于時(shí)空聯(lián)合特征的流程。雖然取得了一定的效果,但是仍然有很多問(wèn)題沒(méi)有得到完美地解決,如陰影、鬼影、遮擋和動(dòng)態(tài)背景等。大多數(shù)方法分割精度并不是很高或者難以滿足實(shí)時(shí)性。基于像素背景建模的方法具有模型簡(jiǎn)單,更新分割快和分割精度高的特點(diǎn),具有更好的實(shí)用意義。此類方法一般以顏色值和梯度信息作為像素的特征,缺少空間信息,不能表達(dá)出像素之間的時(shí)空連續(xù)性,因此只能在后續(xù)步驟中對(duì)像素進(jìn)行鄰域內(nèi)的信息整合處理,使分割得到的區(qū)域盡可能保持一致。基于像素背景建模的方法主要有:ViBe、SACON、PBAS[2]。其中PBAS借鑒了之前工作的優(yōu)點(diǎn),不但實(shí)現(xiàn)了背景模型更新,還可以動(dòng)態(tài)調(diào)整分割的閾值和模型的更新速率,取得了很好的分割效果,但是對(duì)于背景變化較快,存在光照或者陰影的情況,PBAS的分割效果也不夠理想,而且難以消除鬼影區(qū)域。

本文主要針對(duì)PBAS方法存在的缺陷進(jìn)一步改進(jìn)。首先,針對(duì)模型更新機(jī)制進(jìn)行了改進(jìn),使更新的響應(yīng)更加靈活和可靠;其次,根據(jù)像素判定為前景點(diǎn)次數(shù)去除鬼影點(diǎn),將邊界前景像素和鄰域背景模型作二次比較,確定是否為鬼影;通過(guò)陰影檢測(cè)去除陰影。在CDnet 2014[3]數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)和PBAS進(jìn)行對(duì)比,驗(yàn)證改進(jìn)后的效果。

1 相關(guān)工作

大多數(shù)視頻序列運(yùn)動(dòng)目標(biāo)分割方法的主要依據(jù)是:在攝像機(jī)固定的情況下,當(dāng)前幀和參考背景的差異可以反映出運(yùn)動(dòng)目標(biāo)。這樣處理的優(yōu)點(diǎn)是無(wú)需先驗(yàn)知識(shí)。和基于目標(biāo)檢測(cè)的方法不同,這類方法可以得到運(yùn)動(dòng)目標(biāo)的精確邊緣,而非僅僅是一個(gè)約束框。然而,由于在真實(shí)條件下,由于視頻背景的動(dòng)態(tài)變化特性,一般需要建立視頻背景模型。

最早的背景建模雛形是背景減除法,這種方法比較簡(jiǎn)單,效果也很差。為了增強(qiáng)算法對(duì)環(huán)境的適應(yīng)能力,部分學(xué)者提出了自適應(yīng)背景建模的方法。最早的自適應(yīng)方法使用像素均值和卡爾曼濾波的方法創(chuàng)造參數(shù)化背景模型,用于背景的比較。這類方法對(duì)于噪聲較為魯棒,可以緩慢地適應(yīng)全局光照變化,但是對(duì)于陰影和多模態(tài)背景處理效果不佳。為了解決多模態(tài)的問(wèn)題,高斯混合模型GMM (Gaussian mixture models)被應(yīng)用于動(dòng)態(tài)背景建模,并得到廣泛的應(yīng)用。文獻(xiàn)[4]提出的方法依賴一個(gè)混合多層系統(tǒng):融合了基于通量張量的運(yùn)動(dòng)檢測(cè)和分割高斯混合模型的分類結(jié)果,通過(guò)目標(biāo)層的處理區(qū)分固定前景目標(biāo)和鬼影區(qū)域,并且取得了不錯(cuò)的效果,但是方法較為耗時(shí)。基于核密度估計(jì)的方法采用了非參數(shù)模型,直接由像素的顏色值估計(jì)背景概率密度函數(shù)。然而大多數(shù)的基于核密度估計(jì)的方法由于獲得的觀測(cè)值有限,制約了模型的精度。文獻(xiàn)[5]中提出了一種隨機(jī)采樣方法,并在文獻(xiàn)[6]中得到了改進(jìn),此類方法通過(guò)將模型用觀測(cè)得到的值隨機(jī)替換的方法解決了上述的方法存在的問(wèn)題。此外還有基于碼本的方法,將觀測(cè)值聚類得到碼字保存到局部字典內(nèi),這樣就可以把長(zhǎng)期的觀測(cè)結(jié)果保存在背景模型之中。文獻(xiàn)[7]中引入了人工神經(jīng)網(wǎng)絡(luò),并且在多個(gè)場(chǎng)景下實(shí)現(xiàn)了不錯(cuò)的效果。然而,此類方法需要預(yù)訓(xùn)練過(guò)程,這無(wú)疑增加了算法的復(fù)雜性和難度。針對(duì)這一問(wèn)題,文獻(xiàn)[8]中采用了基于二元節(jié)點(diǎn)的無(wú)權(quán)神經(jīng)網(wǎng)絡(luò)進(jìn)行在線學(xué)習(xí)。除此之外,其它的方法則通過(guò)基于連接元的高級(jí)正則化技術(shù),超像素和馬爾可夫隨機(jī)場(chǎng)[9],靜態(tài)目標(biāo)檢測(cè)[10]來(lái)改進(jìn)分割的區(qū)連續(xù)性。一些方法采用區(qū)域?qū)覽11],幀層級(jí)或者兩者融合[12]的對(duì)比,利用鄰域像素進(jìn)行背景的建模。文獻(xiàn)[13]中首先進(jìn)行超像素預(yù)分割,通過(guò)超像素確立運(yùn)動(dòng)區(qū)域,結(jié)合高斯混合模型的精細(xì)分割和局部圖割獲得目標(biāo)的精確結(jié)果,相比基于光流的方法更加高效。文獻(xiàn)[14]中同時(shí)考慮將分割和光流估計(jì)相結(jié)合,通過(guò)分割的結(jié)果對(duì)光流估計(jì)的結(jié)果進(jìn)行糾正,從而使分割的精度得到提高。文獻(xiàn)[15]提出一種基于參數(shù)化曲線模型對(duì)目標(biāo)邊界進(jìn)行表達(dá),通過(guò)對(duì)邊界的穩(wěn)定性進(jìn)行觀測(cè),確定前景目標(biāo)。文獻(xiàn)[16]采用非監(jiān)督的迭代方法生成目標(biāo)的區(qū)域,在生成約束框的基礎(chǔ)上,不斷精煉結(jié)果,獲取像素級(jí)的分割結(jié)果。文獻(xiàn)[17]中首先生成推薦目標(biāo),通過(guò)在構(gòu)建的有向帯權(quán)圖上求取最大路徑,獲取最可能為前景目標(biāo)的區(qū)域,最后通過(guò)基于圖割的方法得到精確的分割結(jié)果,計(jì)算的復(fù)雜度較大。文獻(xiàn)[18]受深度學(xué)習(xí)在追蹤中應(yīng)用的影響,將深度學(xué)習(xí)的方法應(yīng)用于視頻目標(biāo)分割。利用靜態(tài)圖像訓(xùn)練的卷積網(wǎng)絡(luò)檢測(cè)目標(biāo)的區(qū)域,指導(dǎo)分割的進(jìn)行;利用在線和離線學(xué)習(xí)的方法,可以在對(duì)目標(biāo)進(jìn)行估計(jì)的同時(shí),獲取特定目標(biāo)的外觀特征。

上述的方法總體來(lái)說(shuō)取得了很大的進(jìn)步,但是計(jì)算的模型和求解步驟非常復(fù)雜。視頻目標(biāo)分割作為視頻處理的基礎(chǔ)對(duì)實(shí)時(shí)性要求很高,上述的大多數(shù)方法在實(shí)際應(yīng)用中很難得到推廣。

基于單像素進(jìn)行背景建模的方法把歷史背景像素存儲(chǔ)在模型內(nèi),通過(guò)隨機(jī)替換的方法更新背景模型,動(dòng)態(tài)地調(diào)整更新速率。其中,PBAS[2]方法分割速度較快,更能滿足實(shí)時(shí)處理的實(shí)際需求,但是,對(duì)于難以解決鬼影、陰影和動(dòng)態(tài)背景等問(wèn)題,分割效果還有待進(jìn)一步提高。

2 PBAS算法

PBAS運(yùn)動(dòng)目標(biāo)分割是一個(gè)基于像素進(jìn)行背景建模的方法,通過(guò)保存每個(gè)像素的歷史像素值作為背景的模型,將當(dāng)前幀的每個(gè)像素和背景模型進(jìn)行比較來(lái)判定前景背景,為了保證算法的魯棒性,還對(duì)模型進(jìn)行連續(xù)地更新,使之適應(yīng)背景的變化,并且不斷更新決策閾值和模型的學(xué)習(xí)率。算法的整體流程如圖1所示。

2.1 背景模型與決策

PBAS對(duì)視頻幀中的每個(gè)像素建立一個(gè)長(zhǎng)度為N的背景模型,保存的是N個(gè)歷史背景像素值,因此每個(gè)像素的背景模型中都包含了該像素可能出現(xiàn)的像素值特征,模型如下

B(xi)={B1(xi),…,Bk(xi),…,BN(xi)}

(1)

如果輸入幀Ii中像素xi的值和背景模型中的N個(gè)歷史像素值中至少有#min個(gè)相近,則判定為背景點(diǎn),否則為前景點(diǎn),像素值和歷史像素值的比較通過(guò)決策閾值R(xi)確定,定義如下

(2)

式中:F=1表示判定為前景點(diǎn),R(xi)是每個(gè)像素自己的決策閾值,#min是像素和背景模型中元素至少相同的個(gè)數(shù)。

圖1 PBAS流程

2.2 背景模型的更新

傳統(tǒng)的方法不對(duì)背景模型進(jìn)行更新,因此模型中包含的像素值是不變的,這就使得在環(huán)境發(fā)生變化的時(shí)候,如光照變化,背景的實(shí)際值發(fā)生了變化,從而導(dǎo)致決策結(jié)果出錯(cuò)。為了提高算法的魯棒性,PBAS在決策過(guò)后都會(huì)對(duì)背景模型更新。如果當(dāng)前像素判定為背景點(diǎn),則隨機(jī)地選擇其背景模型中N個(gè)值中的一個(gè),用當(dāng)前像素值替換更新,同時(shí),在鄰域中隨機(jī)選擇一個(gè)像素的背景模型用當(dāng)前值進(jìn)行更新。背景模型的更新速率為p=1/T(xi), 參數(shù)T(xi)決定了背景模型的更新概率。因此,模型是否更新是個(gè)隨機(jī)選擇的過(guò)程,T(xi)越大則更新概率越小,更新的速度也就會(huì)越慢。

2.3 決策閾值的更新

(3)

式中:Rinc/dec,Rscale——固定參數(shù),用于調(diào)節(jié)R(xi)。

2.4 學(xué)習(xí)率的更新

像素的背景模型只保存背景像素,所以只有判定為背景模型才對(duì)背景模型進(jìn)行更新,同時(shí)對(duì)鄰域中的一個(gè)隨機(jī)挑選的像素的背景模型進(jìn)行更新。這樣更新的結(jié)果就是前景目標(biāo)的邊緣像素會(huì)不斷地融入到背景中,更新速率決定了融入的速度。學(xué)習(xí)率T(xi)的更新方式如下

(4)

其中,Tinc,Tdec為固定參數(shù)。學(xué)習(xí)率的上下界為(Tlower,Tupper)。

3 本文方法

3.1 更新方式改進(jìn)

視頻的背景由于環(huán)境突變(如:風(fēng)吹動(dòng)樹(shù)葉,車輛增多)產(chǎn)生誤檢時(shí),很容易向背景模型里引入錯(cuò)誤的像素值,影響后續(xù)的分割結(jié)果,因此必須迅速地降低背景的更新速度;而當(dāng)背景環(huán)境趨于穩(wěn)定的時(shí)候應(yīng)該緩慢的提高背景模型更新的速率,這樣可以盡最大限度的保證背景模型的及時(shí)更新。而PBAS中采用的閾值決策方式并不能及時(shí)進(jìn)行響應(yīng),因此本文提出對(duì)于閾值和環(huán)境復(fù)雜度應(yīng)采用下式關(guān)系進(jìn)行閾值調(diào)節(jié)判定,提高響應(yīng)速度

(5)

(6)

3.2 鬼影處理

如果初始幀中存在前景目標(biāo),初期的背景模型會(huì)包含前景像素的信息,導(dǎo)致后續(xù)幀中不斷將背景錯(cuò)分為前景,產(chǎn)生難以消除的“前景”區(qū)域,這稱為“鬼影”。通過(guò)分析發(fā)現(xiàn),鬼影通常在一個(gè)區(qū)域長(zhǎng)時(shí)間停留,鬼影的像素和周圍的背景往往是相似的,因此基于這兩點(diǎn)分析,本文提出了對(duì)于鬼影的處理方法。

首先對(duì)前景建立前景統(tǒng)計(jì)圖,統(tǒng)計(jì)每個(gè)像素判定為前景的時(shí)間長(zhǎng)度,當(dāng)時(shí)間超過(guò)一定的長(zhǎng)度則判定為鬼影,并歸為背景,同時(shí)更新背景模型。

其次對(duì)于判定為非背景的像素,如果鄰域的像素yi為背景,則與鄰域像素yi背景模型B(yi)進(jìn)行二次對(duì)比判斷是否為背景,進(jìn)一步降低鬼影點(diǎn)數(shù)目,提高結(jié)果的可靠性

(7)

圖2為blizzard中的片段示例,4幅圖依次是:輸入圖像、groundtruth、PBAS結(jié)果和加入鬼影檢測(cè)的結(jié)果。視頻開(kāi)始存在前景目標(biāo),造成了后續(xù)幀中存在鬼影。通過(guò)加入鬼影檢測(cè),鬼影得到了更快地消除。

圖2 鬼影去除效果

3.3 陰影檢測(cè)

為了進(jìn)一步消除陰影帶來(lái)的影響,本文采用文獻(xiàn)[1]中的基于顏色不變量的移動(dòng)陰影檢測(cè)算法進(jìn)行陰影的檢測(cè)與消除。像素的顏色不變特征計(jì)算如下所示

(8)

式(8)中的R(i)、G(i)、B(i)代表像素的RGB值,通過(guò)將像素和對(duì)應(yīng)背景模型比較可得D(i)

(9)

對(duì)D(i)的值和RGB值分析進(jìn)行背景判別,判別準(zhǔn)則見(jiàn)表1。

表1 判別準(zhǔn)則約定

表1中,α是允許方差波動(dòng)范圍的閾值參數(shù),fbackground、fforeground和fshadow是前景、背景和陰影的決策閾值。

圖3為cubicle中的片段示例,視頻中由于光照影響,存在大量陰影。通過(guò)加入陰影檢測(cè),算法能夠更好地識(shí)別和消除了人腳下的陰影區(qū)域,前景分割結(jié)果更加理想。

圖3 陰影檢測(cè)效果對(duì)比

4 實(shí)驗(yàn)結(jié)果及分析

實(shí)驗(yàn)環(huán)境為Intel i3 2100,處理器主頻為3.1GHz,系統(tǒng)內(nèi)存為8G,軟件環(huán)境為VS2013,OpenCV2.4.8。

4.1 定性分析

首先對(duì)算法進(jìn)行定性分析。為了驗(yàn)證算法的有效性,我們?cè)贑Dnet2014數(shù)據(jù)集上將改進(jìn)后的方法和PBAS進(jìn)行了對(duì)比。CDnet2014數(shù)據(jù)集包含11個(gè)視頻類,每個(gè)類對(duì)應(yīng)不同的視頻類型,用于測(cè)試方法在不同情況下地分割方法,每個(gè)類中包含若干個(gè)視頻。

圖4到圖9分別顯示了部分實(shí)驗(yàn)結(jié)果的對(duì)比情況。第一列圖像是數(shù)據(jù)集中的原始圖像;第二列圖像表示groundtruth;第三列是用PBAS的分割結(jié)果;第四列圖像為用本文改進(jìn)后PBAS方法的分割結(jié)果。

圖4 baseline

圖4中是baseline中的highway的對(duì)比結(jié)果,路旁的樹(shù)木陰影會(huì)隨著枝葉的搖擺而運(yùn)動(dòng),造成前景和背景的快速變化,這對(duì)于模型是一個(gè)很大的挑戰(zhàn),圖中的車頂部分的分割結(jié)果有部分殘缺。相比之下,經(jīng)過(guò)改進(jìn)以后,方法更加可靠,車頂部分的分割結(jié)果也十分的完整。視頻上方駛來(lái)的車輛和攝像機(jī)距離較遠(yuǎn),因此較為模糊,這就造成了分割的結(jié)果有大量的殘缺,但是改進(jìn)后的方法也可以很好地分割出來(lái),可見(jiàn)對(duì)于陰影和遠(yuǎn)距離目標(biāo),本文的方法都可以更好地解決。

圖5是office的對(duì)比結(jié)果,主要挑戰(zhàn)來(lái)自于光照的影響產(chǎn)生的陰影和反光,并且視頻中的人會(huì)有移動(dòng)中的短暫靜止,這就容易產(chǎn)生鬼影現(xiàn)象。而且目標(biāo)移速較慢,很容易造成前景消失,所以PBAS分割結(jié)果并不完整。由于算法采用了更為魯棒的模型更新方式,所以更快地進(jìn)行模型更新,提高了前景判斷精度,能夠更好地分割出前景目標(biāo)效果更加理想。

圖5 office

圖6是PETS2006視頻序列的對(duì)比結(jié)果,該視頻的主要問(wèn)題是存在反光,由于距離影響,遠(yuǎn)處目標(biāo)不夠清晰,而且目標(biāo)存在間歇性的運(yùn)動(dòng),通過(guò)對(duì)比可以看出本文的方法在有反光的影響下也能更好地分割前景目標(biāo)。可見(jiàn)對(duì)于模糊目標(biāo)和間歇性運(yùn)動(dòng)目標(biāo),本文的方法效果更佳。

圖6 PETS2006

圖7是dynamicBackground中canoe的對(duì)比結(jié)果,在該實(shí)例中,水面的波動(dòng)會(huì)產(chǎn)生閃動(dòng)的亮點(diǎn),使分割結(jié)果內(nèi)存在大量的噪聲和孤點(diǎn),由于船上的人物不斷運(yùn)動(dòng),顏色和背景相近且較為模糊,所以分割難度很大。原方法在分割船體的時(shí)候不夠完整,人物肢體則無(wú)法分割,而改進(jìn)后的方法不但能夠很好的分割船體,而且還能夠把人物很好的分割出來(lái)。

圖7 canoe

圖8是shadow中的cubicle視頻序列的對(duì)比結(jié)果。在該視頻序列中主要問(wèn)題是陰影和反光。 PBAS方法部分肢體分割不完整,而本文的方法卻可以獲得更加完整的肢體部分,并且遠(yuǎn)處的目標(biāo)分割效果也更好。

圖8 cubicle

圖9中是blizzard視頻序列的對(duì)比結(jié)果。blizzard中,場(chǎng)景較為模糊,而且車輛目標(biāo)和背景的顏色部分相似,很容易造成前景誤分為背景,在目標(biāo)較遠(yuǎn)是尤其明顯。如圖所示,PBAS將車窗和左側(cè)的部分誤分為背景部分,而本文的方法得到了更加精確的結(jié)果。

圖9 blizzard

實(shí)驗(yàn)結(jié)果表明,該方法對(duì)于場(chǎng)景中存在的干擾更加魯棒,對(duì)于接近背景的前景部分判斷能力更強(qiáng),受到反光和陰影更小,對(duì)于細(xì)小目標(biāo)也能夠?qū)崿F(xiàn)更為精確的分割,模型的更新效率更高,能夠提取出比較完整而準(zhǔn)確的前景對(duì)象,其性能要優(yōu)于PBAS方法,能夠達(dá)到更好的效果。

4.2 定量分析

較早的基于像素建模的方法相比PBAS效果差距較大,因此我們只對(duì)PBAS和本文中提出的方法進(jìn)行了定量分析評(píng)估,共采用了5個(gè)標(biāo)準(zhǔn):Recall,Specificity,F(xiàn)PR,F(xiàn)NR,F(xiàn)-measure,各個(gè)指標(biāo)的含義在式(10)中做了詳細(xì)說(shuō)明。

TP:正確前景

FP:錯(cuò)誤前景

FN:錯(cuò)誤背景

TN:正確背景

Re(Recall):TP/(TP+FN)

Sp(Specficity):TN/(TN+FP)

FPR(FalsePositiveRate):FP/(FP+TN)

FNR(FalseNegativeRate):FN/(TP+FN)

F-measure:

(2*Precision*Recall)/(Precision+Recall)

(10)

實(shí)驗(yàn)的結(jié)果在表2中列出,bw、bl、io、sd和tm分別表示CDnet2014數(shù)據(jù)集中的幾個(gè)視頻類的名稱縮寫:BadWeather、baseline、Intermittent ObjectMotion、shadow和thermal,oa表示總體平均水平。粗體數(shù)據(jù)是改進(jìn)后算法對(duì)應(yīng)的每個(gè)視頻類結(jié)果。本文中的方法得到的實(shí)驗(yàn)結(jié)果的Recall均高于PBAS得到的結(jié)果,平均高出0.1172;Specificity和PBAS得到的值相近;FPR略高于PBAS,但是FNR明顯優(yōu)于PBAS的實(shí)驗(yàn)值,平均低。由此可見(jiàn),通過(guò)改進(jìn)閾值更新機(jī)制,引入鬼影檢測(cè)和陰影檢測(cè),本文中的方法對(duì)目標(biāo)的分割效果相比PBAS方法,得到了進(jìn)一步提高。

表2 CDnet2014部分實(shí)驗(yàn)結(jié)果

5 結(jié)束語(yǔ)

本文中通過(guò)對(duì)PBAS的背景更新機(jī)制進(jìn)行改進(jìn),使閾值的調(diào)整更加的魯棒,獲取的閾值相比之前也更為精確,因此明顯減少了前景背景的誤分,提高了精度;對(duì)前景進(jìn)行二次檢測(cè)和判定為前景次數(shù)進(jìn)行控制,減少鬼影對(duì)于分割結(jié)果造成的影響;用基于顏色不變量的移動(dòng)陰影檢測(cè)識(shí)別陰影區(qū)域,提高對(duì)前景的分割精度。實(shí)驗(yàn)結(jié)果中的定性和定量分析表明,本文的方法相比之前的方法精度有了明顯的提高,魯棒性更好。

[1]LI Zongmin,GONG Xuchao,LIU Yujie.Research on video object segmentation based on multi-feature jointed modeling[J].Journal of Computer,2013,36(11):2356-2363(in Chinese).[李宗民,公緒超,劉玉杰.多特征聯(lián)合建模的視頻對(duì)象分割技術(shù)研究[J].計(jì)算機(jī)學(xué)報(bào),2013,36(11):2356-2363.]

[2]Hofmann M,Tiefenbacher P,Rigoll G.Background segmentation with feedback:The pixel-based adaptive segmenter[C]//Computer Society Conference on Computer Vision and Pattern Recognition Workshops.Providence:IEEE,2012:38-43.

[3]Wang Y,Jodoin P M,Porikli F,et al.CDnet 2014:An expanded change detection benchmark dataset[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops.Columbus:IEEE,2014:387-394.

[4]Wang R,Bunyak F,Seetharaman G,et al.Static and moving object detection using flux tensor with split Gaussian models[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops.Columbus:IEEE,2014:414-418.

[5]Van Droogenbroeck M,Paquot O.Background subtraction:Experiments and improvements for ViBe[C]//IEEE Compu-ter Society Conference on Computer Vision and Pattern Recognition Workshops.Providence:IEEE,2012:32-37.

[6]St-Charles P L,Bilodeau G A,Bergevin R.Flexible background subtraction with self-balanced local sensitivity[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops.Columbus:IEEE,2014:408-413.

[7]Maddalena L,Petrosino A.The SOBS algorithm:What are the limits?[C]//Computer Society Conference on Computer Vision and Pattern Recognition Workshops.Providence:IEEE,2012:21-26.

[8]De Gregorio M,Giordano M.Change detection with weightless neural networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops.Columbus:IEEE,2014:403-407.

[9]Schick A,B?uml M,Stiefelhagen R.Improving foreground segmentations with probabilistic superpixel Markov random fields[C]//Computer Society Conference on Computer Vision and Pattern Recognition Workshops.Providence,Rhode Island:IEEE,2012:27-31.

[10]Morde A,Ma X,Guler S.Learning a background model for change detection[C]//Computer Society Conference on Computer Vision and Pattern Recognition Workshops.Providence:IEEE,2012:15-20.

[11]Jodoin J P,Bilodeau G A,Saunier N.Background subtraction based on local shape[EB/OL].[2017-03-10].https://arxiv.org/pdf/1204.6326.pdf.

[12]Nonaka Y,Shimada A,Nagahara H,et al.Evaluation report of integrated background modeling based on spatio-temporal features[C]//Computer Society Conference on Computer Vision and Pattern Recognition Workshops.Providence:IEEE,2012:9-14.

[13]Giordano D,Murabito F,Palazzo S,et al.Superpixel-based video object segmentation using perceptual organization and location prior[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Boston:IEEE,2015:4814-4822.

[14]Tsai Y H,Yang M H,Black M J.Video segmentation via object flow[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas:IEEE,2016:3899-3908.

[15]Lu Y,Bai X,Shapiro L,et al.Coherent parametric contours for interactive video object segmentation[C]//Procee-dings of the IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas:IEEE,2016:642-650.

[16]Xiao F,Jae Lee Y.Track and segment:An iterative unsupervised approach for video object proposals[C]//Procee-dings of the IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas:IEEE,2016:933-942.

[17]Zhang D,Javed O,Shah M.Video object segmentation through spatially accurate and temporally dense extraction of primary object regions[C]//Proceedings of the IEEE Confe-rence on Computer Vision and Pattern Recognition.Portland:IEEE,2013:628-635.

[18]Khoreva A,Perazzi F,Benenson R,et al.Learning video object segmentation from static images[EB/OL].[2017-03-10].https://arxiv.org/pdf/1612.02646.pdf.

猜你喜歡
前景背景方法
“新四化”背景下汽車NVH的發(fā)展趨勢(shì)
我國(guó)旅游房地產(chǎn)開(kāi)發(fā)前景的探討
法德軸心的重啟及前景
《論持久戰(zhàn)》的寫作背景
離岸央票:需求與前景
晚清外語(yǔ)翻譯人才培養(yǎng)的背景
量子糾纏的來(lái)歷及應(yīng)用前景
太空探索(2016年10期)2016-07-10 12:07:01
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 中文字幕永久在线观看| 亚洲综合二区| 激情综合婷婷丁香五月尤物| 亚洲成AV人手机在线观看网站| 老司国产精品视频| 色综合成人| 中国成人在线视频| 婷婷激情亚洲| 亚洲色欲色欲www网| 波多野结衣无码AV在线| 亚洲国产欧美目韩成人综合| 成人午夜网址| 最新国产网站| 超碰精品无码一区二区| 亚洲人成网18禁| 亚洲人免费视频| 国产精品yjizz视频网一二区| 香蕉久久国产超碰青草| 亚洲码在线中文在线观看| 国产一级裸网站| 亚洲第一成人在线| 无码专区国产精品第一页| 欧美成人精品在线| 亚洲最黄视频| 亚洲资源在线视频| 亚洲成av人无码综合在线观看| 亚洲精品日产精品乱码不卡| 亚洲人成成无码网WWW| 伊人久久综在合线亚洲91| 成人国产一区二区三区| 黄片一区二区三区| 欧亚日韩Av| 国产剧情一区二区| 欧美国产视频| 91精品视频播放| 国产一区二区色淫影院| 欧美国产综合色视频| a在线观看免费| 国产精品综合色区在线观看| 亚洲欧美综合精品久久成人网| 日韩精品欧美国产在线| 久久动漫精品| 欧美丝袜高跟鞋一区二区| 国产成人精品亚洲77美色| 精品成人一区二区三区电影 | 亚洲中字无码AV电影在线观看| 华人在线亚洲欧美精品| 六月婷婷激情综合| 久久精品一品道久久精品| 日韩高清中文字幕| 精品一区二区三区无码视频无码| 扒开粉嫩的小缝隙喷白浆视频| 粗大猛烈进出高潮视频无码| 欧美成人区| 91无码人妻精品一区| 欧美亚洲欧美| 国产人前露出系列视频| 就去吻亚洲精品国产欧美| 99在线视频精品| 性欧美久久| 日韩精品一区二区三区大桥未久| 中文字幕在线视频免费| 中文字幕亚洲精品2页| 香港一级毛片免费看| 成人日韩视频| 国产肉感大码AV无码| 99久久精品美女高潮喷水| 亚洲成肉网| 欧美97欧美综合色伦图| 成人国产一区二区三区| 一本大道视频精品人妻| 99re热精品视频国产免费| 秋霞国产在线| 国产乱子伦视频在线播放| 呦女亚洲一区精品| 亚洲爱婷婷色69堂| 久久综合伊人77777| 免费不卡视频| 日本国产精品| 日本免费福利视频| 亚洲资源站av无码网址| 在线观看欧美国产|