999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的多目標跟蹤算法研究

2017-09-07 15:33:04陸平鄧碩李偉華
中興通訊技術(shù) 2017年4期
關(guān)鍵詞:深度學(xué)習(xí)

陸平+鄧碩+李偉華

摘要:提出了一種基于深度學(xué)習(xí)的多目標跟蹤算法。首先,通過GoogLeNet+長短期記憶網(wǎng)絡(luò)(LSTM)模型進行目標檢測,以獲得準確的目標檢測結(jié)果;其次,直接根據(jù)目標檢測的特征圖對檢測目標進行深度特征的提取,深度特征相比于傳統(tǒng)特征可以更準確地反映檢測目標的外觀特征,因此可以有效提高跟蹤的準確性。此外,還在傳統(tǒng)數(shù)據(jù)驅(qū)動馬爾科夫蒙特卡洛(DDMCMC)算法的基礎(chǔ)上,提出了層次的數(shù)據(jù)驅(qū)動馬爾科夫蒙特卡洛(HDDMCMC)算法,可以進一步提高多目標跟蹤的準確性。實驗結(jié)果證明了所提出算法的有效性。

關(guān)鍵詞: 多目標跟蹤;深度學(xué)習(xí);目標檢測;MCMC算法

自從深度學(xué)習(xí)技術(shù)出現(xiàn)以來,計算機視覺領(lǐng)域得到了快速發(fā)展,深度學(xué)習(xí)技術(shù)最先用于圖像分類問題。近年來,基于深度學(xué)習(xí)的多目標跟蹤算法也取得了一定的突破。多目標跟蹤是計算機視覺領(lǐng)域一個非常具有挑戰(zhàn)性的研究方向,且有著十分廣泛的現(xiàn)實應(yīng)用場景,例如:智能視頻監(jiān)測控制、異常行為分析、移動機器人研究等。傳統(tǒng)的多目標跟蹤算法往往由于目標檢測效果較差,導(dǎo)致跟蹤效果不佳;而基于深度學(xué)習(xí)的檢測器可以獲得較好的目標檢測效果,進而提高目標跟蹤的準確度。

因此,文章中我們著重研究了基于深度學(xué)習(xí)的多目標跟蹤算法。首先通過GoogLeNet[1]+長短期記憶網(wǎng)絡(luò)(LSTM)[2]模型進行目標檢測,以獲得準確的目標檢測結(jié)果。在此基礎(chǔ)上,提出了直接根據(jù)目標檢測的特征圖對檢測目標進行深度特征的提取的方法,深度特征相比于尺度不變特征變換(SIFT)[3]等傳統(tǒng)特征可以更準確地反應(yīng)檢測目標的外觀特征,因此可以提高目標跟蹤算法的準確性。此外,還在基于馬爾科夫蒙特卡洛(MCMC)算法的多目標跟蹤算法的基礎(chǔ)上,提出了層次的數(shù)據(jù)驅(qū)動馬爾科夫蒙特卡洛(HDDMCMC)算法。

1 基于深度學(xué)習(xí)的多目標跟蹤算法的研究現(xiàn)狀

1.1 傳統(tǒng)多目標跟蹤算法

MCMC算法是一種經(jīng)典的多目標跟蹤算法,Yu等人在MCMC算法的基礎(chǔ)上提出了數(shù)據(jù)驅(qū)動的馬爾科夫蒙特卡羅(DDMCMC)算法[4]。在使用該算法獲得檢測數(shù)據(jù)后,我們按照傳統(tǒng)的MCMC算法,對當(dāng)前軌跡中的檢測數(shù)據(jù)進行位置和長相特征的衡量,來計算當(dāng)前的后驗概率大小,然后在迭代過程中不斷進行不同狀態(tài)之間的轉(zhuǎn)移來進行尋找全局最優(yōu)結(jié)果。

Tang等人提出了一種基于圖分割的多目標跟蹤算法[5],通過在時間和空間上對邊界框進行聚類來進行軌跡匹配。Tang等人在用該算法解決軌跡匹配這一最優(yōu)化問題時,提出了一種基于KL(Kernighan-Lin)算法的近似解法,運用該算法求得的結(jié)果與剪枝法求得的結(jié)果相比,準確率略微下降,但是運算速度有較大提高。

1.2 基于深度學(xué)習(xí)的多目標跟蹤算法

Bing等人提出了一種聯(lián)合學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)(CNN)特征和時域約束度量的模型,通過這個訓(xùn)練模型結(jié)合相應(yīng)的損失函數(shù)可以構(gòu)建出軌跡親和力模型,再通過傳統(tǒng)的圖匹配方法將所有的軌跡進行聯(lián)合,利用softassign算法求出軌跡匹配最優(yōu)解,得到最終結(jié)果。

Fengwei等人提出了一種基于深度學(xué)習(xí)的目標檢測外觀特征,將這種特征應(yīng)用到多目標跟蹤后,獲得了較高的跟蹤準確度,但需要大量的訓(xùn)練數(shù)據(jù)和時間,且無法達到實時跟蹤的效果。

基于深度學(xué)習(xí)的多目標跟蹤算法的跟蹤準確度相對于傳統(tǒng)多目標跟蹤算法有了較大提升,但仍需要大量的訓(xùn)練數(shù)據(jù)和時間,且實時性不足。針對這一問題,我們在基于深度學(xué)習(xí)的目標檢測算法的基礎(chǔ)上,提出一種可直接利用目標檢測的特征圖得到深度特征的多目標跟蹤算法,并基于HDDMCMC算法得到跟蹤結(jié)果。

2 基于目標檢測特征圖的多目標跟蹤算法框架

我們提出的算法框架如圖1所示。算法整體上可以分為目標檢測、特征提取、檢測目標關(guān)聯(lián)這3個模塊。對于輸入視頻,首先通過GoogLeNet + LSTM模型進行目標檢測,根據(jù)檢測模塊中的特征圖,對檢測目標提取深度特征,利用深度特征可以計算外觀相似度,進而通過DDMCMC算法對檢測目標進行匹配,形成完整的軌跡,得到跟蹤結(jié)果?;谀繕藱z測特征圖的特征提取模塊和基于HDDMCMC算法的檢測目標關(guān)聯(lián)模塊是該算法的主要創(chuàng)新點。

3 基于GoogLeNet+LSTM的目標檢測

目標檢測是基于數(shù)據(jù)聯(lián)合的多目標跟蹤算法的基礎(chǔ),針對在復(fù)雜場景下目標過小和目標遮擋等問題,我們利用GoogLeNet + LSTM這一框架進行目標檢測。對于輸入視頻,我們首先使用GoogLeNet進行卷積,在最后一層得到1×1 024×15×20的特征圖陣列,把它進行轉(zhuǎn)置成為300×1 024的特征圖陣列。每個1 024維的向量對應(yīng)原圖中139×139的區(qū)域。

在利用GoogleNet進行卷積以后可以得到300×1 024的特征圖陣列,然后通過LSTM子模塊并行處理每一個1 024維向量。對于每一個輸出的隱狀態(tài),經(jīng)過兩個不同的全連接層:一個直接輸出框的位置和寬高,一個再經(jīng)過softmax層輸出這個框的置信度。LSTM子模塊共有5個這樣的LSTM單元,即對于每個輸入預(yù)測5個可能的框和對應(yīng)的置信度,在訓(xùn)練中使得框的位置集中在感知區(qū)域中心的64×64的位置,置信度是從高到低排的。

每個1 024維的向量經(jīng)過LSTM陣列處理以后,可以得到對應(yīng)原圖中64×64小塊的5個檢測框以及對應(yīng)的置信度。因為LSTM是并行處理的,所以生成的對64×64區(qū)域的檢測結(jié)果是有重疊的。最后框處理子模塊需要對整個視頻幀的所有檢測框進行篩選,然后再通過給定一個閾值去掉置信度低的框,并給出最終檢測結(jié)果。具體流程是:對于已經(jīng)確定的框,如果一個待選的框與它有相交,則去除這個框,限制一個已經(jīng)確定的框至多去除一個待選框。在上述匹配的時候代價用(m, d)衡量,m表示評估的二者是否相交,取值{0,1},d衡量評估的兩個框之間曼哈頓距離。m的重要性大于d,即對兩種匹配方案得到的結(jié)果,先比較m大小,如果不能得出結(jié)論,再比較d的大小。我們使用匈牙利算法來尋找代價最小的匹配方式,假設(shè)篩選的置信度閾值設(shè)為0.5,那么則去掉那些置信度低于0.5的框。

為有效對目標檢測模型進行訓(xùn)練,我們采用了如下訓(xùn)練方法:首先在LSTM子模塊得到較多待選框,但存在檢測錯誤或誤差。錯誤或誤差的情況有3種:

(1)把不是人頭尖的地方框出;

(2)預(yù)測框位置和真值框位置的差異;

(3)對同一個目標產(chǎn)生了多個預(yù)測框。

對于情況(1),可通過賦予待選框較低的置信度來杜絕;對于情況(2),需要修正待選框和與之匹配的真值框之間的誤差;對于情況(3),可通過給同一個目標后生成的預(yù)測框賦予較低的置信度來杜絕。

模型訓(xùn)練時的損失函數(shù)如公式(1)所示:

其中,G代表框的真值,C代表待選框,f代表匹配算法,代表真值框里面的第i個框,代表待選框里面第j個框,代表兩者之間的曼哈頓距離,是交叉熵損失,也就是對應(yīng)網(wǎng)絡(luò)里面的softmax損失。這個損失函數(shù)的前一項代表待選框和與之匹配的真值框的位置誤差,后一項代表待選框的置信度,調(diào)整這兩種損失之間的平衡。

匹配算法為匈牙利算法,其中用的比較函數(shù)如公式(2)所示:

其中,取值為{0,1},若待選框的中心落在真值框中,則為0,否則為1;為該待選框生成的序號,目的是在匹配的時候,偏好先生成置信度比較高的框,故匹配同一個目標時,排序越靠前代價越低;是兩個框之間的距離,即距離誤差。

4 基于目標檢測特征圖的深度特征提取

在檢測模塊中得到對應(yīng)框的位置時,得到的是人頭的位置,按一定比例放大可以覆蓋全身。得到行人的框位置和大小后,我們進一步利用GoogLeNet的最后一層卷積層得到的特征圖陣列去提取特征。我們使用的方法是快速-區(qū)域CNN(RCNN)[6]中提到的感興趣區(qū)域(ROI)池化,即根據(jù)特征圖陣列相對于輸入圖片的縮小比例,把原圖中的感興趣區(qū)域在特征圖陣列中對應(yīng)的感興趣區(qū)域池化成一個1 024維的向量。其中縮小比例為32倍,即得到框的位置按32倍比例縮小,并且為了減少背景影響,最大化池化這一池化類型更加有效。通過將檢測模塊中的特征圖進行池化,可得到對檢測模塊中檢測到的每個目標的深度特征,因為每個特征都是高度抽象的,可以很好地表征目標的外觀特征。

文中,我們所提出算法的重要特點就是利用目標檢測中的特征圖進行池化來得到目標跟蹤所需要的深度特征,而不需要重新進行訓(xùn)練,因此可以在不犧牲目標跟蹤算法的實時性的前提下,提高跟蹤準確性。

5 基于HDDMCMC算法的目標檢測關(guān)聯(lián)

5.1 傳統(tǒng)MCMC算法

為了對檢測數(shù)據(jù)進行最優(yōu)關(guān)聯(lián),可利用MCMC算法進行建模。傳統(tǒng)MCMC算法的計算過程為:在迭代過程中,均勻隨機選取一個轉(zhuǎn)移動作(包括產(chǎn)生、消失、融合、分裂、擴展、收縮和交換等),把當(dāng)前的行人軌跡按照此轉(zhuǎn)移動作進行轉(zhuǎn)換,即從狀態(tài)w轉(zhuǎn)移到狀態(tài)w。在此情況下,可以計算得到轉(zhuǎn)移前后的后驗概率和,以及轉(zhuǎn)移概率和,從而可以計算得出此時的接收概率。將此接收概率與從均勻0~1分布中隨機抽取的值進行比較,如果出現(xiàn),則接收當(dāng)前這個轉(zhuǎn)移,使得當(dāng)前狀態(tài)轉(zhuǎn)移為,即,否則不接受此轉(zhuǎn)移。為了得到最大后驗概率,我們再將轉(zhuǎn)移后的狀態(tài)與當(dāng)前的最優(yōu)狀態(tài)進行比較,如果轉(zhuǎn)移后的狀態(tài)優(yōu)于當(dāng)前的最優(yōu)狀態(tài),則對最優(yōu)狀態(tài)進行更新,即。

在傳統(tǒng)MCMC算法的基礎(chǔ)上,我們提出了HDDMCMC算法,即把傳統(tǒng)的單層MCMC算法分為段內(nèi)MCMC算法和段間MCMC算法。如圖2所示,假設(shè)當(dāng)前處理的時間段是,我們首先對此段執(zhí)行段內(nèi)MCMC算法并得到相應(yīng)的段內(nèi)行人軌跡。在此之前,段和段內(nèi)的MCMC算法已執(zhí)行完成,并執(zhí)行了兩者之間的段間MCMC算法,從而得到對應(yīng)時間幀內(nèi)的行人軌跡;然后把其中已走出當(dāng)前區(qū)域的行人軌跡選擇出來,再對段和段再執(zhí)行段間MCMC算法,得到當(dāng)前的行人軌跡。HDDMCMC算法即按照此種方式不斷執(zhí)行,直到視頻序列結(jié)束。

5.2 段內(nèi)MCMC算法

在多目標跟蹤算法中,考慮到運動的穩(wěn)定性和連續(xù)性(即同一個目標在前后幀視頻數(shù)據(jù)中,外觀特征不會發(fā)生劇烈變化),在段內(nèi)MCMC算法中,使用第4節(jié)中的深度特征對目標軌跡的相似度進行度量。

可以將每個檢測目標看成一個節(jié)點,以段內(nèi)時間來進行敘述。假設(shè)視頻幀t內(nèi)的節(jié)點集合為,后驗概率的設(shè)定如公式(3)所示:

其中,和分別代表第k條行人軌跡中第n+1個和第n個節(jié)點,即為兩節(jié)點的相似度,可用兩節(jié)點深度特征的夾角余弦值來進行計算。公式第2項中的代表的是不同軌跡的長度,保證行人軌跡的完整;公式第3項中的代表的是虛警的個數(shù),保證虛警率較低。

圖3為MCMC算法中7種操作:產(chǎn)生和消失這兩個轉(zhuǎn)移動作如圖3a)所示,其中,左邊黑色的點代表虛警集合中的點,經(jīng)過產(chǎn)生操作后轉(zhuǎn)化為右邊紅色點所代表的行人軌跡,消失操作為反向順序;融合和分裂這兩個轉(zhuǎn)移動作如圖3b)所示;擴展和收縮這兩個轉(zhuǎn)移動作如圖3c)所示,交換和轉(zhuǎn)移動作如圖3d)所示,此操作前后互為逆操作。

5.3 段間MCMC算法

段間MCMC算法使用的數(shù)據(jù)主要是段內(nèi)MCMC算法生成的目標軌跡。在段間MCMC算法中,主要采取的轉(zhuǎn)移動作包括融合和分裂操作以及交換操作。因為,在經(jīng)過段內(nèi)MCMC算法之后,生成許多較為可靠的目標軌跡。此時若存在同一目標軌跡斷裂的情況,就是由于檢測數(shù)據(jù)不穩(wěn)定,對應(yīng)目標碰撞或者遮擋導(dǎo)致對應(yīng)的漏檢幀數(shù)過多等原因造成的。因此,段間MCMC的目的是將兩個時間段的目標軌跡數(shù)據(jù)做進一步的數(shù)據(jù)聯(lián)合。當(dāng)前狀態(tài)下,后驗概率項更新為公式(4)所示。

在公式(4)中,我們不再考慮虛警因素,因為此處主要是對目標軌跡的劃分操作。由于已有之前較為可靠的兩個時間段內(nèi)的目標軌跡數(shù)據(jù)作為輔助,因此可以在更加寬松的條件下進行抽樣工作。對于融合操作,此時允許的時間間隔設(shè)定為,且兩個目標的軌跡段與段之間連接處的幀差不能超過6。對于概率中的標準差的設(shè)定,此時為,即允許在理想位置周圍的變化幅度是一個當(dāng)前目標的大小。對于分裂操作和交換操作,抽樣的時間節(jié)點在段與段連接處的時間幀為左右各6幀時間以內(nèi)。通過這種方式,可使得不同狀態(tài)之間進行轉(zhuǎn)移的單位是之前已生成的較為完整的目標軌跡片段。

在當(dāng)前的段間MCMC算法結(jié)合之后,把已走出視頻場景的目標移除當(dāng)前數(shù)據(jù)集,此時的當(dāng)前數(shù)據(jù)集假設(shè)為。當(dāng)下一個段內(nèi)MCMC得到軌跡之后,通過段間MCMC算法與進行匹配,即繼續(xù)在之前目標數(shù)據(jù)的基礎(chǔ)之上,結(jié)合當(dāng)前的目標數(shù)據(jù),做進一步的數(shù)據(jù)聯(lián)合來優(yōu)化。整個算法按照這樣的滑動方式不斷進行。

6 實驗結(jié)果及分析

6.1 MOT2015訓(xùn)練數(shù)據(jù)庫的實驗結(jié)果

本小節(jié)中,我們介紹的是MOT2015訓(xùn)練數(shù)據(jù)庫[8]中的實驗結(jié)果,此數(shù)據(jù)庫總共包括11個視頻,有固定視角、運動視角等場景,同時又有俯視視角、平時視角等場景,由于場景變化多樣,不同目標之間的接觸和碰撞較多,挑戰(zhàn)性較大。

我們使用的衡量指標[9]包括多目標跟蹤的準確度(MOTA)、多目標跟蹤的精確度(MOTP)、漏檢數(shù)目(FN)、虛警數(shù)目(FP)等,其中MOTA指標是用來衡量整體跟蹤準確度,最具代表性。實驗結(jié)果如表1所示,其中MOTA和MOTP是11個數(shù)據(jù)庫的平均值,F(xiàn)N、FP和ID Sw是11個數(shù)據(jù)庫的總和。

文章中,我們所提出算法的主要創(chuàng)新點為基于目標檢測特征圖的特征提取模塊和基于層次的數(shù)據(jù)驅(qū)動馬爾科夫蒙特卡洛算法的檢測目標關(guān)聯(lián)模塊,為了驗證這兩個創(chuàng)新點的有效性,我們分別用4種方法進行了實驗:

(1)SIFT+MCMC,即用SIFT特征結(jié)合傳統(tǒng)MCMC算法。

(2)SIFT+HDDMCMC,即用傳統(tǒng)SIFT特征結(jié)合文中所提出的HDDMCMC算法。

(3)CNN+MCMC,即用文中提出的通過目標檢測特征圖提取的深度特征結(jié)合傳統(tǒng)MCMC算法。

(4)CNN+HDDMCMC,即用通過目標檢測特征圖提取的深度特征結(jié)合HDDMCMC算法,也即文中我們提出算法的完整版。

實驗結(jié)果如表1所示,對比SIFT+MCMC和SIFT+HDDMCMC可知:我們提出的基于層次的HDDMCMC算法相比于傳統(tǒng)的MCMC算法可以在一定程度上提升跟蹤效果;對比SIFT+MCMC和CNN+MCMC可知:通過用目標檢測特征圖提取的深度特征來代替?zhèn)鹘y(tǒng)的SIFT特征,可以在很大程度上提升跟蹤效果;CNN+HDDMCMC算法,即文中我們提出算法的完整版的各項檢測指標都優(yōu)于其他方法,更進一步證明了所提出算法的有效性。

圖4和圖5是兩張跟蹤效果的對比圖(為便于觀察,只顯示了要說明的區(qū)域)。圖4中第1行是使用SIFT+HDDMCMC的實驗結(jié)果,第2行是使用CNN+HDDMCMC的實驗結(jié)果,每1行的3張圖片代表視頻中間的連續(xù)3幀(前后2幀之間間隔1幀)。第1行的第3張圖片在紅色箭頭標識處出現(xiàn)了跟蹤錯誤,這是由于目標之間的遮擋且用SIFT特征求目標之間的外觀相似度時并不十分準確而產(chǎn)生的;第2行圖片中,由于深度特征能更準確地反應(yīng)檢測目標的外觀特征,沒有出現(xiàn)錯誤。

圖5中第1行是使用CNN+MCMC的實驗結(jié)果,第2行是使用CNN+HDDMCMC的實驗結(jié)果。每1行的第2張圖片由于目標之間的遮擋發(fā)生了漏檢,導(dǎo)致了軌跡斷裂,使得第1行中的第3張圖片在紅色箭頭標識處出現(xiàn)了錯誤;而在第2行圖片中,由于此處使用了HDDMCMC算法,通過段間MCMC算法對兩段軌跡進行了匹配,從而避免了錯誤。

基于此數(shù)據(jù)庫的對比實驗可知:文中所提出的算法對于生成穩(wěn)定的目標軌跡具有十分重要的作用。

6.2 MOT2015測試數(shù)據(jù)庫實驗結(jié)果及其對比

本小節(jié)中,我們介紹的是MOT2015測試數(shù)據(jù)庫中的實驗結(jié)果,此數(shù)據(jù)庫同樣包括11個視頻,我們將文中所提出算法的實驗結(jié)果與其他算法進行了對比,比較方法包括如下3種:

(1)結(jié)構(gòu)化支持向量機算法(LP_SSVM)[10],此算法是Shaofei等人提出的,主要思想是使用最小網(wǎng)絡(luò)流模式,此模型的參數(shù)通過結(jié)構(gòu)化支持向量機訓(xùn)練得到。

(2)近時多目標跟蹤算法(NOMT)[11],此算法是由Wongun等人提出的,主要思想是通過建立一個聚合本地光流描述子來計算檢測目標之間的相似度,實現(xiàn)了接近實時的多目標跟蹤。

(3)子卷積神經(jīng)網(wǎng)絡(luò)算法(MDP_SubCNN)[12],此算法是由Yu等人提出的,主要思想是通過學(xué)習(xí)的策略來建立檢測目標之間的相似度矩陣,并通過馬爾科夫決策過程建模。

實驗結(jié)果如表2所示,其中Our表示的是文中我們提出的算法,與其他法對比可知:本算法的MOTA指標最高,整體效果最好;FN值優(yōu)于其他算法;FP值相對于其他算法較低;MOTP值只略遜于MDP_SubCNN算法,總的來說,我們提出算法的效果較為理想。

7 結(jié)束語

多目標跟蹤作為計算機視覺領(lǐng)域中的一個經(jīng)典問題,有著十分廣泛的應(yīng)用前景。近年來,隨著深度學(xué)習(xí)技術(shù)的發(fā)展,基于深度學(xué)習(xí)的多目標跟蹤算法取得了一定的突破,獲得了高于傳統(tǒng)多目標跟蹤算法的跟蹤準確度。在文章中,我們提出了一種新的基于深度學(xué)習(xí)的多目標跟蹤算法,通過用GoogLeNet + LSTM框架進行目標檢測的特征圖對檢測目標深度特征的提取,以及對傳統(tǒng)MCMC算法的改進,有效地提高目標跟蹤算法的準確性和實時性。最后對文中所提出的算法進行了實驗驗證,并與一些相關(guān)的多目標跟蹤算法進行了比較,得到了較為理想的結(jié)果。

參考文獻

[1] SZEGEDY C, LIU W, JIA Y, et al. Going Deeper with Convolutions[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. USA:IEEE, 2015: 1-9.DOI: 10.1109/CVPR.2015.7298594

[2] HOCHREITER S, SCHMIDUBER J. Long Short-Term Memory[J]. Neural Computation, 1997, 9(8): 1735-1780

[3] LOWER D G. Distinctive Image Features from Scale-Invariant Key Points[J]. International Journal of Computer Vision, 2004, 60(2): 91-110

[4] LOWE G D. Object Recognition from Local Scale-Invariant Features[C]// ICCV '99 Proceedings of the International Conference on Computer Vision. USA:IEEE, 1999

[5] OH S, RUSSELL S, SASTRY S. Markov Chain Monte Carlo Data Association for General Multiple-Target Tracking Problems[C]// Decision and Control, 2004. CDC. 43rd IEEE Conference on. USA:IEEE, 2004

[6] GIRSHICK R. Fast R-CNN[EB/OL].(2015-09-27)[2017-06-25]. https://arxiv.org/abs/1504.08083

[7] YU Q, MEDIONI G, COHEN I. Multiple Target Tracking Using Spatio-Temporal Markov Chain Monte Carlo data association [C]// Computer Vision and Pattern Recognition, 2007. CVPR '07. IEEE Conference on, 2007. USA:IEEE, 2007. DOI: 10.1109/CVPR.2007.382991

[8] Multiple Object Tracking Benchmark[EB/OL].[2017-06-25].https://motchallenge.net/

[9] BERNARDIN K, STIEFELHAGEN R. Evaluating Multiple Object Tracking Performance: the CLEAR MOT Metrics[J]. EURASIP Journal on Image and Video Processing, 2008, 2008(1): 1-10

[10] WANG S F, FOWLKES C C. Learning Optimal Parameters for Multi-target Tracking[EB/OL].(2016-10-05)[2017-06-25]. https://arxiv.org/abs/1610.01394

[11] CHOI W. Near-Online Multi-Target Tracking with Aggregated Local Flow Descriptor[C]//Proceedings of the IEEE International Conference on Computer Vision. USA:IEEE, 2015: 3029-3037

[12] XIANG Y, ALAHI A, SAVARESE S. Learning to Track: Online Multi-ObjectTracking by Decision Making[C]//Proceedings of the IEEE International Conference on Computer Vision. USA: IEEE, 2015: 4705-4713.DOI: 10.1109/ICCV.2015.534

[13] MILAN A, LEAL T L, SCHINDLER K, et al. Joint Tracking and Segmentation of Multiple Targets[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. USA:IEEE, 2015. DOI: 10.1109/CVPR.2015.7299178

[14] YOON J H, YANG M H, LIM JONGWOO, et al. Bayesian Multi-Object tracking Using Motion Context from Multiple Objects[C]//Applications of Computer Vision (WACV), 2015 IEEE Winter Conference on. USA:IEEE, 2015. DOI: 10.1109/WACV.2015.12

[15] MCLAUGHLIN N, RINCON J M D, MILLER P. Enhancing Linear Programming with Motion Modeling for Multi-target Tracking[C]// Applications of Computer Vision (WACV), 2015 IEEE Winter Conference on. USA:IEEE, 2015

[16] XIANG Y, ALAHI A, SAVARESE S, et al. Learning to Track: Online Multi-Object Tracking by Decision Making[C]// Computer Vision (ICCV), 2015 IEEE Conference on. USA:IEEE, 2015. DOI: 10.1109/ICCV.2015.534

[17] BEWLEY A, GE Z, OTT L, et al. Simple Online and Realtime Tracking[C]//Image Processing (ICIP), 2016 IEEE International Conference on. USA: IEEE, 2016: 3464-3468.DOI: 10.1109/ICIP.2016.7533003

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 97久久免费视频| 国产尤物jk自慰制服喷水| 亚洲成a人片| 一级香蕉人体视频| 国内精品久久久久鸭| 欧洲极品无码一区二区三区| 久久国产免费观看| 精品国产成人三级在线观看| 天天操天天噜| 亚洲欧美极品| 国产日本一区二区三区| 91精品啪在线观看国产60岁 | 成人福利在线视频| 九九久久精品国产av片囯产区| 日韩一区精品视频一区二区| 国产精品区网红主播在线观看| 国产精品爽爽va在线无码观看| 999国产精品永久免费视频精品久久| 男女精品视频| 亚洲综合精品第一页| 99re在线视频观看| 午夜无码一区二区三区在线app| 亚洲欧美日韩天堂| 久久这里只有精品国产99| 国产波多野结衣中文在线播放 | 日韩欧美国产另类| 麻豆精品在线播放| 国产成人91精品免费网址在线 | 成人国产精品一级毛片天堂| 国产真实乱子伦视频播放| 亚洲视频在线青青| 成人亚洲视频| 国产精品久久久久久影院| 成人亚洲视频| 国产人前露出系列视频| 国产亚洲现在一区二区中文| 欧美国产综合视频| 一级毛片免费观看久| 国产va在线观看免费| 日韩中文精品亚洲第三区| 日韩欧美亚洲国产成人综合| 九九线精品视频在线观看| 亚洲国产av无码综合原创国产| 美女内射视频WWW网站午夜 | 亚国产欧美在线人成| 久热re国产手机在线观看| 亚洲婷婷丁香| 久草视频福利在线观看| 亚洲三级成人| 国产无遮挡猛进猛出免费软件| 毛片免费试看| 欧美精品亚洲日韩a| 亚洲天堂啪啪| 国产女人水多毛片18| 久久人体视频| 国产激爽大片在线播放| 国产亚洲精品97在线观看| 亚洲欧美成人在线视频| 91精品国产一区自在线拍| 欧美日韩国产在线观看一区二区三区 | 操国产美女| 97视频精品全国在线观看| 欧美午夜在线观看| 国产亚卅精品无码| 玖玖免费视频在线观看| 国产精品露脸视频| 91久久青青草原精品国产| 凹凸精品免费精品视频| 欧美午夜性视频| 国产91精品久久| 亚洲第一网站男人都懂| 亚洲 成人国产| 国产精品福利社| 亚洲男人天堂网址| 色综合久久88| 久久国产av麻豆| 国产色伊人| 国产精品熟女亚洲AV麻豆| 欧美成人午夜视频| 91麻豆精品国产高清在线| 乱色熟女综合一区二区| 91丝袜美腿高跟国产极品老师|