999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于外觀統計特征融合的人體目標再識別

2014-11-18 03:14:28曾明勇吳澤民田暢付毅揭斐然
電子與信息學報 2014年8期
關鍵詞:特征區域方法

曾明勇吳澤民田 暢付 毅揭斐然

①(解放軍理工大學通信工程學院 南京 210007)②(中國航空工業集團光電控制技術重點實驗室 洛陽 417009)

1 引言

近年來,人體目標再識別技術得到了廣泛的研究和應用,在視頻網絡監控、多目標跟蹤等方面發揮了重要作用[1]。2013年Google公司推出的可穿戴計算設備Google Glass[2]已具備人體再識別功能,它通過眼鏡的高清攝像頭,可從超市等場所迅速識別出想要尋找的目標。人體目標再識別是指利用已經存在的人體目標圖庫,在場景或時間變化時,通過搜索圖庫,再次識別和確認當前所查詢人體圖片的目標身份[3]。由于存在光照、視角、姿態、背景和遮擋等極具挑戰性的影響因素,人體再識別并不是一個簡單的問題。

目前,人體再識別技術主要從3個方面來提高再識別率。第1類只采用基于圖像外觀特征的方法;第2類結合圖像序列的空時關系進行推理;第3類結合生物特征,如人臉識別或步態識別。基于外觀的人體再識別對先驗知識要求最少,是本文的研究重點。外觀方法目前主要存在兩種不同的解決思路:(1)特征類方法,從外觀特征出發,選取或設計類內具有一定不變性且類間具有較強區分性的描述特征;(2)測度類方法,從特征相似度或距離出發,在人為選擇特征的基礎上,有監督地學習和訓練距離測度或分類器,使同類樣本距離小而非同類樣本距離大。此外,根據每個人在目標圖庫的圖片數量為單幀或多幀,人體再識別還可分為單幀模式和多幀模式,多幀模式通過融合同一個人的多幅圖像能夠獲得更好的性能。

在特征方面,人體再識別主要使用的特征有顏色、結構、形狀、梯度、紋理、關鍵點以及區域描述子等。特征提取前可能進行前景分割、人體部件檢測等預處理過程,提取到的不同特征通??梢赃M行級聯或組合,形成區分性更強的特征。SDALF方法[3]提取前景后將人體目標分割為頭部、軀干和腿部,并使用加權HSV直方圖、最大穩定顏色區域和重復紋理塊3種特征進行組合識別。CPS方法[4]利用人體結構檢測出人體的詳細部位后再進行識別。AHPE方法[5]將人體分為上下身并計算多幀模式下的產生式縮影特征。eLDFV方法[6]使用Fisher向量編碼圖像的亮度和梯度信息,并和 SDALF方法進行組合。文獻[7]融合了方向梯度直方圖和空間顏色直方圖等多種特征。SCEFA方法[8]采用分層加權的HSV直方圖和雙向匹配的顏色區域特征,并用Gabor紋理模式描述檢測到的關鍵點。文獻[9,10]采用區域協方差的方式融合多種特征,SCR方法[9]在人體各部位上計算協方差, MRCG 方法[10]在多幀模式下計算均值協方差。此外,部分文獻通過尋找人體特性或顯著性進行再識別,eSDC方法[11]通過非監督的學習方式尋找個體顯著特征,并和 SDALF方法進行組合增強。

在距離測度方面,測度學習的本質是在計算特征向量距離時估計各分量距離的尺度或權重,選取或突出那些區分性強的特征分量。ELF方法[12]通過AdaBoost分類器選取顏色和紋理特征。COSMATI方法[13]在協方差測度空間利用相關性選擇顯著區域和外觀特征。ERSVM 方法[14]采用基于相對距離排序的SVM分類器集成多個特征向量權重。文獻[15]采用多核 SVM 學習的方法融合顏色和視覺單詞直方圖。其它方法主要學習基于對稱半正定矩陣的馬氏測度,如采用大邊近鄰分類器的LMNN-R方法[16]和采用相對距離比較的PRDC方法[17]。LF方法[18]則先對高維特征進行PCA降維,再基于局部Fisher判別分析進行降維映射,獲得了非常高的識別性能。

與特征類方法相比,測度學習方法對特征的選擇要求較低,通常能取得更好的再識別效果。但其訓練的時間和空間復雜度較高,在訓練樣本不足時存在過度擬合等現象,且場景和圖庫變化時需要重新訓練。特征類方法則需要人為地尋找和設計較好的特征,方法的性能依賴于特征的優劣程度。本文在特征類方法的思路下設計和構造優秀的特征及描述,同時也討論特征的非學習距離測度,突出方法的實用性。本文主要基于顏色和結構信息,融合兩種外觀統計特征描述方法進行人體再識別。此外,本文從應用的角度設計了更合理的再識別性能評估指標。最后本文在兩個公共圖庫上進行了廣泛的實驗,驗證本文方法的優異性能。

2 融合外觀特征

本文主要基于顏色和結構信息提出了兩種外觀統計特征提取方法。第1種是基于多種顏色通道的空間直方圖特征(Multi-Channel based Spatio-Histogram, MCSH),第2種是融合多種顏色和梯度信息的金字塔型協方差特征(Multi-Statistics on Pyramid of Covariance, MSPC)。兩種方法均不需要進行前景分割和部件檢測,均在圖像多個層次或區域上計算統計特征并級聯成特征向量,距離測度采用簡單的非監督1l測度。本文融合這兩種不同的統計方式進行人體再識別,融合方法記為 HSCD(Hybrid Spatiogram and Covariance Descriptor)。

通常,人體再識別假設人在短時間內著裝相同,因此顏色是人體識別最常用且最有效的特征。另外人體作為一種特殊的目標,人體結構對于人體識別也非常重要,將人體圖片進行合理的多層次多區域劃分能更好地反映出人體的結構信息。由于空間直方圖和區域協方差都能有效地統計和融合區域內的多種信息,本文基于上述出發點探討和設計相應的統計特征及距離測度,并將這兩種基于類似特征但統計方式截然不同的方法進行融合,下面分別詳細介紹。

2.1 多通道空間直方圖(MCSH)

顏色直方圖能夠表現目標區域的整體特征,對視角和形狀變化具有一定的不變性,但由于它完全忽略了顏色的空間結構,降低了模型的分辨能力??臻g直方圖可將顏色直方圖和高階的空間矩進行結合,因此具有更強的描述能力[19]。

2.1.1空間直方圖 圖像區域I的二階空間直方圖可表示為

其中,B為量化級數,bn為顏色直方圖,和分別為均值矢量和協方差矩陣,分別定義為

2.1.2 多通道多區域級聯的空間直方圖 傳統的空間直方圖通常在圖片全局區域采用單類顏色空間進行計算,本文針對人體再識別的特定應用對其做出適當改造和增強。在區域方面采用多層次多尺度的統計區域,在像素特征方面引入描述各個區域的多種顏色通道,力求更準確地反映人體的顏色和結構信息。

通常人體檢測技術獲取的人體圖像并不完全準確,即使對于準確的檢測結果,由于檢測時使用矩形框來截取人體目標,仍然會存在一定的背景干擾。另外運動人體的手腳等邊緣圖像信息也不一定能為識別帶來好處,因此本文只采用圖片的中間部分作為第1層的人體區域。其它層次的區域采用重疊或非重疊的方式進行密集型劃分,并采用不同的空間直方圖量化級數。以VIPeR圖庫[1]的圖片為例,詳細的分層區域劃分如圖1所示,圖中從左至右依次為原圖、網格劃分圖以及自頂向下的4層區域劃分。其中第3層采用重疊型密集劃分,4層劃分中每個區域進行直方圖統計的量化級數分別設為32, 32, 16和8。

在像素統計特征方面,本文除了使用常用的HSV顏色空間,還使用包含色差通道的YCbCr顏色空間以及可消除光照影響的歸一化 RGB顏色空間。其中,HSV和YCbCr空間直接由第1層區域的原始RGB空間轉換得到。為了進一步消除光照影響,提取歸一化RGB空間前先對原始RGB空間的3個通道進行直方圖均衡,再按照式(4)的定義進行計算。

圖1 MCSH方法分層區域劃分

顏色通道中Y和V均表示亮度,本文只選用Y通道,在計算 Y通道時采用直方圖均衡后的 RGB空間進行亮度轉換。這樣3種顏色空間共選出8個顏色通道。每個通道都在圖 1所示的各層區域上提取空間直方圖并進行級聯,8個通道再依次級聯形成總量化級數為2432的空間直方圖S。

2.1.3 MCSH 特征優化和測度選取 獲取空間直方圖S后,測度的選取十分重要。采用式(3)測度的最大問題是計算復雜,存在大量矩陣求逆運算,且部分矩陣可能不可逆。從實驗效果來看,式(3)空間相似度的引入也并沒能顯著地提升直方圖的性能(參見本文4.1.1節)。

在實際場景中,盡管攝像機拍攝人體圖片時可能存在較大的視角差異,但攝像機一般都位于與人體高度相當或略高的水平面上。因此,利用空間信息時可以去掉圖像的水平空間信息,只保留圖像的垂直空間信息。故本文將式(1)改為

通過去除性能較差的水平空間信息,特征的提取速度和存儲空間都得到了優化。對特征優化后的空間直方圖S,本文將其測度設計為所含3類特征向量1l距離的加權組合

2.2 多統計性金字塔協方差(MSPC)

協方差描述子是一種與直方圖截然不同的統計描述子,它通過計算圖像區域內多種特征的協方差矩陣來融合多種特征[20]。本節基于上節對人體再識別的若干認識,使用協方差替換空間直方圖對區域進行統計描述,區域采用多層金字塔型區域,像素特征添加梯度信息。

2.2.1協方差特征提取 本文 MSPC特征提取時同樣采用多層多區域統計模式,采用金字塔型統計區域。以iLIDS圖庫[21]的圖片為例,詳細分層區域如圖2所示,圖中從左到右依次為原圖、網格劃分圖以及3層金字塔型區域劃分。

圖2 MSPC方法分層區域劃分

在圖2中需要計算每個區域的協方差矩陣。對于某個圖像區域R,其協方差矩陣可計算為[20]

其中,n為區域的總像素,iz為使用映射函數F從區域第i個像素提取的d維特征向量,為區域均值特征向量。本文采用的像素特征映射函數F為

其中,y為像素點的垂直空間坐標,采用的顏色通道與2.1.2節相同(此處去除冗余的nB顏色通道),后面添加的 4個特征分別為亮度通道在x和y方向上的一階二階梯度。

2.2.2 協方差多統計性和測度選取 與直方圖描述子不同,協方差矩陣在計算測度時不位于歐式空間,不能直接使用常用的歐式空間距離進行計算。文獻[20]中提出的測度方法是目前最常用的協方差測度

對于包含多個區域協方差矩陣的圖像特征集,SCR方法首先基于上述測度累積兩幀圖像所有對應區域的協方差距離,然后從中剔除前20%的最大距離,形成兩幀圖像的最終距離。這樣的測度方式對于較多的區域協方差而言計算量極大,從實驗效果來看識別性能也不夠理想(參見本文4.1.1節)。

文獻[22]提出對協方差矩陣進行 Cholesky分解,以將協方差轉換為歐式空間下的 Sigma集。Sigma集能夠近似地保持協方差的統計特性,本文受其啟發提出從協方差矩陣抽取多種統計向量來進行區域描述。選取的統計向量包括特征均值向量、特征標準差向量、特征相關系數向量和Sigma向量。

這4類統計向量的構造如下:特征均值向量即式(7)中的d維向量μ;提取協方差矩陣主對角線上的方差值進行開方運算,得到d維標準差向量;將協方差轉換成相關系數矩陣,然后取其下三角部分(不含主對角線)進行向量化,形成維相關系數向量;將d階協方差矩陣C進行Cholesky分解,獲得對稱陣L后向量化其下三角部分,形成維的 Sigma向量[22]。根據式(8)的映射函數可知 12d= ,將4類統計向量分別在圖2所有的15個區域上進行級聯,分別形成180, 180, 990和 1170維度的級聯統計特征向量,分別記為。

獲取4類統計特征向量后,MSPC方法的測度同樣設計為4類特征向量1l距離的加權組合

2.3 融合特征描述(HSCD)

上面提出的兩種統計方法都使用了顏色和結構信息,但它們截然不同的特征統計方式使它們具有融合增強的潛質。MCSH特征是在多種顏色通道上級聯多區域的空間和直方圖信息,就顏色通道而言屬于縱向級聯;MSPC特征則是在多個區域上級聯多種顏色和梯度通道的綜合信息,就顏色通道而言屬于橫向融合。

因此,本文HSCD方法將上述兩種統計方法進行融合,采用加權組合的方式

3 再識別性能評估

目前文獻通常采用累積匹配特性曲線(Cumulative Matching Characteristic, CMC)[1]來評估人體再識別性能。CMC曲線反映的是在目標圖庫前n個最相似候選目標內找到探測圖片正確匹配的概率。不同方法的 CMC曲線間可能存在交叉,目前沒有統一的方式來綜合評估 CMC曲線的性能。通常 CMC曲線下的歸一化面積(normalized Area Under CMC, nAUC)能反映出CMC曲線的整體性能。文獻[18]最近提出一種基于信息熵的指標PUR,該指標實際上反映的仍然是CMC曲線的整體性能。但目前多數文獻只畫出了 CMC曲線的前面部分,在沒有代碼和 CMC數據的情況下也難和其它方法進行基于整體指標的性能比較。

事實上,僅僅比較曲線的整體性能可能并不利于實際應用。例如,目標重捕通常選取目標庫少量的最相似候選目標,尤其是相似度最高的候選目標。因此,從應用的角度出發,本文認為 CMC曲線真正有意義的部分是曲線前面部分。故本文提出使用CMC曲線的Rank-1, Rank-10%和nAUC-10% 3類指標合成實用性綜合指標,記為 ACI(Application based CMC Index)。其中,Rank-1指標反映最相似候選目標剛好為探測圖片目標的概率;Rank-10%指標反映在圖庫目標總數10%的候選目標內找到探測圖片正確匹配的概率;nAUC-10%指標代表CMC曲線在Rank-1和Rank-10%范圍間的歸一化面積。對所有參與比較的CMC曲線,3類指標分別1l歸一后再加權相加,合成反映相對實用性能的ACI綜合指標,3類指標的權重分別設為0.25, 0.25, 0.5。采用ACI指標能夠有效地比較目前多數文獻的CMC曲線,而且能夠更合理有效地反映出實際應用的識別性能。

4 實驗結果及分析

本文在兩個常用圖庫上進行了廣泛的實驗比較。本文方法在Intel Xeon 2 GHz服務器平臺上使用Matlab實現,實驗首先在VIPeR圖庫上進行單幀模式下的性能分析和比較,然后在i-LIDS圖庫上進一步驗證多幀模式下的性能。

4.1 VIPeR圖庫實驗

VIPeR圖庫是再識別文獻中使用最多的單幀模式標準圖庫,它包含632對不同視角、姿態和光照條件下的行人。本文采用文獻[1]提出的5輪2折交叉驗證方法計算平均的 CMC曲線。實驗采用與文獻[6]相同的測試集劃分,每輪實驗從圖庫選出 316對行人,其中一半用作目標圖庫,另一半用作探測集。

4.1.1 HSCD方法分析

本文HSCD方法由MCSH和MSPC兩種方法融合而成,實驗首先考察這兩種方法的性能和方法內部特征的性能。為了驗證方法在計算時間上的優勢,MCSH和MSPC方法分別考察了式(3)測度[19]和SCR方法測度[9]的識別性能和計算時間。實驗還將HSCD方法和兩種公開源碼的方法(SDALF特征方法[3]和PRDC測度方法[17])進行了性能和時間上的綜合比較。實驗結果如圖3所示,3個子圖分別畫出了MCSH, MSPC和HSCD方法的相關曲線,子圖右下角標注處列出了方法的內部特征和部分方法的時間指標(即圖庫所有圖片的特征提取時間1T,特征距離計算時間2T以及距離測度訓練時間3T)。

圖3(a)表明在MCSH方法的3類特征中,直方圖信息優于空間信息,y方向的二階空間信息優于一階信息。式(3)空間直方圖的傳統測度方法計算時間極長,性能卻略差于直方圖方法。圖 3(b)表明MSPC方法中的均值、相關系數和Sigma向量性能相當,均優于二階方差信息。MSPC方法的4類特征存在極強的互補性,組合后其性能得到了很大提升,但其協方差傳統測度方法同樣存在計算時間長和性能較差的問題。

圖3(c)表明MCSH和MSPC兩種統計方法具有較強的互補性,融合后的HSCD方法優于SDALF特征方法和PRDC測度方法。在時間方面,本文方法不需要訓練,且特征提取和測度計算的時間耗費非常小。SDALF方法依賴分割檢測等預處理,特征提取時間最長;PRDC方法則訓練時間長、訓練時耗費內存量大(10 G左右內存)。

4.1.2當前方法比較 實驗進一步和目前已有的特征和測度類方法進行比較。實驗結果如圖4所示,其中比較方法的 CMC曲線均從相應文獻或代碼中獲得,圖中豎直虛線代表目標庫 Rank-10%(即 32)的位置。

表1列出了圖4中CMC曲線的各項性能指標,包括排序為 1, 10%和 50時的識別率以及 nAUC-10%和ACI綜合指標。

根據圖4曲線和表1性能指標可得到如下結論。(1)在特征類方法中,HSCD方法各項性能指標均優于其它方法,包括目前最新的 SCEAF多特征組合方法和增強型eSDC方法;(2)即使與測度類方法相比,HSCD仍然優于多數方法,CMC曲線綜合性能只略差于最新的LF測度方法。但本文HSCD方法的Rank-1指標達到29.3%,高出LF約21%,導致其ACI指標略高于LF; (3)與特征類方法相比,測度類方法主要增強了 CMC曲線的后面部分,測度方法在訓練時存在的過度擬合等現象可能是導致曲線Rank-1取值較低的原因。

4.2 i-LIDS圖庫實驗

圖3 VIPeR圖庫上HSCD方法的分析比較

圖4 VIPeR圖庫上各方法的CMC曲線

表1 VIPeR圖庫上各方法的識別率比較(%)

i-LIDS圖庫是常用的多幀模式人體再識別圖庫,該圖庫包含某機場119個行人的476張圖片(每個行人平均4張圖片)。該圖庫不僅存在行人視角、姿態和光照方面的變化,還存在較嚴重的部分遮擋現象。

本文在該圖庫上進一步驗證HSCD方法在單幀和多幀模式下的性能。單幀模式下每個行人隨機選取一張圖片構成目標庫,所有剩余圖片構成探測集。多幀模式下每個行人隨機選取兩張圖片構成目標庫,再從剩余圖片隨機選取兩張構成探測集(對于只有2張或3張圖片的行人,分別隨機選取1張和2張放入目標庫,其余放入探測集)。單幀和多幀模式均進行100次實驗,實驗結果如圖5所示。

從圖5的CMC曲線可看出,HSCD方法在單幀和多幀模式下均優于其它方法。單幀模式下HSCD的Rank-1為36%,多幀模式下上升到58%,表明了HSCD方法在多幀模式下顯著的增強作用。在多幀模式下,只有基于協方差測度學習的COSMATI方法能在 CMC曲線的后半段略優于HSCD,其它方法均明顯差于HSCD。

圖5 i-LIDS圖庫上各方法的CMC曲線

以上實驗結果表明,本文提出的HSCD方法在單幀和多幀模式下均可取得很好的識別性能。與其它方法相比,本文方法的ACI應用型指標更高,計算時間更少,更利于在實際應用中進行實時的人體再識別。

5 結束語

本文成功構造了基于空間直方圖和協方差的兩種外觀統計描述方法,然后融合得到了性能優異的HSCD方法。該方法除了識別性能上的優勢,其它優勢還包括:(1)屬于特征類方法,不需要進行監督性訓練;(2)特征性能優異,MCSH和MSPC方法均不需要進行分割檢測等預處理步驟,特征提取迅速;(3)測度簡單,本文將傳統測度替換為簡單的1l距離加權組合測度,更利于高效的距離計算;(4)實用,本文方法ACI應用性能指標優異,有利于實時的視覺應用。

鑒于人體再識別存在的挑戰性和對其它應用的重要性,下一步可能的研究工作還包括:(1)考察與顏色和結構信息具有較強互補性的其它特征,并尋找其它優秀的特征描述方法;(2)探討針對各影響因素下的處理策略,如顏色和光照處理等;(3)基于本文特征考察和設計合適的測度學習方法;(4)將再識別方法引入到多機跟蹤等應用領域,將人體再識別推廣到其它目標的再識別問題,考察方法的實用性能和推廣能力。

[1] Gray D, Brennan S, and Tao H. Evaluating appearance models for recognition, reacquisition, and tracking[C]. IEEE International Workshop on Performance Evaluation for Tracking and Surveillance. Rio de Janeiro, Brazil, 2007:41-47.

[2] Wang H, Bao X, Choudhury R R, et al.. Insight: recognizing humans without face recognition[C]. Proceedings of the 14th Workshop on Mobile Computing Systems and Applications,Georgia, USA, 2013, 7.

[3] Farenzena M, Bazzani L, Perina A, et al.. Person re-identification by symmetry-driven accumulation of local features[C]. IEEE Conference on Computer Vision and Pattern Recognition, San Francisco, USA, 2010: 2360-2367.

[4] Cheng D S, Cristani M, Stoppa M, et al.. Custom pictorial structures for re-identification[C]. British Machine Vision Conference, Dundee, UK, 2011, 6.

[5] Bazzani L, Cristani M, Perina A, et al.. Multiple-shot person re-identification by chromatic and epitomic analyses[J].Pattern Recognition Letters, 2012, 33(7): 898-903.

[6] Ma B, Su Y, and Jurie F. Local descriptors encoded by fisher vectors for person re-identification[C]. European Conference on Computer Vision, Florence, Italy, 2012: 413-422.

[7] 范彩霞, 朱虹, 藺廣逢, 等. 多特征融合的人體目標再識別[J].中國圖象圖形學報, 2013, 18(6): 711-717.Fan Cai-xia, Zhu Hong, Lin Guang-feng, et al.. Person re-identification based on multi-features[J]. Journal of Image and Graphics, 2013, 18(6): 711-717.

[8] Hu Y, Liao S, Lei Z, et al.. Exploring structural information and fusing multiple features for person re-identification[C].IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 794-799.

[9] Bak S, Corvee E, Brémond F, et al.. Person re-identification using spatial covariance regions of human body parts[C].IEEE International Conference on Advanced Video and Signal Based Surveillance, Boston, USA, 2010: 435-440.

[10] Bak S, Corvee E, Bremond F, et al.. Multiple-shot human re-identification by mean riemannian covariance grid[C].IEEE International Conference on Advanced Video and Signal-Based Surveillance, Klagenfurt, Austria, 2011:179-184.

[11] Zhao R, Ouyang W, and Wang X. Unsupervised salience learning for person re-identification[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 4321-4328.

[12] Gray D and Tao H. Viewpoint invariant pedestrian recognition with an ensemble of localized features[C].European Conference on Computer Vision, Marseille, France,2008: 262-275.

[13] Back S, Charpiat G, Corvée E, et al.. Learning to match appearances by correlations in a covariance metric space[C].European Conference on Computer Vision, Florence, USA,2012: 806-820.

[14] Prosser B, Zheng W S, Gong S, et al.. Person re-identification by support vector ranking[C]. British Machine Vision Conference, Wales, UK, 2010, DOI: 10.5244/c.24.21.

[15] 陳方, 許允喜. 視頻監控中基于在線多核學習的目標再現識別[J]. 光電工程, 2012, 39(9): 65-71.Chen Fang and Xu Yun-xi. People re-identification based on online multiple kernel learning in video surveillance[J].Opto-Electronic Engineering, 2012, 39(9): 65-71.

[16] Dikmen M, Akbas E, Huang T S, et al.. Pedestrian recognition with a learned metric[C]. Asian Conference on Computer Vision, Queenstown, New Zealand, 2010: 501-512.

[17] Zheng W S, Gong S, and Xiang T. Reidentification by relative distance comparison[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(3):653-668.

[18] Pedagadi S, Orwell J, Velastin S, et al.. Local fisher discriminant analysis for pedestrian re-identification[C].IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 3318-3325.

[19] Birchfield S T and Rangarajan S. Spatiograms versus histograms for region-based tracking[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Diego, USA, 2005: 1158-1163.

[20] Tuzel O, Porikli F, and Meer P. Region covariance: a fast descriptor for detection and classification[C]. European Conference on Computer Vision, Graz, Austria, 2006:589-600.

[21] Zheng W, Gong S, and Xiang T. Associating groups of people[C]. British Machine Vision Conference, London, UK,2009: 1-11.

[22] Hong X, Chang H, and Shan S. Sigma set: a small second order statistical region descriptor[C]. IEEE Conference on Computer Vision and Pattern Recognition, Miami, USA,2009: 1802-1809.

猜你喜歡
特征區域方法
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
關于四色猜想
分區域
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 久草中文网| 国产精品青青| 欧美综合区自拍亚洲综合绿色 | 成人噜噜噜视频在线观看| 另类综合视频| 久久国产精品无码hdav| 日韩小视频在线播放| 国产精品无码翘臀在线看纯欲| 欧美亚洲国产日韩电影在线| 亚洲国产系列| 亚洲成a人片| www.91在线播放| 热思思久久免费视频| 欧美 国产 人人视频| 国产自无码视频在线观看| www.精品视频| 久久一级电影| h视频在线播放| 97在线公开视频| 香蕉久久永久视频| 欧洲免费精品视频在线| 亚洲精品中文字幕午夜| 老司国产精品视频91| 亚洲精选无码久久久| 沈阳少妇高潮在线| 2020极品精品国产| 8090成人午夜精品| 国产成人精品一区二区| 亚洲成人在线网| 国产精品无码AV片在线观看播放| 婷婷六月激情综合一区| 欧美日韩国产在线播放| 国产一级毛片在线| 波多野结衣久久精品| 欧美曰批视频免费播放免费| 午夜福利无码一区二区| 伊人久综合| 免费国产高清视频| 亚洲日产2021三区在线| 免费亚洲成人| 香蕉蕉亚亚洲aav综合| 91福利免费视频| 亚洲无限乱码| 自拍亚洲欧美精品| www.精品国产| 亚洲欧美综合精品久久成人网| 欧美有码在线观看| 精品福利网| 999国内精品视频免费| 日韩欧美中文在线| 亚洲91精品视频| 欧美国产精品拍自| 麻豆精品久久久久久久99蜜桃| 欧美劲爆第一页| 99人妻碰碰碰久久久久禁片| Aⅴ无码专区在线观看| 在线观看国产精品一区| 中文字幕色在线| 中文字幕伦视频| 亚洲精品国产精品乱码不卞 | 成年片色大黄全免费网站久久| 国产麻豆91网在线看| 2021国产精品自拍| 日韩无码视频专区| 久久免费精品琪琪| 色婷婷在线影院| 日韩在线观看网站| 91系列在线观看| 无码区日韩专区免费系列| 无码AV动漫| 亚洲天堂视频在线观看免费| 99ri精品视频在线观看播放| 一本大道香蕉中文日本不卡高清二区| 999精品色在线观看| 亚洲国产天堂久久综合| 99视频有精品视频免费观看| 日本免费一级视频| 一本大道AV人久久综合| 色综合天天综合| 熟妇丰满人妻| 在线观看免费人成视频色快速| 人妻丰满熟妇αv无码|