田 廣 ,徐 奕,楊小康
(1.上海博康智能網絡科技有限公司,上海 200333;2.上海交通大學 電子工程系 圖像通信與信息處理研究所,上海 200240;3.上海市數字媒體處理與傳輸重點實驗室,上海 200240)
步態識別是一種新興的生物特征識別技術,旨在根據人們走路的姿勢進行人的身份認證。如果說人臉、指紋等靜態圖像的識別是第一代生物識別技術,那么步態這種動態識別則是第二代生物識別技術。第一代生物特征識別技術通常要求近距離的或者接觸性的感知,如指紋需要接觸指紋掃描儀,眼虹膜需要近距離捕捉,而人臉圖像也需要近距離采集而提供足夠的分辨力等。另外,隨著犯罪手段的不斷智能化、科技化,第一代生物特征識別技術將面臨防偽、防盜的挑戰。研究顯示,用明膠制成的假手指就可以輕而易舉地騙過指紋識別系統,在隱形眼鏡上蝕刻出的虛假眼虹膜特征也可以讓虹膜識別系統真假難辨,而人臉識別則易受化妝術、佩戴物的影響等[1]。步態識別可克服以上缺陷,在遠距離非接觸的狀態下進行,具有可遠距離獲取,非接觸性和非侵犯性,以及難以隱藏、難以模仿或盜用等優點[2]。從智能視頻監控的未來發展來看,步態是遠距離情況下最有潛力的生物特征,并且是進一步精細化監控功能的必要線索,在輔助身份識別的同時,還可實現目標對象的年齡和性別判別,甚至可用于辨別目標對象的種族類型[3-5]。
近年來,步態識別研究引起了各國學術科研機構的重視,它在門禁系統、安全監控、人機交互、醫療診斷等領域均具有廣泛的應用前景和經濟價值。美國國防高級研究項目署DARPA在2000年資助的HID(Human Identifi?cation at a Distance)計劃,它的任務就是開發多模態的、大范圍的視覺監控技術以實現遠距離情況下人的檢測、分類和識別,以增強國防、民用等場合免受恐怖襲擊的自動保護能力。在新興的智能家庭看護領域,步態分析可幫助及時發現老人和小孩的摔倒事件。在醫學研究中,通過步態分析可以評估患者是否存在異常步態以及異常的特性和程度,從而為研究步態異常原因、制定治療方案提供必要的依據[6]。步態識別的研究成果還可以擴展到解決計算機視覺領域的其他問題,比如區分不同的行為(跑步、拳擊、打網球的擊球動作等)、手語的解釋等。因此,步態識別技術融合了計算機視覺、模式識別與視頻/圖像序列處理等多個領域的研究成果,將成為未來智能監控領域備受關注的前沿研究方向。
步態識別系統具有視頻采集、視頻預處理、運動目標分割、目標分類、步態特征提取與表達、步態特征分類和身份識別等7個基本模塊,其基本框架如圖1所示。

視頻預處理重點集中在背景模型的建立、陰影消除、尺度歸一化等環節,為運動目標分割提供完整的背景圖像以及為步態標志物的提取做好準備工作[7]。目標分類用于提取有效的行人區域,特征提取模塊將在步態周期計算基礎上形成步態特征,常用的步態特征包括行走速度、步長、步伐寬度、步伐頻率等。特征描述將在步態特征空間上進行,常用的描述算子包括人體模型描述子(橢圓模型、鐘擺模型等)[8-9]、步態能量圖[10]、傅里葉描述子[11]。最后,將步態特征描述子送入步態分類器中,輸出對應的身份識別結果。常用的步態分類器一般基于模板匹配法[12]或者統計方法而建立[13]。
目前,步態識別系統主要應用于智能化監控領域,對犯罪嫌疑分子進行身份認證。但步態計算較復雜,且易受情緒、穿戴物、走路角度的影響,識別準確率為80%~90%,遠低于第一代生物特征識別技術[1]。針對這一問題,將多種生物特征融合進行身份識別是深度使用步態信息的有效手段,可充分發揮步態識別在一些特殊場合的重要作用。近年來,越來越多的專家學者展開了人臉和步態特征融合識別的研究[14],以及在進行步態身份認證的同時還提供興趣目標的性別、年齡信息[4,15],有力推動了智能監控系統的精細化發展。
目前的年齡估計方法主要是以人的面部特征為依據。現有研究表明,步態特征在不同的年齡段會呈現出其規律特性:1)身形比例不同;2)步伐頻率、步長不同;3)行走速度不同;4)抬腳高度不同;5)關節的位置、角度、角加速度、對稱性等。
與傳統的基于人臉的年齡估計相比,用步態作為年齡特征具有以下互補優勢:
1)數據采集方便。采集對象的近距離人臉圖片需要當事人保持靜止并進行配合,不易操作;而采集對象的步態數據可以不需要對象的配合,更適合戶外開放環境下、遠距離的監控任務,且能節省時間。
2)檢測條件不同。利用人臉來估計,需要準確拍攝到人的正面臉部圖像,這在開放環境下不易獲得,即使能拍到遠距離的低分辨力圖片,其信息量也不足以保證識別質量;而利用步態特征,即使沒有拍攝到人臉,僅憑對象行走的視頻序列即可作出判斷。
3)抗干擾能力不同。人臉圖像在有外部干擾條件下會降低判決力,比如在化妝、整容、遮擋情況下,僅憑人臉圖像幾乎無法正確判斷年齡,而人的步態是難以隱藏和偽裝的。
根據應用場合的不同要求,目前有兩類年齡估計方法,或者估計一個人準確的年齡值,或者推斷一個人所屬的年齡段區間。在已有的方法中,基于年齡段的分類是最常見的,一方面因為面向精確年齡估計任務的數據庫難以采集,另一方面,在大多數應用中并不需要估計出對象的精確年齡,而只需要粗略估算出對象屬于哪個年齡層。步態特征中所蘊含的年齡信息非常適用于第二類年齡估計任務的高效實現。生物、醫學領域的一些研究工作表明,在人的不同年齡階段,人的步態特征(如行走速度、步長、步伐寬度、步伐頻率等)都會發生很大的變化。這為利用步態特征來實現年齡估計提供了科學依據。2010年,新加坡南洋理工大學的Lu等學者首次提出了一種基于步態的年齡估計方法[4]。該算法將每個年齡值編碼為8位的二進制序列,并考慮到同齡的男女之間步態存在較大差異,用多標注學習的方法得出性別和年齡編碼之間的相關性,最終采用多標注KNN方法給出基于步態的年齡識別結果。該方法驗證了步態特征用于年齡估計的可行性。
智能視頻監控中年齡信息是很重要的一種身份屬性。如果獲得了監控對象的年齡,就有望在此基礎上推出相關的新應用:
1)協助公安部門抓捕通緝犯。通常,當刑事案件發生后,即使監控視頻沒有拍到犯罪嫌疑人的臉部圖像,也能通過其步態視頻獲取其大致的年齡區間,縮小對犯罪嫌疑人的搜尋范圍。
2)業務監控環境下,年齡信息將增強人機交互和客戶體驗。例如,在商場宣傳展柜中,當監控視頻系統遠距離識別出消費者的年齡段后,隨即播放該年齡段感興趣的宣傳片或者推送出合適的商品實物。除此之外,可以統計展柜前各個年齡段的人數,反映展品對不同年齡層的吸引力。
3)提供新一代門禁系統。例如,在有年齡限制的區域(網吧、酒吧等)設置報警裝置,基于步態分析對出入人員作出年齡段鑒別,一旦不符合規定的人群進入,便觸動報警設備。
現有研究工作表明,步態特征的引入可以有效輔助大尺度監控范圍內的性別識別任務。2002年,麻省理工學院人工智能實驗室的學者L.Lee和W.E.L.Grimson提出了一種基于步態外觀表示的年齡估計方法,其工作機理是利用人體的質心位置將行人二值輪廓圖劃分為7個部分,對每個部分用橢圓逼近并提取靜態特征,同時通過傅里葉變換得到步態序列的動態特征,將這兩種特征融合之后采用ANOVA方法進行降維,送入SVM分類器輸出年齡分類結果。在不同光照環境下,該工作能夠獲得84%~90%的性別識別率。不足的是,所采用的實驗數據庫較小,視頻中人的行走方向僅為水平方向[16]。
2007年,倫敦大學瑪麗皇后學院計算機系的Cai?feng Shan和Shaogang Gong等人基于人臉圖像和步態行為存在相關性的事實,提出了一種基于典型相關分析(CCA)對步態特征和人臉特征進行融合的方法。在CA?SIA數據庫上的實驗表明,這種多模態特征融合的性別識別系統能夠取得高達97.2%的識別率。該工作的局限性在于提取特征的方法較復雜,受光照的影響較大[15]。
2008年,倫敦大學的Xuelong Li等學者通過大量實驗研究了人體各個部位對步態性別識別的影響,該工作首先根據醫學原理將人體分為頭、肩、軀干、大腿、前小腿、后小腿和腳等7個部位,用歐氏距離來度量各部位平均步態圖像之間的相似性,用SVM分類器來識別。該方法在USF步態數據庫上進行了數百次實驗,列出了每個身體部位在不同條件下對性別識別的貢獻作用,為后續的研究工作提供了很好的指導意義[17]。
2008年,北京航空航天大學智能識別與圖像處理實驗室建立了具有7個視角、60個人的IRIP步態數據庫,首次開展了多視角的步態性別識別研究工作。該工作對二值輪廓圖的水平、垂直投影特征向量采用PCA方法進行降維,然后通過SVM分類給出性別識別結果。另外,還采用了Fisher線性判決測試了不同視角下的類別可分度,實驗結果表明各角度下的平均識別率達到了85%[18]。
2009年,中科院自動化所模式識別國家重點實驗室的Shiqi Yu等學者提出了一種對不同人體區域的步態信息進行加權的性別識別方法。該方法在步態能量圖的基礎上將人體分為5個區域,并賦予不同的權重,加權后的區域步態特征經過ANOVA方法降維后送入SVM進行分類。該方法易于操作,并在CASIA數據庫上取得了95.97%的識別率。另外,在跨種族的步態數據庫上進行了性能測試實驗,取得了約87%的識別率[3]。
2009年,臺灣大學網絡與多媒體研究所的Ping-Chieh Chang等學者研究了實時約束條件下的多視角步態性別識別。該方法以步態能量圖作為特征,通過主成分分析和線性判決分析的方法、Fisher-boosting的方法來訓練多個分類器,在多視角的情況下進行了性別分類實驗。同時,此方法還被應用到真實場景中來測試其有效性,獲得了84%的識別率。這個方法較為全面地給出了多視角條件下步態性別識別的研究工作[19]。
迄今為止,大多數的步態識別工作都基于單一的視角,其中側視圖(視線與步行方向成90°角)用得最多,因為一般認為側視圖包含的信息量最大。在實際的應用領域,多視角步態信息可提供更全面的對象步態特征,因為在單一的鏡頭下,觀測對象一般可以自由地向各個方向走動,視角的改變會導致識別率的劇烈下降。
為了解決這個問題,研究者開始聯合使用多個視角來進行步態識別,并引入主動視覺系統保證興趣目標步態圖像的連續獲取[20]。在不同視角下,由于步態行為的觀測特征會產生差異,與姿態無關的步態特征提取和基于多視幾何的特征變換從而成為目前主流的兩類方法。
A.Y.Johnson等人在多視角步態識別過程中引入了與姿態無關的人體靜態特征,例如身高,身體各部分之間的距離等,在個體外觀特征具有一定變化的數據庫上仍能取得94%的識別率[21]。2002年,Ben Abdelkader等人提出一個與姿態無關的步態特征,他們對興趣目標(已被成功檢測和跟蹤)的每一幀圖像均用給定模板提取運動塊,這些運動塊序列圖像之間的自相似特征則作為步態特征進行識別,實驗結果表明,在為期一周所采集的8視角的室內步態圖像序列上,任意視角的平均步態識別率為65%[22]。Wang等人基于統計形狀分析建立步態特征,該工作將行人輪廓邊緣點與質心之間的距離構成一個二維時序矢量,該矢量可描述與姿態無關的行人輪廓的時變特性。CASIA-A數據庫的實驗結果表明,此類步態特征在任意視角下的平均步態識別率為84.1%[23]。2007年,Hong等人提出一種新的步態描述模型-Mass vector,定義為行人輪廓圖像某給定行上的非零值像素數,而多幀的Mass Vector構成一個與姿態無關的矢量序列,CA?SIA-A數據庫的實驗結果表明,Mass Vector步態特征的正確分類率超過95%[24]。
2001年,Shakhnarovich等人發明了基于圖像的可視外殼(Image Based Visual Hull),通過虛擬視生成技術對多視角的人臉和步態圖像序列進行視角歸一化處理,如虛擬生成正面的人臉和側視的步態圖像序列,然后在同一視角下進行身份識別,實驗證明視角歸一化過程提高了身份識別率[25]。2009年,Bodor等人基于多視角步態圖像重構出與訓練集視角一致的步態特征來克服視角變化對識別率的影響[26]。2010年,Worapan Kusakunniran等人采用支持向量回歸法(SVR)建立出不同視角之間的步態特征轉換模型(VTM),從而將不同視角下的步態序列都轉換為同一視角,接下來即可使用現有的步態分析技術來完成身份識別。以上方法均采用計算機視覺中的多視幾何理論,在一定程度上克服了視角變化對步態識別的影響。考慮到多視幾何變換過程中步態信息會有一定損失,Xiaxi Huang等人基于各個視角下有效信息量的大小,定義了多視角步態信息的融合機制,充分利用了各個視角下步態行為的觀測特征,比單一視角的步態識別率提升了4%~18%[27]。
步態數據庫是評價和比較步態識別算法性能的重要工具。通常,一個步態數據庫包含了同一場景下多個對象的步態序列圖像,每個對象有一組視頻,而每一個視頻記錄的是這個對象在一段時間內(幾秒或幾十秒)走過一段距離(幾米或幾十米)的步態序列圖像。根據不同的研究目的,每個數據庫具體的拍攝條件會有所不同。由于計算機的存儲和處理能力有限,早期的步態識別研究多是在較小的數據庫下進行。隨著研究的深入,不少研究機構(如參與HID計劃的大學)都建立了大型的專用步態數據庫。下面詳細介紹5個最常用的步態數據庫:UC?SD,Soton,CMU Mobo,USF和CASIA。其中,UCSD和So?ton提供單一視角(與視線垂直)的對象步態圖像序列,CMU Mobo,USF和CASIA則提供了多個視角的對象步態圖像序列。
UCSD(University of California,San Diego)步態數據庫是一個在室外拍攝的小型數據庫,從網址http://www-mitpress.mit.edu/e-journals/Videre/001/articles/Lit?tle-Boyd/gait/gait.html可下載該數據庫。UCSD步態數據庫包含了6個對象,每個對象有7個步態序列,總共42個序列。步態數據的采集如圖2所示。所有對象沿著一個回路行走,攝像機的位置固定,每一時刻只有一個人出現在無反射的背景墻前,其行走方向與拍攝視線成90°角。所有對象都輪流出現在畫面中,經過15 min后視頻拍攝完成,然后再分切為小段序列。

原始圖像是640×480像素的24位彩色圖,經重采樣等處理后為320×160的黑白圖。
使用SPSS 13.0軟件對數據進行分析,計量資料采用(±s)表示,并進行t檢驗,計數資料采用χ2檢驗,P<0.05為差異有統計學意義。
Soton(Southampton Human ID at a Distance data?base)數據庫同時考慮了室內和室外兩類拍攝場景。室內場景數據又分為2種采集形式:人在跑步機行走和人在地面上行走。其中背景被布置為綠色的幕布。室外數據的采集條件則相對寬松,沒有對視頻背景進行限制,某些序列會有少量人和車出現。Soton數據庫由1個約100人的大型數據庫和1個12人的小型數據庫組成。大型數據庫的內容比較單一,目的是用來測試算法對正常行走步態序列的身份識別性能。小型數據庫考慮到了多種變化因素,比如攜帶物、衣著和鞋子等對步態的影響,目的是評估步態識別算法在各種變化條件下識別性能的穩健性。與UCSD步態數據庫類似,Soton步態數據庫提供的是單一視角下不同對象的步態圖像序列。
CMU MoBo(Carnegie Mellon University Motion of Body)數據庫在室內場景下拍攝,包含了25個對象在跑步機上行走的視頻。如圖3所示,數據分別從6個視角采集,每個對象有4種步態模式:慢速行走、快速行走、傾斜面上行走和攜帶球體行走(為了限制手臂擺動)。每個視頻長約11 s,圖像分辨力為640×480像素,包含10個步態周期。在步態數據庫建立的同時,還標識了對象的年齡、性別和體重信息,因此該數據庫可為新興的步態年齡識別和步態性別識別研究提供算法的性能評估平臺。

USF(University of South Florida)步態數據庫是針對室外開放場景而建立的大型數據庫,由122個對象的1870個視頻序列所構成,視頻的采集時間分為2次,總數據量達到了1.2 Tbyte。每個對象在攝像機前沿橢圓路線行走至少5圈,最后一圈的視頻被選為有效數據。對每個對象,有5種可變條件:
1)鞋的類型不同,分為A和B這2種;
2)攜帶狀態不同,根據手上是否提包分為NB和BF;
3)地表狀態不同,分為草地(Grass)和水泥地(Con?crete),記為G和C;
4)攝像機視角不同,分為左視角和右視角,記為L和R;
5)拍攝時間不同,在同一年的5月份和11月份分2次拍攝,記為t1和t2。
根據這些可變條件,數據庫分為了A~L等12個子集。在建立數據庫的同時,Sarkar等研究人員也提出了一種基于該數據庫的基線(Baseline)算法。該算法在實驗中選取的訓練集(Gallery)是(G,A,R,NB,t1),即從右方拍攝的人穿著A類的鞋子、沒有提包,在草地上行走的視頻集。選取B~L為測試集,這11個視頻集的采集條件與A視頻集都有區別并且彼此各不相同。在當前所有步態數據庫中,USF步態數據庫的環境變化條件最多、最全面。對象與樣本數也非常豐富,是國外步態數據庫中規模最大的。由于步態數據在室外采集,增加了許多識別過程的復雜性,如需克服光照的變化,背景中云的運動帶來的影響等。該數據庫目前廣泛應用于步態識別算法的穩健性評估。
CASIA(Institute of Automation,Chinese Academy of Sciences)步態數據庫由中國科學院自動化研究所創建,是國內最完備的數據庫。該步態數據庫有3個數據集:Dataset A(小規模庫),Dataset B(多視角庫)和Dataset C(紅外庫)。Dataset A包含20個對象的步態數據,每個對象有12個圖像序列,通過3個行走方向(與圖像平面分別成0°,45°,90°)采集獲得。整個數據庫包含13139幅圖像,大小約有2.2 Gbyte;Dataset B是一個大規模的,多視角的步態數據庫,該數據庫中共有124個對象,每個對象的步態序列包含11個拍攝視角(0°,18°,36°,…,180°)和3種行走條件(普通條件,穿大衣,攜帶包裹條件)。由于該集合所包含的對象數目眾多,且每個對象的步態數據量也很豐富,因此該數據集被廣泛應用于評估步態識別算法。Dataset C是采用紅外(熱感)攝像機在夜間拍攝獲得的大規模數據庫。該集合包含153個對象,每個對象在4種條件下行走:正常行走,快走,慢走,帶包走。由于該數據集拍攝的是紅外圖片,所以較少應用于步態識別方法的性能評估中。
此外,HID-UMD步態數據庫提供了開放場景下噪聲干擾最為顯著的多視角步態圖像序列。該數據庫可用于考察在圖像質量較差情況下不精確的特征提取對步態識別的影響。
在未來的智能監控系統中,步態識別技術在遠程身份識別方面將發揮重大的作用,并且以下幾個研究工作將成為熱點:
1)具有年齡和性別標識的步態數據庫的建立,以及具備年齡識別和性別識別功能的步態識別技術。
2)多視角、多生物特征融合的步態識別技術是提升身份識別率的有效手段,有望推廣至公共安全、家庭看護以及醫療診斷等眾多領域,創造不菲的經濟價值。
3)現有步態識別算法考慮的是簡單背景下的身份識別,未來步態識別技術的研究將集中于復雜場景下的身份識別。這些場景往往是社會安防重點關注的區域,如機場、廣場、重要政府部門等高人流量場合。
[1] 歐陽常青.步態識別技術在反恐等公共安全領域中的應用[J].新疆警官高等專科學校學報,2005(3):63-64.
[2]TISTARELLI M,LI S Z,CHELLAPPA R.Handbook of remote biometrics for surveillance and security[EB/OL].[2010-05-20].http://icast.icst.org/2010/06/handbook-remote-biometrics-surveillance-andsecurity.
[3]YU S Q,TAN T N,HUANG K Q,et al.A study on gait-based gender classification[J].IEEE Trans.Image Processing,2009,18(8):1905-1910.
[4]LU J W,TAN Y P.Gait-based human age estimation[J].IEEE Trans.Information Forensics and Security,2010,5(4):1718-1721.
[5]ZHANG D,WANG Y H,BHANU B.Ethnicity classification based on gait using multi-view fusion[C]//Proc.2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops.San Francisco,CA:IEEE Press,2010:108-115.
[6]KATIYAR R,PATHAK V K.Clinical gait data analysis based on spatio-temporal features[J].International Journal of Computer Science and Information Security,2010,2(2):174-183.
[7] 王克奇,郭軍波,朱莉.步態識別預處理算法的研究[J].模式識別與仿真,2009,28(12):108-115.
[8]XU J H,CONG W,LI J,et al.Gait recognition based on key frame and elliptical model[EB/OL].[2011-05-20].http://www.meeting.edu.cn/meeting/paper/paper!detail1.action?id=22645.
[9]ZHANG R,VOGLER C,METAXAS D.Human gait recognition[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/search/freesrchabstract.jsp?tp=&arnumber=1384807&queryText%3DHuman+gait+recognition%26openedRefinements%3D*%26searchField%3DSearch+All.
[10]HAN J,BHANU B.Individual recognition using gait energy image[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2006,28(2):316-322.
[11]YU S Q,WANG L,HU W M,et al.Gait analysis for human identification in frequency domain[EB/OL].[2011-05-20].http://www.computer.org/portal/web/csdl/doi/10.1109/ICIG.2004.72.
[12]WANG L,TAN T N.Automatic gait recognition based on statistical shape analysis[J].IEEE Trans.Image Processing,2003,12(9):1120-1131.
[13]KALE A,SUNDARESAN A,RAJAGOPALAN A N,et al.Identification of humans using gait[J].IEEE Trans.Image Processing,2004,13(9):1163-1173.
[14]ZHOU X L,BHANU B.Integrating face and gait for human recognition at a distance in video[J].IEEE Trans.Systems Man and Cybernetics-Part B,2007,37(5):1119-1137.
[15]SHAN C F,GONG S G,MCOWAN P W.Learning gender from human gaits and faces[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/search/freesrchabstract.jsp?tp=&arnumber=4425362&queryText%3DLearning+gender+from+human+gaits+and+faces%26openedRefinements%3D*%26searchField%3DSearch+All.
[16]LEE L,GRIMSON W E L.Gait analysis for recognition and classification[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/search/freesrchabstract.jsp?tp=&arnumber=1004148&queryText%3DGait+analysis+for+recognition+and+classification%26openedRefinements%3D*%26 searchField%3DSearch+All.
[17]LI X L,MAYBANK S J,YAN S C.Gait components and their application to gender recognition[J].IEEE Transactions on Systems,Man and Cybernetics-Part C,2008,38(2):145-155.
[18]ZHANG D,WANG Y H.Investigating the separability of features from different views for gait based gender classification[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/Xplore/login.jsp?url=http%3A%2F%2Fieeexplore.ieee.org%2Fiel5%2F4740202%2F4760915%2F04761872.pdf%3Farnumber%3D4761872&authDecision=-203.
[19]CHANG P C,TIEN M C,WU J L,et al.Real-time gender classification from Human gait for arbitrary view angles[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/search/freesrchabstract.jsp?tp=&arnumber=5364846&queryText%3DReal-time+gender+classification+from+Human+gait+for+arbitrary+view+angles%26openedRefinements%3D*%26searchField%3DSearch+All.
[20]COLLINS R T,AMIDI O,KANADE T.An active camera system for acquiring multi-view video[EB/OL].[2011-05-20].http://arnetminer.org/viewpub.do?pid=317059.
[21]JOHNSON A Y,BOBICK A F.A multi-view method for gait recognition using static body parameters[J].Lecture Notes in Computer Science,2011,2091:301-311.
[22]BEN ABDELKADER C,DAVIS L S,CUTLER R.Motion-based recognition of people in EigenGait space[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/xpl/freeabs_all.jsp?arnumber=1004165.
[23]WANG L,TAN T,NING H,et al.Silhouette analysis-based gait recognition for human identification[J].IEEE Trans.Pattern Anal.Mach.Intell.,2003,25(12):1505-1518.
[24]HONG S J,LEE H S,NIZAMI I F,et al.A new gait representation for human identification:mass vector[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/search/freesrchabstract.jsp?tp=&arnumber=4318491&queryText%3DA+new+gait+representation+for+human+identification%3A+mass+vector%26openedRefinements%3D*%26searchField%3D Search+All.
[25]SHAKHNAROVICH G,LEE L,DARRELL T.Integrated face and gait recognition from multiple views[EB/OL].[2011-05-20].http://ieeexplore.ieee.org/search/freesrchabstract.jsp?tp=&arnumber=990508&query Text%3DIntegrated+face+and+gait+recognition+from+multiple+views%26openedRefinements%3D*%26searchField%3DSearch+All.
[26]BODOR R,DRENNER A,FEHR D,et al.View-independent human motion classif i cation using image-based reconstruction[J].Journal of Image and Vision Computing,2009,28(8):1194-1206.
[27]HUANG X X,BOULGOURIS N V.Human gait recognition based on multiview gait sequences[EB/OL].[2011-05-20].http://www.hindawi.com/journals/asp/2008/629102/.