999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于隱馬爾科夫模型的人體動作壓縮紅外分類

2017-04-01 05:17:11關秋菊羅曉牧郭雪梅王國利
自動化學報 2017年3期
關鍵詞:分類動作測量

關秋菊 羅曉牧 郭雪梅 王國利

基于隱馬爾科夫模型的人體動作壓縮紅外分類

關秋菊1羅曉牧2郭雪梅3王國利3

人體動作產生的輻射能量變化(Infrared radiation changes,IRC)信號是動作識別的重要線索,本文提出了一種基于隱馬爾科夫模型的人體動作壓縮紅外分類新方法.針對人體動作的自遮擋問題,建立基于正交視角的壓縮紅外測量系統,獲取人體動作在主投影面和輔助投影面的IRC壓縮信號;然后,采用隱馬爾科夫模型(Hidden Markov model,HMM)雙層特征建模算法進行壓縮域動作分類.實驗結果表明雙層特征建模的平均正確分類率高于主層特征建模,平均正確分類率可達95.71%.該方法為環境輔助生活系統提供了人體動作識別的新途徑.

環境輔助生活,隱馬爾科夫模型,壓縮感知,熱釋電紅外傳感器,動作分類

環境輔助生活(Ambient assisted living,AAL)系統是輔助居家老人延長獨立生活的智能系統[1?2].人機物(環境)深度融合是“以人為中心”AAL系統的顯著特征,而人體行為理解是實現人機物深度融合的重要紐帶,只有當系統能正確理解人體行為,才能更好地給予老人生活協助.行為理解是利用AAL技術應對日益嚴重的人口老齡化社會問題中需要解決的基礎課題.因其巨大的潛在應用前景和固有的科學挑戰,開展行為理解基礎研究有著重要的學術價值和實際意義.其中,人體目標的動作識別是實現行為理解的基礎和關鍵技術要素.

目前,人體動作識別研究主要有兩個方向:基于視覺傳感的動作識別和基于非視覺傳感的動作識別.基于視覺傳感的動作識別是使用最為廣泛的方法,它通過視覺傳感器采集人體動作視頻或數字化圖像序列,再利用計算機視覺技術處理和分析圖像數據,進而實現動作識別[3?6].該方法通過從圖像數據中提取出與運動線索相關的有用信息,形成基于光流、軌跡、外觀、形狀或輪廓等線索或其組合策略的多種動作特征提取及識別方法.值得關注的是, Johansson等的經典實驗證實,生物視覺通過觀察放置在肢體關節處的點光源的運動狀態,能自然地推斷出步態的模式[7].這表明,視覺傳感以同構成像方式獲得的高維圖像數據中含有相當規模的信息與行為感知無關.傳統奈奎斯特規則支配的視覺傳感模式耗費網絡資源產生的大數據,與面向動作識別任務的信息處理模式對特征數據簡潔化的約束,兩者之間存在嚴重不對稱的數據鴻溝.

基于非視覺傳感的動作識別可進一步分為基于人體穿戴式傳感和基于環境部署式傳感兩類.基于人體穿戴式傳感的動作識別系統,利用部署在人體上的動作傳感器,獲取人體動作產生的位移、關節彎曲角度或加速度等運動信號,并進行特征提取與分析,實現動作的分析與理解.常用的動作傳感器有陀螺儀、加速度計和角速率計等[8?9].其中,加速度傳感器是最常用的穿戴式動作傳感器,特別適用于走、跑、爬樓梯等周期重復性動作的識別.但是,穿戴式傳感器測量時可能在人體表面滑動,這不僅引入測量數據誤差,有時還會限制人體動作,在一定程度上影響了用戶體驗.基于環境部署式傳感的動作識別,通常是在人體所處物理空間中(如,墻壁、走廊或室內天花板)部署大量低成本、低功耗的微型傳感器,通過監測人體動作引起的環境狀態變化,識別人體動作.該方法基于“人–物交互”現象:人體動作時,必然會和周邊環境中的物體產生交互,而這種交互會引起環境中某些物理量狀態的變化.常用的動作傳感器有接觸開關、壓力傳感器、熱釋電紅外(Pyroelectric infrared,PIR)傳感器等.其中, PIR傳感器能以非接觸的方式探測環境中人體運動引起的輻射場能量變化.2006年,Burchett等采用3個PIR傳感單元組合的頂視感知方式,測量人體運動產生的熱輻射變化信號,并基于主成分回歸方法,識別出常速走、慢走和揮臂三類典型人體動作[10].基于環境部署式傳感的動作識別方式,便于進行大規模網絡部署,且使人體運動更自然,尤其適用于AAL系統.

壓縮感知(Compressive sensing,CS)是一種壓縮與采樣合并進行的信息獲取新理論[11?12],它以遠低于奈奎斯特頻率進行采樣,采用非自適應線性投影保持信號的原始結構.人體作為紅外輻射源,運動產生的輻射能量變化(Infrared radiation changes,IRC)信息是動作識別的重要線索.PIR傳感器是獲取人體動作IRC的被動式傳感手段,與幾何參考結構相結合,形成壓縮感知支配的非同構被動光學成像機制,即紅外動作的參考結構層析成像技術[13?14].由此形成的壓縮紅外感知機制,可以直接面向特征信息進行壓縮采樣與處理,避免了傳統奈奎斯特規則支配的視覺模式下信息獲取與處理之間的數據鴻溝.

基于CS的壓縮分類是一種新的信息處理方法,它通過分析處理低維壓縮域測量值間接實現高維原始數據的分類[15?16].這種新的信息獲取與處理機制能有效避免無效或冗余信息的產生和處理過程,有助于降低傳感系統的復雜度和硬件成本,易形成輕量的信息處理算法,便于構建資源受限的無線傳感器網絡.

目前采用壓縮紅外感知技術手段識別人體動作已有一些初步研究.2012年,Luo等通過在天花板上安裝IRC壓縮感知模塊(由7個PIR傳感器和幾何參考結構組成),將目標空間劃分為17個采樣胞元,利用PIR傳感數據流的特征分析,識別人體摔倒動作[17].2014年,Sun等在室內布置4個IRC測量節點,每個節點由4個PIR傳感器和幾何參考結構組合而成,用于獲取輻射場空間14個采樣胞元內的IRC信息,基于傳感輸出信號,實現人體運動場景識別[18].上述研究中,人體紅外測量系統對感知空間的觀測為粗粒度形態,適用于人體移動層的運動識別.2014年,Guan等采用單個PIR傳感陣列和幾何參考結構組合的形式,將輻射場空間劃分為64個采樣胞元,基于壓縮測量數據進行10類平面動作的識別[19].該研究提高了感知空間的觀測粒度,易于實現肢體動作層識別;但由于單一視角的限制,僅適用于平面動作識別.

本文針對人體動作IRC信號的特點,結合壓縮分類理論,提出一種新的紅外輻射場人體動作分類方法.在動作信號獲取方面,利用PIR傳感陣列和掩膜陣列組合來實現紅外動作壓縮感知,該機制不僅提高了人體紅外輻射場空間IRC信息的觀測粒度,還兼具數據降維效果;采用正交視角融合的壓縮紅外感知方式獲取IRC信息,解決三維動作自遮擋問題.在動作信號分析方面,針對紅外動作IRC信號的時序特點,在低維壓縮測量域采用隱馬爾科夫模型進行動作模式分類.

1 理論基礎

1.1 壓縮分類

壓縮分類是壓縮域信號處理的基本問題之一,它的基本思想在于,利用測量矩陣的限制等距性質(Restricted isometry property,RIP),將高維空間的信號分類問題,映射到低維測量空間來求解[16].下面簡要介紹壓縮分類建模過程.

假設高維目標空間 RN中有 L類源信號{s1,s2,···,sL},目標信號x的類別未知,但已知它屬于這L類信號中的其中一類.建模目的是確定目標信號x的類別,即從L種假設情形中推斷信號x的真實類別:

在高維目標空間內,構造統計量: ti=‖x?si‖2,即目標信號和源信號的距離.根據最近鄰分類準則:

x即為上式取最小值時對應的第i個信號.但是,在高維目標空間中直接進行信號分類帶來的巨大計算量,不容忽視.

為了降低計算量,可以考慮在低維的壓縮測量域構造統計量進行信號分類.

采用具有 RIP的投影矩陣 Φ ∈ RM×N, M ? N,把源信號從目標空間RN投影至低維空間RM,這樣,L類信號的壓縮投影值分別為Φs1,Φs2,···,ΦsL,目標信號x的壓縮投影值y=Φx.同樣的,壓縮信號y的類別也有L種可能情形:

假設以上情形等概率發生,可以構造統計量[20]

分析信號y的類別.特別的,當Φ為正交矩陣(或其行向量互相正交)時,ΦΦT=E,則式(4)可化簡為在低維壓縮域中,依最近鄰原則:

壓縮測量信號y得以識別.

實際上,利用投影矩陣Φ的RIP,可使信號之間的距離在投影前后近似保持不變,即‖x?si‖2≈‖y?Φsi‖2,從而實現將高維空間的分類問題投影到低維空間求解的目的.

1.2 基于GMHMM的壓縮紅外分類

利用紅外壓縮測量,人體動作在高維紅外輻射場空間產生的IRC可被壓縮投影至低維測量空間.人體動作產生的IRC是一個動態連續過程.相應的,在低維測量空間,PIR傳感數據是連續的電壓時序信號.隱馬爾科夫模型(Hidden Markov model, HMM)具有很強的時序推演建模能力,是分析時間序列的有利工具,已廣泛用于語音[21]、視頻時序信號處理[22].本文選用連續型的高斯混合隱馬爾科夫模型(Gaussian mixture HMM,GMHMM)對紅外動作在低維壓縮測量域進行模式分類.

首先定義GMHMM中的模型參數.已知人體動作是由一系列靜止姿態在時域上動態變化而形成的.這里,將具有代表性的靜止姿態定義為GMHMM的隱狀態,一個動作所包含的代表性靜止姿態的數目,即GMHMM隱狀態數目.連續動作,從一個靜止姿態變化轉移到另一個靜止姿態時,會導致時空域輻射能量變化,并以PIR傳感器陣列輸出時序信號的形式呈現,即GMHMM的觀測值序列.連續動作各個隱狀態之間的轉移模式會在觀測值序列中體現出來.因此,利用觀測值序列作為樣本進行模型訓練,可以得到各個動作的GMHMM模型,它們可以很好地解釋特定動作類別中的樣本.一個GMHMM可簡記為λ=(H,MG,A,B,Π),各參數意義如下:

1)H:模型的隱狀態數目;

2)MG:高斯概率密度函數的數目,這里利用高斯概率密度函數來擬合隱狀態被觀測值觀察到的概率分布,同時為了提高擬合的準確性,可以采用多個高斯概率密度函數混合表示輸出觀測值的概率分布;

3)A={aij}:隱狀態轉移概率分布矩陣, A∈RH×H,其中,

表示從隱狀態Si到Sj的轉移概率,其中qt為t時刻的隱狀態,隱狀態轉移概率分布滿足:aij≥0且

4)B={bi(V)}:觀測值序列的概率密度分布, B∈RH×MG,當隱狀態為Si時,模型輸出觀測值V的概率為

其中,G為高斯概率密度函數,cim為在隱狀態Si下,第m個高斯函數的權重因子,滿足cim≥0和和Σim分別為該高斯函數的均值向量和協方差矩陣;

5)Π={πi}:初始狀態矢量,Π ∈RH×1,其中,

其次,基于GMHMM建模的紅外動作分類基本步驟如下:1)動作模型訓練:假設共有L類紅外動作,確定模型參數H,MG后,利用部分觀測值序列作為訓練樣本,對GMHMM進行訓練,得到各個動作的模型λi,i=1,2,···,L;2)測試動作識別:根據輸入的未知動作壓縮投影觀測值V,計算每個GMHMM λ輸出觀測值V的似然概率;V被歸類為產生最大似然概率的模型對應的動作類別,即

2 壓縮紅外動作信號獲取及GMHMM動作建模

2.1 基于正交視角的壓縮紅外動作測量

紅外動作信號測量系統基于IRC壓縮測量模塊進行,該模塊主要由PIR傳感器陣列、掩膜陣列和無線收發模塊構成[19].基于正交視角的壓縮紅外動作測量系統共采用兩個這樣的模塊.主投影面內的壓縮測量模塊作為正視測量節點,用于IRC主層特征的壓縮投影,PIR傳感器陣列和掩膜陣列聯合實現64×9維壓縮投影矩陣,其中的掩膜陣列將感知區域剖分為64個感知胞元,采用9個PIR傳感器對這些胞元內的IRC進行壓縮測量.輔助投影面內的壓縮測量模塊作為頂視測量節點,用于IRC輔助層特征的壓縮投影,PIR傳感器陣列和掩膜陣列聯合實現16×5維壓縮投影矩陣.利用上述面向雙層特征獲取的3D動作壓縮紅外測量系統,輻射場空間64×16維動作特征經壓縮投影,轉換為低維空間14維特征向量序列.

圖1所示為3D動作壓縮紅外測量實驗場景:正視測量節點位于主投影面(xy平面),與人體的水平間距為150 cm;頂視測量節點位于輔助投影面(yz平面),掛頂方式部署在人體正上方的天花板,距離地面300 cm;匯聚節點放置在桌面上方,將接收到的傳感數據實時傳送給上位機.實驗中,測試對象在限定空間范圍內動作,且人體正面朝向正視測量節點.

人體動作識別研究中,由于缺乏統一動作數據集,很多研究者通常在各自設計的數據集上驗證動作識別方法,這些數據集包含不同種類和數目的動作.經對比分析現有動作數據集,我們從中選擇參考了文獻[23]的數據集,該動作集在受試者數目、動作類型數目和樣本量等方面均具有合理的規模.參照該數據集,我們邀請5名受試者(4名男性,1名女性,平均身高170 cm,平均體重55 kg)參與實驗,建立紅外動作數據集.其中3名受試者,每人每個動作做10遍,共有300個動作樣本,用于建立動作模型的訓練集.另外2名受試者,每人每個動作做20遍,共有400個動作樣本,用于建立動作識別的測試集.本文建立的動作集包含10類上肢動作:揮右臂(m1)、揮左臂(m2)、揮雙臂(m3)、舉右臂(m4)、舉左臂(m5)、舉雙臂(m6)、左臂下右臂上(m7)、左臂上右臂下(m8)、左臂前右臂后(m9)和左臂后右臂前(m10).其中,前8類(m1~m8)選自文獻[23]中的動作類型;為了進一步驗證本文提出的動作識別方法對不同維度方向動作的辨別力,我們在數據集中添加了兩類動作:左臂前右臂后(m9)、左臂后右臂前(m10).總之,這些動作具有不同維度的代表性,既包含平行于xy平面的動作(m1、m2和m3),平行于xz平面的動作(m7、m8、m9和m10),也包含xyz三維空間內的動作(m4、m5和m6).圖2是一名受試者重復做5遍動作m3“揮雙臂”時的IRC壓縮信號時域波形,橫軸表示采樣時間,縱軸表示PIR傳感器的輸出電壓值.

圖1 紅外動作識別實驗場景Fig.1 The experiment scenario for infrared motion classi fi cation

2.2 基于雙層特征的GMHMM動作建模

特征選取是信號分類的前提,應首先予以分析檢驗.在GMHMM紅外動作特征建模中,為了避免模型過擬合或欠擬合問題,需要采取措施提高模型泛化能力:訓練集選取中,3名受試對象具有不同的體型特征(身高:164~176 cm;體重:50~73 kg),其動作具有多樣性的樣本分布特點,更符合實際的數據分布情況;初始參數也會影響訓練效果,通過設置不同的參數組合(隱狀態數目、高斯模型數目等),比較模型輸出似然概率,選擇能產生似然概率最高的模型.本文中,正視測量節點采用9個傳感器,頂視測量節點采用5個傳感器,即,數據集中主層特征的壓縮特征向量為9維,雙層特征的壓縮特征向量為14維.

1)基于不同特征層的動作模型訓練

利用動作集中300個訓練樣本,分別訓練出兩組HMM模型:基于主層特征的主層GMHMM和基于雙層特征的雙層GMHMM.模型訓練階段的主要任務是模型λ=(H,MG,A,B,Π)參數的確定.

下面先觀察參數隱狀態數目H、高斯模型數目MG對模型輸出似然概率的影響.對于使用不同的參數組合,動作m1的主層GMHMM建模平均似然概率輸出,如圖3(a)所示;雙層GMHMM建模平均似然概率輸出,如圖3(b)所示.可以發現,H和MG不同參數值組合下,模型輸出的平均似然概率不同.即,基于GMHMM建模的動作分類中,隱狀態數目H和高斯模型數目MG參數變化,對模型的識別性能影響較大.

為了保證動作分類的準確度,基于每個動作模型的輸出似然概率性能曲線,選擇可以使模型輸出似然概率最大的隱狀態數目H 和高斯模型數目MG.各動作模型的最優配置參數如表1所示.

值得注意的是,訓練樣本直接影響模型最優參數的取值.為了正確選擇最優參數,我們在建立樣本集時主要從三方面考慮:樣本量、樣本分布和樣本質量.在樣本量較少情況下,最優參數受影響顯著,這就要求樣本量應足夠多,確保建模的準確性和穩定性;從樣本分布角度看,需要采集一個能夠覆蓋動作模式所有種類的樣本集;從樣本質量角度看,動作執行相對規范的樣本質量較高,更有利于準確建模.

圖2 人體動作壓縮紅外測量信號(“m3揮雙臂”動作)Fig.2 The PIR sensors output recorded for the motion of“waving two hands”(m3)

圖3 GMHMM建模中隱狀態數目、高斯模型數目對平均對數似然值的影響(動作m1)Fig.3 The in fl uences of the HMM parameters on the average log likelihood(motion m1)

表1 GMHMMs參數配置Table 1 The speci fi cation of GMHMMs

2)特征層的分類性能對比

完成上述GMHMM訓練后,對動作的測試樣本進行識別.觀察同一個測試樣本(m9)在不同GMHMM下的識別結果:圖4為在10類動作主層GMHMM下的輸出似然概率,圖5為在10類動作的雙層GMHMM下的輸出似然概率.對比發現,對同一個測試動作,雙層GMHMM輸出似然概率普遍高于主層GMHMM,而且雙層GMHMM對測試動作的區分度也更顯著.

圖4 動作m9的一個測試樣本在主層GMHMM下的對數似然概率Fig.4 Log likelihoods of a test sequence of motion m9 using main-layer GMHMM

圖5 動作m9的一個測試樣本在雙層GMHMM下的對數似然概率Fig.5 Log likelihoods of a test sequence of motion m9 using double-layer GMHMM

3 實驗及結果分析

測量維數和測量視角是壓縮紅外動作測量系統配置的兩個關鍵參數,它們不僅影響測量系統的復雜度,還會直接影響動作分類的性能.實驗中,采用正交視角紅外動作測量平臺獲取實驗數據,基于GMHMM進行動作特征建模,通過實驗結果對比來分析測量維數和測量視角對3D動作分類性能的影響.

3.1 測量維數對動作識別性能的影響實驗

測量維數(PIR傳感器數目)是體現傳感效率的一個關鍵參數.這里,我們通過實驗來分析測量維數對正確分類率(Correct classi fi cation rate,CCR)和分類時間的影響.利用動作數據集中的400個測試樣本和GMHMM分類方法,得到如下的分析結果.

實驗中,針對任一測量維數M,傳感器組合的選擇及相應CCR計算分為兩種情況.單一測量視角(正視或頂視)時,從傳感陣列中遍歷選擇M個傳感器組合(正視有

95式),對所有組合形式下的正確分類率求均值;正交視角時,正視傳感陣列的9個傳感器全部選用,同時從頂視傳感陣列中遍歷選擇M?9個傳感器組合種形式,頂視有種形(共有種形式),二者進行數據融合后計算正確分類率,并對所有組合形式下的正確分類率求均值.

圖6 測量維數對正確分類率的影響Fig.6 The in fl uence of the measurement dimension on the CCR

圖6為測量維數M增加時CCR的變化曲線.從整體上看,1≤M≤14范圍內的CCR呈指數增長并趨于穩定.進一步觀察圖中相應曲線,可發現:僅用正視測量節點時,當1≤M ≤6時,CCR隨M增加而迅速升高,當6≤M≤9時,CCR進一步緩慢提高;僅用頂視測量節點時,當1≤M ≤5時,CCR隨M增加而迅速升高;當正視、頂視測量節點協同工作時,即10≤M ≤14,可以得到較滿意且穩定的正確分類率.

為了考察動作分類的實時性問題,需要統計模型訓練時間和分類識別時間.模型訓練階段,當PIR傳感器輸出的14維壓縮測量數據全部用來訓練時,建模所需時間為7.583 s.從圖7中可以看出,動作分類時間隨測量維數的增加而略有延長,但基本上可以滿足動作分類的實時性需求.

測量維數的實際選擇中,須在保證CCR需求的前提下,兼顧傳感效率(測量維數M)、識別時間(t)以及測量系統的可靠性(如,個別PIR傳感器出現異常的情況).

圖7 測量維數對分類時間的影響Fig.7 The in fl uence of the measurement dimension on the running time

3.2 測量視角對CCR影響實驗

首先,考察正視、頂視和正交視角三種測量視角下的整體動作識別效果.如表2所示,正視視角下,基于主層特征的GMHMM動作建模,CCR可達94.81%;頂視視角下,基于輔助投影面特征的GMHMM動作建模,CCR偏低(87.23%);當采用正交視角獲取雙層特征時,CCR最高達95.71%.可以發現,從整體識別效果來看,頂視測量視角對提高CCR的貢獻并不大,這是因為:面向輔助投影面特征獲取的頂視測量節點只具有粗粒度的觀測效果,而本實驗動作集中的動作特征投影大多位于主投影面.

表2 測量視角對CCR的影響Table 2 Sensing view vs.CCR

其次,進一步具體分析測量視角對單個動作的分類性能影響.從圖8所示的三維混淆矩陣中可發現,正視視角下動作m1~m8的CCR較高,而m9和m10的CCR偏低.這是因為前8個動作基本平行于主投影面,即正視測量節點感知區域的敏感視場內;而動作m9和m10在x和z兩個方向上,IRC特征無法全部投影至主投影面.正視測量節點單獨測量時,只能獲取m9、m10的x方向特征數據.再觀察圖8(b),頂視測量節點單獨測量時,m9和m10的CCR同樣偏低;這是因為輔助投影面的頂視傳感陣列只能獲取m9、m10的z方向動作特征.從圖8(c)中可以發現,采用正交視角測量后,動作m9和m10的CCR得到顯著提高.同時,也可以觀察到在動作m7和m8的識別中,正交視角相對單獨正視視角的的改善效果.

圖8 測量視角對正確識別率的影響Fig.8 The in fl uences of the sensing view on the CCR

可以看出,對平面動作,在動作投影面內布置單個測量節點,即可達到滿意的CCR;對3D動作,基于正交視角測量方式獲取的雙層特征進行GMHMM動作建模分類,更有助于提高CCR.

4 結論

針對紅外輻射場空間三維動作的自遮擋現象,提出基于雙層特征GMHMM建模的人體動作壓縮紅外分類方法.該方法利用PIR傳感陣列和參考結構組合構建的兩個測量節點,聯合實現壓縮紅外正交投影測量系統,該系統下,三維動作64×16維特征向量,投影為測量空間14維特征向量.基于測量系統獲取的壓縮紅外測量值,利用雙層特征GMHMM動作建模來實現壓縮域動作識別.實驗結果表明,正交投影測量方式下,采用雙層特征建模得到的CCR達到95.71%,本文建立的動作識別系統可直接應用于固定位置的人機交互場景.需要指出的是,本系統的傳感節點部署在有限空間的固定位置,要求受試者在相應視場內接受動作識別.這里,視場受限的問題可以通過網絡化分布式部署傳感節點加以解決,通過擴展傳感視場滿足實際的應用需求.

1 Wichert R,Eberhardt B.Ambient assisted living.Advanced Technologies&Societal Change.Berlin,Germany: Springer-Verlag Berlin Heidelberg,2012.1145?1148

2 Chen L M,Hoey J,Nugent C D,Cook D J,Yu Z W.Sensorbased activity recognition.IEEE Transactions on Systems, Man,and Cybernetics,Part C(Applications and Reviews), 2012,42(6):790?808

3 Aggarwal J K,Ryoo M S.Human activity analysis:a review.ACM Computing Surveys,2011,43(3):16

4 Hu W M,Tan T N,Wang L,Maybank S.A survey on visual surveillance of object motion and behaviors.IEEE Transactions on Systems,Man,and Cybernetics,Part C(Applications and Reviews),2004,34(3):334?352

5 Moeslund T B,Hilton A,Kru¨ger V.A survey of advances in vision-based human motion capture and analysis.Computer Vision and Image Understanding,2006,104(2?3):90?126

6 Turaga P,Chellappa R,Subrahmanian V S,Udrea O.Machine recognition of human activities:a survey.IEEE Transactions on Circuits and Systems for Video Technology,2008, 18(11):1473?1488

7 Johansson G.Visual perception of biological motion and a model for its analysis.Perception&Psychophysics,1973, 14(2):201?211

8 Shi G Y,Chan C S,Li W J,Leung K S,Zou Y X,Jin Y F.Mobile human airbag system for fall protection using MEMS sensors and embedded SVM classi fi er.IEEE Sensors Journal,2009,9(5):495?503

9 Yang A Y,Jafari R,Sastry S S,Bajcsy R.Distributed recognition of human actions using wearable motion sensor networks.Journal of Ambient Intelligence and Smart Environments,2009,1(2):103?115

10 Burchett J,Shankar M,Hamza A B,Guenther B D,Pitsianis N,Brady D J.Lightweight biometric detection system for human classi fi cation using pyroelectric infrared detectors.Applied Optics,2006,45(13):3031?3037

11 Cand`es E J,Wakin M B.Wakin.An introduction to compressive sampling.IEEE Signal Processing Magazine,2008, 25(2):21?30

12 Duarte D F,Eldar Y C.Structured compressed sensing: from theory to applications.IEEE Transactions on Signal Processing,2011,59(9):4053?4085

13 Brady D J,Pitsianis N P,Sun X B.Reference structure tomography.Journal of the Optical Society of America A, 2004,21(7):1140?1147

14 Peng M,Xiao Y.A survey of reference structure for sensor systems.IEEE Communications Surveys&Tutorials,2012, 14(3):897?910

15 Wimalajeewa T,Chen H,Varshney P K.Performance limits of compressive sensing-based signal classi fi cation.IEEE Transactions on Signal Processing,2012,60(6):2758?2770

16 Davenport M A,Boufounos P T,Wakin M B,Baraniuk R G.Signal processing with compressive measurements.IEEE Journal of Selected Topics in Signal Processing,2010,4(2): 445?460

17 Luo X M,Liu T,Liu J,Guo X M,Wang G L.Design and implementation of a distributed fall detection system based on wireless sensor networks.EURASIP Journal on Wireless Communications and Networking,2012,2012(1):118

18 Sun Q Q,Hu F,Hao Q.Mobile target scenario recognition via low-cost pyroelectric sensing system:Toward a context-enhanced accurate identi fi cation.IEEE Transactions on Systems,Man,and Cybernetics:Systems,2014, 44(3):375?384

19 Guan Q J,Li C Y,Guo X M,Wang G L.Compressive classifi cation of human motion using pyroelectric infrared sensors. Pattern Recognition Letters,2014,49:231?237

20 Kay S M.Fundamentals of Statistical Signal Processing:Detection Theory.Englewood Cli ff s,NJ:Prentice-Hall,1998.

21 Gales M J F.Maximum likelihood linear transformations for HMM-based speech recognition.Computer Speech&Language,1998,12(2):75?98

22 Babu R V,Anantharaman B,Ramakrishnan K R,Srinivasan S H.Compressed domain action classi fi cation using HMM.Pattern Recognition Letters,2002,23(10): 1203?1213

23 Li H,Greenspan M.Model-based segmentation and recognition of dynamic gestures in continuous video streams.Pattern Recognition,2011,44(8):1614?1628

Compressive Infrared Classi fi cation of Human Motion Using HMM

GUAN Qiu-Ju1LUO Xiao-Mu2GUO Xue-Mei3WANG Guo-Li3

Infrared radiation changes(IRC)induced by human motion can provide important clue for motion classi fi cation.This paper presents a hidden Markov model(HMM)-based compressive infrared classi fi cation method to recognize human motions.In order to solve the problem of self-occlusion,an orthogonal-view based compressive infrared sensing system is implemented for projecting the IRC to two orthogonal planes in the infrared radiation fi eld.Then,a doublelayer feature model using HMM classi fi er is trained to carry out motion recognition with the compressive measurements. Experimental results show that the mean correct classi fi cation rate with double-layer feature is 95.71%,which is better than that with main-layer feature.This method provides a new approach to classi fi cation of human motions for ambient assisted system.

Ambient assisted living(AAL),hidden Markov model(HMM),compressive sensing,pyroelectric infrared sensors,motion classi fi cation

關秋菊 仲愷農業工程學院機電工程學院講師.主要研究方向為基于周邊智能環境的人體運動行為識別.E-mail:qiuju95@126.com(GUAN Qiu-Ju Lecturer at the College of Mechanical and Electrical Engineering,Zhongkai University of Agriculture and Engineering.Her main research interest is physical activity recognition based on ambient intelligence environment.)

羅曉牧 廣州中醫藥大學醫學信息工程學院講師.2012年獲得中山大學通信與信息系統專業博士學位.主要研究方向為無線傳感器網絡,人體動作識別和機器學習.E-mail:woodwood2000@163.com (LUO Xiao-Mu Lecturer at theSchool of Medical Information Engineering,GuangzhouUniversity of Chinese Medicine.He received his Ph.D.degree from Sun Yat-Sen University in 2012.His research interest covers wireless sensor networks,human activity recognition and machine learning.)

郭雪梅 中山大學數據科學與計算機學院副教授.主要研究方向為嵌入式系統與移動計算,信息獲取與信息處理.E-mail:guoxuem@mail.sysu.edu.cn(GUO Xue-Mei Associate professor at the School of Data and Computer Science,Sun Yat-Sen University.Her research interest covers embedded system,mobile computing,information acquisition and processing.)

王國利 中山大學數據科學與計算機學院教授.主要研究方向是周邊智能及周邊智能感知輔助實現的人機協作.本文通信作者.E-mail:isswgl@mail.sysu.edu.cn(WANG Guo-Li Professor at the School of Data and Computer Science, Sun Yat-Sen University.His research interest covers ambient intelligence and ambient assisted human-robot collaboration.Corresponding author of this paper.)

關秋菊,羅曉牧,郭雪梅,王國利.基于隱馬爾科夫模型的人體動作壓縮紅外分類.自動化學報,2017,43(3): 398?406

Guan Qiu-Ju,Luo Xiao-Mu,Guo Xue-Mei,Wang Guo-Li.Compressive infrared classi fi cation of human motion using HMM.Acta Automatica Sinica,2017,43(3):398?406

2016-02-03 錄用日期2016-09-30

Manuscript received February 3,2016;accepted September 30, 2016

國家自然科學基金(61375080,61301294,61601523),廣東省自然科學基金(2015A030311049,2016A030310238),廣東省教育廳青年創新人才項目(2015KQNCX068)資助

Supported by National Natural Science Foundation of China (61375080,61301294,61601523),Natural Science Foundation of Guangdong Province(2015A030311049,2016A030310238),and Young Creative Talents Project of Guangdong Province Education Department(2015KQNCX068)

本文責任編委王啟寧

Recommended by Associate Editor WANG Qi-Ning

1.仲愷農業工程學院機電工程學院 廣州510225 2.廣州中醫藥大學醫學信息工程學院廣州510006 3.中山大學數據科學與計算機學院廣州510006

1.College of Mechanical and Electrical Engineering,Zhongkai University of Agriculture Engineering,Guangzhou 510225 2. School of Medical Information Engineering,Guangzhou University of Chinese Medicine,Guangzhou 510006 3.School of Data and Computer Science,Sun Yat-Sen University,Guangzhou 510006

DOI10.16383/j.aas.2017.c160130

猜你喜歡
分類動作測量
分類算一算
把握四個“三” 測量變簡單
分類討論求坐標
滑動摩擦力的測量和計算
數據分析中的分類討論
滑動摩擦力的測量與計算
動作描寫要具體
教你一招:數的分類
畫動作
動作描寫不可少
主站蜘蛛池模板: 欧美一级高清片久久99| 亚洲国产精品久久久久秋霞影院| 第九色区aⅴ天堂久久香| 夜夜爽免费视频| 日韩高清欧美| 亚洲综合18p| 亚洲中文字幕在线观看| 亚洲无码高清一区二区| 亚洲美女一级毛片| 伊人久久大香线蕉影院| 久久精品国产精品青草app| 国产高清无码麻豆精品| 国产极品嫩模在线观看91| 亚洲精选无码久久久| 亚洲精品色AV无码看| 又黄又爽视频好爽视频| 在线播放国产99re| 亚洲国产欧美国产综合久久 | 野花国产精品入口| 国产波多野结衣中文在线播放| 一级一级特黄女人精品毛片| 精品色综合| 欧洲高清无码在线| 99国产精品一区二区| 亚洲无码在线午夜电影| 熟女成人国产精品视频| 婷婷六月综合网| 人妻无码中文字幕第一区| 日韩成人在线视频| 在线高清亚洲精品二区| 亚洲欧美另类专区| 看看一级毛片| 91精品啪在线观看国产60岁 | 97精品国产高清久久久久蜜芽| 亚洲天堂视频网站| www.日韩三级| 玖玖免费视频在线观看| 黄色一级视频欧美| 国产流白浆视频| 国产在线一二三区| 日本高清成本人视频一区| 欧美人与牲动交a欧美精品| 国产欧美高清| 欧美日韩精品一区二区在线线| 香蕉国产精品视频| 97综合久久| 久久香蕉国产线看观看亚洲片| 国产最新无码专区在线| 欧美精品另类| 高清免费毛片| 91福利片| 青青青国产视频手机| 国产一级二级三级毛片| 高清无码一本到东京热| 久久综合婷婷| 欧美第二区| 拍国产真实乱人偷精品| 久久五月天综合| 亚洲精选无码久久久| 亚洲成人在线免费观看| 亚洲中文字幕97久久精品少妇| 国内精品视频| 欧美a网站| 不卡无码网| 五月激情婷婷综合| 亚洲免费黄色网| 亚洲国产av无码综合原创国产| 国产视频a| 欧美a在线视频| 成年人视频一区二区| 国产日韩精品欧美一区灰| 欧美成人免费一区在线播放| 久久大香伊蕉在人线观看热2| 国产人碰人摸人爱免费视频| 久久频这里精品99香蕉久网址| 91在线精品麻豆欧美在线| 欧美在线导航| 国产无遮挡猛进猛出免费软件| 青青草国产在线视频| 精品国产成人高清在线| 极品国产一区二区三区| 久久亚洲综合伊人|