融合關聯性的多任務壓縮感知行為識別方法*
段夢琴,李仁發,黃晶
(湖南大學嵌入式與網絡計算湖南省重點實驗室,湖南 長沙 410082)
摘要:基于傳感器的人體行為識別是一個新興研究領域,作為物聯網的一項重要應用,在醫療監護、助老助殘、智能辦公/家居等方面有著廣闊的應用前景。識別率是行為識別的一個重要衡量指標,而特征和分類算法又是影響識別率的兩個重要因素。提取了基于多傳感器行為識別架構的關聯特征,并引入壓縮感知和稀疏表示理論,提出一種多任務壓縮感知行為識別方法。最后,在基準數據庫上采用個體無關的留一驗證方法進行了大量實驗,結果表明所提出的融合關聯性的多任務壓縮感知行為識別方法能有效提升行為識別率,與對應的單任務行為識別方法相比,識別速度提高約56% 。
關鍵詞:機器學習; 物聯網;體域網;行為識別;特征提取
中圖分類號:TP391 文獻標志碼:A
doi:10.3969/j.issn.1007-130X.2015.06.007
收稿日期:*2014-02-25;修回日期:2014-05-22
基金項目:國家自然科學基金資助項目(61173036,61272061);湖南省科技計劃資助項目( 2014GK3009)
作者簡介:
通信地址:410082 湖南省長沙市湖南大學嵌入式網絡計算實驗室
Address:Laboratory of Embedded Systems & Networking,Hunan University,Changsha 410082,Hunan,P.R.China
Fusingcorrelationbasedmulti-taskcompressivesensingforactivityrecognition
DUANMeng-qin,LIRen-fa,HUANGJing
(LaboratoryofEmbeddedSystems&Networking,HunanUniversity,Changsha410082,China)
Abstract:Sensor-based human activity recognition is an emerging research field. It is an important application of Internet of Things (IoT), and has very promising application prospects in health care/recovery, elder/invalid people assistant, smart home/office, etc. Accuracy is one of the most important evaluation standards of activity recognition, and appropriate features and classifiers are important accuracy factors. We first extract a novel feature called correlation feature. By combining the theory of compressive sensing and sparse representation, we propose a multi-task compressive sensing method and use it as the classifier to resolve the problem of activity recognition. Finally, we conduct a large amount of experiments on a set of benchmarks with Leave-One-Subject-Out cross validation. Experimental results show that the extracted feature and the proposed method are effective in improving the accuracy of sensor-based activity recognition. Moreover, compared to the corresponding single task method, the proposed classifier can reduce the execution time by nearly 56%.
Keywords:machinelearning;InternetofThings;bodyareanetwork;activityrecognition;featureextraction
1引言
近年,人體行為識別(ActivityRecognition)受到了社會各界的關注,成為機器學習領域的研究熱點,并且在智能家居、醫療保健、老人/病人監護等方面具有廣泛的應用前景。隨著電子、通信技術的發展,傳感器在日常生活中得到了廣泛應用。基于傳感器的行為識別作為物聯網的一項重要應用,成為一個備受關注的新興研究領域。與基于視覺的行為識別相比,它具有分布范圍廣、不具侵擾性等特點,因而獲得了學術和工業界更深度的認可。通過捆綁在身體上一個或多個傳感器節點構成的無線體域網(WirelessBodySensorNetwork)[1]來獲取人體運動信號,進而通過信號識別出運動者行為。2013年9月,Intel發布了一款名叫Quark的芯片,該款芯片專門用于物聯網技術和可穿戴計算[2],它將進一步推進基于傳感器行為識別研究發展。
基于傳感器行為識別工作主要包括以下幾個方面:(1)構建實時行為識別系統[3,4];(2)建立行為識別數據庫[5,6];(3)改進模式識別或機器學習的分類方法[7,8];(4)提取新的有效的傳感器數據特征[9.10]和提出解決傳感器功耗問題的方法[11,12]。目前,絕大多數基于傳感器行為識別研究圍繞其中的一個或者多個問題進行研究。基于傳感器行為識別跟基于計算機視覺的行為識別有著相似的地方,都是主要采用模式識別或機器學習的分類方法,如決策樹DT(DecisionTree)、人工神經網絡ANN(ArtificialNeuralNetwork)、支持向量機SVM(SupportVectorMachines)、近鄰算法NN(NearestNeighbor)等。常見基于傳感器行為識別采用的主要是時頻域特征,包括均值、方差、頻譜等[13,14],很少專門針對傳感器行為識別的特征,與圖像特征相比略顯單一。此外,基于傳感器的行為識別需要考慮整個識別系統功耗及系統使用壽命問題。
目前,基于傳感器的行為識別工作已有些突出性的成果投入市場。2011年,著名的藍牙耳機和揚聲器廠商Jawbone發布了腕帶設備Jawboneup(如圖1a所示),該設備可以跟蹤用戶日常活動、睡眠情況、飲食習慣等數據。2013年3月,谷歌在美國SXSW互動大會上展示了一款“會說話的鞋子”(如圖1b所示),這是谷歌推出的第二款可穿戴設備,“鞋子”通過實時感知用戶運動狀態,識別用戶運動情況,連接智能手機做出相應的反應[15],2014年3月,該大會中依舊展出了幾款可穿戴設備。2013年11月,日本電器股份有限公司NEC發布了一種通過弱無線電波來準確偵測目標形狀、人或物體運動軌跡的檢測裝置,如圖1c所示。這種裝置應用于NEC公司專門開發的可鋪設于地面的片狀傳感器,通過該片狀傳感器可以檢測目標物體或人群的一大情況。可以第一時間發現無人處摔倒的老人或患者,并且可以很好地保護大眾隱私安全問題[16]。

Figure 1 Applications of sensor-based activity recognition 圖1 基于傳感器行為識別應用
雖然,基于傳感器行為識別已經開始投入使用,其中仍存在若干亟待解決的問題。本文主要針對基于傳感器行為識別研究中,絕大多數特征為傳統的信號處理通用特征,缺乏專門針對基于傳感器行為識別的特征和分類方法局限于模式識別或機器學習算法兩個方面展開研究,以達到提升行為識別系統性能的目的。
論文接下來組織如下:第2節詳細介紹了所提出關聯特征和多任務壓縮感知方法,并引出了一種針對多任務的特征選擇方式。第3節在公開數據集上驗證了所提取特征和分類方法的有效性。第4節對整篇論文進行總結,并給出了將來的研究方向。
2解決方案
目前,基于傳感器行為識別的研究已經取得一些進展和成果,但依然存在很多問題需要研究解決。針對當前用于傳感器行為識別特征主要為傳統數字信號的時頻域特征問題,論文提出了一種基于多傳感器信息的關聯特征。傳感器網絡能耗集中在信息的接收、發送和監聽方面,而本文中關聯特征是從已有傳感器信息中獲取,不需要系統傳輸額外數據,這也就避免了信息傳輸過程中額外功耗問題。此外,目前絕大多數基于傳感器行為分類方法為機器學習算法,論文引入信號處理方法中的壓縮感知理論,結合稀疏表示,提出了一種基于多任務的壓縮感知MTCS(Multi-TaskCompressiveSensing)行為識別方法,該算法能充分利用傳感器數據的稀疏性。
2.1基于多傳感器信息的關聯特征提取
特征提取是通過對數據進行處理來獲取更多有用信息的過程。而這些有用的信息對行為識別至關重要。在基于傳感器行為識別研究中,大多數研究人員使用時域特征和頻域特征,如均值、方差、標準差、頻譜等。很少有人考慮不同位置傳感器數據之間的關系性。文獻[17]指出在信號處理過程中不僅僅可以利用信號的稀疏性,而且還可以利用信號間的相關性。關聯特征是對多個傳感器數據進行融合獲取的。當行為發生時,位于身體不同位置的傳感器數據之間存在差異,而且對于不同動作而言,這種差異也是不一樣的,即相同傳感器節點之間對應不同動作時其相關性不一樣。例如,人在行走跟站立不動兩種狀態下,位于手腕與腳腕傳感器數據的差異是不一樣的。關聯特征是從已有數據中提取的,不需要額外傳輸數據,避免了額外數據傳輸能耗問題。
兩個運動向量之間相關性如式(1)所示:
(1)


Figure 2 Scatter plot in 2D feature space 圖2 二維特征空間中行為區分
不可否認,單一特征無法區分所有行為。如圖2所示,橫軸表示關聯特征空間,縱軸表示常見的特征空間,如均值、偏度、峰度等。從圖2a中可以看出,給定的兩種特征都無法區分所有行為。行為站與坐屬于靜態動作,易混淆。從圖2b中可以看出,關聯特征對站與坐這兩種動作區分性較好。而均值特征對這兩種行為區分性很差,幾乎無法區分這兩類動作。同樣,在應對三類或四類動作時,關聯特征依舊具有較好區分性,如圖2c和圖2d所示,驗證了關聯特征的有效性。為了簡化計算,本文采用兩個不同位置傳感器數據之差作為關聯特征添加到已有數據集中,組成新的特征向量進行行為識別。兩個傳感器數據的差值能充分反映不同行為兩傳感器數據之間差異的變化。如圖3所示, x軸為每個傳感器節點在一個時刻點采集的五個值, y軸為采集數據值的大小,圖3中13條線條代表13種不同的動作。其中,圖3a為傳感器節點5的數據表示;圖3b為傳感器節點1的數據表示;圖3c為傳感器節點1和5的數據之差,可以明顯看出圖3c中的13條曲線的稀疏性大于圖3a和圖3b。13條曲線的稀疏性在一定程度上反映的是數據對行為的區分性,主要原因為一般情況,若某個特征值對所有的行為而言都是一樣,那就意味著該特征對于行為的區分沒有意義;反之,若特征值對若干行為而言,值不一樣,而且,差異越大越有利于行為區分。

Figure 3 Comparison of correlation data 圖3 關聯數據對比
2.2基于多任務的壓縮感知方法(MTCS)
行為動作可以由捆綁在身體上的傳感器節點獲取的數據表示。一個傳感器數據的子集代表一個行為動作,則L個傳感器節點數據構成一個動作空間。
假定共有L個傳感器節點用于測量m種日常行為動作,傳感器節點i在t時刻所采集到的K個數據值構成的一維動作觀測向量記為:

(2)
每個動作序列由節點i在時長h內獲取的數據表示為:
(3)
由傳感器節點i獲取的第j類動作對應訓練集中所有一維運動向量構成的字典集表示為:
(4)

將整個訓練集中m類動作向量串聯起來,得到傳感器節點i對應的字典集vi。
(5)
結合L個傳感器節點數據,得到整體行為數據集v。
(6)
文獻[18]驗證了傳感器所獲取的運動數據是稀疏的,且行為數據的獲取是通過多個傳感器節點實現的。因此,引入多任務壓縮感知(MTCS)方法作為行為識別分類器。
分別將所有傳感器節點運動向量看成是單個任務,另外,將2.1節中獲取的關聯特征數據也看成獨立任務,得到如表達式(7)所示的多任務數據模型。
(7)
在沒有提取關聯特征情況下,公式(7)中的N=L;當提取關聯特征,并將提取的關聯特征加入到原有數據集時,N>L。
假定用于測試的行為屬于第k類,則有近似的線性方程組表示如下:
(8)

在求解一個待識別的動作的時候,利用稀疏表達分類方法可以將待求解問題轉換成多元線性回歸模型。考慮到實際測量過程中存在不可避免的誤差,可表示如下:
(9)
其中,εi(i=1,2,3,…)為噪聲值。
行為識別架構如圖4所示。該架構具有便于并行處理的優勢。

Figure 4 Framework of multi-task activity recognition 圖4 多任務行為識別框架
根據壓縮感知理論可知,只要數據夠稀疏,可以將問題轉換成二次約束條件下最優l1范數進行求解。
αi=argmin‖αi‖1
(10)

(11)
其中,ri為任務i的殘差值向量。
共有m類動作,在行為識別過程中,每個行為解析殘差向量將對應m個殘差值,最終,將待求解行為分類到殘差值最小的類別。在處理多任務識別結果時,很多研究人員傾向使用MajorityVoting[19]方法,在眾多識別結果中找出得票最高的類別作為最終識別結果。但是,實驗結果顯示該方法存在一定局限,例如:不同的任務具有不同的行為識別能力,如表1所示,當傳感器數目L=5,行為數目m=13,傳感器節點數據數目K=5時,在特征向量大小一致情況下,傳感器節點1~5的行為識別率是不同的,驗證了不同任務對行為識別能力存在差異。圖5給出的是傳感器節點1~5的數據對13種行為的識別率。可以明顯看出,不同傳感器節點數據對不同行為區分差異明顯,差別可以從99%到30%不等。采用MajorityVoting方法的缺點是存在強制性,多數派可以把意愿強加于少數派。例如:任務i對行為j的識別率為99%,而其他任務對該行為的識別率偏低,這勢必導致最終結果偏差。此外,實驗結果顯示,采用MajorityVoting方法、得到的識別率為88.77%,而采用多個任務殘差之和求解多任務識別率可以達到91.77%,因此本文在多任務結果融合過程中采用多個任務殘差之和的方法。

Table 1 Activity recognition accuracy of sensor node 1~5

Figure 5 Recognition accuracy of sensor node 1~5 for 13 actions 圖5 1~5號傳感器節點數據對應13種行為的識別率
所提出的方法中包括四個通用變量:傳感器數L、行為數目m、傳感器節點包含數據數目K和采樣時長h。整個行為識別實現詳細過程如下:


步驟4通過求解最小化l1范數下的優化問題得到稀疏系數。
步驟5計算殘差,融合多個任務殘差結果,選擇多個任務殘差和最小的類別作為最終識別結果。
2.3基于多任務的特征選擇
在行為識別過程中,并不是所有的特征都對行為識別有效,特征選擇不僅僅可以找出更有用的特征,而且可以降低數據維度,解決大數據帶來的維度災難,簡化計算模型。
Relief算法是一種特征權重算法,最先由Kira K和Rendell L A[20]在1992年提出,根據各個特征和類別的相關性賦予特征不同的權重,權重小于某個閾值的特征將被移除。該算法局限于兩類數據的分類問題。1994年Kononenko I[21]改進了Relief算法,提出Relief-F算法。Relief-F算法突破Relief算法的缺陷,能解決多類分類問題。由于該算法具有較低時間開銷,并且在很多模式識別和機器學習問題中效果良好,受到眾多學者喜歡。因此,論文采用Relief-F作為特征選擇算法。
一般情況下,研究人員更傾向于對所有數據進行一次性特征選擇,即將所有用于識別的數據存儲在一個特征向量中,然后用特征選擇方法對特征進行選擇。每個特征具有一個特征權值,通過選擇權值較大的n個特征組成新的特征向量,最后轉換成多任務模型對數據進行分類或識別。然而,該種方法沒有充分考慮不同位置傳感器數據對行為區分度的差異性,即處于不同位置的傳感器節點對行為特征的權值不一樣。考慮傳感器節點分布異構性,本文將多任務對應多個特征向量,對每個特征向量進行特征選擇,每個特征向量選擇權值較大的n個特征,最后對多任務進行分類或識別。圖6給出的是20組測試數據采用兩種不同的特征選擇方法得到的行為識別情況。采用多任務壓縮感知分類方法(MTCS),每個任務具有40個特征。可以明顯看出,對于不同位置傳感器數據按照不同權值向量進行特征選擇得到的結果優于按照相同權值向量進行特征選擇的結果。另外,第二組測試數據識別效果明顯差于其他幾組,主要原因是20個志愿者中除了第二名志愿者年齡為75,其余19位志愿者年齡皆位于19~36。

Figure 6 Error recognition rate of 20 groups of individual data in different feature selection ways 圖 6 不同特征選擇方式下20組個體數據誤識率
3實驗結果
所有實驗運行在奔騰雙核E6700,CPU主頻為3.2 GHz、內存為2 GB的PC機上,采用Matlab 2013作為仿真工具。
本文采用加州伯克利大學Yang A等人[22]提供的可穿戴行為識別數據庫WARD(Wearable Action Recognition Database) 。它是一個公開的相對穩定的基于傳感器的行為識別數據庫,便于對已經存在的算法進行定量分析比較。
通過捆綁在身體上的L=5個傳感器節點組成的體域網獲取人體運動行為數據。五個傳感器節點分別捆綁于腰部、左右手腕和左右腳腕。每個傳感器節點包含了一個三軸加速度計和一個二軸陀螺儀,即傳感器節點測量值數目。采樣頻率為30 Hz。數據庫包含了m=13種日常行為動作,由20名志愿者采集完成(其中13名男性,7名女性),每名志愿者重復每個動作五遍,共計13×20×5=1300個動作序列。13種行為動作分別為:(1)站(ST);(2)坐(SI);(3)躺(LI);(4)向前走(WF);(5)逆時針走(WL);(6)順時針走(WR);(7)向左轉(TL);(8)向右轉(TR);(9)上樓(UP);(10)下樓(DO);(11)慢跑(JO);(12)跳 (JU);(13)推輪椅(PU)。以h=40采樣時長為大小的固定窗口選取數據組成訓練集。每個傳感器節點對應的動作向量看成單個任務,得到單個任務數據維數為5×40=200。然后采用MTCS方法對多任務數據進行分類。應用MTCS方法求解過程中使用了Matlab工具包[23]。所有用到的特征都被歸一化到區間[-1,1]。為了保證數據個體獨立性,實驗采用留一驗證方法,即每次采用一個志愿者數據作為測試數據,另外19個志愿者數據作為訓練數據。共計20組測試數據,最后將20組結果取平均值作為最終行為識別結果。
3.1基于多任務壓縮感知方法效果
為了評估所提出的多任務壓縮感知算法的性能,我們以識別率作為衡量指標,與Weka工具中的六種常見分類算法(J48算法,隨機森林(RF)、近鄰(NN)、樸素貝葉斯(NB)、貝葉斯網絡(BN)和支持向量機(SVM))進行比較,所有方法參數采用默認值。結果如圖7所示,在參數默認情況下,其中BN算法是Weka中六種分類方法效果最好的,它的行為識別率為87.08%,比MTCS方法的識別率低了近5%。

Figure 7 Accuracy of 7 classifiers 圖7 七種不同分類器識別效果對比
圖8給出的是單任務壓縮感知方法(特殊的多任務壓縮感知方法,其任務數N=1)與多任務壓縮感知方法行為識別效果對比。采用Relief-F算法進行特征選擇,隨著所采用的特征數增加,多任務壓縮感知方法優勢明顯。在識別率上,最優情況下,多任務壓縮感知方法能高出單任務壓縮感知方法約6%。而且, 在總的特征維數為1 000時,單任務壓縮感知方法整體識別效果只能達到87.92%,比多任務壓縮感知方法識別率低了近4%。另外,單任務方式識別65組測試數據所需時間開銷約為18 s,多任務方式采用并行方式所需時間開銷約為8 s,速度提升一倍多。由此可見,所提出的多任務壓縮感知方法不但能提升行為識別率,而且便于采用并行方式進行求解,有效提高行為識別速度。

Figure 8 Single task compressive sensing VS MTCS 圖 8 單任務與多任務壓縮感知行為識別效果對比
3.2引入關聯特征行為識別效果
為了評估關聯特征對基于傳感器行為識別的影響,采用MTCS算法進行行為分類,Relief-F算法進行特征選擇。如圖9所示,隨著特征數目增加,使用了關聯特征的識別結果總是優于沒有使用關聯特征數據的識別結果,而且平均高出2%。從圖9中可以看出,當特征數達到40之后,行為識別率變化不大,這也就說明了所提出的方法對于降低數據維數具有一定效果。當總的特征維數為700時,行為識別率可以達到93.77%,對應混淆矩陣如表2所示,混淆矩陣給出了所有測試數據中每種行為被正確識別的數目,以及誤識數目及類別。

Table 2 Confusion matrix for recognition of 13 actions
與使用相同數據庫的已有方法進行比較,結果如表3所示。

Table 3 Comparison with other methods using WARD
文獻[22]中,作者使用分布式稀疏分類器,采用滑動窗口策略選取數據,窗口大小為45個采樣點,另外,其獲取的動作序列為13 000,高出本文所采用的1300十倍,與之相比,論文方法具有更簡單的計算模型。文獻[18]中,作者所采用的采樣點數目和動作序列數目與本文相同,但是多任務方法使其具有更好的識別效果,包括識別率和識別速度的提升。文獻[24]雖然在識別率上優于本文,但是其采用的驗證方法為3倍交叉驗證的方法,這存在的巨大問題是無法保證個體獨立性。另外,如文獻[25]中所示,同樣的數據,采用不同的驗證方式結果相差巨大。

Figure 9 Effect of correlation features on activity recognition 圖 9 關聯特征對行為識別率影響
4結束語
本文通過分析已有基于傳感器行為識別研究點,針對其中的行為識別方法和特征提取展開研究。提出了一種基于多任務的壓縮感知方法用于行為分類;同時,針對已有行為識別方法中單一時頻域特征問題,提出了新的關聯特征。另外,引出與多任務相對應的基于任務的特征選擇方式。大量實驗結果表明了所提出的特征和分類方法有助于提升基于傳感器行為識別的性能。下一步工作是在現有的基礎上,應對大數據時代,提升數據規模,加大行為識別過程中并行力度,構建基于云平臺的實時行為識別系統。
參考文獻:
[1]Thapa A,Shin S.QoS provisioning in wireless body area networks:A review on MAC aspects[J].KSII Transactions on Internet & Information Systems, 2012, 6(5):1267-1285.
[2]Intel’s new Quark chips target wearable computing [EB/OL]. [2013-09-11]. http://www.infoworld.com/d/computer-hardware/intels-new-quark-chips-target-wearable-computing-226529.
[3]Zhu C,Sheng W.Realtime recognition of complex human daily activities using human motion and location data[J]. IEEE Transactions on Biomedical Engineering,2012,59(9):2422-2430.
[4]Maekawa T, Kishino Y,Sakurai Y, et al.Activity recognition with hand-worn magnetic sensors[J].Personal and Ubiquitous Computing,2013, 17(6):1085-1094.
[5]Chavarriaga R, Sagha H, Calatroni A, et al. The opportunity challenge:A benchmark database for on-body sensor-based activity recognition[J]. Pattern Recognition Letters, 2013, 34(15):2033-2042.
[6]Anguita D, Ghio A, Oneto L, et al. A public domain dataset for human activity recognition using smartphones[C]//Proc of European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning, 2013:437-442.
[7]Chavarriaga R, Bayati H, Millán J R. Unsupervised adaptation for acceleration-based activity recognition:Robustness to sensor displacement and rotation[J]. Personal and Ubiquitous Computing, 2013, 17(3):479-490.
[8]Banos O, Damas M, Pomares H, et al. Human activity recognition based on a sensor weighting hierarchical classifier[J]. Soft Computing, 2013, 17(2):333-343.
[9]Chen C, Shen H. A feature evaluation method for template matching in daily activity recognition[C]//Proc of 2013 IEEE International Conference on Signal Processing, Communication and Computing (ICSPCC), 2013:1-4.
[10]Zhang M, Sawchuk A A. A feature selection-based framework for human activity recognition using wearable multimodal sensors[C]//Proc of the 6th International Conference on Body Area Networks, 2011:92-98.
[11]Wu C H, Tseng Y C. Data compression by temporal and spatial correlations in a body-area sensor network:A case study in pilates motion recognition[J]. IEEE Transactions on Mobile Computing, 2011, 10(10):1459-1472.
[12]Qi Juan,Chen Yi-qiang,Liu Jun-fa,et al. Power-efficient activity recognition based on multi-modal information sensing and fusion[J].Journal of Software, 2010,21(12):39-50.(in Chinese)
[13]Barshan B,Yüksek M C.Recognizing daily and sports activities in two open source machine learning environments using body-worn sensor units[J].The Computer Journal,2013,56(11):1-19.
[14]Casale P, Pujol O, Radeva P.Human activity recognition from accelerometer data using a wearable device[C]//Proc of the Iberian Conference on Pattern Recognition and Image Analysis, 2011:289-296.
[15]The talking trainers:Hi-tech shoes that nag you to get off the sofa and work out[EB/OL].[2013-03-10]. http://www.dailymail.co.uk/sciencetech/article-2291275/SXSW-2013-Googles-Hi-tech-shoes-nag-sofa-work-out.html.
[16]NEC develops cameraless monitoring system [EB/OL]. [2013-11-14]. http://www.ubergizmo.com/2013/11/ nec-develops-cameraless-monitoring-system/.
[17]Zhang Hai-chao, Zhang Yan-ning, Nasrabadi N M, et al.Joint-structured-sparsity-based classification for multiple-measurement transient acoustic signals[J].IEEE Transactions on Systems,Man, and Cybernetics Part-B:CYBERNETICS, 2012,42(6):1586-1598.
[18]Xiao Ling,Li Ren-fa,Luo Juan.Recognition of human activity based on compressed sensing in body sensor networks[J].Journal of Electronics & Information Technology, 2013,35(1):119-125.(in Chinese)
[19]Hajdu A, Hajdu L, Jonas A, et al. Generalizing the majority voting scheme to spatially constrained voting[J]. IEEE Transactions on Image Processing, 2013,22(11):4182-4194.
[20]Kira K, Rendell L A.The feature selection problem:Traditional methods and a new algorithm[C]//Proc of AAAI, 1992:129-134.
[21]Kononenko I.Estimating attributes:Analysis and extensions of RELIEF[C]//Proc of Machine Learning:ECML-94, 1994:171-182.
[22]Yang A Y, Jafari R, Sastry S S,et al.Distributed recognition of human actions using wearable motion sensor networks[J].Journal of Ambient Intelligence and Smart Environments,2009,1(2):103-115.
[23]Berg E V,Friedlander M P.SPGL1:A solver for large-scale sparse reconstruction [EB/OL]. [2013-05-10].http://www.cs.ubc.ca/labs/scl/spgl1.
[24]Guo Y C, He W H, Gao C.Human activity recognition by fusing multiple sensor nodes in the wearable sensor systems[J].Journal of Mechanics in Medicine and Biology,2012,12(5):1-15.
[25]Altun K, Barshan B, Tun?el O.Comparative study on classifying human activities with miniature inertial and magnetic sensors[J].Pattern Recognition,2010, 43(10):3605-3620.
參考文獻:附中文
[12]齊娟,陳益強,劉軍發,等.融合多模信息感知的低功耗行為識別[J].軟件學報,2010,21(12):39-50.
[18]肖玲,李仁發,羅娟.體域網中一種基于壓縮感知的人體動作識別方法[J].電子與信息學報,2013,35(1):119-125.

段夢琴(1989-),女,湖南洪江人,碩士生,CCF會員(E200029841G),研究方向為機器學習和傳感器網絡。E-mail:mengqinduan@126.com
DUAN Meng-qin,born in 1989,MS candidate,CCF member(E200029841G),her research interests include machine learning, and senor network.

李仁發(1956-),男,湖南郴州人,博士,教授,博士生導師,研究方向為嵌入式系統、CPS和傳感器網絡。E-mail:lirenfa@vip.sina.com
LI Ren-fa,born in 1956,PhD,professor,PhD supervisor,his research interests include embedded system, CPS, and sensor network.