忽麗莎,王素貞,陳益強,胡春雨,蔣鑫龍,陳振宇,高興宇
(1.河北經(jīng)貿大學 信息技術學院,石家莊 050061; 2.中國科學院計算技術研究所,北京 100190;3.中國電力科學研究院,北京 100192; 4.中國科學院微電子研究所,北京 100029)(*通信作者電子郵箱yqchen@ict.ac.cn)
隨著醫(yī)療技術的發(fā)展與人民生活水平的提高,人類社會日益步入老齡化階段。如何實現(xiàn)健康老齡化,提高老年人的生活質量是全社會亟待解決的難題。老年人在日常生活中由于平衡能力差、身體素質弱等因素,極其容易發(fā)生跌倒[1],跌倒后如不能得到及時救治,將會給老人帶來嚴重的傷害,甚至危及生命,因此跌倒檢測是面向老年人監(jiān)護的一項重要研究內容[2-3]。
已有的跌倒檢測方法主要分為三大類[4]:1)基于視頻分析的方法。利用一個[5]或多個[6]相機和專用服務器實時跟蹤目標,視頻資源上傳至服務器并進行個體圖像分割,通過判定目標姿勢的變化來檢測是否發(fā)生了跌倒。該方法可在不影響用戶的正常生活的同時實現(xiàn)對多位用戶的跌倒檢測監(jiān)控;但因相機運行范圍受限、設備布置代價昂貴、隱私問題、相機盲點和對動態(tài)環(huán)境的閉塞等問題,該方法仍存在許多不足。2)基于聲音與環(huán)境傳感器的方法。利用紅外線[7]和麥克風[8]等獲取環(huán)境中的數(shù)據(jù),基于跌倒時產生的振動波頻率等檢測跌倒。與基于視頻分析的方法相比,該方法所需的硬件較為簡單、低廉,也可實現(xiàn)多人檢測,一定程度地緩和了隱私問題;但是由于使用場景的限制,以及真實環(huán)境中的噪聲干擾等問題,嚴重影響了跌倒檢測的精度。3)基于可穿戴設備的方法。基于嵌入在用戶衣物[9]、手表[10]、眼鏡[11]中的運動傳感器采集數(shù)據(jù),經(jīng)過分析處理后檢測是否發(fā)生了跌倒。與前面兩種方法相比,基于可穿戴設備的跌倒檢測方法具有價格低廉、配置簡單、易攜帶等優(yōu)點。本文重點研究基于可穿戴設備的跌倒檢測方法。
常規(guī)的跌倒檢測模型一般是基于大量用戶的跌倒與非跌倒數(shù)據(jù)經(jīng)過離線訓練生成的[12-13]。訓練過程一結束,模型將被直接嵌入可穿戴設備中,從而為用戶提供跌倒檢測服務。一般情況下,這種靜態(tài)式的通用模型不能很好地擬合用戶的穿戴方式、行為等個性化特點。用戶佩戴上設備以后,設備中的跌倒檢測模型需要針對用戶大量的個性化數(shù)據(jù)相應地進行自我調整,使之逐漸擬合該目標用戶的個性化特點。為了達到這一目的,一些研究工作構建了基于可穿戴設備的增量學習跌倒檢測模型[14];此外,可穿戴設備的資源受限性使得模型的訓練與測試過程均不能涉及大量的計算工作[15]。
在眾多的機器學習方法中,超限學習機(Extreme Learning Machine, ELM)模型因其訓練速度快和泛化能力高等優(yōu)點得到了廣泛應用[16-17]。以ELM為基礎提出的正則化超限學習機(Regularized ELM, RELM)模型則成為解決兩類分類、多類分類和回歸問題的統(tǒng)一模型框架[18]。當隱含層的映射函數(shù)未知或難以選擇最優(yōu)的映射函數(shù)時,可將RELM與核函數(shù)進行有效結合,從而構建一種核正則化超限學習機(Kernelized RELM)模型[19]。以ELM、RELM或Kernelized RELM模型為基礎的多種增量學習模型詳見文獻[20-33]。
本文重點研究以批量模型Kernelized RELM為基礎構建的增量學習模型KB-IELM (Kernel Based Incremental ELM)[22]和OKRELM(Online Kernelized RELM)[34]。本文的主要工作如下:
1)提出了一種核化的經(jīng)驗風險均值最小化超限學習機模型ALELM(Average-Lossed ELM),用于解決RELM模型推廣至增量學習時出現(xiàn)的性能退化問題。
2)以ALELM模型為基礎,提出了一種性能魯棒的增量學習模型Passive OALELM(Passive Online ALELM)和計算輕量的增量學習模型Active OALELM,后者可大幅減少模型更新和預測的時間消耗。
3)在跌倒檢測專用的公開數(shù)據(jù)集上的實驗驗證了本文的兩種增量學習模型的識別精度和計算速度。
RELM[16-17]是一個單隱含層前饋式神經(jīng)網(wǎng)絡,可用于解決兩類分類、多類分類以及回歸問題[18]。結合使用核函數(shù)的Kernelized RELM模型則可以有效應用于那些隱含層的映射函數(shù)未知或難以選擇的場景。本文重點關注利用Kernelized RELM模型解決分類問題。
Kernelized RELM只能用于離線訓練的場景,是一種批量的學習模型。一個通用的行為識別模型可以基于大量用戶的日常行為數(shù)據(jù)以離線的方式進行訓練。通用模型到個性化模型的轉變,則需要根據(jù)持續(xù)采集的目標用戶的個性化樣本進行不斷的更新操作,且更新過程是在線進行的。
KB-IELM[22]是一種將批量模型Kernelized RELM推廣至增量式訓練場景的增量學習模型,用于解決訓練樣本依次到達時的模型構建問題。KB-IELM模型的訓練過程包含兩個階段:1)初始構建階段,基于初始數(shù)據(jù)集完成輸出函數(shù)的初始化操作;2)模型更新階段,針對源源不斷的新到數(shù)據(jù)完成輸出函數(shù)的更新,最終實現(xiàn)分類模型的增量更新訓練場景。
在KB-IELM模型的更新階段,持續(xù)到達的新數(shù)據(jù)逐漸擴大了訓練集的規(guī)模,同時也帶來了模型更新階段計算與存儲需求的不斷增長。此外,新數(shù)據(jù)中的一些冗余數(shù)據(jù)對模型的更新效果并不十分明顯,然而這些數(shù)據(jù)在參與模型更新過程時帶來了大量不必要的計算與存儲消耗。針對KB-IELM模型的這一問題,增量學習模型OKRELM[34]的核心思想是每次從新的數(shù)據(jù)塊中挑選一些十分有價值的數(shù)據(jù),僅基于挑選出的數(shù)據(jù)執(zhí)行模型更新過程的計算。
給定由N個訓練樣本組成的訓練集合{(xi,ti)|xi∈Rd,ti∈Rm,i=1,2,…,N},其中:樣本xi表示d維的特征向量;向量ti表示樣本xi的類標,且向量ti=(ti1,ti2,…,tim)T中存在唯一的一個分量tik取值為1,表示樣本屬于第k類;ti其余的分量tij(j≠k)取值均為-1;N和m分別表示訓練樣本個數(shù)和樣本所屬的類別個數(shù)。
為使更新后模型的性能不隨訓練樣例個數(shù)的增加而出現(xiàn)不穩(wěn)定的情況,本文首先提出一種新的批量學習模型ALELM。ALELM模型的優(yōu)化問題如下:
(1)
s.t.βTh(xi)=ti-ξ:,i;i=1,2,…,N
其中:β表示需要求解的L×m維輸出變量;ξ表示m×N維的松弛變量,矩陣ξ的第i列ξ:,i表示樣本xi的訓練誤差;h(x)表示將d維樣本x映射到某個未知的高維Hibert空間的核函數(shù)k(·,·)的映射函數(shù),兩者之間的關系為k(x,y)=h(x)Th(y);C是懲罰參數(shù)。
根據(jù)KKT(Karush-Kuhn-Tucker)定理,求解優(yōu)化問題(1)等價于求解對應的對偶問題。其對偶問題的目標函數(shù)為:

(2)
令D關于各自變量的偏導數(shù)為0,可以獲得式(3)~(5):

(3)

(4)
?i,j?Hβ-T+ξT=0
(5)

將式(3)和(4)代入式(5),α可按式(6)進行求解:
α=A-1T
(6)

將式(6)代入式(3),β的求解方式如下:
β=HTα
(7)
最后,ALELM模型輸出函數(shù)的計算方式為:
f(x)=βTh(x)=
TTA-1[k(x1,x),k(x2,x),…,k(xN,x)]T
(8)
ALELM模型的訓練過程見算法1,其中步驟3需要計算N×N維矩陣A的逆矩陣A-1,復雜度為O(N3),是算法1中最為耗時的一個步驟。
在測試階段,針對任意測試樣例x,f(x)表示m×1維的向量。ALELM模型關于測試樣例x的預測結果見式(9):
(9)
其中:fk(x)表示向量f(x)的第k個分量。
算法1 ALELM模型的訓練過程。
輸入 包含N個訓練樣本的數(shù)據(jù)(X,T),核函數(shù)k(·,·),懲罰參數(shù)C。
輸出 輸出函數(shù)f(x)。
1)計算Gram矩陣Ω。
3)計算矩陣A的逆矩陣A-1。
4)計算輸出f(x)=TTA-1[k(x1,x),k(x2,x),…,k(xN,x)]T。
以批量模型ALELM為基礎,本文提出了經(jīng)驗風險均值最小化增量學習模型(Passive OALELM),用于解決當訓練數(shù)據(jù)先后到達時模型的訓練問題。與其他的增量學習模型類似,Passive OALELM模型的訓練過程也包含初始構建和模型更新兩個階段。下面對Passive OALELM的這兩個階段分別進行介紹:
1)初始構建階段。給定包含N0個訓練樣本的初始數(shù)據(jù)塊(X0,T0),則Lagrange矩陣α0和輸出函數(shù)f0(x)的求解方式如下:
(10)
f0(x)=(α0)T[k(x1,x),k(x2,x),…,k(xN0,x)]T
(11)

2)模型更新階段。假定新到達的數(shù)據(jù)塊(X1,T1)包含N1個樣本,此時Lagrange矩陣α1表示為:
(12)

(13)
(14)
根據(jù)分塊矩陣的求逆公式[35],Lagrange矩陣α1可按如下方式進行求解:
(15)
此時,輸出函數(shù)f1(x)表示為:
f1(x)=(α1)T[k(x1,x),k(x2,x),…,k(xN0+N1,x)]T
(16)


當?shù)趎個數(shù)據(jù)塊(Xn,Tn)到達時,依照算法2中模型更新階段的計算步驟將輸出函數(shù)更新為fn(x)。
算法2 Passive OALELM模型的訓練過程。
初始構建階段:s=0,包含Ns個訓練樣本的初始數(shù)據(jù)塊(Xs,Ts),核函數(shù)k(·,·),懲罰參數(shù)C。
1)計算Gram矩陣Ωs。


模型更新階段:新到達包含Ns+1-Ns個訓練樣本的數(shù)據(jù)塊(Xs+1,Ts+1)。
1)計算Gram矩陣Ωs+1與混合Gram矩陣Us+1。

3)計算矩陣

5)計算矩陣As+1的逆矩陣
6)更新輸出函數(shù)
fs+1(x)=
7)s=s+1
為了盡可能地降低模型更新階段的計算復雜度,借鑒OKRELM模型的核心思想,本文提出在Passive OALELM模型的更新階段僅利用錯分的數(shù)據(jù)參與更新,并將此模型稱之為Active OALELM,訓練過程見算法3。對應地,將2.2節(jié)中所有數(shù)據(jù)參與更新的模型稱之為Passive OALELM。

算法3 Active OALELM模型的訓練過程。
初始構建階段:s=0,包含Ns個訓練樣本的初始數(shù)據(jù)塊(Xs,Ts),核函數(shù)k(·,·),懲罰參數(shù)C。
模型更新階段:新到達包含Ns+1-Ns個訓練樣本的數(shù)據(jù)塊(Xs+1,Ts+1)。
1)計算Gram矩陣Ωs+1與混合Gram矩陣Us+1。

3)計算類別預測結果:
4)生成由所有被錯分的數(shù)據(jù)組成的指標集
5)更新矩陣Ωs+1與Us+1只與指標集中的數(shù)據(jù)有關,即(Ωs+1)ij=k(xi,xj),i,j∈Δ;(Us+1)ij=k(xi,xj),i∈{1,2,…,Ns},j∈Δ。
6)執(zhí)行算法2中模型更新階段的步驟2)~6)。
為驗證本文方法的性能,在跌倒檢測專用的公開數(shù)據(jù)集[37]上開展了實驗。該數(shù)據(jù)集包含32位用戶(28男,4女)4種朝向(前、后、左、右)的跌倒行為、1種疑似跌倒行為(失衡)和7種非跌倒日常行為(站立、平躺、走路、蹲伏、爬樓梯、坐床、坐椅子)。數(shù)據(jù)采集設備穿戴于用戶的胸部和腿部,每個部位分別包含一個3軸加速度計和一個3軸陀螺儀,采樣率均為100 Hz。數(shù)據(jù)集的規(guī)模介紹見表1中“特征提取前”這一階段的內容。

表1 特征提取前后跌倒檢測數(shù)據(jù)集的規(guī)模
圖1展示了跌倒行為通常包含的三個階段,其中縱軸表示三軸加速度計的合成加速度(用均方根(Root Mean Square, RMS)表示),g為重力加速度(1 g=9.8 m/s2)。針對上述跌倒檢測原始數(shù)據(jù)集的預處理操作包含三個步驟:1)將加速度計和陀螺儀的三軸數(shù)據(jù)通過計算均方根(RMS)的方式分別合并為一個軸,構成合成加速度和合成角速度,消除設備穿戴朝向對傳感器讀數(shù)的影響;2)針對跌倒這種特殊的異常行為本身的特點(見圖1),根據(jù)合成加速度數(shù)據(jù)識別跌倒過程中的撞擊前、撞擊和撞擊后三個階段[38];3)基于每個階段的加速度計和陀螺儀數(shù)據(jù)分別提取最小值、最大值、均值、方差和平方根五種簡單的時域特征,共計60維(5種特征×3個階段×2種傳感器×2個穿戴位置)特征,特征提取后生成的樣例集合見表1中“特征提取后”這一階段的內容。

圖1 一次跌倒行為的三個階段
為了驗證本文方法的有效性,核函數(shù)統(tǒng)一選取Gaussian核k(xi,xj)=exp(-σ‖xi-xj‖2)。這樣,四種增量學習模型KB-IELM、OKRELM、Passive OALELM和Active OALELM均包含懲罰參數(shù)C、核參數(shù)σ、初始數(shù)據(jù)塊大小N0和新增塊大小Block四個參數(shù)。參數(shù)C和σ的取值范圍均設置為{2-24, 2-23, …, 224, 225};N0的取值范圍為{100, 200, …, 900, 1 000};Block的取值范圍為{50, 100, …,N0}。利用RRSS(Repeated Random Sub-Sampling)[39]方式對數(shù)據(jù)集進行劃分,選出的最優(yōu)取值情況見表2。

表2 四種增量學習模型的最優(yōu)參數(shù)取值
為了對比KB-IELM、OKRELM、Passive OALELM和Active OALELM四種增量學習模型跌倒檢測的精度,本文在每次模型更新之后記錄上述四種模型關于跌倒行為的查準率(Precision)和查全率(Recall)。訓練集和測試集的劃分方式見3.3節(jié),每種模型的參數(shù)取值見表2。圖2顯示了四種增量學習模型10次實驗結果后Precision和Recall的平均值。需要強調的是,這里的Precision和Recall指標僅用于衡量跌倒這一類行為的識別精度。
從圖2可以看出:隨著后續(xù)新增數(shù)據(jù)塊的陸續(xù)到達,KB-IELM模型Precision和Recall的取值均下滑至60%以下,并出現(xiàn)上下波動的情況;OKRELM模型的Precision和Recall分別下滑至30.8%和50.23%,也出現(xiàn)了性能退化和不穩(wěn)定的現(xiàn)象。
與KB-IELM和OKRELM模型不同,Passive OALELM和Active OALELM模型在整個模型更新階段的Precision和Recall始終保持在95%以上,均展示了精準魯棒的識別結果,從而顯示了ALELM模型優(yōu)化問題中經(jīng)驗風險均值最小化策略的優(yōu)越性。
進一步,Passive OALELM模型在Precision和Recall上均優(yōu)于Active OALELM模型,但在時間消耗方面Passive OALELM模型遠比Active OALELM模型的代價高(見圖4),因此可以根據(jù)需求的不同分別選擇合適的模型。

圖2 四種增量學習模型關于跌倒行為的Precision與Recall結果對比
為了評估模型關于跌倒與非跌倒二類分類問題的分類精度,本文統(tǒng)計了KB-IELM、OKRELM、Passive OALELM和Active OALELM四種增量學習模型在每次更新計算后的F1-Score和Accuracy。實驗設置與3.3節(jié)一致,實驗結果見圖3。

圖3 四種增量學習模型關于跌倒行為的F1-Score與Accuracy結果對比
根據(jù)圖3的實驗結果可以看出,在第7個新增數(shù)據(jù)塊更新結束后OKRELM模型的Accuracy為61.47%,但F1-Score僅為2.98%。結合圖2中的結果,這就意味著OKRELM模型在第7次更新結束后幾乎將所有的跌倒樣例分錯,從另外一個角度驗證了OKRELM模型會出現(xiàn)性能不穩(wěn)定的情況。
另一方面,Passive OALELM模型的性能在整個模型更新階段均超越了KB-IELM模型,從而顯示了Passive OALELM模型在解決二類分類問題時的魯棒性和有效性,而這正是得益于以之為基礎的批量學習模型ALELM的優(yōu)化問題中引入了經(jīng)驗風險均值最小化這一原則。總體而言,Passive OALELM模型在F1-Score和Accuracy兩方面的性能均優(yōu)于Active OALELM模型,因此Passive OALELM模型更適合于那些對魯棒性和識別能力要求非常高的應用場景。
Passive OALELM和Active OALELM兩個模型的識別能力對比情況在圖3中并不十分明顯。3.6節(jié)將詳細介紹Passive OALELM和Active OALELM模型在時間有效性方面的對比。
在訓練時間消耗方面,KB-IELM和OKRELM模型的初始構建階段都是以RELM模型為基礎,兩者的初始訓練時間相同,均為0.04 s(見圖4(a))。隨著模型更新階段新增數(shù)據(jù)塊的不斷到達,KB-IELM模型的更新時間消耗不斷增加,并最終上升至2.47 s;而OKRELM模型的更新時間消耗最終只增加至0.11 s。與KB-IELM模型相比,Passive OALELM模型由于在模型更新階段需要額外計算一個逆矩陣(見2.2節(jié)),因此在時間有效性方面不如KB-IELM模型。而Active OALELM模型由于只利用少量被錯分的樣例參與模型的更新過程,因此繼承了OKRELM模型更新速度快這一優(yōu)勢。事實上,Active OALELM關于模型更新階段的最長時間消耗僅為0.09 s,更新速度甚至超過了OKRELM模型。

圖4 四種增量學習模型的時間消耗情況對比
在測試時間消耗方面,經(jīng)過最后一次更新后的OKRELM與Active OALELM模型的測試時長約為0.003 s,而KB-IELM和Passive OALELM模型約為0.08 s (見圖4(b)),因此Active OALELM模型在測試階段的時間優(yōu)勢也非常明顯。
跌倒作為一種特殊的異常行為,嚴重傷害老年人的身心健康,并給日益嚴重的老齡化社會帶來異常沉重的經(jīng)濟負擔,因此,跌倒檢測技術的研究工作意義重大且十分關鍵。本文提出了一種基于目標均衡度量的核增量學習模型OALELM,用于面向可穿戴設備的跌倒檢測;并在跌倒檢測公開數(shù)據(jù)集上驗證了本文方法的有效性。實驗結果顯示了OALELM模型關于模型更新的魯棒性。更進一步,Passive OALELM模型在更新訓練階段顯示了魯棒精準的識別能力;Active OALELM模型在一定程度地保證識別能力的同時有效提高了模型更新訓練階段和測試階段的計算速度。
參考文獻(References)
[1] ROBIE K. Falls in older people: risk factors and strategies for prevention[J]. The Journal of the American Medical Association, 2010, 304(17): 1958-1959.
[2] 沈秉乾,武志勇, 賀前華, 等. 人體姿勢狀態(tài)判決的跌倒檢測方法[J]. 計算機應用, 2014, 34(增刊1): 223-227, 264.(SHEN B Q, WU Z Y, HE Q H, et al. Falling detection method based on human body posture judgment[J]. Journal of Computer Applications, 2014, 34(S1): 223-227, 264.)
[3] 羅丹, 羅海勇. 基于隨機森林的跌倒檢測算法[J]. 計算機應用, 2015, 35(11): 3157-3160, 3165.(LUO D, LUO H Y. Fall detection algorithm based on random forest[J]. Journal of Computer Applications, 2015, 35(11): 3157-3160, 3165.)
[4] YU X. Approaches and principles of fall detection for elderly and patient[C]// HealthCom 2008: Proceedings of the 10th International Conference on E-health Networking, Applications and Services. Piscataway, NJ: IEEE, 2008: 42-47.
[5] HU F, HAO Q, SUN Q, et al. Cyber physical system with virtual reality for intelligent motion recognition and training[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2017, 47(2): 347-363.
[6] AUVINET E, MULTON F, SAINT-ARNAUD A, et al. Fall detection with multiple cameras: an occlusion-resistant method based on 3-D silhouette vertical distribution[J]. IEEE Transactions on Information Technology in Biomedicine, 2011, 15(2): 290-300.
[7] TOREYIN B U, SOYER E B, ONARAN I, et al. Falling person detection using multi-sensor signal processing[J]. EURASIP Journal on Advances in Signal Processing, 2008, 2008: Article No. 29.
[8] ZHUANG X, HUANG J, POTAMIANOS G, et al. Acoustic fall detection using Gaussian mixture models and GMM supervectors[C]// ICASSP 2009: Proceedings of the 2009 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2009: 69-72.
[9] GJORESKI H, KOZINA S, GAMS M, et al. RAReFall — real-time activity recognition and fall detection system[C]// Proceedings of the 2014 IEEE International Conference on Pervasive Computing and Communications Workshops. Piscataway, NJ: IEEE, 2014: 145-147.
[10] RAKHECHA S, HSU K. Reliable and secure body fall detection algorithm in a wireless mesh network[C]// BodyNets 2013: Proceedings of the 8th International Conference on Body Area Networks. Brussels, Belgium: ICST, 2013: 420-426.
[11] CHEN Z, CHEN Y, HU L, et al. Leveraging two-stage weighted ELM for multimodal wearables based fall detection[C]// Proceedings of ELM-2014. Berlin: Springer, 2015, 2: 161-168.
[12] QU W, LIN F, WANG A, et al. Evaluation of a low-complexity fall detection algorithm on wearable sensor towards falls and fall-alike activities[C]// Proceedings of the 2015 IEEE Signal Processing in Medicine and Biology Symposium. Piscataway, NJ: IEEE, 2015: 1-6.
[13] WANNENBURG J, MALEKIAN R. Physical activity recognition from smartphone accelerometer data for user context awareness sensing[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2016, 47(12): 3142-3149.
[14] HU L, CHEN Y, WANG S, et al. Less annotation on personalized activity recognition using context data[C]// Proceedings of the 2016 International IEEE Conferences on Ubiquitous Intelligence & Computing, Advanced and Trusted Computing, Scalable Computing and Communications, Cloud and Big Data Computing, Internet of People, and Smart World Congress. Piscataway, NJ: IEEE, 2016: 327-332.
[15] HU L, CHEN Y, WANG S, et al. b-COELM: a fast, lightweight and accurate activity recognition model for mini-wearable devices[J]. Pervasive and Mobile Computing, 2014, 15: 200-214.
[16] HUANG G B, ZHU Q Y, SIEW C K. Extreme learning machine: theory and applications[J]. Neurocomputing, 2006, 70(1): 489-501.
[17] HUANG G B, ZHU Q Y, SIEW C K. Universal approximation using incremental constructive feedforward networks with random hidden nodes[J]. IEEE Transactions on Neural Networks, 2006, 17(4): 879-892.
[18] HUANG G B, ZHOU H, DING X, et al. Extreme learning machine for regression and multiclass classification[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 2012, 42(2): 513-529.
[19] SCARDAPANE S, COMMINIELLO D, SCARPINITI M, et al. Online sequential extreme learning machine with kernels[J]. IEEE Transactions on Neural Networks and Learning Systems, 2015, 26(9): 2214-2220.
[20] LIANG N Y, HUANG G B, SARATCHANDRAN P, et al. A fast and accurate online sequential learning algorithm for feedforward networks[J]. IEEE Transactions on Neural networks, 2006, 17(6): 1411-1423.
[21] GU Y, LIU J, CHEN Y, et al. Constraint online sequential extreme learning machine for lifelong indoor localization system[C]// Proceedings of the 2014 International Joint Conference on Neural Networks. Piscataway, NJ: IEEE, 2014: 732-738.
[22] GUO L, HAO J H, LIU M. An incremental extreme learning machine for online sequential learning problems[J]. Neurocomputing, 2014, 128: 50-58.
[23] GAO X, HOI S, ZHANG Y, et al. Sparse online learning of image similarity[J]. ACM Transactions on Intelligent Systems and Technology, 2017, 8(5): Article No. 64.
[24] GAO X, CHEN Z, TANG S, et al. Adaptive weighted imbalance learning with application to abnormal activity recognition[J]. Neurocomputing, 2016, 173: 1927-1935.
[25] JIANG X, LIU J, CHEN Y, et al. Feature adaptive online sequential extreme learning machine for lifelong indoor localization[J]. Neural Computing and Applications, 2016, 27(1): 215-225.
[26] CHEN Z, CHEN Y, GAO X, et al. Unobtrusive sensing incremental social contexts using fuzzy class incremental learning[C]// Proceedings of the 2015 IEEE International Conference on Data Mining. Piscataway, NJ: IEEE, 2015: 71-80.
[27] XIANG Z, CHEN Z, GAO X, et al. Solving large-scale TSP using a fast wedging insertion partitioning approach[J]. Mathematical Problems in Engineering, 2015, 2015: Article ID 854218.
[28] JIANG X, CHEN Y, LIU J, et al. Real-time and accurate indoor localization with fusion model of Wi-Fi fingerprint and motion particle filter[J]. Mathematical Problems in Engineering, 2015, 2015: Article ID 545792.
[29] CHEN Z, CHEN Y, HU L, et al. ContextSense: unobtrusive discovery of incremental social context using dynamic bluetooth data[C]// UbiComp 2014: Proceedings of the 2014 Adjunct Proceedings of the 2014 ACM International Joint Conference on Pervasive and Ubiquitous Computing: Adjunct Publication. New York: ACM, 2014: 23-26.
[30] ZHANG H, YUAN J, GAO X, et al. Boosting cross-media retrieval via visual-auditory feature analysis and relevance feedback[C]// MM 2014: Proceedings of the 22nd ACM International Conference on Multimedia. New York: ACM, 2014: 953-956.
[31] GAO X, HOI S, ZHANG Y, et al. SOML: sparse online metric learning with application to image retrieval[C]// AAAI 2014: Proceedings of the Twenty-Eighth AAAI Conference on Artificial Intelligence. Menlo Park: AAAI Press, 2014: 1206-1212.
[32] CHEN Z, CHEN Y, WANG S, et al. Inferring social contextual behavior from bluetooth traces[C]// UbiComp 2013: Proceedings of the 2013 ACM Conference on Pervasive and Ubiquitous Computing Adjunct Publication. New York: ACM, 2013: 267-270.
[33] CHEN Z, WANG S, SHEN Z, et al. Online sequential ELM based transfer learning for transportation mode recognition[C]// Proceedings of the 2013 IEEE Conference on Cybernetics and Intelligent Systems. Piscataway, NJ: IEEE, 2013: 78-83.
[34] HU L, CHEN Y, WANG S, et al. OKRELM: online kernelized and regularized extreme learning machine for wearable-based activity recognition[J]. International Journal of Machine Learning and Cybernetics, 2016: 1-14.
[35] HAGER W W. Updating the inverse of a matrix[J]. SIAM Review, 1989, 31(2): 221-239.
[36] WANG W, HOU Z G, CHENG L, et al. Toward patients’ motion intention recognition: dynamics modeling and identification of iLeg — an LLRR under motion constraints[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2016, 46(7): 980-992.
[37] OJETOLA O, GAURA E, BRUSEY J. Data set for fall events and daily activities from inertial sensors[C]// MMSys 2015: Proceedings of the 6th ACM Multimedia Systems Conference. New York: ACM, 2015: 243-248.
[38] OJETOLA O. Detection of human falls using wearable sensors[D]. Coventry, UK: Coventry University, 2014: 49-66.
[39] ALTUN K, BARSHAN B. Human activity recognition using inertial/magnetic sensor units[C]// HBU 2010: Proceedings of the First International Workshop on Human Behavior Understanding, LNCS 6219. Berlin: Springer, 2010: 38-51.
This work is partially supported by the National Natural Science Foundation of China (61702491), the Research Foundation of Hebei University of Economics and Business (2016KYZ05), the Science and Technology Program of State Grid Corporation of China (5442DZ170019), the Science and Technology Innovation Program of China Electric Power Research Institute (5242001600H5).