





摘 要:針對(duì)人類軌跡與可穿戴傳感器數(shù)據(jù)的匹配問(wèn)題,提出了一種解決方法,通過(guò)將攝像頭捕獲的人類軌跡與可穿戴設(shè)備的傳感器數(shù)據(jù)進(jìn)行匹配,首先利用深度學(xué)習(xí)模型SyncScoreDTW 評(píng)估單位時(shí)間內(nèi)軌跡與傳感器數(shù)據(jù)的相似度,其次通過(guò)似然融合算法逐步更新這些相似度。在自制數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)驗(yàn)證表明,該方法實(shí)現(xiàn)了77.5%的高匹配準(zhǔn)確率。同時(shí),在公開(kāi)的UEA數(shù)據(jù)集上,該方法也展示出優(yōu)越的性能。此項(xiàng)研究揭示了跨模態(tài)數(shù)據(jù)匹配的潛力,為軌跡匹配領(lǐng)域提供了一種全新、高效的解決方案。
關(guān)鍵詞:深度學(xué)習(xí);時(shí)間序列;人體軌跡;傳感器;多模態(tài)傳感器數(shù)據(jù)分析;Transformer
中圖分類號(hào):TP391 文獻(xiàn)標(biāo)志碼:A
0 引言(Introduction)
隨著監(jiān)控?cái)z像頭的普及應(yīng)用,如今在健身房、教室和護(hù)理設(shè)施等各種場(chǎng)景中,已經(jīng)可以捕捉到多個(gè)個(gè)體的活動(dòng)軌跡。這些軌跡數(shù)據(jù)不僅能夠?yàn)榘踩芾硖峁┯辛χС郑€可以為個(gè)人回顧自己的行為活動(dòng)提供信息。
本文提出了一種直接將軌跡數(shù)據(jù)與可穿戴手表的傳感數(shù)據(jù)進(jìn)行匹配的方法,這種方法不需要存儲(chǔ)任何視頻資料。從隱私保護(hù)設(shè)計(jì)的角度看,最好在邊緣設(shè)備上對(duì)軌跡數(shù)據(jù)進(jìn)行轉(zhuǎn)換。然而據(jù)調(diào)查,目前沒(méi)有現(xiàn)成的匹配算法可以進(jìn)行軌跡數(shù)據(jù)之間的匹配。這項(xiàng)工作為軌跡和傳感器數(shù)據(jù)的匹配提供了新的視角與方法,并為這一領(lǐng)域的后續(xù)探索和應(yīng)用奠定了堅(jiān)實(shí)的基礎(chǔ)。
目前,已有許多基于圖像特征的人員再識(shí)別方法[1-2],這些方法旨在從不同圖像中找到同一人。人員再識(shí)別是通過(guò)提取一幀圖像中的視覺(jué)特征,并將其與數(shù)據(jù)庫(kù)中存儲(chǔ)的特征進(jìn)行匹配,以實(shí)現(xiàn)對(duì)目標(biāo)人員身份的識(shí)別。在這項(xiàng)工作中,目的不是從單個(gè)幀提取視覺(jué)特征,而是通過(guò)計(jì)算個(gè)人的軌跡與同時(shí)獲得的傳感器數(shù)據(jù)之間的相似性來(lái)實(shí)現(xiàn)精準(zhǔn)的個(gè)人識(shí)別。這種大數(shù)據(jù)驅(qū)動(dòng)的特性促使研究人員選擇采用深度神經(jīng)網(wǎng)絡(luò)計(jì)算軌跡與傳感器數(shù)據(jù)之間的相似似然性。盡管在軌跡與傳感器數(shù)據(jù)匹配的實(shí)際應(yīng)用中,傳感器數(shù)據(jù)是不間斷的,但是獲得的軌跡通常情況下是碎片化的。基于此,提出了一種在短時(shí)間間隔內(nèi)匹配軌跡與傳感器數(shù)據(jù)的深度學(xué)習(xí)方法。針對(duì)碎片化的軌跡問(wèn)題,本文提出了一種解決方法,該方法通過(guò)觀察整套軌跡,利用觀察到多條軌跡時(shí)最多只有一條軌跡對(duì)應(yīng)一個(gè)人的事實(shí),更新匹配似然性。軌跡匹配流程如圖1所示。圖1(a)說(shuō)明了方法的流程,圖1(b)說(shuō)明了方法的實(shí)現(xiàn)過(guò)程。