999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于特征點界標過濾的時間序列模式匹配方法

2022-01-01 00:00:00劉暢李正欣張曉豐趙永梅郭建勝張鳳鳴
計算機應用研究 2022年4期

摘要:動態時間彎曲距離能度量不等長的時間序列、且具有較高的匹配精度,因此廣泛應用在時間序列模式匹配中。但其計算復雜度較高,制約了在大規模數據集上的應用。為了實現時間序列模式度量結果和計算復雜度的平衡,提出一種基于特征點界標過濾的時間序列模式匹配方法。首先,提出一種特征點界標過濾的特征提取方法,保留時間序列主要特征,壓縮時間維度;然后,利用動態時間彎曲距離對特征序列進行相似性度量;最后,在應用數據集上對所提方法進行有效性驗證。實驗結果表明,所提方法在保證高精度的前提下,能有效降低計算復雜度。

關鍵詞:時間序列; 特征序列; 動態時間彎曲距離; 計算復雜度

中圖分類號:TP391文獻標志碼:A

文章編號:1001-3695(2022)04-008-1008-05

doi:10.19734/j.issn.1001-3695.2021.09.0396

Time series pattern matching method based on feature point landmark filtering

Liu Chang, Li Zhengxin, Zhang Xiaofeng, Zhao Yongmei, Guo Jiansheng, Zhang Fengming

(Equipment Management amp; Unmanned Aerial Vehicle Engineering College, Air Force Engineering University, Xi’an 710051, China)

Abstract:Dynamic time warping distance can measure unequal time series and has high matching accuracy, so time series pattern matching can use it. However, its high computational complexity restricts its application in large-scale data sets. In order to balance the measurement results and computational complexity of time series pattern matching, this paper pointed out a time series pattern matching method based on feature point landmark filtering. Firstly, it proposed a feature extraction method for feature point landmark filtering, which retained the main features of the time series and compressed the time dimension. Then, feature sequence used dynamic time warping distance for similarity measurement. Finally, the method was validated on the application data set. Experimental results show that the method can effectively reduce the computational complexity while ensuring high accuracy.

Key words:time series; feature series; dynamic time warping distance; computational complexity

時間序列是一種常見的數據類型[1],它廣泛存在于網絡流量[2]、航天飛行軌跡[3]、生物神經系統[4]等社會、工程以及生物領域,隨著時間的推移,這類數據的存儲規模呈爆炸式增長[5]。

時間序列數據挖掘是對大量無序、雜亂的數據,進行有針對性的搜集并發現有價值、有規律的信息[6],它已成為目前掌握事物規律的重要方式之一[7]。時間序列數據挖掘主要研究內容包括模式匹配[8]、聚類[9]、分類[10]、相似性檢索[11]、關聯分析[12]、預測[13]等。模式匹配是度量兩條時間序列之間相似程度的方法,也是開展其他時間序列數據挖掘工作的前提與基礎[14]。

時間序列模式匹配主要工作為特征提取與相似性度量[15],其中,特征提取是用簡潔的形式表達時間序列數據[16];相似性度量是以特征提取結果為輸入,由距離公式刻畫序列之間的相似程度[17]。多數模式匹配方法在研究降低計算復雜度或提高匹配精度方面效果顯著[18],但能做到計算復雜度和匹配精度達到平衡的模式匹配方法卻不多。因此,研究能夠平衡計算復雜度與匹配精度的時間序列模式匹配方法具有現實的理論意義和廣闊的應用前景[19]。本文提出了一種基于特征點界標過濾的時間序列模式匹配方法。首先,提出一種特征點界標過濾的時間序列特征提取方法,在保留時間序列主要特征的基礎上,盡可能壓縮時間維度;然后,利用動態時間彎曲距離對特征序列進行相似性度量;最后,通過實驗對所提方法進行有效性驗證。

1研究背景

1.1相關研究

時間序列模式匹配是一種度量兩條時間序列之間相似性的方法。首先,提取出兩條時間序列的特征信息以降低計算復雜度。然后,使用相應的距離度量公式計算兩條時間序列特征信息的距離,距離越小,代表兩條時間序列越相似。

目前,常見時間序列模式匹配方法主要有歐氏距離(Euclidean distance,ED)[20]、動態時間彎曲(dynamic time warping,DTW)[21]距離、奇異值分解(singular value decomposition,SVD)[22]、趨勢距離(trend distance,TD)[23]和基于點分布特征(point distribution,PD)[24]。a)ED距離計算簡單,它直接度量序列之間對應觀測值的累計距離,這要求兩條序列長度必須相等,無法處理序列不等長、伸縮與彎曲的情況。b)DTW距離利用動態規劃思想度量不等長的序列,具有良好的魯棒性和匹配精度,但它計算效率低,在大型數據集上不適用。c)SVD方法把時間序列中的變量當做隨機變量,以序列的各個觀測值為樣本點建立相關系數矩陣,利用線性空間坐標變換完成相似性度量。SVD能夠保留變量之間的相關性,但它無法描述時間序列的時序關系,存在一定的誤判風險且無法度量一元時間序列。d)TD方法采用最小二乘法對時間序列進行擬合,并對擬合出的線段截取其傾斜角與時間跨度作為特征矩陣,利用DTW距離對特征矩陣進行相似性度量。TD與DTW相比,有效降低了計算復雜度,但模型參數較多、參數優化配置環節較為復雜。e)PD方法以提取時間序列的局部重要點作為特征矩陣,最后依據重要點的分布進行相似性度量。PD方法支持不等長序列的度量,但PD方法沒有考慮不同變量之間的量綱差異,僅適用于多元時間序列,在大型數據集上不適用。

1.2相關符號定義

本文所使用符號如表1所示。

2界標過濾特征提取方法

為了得到更加簡潔、有效的特征,本章提出一種界標過濾特征提取方法。該方法分為兩個階段:首先,提取時間序列初始特征;然后,剔除初始特征中的冗余特征點,獲取時間序列最終特征。

2.1初始特征點提取

對每一個變量維度上的序列,依次采用滑動窗口技術[25],在滑動窗口內提取初始特征。首先,給定分段跨度因子Δ,任意點xi(j)所在滑動窗口表示為{xi-Δ(j),…,xi(j),…,xi+Δ(j)},如圖1所示。如果xi(j)是該窗口的最大或最小值,則為序列的初始特征點。對于序列中的其他點,也依次執行類似操作,對于多元時間序列,初始特征點提取方法如算法1所示。對于時間序列x∈n×m,提取出n條初始特征序列,由于各變量維度上序列自身差異[26],這些特征序列的長度一般不相同。n×m;分段跨度因子Δ。

輸出:初始特征p。

a)在x∈n×m第j個變量序列上,針對任意一點xi(j),根據分段跨度因子Δ,確定滑動窗口為{xi-Δ(j),…,xi(j),…,xi+Δ(j)}。

b)如果xi(j)為滑動窗口的最大或最小值,則它為初始特征點,加入第j個特征序列pi(j)中。

c)對于其他變量序列,依次執行步驟a)b),得到時間序列所有變量維度上的初始特征序列p(1),p(2),…,p(j),…,p(n)。

2.2冗余特征點剔除

提取的初始特征序列中,某些相鄰特征點的時間跨度較小、變量幅值差異不大。如果將這部分特征點從初始特征序列中剔除,能進一步降低特征序列長度,提高特征有效性。

界標模型算法[27]首先利用符號標記出序列最大、最小值;然后以該符號為中心,在給定鄰域內,確認是否存在一個被全新符號所標記的點;如果存在,則該點與之前被符號所標記的點其數值差異在給定閾值范圍內;重復上述步驟,使用不同符號標記序列符合條件的點。

本文利用界標模型算法思想,對上述初始特征序列中存在的冗余特征點進行剔除,于是提出用界標過濾法剔除冗余特征點,獲取最終特征。需要注意的是,所提界標過濾法僅利用界標模型算法在對不同點進行區分時,使用符號分別進行標記這一過程,在接下來的界標過濾法中,將利用一個固定寬度、固定高度的矩形方框對冗余特征點進行剔除,不再需要對不同初始特征點進行符號標記,而是利用矩形方框在不同初始特征點上移動標記冗余特征點并剔除。

已知時間序列的長度為m,整條序列上的變量最大值與最小值之差為h,為了在初始特征序列上尋找這種冗余特征點,定義一個寬為l1m,高為l2h的矩形方框。其中,l1為時間跨度系數,l2為變量幅值系數。對于任意初始特征點pi(j),首先計算它與后一相鄰初始特征點pi+1(j)的時間跨度、變量差值,構造一個矩形方框。然后,將矩形方框右側邊的中點放置在pi+1(j)點的位置,如圖2所示。如果pi(j)點在矩形方框內,說明pi(j)和pi+1(j)的時間跨度較小且變量差值不大,則pi(j)為冗余特征點,可以從初始特征序列中剔除。按照這種方法,用矩形方框在初始特征序列上滑動,可以剔除冗余特征點,如算法2所示。

算法2冗余特征點剔除算法

輸入:初始特征序列p;時間跨度參數l1;變量幅值參數l2;時間序列長度m;最大值與最小值之差h。

輸出:最終特征序列f。

a)在初始特征序列p的第j條序列p(j)上,根據參數l1、l2、m和h,確定一個寬l1m、高l2h的矩形方框R(j)。

b)針對序列p(j)上的任意一點pi(j),找到它的相鄰點pi+1(j)。將矩形方框右側邊的中點放置在pi+1(j)點位置。

c)如果點pi(j)在該矩形方框中,則pi(j)為冗余特征點,并從序列p(j)中剔除。

d)對于序列p(j)的每一點,參見步驟b)c),剔除冗余特征點,得到最終特征序列f(j)。

e)對于其他變量維度上的初始特征序列,依次執行步驟a)~d),剔除各序列上的冗余特征點。最后,將這些剔除冗余點的序列組合為最終的特征序列f。

3基于特征點界標過濾的匹配方法

時間序列x∈n×m經過特征提取,得到最終特征f,它的變量維度仍然是n。由于各變量維度上序列的形態差異,f在不同變量維度上的序列長度各不相同。以兩條時間序列的最終特征作為輸入,它們的距離計算可以描述為:分別計算它們在每一個變量維度上對應最終特征的DTW距離,而后累加求和。

設時間序列x∈n×m1、y∈n×m2,使用界標過濾法得到最終特征為fx、fy。通常,對于同一數據集中的時間序列,它們的變量維度相同,時間維度不同。如圖3所示,針對第j個變量維度上的特征序列fx(j)、fy(j),給出它們的點對匹配結果以及彎曲路徑[28],并計算其DTW距離。

Ddtw(fx(j),fy(j))=Dbase(fx1(j),fy1(j))+

minDdtw(fx(j),fy(j)[2:-])

Ddtw(fx(j)[2:-],fy(j))

Ddtw(fx(j)[2:-],fy(j)[2:-])

(1)

其中:fx(j)[2:-]表示最終特征序列fx(j)中,從第2個特征點到最后一個特征點組成的子序列;fy(j)[2:-]表示最終特征序列fy(j)上的子序列;Dbase(fx1(j),fy1(j))表示序列fx(j)上第一個點與序列fy(j)上第一個點之間的基距離,其計算方法為

Dbase(fx1(j),fy1(j))=|fx1(j)-fy1(j)|(2)

最后,針對最終特征fx、fy的所有變量維度,依次計算出每個變量維度的DTW距離,并求和。

Ddtw(fx,fy)=∑nj=1Ddtw(fx(j),fy(j))(3)

為了使匹配方法更加直觀,提供偽代碼如算法3所示。使用DTW距離直接計算兩條時間序列x∈n×m1、y∈n×m2的相似性,計算復雜度為O(n×(m1×m2))。對時間序列的最終特征f x、f y使用DTW距離進行相似性度量,計算復雜度為O(n×(k×t)),其中k、t分別為最終特征fx、 fy上各變量維度序列的最大長度。由于km1、tm2,所以O(n×(k×t))O(n×(m1×m2))。為了方便,所提方法簡記為FLF-DTW(feature landmark filtering based on DTW)。

算法3基于特征點界標過濾的匹配方法

輸入:最終特征fx、fy。

輸出:距離結果dist。

dist←0

for i←1 to n//n表示fx,fy的變量數

D←zeros(ai1,ai2),cost←zeros(ai1,ai2)

//ai1、ai2代表fx、fy當前第i行的長度

for j←1 to ai1

for g←1 to ai2

cost(j,g)←|fx(i,j)-fy(i,g)|

t←min{D(j-1,g),D(j,g-1),D(j-1,g-1)}

D(j,g)←cost(j,g)+t

end for

end for

dist←dist+D(ai1, ai2)

end for

return dist

4實驗與結果分析

4.1實驗方法與實驗數據

實驗環境為Intel CoreTM i5-4590S CPU,4 GB RAM,Windows 7,MATLAB R2014a。對比的時間序列模式匹配方法為SVD、PD、TD、DTW。其中,DTW直接將時間序列作為輸入,輸出距離結果。

本文針對分類標簽已知時間序列數據集的所有樣本,采用K近鄰法與留一法結合的形式進行實驗。將實驗數據集中任意時間序列樣本作為輸入。首先,將輸入樣本與數據集中其他樣本逐一使用相應的模式匹配方法計算出所有距離。然后,統計出前k個最小距離所對應的其他樣本與輸入樣本相同類別的個數K。最后,將k與K的比值作為準確率。對實驗數據集中其余的時間序列樣本依次作為輸入,重復以上實驗,得到所有樣本的準確率,計算所有準確率的平均值作為匹配精度,衡量模式匹配方法的有效性。

實驗采用八組來自社會、醫學、工程領域并且分類標簽已知的應用數據集,如表2所示。其中,六組多元時間序列數據集,分別為Australian sign language(ASL)、Japanese vowels (JV)、EEG、CMUsubject16 (CMUs)、WalkvsRun (WR)和robot execution failure (REF);兩組一元時間序列數據集,分別為trace和beef。

ASL為手語信號數據集,包含22個連續型變量,其中左、右手的動作特征各用11個變量刻畫,共有95個類別,不失一般性,選取前8個類別對應的序列作為實驗數據集。JV為男性演講者的日語元音數據集,含12個變量,共640個樣本。EEG數據集為兩類人群(alcoholic subjects和control subjects)的腦電信號圖,一共有122個測試者的數據,每個測試者共120次測試,采用前兩位測試者的兩個數據,編號為co2a0000364和co2c0000337,共166個樣本。CMUs為工業領域數據集,含62個變量,共58個樣本。WR為行人識別數據集,廣泛應用于模式識別領域,數據集中不同時間序列樣本的時間長度差異較大。REF是對robot進行故障監控的數據集,該數據集含5個子數據集,選取第1個子數據集LP1進行實驗。trace為追蹤數據集,其中包含4個類別,共200個樣本。beef是由光譜儀得到的數據圖像,然后通過平滑及采樣等方式形成等長的數據集,共計60個樣本。

4.2模式匹配精度的比較

本節針對上述八組來自UCI機器學習數據庫的應用數據集,分別使用SVD、PD、TD、DTW和FLF-DTW采用上述實驗方式得出相應的匹配精度結果,其中PD、TD、FLF-DTW需要預先設置參數。將匹配精度進行對比并分析不同方法的優缺點。

4.2.1JV數據集上的實驗結果

在JV數據集上,用不同匹配方法進行實驗。PD分割形式為X[i-1:i+1,j-1:j+1],TD中maxError=0.03、ε=0.8、λ=0.2;FLF-DTW中Δ=7、l1=0.07、l2=0.07。實驗結果如表3所示。可以看出,FLF-DTW的平均匹配精度最高;DTW的結果十分接近FLF-DTW;SVD、PD、TD匹配效果均不理想。現將原因歸納如下:

a)SVD把序列中的變量當做隨機變量,沒有考慮觀察值的時間順序,存在誤判風險。FLF-DTW按照時間順序提取特征,保留了序列的時序性。

b)PD在相鄰變量中提取局部重要點,沒有考慮變量間的量綱差異。FLF-DTW針對每一個變量維度,分別提取特征,能夠體現不同變量之間的差異。

c)雖然TD、FLF-DTW都是縮短序列的時間維度,但TD把所有變量維度上的序列進行同步分割,對于序列不同步的數據集效果不佳。FLF-DTW在各個變量維度上分別降低時間維度,具有較好的靈活性。

d)DTW直接使用原序列進行度量,計算復雜度太高。FLF-DTW通過提取特征序列,大幅度縮短序列長度,降低計算復雜度。

4.2.2其他數據集上的實驗結果

對于六組多元時間序列數據集 (ASL、JV、EEG、CMUs、WR、LP1),分別使用SVD、PD、TD、DTW、FLF-DTW計算平均匹配精度。由于SVD、PD只適用于多元時間序列,所以對于兩組一元時間序列數據集(trace、beef),分別使用TD、DTW、FLF-DTW進行實驗。K近鄰方法中,k=1時的匹配精度結果如圖4所示。其中,PD、TD、FLF-DTW采取上述相同的參數設置。

可以看出,FLF-DTW在幾組數據集上均能夠獲得較高的匹配精度,甚至超過DTW距離的匹配精度。SVD、PD在某些數據集上的度量效果不佳,且不適用于一元時間序列。

4.3FLF-DTW參數敏感性分析

在FLF-DTW中,第一個特征提取階段,通過滑動窗口技術提取特征點,壓縮原始序列。而滑動窗口因子Δ的大小決定著特征點的數量,Δ值越大,特征點數量越少,壓縮程度越大;Δ值越小,特征點數量越多,壓縮程度越小。為了簡化實驗分析,將l1、l2取上文實驗中的最優值,計算不同Δ值下FLF-DTW的匹配精度,如圖5所示。

在ASL、JV數據集上,隨著Δ的增大,FLF-DTW匹配精度趨于穩定。原因在于,隨著Δ的增大,初始特征中的特征點數量基本不變,進而讓序列壓縮程度保持穩定;由于特征點沒有發生變化,所以特征序列參與相似性度量的結果基本不變,使得匹配精度穩定。在EEG、beef數據集上,隨著Δ的增大,FLF-DTW匹配精度降低。原因在于,隨著Δ的增大,初始特征中的特征點數量減少,進而讓序列壓縮程度增大;由于特征點數量減少,所以特征序列參與相似性度量的結果降低,使得匹配精度降低。

在FLF-DTW中,第二個特征提取階段,通過界標過濾法剔除冗余特征點進一步壓縮原始序列,時間跨度參數l1和變量幅值參數l2的大小也決定特征點的數量。l1、l2值越大,特征點數量越少,壓縮程度越大;l1、l2值越小,特征點數量越多,壓縮程度越小。為了簡化實驗分析,將Δ取上文實驗中的最優值,計算l1、l2取不同值時FLF-DTW的匹配精度,如圖6所示。

在ASL、JV數據集上,隨著l1、l2的增大,FLF-DTW匹配精度趨于穩定。原因在于,隨著l1、l2的增大,最終特征中的特征點數量基本不變,進而讓序列壓縮程度保持穩定;由于特征點沒有發生變化,所以特征序列參與相似性度量的結果基本不變,使得匹配精度穩定。在EEG、beef數據集上,隨著l1、l2的增大,FLF-DTW匹配精度降低。原因在于,隨著l1、l2的增大,最終特征中特征點數量減少,讓序列壓縮程度增大,由于特征點數量減少,所以特征序列參與相似性度量的結果降低,使得匹配精度降低。

4.4計算復雜度比較

在上述實驗中,TD、DTW和FLF-DTW均能獲得較好的匹配精度,這三種方法都以DTW距離為基礎。不同之處在于,DTW距離直接度量原始序列,TD、FLF-DTW度量特征序列,本節比較分析三種方法的計算復雜度。參與計算的三種方法計算復雜度為O(n×(t1×t2)),其中t1、t2表示參與運算的兩條特征序列最大長度,n表示變量個數。由于三種方法的計算復雜度主要取決于特征序列長度的乘積,用序列壓縮率的平方來近似比較計算復雜度,如表4所示。

為了更加直觀地比較計算復雜度,消除實驗壞境引起的偏差,用TD、FLF-DTW兩種方法的計算時間分別除以DTW距離的計算時間,如圖7所示。在八組數據集中,FLF-DTW平均計算復雜度要低于TD。在數據集CMUs、WR上,FLF-DTW的復雜度要遠低于TD;在數據集ASL、EEG、trace上,FLF-DTW的復雜度低于TD;在數據集JV、LP1上,TD的復雜度低于FLF-DTW。

5結束語

本文以提取時間序列的初始特征點序列為基礎,使用界標過濾法兩次提取最終特征序列為輸入,利用DTW距離進行相似性度量,提出一種基于特征點界標過濾的時間序列模式匹配方法,并通過實驗表明了FLF-DTW的有效性。

與其他幾種模式匹配方法相比,FLF-DTW的優點在于:a)與SVD相比,FLF-DTW按照時間順序提取特征,保留了序列的時序性;b)與PD相比,FLF-DTW針對每一個變量,分別提取特征,體現了不同變量之間的差異;c)與TD相比,FLF-DTW在各個變量維度上分別降低時間維度,具有較好的靈活性;d)與DTW相比,FLF-DTW通過大幅降低時間序列時間維數,提高計算效率、降低復雜度。但FLF-DTW包含三個參數,有效優化這些參數從而進一步提高性能,這是需要進一步研究的問題。

參考文獻:

[1]Guo Hongyue, Wang Lidong, Liu Xiaodong, et al. Trend-based granular representation of time series and its application in clustering[J].IEEE Trans on Cybernetics,2021,26(1):1-10.

[2]Fan Xiaoshi, Wang Yanan, Zhang Mengyu. Network traffic forecasting model based on long-term intuitionistic fuzzy time series[J].Information Sciences,2020,506(1):131-147.

[3]Constantinou P, Kokoszka P, Reimherr M. Testing separability of functional time series[J].Journal of Time Series Analysis,2018,39(5):731-747.

[4]Gharehbaghi A, Maria L. A deep machine learning method for classifying cyclic time series of biological signals using time-growing neural network[J].IEEE Trans on Neural Networks and Learning Systems,2018,29(9):4102-4115.

[5]Guo Aiping, Jiang A, Lin Jie, et al. Data mining algorithms for bridge health monitoring: Kohonen clustering and LSTM prediction approaches[J].Journal of Supercomputing,2020,76(2):932-947.

[6]Li Hailin. Time works well: dynamic time warping based on time weighting for time series data mining[J].Information Sciences,2021,547(3):592-608.

[7]Feng Shoubo, Han Min, Zhang Jiadong, et al. Learning both dynamic shared and dynamic-specific patterns for chaotic time-series prediction[J].IEEE Trans on Cybernetics,2020,34(3):667-681.

[8]Anand G, Nayak R. DeLTa: deep local pattern representation for time-series clustering and classification using visual perception[J].Knowledge-Based Systems,2020,212(2):408-416.

[9]Zhang Qin, Wu Jia, Zhang Peng, et al. Salient subsequence learning for time series clustering[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2019,41(9):2193-2207.

[10]Karim F, Majumdar S, Darabi H. Adversarial attacks on time series[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2020,11(1):1-13.

[11]Yu Chenyun, Luo Lintong, Chan L L H, et al. A fast LSH-based similarity search method for multivariate time series[J].Information Sciences,2019,476:337-356.

[12]Wang Chaojun, Zhao Hongrui. Analysis of remote sensing time-series data to foster ecosystem sustainability: use of temporal information entropy[J].International Journal of Remote Sensing,2019,40(8):2880-2894.

[13]Zhang Gege, Zhang Chao, Zhang Weidong. Evolutionary echo state network for long-term time series prediction: on the edge of chaos[J].Applied Intelligence,2020,50(2):1-12.

[14]Wan Yuqing, Si Y W. A hidden semi-Markov model for chart pattern matching in financial time series[J].Soft Computing,2018,22(19):6525-6544.

[15]Piatov D, Helmer S, Digns A, et al. Interactive and space-efficient multi-dimensional time series subsequence matching[J].Information Systems,2019,82(1):121-135.

[16]Zapata P A M, Roth S, Schmutzler D, et al. Self-supervised feature extraction from image time series in plant phenotyping using triplet networks[J].Bioinformatics,2020,15(2):416-425.

[17]Cazelles E, Robert A, Tobar F. The Wasserstein Fourier distance for stationary time series[J].IEEE Trans on Signal Processing,2020,311(8):2941-2950.

[18]Homenda W, Jastrzebska A. Time series classification using fuzzy cognitive maps[J].IEEE Trans on Fuzzy Systems,2019,6(4):532-541.

[19]Ruble M, Hayes E, Pitruzzello A M, et al. Hyperdimensional Bayesian time-mapping (hyperbat): a probabilistic approach to time series mapping of non-identical sequences[J].IEEE Trans on Signal Processing,2019,137(4):831-839.

[20]Guigou F, Collet P, Parrend P. SCHEDA: lightweight Euclidean-like heuristics for anomaly detection in periodic time series[J].Applied Soft Computing,2019,82(3):1432-1443.

[21]Thuy H, Anh D T, Chau V. Efficient segmentation-based methods for anomaly detection in static and streaming time series under dynamic time warping[J].Journal of Intelligent Information Systems,2021,56(3):373-386.

[22]Montagnon C E. Forecasting by splitting a time series using singular value decomposition then using both ARMA and a Fokker Planck equation[J].Physica A: Statistical Mechanics and Its Applications,2020,567(3):536-545.

[23]李正欣,張鳳鳴,李克武.多元時間序列模式匹配方法研究[J].控制與決策,2011,26(4):565-570.(Li Zhengxin, Zhang Fengming, Li Kewu. Research on pattern matching method of multivariate time series[J].Control and Decision,2011,24(4):565-570.)

[24]管河山,姜青山,王聲瑞.基于點分布特征的多元時間序列模式匹配方法[J].軟件學報,2009,20(1):67-69.(Guan Heshan, Jiang Qingshan, Wang Shengrui. Pattern matching method based on point distribution for multivariate time series[J].Journal of Software,2009,20(1):67-69.)

[25]Guo Xingang, Hong Peiying, Laleg-Kirati T M. Calibration and validation for a real-time membrane bioreactor: a sliding window approach[J].Journal of Process Control,2021,98(6):92-105.

[26]Zou Nan, Volgushev S, Bücher A. Multiple block sizes and overlapping blocks for multivariate time series extremes[J].The Annals of Statistics,2021,49(1):295-320.

[27]Li Aihua, Xu Weijia, Liu Zhidong, et al. Improved incremental local outlier detection for data streams based on the landmark window model[J].Knowledge and Information Systems,2021,63(8):2129-2155.

[28]D’Urso P, De Giovanni L, Massari R. Trimmed fuzzy clustering of financial time series based on dynamic time warping[J].Annals of Operations Research,2021,299(1):1379-1395.

收稿日期:2021-09-25;

修回日期:2021-11-17

基金項目:國家自然科學基金資助項目

作者簡介:劉暢(1996-),男,碩士研究生,主要研究方向為機器學習、數據挖掘;李正欣(1982-),男(通信作者),副教授,碩導,博士,主要研究方向為機器學習、數據挖掘、人工智能(lizhengxin_2005@163.com);張曉豐(1978-),男,副教授,博士,主要研究方向為智能信息處理與決策;趙永梅(1982-),女,博士研究生,主要研究方向為數據科學與大數據分析技術;郭建勝(1965-),男,教授,博導,博士,主要研究方向為裝備信息系統及裝備系統工程研究;張鳳鳴(1963-),男,教授,博導,碩士,主要研究方向為信息系統工程與智能決策.

主站蜘蛛池模板: 中文国产成人久久精品小说| 欧美区日韩区| 一本二本三本不卡无码| 国产精品一区不卡| 久久窝窝国产精品午夜看片| 亚欧乱色视频网站大全| 国内精品视频| 五月婷婷中文字幕| 毛片免费网址| 波多野结衣久久精品| 97se亚洲综合在线韩国专区福利| 青草国产在线视频| 色天天综合| 午夜免费视频网站| 88av在线看| 蜜臀av性久久久久蜜臀aⅴ麻豆 | 国产色婷婷| 国产精品xxx| 视频在线观看一区二区| 浮力影院国产第一页| 日本不卡在线| 婷婷激情亚洲| 国产精品久久久精品三级| 国产精品一区二区国产主播| 国产成人亚洲精品无码电影| 91青青草视频在线观看的| 日韩中文字幕亚洲无线码| 亚洲综合在线最大成人| 99er这里只有精品| 欧美成人国产| 亚洲中文字幕日产无码2021| 精品久久国产综合精麻豆| 亚洲香蕉久久| 国产成人三级| 精品国产香蕉在线播出| 日本尹人综合香蕉在线观看| 免费观看成人久久网免费观看| 亚洲一区无码在线| 黄色污网站在线观看| 亚洲人成影视在线观看| 黄网站欧美内射| 波多野结衣久久精品| 91丝袜在线观看| 国产不卡一级毛片视频| 十八禁美女裸体网站| 欧美爱爱网| 91在线无码精品秘九色APP| 尤物国产在线| 毛片视频网| 黄色网站不卡无码| 国产欧美日韩18| 中文天堂在线视频| 亚洲人成在线精品| 国产一区二区福利| 男女性色大片免费网站| 亚洲妓女综合网995久久| 亚洲精品无码抽插日韩| 熟女日韩精品2区| 人妻出轨无码中文一区二区| 亚洲AV人人澡人人双人| 亚洲无码高清一区二区| 40岁成熟女人牲交片免费| 99re热精品视频中文字幕不卡| 91麻豆精品国产高清在线| 日本精品影院| 中国丰满人妻无码束缚啪啪| 欧美成人综合在线| 波多野结衣一级毛片| 日本中文字幕久久网站| 扒开粉嫩的小缝隙喷白浆视频| 国产区免费精品视频| 婷婷丁香在线观看| 亚洲精品在线91| 国产精品手机视频| 伊人久久大香线蕉成人综合网| 岛国精品一区免费视频在线观看| 欧美日韩国产精品va| 欧美成人午夜视频免看| 精品人妻系列无码专区久久| 国产免费久久精品99re不卡 | 亚洲高清在线天堂精品| 国产福利影院在线观看|