999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于自適應小波分解的時間序列分類方法

2022-04-18 10:56:22梁小慧郭晟楠萬懷宇
計算機工程 2022年4期
關鍵詞:分類特征方法

梁小慧,郭晟楠,萬懷宇

(北京交通大學計算機與信息技術學院交通數據分析與挖掘北京市重點實驗室,北京 100044)

0 概述

時間序列是指人們在觀測事物的發展規律時,根據觀測對象狀態記錄的一定時間范圍內及一定量的有序樣本。隨著傳感器技術和互聯網技術的迅速發展,時間序列在各行各業中正以一種前所未有的速度產生和積累。比如:在生物醫學領域[1],使用穿戴式設備監測使用者的體溫數據、心率數據、血壓數據等人體健康指標數據;在交通領域[2],使用傳感器監測得到的交通流量數據;在金融領域[3],股票市場中實時產生的股票交易數據等。時間序列數據往往蘊藏著豐富的信息,對其進行分析建模能夠幫助人們發現觀察對象的本質或發展規律,從而為人們提供決策依據。

時間序列分類即通過構建分類模型來建模時間序列中的特征以實現對該時間序列的歸類,是時間序列分析中的一個重要的研究分支,近年來被廣泛運用到各個行業中。比如:在醫療行業,通過對心電圖數據的建模分析,可以發現心臟是否存在異常[4];在網絡安全領域,通過監測網絡的流量情況,可以判斷是否出現網絡流量異常,從而及時做出相應的判斷和決策[5]。

傳統的時序分類方法主要通過分析時間序列間在時域、形狀、變化趨勢等方面的相似性,從而實現對時間序列的分類,這類方法的分類性能較大程度地受限于序列間的相似性度量方式[6]。而基于機器學習的方法則需要根據不同的業務場景精心設計特征提取規則,特征工程的優劣決定了模型性能的上限[7]。隨著神經網絡和深度學習的發展,相繼出現了較多的基于深度學習的時序分類方法。這類方法無需事先對數據進行復雜的特征提取,是一種端到端的學習方法,因此適用范圍較廣。如文獻[8]將FCN 和ResNet 運用到時間序列分類任務中,直接將原始時間序列作為FCN 和ResNet 的輸入,取得了較好的分類效果。但是這類方法僅從時域上對時間序列進行建模,主要是捕獲時間序列的局部形狀特征,而忽視了時間序列中蘊含的長期趨勢特征、周期性特征、季節性特征等。

針對上述的問題,本文提出一種基于自適應多級小波分解的時間序列分類方法AMWDNet。該方法使用自適應多級小波分解,提取多級低頻特征和高頻特征,對于各級的時頻特征,使用長期時間模式提取模塊和短期時間模式提取模塊分別捕獲時間序列中的全局變化模式和局部變化模式,并對各級的預測結果進行融合,作為最終的預測結果。

1 相關工作

目前主流的時間序列分類方法主要分為四大類,包括基于距離的方法、基于特征的方法、基于集成學習的方法和基于深度學習的方法。

基于距離的方法是通過計算兩個時間序列之間的距離作為時間序列之間的相似性度量,然后將獲得的相似度作為分類器(常用的分類器有K 近鄰分類器、支持向量機等)的輸入從而得到分類的結果。因此,如何定義出一種合適的距離度量是關鍵。常用的距離度量方法有歐氏距離[9]和動態時間規整(Dynamic Time Wraping,DTW)[10]。這類方法雖然計算簡單、可解釋性較強,但是其時間和空間復雜度較高,不適用于大數據環境下的分類場景,因而存在較大的局限性。

基于特征的方法是從原始時間序列中提取有效的特征,然后將提取到的特征作為分類器的輸入從而得到分類的結果。文獻[11]提出的模式袋(Bag of Patterns,BOP)模型使用符號近似估計(Symbolic Aggregate approXiamtion,SAX)[12]將原始時間序列轉換為單詞集合,并針對單詞的出現頻率進行統計,再計算出兩個時間序列對應的單詞出現頻率之間的歐氏距離,最后使用最近鄰分類器進行分類。與BOP 方法不同,文獻[13]提出的符號傅里葉近似(Symbolic Fourier Approximation,SFA)模型,首先使用離散傅里葉變換提取每個時間序列的頻域信息,然后轉換成單詞集合。除了利用全局的時間序列進行特征的提取和構造外,還有利用局部的時間序列片段來構造特征向量的方法。基于辨識性子序列(shapelet)的方法是從原始時間序列中搜索出最具判別性的一段連續的子序列用來進行分類。文獻[14]提出shapelet 的概念,隨后便吸引了大量學者,涌現出大量的改進方法[15-16]。基于特征的方法的泛化性能較低,一般需要針對具體的問題對時間序列進行合適的特征表示,再使用分類器進行分類。

基于集成的方法是使用多個分類器進行分類,然后對多個分類器的分類結果進行融合,從而得到最終的分類結果。文獻[17]提出的EE(Elastic Ensembles)算法將11 個使用了不同距離度量的最近鄰分類器的分類結果相結合作為模型最終的分類結果。文獻[18]提出的COTE 算法集成了35 個不同的分類器,最終的分類結果是各個分類器的分類結果的加權融合。

隨著深度學習的發展,使得其被廣泛地應用到時間序列分類任務中。基于深度學習的方法是通過一系列的非線性計算來提取出時間序列中隱藏的特征。這類方法不需要事先設計復雜的特征提取規則,所以研究人員即使不具備豐富的領域知識,也可以使用這類方法來解決某個業務場景中的時間序列分類問題。但現有的深度學習方法大都基于時域的角度來對時間序列進行建模,如FCN、ResNet 等。然而,現實世界中采集到的時間序列往往同時包含長期趨勢、季節變化、循環變化和隨機變化,僅從時域的角度對時間序列進行特征表示,則會給神經網絡的建模帶來較大的難度。

為克服上述問題,本文提出基于自適應多級小波分解的時序分類方法,該方法能夠自適應地提取多級時頻特征,提升模型分類效果。

2 模型介紹

2.1 問題定義

本節首先給出時間序列分類相關定義的形式化描述。

定義1(單變量時間序列)時間序列是指在一段時間內對某個對象或系統進行觀測而產生的按照時間先后順序排列的數值型記錄[6]。根據每一時刻觀測的變量個數,可以將時間序列劃分為單變量時間序列和多變量時間序列。假設在t∈{1,2,…,T}時刻產生一個觀測值xt,則單變量時間序列x可形式化定義為觀測值xt的有序集合x={x1,x2,…,xT}∈RT×1。

定義2(單變量時間序列數據集)給定一個包含N個樣本的時間序列分類數據集,可以將其形式化表示為,其中二元組(xi,yi)表示數據集中的第i個樣本,xi={x1,x2,…,xT}∈RT×1代表一個長度為T的單變量時間序列,yi∈{1,2,…,C}代表時間序列xi對應的類別標簽,C表示數據集包含的時間序列的類別數目。

定義3(單變量時間序列分類)單變量時間序列分類任務即在假設空間H 中找到最佳的假設h,對單變量時間序列數據集D中的時間序列樣本進行分類預測,使得式(1)中的經驗風險最小化。

其中:L(·)是用以計算真實標簽yi和預測標簽h(xi)兩者間差距的損失函數。

2.2 時間序列的離散小波分解

離散小波分解(Discrete Wavelet Transform,DWT)在數字信號處理、語音信號處理、模式識別等多個領域都得到了廣泛的應用。DWT 可以將原始輸入時間序列分解為低頻分量(反映趨勢特征)和高頻頻率(反映局部細節特征)。Mallat 算法[19]是實現離散小波分解的經典算法之一。Mallat 算法由小波濾波器H、G和h、g對原始輸入時間序列進行分解與重構,其計算過程如下:

其中:t為時間序號;s(t)為原始時間序列;i為分解層數;H和G分別為小波分解低通濾波器和高通濾波器;Ai和Di分別是原始時間序列s(t)在第i層分解中得到的低頻部分和高頻部分的小波系數。

以一個時間序列A0的三層Mallat 分解為例,其分解過程如圖1 所示。

圖1 時間序列的Mallat 三層分解過程Fig.1 Mallat three-level decomposition process of time series

2.3 AMWDNet 模型

時間序列中蘊含著多種不同的特征模式,如局部的形狀特征、全局的趨勢變化特征、季節性特征等。這些特征在時域上相互雜糅,僅從時域上進行分析難以有效提取出存在于不同分辨率下的多種特征模式。因此,本文提出的AMWDNet 模型首先通過對原始輸入序列進行自適應多級小波分解,分解出多級的不同分辨率下的高頻分量和低頻分量,使得時間序列蘊含的多種特征模式得以顯現。然后設計長期時間模式提取模塊和短期時間模式提取模塊,分別建模各級高頻分量和低頻分量中的長期趨勢和短期波動。最后提出多級時頻信息融合模塊,對短期時間模式提取模塊的輸出結果進行融合,得到最終的分類結果。AMWDNet模型的整體結構如圖2 所示,模型共包含4 個模塊:

圖2 AMWDNet 模型總體結構Fig.2 Overall structure of AMWDNet model

1)自適應多級小波分解(Adaptive Multi-level Wavelet Decomposition,AMWD)模塊。使用自適應的離散小波分解對原始時間序列進行分解,提取出多級的低頻特征和高頻特征。

2)長期時間模式提取(Long-term Temporal Patterns Extracting,LTPE)模塊。使用Transformer[20]編碼器捕獲各級時頻信息中的長期特征,即時間序列的全局變化模式。

3)短期時間模式提取(Short-term Temporal Patterns Extracting,STPE)模塊。使用ResNet捕獲短期特征,即時間序列的局部變化模式。

4)多級時頻信息融合(Multi-level Time-Frequency information Fusion,MTFF)模塊。對基于各級時頻信息建模得到的分類結果進行融合,得到最終的分類結果。

本文提出的自適應多級小波分解方法能夠將時域上相互雜糅的各種時序特征模式彼此分離,大幅降低了后續的建模難度,從而有效地提高了模型的分類性能。并且,多級時頻信息的構建過程與神經網絡緊密結合,無需人工提取特征,保留了深度學習端到端學習優點。同時,多級時頻信息的提取還能根據數據進行自適應微調,提高了模型的魯棒性。

2.3.1 自適應多級小波分解

在時域上,時間序列的長期趨勢、季節性、周期性和隨機擾動同時存在,因此,從時域上對時間序列進行分析存在較高的難度。使用時頻分析技術能夠有效提取出時間序列中的時頻信息,如小波變換的多分辨率分析,隨著尺度由大到小,可以在各尺度上由粗到細地觀察時間序列的不同特征。在大的尺度空間中,能夠觀察時間序列的整體變化模式和變化趨勢;而在小的尺度空間中,可以觀察時間序列的局部變化模型和形狀特征。

為了能夠同時從時域和頻域上對時間序列進行分析建模,一種樸素的方法是先使用傳統的時頻分析方法(如Mallat 方法)提取多級時頻信息,再利用分類器對各級時頻信息進行建模。這種方法雖然能夠從不同的分辨率上分析時間序列中的多種特征模式,但是需要事先通過人工提取出時間序列中的多級時頻信息。如果時頻信息提取的過程不合理,會增加后續建模的難度,使得模型的分類性能較差。因此,本文使用自適應多級小波分解模塊(AMWD)來自適應地提取原始序列中多級時頻信息。自適應多級小波分解模塊的思想是使用神經網絡來近似地實現Mallat 算法,使得多級時頻信息的提取過程能夠和后續的分類模型緊密結合,并通過反向傳播算法共同訓練參數,使得時頻特征能夠在分類模型學習的過程中根據數據的特點進行動態調整,提高模型的魯棒性和泛化能力。

自適應多級小波分解的計算過程如式(5)~式(9)所示:

其中:x={xt|t=1,2,…,T}∈RT×1為原始 時間序列,T表示序列長度;xh(i)和xg(i)分別表示第i級分解得到的低頻分量和高頻分量;Wh(i)和Wg(i)分別表示第i級的低通和高通濾波器矩陣;bh(i)和bg(i)是可學習參數,i∈{1,2,…,l},l是多級離散小波分解的最大分解層數。

為了能夠運用神經網絡近似地實現Mallat 算法,本文使用已有的小波基來初始化濾波器矩陣Wh(i)和Wg(i),如Daubechies 小波、Haar 小波等。給定長度為K(K?T)的低通濾波器H={h1,h2,…,hK}∈RK和高通濾波器G={g1,g2,…,gK}∈RK,則濾波器矩陣的初始化結果如式(10)和式(11)所示:

雖然Wh(i)和Wg(i)用已有的濾波器來初始化,但由于其是可學習的參數,具體取值仍然可以在訓練過程中根據數據進行微調。這種方法可以自適應地提取多級時頻特征,提高模型的分類性能和魯棒性。

2.3.2 長期時間模式提取

時間序列中往往同時蘊含著長期時間模式(如變化趨勢)和短期時間模式(如局部的形狀特征)。近年來,Transformer 在自然語言處理等領域取得成功,因而受到了廣泛的關注。其在建模時間序列的長期依賴問題上,具有出色的表現[21],能夠捕獲全局特征。因此,本文的長期時間模式提取模塊(LTPE)采用Transformer 編碼器來分別建模自適應多級小波分解模塊提取得到的多級時頻信息xg(i)和xh(i),計算公式如下:

其中:TE(·) 表示Transformer 編碼器;x(i)=[xg(i);xh(i)]∈表示將第i級分解得到的低頻分量xh(i)和高頻分量xg(i)進行拼接;,dmodel是通過Transformer 編碼之后映射到的特征維度。

2.3.3 短期時間模式提取

ResNet 模型通過引入恒等變換緩解了深層網絡難以訓練的問題,在圖像分類任務中得到廣泛的應用。2017 年,WANG 等[8]將其應用于時間序列分類任務中,取得了較好的效果。并且,ResNet 由多個卷積塊組成,能夠有效捕獲局部特征。因此,本文的短期時間模式提取模塊(STPE)采用ResNet 來建模長期時間模式提取模塊輸出結果的局部特征。

短期時間模式提取模塊由3 個殘差模塊、1 個全局平均池化層和1 個全連接層組成。與ResNet 不同的是,短期時間模式提取模塊最后沒有使用softmax激活函數進行非線性變換,整體結構如圖3 所示。

圖3 短期時間模式提取模塊的整體結構Fig.3 Overall structure of short-term temporal pattern extraction module

2.3.4 多級時頻信息融合

多級時頻信息融合模塊作用于各級短期時間模式提取模塊的輸出結果之上,用于融合多級時頻信息建模的結果。具體計算公式如下:

其中:⊙表示哈達瑪乘積(Hadamard Product);w(i)∈RC表示可學習參數,C表示分類任務的類別數目;∈RC表示基于第i級時頻特征建模得到的輸出結果。

2.3.5 模型訓練

其中:νn∈RC表示第n個樣本的類別標簽經過獨熱編碼得到的向量;C表示類別數目。

則模型的最終訓練目標是最小化損失函數如式(18)所示:

在模型訓練過程中,設置最大訓練迭代輪數為10 000,并使用早停策略防止模型發生過擬合,當模型在驗證集上的損失經過50 輪迭代后仍然沒有減少時就停止訓練。同時,使用Adam 優化算法(其中,超參數設置為β1=0.9,β2=0.98,ε=10-9)進行訓練,并且使用動態的學習率,如式(19)所示:

其中:warmup 是超參數,設置為1 000;steps 表示當前模型迭代了steps 輪。

3 實驗結果與分析

3.1 實驗數據集

UCR[22]數據集倉庫是時間序列分類任務常用的基準數據集,包含了來自不同領域的128 個時間序列數據集。由于UCR 數據集倉庫中絕大部分的訓練集和測試集的樣本數據都較小,而本文提出方法是基于深度學習的方法,這類方法更適用于樣本數目較大的數據集。因此,本文從中選取了8 個訓練集樣本數目超過1 000 的數據集進行實驗。本文沿用UCR 數據集倉庫中原始的訓練集、測試集劃分,然后使用分層采樣的方式從訓練集中隨機抽取20%的樣本用于模型參數選擇,其余80%的樣本用于模型訓練。8 個數據集的詳細信息如表1 所示。

表1 數據集詳細信息Table 1 Dataset details

3.2 基準方法與評價指標

通過選取8 個基準方法與本文提出的AMWDNet 進行對比實驗,其中主要包括基于時域的方法、融合頻域信息的方法和融合時頻信息的方法。

1)多層感知機(MLP)[8],由三層前饋神經網絡和softmax 輸出層組成,其中softmax 輸出層包括一層前饋神經網絡和softmax 激活函數。

2)全卷積神經網絡(FCN)[8],由3 個卷積塊、全局平均池化(Global Average Pooling,GAP)層 和softmax 輸出層組成,每個卷積塊中包含卷積、批量歸一化和ReLU 激活3 種運算。

3)編碼網絡(Encoder)[23],與FCN 的結構相似,其不同之處在于Encoder 將FCN 中的GAP 層替換為注意力機制。

4)殘差網絡(ResNet)[8],使用殘差結構搭建的深層卷積網絡,殘差連接有效地緩解了深層神經網絡在訓練過程中可能發生的梯度消失或梯度爆炸問題。

5)多尺度卷積神經網絡(MCNN)[24],通過恒等變換、下采樣和平滑3 種變換方式提取出時域和頻域信息,分別使用3 個卷積網絡對3 種變換方式提取出來的特征進行建模,最后經過拼接后輸入到全連接層和softmax 輸出層中,得到序列樣本屬于各個類別的概率。

6)長短時記憶網絡(LSTM)[25],循環神經網絡的一種變體,通過使用輸入門、遺忘門、輸出門等門控機制來實現對細胞狀態和隱藏狀態的更新,能夠有效捕獲時間序列中的長期依賴關系。

7)門控循環單元(GRU)[26],是LSTM 的一種變體。GRU 相比于LSTM,其計算更加簡單,僅使用更新門和重置門對隱藏狀態的信息進行更新。雖然相比于LSTM,GRU 的計算量和參數量都更少,但是其在許多任務中都能表現出和LSTM 不相上下的建模能力。

8)多級小波分解網絡(mWDN)[27],使用小波分解提取出多級時頻特征之后,通過多個分類器進行分類。

本文采用時間序列分類任務中常用的分類準確率(Accuracy)衡量模型在單個數據集上的表現,具體公式如下:

其中:Ntrue表示被模型正確分類的樣本個數;Ntotal表示總體樣本個數。

另外,使用平均排名衡量模型在多個數據集上的總體表現。平均排名是指模型在各個數據集上的表現排名的平均值,平均排名越小,說明模型在所有數據集上的整體表現越好。

3.3 實驗環境與參數設置

本文基于 Pytorch 深度學習框架實現AMWDNet。AMWDNet 包含兩類超參數:一類是涉及自適應多級小波分解模塊,包括分別用于控制低通濾波器系數和高通濾波器系數微調程度的正則項系數α和β、小波分解層數l以及小波分解使用的小波基coef;另一類是涉及長期特征建模模塊,包括特征維度dmodel、多頭注意力機制中的頭數h和子網絡層數N。

給定α和β的取值集合均為{0,0.1,0.2,0.3},l的取值集合為{1,2,3,4},coef 的取值集合為{db1,db2,db3,db4,db5,db6},dmodel的取值集合為{8,16,32},h的取值集合為{2,4,6},N的取值集合為{1,2,4}。由于實驗使用的數據集較多且超參數組合數目較大,因此使用隨機搜索尋找出相對最佳的超參數設置。AMWDNet 在各個數據集上最終確定的超參數設置如表2 所示。

表2 不同數據集的超參數設置Table 2 Hyperparameter settings of different datasets

實驗針對各規模的數據集設置了不同的數據批處理大小,具體設置如表3 所示。

表3 不同數據集的批處理大小Table 3 Batch size of different datasets

3.4 實驗結果

將本文提出的AMWDNet 應用在UCR 數據集倉庫中的8 個數據集上,并與8 種基準方法進行分類性能的比較。

通過重復進行10 次實驗,計算出不同模型在各個數據集上的平均分類準確率,結果如表4 所示,其中粗體表示結果最優,下劃線表示結果次優。

表4 不同模型在各數據集上的平均分類準確率Table 4 Average classification accuracy of different models on each dataset %

從整體實驗結果來看,AMWDNet在7 個數據集上取得最優結果,在1 個數據集上取得次優結果,說明AMWDNet 在不同的業務場景中都能表現出相當不錯的分類性能,驗證了AMWDNet 的有效性和泛化性。

在MelPed 數據集上,雖然AMWDNet 的分類效果不如FCN,但是兩者的差距較小。MelPed 數據集記錄了2017 年墨爾本10 個地點的行人統計數據,傳感器每小時產生一個記錄值。MelPed 數據集中的樣本序列長度僅為24,由于時間序列特征的時間跨度只有一天,很難反映出時間跨度更長的季節變化規律,比如以天、周、月為周期的變化特征。因此,在有限的時間區間內,時間序列包含的頻域信息較少,降低了AMWDNet 提取時間序列中的時頻信息的有效性,導致AMWDNet 在MelPed 數據集上沒有取得最高的準確率。

而在序列長度為500 的FordA 數據集上,AMWDNet 相比其他結果最好的基準方法,其分類準確率的提升高達2.2%。說明在較長的時間區間內,AMWDNet 能夠有效地建模其中的時頻信息,使得模型的分類性能得到了顯著的提升。

為了更好地對比各個模型在8 個數據集上的整體表現,對各模型的平均排名進行了統計,結果如圖4所示。

圖4 不同模型的平均排名Fig.4 Average rank of different models

從圖4 可以看出:表現最好的兩個方法是基于時頻分析的方法AMWDNet 和mWDN,證明了基于時頻分析的方法的有效性和通用性;其次是基于局部特征提取的方法ResNet、FCN 和Encoder;然后是基于全局特征提取的方法LSTM 和GRU;而MLP 和MCNN 的表現最差。

當序列長度較長時,基于全局特征提取的方法LSTM 和GRU,由于梯度消失等原因而導致模型難以訓練,使得模型的分類性能大幅下降。而基于局部特征提取的方法ResNet、FCN 和Encoder,三者的表現則更加魯棒,因此在8 個數據集上的總體表現比LSTM 和GRU 要好。但是這類方法僅在時域上對原始時間序列進行建模,無法分解出時間序列中包含的多種頻率分量,使得建模難度較大,因此難以達到最佳的分類性能。

MCNN 模型雖然也通過滑動平均提取了不同分辨率的時頻信息,但是其提取時頻信息的方法過于簡單,無法有效地提取出具有顯著區分度的時頻特征,從而導致模型的分類性能較差。說明在對時間序列進行時頻分析時,如果提取時頻特征的方式不好,會對模型的分類性能帶來較大影響,因此如何有效地提取時間序列中的時頻信息十分關鍵。而AMWDNet模型通過自適應多級小波分解提取原始時間序列中的多級高頻分量和低頻分量,并且還對各級時頻分量中的長期變化模式和短期變化模式進行了建模,因此在不同序列長度的分類任務中,都能達到幾乎最佳的分類性能。

3.5 消融實驗

為了驗證AMWDNet 各個模塊的效果,本文進行了消融實驗,實驗結果如表5 所示,其中粗體表示結果最優,下劃線表示結果次優。

表5 消融實驗結果Table 5 Results of ablation experiments %

在表5 中,“-AMWD”表示去掉自適應多級小波分解模塊,僅使用Transformer 和ResNet 對原始輸入序列進行建模。去掉自適應多級小波分解模塊之后,在幾乎所有數據集(除MelPed 數據集外)上的分類準確率均有所下降,尤其是在樣本序列長度較長的數據集上,分類準確率顯著降低。如在序列長度為500 的NonTh2 數據集上,分類準確率下降了2 個百分點,驗證了自適應多級小波分解模塊能有效提取時間序列中的多級時頻信息,有助于提高模型整體分類性能,尤其在時間序列數據長度較長的場景中,自適應多級小波分解模塊的貢獻較大。“-LTPE”表示去掉長期時間模式提取模塊,使用自適應多級小波分解提取出多級時頻信息后,再使用多個ResNet 分別建模各級時頻信息。去掉長期時間模式提取模塊之后,在所有數據集上的效果都有所下降,證明時間序列的全局演變模式的建模能夠有助于提高模型性能。“-STPE”表示去掉短期時間模式提取模塊,最后使用全局平均池化在時間維度上融合長期時間模式提取模塊的輸出結果。實驗結果表明,即使建模了時間序列中的多級時頻信息及全局變化模式,時間序列的局部形狀模型的建模對時間序列分類任務仍然十分重要。

4 結束語

在真實世界采集得到的時間序列數據往往同時存在長期趨勢因素、季節性因素、周期性因素和隨機變動因素,這些影響因素在時域上相互雜糅,如僅從時域上對其進行建模,難以達到較高的分類性能。為此,本文提出一種基于自適應多級小波分解的時序分類方法。將多級時頻信息的提取過程嵌入到神經網絡中,使得時頻信息的提取能夠根據數據進行自適應調整,并通過長期和短期時間模式提取模塊有效地提取時間序列中的長期和短期時間特征。實驗結果表明,該方法能夠提高模型的整體分類性能。本文提出的方法只在單變量時間序列數據集上進行了對比實驗,下一步將基于動態小波分解的思想,設計面向多變量的時間序列分類方法。

猜你喜歡
分類特征方法
分類算一算
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 一本一本大道香蕉久在线播放| 91福利免费视频| 69精品在线观看| 日本欧美精品| 国产国产人成免费视频77777| 国产日本欧美亚洲精品视| 激情国产精品一区| 黄色国产在线| 成人福利在线观看| 欧美日韩高清在线| 色综合天天综合| 视频国产精品丝袜第一页| 亚洲黄网在线| 久久精品人妻中文系列| 国产日本欧美在线观看| 91av国产在线| 伊人91在线| 亚洲精品国产日韩无码AV永久免费网| 国产激爽大片在线播放| 91精品国产综合久久不国产大片| 免费Aⅴ片在线观看蜜芽Tⅴ | 2020久久国产综合精品swag| 992tv国产人成在线观看| 久久午夜夜伦鲁鲁片无码免费| 国产第四页| 日本三级欧美三级| 国产精品久久久久久久久kt| 黄色网址手机国内免费在线观看| 99精品免费在线| 99er精品视频| 免费在线国产一区二区三区精品| 91网站国产| 欧美日韩精品在线播放| 国产精品xxx| 国产成人亚洲无吗淙合青草| 一本无码在线观看| 欧美日韩高清在线| 91po国产在线精品免费观看| 亚洲国产精品久久久久秋霞影院| 农村乱人伦一区二区| 中文字幕欧美日韩| 色婷婷亚洲综合五月| 女人18毛片久久| 三级毛片在线播放| 亚洲Av激情网五月天| Aⅴ无码专区在线观看| 国产女人水多毛片18| 一级片免费网站| 午夜精品一区二区蜜桃| 成人年鲁鲁在线观看视频| 国产亚洲一区二区三区在线| 网久久综合| 激情五月婷婷综合网| 国产精品视频猛进猛出| 狠狠色噜噜狠狠狠狠奇米777| 暴力调教一区二区三区| 91精品福利自产拍在线观看| 无码网站免费观看| 亚洲男人在线天堂| 国产在线自乱拍播放| 玖玖精品在线| 99热国产这里只有精品9九| 午夜视频www| 精品1区2区3区| 日韩一级二级三级| 国内a级毛片| 国产欧美中文字幕| 国产91特黄特色A级毛片| yy6080理论大片一级久久| 在线观看亚洲国产| 日韩精品成人在线| 亚洲欧洲日产国码无码av喷潮| 久久亚洲天堂| 福利视频一区| 中文字幕日韩丝袜一区| 婷婷中文在线| 国产精品福利导航| 久久99国产精品成人欧美| 自慰网址在线观看| 国产成人精品日本亚洲77美色| 欧美三级自拍| 精品无码人妻一区二区|