999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于圖神經(jīng)網(wǎng)絡(luò)的時(shí)序信號(hào)異常檢測(cè)方法

2025-04-21 00:00:00王婕婷張澤瓏李飛江錢(qián)宇華

摘要 高維時(shí)序數(shù)據(jù)異常檢測(cè)是指從多元時(shí)間序列中識(shí)別出偏離整體模式或偏離預(yù)期行為的樣本點(diǎn)的過(guò)程。在高維時(shí)序數(shù)據(jù)中,傳感器間潛在的關(guān)聯(lián)關(guān)系對(duì)于預(yù)測(cè)或檢測(cè)任務(wù)的性能具有較大影響。圖神經(jīng)網(wǎng)絡(luò)是一種基于節(jié)點(diǎn)的近鄰關(guān)系學(xué)習(xí)節(jié)點(diǎn)表征的深度模型,能夠有效建模傳感器間的復(fù)雜關(guān)聯(lián)。然而,現(xiàn)有基于圖神經(jīng)網(wǎng)絡(luò)的異常檢測(cè)方法大多依賴于單一的相似度度量來(lái)捕捉傳感器間的關(guān)系,不能很好地學(xué)習(xí)傳感器間的依賴關(guān)系。此外,在閾值選擇時(shí),現(xiàn)有方法使用正常數(shù)據(jù)中的最大異常得分作為切割閾值,限制了異常事件發(fā)生時(shí)的檢測(cè)能力,從而造成較低的召回率。綜上,提出了一種基于圖神經(jīng)網(wǎng)絡(luò)的時(shí)序信號(hào)異常檢測(cè)方法,根據(jù)傳感器的特有特征使用多種相似度度量集成進(jìn)行圖結(jié)構(gòu)學(xué)習(xí);其次,將圖結(jié)構(gòu)學(xué)習(xí)方法與圖神經(jīng)網(wǎng)絡(luò)相結(jié)合得到異常得分;最后,通過(guò)區(qū)間搜索法最優(yōu)化F-measure指標(biāo)尋找最優(yōu)異常切割閾值。在兩個(gè)真實(shí)傳感器數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)表明,該方法比基準(zhǔn)對(duì)比方法取得了較高的F1值和召回率。

關(guān)鍵詞 時(shí)序異常檢測(cè);圖結(jié)構(gòu)學(xué)習(xí);注意力機(jī)制;相似度計(jì)算;區(qū)間搜索法

中圖分類(lèi)號(hào):TP391" DOI:10.16152/j.cnki.xdxbzr.2025-02-011

A time series signal anomaly detection methodbased on graph neural network

WANG Jieting1, ZHANG Zelong1, LI Feijiang1, QIAN Yuhua1,2

(1.Institute of Big Data Science and Industry, Shanxi University,nbsp; Taiyuan 030006, China;

2.Key Laboratory of Computational Intelligence and Chinese Information Processing,Ministry of Education, Shanxi University, Taiyuan 030006, China)

Abstract Anomaly detection in high-dimensional time series data refers to the process of identifying sample points that deviate from the overall pattern or expected behavior from a multivariate time series. In high-dimensional time series data, the potential correlation between sensors has a significant impact on the performance of prediction or detection tasks. Graph neural networks are a deep model that learn node representations based on node proximity relationships, which can effectively model complex correlations between sensors. However, existing anomaly detection methods based on graph neural networks mostly rely on a single similarity measure to capture the relationships between variables and cannot learn the dependencies between variables well. In addition, when selecting thresholds, existing methods use the maximum anomaly score in normal data as the cutting threshold, which limits the detection ability when abnormal events occur, resulting in lower recall rates. In summary, this paper proposes a temporal signal anomaly detection method based on graph neural networks, which integrates multiple similarity measures based on the unique features of sensors for graph structure learning. Then, the graph structure learning method is combined with the graph neural network to obtain anomaly scores. Finally, the interval search method was used to optimize the F-measure index and find the optimal anomaly cutting threshold. Experiments on two real sensor datasets showed that our method achieved higher F1 values and recall compared to the benchmark comparison method.

Keywords temporal anomaly detection; graph structure learning; attention mechanism; similarity; interval search method

高維時(shí)序數(shù)據(jù)異常檢測(cè)是指在多元時(shí)間序列中觀察數(shù)據(jù)變化并檢測(cè)其中異常行為的過(guò)程。這一技術(shù)廣泛應(yīng)用于多個(gè)行業(yè)領(lǐng)域。例如,在互聯(lián)網(wǎng)領(lǐng)域?qū)崟r(shí)監(jiān)控并識(shí)別出異常行為;在制造業(yè)領(lǐng)域檢測(cè)設(shè)備并識(shí)別異常故障等。

針對(duì)時(shí)序數(shù)據(jù)異常檢測(cè),研究者已經(jīng)提出了多種方法,這些方法大致可以分為兩大類(lèi):基于傳統(tǒng)機(jī)器學(xué)習(xí)的方法和基于深度學(xué)習(xí)的方法。

傳統(tǒng)方法主要依賴于設(shè)計(jì)的統(tǒng)計(jì)和算法策略,如主成分分析用于特征提取和異常點(diǎn)識(shí)別1;降維技術(shù)與基于密度的異常檢測(cè)策略結(jié)合可以在高維空間中識(shí)別異常模式2;分析局部密度差異來(lái)精確定位異常點(diǎn)3;以及通過(guò)估計(jì)高維分布的支持域來(lái)識(shí)別遠(yuǎn)離該域的異常數(shù)據(jù)點(diǎn)4。此外,還有利用時(shí)間序列的局部復(fù)發(fā)率和特性識(shí)別異常行為5等。在深度學(xué)習(xí)方面,這些方法主要利用神經(jīng)網(wǎng)絡(luò)的強(qiáng)大表征學(xué)習(xí)能力,如針對(duì)具有季節(jié)性特征的多元時(shí)間序列,通過(guò)改進(jìn)算法提高異常檢測(cè)的準(zhǔn)確性和魯棒性6;引入隨機(jī)性的循環(huán)神經(jīng)網(wǎng)絡(luò)更好地處理不確定性,從而提高異常檢測(cè)的穩(wěn)健性7;結(jié)合自編碼器和生成對(duì)抗網(wǎng)絡(luò)的優(yōu)勢(shì)實(shí)現(xiàn)快速且穩(wěn)定的異常檢測(cè)8;混合長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)等先進(jìn)結(jié)構(gòu)預(yù)測(cè)單個(gè)家庭能源消耗實(shí)現(xiàn)對(duì)異常行為精確識(shí)別9,以及其他基于神經(jīng)網(wǎng)絡(luò)的方法10-14。綜上所述,時(shí)序異常檢測(cè)領(lǐng)域的研究涵蓋了從傳統(tǒng)統(tǒng)計(jì)學(xué)習(xí)到現(xiàn)代深度學(xué)習(xí)的多種方法和技術(shù)。每種方法都有其獨(dú)特的優(yōu)勢(shì)和適用場(chǎng)景。

然而,現(xiàn)有方法在處理時(shí)序數(shù)據(jù)時(shí),往往忽視了傳感器之間潛在的依賴關(guān)系,這在一定程度上限制了其預(yù)測(cè)和檢測(cè)性能的進(jìn)一步提升。上述方法在各自的領(lǐng)域內(nèi)取得了顯著成果,但在建模傳感器間依賴關(guān)系方面的研究仍有待于進(jìn)一步地探索和改進(jìn)。

圖神經(jīng)網(wǎng)絡(luò)(graph neural networks, GNNs)在建模多變量時(shí)間序列預(yù)測(cè)的圖結(jié)構(gòu)數(shù)據(jù)時(shí),充分考慮了時(shí)間序列之間的依賴關(guān)系。在GNNs的框架下,每個(gè)時(shí)間序列被視作圖中的一個(gè)節(jié)點(diǎn),而時(shí)間序列間的依賴關(guān)系則被抽象為圖中的邊。這種設(shè)置允許節(jié)點(diǎn)的狀態(tài)不僅受到其自身特征的影響,還受到其鄰居節(jié)點(diǎn)狀態(tài)的影響。然而,這些方法在模擬不同節(jié)點(diǎn)(即不同傳感器)的行為時(shí)面臨局限性,因?yàn)樗鼈兪褂孟嗤哪P蛥?shù)來(lái)處理所有節(jié)點(diǎn)。例如,一種新的離散圖結(jié)構(gòu)學(xué)習(xí)方法旨在自動(dòng)學(xué)習(xí)時(shí)間序列間的依賴關(guān)系15;一種時(shí)間圖網(wǎng)絡(luò)旨在針對(duì)動(dòng)態(tài)圖的深度學(xué)習(xí)框架16以及通過(guò)引入mask self-attention層來(lái)克服現(xiàn)有圖卷積方法的不足17。綜上所述,盡管GNNs在處理多變量時(shí)間序列預(yù)測(cè)的圖結(jié)構(gòu)數(shù)據(jù)時(shí)表現(xiàn)出強(qiáng)大的潛力,但仍需進(jìn)一步研究和改進(jìn),以更好地模擬不同傳感器的不同行為,并解決現(xiàn)有方法的局限性。其中最相關(guān)的工作是文獻(xiàn)[11],該論文的核心是利用GNNs學(xué)習(xí)傳感器間的關(guān)系圖,并從這些模式中識(shí)別異常。該文提出了圖結(jié)構(gòu)學(xué)習(xí)的方法(GDN),該方法利用節(jié)點(diǎn)嵌入技術(shù)來(lái)捕捉圖結(jié)構(gòu)信息,并基于預(yù)測(cè)結(jié)果來(lái)檢測(cè)異常。然而,該論文在圖結(jié)構(gòu)學(xué)習(xí)的過(guò)程中僅采用了一種相似度度量,這可能無(wú)法全面捕捉傳感器間的復(fù)雜依賴關(guān)系。此外,使用正常數(shù)據(jù)中的最大異常得分作為異常檢測(cè)的閾值可能導(dǎo)致較低的召回率,因?yàn)轵?yàn)證集中可能包含因噪聲、異常等因素導(dǎo)致的正常數(shù)據(jù)點(diǎn)。

近年來(lái),有許多關(guān)于異常檢測(cè)相關(guān)性分析和基于圖神經(jīng)網(wǎng)絡(luò)檢測(cè)方法的工作。例如丁小歐等人挖掘分析序列的相關(guān)性,在此基礎(chǔ)上提出基于相關(guān)性分析的異常檢測(cè)算法,實(shí)現(xiàn)對(duì)隱匿性強(qiáng)的異常數(shù)據(jù)進(jìn)行有效識(shí)別處理18;盧光曦通過(guò)構(gòu)建圖狀數(shù)據(jù)結(jié)構(gòu),利用圖神經(jīng)網(wǎng)絡(luò)進(jìn)行特征聚合與提取,并結(jié)合目標(biāo)檢測(cè)算法進(jìn)行物體的定位與分類(lèi)等,為圖神經(jīng)網(wǎng)絡(luò)在異常檢測(cè)領(lǐng)域的應(yīng)用提供了新的思路和方法19,這些工作推動(dòng)了異常檢測(cè)技術(shù)的發(fā)展。

針對(duì)上述問(wèn)題,本文提出了一種基于圖神經(jīng)網(wǎng)絡(luò)的時(shí)序信號(hào)異常檢測(cè)方法。該方法通過(guò)集成多種相似度度量來(lái)構(gòu)建傳感器間的圖結(jié)構(gòu),以提高依賴關(guān)系建模的準(zhǔn)確性。在異常檢測(cè)任務(wù)中,可以將確定異常得分閾值的過(guò)程視為一個(gè)二分類(lèi)問(wèn)題。其目的是將異常檢測(cè)任務(wù)轉(zhuǎn)化為一個(gè)可優(yōu)化的分類(lèi)任務(wù),從而便于使用機(jī)器學(xué)習(xí)方法進(jìn)行處理。為了找到最佳閾值,Wang等人提出了一種基于最大化純準(zhǔn)確度的區(qū)間搜索法來(lái)尋找最優(yōu)的切割閾值20。該方法通過(guò)最大化純準(zhǔn)確度的后驗(yàn)概率來(lái)指導(dǎo)閾值的選擇,達(dá)到最佳的效果。該方法為異常檢測(cè)任務(wù)提供了一種有效的閾值確定方法。因此,本文采用區(qū)間搜索法來(lái)尋找最優(yōu)的異常檢測(cè)閾值,避免了使用正常數(shù)據(jù)中的最大異常得分作為閾值所帶來(lái)的局限性。在區(qū)間搜索過(guò)程中,利用F-measure損失值作為優(yōu)化目標(biāo),以平衡精確率和召回率。在兩個(gè)真實(shí)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,本文提出的方法相較于GDN方法具有更高的F1值和召回率,從而驗(yàn)證了所提方法的有效性。

本文的主要貢獻(xiàn)包括3個(gè)方面。

1) 針對(duì)傳感器之間依賴關(guān)系的圖學(xué)習(xí),本文通過(guò)分析不同相似度度量的適用場(chǎng)景,提出了一個(gè)集成多種相似度度量的方法。這一創(chuàng)新點(diǎn)提高了傳感器間依賴關(guān)系的準(zhǔn)確性,為后續(xù)的異常檢測(cè)任務(wù)奠定了堅(jiān)實(shí)的基礎(chǔ)。

2) 在閾值搜索階段,本文摒棄了傳統(tǒng)固定閾值的選擇方法,而是利用自適應(yīng)策略,根據(jù)現(xiàn)有數(shù)據(jù)的特點(diǎn)進(jìn)行動(dòng)態(tài)調(diào)整。通過(guò)引入基于最小化F-measure損失值的區(qū)間搜索法,找到一個(gè)更為合理的固定閾值,從而更準(zhǔn)確地判定異常點(diǎn),這一改進(jìn)提高了異常檢測(cè)的準(zhǔn)確性。

3) 為了驗(yàn)證本文方法的有效性,在兩個(gè)具有真值異常的數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。研究結(jié)果表明,本文提出的異常檢測(cè)方法相較于基準(zhǔn)對(duì)比方法具有更高的準(zhǔn)確性。同時(shí),實(shí)驗(yàn)結(jié)果也充分證明了相似度度量集成和區(qū)間搜索法在尋找最優(yōu)閾值方面的有效性。

1 基于圖神經(jīng)網(wǎng)絡(luò)的時(shí)序信號(hào)異常檢測(cè)方法

1.1 問(wèn)題描述

本文中,訓(xùn)練數(shù)據(jù)由N個(gè)傳感器在Ttrain時(shí)間的數(shù)據(jù)組成,即strain=[strain(1),strain(2),…,strain(Ttrain)]。每個(gè)時(shí)間點(diǎn)是N個(gè)傳感器的值,即strain(Ttrain)∈RN。時(shí)序異常檢測(cè)通常被視為無(wú)監(jiān)督學(xué)習(xí)任務(wù),本文采用無(wú)監(jiān)督異常檢測(cè)框架來(lái)構(gòu)建模型,假設(shè)訓(xùn)練數(shù)據(jù)僅由正常數(shù)據(jù)組成。

本文目標(biāo)是檢測(cè)測(cè)試集中的異常,測(cè)試集由來(lái)自與訓(xùn)練集相同的N個(gè)傳感器在Ttest個(gè)時(shí)間單位內(nèi)的數(shù)據(jù)組成,即stest=[stest(1),stest(2),…,stest(Ttest)],其中stest(Ttest)∈RN。算法的輸出是一組在測(cè)試集上表示每個(gè)測(cè)試時(shí)間點(diǎn)是否有異常的二進(jìn)制標(biāo)簽,即a(t)∈{0,1},其中a(t)=1表示在t個(gè)時(shí)間點(diǎn)發(fā)生異常。

1.2 方法框架

本文所提出的方法主要包括兩個(gè)核心階段:模型訓(xùn)練與結(jié)果預(yù)測(cè)。

在模型訓(xùn)練階段,本文采用如圖1所示的方法框架,該框架融合了圖結(jié)構(gòu)學(xué)習(xí)與圖注意力預(yù)測(cè)機(jī)制,旨在通過(guò)探索傳感器間的復(fù)雜關(guān)聯(lián)性預(yù)測(cè)時(shí)序數(shù)據(jù)。

該框架首先初始化傳感器節(jié)點(diǎn)并分配嵌入向量以捕捉潛在關(guān)系。隨后,計(jì)算節(jié)點(diǎn)相似度并構(gòu)建相似度矩陣,引入Leaky ReLU激活函數(shù)以增強(qiáng)非線性與防止梯度消失。在圖注意力層中,利用相似度矩陣和節(jié)點(diǎn)特征計(jì)算注意力權(quán)重,以捕捉傳感器間的復(fù)雜關(guān)聯(lián)性。之后,通過(guò)批歸一化和ReLU激活函數(shù)加速訓(xùn)練并增強(qiáng)泛化能力。為了捕獲高階信息,疊加多個(gè)圖注意力層構(gòu)建圖注意力網(wǎng)絡(luò)(GAT)。最終,通過(guò)全連接層映射節(jié)點(diǎn)表示到預(yù)測(cè)目標(biāo)空間,并采用均方誤差(MSE)作為損失函數(shù)優(yōu)化預(yù)測(cè)結(jié)果。

在結(jié)果預(yù)測(cè)階段,采用異常得分與閾值搜索相結(jié)合的策略,以有效地識(shí)別異常數(shù)據(jù)點(diǎn)。具體而言,通過(guò)計(jì)算異常得分能夠準(zhǔn)確識(shí)別測(cè)試數(shù)據(jù)集中的異常點(diǎn)。為了確立一個(gè)合適的異常閾值,用區(qū)間搜索法尋

找一個(gè)能夠準(zhǔn)確區(qū)分正常數(shù)據(jù)與異常數(shù)據(jù)的固定閾值。該方法提升了異常檢測(cè)的準(zhǔn)確性。

1.3 圖結(jié)構(gòu)學(xué)習(xí)

考慮到不同傳感器具有各異的特性,將每個(gè)傳感器表示為低維向量vi∈Rd,i∈{1,2,…,N},其中N為傳感器的數(shù)量。如果兩個(gè)傳感器在原始數(shù)據(jù)中有相似性,那么它們的嵌入向量在嵌入空間中也具有相應(yīng)的相似性,這些嵌入向量在初始階段被隨機(jī)賦值,并在模型的訓(xùn)練過(guò)程中與模型參數(shù)一同進(jìn)行優(yōu)化和更新。

為了學(xué)習(xí)圖結(jié)構(gòu),本文利用嵌入向量之間的相似關(guān)系。在這個(gè)圖結(jié)構(gòu)中,節(jié)點(diǎn)代表傳感器,而邊則反映了傳感器間的依賴關(guān)系,使用鄰接矩陣A來(lái)表示這個(gè)有向圖結(jié)構(gòu),其中Aij表示從節(jié)點(diǎn)i到節(jié)點(diǎn)j是否有有向邊的存在。此外,引入Ci表示每個(gè)傳感器i的先驗(yàn)信息,為除自身以外的所有傳感器,即Ci{1,2,…,N}/{i}。為了確定傳感器i的依賴關(guān)系,計(jì)算傳感器i的嵌入向量與其候選關(guān)系j∈Ci的多種相似度度量,包括歸一化歐式距離相似度eji1、余弦相似度eji2、皮爾遜相關(guān)系數(shù)eji3。

eji1=‖vi-vj‖2[KF)]" [JY](1)

eji1=[SX(](1-eji1)-min(1-eji1)[]max(1-eji1)-min(1-eji1)[SX)]" [JY](2)

eji2=[SX(]viTvj[]‖vi‖·‖vj‖[SX)][JY](3)

eji3=[SX(]cov(vi,vj)[]σviσvj[SX)] [JY](4)

其中:cov為協(xié)方差;σ為標(biāo)準(zhǔn)差。隨后,為了綜合考量3種不同方法所得到的相似度值,采用平均法對(duì)這些值進(jìn)行匯總。通過(guò)計(jì)算這3種相似度值的平均數(shù),期望得到一個(gè)更為穩(wěn)健和全面的相似度度量,以更好地反映傳感器之間的關(guān)聯(lián)程度。

eji=(eji1+eji2+eji3)/3" [JY](5)

該方法有助于在后續(xù)的圖結(jié)構(gòu)學(xué)習(xí)和異常檢測(cè)任務(wù)中,提供更加準(zhǔn)確和可靠的依據(jù)。

這3種相似度度量有不同的適用場(chǎng)景,如表1所示,通過(guò)對(duì)比3對(duì)模擬時(shí)序數(shù)據(jù)sin(t) 與cos(t)、 sin(t)與sin(t)+1、 sin(t)與2sin(t)+2," 可以觀察到不同相似度度量方式的表現(xiàn)。 其中, 第一列是相似度度量方式,分別對(duì)應(yīng)式(1)~式(5)。這里向上的箭頭表示值越高,樣本之間的關(guān)聯(lián)程度或相似性越強(qiáng);向下的箭頭表示值越低,樣本之間的關(guān)聯(lián)程度或相似性越強(qiáng)。從表1可以看出,sin(t)和sin(t)+1在圖像上顯示出最高的相似性;與sin(t)和cos(t)比較時(shí),歸一化歐式相似度值相同,但余弦相似度和皮爾遜相關(guān)系數(shù)卻顯示sin(t)與cos(t)之間的相似度更高,說(shuō)明這種情況下余弦相似度和皮爾遜相關(guān)系數(shù)更能準(zhǔn)確判斷相似度的大小;與sin(t)和2sin(t)+2比較時(shí),余弦相似度和皮爾遜相關(guān)系數(shù)給出了相同的值,但歸一化歐式相似度則顯示sin(t)與cos(t)之間具有較高的相似度,表明這種情況下,歸一化歐式相似度可能是判斷相似度大小的更合適指標(biāo)。通過(guò)計(jì)算平均相似度值,發(fā)現(xiàn)在3對(duì)不同時(shí)序數(shù)據(jù)的比較中,每個(gè)平均相似度值都是唯一的,且在第二組對(duì)比中達(dá)到最大。這驗(yàn)證了平均相似度在評(píng)估時(shí)序數(shù)據(jù)間相似度方面的有效性。

為了從Ci中篩選出真正存在依賴關(guān)系的傳感器,本文選擇前K個(gè)相似度值作為候選,

Aji=I{j∈TopK(eli:l∈Ci)}" [JY](6)

其中:l為示性函數(shù);K值的選擇取決于用戶所需的稀疏度級(jí)別,從而實(shí)現(xiàn)了靈活且精確的依賴關(guān)系識(shí)別。

1.4 基于圖注意力的預(yù)測(cè)

鑒于本文的主要焦點(diǎn)在于改進(jìn)圖結(jié)構(gòu)學(xué)習(xí)和閾值搜索部分,采用了文獻(xiàn)[11]中提出的基于圖注意力的預(yù)測(cè)方法作為本節(jié)的框架。該方法的核心在于利用圖注意力機(jī)制來(lái)預(yù)測(cè)每個(gè)傳感器在特定時(shí)間點(diǎn)的預(yù)期行為,從而使用戶能夠輕松地識(shí)別出那些與其預(yù)期行為顯著偏離的傳感器。

在t時(shí)刻,模型輸入為x(t)=[s(t-w),s(t-w+1),…,s(t-1)],其中w是滑動(dòng)窗口大小,預(yù)測(cè)的目標(biāo)輸出是當(dāng)前時(shí)刻點(diǎn)的傳感器數(shù)據(jù)s(t)。為了有效地捕獲傳感器之間的復(fù)雜關(guān)系并做出準(zhǔn)確預(yù)測(cè),引入了一個(gè)基于圖注意力的特征提取器。這個(gè)特征提取器不僅能夠捕捉傳感器之間的相互作用,還能通過(guò)全連接輸出層來(lái)預(yù)測(cè)t時(shí)刻的傳感器向量。

zi(t)=ReLU(αi,iWxi(t)+∑[DD(X]j∈N(i)[DD)]αi,jWxj(t))," [JY](7)

s′(t)=fθ(v1z1(t),…,vNzN(t))," [JY](8)

其中:xi(t)為模型輸入;N(i)={j|Aji0};W是訓(xùn)練得到的權(quán)重矩陣;表示對(duì)應(yīng)點(diǎn)乘;s′(t)為模型的預(yù)測(cè)輸出;αi,j的計(jì)算公式為

gi(t)=viWxi(t)" [JY](9)

π(i,j)=Leaky ReLU(aT(g(t)i g(t)j))" [JY](10)

αi,j=[SX(]exp(π(i,j))[]∑k∈N(i)∪{i}exp(π(i,k))[SX)]" [JY](11)

其中:表示串聯(lián);a是注意機(jī)制的學(xué)習(xí)系數(shù)向量。在訓(xùn)練過(guò)程中,采用均方誤差(mean squared error, MSE)作為損失函數(shù),以量化預(yù)測(cè)值s′(t)與觀測(cè)值s(t)之間的偏差。具體的損失函數(shù)公式為

LMSE=[SX(]1[]Ttrain-w[SX)]∑[DD(]Ttrain[]t=w+1[DD)](s′(t)-s(t))2" [JY](12)

通過(guò)最小化這個(gè)損失函數(shù),能夠訓(xùn)練出一個(gè)既能夠準(zhǔn)確捕捉傳感器間關(guān)系又能夠預(yù)測(cè)傳感器行為的模型。

1.5 圖偏差得分

本文提出的模型獨(dú)立地計(jì)算每個(gè)傳感器的異常分?jǐn)?shù),并將這些分?jǐn)?shù)綜合成每個(gè)時(shí)間點(diǎn)的單一異常分?jǐn)?shù)。該方法使用戶能夠準(zhǔn)確定位到哪些傳感器在何時(shí)出現(xiàn)了異常。

為了計(jì)算異常得分,模型將每個(gè)時(shí)間點(diǎn)t的預(yù)期傳感器數(shù)據(jù)與實(shí)際觀測(cè)數(shù)據(jù)進(jìn)行比較,從而得出該時(shí)間點(diǎn)t和傳感器i的絕對(duì)偏差Err。隨后,通過(guò)應(yīng)用最大值函數(shù)(max)對(duì)各個(gè)傳感器的錯(cuò)誤值進(jìn)行聚合,得到時(shí)間點(diǎn)t的整體異常分?jǐn)?shù)。這種聚合方法有助于突出顯示在任何給定時(shí)間點(diǎn)最為異常的傳感器,從而為用戶提供有關(guān)傳感器狀態(tài)的關(guān)鍵信息。

Erri(t)=|si(t)-s′i(t)|" [JY](13)

A(t)=max[DD(X]i[DD)](Erri(t))" [JY](14)

得到每個(gè)時(shí)間點(diǎn)的偏差得分后,模型的下一步驟是利用這些異常得分進(jìn)行固定閾值搜索。

1.6 閾值搜索

本節(jié)旨在通過(guò)設(shè)置一個(gè)合適的閾值,對(duì)傳感器數(shù)據(jù)進(jìn)行分類(lèi)從而區(qū)分出正常和異常的數(shù)據(jù)點(diǎn)。首先,給了一個(gè)定理表明當(dāng)閾值為[SX(]F1[]2[SX)]時(shí),F(xiàn)-measure的值達(dá)到最大,從而使分類(lèi)器的整體性能最優(yōu)。

定理1 最大化F-measure的分類(lèi)器

hF1*(x)=argmax[DD(X]h[DD)] F1(h)=

[JB({] 1,η(x)gt;[SX(]F1*[]2[SX)];

0,其他。[JB)][JY](15)

其中:F1*=F1(h*F1)。

用定義1、定義2和引理1、引理2去證明定理1。

定義1[21 如果一個(gè)度量隨FP、FN不增加,并且形式化為

ψ(FP,F(xiàn)N)=[SX(]a0+a1FP+a2FN[]b0+b1FP+b2FN[SX)]" [JY](16)

則將該度量稱為線性分?jǐn)?shù)性能度量,其中a0,a1,a2,b0,b1,b2∈R,b0+b1FP+b2FN≥C1gt;0。

定義2[22 代價(jià)敏感損失定義為

Lp(h)=ρFP(h)+(1-ρ)FN(h)" [JY](17)

其中:ρ∈(0,1)。

引理1[21 當(dāng)ρ=[SX(]Ψ*b1-a1[]Ψ*(b1+b2)-(a1+a2)[SX)]時(shí),關(guān)于線性分?jǐn)?shù)性能指標(biāo)ψ(FP,F(xiàn)N)的損失值可以由關(guān)于Lp*的損失值界定。

ψ*-ψ(h)≤C2(Lp(h)-Lp*)[JY](18)

其中:ψ*=maxhψ(h);Lp*=minhLp(h);C2=[SX(]1[]C1[SX)](ψ*(b1+b2)-(a1+a2))。

引理2[22" 最小化Lp的分類(lèi)器是

hLp*=1,η(x)gt;ρ;

0,其他。 [JY](19)

其中:η(x)=P(Y=1|X=x)。

根據(jù)表2的混淆矩陣,給出了精度(Pre)、召回率(Rec)和F1-score (F1)的公式。

pre=[SX(]TP[]TP+FP[SX)]" [JY](20)

rec=[SX(]TP[]TP+FN[SX)]" [JY](21)

F1=[SX(]2×pre×rec[]pre+rec[SX)]" [JY](22)

根據(jù)定義1和引理1可以得到F1=[SX(]2p-2FN[]2p-FN+FP[SX)]和F1的損失值可以以ρ=[SX(]F1[]2[SX)]的Lp為界,其中p=P(Y=1)。然后根據(jù)引理2,得到了定理1。因此合適的閾值利用區(qū)間搜索方法來(lái)優(yōu)化F-measure損失值(FL=1-F1)設(shè)定。

Naeasimhan等人證明為一個(gè)后驗(yàn)概率估計(jì)分配一個(gè)經(jīng)驗(yàn)閾值可以優(yōu)化以TP、TN和p的函數(shù)表示的性能度量23。本文指出F-measure可以表達(dá)為以TP、TN和p為變量的函數(shù)。因此將異常得分轉(zhuǎn)化為概率形式,采用了sigmoid函數(shù)進(jìn)行處理,得到了后驗(yàn)概率的表達(dá)式。

γ(t)=[SX(]1[]1+e-A(t)[SX)]" [JY](23)

Chong等人證明區(qū)間搜索方法在尋找單峰函數(shù)局部最小值方面具有顯著效率24。為了驗(yàn)證閾值與異常檢測(cè)性能FL之間的關(guān)系,圖2展示了在模擬數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果。在此實(shí)驗(yàn)中,隨機(jī)生成了1 000個(gè)介于0和1之間的數(shù)值,并根據(jù)預(yù)設(shè)的規(guī)則對(duì)這些數(shù)值進(jìn)行標(biāo)簽化,將大于0.6的數(shù)值標(biāo)記為+1(代表異常),否則標(biāo)記為0(代表正常)。隨后,應(yīng)用算法1中的區(qū)間搜索法來(lái)尋找最佳的閾值,并計(jì)算相應(yīng)的FL。這一過(guò)程的目的是探索不同閾值設(shè)置下,異常檢測(cè)算法的性能FL的表現(xiàn)。圖2直觀地展示了閾值與FL之間的關(guān)系,可以觀察到FL隨閾值變化呈現(xiàn)單峰特性。因此,本文用區(qū)間搜索法來(lái)優(yōu)化FL的閾值。區(qū)間搜索法得到的最優(yōu)閾值為δ*。根據(jù)定理1,有

δ*=[SX(]F1*[]2[SX)]=[SX(]1-FL*[]2[SX)][JY](24)

其中:F1*是F-measure的最大值;FL*是F-measure損失的最小值。然后將plug-in規(guī)則表示為

hr(t)=sign(γ(t)-(1-r)/2)" [JY](25)

其中,sign表示符號(hào)函數(shù),并應(yīng)用區(qū)間搜索方法來(lái)尋找最小化FL(hr(x))的最優(yōu)r。實(shí)現(xiàn)區(qū)間搜索法優(yōu)化FL閾值的具體算法如算法1所示,采用了間隔減少方法,每次迭代中,區(qū)間長(zhǎng)度減少比率ζ∈(0,0.5)。該算法通過(guò)迭代搜索的方式,在指定的區(qū)間內(nèi)尋找能夠使FL達(dá)到最小值的閾值。

最終, 如果某個(gè)時(shí)間刻度t的異常得分超過(guò)了預(yù)設(shè)的固定閾值, 則該時(shí)間刻度將被標(biāo)記為異常。

算法1 最小化FL的區(qū)間搜索算法。

輸入:后驗(yàn)概率γ(t);驗(yàn)證集SN

令a=0,b=1,ζ為區(qū)間長(zhǎng)度減少比率,v停止條件,sign是符號(hào)函數(shù)。

輸出:最優(yōu)閾值δ*

① 令λ=a+ζ(b-a),μ=b-ζ(b-a)

②hλ(t)=sign(γ(t)-(1-λ)/2),hμ(t)=sign(γ(t)-(1-μ)/2)

③ 在SN上計(jì)算FL(hλ,Y)和FL(hμ,Y)

④ while b-agt;v,do

⑤ if FL(hλ,Y)lt;=FL(hμ,Y)

⑥b=μ

⑦ else

⑧a=λ

⑨ end if

⑩λ=a+ζ(b-a),μ=b-ζ(b-a)

B11在SN上計(jì)算FL(hλ,Y)和FL(hμ,Y)

B12δ=(1-λ)/2

B13end while

2 實(shí)驗(yàn)分析

本節(jié)將在2個(gè)公開(kāi)數(shù)據(jù)集上進(jìn)行3個(gè)實(shí)驗(yàn)來(lái)全面分析本文提出的異常檢測(cè)方法的有效性。

實(shí)驗(yàn)一:將本文方法與多種主流的異常檢測(cè)算法進(jìn)行比較,評(píng)估其在Pre、Rec和F1指標(biāo)上的表現(xiàn)。

實(shí)驗(yàn)二:為了驗(yàn)證相似度度量集成的有效性,將從集成相似度度量的角度出發(fā),將本文方法與GDN方法進(jìn)行對(duì)比。

實(shí)驗(yàn)三:為了驗(yàn)證區(qū)間閾值搜索策略的有效性,用不同閾值搜索方法進(jìn)行比較,評(píng)估其在Pre、Rec和F1指標(biāo)上的表現(xiàn)。

接下來(lái)將詳細(xì)介紹基于圖神經(jīng)網(wǎng)絡(luò)的時(shí)序信號(hào)異常檢測(cè)方法進(jìn)行實(shí)驗(yàn)的內(nèi)容。

2.1 數(shù)據(jù)集

實(shí)驗(yàn)中使用了2個(gè)基于水處理物理試驗(yàn)臺(tái)系統(tǒng)的傳感器數(shù)據(jù)集(見(jiàn)表3): SWAT[25(secure water treatment)和WADI[26(water distribution)。 本實(shí)驗(yàn)將數(shù)據(jù)集劃分為訓(xùn)練集、 驗(yàn)證集和測(cè)試集, 比例為3∶5∶2。訓(xùn)練集僅包含正常狀態(tài)下的數(shù)據(jù),而驗(yàn)證集和測(cè)試集則包含正常與異常狀態(tài)數(shù)據(jù),以全面評(píng)估模型性能。鑒于數(shù)據(jù)采集頻率與計(jì)算效率考量,實(shí)施了降采樣策略,每10 s選取一次測(cè)量值作為樣本。在確定樣本標(biāo)簽時(shí),依據(jù)10 s內(nèi)出現(xiàn)頻率最高的標(biāo)簽作為該時(shí)間段的代表。為保持與已有研究的一致性,剔除了2個(gè)數(shù)據(jù)集的前2 160個(gè)樣本。這些預(yù)處理步驟旨在提升數(shù)據(jù)集的質(zhì)量和模型的性能。

2.2 實(shí)驗(yàn)設(shè)置

模型使用Adam優(yōu)化器學(xué)習(xí)率為1×10-3進(jìn)行訓(xùn)練;epoch為50,使用10的早期停止,具體為在連續(xù)10個(gè)epoch內(nèi)模型性能未有明顯提升時(shí)停止訓(xùn)練。對(duì)于WADI 和SWAT數(shù)據(jù)集,嵌入向量長(zhǎng)度為128和64,k為30和15,神經(jīng)元的隱藏層為128和64,BATCH SIZE為32和16,滑動(dòng)窗口大小w都為5。為了與GDN方法進(jìn)行公平比較,本實(shí)驗(yàn)在參數(shù)設(shè)置上盡量保持與GDN方法一致,以確保實(shí)驗(yàn)結(jié)果的可靠性和有效性。

2.3 評(píng)價(jià)指標(biāo)

實(shí)驗(yàn)使用測(cè)試數(shù)據(jù)集上的Pre、Rec和F1作為評(píng)估指標(biāo),如式(19)~式(21)所示,全面評(píng)價(jià)本文提出的異常檢測(cè)方法以及基準(zhǔn)對(duì)比方法的性能。同時(shí),還通過(guò)比較使用不同閾值搜索方法的實(shí)驗(yàn)結(jié)果,來(lái)探究閾值搜索策略對(duì)模型性能的影響。

2.4 本文方法與主流異常檢測(cè)算法的性能對(duì)比

為了評(píng)估本文提出的異常檢測(cè)方法的性能表現(xiàn),選擇了8種當(dāng)前流行的異常檢測(cè)算法作為基準(zhǔn)對(duì)比方法。這些算法包括:USAD[27,ADD[28,AE[29,DAGMM[30,IF[31,LSTM-VAE[32,LSTM-GAN[33,GDN[11

在表4中展示了在SWAT和WADI數(shù)據(jù)集上, 本文方法和基準(zhǔn)對(duì)比方法在Pre、 Rec和F13個(gè)評(píng)價(jià)指標(biāo)的異常檢測(cè)結(jié)果。為了更清晰地呈現(xiàn)結(jié)果,在表中將每個(gè)評(píng)價(jià)指標(biāo)下的最高值進(jìn)行了加粗處理。

因?yàn)镕1是Pre和Rec的加權(quán)平均值,它能夠全面反映模型的整體性能表現(xiàn),因此在比較不同模型性能時(shí),主要側(cè)重于對(duì)F1的分析。從表4的實(shí)驗(yàn)結(jié)果來(lái)看,本文提出的方法在2個(gè)數(shù)據(jù)集上的F1均超過(guò)了基準(zhǔn)方法,同時(shí)在精度和召回率方面也取得了較高的數(shù)值。值得注意的是,SWAT和WADI數(shù)據(jù)集均為高維度且不平衡的數(shù)據(jù)集,如表3所示,這種特性在實(shí)際應(yīng)用中尤為常見(jiàn)。本文方法在高維度及不平衡數(shù)據(jù)場(chǎng)景下依然表現(xiàn)出色,充分證明了其在實(shí)際應(yīng)用中的有效性和實(shí)用性。

2.5 相似度度量集成有效性驗(yàn)證

為了驗(yàn)證集成相似度度量在異常檢測(cè)中的有效性,對(duì)本文提出的方法與GDN方法在SWAT和WADI數(shù)據(jù)集上進(jìn)行了比較,特別關(guān)注了僅包含正常數(shù)據(jù)的驗(yàn)證集的預(yù)測(cè)結(jié)果。如圖3和圖4所示,在SWAT和WADI數(shù)據(jù)集上展示了部分傳感器在相似度度量集成前后的觀測(cè)與預(yù)測(cè)數(shù)據(jù)。(a)~(d)展示了使用單一相似度度量的預(yù)測(cè)結(jié)果,即GDN方法。在這些子圖中,藍(lán)色曲線表示觀測(cè)數(shù)據(jù),紅色曲線表示預(yù)測(cè)數(shù)據(jù)。橫軸代表時(shí)間點(diǎn),縱軸表示傳感器在t時(shí)刻的值。相應(yīng)地,(e)~(h)展示了使用3種相似度度量集成后的預(yù)測(cè)結(jié)果,即本文的方法。值得注意的是,(a)(e)、(b)(f)、(c)(g)和(d)(h)分別對(duì)應(yīng)相同的傳感器。

通過(guò)比較(a)~(d)與(e)~(h)中的紅色和藍(lán)色曲線,可以觀察到集成相似度度量后的預(yù)測(cè)結(jié)果與觀測(cè)結(jié)果更為接近。此外,集成后的異常得分明顯較低,這進(jìn)一步驗(yàn)證了集成相似度度量在異常檢測(cè)中的有效性。

圖5則展示了在僅包含正常數(shù)據(jù)的驗(yàn)證集上,所有傳感器在整個(gè)驗(yàn)證集時(shí)間范圍內(nèi)的相似度度量集成前后的總體異常得分。橫軸代表傳感器,縱軸代表傳感器的異常得分。其中,藍(lán)色表示相似度度量集成后的結(jié)果,紅色表示使用單一相似度度量的結(jié)果。

對(duì)圖5的分析顯示,在圖5(a)中,總共有50個(gè)柱狀圖,其中藍(lán)色柱狀圖(代表集成后的結(jié)果)低于紅色柱狀圖(代表單一相似度度量的結(jié)果)的數(shù)量為37。類(lèi)似地,在圖5(b)中,總共有128個(gè)柱狀圖,其中藍(lán)色柱狀圖低于紅色柱狀圖的數(shù)量為79。結(jié)果表明,在大多數(shù)情況下,相似度度量集成后的總體異常得分低于單一相似度度量的得分,從而驗(yàn)證了集成方法在異常檢測(cè)中的優(yōu)勢(shì)。

圖3~圖5所展示的結(jié)果充分證實(shí)了相似度度量集成在降低整體異常得分、提升模型預(yù)測(cè)能力以及優(yōu)化模型預(yù)測(cè)效果方面的有效性。通過(guò)集成多種相似度度量,能夠?qū)崿F(xiàn)更為準(zhǔn)確的異常檢測(cè),從而增強(qiáng)模型在復(fù)雜環(huán)境下的適應(yīng)性。

2.6 不同閾值搜索方法對(duì)本文方法性能的影響

為了探究區(qū)間搜索法在異常檢測(cè)中的性能表現(xiàn),將其與GDN方法、大津法和二分查找法3種閾值選擇方法進(jìn)行對(duì)比。GDN[11方法是將正常數(shù)據(jù)最高偏差得分作為閾值;大津法35是一種基于類(lèi)間方差最大化的閾值選擇方法,它將數(shù)據(jù)分為兩類(lèi),一類(lèi)大于等于閾值,一類(lèi)小于閾值,通過(guò)最大化兩類(lèi)之間的方差來(lái)確定最優(yōu)閾值;二分查找法則是一種經(jīng)典的搜索算法,它從數(shù)據(jù)集的中間元素開(kāi)始搜索,根據(jù)中間元素與目標(biāo)值的比較結(jié)果,在相應(yīng)的數(shù)據(jù)子集中繼續(xù)搜索,重復(fù)這一過(guò)程直到找到目標(biāo)元素。

表5中展示了在SWAT和WADI 2個(gè)數(shù)據(jù)集上,分別使用上述4種方法來(lái)確定最優(yōu)閾值,并基于該閾值計(jì)算了Pre、Rec和F1 3個(gè)評(píng)價(jià)指標(biāo)的異常檢測(cè)結(jié)果。為了更直觀地展示性能差異,將每個(gè)指標(biāo)下的最高值進(jìn)行了加粗處理。

從表5的實(shí)驗(yàn)結(jié)果可以看出,本文提出的異常檢測(cè)方法在F1上,無(wú)論是在SWAT還是WADI數(shù)據(jù)集上,均優(yōu)于GDN方法、大津法和二分查找法。同時(shí),在精度和召回率方面,本文方法也取得了較高的數(shù)值。這些結(jié)果充分證明了區(qū)間閾值搜索策略的有效性。

3 結(jié)語(yǔ)

本文深入探討了高維時(shí)序數(shù)據(jù)中的異常檢測(cè)問(wèn)題,特別是在多元時(shí)間序列背景下,如何有效識(shí)別那些偏離整體模式或預(yù)期行為的樣本點(diǎn)。在高維時(shí)序數(shù)據(jù)的分析中,傳感器間的潛在關(guān)聯(lián)關(guān)系對(duì)于預(yù)測(cè)和異常檢測(cè)任務(wù)的性能具有決定性作用。針對(duì)這一挑戰(zhàn),本文提出了一種基于圖神經(jīng)網(wǎng)絡(luò)的時(shí)序信號(hào)異常檢測(cè)方法。

首先,現(xiàn)有基于圖神經(jīng)網(wǎng)絡(luò)的異常檢測(cè)方法在捕捉多變量間復(fù)雜關(guān)系時(shí)存在局限性,尤其是它們往往依賴于單一的相似度度量。為了克服這一局限,本文提出的方法結(jié)合傳感器的特有特征,采用多種相似度度量集成的方式來(lái)進(jìn)行圖結(jié)構(gòu)學(xué)習(xí)。該方法能夠更全面地捕獲傳感器間的復(fù)雜依賴關(guān)系,從而為后續(xù)的圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)提供更為豐富和準(zhǔn)確的信息。

其次,本文將圖結(jié)構(gòu)學(xué)習(xí)方法與圖神經(jīng)網(wǎng)絡(luò)模型相結(jié)合,旨在通過(guò)圖神經(jīng)網(wǎng)絡(luò)在處理復(fù)雜關(guān)系數(shù)據(jù)方面的優(yōu)勢(shì),實(shí)現(xiàn)對(duì)時(shí)序信號(hào)行為的精確預(yù)測(cè),并基于預(yù)測(cè)結(jié)果構(gòu)建出高效的異常評(píng)分機(jī)制。這一步驟不僅顯著提升了異常檢測(cè)的準(zhǔn)確性,還增強(qiáng)了模型對(duì)異常事件的敏感性。

最后,為了克服傳統(tǒng)方法中固定閾值的局限性,本文采用了區(qū)間搜索法來(lái)最優(yōu)化F-measure指標(biāo),從而自適應(yīng)地確定最優(yōu)的異常切割閾值。該方法能夠根據(jù)數(shù)據(jù)的實(shí)際情況靈活調(diào)整閾值,有效提高了異常檢測(cè)的召回率。

在兩個(gè)真實(shí)傳感器數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)表明,本文所提出的方法在F1值和召回率方面均取得了顯著的提升。與基準(zhǔn)對(duì)比方法相比,本文方法在指標(biāo)上表現(xiàn)出色,充分證明了多種相似度度量集成和區(qū)間搜索法尋找閾值的有效性。

綜上所述,本文的研究為高維時(shí)序數(shù)據(jù)的異常檢測(cè)提供了一種新的視角和方法,并展示了圖神經(jīng)網(wǎng)絡(luò)在處理復(fù)雜關(guān)系數(shù)據(jù)時(shí)的能力。文中相似度集成主要采用了簡(jiǎn)單的算術(shù)平均方法,而未來(lái)工作將探索加權(quán)平均等更先進(jìn)的融合方法。此外,本文在運(yùn)用區(qū)間搜索法確定最優(yōu)閾值時(shí),考慮的是閾值與異常檢測(cè)性能之間的單峰關(guān)系。當(dāng)面向復(fù)雜的現(xiàn)實(shí)應(yīng)用場(chǎng)景時(shí),異常的出現(xiàn)可能呈現(xiàn)多模式特性,導(dǎo)致閾值與異常檢測(cè)性能之間的關(guān)系呈現(xiàn)多峰狀態(tài),本文方法可能無(wú)法準(zhǔn)確識(shí)別在多峰情況下的異常。因此,未來(lái)的研究將探索更為先進(jìn)的方法,以識(shí)別并適應(yīng)可能出現(xiàn)的多峰性能,進(jìn)而提升異常檢測(cè)算法在多模態(tài)異常場(chǎng)景中的應(yīng)用潛力。

參考文獻(xiàn)

[1] SHYU M, CHEN S, SARINNAPAKORN K, et al. A novel anomaly detection scheme based on principal component classifier[C]∥Proc Icdm Foundation & New Direction of Data Mining Workshop. Melbourne, FL, USA: IEEE, 2003: 353-365.

[2] ANGIULLI F, PIZZUTI C. Fast outlier detection in high dimensional spaces[C]∥Principles of Data Mining and Knowledge Discovery. Berlin, Heidelberg: Springer Berlin Heidelberg, 2002: 15-27.

[3] BREUNIG M M, KRIEGEL H P, NG R T, et al. LOF: Identifying density-based local outliers[J]. ACM SIGMOD Record, 2000, 29(2): 93-104.

[4] SCHLKOPF B, PLATT J C, SHAWE-TAYLOR J, et al. Estimating the support of a high-dimensional distribution[J]. Neural Computation, 2001, 13(7): 1443-1471.

[5] HU M, FENG X W, JI Z W, et al. A novel computational approach for discord search with local recurrence rates in multivariate time series[J]. Information Sciences, 2019, 477: 220-233.

[6] KHOSHNEVISAN F, FAN Z W, CARVALHO V R. Improving robustness on seasonality-heavy multivariate time series anomaly detection[EB/OL].(2020-07-25)[2024-05-10].https:∥arxiv.org/abs/2007.14254v1.

[7] SU Y, ZHAO Y J, NIU C H, et al. Robust anomaly detection for multivariate time series through stochastic recurrent neural network[C]∥Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. Anchorage AK USA:ACM, 2019: 2828-2837.

[8] ZHANG Z J, LI W Z, DING W X, et al. STAD-GAN: Unsupervised anomaly detection on multivariate time series with self-training generative adversarial networks[J]. ACM Transactions on Knowledge Discovery from Data, 2023, 17(5): 1-18.

[9] YAN K, LI W, JI Z W, et al. A hybrid LSTM neural network for energy consumption forecasting of individual households[J]. IEEE Access, 2019, 7: 157633-157642.

[10]CHEN Z K, CHEN D S, ZHANG X, et al. Learning graph structures with transformer for multivariate time-series anomaly detection in IoT[J]. IEEE Internet of Things Journal, 2022, 9(12): 9179-9189.

[11]DENG A L, HOOI B. Graph neural network-based anomaly detection in multivariate time series[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2021, 35(5): 4027-4035.

[12]SHEN L, LI Z, KWOK J. Timeseries anomaly detection using temporal hierarchical one-class network[J]. Neural Information Processing Systems, 2020,33:13016-13026.

[13]HE Y D, ZHAO J B. Temporal convolutional networks for anomaly detection in time series[J]. Journal of Physics: Conference Series, 2019, 1213(4): 042050.

[14]DING N, GAO H B, BU H Y, et al. RADM: Real-time anomaly detection in multivariate time series based on Bayesian network[C]∥2018 IEEE International Conference on Smart Internet of Things. Xi’an, China: IEEE, 2018: 129-134.

[15]SHANG C, CHEN J, BI J B. Discrete graph structure learning for forecasting multiple time series[EB/OL].(2021-04-21)[2024-05-10].https:∥arxiv.org/abs/2101.06861v3.

[16]ROSSI E, CHAMBERLAIN B, FRASCA F, et al. Temporal graph networks for deep learning on dynamic graph[EB/OL]. (2020-10-09)[2024-05-10]https:∥arxiv.org/abs/2006.10637v3.

[17]VELICKOVIC P, CUCURULL G, CASANOVA A, et al. Graph attention networks[EB/OL]. (2018-02-04)[2024-05-10].https:∥arxiv.org/abs/1710.10903v3.

[18]丁小歐, 于晟健, 王沐賢,等. 基于相關(guān)性分析的工業(yè)時(shí)序數(shù)據(jù)異常檢測(cè)[J]. 軟件學(xué)報(bào), 2020, 31(3): 726-747.

DING X O, YU S J, WANG M X, et al. Abnormal detection of industrial time-series data based on correlation analysis[J]. Journal of Software, 2020, 31(3): 726-747.

[19]盧光曦.基于圖神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)與識(shí)別算法研究[D]. 西安:西安電子科技大學(xué),2022.

[20]WANG J T, QIAN Y H, LI F J. Learning with mitigating random consistency from the accuracy measure[J]. Machine Learning, 2020, 109(12): 2247-2281.

[21]KOTOWSKI W, DEMBCZYSKI K. Surrogate regret bounds for generalized classification performance metrics[J]. Machine Learning, 2017, 106(4): 549-572.

[22]ELKAN C. The foundations of cost-sensitive learning[J].Proceedings of the International Joint Conference on Artifcial Intelligence, 2001, 17: 973-978.

[23]NAEASIMHAN H, VAISH R, AGARWAL S. On the statistical consistency of plug-in classifiers for non-decomposable performance measures[J]. In Proceedings of the 27th International Conference on Neural Information Processing Systems, 2014, 1: 1493-1501.

[24]CHONG E K P, ZAK S H. An introduction to optimization.3rd ed[M]. New York: Wiley, 2011.

[25]MATHUR A P, TIPPENHAUER N O. SWAT: A water treatment testbed for research and training on ICS security[C]∥2016 International Workshop on Cyber-physical Systems for Smart Water Networks. Vienna, Austria. IEEE, 2016: 31-36.

[26]AHMED C M, PALLETI V R, MATHUR A P. WADI: A water distribution testbed for research in the design of secure cyber physical systems[C]∥Proceedings of the 3rd International Workshop on Cyber-Physical Systems for Smart Water Networks. Pittsburgh Pennsylvania: ACM, 2017: 25-28.

[27]AUDIBERT J, MICHIARDI P, GUYARD F, et al. USAD: Unsupervised anomaly detection on multivariate time series[C]∥Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. Virtual Event CA USA: ACM, 2020: 3395-3404.

[28]DAS S, WONG W K, DIETTERICH T, et al. Incorporating expert feedback into active anomaly discovery[C]∥2016 IEEE 16th International Conference on Data Mining. Barcelona, Spain: IEEE, 2016: 853-858.

[29]FERNANDO B. Outlier analysis[J]. Computing reviews, 2014: 55-10.

[30]ZONG B, SONG Q, MIN M R, et al. Deep autoencoding gaussian mixture model for unsupervised anomaly detection[C]∥International Conference on Learning Representations, 2018: 1-19.

[31]LIU F T, TING K M, ZHOU Z H. Isolation forest[C]∥2008 Eighth IEEE International Conference on Data Mining.Pisa, Italy: IEEE, 2008: 413-422.

[32]PARK D, HOSHI Y, KEMP C C. A multimodal anomaly detector for robot-assisted feeding using an LSTM-based variational autoencoder[J]. IEEE Robotics and Automation Letters, 2018, 3(3): 1544-1551.

[33]LI D, CHEN D C, JIN B H, et al. MAD-GAN: Multivariate anomaly detection for time series data with generative adversarial networks[C]∥Artificial Neural Networks and Machine Learning,ICANN 2019: Text and Time Series. Cham: Springer International Publishing, 2019: 703-716.

[34]ZHANG W Q, ZHANG C, TSUNG F. GRELEN: Multivariate time series anomaly detection from the perspective of graph relational learning[C]∥Proceedings of the Thirty-First International Joint Conference on Artificial Intelligence. Vienna, Austria: International Joint Conferences on Artificial Intelligence Organization, 2022: 2390-2397.

[35]LI F J, QIAN Y H, WANG J T, et al. Clustering ensemble based on sample’s stability[J]. Artificial Intelligence, 2019, 273: 37-55.

(編 輯 張 歡)

基金項(xiàng)目:國(guó)家自然科學(xué)基金(62306170,62106132);山西省科技重大專項(xiàng)(202201020101006);山西省基礎(chǔ)研究計(jì)劃(202103021223026,20210302124271);山西省科技創(chuàng)新人才團(tuán)隊(duì)專項(xiàng)(202304051001001)。

第一作者:王婕婷,女,副教授,碩士生導(dǎo)師,從事統(tǒng)計(jì)機(jī)器學(xué)習(xí)和集成學(xué)習(xí)等研究,jtwang@sxu.edu.cn。

主站蜘蛛池模板: 国产尤物在线播放| 日韩精品一区二区三区大桥未久| 久久一日本道色综合久久| 中文字幕亚洲综久久2021| 国产成人在线小视频| 伊人久综合| 四虎精品黑人视频| 重口调教一区二区视频| 97青青青国产在线播放| 大学生久久香蕉国产线观看 | 国产区福利小视频在线观看尤物| 18禁影院亚洲专区| 欧美特级AAAAAA视频免费观看| 重口调教一区二区视频| 91免费国产高清观看| 亚洲高清在线播放| 欧美精品1区| 国产91视频观看| 久久一级电影| 国产乱子精品一区二区在线观看| 综合网天天| 欧美色99| 国产精品爆乳99久久| 久久久久久久97| 国产av无码日韩av无码网站| 久久婷婷五月综合97色| av色爱 天堂网| 国产白丝av| 精品国产www| 亚洲天堂免费观看| 99偷拍视频精品一区二区| 欧美一级高清视频在线播放| 中文字幕66页| 精品久久久久成人码免费动漫| 99久久国产综合精品2020| 国产午夜人做人免费视频| 2022国产无码在线| 国产视频一二三区| 国产人人乐人人爱| 自偷自拍三级全三级视频| 国产精品中文免费福利| 精品人妻无码中字系列| 精品乱码久久久久久久| 女人毛片a级大学毛片免费| 老司机久久99久久精品播放| 国产性精品| 精品久久综合1区2区3区激情| 成人在线综合| 国产精品综合色区在线观看| 亚洲最大看欧美片网站地址| 久久国产乱子伦视频无卡顿| 色妺妺在线视频喷水| 福利一区在线| 伊伊人成亚洲综合人网7777| 亚洲AV无码久久天堂| 国产9191精品免费观看| 久久精品波多野结衣| 亚洲伊人电影| 国产成人精品免费av| 日本人又色又爽的视频| 最新国产高清在线| 久久国产拍爱| 国产在线视频二区| h网站在线播放| 亚洲欧美日韩精品专区| 中文字幕一区二区人妻电影| 国产乱人激情H在线观看| 伊人久久久久久久久久| 亚洲国产中文在线二区三区免| 亚洲欧美日韩另类在线一| 狠狠v日韩v欧美v| 国产第一色| 欧美成人一区午夜福利在线| 美女一区二区在线观看| 四虎永久免费地址| 欧美一级黄色影院| 国产在线日本| 亚洲国产午夜精华无码福利| 国产视频自拍一区| 久久夜色撩人精品国产| 亚洲伦理一区二区| 久久综合结合久久狠狠狠97色|