999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于圖神經網絡的比特幣交易預測

2022-12-31 00:00:00韓忠明王宇航毛雅俊陳福宇
計算機應用研究 2022年12期

收稿日期:2022-03-07;修回日期:2022-04-21" 基金項目:國家重點研發計劃資助項目(2019YFC0507800);北京市自然科學基金資助項目(4172016)

作者簡介:韓忠明(1972-),男(通信作者),山西人,教授,博導,博士,主要研究方向為社會計算(hanzhongming@btbu.edu.cn);王宇航(1999-),女,湖南益陽人,碩士研究生,主要研究方向為動態網絡表示學習;毛雅俊(1972-),女,山西人,講師,博士,主要研究方向為數據挖掘、復雜網絡;陳福宇(1997-),男,天津人,碩士研究生,主要研究方向為數據挖掘.

摘 要:快速、準確的數字貨幣交易預測在應對交易風險、促進交易等方面具有重要意義,利用比特幣的交易用戶評價可將比特幣交易建模為具有連續時間特性的動態網絡,交易預測可轉換為動態網絡的鏈接預測問題。為更有效預測比特幣交易,針對現有的圖神經網絡方法忽略了及時反饋網絡中產生的新信息的重要性,難以準確完成比特幣交易預測的問題,提出一種新的基于圖神經網絡的模型用于比特幣交易預測。該方法通過時間注意力機制聚合用戶的鄰域信息,并引入了一種新穎的信息反饋機制,更充分地利用網絡信息。實驗在兩個真實數據集上進行,結果表明,改進的模型比最好的對比模型在AUC、AP和F1指標下分別高出約7%、6%和22%,能對比特幣交易進行更準確的分析預測。

關鍵詞:比特幣;交易預測;圖神經網絡;嵌入學習

中圖分類號:TP391"" 文獻標志碼:A""" 文章編號:1001-3695(2022)12-005-3562-06

doi:"" 10.19734/j.issn.1001-3695.2022.03.0218

Bitcoin trading prediction based on graph neural network

Han Zhongminga,b, Wang Yuhangc, Mao Yajuna, Chen Fuyuc

(a.School of International Economics amp; Management, b.Beijing Key Laboratory of Big Data Technology for Food Safety, c.School of Computer Science amp; Engineering, Beijing Technology amp; Business University, Beijing" 100048," China)

Abstract:

Rapid and accurate prediction of digital currency transactions is of great significance to deal with transaction risks and promote transactions, the Bitcoin transaction can be modeled as a dynamic network with continuous time characteristics by using the user evaluation of Bitcoin transaction, and the transaction prediction can be transformed into a link prediction pro-blem of dynamic network. In order to predict Bitcoin transactions more effectively and to solve the problem that existing graph neural network methods ignored the importance of timely feedback of new information generated in the network, which made it difficult to accurately predict Bitcoin transactions, this paper proposed a new model based on graph neural networks for Bitcoin transaction prediction. It aggregated user’s neighborhood information through time attention mechanism and introduced a novel information feedback mechanism to make full use of network information. Experiments on two real datasets show that the improved model is about 7%, 6% and 22% higher than the best comparison model under AUC, AP and F1 indexes respectively, and can make more accurate analysis and prediction of Bitcoin transactions.

Key words:Bitcoin; transaction prediction; graph neural network; embedding learning

0 引言

憑借匿名、免稅和免監管等特點,比特幣吸引了大量的用戶,成為交易規模和交易額最大的數字貨幣。比特幣巨大的交易規模和價格波動在給投資者帶來利益的同時也存在著巨大的風險,例如用戶可能遇到不可靠的交易對手、比特幣交易平臺中存在市場操縱等情況。Chen等人[1]基于Mt.Gox比特幣交易所的研究指出比特幣的價格存在巨大波動的一個非常重要的因素正是平臺上存在嚴重的市場操縱現象。因此,準確預測比特幣交易、有效地向用戶推薦潛在的交易對手等,不僅有助于提高比特幣交易的成功率、降低交易風險,還有利于提高交易監管效率。

為跟蹤用戶交易歷史,同時幫助用戶降低交易風險,許多比特幣交易平臺提供了交易用戶評價功能,即交易用戶可對交易對手進行評價,這為分析比特幣交易提供了數據基礎。由于用戶生成的評價記錄了用戶交易歷史,是這些比特幣交易平臺的重要組成部分,平臺上的用戶在選擇交易對手之前通常會查看或對比這些評價,并以此為基礎選擇可靠的交易對手來減少交易風險。所以這些比特幣交易平臺上的評價是平臺上的用戶選擇與誰進行交易的重要參考條件,對預測平臺上用戶之間的交易有著重要的價值。

具體來說,交易用戶評價代表了用戶間的交易關系,利用比特幣的交易用戶關系可以構建比特幣交易網絡,利用用戶評價可對用戶未來的交易進行預測,該問題即為比特幣交易網絡上的鏈接預測問題。本文根據比特幣交易用戶評價數據集對比特幣交易建模,通過提取每一次評價的雙方對象和時間來構建具有連續時間特性的動態交易網絡,其中用戶作為網絡中的節點,存在評價的兩個節點(即用戶)之間建立一條連邊,最終構成如圖1所示的比特幣交易網絡,帶有箭頭的邊表示在t時刻下帶有評分f的一次交易,黃色的邊表示預測的潛在用戶交易(參見電子版)。本文中,在已知交易行為的基礎上,預測在下一時刻哪些用戶之間可能存在交易被稱為比特幣交易預測,即動態交易網絡上的鏈接預測。

近年來,網絡表示學習技術得到了較大的發展,在鏈接預測等下游任務上已經取得了很多成功,并廣泛運用在不同的領域,如在推薦系統中的個性化推薦[2],在社交網絡中推薦熟人或相似用戶[3],在生物領域中用來發現可以發生相互作用的蛋白質[4]等。本文利用由Kumar等人[5]創建的兩個分別關于Bitcoin-OTC (簡稱OTC)和Bitcoin-Alpha(簡稱Alpha)比特幣交易平臺的交易用戶評價數據集,通過動態網絡表示學習方法實現平臺上的比特幣交易預測。為此本文提出一種新的專注于動態網絡表示學習的圖神經網絡方法,結合網絡的結構信息,通過節點與其鄰域之間的相互影響更好地學習節點的嵌入表示。

1 相關工作

網絡可以分為靜態網絡和動態網絡兩種,在真實世界中,網絡幾乎都是動態的、隨時間而演變的。一般地,動態網絡有兩種表達形式:a)由一系列按一定時間間隔分割的靜態網絡快照組成的集合,即G={G1,G2,…,GT},其中Gt表示t時刻的網絡快照,Gt=(Vt,Et)∈G,Vt表示t時刻的節點集合,Et表示t時刻的邊集合;b)由帶時間戳的連續時間事件按時間戳非遞減順序排序后組成的序列,即G={x(t1),x(t2),…},其中0≤t1≤t2≤…,x(tk)表示由一個(有向的)帶時間戳的時間邊緣eij表示的節點i和j在tk時刻的一次交互事件,一對節點之間可能不止一條邊,所以從技術上講,該方法可表示一個多重圖。

網絡表示學習是指通過學習網絡中的信息得到每個節點唯一的表示向量,這些表示向量可作為輸入,應用于許多網絡分析任務中,如鏈接預測、節點分類、社團發現等。早期的工作僅考慮靜態網絡表示學習,如HOPE[6]等基于矩陣分解的方法;DeepWalk[7]方法通過隨機游走獲取節點,借鑒自然語言處理方法的思路學習節點表示,能夠捕獲網絡中的隱藏信息;SDNE[8]運用深度學習的方法,借助自編碼器實現網絡表示學習,學習到的表示向量能夠捕捉網絡的局部和全局結構。然而與現實生活中的大多數網絡一樣,比特幣交易網絡是動態的,挖掘其中的變化特征尤為關鍵,而靜態網絡表示學習難以滿足需求,因此動態網絡表示學習是研究關鍵。

現有的動態網絡表示學習方法很多都是靜態網絡表示學習方法的擴展,大多是基于靜態網絡快照而展開的研究,如Liben-Nowell等人[9]忽略時間戳,用靜態網絡快照表示動態網絡,并遵循一種簡單的聚合方法獲取所有快照的鄰接矩陣的并集,然后使用靜態網絡的方法學習動態網絡的嵌入表示;Hisano等人[10]在采用不同的聚合方法的基礎上也使用了類似的方法。這類方法在動態網絡表示學習的發展前期提出,相對都比較簡單,使用的聚合方法容易丟失很多信息,在預測準確性上存在一定的問題,且忽略了時間信息,在時間信息非常重要時可能表現不佳。文獻[11, 12]基于上述方法進行了改進,先獨立地對每個快照上的節點使用靜態方法來學習節點特征,然后將這些特征按不同的權重聚合為一個特征向量,雖然這類方法相較于之前的方法有了一定的進步,但是計算成本可能會很高。

Zhou等人[13]使用時間信息作為正則化器,對連續快照上的每個節點的嵌入施加平滑性約束來學習嵌入表示;Yu等人[14]提出了一種通過分解方法將時間依賴性合并到嵌入的方法中;Gujral等人[15]針對經過較長時間后需要較多時間來更新張量分解的問題,提出了增量更新的方法;Bian、Mahdavi等人[16,17]將靜態網絡上的隨機游走方法運用在動態網絡上,Bian等人[16]首先在第一個快照圖上生成隨機游走,然后在每個快照上使用metapath2vec[18]方法,為受到影響的節點生成隨機游走,并重新計算這些節點的嵌入表示;Sajjad等人 [19]提出了一種在重用之前的快照中的有效隨機游動的同時,為新的快照生成無偏隨機游動的算法。雖然在學習每個快照上的特性時使用隨機游走方法對特性的聚合比較有用,但這類方法在一定程度上忽略了動態網絡中時間的進化給節點的嵌入表示帶來的影響,可能無法捕捉到節點的進化和時間模式。

上述動態網絡表示學習方法基于動態網絡的每個時間片上,但直接將靜態表示算法單獨應用在快照上的表現往往不盡如人意[20],很難有效地捕獲比特幣交易網絡的連續時間特征,對準確預測比特幣交易有很大的影響。

圖神經網絡是一種有代表性的處理圖結構的神經網絡[21],近年來,隨著神經網絡在圖像處理和自然語言領域上取得的突出成績,基于圖神經網絡的動態網絡表示學習方法取得了較大發展。Nguyen等人[22]提出了一個將時間依賴性合并到由連續時間事件序列表示的動態網絡嵌入中的框架,通過限制轉移概率在模型中加入了連續時間,讓模型可以學習動態網絡的動態性;Seo等人[23]提出了一個可以預測結構化序列數據的深度學習模型GCRN,使用CNN和RNN來辨識網絡圖的空間結構和尋找其動態模型;Zuo等人[24]通過使用節點的鄰居形成的序列來建模節點的演變過程,利用霍克斯過程[25]捕獲歷史鄰居對當前鄰居形成序列的影響,從而得到節點的嵌入表示,并采用注意力機制學習歷史鄰居對當前鄰居的影響權重;Pareja等人[26]為捕捉網絡圖序列背后的動態性,提出了一種通過RNN進化GCN參數的方法來捕捉其動態性;Trivedi等人[27]提出了一種歸納式學習的算法,即不再學習節點的固定表示,而是學習表示節點方法;Rossi等人[28]提出了一個用于動態網絡表示學習的編碼器框架TGN,其基于帶時間戳的連續時間事件序列,根據節點的交互創建節點的壓縮嵌入表示;由于基于連續時間事件序列的動態網絡表示學習方法的關鍵是將時間信息融入了模型中,Kazemi等人[29]提出了一種與模型無關的時間模型time2vec,其作用是將時間轉換成向量的形式,并且得到的向量很容易合并到其他模型中。

雖然這些方法在獲取動態網絡的更多信息上(無論是拓撲結構信息還是時間信息)做了不同改進,并取得了一定的效果,但是幾乎都忽略了節點與其鄰域之間相互傳遞信息的問題,即很多方法在每一次產生交互時僅考慮了通過聚合節點的鄰域信息來更新節點的嵌入,卻沒有在節點產生新信息時及時地將新信息反饋給其鄰域,這可能會導致網絡中的節點獲取信息不及時的問題,從而將降低節點表示向量的時效性,進而可能會降低其應用在比特幣交易預測任務上的準確性。

虛擬貨幣被頻繁用于洗錢、詐騙、賭博等非法交易中,其資金路徑隱秘性很強而難以監管[30],因此,準確的實時用戶交易預測或對指定用戶進行交易預測是很有必要的。本文首先通過時間注意力機制聚合節點的時域信息,避免了嵌入表示可能陳舊的問題,再引入了一種信息反饋機制,根據最新信息更新節點鄰域的狀態,最終提高模型實現比特幣用戶交易預測的準確性。

2 連續時間交易動態網絡表示學習

比特幣交易網絡是一種典型的動態網絡,網絡的邊具有連續時間特征,為準確預測比特幣的未來交易,本文提出了一種基于連續時間動態網絡表示學習的比特幣交易預測(conti-nuous time dynamic network representation learning based Bitcoin transaction prediction, TBit-L)模型來為用戶交易建模,旨在通過已知的用戶交易數據對未來的用戶交易進行預測。

在現有的動態網絡表示學習方法中,當節點i和j在t時刻發生了交互時,大多數方法是利用兩個節點在t時刻的交互信息來計算節點的嵌入表示,更先進的工作則額外地考慮了通過使用節點的鄰域信息來獲取更多與節點相關的信息。本文提出的TBit-L模型不僅考慮了節點的鄰域信息對節點的影響,還考慮了節點的最新信息對其鄰域節點的影響,通過學習節點與其鄰域之間的相互作用得到更有效的節點嵌入。

2.1 相關定義

a)比特幣交易網絡。比特幣交易網絡定義為由一系列帶時間戳的連續時間事件序列表示的動態網絡G={x(t1),x(t2),…},其中x(tk)表示在tk時刻發生的一對節點的交互事件,為方便書寫,下文中省略了tk的下標k;V={x1,x2,…,xn}表示用戶節點的集合,其中xi表示用戶i,亦為節點i。

b)時變節點嵌入。EMB(t)={emb1(t),…,embn(t)(t)}表示所有在t時刻進行了交易的節點利用其交易信息得到的嵌入表示集合,其中n(t)表示在t時刻進行了交易的節點數量。例如,假設在t時刻,節點i與j進行了交易,TBit-L模型則會使用其交易信息計算得到節點i和j的時變嵌入表示embi(t)和embj(t)。

c)節點嵌入。Z(t)={z1(t),…,zp(t)(t)}表示所有在t時刻進行了交易的節點及其鄰域節點的最終嵌入表示集合。其中,交易節點p(p∈[1,n(t)])最終的嵌入表示zp(t)是通過結合其鄰域信息和時變節點嵌入embp(t)得到,然后通過將交易節點的最新信息反饋至其鄰域得到其鄰域節點最終的嵌入表示。其中:EMB(t)∈Euclid ExtraaBpn(t)xd,Z(t)∈Euclid ExtraaBpp(t)xd,d表示節點的嵌入表示的維度,且p(t)≥n(t)。

2.2 模型架構

TBit-L模型由嵌入模塊、時間注意力模塊和信息反饋模塊組成。在比特幣交易網絡中,每一次交互對應的節點都有一個相關的交互信息Afr,即交互特征mr(表示評論的向量)、節點特征nodefr和交互時間信息tfr。TBit-L模型將交互信息作為輸入,得到節點的嵌入zr,即zr=M(Afr),其中M表示TBit-L模型;最后利用嵌入計算節點間可能存在嵌入的概率pr。嵌入模塊使用節點產生的交互信息計算節點的時變嵌入embr;時間注意力模塊通過聚合節點的時域信息得到節點最終的嵌入表示zr,有效地避免了節點的嵌入表示可能陳舊的問題;信息反饋模塊引入了一種信息反饋機制,以及時地將節點的最新信息反饋給它的鄰域節點,使其鄰域節點能及時獲取到最新信息,并以此更新狀態,使得到的節點嵌入能擁有較好的時效性,從而可提高模型完成比特幣用戶交易預測任務的準確性。為了便于書寫,本文大部分地方省略了下標r。TBit-L模型的總體架構如圖2所示。

2.2.1 嵌入模塊

如圖2左部所示,比特幣交易網絡由一系列帶時間戳的連續時間事件序列表示。為提高TBit-L模型的訓練效率,本文基于t-Batch批處理方法[29]對模型進行訓練,使其能在從數據的順序性中得到學習的同時,還能夠實現高效的并行處理。

為結合網絡圖G中的拓撲結構信息,TBit-L模型利用網絡中節點的拓撲信息為每一個節點i生成了對應的節點特征nodefi參與模型的訓練。具體地,本文定義了一個帶權鄰居矩陣AWnxn,其中元素AW[i,j]=k表示節點i與j有過k次交易。將矩陣AWnxn通過多層感知機MLP進行壓縮,得到一個新的矩陣AW′nxm(m≤n)作為節點的特征矩陣, AW′nxm的第i行AW′[i]表示節點i的節點特征nodefi,即nodefi=AW′[i]。

由于用戶評價是[-10,10]的整數值評分,故本文采用one-hot編碼方式對評分進行編碼,并將其作為網絡圖G中的邊特征mt(i,j)。為更好地使用比特幣用戶交易的時間信息,本文將每次交易的時間戳通過time2vec[29]進行編碼,并將其作為交易的時間特征。

嵌入模塊通過結合在t時刻的交易節點i和j的節點特征nodefi(t)、nodefj(t),邊特征mt(i,j)和時間特征tfi(t)分別計算節點的時變嵌入表示embi(t)、embj(t)。計算方式具體如下:

embi(t)=GRU(Afi(t),zi(t-1))(1)

embj(t)=GRU(Afj(t),zj(t-1))(2)

Afi(t)=[nodefi(t)‖nodefj(t)‖mt(i,j)‖tfi(t)](3)

Afj(t)=[nodefj(t)‖nodefi(t)‖mt(i,j)‖tfj(t)](4)

其中:‖是串聯運算符,以與節點i的相關符號為例,Afi(t)表示將節點i的節點特征、邊特征(交互特征)和時間特征串聯拼接而得到的一個新向量,zi(t-1)表示節點i在上一時刻(即t-1時刻)最終得到的嵌入表示。將得到的新向量Afi(t)和節點i在t-1時刻的最終嵌入表示向量zi(t-1)作為循環神經網絡GRU的輸入,最后輸出得到節點i在t時刻的時變嵌入embi(t)。由于交易發生在節點i與j之間,所以tfi(t)= tfj(t)。

2.2.2 時間注意力模塊

在動態網絡中,有些節點可能會長期處于不活動的狀態,即這些節點在長時間里未產生交互。類似地,比特幣交易網絡中可能存在一種情況:在用戶離開比特幣交易平臺很長一段時間后,他有了新的關注點、新的興趣,故當其重返平臺產生交互時,現有的嵌入表示很可能已經不再能準確且有效地表達其意圖。因此,如何更新該用戶的嵌入表示尤為關鍵。由于節點在時域上的重要鄰居能在很大程度上影響節點,并反應與之相關的信息,所以在用戶離開平臺一段時間后,通過聚合用戶的時域鄰居信息能夠有效幫助更新其嵌入表示。

具體地,當節點i在t時刻產生了交互時,嵌入模塊會計算其時變嵌入,然后時間注意力模塊會使用時間注意力機制聚合節點i在t時刻下的時域NTi(t)內的鄰居節點信息,并結合其時變嵌入得到節點i最終的嵌入表示,從而保證節點嵌入的有效性和準確性,具體計算方式如下:

zi(t)=T_Attention(embi(t),tfe(i,k)(t′),zk(t),mask)(5)

其中:k∈NTi(t);zi(t)表示結合節點i的時域信息和時變嵌入最終得到的節點i的嵌入表示;tf(t)表示時間特征;e(i,k)表示節點i和其鄰居節點k最近的一次交易,則tfe(i,k)(t′)表示節點i與其鄰居k在最近交易t′(t′≤t)時刻進行交易的時間特征。時間注意力機制的掩碼mask通過一層新的權重將時間鄰域NTi(t)中關鍵的鄰居選擇出來,用于信息聚合。

根據定義可知zi(t)和embi(t)是不同的嵌入表示,zi(t)為結合節點i本身的信息以及其時域信息等,得到的節點i的最終嵌入表示,embi(t)則為在聚合時間鄰域信息之前計算得到的節點i的時變嵌入表示。zi(t)的初始值由隨機初始化得到,在計算過程中,embi(t)由zi(t-1)參與計算得到。

2.2.3 信息反饋模塊

考慮到在節點產生新信息時應及時將節點的最新信息反饋到其鄰域,以保證其鄰居節點能在任意時刻都包含其最新的信息,TBit-L模型引入了信息反饋機制。在計算得到節點的最終嵌入表示后,信息反饋模塊將節點的最新信息及時地反饋給它的鄰居節點,使其鄰居能及時獲取到關于該節點的最新信息,從而根據新信息及時地更新嵌入表示。具體地,信息反饋機制利用節點的最新信息,通過循環神經網絡來更新鄰居節點的嵌入表示。因此,在每一次交易發生時,交易用戶及其鄰域的嵌入都能根據最新信息得到更新,進而可提高比特幣用戶交易預測的準確性。

本文一共提出四種構造信息反饋機制的方法,分別對應四種模型,如圖3所示。其中,(a)TBit-L模型在進行信息反饋時只選取節點i的重要時域鄰居節點,并只反饋節點i的最新交互的時間特征,且為減少時間成本,本文選擇直接使用通過時間注意力模塊所選擇出的重要時域鄰居節點;(b)Tbit_a-L模型將節點i的最新交互的時間特征反饋給其所有鄰居;(c)Tbit_h-L模型將節點i的最終得到的嵌入表示反饋給其重要時域鄰居;(d)Tbit_n-L模型將節點i最終得到的嵌入表示反饋給其所有鄰居。

根據信息反饋方式的類型,更新節點的嵌入方式也有四種方式。具體地,節點i的鄰居k的嵌入更新方式如下:

圖3(a):zk(t)=GRU(tfi(t),zk(t-1)),k∈NTi(t), ∪kNTi(t),其中∪k表示在t時刻,通過信息反饋模塊,節點i的嵌入被更新的鄰居節點集合,NTi(t)表示節點i在t時刻的所有鄰居節點集合,∪kNTi(t)表示∪k包含于NTi(t)。

圖3(b):zk(t)=GRU(tfi(t),zk(t-1)),k∈NTi(t),∪k=NTi(t),其中∪k=NTi(t)表示∪k與NTi(t)相等。

圖3(c):zk(t)=GRU(zi(t),zk(t-1)),k∈NTi(t),∪kNTi(t)。

圖3(d):zk(t)=GRU(zi(t),zk(t-1)),k∈NTi(t),∪k=NTi(t)。

2.3 模型訓練過程

TBit-L模型采用批訓練方法,利用時間注意力機制和反饋機制為比特幣用戶交易建模。

算法1 TBit-L模型訓練過程

AW′n×m←AWn×n; //節點的特征矩陣

隨機初始化Z; //初始化節點的嵌入表示矩陣

emb←0;

for each batch(i,j,m(i,j),t)∈訓練集 //m(i,j)為邊特征

n ←負采樣;

nodefi(t),nodefj(t),nodefn(t)←AW′n×m[i],AW′n×m[j],AW′n×m[n];

tf(t)←t2Vec(t); //將時間戳轉換為向量形式

embi(t)←GRU(nodefi(t),nodefj(t),m(i,j),tf(t),zi(t-1));

embj(t) ←GRU(nodefj(t),nodefi(t),m(i,j),tf(t),zj(t-1));

embn(t) ←GRU(nodefn(t),nodefi(t),m(i,n),tf(t),zn(t-1));

zi(t)←TemporalAttention(i);

zj(t)←TemporalAttention(j);

zn(t)←TemporalAttention(n);

zk∈NTi(t)(t)←info_feedback(i);

zk∈NTj(t)(t)←info_feedback(j); //信息反饋

Pp ←computer(zi(t),zj(t));

Pn ←computer(zi(t),zn(t)); //計算交互概率

l= BCE(Pp,Pn);

end

3 實驗設計與分析

本文利用比特幣交易平臺OTC和Alpha為跟蹤用戶交易歷史而產生的比特幣交易用戶評價數據集構建了比特幣交易網絡,并基于此實現了對用戶交易的建模,驗證了TBit-L模型學習節點嵌入表示的能力,并在AUC、AP和F1三個指標上將其完成用戶交易預測任務的效果與其他模型進行了對比評估。OTC(https://snap.stanford.edu/data/soc-sign-bitcoin-otc.html)和Alpha(https://snap.stanford.edu/data/soc-sign-bitcoin-alpha.html)兩個數據集中用戶評價為-10~10(包括-10和10,但不包括0,步長為1)的數值評分,兩個數據集的時間跨度均為2010—2016年,在OTC數據集中,評分為正面的比例為89%,在Alpha數據集中為93%。兩個數據集的詳細信息如表1所示。

對于所有的任務和數據集,本文按70%∶15%∶15%的分割比例[29]來分割數據集,即前70%的數據用做訓練集、隨后的15%數據用做驗證集,最后的15%數據用做測試集。本文分別對兩個數據集中的所有記錄按照時間戳非遞減的規則完成了排序,從而避免了在訓練過程中出現數據泄露問題。所有實驗結果是在連續運行5次后取得的平均值。

3.1 對比模型

為了評估本文模型的性能,本文將TBit-L模型與兩個先進的動態網絡表示學習方法TGN、Jodie [32]進行比較,并與兩個經典模型node2vec[33]和LINE[34]進行比較,同時還與本文通過采用不同的信息反饋機制構造方法所形成的TBit_a-L、TBit_h-L、TBit_n-L模型以及去除了信息反饋模塊的TBit_t-L模型進行比較。模型介紹如下:

a)TGN,一種關注于連續時間動態圖的圖神經網絡編碼框架,其采用對時間編碼的方式獲取網絡的時間信息,并通過聚合節點的鄰域信息得到節點的表示向量;

b)Jodie,一個耦合的遞歸神經網絡模型,其主要針對二部網絡,在使用兩個RNN來計算節點嵌入的同時,還提出了一種預測節點未來軌跡的算法;

c)node2vec,一種綜合考慮了DFS鄰域和BFS鄰域的圖嵌入方法,node2vec_L2模型表示采用L2方法計算網絡中邊的特征,node2vec_H表示采用Hadamard方法計算邊特征;

d)LINE,一種基于鄰域相似假設的方法,使用BFS構造鄰域,考慮了網絡中的一階相似性和二階相似性;

e)TBit-L,將節點的最新時間信息反饋給它的重要時域節點,對應圖3(a);

f)TBit_a-L,將節點的最新時間信息反饋給它的所有鄰居節點,對應圖3(b);

g)TBit_h-L,將節點最終得到的嵌入表示反饋給它的重要時域節點,對應圖3(c);

h)TBit_n-L,將節點最終得到的嵌入表示反饋給它的所有鄰居節點,對應圖3(d);

i)TBit_t-L,無信息反饋部分。

本文提出的五個模型除了信息反饋模塊不同外,其他部分均相同。

3.2 實驗設置

本文模型通過PyTorch實現,在時間注意力模塊中使用節點在一跳時間鄰域上的m=10個重要鄰居節點執行信息聚合,模型中的學習率設為0.000 1,dropout概率設為0.1,節點特征、時間特征和節點的嵌入表示的維度均為172,邊特征的維度可為大于0的任意維度,批處理的大小設置為200,epoch的次數設置為50[29],并使用早停法防止過擬合,其patience值設為5,即當模型在驗證集上的表現連續5次處于下降的情況時則停止訓練。

3.3 實驗結果與分析

a)本文在transductive learning(直推式學習,在訓練過程中已經用到測試集數據(不帶標簽)中的信息)和 inductive lear-ning(歸納式學習,訓練集與測試集之間是相斥的)兩種學習方法下,分別對本文提出的五個模型做了用戶交易預測實驗,且主要在inductive設置下,與先進模型TGN、Jodie以及經典模型node2vec、LINE對比,結果如表2所示。實驗結果表明,TBit-L模型在OTC和Alpha兩個數據集上的表現都不錯,且優于其他模型。在Alpha數據集上,在transductive 設置下,TBit-L比TGN模型在AUC、AP和F1指標上分別高出約10%、10%和60%;在inductive設置下,比TGN模型在AUC、AP和F1指標下分別高出約6%、6%和56%。在OTC數據集上,在transductive 設置下,TBit-L比TGN模型在AUC、AP和F1指標下分別高出約7%、6%和22%;在inductive設置下,比TGN模型在AUC、AP和F1指標下分別高出約6%、5%和21%。

從實驗結果可以看出,同一個模型在transductive設置下的實驗結果比在inductive設置下的實驗結果好,這是因為在transductive設置下的訓練過程中用到了不帶標簽的測試集數據中的信息,而inductive設置下的訓練過程中只用到訓練集中數據的信息。同時,本文將TBit-L模型與本文提出的另外四個模型進行了對比,結果表示TBit-L模型在AUC和AP指標下的結果是最佳的,比另外四個模型的平均結果均高于5%左右;在F1指標下僅略低于TBit_a-L模型,但由于TBit_a-L模型需要將節點的最新時間信息反饋給它的所有鄰居節點,故其在時間效率上遠遠慢于TBit-L模型,且其在AUC和AP指標下的實驗結果并不突出。由結果還可以看出,本文提出的五種模型的結果均優于對比的其他模型。兩個較為經典的模型node2vec和LINE的表現較差,其原因可能是在動態網絡中,這類模型在計算節點的嵌入表示時忽略了時間特征在動態網絡的表示學習中起著非常重要的作用。

b)本文通過調整數據集的分割比例來驗證TBit-L模型的魯棒性。具體地,將訓練數據集的比例從20%逐步調整增長至70%,驗證數據集和測試數據集的比例分別為緊接在訓練數據集后面的15%數據,這樣做是為了使得測試集數據大小相同,從而驗證模型在相同測試集數據大小下的性能,實驗結果如圖4所示。

從結果可以看出,TBit-L模型的性能非常穩定,在訓練樣本比例從20%逐步調整增長至70%的數據點之間,指標AUC和AP的值僅有較小的波動,總體是趨于平穩的,因此TBit-L模型的魯棒性較好。

c)為驗證本文模型中信息反饋模塊的重要性,本文設計了消融實驗。由前文所知,TBit_t-L模型是通過在TBit-L模型中去除信息反饋模塊得到的,即TBit_t-L模型在執行完時間注意力機制來聚合節點的時間鄰域信息后,不會將節點的最新信息反饋給其鄰居節點,其他部分與TBit-L模型無差別。從圖5中可以看出,在transductive和inductive兩種設置下,無論是在Alpha數據集上還是在OTC數據集上,TBit-L模型的實驗結果總比TBit_t-L模型好,這說明在節點的嵌入表示更新后,及時地將節點的最新信息反饋給其鄰居節點是十分必要的,即TBit-L模型中的信息反饋模塊對提高模型的性能起著重要的作用。

d)在實驗過程中,為探索模型中信息反饋模塊的最佳構造方法,本文做了豐富的對比實驗,實驗結果如圖5所示。如前文所述,TBit_a-L模型是將節點的最新時間信息反饋給它的所有鄰居節點;TBit_n-L模型是直接將節點更新得到的嵌入表示反饋給它的所有鄰居節點;TBit_h-L模型是將節點更新得到的嵌入表示反饋給它的重要時間鄰域節點,這些模型的其他部分均與TBit-L模型相同。從圖5可以看出,無論在哪個數據集中,將節點的最新時間信息反饋給它的重要時間鄰域節點的構造方式是最優的,因為在比特幣交易網絡中,網絡是動態的,隨著時間而演變的,用戶交易的時間特征以及用戶的時域鄰居都帶著很重要的信息,對節點的嵌入表示起著關鍵作用。將節點的最新嵌入信息反饋給其所有鄰居在實驗初期似乎更容易理解,但是通過實驗可以發現,這種構造方法不僅會大大降低模型的效率,還很容易造成信息傳遞的冗余或傳遞不必要的信息,從而導致最終的實驗結果不理想。從圖6也可以看出,TBit_a-L模型的實驗結果比TBit-L模型差,并且TBit_t-L模型的實驗結果幾乎一直都是最差的,這再次證明了TBit-L的信息反饋模塊的重要性,即在更新了節點的嵌入表示后,將其最新信息反饋給它的鄰居節點是十分必要的。

4 結束語

本文將比特幣交易建模為具有連續時間特性的動態網絡,把交易預測轉換為動態網絡的鏈接預測問題。為了解決交易預測問題,提出了一種新的基于圖神經網絡的TBit-L模型,TBit-L模型采用時間注意力機制聚合用戶的鄰域信息并引入了信息反饋機制,以及時地將用戶的最新信息反饋給其鄰域。為了評估TBit-L模型的效果,使用了兩個不同的數據集進行了多角度實驗分析。實驗結果表明,TBit-L模型不管與基于時間事件序列表示的模型對比還是與經典的鏈接預測模型對比,都有著較為突出的結果,說明TBit-L模型能夠有效地預測比特幣交易,這對促進比特幣的交易和監管具有重要的意義。

本文模型主要針對比特幣領域,所以未來的研究方向是嘗試將模型運用在其他不同領域的網絡中,并觀察其實驗效果,根據實驗結果對模型的結構和參數進行調整,從而使得模型將來能運用在多種不同領域中。另外,如何針對其他數字貨幣的交易進行建模和預測也是下一步值得研究的問題。

參考文獻:

[1]Chen Weili,Wu Jun,Zheng Zibin,et al. Market manipulation of Bitcoin: evidence from mining the Mt.Gox transaction network [C]// Proc of IEEE International Conference on Computer Communications. Piscataway,NJ: IEEE Press,2019: 964-972.

[2]Shi H J M,Mudigere D,Naumov M,et al. Compositional embeddings using complementary partitions for memory-efficient recommendation systems [C]// Proc of the 26th ACM SIGKDD International Confe-rence on Knowledge Discovery amp; Data Mining. New York: ACM Press,2020: 165-175.

[3]Junuthula R R,Xu K S,Devabhaktuni V K. Leveraging friendship networks for dynamic link prediction in social interaction networks [C]// Proc of the 12th International AAAI Conference on Web and Social Media. Palo Alto,CA: AAAI Press,2018: 628-631.

[4]Veselkov K,Gonzalez G,Aljifri S,et al. HyperFoods: machine intelligent mapping of cancer-beating molecules in foods [J]. Scientific Reports,2019,9(1): article number 9237.

[5]Kumar S,Spezzano F,Subrahmanian V S,et al. Edge weight prediction in weighted signed networks [C]// Proc of the 16th IEEE International Conference on Data Mining. Washington DC: IEEE Compu-ter Society,2016: 221-230.

[6]Ou Mingdong,Cui Peng,Pei Jian,et al. Asymmetric transitivity preserving graph embedding [C]// Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2016: 1105-1114.

[7]Perozzi B,Al-Rfou R,Skiena S. DeepWalk: online learning of social representations [C]// Proc of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2014: 701-710.

[8]Wang Daixin,Cui Peng,Zhu Wenwu. Structural deep network embedding [C]// Proc of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2016: 1225-1234.

[9]Liben-Nowell D,Kleinberg J. The link-prediction problem for social networks [J]. Journal of the American Society for Information Science and Technology,2007,58(7): 1019-1031.

[10]Hisano R. Semi-supervised graph embedding approach to dynamic link prediction [C]// Proc of the 9th Conference on Complex Networks. Cham: Springer,2018: 109-121.

[11]Yao Lin,Wang Luning,Pan Lyu,et al. Link prediction based on common-neighbors for dynamic social network [J]. Procedia Computer Science,2016,83: 82-89.

[12]Zhu Jia,Xie Qing,Chin E J. A hybrid time-series link prediction framework for large social network [C]// Proc of the 23rd International Conference on Database and Expert Systems Applications. Berlin: Springer,2012: 345-359.

[13]Zhou Lekui,Yang Yang,Ren Xiang,et al. Dynamic network embedding by modeling triadic closure process [C]// Proc of the 32nd AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press,2018: 571-578.

[14]Yu Wenchao,Cheng Wei,Aggarwal C C,et al. Link prediction with spatial and temporal consistency in dynamic networks [C]// Proc of the 26th International Joint Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press,2017: 3343-3349.

[15]Gujral E,Pasricha R,Papalexakis E E. SamBaTen: sampling-based batch incremental tensor decomposition [C]// Proc of SIAM International Conference on Data Mining. 2018: 387-395.

[16]Bian Ranran,Koh Y S,Dobbie G,et al. Network embedding and change modeling in dynamic heterogeneous networks [C]// Proc of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. New York: ACM Press,2019: 861-864.

[17]Mahdavi S,Khoshraftar S,An Aijun. dynnode2vec: scalable dynamic network embedding [C]// Proc of IEEE International Conference on Big Data. Piscataway,NJ: IEEE Press,2018: 3762-3765.

[18]Dong Yuxiao,Chawla N V,Swami A. Metapath2vec: scalable representation learning for heterogeneous networks [C]// Proc of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2017: 135-144.

[19]Sajjad H P,Docherty A,Tyshetskiy Y. Efficient representation lear-ning using random walks for dynamic graphs [EB/OL]. (2019-01-22). https://arxiv.org/pdf/1901.01346v2.pdf.

[20]丁鈺,魏浩,潘志松,等. 網絡表示學習算法綜述 [J]. 計算機科學,2020,47(9): 52-59. (Ding Yu,Wei Hao,Pan Zhisong,et al. Survey of network representation learning [J]. Computer Science,2020,47(9): 52-59.)

[21]劉佳瑋,石川,楊成,等. 基于異質信息網絡的推薦系統研究綜述 [J]. 信息安全學報,2021,6(5): 1-16. (Liu Jiawei,Shi Chuan,Yang Cheng,et al. Review of recommendation system based on hetero-geneous information network [J]. Journal of Cyber Security,2021,6(5): 1-16.)

[22]Nguyen G H,Lee J B,Rossi R A,et al. Continuous-time dynamic network embeddings [C]// Proc of International World Wide Web Conference. New York: ACM Press,2018: 969-976.

[23]Seo Y,Defferrard M,Vandergheynst P,et al. Structured sequence modeling with graph convolutional recurrent networks [C]// Proc of the 25th International Conference on Neural Information Processing. Cham: Springer,2018: 362-373.

[24]Zuo Yuan,Liu Guannan,Lin Hao,et al. Embedding temporal network via neighborhood formation [C]// Proc of the 24th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. New York: ACM Press,2018: 2857-2866.

[25]Cao Qi,Shen Huawei,Cen Keting,et al. DeepHawkes: bridging the gap between prediction and understanding of information cascades [C]// Proc of ACM Conference on Information and Knowledge Management. New York: ACM Press,2017: 1149-1158.

[26]Pareja A,Domeniconi G,Chen Jie,et al. EvolveGCN: evolving graph convolutional networks for dynamic graphs[J]. Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(4): 5363-5370.

[27]Trivedi R,Farajtabar M,Biswal P,et al. DyRep: learning representations over dynamic graphs [C]// Proc of International Conference on Learning Representations. 2019.

[28]Rossi E,Chamberlain B,Frasca F,et al. Temporal graph networks for deep learning on dynamic graphs [EB/OL]. (2020-10-09). https://arxiv.org/pdf/2006.10637.pdf.

[29]Kazemi S M,Goel R,Eghbali S,et al. Time2vec: learning a vector representation of time [EB/OL]. (2019-07-11). https://arxiv.org/pdf/1907.05321.pdf.

[30]李暉. 圍剿虛擬貨幣: 半年數百億未受監管資金出境 [N]. 中國經營報,2021-10-11 (B05). (Li Hui. Crackdown on virtual currencies: tens of billions of unregulated funds left the country in six months[N]. China Business Journal,2021-10-11 (B05).)

[31]Xu Da,Ruan Chuanwei,Korpeoglu E,et al. Inductive representation learning on temporal graphs [EB/OL]. (2020-02-19). https://arxiv.org/pdf/2002.07962.pdf.

[32]Kumar S,Zhang Xikun,Leskovec J. Predicting dynamic embedding trajectory in temporal interaction networks [C]// Proc of the 25th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press,2019: 1269-1278.

[33]Grover A,Leskovec J. node2vec: scalable feature learning for networks [C]// Proc of the 22nd ACM SIGKDD International Confe-rence on Knowledge Discovery and Data Mining. New York: ACM Press,2016: 855-864.

[34]Tang Jian,Qu Meng,Wang Mingzhe,et al. LINE: large-scale information network embedding [C]// Proc of the 24th International Confe-rence on World Wide Web.New York:ACM Press,2015:1067-1077.

主站蜘蛛池模板: 欧美国产在线一区| 国产精品太粉嫩高中在线观看| 中文字幕无码制服中字| 91精品综合| 免费观看国产小粉嫩喷水| 免费看的一级毛片| 97一区二区在线播放| 国产地址二永久伊甸园| 四虎在线观看视频高清无码| 99精品福利视频| 国产成人8x视频一区二区| 亚洲综合在线网| 欧美色伊人| 欧美一区二区啪啪| 亚洲色欲色欲www在线观看| 国产91av在线| 精品综合久久久久久97超人该| 中文字幕欧美成人免费| 国产自在线播放| 91精品国产丝袜| 一区二区欧美日韩高清免费| 91无码人妻精品一区| 国产精品手机视频一区二区| 青青极品在线| 亚洲一级毛片| 97se亚洲综合在线韩国专区福利| 国内99精品激情视频精品| 再看日本中文字幕在线观看| 影音先锋丝袜制服| 99精品在线视频观看| 99伊人精品| AV熟女乱| 国产精品无码翘臀在线看纯欲| 亚洲第一中文字幕| 91美女视频在线| 国产精欧美一区二区三区| 国产午夜看片| 黑色丝袜高跟国产在线91| 国产美女在线免费观看| 国产一级二级在线观看| 亚洲AV无码乱码在线观看裸奔| 国产欧美日韩va另类在线播放| 久久毛片免费基地| 日本精品视频一区二区| 中文成人无码国产亚洲| 99在线观看国产| 91探花在线观看国产最新| 午夜激情婷婷| 国产a v无码专区亚洲av| 中文一区二区视频| 国产成人成人一区二区| 中文字幕第4页| 亚洲欧洲一区二区三区| 在线欧美日韩| 9999在线视频| 无码区日韩专区免费系列| 国产国产人成免费视频77777| 亚洲大尺度在线| 国产视频资源在线观看| 亚洲精品国产成人7777| 欧美69视频在线| 毛片一区二区在线看| 成人噜噜噜视频在线观看| vvvv98国产成人综合青青| 国产成人无码综合亚洲日韩不卡| 欧美日韩午夜| 亚洲女同一区二区| 亚洲欧美日韩成人高清在线一区| 国产91视频观看| 国产一级二级在线观看| 亚洲成人网在线观看| 欧美性爱精品一区二区三区| 亚洲人成网址| 精品三级网站| 在线观看网站国产| 国产精品青青| 欧美综合区自拍亚洲综合绿色 | 色屁屁一区二区三区视频国产| 日韩欧美一区在线观看| 国产91精选在线观看| 午夜福利视频一区| 国产美女91视频|