











摘 要:
針對目前基于簽到時空數據的跨社交網絡用戶匹配方法未充分利用時空信息之間的耦合關系,導致時空數據特征提取困難,匹配準確率下降的問題,提出了一種基于時空Transformer-encoder的跨社交網絡用戶匹配方法。該方法通過網格映射將簽到時空信息轉換為序列數據,生成簽到序列;利用序列嵌入層將離散的簽到序列映射到連續高維空間;然后借助多頭注意力機制和卷積神經網絡提取高維簽到特征,并利用卷積神經網絡實現優化多頭注意力模塊權重變換和特征融合;最后利用前饋神經網絡實現分類,輸出用戶匹配得分。在兩組真實社交網絡用戶數據集上進行大量用戶匹配實驗,與現有方法相比,準確率提升了0.40~10.53百分點,F1值提升了0.43~9.5百分點。這驗證了所提方法能夠有效提取用戶簽到耦合特征,并提高用戶匹配的性能。
關鍵詞:跨社交網絡;用戶匹配;Transformer-encoder;卷積神經網絡
中圖分類號:TP391"" 文獻標志碼:A""" 文章編號:1001-3695(2024)12-029-3742-07
doi: 10.19734/j.issn.1001-3695.2024.05.0146
User matching method for cross social networks based on spatial-temporal Transformer-encoder
Zhang Yang, Ma Qiang
(School of Information Engineering, Southwest University of Science amp; Technology, Mianyang Sichuan 621010, China)
Abstract:
In response to the shortcomings of current cross social network user matching methods based on check-in spatial-temporal data that do not fully utilize the coupling relationship between spatial and temporal information, resulting in difficulty in feature extraction from spatial-temporal data and a decrease in matching accuracy. This paper proposed a cross social network user matching model based on spatial-temporal Transformer-encoder. This method converted check-in spatial-temporal information into sequential data through grid mapping, generated check-in sequences. It used sequence embedding layers to map discrete check-in sequences to a continuous high-dimensional space. Then, it used multi-head attention mechanism and convolutional neural network to extract high-dimensional check-in features, and used convolutional neural network to optimize multi-head attention module weight transformation and feature fusion. Finally, it used feedforward neural networks to implement classi-fication and outputting user matching scores. Extensive user matching experiments on two real social network user datasets show improvements in accuracy by 0.40 to 10.53 percentage point, and F1 value by 0.43 to 9.5 percentage point, compared to existing methods. The experiment validates that the proposed method can effectively extract user check-in coupling features and improve user matching performance.
Key words:cross social network; user matching; Transformer-encoder; convolutional neural network
0 引言
在互聯網迅速發展的時代背景下,社交網絡同樣也得到迅猛發展。由于社交網絡平臺功能的差異性,且各個社交網絡之間是相互獨立的,為了滿足自身的需求,用戶通常會在不同的社交平臺注冊賬號,與不同社交平臺的好友進行信息交互??缟缃痪W絡衍生出信息推薦、廣告個性化投放以及隱私保護等服務。由于實時定位技術的廣泛應用,社交網絡中具有大量用戶時空簽到信息,這些時空簽到數據具有難偽造性和唯一性的特點,在用戶匹配的準確率和穩定性方面更具有優勢[1]。
對于跨社交網絡的用戶匹配,研究人員基于不同的方法和數據提出了不同的匹配方法。陳鴻昶等人[2]提出使用paragraph2vec模型抽取用戶的位置信息,通過PV-DM方法訓練用戶軌跡,該方案為跨社交網絡匹配提供了新方向,但是沒有考慮到劃分子網格地圖語義信息。為解決此問題,Chen等人[3]提出通過檢索時間和空間的共現頻率,同時篩選候選用戶修剪搜索空間。馬強等人[4]提出了一種基于卷積神經網絡的用戶匹配方法,通過對時間和空間信息分別提取特征,再對特征進行融合,該方法能夠有效提取用戶特征,但是沒有挖掘出時間和空間之間的耦合關系。Yin等人[5]把所用的社交網絡用戶映射到關系圖中,利用關系圖的集合匹配方法得到候選匹配用戶的置信度集合,以篩選出最優匹配,但圖計算效率低,不適合大規模匹配任務。He等人[6]設計了一個二進制搜索函數,對相似的用戶軌跡進行聚類。針對用戶多對多識別中匹配精度較低的問題,Qiu等人[7]提出社交網絡中影響最大化的兩階段方法,以選擇一定數量有影響力的節點作為候選節點;Deng等人[8]提出了基于穩定婚姻匹配的隨機森林確認方法,該方案通過構建隨機森林方法對用戶相似度向量進行訓練,對候選匹配對進行二次匹配,基于候選節點的方法對數據源有更高的要求,不具有適用性。Qi等人[9]通過構建頻繁分布的top-n區域,利用用戶軌跡相似性度量進行匹配,忽略了用戶時序特征。戴軍等人[10]對時空簽到信息進行網格聚類,然后提取時空信息的特征,計算不同屬性的相似度進行匹配,但是會受到數據稀疏性的影響。針對數據稀疏性的問題,Li等人[11]提出一種基于三層注意力機制的網絡嵌入模型,利用一階和二階鄰居的加權結構相似性識別用戶。此外,Zheng等人[12]提出循環一致性的對抗映射方法建立社交網絡中用戶的應用關系,解決數據分布差異的問題。Han等人[13]通過比較用戶生成的位置數據將該用戶多個賬戶鏈接起來,構建主題方法捕捉用戶在時間和空間維度上的特征,最后計算KL散度得到用戶相似度,但忽略了時間和空間之間的耦合性。Li等人[14]利用樹狀圖的思想建立匹配模型,開發不同的方法,分別在時間、空間以及內容的維度上衡量相似度,并構成相應的特征向量,通過三級機器學習的級聯進行用戶識別。由于社交網絡中用戶行為的局限性,Nie等人[15]提出一種動態核心興趣映射方法,該方法通過用戶社交網絡結構和用戶生成內容進行建模匹配。Hao等人[16]提出了一種網絡物理空間用戶識別框架,對網絡空間和物理空間進行建模,融合兩個空間中用戶共享特征進行用戶匹配,但沒有充分利用時空信息,一定程度上提高了用戶匹配精度。也有研究者嘗試把神經網絡應用到圖結構數據中,Lei等人[17]采用特定的編碼方法把圖數據轉換成序列數據,然后利用Transformer-encoder提取低維序列特征,但是該模型信息量較小導致匹配精度下降。Tan等人[18]提出超圖流行對齊的一種新的子空間學習模型,充分利用社交網絡結構將用戶映射到低維空間中。Han等人[19]將多維時空數據轉換成三部圖的方式,通過最優圖劃分進行用戶匹配。張偉等人[20]基于循環神經網絡和圖神經網絡從時間、空間以及社交三個方面分析用戶軌跡,該方案準確率較高,但是需要大量的軌跡數據。Lee等人[21]分析社交網絡的拓撲信息,利用用戶之間的相似度達到識別用戶的目的。Li等人[22]基于核密度估計方法測量用戶的相似度,同時處理空間和時間數據,按照TFIDF的思想給簽到記錄分配權重,突出了有區別的用戶信息。
盡管現有基于時空數據的跨社交網絡匹配方法已被證明是有效的,但其中大多數都分別處理時間和空間信息,導致時間和空間信息之間的相關性丟失,存在難以耦合多維度的用戶簽到信息、特征提取困難、匹配準確率低的問題。本文提出了一種基于時空Transformer-encoder的跨社交網絡用戶匹配方法(user matching method for cross social networks based on spatial-temporal Transformer-encoder,UMMSTT),通過網格映射對用戶簽到時空信息離散化處理,生成簽到序列,通過序列嵌入層將離散的簽到序列映射到連續的高維空間中,基于Transformer-encoder和卷積神經網絡對高維特征進行特征提取,利用前饋神經網絡學習特征向量和用戶匹配之間的潛在聯系。在兩組真實社交網絡用戶數據集進行用戶匹配測試,結果表明,準確率和F1值相較于現有方法均有提升,驗證了方法的有效性。
1 相關定義及數據預處理
1.1 相關定義
定義1 用戶簽到。其是指社交網絡中的用戶在特定的時間和地點進行登錄或打卡的信息。簽到數據是一個元組S=(id,tim,lon,lat)。其中:id表示用戶的唯一標識符;tim表示用戶簽到的時間,包括日期和時間戳;lon和lat分別表示用戶簽到的經度和緯度。按照id構建單個用戶的簽到數據集Fid={S1,S2,…,Sn},Sn表示用戶的第n次簽到數據。
定義2 用戶匹配。其是指在不同的社交網絡平臺上,將相同用戶的賬戶進行匹配的任務。給定F1∈D1,F2∈D2是來自兩個不同社交網絡(D1和D2)的兩個簽到數據,如果F1和F2是同一個現實用戶產生的簽到數據,則F1和F2對應的用戶id匹配成功。
1.2 簽到數據網格映射
將原始簽到數據轉換為離散化網格表示,數據簡化的同時保留特征信息,可以減少簽到數據的維度和存儲空間,即只需要存儲網格單元的索引或者編碼而不需要存儲具體的簽到數據。給定簽到數據S=(id,tim,lon,lat),簽到的時間和空間范圍M=(timmin,timmax,lonmin,lonmax,latmin,latmax)。其中:timmin、lonmin、latmin分別是簽到時間戳、經度和緯度的最小值;timmax、lonmax、latmax分別是簽到時間戳、經度和緯度的最大值。本文采用了獨立時空數據網格映射和聯合時空數據網格映射兩種時空數據網格映射方法。獨立時空數據網格映射將簽到時間和空間信息分別映射到二維空間中;聯合時空數據網格映射充分利用時空信息之間的耦合關系,將簽到時空信息映射到一個三維空間中。
方法1 獨立時空數據網格映射。簽到數據的時間網格表示為Ts=(xt,yt),簽到數據的空間網格表示為Ss=(xs,ys)。其中:xt和xs分別表示時間網格和空間網格的水平坐標序號;yt和ys分別表示時間網格和空間網格的垂直坐標序號。計算公式如下:
xt=k-f(k×timmax-tim+adjtimmax-timmin)
yt=k-f(k×(timmax-tim+adj)%timdentimden)
timden=timmax-timmink (1)
xs=k-f(k×lonmax-lon+adjlonmax-lonmin)ys=k-f(k×latmax-lat+adjlatmax-latmin)(2)
其中: f是向下取整函數;k是時間網格和空間網格的密度系數;adj是調節參數。把時間網格Ts和空間網格Ss分別轉換為子網格編號Ti和Si表示,計算公式如下:
Ti=xt+k(yt-1)(3)
Si=xs+k(ys-1)(4)
方法2 聯合時空數據網格映射。令簽到數據的時空網格表示為Ls=(xs,ys,zs)。xs、ys和zs分別表示時空網格行坐標序號、列坐標序號以及層坐標序號,計算公式如下:
xs=k-f(k×lonmax-lon+adjlonmax-lonmin)ys=k-f(k×latmax-lat+adjlatmax-latmin)zs=k-f(k×timmax-tim+adjtimmax-timmin) (5)
其中: f、k和adj的定義同式(2)。時空網格Ls轉換為子網格編號Li,計算公式如下:
Li=xs+k(ys-1)+k2(zs-1)(6)
1.3 構建簽到序列
根據用戶簽到id,將簽到數據映射到網格,通過子網格編號鏈接簽到數據和簽到序列,每個簽到序列包含該用戶的時間和空間信息,反映了用戶在不同時間和地點的簽到行為。構建用戶簽到序列集FM={B1,B2,B3},Bi={L1,L2,…,Ln},1≤i≤3,n表示序列長度,B1表示時間序列,B2表示空間序列,B3表示時空序列。簽到數據具有時空關聯特性,用戶的簽到序列融合了用戶的行為特征。本文利用時空簽到數據構建簽到序列集,簽到序列填充算法偽代碼如算法1。
算法1 簽到序列填充算法
輸入:用戶簽到數據集S1;與S1待匹配簽到集S2;網格密度系數k;調節參數adj。
輸出:用戶簽到序列集FM。
a)初始化n維序列集FM={B1,B2,B3}。
b)遍歷數據集S1和S2,通過S1和S2設定時空域。 /*遍歷簽到數據集和待匹配簽到數據集設定時間和空間范圍*/
c)獲取網格:Ts=(xt,yt);Ss=(xs,ys);Ls=(xs,ys,zs)。 /*分別對簽到數據進行獨立時空數據網格映射和聯合時空數據網格映射,得到簽到數據的時間網格表示、空間網格表示和時空網格表示*/
d)獲取子網格編號:Ti,Si和Li。 /*將簽到數據的三類網格轉換為相應子網格編號*/
e)填充序列:B1.append(Ti);B2.append(Si);B3.append(Li)。//將三類子網格編號分別填充到時間序列、空間序列和時空序列
f)輸出FM。
2 用戶匹配模型
2.1 模型框架
基于Transformer-encoder和卷積神經網絡(CNN)對序列數據具有很好的特征提取能力,本文提出了如圖1的跨社交網絡用戶匹配模型。該模型的輸入是社交網絡簽到數據集,經過網格映射和序列填充得到用戶簽到序列。利用序列嵌入層將離散的簽到序列映射到連續的高維空間中,得到高維特征張量。在優化Transformer-encoder層進行特征提取過程中,將高維特征張量劃分成兩個部分并分別輸入到優化多頭注意力模塊提取時空特征,一部分通過多頭自注意力提取時空序列特征,另一部分先添加噪聲進行數據增強操作后再通過卷積神經網絡提取時空序列特征,將這兩部分的輸出進行拼接并規范化;再利用CNN2對優化多頭注意力模塊殘差連接后的輸出進行權重變換和特征融合;通過前饋神經網絡得到多頭平均注意力并轉換成嵌入序列的張量形式。利用特征展開模塊將得到的高維特征張量展開成一維特征向量,并利用前饋神經網絡作為分類器,最后得到匹配結果。
2.2 序列嵌入
將用戶簽到序列集FM={B1,B2,B3},Bi={L1,L2,…,Ln},通過序列嵌入轉換成高維向量。序列Bi中Ln映射到整數標記索引得到向量1×V,V表示字典大小,將Bi中所有元素映射到整數標記索引,得到索引矩陣Vid,Vid∈Euclid ExtraaBpn×v。計算Vid在嵌入矩陣Wd中對應的嵌入向量,計算方法為
3 實驗分析
3.1 數據集及評價指標
本文實驗數據集來自斯坦福大學的社交網絡數據集Brightkite和Gowalla[23],它們是使用公共API收集的基于位置的社交網絡,每個用戶的簽到數據包括用戶id、簽到時間、簽到經度,簽到緯度以及位置id。將社交網絡數據集劃分成兩個子數據集a和b,數據集a和b表示兩個社交網絡,進行用戶匹配。劃分方法:以相同的概率將每個用戶id的每條簽到數據劃分到a和b,同時保證劃分結束時a和b的簽到數不少于用戶總簽到數的1/4。隨機選擇50%的用戶通過用戶id鏈接構建正例,并標記a中正例用戶id;在構建負例時,在a中選擇未被標記的用戶id,在b中隨機選擇不同的用戶id構成50%負例,以此保證每條數據的唯一性。模型利用嵌入后的時空簽到序列數據進行訓練,整個數據集分成80%的訓練集和20%的測試集。數據集信息如表1所示。該文采用準確率(acc)、精確率(pre)、召回率(rec)以及綜合評價指標F1作為衡量方法性能的評價指標,計算公式如下:
acc=tp+tntp+fp+tn+fnpre=tptp+fp+epsilonrec=tptp+fn+epsilon
F1=2×pre×recpre+rec+epsilon (28)
其中:tp表示正確預測正例的樣本數;tn表示正確預測負例的樣本數; fp表示錯誤預測正例的樣本數; fn表示錯誤預測負例的樣本數;epsilon表示調節參數。
3.2 模型參數設置
為調整模型中的超參數以及驗證模型在訓練過程中的效果,在訓練集中劃分出5%的數據作為驗證集。模型在不同迭代輪數(epoch)的訓練結果曲線如圖2所示。模型訓練結果顯示epoch超過15以后,模型的損失和準確率趨于穩定,方法在Brightkite測試集的準確率達到99.51%;在Gowalla的測試集準確率達到99.50%。
對優化多頭注意力模塊降低了時間復雜度進行驗證,在不同變量設置條件下使用相同的數據集,并采用模型訓練時間作為衡量計算效率的指標。實驗將模型輸入序列長度逐步增加,訓練時間選擇30個epoch計算時長取值。用Trans表示Transformer-encoder基本模型;用Protrans表示使用優化多頭注意力模塊而不使用CNN2模塊的Transformer-encoder模型;UMMSTT表示同時使用優化多頭注意力模塊和CNN2模塊的Transformer-encoder模型。不同模型訓練時間結果如圖3所示。
本文UMMSTT訓練時間低于Trans,這表明UMMSTT有效提高了基礎Transformer-encoder的計算效率;同時隨著序列長度的增加兩條曲線的差值在逐漸增大,表明特征數據序列長度越大,時間復雜度降低越明顯。Protrans的訓練時間略低于UMMSTT,并且兩條曲線的差值相對穩定,說明CNN2模塊帶來的額外時間復雜度較小。
此外,針對聯合時空數據網格映射和獨立時空數據網格映射對特征提取的有效性,優化Transformer-encoder層對匹配模型性能的提升,在不同模型和數據條件下測試匹配性能。S表示獨立空間數據網格映射提取簽到空間特征序列;T表示獨立時間數據網格映射提取簽到時間特征序列;ST表示對獨立空間數據網格映射提取的簽到空間特征序列和獨立時間數據網格映射提取的簽到時間特征序列進行拼接;UN表示聯合時空數據網格映射提取簽到時空特征序列。消融實驗結果如表2所示。
實驗結果表明,在兩個數據集上,UN的準確率和F1值均高于ST,說明了聯合時空數據網格映射能夠最大限度地提取用戶的簽到特征。此外,在簽到信息聯合時空數據網格映射下,UMMSTT相較于基礎Trans,準確率提升約0.30和0.21百分點,F1值提升約0.19和0.22百分點;相較于Protrans,準確率提升約0.35和0.37百分點,F1值提升約0.37和0.38百分點,說明了UMMSTT能夠有效提高匹配性能。由于簽到信息的時間特征較弱,所以同一模型下僅使用時間特征的準確率和F1值均低于僅使用空間特征的準確率和F1值。聯合時空數據網格映射能夠有效耦合簽到數據中的時間和空間特征,以提高模型匹配性能。
時間網格、空間網格和時空網格的密度系數對數據建模的性能有重要影響,當k設置過小,序列數據的特征則很模糊,不具有區分性;設置過大時,序列數據則會引入過多噪聲,導致特征丟失。為了研究k的合理取值,設置了多組對照實驗,實驗結果如圖4所示。
實驗結果顯示,模型準確率隨著k值的增大而呈現出先增后減的趨勢,增大k值會增強序列數據的特征,模型準確率增大,當k值過大時,會在序列數據中引入過多噪聲導致準確率下降。因此在Brightkite和Gowalla兩個數據集中k值分別設置為6和8。模型的其他參數設置如表3所示。
3.3 方法對比分析
為了驗證本文方法在用戶匹配中的有效性,將其與多種方法進行對比,所有方法訓練時都采用了早停策略。這里選擇了UNICORN[15]、TUMA[17]、UIDwST[22]、DLUMCN[4]作為對比方法,UNICORN將用戶簽到數據向量化,利用簽到數據向量相似性度量用戶匹配;TUMA把用戶數據映射成序列,利用Transformer-encoder提取高維序列特征,并計算特征向量的相似度;UIDwST基于核密度估計的方法,測量用戶的相似度;DLUMCN將用戶數據映射到網格,利用卷積神經網絡提取網格用戶特征,并進行特征分類匹配。本文方法UMMSTT利用聯合時空數據網格映射將時空簽到信息映射成簽到序列,通過Transformer-encoder和CNN提取序列特征構建匹配方法。令數據集用戶匹配對數為M,用戶簽到數最大值為n,隱藏層維度為d,在兩組數據集中不同方法的時間和空間復雜度的結果如表4所示,不同方法的評價指標對比結果如表5所示。
從表4、5不同方法的對比測試結果可以看出,UNICORN的各項評價指標均比其他方法差,這是因為UNICORN只考慮了位置信息而忽略了時間信息;UMMSTT和TUMA都是基于Transformer的方法,但是TUMA過于簡單,不能充分提取用戶時空特征,不適合大規模匹配任務,并且需要更多的訓練時間;UIDwST在計算相似性權重時過于復雜,同樣不適合大規模數據匹配任務;UMMSTT和DLUMCN都是基于網格映射對簽到數據進行預處理,UMMSTT獲得更高匹配精度的同時需要耗費更多的訓練時間,但是DLUMCN分別獨立處理時間和空間數據,忽略了時空數據之間的耦合關系。此外,模型的召回率大于精確率,這是由于簽到數據集中的極少數負例用戶被模型錯誤判別為正例所造成的。對比目前方法,所提UMMSTT的準確率和F1值均表現更好,驗證了所提方法的有效性。
3.4 匹配樣例分析
通過在Brightkite數據集上,設置網格密度系數k=9,采用聯合時空數據網格映射算法,訓練并測試用戶匹配模型,將測試效果好的預訓練模型保存到本地。本文進行了一個匹配實例驗證UMMSTT的有效性。
旅游推薦系統:用戶希望提供個性化的旅游景點推薦服務,為了實現這一目標,系統需要整合用戶在不同社交網絡上的簽到數據,以更全面地了解用戶的興趣和行為。
為了尋找旅游推薦系統中服務需求用戶在另一個社交網絡的賬戶id,將該服務需求用戶與社交網絡中所有用戶組成用戶匹配對,社交網絡包含500個用戶。利用預訓練模型計算用戶匹配對的相似性值,并篩選出相似性值最大的匹配對,若最大相似性值大于匹配閾值,則匹配成功,否則匹配失敗,匹配閾值設置為0.95。通過對匹配結果分析,匹配成功率達到98.5%,有部分用戶的簽到數據過于稀疏,導致匹配失敗。
4 結束語
本文提出了一種基于時空Transformer-encoder的跨社交網絡用戶匹配方法。該方法針對目前基于簽到時空數據的跨社交網絡用戶匹配方法未充分利用時空信息之間的耦合關系,導致時空數據特征提取困難,匹配準確率下降的問題,將時空簽到數據進行網格映射生成用戶簽到序列,最大限度地融合時空信息,以便于更好地提取序列特征。利用序列嵌入層將離散的簽到序列映射到連續高維空間,得到高維特征張量。優化多頭注意力模塊提取高維簽到特征,并基于卷積神經網絡實現優化多頭注意力模塊權重變換和特征融合。最后基于前饋神經網絡實現分類,學習用戶特征和用戶匹配之間的潛在聯系,輸出用戶匹配得分。為驗證方法的有效性,選取了兩組真實社交網絡用戶數據集進行用戶匹配,與現有方法相比,準確率提升了0.40~10.53百分點,F1值提升了0.43~9.5百分點,驗證了所提方法能夠有效提取用戶簽到耦合特征。下一步研究將融合更多數據特征,進一步提高模型匹配精度。
參考文獻:
[1]邢玲, 鄧凱凱, 吳紅海, 等. 復雜網絡視角下跨社交網絡用戶身份識別研究綜述 [J]. 電子科技大學學報, 2020, 49(6): 905-917. (Xing Ling, Deng Kaikai, Wu Honghai, et al. Review of user identification across social networks: the complex network approach [J]. Journal of University of Electronic Science and Tech-nology of China, 2020, 49(6): 905-917.)
[2]陳鴻昶, 徐乾, 黃瑞陽, 等. 一種基于用戶軌跡的跨社交網絡用戶身份識別算法 [J]. 電子與信息學報, 2018, 40(11): 2758-2764. (Chen Hongchang, Xu Qian, Huang Ruiyang, et al. User identification across social networks based on user trajectory [J]. Journal of Electronics amp; Information Technology, 2018, 40(11): 2758-2764.)
[3]Chen Wei, Wang Weiqiang, Yin Hongzhi, et al. User account lin-kage across multiple platforms with location data [J]. Journal of Computer Science and Technology, 2020, 35(4): 751-768.
[4]馬強, 戴軍. 基于深度學習的跨社交網絡用戶匹配方法 [J]. 電子與信息學報, 2023, 45(7): 2650-2658. (Ma Qiang, Dai Jun. Deep learning based user matching method for cross social networks [J]. Journal of Electronics amp; Information Technology, 2023, 45(7): 2650-2658.)
[5]Yin Zhangfeng, Yang Yang, Fang Yuan. Link user identities across social networks based on contact graph and user social behavior [J]. IEEE Access, 2022, 10: 42432-42440.
[6]He Wenqiang, Li Yongjun, Zhang Yinyin, et al. A binary-search-based locality-sensitive hashing method for cross-site user identification [J]. IEEE Trans on Computational Social Systems, 2022, 10(2): 480-491.
[7]Qiu Liqing, Gu Chunmei, Zhang Shuang, et al. TSIM: a two-stage selection algorithm for influence maximization in social networks [J]. IEEE Access, 2020, 8: 12084-12095.
[8]Deng Kaikai, Xing Ling, Zhang Mingchuan, et al. A multiuser identification algorithm based on internet of things [J]. Wireless Communications and Mobile Computing, 2019, 2019: 6974809.
[9]Qi Mengjun, Wang Zhongyuan, He Zheng, et al. User identification across asynchronous mobility trajectories [J]. Sensors, 2019, 19(9): 2102.
[10]戴軍, 馬強. 基于用戶簽到的跨社交網絡用戶匹配 [J]. 計算機工程與應用, 2023, 59(2): 76-84. (Dai Jun, Ma Qiang. Cross-social network user matching based on user check-in [J]. Computer Engineering and Applications, 2023, 59(2): 76-84.)
[11]Li Yao, Cui Huiyuan, Liu Huilin, et al. Triple-layer attention mecha-nism-based network embedding approach for anchor link identification across social networks [J]. Neural Computing amp; Applications, 2022, 34(4): 2811-2829.
[12]Zheng Conghui, Pan Li, Wu Peng. CAMU: cycle-consistent adversarial mapping model for user alignment across social networks [J]. IEEE Trans on Cybernetics, 2022, 52(10): 10709-10720.
[13]Han Xiaohui, Wang Lianhai, Xu Shujiang, et al. Linking social network accounts by modeling user spatiotemporal habits [C]// Proc of IEEE International Conference on Intelligence and Security Informatics. Piscataway, NJ: IEEE Press, 2017: 19-24.
[14]Li Yongjun, Zhang Zhen, Peng You, et al. Matching user accounts based on user generated content across social networks [J]. Future Generation Computer Systems, 2018, 83: 104-115.
[15]Nie Yuanping, Jia Yan, Li Shudong, et al. Identifying users across social networks based on dynamic core interests [J]. Neurocompu-ting, 2016, 210: 107-115.
[16]Hao Tianyi, Zhou Jingbo, Cheng Yunsheng, et al. User identification in cyber-physical space: a case study on mobile query logs and trajec-tories [C]// Proc of the 24th ACM SIGSPATIAL International Conference on Advances in Geographic Information Systems. New York: ACM Press, 2016: 1-4.
[17]Lei Tianliang, Ji Lixin, Wang Gengrun, et al. Transformer-based user alignment model across social networks [J]. Electronics, 2023, 12(7): 1686.
[18]Tan Shulong, Guan Ziyu, Cai Deng, et al. Mapping users across networks by manifold alignment on hypergraph [C]// Proc of the 28th AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2014: 159-165.
[19]Han Xiaohui, Wang Lianhai, Xu Lijuan, et al. Social media account linkage using user-generated geo-location data [C]// Proc of IEEE Conference on Intelligence and Security Informatics. Piscataway, NJ: IEEE Press, 2016: 157-162.
[20]張偉, 李揚, 張吉, 等. 融合時空行為與社交關系的用戶軌跡識別模型[J]. 計算機學報, 2021, 44(11): 2173-2188. (Zhang Wei, Li Yang, Zhang Ji, et al. A user trajectory identification model with fusion of spatio-temporal behavior and social relation [J]. Chinese Journal of Computers, 2021, 44(11): 2173-2188.)
[21]Lee J Y, Hussain R, Rivera V, et al. Second-level degree-based entity resolution in online social networks [J]. Social Network Analysis and Mining, 2018, 8: 1-8.
[22]Li Yongjun, Ji Wenli, Gao Xing, et al. Matching user accounts with spatio-temporal awareness across social networks [J]. Information Sciences, 2021, 570: 1-15.
[23]Eunjoon C, Seth A M, Jure L. Friendship and mobility: user movement in location-based social networks [C]// Proc of the 17th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press, 2011: 1082-1090.