999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進CapsNet的文本自殺風險檢測模型

2024-09-13 00:00:00陳彬李鴻燕梁卓
現代電子技術 2024年14期
關鍵詞:特征提取

摘" 要: 針對現有模型未充分利用社交媒體中文本歷史動態信息進行自殺風險檢測的問題,引入CapsNet模型。在CapsNet模型中,層與層之間傳遞的是有向神經元組,能夠更好地感知長文本中的空間信息,發現社交媒體用戶的情感趨勢,為自殺風險檢測提供依據。文中對CapsNet模型進行改進,首先改變尺度空間,增加網絡寬度,充分提取隱藏在句子中的特征信息;其次,使用指數函數對Squash函數進行優化,放大膠囊輸出,充分利用膠囊提取用戶歷史動態中的特征信息;最后,在動態路由中采用優化算法對耦合系數進行初始化,去除噪聲膠囊的干擾。使用預訓練的SBERT模型對社交媒體文本數據進行特征提取,得到改進CapsNet文本自殺風險檢測模型二分類的準確率達到95.93%,F1分數達到95.86%,優于自殺風險檢測的其他模型。

關鍵詞: CapsNet模型; 自殺風險檢測; 社交媒體; 長文本信息; 特征提取; SBERT模型

中圖分類號: TN911.25?34; TP391" " " " " " " " " "文獻標識碼: A" " " " " " " " " 文章編號: 1004?373X(2024)14?0009?06

Improved CapsNet text suicide risk detection model

CHEN Bin, LI Hongyan, LIANG Zhuo

(College of Electronic Information and Optical Engineering, Taiyuan University of Technology, Jinzhong 030600, China)

Abstract: In allusion to the problem that the existing models do not make full use of the historical dynamic information of text in social media for suicide risk detection, the CapsNet model is introduced. In the CapsNet model, groups of directed neurons are transmitted between layers, which can better perceive spatial information in long texts, find emotional trends of social media users, and provide a basis for suicide risk detection. The CapsNet model is improved. The scale space is changed and the network width is increased to fully extract the feature information hidden in the sentence. The exponential function is used to optimize the Squash function, so as to enlarge the capsule output, and make full use of the capsule to extract the feature information in user's historical dynamics. In dynamic routing, an optimization algorithm is used to initialize the coupling coefficient to remove the interference of noisy capsules. The pre?trained SBERT model is used to extract features of social media text data. The binary classification accuracy of the improved CapsNet text suicide risk detection model can reach 95.93%, and the F1 score can reach 95.86%, which is better than other models of suicide risk detection.

Keywords: CapsNet model; suicide risk detection; social media; long text information; feature exteraction; SBERT model

0" 引" 言

據世界健康組織(World Health Organization, WHO)的數據,自殺已經成為全球三大死因之一,每30 s就有1人死于自殺,而這個問題在青少年中更為明顯。研究人員發現,抑郁癥是導致自殺的主要原因之一,全球每年因抑郁而自殺人數高達100萬人,自殺未遂的人更是自殺人數[1]的20倍。因此,對抑郁癥患者進行自殺風險檢測的研究十分必要。

隨著Reddit、Twitter等社交媒體的流行,越來越多的人喜歡在網絡上分享自己的心情和生活,社交媒體也成為人們傾訴心情的一種方式,甚至具有自殺風險的人在社交媒體上公開自己的自殺想法和計劃[2]。A. Lamont?Mills等證實,有自殺風險的人在網絡上的表達與他們的真實情緒幾乎一致,這也激勵了更多的研究人員考慮從社交媒體中獲取用戶在試圖自殺時的想法和情感狀態[3]。Ji等使用長短期記憶(Long Short?Term Memory, LSTM)[4]網絡增強了文本表示和情感詞典之間的關系,并建立了自殺風險和抑郁癥的分類模型,使用注意力機制來關注更加重要的關系特征,在Reddit等三個數據集上取得了優于同行的表現[5]。M. M. Tadesse等使用LSTM與卷積神經網絡(Convolutional Neural Network, CNN)的組合模型對來自Reddit的帖子進行自殺風險檢測,發現神經網絡結構和詞嵌入技術的結合可以實現更好的分類結果[6]。A. Haque等使用基于Transformer的雙向編碼(Bidirectional Encoder Representations from Transformer, BERT)[7]模型進行特征提取[8],無監督地統一流形逼近和投影(Uniform Manifold Approximation and Projection, UMAP)[9]聚類算法對Reddit數據集標簽進行校正。采用雙向長短期記憶(Bi?directional Long Short?Term Memory, BiLSTM)[10]網絡和門控循環單元(Gate Recurrent Unit, GRU)[11]的混合模型進行自殺風險的檢測,達到了較好的效果。

由于自殺風險并不是突發性的,它是由持續的情緒低落引起的,所以長距離的語義信息就顯得尤為重要。現階段,自殺風險也已經被證明和歷史狀態高度相關[1],但是現有的研究并沒有充分利用社交媒體用戶的歷史動態數據進行自殺風險的檢測,從而導致自殺風險檢測丟失了重要的文本歷史情感依據。為了解決上述問題,本文提出一種改進CapsNet的自殺風險檢測模型。

1" 改進CapsNet的自殺風險檢測模型

1.1" 網絡框架

本文提出一種改進CapsNet的自殺風險檢測模型,模型主要分為三個部分:特征預處理、改進CapsNet模型和分類輸出,模型結構如圖1所示。

本文使用經過預訓練的SBERT模型[12]進行特征預處理,提取原始文本中的語義特征;再將語義特征輸入到多尺度的改進CapsNet模型中,三個尺度的信息經過卷積、改進Squash函數和優化的動態路由等,成為更高級的特征;最后通過池化共同參與分類的決策。

1.2" 改進CapsNet模型

CapsNet是由Sabour等在2017年提出的一種稱為膠囊網絡的方法,相對于傳統的卷積神經網絡,CapsNet的層與層之間傳遞的是矢量而不是標量,使其對于文本空間信息更加敏感,能夠更好地從文本數據中發掘社交媒體用戶的情感走向,為自殺風險檢測提供長期文本依賴[13]。本文對CapsNet進行改進:首先,分別使用大小為3×3、4×4和5×5的卷積核對語義特征進行卷積,充分提取位于句子不同位置的特征;其次,使用[ex]形式的指數函數對非線性Squash激活函數進行優化,將膠囊放大輸出,更好地捕捉文本語序和詞組的特征;最后,在動態路由中,采用優化算法[14]代替Softmax函數對耦合系數[c]進行初始化,在不增加計算量的基礎上規避噪聲的干擾。

圖2所示為卷積核大小為3×3的改進CapsNet模型結構,其輸入為SBERT模型,提取并使用Reshape重整得到的28×28特征矩陣。

第1層Conv層是一個標準的卷積層,使用128個3×3、步長為1的卷積提取位于句子不同位置的特征,激活函數為ReLU,輸出為26×26×128的標量。

第2層PrimCaps層是第一個膠囊層,使用256個9×9、步長為2的卷積提取更深層次的特征。在膠囊網絡中,每一個膠囊輸出矢量的長度代表該膠囊在當前輸入中的概率。因此,激活函數就要將模長較小的矢量收縮到0,而模長較大的矢量收縮到1。膠囊網絡中使用Squash函數作為激活函數,公式如下:

[v=s21+s2·ss] (1)

式中:[s]為輸入;[v]為輸出。本文使用[ex]形式的指數函數對Squash函數進行優化,優化后Squash函數公式如下:

[v=1-e-s2ss] (2)

優化的Squash函數可以將膠囊放大輸出,讓更多的膠囊參與到計算中,充分利用膠囊提取文中的情感信息。優化的Squash函數使輸出變為9×9×8×32的矢量,即維度為8的2 592個初級膠囊,膠囊中保留了卷積提取到的單詞語義及順序等實例化參數,使模型對歷史動態數據更加敏感。

第3層ConvCaps層是第二個膠囊層,使用128個7×7、步長為1的卷積進一步提取空間信息,使用優化的Squash激活函數,將初級膠囊轉換為3×3×8×16的矢量,即維度為8的144個中級膠囊,中級膠囊中保留更為復雜的特征。

在動態路由中,本文使用優化算法代替Softmax函數對耦合系數[c]進行初始化,可以在不增加運算量的前提下減輕噪聲膠囊的干擾。優化算法對耦合系數[c]的初始化步驟如下。

1) 在特征傳遞系數[b]前增加一列0,得到[b']。

2) 對[b']的行使用Softmax進行初始化,得到[c']。

3) 刪除[c']的第一列,得到耦合系數[c]。

改進的動態路由算法步驟如下。

1) 對特征傳遞系數[b]初始化,[l]層膠囊[i]到[l+1]層膠囊[j]的特征傳遞系數[bij←0]。

2) 在膠囊網絡中引入膠囊耦合系數[c],[l]層的膠囊[i]傳遞到[l+1]層的膠囊[j],得到[l+1]層的膠囊耦合系數[c],公式為:

[cij=f(bij)] (3)

式中[f(?)]為優化算法。

3) [l]層的膠囊特征[ui]傳遞到[l+1]層的膠囊[j],得到[l+1]層的膠囊特征[sj],公式為:

[sj=i=1kcijuji] (4)

式中:[uji=Wijui],[Wij]為權重,由誤差反向傳播更新。

4) 膠囊特征的長度代表特征概率的大小,使用優化的Squash函數保證[l+1]層膠囊特征[sj]的長度壓縮到0~1的范圍內,公式為:

[vj=1-e-sj2sjsj] (5)

式中[vj]為[l+1]層膠囊[j]壓縮后的特征。

5) 以迭代的方式更新[l]層膠囊[i]到[l+1]層膠囊[j]的特征傳遞系數[bij],本文迭代次數為3,公式為:

[bij=bij+uji×vj] (6)

第5層使用L2正則化,使分類器運用盡可能多的高級膠囊進行分類,從而提升模型的泛化能力。損失函數為二元交叉熵損失函數,公式為:

[BCELoss=-1Ni=1Nyi?log(p(yi))+(1-y)?" " " " " " " " " " " " log(1-p(yi))] (7)

式中:[yi]表示樣本[i]的標簽(抑郁或自殺);[p(yi)]表示樣本[i]真實標簽的預測值。

動態路由原理圖如圖3所示。

2" 實驗設計

2.1" 實驗環境及數據集

實驗所用的硬件配置為英特爾至強處理器;RAM為13 GB;GPU為NVIDIA TESLA?P100 16 GB;操作系統為Linux;實驗平臺為Python3.7,Keras2.11+TensorFlow 2.11框架。

數據集使用PushshuftAPI按照時間順序在社交媒體Reddit網站上收集,本文收集了“自殺觀察”板塊下從創建之初到2021年1月2日的所有帖子。“抑郁癥”板塊下從2009年1月1日—2021年1月2日的所有帖子,一共收集到232 074條數據,來自“自殺觀察”板塊的樣本數據標記為“自殺”,來自“抑郁癥”板塊的樣本數據標記為“抑郁”。

由于Reddit是一個網絡社交媒體,用戶的表達方式并不規范,表達方式各有不同,有些用戶喜歡使用疊詞,有些用戶喜歡轉發網頁,有些用戶喜歡使用表情,使得文本中存在不利于自殺風險檢測的噪聲。為得到一個干凈的文本數據集,通過自然語言處理技術對其進行處理和篩選,即刪除所有標點,刪除疊詞,刪除所有含有表情和超鏈接的帖子,對同一用戶ID發出的帖子進行整合。最后,一共篩選出7 730個用戶的數據,其中,標簽為“自殺”的用戶有3 830個,“抑郁”的用戶有3 900個,可近似看作是一個平衡的數據集。

2.2" 評價指標

本文使用準確率(Acc)和F1分數2個評價指標來對自殺風險檢測模型進行評價,參數定義如下。

準確率為預測正確的樣本占總樣本數的比例,公式如下:

[Acc=TP+TNTP+FP+TN+FN×100%] (8)

F1分數為召回率和精確度的加權平均,可以表征模型的穩健程度,公式如下:

[F1=2×TP2TP+FP+FN×100%] (9)

式中:TP表示實際為正被預測為正的樣本數量;FP表示實際為負但被預測為正的樣本數量;TN表示實際為負被預測為負的樣本數量;FN表示實際為正但被預測為負的樣本數量。

2.3nbsp; 不同尺度的CapsNet

為探究不同尺度大小對模型性能的影響,本文對CapsNet模型進行二分類實驗,三層卷積層的步長分別為1、2、2,卷積核大小及實驗結果如表1所示。實驗結果表明,CapsNet模型在卷積核尺度分別為5×5、7×7和9×9時,檢測模型可以有效地提取社交媒體用戶推文中的情感特征,使模型性能達到最佳,正確率為93.59%,F1分數為93.37%,并以此模型作為CapsNet基線模型。

2.4" 增加網絡寬度的多尺度CapsNet

為探究增加網絡寬度以及改變尺度空間對模型性能的影響,在CapsNet模型的基礎上,增加兩條采用不同尺度空間的分支網絡,卷積核組合及實驗結果如表2所示。

對比表2和表1數據可知,增加網絡寬度可以有效提升模型性能。當卷積核組合為3×3、5×5和5×5,5×5、3×3和1×1,5×5、7×7和9×9時,增加網絡寬度的多尺度CapsNet模型的性能達到最佳,正確率可達94.70%,F1分數可達94.63%,相較于單通道的CapsNet基線模型,正確率提高1.11%,F1分數提高1.26%。

2.5" 優化Squash函數的實驗

為驗證本文優化Squash函數的有效性,使用優化的Squash函數對CapsNet模型進行實驗,實驗結果如表3所示。

表3實驗結果表明,優化的Squash函數能夠放大膠囊輸出,將靠近0的膠囊放大輸出,讓更多的膠囊參加到向量的計算中,從而更加充分地發掘空間位置信息;相較于CapsNet基線模型,加入優化Squash函數正確率提升1.16%,F1分數提升1.28%。增加網絡寬度的多尺度CapsNet在使用優化Squash函數后,性能也在一定程度上得到了提升,相較于最優的多尺度CapsNet,正確率最大提升0.73%,F1分數最大提升0.70%。

2.6" 改進動態路由的實驗

為驗證本文改進動態路由的有效性,使用改進的動態路由對CapsNet模型進行實驗,實驗結果如表4所示。

表4實驗結果表明,改進的動態路由能夠去除噪聲的干擾,更加準確地確定耦合系數,使CapsNet模型的性能得到提升;相較于CapsNet模型,改進動態路由能夠帶來正確率1.72%和F1分數1.91%的性能提升。多尺度CapsNet模型使用優化Squash函數和改進動態路由后,性能達到最佳,正確率可達95.93%,F1分數可達95.86%,相較于CapsNet模型,正確率和F1分數分別提升2.34%和2.49%。

2.7" 不同研究方法對比

為進一步驗證本文模型的有效性,將本文模型與其他自殺風險檢測相關文獻的模型進行比較,對比結果如表5所示。

由表5可知,本文改進CapsNet的準確率能夠達到95.93%,F1分數達到95.86%,優于自殺風險監測領域的其他分類器。相較于文獻[16]中表現最優的GRU+注意力模型,準確率高出1.48%,F1分數高出0.84%。

3" 結" 語

根據自殺風險檢測對歷史動態有著強烈的依賴這一特性,本文提出一種基于改進CapsNet的自殺風險檢測模型。在改進CapsNet模型中,增加網絡寬度的多尺度卷積核,能從長文本信息中提取隱藏在單詞和短語中的豐富信息;優化Squash激活函數能夠放大膠囊輸出,充分發掘文本中的空間位置信息;改進的動態路由可以去除噪聲膠囊的干擾,更加準確地計算網絡參數。

在未來的工作中,本文將考慮增加用戶的其他信息,如性別、職業和年齡等來擴充用戶特征,使自殺風險檢測的準確性進一步提升。

注:本文通訊作者為李鴻燕。

參考文獻

[1] SAWHNEY R, JOSHI H, GANDI S, et al. A time?aware transformer based model for suicide ideation detection on social media [C]// Association for Computational Linguistics. [S.l.]: ACM, 2020: 7685?7697.

[2] ROHAN M, PRADYUMN P S, RAMIT S, et al. SNAP?BATNET: cascading author profiling and social network graphs for suicide ideation detection on social media [C]// Association for Computational Linguistics. [S.l.]: ACM, 2019: 147?156.

[3] LAMONT?MILLS A, BAYLISS L T, CHRISTENSEN S A. Online suicidal thoughts and/or behaviours talk: a scoping review protocol [J]. PLoS One, 2022, 17(10): e0276776.

[4] LIU Q, JIA M, GAO Z, et al. Correntropy long short term memory soft sensor for quality prediction in industrial polyethylene process [J]. Chemometrics and intelligent laboratory systems, 2022, 231: 104678.

[5] JI S, LI X, HUANG Z, et al. Suicidal ideation and mental disorder detection with attentive relation networks [J]. Neural computing amp; applications, 2022, 34(13): 10309?10319.

[6] TADESSE M M, LIN H, XU B, et al. Detection of suicide ideation in social media forums using deep learning [J]. Algorithms, 2020, 13(1): 7?26.

[7] DEVLIN J, CHANG M W, LEE K, et al. BERT: pre?training of deep bidirectional transformers for language understanding [C]// Conference of the North?American?Chapter of the Association for Computational Linguistics. [S.l.]: ACM, 2019: 4171?4186.

[8] HAQUE A, REDDI V, GIALLANZA T. Deep learning for suicide and depression identification with unsupervised label correction [C]// International Conference on Artificial Neural Networks. [S.l.]: IEEE, 2021: 436?447.

[9] MCINNES L, HEALY J. UMAP: uniform manifold approximation and projection for dimension reduction [J]. The journal of open source software, 2018, 3(29): 861?924.

[10] ZHANG Z, ZHANG W, YANG K, et al. Remaining useful life prediction of lithium?ion batteries based on attention mechanism and bidirectional long short?term memory network [J]. Measurement, 2022, 204: 112093?112105.

[11] ZARZYCKI K, ?AWRY?CZUK M. Advanced predictive control for GRU and LSTM networks [J]. Information sciences, 2022, 616: 229?254.

[12] REIMERS N, GUREVYCH I. Sentence?bert: Sentence embeddings using siamesebert?networks [EB/OL]. [2023?07?18]. https://www.xueshufan.com/publication/2970641574.

[13] SABOUR S, FROSST N, HINTON G E. Dynamic routing between capsules [C]// Advances in Neural Information Processing Systems. [S.l.]: ACM, 2017: 1?11.

[14] ZHAO W, YE J, YANG M, et al. Investigating capsule networks with dynamic routing for text classification [C]// Conference on Empirical Methods in Natural Language Processing. Baltimore, MD, USA: IEEE, 2018: 3110?3119.

[15] XUE Y, LI Q, WU T, et al. Incorporating stress status in suicide detection through microblog [J]. International journal of computer systems science amp; engineering, 2019, 34(2): 65?78.

[16] CAO L, ZHANG H, WANG X, et al. Learning users inner thoughts and emotion changes for social media based suicide risk detection [J]. IEEE transactions on affective computing, 2023, 14(2): 1280?1296.

猜你喜歡
特征提取
特征提取和最小二乘支持向量機的水下目標識別
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
基于DNN的低資源語音識別特征提取技術
自動化學報(2017年7期)2017-04-18 13:41:09
Bagging RCSP腦電特征提取算法
一種基于LBP 特征提取和稀疏表示的肝病識別算法
基于DSP的直線特征提取算法
基于改進WLD的紋理特征提取方法
計算機工程(2015年4期)2015-07-05 08:28:02
淺析零件圖像的特征提取和識別方法
機電信息(2015年3期)2015-02-27 15:54:46
基于CATIA的橡皮囊成形零件的特征提取
主站蜘蛛池模板: 久久精品这里只有国产中文精品| 在线播放精品一区二区啪视频| 在线精品亚洲一区二区古装| 亚洲欧美成人| 亚洲男人天堂2020| 免费看a级毛片| 五月天香蕉视频国产亚| 国产精品丝袜视频| 亚洲日韩精品综合在线一区二区| 无码精品福利一区二区三区| 色悠久久久| 亚洲精品麻豆| 国产精品伦视频观看免费| 青青草a国产免费观看| 色天天综合| 青青久视频| 一级福利视频| 激情无码字幕综合| 香蕉综合在线视频91| 伊人久综合| 国内丰满少妇猛烈精品播| 免费看美女自慰的网站| 国产高清毛片| 国产乱子伦精品视频| 精品福利网| 伊人久久久大香线蕉综合直播| 欧美另类图片视频无弹跳第一页| 91久草视频| 青青草一区二区免费精品| 国产九九精品视频| 国内精自线i品一区202| 国产美女无遮挡免费视频| 欧美一级在线看| 亚洲无码视频一区二区三区| 97视频免费在线观看| 国产精品19p| 福利视频99| 欧美成人综合视频| 亚洲丝袜中文字幕| av免费在线观看美女叉开腿| 亚洲侵犯无码网址在线观看| 久久国产香蕉| 久久伊人色| 亚洲AV电影不卡在线观看| 国产一级毛片网站| 国产簧片免费在线播放| 欧美亚洲激情| 五月天天天色| 久久国产精品波多野结衣| 成年网址网站在线观看| 午夜无码一区二区三区| 大香伊人久久| 日韩在线第三页| 精品视频91| 91视频青青草| 国产亚洲高清在线精品99| 国产AV无码专区亚洲A∨毛片| 综合天天色| 青青草原国产免费av观看| yy6080理论大片一级久久| 国内精品免费| 在线一级毛片| 婷婷开心中文字幕| 久久中文无码精品| 精品福利视频导航| 国产99免费视频| 欧美在线导航| 亚洲综合一区国产精品| 99国产精品一区二区| 91精品视频网站| 国产欧美日韩免费| 国产成人精品男人的天堂| 国产青榴视频在线观看网站| 91无码网站| 99久久亚洲精品影院| 国产女人水多毛片18| 无码在线激情片| 国产女人水多毛片18| 免费可以看的无遮挡av无码| 久久中文字幕2021精品| 国产成人午夜福利免费无码r| 精品国产自在现线看久久|