999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合BTM和BERT的短文本分類方法

2022-12-30 07:51:36付文杰馬紅明
計算機工程與設計 2022年12期
關鍵詞:分類文本方法

付文杰,楊 迪,馬紅明,吳 迪

(1.國網河北省電力有限公司 營銷服務中心,河北 石家莊 050000;2.河北工程大學 信息與電氣工程學院,河北 邯鄲 056038)

0 引 言

短文本因其內容簡短、易于閱讀的特性,廣泛存在于微博、短信、電力工單等載體中[1]。文本分類作為自然語言處理的基本任務,能夠為輿情分析、情感分析、個性化推薦等下游應用服務。因此,如何高效、精確地對短文本進行分類已經成為自然語言處理領域的難點與重點[2]。

針對文本長度長短不一和特征提取困難的問題,文獻[3]提出了一種基于LDA和深度學習的文本分類方法,但LDA更加適用于長文本。針對短文本存在高維和特征稀疏的問題,文獻[4]在短文本分類方法中,采用BTM挖掘潛在主題信息,充分考慮短文本特征,有效緩解了語義模糊的問題。

為充分提取短文本語義信息,文獻[5]提出了融合詞向量及BTM的分類方法BTM&Word2Vec,文獻[6]提出了一種基于BTM和Doc2Vec的分類方法BTM&Doc2Vec,上述文獻均采用主題模型和潛在特征向量模型對語料庫進行建模,向量拼接后輸入到SVM實現短文本分類。

針對Word2Vec與Doc2Vec模型在進行文本向量表示時,存在無法解決一詞多義的問題,文獻[7-9]提出了一種基于BERT的短文本分類方法,提高了中文短文本分類精度和魯棒性。

綜上所述,本文結合BTM和BERT模型優勢,提出一種融合BTM和BERT的短文本分類方法。分別采用BTM和BERT模型對預處理后的短文本集建模,提取文本主題特征信息和上下文語義信息,構建短文本特征向量,以增強語義表征能力,從而提高短文本分類精度。

1 相關技術

1.1 BTM模型

LDA和PLSA等傳統主題模型通過獲取詞語的共現信息來表示文本級的潛在主題,但在處理短文本時,存在嚴重的特征稀疏問題。而BTM模型通過對整個語料庫的詞對建模來提高主題學習的能力,有效克服了短文本特征稀疏的問題,較傳統主題模型能夠更好地理解短文本主題信息。BTM圖模型[4]如圖1所示,其符號含義見表1。

圖1 BTM圖模型

表1 BTM符號及其含義

假設Multi()表示多項分布,Dir()表示Dirichlet分布,則對于整個語料庫中的詞對,BTM建模過程如下[10]:

(1)對整個語料庫,采樣一個主題分布θ~Dir(α);

(2)對每一個主題z∈[1,K], 采樣主題-詞分布φz~Dir(β);

(3)對每一詞對b=(wi,wj), 采樣一個主題z~Multi(θ), 從采樣到的主題z中隨機抽取兩個詞wi、wj組成詞對b=(wi,wj)~Multi(φz)。

1.2 BERT模型

Word2Vec、GloVe作為詞嵌入模型只能獲得靜態的和上下文無關的詞向量,不能很好地表示不同上下文中詞的語義[11]。而BERT[12]基于雙向Transformer 結構生成上下文感知的動態詞向量,能夠更好地表示上下文語義信息[13]。BERT模型結構[14]如圖2所示。

圖2 BERT模型結構

圖2中,E1、E2、E3、…、En表示短文本中的字符,Trm表示Transformer編碼器,T1、T2、T3、…、Tn表示經過雙向Transformer編碼器后,獲得的字向量。

2 BTM&BERT方法

融合BTM和BERT的短文本分類方法BTM&BERT流程如圖3所示。首先,對短文本進行預處理;其次,采用BTM對預處理后的短文本集進行建模,獲得K維主題向量;再次,采用BERT模型對預處理后的短文本集進行建模,獲得句子級別的Q維特征向量;最后,將BTM與BERT建模獲得的特征向量進行拼接,獲得K+Q維短文本特征向量,輸入到Softmax分類器,獲得分類結果。

圖3 BTM&BERT流程

2.1 短文本預處理

原始語料庫數據,包含了很多無用信息,如符號、戶號等,需要對原始語料庫進行預處理來獲取比較規范的數據集。短文本預處理主要包括清洗過濾、分詞、去停用詞三部分。

第一部分:對短文本進行清洗過濾,以電力工單短文本為例,刪除“[”、“]”、“客戶×××來電反映”、“請盡快核實處理”等無意義的符號和語句,以此來減少數據噪聲,另外,過濾少于10個字符的超短文本,以及多于128個字符的長文本;

第二部分:基于jieba采用樹結構查找速度較快的優勢,以及較好地解決了過多的形容詞和副詞對計算概率與句子切分的影響[15]。因此,本文采用jieba分詞工具對短文本進行分詞,在分詞模塊中加入停用詞表和自定義詞表,使分詞更加的精確;

第三部分:對短文本進行去停用詞處理,刪除諸如“同時”、“的”、“現在”、“今天”、“一直”等意義不大的詞匯,減少文本的冗余度。

2.2 短文本特征向量構建

短文本特征向量構建主要包含3部分內容。首先,采用BTM對預處理后的短文本集進行建模,獲得K維主題向量;然后,采用BERT模型對預處理后的短文本集進行建模,獲得句子級別的Q維特征向量;最后,將BTM與BERT建模獲得的向量進行拼接,獲得K+Q維短文本特征向量。

2.2.1 BTM建模

BTM從文本的潛在語義方向建模,能夠有效解決TF-IDF、TF-IWF等統計方法忽略語義信息的問題。似于LDA,θ和φ是BTM主題模型中的隱含變量,因此需要從語料庫中的觀察變量詞項來估計參數θ和φ,本文采用吉布斯抽樣(Gibbs sampling)方法進行推斷,得到每個詞對b=(wi,wj) 的條件概率為

(1)

式中:z-b表示除了詞b以外的所有其它詞對的主題分配,B表示數據集中的詞對集,cz表示詞對b被分配給主題z的次數,cw|z表示詞w被分配給主題z的次數,W為詞匯表大小。

根據經驗,取α=50/K,β=0.01。 最終估計出主題分布θz、 主題-詞分布φw|z和文本-主題概率P(z|d)。θz和φw|z公式請參見文獻[16],P(z|d) 公式如下

(2)

式中:cd(b)表示文本d中包含詞對b的次數。

在獲得文本-主題概率P(z|d) 之后,選取每篇文本的文本-主題概率值P(z|d) 作為文本主題特征,獲得主題向量集dBTM={d1_BTM,d2_BTM,…,dn_BTM}, 其中,第n篇短文本主題向量可以表示為dn_BTM={p(z1|dn),p(z2|dn),…,p(zK|dn)}。

2.2.2 BERT建模

采用輸出句子級別向量的方式,即BERT模型輸出最左邊[CLS]特殊符號的向量,該符號對應的輸出向量作為整篇文本的語義表示。BERT模型輸出[17]如圖4所示。

圖4 BERT模型輸出

如圖4所示,[CLS]和[SEP]是BERT模型自動添加的句子開頭和結尾的表示符號,假設有某篇短文本s=[申請用電服務查詢密碼重置], 將其按照字粒度進行分字后可表示為s=[申、請、用、電、服、務、查、詢、密、碼、重、置], 經Word Embedding之后,得到s對應的字嵌入矩陣A=[a1,a2,a3,…,a12]T, 其中a12是對應“置”的向量表示,假設字向量維度為k, 則A是一個12*k的矩陣。然后,構建Q-Query、K-Key、V-Value這3個矩陣,分別來建立當前字與其它字的關系,并生成特征向量。其中,Q=AWQ、K=AWK、V=AWV。 接著,進行多頭自注意力計算,計算公式為

(3)

MultiHead(Q,K,V)=Concat(head1,head2,…,headh)WO

(4)

(5)

最后,將MultiHead與最初輸入的文本序列進行殘差連接,最終得到句子級別特征向量。

2.2.3 短文本特征向量拼接

將BTM建模獲得的文本特征向量集dBTM={d1_BTM,d2_BTM,…,dn_BTM} 與BERT建模獲得的句子級別文本特征向量集dBERT={v1,v2,…,vn} 進行對應拼接,獲得最終短文本特征向量集dBTM+BERT={d1_BTM+v1,d2_BTM+v2,…,dn_BTM+vn}, 其中第n篇短文本特征向量可以表示為dn_BTM+BERT={p(z1|dn),p(z2|dn),…,p(zK|dn),vn}。

2.3 Softmax分類

在獲得短文本特征向量集之后,采用Softmax回歸模型對短文本進行分類。假設有訓練樣本集 {(x1,y1),(x2,y2),(x3,y3),…,(xn,yn)}, 其中xn表示第n個訓練樣本對應的短文本特征向量,共n個訓練樣本,yn∈{1,2,…,m} 表示第n個訓練樣本對應的類別,m為類別個數,本文中m=4。

給定測試短文本特征向量x,通過Softmax回歸模型的判別函數hθ(x) 計算給定樣本x屬于第j個類別的概率,輸出一個m維向量,每一維表示當前樣本屬于當前類別的概率,出現概率最大的類別即為當前樣本x所屬的類別。Softmax 回歸模型的判別函數hθ(x) 為

(6)

(7)

通過判別函數hθ(x), 即可以實現短文本數據預測分類。

融合BTM和BERT的短文本分類方法(BTM&BERT)如算法1所示。

算法1: BTM&BERT

輸入:D={(d1,y1),(d2,y2),…,(dn,yn)}、Niter=1000、K、α=50/K、β=0.01

輸出: 短文本分類模型BB_model

(1) 對短文本集D進行預處理

(2) 為所有詞對隨機分配初始主題

(3) foriter=1 toNiterdo

(4) forbi∈Bdo

(5) 為每一個詞對分配主題zb

(6) 更新cz、cwi|z、cwj|z

(7) End for

(8) End for

(9) 計算主題分布θz和主題-詞分布φw|z

(10) 根據式(2)計算文本-主題概率P(z|d), 獲得主題向量集dBTM={d1_BTM,d2_BTM,…,dn_BTM}

(11) 采用BERT預訓練模型對預處理后的短文本集進行建模, 獲得句子級別的特征向量集dBERT={v1,v2,…,vn}

(12) 對文本向量集dBTM和dBERT進行拼接, 獲得短文本特征向量集dBTM+BERT

(13) 將短文本向量集dBTM+BERT輸入到Softmax 回歸模型進行訓練

(14) 輸出短文本分類模型BB_model

3 實驗結果與分析

3.1 實驗環境及數據

本實驗的環境為:操作系統為64位Win10家庭版,處理器為Intel Core(TM) i5-9300H,RAM為16 GB,語言環境為Python3.6,BTM建模環境為Ubuntu 16.04,BERT建模環境為tensorflow 1.14。

表2 實驗數據具體分布情況

實驗數據(部分)見表3。

表3 實驗數據(部分)

3.2 評價指標

本文采用Precision(精確率)、Recall(召回率)和F1-measure(F1值)3個指標對提出的BTM&BERT方法進行有效性分析。對應的混淆矩陣見表4,3個指標的計算公式如下所示

表4 分類結果的混淆矩陣

(8)

(9)

(10)

3.3 與其它短文本分類方法的比較

采用Google提供的BERT-Base模型進行訓練,BERT模型的網絡結構為12層,隱藏層為768維,注意力機制采用12頭模式,采用Adam優化器,學習率為0.001,dro-pout 為0.1。由于主題數目K值的選取會直接影響BTM的性能,所以本文在主題數目K值上進行了實驗,在BTM建模時,根據語料庫類別數,設置K=4,9,14 (以5為間隔),分析在不同K值下,對本文所提出的方法的影響。在不同K值下,本文提出的BTM&BERT方法在生產類非緊急業務、用電服務需求、用電異常核實、用電信息變更4個類別下的Precision、Recall和F1-measure結果見表5~表7。

表5 BTM&BERT在各個類別下的分類結果(K=4)

表6 BTM&BERT在各個類別下的分類結果(K=9)

表7 BTM&BERT在各個類別下的分類結果(K=14)

從表5~表7可以看出,在不同K值下,本文提出的BTM&BERT方法在各個類別下的Precision、Recall和F1-measure雖然有小幅度變化,但其分值均能達到0.8,表明主題數目K值對分類效果有一定地影響,但還是能夠對電力工單短文本進行較高精度的分類,在以后的工作中,可以考慮利用困惑度(Perplexity)[18]或者主題連貫性(Topic Coherence)[19]等方法優先確定最優主題數目K值,進一步提高短文本分類效果。

為了驗證BTM&BERT方法在分類精度上的優勢,本文將BTM&BERT方法與基于BTM的分類方法(BTM)、基于BERT的分類方法(BERT)、融合詞向量及BTM模型的分類方法(BTM&Word2Vec)以及基于BTM和Doc2Vec的分類方法(BTM&Doc2Vec)進行對比實驗。5種方法對應的Precision、Recall和F1-measure見表8~表10。

表8 5種方法對比實驗結果(K=4)

表9 5種方法對比實驗結果(K=9)

表10 5種方法對比實驗結果(K=14)

在不同K值下,各個類別下對應的F1-measure比較結果如圖5~圖7所示。

圖5 各個類別下對應的F1-measure比較(K=4)

圖6 各個類別下對應的F1-measure比較(K=9)

圖7 各個類別下對應的F1-measure比較(K=14)

從表8~表10以及圖5~圖7可以看出,與其它4種分類方法相比,本文提出的BTM&BERT方法在分類精度上取得了更好的效果。其中,對于BTM方法,提取文本主題特征來表示整體文本信息,無法準確全面地表示文本,分類精度最低;對于BTM&Word2Vec方法,利用BTM擴充Word2Vec文本向量,有效解決文本稀疏性問題,分類精度高于BTM方法,但利用Word2Vec表示文本向量無法解決一詞多義和文本語序的問題;對于BTM&Doc2Vec方法,有效解決了文本語序的問題,分類精度高于BTM&Word2Vec方法,但仍沒有解決一詞多義的問題;對于BERT方法,融合了字向量、文本向量和位置向量,該方法具有較強的文本表征能力,分類精度高于BTM、BTM&Word2Vec和BTM&Doc2Vec方法;對于本文提出的BTM&BERT方法,結合BTM和BERT的優勢,充分考慮文本上下文語義信息,并融合文本主題特征信息來豐富文本語義信息,分類精度高于BTM、BTM&Word2Vec、BTM&Doc2Vec和BERT這4種方法。

4 結束語

針對短文本特性,在BTM能夠有效解決短文本特征稀疏以及較高精度提取主題特征信息的基礎上,結合BERT預訓練語言模型強大表義能力的優勢,提出了一種融合BTM和BERT的短文本分類方法,并應用到電力工單短文本中。首先,對電力工單短文本集進行清洗過濾、分詞和去停用詞預處理操作;其次,采用BTM對預處理后的電力工單短文本集建模,獲得K維主題向量;再次,采用BERT對預處理后的電力工單短文本集建模,獲得句子級別的Q維特征向量;最后,將BTM與BERT獲得的特征向量進行拼接,獲得K+Q維文本特征向量,輸入到Softmax分類器,獲得電力工單短文本分類結果。實驗結果表明,BTM&BERT方法與BTM、BTM&Word2Vec、BTM&Doc2Vec以及BERT方法相比,在精確率、召回率以及F1值3個指標上,對電力工單短文本分類任務表現出更優效果,有效提高了電力工單短文本分類精度。在今后工作中,將對BTM進行優化,提高短文本主題特征信息提取精度,以進一步提高短文本分類性能。

猜你喜歡
分類文本方法
分類算一算
在808DA上文本顯示的改善
分類討論求坐標
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
數據分析中的分類討論
教你一招:數的分類
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 99国产精品一区二区| 国产免费精彩视频| 亚洲综合在线网| 日韩精品成人网页视频在线| 熟女成人国产精品视频| 成人a免费α片在线视频网站| 国产欧美日韩精品第二区| 乱人伦99久久| 天天干伊人| 国产欧美视频在线| jizz国产视频| 久996视频精品免费观看| 三上悠亚精品二区在线观看| 中文字幕亚洲综久久2021| 97久久精品人人| 日韩欧美中文字幕在线韩免费| 欧美va亚洲va香蕉在线| 狠狠色成人综合首页| 永久在线精品免费视频观看| 久热re国产手机在线观看| 国产精品亚洲五月天高清| 免费又爽又刺激高潮网址| 亚洲丝袜第一页| 四虎永久免费地址在线网站| 国产男女XX00免费观看| 亚洲国产系列| 亚洲高清在线播放| 欧美日韩一区二区在线播放| 国产精品不卡片视频免费观看| 国产爽爽视频| 先锋资源久久| 国产成人精品日本亚洲77美色| 中文字幕欧美成人免费| 国产丰满大乳无码免费播放 | 极品av一区二区| 国产后式a一视频| 中文字幕乱码中文乱码51精品| 茄子视频毛片免费观看| 天堂岛国av无码免费无禁网站| 亚欧美国产综合| 久久视精品| 成年人视频一区二区| 日韩欧美成人高清在线观看| 88av在线| 色悠久久久久久久综合网伊人| 不卡国产视频第一页| 亚洲色欲色欲www网| 国产又粗又爽视频| 精品视频一区在线观看| 日日拍夜夜操| 欧美a级在线| 久久影院一区二区h| 在线欧美一区| 亚洲成人动漫在线观看 | 日韩欧美在线观看| 97人妻精品专区久久久久| 日韩福利视频导航| 精品国产欧美精品v| 熟妇丰满人妻av无码区| 亚洲日本中文字幕乱码中文| 日本a级免费| 亚洲成a人片在线观看88| 一本色道久久88| 成年人视频一区二区| 91久久夜色精品| 亚洲国产日韩一区| 色妞www精品视频一级下载| 亚洲第一中文字幕| 国产精品欧美在线观看| 国产一二三区在线| 国产精品久久久精品三级| 一本大道香蕉中文日本不卡高清二区 | 亚洲国产第一区二区香蕉| 性色生活片在线观看| 亚洲精品波多野结衣| 亚洲不卡无码av中文字幕| 91精品视频在线播放| 国产精品久久精品| 伊人色综合久久天天| 欲色天天综合网| 国产在线97| 亚洲伊人电影|