999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合漢字輸入法的BERT與BLCG的長文本分類研究

2024-05-11 03:33:36楊文濤雷雨琦李星月鄭天成
計算機工程與應用 2024年9期
關鍵詞:分類特征文本

楊文濤,雷雨琦,李星月,鄭天成

1.華中科技大學集成電路學院,武漢 430074

2.湖北大學知行學院人文學院,武漢 430011

隨著自然語言處理研究的不斷發展,文本分類作為其重要內容,被廣泛應用于信息檢索、新聞分類、情感分析、垃圾郵件過濾等領域[1-4]。隨著互聯網的普及,文本數據的規模不斷的擴增[5]。在大數據時代,如何精準進行文本信息的分類成為當代研究的焦點[6]。

基于深度學習的文本分類的研究主要圍繞文本表示、特征提取和特征分類三個方面。針對文本表示一般采用詞嵌入方式,Google團隊提出了Word2Vec[7]詞向量訓練工具,可以從大規模沒有標注的語料中高效地生成詞的向量表示,并提供了CBOW和SKip-gram這兩種模型。Pennington等人[8]提出Glove模型,基于全局詞頻統計的詞表征工具,考慮文本的局部信息和整體信息。然而,Word2Vec 與Glove 文本表示是靜態的映射關系,沒有考慮到在不同語境下詞匯含義不同的問題,因此Google 團隊在Transformer 模型[9]的基礎上,提出了BERT(bidirectional encoder representations from transformers)模型[10],動態生成詞匯的向量表示,解決了一詞多義的問題。但是BERT模型最初為英文設計,對于中文文本分類,它忽略了中文特有的兩個重要信息:讀音、筆畫,在一定程度上降低了模型的準確性。本文在BERT模型的基礎上,融合五筆輸入表示漢字的筆畫,充分表示漢字的語義信息;通過拼音輸入表示漢字讀音,解決中文的多音詞問題。

在特征提取領域,卷積神經網絡[11]與循環神經網絡[12]的結合在文本分類中層出不窮。Lai等人[13]提出了一種循環卷積神經網絡用于文本分類,該模型選擇的是BiRNN和CNN的結合,利用了兩種模型的優點,提升了文本分類的性能。但是,RNN 存在梯度消失和梯度爆炸等問題,為此,Zhang 等人[14]提出了LSTM 和CNN 的混合模型,文獻[15]提出了CNN 和LSTM 的混合模型。為了更好地獲取文本的上下文特征,文獻[16]提出了BiLSTM-CNN方法,采用BiLSTM模型獲得兩個方向的表示,然后通過卷積神經網絡將兩個方向的表示組合成一個新的表達式。然而,上述模型沒有考慮到長文本中可能包含部分與目標主題無關的信息導致模型誤判問題。為此,本文提出了門控機制動態的融合BiLSTM提取的全局特征信息與CNN 提取的局部特征信息,通過組合局部特征信息與全局特征信息,提高了長文本分類的準確性。

為了兼顧文本表示和文本特征提取,提高基于深度學習的中文長文本分類準確性。本文提出基于CIMBERT與BLCG相結合的中文文本分類。本文的貢獻如下:

(1)在BERT 模型的基礎上,通過拼音輸入法與五筆輸入法融入了讀音與筆畫兩個重要的漢字信息,增強了漢字的語義信息,解決了中文常見的多音詞問題。

(2)提出門控機制動態的組合BiLSTM提取的全局特征信息與CNN 提取的局部特征信息,解決了長文本中部分文本偏離主題,導致模型誤判的問題,提升長文本分類的準確性。

在THUCNews與Sogou數據集上的實驗表明,本文提出的分類模型精度較高。

1 模型分析

本文提出的模型由輸入層、文本表示層、信息提取層和分類層4 部分組成。其中,對于輸入層,獲取輸入文本的拼音嵌入向量與五筆嵌入向量,通過融合層與字嵌入向量進行融合,得到的融合嵌入向量與位置嵌入向量相加,作為整個模型的輸入。文本表示層使用BERT模型對輸入層傳入的向量進行文本表示。信息提取層首先使用BiLSTM提取文本的全局特征信息,然后通過CNN 提取文本的局部特征信息。為了避免在長文本中,部分文本偏離目標主題導致的模型誤判,使用門控機制動態地結合全局特征信息與局部特征信息,提高分類的準確性。最后將門控輸出結果通過分類層獲取最終的分類結果。模型的整體架構如圖1所示。

圖1 系統模型架構Fig.1 System model architecture

1.1 輸入層

在輸入層中,首先獲取輸入文本的字嵌入向量、拼音嵌入向量與五筆嵌入向量,三種向量通過融合層獲取融合嵌入向量,最后與位置嵌入向量進行相加,作為模型的輸入。下面將詳細介紹如何獲取拼音嵌入向量、五筆嵌入向量與融合嵌入向量。

1.1.1 拼音嵌入向量

在輸入向量中引入拼音嵌入向量是為了解決多音漢字的識別問題。本文采用開源的pypinyin 包生成指定漢字的拼音,構建了自定義拼音字母數字對應表,將拼音字母轉化為數字,并在拼音字符最后拼接讀音,每個漢字對應的拼音向量長度為8,如果長度不夠使用0進行填充。通過拼音向量的引入,可以有效地區分多音漢字不同的語義。最后,通過CNN 將初始的拼音向量轉化為拼音嵌入向量。獲取拼音嵌入向量的方法如圖2所示。

圖2 拼音嵌入向量生成Fig.2 Procedure of creating Pinyin embedding vector

1.1.2 五筆嵌入向量

在輸入向量中引入筆畫信息是為了充分表示漢字的語義信息。五筆輸入完全依據筆畫和字形特征對漢字進行編碼,是典型的形碼輸入法,可以表示漢字的筆畫信息。本文使用98 版五筆構建漢字五筆對應表,通過漢字五筆對應表獲取漢字的五筆表示,然后使用字母數字對應表獲取數字向量,最后通過CNN 將初始的五筆向量轉化為五筆嵌入向量。漢字的五筆嵌入向量獲取如圖3所示。

圖3 五筆嵌入向量生成Fig.3 Procedure of creating Wubi embedding vector

1.1.3 融合嵌入向量

漢字的字嵌入向量可以通過詞表對應獲取,當獲得了漢字的字嵌入向量、拼音嵌入向量、五筆嵌入向量后,按列維度進行拼接,最后通過全連接層進行降維,得到融合嵌入向量。與位置嵌入向量進行相加,作為整個模型的輸入向量,融合嵌入向量的獲取如圖4所示。

圖4 融合嵌入向量生成Fig.4 Procedure of creating fusion embedding vector

1.2 文本表示層

文本表示層用于將輸入文本表示為特征向量。本文采用BERT模型進行文本表示。BERT模型通過由雙向Transformer 模型組成,可以根據上下文信息動態地生成詞匯的向量表示,解決了一詞多義的問題,BERT模型的結構如圖5所示。

圖5 BERT模型圖Fig.5 Structure of BERT model

圖5 中,Ei表示當前語句中第i個詞,Trm 表示Transformer模型,Ti為第i個詞對應的特征向量。

1.3 信息提取層

信息提取層采用BiLSTM 模型提取文本的全局特征信息,使用CNN提取文本的局部特征信息。最終,為了解決長文本中可能出現的部分文本偏移目標主題導致模型誤判的問題,本文提出了門控機制動態組合全局特征信息與局部特征信息,解決了上述問題。

1.3.1 BiLSTM模型

本文使用BiLSTM 提取文本的全局特征信息。BiLSTM 包含了前向傳播與反向傳播LSTM,分別從正向和反向獲取文本的全局信息。LSTM 單元如圖6 所示,LSTM由遺忘門、輸入門、輸出門以及內部記憶單元組成。

圖6 LSTM模型圖Fig.6 Structure of LSTM

對于BiLSTM,每一時刻t,都有前向傳播的LSTM和反向傳播的LSTM分別計算出隱藏層ht和ht′,然后對ht與ht′進行拼接,作為t時刻的BiLSTM的輸出,見公式(1):

對于整個BiLSTM,可以得到輸出為:

1.3.2 CNN模型

本文采用CNN提取文本的局部特征信息。CNN主要包含了卷積層和池化層。卷積層是CNN 模型的核心,它包含若干個卷積核,通過卷積核與輸入向量的卷積操作進行特征的提取。池化層的目的是對卷積結果進行采樣,減小卷積向量的大小,避免過擬合。池化方法分為最大池化和平均池化。在文本分類中,最大池化可以保留文本的關鍵信息。

1.3.3 門控機制

在長文本分類中,文本中常常攜帶著與目標主題無關的信息,甚至部分文本與其他主題有關,在使用CNN做局部特征提取時可能會提取到其他的主題信息,導致模型的誤判,因此,保留全局特征信息是非常有必要的。在本文中,提出了一種門控機制,可以動態地對局部特征信息與全局特征信息分配權重并相加。通過門控機制可以有效地提高長文本分類的準確度。門控機制的計算公式見公式(3)~(5):

其中,M為CNN輸出的向量,H為BiLSTM輸出的hn與h1′的拼接,α1為H的權重,W與b分別表示權重矩陣與偏置向量,Z表示經過門控機制最終的向量輸出。

1.4 分類層

將門控機制輸出的向量Z分別經過全連接層進行降維,并最終由Softmax函數決定輸出的標簽類別,分類層的計算見公式(6):

其中,a表示當前標簽種類,Wk、Wa與bk、ba分別表示對應的權重矩陣與偏置向量。

2 實驗驗證

2.1 實驗環境

為了驗證分類模型的性能,本文模型的實驗平臺為Ubuntu20.04 操作系統,硬件為Intel?Xeon?Platinum 8350C,16×2.6 GHz 處理器、43 GB 內存、RTX 3080 Ti顯卡,模型采用Python 編程語言實現,版本為3.7,使用深度學習的框架為Pytorch 1.10.0,編碼工作主要使用Pycharm開發工具進行完成。具體實驗環境如表1所示。

2.2 實驗數據集

實驗選取了THUCNews 數據集與Sogou 語料庫作為實驗的數據集。

THUCNews 為THUCTC 數據集的子數據集,包含了運動、金融等10 類標簽數據,每個標簽選取了5 000的訓練數據與1 000 的測試數據,總訓練集數據和總測試集的數據數量分別為50 000和10 000。

Sogou 語料庫由搜狗實驗室提供,包含了Sogou CA與Sogou CS兩個數據集,本文過濾了其中數據較少的類別以及較短的數據,保留了運動、健康、環境等10個類別,每個類別包含10 000 的訓練數據與2 000 的測試數據。

數據集經過處理后統計信息如表2所示。

表2 數據集概況Table 2 Dataset overview

2.3 評價指標

本文選取的評價指標為文本分類領域通用的評測標準:準確率、精確率、召回率和F1-score。

在測試數據中,FP表示實際為負、但是被預測為正的樣本數量,TN表示實際為負、但是被預測為負的樣本數量,TP 表示實際為正、但是被預測為正的樣本數量,FN表示實際為正、但是被預測為負的樣本的數量。

準確率為分類正確的樣本占總樣本個數的比例,準確率Acc的數學定義見公式(7):

精確率表示測試集中預測為正類正確的比率,由測試樣本中預測正確的正例樣本數量除以所有預測為正例的樣本總數得到,精確率P的計算公式為:

召回率表示原有樣本中有多少正例被預測,由原有樣本中預測為正例的樣本數除以樣本中總正例的個數得到,召回率R計算公式為:

F1-score 是評價分類文本的綜合標,F1-score 的計算公式為:

2.4 實驗結果分析

為了驗證提出的長文本分類模型的合理性與有效性,本文在THUCNews數據集與Sogou語料庫下進行不同的文本分類模型進行對比測試。本文提出的模型具體的超參數如表3所示。

表3 模型超參數設置Table 3 Parameters setting

將提出模型和以下7種文本分類模型進行對比評估。

(1)BERT:使用BERT 模型對數據集進行預訓練并提取深層特征后,使用全連接層將生成的對應向量輸入一個Softmax函數進行計算得到分類結果[10]。

(2)ChineseBERT:在BERT 模型的基礎上,在輸入層融入了中文拼音和漢字圖片特征,在一定程度上優化了中文的文本分類任務[17]。

(3)RCNN:由RNN 與CNN 相結合的文本分類模型,首先采用BiLSTM 對文本的特征向量進行提取,再將其與嵌入層輸出的詞向量進行拼接,然后經過一層卷積后實現對文本的分類[16]。

(4)BERT_RCNN:使用BERT進行詞向量化后輸入到RCNN模型中進行文本分類[18]。

(5)CNN_LSTM:由CNN與LSTM相結合的文本分類,分別使用CNN 與LSTM 來局部特征提取與全局特征提取,最后進行文本分類[15]。

(6)ERNIE:由百度團隊提出的一種知識增強語義的預訓練模型,核心由Transformer構成,在多個NLP中文任務上有優異的表現[19]。

(7)RoBERTa:在BERT 模型的基礎上做了增強,擁有更大的模型參數以及更多的訓練數據,對BERT模型很多細節進行了優化[20]。

具體的對比實驗結果如表4、表5所示。

表4 THUCNews數據集上各模型實驗結果比較Table 4 Comparison of experimental results of several models on THUCNews 單位:%

表5 Sogou數據集上各模型實驗結果比較Table 5 Comparison of experimental results of severalmodels on Sogou 單位:%

根據表4 和表5 所示的實驗結果發現:本文提出的模型對比現有的文本分類模型,在THUCNews 數據集和Sogou語料庫準確率和F1-score分別達到了97.63%、97.68%與95.43%和95.49%,在所有對比實驗模型中表現最優,驗證了本文提出模型的有效性。

2.5 模型局部驗證

文本的模型主要包含兩個部分:融合漢字輸入法的BERT、含門控機制的長短期記憶卷積網絡。為了分別驗證兩個網絡對文本分類結果都具有積極的效果,設計了如下幾組對照實驗,其中,BERT_pinyin為在BERT模型中融入了拼音輸入;BERT_wubi為在BERT中融合了五筆輸入;BERT_BLCG 為BERT 模型與BLCG 模型的組合;BERT_pinyin_BLCG 為融合拼音輸入的BERT 模型與BLCG 模型組合;BERT_wubi_BLCG 為融合五筆輸入的BERT 模型與BLCG 模型組合。具體的實驗結果如表6、表7所示。

表6 THUCNews數據集在局部模型對比實驗結果Table 6 Comparative experimental results of partial models on THUCNews 單位:%

表7 Sogou數據集在局部模型實驗結果比較Table 7 Comparison of experimental results of partial models on Sogou 單位:%

由表6、表7 數據可知,對于整個CIMBERT_BLCG來說,模型的兩個部分CIMBERT 與BLCG 對模型都具有積極的影響,具體如下:

(1)CIMBERT:由CIMBERT與BERT的實驗對比可知,在THUCNews與Sogou兩個數據集上,模型F1值的提升分別為1.18與1.03個百分點,同時,CIMBERT_BLCG相較于BERT_BLCG來說,模型的F1值提升分別為0.59與0.49 個百分點,說明了CIMBERT 相比于BERT 更能表征中文語義。在CIMBERT_BLCG中,去除CIMBERT模型后,剩下的BLCG 模型與CIMBERT_BLCG 模型相比F1值在兩個數據集上分別下降了2.54與2.09個百分點,驗證了CIMBERT模型對整體具有很大的積極效果。

(2)BLCG:由RCNN 與BLCG、BERT_RCNN 與BERT_BLCG 對比實驗可知,在THUCNews 與Sogou 兩個數據集上,F1 值提升分別為0.52 與0.37 個百分點以及0.38與0.63個百分點,說明BLCG模型在一定程度上優化了RCNN模型。在CIMBERT_BLCG中,去除BLCG模型后,僅剩的CIMBERT 模型與CIMBERT_BLCG 相比F1值在兩個數據集上分別下降了1.17與0.76個百分點,驗證了BLCG模型對整體具有積極效果。

(3)拼音輸入與五筆輸入:由表中數據可知,在同等條件下,融合拼音輸入相較于五筆輸入,模型的準確率略高,在一定程度上說明在模型中融合拼音嵌入更能表征漢字的語義信息,但在整體上拼音輸入與五筆輸入相輔相成,都是不可或缺的。

總體來說,本文提出的CIMBERT 與BLCG 的文本分類模型在THUCNews 數據集與Sogou 語料庫上訓練結果有較好的表現。主要通過在輸入層融合了拼音與五筆輸入法,并在信息提取層用過門控機制動態地組合全局特征向量與局部特征向量。最后通過實驗驗證了本文提出的模型的合理性。

3 總結

本文針對中文的長文本分類,提出了融合漢字輸入法的BERT 與BLCG 的文本文本分類模型。使用融合拼音輸入和五筆輸入的BERT模型進行中文文本表示,融合中文的語義信息,解決了中文多音字的問題。在信息提取層首先使用BiLSTM進行全局特征的提取,然后通過CNN 進行局部特征的提取,為了解決長文本中部分文本與目標主題無關導致的誤判問題,提出了門控機制,動態地組合全局特征信息與局部特征信息。最后通過分類器進行分類。實驗表明,本文提出的模型準確率與F1-score均優于其他的深度學習文本分類模型。

在未來的工作中,需要解決以下幾個問題:(1)CIMBERT_BLCG 模型相較其他模型時間復雜度高,訓練時間較長,未來會設計并行計算減少模型訓練時間。(2)本文提出的分類模型聚焦于增強中文語義,減少與主題無關信息對模型判斷的干擾,未來希望能夠將模型用于一些特定場景的短文本分類中。(3)在BERT 模型中融合拼音、五筆輸入法,提升了模型的效果,未來會考慮四角碼等更多的輸入方式,以增強模型漢字語義信息,提升模型準確率。

猜你喜歡
分類特征文本
分類算一算
如何表達“特征”
在808DA上文本顯示的改善
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
主站蜘蛛池模板: 四虎永久免费在线| 亚洲侵犯无码网址在线观看| 茄子视频毛片免费观看| 亚洲人在线| 最新国产高清在线| 国产极品美女在线| 亚洲精品无码av中文字幕| 亚洲欧美日韩中文字幕一区二区三区 | 超碰免费91| 国产成人精品一区二区免费看京| 亚洲人视频在线观看| 亚洲水蜜桃久久综合网站| 国产日韩欧美视频| 欧美另类视频一区二区三区| 91精品在线视频观看| 国产尤物视频网址导航| 波多野结衣一级毛片| 毛片国产精品完整版| 99热这里都是国产精品| 91久久精品日日躁夜夜躁欧美| 亚洲国产成人超福利久久精品| 激情视频综合网| 蜜桃视频一区二区| 亚洲人成在线免费观看| 二级特黄绝大片免费视频大片| 国产精品网曝门免费视频| 成人在线观看不卡| 国模私拍一区二区三区| 精品成人一区二区三区电影 | 久久成人免费| 久久夜色撩人精品国产| 午夜视频日本| 黄色三级网站免费| 免费Aⅴ片在线观看蜜芽Tⅴ| 呦女精品网站| 亚洲久悠悠色悠在线播放| 欧美成人精品在线| 亚洲天堂日本| 2020极品精品国产| 日本成人一区| 波多野结衣一二三| 玖玖精品视频在线观看| 992tv国产人成在线观看| 亚洲黄色成人| 国产精品所毛片视频| 精品超清无码视频在线观看| 天天综合网色中文字幕| 国产视频a| 亚洲无限乱码| 国产人碰人摸人爱免费视频| 91精品人妻互换| 99尹人香蕉国产免费天天拍| 欧美h在线观看| 成人无码一区二区三区视频在线观看 | 毛片手机在线看| 高清不卡毛片| 91探花在线观看国产最新| 国模在线视频一区二区三区| 啪啪啪亚洲无码| 精品亚洲麻豆1区2区3区| 成AV人片一区二区三区久久| 老司国产精品视频91| 国产丝袜91| 国产成年女人特黄特色大片免费| 国产va在线观看| 欧美一级黄片一区2区| 欧美色视频在线| 一级毛片免费观看不卡视频| 久久精品视频亚洲| 日韩高清一区 | 精品久久久久无码| 好紧太爽了视频免费无码| 国产91丝袜在线播放动漫| 国产成人乱无码视频| 九九这里只有精品视频| 国产不卡一级毛片视频| 午夜限制老子影院888| 真实国产乱子伦视频| 2022国产91精品久久久久久| 国产精品视频3p| 欧美黄色网站在线看| 九九精品在线观看|