999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于詞向量與CNN-BIGRU的情感分析研究

2022-08-25 09:56:38吳貴珍黃樹成
軟件導刊 2022年8期
關鍵詞:文本情感分析

吳貴珍,王 芳,黃樹成

(江蘇科技大學計算機學院,江蘇鎮(zhèn)江 212100)

0 引言

情感分析是指利用自然語言處理及計算機語言學等技術識別與提取原素材中的主觀信息,找出意見發(fā)表者在某些話題上的兩極觀點態(tài)度[1]。目前情感分析方法分為3種:基于情感詞典的方法、基于機器學習的方法、基于深度學習的方法。其中,基于深度學習的方法能從大量文本中自動學習到深層特征,情感分析效果好且模型適應性強[2]。因此,目前主流的情感分析方法是基于深度學習的方法。在深度學習領域又有多種情感分析模型,主要包括卷積神經(jīng)網(wǎng)絡(CNN)模型和循環(huán)神經(jīng)網(wǎng)絡(RNN)模型,但CNN 模型只能進行局部特征提取,RNN 模型存在短期記憶問題。為解決這一問題,長短期記憶模型(LSTM)和門控遞歸單元(GRU)等眾多變體被提出,并廣泛應用于情感分析領域[3-4]。然而,LSTM 和GRU 模型只具有前向信息記憶能力,而不能對后向序列進行記憶,故雙向RNN 結構隨之被提出。對比兩個雙向RNN 結構,即相比BILSTM 模型,BIGRU 模型的參數(shù)更少,網(wǎng)絡訓練速率也更快,在保持幾乎相同準確率的同時更節(jié)約網(wǎng)絡訓練時間,提高了效率[5-6]。

故本文選用CNN 與雙層BIGRU 相融合的方式進行情感分析,一方面利用CNN 局部感知的特點提取出語義特征,另一方面利用BIGRU 提取包含上下文信息的全文特征,對局部特征進行補充,以完善CNN 模型情感特征傾向信息。同時,為豐富特征信息并加強模型的特征學習能力、提高文本情感分析的準確性,提出疊加BIGRU 模型的雙層BIGRU 模型,即將第一層BIGRU 的輸出作為第二層BIGRU 的輸入,形成多層結構以增強特征。

1 相關研究

1.1 詞向量相關研究

在NLP(自然語言處理)中存在許多基于神經(jīng)網(wǎng)絡的詞向量計算技術,如:神經(jīng)網(wǎng)絡語言模型Word2vec 等。其中,Word2vec 是由MikolovT 等[7]在2013 年提出的,在詞向量計算中被廣泛應用。Word2vec 技術中包含兩種不同的詞向量計算模型:CBOW 模型與Skip-gram 模型[8-9]。由于CBOW 模型訓練時間短且具有較高計算精度,因此本文采用CBOW 模型。

CBOW 模型,中文譯為“連續(xù)詞袋模型”,其核心思想是:給定中心詞一定鄰域半徑內(nèi)的單詞,預測輸出單詞為該中心詞的概率。該模型共分為3 層:輸入層、隱藏層(投影層)與輸出層。輸入層輸入中心詞一定鄰域半徑內(nèi)的單詞詞向量,隱藏層將輸入層的詞向量按照規(guī)則進行計算,輸出層輸出獲得中心詞的概率。在CBOW 模型中,訓練目標為最大化對數(shù)似然函數(shù)L:

式中,D(w) 表示語句中除詞語w外的其他詞語,w為詞庫C 中的任意一個詞語。以對數(shù)似然函數(shù)為導向,計算出詞庫中詞語w在整個句子中出現(xiàn)的概率,實現(xiàn)對中心詞出現(xiàn)概率的預測。

1.2 情感分析相關研究

卷積神經(jīng)網(wǎng)絡和遞歸神經(jīng)網(wǎng)絡是文本情感分析領域兩種廣泛使用的深度學習模型。Bengio 等[10]最早使用神經(jīng)網(wǎng)絡構建語言模型;Kalchbrenner 等[11]提出動態(tài)卷積神經(jīng)網(wǎng)絡模型以處理長度不同的文本,將卷積神經(jīng)網(wǎng)絡應用于NLP;Kim[12]對比了不同詞向量構造方法,利用提前訓練的詞向量作為輸入,通過CNN 實現(xiàn)句子級的文本分類,但這種方法也存在弊端,其忽視了待分類句子內(nèi)部詞語之間的聯(lián)系;Mikolov 等[13]提出的RNN 模型可處理序列數(shù)據(jù)并學習長期依賴性,但RNN 存在短期記憶問題,無法處理一段很長的序列,且不具有對后向序列的記憶功能。為解決該問題,雙向RNN 結構變體被提出。如Graves 等[14]提出的雙向長短期記憶網(wǎng)絡(BILSTM),該模型在LSTM 上增加了反向?qū)樱沟肔STM 能夠同時考慮上下文信息,對雙向序列信息進行記憶,獲得雙向無損的文本信息;Chen等[15]利用多通道卷積神經(jīng)網(wǎng)絡模型,從多方面的特征表示學習輸入句子的情感信息;Long 等[16]將雙向長短時記憶網(wǎng)絡與多頭注意力機制相結合對社交媒體文本進行情感分析,克服了傳統(tǒng)機器學習中的不足;Kai等[17]將卷積神經(jīng)網(wǎng)絡與Bi-LSTM 融合起來,解決了現(xiàn)有情感分析方法特征提取不充分的問題,并分別通過實驗表明了該融合模型在實際應用中具有較大價值。同時,Wang 等[18]研究了樹形結構的區(qū)域CNN-BILSTM 模型,提供了更細粒度的情感分析,在不同語料庫上都取得了不錯的分類效果。

以上方法使用的都是傳統(tǒng)獲取詞向量模型的方式,并且未使用過CNN 與雙層BIGRU 融合進行情感分析,訓練準確性不夠高。本文通過對詞向量進行改進,加入Attention 機制提取重要的輸入向量,并融合CNN 與雙層BIGRU模型進行改進,以提高文本分析的準確性。

1.3 情感分析相關技術

1.3.1 CNN模型

常見的CNN 模型主要由輸入層、卷積層、池化層與全連接層構成。輸入層主要是得到一個二維矩陣,矩陣中的每一行對應不同的詞,不同的詞用不同向量表示。卷積層是卷積神經(jīng)網(wǎng)絡的主要部分,卷積操作其實是卷積核矩陣與對應輸入層中一小塊矩陣的點積相乘,卷積核通過權重共享的方式,按照步幅上下左右地在輸入層滑動提取特征,以此將輸入層作特征映射,并作為輸出層。池化層一般采用最大池化法,將卷積層每個通道得到的向量進行最大池化,得到一個標量,最后將其拼接起來傳到全連接層或直接連接softmax 層進行分類[19]。全連接層連接一個softmax 層,將池化層獲得的一維向量輸入進去,其通常反映著最終類別上的概率分布,以此進行情感分類。

1.3.2 BIGRU模型

在單向的神經(jīng)網(wǎng)絡結構中,狀態(tài)總是從前往后輸出,只能捕捉當前詞前面的相關信息。然而,在文本情感分類中,如果當前時刻的輸出能與前一時刻及后一時刻的狀態(tài)產(chǎn)生聯(lián)系,則能夠?qū)W習到該詞的上下文信息,有利于文本深層次特征提取,所以在GRU 基礎上選擇雙向循環(huán)控制單元(BiGRU)來建立這種聯(lián)系。BiGRU 是由兩個單向、方向相反、輸出由兩個GRU 狀態(tài)共同決定的神經(jīng)網(wǎng)絡模型。

2 改進詞向量的CNN-雙層BIGRU 情感分析模型

情感分析的第一步是將計算機無法處理的文本信息轉(zhuǎn)換成計算機能夠識別的0-1 序列詞向量,并利用詞向量模型捕捉詞語之間的關系,得到序列化后的詞向量,然后將其送至深度學習模型中進行訓練,所以是否能獲得準確的詞向量對于情感分析非常重要。

在上文已介紹了傳統(tǒng)詞向量模型——CBOW 模型,該模型能夠通過上下文單詞預測中心單詞,得到序列化后的詞向量矩陣。但在實際的情感分析文本中,如大量商品評論或電影評論中,經(jīng)常會出現(xiàn)商品屬性獨特的專有名詞或電影情節(jié)中的專業(yè)名詞、人名等,加上評論表達過于口語化以及停用詞使用存在不當,使得準確提取詞向量的難度加大,原有CBOW 模型效果不佳。因此,本文提出一種改進的詞向量模型,在原先的CBOW 模型基礎上加入Attention 機制對詞向量進行改進[20]。Attention 機制能夠快速獲得需要重點關注的目標區(qū)域,并抑制其它無用信息。

具體操作為:在CBOW 輸入層與隱藏層之間加入Attention 機制,關注關鍵詞提取并抑制其他干擾詞影響。加入Attention 機制后的CBOW 模型如圖1所示。

Fig.1 CBOW model after adding the attention mechanism圖1 加入Attention機制后的CBOW 模型

CBOW 模型的輸入是每個詞的one-hot 向量,設其為vj。改進后的CBOW 模型加入Attention 機制后,模型輸入為:

其中,第i 個詞通過softmax函數(shù)進行歸一化計算權重得分,得到可用權重。通過式(4)得到:

其中,Zi是Attention 機制中所需的訓練參數(shù),Pi、Qi是由不同單詞之間的關系和權重所決定的。這一步是將Query與Key進行相似度計算得到權值的過程。

最后經(jīng)過Attention 機制得到的輸入詞向量為:

在加入Attention 機制的CBOW 模型中,經(jīng)Attention 機制得到的輸出向量作為CBOW 模型隱藏層輸入。在經(jīng)過隱藏層和輸出層計算后,得到模型處理后第n 個單詞的詞向量如下:

之后,將改進后的詞向量模型得到的vnword送入深度學習模型中進行訓練。

在之前的情感分析深度模型中,通常將CNN 模型與LSTM 模型、GRU 模型或BILSTM 模型融合以獲取深度學習結果,速度與準確率都不太高,本文提出一種將CNN 與雙層BIGRU 模型相融合的方式進行情感分析,原因如下:①GRU 模型只有2 個門:重置門和更新門,相比有輸入門、遺忘門和輸出門3 個門的LSTM 模型,GRU 在達到相同效果的同時,具有更高的時間效率;②雙向GRU 模型能學習到該詞的上下文信息,有利于文本深層次特征的提取;③最后在BIGRU 模型基礎上疊加一層BIGRU,從而豐富了特征信息,并加強了模型的特征學習能力,提高了文本情感分析的準確性,該方式相比之前的深度學習模型,準確率和速率都更高。

其融合過程主要通過以下幾個步驟實現(xiàn):

(1)將上文加入Attention 機制的CBOW 模型得到每個詞的詞向量vi∈Rn×d作為輸入層的輸入向量,其中n是詞數(shù),d是向量維度,則初始輸入矩陣S 可表示為S=(v1,v2,…,vn)。

(2)利用CNN 提取局部信息特征。CNN 卷積層接收輸入層傳入的詞向量,在卷積層中通過設置3 種大小不同的濾波器提取h 個相鄰詞匯之間的靜態(tài)局部特征,公式如下:

其中,w 是卷積核,h是卷積核尺寸,vi:i+h-1是i到i+h-1 個詞組成的句子向量,b是偏移量。通過卷積層后得到特征矩陣c=[c1,c2,…,cn-h+1],對卷積層得到的句子局部特征矩陣c 進行下采樣,得到局部值的最優(yōu)解Mi。這里采用最大池化技術,公式如下:

由于BiGRU 輸入必須是序列化結構,池化將中斷序列結構c,因此需要添加全連接層,將池化層后的向量Mi連接成特征矩陣U=[M1,M2,…,Mn]。

(3)將U 作為第一層BIGRU 的輸入。BIGRU 由正向GRU、反向GRU、正反向GRU 的輸出狀態(tài)連接層組成,BIGRU 網(wǎng)絡模型具體結構如圖2所示。

BIGRU 模型由輸入層、隱藏層、輸出層構成,其中隱藏層由兩個方向的G R U 構成。正反向GRU分別得到兩個對應隱藏層的輸出量其計算公式如下:

Fig.2 Specific structure of BIGRU model圖2 BIGRU模型具體結構

其中,σ表示sigmoid 激活函數(shù),相當于門控信號;Mt表示在t 時刻整個模型的輸入值;分別表示t 時刻正向GRU和反向GRU的權重矩陣分別表示上一時刻正向GRU和反向GRU的權重矩陣分別表示t 時刻隱藏層的正向GRU和反向GRU輸出分別表示上一時刻正向和反向GRU 隱藏層輸出。

(4)將兩個輸出特征向量合并,得到BIGRU 輸出層向量Z′t:

(5)在單層BIGRU 模型上再堆疊一層BiGRU 單元,形成雙層結構以增強特征。將上一步得到BIGRU 模型的最終輸出Z′t作為第二層BIRGU 的輸入,在第二層BIGRU中,Z′t相當于第一層BIGRU的輸入Mt。分別計算第二層BIGRU正向和反向GRU在t時刻的輸出計算公式如下:

其中,Z′t表示在第二層BIGRU 中t 時刻的輸入分別表示t 時刻正向GRU 和反向GRU 的權重矩陣;分別表示第二層BIGRU 中上一時刻正向GRU和反向GRU的權重矩陣分別表示上一時刻正向和反向GRU 的隱藏層輸出。

在兩層之間需要添加一個大小為0.25 的dropout 層,以減少訓練過程的擬合。

(7)最后由情感分類層依靠其中的sigmoid 分類器完成情感分類。經(jīng)過前面的步驟,已將蘊含實際含義的文本信息轉(zhuǎn)化成用詞向量組合而成的序列。本文的情感分析任務是對文本情感進行二分類,即將情感分為兩類:正向和負向。sigmoid 分類器在接收到含有語義信息的序列后,因其輸出范圍是0~1,會將結果轉(zhuǎn)換為概率進行分類。結果大于等于0.5 為正向情感,小于0.5 為負向情感,很適合二分類問題預測,從而最終完成情感極向預測。

3 實驗與分析

3.1 實驗環(huán)境

本次實驗基于Windows10 操作系統(tǒng),處理器為Intel(R)Core(TM)i7-8550U,內(nèi)存大小為8G,硬盤大小為1T。主要使用底層框架為Tensorflow 的Keras 深度學習API 訓練神經(jīng)網(wǎng)絡模型,其版本號為2.3.1,用Python 語言進行實現(xiàn)。

3.2 實驗數(shù)據(jù)集

本文實驗數(shù)據(jù)集是從購物網(wǎng)站中爬取的10 個類別商品的共計6 萬條評論,其中正向情感與負向情感的評論各一半,均為3 萬條。數(shù)據(jù)集中每一條評論均被標記好情感類別:正向評價標注為1,負向評價標注為0。按照8:2 的比例劃分訓練集和測試集,即4.8 萬條評論用于訓練,1.2萬條評論用于測試。

3.3 實驗預處理與模型參數(shù)設置

首先,將數(shù)據(jù)集順序全部打亂,使正向與負向評論不會集中在一起,否則會影響模型分類的準確性;其次,對評論文本進行數(shù)據(jù)清洗,先去除停用詞,再使用jieba 分詞對文本進行分詞,并用詞向量訓練工具將單詞轉(zhuǎn)化為向量;之后,將分詞后的詞向量輸入到詞向量預訓練模型,即改進后的CBOW 模型中,設置句子最大長度120。若句子超過120 個詞,則超過的部分會被刪除;若句子不足120 個詞,則對其進行向右補0 操作。設置3 種大小的卷積核,分別為2、3、4,設置詞嵌入維度為100,步長為1。模型參數(shù)設置會影響分類效果,主要模型參數(shù)有:epoch、batchsize、optimizer、learning rate、activation。經(jīng)過模型的多次迭代,配置最優(yōu)參數(shù),使得模型的分類效果最佳。詳細參數(shù)設置如表1所示。

Table 1 Model parameter settings表1 模型參數(shù)設置

3.4 實驗評價標準

對于深度學習模型,一般有4 個評價指標對模型進行評價:①準確率(Accuracy)。所有預測正確(包括正向和負向)的樣本占總樣本的比重;②精確率(Precision)。正確預測為正向的樣本占全部預測為正向樣本的比例;③召回率(Recall)。正確預測為正向的樣本占全部實際正向樣本的比例;④F1值。精確值與召回率的調(diào)和均值。

3.5 實驗結果與分析

在10 個商品分類的評價數(shù)據(jù)集中,首先在詞向量不變的前提下,將本文提出的CNN-雙層BIGRU 模型與CNN、LSTM、GRU、CNN-LSTM、CNN-GRU、CNN-BILSTM、CNN-BIGRU 模型分別作比較,結果證明CNN-雙層BIGRU模型的效果優(yōu)于其他模型。實驗結果如表2、圖3所示。

Table 2 Comparison of model results表2 模型結果比較

Fig.3 Experimental results of each model圖3 各模型實驗結果

其次,經(jīng)過詞向量的改進,即在CBOW 模型中加入Attention 機制后,將本文提出的CNN-雙層BIGRU 模型在詞向量改進前后的準確率變化進行對比,如圖4所示。

Fig.4 Changes in accuracy before and after word vector improvement圖4 詞向量改進前后準確率變化

最后,將所有模型的訓練時間進行比較,結果如表3所示。

Table 3 Comparison of model training time表3 模型訓練時間比較

從實驗結果可得出以下結論:

(1)根據(jù)圖3 和表2 可知,帶有雙向序列的融合模型CNN-BILSTM、CNN-BIGRU 比不帶雙向序列的融合模型CNN-LSTM、CNN-GRU 的準確率要高。如CNN-BIGRU 的準確率和精確率相比CNN-GRU 分別提高了0.33%和0.4%,說明雙向序列模型考慮了文本的先后關系,能更準確地提取文本上下文的信息特征,提高情感分析的準確率。且根據(jù)表3 可知,CNN-BILSTM 和CNN-BIGRU 同樣是雙向序列的融合模型,但在同樣的輪次訓練中,CNNBILSTM 的訓練時間為67s,準確率為91.19%,而CNN-BIGRU 的訓練時間為64s,準確率為91.38%。訓練時間減少了3s,準確率提高了0.19%,原因在于GRU 比LSTM 的模型結構更簡單。因此,無論從時間還是準確率上,CNN-BIGRU模型都更勝一籌。

(2)多疊加一層BIRGU 的CNN-雙層BIGRU 模型與CNN-BIGRU 模型相比,其準確率、精確率、召回率、F1值分別提高了0.27%、0.23%、0.15%和0.24%,說明疊加的一層BIGRU 結構能夠捕捉到更豐富的信息,提高了情感分析的準確性。

(3)由表3 和圖4 可知,在CNN-雙層BIGRU 模型中,采用改進后加入Attention 機制的CBOW 模型獲取詞向量,相比正常只采用CBOW 模型的CNN-雙層BIGRU 模型,整體上的情感分類準確率更高。當?shù)螖?shù)為20 次時,二者均達到了各自準確率的峰值,且僅相差1.21%,說明能準確、快速提取到文本中的重要詞向量對于模型分類的重要性。以上實驗證實了本文提出的改進詞向量的CNN-雙層BIGRU 模型在情感分析中具有較好效果。

4 結語

本文主要通過兩方面對傳統(tǒng)情感分析方法進行改進:在詞向量方面,在對文本進行分析時,發(fā)現(xiàn)即使再優(yōu)秀的模型,若對數(shù)據(jù)集文本中的每個詞不能準確地進行提取與定位,效果也會不佳,故加入Attention 機制進行改進;在模型方面,將能提取局部信息的CNN 與能加強特征信息以獲取上下文信息的雙層BIGRU 相融合,提高了模型準確率。雖然通過改進提高了模型準確率,但由于模型疊加層數(shù)多,導致時間效率不高,且隨著數(shù)據(jù)規(guī)模的增長,計算會更加復雜,訓練時間也會顯著變長,因此下一步將繼續(xù)尋找可兼顧準確率與時間效率的模型進行情感分析。

猜你喜歡
文本情感分析
隱蔽失效適航要求符合性驗證分析
如何在情感中自我成長,保持獨立
失落的情感
北極光(2019年12期)2020-01-18 06:22:10
情感
在808DA上文本顯示的改善
電力系統(tǒng)不平衡分析
電子制作(2018年18期)2018-11-14 01:48:24
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
如何在情感中自我成長,保持獨立
電力系統(tǒng)及其自動化發(fā)展趨勢分析
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
主站蜘蛛池模板: 欧美综合中文字幕久久| 亚洲资源在线视频| 亚洲欧美日韩成人在线| 日本福利视频网站| 美女潮喷出白浆在线观看视频| 欧美视频在线播放观看免费福利资源| 在线观看免费黄色网址| 性喷潮久久久久久久久| 久久这里只有精品2| 88av在线看| 久久人搡人人玩人妻精品一| 手机看片1024久久精品你懂的| 国产一区自拍视频| 制服丝袜一区| 91色综合综合热五月激情| 欧美a级完整在线观看| 不卡视频国产| 日韩欧美色综合| 色婷婷电影网| 国产精品微拍| 中文字幕久久亚洲一区| 亚洲人成在线精品| 欧美午夜视频在线| 国产99在线| 亚洲精品免费网站| 亚洲精品国产精品乱码不卞| 18禁高潮出水呻吟娇喘蜜芽| 在线精品亚洲一区二区古装| 国产欧美视频综合二区| 国产毛片片精品天天看视频| 成人午夜精品一级毛片| 激情六月丁香婷婷| 性做久久久久久久免费看| 国模极品一区二区三区| 国产精品视频白浆免费视频| 青青草原偷拍视频| 亚洲欧美日韩成人在线| 色婷婷成人| 亚洲婷婷六月| 精品国产欧美精品v| 成人在线不卡| 国产一区免费在线观看| 丰满人妻中出白浆| 日韩视频免费| 在线日韩日本国产亚洲| 日韩一区精品视频一区二区| 欧美亚洲日韩中文| 毛片免费在线视频| 永久毛片在线播| 亚洲精品手机在线| 理论片一区| 国产色婷婷| 男女精品视频| 狠狠v日韩v欧美v| 欧美高清国产| 久久人妻系列无码一区| 男女性色大片免费网站| 制服丝袜 91视频| 成年人午夜免费视频| 99尹人香蕉国产免费天天拍| 亚洲区一区| 亚洲精品国偷自产在线91正片| 日韩精品无码不卡无码| 99资源在线| 国产精品性| 999福利激情视频| 深夜福利视频一区二区| 波多野结衣视频网站| 亚洲精品国产日韩无码AV永久免费网| 欧美日韩综合网| 亚洲精品中文字幕午夜| 欧美成人怡春院在线激情| 色偷偷一区| 欧美亚洲欧美| 婷婷色丁香综合激情| 国产无码性爱一区二区三区| 114级毛片免费观看| 韩日免费小视频| 久久久受www免费人成| 欧美国产日产一区二区| 免费播放毛片| 国产青青草视频|