999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

加入梯度均衡機制的端到端方面級情感分析

2023-09-13 03:14:54羅涵天楊雅婷
計算機工程與設計 2023年8期
關鍵詞:分類情感實驗

羅涵天,楊雅婷+,馬 博,董 瑞,李 曉

(1.中國科學院新疆理化技術研究所 多語種信息技術實驗室,新疆 烏魯木齊 830011;2.中國科學院大學 計算機科學與技術學院,北京 100049;3.中國科學院新疆理化技術研究所 新疆民族語音語言信息處理實驗室,新疆 烏魯木齊 830011)

0 引 言

方面級情感分析(aspect-based sentiment analysis,ABSA)的任務是對文本中一個或者多個對象進行情感極性的分類,為對象打上情感標簽。給定一段文本sentence={W1,W2,W3,…,Wn}, 文本中包含s個方面詞(aspect),目標是預測s個方面詞的情感極性。例如:I like apples,but I don’t like pears。其中apples和pears為方面詞,其情感極性分別為正向和負向,而端到端的ABSA就是將方面詞和情感極性同時抽取出來。

端到端ABSA任務中,樣本的標簽類別存在不平衡的問題。方面詞標簽在總標簽數中所占的比例較小,而非方面詞占據了絕大多數,這樣會導致模型在訓練的過程中過多的學習非方面詞標簽,使得非方面詞標簽的梯度權重過大。從損失函數的角度來說,以往常用的方法是使用交叉熵損失,交叉熵損失函數不能有效降低易分類類別標簽的權重,而Focal損失雖然可以通過增加難分樣本的權重來緩解標簽類別不平衡,但一些諸如錯標、漏標等潛在的離群點的樣本標簽仍然會對實驗結果造成影響。因此,為了緩解端到端ABSA類別標簽不平衡的問題,從梯度的角度出發是一個比較好的策略。本文提出使用梯度均衡損失來緩解此類問題,從梯度的角度對比不同的損失函數所帶來的影響,并探究使用一種通過指數式遞減加權的移動平均的方法,用來估計變量局部的均值,進一步從梯度的角度對實驗結果進行探究。

1 相關工作

早期的ABSA以情感詞典或是統計機器學習的方法[1]為主,這些方法不能很好地提取句子的語義信息,因而使得句子的分類效果不佳。近幾年常用的模型以深度學習方法為主,如基于RNN[2,3]的方法,基于Transformer[4]的方法以及基于Bert[5]的方法等。

ABSA任務中的標簽主要有兩種標注方式,一種是聯合標記方式(Pipline/Joint)[6],一種是統一標記(Collapsed)[7,8]方式。聯合標記方式是將方面詞和情感極性聯合建模,如先識別方面屬性:“B”、“I”、“O”,再識別情感級性:“POS”、“NEG”、“NEG”等,非方面詞則識別為“O”。統一標記方式是將方面詞以及情感極性同時抽取出來,如“B-NEG”和“I-POS”。基于聯合標記的方式需要先抽取方詞再對方面詞進行情感極性分類,早期常用Pipline的方式來進行研究,但是這種方式很容易產生誤差傳播,在近幾年的學術界中研究較少,本文的研究的方法是基于Collapsed的方式,標簽標記方式樣例見表1。

表1 標簽標記方式

其中“B”即為begin表示一個方面詞的開頭,“I”即為 inside表示方面詞中的一部分,“O”即為outside表示非方面詞,“POS”、“NEU”、“NEG”分別表示積極、中性、消極的情感極性,在現有的ABSA標注數據集中,常出現類別不平衡的情況,即標簽“O”所占的比重遠大于 “POS”、“NEU”、“NEG”等標簽,本文對4個標準數據集Laptop、Rest14、Rest15、Rest16做了統計,標簽分布統計如圖1所示。

圖1 標簽分布統計

從圖中可以看出,標簽“O”在所有標簽中占的比重遠大于標簽“POS”、“NEU”、“NEG”,這樣容易導致模型在訓練的時候,對易學習的標簽“O”分配較高的權重,進而對全局的梯度造成影響,在過去的研究中緩解梯度分配不均常用的方法為Focal損失[9],它最早是用于解決目標檢測任務中類別標簽不平衡的問題,實驗結果表明在不影響模型速度的情況下,能將one-stage detector的準確率,達到two-stage detector的效果。Focal損失是在交叉熵的基礎上進行修改的,可以減少易分樣本的權重,使得模型更加聚焦于難分類樣本。

后來B Li等[10]對目標檢測任務中類別標簽不平衡問題做了更深一步的研究,提出了梯度均衡損失(gradient harmonizing mechanism loss,GHM-Loss)并且實驗結果要優于使用Focal損失的結果。Focal損失只考慮了易分類樣本的權重,未考慮離群點等樣本的權重,而GHM-Loss考慮了離群點樣本,并且可以對離群點樣本進行抑制從而提升模型的泛化能力以及魯棒性。離群點樣本指的是在樣本標簽標記中可能出現的錯標、漏標或者是潛在噪聲樣本,這樣的樣本會對實驗結果造成影響。在基于聯合標記方式(Joint)的ABSA方法中,H Luo等[11]將方面屬性抽取(aspect terms extraction,ATE)和方面情感分類(aspect sentiment classification,ASC)任務聯合建模,提出了梯度協調和級聯標記模型,引入了梯度均衡損失來緩解類別標簽不平衡,并達到了顯著效果。

對于統一標記的ABSA模型中此類問題的研究較少,本文從中受到啟發,基于BERT端到端的ABSA模型,引入了梯度均衡機制,并做了多組對比實驗,使用交叉熵損失、Focal損失、以及梯度均衡損失在多個數據集中進行對比實驗。本文還在此基礎上探究了指數滑動平均(exponential moving average,EMA)對實驗結果的影響,EMA可用來緩解因離群點樣本集中在同一個小批量數據而產生噪聲的影響,并且可以控制前面的數據對滑動窗口內值的影響,從而使得模型訓練更穩定,魯棒性更強。

2 模型和方法

2.1 Focal 損失

對于分類問題損失函數的定義,以往常用的方法是使用交叉熵損失,公式如下

CELoss=-∑Ni=1yi*log(pi)=-log(pn)

(1)

其中,pn為第n類輸出對應的概率值,y為樣本標簽的one-hot向量表示,Tsung-Yi Lin等為緩解目標檢測任務中類別標簽不平衡的問題,以提升one-stage detector的準確率使其達到two-stage detector的效果,提出了Foca損失。在目標檢測樣本中,負樣本數量占總樣本的數量很大,因此梯度總和的占比很大,并且大多樣本是易分樣本。改進后的交叉熵損失即為Focal損失,簡單來說它通過降低易分類別樣本的權重,增加難分樣本的權重來緩解標簽類別不平衡。其公式如下

FCLoss=-αn(1-pn)λlog(pn)

(2)

其中,αn表示第n個類別樣本的權重,pn表示輸出第n類的概率值,(1-pn)λ是用來調整難易分類樣本所占的比例,此方法降低了易學習樣本類別標簽的權重,較好地緩解了類別標簽不平衡。

2.2 梯度均衡機制(gradient harmonizing mechanism)

B Li等提出了梯度均衡機制(gradient harmonizing mechanism,GHM),其目的是為進一步解決類別標簽不平衡的問題,它在目標檢測任務中實驗結果中優于Focal損失,其與Focal損失最主要的區別是Focal損失只考慮了降低易學習樣本的權重,沒考慮到潛在離群點樣本的標簽權重。而梯度均衡機制則考慮到了離群點標簽,從梯度分布的角度將梯度進行均衡,并且有效緩解了樣本中可能出現因離群點而引起的噪聲的問題。定義x為模型的輸出,則有

p=softmax(x)

(3)

那么x的梯度將定義為

g=?CELoss?x=|p-pt|

(4)

其中,pt表示真實標簽的類別,將g稱為梯度范數,其值可以表示一個樣本分類難易程度的屬性,在本文研究的數據集中,標簽的分布極不平衡,標簽“O”相較于其它標簽占了總類別標簽中的大多數,通常在這種情況下,標簽“O”所占的比重過大會對全局梯度產生較大的影響,另外對于某些潛在的離群點標簽來說,如果模型過多的學習這些離群點標簽,也會對實驗結果造成影響。

2.3 梯度密度(gradient density)

梯度密度是為了緩解模型訓練過程中梯度分布不協調的問題,將梯度密度函數定義為

d(g)=1lε(g)∑Nk=1δε(gk,g)

(5)

其中,gk表示第k個樣本的梯度范數,且當g-ε2≤gk

θ=d(gi)Tl

(6)

梯度調和參數定義為

βi=1θ

(7)

其中,Tl為樣本的總數和,當樣本梯度為均勻分布的時候βi=1, 當樣本梯度較大的時候,將會對權重進行向下加權處理。

2.4 梯度均衡損失(gradient harmonizing mechanism loss)

梯度均衡損失可被定義為

GHLoss=1N∑Ni=1βiCELoss=∑Ni=1CELossd(gi)

(8)

其中,N為樣本的數量,其中g=|p-pt|, 表示樣本的梯度范數,pt表示真實的樣本類別標簽,p為經過softmax(x) 操作后模型預測的概率值。定義單位區域長度ε,M=1ε為分成區域的區間數。定義γi為單元區域,γi=[(i-1)ε,iε], 其中i為第i個單元區域的索引。定義Ri為位于第i個單元區域的樣本數量,定義

ind(g)=ks.t.(k-1)ε≤g

(9)

ind(g) 為g所在單元區域的索引。此梯度密度的近似為

d^(g)=Rind(g)ε=MRind(g)

(10)

其中,d^(g) 表示統一單元區域內的樣本具有相同的梯度密度。

2.5 指數滑動平均(exponential moving average,EMA)

在定義的單位區域內的,可能會有多個離群點樣本數據,這樣容易產生噪聲并對實驗結果造成影響,因此本文使用指數滑動平均的方法(exponential moving average,EMA)來緩解這個問題,這是一種通過指數式遞減加權的移動平均的方法,可以用來估計變量局部的均值。定義移動平均數

Vti=(1-α)Rti+αVt-1i

(11)

其中,α為動量系數(momentum parameter),Rti表示第i個單元區域下的樣本第t次迭代時刻的樣本數。這樣可以使用Vi代替Ri來平滑梯度密度,降低極端值的對實驗結果的影響,可再次定義梯度密度為

d^(g)=Vind(g)ε=MVind(g)

(12)

2.6 模型基線

針對模型結構,本文采用了基于BERT的端到端ABSA模型作為本文的baseline模型進行研究,模型結構如圖2所示,輸入為訓練文本,經BERT層,將輸出的隱藏層向量輸入ABSA分類層中,最后輸出情感分類結果。其中在ABSA分類層中本文使用了多個模型(GRU、Transformer、SAN)進行對比實驗,實驗部分將在下一個模塊進行討論。

圖2 端到端的ABSA模型結構

3 實 驗

3.1 實驗數據集及評價指標

本文采用4個標準ABSA數據集,laptop、rest14、rest15、rest16來源于SemEval challenges,在數據集中,統計了不同數據集中訓練集、驗證集和測試集,以及總樣本的語料句子數,見表2。

表2 樣本數統計

本文采用精確率(Precision)、召回率(Recall)和F1分數(F1-score)作為評價指標來評估方法的優劣,各項指標的計算公式為

Precision=TPTP+FP

(13)

Recall=TPTP+FN

(14)

F1=(2×Precision×Recall)Precision+Recall

(15)

Precision表示預測為正例樣本中實際為正例的樣本所占的比例,Recall表示實際為正例的樣本中預測為正例的樣本在所占的比例,其中F1值為Precision和Recall的調和均值。

3.2 參數設置

首先本文使用BERT預訓練語言模型為“bert-base-uncased”模型,transformer層為12層,且隱藏層維度為768維。在參數設置中,優化器本文使用AdamW,初始學習率設為2e-5,batchsize設置為32,實驗的環境參數見表3。

表3 實驗環境配置

3.3 對比模型及方法

本文基于BERT的端到端ABSA模型,將其作為baseline模型,探究了引入Focal損失以及梯度均衡機制對實驗結果帶來的影響,并且在ABSA分類層中使用了線性模型、基于RNN的模型(GRU)、基于自注意力的模型(SAN)以及基于transformer(TFM)的模型方法。除此之外還對比了近幾年的ABSA論文中的結果,模型介紹如下:

DREGCN[12]提出了一種使用基于多任務學習的新型依存句法知識增強交互體系結構,使模型能夠充分利用句法知識來進行分類,并且設計了一個依賴關系嵌入圖網絡(DREGCN)。

IMN[13]提出了一種交互式多任務學習網絡,引入了一種消息傳遞機制,信息可通過一組共享的潛在變量迭代地傳遞給不同任務。

DOER[14]提出了一種交叉共享RNN框架,通過使用雙循環神經網絡來學習各任務語義表征,并使用交叉共享單元來考慮任務之間的關系。

DHGNN[15]提出了一種動態異構圖的方法,為兩個子任務進行聯合建模。

GRU Gate Recurrent Unit是循環神經網絡(RNN)的一種,將其作為本文研究中ABSA分類層模型之一,它通過使用門控機制可以有效緩解長期記憶問題以及梯度消失問題。

SAN由自注意力(self-attention)以及殘差連接組成,是自注意力網絡的一種變體結構,將其作為本文研究中的ABSA分類層模型之一。

TFM使用Transformer Encoder結構作為本文研究中的ABSA分類層模型之一。

3.4 實驗結果及分析

在實驗中本文將交叉熵損失、Focal損失、梯度均衡損失分別用-CEL、-FL以及-GHML表示,在實驗數據中DHGNN、DORE、IMN、DREGC的實驗結果以及Laptop數據集中的部分實驗結果均來自原始論文的實驗數據,其中P、R、F1分別表示精確率、召回率和F1分數,各模型實驗對比見表4。

表4 各模型實驗對比/%

從實驗結果中,可以看出Focal損失和梯度均衡損失都對模型的性能有所提升,并且都可緩解類別標簽不平衡的問題,通過多項評價指標可以得出本文所提出的方法在實驗結果中優于許多強baseline模型,并且在基于BERT的端到端ABSA模型中,F1分數指標提升較為顯著。對于最優結果,Laptop數據集中Bert+Linear-GHL的F1分數相較于baseline增長了3.14%,在Rest14數據集中Bert+TFM-GHL的F1分數相較于baseline增長了1.43%,Rest15數據集中Bert+GRU-GHL的F1分數相較于baseline增長了1.22%,Rest16數據集中Bert+TFM-GHL的F1分數相較于baseline增長了1.96%,這說明本文所提出的方法對于優化提升端到端的ABSA模型的性能有著重要的意義。

為直觀分析本文的實驗較于基線模型的影響,進行了案例分析,對比了基線模型加和入梯度均衡機制的模型前后對于分類結果的影響,典型案例研究見表5。

表5 典型案例研究

本文研究了多個例子進行案例分析研究,表5為展示的幾個典型的例子,其中(1)、(2)所示的案例為最為典型,模型無法正確識別方面詞信息,將“B-POS”識別成了“O”,加入梯度均衡機制以后可以有所改善;(3)為樣本標簽標記有歧義的文本語句,雖基線識別正確,將這段話中lunch和buffet識別為負面(“NEG”)的情感,但是句子的本意應偏向于積極的情感極性,加入梯度均衡機制以后,識別結果正確;(4)中為情感識別錯誤的情況,梯度均衡機制也可以較好地改善此類問題。

3.5 參數設置對實驗結果的影響

每個訓練樣本最適合的分割區間數M都不相同,為探究劃分區間數量對實驗結果帶來的影響,本文設置不同的區間數M,并進行了實驗,以Bert+Linear模型為例,本文分別將ε設置為5,10,15,20,25,30并使用F1分數(F1-score)評價指標來對實驗結果進行探究,F1分數隨區域數M變化如圖3所示。

圖3 F1分數隨區域數M的變化

不同M值下的實驗結果見表6。

表6 不同M值下實驗的F1分數

從實驗結果中我那可以看出區間數M的設置對實驗結果有略微影響,并且每個數據集中M的最優值都不相同,M的值代表了劃分梯度范數函數值的區間數,單位區間范圍就是ε,在M的設置中,隨著M的增加,分割的區間數增加,可能會導致梯度密度統計不準確。因此需要設置一個合適的值來選定合適的M,在4個數據集Laptop,Rest14,Rest15,Rest16的實驗中,實驗分別在M為15,10,15,25的時候達到最優,其F1分數分別達到0.6357、0.7343、0.6229、0.6889。

除此之外本文還探究了加入EMA前后對比實驗結果,在相同參數下F1分數的實驗結果對比如圖4所示。

圖4 加入EMA前后對比F1分數

實驗結果表明加入EMA確實可以提升模型的性能,在4個數據集中進行了實驗,F1分數分別提升了0.69%、1.7%、0.26%、0.71%,EMA把每次梯度下降更新后的權重的值和前一次更新的值關聯了起來,使得更新后的值受限于前面更新的值,因此加入EMA確實可以有效降低潛在極端值對實驗結果的影響,并且可以使得模型的性能得到提升。

4 結束語

本文提出使用梯度均衡機制來緩解端到端方面級情感分類中類別標簽不平衡的問題。并在多個數據集中進行了多組實驗,探究了指數滑動平均對梯度造成的影響,在4個標準數據集中進行實驗,實驗結果表明本文提出的方法相比baseline方法有了較為明顯的提升。但是本實驗對于梯度區間數的選取策略還不夠完善。下一步工作,將繼續探究緩解類別標簽不平衡的其它方法以及細化區間數的選取策略,進一步提高模型的分類性能。

猜你喜歡
分類情感實驗
記一次有趣的實驗
分類算一算
如何在情感中自我成長,保持獨立
失落的情感
北極光(2019年12期)2020-01-18 06:22:10
情感
做個怪怪長實驗
分類討論求坐標
如何在情感中自我成長,保持獨立
數據分析中的分類討論
教你一招:數的分類
主站蜘蛛池模板: 亚洲综合片| a毛片在线| 国产特级毛片aaaaaa| 无码中文AⅤ在线观看| 亚洲精品动漫| 91精品aⅴ无码中文字字幕蜜桃 | A级毛片高清免费视频就| 自偷自拍三级全三级视频| 欧美黄网站免费观看| 国产特级毛片aaaaaaa高清| 国产精品亚洲五月天高清| 国产小视频免费| 精品久久久无码专区中文字幕| 91免费国产在线观看尤物| 免费无码AV片在线观看国产| av天堂最新版在线| 亚洲精品视频免费| 亚洲成人动漫在线观看| 亚洲午夜片| 色网在线视频| 免费看美女毛片| 国产一区在线观看无码| 久久久久久久97| 婷婷伊人五月| 国产理论最新国产精品视频| 日韩精品免费一线在线观看| 91久久偷偷做嫩草影院| 97精品伊人久久大香线蕉| 天堂网国产| 丝袜久久剧情精品国产| 欧美三级视频网站| 国产欧美日韩视频怡春院| 国产精品嫩草影院视频| 国内熟女少妇一线天| 色天天综合| 一本一本大道香蕉久在线播放| 色婷婷国产精品视频| 亚欧美国产综合| 无码免费视频| 中文字幕av一区二区三区欲色| 亚洲大尺码专区影院| 毛片免费在线视频| 日韩精品亚洲人旧成在线| 九色91在线视频| 亚洲a级毛片| 99热这里只有精品在线播放| 高h视频在线| 婷婷成人综合| 中文字幕亚洲乱码熟女1区2区| 亚洲午夜国产精品无卡| 中文纯内无码H| 日本欧美中文字幕精品亚洲| 五月婷婷欧美| 国产精品女熟高潮视频| 国产日韩AV高潮在线| 久久精品亚洲专区| 久久精品人人做人人| 91久久偷偷做嫩草影院精品| 国产Av无码精品色午夜| 国产成人综合久久精品尤物| 精品一区二区三区四区五区| 国产成人精品优优av| 男女男精品视频| 波多野结衣AV无码久久一区| www.youjizz.com久久| 国产成人高清精品免费软件| 国产精品久久久久鬼色| 日本高清在线看免费观看| 欧美啪啪精品| 香蕉国产精品视频| 精品欧美日韩国产日漫一区不卡| 免费在线a视频| 国产美女自慰在线观看| 亚洲综合婷婷激情| 在线精品视频成人网| 91精选国产大片| 国内精品视频在线| 国产自产视频一区二区三区| 国产毛片基地| 亚洲第七页| 中文无码毛片又爽又刺激| 日本在线免费网站|