999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于ALBERT-AFSFN的中文短文本情感分析

2022-06-23 06:24:46葉星鑫羅夢(mèng)詩(shī)
關(guān)鍵詞:特征文本融合

葉星鑫,徐 楊,2,羅夢(mèng)詩(shī)

1.貴州大學(xué) 大數(shù)據(jù)與信息工程學(xué)院,貴陽(yáng) 550025

2.貴陽(yáng)鋁鎂設(shè)計(jì)研究院有限公司,貴陽(yáng) 550009

情感分析任務(wù)屬于自然語(yǔ)言處理領(lǐng)域中重要的文本分類任務(wù)[1-3]。情感分析任務(wù)在不同的領(lǐng)域中扮演著不同的角色,也發(fā)揮著不同的作用。對(duì)于電商商家而言,可以給他們提高自身競(jìng)爭(zhēng)力提供合理建議;對(duì)于消費(fèi)者而言,可以給他們選擇物美價(jià)廉且適合自己商品提供重要參考;對(duì)于政府而言,通過(guò)對(duì)公眾輿論進(jìn)行情感分析是他們把握輿論動(dòng)態(tài)、調(diào)整政策的重要依據(jù)。目前無(wú)論是在電商領(lǐng)域,還是在政府平臺(tái)情感分析都有著實(shí)際且廣泛應(yīng)用,但是受到語(yǔ)言多樣性、隨機(jī)性,以及不斷出現(xiàn)的新鮮詞匯等因素的影響,中文短文本情感分析任務(wù)仍然具有挑戰(zhàn)性且具有極大的研究?jī)r(jià)值。

情感分析任務(wù)包含兩個(gè)重要的步驟[4],分別是文本特征提取與表示和文本特征分析與分類。針對(duì)文本特征的提取與表示,許多研究者花費(fèi)了大量的時(shí)間和工作進(jìn)行研究。Mikolov等[5-6]在2013年提出了Word2Vec模型對(duì)文本特征進(jìn)行表示,Pennington等[7]在2014年提出了Glove(global vectors)模型對(duì)文本特征進(jìn)行表示,以上兩種方法雖然解決了維度災(zāi)難問(wèn)題,但是它們均采用靜態(tài)方式對(duì)文本特征進(jìn)行表示,并未考慮文本的位置信息,也不能解決一詞多義問(wèn)題。隨著預(yù)訓(xùn)練語(yǔ)言模型在自然語(yǔ)言處理領(lǐng)域的發(fā)展,Peters等[8]提出了ELMO(embeddings from language models)、Radford等[9]提出了GPT(generative pre-training)、Devlin等[10]提出了基于Transformers的雙向編碼器表示預(yù)訓(xùn)練模型BERT(bidirectional encoder representations from transformers)、Lan等[11]在2019年提出了輕量化的BERT模型ALBERT(a lite BERT),該模型在BERT的基礎(chǔ)上,采用雙向Transformer作為特征提取器獲得文本的特征表示,有效利用了文本的語(yǔ)義信息和位置信息,并且將NSP任務(wù)升級(jí)為SOP任務(wù),在提升各個(gè)任務(wù)的準(zhǔn)確的同時(shí)也通過(guò)因式分解與參數(shù)共享兩個(gè)技術(shù)減少了模型的參數(shù)量,縮短了訓(xùn)練時(shí)間。

情感分析的文本特征分析方式一般包含三種,分別是基于情感詞典和規(guī)則[12-13]的方法、基于傳統(tǒng)機(jī)器學(xué)習(xí)[14-15]的方法和基于深度學(xué)習(xí)的方法。前兩種方法實(shí)現(xiàn)簡(jiǎn)單,容易理解但是泛化能力和遷移能力差,準(zhǔn)確度不高,因此基于深度學(xué)習(xí)的情感分析方法越來(lái)越受關(guān)注。Mikolov[16]、Kim[17]、Zhou[18]等先后提出了循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network)、文本卷積神經(jīng)網(wǎng)絡(luò)TextCNN(text convolutional neural network)、基于注意力的雙向長(zhǎng)短期記憶網(wǎng)絡(luò)Att-BiLSTM(attention-based long short-term memory networks),提高了文本分類的準(zhǔn)確率,但是它們遷移能力弱,針對(duì)不同的應(yīng)用領(lǐng)域需要重新訓(xùn)練和學(xué)習(xí),這將會(huì)花費(fèi)大量的人力、物力和財(cái)力,因此也限制了文本情感分析的進(jìn)一步發(fā)展。

綜上所述,為了更好地應(yīng)用文本的語(yǔ)義信息、位置信息以及通道間的關(guān)聯(lián)信息,提升模型對(duì)文本的情感分析能力,本文提出了結(jié)合ALBERT和注意力特征分割融合網(wǎng)絡(luò)(ALBERT-attention feature split fusion network,ALBERT-AFSFN),在文獻(xiàn)[19]的分割注意力網(wǎng)絡(luò)(split attention network)中嵌入文獻(xiàn)[20]的注意力特征融合(attention feature fusion,AFF)策略,從而提升其在不同通道間的特征提取和融合的能力。本文的主要貢獻(xiàn)如下:

(1)對(duì)分割注意力模塊進(jìn)行改進(jìn),在分割注意力模塊中嵌入有效的注意力特征融合模塊,解決不同尺度特征的融合問(wèn)題,并使其更適合用于捕獲文本中不同通道間的情感信息。

(2)把改進(jìn)的模塊結(jié)合到ALBERT網(wǎng)絡(luò)結(jié)構(gòu)中,使其有效利用文本的語(yǔ)義信息和位置信息,提高文本的分類準(zhǔn)確率。

(3)模型在三個(gè)數(shù)據(jù)集Chnsenticorp、waimai-10k和weibo-100k上實(shí)現(xiàn)了具有競(jìng)爭(zhēng)力的性能。

1 ALBERT預(yù)訓(xùn)練語(yǔ)言模型概述

ALBERT本質(zhì)上是一個(gè)輕量化的BERT模型。如圖1所示,其主要由輸入層、詞嵌入層、特征編碼層和輸出層組成。詞嵌入層主要將輸入的向量化文本的內(nèi)容信息、位置信息和句子信息進(jìn)行融合;特征提取層主要采用了雙向的Transformer編碼器對(duì)語(yǔ)料庫(kù)進(jìn)行特征提取表示,該編碼器的核心是多頭注意力機(jī)制。

圖1 ALBERT預(yù)訓(xùn)練語(yǔ)言模型結(jié)構(gòu)Fig.1 Structure of ALBERT

ALBERT除了保留BERT模型結(jié)構(gòu)的優(yōu)點(diǎn)外,還在此基礎(chǔ)上做了兩點(diǎn)改進(jìn):(1)通過(guò)使用嵌入層因式分解(embedding factorized embedding parameterization)和跨層參數(shù)共享(cross-layer parameter sharing)兩個(gè)技術(shù)減少了BERT模型的參數(shù)量,縮短了訓(xùn)練時(shí)間。(2)將任務(wù)NSP(next sentence prediction)換成更出色的SOP(sentence-order prediction)任務(wù),在避免了話題預(yù)測(cè)的同時(shí)迫使模型學(xué)習(xí)更細(xì)粒度的語(yǔ)篇層次連貫性差異,提升了模型的效果。

綜上所述,ALBERT相對(duì)于BERT而言,其參數(shù)更少,對(duì)語(yǔ)義特征提取能力更強(qiáng),更加適合于本文的短文本情感分析任務(wù)。

2 本文模型

2.1 模型概述和工作流程

本文提出了結(jié)合ALBERT和注意力特征分割融合網(wǎng)絡(luò)模型。如圖2所示,其主要由輸入層、ALBERT層、注意力特征分割融合網(wǎng)絡(luò)層、全連接層和Softmax層組成,該模型的主要工作流程如下:

圖2 ALBERT-AFSFN模型結(jié)構(gòu)示意圖Fig.2 Structure of ALBERT-AFSFN module

(1)對(duì)輸入的數(shù)據(jù)進(jìn)行預(yù)處理,并在輸入文本的開(kāi)頭和結(jié)尾分別加上特殊字符[CLS]和[SEP],通過(guò)輸入層將輸入文本內(nèi)容表示成序列化的情感文本信息,最后將其輸入到ALBERT網(wǎng)絡(luò)中。

(2)ALBERT網(wǎng)絡(luò)層通過(guò)雙向的Transformer對(duì)輸入序列的內(nèi)容特征和位置特征進(jìn)行提取,最終得到文本的特征表示。

(3)對(duì)ALBERT層輸出的文本特征進(jìn)行訓(xùn)練,首先將文本特征分為兩組,再將這兩組特征輸入到注意力特征融合(AFF)層得到融合的特征表示,之后再將其繼續(xù)通過(guò)全局池化層,全連接層得到特征矩陣,這個(gè)特征矩陣再拆分為兩部分分別通過(guò)softmax層得到權(quán)重矩陣,最后再將權(quán)重矩陣與兩組輸入分別相乘后通過(guò)AFF層進(jìn)行融合,得到最終的輸出。

(4)將特征融合分割注意力網(wǎng)絡(luò)層提取的特征通過(guò)兩次全連接層,第一次全連接層輸出的維度與ALBERT隱藏層維度大小相同,第二次全連接層輸出的維度是情感文本的類別數(shù),最后對(duì)輸出結(jié)果進(jìn)行Softmax歸一化,得到情感文本的每一類的概率分布矩陣,按最大值進(jìn)行索引,得到最終的文本情感分類標(biāo)簽。

2.2 改進(jìn)的AFSFN網(wǎng)絡(luò)

基本的分割注意力網(wǎng)絡(luò)(split-attention networks,SAN)是一個(gè)計(jì)算單元,它由特征圖組(feature-map group)和分割注意操作(split attention operations)組成,其首先將輸入分割為幾個(gè)特征組,之后再根據(jù)其簡(jiǎn)單的相加融合策略將分割后的幾個(gè)特征組進(jìn)行相加融合,之后在經(jīng)過(guò)池化、全連接、激活函數(shù)激活等一系列操作后得到兩個(gè)權(quán)重矩陣,最后將這兩個(gè)權(quán)重矩陣與切割后的輸入特征進(jìn)行簡(jiǎn)單相加融合得到最終的輸出。本文對(duì)分割注意力網(wǎng)絡(luò)的特征融合策略進(jìn)行了改進(jìn),即將其融合方式從簡(jiǎn)單的相加連接改為AFF方式連接,最大程度保留了不同通道之間的語(yǔ)義關(guān)聯(lián)信息,加強(qiáng)了其特征提取和融合能力。從而得到了改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)AFSFN,其結(jié)構(gòu)如圖3所示。

圖3 改進(jìn)的AFSFN模型結(jié)構(gòu)圖Fig.3 Imporved Structure of AFSFN

本文首先將輸入特征分為兩個(gè)組R(i∈1,2),用Ui(i∈1,2)表示,每組特征的通道數(shù)是c=C/2,之后再將兩個(gè)組的特征進(jìn)行注意特征融合,即將分割后的兩個(gè)特征Ui(i∈1,2)輸入到注意力特征融合網(wǎng)絡(luò)AFF中進(jìn)行融合并得到融合后的輸出,輸出的結(jié)果用F表示,計(jì)算公式如式(1)所示。通過(guò)分割注意力網(wǎng)絡(luò)的最終輸出Vc如式(2)所示。其中ai(c)是指在通道上通過(guò)r-Softmax的計(jì)算得出的權(quán)重系數(shù),其由式(3)計(jì)算得出。

ai(c)中g(shù)c i是指通過(guò)兩個(gè)全連接層和ReLU激活函數(shù)將s∈Rc參數(shù)化的注意力權(quán)重函數(shù),s表示輸入該網(wǎng)絡(luò)的向量特征表示,其在c通道上的計(jì)算如式(4)所示:

在改進(jìn)的AFSFN模型中,最主要的模塊是注意力特征融合模塊,其結(jié)構(gòu)如圖4所示。AFF的核心結(jié)構(gòu)是多尺度通道注意模塊(multi-scale channel attention module,MS-CAM),核心思想是通過(guò)改變空間池的大小,在多個(gè)尺度上實(shí)現(xiàn)通道注意融合。其計(jì)算公式如式(5)所示:

圖4 注意力特征融合模塊結(jié)構(gòu)圖Fig.4 Structure of attention feature fusion

其 中X∈RC×H×W與Y∈RC×H×W表 示 輸 入 特 征,Z∈RC×H×W表示通道注意力權(quán)重矩陣,M(?)表示MSCAM模塊的運(yùn)算和操作,C是特征的通道數(shù),H×W是特征的尺寸大小,⊕是指將向量擴(kuò)展成相同的維度后再進(jìn)行加法運(yùn)算,?是指將對(duì)應(yīng)向量進(jìn)行乘法運(yùn)算。

為了使網(wǎng)絡(luò)盡可能輕量化,MS-CAM模塊僅僅聚合了局部上下文(local context)網(wǎng)絡(luò)和全局上下文(global context)網(wǎng)絡(luò)。其中局部上下文聚合層的計(jì)算如式(6)所示:

其主要采用了逐點(diǎn)卷積(PWConv)作為聚合器,利用了輸入特征的每個(gè)空間位置的點(diǎn)式通道交互作用。全局上下文聚合層的計(jì)算方法與局部上下文聚合層類似,不同之處在于其一開(kāi)始對(duì)輸入進(jìn)行了全局平均池化。

3 實(shí)驗(yàn)結(jié)果和分析

本文使用的框架是PyTorch1.6.0,操作系統(tǒng)是Ubuntu18.04,操作系統(tǒng)的顯卡是NVDIA GeForce GTX 1080Ti,顯存有11 GB。

3.1 數(shù)據(jù)集介紹

為了驗(yàn)證本文模型的優(yōu)越性,本文選取了三個(gè)公共的數(shù)據(jù)集ChnSentiCorp、waimai-10k和weibo-100k進(jìn)行驗(yàn)證。其中ChnSentiCorp語(yǔ)料庫(kù)涉及酒店、筆記本與書籍三個(gè)領(lǐng)域的評(píng)論;waimai-10k語(yǔ)料庫(kù)是取自百度外賣平臺(tái)的評(píng)論,總共包含11 992條評(píng)論,其中正向評(píng)論3 900條,負(fù)向評(píng)論8 092條;weibo-100k是新浪微博上采集的大規(guī)模情感分析數(shù)據(jù)集,包含119 988條評(píng)論,正負(fù)向各59 994條。這些數(shù)據(jù)集正負(fù)情感傾向分布極為不均,因此本文使用下采樣對(duì)文本進(jìn)行了均衡處理,同時(shí)數(shù)據(jù)中存在大量的無(wú)關(guān)內(nèi)容,如用戶名、轉(zhuǎn)發(fā)標(biāo)記和URL等,本文使用正則表達(dá)式對(duì)數(shù)據(jù)進(jìn)行過(guò)濾處理,得到的處理前及處理后的數(shù)據(jù)如表1所示。

表1 數(shù)據(jù)預(yù)處理展示Table 1 Display of preprocessing data

3.2 參數(shù)設(shè)置

本文模型主要參數(shù)包括兩個(gè)部分,一部分是基礎(chǔ)模型ALBERT的參數(shù),本文采用谷歌發(fā)布的ALBERTBASE模型及其參數(shù)設(shè)置,另一部分是AFSFN部分的參數(shù),本文將其卷積核大小設(shè)置為3×Embedding size,通道數(shù)設(shè)置為64。本文所有參數(shù)設(shè)置如表2所示。

表2 總體參數(shù)設(shè)置Tabel 2 Settings of total paraments

3.3 模型對(duì)比實(shí)驗(yàn)

為了對(duì)比模型的效果,評(píng)估模型的競(jìng)爭(zhēng)性和優(yōu)越性,本文采用以下三個(gè)模型與本文模型進(jìn)行對(duì)比,各個(gè)模型的詳情如下:

(1)TextCnn模型:采用文獻(xiàn)[16]的TextCnn模型,本文使用了三個(gè)尺度不同的卷積核,其大小分別是3、4、5,通數(shù)都設(shè)置為64。

(2)Att-BiLSTM模型:采用文獻(xiàn)[18]的Attention+BiLSTM模型,該模型是由注意力機(jī)制和雙向長(zhǎng)短期記憶網(wǎng)絡(luò)組成。本文將隱藏層節(jié)點(diǎn)設(shè)置為768。

(3)ALBERT模型:采用文獻(xiàn)[15]的ALBERT-BASE模型,該模型的參數(shù)設(shè)置與本文模型的參數(shù)設(shè)置相同。

(4)ALBERT-SAN:采用文獻(xiàn)[15]與文獻(xiàn)[19]的網(wǎng)絡(luò)相結(jié)合,即將ALBERT與未改進(jìn)的分割注意力網(wǎng)絡(luò)SAN相結(jié)合。ALBERT模型的參數(shù)設(shè)置與本文其他模型相同,分割注意力網(wǎng)絡(luò)SAN的特征圖組(feature-map group)參數(shù)設(shè)置為1,基本組(cardinal group)參數(shù)設(shè)置為2。

(5)ALBERT-AFSFN模型:本文提出的結(jié)合ALBERT和改進(jìn)的分割注意力網(wǎng)絡(luò)的中文短文本情感分析模型。

同時(shí)本文選取了準(zhǔn)確率(accuracy,A)、召回率(recall,R)和F1值作為驗(yàn)證指標(biāo)。實(shí)驗(yàn)結(jié)果如表3所示。

通過(guò)表3的對(duì)比實(shí)驗(yàn)可以看出,結(jié)合ALBERT與原始分割注意力網(wǎng)絡(luò)(ALBERT-SAN)的模型在三個(gè)數(shù)據(jù)集上的準(zhǔn)確率、召回率和F1值均都有所提升,且在ChnSentiCorp數(shù)據(jù)集上得到了最好的準(zhǔn)確率,在waimai-10k數(shù)據(jù)集上得到了最好的召回率,表明ALBERT-SAN網(wǎng)絡(luò)是有優(yōu)勢(shì)的。為了進(jìn)一步提升模型的表現(xiàn)力,本文對(duì)原始的分割注意力網(wǎng)絡(luò)進(jìn)行了改進(jìn),得到模型ALBERT-AFSFN。通過(guò)表3的實(shí)驗(yàn)結(jié)果可以看出該模型與傳統(tǒng)的Att-BiLSTM、TextCnn網(wǎng)絡(luò)相比有了大幅度提升,尤其是在小樣本數(shù)據(jù)集ChnSentiCorp和waimai-10k上提升幅度較大,準(zhǔn)確率的提升能達(dá)到3%左右,在大樣本數(shù)據(jù)集weibo-100k上也能提升1%左右;相比于基本的ALBERT,本文提出的網(wǎng)絡(luò)ALBERT-AFSFN無(wú)論是在準(zhǔn)確率上,召回率上還是F1值上均提升1%左右,表明本文模型的優(yōu)秀能力;相比于ALBERT-SAN網(wǎng)絡(luò),本文網(wǎng)絡(luò)ALBERT-AFSFN在數(shù)據(jù)集ChnSentiCorp上的召回率和F1值是有優(yōu)勢(shì)的;在數(shù)據(jù)集waimai-10k上的準(zhǔn)確率和F1值是有進(jìn)步的;在數(shù)據(jù)集weibo-100k上的準(zhǔn)確率、召回率和F1值均是有提升的,這些結(jié)果也進(jìn)一步證明了通過(guò)AFF改進(jìn)分割注意力網(wǎng)絡(luò),并讓其與ALBERT相連接是有效果的,也是非常有必要的。

表3 模型對(duì)比實(shí)驗(yàn)結(jié)果Table 3 Experimental results of compared modules %

為了更加直觀地觀察本文提出的模型與傳統(tǒng)網(wǎng)絡(luò)模型的準(zhǔn)確率和F1值的變化趨勢(shì)以及模型的收斂情況,現(xiàn)將各個(gè)模型在ChnSentiCorp數(shù)據(jù)集上的準(zhǔn)確率、F1值和Loss在訓(xùn)練中的變換情況繪制成如圖5~7所示的折線圖。

圖5 各模型的準(zhǔn)確率變化趨勢(shì)折線圖Fig.5 Accuracy line chart of each model

圖6 各模型的F1值變化趨勢(shì)折線圖Fig.6 F1 line chart of each model

圖7 各模型的Loss變化情況折線圖Fig.7 Loss line chart of each model

由圖5~7所示的準(zhǔn)確率、F1值以及Loss變化情況可以看出,Accuracy和F1值在訓(xùn)練步數(shù)10步左右時(shí),均有所波動(dòng),20步左右時(shí)開(kāi)始趨于平緩,且本文模型的結(jié)果都明顯優(yōu)于其他模型,表明本文模型能夠取得更優(yōu)秀的成績(jī)。同時(shí)訓(xùn)練步數(shù)在10步左右時(shí)Loss下降速度開(kāi)始減慢,20步左右時(shí),Loss開(kāi)始趨于平緩,但是本文提出的模型的Loss一直是最小的,表明了其收斂性更好,收斂速度更快。也證明其在中文短文本情感分析中的有效性和優(yōu)越性。

同時(shí)為了直觀觀察和對(duì)比通過(guò)AFF改進(jìn)后的分割注意力網(wǎng)絡(luò)和基本的分割注意力網(wǎng)絡(luò)在中文短文本情感分析中的效果,現(xiàn)將其在訓(xùn)練中的準(zhǔn)確率、召回率和F1值變化趨勢(shì)繪制成如圖8~10所示的曲線圖。

圖8 改進(jìn)前后的AFSFN模型準(zhǔn)確率變化趨勢(shì)折線圖Fig.8 AFSFN model accuracy change trend line chart before and after improvement

圖9 改進(jìn)前后的AFSFN模型召回率變化趨勢(shì)折線圖Fig.9 AFSFN model recall rate change trend line chart before and after improvement

由圖8~10所示的準(zhǔn)確率、召回率和F1值變化情況可以直觀看出通過(guò)AFF改進(jìn)后的分割注意力網(wǎng)絡(luò)得到的結(jié)果明顯優(yōu)于基本的分割注意力網(wǎng)絡(luò),并且其訓(xùn)練穩(wěn)定程度也優(yōu)于基本的分割注意力網(wǎng)絡(luò),說(shuō)明了通過(guò)AFF融合策略改進(jìn)后的分割注意力網(wǎng)絡(luò)具有優(yōu)秀效果和表現(xiàn)力。

3.4 訓(xùn)練方法對(duì)比實(shí)驗(yàn)

訓(xùn)練方法一般也會(huì)影響結(jié)果的準(zhǔn)確性,本文運(yùn)用了兩種訓(xùn)練方法對(duì)模型進(jìn)行驗(yàn)證。一種是凍結(jié)預(yù)訓(xùn)練語(yǔ)言模型的參數(shù),僅對(duì)下層模型的參數(shù)進(jìn)行訓(xùn)練更新;一種是無(wú)論是預(yù)訓(xùn)練語(yǔ)言模型還是下層模型都對(duì)其參數(shù)進(jìn)行更新。

本文在三個(gè)數(shù)據(jù)集上都進(jìn)行了不同訓(xùn)練方法訓(xùn)練的實(shí)驗(yàn),且凍結(jié)參數(shù)訓(xùn)練方法和不凍結(jié)參數(shù)訓(xùn)練方法的學(xué)習(xí)率、訓(xùn)練步數(shù)以及優(yōu)化器等參數(shù)設(shè)置均相同,其結(jié)果如表4所示,從表中可看出將全部參數(shù)進(jìn)行訓(xùn)練會(huì)得到更高的準(zhǔn)確率、召回率和F1值,并且在情感分類任務(wù)中該種方法的分類效果也更好,可靠性也更高。

圖10 改進(jìn)前后的AFSFN模型F1值變化趨勢(shì)折線圖Fig.10 Straight line graph of F1 value change trend of AFSFN model before and after improvement

表4 訓(xùn)練方法對(duì)比實(shí)驗(yàn)結(jié)果Table 4 Experiments results of compared trainning-way %

4 結(jié)束語(yǔ)

本文提出了一種ALBERT-AFSFN模型,用于中文短文本情感分析。模型首先對(duì)網(wǎng)絡(luò)Split-Attention Network的特征融合策略進(jìn)行了改進(jìn),將其從簡(jiǎn)單的相加連接改為AFF連接,加強(qiáng)了該網(wǎng)絡(luò)通道間的聯(lián)系,最大程度保留了通道間的語(yǔ)義信息及其關(guān)聯(lián)信息。除此之外模型還采用ALBERT預(yù)訓(xùn)練語(yǔ)言模型訓(xùn)練得出動(dòng)態(tài)詞向量的特征表示,在保證提取到語(yǔ)料庫(kù)內(nèi)容信息的同時(shí),也保證提取到了語(yǔ)料庫(kù)的位置信息。實(shí)驗(yàn)結(jié)果表明,該模型在不同實(shí)驗(yàn)數(shù)據(jù)上相較于傳統(tǒng)的Att-BiLSTM網(wǎng)絡(luò)和TextCNN神經(jīng)網(wǎng)絡(luò),都具有較高準(zhǔn)確度和F1值,且其收斂性也更好,表明其能夠適應(yīng)不同領(lǐng)域的中文文本數(shù)據(jù),證明了本模型的優(yōu)越性和競(jìng)爭(zhēng)力。

在未來(lái)的工作中,將進(jìn)一步考慮如何有效地融合更多通道的信息,提升模型特征提取和融合的能力,從而將本文所提出的模型應(yīng)用到更廣泛的領(lǐng)域中,甚至將其應(yīng)用到自然語(yǔ)言處理的其他任務(wù)中,例如方面級(jí)情感分類任務(wù)、觀點(diǎn)提取任務(wù)和命名體識(shí)別任務(wù)等。

猜你喜歡
特征文本融合
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
《融合》
如何表達(dá)“特征”
在808DA上文本顯示的改善
不忠誠(chéng)的四個(gè)特征
基于doc2vec和TF-IDF的相似文本識(shí)別
電子制作(2018年18期)2018-11-14 01:48:06
抓住特征巧觀察
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
主站蜘蛛池模板: 国产凹凸视频在线观看| 欧美成人看片一区二区三区| 97久久超碰极品视觉盛宴| a欧美在线| 成人一级免费视频| 99久久亚洲精品影院| 亚洲va欧美va国产综合下载| 亚洲无码精品在线播放| 99在线视频网站| 免费Aⅴ片在线观看蜜芽Tⅴ | 超清无码一区二区三区| 国产福利微拍精品一区二区| 激情无码字幕综合| 人妻精品久久无码区| 天堂av综合网| 久久久久夜色精品波多野结衣| 精品国产美女福到在线直播| 国产精品一区在线麻豆| 国产毛片高清一级国语| 亚洲午夜福利精品无码| 国产高清又黄又嫩的免费视频网站| 人妻丝袜无码视频| 成人久久精品一区二区三区| 欧美精品在线看| 午夜a级毛片| 一区二区三区毛片无码| 久久精品亚洲专区| 热久久综合这里只有精品电影| 欧美一级大片在线观看| 日韩福利在线观看| 亚洲V日韩V无码一区二区| 中文字幕亚洲精品2页| 亚洲国产综合自在线另类| 色综合中文| 特黄日韩免费一区二区三区| 手机在线免费不卡一区二| 亚洲第一页在线观看| 欧美一区二区三区不卡免费| 日韩av无码DVD| 成人在线综合| 国模粉嫩小泬视频在线观看| 欧美激情视频一区二区三区免费| 一本大道香蕉久中文在线播放| 伊伊人成亚洲综合人网7777| 国产午夜不卡| 欧美激情二区三区| 4虎影视国产在线观看精品| 欧美日韩成人| 成人精品免费视频| 亚洲国产日韩在线观看| 天天婬欲婬香婬色婬视频播放| 国产在线专区| 欧美日韩专区| 在线观看视频一区二区| 精品自窥自偷在线看| 欧美精品啪啪一区二区三区| 亚洲女人在线| 国产成人精品一区二区| 精品国产香蕉在线播出| 五月婷婷激情四射| 久久中文字幕av不卡一区二区| 欧美午夜理伦三级在线观看| 中文毛片无遮挡播放免费| 亚洲成A人V欧美综合| 亚洲av日韩av制服丝袜| 天天摸夜夜操| 亚洲欧美在线看片AI| 精品91自产拍在线| 国产天天色| 一区二区三区成人| 国产精品亚洲一区二区在线观看| 制服丝袜一区| 91口爆吞精国产对白第三集| 精品国产Av电影无码久久久| 久久96热在精品国产高清| 国产一区二区三区日韩精品| 人妻出轨无码中文一区二区| 不卡无码h在线观看| 日韩在线网址| 欧美精品伊人久久| 中国一级特黄视频| 国产精品永久免费嫩草研究院|