999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于上下文信息的產(chǎn)品評論摘要Bi-LSTM模型

2021-06-21 01:53:32張宜飛王中卿王紅玲
關(guān)鍵詞:產(chǎn)品實(shí)驗(yàn)信息

張宜飛 張 迎 王中卿 王紅玲

(蘇州大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 江蘇 蘇州 215006)

0 引 言

隨著互聯(lián)網(wǎng)的快速發(fā)展,產(chǎn)品評論摘要任務(wù)已經(jīng)成為自然語言處理應(yīng)用的一個(gè)重要的研究方向[1]。產(chǎn)品評論摘要一方面可以為潛在用戶提供大眾對某些產(chǎn)品的總體評價(jià)情況,使用戶擺脫枯燥、繁瑣的信息檢索和瀏覽工作,從而為用戶的決策提供可靠的依據(jù)。另一方面,產(chǎn)品評論摘要可以對產(chǎn)品的評價(jià)進(jìn)行整合,提供一個(gè)整體傾向性綜述,從而幫助企業(yè)了解自己的優(yōu)勢和不足,做出合理的調(diào)整[2-3]。

產(chǎn)品評論摘要任務(wù)的一個(gè)關(guān)鍵步驟是判斷產(chǎn)品評論內(nèi)哪些詞語或者句子更具有代表性,更能代表用戶的廣泛意見。傳統(tǒng)的產(chǎn)品評論摘要方法的過程:根據(jù)評論句子的文本信息對評論句子的重要性進(jìn)行評分,然后按照評分大小抽取出產(chǎn)品評論中重要的句子作為摘要[4]。產(chǎn)品評論內(nèi)的每條評論是某一用戶針對某一商品進(jìn)行的主觀性評價(jià)。這類文本具有文體自由、書寫隨意、錯(cuò)誤較多等特點(diǎn)[1],這使得在產(chǎn)品評論摘要任務(wù)中,僅僅根據(jù)評論句子信息很難準(zhǔn)確地判斷句子的重要程度。

如圖1所示,目標(biāo)句子“這里的食物真的很棒,非常新鮮可口?!笔荵elp2013數(shù)據(jù)集中一個(gè)餐館對象的評論中的一個(gè)句子。如果只考慮目標(biāo)句子的文本信息,很難判斷該句能否作為摘要句子。但是,如果結(jié)合該句所在的上文信息“說實(shí)話我沒有在這里遇到我不喜歡的食物……”和下文信息“這里提供非常新鮮的食材,值得一試……”,就能夠很容易地將該句判斷為摘要句。由此可見,產(chǎn)品評論中句子的重要程度與其所在的同一評論內(nèi)的其他句子內(nèi)容(上下文信息)密切相關(guān)。合理地運(yùn)用上下文信息能夠極大地提升產(chǎn)品評論摘要任務(wù)的效果。

圖1 上下文信息對產(chǎn)品評論摘要的影響示例

為了充分發(fā)揮上下文信息對產(chǎn)品評論摘要任務(wù)的影響,本文提出一種基于上下文信息的產(chǎn)品評論摘要方法。該方法的特色在于層次化地使用Bi-LSTM[5]神經(jīng)網(wǎng)絡(luò)捕捉產(chǎn)品評論內(nèi)的句子信息以及同一評論內(nèi)不同句子之間的上下文信息。具體而言,首先,將同一評論中的每個(gè)句子信息分別使用Bi-LSTM神經(jīng)網(wǎng)絡(luò)進(jìn)行編碼,捕捉單個(gè)句子的獨(dú)立信息;其次,將同一評論內(nèi)各個(gè)句子的獨(dú)立信息進(jìn)行融合后輸入到一個(gè)Bi-LSTM神經(jīng)網(wǎng)絡(luò)中進(jìn)行編碼,獲取多個(gè)句子之間的上下文融合信息;最后,將上下文融合信息輸入到一個(gè)全連接層進(jìn)行訓(xùn)練,得到各個(gè)句子是否為摘要句的概率分布。本文最終選擇概率最大的句子組合作為產(chǎn)品評論摘要。

1 相關(guān)工作

產(chǎn)品評論摘要任務(wù)的主要目標(biāo)在于對產(chǎn)品評論中的觀點(diǎn)和意見進(jìn)行挖掘,從而總結(jié)出用戶對該產(chǎn)品對象各方面性能的褒貶評價(jià)。傳統(tǒng)的評論文摘方法按照實(shí)現(xiàn)方式可以分為兩大類:抽取式文摘與生成式文摘。

抽取式評論文摘直接從原始評論中抽取有代表性的詞語、短語和句子構(gòu)成文摘[6]。Nishikawa等[4]為每個(gè)句子分配可讀性和信息性兩種得分,然后運(yùn)用動(dòng)態(tài)規(guī)劃算法根據(jù)得分大小選擇得分最高的句子作為產(chǎn)品評論摘要。Ganesan等[7]為輸入的評論信息生成一個(gè)文本詞匯圖,并基于圖結(jié)構(gòu)的三種特性(冗余捕獲、間隔子序列捕獲和結(jié)構(gòu)可折疊),將圖中重要的子路徑作為候選文摘,然后對這些子路徑進(jìn)行評分并選擇其中排序靠前的子路徑文摘片段生成最終的評論摘要。Yu等[8]根據(jù)產(chǎn)品的不同方面抽取出評論內(nèi)對應(yīng)的短語,然后利用整數(shù)線性規(guī)劃方法根據(jù)短語的屬性選擇最佳短語的子集生成最終的摘要。

生成式評論文摘是利用自然語言理解技術(shù)對評論文本進(jìn)行語法、語義分析,對信息進(jìn)行融合,并利用自然語言生成技術(shù)生成新的摘要句子[9]。Wang等[10]針對對話語料研究了觀點(diǎn)抽取式文摘。他們采用傳統(tǒng)的句子排序和基于圖的方法,同時(shí)也考慮了如主題相關(guān)性、情感和對話結(jié)構(gòu)等特征來生成文摘。Gerani等[11]提出了基于篇章結(jié)構(gòu)信息的評論摘要方法,該方法將評論信息按照其篇章結(jié)構(gòu)表示成篇章結(jié)構(gòu)圖,然后采用基于模板的自然語言生成框架生成評論摘要。Yang等[12]提出了一種相互關(guān)注機(jī)制,在編碼端以交互方式學(xué)習(xí)上下文詞、情感詞和方面詞的表示。在解碼端,將學(xué)習(xí)到的情緒和方面信息結(jié)合到解碼器中并通過注意力融合網(wǎng)絡(luò)生成評論摘要。

與生成式文摘相比,抽取式文摘可以避免復(fù)雜的自然語言生成問題,是一種領(lǐng)域無關(guān)的文摘技術(shù),因而受到自動(dòng)文摘領(lǐng)域研究者的關(guān)注[1]。然而,目前傳統(tǒng)的抽取式評論文摘方法只考慮評論句子本身的信息,忽略了同一條評論中不同句子之間的上下文信息對評論摘要任務(wù)的影響。這就導(dǎo)致了文摘存在內(nèi)容不連貫、冗余信息較多和不能較好地反映總體觀點(diǎn)等問題。

為了解決上述問題,本文采用層次化的Bi-LSTM神經(jīng)網(wǎng)絡(luò)模型將上下文信息加入到評論摘要任務(wù)中,以便提高該任務(wù)的性能。本文方法具有以下貢獻(xiàn):(1) 針對產(chǎn)品評論中同一條評論內(nèi)不同句子之間的相關(guān)性,提出一種基于上下文信息的產(chǎn)品評論摘要模型,以便提高評論摘要的準(zhǔn)確度。(2) 采用句子到評論的雙層Bi-LSTM神經(jīng)網(wǎng)絡(luò)對產(chǎn)品評論信息進(jìn)行編碼,聯(lián)合學(xué)習(xí)句子信息和上下文信息,從而提高評論摘要的質(zhì)量。(3) 采用Attention機(jī)制[13-14]更加準(zhǔn)確地捕捉評論句子的深層語義信息,進(jìn)一步提高產(chǎn)品評論摘要任務(wù)的性能。

2 基于上下文信息的產(chǎn)品評論摘要

產(chǎn)品評論摘要從定義上說,是從一個(gè)產(chǎn)品的所有評論中抽取出一系列有序的能夠代表評論廣泛意見的句子作為該產(chǎn)品的綜合評論[15]。該任務(wù)的關(guān)鍵是判斷產(chǎn)品評論內(nèi)各個(gè)句子的重要程度,以便抽取出其中的重要內(nèi)容。由于句子的重要程度不僅與句子本身的語義信息有關(guān),還與句子所在的上下文信息之間存在著緊密聯(lián)系[16]。因此,本文提出一種基于上下文信息的產(chǎn)品評論摘要模型,將上下文信息應(yīng)用到產(chǎn)品評論摘要任務(wù)中,從而提高該任務(wù)的性能。如圖2 所示,該模型主要分為以下4個(gè)部分。

圖2 基于上下文信息的產(chǎn)品評論摘要模型

(1) 句子信息表示模塊:采用Bi-LSTM神經(jīng)網(wǎng)絡(luò)對產(chǎn)品評論中的句子信息進(jìn)行表示,將句子的文本信息映射為固定維度的向量作為其初始表示。

(2) 注意力機(jī)制模塊:采用詞級別的注意力機(jī)制學(xué)習(xí)評論句子中各個(gè)詞對句子深層語義表示的貢獻(xiàn)權(quán)重,以便得到更加準(zhǔn)確的句子深層語義表示。

(3) 上下文信息融合模塊:根據(jù)同一評論中不同句子之間信息相關(guān)性,將上一步得到的各個(gè)句子信息以評論為單位進(jìn)行深層融合,從而得到上下文融合信息。

(4) 摘要生成模塊:運(yùn)用得到的上下文融合信息進(jìn)行摘要句分類,得到各個(gè)句子是否為摘要句的概率得分,并選擇得分高的句子生成評論摘要。

2.1 句子信息表示

對于產(chǎn)品評論內(nèi)的任意一條評論r,按照其包含的句子信息可分為句子集r={s1,s2,…,sk,…,sr}。對于評論r中的第k個(gè)句子sk,對其進(jìn)行如下處理。

句子嵌入表示:將句子sk視為基于單詞的文本序列進(jìn)行處理。

sk=[wk1,wk2,…,wkt,…,wkn]

(1)

式中:wkt∈R|V|為句子sk中第t個(gè)單詞在字典V中的one-hot表示;n表示文本序列的長度;V表示訓(xùn)練語料包含的所有單詞中頻度最高的前10 000個(gè)高頻詞集合;|V|表示詞典的大小。

本文使用Word2vec模型[17]訓(xùn)練基于詞的產(chǎn)品評論文本序列得到詞向量矩陣We,然后得到評論句子中各個(gè)單詞的嵌入表示:

xkt=We·wkt

(2)

式中:We∈Rd×|V|表示詞向量矩陣,d表示詞向量的維度。最終,句子sk經(jīng)過嵌入表示為向量:

Esk=[xk1,xk2,…,xkt,…,xkn]

(3)

基于Bi-LSTM的句子信息編碼:本文采用雙向長短記憶網(wǎng)絡(luò)(Bi-LSTM)[5]對句子的嵌入表示進(jìn)行編碼,得到相應(yīng)的隱含向量表示Hsk,具體過程如下:

(4)

(5)

(6)

Hsk=[hk1,hk2,…,hkt,…,hkn]

(7)

2.2 注意力機(jī)制

注意力機(jī)制是在視覺圖像領(lǐng)域被提出來的一種結(jié)構(gòu),隨后被應(yīng)用到各種自然語言處理任務(wù)中,并取得了很好的效果[13-14]。注意力機(jī)制借鑒了人類視覺系統(tǒng)中的“注意力”原理,將注意力集中在目標(biāo)對象中最相關(guān)的部分,而不是所有內(nèi)容。利用注意力機(jī)制能夠?qū)W習(xí)到隱層向量之間的權(quán)重分布。評論句子中不同單詞包含的語義信息不同,對句子語義信息的貢獻(xiàn)程度是不一樣的。因此,本文使用注意力機(jī)制學(xué)習(xí)句子中不同單詞對句子深層語義信息的貢獻(xiàn)權(quán)重,并對句子內(nèi)各單詞向量進(jìn)行加權(quán)求和得到這個(gè)句子的深層語義表示。具體過程如下:

(8)

(9)

ukt=tanh(Ww·hkt+bw)

(10)

式中:Vsk為句子sk的深層語義表示;hkt表示句子sk中第t個(gè)單詞的向量表示;akt表示單詞向量hkt對句子sk的注意力權(quán)重;ukt表示單詞向量hkt在注意力機(jī)制內(nèi)的隱藏層狀態(tài);tanh是一種非線性激活函數(shù);參數(shù)矩陣uw表示語境向量;ukt表示單調(diào)向量hkt在注意力機(jī)制內(nèi)的隱藏層狀態(tài);Ww表示中間矩陣;bw表示偏移量,它們都在訓(xùn)練過程中被隨機(jī)初始化并更新。

2.3 上下文信息融合

2.2節(jié)給出了商品評論中每個(gè)句子經(jīng)過Bi-LSTM神經(jīng)網(wǎng)絡(luò)和Attention機(jī)制后的深層語義表示,這一部分的主要任務(wù)是對同一條評論內(nèi)的各個(gè)句子信息進(jìn)行深層融合,挖掘出同一評論內(nèi)不同句子之間的聯(lián)系。

首先,對同一評論內(nèi)的句子表示進(jìn)行簡單拼接。如式(11)所示,得到向量Vr,但是該向量并不能很好地反映同一評論內(nèi)不同句子之間的聯(lián)系。因此,本文進(jìn)一步采用Bi-LSTM神經(jīng)網(wǎng)絡(luò)對拼接后的向量進(jìn)行編碼,生成上下文融合信息Hr。如式(12)所示,Bi-LSTM神經(jīng)網(wǎng)絡(luò)能夠捕捉同一評論內(nèi)不同句子之間的聯(lián)系,從而充分考慮上下文信息對句子重要程度的影響。

Vr=Vs1⊕Vs2⊕…⊕Vsm

(11)

式中:⊕表示向量之間的拼接。

Hr=Bi-LSTM(Vr)

(12)

2.4 摘要生成

在網(wǎng)絡(luò)的訓(xùn)練過程中,本文采用RMSProp優(yōu)化算法[19]對網(wǎng)絡(luò)的參數(shù)進(jìn)行更新,并使用交叉熵誤差作為損失函數(shù),計(jì)算式為:

(13)

最后,將同一評論內(nèi)不同句子的損失函數(shù)的加權(quán)和作為基于上下文信息的產(chǎn)品評論摘要模型的損失函數(shù),如下:

(14)

式中:Lossk表示評論中第k條句子的損失;Wk表示評論中第k條句子的損失權(quán)重。

3 實(shí)驗(yàn)與結(jié)果分析

3.1 實(shí)驗(yàn)數(shù)據(jù)

本文使用Yelp2013數(shù)據(jù)集對本文模型的有效性進(jìn)行驗(yàn)證。該數(shù)據(jù)集共包含商戶(Business)、評論(Review)和用戶(User)三種對象。其中:商戶對象表示一些餐館或商店等,主要包含商戶類別、商戶地址、商戶聯(lián)系方式、商戶評分和商戶評價(jià)等信息;評論對象則表示某一用戶對某一商戶的評價(jià)信息,主要包括評論所屬的用戶ID、評論的商戶對象ID、評論的文本信息、評論的評分信息,以及評論所收到的投票數(shù)等,其中投票數(shù)包含 funny、useful 和 cool 三種投票數(shù),代表其他用戶對該評論內(nèi)容的認(rèn)可程度。具體統(tǒng)計(jì)數(shù)據(jù)如表1所列。

表1 Yelp2013數(shù)據(jù)集統(tǒng)計(jì)數(shù)據(jù)

3.2 評價(jià)方法

本文采用ROUGE評價(jià)準(zhǔn)則[20]對實(shí)驗(yàn)抽取出的摘要進(jìn)行評價(jià)。ROUGE是由ISI的Lin等提出的一種自動(dòng)摘要評價(jià)方法,現(xiàn)被廣泛應(yīng)用于DUC(Document Understanding Conference)的摘要評測任務(wù)中。

ROUGE評測準(zhǔn)則基于摘要中N元詞(N-Gram)的共現(xiàn)信息來評價(jià)摘要,是一種面向N元詞召回率的評價(jià)方法。該評測準(zhǔn)則由一系列的評價(jià)方法組成,包括ROUGE-1、ROUGE-2、ROUGE-3、ROUGE-4,以及ROUGE-Skipped-N-Gram等,其中1、2、3和4分別代表基于1元詞到4元詞跳躍的N-Gram模型。本文選擇ROUGE-1、ROUGE-2、ROUGE-L和ROUGE-SU4的F值來對實(shí)驗(yàn)抽取出的摘要進(jìn)行評價(jià)。

3.3 對比算法

(1) TextRank:基于圖排序的抽取式摘要算法。該方法把一個(gè)商戶評論中的所有句子視作一個(gè)圖結(jié)構(gòu),將評論中的單個(gè)句子視為圖中的節(jié)點(diǎn),任意兩句子之間的余弦相似度表示這兩個(gè)節(jié)點(diǎn)之間邊的權(quán)重[21]。然后在圖上使用全局的信息不斷迭代計(jì)算商戶評論中各個(gè)句子的重要度。最后,按照句子重要度從大到小的順序抽取句子組合作為摘要,直至達(dá)到文摘指定的長度。

(2) Bi-LSTM:使用Bi-LSTM神經(jīng)網(wǎng)絡(luò)[5]抽取商戶評論摘要的方法。對于一個(gè)商戶評論中的每一條句子sk,首先,用該句子包含的單詞信息構(gòu)成該句子的嵌入表示Esk;然后,采用雙向LSTM神經(jīng)網(wǎng)絡(luò)對句子的嵌入表示進(jìn)行編碼,得到相應(yīng)的隱含向量表示Hsk;最后,將向量Hsk輸入到全連接層,預(yù)測出句子是否為摘要的概率分布[P0,P1]。其中:P0表示該句子不是摘要的概率;P1表示該句子是摘要的概率。本文按照P1大小從大到小地選擇句子組合作為摘要,直至達(dá)到文摘指定的長度。

(3) Bi-LSTM+Attention:在上述Bi-LSTM方法的基礎(chǔ)上加入Attention機(jī)制[13-14],對句子中重要的內(nèi)容給予更大的關(guān)注度,從而更加準(zhǔn)確地捕捉評論句子的深層語義信息,提高模型抽取摘要的準(zhǔn)確度。

(4) Bi-LSTM+Context:根據(jù)同一評論內(nèi)句子的信息相關(guān)性,將同一評論內(nèi)的所有句子信息組合起來訓(xùn)練評論摘要模型,同時(shí)預(yù)測同一評論內(nèi)各個(gè)句子的重要程度。首先,采用Bi-LSTM神經(jīng)網(wǎng)絡(luò)對產(chǎn)品評論中的句子信息進(jìn)行表示,生成每個(gè)句子的獨(dú)立信息;然后,將同一評論內(nèi)的句子信息進(jìn)行拼接,生成向量Vr;最后,將拼接后的向量Vr輸入到全連接層中,預(yù)測出該評論內(nèi)各個(gè)句子是否為摘要句的概率得分,并選擇得分高的句子組合作為評論摘要,直到達(dá)到文摘的指定長度。

(5) Bi-LSTM+Context+Attention:在上述Bi-LSTM+Context方法的基礎(chǔ)上加入Attention機(jī)制,以便更加準(zhǔn)確地捕捉評論句子的深層語義信息,從而進(jìn)一步提升產(chǎn)品評論摘要任務(wù)的性能。

(6) Bi-LSTM+Context+Hierarchical:在上述Bi-LSTM+Context方法的基礎(chǔ)上,進(jìn)一步采用Bi-LSTM神經(jīng)網(wǎng)絡(luò)對向量Vr進(jìn)行編碼,以便更加準(zhǔn)確地捕捉同一評論內(nèi)不同句子之間的聯(lián)系,充分發(fā)揮上下文信息對產(chǎn)品評論摘要任務(wù)的影響。

3.4 實(shí)驗(yàn)設(shè)置

3.4.1數(shù)據(jù)預(yù)處理

本文以Yelp2013數(shù)據(jù)集中的商戶對象為單位,按照商戶類別和商戶所包含的評論數(shù)量選擇了629個(gè)評論個(gè)數(shù)大于100的餐館商戶對象進(jìn)行實(shí)驗(yàn)。在實(shí)驗(yàn)中,將商戶評論中funny、useful和cool 投票總數(shù)最高的那條評論作為該商戶對象的理想評論。對于每個(gè)商戶對象本文只保留該商戶的理想評論和10條普通評論進(jìn)行實(shí)驗(yàn)。最終選擇了其中529個(gè)商戶、共5 290條評論、26 450條句子作為訓(xùn)練集,剩余的100個(gè)商戶、共1 000條評論、5 000條句子作為測試集。

本文對于每個(gè)商戶做如下處理:首先,對該商戶的每一條評論按照句號(hào)、問號(hào)和感嘆號(hào)等分隔符進(jìn)行分句。在此,本文限定每條句子包含的單詞數(shù)在4~50之間,從而過濾掉過長或過短的句子。其次,通過統(tǒng)計(jì)發(fā)現(xiàn)訓(xùn)練集中每個(gè)商戶的評論平均包含5 條句子。因此,對于每條評論只保留其前5條句子的信息作為該評論的內(nèi)容,從而保證每條評論都包含相同的句子數(shù)。最后,對于訓(xùn)練集中的每一個(gè)商戶對象,將該商戶的普通評論中與該商戶理想評論相似度最高的10%的句子標(biāo)記為1,即該句為摘要句子,剩余90%的句子標(biāo)記為0,即該句為非摘要句子。本文將句子向量之間的余弦值作為句子之間的相似度。

3.4.2實(shí)驗(yàn)參數(shù)設(shè)置

通過統(tǒng)計(jì)發(fā)現(xiàn),訓(xùn)練集中每個(gè)商戶的理想評論平均包含287個(gè)英文單詞。因此,本文將最終抽取的評論摘要的最大長度設(shè)置為287。本文實(shí)驗(yàn)的所有代碼都是基于Keras深度學(xué)習(xí)框架進(jìn)行編寫,運(yùn)行環(huán)境為Linux操作系統(tǒng)。實(shí)驗(yàn)的詳細(xì)參數(shù)設(shè)置如表2所示。

表2 神經(jīng)網(wǎng)絡(luò)中的主要參數(shù)設(shè)置

3.5 實(shí)驗(yàn)結(jié)果分析

本文共進(jìn)行了3組實(shí)驗(yàn)進(jìn)行產(chǎn)品評論摘要抽取。實(shí)驗(yàn)1主要與一些經(jīng)典的抽取式評論摘要方法進(jìn)行比較,衡量本文提出的基于上下文信息的產(chǎn)品評論摘要模型(CHA)的有效性。實(shí)驗(yàn)2主要是為了分析上下文信息對產(chǎn)品評論摘要任務(wù)的影響。實(shí)驗(yàn)3主要是為了分析Attention機(jī)制對實(shí)驗(yàn)結(jié)果的影響。本文采用ROUGE評價(jià)指標(biāo)對實(shí)驗(yàn)生成的評論摘要與該商戶的理想評論進(jìn)行結(jié)果評測。

3.5.1與基準(zhǔn)模型的比較

為了衡量CHA的有效性,本文選取了目前兩種主流的抽取式評論摘要方法,即TextRank和Bi-LSTM方法,與本文模型進(jìn)行對比分析。實(shí)驗(yàn)結(jié)果如表3所示。

表3 對比實(shí)驗(yàn)結(jié)果

可以看出:CHA的結(jié)果均優(yōu)于其他方法的結(jié)果。與目前主流的TextRank和Bi-LSTM方法相比,在ROUGE-1指標(biāo)上分別提升了0.009 7和0.013。這說明CHA在產(chǎn)品評論摘要任務(wù)上是有效的。

3.5.2上下文信息的影響

為了驗(yàn)證上下文信息對產(chǎn)品評論摘要任務(wù)的影響,本文選取了Bi-LSTM、Bi-LSTM+Context和Bi-LSTM+Context+Hierarchical三個(gè)模型進(jìn)行對比分析。實(shí)驗(yàn)結(jié)果如表4所示。

表4 增加上下文信息的實(shí)驗(yàn)結(jié)果

可以看出:首先,Bi-LSTM+Context模型將同一評論內(nèi)的句子信息拼接起來聯(lián)合訓(xùn)練,同時(shí)預(yù)測同一評論內(nèi)不同句子的重要性。該方法能夠捕捉到句子信息和其所在的上下文信息之間的相關(guān)性,實(shí)驗(yàn)結(jié)果在ROUGE評價(jià)準(zhǔn)則上與Bi-LSTM方法相比,ROUGE-1值提升了0.008。這說明上下文信息對預(yù)測句子的重要性有很大的影響。其次,Bi-LSTM+Context+Hierarchical模型采用層級Bi-LSTM神經(jīng)網(wǎng)絡(luò)對產(chǎn)品評論信息進(jìn)行編碼。與Bi-LSTM+Context模型相比,該方法能夠更加準(zhǔn)確地捕捉到同一評論內(nèi)不同句子之間的上下文信息,實(shí)驗(yàn)結(jié)果在ROUGE評價(jià)準(zhǔn)則上與Bi-LSTM+Context方法相比有了進(jìn)一步提升。這說明合理地運(yùn)用上下文信息能夠有效地提升產(chǎn)品評論摘要任務(wù)的效果。

3.5.3注意力機(jī)制的影響

為了分析注意力機(jī)制對實(shí)驗(yàn)結(jié)果的影響,本文分別為Bi-LSTM、Bi-LSTM+Context和Bi-LSTM+Context+Hierarchical三個(gè)模型添加注意力機(jī)制進(jìn)行對比試驗(yàn)。其中CHA是本文提出的基于上下文信息的產(chǎn)品評論摘要模型,也是在模型Bi-LSTM+Context+Hierarchical的基礎(chǔ)上添加注意力機(jī)制后的結(jié)果。實(shí)驗(yàn)結(jié)果如表5所示。

表5 增加注意力機(jī)制的實(shí)驗(yàn)結(jié)果

可以看出:在Bi-LSTM、Bi-LSTM+Context和Bi-LSTM+Context+Hierarchical三個(gè)模型的基礎(chǔ)上分別添加Attention機(jī)制后,實(shí)驗(yàn)結(jié)果在ROUGE評價(jià)準(zhǔn)則上均有一定的提升,這說明注意力機(jī)制能夠?qū)渥又兄匾膬?nèi)容給予更大的關(guān)注度,從而提高評論摘要任務(wù)的效果。

4 結(jié) 語

針對產(chǎn)品評論摘要任務(wù)面臨的各項(xiàng)挑戰(zhàn),本文提出一種基于上下文信息的產(chǎn)品評論摘要方法。該方法采用層級Bi-LSTM神經(jīng)網(wǎng)絡(luò)對產(chǎn)品評論信息進(jìn)行編碼,聯(lián)合學(xué)習(xí)產(chǎn)品評論中的句子信息和上下文信息,充分發(fā)揮了上下文信息對產(chǎn)品評論摘要任務(wù)的影響。實(shí)驗(yàn)結(jié)果表明,本文方法與目前主流的評論摘要方法相比,取得了顯著的性能提升。這也驗(yàn)證了該方法能夠高效地利用上下文信息來提升產(chǎn)品評論摘要任務(wù)的效果。

今后的研究中,將會(huì)不斷地完善現(xiàn)有的方法,以便進(jìn)一步提高產(chǎn)品評論摘要任務(wù)的性能。同時(shí),還將對本文方法進(jìn)行進(jìn)一步的拓展與探索,嘗試引入產(chǎn)品屬性[22]等信息,從而提高產(chǎn)品評論摘要的質(zhì)量。

猜你喜歡
產(chǎn)品實(shí)驗(yàn)信息
記一次有趣的實(shí)驗(yàn)
做個(gè)怪怪長實(shí)驗(yàn)
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
實(shí)踐十號(hào)上的19項(xiàng)實(shí)驗(yàn)
太空探索(2016年5期)2016-07-12 15:17:55
2015產(chǎn)品LOOKBOOK直擊
Coco薇(2015年1期)2015-08-13 02:23:50
展會(huì)信息
新產(chǎn)品
玩具(2009年10期)2009-11-04 02:33:14
產(chǎn)品
下一個(gè)酷產(chǎn)品是什么
舒適廣告(2008年9期)2008-09-22 10:02:48
主站蜘蛛池模板: 一区二区午夜| 麻豆精品在线播放| 在线亚洲小视频| 国产菊爆视频在线观看| 午夜国产大片免费观看| 国产va在线| 久久久久亚洲AV成人人电影软件 | 操国产美女| 91成人在线观看视频| 性喷潮久久久久久久久| 天天色天天综合网| 一级福利视频| 国产精品页| 91视频青青草| 欧美自拍另类欧美综合图区| 日韩精品一区二区深田咏美| 日本亚洲欧美在线| 午夜无码一区二区三区在线app| 欧美激情视频一区| 亚洲人成影院在线观看| 99热亚洲精品6码| 九色综合视频网| 2021国产精品自产拍在线观看| 97人人模人人爽人人喊小说| 日韩二区三区无| 成人福利免费在线观看| 国产午夜精品鲁丝片| a天堂视频| 国产精品永久免费嫩草研究院| 国产黄色免费看| 国产成人高清精品免费| 欧美日韩一区二区三区在线视频| 青草视频网站在线观看| 国产精品一区二区无码免费看片| 97在线免费| 中文字幕精品一区二区三区视频| 国产美女人喷水在线观看| 波多野结衣一二三| 无码视频国产精品一区二区| 亚洲天堂网在线播放| 欧美在线一二区| 在线欧美日韩国产| 亚洲人成亚洲精品| 啪啪免费视频一区二区| 欧美日韩国产综合视频在线观看 | 99热这里只有免费国产精品 | 国产麻豆永久视频| 国产区人妖精品人妖精品视频| 欧美在线综合视频| 国产大全韩国亚洲一区二区三区| 亚洲最新网址| 亚洲男人天堂2020| 午夜电影在线观看国产1区| 青草91视频免费观看| 一本大道东京热无码av| 国产欧美日韩资源在线观看| 国产尤物在线播放| 精品国产污污免费网站| 免费A∨中文乱码专区| 97久久精品人人| 国产一区二区三区免费观看| 国产精品尹人在线观看| 色妞永久免费视频| 99久久人妻精品免费二区| 欧美性天天| 欧美伦理一区| 福利视频久久| 久久性妇女精品免费| 亚洲色精品国产一区二区三区| 国产精品无码制服丝袜| 亚洲精品卡2卡3卡4卡5卡区| 久久精品亚洲中文字幕乱码| 嫩草影院在线观看精品视频| 国产成人综合网在线观看| 日韩在线1| 国产青榴视频在线观看网站| 伊人久久大香线蕉aⅴ色| 99视频在线看| 成人a免费α片在线视频网站| 日本精品视频一区二区| 国产一级二级三级毛片| 久久9966精品国产免费|