999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

使用深度長短時記憶模型對于評價詞和評價對象的聯合抽取

2018-04-16 07:53:42沈亞田黃萱菁曹均闊
中文信息學報 2018年2期
關鍵詞:評價模型

沈亞田,黃萱菁,曹均闊

(1.復旦大學 計算機科學技術學院,上海 201203; 2.海南師范大學 信息科學技術學院,海南 海口 570100)

0 引言

細粒度的意見分析目標是發現句子中的主觀表達(例如“可愛”)、主觀的強度(例如“十分的”)、包含的情感(例如“正的”)以及識別意見的目標對象(也就是關于什么的意見)[1]。例如,“The phone has a colorful and even amazing screen”的句子中,“screen”是評價對象,“colorful” 和 “amazing”是評價詞。在這個工作中,我們重點關注了評價詞和評價對象的聯合抽取。這里的聯合抽取是相對于過去傳統的串行化抽取方式而言,串行化方式先識別評論詞,然后再根據評價詞與評價對象的關系線索識別評價對象。

細粒度的評論分析對于許多自然語言處理任務是很重要的,包括面向意見的問答系統、意見總結和信息檢索。因此,這個任務已經被自然語言處理社區研究了多年。

為了抽取評論對象,許多研究者把評價詞作為強烈的暗示[2-3],以上工作基于這樣的觀察:評價詞一般在評價對象的的周圍,它們之間有很強的相關性。因此,大多數以前的方法迭代地抽取評價對象,其主要依賴評價詞和評價對象的關聯性,評價詞和評價對象抽取是個相互增強的過程[3-4]。然而,評價詞和評論對象之間的關聯性并不能準確有效地獲得,尤其是長距離的語義關聯關系的情況。因此,如何發現評價詞和評論對象之間的關聯是解決這個問題的關鍵。

在解決評價詞和評價對象之間關聯的問題上,許多研究者研究了句法信息,例如憑借依存句法樹[3]。這種方法的效果嚴重依賴句法分析的結果,而各種評論數據經常都是不規范的文本(包括一些文法錯誤、不合適的標點等),句法分析過程中會產生許多錯誤,這將導致后續的抽取任務發生連帶錯誤。為了克服以上方法的缺點,評價詞和評價對象抽取已經被作為序列標注的問題[5],把評價詞和評價對象的抽取過程看成是普通的自然語言處理的序列標注問題,從而實現聯合抽取。該工作把句子作為被標注序列,通過使用傳統的BIO標注模式:B-OP 表示意見表達的開始,B-TA 表示意見目標的開始,I-OP 和 I-TA 表示意見和意見對象的內部,O 表示和意見相關的外部詞。表1中的句子實例顯示了用BIO方法的標注結果,例如

B-OP是 “beautiful” ,B-TA是 “quality”。

表1 一個標注的例子

條件隨機場的許多變種已經被成功地應用到評價詞和評價對象的聯合抽取任務中[5]。然而,條件隨機場和半條件隨機場的方法需要人為手動設計大量的特征,通常需要句法成分樹和依存樹,手動建立的意見詞表,命名實體的標注和其他的一些預處理的成分。同時,抽取特征的過程非常耗時,而且,手動設計特征嚴重依賴于大量的人類先驗知識以及專家和語言學家的經驗等,這是不現實的。

近年來,以特征學習為目標的深度學習已經成為研究的熱點[6],該方法被應用到各種自然語言處理的任務中,例如分詞等序列任務[7]。把循環神經網絡用在細粒度的意見挖掘方面,他們嘗試了RNN的Elman-RNN、Jordan-RNN、LSTM三種模型,把意見挖掘作為序列標注的任務[8]。

但是,該模型沒有考慮標注之間的依賴關系,標注之間的關系對于序列標注的任務很重要,這在分詞[7]、語音識別方面得到了充分的證明。其次,一些方法[8]沒有在數據的標簽級別上做到聯合抽取,僅僅分別抽取評價詞和評價對象,沒有進行評價詞和評價對象的聯合抽取,忽略了這樣的事實:很多評價詞和評價對象有很強的依賴和互增強的關系[3-4]。為了解決以上的問題,我們使用長短時記憶神經網絡模型進行評價詞和評價對象的聯合抽取,我們考慮了幾種長短時記憶神經網絡模型的變種,把評價詞和評價對象的抽取看成是序列標注的任務,同時,長短時記憶神經網絡模型避免了梯度消失和爆炸的問題[9]。

本文工作的主要貢獻總結如下:

(1) 本文在句子級的評價詞和評價對象聯合抽取任務上研究了長短時記憶循環神經網絡的應用。長短時記憶神經網絡模型能夠獲得文本更多的長距離上下文信息,避免了普通的循環神經網絡的梯度消失和梯度爆炸的問題。

(2) 本工作對比了長短時記憶循環神經網絡模型的幾種變種的性能,實驗結果表明LSTM-1模型是更加有效的。

(3) 與傳統的方法相比,我們的實驗結果顯示:長短時記憶循環神經網絡優于以前的傳統方法,在評價詞和評價對象的聯合抽取任務上達到了最好的性能。

1 相關工作

早期的評價詞和評價對象的聯合抽取任務主要關注識別主觀的表達短語[1-2]。有些系統解決這個問題的方法為序列標注問題,這種方法在很大程度上超過以前的工作[10]。條件隨機場被應用于識別評論者[5],還有些研究者聯合識別評論表達的級性和強度[11],重排序的方法也被用來提高序列標注任務的性能[12-13]。

近年來的工作松弛了條件隨機場的馬爾科夫假設,用來獲得短語級的上下文關聯,很明顯地高于詞語級的標注方法[14]。

特別地, 一些研究者提出了聯合抽取評論表達式、評論者、評論對象以及它們之間的關系[15]。

還有研究者將深度循環神經網絡被應用到評論表達式的抽取任務中,被用于詞級的序列標注任務[16]。

在自然語言處理任務中,循環神經網絡模型把句子作為詞語序列,已經成功地應用到語言模型[17]、分詞任務[7]等任務中。傳統的循環神經網絡僅僅包括一些過去的信息(例如上一個詞語),雙向的變種循環神經網絡已經被提出,結合了過去和未來的兩個方向的信息(下一個字符)[18]。

系統[19]抽取過程由兩部分構成,首先分類評價對象,然后用條件隨機場模型抽取評價對象。

系統[8]與我們的工作很相似,它把循環神經網絡用在細粒度的意見挖掘方面,嘗試了RNN的Elman-RNN、Jordan-RNN、LSTM三種模型,把意見挖掘做為序列標注的任務。

但是,我們的工作主要在兩個方面不同于他們的。首先,考慮了標注之間的關系,標注之間的關系對于序列標注的任務很重要,這在分詞[7]、語音識別[20]方面得到了充分的證明。其次,我們的工作是把評價詞和評價對象進行聯合抽取。事實上,很多評價詞和評價對象有很強的依賴和互增強的關系[3-4],利用這種現象采用串行化的方法對評價詞和評價對象進行抽取,但是他們沒有考慮聯合抽取的方式。

在本研究工作中,我們集中在長短時記憶神經網絡模型的評價詞與評價對象聯合抽取任務的應用上。

2 神經網絡用于序列標注任務框架

評價詞與評價對象聯合抽取被看作是序列標注的問題。近年來,神經網絡已經被用于傳統的自然語言處理中的序列標注任務,其流程框架如圖 1 所示。在這個框架中,神經網絡模型用三個特殊的層描述:(1)詞語嵌入層,也就是詞向量層;(2)一系列傳統的神經網絡層;(3)標注推理層。

h(t)=g(W1x(t)+b1)

(1)

在式(1)中,W1∈RH2×H1,b1∈RH2,h(t)∈RH2,H2是超參數,它表示第二層隱單元數。假定標注集的大小是|T|,相似的線性轉換被執行如下:

y(t)=W2h(t)+b2

(2)

在式(2)中,W2∈R|Τ|×H2,b2∈R|Τ|,y(t)∈R|Τ|是每一個可能標注的打分。在評價詞與評價對象的聯合抽取任務中,如圖1中提到那樣,使用BIO標注模式的標記集。

圖1 神經網絡作為序列標注任務框架

為了建模標注的依賴關系,A(ij)引進了一個轉移打分記錄,表示從標注i到標注j的跳轉概率。盡管這個模型對于序列標注的任務表現很好,但是它僅僅利用了有限的上下文窗口信息,因此,某些長距離信息沒有被充分利用。

3 長短時記憶神經網絡用于評價詞與評價   對象聯合抽取

在這一部分,我們將介紹長短時記憶模型的神經網絡對于評價詞與評價對象的聯合抽取任務。

3.1 詞向量層

使用神經網絡處理符號數據的第一步首先是數據表示成分布式向量,也叫作詞語嵌入或者詞向量。形式上,在序列標注的任務上,我們有一個大小是|C|的詞典C。每一個詞c∈C表示成一個實數值向量(c)∈Rd,d是向量維度。然后詞向量被堆疊成詞向量矩陣M∈Rd×|c|。對于每一個詞語c∈C,對應的詞向量(c)∈Rd通過查找表層檢索,查找表層被作為一個簡單的投影層,每一個詞語根據其索引得到維度是d的詞向量。

3.2 長短時記憶模型(LSTM)

長短時記憶模型(LSTM)是循環神經網絡的擴展(RNN),循環神經網絡的隱狀態在每一個時間步都依賴于以前的時間步,其簡單的結構如圖2(a)所示。形式上給予一個序列x(1:n)=(x(1),x(2),…,x(t),…x(n)),循環更新其隱狀態h(t),按照下面的公式計算:

h(t)=g(Uh(t-1)+Wx(t)+b)

(3)

式(3)中,g是非線性函數。雖然循環神經網絡已經取得了很大成功,但是,在訓練過程中,獲得文本序列上下文背景的長時序依賴卻是十分困難的,這在很大程度上是由于普通的循環神經網絡所遭遇的梯度消失和梯度爆炸問題[9],因此,文獻[18]的模型使用LSTM 單元代替普通的非線性單元解決這種問題。

圖2 循環神經網絡和長短時記憶單元

LSTM通過使用記憶單元解決上述的問題,LSTM的記憶單元允許網絡或者忘記以前的信息,或者當新的信息給予的時候更新記憶單元存儲的內容。因此,應用LSTM單元到序列標注的任務中是很自然的選擇,因為LSTM神經網絡考慮了輸入和對應輸出之間的時間滯后性,使得網絡能夠從數據中學習出長距離的時序依賴性。

LSTM模型的核心是記憶單元c,該單元編碼了到現在這個時間步為止所有的可觀察到的輸入信息。記憶單元的行為被三個門,即輸入門i,輸出門o、忘記門f控制,LSTM 的結構如圖2(b)所示。門的操作定義為向量對應乘,當門是非零向量的時候,門能夠放大輸入值;當門是零值的時候,忽略輸入值。相應地門的定義,記憶單元的更新和輸出如下:

在式(4)~(9)里,σ是sigmoid 函數、tanh是hyperbolic tangent函數。it、ft、ot、ct分別是時間步t時刻相應的輸入門、忘記門、輸出門、 記憶單元,所有的這些門向量的尺寸大小等同于隱藏向量h(t)∈RH2,?表示向量對應乘,具有不同下標的W都是權方陣。注意,Wi、Wf、Wo、Wg都是對角矩陣。

3.3 長短時記憶的循環神經網絡對于評價詞與評   價對象的聯合抽取

為了完全利用LSTM結構,我們使用了四個不同的神經網絡結構來選擇有效的特征,其結構被用在分詞、詞性標注等任務上[7]。圖3表示了被提出的四種LSTM結構的變體,它們被用于評價詞與評價對象的聯合抽取任務。

(1) LSTM-1

LSTM-1簡單地使用LSTM單元替換掉式(1)中隱藏神經元,如圖3(a)所示。

LSTM單元的輸入來自于詞語的上下文窗口。對于每一個詞語ct(1≤t≤n):

(10)

LSTM單元的輸入xt來自于x(t-k1):(t+k2)詞向量的拼接,k1、k2分別表示詞語ct的左右上下文的詞語數量。LSTM單元的輸出被線性轉換后作為最后的標注推理。

(2) LSTM-2

LSTM-2能夠一層一層堆疊LSTM單元,形成多層結構,這里我們僅僅選擇兩層結構,也即其中一層的輸出作為下一層的輸入,結構如圖3(b)所示。具體來說,上層LSTM層輸入來自于h(t)底端LSTM層的沒有經過任何變換的輸出,第一層的輸入等同于LSTM-1,第二層的輸出等同于LSTM-1模型輸出。

(3) LSTM-3

LSTM-3是LSTM-1的擴展,其采用LSTM的局部上下文作為最后一層的輸入,結構如圖3(c)所示。

對于每一個時間步,我們拼接LSTM層的窗口,輸出成一個向量

⊕…⊕ht+m2

(11)

(4) LSTM-4

LSTM-4是LSTM-2和LSTM-3的混合,它有兩個LSTM層構成,低端LSTM層的輸出形成上端LSTM層的輸入,最后層采用上端LSTM層的局部上下文作為輸入,如圖3(d)所示。

圖3 長短時記憶的循環神經網絡的變種

3.4 句子級標簽推理

給予感興趣任務的標注集,神經網絡模型輸出一個|T|大小的向量在每一個詞的位置i,向量里面的每一個分量被解釋為標注集中每一個標注的打分,ci是句子中的每一個詞。

由于在序列標注的任務中詞的標注之間有強烈的依賴關系,我們引進一個轉移分數A(ij)表示從i∈|T|到j∈|T|的轉移分數,初始考慮句子的結構,一個初始的分數A(0i)從第i標注開始,我們的目的是拋棄其他無效路徑,尋找一條最優的路徑。

假定給予一個句子c[1:n],網絡的輸出是一個打分矩陣fθ(c[1:n])。fθ(ti|i)表示在網絡模型參數θ下,句子c[1:n]中的第i個詞獲得t標注時所給予的預測打分,這個值是通過神經網絡模型由式(2)計算獲得。因此,一個具有標注路徑t[1:n]的句子c[1:n]獲得的標簽打分等于標簽轉移分數和神經網絡輸出標注分數的和,如式(12)所示。

(12)

為了預測句子c[1:n]的標簽,我們通過最大化句子打分發現最好的標注路徑,如式(13)所示。

(13)

隨著句子的長度的增加,式(12)中的路徑數量會指數增加,維特比算法[21]被用來標注推理,能夠在線性時間內計算它。

4 訓練模型

標注路徑的對數條件概率由式(13)得出。

(14)

模型訓練在整個數據集M上使用最大似然估計的方法,使用隨機梯度下降方法更新參數,如果我們表示θ為所有的訓練參數,可得:

(15)

式中,c是對應的句子,t表示對應的標注,θ是相關的參數,在我們的模型中參數集θ={M,A,Wi,Wf,Wo,Wg,Ui,Uf,Uo,Ug,bi,bf,bo,bg}p(t|c)是神經網絡輸出標簽條件概率。

LSTM網絡使用BPTT 的方法[21]進行梯度計算,假定θj是所有的參數集更新了j步后的參數,η0是學習率,N是最小批大小,θ(j)是代價函數的梯度,參數更新如式(16)所示。

(16)

5 實驗

5.1 數據集和評估方法

實驗中,我們選擇COAE2008 dataset2數據集來評估我們的方法,它包括四個不同的產品評論數據,詳細的信息可以參見表2。在實驗過程中,每一個評論根據標點被分割,由于標注數據中的句子較長,我們僅僅截取含有評價詞或者評價對象的句子進行實驗,然后用StanfordNLP工具進行分詞。系統[23]被用來識別名詞短語。我們使用準確率、召回率和 F值進行性能評估。

表2 COAE2008 dataset2數據集

5.2 超參數

對于網絡的學習,超參數的設置是很重要的,根據實驗的結果,我們選擇的超參數的情況被列舉在表3中。實驗中,我們發現隱藏單元數對網絡模型性能有一定的影響,為了調和性能和速度之間的矛盾,我們選擇200作為一個最好的折衷。LSTM模型中的權矩陣全部被隨機初始化在[-0.05,0.05]的范圍內。我們使用Google的Word2Vec工具在4GB的Sogou數據集上預訓練一個300維詞向量,獲得的詞向量被用來初始化神經網絡模型的查找表層,以代替隨機初始化出現的誤差。整個神經網絡模型訓練花費了31個小時。LSTM模型變種、學習率及窗口上下文的設置我們將在下節詳細討論。

表3 模型超參數的設置

5.3 超參數的影響

我們也評估了四種LSTM模型的變種,按照表3中超參數的設置,窗口上下文被設置成不同的大小,在數據集COAE2008進行評估,LSTM隱藏層的尺寸被設置成200。在COAE2008的數據集上,39輪的訓練周期內,LSTM-1模型收斂是最快的,達到了最好的標注結果。LSTM-2得到較差的結果,這顯示了網絡模型的深度未必有利于結果的提高。LSTM-3和LSTM-4模型在訓練過程中很難收斂,很大部分的原因是由于模型過于復雜,不利于參數的學習。COAE2008數據集的結果被顯示在表4中,從中可看出LSTM-1 模型達到了最好的性能。因此,后面的實驗分析都基于LSTM-1模型,按照表3中的超參數進行實驗設置。

表4表明,LSTM-1模型性能在不同的上下文長度中表現最好。但是,LSTM-1模型用最小的上下文長度節約了計算資源,使得模型更加有效。同時,LSTM-1模型用(0,2)窗口上下文長度比用(1,2)、(2,2)窗口上下文長度能夠獲得更好的性能。這充分說明了LSTM模型能夠更好地建模以前信息,并且對于窗口上下文大小的變化具有很強的魯棒性。

表4 各種模型不同上下文窗口實驗結果對比

學習率是一個重要的超參數,為了使網絡達到較好的性能,如何正確地設置學習率顯得尤為重要。圖4顯示學習率設置如何影響測試集上的F值性能。

在COAE2008數據集上,當學習率設置成 0.5的時候,學習性能變化非常明顯,出現了尖峰,F值達到了80%,因此我們能得出學習率是非常敏感的參數。

圖5顯示了隱藏層大小對F值的影響。在COAE2008數據集上,LSTM-1取得隱藏層的大小尺寸是200,F值達到了80%,這是我們得到的最好結果。毫無疑問,LSTM-1結構隱藏層尺寸 大 小 是重要的超參數,在很大程度上影響LSTM的網絡性能。

如同期望一樣,更大的網絡表現也更好,隨著網絡尺寸的增加,需要的訓練時間也在增加。但是,當隱藏層尺寸變得更大的時候,性能將逐漸下降,網絡趨向過擬合。

5.4 各種方法的對比

我們在COAE2008 dataset2數據集上對比了幾種常用的評價詞與評價對象的抽取,僅僅使用最簡單LSTM-1的模型,按照表3中超參數設置方法與當前的常用方法進行對比,實驗結果顯示在表5和表6中,通過表中結果的分析,我們能夠得到如下的觀察和結論。

(1) 對比神經網絡方法LSTM-1和傳統的方法[3-4,15],實驗結果顯示:在數據集上,LSTM-1方法取得優于傳統方法的實驗效果,它有效證明了LSTM-1的方法能捕獲文本的語義組合,保存更長的上下文特征信息,并且遭受更少數據稀疏問題的困擾。

表5 COAE2008 dataset2上方法對比

續表

表6 COAE2008 dataset2不同領域數據對比

(2) 在COAE2008 dataset2數據集上,通過與以前傳統方法[3-4,15]的對比,我們能看到LSTM-1獲得了較好的結果,這也表明LSTM-1更準確地捕獲了評價詞與評價對象之間的語義關系,也更符合直覺上評價詞與評價對象之間的強烈依賴和修辭關系。例如,在汽車數據中,“強勁”的“動力”、“很大”的“機器噪聲”等。

我們相信LSTM-1能夠通過LSTM單元選擇更加具有區分性的特征和捕獲長距離的上下文信息。

文獻[3]依賴句法樹的性能是不現實的,某些評論數據有大量的噪聲,句法分析的準確性是很難保證的。

文獻[4]使用機器翻譯的方法發現評價詞和評價對象之間的關聯,然后基于圖的模型抽取評價詞,這樣避免了串行方法中錯誤的有效傳播。但是,這種方法很難發現使用復合句方式修辭的評價對象。然而,很多評論數據中含有整個句子修飾評價對象的現象,一些從句中包含大量的評價詞,直接或者間接修飾評價對象,例如,“入住的套房相當舒適,很多住過的客人都十分喜歡它的干凈,整潔”,在這個句子中,由于“干凈,整潔”語義距離“套房”較遠,普通的方法很難發現它們之間的修辭關系。

LSTM-1通過LSTM單元能夠獲得上下文信息,把評價詞和評價對象的聯合抽取作為序列標注任務。文獻[3-4]的工作對待評價詞和評價對象關系的抽取使用管道串行的方式,評價對象和評價詞抽取任務沒有被聯合建模,前者的抽取錯誤會影響后者的抽取,同時錯誤傳播沒有被考慮。

文獻[15]聯合識別和評價詞相關的實體,包括評論表達式,評價目標和評價持有人以及它們之間相關的關系,如IS-ABOUT 和 IS-FROM等,然而,模型[15]不能表達評價詞和評價對象的長距離依賴關系。

文獻[8]使用了Elman-RNN、Jordan-RNN、LSTM三種模型,把意見挖掘作為序列標注的任務。但是,它們忽略了標注之間的關系,并且沒有考慮評價詞和評價對象之間有很強的依賴的事實,在一定程度上損失了抽取的準確率。

(3) 我們在COAE2008數據集上也對比了被設計較好的特征,實驗結果顯示我們的方法超過了文獻[15]的特征集,獲得了一個較好的結果,相信我們的方法能夠獲得評論句子長距離的依賴模式,并且不需要人工設計特征,這對于低資源的語言是很有利的。

6 結論

在本文工作中,我們在句子級評價詞和評價對象聯合抽取任務上研究了長短時記憶神經網絡模型幾種變種的應用。把句子級評價詞和評價對象聯合抽取看成是一種序列標注任務,而長短時記憶神經網絡模型是一種循環神經網絡模型,該模型使用長短時記憶模型單元作為循環神經網絡的記憶單元,能夠獲得更多的長距離上下文信息,同時避免了普通的循環神經網絡的梯度消失和梯度爆炸問題。我們對比了以前的方法,在現有的COAE2008 dataset2數據集上,我們提出的長短時記憶循環神經網絡在評價詞和評價對象的聯合抽取任務上達到了最好的實驗結果。

評價詞和評價對象的抽取是自然語言處理中很重要的工作,未來我們將結合評價詞和評價對象的抽取任務本身的特點,進一步探索更多的深度學習模型在這方面的應用,例如研究門限循環單元(GRU)代替長短時記憶單元(LSTM)。另外,能否利用深度學習方法有效學習評價詞和評價對象之間的關系也是我們未來的研究方向。

[1]Janyce Wiebe,Theresa Wilson,Claire Cardie.Annotating expressions of opinions and emotions in language[J].Language resources and evaluation,2005,[1]39(2-3):165-210.

[2]Minqing Hu,Bing Liu.Mining and summarizing customer reviews[C]//Proceedings of the tenth SIGKDD,ACM,2004:168-177.

[3]Guang Qiu,Bing Liu,Jiajun Bu,et al.Opinion word expansion and target extraction through double propagation[J].Computational Linguistics,2011.37(1):9-27.

[4]Kang Liu,Liheng Xu,and Jun Zhao.Opinion target extraction using word-based translation model[C]//Proceedings of EMNLP.Association for Computational Linguistics.2012:1346-1356.

[5]Yejin Choi,Claire Cardie,Ellen Riloff,et al.Identifying sources of opinions with conditional random fields and extraction patterns[C]//Proceedings of EMNLP,2005:355-362.Association for Computational Linguistics.

[6]Ronan Collobert,Jason Weston.A unified architecture for natural language processing:Deep neural networks with multitask learning[C]//Proceedings of ICML,2008:160-167.ACM.

[7]Xinchi Chen,Xipeng Qiu,Chenxi Zhu,et al.Long short-term memory neural networks for Chinese word segmentation[C]//Proceedings of EMNLP.Association for Computational Linguistics,2015.

[8]Pengfei Liu,Shafiq Joty,Helen Meng.Finegrained opinion mining with recurrent neural networks and word embeddings[C]//Proceedings of EMNLP.Association for Computational Linguistics,2015.

[9]Sepp Hochreiter.The vanishing gradient problem during learning recurrent neural nets and problem solutions[J].International Journal of Uncertainty,Fuzziness and Knowledge-Based Systems,1998.6(02):107-116.

[10]Eric Breck,Yejin Choi,Claire Cardie.Identifying expressions of opinion in context[C]//IJCAI,volum 7,2007:2683-2688.

[11]Yejin Choi,Claire Cardie.Hierarchical sequential learning for extracting opinions and their attributes[C]//Proceedings of the ACL 2010 Conference Short Papers,2010:269-274.Association for Computational Linguistics.

[12]Richard Johansson,Alessandro Moschitti.Syntactic and semantic structure for opinion expression detection[C]//Proceedings of the Fourteenth Conference on Computational Natural Language Learning,2010:67-76.Association for Computational Linguistics.

[13]Richard Johansson,Alessandro Moschitti.Extracting opinion expressions and their polarities:exploration of pipelines and joint models[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics:Human Language Technologies:short papers-Volume 2,2011:101-106.Association for Computational Linguistics

[14]Bishan Yang,Claire Cardie.Extracting opinion expressions with semi-markov conditional random fields[C]//Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning,2012:1335-1345.Association for Computational Linguistics.

[15]Bishan Yang,Claire Cardie.Joint infence for fine-grained opinion extraction[C]//ACL(1),2013:1640-1649.

[16]Ozan Irsoy,Claire Cardie.Opinion mining with deep recurrent neural networks[C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing(EMNLP),2014:720-728.

[17]Tomas Mikolov,Stefan Kombrink,Lukas Burget,et al.Extensions of recurrent neural network language model[C]//Acoustics,Speech and Signal Processing(ICASSP),2011 IEEE International Conference on,2011:5528-5531.IEEE.

[18]Mike Schuster,Kuldip K Paliwal.Bidirectional recurrent neural networks.Signal Processing,IEEE Transactions on,1997,45(11):2673-2681.

[19]Zhiqiang Toh,Jian Su.Nlangp at semeval-2016 task 5:Improving aspect based sentiment analysis using neural network features[C]//Proceedings of SemEval,2016:282-288.

[20]Grégoire Mesnil,Xiaodong He,Li Deng,et al.Investigation of recurent-neural network architectures and learning methods for spoken language understanding[J].INTERSPEECH,2013:3771-3775.

[21]G David Forney Jr.The viterbi algorithm[C]//Proceedings of the IEEE,1973.61(3):268-278.

[22]Alex Graves,Schmidhuber.Framewise phoneme classification with bidirectional LSTM and other neural network architectures[J].Neural Networks,2005,18(5):602-610.

[23]Jingbo Zhu,Huizhen Wang,Benjamin K Tsou,et al.Multi-aspect opinion polling from textual reviews//Proceedings of the 18th ACM Conference on Information and Knowledge Management,2009:1799-1802.ACM.

沈亞田(1982—),博士,主要研究領域為自然語言處理。E-mail:sy602@126.com

黃萱菁(1972—),博士,教授,主要研究領域為自然語言處理。E-mail:xjhuang@fudan.edu.cn

曹均闊(1975—),通信作者,博士,副教授,主要研究領域為自然語言處理。E-mail:jkcao@qq.com

猜你喜歡
評價模型
一半模型
SBR改性瀝青的穩定性評價
石油瀝青(2021年4期)2021-10-14 08:50:44
中藥治療室性早搏系統評價再評價
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
基于Moodle的學習評價
關于項目后評價中“專項”后評價的探討
保加利亞轉軌20年評價
主站蜘蛛池模板: 在线日本国产成人免费的| 男人天堂伊人网| 国产精品网拍在线| 国产成人欧美| 欧美在线综合视频| 亚洲有无码中文网| 国产麻豆精品手机在线观看| 久久精品午夜视频| 亚洲精品久综合蜜| 亚洲天堂视频网站| 91免费片| 99青青青精品视频在线| 亚洲AⅤ综合在线欧美一区| 欧美a网站| 无码高潮喷水专区久久| 亚洲天堂网在线播放| 国产在线啪| 亚洲国产精品VA在线看黑人| 香蕉eeww99国产在线观看| 亚洲人人视频| 日本不卡在线播放| 国产电话自拍伊人| 在线观看精品国产入口| 欧美国产视频| 在线日韩日本国产亚洲| 国产性精品| 亚洲av无码牛牛影视在线二区| 日韩小视频网站hq| 国产美女91呻吟求| 亚洲男人天堂网址| 国产丝袜无码一区二区视频| 日韩无码白| 日本午夜在线视频| 久久亚洲AⅤ无码精品午夜麻豆| 日韩欧美国产区| 看国产毛片| 综合久久五月天| 色婷婷亚洲十月十月色天| 国产人成在线观看| 国产啪在线91| 国产乱人伦精品一区二区| 99久久精彩视频| 久久精品国产91久久综合麻豆自制 | 成人精品亚洲| 久久久久亚洲精品无码网站| 人妻一本久道久久综合久久鬼色| 国产美女一级毛片| 久久黄色视频影| 黄色污网站在线观看| 久久久久久久久18禁秘| 天天激情综合| 一级福利视频| 国产成人1024精品下载| 99热国产这里只有精品9九| 国产成人啪视频一区二区三区| 亚洲综合中文字幕国产精品欧美| 四虎国产永久在线观看| 97青草最新免费精品视频| 成人国产小视频| 国产91视频免费观看| 乱人伦视频中文字幕在线| 日韩精品成人在线| 日本黄色a视频| 国产极品美女在线观看| 啊嗯不日本网站| 亚洲无码在线午夜电影| 日本亚洲成高清一区二区三区| 中文成人在线| 色综合国产| 亚洲二区视频| 福利片91| 日本亚洲国产一区二区三区| 一区二区理伦视频| 国产国模一区二区三区四区| 成人夜夜嗨| 亚洲精品老司机| 在线看片免费人成视久网下载| 色哟哟国产精品| 欧美成人综合视频| av手机版在线播放| 日韩毛片免费视频| 99久久国产综合精品2020|