999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的中文零代詞識別

2021-02-22 04:00:58王立凱曲維光魏庭新周俊生顧彥慧
關鍵詞:語義信息模型

王立凱,曲維光,,魏庭新,周俊生,顧彥慧,李 斌

(1.南京師范大學計算機與電子信息學院,江蘇 南京 210023) (2.南京師范大學文學院,江蘇 南京 210097) (3.南京師范大學國際文化教育學院,江蘇 南京 210097)

零指代是語言學中一種特殊的語言現象,是指為了保證語言的連貫性而省略的、且可通過上下文推斷出的語言單元. 該省略的語言單元在句子中承擔相應的句法成分,可以和前文中一個或多個名詞短語等語言單元構成指代關系. 這種被省略的語言單元稱為零代詞,前文中與其構成指代關系的語言單元被稱為先行語.

例句1雖然[卓偉]的新聞裝備落后,但Ф1說起娛樂新聞觀念,Ф2卻比許多年輕同事更自由,更激進.

例句1中,Ф2就是一個零代詞,指向前文中的人名“卓偉”. 但Ф1就不是一個零代詞,前文中沒有語言單元與其構成指代關系. 因此,零代詞的兩個必要條件是:(1)句中存在句法成分缺省;(2)前文中有語言單元與其構成指代關系. 與英文相比,漢語是一種意合型語言,其特點是形態不完整,這使得漢語中存在大量的缺省. 據Kim[1]統計,漢語中存在句法成分省略的現象高達36%,而英文中的省略現象則不超過4%,所以零指代的識別與消解對于中文信息處理來說顯得更加迫切和重要.

中文零指代通常可分為兩個子任務,一是零代詞的識別,二是零代詞的消解. 目前的研究工作多數聚焦于消解部分,并取得了豐碩成果[2-4],而零代詞的識別研究相對較少. 零代詞識別是指識別出句子中有回指的缺省語言單元的位置,是零指代消解必要的前期基礎. 在早期的零代詞識別研究中,主要是利用規則的方法去識別零代詞[5],缺點是難以制定較為全面的規則且可泛化性差. 也有一些學者如Zhao[6]、Kong[7]等利用傳統機器學習方法去識別中文零代詞,但仍受限于特征模板和專家知識,忽略了語義特征對于識別零代詞的重要作用. Zhao等[6]第一次使用了基于機器學習的方法進行中文零代詞的識別與消解. 實驗過程中,在識別階段使用了13個特征,在消解階段使用了多達26個特征. Kong等[7]提出了一個基于樹核支持向量機的統一中文零指代消解框架,該框架包含3個部分,分別為候選零代詞的生成、回指零代詞的識別和消解. Chen等[8]也提及了其使用的基于規則的零代詞識別方法來作為消解工作的鋪墊,并在之前研究的基礎上豐富了零代詞特征,利用SVMlight算法取得了當時最好的效果[9]. 也有學者如Liu等[10]提出利用GRU網絡去學習詞向量中蘊含的語義信息,但忽視了句子中不同詞語所蘊含的語義信息是不同的,同時也忽視了句法結構信息在識別過程中的重要作用. Kong等[11]在使用共指鏈信息進行零代詞識別和消解時,將零指代識別分為兩個步驟:零代詞候選位置生成和零代詞識別,在生成零代詞候選位置時使用了句法信息,在識別時則利用詞匯、句法和語義特征構造了一個分類器. Song等[12]則使用多任務學習方法,同時使用BERT進行編碼,對零代詞識別和消解進行聯合學習,但由于錯誤傳遞,效果不盡如人意,聯合模型F1值均低于40%.

本文為解決上述問題、提升零代詞識別效果,提出了一種基于深度神經網絡的回指零代詞識別方法,首先利用注意力機制去捕獲零代詞上下文的語義信息,對蘊含更多語義信息的詞語分配更高的權重,同時利用Tree-LSTM去挖掘句法結構信息,最后通過兩者的融合特征識別零代詞. 相比于傳統識別方法需要建立繁瑣的規則體系或特征模板、泛化性差等缺點,本文通過深度神經網絡從輸入文本中抽取抽象特征信息來識別零代詞,降低了模型對繁瑣的手工特征和專家知識的依賴. 在OntoNotes5.0中文語料上的實驗結果證明,該方法有效提升了中文零代詞的識別效果.

圖1 中文零代詞識別整體框架圖Fig.1 Framework of Chinese zero pronoun recognition

1 模型

1.1 模型概述

本文的整體模型框架如圖1所示,主要由4個部分組成:零代詞候選集合的生成模塊、注意力機制模塊、Tree-LSTM模塊和輸出模塊. 首先,通過事先制定的句法規則從原始語料中篩選出零代詞的候選集合. 由于零代詞在文本中缺省,無法直接獲取零代詞的詞向量,本文通過兩種方式間接對其進行特征表示:一是通過注意力機制模塊,包含Encoder層和Attention層,Encoder層對零代詞的上下文進行前向后向的LSTM編碼,得到其上下文的隱藏層表示,再利用Attention層捕獲其深層語義信息;二是通過Tree-LSTM模塊挖掘其句法結構信息. 最后,將兩者的融合特征送入輸出層,得到分類結果.

1.2 零代詞候選集合生成模塊

零指代識別和消解任務常采用OntoNotes5.0語料[13]數據集,本文亦采用該語料. 由于OntoNotes5.0語料只標記了主語位置的零代詞,故本文研究只考慮主語位置零代詞的情況. 現代漢語中,主語位置零代詞總是出現在謂詞短語節點(VP)之前,而謂詞短語是由一個或一個以上動詞短語構成,由此,對于句法樹中的節點T,若同時滿足以下3條句法規則,則節點T的左邊相鄰位置是零代詞的候選位置:

(1)T節點屬于VP節點;

(2)T節點的父親節點不屬于VP節點;

(3)T節點的左兄弟節點不屬于NP節點,或者T節點沒有左兄弟節點.

例句2建筑是開發浦東的一項主要經濟活動,這些年有數百家建筑公司,四千余個建筑工地遍布在這片熱土.

如圖2所示,例句2中,根據上文所制定的規則,節點(VP(VV(開發)NP(NR(浦東))))的當點節點為VP節點,其父親節點為IP節點,且無左兄弟節點,因此判定其為一個零代詞候選位置,但實際上該位置并不存在零代詞,因為其不滿足回指前文中語言單元的條件. 而樹中“這些年有數百家公司”的句首位置也滿足規則,同時回指前文中的“浦東”,因此該候選位置存在一個零代詞.

圖2 例句2句法分析樹Fig.2 Syntactic parsing tree of sentence 2

1.3 注意力機制模塊

1.3.1 Encoder層

通過零代詞候選集合生成模塊的篩選,獲取了零代詞候選集合ZPS,對于候選集合中的每一個候選零代詞zp,其上下文可表示為:

Contextprecedding=(x1,x2,…,xzp-1),

(1)

Contextfollowing=(xzp+1,xzp+2,…,xn).

(2)

式中,xi=[wi;pi],wi表示第i個詞語的詞向量,pi表示其詞性向量,xi為wi和pi的拼接. 為了獲取其上下文信息,本文采用LSTM網絡對兩個序列Contextprecedding和Contextfollowing分別進行編碼. LSTM的公式如下所示:

it=σ(W(i)·[xt;ht-1]+b(i)),

(3)

ft=σ(W(f)·[xt;ht-1]+b(f)),

(4)

ot=σ(W(o)·[xt;ht-1]+b(o)),

(5)

(6)

(7)

ht=ot·tanh(Ct).

(8)

式中,·代表元素乘法,W(i),b(i),W(f),b(f),W(o),b(o),W(c)和b(c)代表LSTM網絡的參數.

本文將零代詞的上下文通過LSTM網絡進行編碼:

(9)

(10)

式中,LSTMpre和LSTMfol分別代表一個前向的LSTM網絡和一個后向的LSTM網絡. 可得零代詞上下文中每一個詞語的隱藏層表示:

(11)

(12)

1.3.2Attention層

由于零代詞在文章中是缺省的,在以往的研究中,雖然學者們使用了許多方法去表示零代詞,但仍存在無法獲取部分關鍵語義信息等問題. 本文采用注意力機制去編碼零代詞的語義信息.

由于在Encoder層已經獲得了零代詞上下文的隱藏層表示Hpre和Hfol,接下來需將Hpre和Hfol作為注意力機制的輸入,并計算權重:

(13)

(14)

式中,W1是一個a×u的參數矩陣,W2為r×a的參數矩陣,u代表零代詞上下文隱藏層輸出的維度,r代表選擇的注意力機制層數.

通過該方法即可得到一個多層的權重矩陣A,與單層的注意力機制權重矩陣相比,多層注意力機制使得模型可從不同的角度關注句子的不同部分,可更高效地從語義角度對零代詞進行句子級信息的建模. 當得到權重矩陣A后,將得到的r層權重與零代詞的上下文隱藏層輸出H作加權求和:

Mpre=Apre·Hpre,

(15)

Mfol=Afol·Hfol.

(16)

而后將每個矩陣(即Mpre和Mfol)的行向量取平均得到零代詞的上文表示和下文表示,將兩個表示向量做拼接得到零代詞的語義表示向量. 通過注意力機制學習上下文中不同詞對表示零代詞語義信息的重要程度,完成注意力權重的分配,可更好地從語義角度對零代詞進行表示.

1.4 Tree-LSTM模塊

Kong等[7]指出,句法結構信息對于中文零代詞的識別具有重要的作用. 本節通過Tree-LSTM[14]對零代詞的成分句法樹進行編碼,從結構化句法信息的角度對零代詞進行更好地表示. 傳統的LSTM模型在每個時間步都是將當前時間步的詞語信息和上一個時間步的輸出信息作為輸入,更新當前時間步的記憶單元和隱藏層狀態. 在Tree-LSTM中,樹中每個節點的輸入為當前節點的詞語信息和其孩子節點的輸出信息,而不只考慮前一步的信息. 給定一個成分句法樹,對于節點j,Tree-LSTM的具體公式如下:

(17)

(18)

(19)

(20)

(21)

hj=oj·tanh(cj).

(22)

(1)保留句法樹根節點到零代詞出現位置動詞短語節點的路徑,并保留此路徑上直接相連的名詞短語節點和動詞短語節點;

(2)保留零代詞出現位置前一個動詞短語節點和零代詞出現位置動詞短語之間的句法樹;

(3)對于動詞短語節點的子樹,只保留那些以動詞和名詞為葉節點的路徑.

圖3 候選零代詞的裁剪句法樹Fig.3 Pruned syntactic tree of candidate zero pronoun

對圖2句法樹中“開發浦東”前的候選零代詞進行裁剪后的句法樹結構如圖3所示.

1.5 輸出模塊

通過注意力機制模塊和Tree-LSTM模塊分別獲取候選零代詞語義層次和句法層次的表示后,本文將其送入一個兩層前饋神經網絡中,判斷其是否為一個零代詞. 計算公式如下:

va=[avg(Mpre);avg(Mfol)],

(23)

s1=tanh(W1·[va;hpre;hfol;vt;vfea]+b1),

(24)

s2=tanh(W2·s1+b2).

(25)

式中,va表示注意力機制模塊中Attention層所得矩陣Mpre和Mfol行向量取平均的拼接向量;hpre和hfol分別表示注意力機制模塊中Encoder層中LSTM前向和后向的最終隱層狀態;vt表示零代詞句法裁剪樹經過Tree-LSTM模塊編碼后的輸出向量;vfea為候選零代詞句法結構、位置等手工構建的特征信息所組成的數值向量,具體特征描述與文獻[3]中一致;W1,b1,W2,b2分別代表兩層前饋神經網絡的參數;s1和s2分別代表兩層前饋神經網絡的輸出.

最后,將其輸出送入softmax層得到最終的分類概率為:

P=softmax(Wsoft·s2+bsoft),

(26)

式中,P表示候選零代詞是回指零代詞的概率;s2為前兩層隱藏層的輸出.

1.6 損失函數

本文采用交叉熵作為模型訓練的目標函數. 損失函數的公式為:

(27)

式中,Z為零代詞候選集;pi(z)表示通過本文模型的候選零代詞z屬于類別i的概率;yi(z)為候選零代詞z的標簽.

2 實驗

2.1 評測指標

與早期關于中文零指代任務的研究相似,本文通過召回率(Recall)、精確率(Precision)和F值(F-score)來評估本文的模型,其中Recall和Precision定義為:

(28)

(29)

(30)

式中,AZPright表示本文模型預測正確的零代詞;AZPres表示本文模型預測為正確的所有零代詞;AZPgold表示語料中標注的所有零代詞.

2.2 數據集

表1 OntoNotes5.0數據集統計Table 1 Statistics of the OntoNotes 5.0 dataset

實驗數據選擇CoNLL-2012共享任務中的OntoNotes5.0數據集[13],僅選用其中中文部分. 中文部分數據集只有在訓練集和驗證集上才有零代詞的標注,在測試集上未作標記. 本文參照以往中文零指代文獻中的做法,將模型在訓練集上進行訓練,在驗證集上進行評測. OntoNotes5.0中文數據集主要包含6種類別,分別為廣播會話、廣播新聞、雜志、通訊新聞、電話對話和博客文章. 數據集的具體統計數據如表1所示.

2.3 參數設置

由于實驗缺少驗證集,本文從訓練語料中切分了約20%的數據作為驗證集,用以調整超參數. 具體參數設置如表2所示.

表2 實驗超參數設置Table 2 Parameter setting of the experiments

在實驗過程中發現,由于訓練集正負樣本不平衡(正負比例約為1∶3),導致實驗效果下降. 因此,本文通過復制正例樣本來平衡訓練集中正負樣本的比例. 經測試,最終選擇將正例樣本復制3次,模型達到了最優的效果.

本文將模型初始迭代次數設置為50. 圖4所示為本文模型在驗證集上的學習曲線,可以觀察到模型在第一個epoch時,驗證數據集上的F1-score約為56%,隨著迭代次數的增加,F1-score值不斷增加. 在第11次迭代時,模型在驗證集上的性能達到最優. 之后,本文模型的F1-score開始下降. 因此本文保存驗證集上效果最優的模型參數,在測試集上進行評價.

圖4 模型在驗證數據集上的學習曲線Fig.4 Learning curve of the model on the validation dataset

圖5 r值對零代詞識別的影響Fig.5 Effect of r value on zero pronoun recognition

此外,本文希望多層次的句子級信息可以為表示零代詞提供豐富的語義信息,因而通過改變注意力機制層的r值,來評估不同的r值對于中文零代詞識別的影響. 當r=16的時候,模型達到最優值,如圖5所示. 本文通過注意力機制將模型關注的重點放在對編碼零代詞更加有用的部分,將句子以零代詞為中心分成兩個部分,當r=16時,說明本文的模型分別從16個不同的角度去編碼前半部分和后半部分的語義信息,因而能夠達到較好的結果.

2.4 實驗結果與分析

表3所示為本文模型和近年中文零代詞識別任務在OntoNotes5.0中文語料上的實驗結果的對比,前 4行為以往對于中文零代詞識別任務的實驗結果,后兩行為本文的實驗結果. 可以看出,本文模型比以往最優模型的F值要高出1.4%,加入Bert預訓練詞向量后的F值更是高出了3.6%.

表3 不同模型實驗結果對比Table 3 Comparison of experimental results of different models

從精確率來看,本文模型在未加入Bert之前比表中Chen and Ng(2013)和(2016)的模型分別低了5.2%和0.2%. 分析發現,這兩個模型均采用傳統機器學習的方法. 中文零代詞具有較強的規則性,制定合適的特征模板會對中文零代詞識別的精確率具有較好的正向作用. 從召回率來看,本文的模型無論是加Bert之前還是之后,均優于以往的中文零代詞識別模型.

由于近期Bert模型在各大任務上均取得了較好的成果,本文也嘗試了在現有模型上加入Bert預訓練模型,主要是利用Bert的encoder層輸出去增強本文模型中的詞向量表示. 由于Bert的pytorch版本目前尚只能做字符級編碼,本文對中文詞語中每個字符的向量表示做了均值操作,以此來代替詞級向量. 本文并未對Bert網絡進行微調,僅將Bert網絡的輸出作為特征. 實驗表明,加入Bert后模型在OntoNote5.0中文語料上的F值、準確率和召回率分別為63.7%、54.6%和76.4%,F值比原始模型高出了2.2%,精確率上升了4.7%,但召回率下降了3.8%.

2.5 模塊分析

表4所示為本文中各個模塊在模型中所起的作用.

表4 各模塊在實驗中的作用對比Table 4 Comparison of experimental results with different modules

如表4所示,Rules-based表示本文零代詞候選集生成模塊所生成零代詞候選集的實驗效果. 在本文的規則下,回指零代詞的召回率很高,達到99.1%,但是精確率較低,只有24.2%. 因為本文主要是利用規則去生成零代詞的候選集合,對召回率的要求更高.

Rules+Tree-LSTM表示本文模型去除注意力機制模塊之后的實驗結果,其F值為60.2%,精確率為46.7%,召回率為84.7%. 由于成分句法樹的成分缺省具有較強的規律性,通過Tree-LSTM對成分句法樹的學習,理論上可以找回絕大多數零代詞的缺省位置. 但因語義信息的不足,對判斷其是否回指存在不足.

Rules+Attention表示本文模型去除Tree-LSTM之后的實驗結果,其F值為57.5%,精確率為47.2%,召回率為73.6%. 相比于Rules+Tree-LSTM,準確率略高,而召回率大幅下降,這主要是因為句法結構信息的缺失導致無法準確識別出句子中成分缺省.

Rules+Zpcenter表示同時去除Tree-LSTM模塊和注意力機制模塊之后的實驗結果,其F值為56.8%,準確率為45.4%,召回率為76.0%.F值的再次降低證明了本文注意力機制和Tree-LSTM的有效性.

表5 與先行詞不在同一句內的零代詞數量統計Table 5 Statistics of zero pronouns that are not in same sentence with antecedants

2.6 錯誤分析

對模型輸出的錯誤結果進行分析(例如句3)分析發現,零代詞回指的名詞短語雖大部分都在同一句話內,但也有部分零代詞所回指的名詞短語是在之前句子中出現的,表5給出了相關的統計數據. 本文的模型主要是在單句內進行,與前文中的句子并無聯系.

例句3本屆錦標賽到今天為止,已決出7枚金牌. *pro*明天將進行最后5個男女單項的決賽.

在例句3中,零代詞“pro”回指前一句話中的名詞短語“本屆競標賽”. 本文模型只能在同一句內對零代詞信息進行捕捉,對跨句信息暫無法獲取.

3 結論

本文針對中文零代詞識別任務,利用LSTM編碼中文零代詞的上下文信息,再通過注意力機制捕捉句子中的關鍵語義,有效利用上下文語義,減少上下文無關信息對零代詞表示的影響. 使用Tree-LSTM對零代詞上下文的句法結構信息進行編碼,將語義信息和句法結構信息的融合特征通過兩層前饋神經網絡對零代詞進行識別. 本文首次通過深度學習方法同時利用語義信息和句法結構信息進行中文零代詞的識別,實驗結果表明,該方法在OntoNotes5.0語料上取得了較好的效果.

猜你喜歡
語義信息模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
語言與語義
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
認知范疇模糊與語義模糊
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
語義分析與漢俄副名組合
外語學刊(2011年1期)2011-01-22 03:38:33
主站蜘蛛池模板: 又粗又硬又大又爽免费视频播放| 国产高清在线观看| 在线看片中文字幕| 国产精品美女网站| 国产成人精品无码一区二| 99热这里只有精品在线播放| a级毛片毛片免费观看久潮| 国产综合网站| 精品视频在线一区| 99国产在线视频| 国产理论精品| 亚洲精品在线影院| 国产综合无码一区二区色蜜蜜| 经典三级久久| 婷婷综合在线观看丁香| 欧美啪啪网| 午夜精品久久久久久久2023| 成人在线亚洲| 亚洲天堂网站在线| 欧美精品一区在线看| 乱系列中文字幕在线视频| 国产日韩精品欧美一区喷| 精品国产91爱| 欧美亚洲欧美区| 久久黄色小视频| 69精品在线观看| 国产乱人激情H在线观看| 99热这里只有精品在线观看| 国产亚洲视频中文字幕视频| 呦视频在线一区二区三区| 青青草原国产免费av观看| 欧美日韩一区二区在线免费观看| 亚洲精品制服丝袜二区| 国产产在线精品亚洲aavv| 亚洲欧美日韩中文字幕一区二区三区| 香蕉国产精品视频| 国产精品人莉莉成在线播放| 国产十八禁在线观看免费| 欧美日韩v| 国产精品真实对白精彩久久 | 国产精品人人做人人爽人人添| 91视频精品| 91麻豆精品视频| 亚洲国产精品日韩专区AV| AV无码国产在线看岛国岛| 嫩草在线视频| 日本欧美视频在线观看| 亚洲国产精品一区二区第一页免 | 成年人免费国产视频| 亚洲精品日产AⅤ| 丁香婷婷久久| 玖玖精品视频在线观看| 亚洲天堂免费在线视频| 国产在线八区| 操美女免费网站| 久久国产拍爱| 毛片三级在线观看| h网站在线播放| 久久久成年黄色视频| 亚洲综合二区| 狠狠干综合| 免费亚洲成人| 久久亚洲美女精品国产精品| 72种姿势欧美久久久大黄蕉| 东京热av无码电影一区二区| 久久国产乱子伦视频无卡顿| 熟妇人妻无乱码中文字幕真矢织江 | 人妻21p大胆| 国产欧美视频一区二区三区| 欧美另类图片视频无弹跳第一页| 精品成人一区二区三区电影| 国产丝袜丝视频在线观看| 99热这里只有精品国产99| 99视频精品在线观看| 自拍偷拍欧美日韩| 亚洲人成影院午夜网站| 欧美区国产区| 国产精品性| 欧美成人二区| 婷婷亚洲视频| 制服丝袜国产精品| 色综合日本|