999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于聯合學習的成分句法與AMR語義分析方法

2022-09-05 09:00:24黃子怡李軍輝貢正仙
中文信息學報 2022年7期
關鍵詞:句法語義實驗

黃子怡,李軍輝,貢正仙

(蘇州大學 計算機科學與技術學院,江蘇 蘇州 215006)

0 概論

抽象語義表示(Abstract Meaning Represent-ation,AMR)是一種新興的語義解析表示形式,旨在抽象出句子中的語義特性,利用圖結構呈現樹結構無法表示的句子結構信息。AMR標注將句子語義結構表示為一個單根的有向無環圖,并為句子中的實體、事件、屬性和狀態引入變量,作為圖中的概念節點(Concept);兩節點之間的邊表示對應的語義關系[1-2]。AMR解析已經被廣泛應用于機器翻譯、問答系統、文本摘要[3-5]等下游自然語言處理領域任務中。句法分析(Syntactic Parsing)是自然語言處理中的一個基礎任務,同時也是許多自然語言處理和自然語言理解(NLU)任務的基礎。目前常見的句法分析可以分為成分(短語結構)句法分析(Constituency Parsing)和依存句法分析(Dependency Parsing),前者側重于探索句子中短語及短語之間的層次邏輯結構,后者側重于句子中各個單詞之間的依存關系。由于句子的句法結構與AMR概念的修飾與被修飾關系是兼容的,并且句子中謂詞與論元的修辭關系與AMR圖中概念之間的語義關系對應。那么AMR與句法分析任務能否為彼此提供幫助?本文將嘗試在各個場景下回答該問題,其中包括無外部標注資源、存在BERT和未標注資源等場景。

考慮到AMR解析的任務通常較句法分析更困難,目前的相關研究皆在于如何利用句法分析來提高AMR解析的性能。例如,Ge等人[6]探索了利用成分句法分析來輔助AMR解析。他們的實驗表明了句法可以為AMR解析任務提供幫助。但該方法依賴于句法分析的質量,存在著錯誤傳播的潛在問題,即如果句法樹中存在錯誤,那么這些錯誤將負面影響AMR解析的性能。Xu等人[7]通過對成分句法分析、AMR解析和機器翻譯三個任務進行聯合學習,來提高AMR解析的性能。此外,以上研究均基于單一場景探索句法分析在AMR解析中的應用。

為了更好地探索AMR解析與句法分析任務之間的關系,本文提出了基于聯合學習的成分句法與AMR語義分析方法。具體地,本文使用序列到序列(Seq2Seq)模型同時對成分句法分析(以下簡稱為句法分析)和AMR解析任務進行建模,回避句法樹和AMR圖在結構上的差異,簡化訓練的難度,提高模型在任務間的遷移性。為了減少數據稀疏帶來的模型對數據的依賴問題,我們還利用訓練好的句法和AMR解析器對大規模無標注數據進行解析,得到自動標注語料,并使用這些語料對模型進行預訓練。此外,本文探索了預訓練模型BERT在聯合學習任務中的應用。實驗結果表明,對AMR與句法分析任務進行聯合學習,可以同時提高兩個任務的性能。相比于單任務提升了8.73和6.36個F1值,并超越目前使用Seq2Seq模型的最好性能。目前使用Seq2Seq模型進行句法分析的最好性能為91.36[8]F1值,我們提出的方法F1值可以達到95.10。AMR解析使用相同的語料在Seq2Seq模型上最好性能是F1值可以達到80.20[7],使用同樣的語料我們的方法可以達到80.35的F1值。

為了方便進行論文復現,我們將模型源碼發布在https://github.com/Victoriaheiheihei/syn-sem-multi_task_learning.git.

1 相關工作

1.1 成分句法解析

成分句法分析的方法主要包括以下幾種:基于轉移的方法(Transition-based)[9]、基于圖(Graph-based)[10]的方法和序列到序列的方法(Seq2Seq-based)[11]。

基于轉移的成分句法分析,將整個句法樹的構建視為對序列解析動作(action)的預測。自左向右地對句子單詞進行掃描,每一步根據預測的動作或將單詞逐個壓入棧中或生成一個新的句法結構。Watanabe等人[12]首先利用神經網絡來實現基于轉移的成分句法分析,他們通過RNN來生成動作序列。隨后,Dyer等人[13]利用Stack-LSTMs自頂向上預測解析動作來完成樹的構建。另外一種常用的分析方法是基于圖的方法。基于圖的方法通過對句子中所有可能的句法成分進行打分,通過分值的高低來判斷該句法成分是否為句法樹中的一個節點。雖然基于圖的方法可以并行預測所有的句法成分,但是為了確保預測得到的結果滿足樹的性質還需要使用復雜的CKY(Cocke-Kasami-Younger)算法進行結構化解碼。Stern等人[10]最早提出可以對不同位置的BiLSTMs輸出進行相減,將輸出作為句法成分的表示,并在此基礎上對句法成分進行打分。在后續的工作中Kitaev等人[14]將其中的BiLSTMs表示替換為內容和位置信息相分離的Transformer,Zhang等人[15]利用雙仿射注意力(Biaffine Attention)機制代替相減特征,并利用GPU批量化運算加速結構化解碼操作。

近年來隨著深度學習的快速發展,特別是注意力機制和Transformer架構的提出,讓序列到序列模型的性能得到不斷的提升。在此背景下,Vinyals等人[11]首先嘗試將句法解析任務建模為序列到序列任務并利用LSTM加注意力的模型進行訓練。為了降低預測難度,在對句法樹進行序列化時,他們只保留括號、句法標簽以及詞性標簽,同時將句法標簽與其相對應的括號進行合并。在后續的工作中[8,16],研究者引入Transformer模型結構,使得無結構約束的成分句法分析性能接近于目前最好的基于轉移和基于圖等有結構約束的句法分析模型。

1.2 AMR解析

目前針對AMR數據進行語義解析的方法大致可以分為以下幾類:基于轉移的方法(Transition-based Parsing)[17]、基于圖的方法(Graph-based Parsing)[18]和序列到序列的方法(Seq2Seq-based Parsing)[6]。

早期AMR解析借鑒依存句法分析任務的既得經驗,使用處理句法樹的方法進行AMR解析,從緩沖區中讀取單詞并逐步將它們組合成堆棧中的語法結構的一系列決策。Wang等人[19]設計了一系列具有語言直覺性的動作,借助句子依賴結構與AMR之間映射的規律,將Text2AMR任務轉變為Text2Dependency、Dependency2AMR兩個過程。Ballesteros等人[20]引入了Stack-LSTMs,使用棧從左至右處理句子并遞增地生成對應的AMR圖,后來又有學者[21]提出用Stack-Transformer代替了上述模型中的Stack-LSTMs。在基于圖的方法中,JAMR[22]先預測AMR圖中的概念節點,然后利用最大生成樹的思想來獲取這些概念節點所構成的最優AMR圖。最新基于圖的方法均采用圖神經網絡,例如,Cai等人[23]利用兩個編碼器(序列編碼器、圖編碼器)在維持AMR的圖結構基礎上進行概念識別和關系預測遞增地生成圖中的每個節點和關系。Zhang等人[24]先是利用序列到序列模型預測目標端概念序列,然后再基于這些概念序列構建AMR圖。最后一種方法是基于序列到序列[6]的AMR解析,相較于上述方法,基于序列到序列的模型以端到端的方式構建AMR圖,可以利用較少的特性讓模型學習到任務信息。Barzdins等人[25]首次利用序列到序列模型進行AMR解析任務。在預處理過程中,通過復制AMR中共用的概念節點、刪除wiki鏈接和變量,將原本復雜的AMR圖簡化為AMR樹,然后通過先序遍歷將AMR樹轉化為序列。然而,受到數據稀疏問題的影響,序列到序列模型的結果遠不及同一時期最好的模型。為了解決這一問題,Peng等人[26]提出一種對標簽的分類方法來克服目標端詞匯稀疏的問題,并且在模型中引入有監督的注意力機制,進一步提升AMR解析的性能;van Noord等人[27]、Konstas等人[28]和Xu等人[7]則嘗試利用額外的大規模無標注數據。近年來隨著Transformer模型的提出和改進,Ge等人[6]和Xu等人[7]將Transformer模型應用于AMR解析,同時通過子詞化將低頻詞切分為更小的粒度,以減少低頻詞對模型的影響。

1.3 聯合學習

聯合學習也稱為多任務學習,旨在使用單個模型建模多種任務,通過參數共享來捕獲任務之間存在的隱藏關聯信息,從而提高模型在這些任務上的性能。

句法任務與語義任務存在很強的互補性,近年來越來越多的工作開始關注于如何利用句法信息來提升語義解析的性能[6,29]。但這些工作往往需要引入復雜的模型結構。相比之下,如果讓語義解析與句法分析任務聯合學習,會使模型變得更加簡單,同時也理應為模型帶來顯著的性能提升。然而正如Zhou等人[30]所指出目前關于句法和語義分析的聯合學習的研究很少,大部分只關注依賴結構,且在這些利用聯合學習進行語義和句法學習的研究[31]中,并沒有探討聯合學習是否同時對語義和句法任務的性能都有提升。Xu等人[7]借助于Seq2Seq模型的優勢,即輸入和輸出之間無須建立一一對應的關系,首次對句法分析、AMR解析和機器翻譯三個任務進行聯合學習,實驗結果表明簡單地通過聯合學習可以借助句法信息來提升AMR解析的性能。本文是對Xu等人[7]工作的深化,探索多種場景下AMR與句法分析任務之間的關系。

2 基于Transformer的AMR解析和句法分析

本文使用目前綜合性能最佳的Seq2Seq模型Transformer[16]作為AMR解析和句法分析的基準模型。Transformer是第一個完全依賴self-attention機制來計算輸入和輸出表示而不使用序列對齊的RNN或CNN的模型,且對于RNN和CNN中比較明顯的短板,如無法實現并行計算、計算冗余而低效、進行順序計算時信息會丟失導致RNN缺乏長距離依賴等問題,在Transformer模型中都可以得到較好的解決。Transformer本質上是一個由編碼器和解碼器組成的端到端結構,可以實現原始數據到目標任務結果的直接輸出。編碼器包含自注意力層(Self-Attention Layer)和全連接前饋神經網絡(Position-wise Feed-Forward Networks, FFN),自注意力層和全連接前饋神經網絡之間使用殘差連接(Residual Connection)及層級正則化(Layer Normalization)進行數據處理。解碼器包含自注意力層(Self-Attention Layer)、上下文注意力層(Context-Attention Layer)和全連接前饋神經網絡(Position-wise Feed-Forward Networks, FFN)層。有關Attention機制及Transformer的更多細節,可以參閱文獻[16]。

2.1 數據預處理

由于AMR圖中包含大量的用于指示共同引用節點的變量,這些變量本身并不影響AMR的語義,除此之外還包含用于補充專有名詞等特定名詞信息的wiki鏈接。本文使用Zhu等人[32]和Barzdins等人[25]實驗中基準系統所使用的預處理方法,將AMR圖中多余的變量、wiki鏈接、空格及標點等刪除,在不改變句子語義的情況下獲得線性化的AMR圖。圖1給出了源端句子、源端句子對應的標準AMR圖以及經過線性處理后的線性化AMR。

圖1 AMR預處理

對于句法樹的處理方法,本文參考文獻[11]實驗中的數據處理方法,將一棵句法樹自頂向下地采用先序遍歷的方式訪問,獲得該樹對應的線性化表示,并且為了加強機器對于句法的學習能力,刪除了句子中的詞語,僅保留詞語對應的詞性和句子的句法成分。在早期的實驗中我們發現,如果句法分析中存在大量括號,會影響模型對句子信息的學習,為了使模型更好地捕捉到句子的結構信息,我們為括號添加了標注,將標注后的整體作為一個符號輸入模型進行計算。圖2給出了源端句子、其對應的線性化句法樹以及經過后處理的線性化句法樹。

圖2 句法樹預處理

2.2 后處理

模型生成的AMR序列是一個不包含共用節點、wiki變量、包含冗余和重復信息的線性化AMR樹,需要通過一系列的后處理來恢復AMR圖。后處理包括恢復共用節點和wiki變量,修復模型生成的不完整的概念等。為方便起見,本文使用Van Noord等人[27]實驗中使用的AMR解析預處理和后處理腳本(1)https://github.com/RikVN/AMR。

類似地,模型生成的句法樹只包含句法標簽和詞性標簽。為了還原為句法樹,我們自定義后處理腳本,將模型生成的線性化句法樹還原為標準句法樹結構。

2.3 子詞化

AMR解析和句法分析都存在訓練語料不足的問題。在有限的數據集下,低頻詞在訓練中對模型性能的影響就會擴大。為了解決由于數據量不足帶來的數據稀疏問題,在基線實驗和不使用BERT預訓練模型的實驗中,采用字節對編碼(Byte Pair Encoding,BPE),將低頻詞切分為粒度更小、出現頻率更高的子詞,使神經網絡對數據進行更好的學習,捕捉到深層的隱藏信息。而在涉及BERT的實驗中,根據使用的BERT模型不同,其tokenizer的實現可能有WordPiece和Byte Pair Encoding。作者應當在此處詳細注明具體的tokenizer類型。

3 基于聯合學習的成分句法與AMR語義分析方法

不同任務可以通過訓練捕捉到不同的語言特征,將多種任務同時訓練可以強化模型對語言中隱藏信息的捕獲能力。正如上文所述,以AMR為表達形式的語義解析和以句法樹為表達形式的成分句法解析的標簽在側重點上各有不同,如AMR擁有語義角色,而句法樹擁有AMR中沒有體現的介詞、助詞、時態等信息,此外它們對于相同詞性的詞的處理方式也不同,從句法樹中可以學習到句子中哪一個詞是名詞,而在AMR中可以學習到哪些詞是地點,而地點多以名詞的形式出現,反過來又有助于句法分析。本文提出一種可行的基于聯合學習的句法分析和AMR解析方法。

3.1 AMR解析與句法分析聯合學習

目前多任務學習方法大致可以總結為兩類,一是不同任務之間共享相同的參數(Common Parameter),二是挖掘不同任務之間隱藏的共有數據特征(Latent Feature),前者被稱為Hard參數共享,后者被稱為Soft參數共享。為了在最大程度上發揮聯合學習的優勢,我們選擇對這兩個不同的任務共享全部的模型參數,即Hard參數共享模式。也就是說,在進行聯合訓練時,AMR任務和句法任務都是使用相同的一個編碼器和相同的一個解碼器。在進行聯合學習時使用相同的編碼器是十分常見的[33-35],這樣可以使編碼器獲得更多不同任務的訓練數據,以提升其對輸入文本的編碼能力。但值得注意的是,我們同樣也在這兩個不同的任務中共享了模型的解碼器部分。在聯合學習中共享解碼器,首先是考慮到經過數據預處理后的線性化AMR圖與句法樹有著很高的相似性,可以通過相同的解碼器進行解碼,因此共享解碼器不但可以減少模型中的參數數量,還能讓解碼器得到更加充分的訓練;其次,我們希望通過共享解碼器的參數來讓兩個任務彼此間變得更加緊密,更能夠互相幫助。但是這樣的模型容易造成兩個任務的標簽混淆,模型無法學習到任務的私有特征。為了使兩個任務區分開,兩個任務的語料在目標端數據預處理上使用了不同的起始符。如圖3所示,在對AMR任務進行解碼時解碼器的起始標簽為“”,而句法任務的起始標簽為“”。由于句法分析和語義解析的輸入都是英文語句,因此我們不對AMR任務和句法任務的源端輸入進行區別,使用同樣的結束符號“”。在訓練策略上,為了防止模型偏向其中某單一任務,我們選擇讓兩個任務輪流更新模型參數,即在進行一個迭代次數之后便切換任務對另一任務進行訓練。類似于神經機器翻譯,模型使用交叉熵(Cross-entropy)作為目標函數,并利用標簽平滑正則化進行參數優化。具體聯合學習算法如算法1所示,其中(sg,g)表示AMR語義解析任務源端與目標端數據;同理(st,t)表示句法分析的源端與其對應的目標端數據。

算法 1 聯合學習算法輸入: AMR圖的訓練集G,句法樹的訓練集T,訓練迭代步數N輸出: AMR和成分句法聯合模型參數Θ隨機初始化模型參數: Θfor n in 1,2,3,…,N do //n為當前訓練步數 //訓練AMR解析任務 從G中隨機抽取一批數據: (sg,g) 預測: g'=Θ(sg) 計算目標函數: Lg=L(g,g') 計算梯度: Δ(Θ,Lg) 更新模型: Θ=Θ-ΔΘ //訓練句法分析任務 從T中隨機抽取一批數據: (st,t) 預測: t'=Θ(st) 計算目標函數: Lt=L(t,t') 計算梯度: Δ(Θ,Lt) 更新模型: Θ=Θ-ΔΘend

圖3 模型示意圖其中SNY指句法分析任務

3.2 預訓練模型

預訓練模型是在深度學習架構上用大量數據在特定任務上進行訓練的語言模型。本文以BERT為例,探索在使用強而有效的BERT預訓練模型場景下,AMR解析和句法分析的聯合學習是否有效。Xu等人[7]分析并比較了四種BERT應用于AMR解析的方法,包括用BERT替代Transformer中的編碼器、將BERT作為特征提取器、將BERT作為額外的編碼器以及用BERT代替Transformer中的詞嵌入。在前期實驗中發現,使用BERT 代替詞嵌入的方法在AMR解析和句法分析任務上的效果最好,因此本文實驗中使用該方法,簡稱為 BERT embedding。同時,受Tenney等人[36]啟發,本文將BERT的各層輸出加權求和后得到的上下文相關表示作為后續編碼器的輸入,該方法稱為ScalarMix,計算如式(1)所示。

(1)

其中H=[H1,H2,…,HK]是BERT最后K層的輸出,ω∈K是可學習的K維向量,γ∈用來確定最終輸出的方差。可學習標量則用來調整最終輸出向量的方差。

3.3 自動標注外部語料

Xie等人[37]的工作表明: 當缺少標注數據時,半監督學習可以有效地改善深度學習模型的性能。為了克服AMR解析和句法分析對標注數據集規模的依賴,本實驗中利用大規模未標注數據,通過在小規模數據上已經訓練好的解析器,獲得大規模自動標注數據,再利用該自動標注數據對模型進行預訓練,以此解決AMR解析和句法分析數據不足的問題。通過這種方法可以得到AMR解析和句法分析的自動標注數據(EN,AMR,SyntaxTree)。我們先利用該自動標注數據對模型進行預訓練,然后再利用人工標注數據對預訓練模型進行微調(Fine-tuning)。

4 實驗

4.1 實驗數據集

本實驗使用的AMR數據集是AMR 2.0 (LDC2017T10),其訓練集、開發集和測試集分別包含 36 521個、1 368個和1 371個句子以及對應的AMR圖;句法分析數據集是Penn Treebank,其訓練集(WSJ02-21)、開發集(WSJ24)和測試集(WSJ23)分別包含39 611個、1 346個和2 416個句子以及對應的句法樹。此外,為了獲取大規模自動標注AMR以及句法樹,本文對WMT14英德數據集中的390萬英文端句子使用基線AMR模型以及開源工具AllenNLP(2)https://github.com/allenai/allennlp分別進行解析得到自動標注AMR和句法樹。為了緩解數據稀疏問題,本文將自動標注語料以及標準語料進行子詞化處理,詞頻參數設置為2萬(3)https://github.com/rsennrich/subword-nmt.git。此外,由于BERT模型會自動對句子進行子詞化處理,因此在涉及BERT預訓練模型的實驗中,為了與BERT模型的子詞化處理結果一致,我們使用transformers(4)https://github.com/huggingface/transformers工具包中的BertTokenizer對數據進行子詞化處理。實驗中所使用的BERT為bert-base-uncased (12 layers, 768 dimensions, 12 heads)。

4.2 模型設置

本實驗所使用的代碼是以OpenNMT-py為基礎的Transformer模型。實驗中Transformer編碼器和解碼器的層數皆設置為6層,將多頭注意力機制的頭數設置為8。詞嵌入向量和隱藏層的維度都設置為512,前饋神經網絡層的維度為2 048。標簽平滑設為0.1。實驗中還使用了Adam優化器對參數更新進行優化,其中β1=0.9、β2=0.998、batch size=8 192。除此之外,實驗中的Warm up step、learning rate、dropout rate、label_smoothing分別設為16 000、2.0、0.1、0.1。在解碼過程中,beam size設置為4。

在訓練的過程,單任務的模型訓練20萬步,聯合學習模型訓練30萬步。在進行模型選擇時,基線實驗以及僅使用外部語料進行預訓練的實驗中都選用在開發集上性能最好的模型進行測試,在使用BERT的實驗中,選用最后的模型進行測試。在使用預訓練模型聯合學習的實驗中,在微調的過程中僅使用單任務數據進行微調。

句法分析的評測使用標準的Evalb工具,AMR解析的評測使用Smatch[38]及其他細粒度的評判指標。

4.3 實驗結果

表1給出并比較了在不同場景下,聯合學習和非聯合學習的AMR解析和句法分析的性能。在此,將不使用外部資源并且非聯合學習的模型作基準模型。從中可以看出:

表1 基于AMR語義解析及成分句法分析聯合學習實驗性能

(1) 聯合學習能夠同時提高AMR解析和句法分析的性能。例如,在不使用外部資源的情況下,聯合學習分別提升了AMR解析3.50個SmatchF1值和句法分析2.18個F1值。

(2) 隨著外部語料的使用,AMR解析和句法分析的性能得到了大幅度的提升,造成聯合學習較非聯合學習的優勢變小。例如,在同時使用大規模自動標注語料和BERT的場景,聯合學習分別提升了AMR解析0.30個SmatchF1值和句法分析0.14個F1值。

(3) 基準模型與相比,我們最好的模型在AMR解析和句法解析上分別提升了8.73和6.36個F1值。

4.4 與其他實驗相關工作比較

以下分別針對AMR解析和句法分析,與相關工作進行比較。

4.4.1 與AMR 解析比較

表2列出并比較了近些年AMR解析相關工作的實驗結果,其中G′19和X′20使用大規模自動標注語料,Z′19、Q′20和C′20使用BERT預訓練模型。與他們的工作相比,本文提出的方法Smatch性能明顯優于G′19、Z′19和Q′20,與X′20和C′20相當。同時,在NER和SRL兩個方面取得的性能均優于其他系統。

表2 AMR Parsing與前人工作比較

4.4.2 與Syntactic Parsing比較

表3列出并比較了近些年英文句法分析的實驗結果。其中“T”表示采用基于轉移的方法,“G”表示采用基于圖的方法,“S”表示采用序列標注的方法,無標注表示使用Seq2Seq的方法,“?”表示使用了BERT模型。從結果可以看出,本文模型性能要優于同樣使用Seq2Seq的模型,并且在使用和不使用BERT的場景下,都能達到接近使用圖模型的性能。

表3 Syntactic parsing與前人工作比較

4.5 實驗分析

4.5.1 BERT ScalarMix對模型結果的影響

在3.2節中提到,本文實驗中將BERT各層參數加權求和后的結果作為BERT embedding的輸出,該方法被稱為ScalarMix,此處對該方法在兩個任務上進行了對比。本節中使用的BERT依舊為bert-base-uncased,在不使用ScalarMix的實驗中,BERT embedding選擇BERT第12層的輸出作為模型的詞嵌入。在模型的選擇上,我們依舊根據模型在開發集上的性能選擇最終的測試模型,實驗結果如表4所示。

表4 BERT ScalarMix對模型性能的影響

結果表明,使用ScalarMix在單任務訓練的實驗中,AMR解析和句法分析分別提升了2.72和0.18個F1值;在聯合學習的實驗中,AMR解析和句法分析分別提升1.43和0.02個F1值。我們推測可能的原因是BERT的每一層對不同任務的信息捕獲能力各不相同,ScalarMix通過加入兩個習得參數w和γ,讓模型根據BERT每一層對任務信息的捕獲能力,學習BERT在每一層的利用程度。Tenney等人[36]發現在利用BERT詞表示來訓練詞性、句法和語義等任務時,句法信息出現在BERT的較低層的表示中,而語義信息則貫穿整個神經網絡。實驗證明,即便是在AMR解析任務中這一結論依舊成立,且由于神經網絡對提高句法信息已經擁有較好的捕獲能力,ScalarMix對句法任務的性能不如AMR解析任務明顯。

4.5.2 實例分析

AMR標注中除了包含語義角色之外,還擁有general semantic role (如: manner、:age、:location)、in quantities (如: quant)、in date-entity (如day、:month)等標簽,在句法解析中的任意一個名詞可以在語義解析中獲得更充分的解釋。如圖4所示,對比單任務和聯合學習任務的解碼結果發現,在單任務句法分析的實驗中,the selling panic in both stocks and futures并沒有被看作是一個名詞短語,而是被拆分成了兩個名詞短語。但是在聯合學習中,模型成功學習到了這個短語,將這幾個名詞解析成一個名詞短語,且在AMR中會對一個擁有詞根的詞做進一步的拆解,如investor,在AMR中就會被拆解為:

圖4 單任務和聯合學習在句法任務上的差異

(p / person

:ARG0-of (i / invest-01))

因此可以學習到相同詞根但不同詞性的詞之間存在的聯系,進一步幫助句法分析。

同樣地,AMR解析在聯合學習的過程中也可以借助句法信息更好地對語義以及短語之間的修飾關系進行學習。如圖5所示,在單任務AMR解析任務中,模型沒有學習到短語at the research center對at a news conference的修飾關系,然而在聯合學習的模型中,模型成功學習到兩個短語之間的從屬關系,且輸出的AMR圖與正確結果一致。

圖5 單任務和聯合學習在AMR解析上的差異

4.5.3 句法性能對于AMR解析的影響

在上述實驗中,我們使用AllenNLP作為自動標注句法樹的來源,AllenNLP的性能為94.11,但Mrini等人[43]的模型性能可以達到96.38,是目前性能最好的模型。為了進一步探究句法分析對AMR解析性能的影響,我們使用Mrini等人[43]開源的代碼和訓練好的模型(5)https://github.com/KhalilMrini/LAL-Parser(LAL-parser)對WMT14數據進行解析,得到自動標注的句法樹,并用該句法樹重復表1中使用自動標注語料進行聯合學習(External)的實驗,實驗結果如表5所示。從表5可以看出,準確性更高的自動標注句法樹對AMR解析以及句法分析的性能都有一定的提升,但性能提升并不明顯。我們推測是因為AllenNLP已經達到94.11的性能,其生成的自動標注句法樹足以讓模型學習到所需句法知識,因此更高準確性的句法對AMR提升并不大。

表5 句法分析性能對AMR解析的影響

5 總結

本文基于Seq2Seq模型提出了一種聯合成分句法分析和AMR解析的學習方法。實驗結果表明,成分句法分析和AMR解析的聯合學習對兩個任務的性能都有一定程度的性能提升。為了克服數據稀疏的問題,本文使用了自動標注的大規模外部語料,進一步提升了實驗性能。除此之外,本文還以一種更有效的方法使用BERT預訓練模型。在使用外部語料和BERT進行訓練后,相比較于基線實驗結果可以使AMR解析和句法解析性能分別提升了8.73和6.36個F1值。實驗表明聯合句法分析和AMR解析任務是一種行之有效的方法,但隨著外部資源的加入,聯合學習較非聯合學習的優勢逐漸減小。

在未來的工作中,我們計劃在解碼時加入對抗機制,讓模型能夠區分多任務之間的私有特征和共享特征,以避免兩個任務由于共同更新參數而丟失掉對自身任務有益的部分信息。此外,近期有學者借助自訓練進行AMR解析并取得了不錯的效果,我們也在嘗試將自訓練的訓練策略加入到聯合學習的過程中。

猜你喜歡
句法語義實驗
記一次有趣的實驗
句法與句意(外一篇)
中華詩詞(2021年3期)2021-12-31 08:07:22
述謂結構與英語句法配置
語言與語義
做個怪怪長實驗
句法二題
中華詩詞(2018年3期)2018-08-01 06:40:40
詩詞聯句句法梳理
中華詩詞(2018年11期)2018-03-26 06:41:32
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
主站蜘蛛池模板: 毛片三级在线观看| 精品国产免费人成在线观看| 亚洲 欧美 日韩综合一区| 国产v精品成人免费视频71pao| 久久亚洲精少妇毛片午夜无码| 日韩一区二区三免费高清| 国产一级妓女av网站| 久久人人爽人人爽人人片aV东京热 | 久久综合丝袜日本网| 日本一区二区三区精品视频| 少妇人妻无码首页| 在线播放91| 在线另类稀缺国产呦| 国产高清自拍视频| 人妻丰满熟妇啪啪| 亚洲AⅤ无码国产精品| 一边摸一边做爽的视频17国产| 国产成人AV综合久久| 青青国产视频| 日韩无码黄色网站| 蜜桃视频一区| 人人澡人人爽欧美一区| 亚洲an第二区国产精品| 亚洲天堂网在线播放| 91成人在线观看视频| 欧美在线中文字幕| 日韩精品一区二区三区视频免费看| 97免费在线观看视频| 99精品这里只有精品高清视频| 国产在线啪| 久久一日本道色综合久久| 一本色道久久88| 日本黄网在线观看| A级毛片高清免费视频就| 免费国产不卡午夜福在线观看| 试看120秒男女啪啪免费| 亚洲人成色在线观看| 理论片一区| 欧美另类一区| 无码久看视频| 日韩小视频网站hq| 青青青国产视频手机| 人妻无码一区二区视频| 久久综合九色综合97婷婷| 成人亚洲国产| 狠狠色噜噜狠狠狠狠色综合久| 国产18在线播放| 高清无码一本到东京热| 精品综合久久久久久97超人该| 综合亚洲网| 永久天堂网Av| 免费人成在线观看视频色| 色偷偷一区| 亚洲二区视频| 毛片网站免费在线观看| 另类欧美日韩| a级毛片在线免费| 在线观看91香蕉国产免费| 9999在线视频| 亚洲美女一区二区三区| 青草精品视频| 噜噜噜综合亚洲| 久草青青在线视频| 女人毛片a级大学毛片免费| 国产视频资源在线观看| 伊人久综合| 亚洲免费毛片| 国模视频一区二区| 九色视频在线免费观看| 黄色网页在线播放| 久久综合丝袜日本网| 一级毛片免费高清视频| 激情综合网址| 中文字幕免费视频| 国产成人精品高清不卡在线| 亚洲天堂网在线观看视频| 亚洲天堂在线视频| 成人午夜网址| 国产a网站| 国产一区二区三区免费| 超清无码熟妇人妻AV在线绿巨人 | 色噜噜综合网|