999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于頭實體注意力的實體關(guān)系聯(lián)合抽取方法

2021-09-18 06:21:48劉雅璇
計算機(jī)應(yīng)用 2021年9期
關(guān)鍵詞:方法模型

劉雅璇,鐘 勇*

(1.中國科學(xué)院成都計算機(jī)應(yīng)用研究所,成都 610041;2.中國科學(xué)院大學(xué),北京 100049)

(*通信作者電子郵箱zhongyong@casit.com.cn)

0 引言

隨著互聯(lián)網(wǎng)技術(shù)的不斷發(fā)展以及大數(shù)據(jù)時代的來臨,萬維網(wǎng)中的各領(lǐng)域數(shù)據(jù)均呈爆炸式增長,尤其非結(jié)構(gòu)化數(shù)據(jù)占了其中的75%以上[1],如何從大量的非結(jié)構(gòu)化數(shù)據(jù)中提取有效知識成為了目前備受關(guān)注的問題。傳統(tǒng)的方法和數(shù)據(jù)結(jié)構(gòu)已經(jīng)不能滿足人們對于獲取信息的需求,因此,知識圖譜技術(shù)應(yīng)運而生。在知識圖譜中,知識以三元組的形式表示,每一條知識都可以表示為一條SPO(Subject,Predicate,Object)三元組,從自然語言文本中提取關(guān)系三元組是構(gòu)建大規(guī)模知識圖譜的關(guān)鍵步驟。

隨著深度學(xué)習(xí)的發(fā)展,許多學(xué)者將深度學(xué)習(xí)方法引入到關(guān)系抽取模型中,大幅提升了關(guān)系抽取的準(zhǔn)確度[2-4]。尤其是預(yù)訓(xùn)練語言模型BERT(Bidirectional Encoder Representation from Transformers)[5]被提出以來,已被廣泛用于包括關(guān)系抽取等各種自然語言處理任務(wù)[6-8],它為模型提供一種通用的上下文相關(guān)的詞向量表示,通過使用BERT 作為編碼層可在下游模型中利用非常簡單的設(shè)計達(dá)到相較其他模型更好的效果。

目前廣泛用于實體及關(guān)系抽取的方法有兩種:一種是流水線抽取方法,一種是聯(lián)合抽取方法。流水線抽取方法把實體和關(guān)系的抽取分為兩個先后獨立的任務(wù),分別是命名實體識別和關(guān)系分類,這種方法存在冗余實體推斷、子任務(wù)間錯誤累積等問題[9];聯(lián)合抽取方法是近年來深受研究者喜愛的方法,它把三元組抽取看作一個整體任務(wù),對一個模型進(jìn)行聯(lián)合訓(xùn)練,達(dá)到實體關(guān)系抽取相互促進(jìn)的目的。

在以上工作的基礎(chǔ)上,本文以人工智能領(lǐng)域語料庫作為數(shù)據(jù)集,對針對該領(lǐng)域的關(guān)系抽取方法作出了相關(guān)研究,提出了一種以BERT 作為編碼層,基于頭實體注意力的實體導(dǎo)向[10]聯(lián)合抽取模型。該模型分為兩個子任務(wù):第一個子任務(wù)對頭實體的起始結(jié)束位置進(jìn)行標(biāo)記;第二個子任務(wù)針對該樣本的一個頭實體,結(jié)合頭實體注意力機(jī)制為各個關(guān)系類型標(biāo)記尾實體的起始、結(jié)束位置。本文的主要工作有以下幾點:

1)基于BERT 在實體關(guān)系聯(lián)合抽取中的研究基礎(chǔ),提出了基于頭實體注意力的聯(lián)合抽取模型JSA(Joint model based on Subject Attention),在尾實體標(biāo)注任務(wù)中賦予頭實體與當(dāng)前位置詞相關(guān)的權(quán)重,使模型自動識別句子中與頭實體相關(guān)的部分。

2)設(shè)計該領(lǐng)域的實體和關(guān)系類別,通過遠(yuǎn)程監(jiān)督方法構(gòu)建三元組抽取數(shù)據(jù)集;同時利用中文中“、”“和”“等”等標(biāo)點和字符的特點對數(shù)據(jù)集進(jìn)行了擴(kuò)充和過濾,得到了置信度較高的人工智能領(lǐng)域三元組抽取數(shù)據(jù)集。

1 相關(guān)工作

近年來,人們提出了大量的深度神經(jīng)網(wǎng)絡(luò)模型來完成有監(jiān)督的關(guān)系抽取任務(wù),這些模型可根據(jù)學(xué)習(xí)流程分為流水線學(xué)習(xí)方法和聯(lián)合學(xué)習(xí)方法。

1.1 流水線學(xué)習(xí)方法

流水線學(xué)習(xí)方法一般先獲得已標(biāo)注實體信息的文本,再利用關(guān)系分類模型預(yù)測每一對候選實體對的關(guān)系類型。Socher 等[11]于2012 年首次將循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)用于關(guān)系抽取任務(wù),將句子的依存句法樹作為輸入,學(xué)習(xí)樹中每個節(jié)點的詞向量和節(jié)點矩陣表示以捕獲單詞或整個短語的語義,最終得到該句子的向量表示,實現(xiàn)關(guān)系分類。Zeng 等[12]于2014 年將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)引入關(guān)系抽取任務(wù),該方法將詞向量和相對位置特征輸入卷積神經(jīng)網(wǎng)絡(luò)以獲得句子級表示,再將其和實體詞級表示拼接,得到最終的表示向量用于關(guān)系抽取。Wang 等[13]向基于CNN 的關(guān)系抽取模型中引入了多層注意力機(jī)制來捕獲句子中的實體注意力和關(guān)系注意力,使模型能自動獲取與實體關(guān)系相關(guān)的細(xì)粒度信息。CNN 和RNN 對長句子建模能力有限,而長短期記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)尤其是雙向LSTM(Bi-LSTM)擅長捕獲長句子實體之間的依賴關(guān)系。Xu 等[14]將LSTM 用于關(guān)系抽取任務(wù),將詞向量、詞性標(biāo)注、句法依存、上位詞等信息作為四個通道沿著實體對的最短依賴路徑輸入LSTM 網(wǎng)絡(luò),最后對四個通道的隱向量表示進(jìn)行拼接獲得最后的句子向量表示,用于關(guān)系分類。Cai等[15]將CNN 和LSTM 進(jìn)行融合,設(shè)計雙向循環(huán)卷積神經(jīng)網(wǎng)絡(luò)同時從正反兩個方向?qū)W習(xí)最短依存路徑上的信息。流水線的方法被認(rèn)為存在冗余實體推斷、子任務(wù)間錯誤累積等問題,為了避免這些問題,近幾年研究者們傾向于對聯(lián)合學(xué)習(xí)方法的研究。

1.2 聯(lián)合學(xué)習(xí)方法

常見的三元組聯(lián)合學(xué)習(xí)方法分為三種:共享編碼層的實體關(guān)系抽取方法、基于三元組標(biāo)記的全局優(yōu)化方法和實體導(dǎo)向的聯(lián)合抽取方法。Miwa 等[16]最先提出了共享編碼層的聯(lián)合抽取方法,它簡單地共享命名實體識別和關(guān)系分類的編碼層,使得兩個任務(wù)在學(xué)習(xí)的過程中得以相互促進(jìn),但它依然采取先提取實體再提取關(guān)系的方法,沒有解決冗余實體和錯誤累積的問題,后續(xù)工作認(rèn)為這并不是真正意義上的聯(lián)合抽取[17],Zhong 等[18]認(rèn)為在實體識別和關(guān)系分類任務(wù)之間,采用流水線模型或許比簡單地共享編碼層的聯(lián)合抽取模型效果更好。Zheng 等[17]于2017 年提出了基于標(biāo)記的全局優(yōu)化模型,他們首先設(shè)計了一個三元組標(biāo)記方法,將文本輸入由兩個雙向LSTM 組成的序列標(biāo)記模型進(jìn)行訓(xùn)練,該方法對三元組抽取進(jìn)行全局優(yōu)化,解決了冗余實體推斷和錯誤累積問題;但其采用就近匹配原則處理包含多個頭實體或尾實體的句子,無法處理三元組間實體重疊的問題。為了解決實體重疊問題,專家們提出了實體導(dǎo)向的聯(lián)合抽取方法。Dai 等[19]引入一種位置注意力機(jī)制,為長為n的句子生成n個不同的句子表示,對每個位置p標(biāo)記其實體標(biāo)簽,對其他位置標(biāo)記與位置p實體的關(guān)系標(biāo)簽,構(gòu)建一個實體導(dǎo)向的聯(lián)合序列標(biāo)注模型以抽取三元組。Yu等[20]將三元組抽取分為兩個子任務(wù),分別是頭實體標(biāo)記及其對應(yīng)尾實體的標(biāo)記任務(wù),并將關(guān)系抽取和尾實體標(biāo)記任務(wù)結(jié)合,對每個關(guān)系標(biāo)記相應(yīng)尾實體,構(gòu)建了一個共享編碼層的分層標(biāo)記模型。Wei 等[21]采用BERT 作為聯(lián)合抽取模型的預(yù)訓(xùn)練語言模型,顯著提高了實體導(dǎo)向的聯(lián)合抽取模型的性能,達(dá)到了當(dāng)時的最優(yōu)水平,但其僅將頭實體表示簡單地與各詞向量表示相加,忽略了頭實體和其他單詞之間的細(xì)粒度語義聯(lián)系,本文在此基礎(chǔ)上提出了頭實體注意力機(jī)制,在尾實體標(biāo)注任務(wù)中為每個詞提供不同權(quán)重的頭實體表示,使模型自動識別句子中與頭實體相關(guān)的部分。

2 基于頭實體注意力的聯(lián)合抽取模型

2.1 語料收集與模型設(shè)計

三元組抽取領(lǐng)域有許多公開數(shù)據(jù)集,比如ACE 2005、SemiEval 2010 Task8 Dataset 等有監(jiān)督數(shù)據(jù)集,以及通過遠(yuǎn)程監(jiān)督方法提取的NYT(New York Times Corpus)數(shù)據(jù)集。這些通用數(shù)據(jù)集被廣泛應(yīng)用于各關(guān)系抽取方法中,但目前很少有公開的垂直領(lǐng)域三元組抽取數(shù)據(jù)集。本文通過遠(yuǎn)程監(jiān)督方法構(gòu)建了人工智能領(lǐng)域的三元組抽取數(shù)據(jù)集,并利用中文中“、”“和”“等”等標(biāo)點和字符的特點對數(shù)據(jù)集進(jìn)行了擴(kuò)充和過濾。

2.1.1 知識庫的設(shè)計與數(shù)據(jù)收集

經(jīng)過對大量人工智能領(lǐng)域新聞報道、相關(guān)企業(yè)網(wǎng)站、專業(yè)書籍的翻閱了解,對人工智能領(lǐng)域設(shè)計了如表1 所示的11 種的關(guān)系類別,并通過人工收集的方法圍繞這11 種關(guān)系類型收集了1 500 個該領(lǐng)域的三元組,其中的實體類型包括技術(shù)、領(lǐng)域、產(chǎn)品、功能、算法等多種不同層次的實體。在這些三元組中,“使用范圍”關(guān)系的尾實體一般屬于產(chǎn)品、功能等類型,“使用領(lǐng)域”關(guān)系的尾實體特指某個領(lǐng)域,“包含”關(guān)系的頭、尾實體是整體和部件的關(guān)系,“別稱”關(guān)系的設(shè)計是為了知識圖譜的實體鏈接特設(shè)的關(guān)系類型。

為了提高遠(yuǎn)程監(jiān)督的匹配效率,本文從博客新聞類網(wǎng)站的人工智能專欄爬取該領(lǐng)域語料庫,經(jīng)過分句分詞以及遠(yuǎn)程監(jiān)督的對齊匹配過程獲得了大量有標(biāo)記樣本。

2.1.2 數(shù)據(jù)擴(kuò)充及過濾

由于遠(yuǎn)程監(jiān)督的假設(shè)過于強(qiáng)烈,導(dǎo)致同一個頓號序列之間的實體會被匹配到“上位詞”“所屬領(lǐng)域”等蘊含上下位關(guān)系的關(guān)系類型,但事實上頓號上下文并不包含該語義;而且經(jīng)過觀察發(fā)現(xiàn),若并列的實體中有一個實體和該并列之外的其他實體之間存在除“上位詞”“相對概念”“別稱”之外的其他關(guān)系,那個該并列內(nèi)的其他實體大概率也和該實體之間存在該關(guān)系并且頭尾順序不變。根據(jù)該特點,本文在匹配過程中對數(shù)據(jù)集進(jìn)行了過濾及擴(kuò)充,并將頓號序列周圍的“和”“等”等字符也考慮在內(nèi),由此修正了一部分由于遠(yuǎn)程監(jiān)督方法導(dǎo)致的錯誤標(biāo)注問題,擴(kuò)充了數(shù)據(jù)集樣本數(shù)量。處理之后得到置信度較高的22 070 條樣本,按照10∶1∶1 的比例分割為訓(xùn)練集、驗證集和測試集,用于模型的訓(xùn)練、驗證和測試結(jié)果。樣本中各關(guān)系類型數(shù)量分布如表1 所示,其中一個樣例展示如圖1所示。

2.2 JSA的模型設(shè)計

本模型的目的是識別句子中所有可能存在的三元組,其中部分三元組可能存在重疊的頭實體或尾實體。為了對整個三元組聯(lián)合建模的同時保證模型對重疊三元組的處理能力,本模型將三元組建模過程做如式(1)的轉(zhuǎn)換:

其中:s、r、o分別表示句子中的一對三元組的主語、關(guān)系、賓語;x表示輸入的句子;T表示所有關(guān)系組成的集合。通過該轉(zhuǎn)換將三元組的抽取拆分為兩個子任務(wù):第一個子任務(wù)是學(xué)習(xí)一個頭實體標(biāo)記器,對句子中頭實體的起始位置和結(jié)束位置進(jìn)行標(biāo)記;第二個子任務(wù)是學(xué)習(xí)一個尾實體及關(guān)系標(biāo)記器,分別對每個頭實體標(biāo)記對應(yīng)關(guān)系的尾實體的起始和結(jié)束位置,對不存在的關(guān)系標(biāo)記為全0。尾實體及關(guān)系標(biāo)記器將關(guān)系分類和尾實體抽取同步進(jìn)行,避免了流水線學(xué)習(xí)中的錯誤累積和冗余實體等問題,同時將頭尾實體分開標(biāo)記解決了實體重疊的問題。JSA 的模型總體架構(gòu)如圖2 所示,圖中s 指頭實體,o指尾實體,“首”指的是實體起始位置,“尾”指的是實體結(jié)束位置。利用該模型抽取句子中所有可能三元組的具體步驟為:首先將句子輸入頭實體標(biāo)記器,標(biāo)記出句子中所有可能的頭實體;其次將每個頭實體單獨輸入尾實體及關(guān)系標(biāo)記器,利用CNN+注意力機(jī)制求得頭實體在各個位置的表示,將其與相應(yīng)位置隱向量拼接,拼接得到的結(jié)果用于標(biāo)記該頭實體對應(yīng)的尾實體。模型各部分具體介紹如下。

圖2 JSA的模型架構(gòu)示意圖Fig.2 Schematic of JSA model architecture

2.2.1 BERT編碼層

自BERT 被提出以來,由于其在各個自然語言處理任務(wù)中優(yōu)異的表現(xiàn),已成為近幾年最常用的預(yù)訓(xùn)練語言模型。本文模型的兩個子任務(wù)共享同一個BERT 編碼器,該編碼器從輸入的句子中提取特征信息,并將其提供給后續(xù)的兩個標(biāo)注模塊,如式(2)所示:

其中:x={x1,x2,…,xn}為輸入的句子;H=[H1,H2,…,Hn]為各個位置的隱向量表示。

2.2.2 頭實體標(biāo)記器

如式(3)~(4)所示,頭實體標(biāo)記器直接在編碼層之上使用兩個獨立的線性層對BERT 編碼器輸出的隱向量H進(jìn)行解碼,以序列標(biāo)記的形式使用0/1標(biāo)記句子中所有頭實體的起始和結(jié)束位置。

其中:σ表示sigmoid 激活函數(shù)均為待學(xué)習(xí)的網(wǎng)絡(luò)參數(shù);代表句子中的第i個位置作為頭實體的起始位置的概率;代表句子中的第i個位置作為頭實體的結(jié)束位置的概率,如果概率超過某一閾值則對應(yīng)的位置將被賦以標(biāo)簽1,否則賦以標(biāo)簽0。可使用驗證集為標(biāo)記器確定最佳閾值,此處將閾值設(shè)為0.5。抽取實體時,為每個起始位置匹配最接近且處于其右邊的結(jié)束位置生成一個頭實體。

2.2.3 尾實體及關(guān)系標(biāo)記器

與頭實體標(biāo)記器不同,除了句子本身的輸入外,尾實體及關(guān)系標(biāo)記器同時考慮了頭實體的特征。首先根據(jù)頭實體位置得到頭實體的起始、結(jié)束區(qū)間內(nèi)所有位置的隱向量表示Hhead,將其輸入一個CNN+ReLU+maxpooling 層以獲取實體級別的向量表示hhead。本文認(rèn)為,頭實體的表示對尾實體標(biāo)注任務(wù)的影響與當(dāng)前位置詞相關(guān),于是提出頭實體注意力機(jī)制,如式(6)所示:

計算每個位置詞對頭實體的點積注意力權(quán)重,再將賦予權(quán)重的頭實體表示與當(dāng)前詞的隱向量拼接,將拼接結(jié)果T=[T1,T2,…,Tn]輸入如式(7)、(8)的兩個獨立線性層進(jìn)行解碼,標(biāo)記方法和頭實體標(biāo)記器類似,但尾實體及關(guān)系標(biāo)記器需要對每個關(guān)系類型單獨標(biāo)記尾實體的起始和結(jié)束位置。

綜上,本模型在尾實體及關(guān)系標(biāo)記器中使用CNN 獲取頭實體表示,很好地利用了CNN 擅長捕獲句子局部特征的特點;并使用頭實體注意力機(jī)制調(diào)整頭實體向量對每個位置詞作為尾實體的影響力權(quán)重,使模型能夠自動識別句子中與頭實體相關(guān)的部分,從而達(dá)到提高尾實體及關(guān)系標(biāo)記器標(biāo)注效果的目的。針對每個頭實體,尾實體的抽取方法和頭實體標(biāo)記器類似。

在訓(xùn)練過程中,對每個樣本隨機(jī)選擇一個真實頭實體作為尾實體及關(guān)系標(biāo)記器的輸入;在推斷過程中,需要對所有頭實體單獨提取一次尾實體。

2.3 損失函數(shù)

本文采用多個二分類交叉熵?fù)p失函數(shù)訓(xùn)練模型,并將各子任務(wù)損失相加得到模型的聯(lián)合損失,通過最小化聯(lián)合損失以學(xué)習(xí)模型中的參數(shù)。如式(9)所示:

其中代表第i個位置詞作為頭或尾實體的真實的起始或結(jié)束位置;L代表句子長度。

3 實驗與結(jié)果分析

3.1 基線模型、實驗設(shè)計和評估標(biāo)準(zhǔn)

為了公平比較,本文將使用BERT 作為編碼層且基于實體導(dǎo)向的聯(lián)合抽取模型CasRel(Cascade binary tagging framework for Relational triple extraction)[21]作為基線模型,在公開的三元組抽取數(shù)據(jù)集NYT 以及通過遠(yuǎn)程監(jiān)督方法得到的人工智能領(lǐng)域數(shù)據(jù)集上進(jìn)行實驗,并按照慣例使用F1值作為評估標(biāo)準(zhǔn)。這樣的選擇有助于衡量本文提出的JSA 是否更好地利用了頭實體和其他單詞間的細(xì)粒度語義關(guān)系。除此之外,為了驗證本模型各改進(jìn)設(shè)計的有效性,針對各個改進(jìn)點做了消融實驗,以展示使用CNN 獲得頭實體表示、頭實體注意力機(jī)制、聯(lián)合抽取等設(shè)計對三元組抽取任務(wù)的增益。

3.2 參數(shù)設(shè)置

本文通過使用驗證集進(jìn)行測試實驗來確定超參的大小。為了公平比較,在人工智能領(lǐng)域數(shù)據(jù)集中,本文對所有模型實驗均采用如下設(shè)置:使用小批量更新的方法,根據(jù)設(shè)備顯存大小將小批量樣本數(shù)設(shè)為32;學(xué)習(xí)率設(shè)為1E-5,使用自適應(yīng)矩估計(Adam)優(yōu)化器對模型參數(shù)進(jìn)行自適應(yīng)學(xué)習(xí);預(yù)訓(xùn)練語言模型使用的是中文版的BERT-Base,隱向量長度為768;輸入句子的最大長度設(shè)為100,頭實體的最大長度設(shè)為15,對過長的句子和頭實體進(jìn)行截斷;CNN 卷積核大小設(shè)為5;起始和結(jié)束位置的標(biāo)記閾值均設(shè)為0.5;采用早停機(jī)制防止過擬合,當(dāng)在驗證集中的F1值至少連續(xù)7個訓(xùn)練周期沒有得到改進(jìn)時即停止訓(xùn)練。特別地,為了和基線模型的實驗結(jié)果形成公平對比,在NYT 數(shù)據(jù)集上采用與以上不同的設(shè)置:小批量樣本數(shù)設(shè)為6;預(yù)訓(xùn)練語言模型使用[BERT-Base,Cased]版本。本文所有實驗基于Google Colab 平臺的Nvidia Tesla T4 16 GB 顯卡進(jìn)行訓(xùn)練。

3.3 實驗結(jié)果分析

3.3.1 模型對比實驗分析

表2 展示了本文模型和其基線模型在NYT 以及本文第2章中構(gòu)建的數(shù)據(jù)集上的實驗結(jié)果。可以看出,無論是在公開數(shù)據(jù)集上還是人工智能領(lǐng)域數(shù)據(jù)集上,無論是精確率還是召回率上,本文模型均明顯優(yōu)于基線模型,在NYT 和領(lǐng)域數(shù)據(jù)集上的F1值分別高于基線模型1.8和8.9個百分點。本文認(rèn)為這主要歸功于:1)面向頭實體的尾實體標(biāo)注過程能夠捕獲頭實體與尾實體之間的依賴關(guān)系;2)利用CNN 有效捕獲頭實體信息;3)聯(lián)合抽取的方法將頭尾實體的標(biāo)注聯(lián)合學(xué)習(xí),解決了冗余實體和實體重疊的問題。圖3 所示為本文模型在測試集上的F1值、精確率、召回率等指標(biāo)隨訓(xùn)練周期變化圖。圖4所示為模型訓(xùn)練時的損失函數(shù)值變化圖,可以觀察到隨著訓(xùn)練周期的增長,模型逐漸趨于穩(wěn)定,最終在第55 個訓(xùn)練周期時F1值達(dá)到最高,之后根據(jù)早停機(jī)制停止訓(xùn)練。

表2 在人工智能領(lǐng)域數(shù)據(jù)集和NYT數(shù)據(jù)集上不同模型的實驗結(jié)果Tab.2 Experimental results of different models on artificial intelligence dataset and NYT dataset

圖3 測試集上的F1值、精確度和召回率Fig.3 F1 score,precision and recall on test dataset

圖4 訓(xùn)練損失值Fig.4 Training loss value

3.3.2 消融實驗分析

本文為驗證模型各優(yōu)化點的增益作用,使用第2 章中構(gòu)建的數(shù)據(jù)集對模型進(jìn)行了消融實驗。

首先,簡單地對頭實體所有位置詞的隱向量求加和平均得到頭實體表示,將其直接與句子的詞向量拼接,拼接結(jié)果用于標(biāo)記尾實體的起始結(jié)束位置。對該模型(Entity-Orientedsimple)進(jìn)行實驗,得到結(jié)果如表3所示,該方法相比基線模型(CasRel)得到了1.7個百分點的F1值提升。相較于基線模型中將頭實體表示和各位置詞隱向量相加的設(shè)計,拼接的方法使得尾實體及關(guān)系標(biāo)記器可對當(dāng)前詞向量和頭實體表示向量產(chǎn)生不同的權(quán)重,很好地學(xué)習(xí)了頭實體對于尾實體及關(guān)系標(biāo)注任務(wù)的影響力。

表3 在人工智能領(lǐng)域數(shù)據(jù)集上的消融實驗結(jié)果Tab.3 Results of ablation experiment on artificial intelligence dataset

第二步,在拼接的基礎(chǔ)上,使用CNN+maxpooling 網(wǎng)絡(luò)代替加和平均來學(xué)習(xí)頭實體特征表示,通過該方法(Entity-OrientedCNN)在F1值上獲得了0.4個百分點的提升。最后在以上模型的基礎(chǔ)上使用頭實體注意力機(jī)制,以捕獲頭實體與尾實體之間的依賴關(guān)系,該創(chuàng)新點在F1 值上貢獻(xiàn)了高達(dá)6.8 個百分點的顯著提升。

為了驗證聯(lián)合學(xué)習(xí)為本模型帶來的增益,本文設(shè)計了一個實驗,簡單地為頭實體標(biāo)記器和尾實體及關(guān)系標(biāo)記器學(xué)習(xí)兩個獨立的BERT 編碼器,學(xué)習(xí)過程中使用各自的目標(biāo)函數(shù)進(jìn)行優(yōu)化,其余設(shè)計與JSA 相似。該流水線模型(JSApipeline)在數(shù)據(jù)集上的實驗結(jié)果如表3 所示,F(xiàn)1 值相對相應(yīng)的聯(lián)合學(xué)習(xí)模型(JSAjoin)t下降了6.1 個百分點,該結(jié)果表明聯(lián)合學(xué)習(xí)方法對該模型起到了顯著的增益作用。通過該實驗,本文認(rèn)為實體導(dǎo)向的聯(lián)合抽取模型的兩個子任務(wù)——頭實體標(biāo)記和尾實體標(biāo)記能夠通過共享編碼層及損失聯(lián)合優(yōu)化的方法達(dá)到共同學(xué)習(xí)、相互促進(jìn)的目的。

除此之外,相較于基于三元組標(biāo)記的聯(lián)合抽取模型,實體導(dǎo)向的聯(lián)合抽取模型在實體重疊問題上體現(xiàn)了很好的抽取效果。如圖5~6 所示,由于基于三元組的標(biāo)記方法采用的全局優(yōu)化方法和最近匹配原則,導(dǎo)致其無法處理重疊實體的三元組抽取問題;而在實體導(dǎo)向的聯(lián)合抽取模型中,其架構(gòu)設(shè)計使其在一定程度上天然不受重疊實體問題的影響。

圖5 基于三元組標(biāo)記的全局優(yōu)化模型在實體重疊情況下的標(biāo)記和抽取結(jié)果Fig.5 Tagging and extraction results in case of overlapping entities by using global optimization model based on triple tagging

圖6 實體導(dǎo)向的聯(lián)合抽取模型在實體重疊情況下的標(biāo)記和抽取結(jié)果Fig.6 Tagging and extraction results in case of overlapping entities by using entity-guided joint extraction model

4 結(jié)語

本文提出了一種基于頭實體注意力的實體導(dǎo)向聯(lián)合抽取模型,該模型將三元組抽取任務(wù)分為兩個互相影響的實體抽取子任務(wù),第二個子任務(wù)利用第一個子任務(wù)獲取到的頭實體信息進(jìn)行抽取。通過這種方式,解決了流水線模型中的冗余實體的問題和以往聯(lián)合抽取模型中實體重疊的問題,并學(xué)習(xí)了頭實體與尾實體之間的依賴關(guān)系。本文在通過遠(yuǎn)程監(jiān)督方法構(gòu)建的三元組抽取數(shù)據(jù)集上的多個實驗結(jié)果表明,本文模型性能取得了顯著的改進(jìn),并驗證了聯(lián)合抽取框架以及各個改進(jìn)設(shè)計的有效性。但通過遠(yuǎn)程監(jiān)督構(gòu)建的數(shù)據(jù)集難免由于過寬的假設(shè)引入噪聲,如何去除數(shù)據(jù)集中的噪聲而獲得更好的訓(xùn)練效果將是下一步的研究方向。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
學(xué)習(xí)方法
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
主站蜘蛛池模板: 国产一级妓女av网站| 欧美亚洲国产一区| 1024你懂的国产精品| 天天干天天色综合网| 亚洲IV视频免费在线光看| 免费在线色| 亚洲欧洲天堂色AV| 国产免费好大好硬视频| 中文无码精品A∨在线观看不卡 | 色网在线视频| 51国产偷自视频区视频手机观看| 欧美色综合久久| 国产成人永久免费视频| 欧美成人午夜影院| 成AV人片一区二区三区久久| 欧美日韩国产一级| 免费中文字幕一级毛片| 欧美区一区| 亚洲V日韩V无码一区二区| 毛片网站观看| 无码免费的亚洲视频| 中文无码日韩精品| 亚洲精品第一页不卡| 免费播放毛片| 国产乱人免费视频| 成年免费在线观看| 毛片在线播放网址| 四虎国产永久在线观看| 片在线无码观看| 欧美精品aⅴ在线视频| 色婷婷丁香| 中文精品久久久久国产网址| 欧美三级视频在线播放| 久久人搡人人玩人妻精品| 亚洲永久精品ww47国产| 国内毛片视频| 国产xxxxx免费视频| 97超爽成人免费视频在线播放| 中文字幕丝袜一区二区| 国产美女无遮挡免费视频| 在线另类稀缺国产呦| 在线观看亚洲人成网站| 欧美一级夜夜爽| 国产精品三级av及在线观看| 亚洲成a人片7777| 中文字幕亚洲无线码一区女同| 亚洲人成网7777777国产| 欧美国产日产一区二区| 中文字幕免费在线视频| 日本一区二区不卡视频| 午夜日b视频| 黄色网址手机国内免费在线观看| 精品久久777| 国产情精品嫩草影院88av| 久久国产亚洲欧美日韩精品| 97青青青国产在线播放| 欧美a√在线| 热久久国产| 亚洲精品无码专区在线观看| 国产日韩欧美在线视频免费观看| 91娇喘视频| 婷婷色中文| 潮喷在线无码白浆| 国产精品蜜臀| 国产网站免费观看| 在线播放91| 毛片久久久| 欧美一级高清免费a| 91在线日韩在线播放| 国产精品成人一区二区不卡| 午夜a视频| 久久婷婷五月综合97色| 色婷婷亚洲十月十月色天| 在线高清亚洲精品二区| 四虎永久免费在线| 国产免费怡红院视频| 米奇精品一区二区三区| 99热线精品大全在线观看| 亚洲国产理论片在线播放| 欧美日韩国产精品va| 国产精品妖精视频| 成人永久免费A∨一级在线播放|