999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合實體語義的實體關(guān)系抽取聯(lián)合解碼

2024-09-13 00:00:00張鑫張思佳
現(xiàn)代電子技術(shù) 2024年14期

摘" 要: 針對復雜語境中存在多義詞或上下文聯(lián)系不強的實體,導致模型難以正確識別其關(guān)系的問題,提出一種基于BERT和聯(lián)合解碼的實體關(guān)系抽取模型。該模型首先采用BERT對實體進行語義編碼,提取出實體的上下文信息;然后,利用自注意力機制標記出頭實體,并對尾實體進行預測;最后,設(shè)計聯(lián)合解碼機制,結(jié)合實體語義信息和關(guān)系抽取任務(wù)進行聯(lián)合解碼。實驗結(jié)果表明,與基準模型相比,所提模型在紐約時報(NYT)數(shù)據(jù)集和WebNLG數(shù)據(jù)集上的準確率和F1值均有所提高,能夠有效地提高實體關(guān)系提取的準確性。

關(guān)鍵詞: 實體關(guān)系抽取; 實體語義; BERT; 聯(lián)合編碼; 自注意力機制; 知識圖譜

中圖分類號: TN919.5?34; TP391.1" " " " " " " " " "文獻標識碼: A" " " " " " " " " 文章編號: 1004?373X(2024)14?0041?05

Joint decoding for entity relation extraction with integrated entity semantics

ZHANG Xin1, ZHANG Sijia1, 2, 3

(1. College of Information Engineering, Liaoning Provincial Key Laboratory of Marine Information Technology, Dalian Ocean University, Dalian 116023, China;

2. MOE Key Laboratory of Environment Controlled Aquaculture, Dalian Ocean University, Dalian 116023, China;

3. Dalian Key Laboratory of Smart Fisheries, Dalian 116023, China)

Abstract: In allusion to the problem of polysemous words or entities with weak contextual connections in complex contexts, which makes it difficult for the model to recognize their relationships correctly, an entity relationship extraction model based on BERT and joint decoding is proposed. In this model, the BERT (bidirectional encoder representations from transformers) is used to semantically encode entities and extract their contextual information. Then, the self attention mechanism is used to label the head entity and predict the tail entity. A joint decoding mechanism is designed to combine entity semantic information and relationship extraction tasks for joint decoding. The experimental results show that, in comparison with the benchmark model, the proposed model can improve the accuracy and F1 value on the New York times (NYT) dataset and WebNLG dataset, effectively improving the accuracy of entity relationship extraction.

Keywords: entity relation extraction; entity semantics; BERT; joint decoding; self attention mechanism; knowledge graph

0" 引" 言

知識圖譜是用于表示實體及其關(guān)系的圖結(jié)構(gòu),它以圖的形式描述和展示知識的結(jié)構(gòu)、關(guān)系和過程。實體關(guān)系抽取作為構(gòu)建知識圖譜的關(guān)鍵技術(shù),是指從文本中識別并抽取實體之間三元組關(guān)系[1]的過程。這些三元組所蘊含的語義信息,為構(gòu)建大規(guī)模知識圖譜奠定了堅實基礎(chǔ)。確保實體和關(guān)系的精確提取,對保障知識圖譜的質(zhì)量至關(guān)重要。

目前,基于深度學習的有監(jiān)督關(guān)系抽取方法主要分成兩種:流水線方法和聯(lián)合抽取方法[2]。Chan Y S等人使用流水線方法先識別輸入語句中的實體,再將實體組合并對其進行關(guān)系分類[3]。此外,不少基于神經(jīng)網(wǎng)絡(luò)的關(guān)系抽取方法也沿用了流水線方式。然而,該方法忽略了實體抽取與關(guān)系抽取任務(wù)之間的相互依賴性,容易導致由實體識別錯誤引發(fā)關(guān)系抽取任務(wù)誤差傳遞的問題。同時,實體識別和關(guān)系抽取環(huán)節(jié)之間缺乏交互聯(lián)系,這限制了準確率的進一步提升。

針對上述問題,一些研究開始探索聯(lián)合抽取方法。這種方法將實體識別和關(guān)系抽取兩項任務(wù)緊密結(jié)合,旨在減少因?qū)嶓w抽取導致的關(guān)系錯誤。Ma Y等人提出了一種聯(lián)合命名實體識別和關(guān)系抽取方法,通過BERT的雙向編碼器增強了填充方法[4]。Wang T提出了一種分布式實體關(guān)系聯(lián)合提取框架,可以在聯(lián)合學習網(wǎng)絡(luò)的任何候選節(jié)點上進行模型訓練,而無需從其他節(jié)點收集數(shù)據(jù)[5]。Zhao X Y等人提出了實體和關(guān)系相互聯(lián)系的方法,但只能在訓練時訪問特征,作為關(guān)系抽取的特征[6]。Zheng S等人提出了一種標注框架,將實體關(guān)系抽取轉(zhuǎn)化為端到端序列標注問題,實現(xiàn)了聯(lián)合解碼同時抽取實體和關(guān)系,并直接在實體關(guān)系三元組層面進行建模[7]。

然而,由于端到端的序列標注方式采用就近組合的思想,導致其無法解決實體關(guān)系重疊的問題[8]。為了解決這一問題,一些研究提出了新的框架和模型,如CasRel和SPN模型等[9?10],但它們在實體間聯(lián)系和交互方面仍有待優(yōu)化。

面對這些挑戰(zhàn),本文提出了一種融合實體語義的實體關(guān)系聯(lián)合解碼模型。該模型采用聯(lián)合解碼的策略來提高實體和關(guān)系的識別準確率,并加強它們之間的聯(lián)系。首先利用BERT編碼器深入挖掘?qū)嶓w和句子中的語義信息;然后,利用自注意力機制標記出頭實體并對尾實體預測;最后通過創(chuàng)新的聯(lián)合解碼機制,從語義計算的角度計算它們之間的語義相似度,從而精準地輸出一個三元組。在公開數(shù)據(jù)集NYT和WebNLG上的實驗結(jié)果及與現(xiàn)有方法相比,本文提出的方法在準確率和F1值方面均表現(xiàn)出良好的性能,證明了該方法的有效性。

1" 融合語義的實體關(guān)系聯(lián)合解碼

模型的實體關(guān)系抽取總體結(jié)構(gòu)如圖1所示。首先,將語句輸入預訓練模型BERT中進行編碼,提取出上下文信息和句子語義;然后,通過自注意力機制提取出頭實體和尾實體的語義,作為融合特征向量;最后,通過聯(lián)合解碼框架將實體語義和關(guān)系語義與句子語義結(jié)合,確定輸入語句中實體所在位置和實體間的關(guān)系。

1.1" 問題定義

本文對數(shù)據(jù)中每個句子作為一個語義單元,定義長度不超過512個字符且包含實體的短文本作為句子。假設(shè)訓練集為S={s1,s2,…,sn},其中n表示訓練集句子數(shù)量,[si]表示第i個句子。本文訓練一個基于句子語義的關(guān)系提取器,然后標記出頭實體并根據(jù)頭實體和關(guān)系預測尾實體,最后判斷句子中的實體存在何種關(guān)系。故定義[w]與[j]分別為頭實體和尾實體,且[w∈si]、[j∈si],其中“[∈]”表示實體來源于句子。

1.2" 數(shù)據(jù)嵌入表示

選用BERT(Bidirectional Encoder Representations from Transformers)作為預訓練模型,它是一個基于Transformer的預訓練模型,其目的是通過雙向訓練對輸入語句中的每個字符的上下文聯(lián)合條件作用來學習深度表征,模型結(jié)構(gòu)方面主要是對Transformer的n次堆疊。首先定義句子的嵌入方式為:

[vCLSivi=Bert(si)]" " " " " " (1)

式中:[vi]表示句子[si]的嵌入向量值;[vCLSi]表示輸入句子[si]的CLS位對應(yīng)向量表示。將[si]進行BERT編碼后得到模型的的輸入向量[vi]和[vCLSi]。圖2為BERT編碼后的模型結(jié)構(gòu)。

1.3" 標記頭實體

頭實體標記階段是對BERT編碼后的語句序列進行解碼,并對頭實體的開始和結(jié)束位置進行二元標記,1表示頭實體的開始或結(jié)束位置,0表示不是,具體公式如下:

[pstart_wt=sigmoid(Sstart_wvi+bstart_w)]" "(2)

[pend_wt=sigmoid(Send_wvi+bend_w)]" " (3)

式中:[pstart_wt]表示語句中第t個詞是頭實體開始位置的概率;[pend_wt]表示語句中第t個詞是頭實體結(jié)束位置的概率。模型設(shè)置一個臨界值,若大于這個臨界值則將標簽置為1,小于該臨界值則將標簽置為0。

頭實體標記模塊以似然函數(shù)來識別語句[s]中頭實體[w],公式如下:

[pθwws=l∈start_w,end_wt=1NpltIylt=11-pltIylt=0] (4)

式中:N表示語句的字符數(shù);[ystart_wt]和[yend_wt]分別表示語句中第t個字符是頭實體的開始位置和結(jié)束位置的二元標記值;當I{·}表示的事件為真,則I{·}的值為1,否則為0。

1.4" 尾實體預測

在上一模塊獲得頭實體標記后,對語句進行尾實體預測。

利用關(guān)系r,結(jié)合頭實體w,組成(w,r)頭實體關(guān)系對,根據(jù)不同的關(guān)系對尾實體j標記,具體如下:

[pstart_jt=sigmoid(Wstart_jvwt+bstart_j)] (5)

[pend_jt=sigmoid(Wend_jvwt+bend_j)] (6)

式中:[pstart_jt]和[pend_jt]分別表示語句中第t個字符是三元組中尾實體的開始位置和結(jié)束位置的概率。

對于關(guān)系r的尾實體預測模塊,采用優(yōu)化似然函數(shù)來識別輸入語句S和頭實體和尾實體j的跨度,如下所示:

[pθjjw,r,S=l∈start_j,end_jt=1NpltIylt=11-pltIylt=0] (7)

式中:N是語句的字符數(shù);[ystart_jt]和[yend_jt]分別表示語句中第t個字符是尾實體的開始位置和結(jié)束位置的標記。

1.5" 聯(lián)合解碼

對于每個頭尾實體,計算實體中的句子[si]與[sj]在句子語義層面是否能建立關(guān)系,在1.2節(jié)中已介紹如何獲取輸入語句的編碼值[vCLS]、[vi]。獲得編碼值以后,開始輸入句子中的頭實體和尾實體,采用BIO標記模式,對于給定輸入的每個字符,計算其屬于某個關(guān)系的概率值,具體計算如下:

[pBIOm=?Wsm+b]" " " "(8)

式中:[sm]為輸入的字符向量,有[sm∈vi];W為可訓練權(quán)重;b為偏置;[?]表示激活函數(shù);[pBIOm]表示識別輸入序列中第m個字符為BIO某類型的概率。

對于輸入的句子對[si]與[si+1]或[si-1]與[si],將[vCLSi]與[vCLSi-1]或者[vCLSi-1]與[vCLSi]進行拼接,并對拼接項目所對應(yīng)的可能關(guān)系概率進行計算打分,提取最高排名關(guān)系類型,具體過程如下:

[prew,j=SoftmaxvCLSi,vCLSi+1]" " " (9)

式中:[pre(w,j)]表示頭實體[ew]與尾實體[ej]之間關(guān)系為r的概率大小,并選取概率最大的輸出。

在聯(lián)合任務(wù)中,對模型進行訓練,通過Adam隨機梯度下降法在小批量上最大化聯(lián)合概率p,并定義聯(lián)合計算過程為:

[p=prew,jpBIOwpBIOj]" " "(10)

2" 實" 驗

2.1" 數(shù)據(jù)集

本文使用了兩個公開數(shù)據(jù)集進行模型評估:紐約時報(NYT)數(shù)據(jù)集和WebNLG數(shù)據(jù)集。NYT數(shù)據(jù)集包含大量紐約時報新聞文章,是自然語言處理領(lǐng)域常用的大型文本數(shù)據(jù)集之一。WebNLG數(shù)據(jù)集是一個用于自然語言生成任務(wù)的開源數(shù)據(jù)集,涵蓋了來自不同領(lǐng)域的各種文章。這兩個數(shù)據(jù)集具有豐富的語義,信息文本內(nèi)容多樣,因此適合用于評估模型在準確抽取三元組方面的性能。

2.2" 評測指標

本實驗選用召回率、精確率以及F1指數(shù)作為評測指標,具體計算方式如下。

定義TP表示實際為正例且預測正確的數(shù)量,F(xiàn)P表示預測為正例但實際為反例的數(shù)量。精確率公式為:

[P=TPTP+FP]" " " " " " "(11)

定義FN表示實際為正例但預測為反例的數(shù)量,因此召回率表示為:

[R=TPTP+FN]" " " " "(12)

F1指數(shù)計算公式為:

[F1=2PRP+R]" " " (13)

2.3" 基線模型

為了驗證模型的準確性,選用5個模型作為基準模型來對比,具體內(nèi)容如下。

1) CasRel[9]:提出了二進制標記框架、矩形級聯(lián)神經(jīng)網(wǎng)絡(luò)模型以及無監(jiān)督預訓練方法,這些方法共同解決了實體關(guān)系抽取中的實體重疊、實體冗余和模型泛化等問題。

2) FLAT[11]:提出了一種采用詞匯增強的方式來增強模型能力的方法,將匹配到的詞匯直接添加到整句話的最后,利用全局注意力機制獲取增強詞的信息,將詞匯融合到模型中。

3) GraphRel[12]:提出了一種端到端抽取模型,利用關(guān)系加權(quán)圖卷積網(wǎng)絡(luò)(GCN)來聯(lián)合實體識別和關(guān)系抽取。

4) BERT+BiLSTM+CRF[13]:將預訓練模型BERT與BiLSTM和CRF模型相結(jié)合,利用上下文信息、序列建模和標簽轉(zhuǎn)移能力,提高了實體識別和關(guān)系抽取的性能,能夠更準確地識別和分類句子中的實體和關(guān)系。

5) JPEA[14]:通過融合預訓練模型和注意力的方法,提出了實體關(guān)系聯(lián)合抽取模型JPEA,解決了現(xiàn)有模型對語義關(guān)系挖掘能力差的問題。

2.4" 設(shè)備配置

實驗中使用的設(shè)備配置及參數(shù)設(shè)置如表1所示。

2.5" 結(jié)果分析

本文模型通過注意力機制來計算頭尾實體在句子層面的語義聯(lián)系,提取到了比其他模型更深層的語義特征和句子特征;然后對實體間所對應(yīng)的可能關(guān)系概率進行計算,并提取出最高概率,提升了準確率。從表2的對比結(jié)果上可以看出,該模型在NYT數(shù)據(jù)集和WebNLG數(shù)據(jù)集上,對比FLAT模型的F1值分別提升了0.5%和0.4%,準確率分別提升1.1%和0.8%。

本文模型在WebNLG數(shù)據(jù)集訓練時,損失函數(shù)曲線如圖3所示。由圖3可知,隨著訓練損失逐漸下降,達到最低值時在第14個周期左右。

2.6" 消融實驗

考慮到引入了BERT預訓練模型,因此選用三種不同方式對比初始嵌入表示帶來的收益。BERT表示最終使用方案,BERT(random)表示使用了BERT的隨機初始化方式獲取數(shù)據(jù)嵌入表示,LSTM是通過LSTM獲得字符向量表示。模型在上述兩個數(shù)據(jù)集進行消融實驗,具體結(jié)果如表3所示。

本實驗最終獲得F1指數(shù)如表2、表3所示。本文模型在所有對比方法中均取得了最高的F1得分。在消融實驗環(huán)節(jié),即使沒有利用預先訓練BERT模型,也得到了與對比算法接近的結(jié)果。這證明了語義為關(guān)系的判定帶來了充足的特征知識,同時也說明了預訓練模型對上下文的理解力與重要性。

3" 結(jié)" 論

本文提出了一個實體關(guān)系抽取的聯(lián)合模型,通過BERT獲取句子向量,并針對頭實體和尾實體進行標記和解碼。該聯(lián)合模型通過計算實體之間存在語義關(guān)系的概率,并選取概率最大的三元組進行抽取。實驗在NYT數(shù)據(jù)集和WebNLG數(shù)據(jù)集上驗證了該模型的有效性,并取得了較高的準確率和F1得分。然而,本文模型仍在一些方面存在不足,如當數(shù)據(jù)集中存在較多標注錯誤的數(shù)據(jù)時,模型的性能可能會受到影響。因此,在后續(xù)的工作中,需要解決如何提高模型的穩(wěn)定性問題。

注:本文通訊作者為張思佳。

參考文獻

[1] 常思杰,林浩田,江靜.融合雙階段解碼的實體關(guān)系聯(lián)合抽取方法[J].計算機工程與應(yīng)用,2023,59(20):138?146.

[2] ZHENG S, HAO Y, LU D, et al. Joint entity and relation ex?traction based on a hybrid neural network [J]. Neurocomputing, 2017, 257: 59?66.

[3] CHAN Y S, DAN R. Exploiting syntactico?semantic structures for relation extraction [C]// Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies. [S.l.]: ACM, 2011: 551?560.

[4] MA Y, HIRAOKA T, OKAZAKI N. Named entity recognition and relation extraction using enhanced table filling by contextualized representations [J]. Journal of natural language processing, 2022, 29(1): 187?223.

[5] WANG T, ZHENG L, Lü H, et al. A distributed joint extraction framework for sedimentological entities and relations with federated learning [J]. Expert systems with applications, 2023, 213: 119216.

[6] ZHAO X Y, YANG M, QU Q, et al. Exploring privileged features for relation extraction with contrastive student?teacher learning [J]. IEEE transactions on knowledge and data engineering, 2022(2): 21?30.

[7] ZHENG S, WANG F, BAO H, et al. Joint extraction of entities and relations based on a novel tagging scheme [EB/OL]. [2024?01?17]. https://arxiv.org/pdf/1706.05075.

[8] 馮鈞,張濤,杭婷婷.重疊實體關(guān)系抽取綜述[J].計算機工程與應(yīng)用,2022,58(1):1?11.

[9] WEI Z, SU J, WANG Y, et al. A novel cascade binary tagging framework for relational triple extraction [EB/OL]. [2023?07?14].https://www.xueshufan.com/publication/3020923281.

[10] SUI D, CHEN Y, LIU K, et al. Joint entity and relation ex?traction with set prediction networks [J] IEEE transactions on neural networks and learning systems, 2023(17): 1?12.

[11] LI Xiaonan, YAN Hang, QIU Xipeng, et al. FLAT: Chinese NER using flat?lattice transformer [EB/OL]. [2023?04?05].https://arxiv.org/abs/2004.11795.

[12] FU T J, LI P H, MA W Y. GraphRel: modeling text as relational graphs for joint entity and relation extraction [C]// Meeting of the Association for Computational Linguistics. [S.l.]: ACL, 2019: 1136.

[13] 謝騰,楊俊安,劉輝.基于BERT?BiLSTM?CRF模型的中文實體識別[J].計算機系統(tǒng)應(yīng)用,2020,29(7):48?55.

[14] 李智杰,韓瑞瑞,李昌華,等.融合預訓練模型和注意力的實體關(guān)系抽取方法[J].計算機科學與探索,2023,17(6):1453?1462.

主站蜘蛛池模板: 毛片视频网| 亚洲国产天堂久久综合| 国产农村妇女精品一二区| 在线免费不卡视频| 谁有在线观看日韩亚洲最新视频| 青青国产视频| 免费国产福利| 免费一级毛片在线播放傲雪网| 国产精品污视频| 蝴蝶伊人久久中文娱乐网| av一区二区三区在线观看 | 四虎永久在线视频| 国产在线观看人成激情视频| 在线欧美一区| 国产自无码视频在线观看| 在线视频97| 欧美成人怡春院在线激情| 香蕉久人久人青草青草| 国产导航在线| 亚洲aⅴ天堂| 国产微拍一区| 国产三级国产精品国产普男人| 狠狠操夜夜爽| 成人在线天堂| 亚洲中文字幕97久久精品少妇| 国产精品亚欧美一区二区三区| 久久一本精品久久久ー99| 国产极品美女在线播放| 一区二区三区成人| 亚洲成AV人手机在线观看网站| 夜夜操狠狠操| 精品欧美视频| 欧美一道本| 国产精品99在线观看| 日日拍夜夜操| 天堂成人av| 最新加勒比隔壁人妻| 成年人午夜免费视频| 伊人久久青草青青综合| 欧美午夜精品| 国产手机在线ΑⅤ片无码观看| 热九九精品| 一边摸一边做爽的视频17国产 | 国产理论最新国产精品视频| 亚洲国产欧美国产综合久久| 就去吻亚洲精品国产欧美| 日本道综合一本久久久88| 久久鸭综合久久国产| 精品伊人久久久大香线蕉欧美 | 亚洲av无码人妻| 69av在线| 久久人人爽人人爽人人片aV东京热| 亚洲日韩久久综合中文字幕| 国产色婷婷| 尤物特级无码毛片免费| 国产精品网址你懂的| 欧美在线一级片| 欧美日韩国产在线人| 久久这里只有精品国产99| 亚洲免费毛片| 国产无遮挡裸体免费视频| 国产精品美女网站| 欧美一级在线看| 欧美精品伊人久久| 在线va视频| a毛片在线播放| 亚洲最猛黑人xxxx黑人猛交 | 亚洲综合色区在线播放2019| 玩两个丰满老熟女久久网| 日本尹人综合香蕉在线观看| 另类重口100页在线播放| 亚洲欧美国产视频| 亚洲美女一区二区三区| 亚洲一区无码在线| 亚洲成人黄色在线| 久久人妻xunleige无码| 国产乱子伦视频在线播放| 日韩欧美中文字幕在线韩免费 | 久草视频中文| 99在线观看免费视频| av天堂最新版在线| 欧美a级在线|