999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多語義相似性的關系檢測方法

2022-01-11 13:55:08謝金峰王羽葛唯益徐建
西北工業大學學報 2021年6期
關鍵詞:語義文本檢測

謝金峰, 王羽, 葛唯益, 徐建

1.南京理工大學 計算機科學與工程學院, 江蘇 南京210094;2.中國電子科技集團公司第二十八研究所 信息系統工程重點實驗室, 江蘇 南京210007

隨著互聯網發展,網絡上的文本資源越來越豐富,結構化的信息和知識更易于管理和使用,為此構建出了大規模的開放域知識庫,比如Freebase[1]、Depdia[2]和PkuBase。通常,采用三元組的形式表示知識庫中的知識,形如〈entity, predicate,entity〉,其中entity 表示特定實體,predicate表示實體間的關系。知識庫中包含大量的三元組,它們構成了一張龐大的關系圖。面向知識庫的智能問答是一個典型應用場景,被廣泛應用于搜索引擎、智能聊天等實際領域中[3]。在面向知識庫的問答系統中,查詢一個以自然語言描述的問題,系統會在知識庫中搜索對應的三元組,之后給出準確的答案。知識庫問答包括2個子任務:①實體鏈接:檢測出問題中的實體并鏈接到知識庫中的特定實體;②關系檢測:檢測出問題中提及的關系(鏈)。關系檢測步驟的準確率將會直接影響問答的質量。針對關系檢測,以往的工作大致分為兩類:將關系檢測建模為分類任務;將關系檢測建模為文本序列匹配任務。

將關系檢測建模為分類任務[4-10]。知識庫中會預定義一個關系集,基于分類的關系檢測方法將每個關系視為一個類別,通過給問題分類確定與問題相關聯的核心關系。例如文獻[7]使用詞匯映射的方法進行關系檢測。之后文獻[9]提出一種使用多通道卷積神經網絡(CNN)提升分類方法的模型。基于分類的方法進行關系檢測時不依賴于實體鏈接的結果,上一步驟的誤差不會傳遞到這一步驟,但此類方法無法利用關系的語義信息,近年的研究中基于文本序列匹配的方法逐漸成為主流。

基于文本序列匹配的方法通過計算問題和關系的相似度,選擇相似度最高的關系作為問題關聯的核心關系。現有的方法大致可以分為2類:編碼-比較型和交互型。基于編碼-比較的方法先將輸入問題和關系表示為向量序列,之后通過聚合操作將序列轉化為定長的向量,使用一種距離計算公式來度量相似度,作為問題和關系的最終匹配得分[11-16]。例如文獻[11]將關系視為單個標簽,使用TransE學習的向量進行初始化。文獻[12]提出的MCCNNs方法使用多通道CNN生成問題表示向量。文獻[13]指出從多個粒度表示關系(關系粒度和詞序列粒度)可以提升關系檢測效果,提出的模型HR-Bi-LSTM利用雙向長短期記憶網絡(Bi-LSTM)學習不同層次的問題表示和不同粒度的關系表示。基于交互型的方法則假設文本的匹配度依賴于詞級別局部的匹配度,先構建交互矩陣,之后對交互矩陣進行抽象表示,最后計算問題和關系的匹配得分。文獻[17]提出的交互型方法使用注意力機制計算問題和關系的交互矩陣,之后利用多核CNN抽取特征計算相似度得分。由于關系自身存在語義,建模為文本序列匹配的模型可以識別出一些未見關系。

然而,文本匹配的關系檢測方法存在如下問題:基于編碼-比較的方法更重視全局語義信息,在聚合操作(最大池、平均池)將向量序列變為單個向量會丟失一部分文本的語義信息;基于交互的方法假設文本相似度基于序列局部相似度,因此交互型模型無法由局部匹配刻畫全局信息,此類方法缺乏對全局語義的理解。

針對現有模型沒有兼顧全局語義信息與局部語義信息的問題,本文提出一個新的關系檢測模型,通過融合問題和關系的全局語義、局部語義信息進行關系檢測,捕獲多樣化的特征來計算問題和關系的匹配度,提升關系檢測精度。該模型主要分為2個部分:局部相似度度量模塊和全局相似度度量模塊。BERT[18]作為整個模型的文本編碼層,獲得問題和關系的向量化表示,局部相似度度量模塊基于注意力機制,得到關系和問題之間的相似度權重后,使用Bi-LSTM分析差異,最后使用多層感知機計算Q-R局部相似度。全局相似度計算模塊則使用BERT獲得的句向量,將問題和關系句向量的余弦值作為Q-R的全局相似度。最終的匹配度等于全局相似度和局部相似度加權后的和。在廣泛使用的SimpleQuestion和WebQSP數據集上評估所提出模型的性能,并與僅計算全局相似度或者僅計算局部相似度的模型進行對比分析,以驗證本文提出的模型在關系檢測任務上的有效性。

1 基于多語義相似性的關系檢測模型

1.1 問題定義

圖1為關系檢測的步驟圖,下面給出關系檢測的形式化描述。

圖1 關系檢測步驟圖

(1)

式中,S(ri,q)表示關系r和q的匹配得分,也即是模型的計算目標。

1.2 關系檢測模型

本節將會詳細描述關系檢測模型的4個模塊:文本編碼層,全局相似度度量模塊、局部相似度度量模塊和整體輸出層。每一模塊的作用如下:

1) 文本編碼層:使用BERT作為整個模型的文本編碼層,將問題和關系中的每個標簽轉換為向量,該向量含有標簽的上下文信息。BERT模型會在輸入的文本前添加特殊的[CLS]標簽,由于[CLS]標簽自身無實際意義,在訓練中能夠學習到輸入文本的全局語義信息,所以對應的向量可以作為文本的句向量使用。

2) 全局相似度度量模塊:使用BERT得到的句向量,計算問題和關系句向量的余弦值作為全局相似度。

3) 局部相似度度量模塊:使用Soft Attention計算問題和關系之間的注意力加權,而后使用Bi-LSTM提取差異,最后使用多層感知機計算局部相似度。

4) 整體輸出層:輸出最終的相似度計算結果。模型結構如圖2所示。

圖2 關系檢測模型結構

1.2.1 文本編碼層

1) 關系表示層

通常,從詞級別和關系級別來表示一個關系(鏈),假設模型此時正在處理含有|r|個關系的關系鏈r={r1,…,r|r|},關系的表示為

(2)

2) 問題表示層

問題表示為詞序列,將問題中所有標記的總數量記為|Q|,則問題q={w1,w2,…,w|Q|}。

3) BERT

使用預訓練語言模型BERT將句子轉換為向量序列,BERT首先從輸入的文本數據中得到3個向量:標記嵌入、位置嵌入和段嵌入。此外,由于后續需要文本的句向量進行計算,使用BERT的[CLS]和[SEP]標簽。

1) 標記嵌入:使用BERT詞表將輸入BERT的每個標簽轉為定長向量,得到標記嵌入。

2) 段嵌入:在BERT中用于區分不同的句子,由于BEMSM的輸入為單句,所以這個值全設為0。

3) 位置嵌入:為了得到輸入序列的順序信息,BERT對出現在不同位置的詞分別附加一個不同的向量用來區分。

問題序列q={w1,…,w|Q}和關系序列r={r1,…,r|R|}加上[CLS]和[SEP]標簽,變為q={w[CLS],w1,…,w|Q|,w[SEP]}和r={r[CLS],r1,…,r|R|,r[SEP]}后,經過BERT結構,輸出為

Eq={Eq[CLS],Eq1,…,Eq|q|,Eq[SEP]}

(3)

Er={Er[CLS],Er1,…,Er|r|,Er[SEP]}

(4)

1.2.2 全局相似度度量模塊

這一模塊的目的是計算問題和關系的全局相似度,在訓練過程中,BERT的[CLS]標簽對應的向量通過學習包含句子的全局信息,可以作為句向量使用。使用問題和關系的[CLS]標簽對應的輸出向量來計算全局語義相似度,得到

(5)

1.2.3 局部相似度度量模塊

局部相似度度量模塊的目的是計算問題序列和關系序列的局部語義相似度。注意力機制的加入使該模塊能夠注意輸入文本的局部語義信息。該模塊輸入為文本編碼層的輸出部分Eq和Er。其中Eq∈(|Q|+2)×de,Er∈(|R|+2)×de,de為BERT的輸出向量維度,為了方便后續表示,將BERT的輸出記為Q和R。通過BERT,將文本序列轉換為帶有上下文信息的實值向量序列。

1) 局部差異提取:

之后,進行局部差異提取,局部差異提取層的目的是分析2個序列Q=(q1,…,q|Q|+2)與R=(r1,…,r|R|+2)的關聯程度,對Q中的每個詞qi,計算qi和中的詞rj之間的注意力權重

(6)

利用Softmax公式計算Q關于R的注意力加權值,以及R關于Q的注意力加權值,得到

(7)

(8)

(9)

(10)

式中:-表示逐元素減法;⊙表示逐元素乘法;mqi∈4×de;mri∈4×de;[,]表示連接操作。之后,使用雙向長短期記憶網絡(Bi-LSTM)處理信息進行整體分析,使用2個Bi-LSTM來分析差異,得到對序列分析后的表示

(11)

(12)

式中,vq∈(|Q|+2)*dr,vr∈(|R|+2)*dr,dr為Bi-LSTM的輸出向量維度。由于整體模型中的輸入序列不能保證具有相同的長度,使用聚合操作(全局最大池)提取序列中的重要特征,將上述2個序列轉為定長的向量gq∈dr和gr∈dr。至此,模型完成了分析序列差異的過程,提取出了問題和關系序列的特征。

2)局部相似度計算層:

差異計算層的輸入是差異提取層輸出的2個特征序列gq和gr,目的是計算問題和關系的局部相似度

式中:H代表一個3層的感知機;wo∈df為全連接層的參數,模塊最終的輸出為問題和關系的局部語義相似度Slocal。

1.2.4 整體輸出層

計算最終關系和問題的匹配得分,權重由對比實驗得出,對比了全局相似度,局部相似度權重分配為(0.25,0.75),(0.5,0.5),(0.75,0.25)以及自動分配的結果,最終選定(0.75,0.25)這組權重為最終的分配

S=0.75*Sglobal+0.25*Slocal

(15)

2 實 驗

2.1 實驗設置

為了驗證模型有效性,在SimpleQuestions和WebQSP數據集上進行實驗,相關的關系檢測數據集在文獻[20]和文獻[13]中發布,數據集的相關信息見表1,為了表示方便,在后續將提出的模型記作BEMSM。

表1 數據集

SimpleQuestions(SQ)[21]是一個簡單問答數據集,其關系檢測數據中的每個問題只與知識庫的一個三元組相關,也就是說,關系鏈的長度等于1。

WebQSP(WQ)[7]是一個復雜問答數據集,包含的問題可能與知識庫中的多個三元組相關,數據集中包含的關系鏈長度小于等于2。

模型的超參數設置見表2,在實驗中,BERT作為整個模型的文本編碼層,語言模型使用的是Google官方提供的預訓練模型BERT-Base,由12層的transformer編碼結構組成,隱藏層向量維度為768維,BERT模型包含1億多參數量,輸出詞向量維度為768維。由于大部分關系名稱不在BERT詞表中,需要擴展BERT的原始詞表,表中添加形如“place-of-birth”的關系名,對應的向量為關系名包含單詞向量的均值。訓練模型時,先訓練只有全局相似度度量模塊的模型,之后,BEMSM加載BERT訓練后的權重,這部分權重不再更新,后續繼續訓練10個epoch。將問題和關系的最大句子長度設置為30,超過30的部分會被舍棄,長度不足30的序列用0進行填充,經過BERT處理后,問題和關系的序列長度為32。在每個Bi-LSTM層后設置dropout,防止模型過擬合。

表2 模型參數集

2.2 評價指標

為了評估BEMSM模型在關系檢測任務上的有效性,沿用之前關系檢測工作采用的評價指標,使用精確率P來衡量模型的結果:

(16)

式中:N是測試集中問題的數量;Nc是被準確識別出關系的問題數量。

2.3 實驗結果

2.3.1 局部相似度模塊和全局相似度模塊的影響

本實驗的目的在于驗證BEMSM模型中局部相似度度量模塊和全局相似度度量模塊對于整個模型的影響。

為了驗證各個模塊的效果,將BEMSM與單獨的全局相似度度量模塊、單獨的局部相似度度量模塊對比。除此之外,還對比使用GloVe詞向量和Bi-LSTM為文本編碼層的模型,在初始化時,不在GloVe詞表中的詞的向量從均勻分布(-0.5, 0.5)中隨機采樣生成,在訓練過程中詞嵌入層不更新。局部相似度度量模塊和全局相似度度量模塊的影響如表3所示。

表3 局部相似度和全局相似度模塊的影響

從表3中的數據可以看出,綜合學習問題和關系的局部信息和全局信息對關系檢測任務是有效的,單一的局部相似度度量模塊和全局相似度度量模塊得到的指標都低于綜合模型,在WebQSP數據集上差異更明顯, BEMSM模型獲得精確率為87.81%,高于僅考慮全局相似性的85.81%和局部相似性的85.99%。

使用BERT作為文本編碼層的模型所表現的性能也要優于GloVe詞向量結合Bi-LSTM的文本編碼層,使用BERT的所有模型準確率都有提升。在綜合模型上,使用BERT模型的指標分別提升了0.2%和2.06%,這得益于BERT充足的預訓練過程和優秀的表征能力,BERT能捕捉Bi-LSTM容易忽視的長距離依賴,進一步增強了關系檢測模型的識別能力。

2.3.2 注意力機制對BEMSM模型的影響

本實驗的目的是驗證注意力機制對模型的影響。由于全局相似度模塊沒有使用注意力信息,所以在局部相似度度量模塊中分析注意力影響。將局部相似度度量模塊與去掉注意力權重的模型進行對比實驗。將注意力矩陣中的值設置為1來消除注意力的影響。同樣在基于BERT的模型和基于GloVe結合Bi-LSTM的模型上進行上述實驗。實驗結果如表4所示。

表4 注意力機制對BEMEM模型的影響

從表中數據可以看出,去掉注意力權重的影響后,基于GloVe 結合 Bi-LSTM的模型和基于BERT的模型的準確度指標都有小幅度下降,在WebQSP數據集上更為明顯(84.29%和82.41%,85.99%和84.78%)。WebQSP數據集中,問題和關系的序列長度更長,注意力機制使模型能夠將注意力關注到語義最相關的地方,所以影響更為明顯。本文模型去掉注意力權重后,由于差異提取層不只依賴于注意力機制產生的結果,模型仍然能取得不錯的效果。

2.3.3 模型整體表現

將模型與近年的幾個基準進行比較,這些基準屬于基于文本序列匹配的關系檢測方法,模型的輸出為問題和關系的相似度得分,實驗結果見表5。

表5 BEMSM在SQ和WebQSP上的實驗結果

1) BiLSTM:使用2個Bi-LSTM分別表示問題和關系,將最后一個時間步的輸出作為句向量來比較相似度。

2) BiCNN[22]:使用3-gram表示問題和關系,比如“who”表示為#-w-h, w-h-o, h-o-#。使用CNN作為編碼層,池化后計算相似度。

3) HR-Bi-LSTM[13]:使用詞序列+關系名表示關系,使用HR-Bi-LSTM得到問題的抽象層次,將問題表示和關系表示通過聚合操作固定為相同維度向量后,將它們之間的余弦值作為相似度。

4) DAM[14]:基于transformer結構的模型,使用transformer結構得到關系和問題表示,經過聚合操作后,計算向量余弦值作為相似度得分。

5) ABWIM[17]:使用詞序列和關系名來表示關系,通過注意力機制將問題和關系軟對齊,之后使用CNN計算相似度得分。

BEMSM模型整體表現的實驗結果見表5,從實驗對比結果可以看出,在SimpleQuestion數據集上,提出的模型取得了與基線相似的準確度,在WebQSP 上,提出的方法比最好的基線方法高2.49%。實驗結果驗證了模型的有效性,BEMSM模型使用BERT作為文本編碼層,可以捕捉到Bi-LSTM未能捕捉的長距離依賴,之后綜合學習問題和關系的全局語義信息和局部語義信息進行關系檢測,可以更全面地計算語義相關性,性能要優于只計算單語義信息的基線方法。

3 結 論

針對現有的關系檢測方法無法兼顧問題、關系間全局語義和局部語義信息的問題,提出了一種基于多語義相似度的關系檢測模型。該模型將BERT作為整個模型的文本編碼層,使用Soft Attention和Bi-LSTM進行局部相似度計算;使用距離計算公式度量問題和關系句向量的全局相似度。最后綜合這2種相似度得到整體的相似度。 在SimpleQuestions和WebQSP基準數據集上進行實驗,分析局部對比相似度模塊和全局相似度模塊的效果、注意力機制的效果以及模型整體效果,驗證了BEMSM模型的有效性。

猜你喜歡
語義文本檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
語言與語義
在808DA上文本顯示的改善
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
“上”與“下”語義的不對稱性及其認知闡釋
現代語文(2016年21期)2016-05-25 13:13:44
小波變換在PCB缺陷檢測中的應用
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
認知范疇模糊與語義模糊
主站蜘蛛池模板: 女人18毛片一级毛片在线 | 干中文字幕| 日本精品视频一区二区| 国产va在线观看| 久久99精品久久久大学生| 国产99视频精品免费观看9e| 亚洲欧美不卡中文字幕| AV老司机AV天堂| 亚洲免费黄色网| …亚洲 欧洲 另类 春色| 精品国产三级在线观看| 71pao成人国产永久免费视频| 欧美日韩导航| 99热精品久久| 亚洲欧美激情小说另类| 欧美中文字幕一区| 99热国产这里只有精品9九| 欧美国产日韩在线| 熟妇人妻无乱码中文字幕真矢织江| 中文字幕在线日本| 日韩av资源在线| 激情乱人伦| 久久国产精品影院| 久久99国产综合精品女同| 国产日韩久久久久无码精品| 99热国产这里只有精品无卡顿" | 亚洲 欧美 偷自乱 图片| 国产粉嫩粉嫩的18在线播放91| 在线看片免费人成视久网下载| 久青草国产高清在线视频| 亚洲男人的天堂在线| 中文一区二区视频| 国产91熟女高潮一区二区| 538国产视频| 日韩一级毛一欧美一国产| 欧美国产综合视频| 国产精品无码AV片在线观看播放| 一本色道久久88| 欧美a在线看| 免费看a毛片| 日韩高清一区 | 伊人无码视屏| 啪啪免费视频一区二区| 国产在线观看一区二区三区| 免费观看国产小粉嫩喷水| 伊人狠狠丁香婷婷综合色| 精品一区二区三区自慰喷水| 国产女人在线视频| 日韩无码黄色| 免费xxxxx在线观看网站| 国产精品综合久久久 | 一级一级一片免费| 久久亚洲欧美综合| 超碰aⅴ人人做人人爽欧美 | 国产精品久久久久无码网站| 日韩黄色在线| 热久久这里是精品6免费观看| 热re99久久精品国99热| 亚洲一区色| 三上悠亚精品二区在线观看| 中文字幕第4页| 国产一区二区网站| 亚洲天堂伊人| 亚洲国产黄色| 国产精品久久久久鬼色| 香蕉伊思人视频| 97成人在线视频| 美女高潮全身流白浆福利区| 欧美另类一区| 综合色天天| 亚洲国产综合精品一区| 国产美女无遮挡免费视频网站 | 午夜性爽视频男人的天堂| 日韩免费毛片视频| 青青操视频免费观看| 综合色婷婷| 亚洲中久无码永久在线观看软件| 中文无码精品a∨在线观看| 亚洲成人动漫在线| 国产无吗一区二区三区在线欢| 国产在线91在线电影| 啊嗯不日本网站|