999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于多知識源融合的級聯式常識問答方法

2022-06-07 06:14:52李志峰鄒博偉李燁秋金志凌洪宇
山西大學學報(自然科學版) 2022年2期
關鍵詞:文本融合信息

李志峰,鄒博偉,李燁秋,金志凌,洪宇*

(1.蘇州大學 計算機科學與技術學院,江蘇 蘇州 215000;2.新加坡資訊通信研究院,新加坡 999002)

0 引言

常識即人類社會對同一事物普遍存在的日常共識,常識推理在日常生活中扮演著重要的角色,而常識問答任務考驗的正是模型的常識推理能力。本文聚焦多項選擇式常識問答,這類任務需要模型針對給定的問題進行推理,從而選擇最為貼切的答案,與之相關的數據集如OpenbookQA[1]、CommonsenseQA[2]( 簡 稱CSQA)等。區別于機器閱讀理解和事實性問答等傳統問答任務,常識問答通常只給出題干,而沒有給出相關的背景知識。表1列舉了CSQA數據集中的一個樣本,所有候選答案都與問題描述的溝通場景存在關聯性。回答該問題,模型不僅要理解問題和選項的語義,還需要具備相關知識,如“老板需要員工向他匯報消息”,才能推理出正確選項B。在缺乏相關常識背景的情況下,根據問題對答案進行推理,這正是常識問答任務的難點所在。

表1 CSQA數據集中的樣本示例Table 1 An example from CSQA

現有方法將預訓練語言模型引入常識問答研究,如 BERT[3]、RoBERTa[4]等。訓練這類模型的語料規模龐大,因此,這些模型在預訓練階段可以將一些和常識相關的語言現象編碼到參數中,從而隱式地學習到同類常識的編碼方式。但這類方法受制于模型自身的參數量和預訓練語料所蘊含的知識量,仍存在學習和推理能力上的局限性。換言之,相較于高質量的知識庫,混雜了各類數據的預訓練語料,不能有針對性地引導模型學習常識之間的聯系。

一些由專家構造的知識庫,可以為模型補充相關常識背景,如“the effect of communicating is transfer of information.”(譯文:溝通的效果是信息的傳遞)。顯式地引入這類知識可以建立問題和候選答案的聯系,為模型的判斷提供依據。現有的方法通過檢索、匹配等方式從知識源中獲取相關知識,但這些方法獲得的外部知識往往包含大量的噪聲,它們對常識推理沒有幫助。然而,由于缺少判斷知識和問題相關與否的分類標注數據集,因此難以直接訓練用于噪聲過濾的模型。

此外,雖然外部知識源可為模型提供常識背景,但單一知識源蘊含的知識量有限。引入多個外部知識源,有助于擴充知識數據并提供更為豐富多樣的信息。然而,不同的外部知識源存在異構現象,在語言表達、信息類型和數據組織上存在明顯差異。因此,同時根據多種知識源的知識進行推理也是一個挑戰。

針對以上問題,本文從外部知識的獲取、多知識源信息的融合推理兩個角度出發,提出了一種基于多知識源融合的常識問答方法。該方法采用貪心策略從兩個外部知識源篩選知識,將篩選后的知識分別與問題選項組合編碼,再融合多個知識源的編碼表示,進行答案推理。算法在CSQA數據集進行實驗,并選取了ALBERT[5]和 GRHEK[6]基線方法進行比 較。結果表明,本文的方法在測試集的性能為78.3%,與兩個基線方法相比,分別提升了4.8%和3.0%。總體而言,本文的貢獻包括如下兩方面:

(1)分析了外部知識質量對模型的影響,提出了一種基于貪心策略的知識篩選方法。

(2)提出了一種融合多知識源的常識問答方法,有效地融合了多知識源的信息,并據此進行常識推理。

本文結構如下,第1節介紹常識問答領域的研究狀況;第2節講解本文提出的基于多知識源融合的級聯式常識問答方法;第3節比較了本文方法與現有方法的性能,并針對知識篩選方法和多知識源融合方法的有效性進行了驗證;第4節對本文的工作進行總結并提出未來的研究方向。

1 相關工作

傳統的問答任務主要考驗模型的語義理解能力,通常在給定的上下文中即可找到問題的答案。為進一步評估模型學習常識以及根據常識進行推理的能力,研究者們提出了許多常識推理類的問答數據集,例如,多跳推理問答Hotpot QA[7]、先驗常識問答 CSQA[2]、社交常識問答 Social IQA[8]、典型情境問答 Proto QA[9]等。這些數據集涵蓋抽取式、多項選擇式和生成式等多種問答形式,而本文主要研究的是多項選擇式常識問答任務。該任務的核心是判斷每個候選答案的合理性,基本的做法是將問題與候選答案分別組合,構成多個問答對,再利用模型為每個問答對的合理性打分,分數最高組所對應的候選答案即為模型的推斷結果。

常識問答領域的早期研究主要圍繞詞嵌入技術和循環神經網絡開展,例如,Liu等[10]提出的基于知識增強的詞嵌入技術。而隨著大規模預訓練模型的出現,模型的學習和推理能力有了巨大的提升。研究者們在常識問答任務上應用預訓練模型,并圍繞其提出了一系列改進方法,例如,Zhu等[11]提出的基于對抗訓練的方法,在訓練數據上增加擾動從而提高模型的常識推理能力。但預訓練模型對常識的學習能力存在局限,相較于人類的水平,這些完全依賴預訓練模型的方法還有較大提升空間。

一些外部知識庫可以為模型提供額外的相關知識,已有研究將外部知識與預訓練模型相結合,以彌補模型在常識問答任務上的不足。這些研究引入的知識源主要分為結構化知識源和無結構知識源,例如,Lin等[12]引入的ConceptNet[13]、Chen 等[14]引入的劍橋詞典①https://dictionary.cambridge.org/就屬于結構化知識源,這類知識源以圖狀或層級的形式組織,主要通過基于規則匹配的方法獲取知識;Lü 等[6]引入的 Wikipedia②https://www.wikipedia.org、PLA Academy[15]引入的 Open Mind Common Sense[16]則屬于無結構知識源,這類知識源主要以自由文本的形式組織,可利用基于語義檢索的方法從中獲取知識。這些研究使用的架構主要有兩類:預訓練模型與圖神經網絡的混合架構、純粹的預訓練模型架構。例如,KagNet[12]和 MHGRN[17]是使用預訓練模型和圖神經網絡混合架構的典型,他們善于利用圖神經網絡編碼外部知識并據此進行推理;而 DREAM[18]和 Path Generator[19]則是純粹的預訓練模型架構,他們以文本序列的方式組織外部知識,完全利用預訓練模型進行推理。

2 基于多知識源融合的級聯式常識問答

本文提出的基于多知識源融合的級聯式常識問答方法由兩部分組成:1)外部知識獲取與篩選模塊;2)多通道信息融合推理模型。方法的框架如圖1所示,外部知識獲取與篩選模塊根據問題和選項從外部知識源獲取相關知識,并利用貪心策略對知識進行噪聲過濾;信息融合推理模型則采用多通道知識編碼方式,融合多個知識源中不同類型的知識信息進行表征編碼與常識推理。

圖1 本文方法的整體架構Fig.1 Overall architecture of the method proposed in this work

2.1 外部知識獲取與篩選

CSQA數據集中的樣本包括給定的問題、五個候選答案和問題概念(問題中的關鍵詞或短語)。構建CSQA數據集時,數據標注員根據問題概念和候選答案編寫問題。因此,外部知識獲取與篩選模塊旨在查找和獲取與問題概念以及候選答案相關的知識。如圖1左側“外部知識獲取與篩選模塊”所示,該模塊從Open Mind Common Sense[16]知識庫(簡稱 OMCS)和維基字典①https://www.wiktionary.org(Wiktionary,簡稱WKDT)兩個外部知識源中獲取知識并進行篩選。

2.1.1 基于語義檢索的OMCS常識抽取

OMCS是一個大型常識知識庫,由450 k條常識斷言組成,這些常識斷言的特點是能夠建立概念之間的聯系。例如,表2中第07條常識斷言“convey information while communicating.”(譯文:在溝通的同時傳遞信息)給出了兩個概念“information”和“communicating”之間的聯系。本文采用ElasticSearch②https://www.elastic.co工具為每個選項從OMCS知識庫中檢索相關常識斷言。Elastic-Search以“問題概念+答案選項”為關鍵字進行檢索,取出最相關的15條常識。

表2 基于貪心策略的外部知識獲取方法示例Table 2 Knowledge retrieval methods based on greedy strategy

2.1.2 基于規則匹配的WKDT釋義抽取

WKDT是一套開源且覆蓋面廣的詞典,包含百萬個英文詞條,每個詞條包含該詞的多個釋義表述。例如表2中的“communicating”在WKDT中有兩個釋義。由于問題概念與候選答案均為單詞或短語,為了使模型能夠獲取更多語義信息,本文從WKDT中為問題概念與候選答案找到相關釋義,并將其作為問題的上下文。具體地,本文采用匹配規則,依次在WKDT中匹配問題概念或候選答案對應的詞條。匹配規則為:1)原文匹配;2)詞形還原匹配;3)詞形還原后正向最大匹配。以表2中選項B為例,模塊優先采用文本的原始形式“transfer of informations”進行匹配;如未查詢到相關詞條,再對其進行詞形還原得到“transfer of information”,并進行匹配;如仍未查詢到結果,則采用正向最大匹配算法,依次采用文本的子串“of information”和“information”進行查詢。本例中,模塊最終以“information”作為檢索詞,在WKDT中匹配到對應的詞條并將其作為選項B的上下文。本文采用上述的規則為CSQA數據集中99.8%的問題概念和選項概念匹配到了詞條。

2.1.3 基于貪心選擇策略的知識排序篩選

通過關鍵詞檢索和概念規則匹配,模塊為問題概念和答案選項檢索到了多條常識斷言以及多個釋義。然而,這些獲取的知識中包括一些與問題選項無關的常識斷言以及不符合語境的詞條釋義,本文將這些不相關的常識和不符合語境的釋義稱為噪聲知識,如表2中OMCS的15號常識以及WKDT中“communicating”的01號釋義。本文在開發集上進行了抽樣統計,結果表明從OMCS和WKDT獲取的知識中分別包含36%和44%的噪聲知識。

因此,本文首先對獲取的知識進行篩選,知識篩選的最優解是選出能支撐模型做出判斷的知識。然而在實際測試中,待推理的答案不能作為已知條件參與上述全局最優的篩選過程,因此難以直接求得最優解。為此,本文提出一種基于貪心策略的知識排序方法,將篩選目標弱化為求較優解,即選擇與問題選項相關的常識以及符合當前語境的釋義(有效知識)。

首先分別為每個知識源(OMCS/WKDT)訓練判斷選項正誤的二分類模型,模型由預訓練模型和分類器組成。其中,模型的輸入為問題、選項和外部知識的文本拼接序列,輸入格式與圖2中編碼通道#2和#3相同;預訓練模型對輸入的文本信息進行編碼;分類器采用非線性層,對句子整體的特征表示[CLS]進行降維,最后經sigmoid函數激活得到選項的分數。

從模型的預測結果中觀察到,選項的分數受到候選知識的影響,相較于噪聲知識,選項與有效知識組合往往會得到更高的分數。換言之,通過比較同一個選項在不同知識背景下的分數,一定程度上可以從候選知識中篩選出有效知識。基于此,本文設計了一種知識排序算法,如表3的算法所示。給定問題Q、選項組C和候選知識Kall,算法遍歷每個選項,將當前選項Ci與候選知識輸入模型,得到相應的分數(步驟2至4)。完成所有候選知識的分數計算后,算法根據該分數對選項Ci的候選知識進行排序。對于OMCS,取前k條常識斷言作為篩選結果(本文在3.4節中對k的取值進行了實驗和分析);對于WKDT,取排名最前的釋義組合作為篩選結果。表2展示了獲取的知識在排序前后的位置變化。

表3 候選知識排序算法Table 3 Candidate knowledge ranking algorithm

2.2 多通道信息融合推理

OMCS知識注重描述概念間的常識關系,而WKDT知識注重解釋概念的含義,利用這兩種知識需要不同的推理方式。為了讓模型充分利用不同知識源的信息,本文提出一種多通道的信息融合推理模型。如圖2所示,模型由基于預訓練模型的信息編碼通道、融合推理層和分類器組成。

圖2 多通道信息融合推理模型Fig.2 Multi-channel information fusion reasoning model

2.2.1 基于預訓練模型的信息編碼通道

給定CSQA數據集的一個樣本,本文用Q表示問題,用QC表示問題概念,用Ci表示第i個選項。知識獲取與篩選模塊為選項Ci提供了兩個知識源的知識:k條OMCS常識斷言,問題概念的釋義Dqc和選項概念的釋義Dci。首先,本文將問題、問題概念和選項拼接,構成CSQA問答文本[CLS]Q[SEP]QC[SEP]Ci[SEP],記 作SQ。將從OMCS獲取的k條常識進行拼接,得到OMCS常識文本記作SO。最后,將問題概念和選項概念與對應的WKDT釋義拼接,得到WKDT解釋文本序列QC∶Dqc[SEP]Ci∶Dci[SEP],記作SW。其中概念和釋義間的冒號用于幫助模型在語義上區分概念和釋義。

針對以上三類不同的文本序列,本文采用三通道的文本編碼架構,每個編碼通道對應一個預訓練語言模型,如圖2所示。其中,通道#1僅對CSQA問答文本SQ進行編碼;通道#2將問答文本SQ與OMCS常識文本SO拼接后進行編碼;通道#3將問答文本SQ與WKDT解釋文本SW拼接后進行編碼。三個通道的輸入均包含SQ,通道#1可以利用預訓練語言模型本身具備的知識信息,而對于通道#2和#3,引入SQ使得模型編碼外部知識時,傾向編碼與問答文本相關的信息。最后,本文將三個編碼通道輸出的[CLS]向量作為多源的知識關系表征,即三個通道信息的獨立編碼表示,分別用HQ、HO和HW表示。編碼過程如下:

其中,“;”符號表示向量拼接。這些向量表征將傳遞給融合推理層,使得來自多個知識源的信息進行深層次的交互。

2.2.2 融合推理層和分類器

給定上述來自不同編碼通道的信息表征HQ、HO、HW,融合推理層對其進行拼接得到Hconcat,為了使不同通道的信息充分交互,本文利用非線性層對Hconcat進行維度不變的特征映射,形成融合的多知識源信息表示Hmerge:

其中,W1和b1是非線性層的參數,ReLU為激活函數。隨后,分類器采用多層感知機對多知識源的信息表示進行降維,得到候選答案的分數S:

其中,多層感知機MLP包含兩層,第一層是使用ReLU激活函數的非線性層,第二層是未使用激活函數線性層。

通過向量化操作,模型可以同時處理五個選項組合的輸入。因此,經過公式(1-9)計算得到的分數S是一個五維向量,它存放了每個候選答案的分數。最后,應用softmax函數對分數S進行歸一化,即可得到模型的輸出結果P(每個選項為正確項的概率,概率最大項即為預測結果):

2.2.3 編碼通道的分步訓練

由于編碼通道的參數量較大,同時訓練多個通道易受到設備限制,因此本文采用分步訓練方式(級聯訓練),即先獨立訓練三個通道的編碼器,再固定其參數,訓練融合推理層和分類器。本文首先在CSQA數據集上分別訓練各編碼通道對應的預訓練模型。如圖2虛線所示,在每個通道的預訓練語言模型后接分類器。這些分類器采用線性層,對公式(2)、(4)、(6)中三個通道的編碼結果HQ、HO和HW進行降維,再經softmax得到預測結果向量P^,該向量的每個維度表示對應的選項為正確項的概率:

其中,H表示通道輸出的信息表征,分別為HQ、HO和HW;W2、b2是分類器的參數。完成訓練后,模型斷開分類器,保留三個編碼通道作為編碼器與融合推理層和圖2中最右側的分類器進行訓練。

3 實驗及分析

本節將首先介紹實驗設置,再將本文所提方法與其他方法進行對比,最后展示消融實驗的結果并進行分析。

3.1 實驗設置

CSQA是多項選擇類型的常識問答數據集,它根據ConceptNet中的實體構建,共包含12 102個樣本。回答數據集的問題,需要結合常識并運用推理能力,對現有的預訓練語言模型(如BERT,ALBERT,RoBERTa等)而言,回答這些問題是極具挑戰的。為便于和相關研究進行比較,本文使用CSQA數據集發布者的訓練集、開發集和測試集劃分。由于數據發布者未公開測試集的答案標簽,且每兩周才能進行一次提交,本文僅在與其他方法對比時使用測試集上的性能,其余實驗均匯報開發集上的結果。

本文使用CSQA排行榜的官方評價指標準確率(Accuracy,簡稱Acc)評估模型的性能,即模型正確回答的問題在所有問題中的占比。此外,本文主要使用ALBERT-xxlarge預訓練語言模型作為編碼器,該模型由12個共享參數的transformer層組成。模型輸入的總長度設置為140,其中,問題及選項的最大長度為54;WKDT概念釋義的最大長度為40;OMCS常識斷言的拼接數量為3,每條斷言的最大長度為25。模型在訓練階段的批量大小(batch size)設置為16,優化方法的學習率(learning rate)設置為1×10-5,學習率的熱身比率(warmup rate)設置為 0.1,權 重 衰 減 比 率(weight decay)設 置為0.1。

3.2 對比方法

CSQA數據集是由標記員根據ConceptNet中的實體而構建的,在每個問題對應的五個選項中,有四個選項與問題概念存在直接關聯,剩余一個選項則是人工添加的干擾項。直接利用ConceptNet中的實體關系會導致模型在處理人工添加的干擾項時變得容易,潛在地降低了任務難度。因此,CSQA數據集排行榜①https://www.tau-nlp.org/csqa-leaderboard根據是否引入ConceptNet知識庫,將任務劃分為兩個賽道。注意,本文提出的方法雖引入了兩個外部知識源(OMCS和WKDT),但未如基于ConceptNet的方法那樣能夠輕易地排除一個干擾項。

本文根據是否使用外部知識源,將對比的方法分成兩類:1)未使用外部知識源的方法:如 BERT、RoBERTa、ALBERT 和 T5[20]等方法直接在訓練數據上對預訓練模型進行微調,這些方法體現了預訓練模型學習常識知識和進行常識推理的能力。2)使用外部知識源的方法:引 入 Wikipedia 知 識 源 的 DREAM[18],引 入OMCS 知識源的 KEDGN[15],引入 ConceptNet②此類方法引入了ConceptNet,但并未直接利用其實體關系。的 QA-GNN[21],MHGRH[17],HybridGN[22],Path Generator[19]以 及 引 入 兩 種 知 識 源 的GRHEK[6]。其中,Path Generator方法先訓練生成模型學習ConceptNet中概念之間的關系,再利用該生成模型生成與問題選項相關的關系路徑,最后采用ALBERT根據問題選項和關系路徑進行判斷;GRHEK方法引入了ConceptNet和Wikipedia知識源,分別用圖神經網絡和預訓練模型對兩種知識源的知識進行異構編碼,再通過基于圖的推理模塊判斷正確答案。

3.3 實驗結果和分析

表4列出了本文提出的基于多知識源融合的級聯式常識問答方法(Multi-Source Knowledge Fusion,簡稱MSKF)與其他方法的性能比較,其中,“*”符號標記了引入ConceptNet知識源的方法。

表4 本文所提方法與其他方法的性能對比Table 4 Comparison of the performances from different methods

組1中的方法均未引入外部知識,這些方法在性能上的差距反映了預訓練模型在常識推理能力上的差異。造成該差異的主要因素是參數量,模型的參數越多,模型便越可能在預訓練階段學習到更多的知識信息。例如,T5模型的參數量為110 B,遠大于其他模型(如ALBERT僅包含233 M參數),其在組1中達到最好性能。本文方法的性能優于組1中的方法,比采用相同預訓練模型的基線方法ALBERT提高了4.8%。這表明外部知識為模型的常識推理提供了依據,從而克服了預訓練模型在利用知識上的局限性。

組2中的方法均引入了外部知識,其中,除了GRHEK方法引入了兩種外部知識源,其他方法均引入一種外部知識源。本文所提方法在開發集和測試集上均達到最好性能,這表明多個外部知識源包含更為豐富的知識信息;與使用兩種外部知識源的GRHEK基線方法相比提高了3%,表明本文方法可以有效地融合多個知識源的外部知識,有效地利用這些知識信息進行常識推理。盡管組2中標注“*”的方法借助ConceptNet的信息,潛在地排除了一個干擾項,但本文方法的表現依然超過了這些方法。

3.4 消融實驗

本文在開發集上通過消融實驗,分析知識篩選方法和多通道信息融合推理模型的有效性。

3.4.1 知識篩選方法分析

本文首先以不使用外部知識的ALBERT模型為基準,在使用單一外部知識源的情況下,分析知識篩選方法對融合推理模型的影響。本文在進行篩選與未進行篩選的情況下,分別為每個知識源訓練兩個使用單一外部知識源的MSKF模型。實驗結果如表5所示,對于未進行篩選的模型,其性能均低于基準模型,說明在未對知識進行篩選的情況下,引入的外部知識中可能包含較多噪聲;而采用知識篩選方法后,模型性能均有較大提升,這說明本文提出的知識篩選方法能一定程度上消除噪聲知識給模型性能帶來的影響。

表5 引入知識篩選方法前后的性能Table 5 Comparison of performances before and after knowledge screening

此外,本文還分析了知識篩選方法在不同數量OMCS常識下的表現。實驗將問答文本與不同數量的常識進行拼接,以此為輸入分別訓練多個ALBERT模型并進行比較(此處選用參數量較小的base版本)。根據是否采用知識篩選方法,實驗分為兩組:針對不進行篩選的實驗組,取檢索到的前k條常識作為輸入;針對進行篩選的實驗組,取排序后的前k條常識作為輸入。實驗結果如圖3所示,在輸入相同數量OMCS常識的情況下,采用知識篩選方法的模型均優于未進行知識篩選的模型。由此可見,知識篩選方法能夠確保有效的知識在候選知識中排位靠前,模型的性能在k=3時就達到了較高水平。而未進行知識篩選的模型,由于受到噪聲知識的干擾,在k≤4的情況下模型表現得與基準模型相當,甚至在k=1和k=3時性能低于基準模型;隨著知識數量的增加(k=5,6),一些有效知識被包含進來,模型的準確率才獲得提升。兩組模型的不同表現說明本文提出的知識篩選方法有效地過濾了一部分噪聲知識,提高了輸入模型的知識質量。

圖3 ALBERT-base在不同數量OMCS常識下的表現Fig.3 Performance of ALBERT-base with different numbers of OMCS

3.4.2 多知識源融合方法分析

為驗證本文提出的多知識源融合方法的有效性,本文對比了其他兩類知識融合方法:方法1將兩種外部知識同時與問答文本進行拼接,輸入編碼通道;方法2采用本文方法的三通道編碼方法,但三個通道的編碼器共享參數。實驗結果如表6所示,方法1的性能與基線方法相比有所下降,說明簡單地拼接多種類型的知識可能會導致模型無法有效地進行問題和知識的交互;方法2的性能和基線方法相比略有提升,這說明將不同來源的知識單獨編碼一定程度上能增強模型的知識表征能力。本文所提方法性能優于上述兩類方法,說明預訓練模型根據多種類型知識進行推理的能力存在不足,而采用獨立通道的編碼器分別針對一種類型的知識進行編碼,是彌補這種不足的有效方式。

表6 知識融合方法的對比Table 6 Comparison of knowledge fusion methods

本文所提方法使用了三個獨立的編碼通道分別對問題和不同類型的知識進行編碼:通道#1的輸入是問答文本,通道#2的輸入是問答文本與OMCS常識文本的拼接,通道#3的輸入是問答文本與WKDT解釋文本的拼接。本文對不同的編碼通道組合進行實驗,結果如表7所示。通過觀察可得如下結論:1)對比使用單一編碼通道的模型性能(1-3行),可見引入單一的外部知識源對模型的性能提升有限;2)比較第4行和第2行以及第5行和第3行的結果,可以看出將問題選項與知識分開進行編碼能更好地增強各通道信息的表征,從而提高模型的性能;3)比較第4、5行與第6行,可以看出采用多種知識源的模型比使用單一知識源的模型表現更好,達到了本文融合多知識源的目的;4)采用三個獨立編碼通道的模型(第7行)獲得最佳性能,驗證了本文所提多知識源融合方法的有效性。

表7 編碼通道的消融實驗Table 7 Ablation experiment of encoding channels

4 結論

本文提出了一種基于多知識源融合的級聯式常識問答方法,該方法由基于貪心策略的知識篩選模塊和多通道知識信息融合推理模型組成。多組對比實驗的結果表明:1)本文提出的知識篩選方法能有效地過濾部分噪聲知識;2)本文提出的多通道信息融合推理框架能較好地結合多知識源的信息進行常識推理。本文的研究聚焦在多項選擇式常識問答,提出的方法可應用于結合外部知識對候選進行排序的問答匹配場景。為增強常識問答模型的泛用性,未來的研究工作將更多地關注生成式常識問答任務。

猜你喜歡
文本融合信息
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
在808DA上文本顯示的改善
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
如何快速走進文本
語文知識(2014年1期)2014-02-28 21:59:13
主站蜘蛛池模板: 婷婷激情亚洲| 欧美一级爱操视频| 亚洲一区免费看| 98精品全国免费观看视频| 久久伊人操| 亚洲一级毛片在线观播放| 国产精品乱偷免费视频| 一边摸一边做爽的视频17国产| 一级毛片在线直接观看| 亚洲欧美自拍视频| 麻豆国产原创视频在线播放 | 在线欧美一区| 国产91九色在线播放| 亚洲有无码中文网| 亚洲bt欧美bt精品| 国产一级无码不卡视频| 精品伊人久久久久7777人| 国产呦精品一区二区三区下载 | 中文字幕1区2区| 国产欧美日韩另类精彩视频| 五月婷婷综合色| 波多野结衣久久精品| 五月婷婷导航| 国产白浆在线| swag国产精品| 人人妻人人澡人人爽欧美一区| 黄片一区二区三区| 日本人妻丰满熟妇区| 久久综合色播五月男人的天堂| 日本午夜网站| 99er精品视频| 亚洲精品无码高潮喷水A| 国产黄网站在线观看| 天天综合亚洲| 99热最新在线| 精品久久久无码专区中文字幕| 国产毛片高清一级国语| 高潮毛片无遮挡高清视频播放| 99re这里只有国产中文精品国产精品 | 亚洲AV成人一区国产精品| 国产小视频a在线观看| 老熟妇喷水一区二区三区| 国产门事件在线| 国产激情无码一区二区免费 | 伊人91在线| 伊在人亚洲香蕉精品播放| 亚洲色中色| 日韩最新中文字幕| 在线人成精品免费视频| 伊人国产无码高清视频| 亚洲成人精品久久| 亚洲AⅤ综合在线欧美一区| 在线观看网站国产| 亚洲国产欧美国产综合久久| 久久精品这里只有精99品| 国产激情无码一区二区三区免费| 黄色免费在线网址| 波多野结衣一区二区三区88| 国产主播福利在线观看| 国产精品尹人在线观看| 日本一本正道综合久久dvd | 九九视频免费看| 99热这里只有精品在线观看| 国产视频资源在线观看| 国产成人a在线观看视频| 免费无遮挡AV| 国产精品亚洲精品爽爽| 黄色国产在线| 亚洲AV永久无码精品古装片| 999国产精品永久免费视频精品久久 | 青青草国产在线视频| 一级香蕉视频在线观看| 久久久久人妻精品一区三寸蜜桃| a毛片免费观看| 在线观看国产小视频| 亚洲欧洲日韩综合| 中国国产高清免费AV片| 欧美第二区| 日本欧美中文字幕精品亚洲| 亚洲日韩精品无码专区97| yjizz国产在线视频网| 婷婷丁香色|