999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種面向知識(shí)圖譜多跳問(wèn)答的分層語(yǔ)義解析方法

2025-04-10 00:00:00周巖范永勝孫松周粵

摘 要:在知識(shí)圖譜多跳問(wèn)答任務(wù)中,問(wèn)題的復(fù)雜語(yǔ)義往往難以被完全理解,這常導(dǎo)致回答的準(zhǔn)確性低于預(yù)期。為此,提出了一種名為HL-GPT(hierarchical parsing and logical reasoning GPT)的新型框架。該框架利用大語(yǔ)言模型的理解和生成能力,通過(guò)分層解析復(fù)雜語(yǔ)義及構(gòu)建邏輯推理路徑,以提升問(wèn)答任務(wù)的準(zhǔn)確性。研究方法包括三個(gè)階段:首先,通過(guò)大語(yǔ)言模型從問(wèn)題的不同層次中解析出關(guān)鍵實(shí)體和多層關(guān)系,并將這些信息轉(zhuǎn)換為邏輯形式;其次,將這些邏輯形式與知識(shí)圖譜中的數(shù)據(jù)進(jìn)行映射,并逐步檢索相關(guān)實(shí)體以構(gòu)建邏輯推理路徑;最后,利用大語(yǔ)言模型固有的推理能力,整合問(wèn)題和邏輯路徑以生成準(zhǔn)確的答案。本框架在MetaQA、COKG-DATA 、AeroQA和NLPCC-MH四個(gè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,HL-GPT相比基線(xiàn)模型有明顯的性能提升。

關(guān)鍵詞:大語(yǔ)言模型; 知識(shí)圖譜; 多跳問(wèn)答; 語(yǔ)義解析

中圖分類(lèi)號(hào):TP391.1"" 文獻(xiàn)標(biāo)志碼:A

文章編號(hào):1001-3695(2025)03-009-0714-06

doi:10.19734/j.issn.1001-3695.2024.10.0633

Hierarchical semantic parsing approach for multi-hopquestion answering on knowledge graphs

Zhou Yan, Fan Yongsheng, Sun Song, Zhou Yue

(College of Computer amp; Information Science, Chongqing Normal University, Chongqing 401331, China)

Abstract:In multi-hop question answering tasks over knowledge graphs, the complex semantics of questions often remain inadequately understood, leading to suboptimal accuracy in answers. To address this challenge, this paper introduced a novel framework named HL-GPT. This framework exploited the comprehension and generation capabilities of large language models to enhance answer accuracy through hierarchical semantic parsing and logical reasoning path construction. The method encompassed three stages: initially, a large language model parsed key entities and multi-layer relationships from various levels of the question and converted this information into logical forms. Subsequently, it mapped these logical forms to data within the knowledge graph and incrementally retrieves relevant entities to construct a logical reasoning path. Finally, it utilized the inherent reasoning capabilities of the large language model to integrate the question and logical path, generating accurate answers. Experimental results on the MetaQA, COKG-DATA, AeroQA and NLPCC-MH datasets demonstrate significant performance improvements of HL-GPT over baseline models.

Key words:large language models(LLM); knowledge graph; multi-hop question answering; semantic parsing

0 引言

知識(shí)圖譜(knowledge graph,KG)[1]是一種結(jié)構(gòu)化的語(yǔ)義知識(shí)庫(kù),用于存儲(chǔ)實(shí)體及其相互關(guān)系的信息。由于其直觀(guān)和豐富的知識(shí)特性,知識(shí)圖譜被廣泛應(yīng)用于多種自然語(yǔ)言處理任務(wù),包括知識(shí)問(wèn)答、對(duì)話(huà)系統(tǒng)、推薦系統(tǒng)和信息檢索等[2]。其中知識(shí)圖譜問(wèn)答(knowledge graph question answering,KGQA)[3]應(yīng)用最為廣泛,它利用豐富的結(jié)構(gòu)化語(yǔ)義信息來(lái)深入理解用戶(hù)的問(wèn)題,并提供準(zhǔn)確的答案。因此,知識(shí)圖譜問(wèn)答受到學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注。

當(dāng)前,知識(shí)圖譜問(wèn)答的研究聚焦于對(duì)問(wèn)題的理解,問(wèn)題按照復(fù)雜程度可以分為簡(jiǎn)單問(wèn)題和復(fù)雜問(wèn)題。簡(jiǎn)單問(wèn)題只需要在主語(yǔ)實(shí)體的單跳子圖上進(jìn)行推理就可以得到答案,而對(duì)于復(fù)雜問(wèn)題,答案可能涉及多個(gè)實(shí)體及實(shí)體間關(guān)系[4]。例如在多跳問(wèn)題中,如果一個(gè)問(wèn)題從主語(yǔ)實(shí)體出發(fā),經(jīng)過(guò)n條三元組達(dá)到答案所在的實(shí)體,則該問(wèn)題稱(chēng)為n跳問(wèn)題,對(duì)該問(wèn)題進(jìn)行回答的過(guò)程稱(chēng)為n跳問(wèn)答[5]。目前,基于語(yǔ)義解析的方法[6,7]可以很好地解決簡(jiǎn)單問(wèn)題,將問(wèn)題解析為一種結(jié)構(gòu)化查詢(xún)語(yǔ)句, 并在知識(shí)庫(kù)上執(zhí)行得到最終答案。然而,在多跳問(wèn)答中,問(wèn)題通常涉及多個(gè)相關(guān)實(shí)體和關(guān)系,要求模型能夠理解復(fù)雜的推理和多步邏輯跳躍。這一任務(wù)的難點(diǎn)在于,模型需要準(zhǔn)確地識(shí)別和關(guān)聯(lián)問(wèn)題中提到的多個(gè)實(shí)體,并理解它們之間的關(guān)系,以構(gòu)建正確的推理路徑。傳統(tǒng)語(yǔ)義解析方法在處理此類(lèi)復(fù)雜問(wèn)題時(shí),尤其是涉及深層關(guān)系和多步邏輯推理的情況下,往往表現(xiàn)不佳[8]。

針對(duì)多跳問(wèn)題中模型理解能力不足的問(wèn)題,大語(yǔ)言模型(large language models,LLM)[9]的引入開(kāi)辟了新的研究前景。這些模型經(jīng)過(guò)廣泛的預(yù)訓(xùn)練[10],展現(xiàn)了強(qiáng)大的語(yǔ)言理解和泛化能力,有望提升語(yǔ)義解析的準(zhǔn)確性。最近的研究表明,通過(guò)融合大語(yǔ)言模型的零樣本學(xué)習(xí)策略,在提示學(xué)習(xí)(prompt)[11]中加入少量示例,可以提升模型處理復(fù)雜問(wèn)題的能力。例如,KG-GPT[12]通過(guò)精心設(shè)計(jì)的提示引導(dǎo)大語(yǔ)言模型分割復(fù)雜句子來(lái)提取關(guān)鍵信息,檢索相關(guān)的知識(shí)圖譜信息,以此來(lái)推理出答案。雖然KG-GPT在復(fù)雜推理任務(wù)上取得了進(jìn)展,但在答案路徑推理的過(guò)程中,缺乏對(duì)推理過(guò)程的詳細(xì)解釋和可視化,導(dǎo)致整個(gè)推理過(guò)程的可解釋性不足。相比之下,StructGPT[13]通過(guò)迭代調(diào)用接口提取結(jié)構(gòu)化數(shù)據(jù)并將其線(xiàn)性化為文本,然后構(gòu)造提示引導(dǎo)大語(yǔ)言模型進(jìn)行推理,逐步接近并生成最終答案。盡管這些方法在復(fù)雜問(wèn)答任務(wù)中表現(xiàn)優(yōu)異,但在解析多跳問(wèn)題的深層語(yǔ)義時(shí),它們的準(zhǔn)確性仍有待提高。

為此,本文提出了一種分層語(yǔ)義解析的知識(shí)圖譜問(wèn)答框架HL-GPT。針對(duì)多跳問(wèn)答任務(wù)中深層語(yǔ)義解析不準(zhǔn)確的問(wèn)題,分層語(yǔ)義解析通過(guò)大語(yǔ)言模型分層解析問(wèn)題中的復(fù)雜語(yǔ)義,系統(tǒng)地識(shí)別和提取與問(wèn)題密切相關(guān)的實(shí)體和多層關(guān)系,從而提高解析的準(zhǔn)確性和深度。針對(duì)多跳問(wèn)答任務(wù)中回答的可解釋性不足的問(wèn)題,HL-GPT框架有效整合了大語(yǔ)言模型的語(yǔ)義理解能力與知識(shí)圖譜豐富的結(jié)構(gòu)化信息,從而構(gòu)建了清晰的邏輯推理路徑,增強(qiáng)了答案的可解釋性。

1 相關(guān)研究

1.1 語(yǔ)義解析

語(yǔ)義解析[8]技術(shù)的核心任務(wù)是將非結(jié)構(gòu)化文本轉(zhuǎn)換為可執(zhí)行的查詢(xún),并在知識(shí)庫(kù)上執(zhí)行得到最終答案。首先,通過(guò)問(wèn)題理解模塊對(duì)問(wèn)題進(jìn)行全面的語(yǔ)義和句法分析,然后將分析后的問(wèn)題編碼轉(zhuǎn)換為未實(shí)例化的邏輯形式。接下來(lái),這個(gè)邏輯形式會(huì)進(jìn)一步實(shí)例化并通過(guò)與知識(shí)庫(kù)的語(yǔ)義對(duì)齊進(jìn)行驗(yàn)證。最后,這個(gè)邏輯形式在知識(shí)庫(kù)中執(zhí)行,通過(guò)執(zhí)行模塊生成答案。

1.2 提示學(xué)習(xí)

提示學(xué)習(xí)[14]是一種基于語(yǔ)言模型的新型自然語(yǔ)言處理學(xué)習(xí)范式,它不同于傳統(tǒng)的監(jiān)督學(xué)習(xí)。在傳統(tǒng)的監(jiān)督學(xué)習(xí)中,模型被訓(xùn)練為接受輸入x并預(yù)測(cè)輸出y。而提示學(xué)習(xí)采用語(yǔ)言模型直接對(duì)文本進(jìn)行概率建模,通過(guò)使用包含空白槽的文本模板修改原始輸入x,然后依賴(lài)語(yǔ)言模型來(lái)概率性地填充這些空白槽,從而生成最終的輸出y。此外,提示學(xué)習(xí)允許語(yǔ)言模型在大量原始文本上進(jìn)行預(yù)訓(xùn)練,并定義新的提示函數(shù),使模型能夠執(zhí)行少數(shù)樣本甚至零樣本學(xué)習(xí),以適應(yīng)少數(shù)或沒(méi)有標(biāo)記數(shù)據(jù)的新場(chǎng)景[15]。因此,為確保大語(yǔ)言模型能夠理解和執(zhí)行特定任務(wù),本文采用了基于提示學(xué)習(xí)的函數(shù)模板:

Prompt={Inst,E,Q}

(1)

其中:Inst(指令文本)明確傳達(dá)任務(wù)需求并詳細(xì)指導(dǎo)執(zhí)行方式;E(示例)提供相關(guān)實(shí)例,幫助模型理解復(fù)雜指令;Q(問(wèn)題)則是具體的查詢(xún),直接指導(dǎo)模型生成內(nèi)容。

1.3 大語(yǔ)言模型融合知識(shí)圖譜問(wèn)答

大語(yǔ)言模型與知識(shí)圖譜的融合成為提升知識(shí)圖譜問(wèn)答系統(tǒng)性能的關(guān)鍵 [16]。大語(yǔ)言模型主要在兩個(gè)方向發(fā)揮作用:首先是作為實(shí)體/關(guān)系提取器。大語(yǔ)言模型能從自然語(yǔ)言問(wèn)題中準(zhǔn)確地識(shí)別和提取實(shí)體及其關(guān)系,并檢索知識(shí)圖譜中的相關(guān)事實(shí)。例如,Lukovnikov等人[17]使用大語(yǔ)言模型作為關(guān)系預(yù)測(cè)的分類(lèi)器,有效提高了關(guān)系預(yù)測(cè)的準(zhǔn)確率;而QA-GNN[18]開(kāi)發(fā)的基于大語(yǔ)言模型的框架,有效地用于從問(wèn)題中檢測(cè)實(shí)體和關(guān)系。其次是作為答案推理器。大語(yǔ)言模型利用檢索到的事實(shí)進(jìn)行邏輯推理以生成答案。例如,DRLK[19]結(jié)合問(wèn)題、相關(guān)事實(shí)和候選答案,并通過(guò)大語(yǔ)言模型預(yù)測(cè)答案得分,展示了大語(yǔ)言模型在處理結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù)中的強(qiáng)大推理能力。

2 方法

2.1 問(wèn)題定義

基于知識(shí)圖譜的問(wèn)答任務(wù)定義如下:給定一個(gè)自然語(yǔ)言問(wèn)題Q,目標(biāo)是利用知識(shí)圖譜G提取與問(wèn)題相關(guān)的實(shí)體和關(guān)系,從而檢索出正確的答案實(shí)體。知識(shí)圖譜G由大量的事實(shí)三元組組成,形式為

G={(e,r,e′)|e,e′∈E,r∈R}

(2)

其中:E和R分別代表實(shí)體集和關(guān)系集。任務(wù)的關(guān)鍵是將問(wèn)題Q轉(zhuǎn)換為結(jié)構(gòu)化查詢(xún)〈ei,ri〉(i=1,…,n),其中ei和ri分別是問(wèn)題中的實(shí)體和關(guān)系,然后使用這些信息來(lái)指導(dǎo)知識(shí)圖譜中答案實(shí)體e′的檢索。

2.2 框架設(shè)計(jì)與實(shí)現(xiàn)

HL-GPT框架如圖1所示,該框架被細(xì)分為分層語(yǔ)義解析、圖檢索和邏輯推理三個(gè)階段。

2.2.1 分層語(yǔ)義解析

在知識(shí)圖譜多跳問(wèn)答任務(wù)中,HL-GPT框架采用分層語(yǔ)義解析方法逐步處理問(wèn)題。該方法在第一層聚焦于識(shí)別問(wèn)題中的關(guān)鍵實(shí)體及其直接關(guān)系,為后續(xù)深入分析奠定基礎(chǔ);在第二層,通過(guò)深度分解問(wèn)題并逐步提取子句,進(jìn)一步挖掘出涉及的深層關(guān)系。這種分層處理使得框架能夠有效地整合問(wèn)題中的實(shí)體和多層關(guān)系,從而在知識(shí)圖譜中逐步構(gòu)建出從問(wèn)題實(shí)體到答案實(shí)體的連貫邏輯路徑。

a)第一層解析:重點(diǎn)關(guān)注問(wèn)題中直接給出的實(shí)體及其直接關(guān)系。這一層的信息通常明確且易于識(shí)別,從而允許快速構(gòu)建實(shí)體之間的直接聯(lián)系圖。如圖1分層語(yǔ)義解析的第一層解析所示,針對(duì)問(wèn)題“When did the movies acted by Faizon Love release?”,該階段精確地識(shí)別出實(shí)體“Faizon Love”及其動(dòng)作“acted by”。在這個(gè)階段,通過(guò)大語(yǔ)言模型提取問(wèn)題中的實(shí)體及其直接關(guān)系,如式(3)所示。

〈e,re〉=LLM(Prompt1)

(3)

其中:Prompt1指導(dǎo)模型提取句子中的實(shí)體及其直接關(guān)系;〈e,re〉表示提取的結(jié)果,e代表實(shí)體,re表示實(shí)體e的直接關(guān)系。這一層解析為整個(gè)推理過(guò)程提供了必要的前提條件。

b)第二層解析:進(jìn)一步探索問(wèn)題中實(shí)體間的深層關(guān)系。在此階段,根據(jù)關(guān)系的邏輯層次,模型將復(fù)雜問(wèn)題逐步分解,以便準(zhǔn)確提取與各關(guān)系相對(duì)應(yīng)的子句。如圖1分層語(yǔ)義解析的第二層解析所示,針對(duì)問(wèn)題“When did the movies acted by Faizon Love release?”,該階段將其分解為“When did the movies release, acted by Faizon Love”,并提取深層關(guān)系“When did the movies release”。這一過(guò)程主要通過(guò)大語(yǔ)言模型實(shí)現(xiàn),即

〈q1,q2,…,qn〉=LLM(Prompt2)

(4)

其中:Prompt2用于引導(dǎo)模型有效執(zhí)行復(fù)雜問(wèn)題的分解并識(shí)別其內(nèi)部的關(guān)系。這些子句序列〈q1,q2,q3,…,qn〉從問(wèn)題中提取出來(lái),簡(jiǎn)化了文本中多層關(guān)系的識(shí)別復(fù)雜性。這一層解析通過(guò)分解復(fù)雜多跳問(wèn)題,有效降低了錯(cuò)誤率并提升了推理準(zhǔn)確性。

2.2.2 圖檢索

在分層語(yǔ)義解析的基礎(chǔ)上,圖檢索階段確保將解析得到的關(guān)系準(zhǔn)確映射到知識(shí)圖譜中,并檢索相關(guān)實(shí)體。如圖1所示,分層語(yǔ)義解析后輸出的邏輯形式為(“Faizon Love”, “acted by”,“When did the movies release”),實(shí)線(xiàn)箭頭表示與問(wèn)題相關(guān)的關(guān)系,虛線(xiàn)箭頭表示與問(wèn)題無(wú)關(guān)的關(guān)系。未實(shí)例化的關(guān)系“acted by”和“When did the movies release”,對(duì)應(yīng)知識(shí)圖譜中的“starred_actors”和“release_year”。 為確保將解析出的關(guān)系準(zhǔn)確映射到知識(shí)圖譜中,本文收集了領(lǐng)域內(nèi)的關(guān)系數(shù)據(jù)并進(jìn)行標(biāo)注,構(gòu)建了一個(gè)面向文本相似度任務(wù)的小規(guī)模數(shù)據(jù)集。該數(shù)據(jù)集包括三個(gè)關(guān)系類(lèi)型:q為查詢(xún)的初始關(guān)系,p為知識(shí)庫(kù)中與q相似的關(guān)系(正樣本),n為不相似或相反的關(guān)系(負(fù)樣本)。這種格式設(shè)計(jì)有助于模型區(qū)分相似關(guān)系和不相似關(guān)系。數(shù)據(jù)集表示為DTrain={q,p,n},預(yù)訓(xùn)練嵌入模型S在DTrain上進(jìn)行微調(diào),目標(biāo)是讓正樣本對(duì)的相似度盡可能大、負(fù)樣本對(duì)的相似度盡可能小。模型S的映射通過(guò)以下公式進(jìn)行描述:

r=argmaxri∈KGS(q′)·S(ri)‖S(q′)‖×‖S(ri)‖

(5)

其中:r是未實(shí)例化關(guān)系q′與知識(shí)圖譜中所有關(guān)系ri之間最相似的關(guān)系。該相似度是通過(guò)計(jì)算S(q′)(未實(shí)例化關(guān)系向量)和S(ri)(圖譜中關(guān)系向量)之間的余弦相似度得到的。這里使用的點(diǎn)乘操作用于計(jì)算兩個(gè)向量的內(nèi)積,以反映它們?cè)诜较蛏系南嗨菩裕荒5某朔e則用于歸一化這一度量,確保結(jié)果不會(huì)受到向量長(zhǎng)度的影響。

在邏輯形式實(shí)例化后,將其轉(zhuǎn)換為相應(yīng)的Cypher查詢(xún),以執(zhí)行知識(shí)圖譜檢索。此操作確保了能夠從邏輯推理路徑中準(zhǔn)確地獲取所有相關(guān)的實(shí)體。檢索過(guò)程如圖1中圖檢索階段所示,從“Faizon Love”到他所參演的電影“Who’s Your Caddy?”和“Couples Retreat”,以及這些電影的發(fā)行年份(分別為2007年和2009年)。

2.2.3 邏輯推理

在分層語(yǔ)義解析和圖檢索的基礎(chǔ)上,此階段的目標(biāo)是利用大語(yǔ)言模型對(duì)檢索到的邏輯路徑進(jìn)行推理,從而生成準(zhǔn)確且具有可解釋性的答案,如圖1中邏輯推理所示。

首先,構(gòu)建一個(gè)問(wèn)題相關(guān)的三元組知識(shí)庫(kù)。這個(gè)知識(shí)庫(kù)不僅存儲(chǔ)了問(wèn)題實(shí)體的直接關(guān)系,如(Faizon Love,starred_actors,Who’s Your Caddy?)和(Faizon Love,starred_actors,Couples Retreat),還包括問(wèn)題的深層關(guān)系,如,(Who’s Your Caddy?,rel- ease_year,2007)和(Couples Retreat,release_year,2009)。知識(shí)庫(kù)構(gòu)建完成后,這些三元組信息被轉(zhuǎn)換為連貫的文本描述,形成了一個(gè)包含所有相關(guān)知識(shí)的完整上下文,為解答提供堅(jiān)實(shí)的信息支撐。接著,利用大語(yǔ)言模型綜合這些文本化的背景知識(shí)與具體問(wèn)題,通過(guò)其強(qiáng)大的上下文分析能力進(jìn)行答案推理。最終,大語(yǔ)言模型生成的答案是“The movie Who’s Your Caddy? starring Faizon Lovewas released in 2007,and the movie ‘Couples Retreat’ was released in 2009.”,這個(gè)答案相比以前檢索到的答案(僅僅為2007和2009年)不僅精確地提供了所需信息,還揭示了從問(wèn)題到答案的完整邏輯路徑,展現(xiàn)了答案背后的邏輯推理過(guò)程,具有良好的可解釋性。

綜上所述,HL-GPT框架的處理流程始于對(duì)問(wèn)題的深入解析,接著確定核心查詢(xún)需求并識(shí)別出相關(guān)的關(guān)鍵實(shí)體,隨后基于這些實(shí)體及其關(guān)聯(lián)關(guān)系,進(jìn)一步構(gòu)建邏輯推理路徑,提供詳盡且可解釋的回答。以圖1中的問(wèn)題“When did the movies acted by Faizon Love release?”為例,HL-GPT首先識(shí)別出“Faizon Love”作為主要實(shí)體。隨后,通過(guò)一跳關(guān)系“starred_actors”,檢索到他主演的兩部電影“Who’s Your Caddy?”和“Couples Retreat”。進(jìn)一步通過(guò)二跳關(guān)系“release_year”,為這兩部電影分別檢索到了發(fā)布年份為2007年和2009年。這一過(guò)程構(gòu)建了兩條清晰的邏輯推理路徑:第一條從“Faizon Love”到“Who’s Your Caddy?”,再到其發(fā)布年份2007年;第二條從“Faizon Love”到“Couples Retreat”,再到其發(fā)布年份2009年。這兩條邏輯路徑不僅確保了答案的準(zhǔn)確性,而且都明確展現(xiàn)在最終的回答上,增強(qiáng)了答案的可解釋性。

3 實(shí)驗(yàn)

3.1 數(shù)據(jù)集

a)MetaQA[20]數(shù)據(jù)集。它是一個(gè)專(zhuān)注于電影領(lǐng)域的知識(shí)圖譜多跳問(wèn)答數(shù)據(jù)集,基于WiKi-Movie[21]構(gòu)建。該數(shù)據(jù)集用于評(píng)估問(wèn)答模型處理從簡(jiǎn)單到復(fù)雜推理任務(wù)的能力。具體數(shù)據(jù)如表1(MetaQA)所示。

b)COKG-DATA[22]數(shù)據(jù)集。它是一個(gè)中文多跳問(wèn)答數(shù)據(jù)集,旨在支持COVID-19相關(guān)的復(fù)雜知識(shí)圖譜問(wèn)答任務(wù)。該數(shù)據(jù)集覆蓋疫情防控、醫(yī)療資源和流行病學(xué)等關(guān)鍵領(lǐng)域,通過(guò)模擬現(xiàn)實(shí)世界中的多層次、邏輯復(fù)雜的查詢(xún)場(chǎng)景來(lái)測(cè)試問(wèn)答模型的處理能力。具體數(shù)據(jù)如表1(COKG-DATA)所示。

c)AeroQA[23]數(shù)據(jù)集。它是一個(gè)專(zhuān)門(mén)為航空領(lǐng)域設(shè)計(jì)的多跳問(wèn)答數(shù)據(jù)集,與預(yù)處理的AviationKG[23]知識(shí)圖譜相結(jié)合。該數(shù)據(jù)集涉及飛機(jī)事故調(diào)查、航空安全法規(guī)等場(chǎng)景,通過(guò)模擬復(fù)雜的查詢(xún)場(chǎng)景來(lái)測(cè)試問(wèn)答系統(tǒng)的實(shí)際應(yīng)用效果。具體數(shù)據(jù)如表1(AeroQA)所示。

d)NLPCC-MH[24]數(shù)據(jù)集。它是一個(gè)開(kāi)放領(lǐng)域的中文多跳問(wèn)答數(shù)據(jù)集,旨在為多跳問(wèn)題的研究提供支持。該數(shù)據(jù)集通過(guò)擴(kuò)展NLPCC 2016的KBQA數(shù)據(jù)集中的單跳問(wèn)題,構(gòu)建了涵蓋二三跳問(wèn)題的中文KBQA數(shù)據(jù)集,其中80%為二跳問(wèn)題,20%為三跳問(wèn)題,便于在開(kāi)放領(lǐng)域內(nèi)驗(yàn)證多跳問(wèn)題模型的有效性。

3.2 實(shí)驗(yàn)設(shè)置

在實(shí)驗(yàn)設(shè)置中,大語(yǔ)言模型被整合為HL-GPT框架的核心,包括ChatGPT[10]和ChatGLM3-6B[25]。在HL-GPT的分層語(yǔ)義解析任務(wù)中,確保獲得更一致的響應(yīng),模型參數(shù)temperature和top_p均設(shè)置為0.1進(jìn)行推理,并將12個(gè)訓(xùn)練樣本制作成上下文示例并添加到提示中。其中,樣本的選擇要覆蓋所有關(guān)鍵問(wèn)題領(lǐng)域、反映真實(shí)世界數(shù)據(jù)的多樣性以及根據(jù)模型初步學(xué)習(xí)結(jié)果的迭代反饋進(jìn)行調(diào)整。

3.3 評(píng)估指標(biāo)

準(zhǔn)確率是問(wèn)答系統(tǒng)的常用評(píng)估指標(biāo),計(jì)算可表示為

accuracy(Q)=pn

(6)

其中:p表示模型輸出的正確答案;n表示模型的所有輸出。

在MetaQA數(shù)據(jù)集上,為確保評(píng)估的公平性和可比性,本研究引入了兩類(lèi)模型進(jìn)行對(duì)比分析。

首先,實(shí)驗(yàn)采用了目前表現(xiàn)較好的基線(xiàn)模型,這些模型均在完全監(jiān)督的環(huán)境中構(gòu)建,如KV-Mem[26]、GraftNet[27]、EmbedKGQA[28]、NSM[29]以及UniKGQA[30]。這些模型提供了堅(jiān)實(shí)的基準(zhǔn),用于評(píng)估其他模型在相同任務(wù)上的性能。其次,為探索大語(yǔ)言模型在知識(shí)圖譜推理任務(wù)中的潛力,也對(duì)少樣本條件下的模型進(jìn)行了評(píng)估,包括ChatGPT[12]、StructGPT[13]、KG-Agent[31]和 KG-GPT[12]模型。

同時(shí),HL-GPT框架在醫(yī)療和航空兩個(gè)具體場(chǎng)景進(jìn)行了實(shí)驗(yàn),以全面評(píng)估框架的泛化能力。在醫(yī)療數(shù)據(jù)集上,與EmbedKGQA、Transfer-Net[32]和 COKG-QA[21]模型進(jìn)行了對(duì)比;在航空數(shù)據(jù)集上,則與T5-large+KG[23]和KITLM[23]模型進(jìn)行了性能比較。

此外,HL-GPT框架在開(kāi)放領(lǐng)域NLPCC-MH數(shù)據(jù)集上進(jìn)行了測(cè)試,并與DPQA[24]模型及一個(gè)融合模型進(jìn)行了比較。該融合模型結(jié)合了基于BiLSTM-CRF的實(shí)體識(shí)別模型[33]和使用seq2seq的關(guān)系預(yù)測(cè)模型[34](后文中標(biāo)記為seq2seq[24])。

3.4 結(jié)果分析

HL-GPT框架在MetaQA、COKG-DATA和AeroQA三個(gè)知識(shí)圖譜問(wèn)答數(shù)據(jù)集上進(jìn)行了測(cè)試,這些測(cè)試覆蓋了不同的應(yīng)用場(chǎng)景。在MetaQA數(shù)據(jù)集上,HL-GPT采用了12個(gè)樣本的提示學(xué)習(xí)策略,在三個(gè)任務(wù)(1-hop、2-hop、3-hop)中準(zhǔn)確率分別達(dá)到了99.94%、98.33%和97.75%,如表2所示。HL-GPT與完全監(jiān)督模型KV-Mem相比,在三個(gè)任務(wù)中的準(zhǔn)確性分別提升了3.74、15.63和48.85百分點(diǎn)。相較于流行的模型如NSM和UniKGQA,HL-GPT有一定的提升。具體來(lái)看,KV-Mem模型通過(guò)改進(jìn)的鍵值記憶神經(jīng)網(wǎng)絡(luò)增加了停止策略和查詢(xún)更新機(jī)制,提高了單跳問(wèn)題處理的靈活性和效率。然而,在執(zhí)行多跳推理時(shí),其模型結(jié)構(gòu)可能因信息覆蓋不足而限制了深層次關(guān)系的推理能力。相比之下,HL-GPT通過(guò)分層語(yǔ)義解析的設(shè)計(jì),更有效地管理和利用多層關(guān)系信息,避免了信息丟失問(wèn)題。GraftNet和EmbedKGQA模型在處理特定的知識(shí)圖譜結(jié)構(gòu)時(shí)表現(xiàn)優(yōu)異。GraftNet通過(guò)構(gòu)建與問(wèn)題密切相關(guān)的子圖并利用圖卷積網(wǎng)絡(luò)提取答案,而EmbedKGQA則利用知識(shí)圖譜嵌入技術(shù)從預(yù)設(shè)鄰域中篩選答案。這兩種方法都高度依賴(lài)于實(shí)體鏈接和文本檢索的準(zhǔn)確性,或者是知識(shí)圖譜嵌入的質(zhì)量。HL-GPT通過(guò)整合大語(yǔ)言模型的預(yù)訓(xùn)練知識(shí)和結(jié)構(gòu)化信息處理能力,克服了單純依賴(lài)知識(shí)圖譜結(jié)構(gòu)或文本的局限。盡管NSM和UniKGQA模型在某些情況下實(shí)現(xiàn)了語(yǔ)義匹配的優(yōu)化,但它們?cè)谔幚泶笠?guī)模知識(shí)圖譜或復(fù)雜多跳推理任務(wù)時(shí)仍然面臨挑戰(zhàn)。NSM模型依賴(lài)于雙向推理和教師網(wǎng)絡(luò)的中間監(jiān)督信號(hào),而UniKGQA通過(guò)預(yù)訓(xùn)練語(yǔ)言模型實(shí)現(xiàn)語(yǔ)義匹配,這在數(shù)據(jù)噪聲較大或知識(shí)圖譜規(guī)模龐大時(shí)可能導(dǎo)致性能下降。HL-GPT則通過(guò)提示學(xué)習(xí)策略和分層推理,有效地提升了模型在復(fù)雜推理任務(wù)中的魯棒性和準(zhǔn)確度。

同時(shí),HL-GPT在所有任務(wù)中均超過(guò)了表2中的大語(yǔ)言模型方法。與使用相同樣本數(shù)量的KG-GPT相比,HL-GPT在三個(gè)任務(wù)中準(zhǔn)確率分別提高了3.64、3.93和3.75百分點(diǎn)。具體來(lái)看,StructGPT 使用迭代閱讀推理(IRR)方法增強(qiáng)了對(duì)結(jié)構(gòu)化數(shù)據(jù)的處理能力,但其性能強(qiáng)依賴(lài)于數(shù)據(jù)操作接口,且在處理大規(guī)模數(shù)據(jù)集或復(fù)雜查詢(xún)時(shí)計(jì)算成本較高。KG-Agent 通過(guò)整合多功能工具箱和基于知識(shí)圖譜的執(zhí)行器增強(qiáng)推理決策能力,但效果受限于工具精確性和數(shù)據(jù)整合質(zhì)量。KG-GPT 利用大型語(yǔ)言模型進(jìn)行知識(shí)圖譜推理,包括句子分割、圖譜檢索和推理,但在處理復(fù)雜任務(wù)或數(shù)據(jù)不足時(shí)可能因依賴(lài)上下文和數(shù)據(jù)質(zhì)量面臨挑戰(zhàn)。

通過(guò)對(duì)實(shí)驗(yàn)結(jié)果的進(jìn)一步分析,將HL-GPT的優(yōu)勢(shì)歸納為以下兩點(diǎn):a)分層語(yǔ)義解析方法通過(guò)逐層解析多跳問(wèn)題中的關(guān)系,有效管理和利用實(shí)體間的復(fù)雜層級(jí)關(guān)系,從而更精確地理解和回答問(wèn)題;b)HL-GPT有效地利用了大語(yǔ)言模型的廣泛預(yù)訓(xùn)練知識(shí),結(jié)合少量樣本的提示學(xué)習(xí)策略,使得模型能夠有效地分解并逐步深入地理解多跳問(wèn)題。

在COKG-DATA數(shù)據(jù)集上,HL-GPT在三個(gè)任務(wù)(1-hop、2-hop、3-hop)中的準(zhǔn)確率分別達(dá)到了99.99%、99.53%和99.08%,如表3所示。

與基線(xiàn)模型COKG-QA相比,HL-GPT在三個(gè)任務(wù)中的準(zhǔn)確率分別提升了4.24、6.63和1.78百分點(diǎn)。具體來(lái)看,COKG-QA模型使用嵌入投影和結(jié)構(gòu)信息技術(shù),將實(shí)體、架構(gòu)和問(wèn)題統(tǒng)一到同一語(yǔ)義空間中,提高答案的準(zhǔn)確性。然而,在處理復(fù)雜或變化的語(yǔ)義結(jié)構(gòu)時(shí),模型性能可能受到實(shí)體識(shí)別錯(cuò)誤或嵌入不準(zhǔn)確的影響。此外,與TransferNet模型相比,HL-GPT在處理邏輯復(fù)雜度逐漸增加的任務(wù)中表現(xiàn)出更高的穩(wěn)定性。例如,在3-hop任務(wù)中,TransferNet的準(zhǔn)確率僅為11.50%,其表現(xiàn)不佳主要是由于在COKG-DATA數(shù)據(jù)集中,3-hop訓(xùn)練數(shù)據(jù)量較少,這導(dǎo)致模型在學(xué)習(xí)到足夠的多層次關(guān)系時(shí)存在困難。這一對(duì)比突顯了HL-GPT在處理各種復(fù)雜程度問(wèn)題時(shí)的顯著穩(wěn)定性。在A(yíng)eroQA數(shù)據(jù)集上,HL-GPT在1-hop和2-hop任務(wù)中的準(zhǔn)確率分別達(dá)到了96.05%和75.85%,如表4所示。

與基線(xiàn)模型KITLM相比,HL-GPT在這兩個(gè)任務(wù)中的表現(xiàn)分別提升了9.99和32.33百分點(diǎn)。這表明HL-GPT在航空領(lǐng)域問(wèn)答任務(wù)中具備出色的適應(yīng)性和準(zhǔn)確度。特別是在更復(fù)雜的2-hop任務(wù)中,其分層語(yǔ)義解析和優(yōu)化的推理機(jī)制使得模型能夠有效整合和處理航空領(lǐng)域的復(fù)雜信息,從而在多步驟邏輯推理任務(wù)中實(shí)現(xiàn)更高的準(zhǔn)確率。

在NLPCC-MH數(shù)據(jù)集上,HL-GPT在兩個(gè)任務(wù)中的準(zhǔn)確率分別達(dá)到了75.91%和69.56%,如表5所示。

與基線(xiàn)模型DPQA相比,HL-GPT在2-3hop任務(wù)中的表現(xiàn)提升了9.8百分點(diǎn)。具體來(lái)看,DPQA模型利用動(dòng)態(tài)規(guī)劃全局優(yōu)化答案選擇,有效解決了多跳問(wèn)答問(wèn)題,但其高度依賴(lài)數(shù)據(jù)的組織和質(zhì)量,特別是在復(fù)雜查詢(xún)中需精確的實(shí)體鏈接和數(shù)據(jù)完整性。相反,HL-GPT能夠在有限樣本中進(jìn)行泛化,顯著提升模型在開(kāi)放領(lǐng)域問(wèn)題推理的靈活性和準(zhǔn)確性。

3.5 不同模型回答效果展示

本研究已經(jīng)通過(guò)定量方法展示了不同模型在標(biāo)準(zhǔn)數(shù)據(jù)集上的準(zhǔn)確率。然而,為了更全面地評(píng)估這些模型在實(shí)際應(yīng)用場(chǎng)景中的效果,表6通過(guò)展示具體的使用實(shí)例,將進(jìn)一步說(shuō)明模型的實(shí)際應(yīng)用效果和答案的可解釋性。

對(duì)于問(wèn)題1,傳統(tǒng)模型僅列出了與Craig Stevens主演的電影相關(guān)的編劇名單。相比之下,HL-GPT不僅提供了編劇的名字,還明確指出了他們各自所撰寫(xiě)的電影。例如,“Buchanan Rides Alone”由Jonas Ward編寫(xiě),而“Martin Berkeley和William Alland”合作撰寫(xiě)了“The Deadly Mantis”。這種回答方法不僅提供了詳細(xì)的上下文信息,而且顯著提高了答案的可解釋性和實(shí)用性。對(duì)于問(wèn)題2,傳統(tǒng)模型只給出了藥品的一般分類(lèi),如基本藥物、醫(yī)保工傷用藥和處方藥。而HL-GPT則詳細(xì)列出了具體藥物——阿奇霉素片和頭孢克洛顆粒,并詳細(xì)描述了它們的分類(lèi),這是傳統(tǒng)模型所未涉及的。HL-GPT的回答不僅更為詳盡,還通過(guò)精確闡述藥物在醫(yī)療保險(xiǎn)體系中的分類(lèi),幫助用戶(hù)更全面地理解藥物的適用范圍和保險(xiǎn)覆蓋情況。這對(duì)于用戶(hù)在考慮藥物成本和可獲得性時(shí)作出明智決策極為重要。

3.6 消融實(shí)驗(yàn)

3.6.1 HL-GPT框架對(duì)準(zhǔn)確率的影響

為評(píng)估HL-GPT框架的有效性,在MetaQA數(shù)據(jù)集的不同復(fù)雜程度的任務(wù)上進(jìn)行了消融實(shí)驗(yàn),以探討框架對(duì)問(wèn)答準(zhǔn)確率的影響,如圖2所示。

與ChatGPT相比,引入HL-GPT框架后,模型在不同任務(wù)(1-hop、2-hop、3-hop)中準(zhǔn)確率分別提升了39.94、75.33和59.05百分點(diǎn)。隨著問(wèn)題的跳數(shù)增加,ChatGPT的準(zhǔn)確率明顯降低,而HL-GPT(ChatGPT)則保持了較高的準(zhǔn)確率。這些結(jié)果突出了框架在增強(qiáng)模型的問(wèn)題解析能力和推理準(zhǔn)確性中的關(guān)鍵作用。

3.6.2 樣本數(shù)量對(duì)準(zhǔn)確率的影響

為評(píng)估模型大小和學(xué)習(xí)樣本量對(duì)HL-GPT準(zhǔn)確率的影響,在MetaQA(3_hop)數(shù)據(jù)集上進(jìn)行了消融實(shí)驗(yàn),隨機(jī)選取了2 000個(gè)測(cè)試數(shù)據(jù),如圖3所示。

在樣本較少時(shí),大型模型ChatGPT的準(zhǔn)確率優(yōu)于小型模型ChatGLM3-6B。隨著樣本數(shù)量的增加,兩者的準(zhǔn)確率均得到提升,尤其是在樣本數(shù)量達(dá)到12時(shí),性能幾乎達(dá)到峰值。這種現(xiàn)象是由于在這一特定樣本量下,模型達(dá)到了學(xué)習(xí)效率和泛化能力的最佳平衡。當(dāng)樣本數(shù)量少于這一閾值時(shí),模型沒(méi)有足夠的信息來(lái)捕獲任務(wù)的全部復(fù)雜性,導(dǎo)致無(wú)法形成有效的推廣;而樣本數(shù)量過(guò)多時(shí),則可能引入噪聲或?qū)е履P瓦^(guò)擬合,影響其在未見(jiàn)數(shù)據(jù)上的表現(xiàn)。為了進(jìn)一步優(yōu)化模型并減少對(duì)樣本數(shù)量的依賴(lài),未來(lái)的研究可以探索使用嵌入技術(shù)動(dòng)態(tài)選擇與新問(wèn)題最相關(guān)的樣本進(jìn)行學(xué)習(xí)的策略。

4 結(jié)束語(yǔ)

本文提出了一種分層語(yǔ)義解析的知識(shí)圖譜問(wèn)答框架HL-GPT,解決了多跳問(wèn)答中深層語(yǔ)義結(jié)構(gòu)和多步推理限制的問(wèn)題,進(jìn)一步提升了回答的準(zhǔn)確性和可解釋性。HL-GPT框架首先通過(guò)大語(yǔ)言模型進(jìn)行分層語(yǔ)義解析,逐步提取問(wèn)題中的實(shí)體和多層關(guān)系。接著,通過(guò)微調(diào)嵌入模型,將問(wèn)題中的邏輯關(guān)系準(zhǔn)確映射到知識(shí)圖譜中,建立清晰的邏輯路徑。最后,利用大語(yǔ)言模型結(jié)合背景知識(shí)和問(wèn)題進(jìn)行推理,生成準(zhǔn)確且可解釋的答案。在MetaQA、COKG-DATA、AeroQA和NLPCC-MH四個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果證明了本框架的有效性。未來(lái)研究可以在此基礎(chǔ)上探索更多細(xì)化語(yǔ)義解析的方法,進(jìn)一步提高模型的準(zhǔn)確率和可解釋性。

參考文獻(xiàn):

[1]王昊奮, 丁軍, 胡芳槐, 等. 大規(guī)模企業(yè)級(jí)知識(shí)圖譜實(shí)踐綜述[J]. 計(jì)算機(jī)工程, 2020, 46(7): 1-13. (Wang Haofen, Ding Jun, Hu Fanghuai, et al. Survey on large scale enterprise-level knowledge graph practices[J]. Computer Engineering, 2020, 46(7): 1-13.)

[2]薩日娜, 李艷玲, 林民. 知識(shí)圖譜推理問(wèn)答研究綜述[J]. 計(jì)算機(jī)科學(xué)與探索, 2022, 16(8): 1727-1741. (Sa Rina, Li Yanling, Lin Min. Survey of question answering based on knowledge graph reasoning[J]. Journal of Frontiers of Computer Science and Technology, 2022, 16(8): 1727-1741.)

[3]陳成, 陳躍國(guó), 劉宸, 等. 意圖知識(shí)圖譜的構(gòu)建與應(yīng)用[J]. 大數(shù)據(jù), 2020, 6(2): 57-68. (Chen Cheng, Chen Yueguo, Liu Chen, et al. Constructing and analyzing intention knowledge graphs[J]. Big Data Research, 2020, 6(2): 57-68.)

[4]晉艷峰, 黃海來(lái), 林沿錚, 等. 基于知識(shí)表示學(xué)習(xí)的KBQA答案推理重排序算法[J]. 計(jì)算機(jī)應(yīng)用研究, 2024, 41(7): 1983-1991. (Jin Yanfeng, Huang Hailai, Lin Yanzheng, et al. KBQA answer inference re-ranking algorithm based on knowledge representation learning[J]. Application Research of Computers, 2024, 41(7): 1983-1991.)

[5]吳天波, 周欣, 程軍軍, 等. 基于位置和注意力聯(lián)合表示的知識(shí)圖譜問(wèn)答[J]. 計(jì)算機(jī)工程, 2022, 48(8): 98-104,112. (Wu Tianbo, Zhou Xin, Cheng Junjun, et al. Knowledge graph question-answering based on joint location and attention representation[J]. Computer Engineering, 2022, 48(8): 98-104,112.)

[6]Luo Kangqi, Lin Fengli, Luo Xusheng, et al. Knowledge base question answering via encoding of complex query graphs[C]//Proc of the 59th Conference on Empirical Methods in Natural Language Proces-sing. Stroudsburg, PA: Association for Computational Linguistics, 2018: 2185-2194.

[7]Lan Yunshi, Jiang Jing. Query graph generation for answering multi-hop complex questions from knowledge bases[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2020.

[8]Lan Yunshi, He Gaole, Jiang Jinhao , et al. A survey on complex knowledge base question answering: methods, challenges and solutions[C]//Proc of the 30th International Joint Conference on Artificial Intelligence. San Francisco: Morgan Kaumann, 2021:4483-4491.

[9]Brown T, Mann B, Ryder N, et al. Language models are few-shot learners[J]. Advances in Neural Information Processing Systems, 2020, 33: 1877-1901.

[10]Ouyan Long , Wu J, Jiang Xu , et al. Training language models to follow instructions with human feedback[J]. Advances in Neural Information Processing Systems, 2022, 35: 27730-27744.

[11]Sahoo P, Singh A K, Saha S, et al. A systematic survey of prompt engineering in large language models: techniques and applications[EB/OL]. (2024-02-05). https://arxiv.org/abs/2402.07927.

[12]Kim J, Kwon Y, Jo Y, et al. KG-GPT: a general framework for reasoning on knowledge graphs using large language models[C]//Findings of the Association for Computational Linguistics: EMNLP 2023. Stroudsburg, PA: Association for Computational Linguistics, 2023: 9410-9421.

[13]Jiang Jinhao, Zhou Kun, Dong Zican, et al. StructGPT: a general framework for large language model to reason over structured data[C]//Proc of Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2023: 9237-9251.

[14]Liu Pengfei, Yuan Weizhe, Fu Jinlan, et al. Pre-train, prompt, and predict: a systematic survey of prompting methods in natural language processing[J]. ACM Computing Surveys, 2023, 55(9): 195.

[15]Schick T, Schütze H. It’s not just size that matters: small language models are also few-shot learners[C]//Proc of Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: Association for Computational Linguistics, 2021: 2339-2352.

[16]Pan Shirui, Luo Linhao, Wang Yufei, et al. Unifying large language models and knowledge graphs: a roadmap[J]. IEEE Trans on Knowledge and Data Engineering, 2024, 36(7): 3580-3599.

[17]Lukovnikov D, Fischer A, Lehmann J. Pretrained Transformers for simple question answering over knowledge graphs[C]//Proc of Semantic Web-ISWC. Cham: Springer, 2019: 470-486.

[18]Yasunaga M, Ren Hongyu, Bosselut A, et al. QA-GNN: reasoning with language models and knowledge graphs for question answering[C]//Proc of Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: Association for Computational Linguistics, 2021: 535-546.

[19]Zhang Miao, Dai Rufeng, Dong Ming, et al. DRLK: dynamic hierarchical reasoning with language model and knowledge graph for question answering[C]//Proc of Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2022: 5123-5133.

[20]Zhang Yuyu, Dai Hanjun, Kozareva Z, et al. Variational reasoning for question answering with knowledge graph[C]//Proc of the AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2018.

[21]Miller A, Fisch A, Dodge J, et al. Key-value memory networks for directly reading documents[C]//Proc of Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2016: 1400-1409.

[22]Du Huifang, Le Zhongwen, Wang Haofen, et al. COKG-QA: multi-hop question answering over COVID-19 KnowledgeGraphs[J]. Data Intelligence, 2022, 4(3): 471-492.

[23]Agarwal A, Gawade S, Azad A P, et al. KITLM: domain-specific knowledge Integration into language models for question answering[EB/OL]. (2023-08-07). https://arxiv.org/abs/2308.03638.

[24]王玥, 張日崇. 基于動(dòng)態(tài)規(guī)劃的知識(shí)庫(kù)問(wèn)答方法[J]. 鄭州大學(xué)學(xué)報(bào):理學(xué)版, 2019, 51(4): 37-42. (Wang Yue, Zhang Richong. Question answering over knowledge base with dynamic programming[J]. Journal of Zhengzhou University:Natural Science Edition, 2019, 51(4): 37-42.)

[25]Zeng Aohan , Liu Xiao , Du Zhengxiao , et al. GLM-130B: an open bilingual pre-trained model[C]//Proc of the 11th International Conference on Learning Representations. Washington DC: ICLR, 2022.

[26]Xu Kun, Lai Yuxuan, Feng Yansong, et al. Enhancing key-value memory neural networks for knowledge based question answering[C]//Proc of Conference of the NAACL-HLT. Stroudsburg, PA: Association for Computational Linguistics, 2019: 2937-2947.

[27]Sun Haitian, Dhingra B, Zaheer M, et al. Open domain question answering using early fusion of knowledge bases and text[C]//Proc of Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2018: 4231-4242.

[28]Saxena A, Tripathi A, Talukdar P. Improving multi-hop question answering over knowledge graphs using knowledge base embeddings[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2020: 4498-4507.

[29]He Gaole, Lan Yunshi, Jiang Jing, et al. Improving multi-hop knowledge base question answering by learning intermediate supervision signals[C]//Proc of the 14th ACM International Conference on Web Search and Data Mining. New York: ACM Press, 2021: 553-561.

[30]Jiang Jinhao, Zhou Kun, Zhao W X, et al. UniKGQA: unified retrieval and reasoning for solving multi-hop question answering over knowledge graph[EB/OL]. (2022-12-02). https://arxiv.org/abs/2212.00959.

[31]Jiang Jinhao, Zhou Kun, Zhao W X, et al. KG-Agent: an efficient autonomous agent framework for complex reasoning over knowledge graph[EB/OL]. (2024-02-17). https://arxiv.org/abs/2402.11163.

[32]Shi Jiaxin, Cao Shulin, Hou Lei, et al. TransferNet: an effective and transparent framework for multi-hop question answering over relation graph[C]//Proc of Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2021: 4149-4158.

[33]Lample G, Ballesteros M, Subramanian S, et al. Neural architectures for named entity recognition[EB/OL]. (2016-04-07). https://arxiv.org/abs/1603.01360.

[34]Ilya S, Oriol V, Le Q V. Sequence to sequence learning with neural networks[C]//Proc of the 27th International Conference on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2014:3104-3112.

主站蜘蛛池模板: 国产成人综合久久精品下载| 在线日韩日本国产亚洲| 有专无码视频| 欧美在线一级片| 国产一区二区福利| 一级在线毛片| 亚洲综合极品香蕉久久网| 国产精品一区二区不卡的视频| 日本手机在线视频| 亚洲成综合人影院在院播放| AV不卡在线永久免费观看| 国内精品伊人久久久久7777人| 亚洲天堂成人| 欧美午夜一区| 国产大全韩国亚洲一区二区三区| 国产福利观看| 喷潮白浆直流在线播放| 精品国产99久久| 亚洲swag精品自拍一区| 午夜激情福利视频| 九九线精品视频在线观看| 免费a级毛片18以上观看精品| 黄片一区二区三区| 成人国产一区二区三区| 亚洲国产成人久久精品软件| 国产黄色爱视频| 亚洲乱伦视频| 国产性精品| 精品欧美视频| 亚洲人成影院在线观看| 国产精品网曝门免费视频| 成人福利一区二区视频在线| 亚洲精品成人7777在线观看| 亚洲中文久久精品无玛| 中文字幕欧美日韩| 日韩在线播放中文字幕| 91激情视频| 波多野衣结在线精品二区| 狠狠五月天中文字幕| 国产亚洲欧美在线中文bt天堂| 精品天海翼一区二区| 国产91熟女高潮一区二区| 亚洲男人天堂久久| 麻豆精品在线| 欧美视频免费一区二区三区| 国产chinese男男gay视频网| 国产精品免费福利久久播放| 青草国产在线视频| 亚洲国产精品无码久久一线| 啪啪免费视频一区二区| 中文字幕中文字字幕码一二区| 日韩精品亚洲人旧成在线| 欧美在线免费| 国产精品va免费视频| 美女国内精品自产拍在线播放| 国产AV无码专区亚洲精品网站| 国产99在线| 农村乱人伦一区二区| 久久久久国产一级毛片高清板| 欧美精品亚洲精品日韩专| 99在线观看精品视频| 欧美精品在线免费| 国产91av在线| 91精品视频在线播放| 国产精品冒白浆免费视频| 蝴蝶伊人久久中文娱乐网| 日韩福利在线观看| 欧美国产精品不卡在线观看| 天堂中文在线资源| 亚洲国产中文综合专区在| 日本道综合一本久久久88| 五月天福利视频| 精品伊人久久大香线蕉网站| 亚洲无码91视频| 天堂亚洲网| 色九九视频| 亚洲欧美成人综合| 国产成人1024精品| 丝袜美女被出水视频一区| 尤物国产在线| 亚洲色图综合在线| 熟妇人妻无乱码中文字幕真矢织江|