999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種面向問答系統的多標簽答案檢索模型

2022-06-24 07:38:24李珊如周巖喬曉輝楊丹青王志剛
電子制作 2022年10期
關鍵詞:單詞模型

李珊如,周巖,喬曉輝,楊丹青,王志剛

(1.河北漢光重工有限責任公司,河北邯鄲,056017;2.河北省雙介質動力技術重點實驗室,河北邯鄲,056017)

0 引言

智能聊天機器人模仿人類的交流能力,使用對話系統技術[1-2]使機器與人類互動?;诓煌袠I的不同需求,聊天機器人的使用框架也不盡相同。一般來說,聊天機器人必須了解人類的意圖,然后預測人類的行為,并做出相應的反應。

聊天機器人的日益普及也導致了這個研究方向在自然語言處理社區中成為熱門課題。例如Facebook人工智能發布了他們最大的開放領域聊天機器人BlenderBot,并將其開源,它包含了更像人類的對話技能,如個性、同理心和常識識別等能力[3]。此外,像XiaoIce、Mitsuku和MILABOT這樣的聊天機器人基于規則[1-2]、基于知識的[3-4]或基于檢索的系統[5-6]的對話管理器來執行類人的屬性。盡管這種對話機器人在過去幾年中取得了顯著的進步,但在對話系統中,距離人類水平的智能還有很長的路要走。在實際應用中,局限于特定知識庫的面向任務的對話系統更為常用。通過與開放域代理集成,構建具有更自然和域外響應的面向任務的聊天機器人更有意義且更合理。除此之外,問答系統[4,10,2]是聊天機器人的核心部件,它需要自動地從檢索到的文檔中獲取用戶詢問的答案。

在本文中,我們提出的模型包括一個了基于注意力的五層編碼器和一個基于標簽的解碼器。具體來說,我們首先將上下文和用戶查詢數據分別提供給字符級和詞級的嵌入層。雙向長短時記憶網絡(BiLSTM)將應用于嵌入層的頂部,這是對循環神經網絡(RNN)的一種改進。BiLSTM的優點是可以在存儲單元中獲取過去的信息。具體來說,我們使用sigmoid函數來確定保留信息的比例,以及需要忘記信息的比例,并使用它來決定RNN的輸出。在第四層,雙向注意力層將上下文向量和用戶查詢向量連接起來,產生查詢感知的表示向量。雙向注意機制是指我們使用context2query和query2context的注意力機制來最小化訓練過程中的語義信息損失。建模層再次利用了BiLSTM對輸入文本進行語義和位置信息建模。為了獲得更高的預測精度,輸出層采用了基于標記的解碼器。

同時,受到文獻[9]的啟發,我們將文檔中的每個詞標記為二進制分類,以確定答案的起始和結束位置。在我們的模型中,我們使用指針網絡[10],根據輸入數據計算輸出的條件概率。我們的任務是僅從給定的上下文查找標記,并從原始上下文使用標記生成答案,在這種情況下,將指針網絡用于我們的任務是一個潛在的理想方案。

1 相關工作

Amrita Saha等人[1]引入了復雜順序問答(CSQA)系統,該系統將問答和對話結合在一起,因此,它可以學習在大規模知識圖的基礎上通過一系列連貫的問題進行聊天。但這個系統在復雜問題上有局限性。為了解決這一問題,作者探索了推理聚合或邏輯函數以及能夠解析復雜問題的更有效的編碼器。在處理間接問題時,可以利用顯性的監督注意力機制。

Sen Hu等人[2]提出了一種狀態轉換框架,將復雜的自然語言問題轉換為語義查詢圖,并通過知識圖將問題的答案與查詢圖匹配,以解決目前在回答復雜問題時存在的局限性。具體來說,首先,作者從問題中識別出實體和變量等節點作為初始狀態。其次,他們提出了連接、合并、擴展和折疊原語操作的條件,以促進狀態轉換過程。再次,利用所提出的MCCNN模型提取實體和關系。最后,利用支持向量機排序的獎勵函數進行狀態轉換,選擇下一個狀態。實驗結果表明,他們的框架比現有的方法在復雜問題上表現更好。但是,在使用折疊操作時,有時會出現一些結構失效、實體鏈接失效、關系提取失效、復雜聚合問題性能低下等問題。

Anusri Pampari等人[3]提出了一種在特定領域和大規模生成問答數據集的方法。該方法將專家現有的注釋用于其他NLP任務。它們為第一個具有大規模的問答對和問題-邏輯形式對的患者特定電子醫療記錄(EMR) 問答數據集做出了貢獻,允許用相應的邏輯形式驗證答案。研究表明,具有符號表示的邏輯形式有助于語料庫的生成。未來的工作可能是使用原始實體的詞匯變體來生成問題-邏輯形式,更多的多重句子推理問題和生成沒有內容相關實體的問題。

Lisa Bauer等人[4]提出了一個問答系統框架,該框架可以有效地執行多跳推理,并使用雙向注意和指針發生器解碼器產生準確和一致的答案。他們還提出了一種算法,可以利用常識知識填補問答系統推理的空白。

Xinya Du和Claire Cardie[6]研究了一種利用共指信息訓練問題生成系統的方法。為了更好地編碼用于段落級問題生成的語言知識,他們提出了用于神經問題生成的門控關聯知識(CorefNQG)。對于問題生成,該生成器將文本輸入作為位置特征嵌入、答案特征嵌入和詞嵌入的連接。

圖1 模型結構與流程

2 模型與方法

■ 2.1 總覽

我們的模型是一個分層的多階段結構,其中包括了基于注意力機制的編碼器和基于標簽的解碼器。作為一種層次結構,我們的注意力編碼器首先將輸入上下文和用戶問題用字符級卷積神經網絡映射每個字符到一個字符向量。然后,我們通過預先訓練的詞嵌入模型將每個單詞映射到一個詞向量。在上下文嵌入層,我們通過BiLSTM網絡獲取每個給定單詞的上下文表示。之后,在注意力流層,模型可以同時獲取上下文和用戶提問向量,并將它們轉換為每個單詞的問題感知特征向量。在模型編碼器部分,首先是建模層,該層部署了一個BiLSTM來進一步提取高級語義特征,并將相應的輸出作為基于標簽的解碼器的輸入,用于我們答案范圍的預測。

■ 2.2 基于注意力機制的編碼器

(1)字符嵌入層。利用神經網絡將每個單詞的字符嵌入到高維向量空間中。其中輸入文本是一維的,輸出是固定大小的向量。輸入上下文的表示形式是{c1,c2,… ,cT}和{q1,q2,… ,qJ}用于輸入用戶問題。

(2) 詞嵌入層。使用預先訓練好的向量進行詞級嵌入。

(3) 上下文嵌入層。取C表示上下文的d維向量序列,Q表示查詢的d維向量序列作為該層的輸入,是以前兩層公路網的輸出。由于我們生成上下文詞向量F和查詢詞向量來服務于下一個雙向注意層,所以在它們的頂部使用了兩個LSTM。

(4) 雙向注意力層。通過將C和S作為輸入上下文標記和輸出上下文標記作為查詢感知向量W來實現雙向注意力機制。這種注意力機制使用Softmax計算權重 w =softmax ((maxcol(S) )∈RT,從而確定用戶問題和上下文之間的最高概率的單詞,生成新的用戶問題向量和上下文向量。

(5) 建模層。使用W作為輸入。使用雙向LSTM,輸出發送到解碼器進行最終的答案預測。

■ 2.3 基于標簽的解碼器

基于標簽的解碼器旨在提取上下文中的文本跨度作為我們的預測答案。傳統上,以往的工作[5]主要把這個問題看作是整個上下文范圍內的多分類任務,模型需要預測上下文概率分布上的開始和結束索引。在我們的工作中,我們提出了一種新穎的方法,將該問題重新建模為多個二元分類任務,并對給定上下文的每個單詞施加一個分類器。

為了實現這一點,給定上下文中的一個單詞,我們使用一個指針網絡[10]來預測當前令牌是否屬于開始索引。類似地,我們建立了一個相同的二進制分類器來預測當前標記是否屬于結束索引。具體來說,給定基于注意的編碼器建模層的輸M,我們通過以下公式計算每個單詞的概率:

其中pi

start和piend表示上下文中預測第i個單詞的概率作為答案文本的開始和結束位置。如果概率超過某個閾值,則將相應的標記賦值為標記1,同樣,如果沒有,則將標記賦值為0。通常,我們將閾值設置為0.5。im是來自建模層的第i個單詞的上下文表示。W為可訓練權矩陣,b為偏置矩陣。

如上所述,不難推測我們的模型是通過交叉熵損失函數進行訓練優化的。具體來說,該模型優化下方的似然函數來識別給定上下文表示C和查詢表示Q的預測答案S的范圍。

3 實驗

■ 3.1 數據集

我們在SQuAD數據集[9]上評估我們的模型,SQUAD是閱讀理解和問答系統的常用研究性數據集,由超過10萬對問題和答案組成,這些問題和答案是通過在500多篇維基百科文章上的眾包手工創建的。每個問題的答案都在相應的文章中,以一段文本[9]的形式出現。創建這個數據集的目的是讓機器能夠讀取上下文并相應地回答問題。

■ 3.2 模型細節

我們的模型的參數設置基本上與基線模型[9]一致,這樣保證了效果對比的公平性。如表1所示,我們將CNN LSTM的隱層大小設為100。詞嵌入維度為100。訓練集以0.5學習率進行學習,并訓練64個輪次。我們使用AdaDelta[2]進行優化。在訓練過程中,保持模型各權重的移動平均,并設定指數衰減率為0.999。在環境配置方面,我們使用一個特斯拉P100 GPU對模型進行了大約8小時的訓練。另外,我們的操作系統是Linux Ubuntu 16.04, Python版本是3.6。

表1 模型細節與實驗設置

■ 3.3 實驗結果

值得注意的是,在我們的實驗中,所有的基線都是單一模型,而不是集成模型。由表2所示,由于缺乏處理高維語義特征的能力,樸素機器學習方法,即邏輯回歸獲得了最低的性能。其他基線模型在EM和F1-score指標方面實現了差不多的實驗結果。先前的最先進的基線模型BiDAF,獲得了68.0 EM和77.3 F1-score。我們的模型分別優于BiDAF的0.5 EM和0.5 F1-score,這有力地證明了我們的模型的有效性。我們的模型取得較好性能的原因是多個二進制分類器能夠在更細粒度的層次上區分特征多樣性。

表2 在SQUAD數據上的實驗結果

BiDAF 68.0 77.3我們的模型 68.9 78.0

4 分析與驗證

■ 4.1 不同的閾值設置

我們在0.3~0.7的范圍內選擇閾值。從表3可以看出,當閾值設置為0.5時,模型的效果最好。說明訓練樣本相對均衡。

表3 不同閾值設定下模型結果

■ 4.2 超參數微調

我們選取了幾個超參數用于模型微調。具體地,我們選擇了不同的LSTM隱層大小和學習率進行參數優化。如表4所示,當LSTM隱層大小為256,學習率為0.5時,模型得到了最先進的結果,這與基線模型的結果一致。

表4 超參數微調

5 結語

本文旨在通過對現有方法的探索和改進來提供問答系統的性能。本文首先從現有文獻中列舉了一些基線框架作為相關工作。之后我們提出了一個多標簽解碼器,這是我們的框架的基本結構。基于編碼器-解碼器模型的改進可能是未來研究中提高性能的一個有前景的方向。在SQUAD數據上的實驗結果驗證了我們模型的有效性。

猜你喜歡
單詞模型
What’s This?
Exercise 1
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
單詞連一連
看圖填單詞
看完這些單詞的翻譯,整個人都不好了
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 婷婷六月激情综合一区| 亚洲一区二区日韩欧美gif| 亚洲一级毛片在线播放| 玖玖精品在线| 伊人天堂网| 91精品综合| 午夜少妇精品视频小电影| 在线看免费无码av天堂的| 亚洲成年人网| 青草娱乐极品免费视频| 亚洲中文字幕av无码区| 狠狠v日韩v欧美v| 强奷白丝美女在线观看| 无码精品国产dvd在线观看9久| 国产乱人乱偷精品视频a人人澡| 日a本亚洲中文在线观看| 欧美日韩免费| 国产女人18水真多毛片18精品 | 很黄的网站在线观看| 国产精品高清国产三级囯产AV| 114级毛片免费观看| 一区二区自拍| 不卡无码网| 精品国产91爱| 天天摸夜夜操| 欧美日韩国产综合视频在线观看| 特级做a爰片毛片免费69| 日本成人精品视频| 国产va视频| 99精品国产自在现线观看| 亚洲精品手机在线| 久久婷婷色综合老司机| 欧美一区精品| 精品少妇人妻无码久久| 国产精品jizz在线观看软件| 91麻豆精品国产高清在线| 1769国产精品免费视频| 亚洲福利一区二区三区| 欧美精品伊人久久| h视频在线播放| 亚洲综合精品香蕉久久网| 日本欧美视频在线观看| 91麻豆国产视频| 欧美日韩理论| 国产日韩AV高潮在线| 精品国产香蕉在线播出| 91伊人国产| 国产人在线成免费视频| 久久99热66这里只有精品一| 特级毛片8级毛片免费观看| 99精品国产高清一区二区| 美女扒开下面流白浆在线试听| 天天色天天操综合网| 免费毛片全部不收费的| 久久久91人妻无码精品蜜桃HD | 91麻豆精品国产91久久久久| 国产精品久线在线观看| 亚洲无限乱码| 久久久精品国产SM调教网站| 国产一区二区三区精品久久呦| 麻豆精品久久久久久久99蜜桃| 天堂va亚洲va欧美va国产| 精品三级在线| 欧美色伊人| 国产一区亚洲一区| 三级国产在线观看| 免费99精品国产自在现线| 欧美成人精品一区二区| 这里只有精品在线播放| 亚洲无码视频一区二区三区| 国产成人精品综合| 草逼视频国产| 亚洲色图在线观看| 亚洲精品久综合蜜| 久久99这里精品8国产| 无码aaa视频| 欧美在线中文字幕| 国产亚洲美日韩AV中文字幕无码成人 | 免费看av在线网站网址| 久久久久久久久久国产精品| 试看120秒男女啪啪免费| 99精品伊人久久久大香线蕉|