999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于領域詞典和Sentence-BERT的智能問答系統

2023-11-06 09:38:28李強偉王鑫陳浩民趙坤仝思凡
電腦知識與技術 2023年25期
關鍵詞:挖掘

李強偉,王鑫,陳浩民,趙坤,仝思凡

(西安工程大學,陜西西安 710600)

0 引言

問答系統是自然語言處理(Natural Language Processing,NLP)領域的重要分支,隨著自然語言處理技術的發展,對問答系統的研究也越來越多。通常認為最早的問答系統理論是由Alan Mathison Turing 提出的圖靈測試[1]。1966 年,由Joseph Weizenbaum 研發的Eliza 系統,是通過模板特征實現的,即通過人工定義對話模板完成問答[2]。

問答系統通常要求以自然語言形式描述的問題為輸入,并輸出一個簡潔的答案或答案列表,而不是一堆相關的文檔。對于問答系統,主要需要解決三個問題:首先,機器需要理解用戶輸入的問題是什么;其次,機器需要根據這些問題的關鍵點檢索并處理相關信息;最后,機器需要將答案返回給用戶。問答系統的關鍵在于提高問題檢索召回的精度和效率,如何合理利用現有模型和方法,達到檢索系統的整體優化和性能提升[3]。目前最受關注的是基于知識圖譜的問答系統,有多種方法可供選擇,包括基于模板、語義解析、向量和深度學習[4]。知識圖譜的問答系統有多種方法來回答問題[5]。其中,基于模板的方法使用預先設計的查詢模板來匹配問題并進行查詢,避免了語義解析的難題[6];基于語義解析的方法則通過分析問題的成分,構建邏輯表達式,并將其轉換為知識圖譜的查詢語言進行查詢。基于向量的方法則利用表示方法將知識圖譜映射到低維向量空間,然后將問題中的實體和關系還原到相同的向量空間,并通過向量之間的距離或相似度來推理答案。最后,基于深度學習的方法則通過神經網絡學習問句和知識圖譜中的語義信息,獲得字向量或詞向量,并使用深度學習模型計算向量之間的相似度并進行排序,以推理問句的答案[7]。Bert 句向量生成指的是通過Bert 生成文本的句向量[8],生成的句向量能準確表征句子的語義。采用生成式的掩碼語言模型(Masked Language Model,MLM),該模型是一種雙向Transformer結構[9]。

原生的Bert 在下游任務中表現出色,但是將其用于句子相似度等任務時,生成的句子向量效果不佳。為了解決這個問題,本文采用了Reimers N 等人[10]在2019 年提出的句子向量計算模型Sentence-BERT 模型。該模型可以獲取句向量,并通過句子向量的Cosine 相似度來衡量文本相似度。此外,文本句子中的冗余部分對相似度計算有很大的影響,特別是在使用詞向量模型時[11]。

因此,本文根據領域知識庫創建了領域詞典[12],它是一種應用于具體領域的信息化工具,能夠從大量語料中抽取出簡潔凝練的詞匯來傳遞某個特定領域的特征信息[13],以過濾冗余信息,支持特定領域的自然語言處理任務。最終,本文總結對句向量與去自然語言冗余的研究,提出了一種基于領域詞典和Sentence-BERT 的快速文本匹配方法,來更高效、更準確地解決問答任務。

1 領域詞典建立

領域詞典構建模型如圖1 所示。首先,進行問答文本的擴展;然后對擴展好的問答文本進行關鍵詞短語的去雜與提取,對標準類庫的問題進行處理得到標準短語并進行擴展,最后整合得到每個問題的相關領域短語。最后,加入原標準問題及對應答案,完成領域詞典的建立。

1.1 問題擴展與關鍵詞提取

對爬取到的原始問題進一步擴展,按照自然語言問法進行數據標注,盡可能地覆蓋所有自然語言問法。并且由此生成后續訓練的問題文本數據集。

關鍵詞語提取是對一類問題(即一個標準問題與其對應的擴展問題組成的問題集)篩選出能代表其問題核心的詞語。首先對所有問題文本進行分詞,使用停用詞表對詞堆進行第一輪篩選,過濾掉大部分詞頻高但是沒有計算意義的詞;其次,對過濾好的詞使用詞頻權重計算,即進行關鍵詞挖掘,最后進行排序,算法如下。

算法1:getkeywords算法

輸入:所有問題分詞形成的詞堆Row,一類問題分詞形成的詞堆W,停用詞表stopwords,計算TF 值模型tf_Cal;計算IDF值模型idf_Cal。

輸出:某類問題的關鍵詞與權重值的字典dict。

1.2 標準詞擴展

通過對標準問題庫的標準問題進行處理,同樣進行分詞和去除停用詞。標準庫中的問題十分精簡,需要對其關鍵詞語進行擴充,迎合自然語言的多樣性,增大領域詞典的處理一詞多義的能力。主要做法是使用哈爾濱工業大學社會計算與信息檢索研究中心研發的“語言技術平臺(LTP)”進行遠程同義詞獲取,再使用HuggingFace 提供的可直接使用的Sentence-Bert 預訓練模型對搜索到的同義詞與1.1.2 獲取的同類問題關鍵詞進行相似性比對,即保證所擴充的同義詞對本問題有意義。

經人工篩選過濾掉抽取錯誤,選擇其中的200 個詞語作為測試語料。設置并比較12組過濾閾值后,最終確定閾值為0.75。在此閾值下,從實驗語料中,共識別出同義詞48組,同義詞識別準確率為50.24%,召回率為65.41%。實驗整體準確率不高、召回率高的原因歸結為詞向量的本質是基于語料的訓練結果,預訓練模型在專業語義方面表現效果不是很好。因此先通過實驗確定閾值μ,然后將原始詞語進行自動識別同義詞,然后人工進行再次驗證并篩選出高質量同義詞形成詞典。

表1 同義詞識別結果舉例

短語擴展算法如下

算法2:標準短語擴展。

輸入:同類標準問題詞語表S;語料庫D;關鍵詞詞堆;詞向量模型tf_Sim;閾值μ。

輸出:擴充詞語表E。

1.3 完善領域詞典

設計領域詞典的基本架構,本詞典的最小單元為一個標準問題,為這些標準問題加上問題編碼和分類編碼。將關鍵詞與擴展詞作為該問題下的相關領域短語集,并整合問題與答案,形成最終的領域詞典。

領域詞典基本信息如下

2 系統構成及問題處理

如圖2 所示,使用領域詞典構建階段產生的問題文本數據集進行模型訓練,得到最終識別問句的Sentence-Bert 詞向量模型。輸入用戶的問題后,先通過之前構建好的領域詞典對其進行冗余過濾,過濾后的問句再放入模型中進行計算返回top1答案。

圖2 模型訓練

2.1 句向量訓練

對詞典構建階段擴展的問題數據集進行處理,劃分為正負樣本作為輸入,使用HuggingFace 提供的Sentence_transformers 進行數據處理,即將單個問題轉化成Bert可識別的InputExmple,并打上正負樣本的標簽,再隨機打亂,按照8∶1 的比例劃分訓練集和測試集。并且以huggingfac 提供的Sentence-BERT 中文預訓練模型uer/sbert-base-chinese-nli為基礎進行訓練。

如圖2所示,把正負樣本喂給預訓練的Sentence-BERT模型,然后獲得每個標記的向量表示,用兩個一樣的BERT模型。把句子1喂給第一個BERT模型,把句子2 喂給第二個BERT 模型,然后計算模型輸出的標記表示的均值(池化)。u,v分別表示輸入的2個句子的向量表示,|u-v|表示取兩個向量的絕對值,(u,v,|u-v|)表示將三個向量在-1 維度進行拼接,因此得到向量的維度為3×d,d表示隱層維度。

令u代表句子1的表示,v代表句子2的表示。然后通過余弦相似計算這兩個向量表示的相似度:Similarity=cos(u,v)。

2.2 系統構成

本系統由領域詞典、句向量模型、問題處理器三部分組成,如圖3所示。領域詞典用于過濾冗余詞、匹配關鍵詞、提供標準問句與回答;句向量模型用于計算去冗余句子的句向量以及該句向量與標準句子的文本相似度;問題處理器用于接受用戶問題并進行文本預處理,調用領域詞典去冗余、調用句向量模型計算文本相似度。

圖3 模型訓練及用戶問題匹配過程

2.3 用戶問題處理

如圖3所示,用戶輸入問題后,先進行分詞,去掉停用詞,剩余的每個詞再與之前構建的領域詞典的每個詞進行文本相似性比對,相似結果大于閾值υ 才可被認定為是有效詞,再將剩余詞拼接起來,使用訓練好的Sentence-BERT 模型將其與標準庫中的標準問題進行文本相似計算,同樣設置閾值a,返回相似度大于a的top1問題,并對應的答案。具體算法如下:

算法3:QueryDealing

輸入:用戶問題Query,領域詞典短語庫W,領域詞典問題答案對DicQAs,詞語相似度閾值e,句向量相似度閾值a,句向量模型Sbert,停用詞表stopwords。

輸出:相似度top1的答案A。

3 實驗及結果分析

本文使用的數據,是通過爬蟲爬取的某文旅網站的游客最關心的92個標準問題,例如幾點開門,能否提前預訂門票等。經過對這些問題進行同類擴展和相似問題爬取,盡可能地覆蓋自然語言問法。最終得到2 027 個問答對的訓練數據集和包含207 個問答對的測試數據集。

3.1 微調Sentence-BERT模型參數

train_loss:該損失函數是將余弦相似度轉化為距離,然后計算誤差,并使用這種差異來更新模型的權重,從而使得模型能夠更好地學習到句子向量之間的相似性關系。

max_grad_norm:用于確保梯度在量級上不會變得太大。1的值確保梯度不超過某個閾值。

weight_decay:權重衰減項,小樣本訓練模型復雜度較低,應設置為較小的值,如0.01,可以在一定程度上避免過擬合。

batch_size:在官方文檔中,提到了在使用sentence_transformer 進行訓練時,建議使用較大的batch size,例如可以使用batch_size=32 或更大。然而由于實驗設備沒有太高的顯存,這里設置為32。

3.2 評估指標

對于短語二分類問題,本文使用準確率P、召回率R 評估模型分類效果。根據真實類別與預測類別可以分為真正類(TP)、真負類(TN)、假正類(FP)、假負類(FN)。準確率、召回率的計算公式如下:

其中,正樣本表示被分類為正類別的樣本,負樣本則表示被分類為負類別的樣本。在二分類問題中,準確率指的是分類器正確分類的樣本數占總樣本數的比例,而召回率則是正類別樣本被正確分類的比例。

由表3可以看出,采用Sentence-BERT+領域詞典方法,其精確度比BERT模型+領域詞典增加了6.9%、比Sentence-BERT 模型增加了2.2%,而召回率比BERT模型+領域詞典提高了8.3%、比Sentence-BERT模型提升了7.1%。總體效果比單獨采用Sentence-BERT模型和BERT模型+領域詞典有所提升。

表3 分類模型性能比較

本文構建的Sentence-BERT+領域詞典的訓練集準確度為93.2%,預測集準確度為91.0%,通過比較BERT+領域字典、Sentence-BERT、Sentence-BERT+領域詞典三種不同的模型,與實驗結果的對比,可以得出以下結論:

1) 當使用領域詞典進行模型擴展時,Sentence-BERT+領域詞典模型可以更好地將特定領域的語法和詞匯考慮到嵌入空間中,從而提高了模型性能。還可以在不同的句子之間建立更準確的相似度關系。相比之下,BERT 模型可能會受到數據稀疏和詞匯多樣性的限制,而且對于基于句子的任務,其表現可能不如Sentence-BERT 模型。因此,Sentence-BERT+領域詞典比BERT 模型+領域詞典更適合處理基于句子的特定領域任務,具有更好的性能。

2)而Sentence-BERT+領域詞典方法,該模型結合了Sentence-BERT 模型和BERT+領域詞典的優點。通過使用帶有Sentence-BERT 的領域特定字典,可以在特定領域主題中以更高的準確度捕獲句子的語義。相比之下,單獨使用Sentence-BERT 模型因為沒有對這些專業自然語言問題語句的冗余部分進行處理,在實驗結果上顯然遜色于有領域詞典的實驗組。因此,使用Sentence-BERT+領域詞典的方法在處理自然語言與專業文本時更有優勢。

3) 總體來說,與傳統的BERT 模型相比,使用Sentence-BERT模型的優點包括更好的句子級語義理解,而使用特定領域的字典可以提高Sentence-BERT模型在特定領域上下文中的準確性。

4 總結

本文提出了一種基于領域詞典和Sentence-BERT的智能問答系統。通過實驗證明,本方法在進行問答自然語言匹配的效果非常好。但是仍在實驗中發現,當兩個不同問題語義非常相近時,領域詞典去問句冗余之后計算的兩個句子仍然十分相近。未來將會嘗試進一步研究通過增添語義的方式更高準確地識別問句。

猜你喜歡
挖掘
高中物理課程資源體系的挖掘與研究
初中英語老師如何充分挖掘學生學習英語的興趣
新一代(2016年17期)2016-12-22 12:24:37
挖掘“文本”空白,讀悟表達補白
東方教育(2016年4期)2016-12-14 08:19:03
挖掘網絡資源推進高中開展綜合實踐活動
創設英語課堂中的德育模式
深入挖掘教學資源 提高課堂教學效率
使德育開花結果
將“再也沒有”帶向更有深度的思考中
古詩詞教學中藝術內涵的挖掘策略
挖掘檔案文化資源推進檔案文化建設
資治文摘(2016年7期)2016-11-23 00:37:46
主站蜘蛛池模板: 中文国产成人久久精品小说| 国产欧美一区二区三区视频在线观看| 久久久久亚洲AV成人人电影软件| AV老司机AV天堂| 丝袜亚洲综合| 婷婷五月在线视频| 怡春院欧美一区二区三区免费| 尤物视频一区| 日韩无码真实干出血视频| 91区国产福利在线观看午夜| 亚洲男人的天堂久久精品| 国产96在线 | 亚洲一区二区三区国产精品| 久久大香伊蕉在人线观看热2| 亚洲综合国产一区二区三区| V一区无码内射国产| 嫩草影院在线观看精品视频| 亚洲国产精品日韩欧美一区| 亚洲天堂网在线观看视频| 伊人久久影视| 亚洲无码A视频在线| 熟妇丰满人妻| 亚洲精品黄| 成人年鲁鲁在线观看视频| 亚洲国产精品一区二区第一页免 | 国产91在线|日本| 日韩亚洲高清一区二区| 99久久无色码中文字幕| 国产成人a在线观看视频| 黄色网站在线观看无码| 久久香蕉国产线看观| 欧美一级特黄aaaaaa在线看片| 精品一区二区久久久久网站| 久久精品丝袜高跟鞋| 97青草最新免费精品视频| 伊人久久大香线蕉综合影视| 免费人成在线观看成人片| 另类综合视频| 久久精品国产一区二区小说| 国产综合无码一区二区色蜜蜜| 伊人久久影视| 国产色爱av资源综合区| 日本亚洲成高清一区二区三区| 露脸国产精品自产在线播| 亚洲精品图区| 亚洲一区二区在线无码| 色婷婷成人网| 午夜一级做a爰片久久毛片| 手机永久AV在线播放| 日韩不卡免费视频| 自拍中文字幕| 免费人成网站在线观看欧美| a级毛片在线免费观看| 茄子视频毛片免费观看| 青青草原偷拍视频| 国产视频只有无码精品| 亚洲婷婷六月| 免费三A级毛片视频| 欧美a在线视频| 国产美女在线观看| 自偷自拍三级全三级视频 | 热热久久狠狠偷偷色男同| 五月丁香在线视频| 九九精品在线观看| 毛片免费试看| 亚洲a级在线观看| 亚洲国产精品日韩专区AV| 久久亚洲综合伊人| 国产午夜小视频| 亚洲高清无码久久久| 国产伦精品一区二区三区视频优播| 久久精品亚洲热综合一区二区| 成人精品视频一区二区在线| 久久狠狠色噜噜狠狠狠狠97视色| www.91中文字幕| 欧美亚洲欧美区| 正在播放久久| 操美女免费网站| 免费aa毛片| 97免费在线观看视频| 国产在线无码一区二区三区| 国内精自视频品线一二区|