999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

聊天式數(shù)據(jù)查詢的技術(shù)方案探討

2019-10-21 12:38:03王悅林
關(guān)鍵詞:語義解決方案文本

王悅林

摘要:人工智能領(lǐng)域近年發(fā)展十分迅猛,其中自然語言處理(NLP)領(lǐng)域從2016年起進(jìn)入高速發(fā)展期,以BERT為代表的各種新模型層出不窮,解決了文本數(shù)據(jù)分析和信息提取的問題。其中有一個(gè)子領(lǐng)域,即NL2SQL領(lǐng)域,是解決如何用自然語言問句進(jìn)行數(shù)據(jù)庫查詢的問題。具體方案是通過語義解析,將自然語言問句翻譯成SQL,再送到數(shù)據(jù)庫中進(jìn)行查詢,大大降低了數(shù)據(jù)查詢的難度,提升了交互友好度和查詢效率。本文探討具體的技術(shù)解決方案。

正文

NL2SQL領(lǐng)域目前的數(shù)據(jù)集英文以WikiSQL和Spider為主,中文有追一科技提供的競賽數(shù)據(jù)集。WikiSQL數(shù)據(jù)集支持單表、單列、多Where子句查詢,現(xiàn)有模型可以較好地支持。而耶魯大學(xué)提供的Spider數(shù)據(jù)集要求支持Group By、Order By、Having,還需要Join不同表,這更貼近于真實(shí)場景,也帶來了更大的難度。追一科技的競賽數(shù)據(jù)集的難度介于兩者之間,要求支持多列查詢,支持多Where子句間不同操作符操作。本文以追一科技數(shù)據(jù)集的難度為準(zhǔn),探討解決方案。

1.主流模型

目前業(yè)內(nèi)的三大技術(shù)解決方案依次是SQLnet,SQLova和X-SQL,其中X-SQL在WikiSQL數(shù)據(jù)集上測試效果最好,但仍然滿足不了追一科技數(shù)據(jù)集的要求。我們主要參考后兩個(gè)模型,提出我們的解決方案。

2.方案思路

解決此問題有兩大思路,增強(qiáng)學(xué)習(xí)和解耦任務(wù)。增強(qiáng)學(xué)習(xí)是端到端的解決方案,比較先進(jìn),但實(shí)際應(yīng)用尚不成熟,達(dá)不到準(zhǔn)確率的要求。因此解耦任務(wù)的思路成為首選。解耦的思路是將任務(wù)拆解為8個(gè)子任務(wù),分別是

Select-Number:選擇幾列

Select-Column:選擇哪一列

Select-Aggregation:使用什么聚合函數(shù)

Where-Number:有幾個(gè)條件

Where-Column:篩選條件是針對哪幾列

Where-Operator:各個(gè)條件的操作符

Where-Value:各個(gè)條件的條件值

Where-Operator:各個(gè)條件之間的關(guān)系。

為了將整體準(zhǔn)確度提升到80%以上,需要8個(gè)子任務(wù)的平均準(zhǔn)確度達(dá)到97.5%,這對方案提出了非常高的要求。

整體解決方案分為三部分:語義解析模塊、執(zhí)行引導(dǎo)模塊和SQL增強(qiáng)模塊。以下分別加以說明。

3.語義解析模塊

語義解析模塊是整個(gè)解決方案最重要的部分,共分為三個(gè)層次:編碼層、語義增強(qiáng)層和輸出層。

編碼層采用2019年7月由Facebook公司推出的RoBERTa作為基礎(chǔ)預(yù)訓(xùn)練模型。和2018年10月谷歌公司推出的BERT相比,此模型在CoLA和SST-2兩項(xiàng)任務(wù)中分別領(lǐng)先16個(gè)百分點(diǎn)和3個(gè)百分點(diǎn)。而這兩個(gè)任務(wù)是評判文本語義解析能力的重要指標(biāo)。RoBERTa已經(jīng)有支持中文的版本。

我們也考慮了其它的可能性,例如MT-DNN,XLnet,ERNIE2.0和DistilBERT,經(jīng)過對可行性的分析和對性能的比較,最終選用RoBERTa。

語義增強(qiáng)層的思路是將問題的文本表示和組成數(shù)據(jù)列的token的文本表示進(jìn)行融合,將融合后的結(jié)果結(jié)合注意力機(jī)制,然后進(jìn)行數(shù)學(xué)相加,最后再加上問題的文本表示,以得到數(shù)據(jù)列的文本表示。

其中將問題與token進(jìn)行融合的時(shí)候,加入兩個(gè)多維訓(xùn)練參數(shù)(m*d),以構(gòu)成神經(jīng)網(wǎng)絡(luò)層。那么數(shù)學(xué)上,兩個(gè)多維表示如何變成一個(gè)注意力參數(shù)的呢?問題和token都是((m*d)*(d*1)),點(diǎn)積后成為(m*1)向量,再次轉(zhuǎn)制和點(diǎn)積后成為(1*1)向量,即一個(gè)注意力參數(shù)。

最后再次加上問題的文本表示,是為了增強(qiáng)問題表示的比重,將問題和toke比重由1:1改為2:1,以增強(qiáng)最終效果。此處問題權(quán)重設(shè)為0.5。

到此已經(jīng)增加了一層神經(jīng)網(wǎng)絡(luò)層。在輸出層為所有的子任務(wù)還要再增加一層神經(jīng)網(wǎng)絡(luò)層,以Where Number子任務(wù)為例進(jìn)行說明。這個(gè)子任務(wù)是二分類模型,可選值為1或2,而是否有Where子句由empty column指定。此子任務(wù)增加一層MLP層。其余子任務(wù)由不同的公式加上神經(jīng)網(wǎng)絡(luò)參數(shù)計(jì)算。所有輸出層的損失函數(shù)都是交叉熵?fù)p失函數(shù)。

這些子任務(wù)并不是每個(gè)獨(dú)立進(jìn)行訓(xùn)練,在每一個(gè)batch size里,所有子任務(wù)按順序依次正向傳播,然后計(jì)算損失函數(shù),按照梯度下降原理,進(jìn)行整體反向傳播,更新參數(shù),使整體損失函數(shù)值最低。

4.執(zhí)行引導(dǎo)模塊

執(zhí)行引導(dǎo)模塊參考arxiv.org/abs/1807.03100直接進(jìn)行增強(qiáng),可有效提升執(zhí)行準(zhǔn)確率2%左右。

SQL增強(qiáng)模塊

SQL增強(qiáng)模塊在把生成的SQL送到數(shù)據(jù)庫之前,進(jìn)行調(diào)整如下:

●對于表中的類別型列數(shù)據(jù),需要將生成的列值與數(shù)據(jù)庫里的此列的類別值進(jìn)行相似度匹配,以替換成正確值。例如解析后的Where Value為“黃蜂”,而數(shù)據(jù)庫里的數(shù)據(jù)為“大黃蜂”,則修改為“大黃蜂”。

●如果兩個(gè)Where子句的列名相同,要檢查兩個(gè)Where Value是否相同,相同的話將其中一個(gè)替換為相似度最高的另一個(gè)值。

●如果Where Value里包含中文“和”字,則拆成兩個(gè)值

●如果問題中有中文“或”字,或者兩個(gè)Where子句的列名相同,則兩個(gè)Where子句的關(guān)系為“or”,其它情況均為“and”。

5.總結(jié)

以上是整體設(shè)計(jì)及方案的關(guān)鍵點(diǎn)。綜合以上方案,可以有效提升SQL轉(zhuǎn)化的準(zhǔn)確度,取得較好效果。

參考文獻(xiàn):

[1] Matthew E Peters,Mark Neumann,Mohit Iyyer,Matt Gardner,Christopher Clark,Kenton Lee,and Luke Zettlemoyer.2018.Deep contextualized word representations.arXiv preprint arXiv:1802.05365.

[2] Jason Phang,Thibault Fevry,and Samuel R Bowman.2018. Sentence encoders on stilts:Supplementary training on intermediate labeled-data tasks.arXiv preprint arXiv:1811.01088.

[3] Alec Radford,Karthik Narasimhan,Tim Salimans,and Ilya Sutskever.2018.Improving language understanding by generative pre-training.

[4] Pranav Rajpurkar,Jian Zhang,Konstantin Lopyrev,and Percy Liang.2016.Squad:100,000+ questions for machine comprehension of text.pages 2383–2392.

[5] Aarne Talman and Stergios Chatzikyriakidis.2018.Testing the generalization power of neural network models across nli benchmarks.arXiv preprint arXiv:1810.09774.

(作者單位:聯(lián)想集團(tuán))

猜你喜歡
語義解決方案文本
解決方案和折中方案
語言與語義
在808DA上文本顯示的改善
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
“上”與“下”語義的不對稱性及其認(rèn)知闡釋
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
4G LTE室內(nèi)覆蓋解決方案探討
認(rèn)知范疇模糊與語義模糊
Moxa 802.11n WLAN解決方案AWK-1131A系列
如何快速走進(jìn)文本
語文知識(2014年1期)2014-02-28 21:59:13
主站蜘蛛池模板: 国产成人狂喷潮在线观看2345| 国产毛片不卡| 丁香综合在线| 国产亚洲欧美在线人成aaaa| 欧美色99| 一级不卡毛片| 天天爽免费视频| 成人精品免费视频| 国产成人av一区二区三区| 日韩在线成年视频人网站观看| 亚洲 欧美 偷自乱 图片 | 白丝美女办公室高潮喷水视频| 特级毛片8级毛片免费观看| 毛片网站观看| 九九热免费在线视频| 四虎成人精品| 国产高潮流白浆视频| 国产欧美成人不卡视频| 国产91线观看| 久久久久国产精品嫩草影院| 亚洲成人黄色网址| 2022精品国偷自产免费观看| 日韩小视频网站hq| 无码久看视频| 成人在线综合| 九色在线视频导航91| 自拍亚洲欧美精品| 色爽网免费视频| 在线观看国产小视频| 婷婷午夜影院| 国产一区二区丝袜高跟鞋| 伊人国产无码高清视频| 久久情精品国产品免费| 98超碰在线观看| 在线播放精品一区二区啪视频| 日本精品影院| 国产色婷婷视频在线观看| 91色国产在线| 久久人人97超碰人人澡爱香蕉| 9cao视频精品| 亚洲欧洲自拍拍偷午夜色无码| 亚洲成年网站在线观看| 国产精品一线天| 久久网综合| 国产综合欧美| 亚洲αv毛片| 22sihu国产精品视频影视资讯| 久久久久国产精品嫩草影院| 99热国产这里只有精品9九| 久久久久国产精品嫩草影院| 亚洲第一网站男人都懂| 无码免费试看| aⅴ免费在线观看| 亚洲中文字幕av无码区| 欧美日本不卡| 一级在线毛片| 亚洲女同一区二区| 日本五区在线不卡精品| 人妻丝袜无码视频| 9966国产精品视频| 亚洲日韩AV无码一区二区三区人| 亚洲精品视频在线观看视频| 亚洲视频色图| 丰满的少妇人妻无码区| 亚洲v日韩v欧美在线观看| 91香蕉视频下载网站| 色偷偷综合网| 99精品热视频这里只有精品7| 无码中文AⅤ在线观看| 精品国产aⅴ一区二区三区| 国产国模一区二区三区四区| 在线免费看片a| 亚洲欧洲日产国产无码AV| 国产欧美在线观看一区| www.狠狠| 免费无码网站| 国产成人一区二区| 玖玖精品视频在线观看| 中文字幕乱妇无码AV在线| 黄色网站在线观看无码| www精品久久| 久久亚洲精少妇毛片午夜无码|