999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

循環(huán)神經(jīng)網(wǎng)絡(luò)中基于特征融合的口語理解

2018-10-24 04:39:04張晶晶黃浩胡英吾守爾·斯拉木
現(xiàn)代電子技術(shù) 2018年20期

張晶晶 黃浩 胡英 吾守爾·斯拉木

摘 要: 口語理解(SLU)性能的好壞對口語對話系統(tǒng)有著至關(guān)重要的作用。在對基本循環(huán)神經(jīng)網(wǎng)絡(luò)及其變體長短時記憶(LSTM)網(wǎng)絡(luò)和門限循環(huán)單元(GRU)網(wǎng)絡(luò)結(jié)構(gòu)分析的基礎(chǔ)上,提出一種特征融合的循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。該結(jié)構(gòu)首先把輸入送到隱含層訓(xùn)練得到特征表示;然后該特征信息與源輸入及歷史輸出信息一起送入另一隱含層訓(xùn)練;最后送進(jìn)輸出層得出結(jié)果。對上述不同的循環(huán)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)及提出的模型在ATIS數(shù)據(jù)庫上進(jìn)行口語理解實(shí)驗(yàn)。結(jié)果表明,提出的特征融合的循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的性能要優(yōu)于傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)及其變體結(jié)構(gòu)。

關(guān)鍵詞: 口語理解; 循環(huán)神經(jīng)網(wǎng)絡(luò); 長短時記憶; 門限循環(huán)單元; 特征融合; 自然語言

中圖分類號: TN711?34; TP391 文獻(xiàn)標(biāo)識碼: A 文章編號: 1004?373X(2018)20?0157?04

Abstract: The performance of spoken language understanding (SLU) is of fundamental importance to a spoken language dialogue system. A feature fusion based recurrent neural network structure is proposed on the basis of analyzing the structures of basic recurrent neural network (RNN) and its variants of long short?term memory (LSTM) network and gated recurrent unit (GRU) network. In the structure, the input is sent to the hidden layer and trained to obtain feature representation. The feature information, together with the source input and historical output information, is sent to another hidden layer for training, and then sent to the output layer to obtain results. An SLU experiment was carried out on the ATIS database using the above different recurrent neural network structures and proposed models. The results show that the performance of the feature fusion based recurrent neural network structure is better than that of the conventional recurrent neural network and its variants.

Keywords: SLU; RNN; LSTM; GRU; features fusion; natural language

0 引 言

口語對話系統(tǒng)是由自動語音識別、口語理解(Spoken Language Understanding,SLU)、對話管理和語言生成、語音合成等部分組成[1]。口語理解性能對于口語對話系統(tǒng)作用十分重要。口語理解的研究出現(xiàn)于20世紀(jì)70年代初,經(jīng)過幾十年的發(fā)展,大致可以分為基于知識的方法、數(shù)據(jù)驅(qū)動的方法以及兩者結(jié)合的方法。

隨著神經(jīng)網(wǎng)絡(luò)在自然語言處理領(lǐng)域的成功應(yīng)用,人們開始探索不同的神經(jīng)網(wǎng)絡(luò)的功能。RNN被驗(yàn)證了在解決序列化問題上有著顯著的效果。RNN能夠利用上下文信息,但是,RNN在計算時會出現(xiàn)梯度彌散問題,且對長文本處理效果不佳。針對該問題,Hochreiter 和 Schmidhuber在1997年提出長短時記憶網(wǎng)絡(luò)(Long Short?Term Memory,LSTM)[2],克服了傳統(tǒng)RNN梯度消失和梯度爆炸的問題。2014年, 文獻(xiàn)[3]提出了LSTM的一個變體門限循環(huán)單元(Gated Recurrent Unit,GRU),使得LSTM的結(jié)構(gòu)大大簡化。RNN在解決序列問題上的優(yōu)勢在于網(wǎng)絡(luò)當(dāng)前輸出不僅與當(dāng)前時刻的輸入有關(guān),還與歷史輸出有關(guān)。

本文在RNN,LSTM和GRU神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上提出一種特征融合的循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),實(shí)驗(yàn)結(jié)果表明,對于上述RNN網(wǎng)絡(luò)結(jié)構(gòu),特征融合方法都提高了口語理解性能。

1 口語理解問題

口語理解的目的在于自動識別出用戶口語表達(dá)自然語言的領(lǐng)域、類別和意圖,然后提取出相關(guān)的概念以達(dá)到系統(tǒng)對用戶使用的語言進(jìn)行理解的目的。口語理解主要由領(lǐng)域檢測、意圖識別和槽值填充三部分組成。領(lǐng)域檢測和意圖識別是分類問題,槽值填充是標(biāo)注任務(wù)。槽值填充是對句子中的每一個詞進(jìn)行標(biāo)注。表1給出了對句子進(jìn)行處理的結(jié)果。

表1中,句子中分別標(biāo)注不同的BIO標(biāo)簽,分別表示Beginning, Inside, Outside。B表示詞語的開始;I是中間詞;O表示的是句子中其他詞語,對句子理解沒有實(shí)際的意義。

2 循環(huán)神經(jīng)網(wǎng)絡(luò)及其變體

2.1 基本的循環(huán)神經(jīng)網(wǎng)絡(luò)

2.2 長短時記憶網(wǎng)絡(luò)和門限循環(huán)單元

式中:更新門[zt]是控制當(dāng)前時刻需要遺忘多少歷史信息和接收新的信息;重置門[rt]用來控制從候選狀態(tài)[ht]中有多少信息是從歷史信息[ht-1]中得到。

3 基于特征表示融合方法的循環(huán)神經(jīng)網(wǎng)絡(luò)

3.1 特征表示融合方法循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)分析

特征融合的循環(huán)神經(jīng)網(wǎng)絡(luò)建立在上述RNN(傳統(tǒng)RNN, LSTM以及GRU)網(wǎng)絡(luò)的基礎(chǔ)上,由4層神經(jīng)網(wǎng)絡(luò)組成,其中包含詞嵌入(word embedding)層,兩個隱層和最后的softmax層。其中,第一個隱層可以是不同的RNN結(jié)構(gòu)單元,第二個隱層是[sigmoid]層結(jié)合RNN訓(xùn)練特點(diǎn)對幾種特征信息進(jìn)行融合。具體結(jié)構(gòu)如圖3所示。

特征融合循環(huán)神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)最大特點(diǎn)是在神經(jīng)網(wǎng)絡(luò)模型中的第二個隱含層將4種不同的特征信息進(jìn)行融合。這4種特征信息分別是:上一個隱含層的輸出的特征信息;前一時刻隱含層傳入的歷史信息;源輸入的信息送入隱含層;前一時刻的輸出信息送入隱含層。

這4種特征信息經(jīng)過sigmoid激活函數(shù),對其進(jìn)行特征融合訓(xùn)練得到信息送進(jìn)輸出層。

3.2 特征表示融合方法的工作原理

在上述神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,輸入為[x=(x1,x2,…,xn)],經(jīng)過RNN不同的單元節(jié)點(diǎn)隱含層更新,具體的單元節(jié)點(diǎn)計算方式如第2節(jié)所示,將訓(xùn)練之后的信息傳入第二個隱層,融合4種特征信息進(jìn)行訓(xùn)練。在該隱含層數(shù)據(jù)的訓(xùn)練更新如下:

4 實(shí)驗(yàn)過程及結(jié)果分析

4.1 實(shí)驗(yàn)條件設(shè)置

本文在Linux操作系統(tǒng)服務(wù)器版Ubuntu 16.04上使用Python 2.7.6的theano[8]庫搭建神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)平臺,并使用ATIS數(shù)據(jù)庫進(jìn)行口語理解實(shí)驗(yàn)驗(yàn)證提出方法的有效性。ATIS (Airline Travel Information System)數(shù)據(jù)庫被廣泛地作為口語理解任務(wù)的基準(zhǔn)測試數(shù)據(jù)庫,包含4 978條訓(xùn)練語句,測試集共893條語句,數(shù)據(jù)集共有127個語義槽標(biāo)簽。

4.2 實(shí)驗(yàn)結(jié)果及分析

條件隨機(jī)場(Conditional Random Fields,CRF)[9]是處理序列標(biāo)注最常用的方法,并且在序列處理問題上取得了比較好的效果。本文首先應(yīng)用CRF模型與Elman?RNN,Jordan?RNN,LSTM和GRU在ATIS數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn), 結(jié)果如表2所示。

由表2看出,基本RNN模型Jordan,Elman與CRF模型相比,F(xiàn)1值高出0.19%,1.3%。所以RNN在解決口語理解的序列標(biāo)注問題上更具優(yōu)勢。而RNN變體LSTM和GRU比基本Elman?RNN提高了0.3%和0.57%,故GRU取得了更優(yōu)的性能。

表3給出對Elman?RNN,LSTM和GRU神經(jīng)網(wǎng)絡(luò)進(jìn)行了特征融合的實(shí)驗(yàn)結(jié)果。從表2與表3的比較可以看出,相同的神經(jīng)網(wǎng)絡(luò)單元節(jié)點(diǎn)加入特征融合處理之后,網(wǎng)絡(luò)結(jié)構(gòu)對于實(shí)驗(yàn)處理的效果得到明顯提升。圖4是比較RNN及其變體結(jié)構(gòu)和對應(yīng)的特征融合網(wǎng)絡(luò)結(jié)構(gòu)在ATIS數(shù)據(jù)庫上的訓(xùn)練實(shí)驗(yàn)過程,也可以看出特征融合能夠進(jìn)一步改善實(shí)驗(yàn)的性能,獲得更優(yōu)的口語理解性能。

5 結(jié) 語

針對RNN的口語理解模型提出基于特征融合的口語理解方法。該方法是一個4層的神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu),特點(diǎn)是在第二個隱含層將上一隱層的輸出、前一時刻隱層狀態(tài)、源輸入和歷史輸出4種不同的特征信息進(jìn)行融合訓(xùn)練從而獲得傳遞信息傳向輸出層。在ATIS數(shù)據(jù)庫上的口語理解實(shí)驗(yàn)表明,本文提出的基于特征融合的循環(huán)神經(jīng)網(wǎng)絡(luò)在口語理解實(shí)驗(yàn)上取得了更優(yōu)的性能。

注:本文通訊作者為黃浩。

參考文獻(xiàn)

[1] 俞凱,陳露,陳博,等.任務(wù)型人機(jī)對話系統(tǒng)中的認(rèn)知技術(shù):概念、進(jìn)展及其未來[J].計算機(jī)學(xué)報,2015,38(12):2333?2348.

YU Kai, CHEN Lu, CHEN Bo, et al. Cognitive technology in task?oriented dialogue systems: concepts, advances and future [J]. Chinese journal of computers, 2015, 38(12): 2333?2348.

[2] HOCHREITER S, SCHMIDHUBER J. Long short?term memory [J]. Neural computation, 1997, 9(8): 1735?1780.

[3] CHO K, VAN MERRI?NBOER B, GULCEHRE C, et al. Learning phrase representations using RNN encoder?decoder for statistical machine translation [J/OL]. [2014?09?03]. http://xueshu.baidu.com/s?wd=paperuri%3A%282ba31a0b87d74d2531

7da3521cca2915%29&filter;=sc_long_sign&tn;=SE_xueshusourc?

e_2kduw22v≻_vurl=http%3A%2F%2Farxiv.org%2Fabs%2F1406.1078&ie;=utf?8≻_us=9851577233160611135.

[4] MESNIL G, HE X, DENG L, et al. Investigation of recurrent?neural?network architectures and learning methods for spoken language understanding [J/OL]. [2013?08?01]. https://www.microsoft.com/en?us/research/wp?content/uploads/2016/02/IS13_RNNSLU_cameraready.pdf.

[5] MESNIL G, DAUPHIN Y, YAO K, et al. Using recurrent neural networks for slot filling in spoken language understanding [J]. IEEE/ACM transactions on audio, speech, and language processing, 2015, 23(3): 530?539.

[6] YAO K, ZWEIG G, HWANG M Y, et al. Recurrent neural networks for language understanding [C/OL]. [2014?10?14]. https://www.researchgate.net/publication/266798083_Recurrent_Neural_Networks_for_Language_Understanding.

[7] JOZEFOWICZ R, ZAREMBA W, SUTSKEVER I. An empirical exploration of recurrent network architectures [C]// Proceedings of 32nd International Conference on Machine Learning. Lille: Association for Computing Machinery, 2015: 2342?2350.

[8] AL?RFOU R, ALAIN G, ALMAHAIRI A, et al. Theano: a Python framework for fast computation of mathematical expressions [J/OL]. [2016?05?09]. https://www.researchgate.net/publication/302569301/download.

[9] SUTTON C, MCCALLUM A. An introduction to conditional random fields [J]. Foundations and trends in machine learning, 2011, 4(4): 267?373.

[10] MIKOLOV T, JOULIN A, CHOPRA S, et al. Learning longer memory in recurrent neural networks [J/OL]. [2015?04?16]. https://research.fb.com/wp?content/uploads/2016/11/learning_longer_memory_in_recurrent_neural_networks.pdf?.

[11] HENDERSON M, GA?I? M, THOMSON B, et al. Discriminative spoken language understanding using word confusion networks [C]// Proceedings of IEEE Spoken Language Technology Workshop. Miami: IEEE, 2013: 176?181.

主站蜘蛛池模板: 国产SUV精品一区二区6| 色欲色欲久久综合网| 91精品网站| 精品夜恋影院亚洲欧洲| 午夜视频在线观看区二区| 四虎在线观看视频高清无码| 又猛又黄又爽无遮挡的视频网站| 国产微拍一区二区三区四区| 久久婷婷国产综合尤物精品| 国产精品lululu在线观看| 曰AV在线无码| 日韩二区三区无| 日本精品视频一区二区| 国产浮力第一页永久地址| 亚洲无线国产观看| 小蝌蚪亚洲精品国产| 国产欧美视频综合二区| 成年A级毛片| 国产69囗曝护士吞精在线视频| 啪啪永久免费av| 夜夜操天天摸| 黄色成年视频| 日本人真淫视频一区二区三区| 日本日韩欧美| 热久久综合这里只有精品电影| 亚洲系列无码专区偷窥无码| 国产一区二区在线视频观看| 亚洲网综合| 国产在线视频二区| 日韩高清一区 | 国产va在线观看免费| www.av男人.com| 欧美黄网在线| 亚洲第一天堂无码专区| 亚洲日本中文字幕乱码中文| 国产福利在线观看精品| 免费久久一级欧美特大黄| 日韩在线2020专区| 红杏AV在线无码| 欧美激情视频一区| 欧美日韩va| 亚洲性网站| 国产精品免费电影| 亚洲精品自拍区在线观看| 亚洲国产日韩在线成人蜜芽| 99久久国产综合精品2023| 国产成人一级| 国产欧美日韩另类| 国产精品熟女亚洲AV麻豆| 亚洲第一区欧美国产综合| 国产在线专区| 99er这里只有精品| 国产亚洲欧美在线中文bt天堂| 国产美女叼嘿视频免费看| 亚洲福利片无码最新在线播放| 国产欧美视频综合二区| 91精品国产一区自在线拍| 老司机午夜精品视频你懂的| 国产噜噜噜视频在线观看| 无码国内精品人妻少妇蜜桃视频| 免费 国产 无码久久久| 国产福利小视频高清在线观看| 中文无码日韩精品| 国产成人精品一区二区三区| 国产chinese男男gay视频网| 55夜色66夜色国产精品视频| 成人av专区精品无码国产| 亚洲区欧美区| 亚洲欧美一区二区三区蜜芽| 国产亚洲欧美另类一区二区| 亚洲日产2021三区在线| h网址在线观看| 免费在线观看av| 毛片视频网址| 91色爱欧美精品www| 久久99热这里只有精品免费看| 国产在线视频福利资源站| 伊人无码视屏| 日韩精品成人在线| 五月丁香在线视频| 九九香蕉视频| 日韩天堂网|