999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于LSTM?Attention神經網絡的文本特征提取方法

2018-04-13 06:36:32趙勤魯蔡曉東李波呂璐
現代電子技術 2018年8期

趙勤魯 蔡曉東 李波 呂璐

摘 要: 針對當前文本分類神經網絡不能充分提取詞語與詞語和句子與句子之間的語義結構特征信息的問題,提出一種基于LSTM?Attention的神經網絡實現文本特征提取的方法。首先,分別使用LSTM網絡對文本的詞語與詞語和句子與句子的特征信息進行提取;其次,使用分層的注意力機制網絡層分別對文本中重要的詞語和句子進行選擇;最后,將網絡逐層提取得到的文本特征向量使用softmax分類器進行文本分類。實驗結果表明,所提方法可以有效地提取文本的特征,使得準確率得到提高。將該方法應用在IMDB,yelp2013和yelp2014數據集上進行實驗,分別得到52.4%,66.0%和67.6%的正確率。

關鍵詞: LSTM?Attention; 注意力機制; 文本分類; 神經網絡; 文本特征提取; softmax

中圖分類號: TN711?34; TP391.41 文獻標識碼: A 文章編號: 1004?373X(2018)08?0167?04

Abstract: In allusion to the problem that the current text classification neural network cannot fully extract semantic structural feature information among words or sentences, a text feature extraction method based on long short?term memory?attention (LSTM?Attention) neural network implementation is proposed. LSTM network is used to extract feature information among words or sentences of text. Network layer of hierarchical attention mechanism is used to select important words and sentences in text. Text classification is performed for the text feature vectors obtained from each network extraction by using softmax classifier. The experimental results show that the proposed method can effectively extract text features to improve the accuracy rate. When applying the method to the datasets of IMDB, yelp2013 and yelp2014 in the experiment, the correctness rates of 52.4%, 66.0% and 67.6% are obtained respectively.

Keywords: LSTM?Attention; attention mechanism; text classification; neural network; text feature extraction; softmax

0 引 言

文本分類任務是自然語言處理的一項基本任務,其目的是讓文本得到相應的類別標簽。文獻[1]采用的詞袋模型向量實現對文本特征的提取。這種方法分類效果的好壞受文本提取的特征影響較大,在訓練時容易造成維度災難。文獻[2]是構建有效的文本特征以及建立文本情感詞典來得到文本的類別特征。這樣的方式耗費大量的人力并且效率低。隨著深度學習在自然語言處理領域的發展,文獻[3]使用卷積神經網絡對文本單詞級別的信息進行分類工作,通過卷積神經網絡不同尺寸的卷積核來得到文本的N元特征信息進行文本特征分類。文獻[4]使用卷積神經網絡在字符級別對文本進行分類工作。目前循環神經網絡LSTM已經在自然語言處理任務中被廣泛應用,文獻[5]使用LSTM遞歸網絡進行文本情感分類任務。但是這些網絡都是將一個句子或者一個文本作為網絡的輸入,經過深度神經網絡來提取文本的特征,進而將這些特征使用分類器分類。但是,這樣的方法只是關注了整個文本中的信息,沒有能夠考慮到詞語之間以及句子之間的局部信息,為了解決這個問題,文獻[6]提出使用分層網絡結構對文本的詞語信息和句子信息分別進行提取學習。使用分層的CNN/LSTM以及GateNN網絡分別對詞語和句子之間的語義信息進行提取,實現對文本的分層次信息提取。近幾年基于注意力機制的神經網絡在自然語言處理各項任務中已經取得了很多重要的進展。文獻[7]將注意力機制(Attention)首次引入到自然語言處理任務中,應用在seq2seq機器翻譯任務上。文獻[8]提出基于注意力機制的池化網絡應用在問答系統中。本文提出一種Long Short?term Memory?Attention(LSTM?Attention)神經網絡的文本特征提取方法,來實現對詞語與詞語和句子與句子之間的語義結構信息進行充分提取。

本文結合LSTM以及注意力機制提出LSTM?Attention神經網絡,該網絡不僅可以對文本分層次對詞語與句子之間的特征分別提取,而且還可以實現對重要的詞語和句子進行提取。將該網絡應用到文本分類任務中,與不使用注意力機制的分層網絡相比。最終本文方法可以提取到更有區分能力的文本特征。

1 LSTM?Attention神經網絡

本文LSTM?Attention神經網絡總共包含六部分:文本向量化層、詞語信息特征提取層、詞語Attention層、句子信息特征提取層、句子Attention層、文本分類層。網絡模型整體框圖如圖1所示。

1.1 長短期記憶網絡

長短期記憶網絡(LSTM)是一種時間遞歸神經網絡[9],該神經網絡可以有效保留歷史信息,實現對文本的長期依賴信息進行學習。LSTM網絡由三個門(輸入門、遺忘門和輸出門)和一個cell單元來實現歷史信息的更新和保留。

LSTM數據更新過程如下,在時刻t時,輸入門會根據上一時刻LSTM單元的輸出結果ht-1和當前時刻的輸入xt作為輸入,通過計算來決定是否將當前信息更新到LSTM?cell中,可以表述為:

1.2 文本向量化層

本文使用的訓練文本d由n個句子組成即d={s1,s2,…,sn},每個句子由m個單詞組成,則樣本中的第i個句子si可以表示成si={wi1,wi2,…,wim}。本文使用的是word2vec中Skip?Gram無監督模型對語料進行向量化,得到詞向量[w∈Rd],通過文本向量化層實現文本向量化。

1.3 詞語信息特征提取層

對于一個句子,可以將句子看成是由詞語組成的序列信息。首先通過LSTM網絡對向量化的句子序列xi1,xi2,…,xit作為LSTM的輸入節點數據,在t時刻輸入到網絡的句子根據t-1時刻的LSTM細胞狀態ct-1和隱層狀態ht-1進行更新得到hi。這里的xi1,xi2,…,xit是指句子中的每個詞語,在不同的時刻LSTM會輸出對應節點的隱層輸出值hi1,hi2,…,hit。輸出隱層信息[hit∈Rn_hidden],n_hidden是LSTM隱層神經單元個數。得到hit作為一個句子的特征向量,輸入到下一網絡層。通過這樣的方式將句子序列的前后信息進行學習,得到句子詞語之間的前后信息,對文本句子進行語義編碼,可以描述為:

1.4 詞語Attention層

在文本中,每一個詞語對于文本類別的貢獻度是不一樣的,為了實現對重要詞語的特征進行提取,增加這個層可以進一步地提取文本之間的更深層的信息,在此使用了注意力機制。首先將LSTM隱層的輸出信息hit經過非線性變換得到其隱含表示uit,通過隨機初始化注意力機制矩陣uw與uit進行點乘運算并對其使用softmax進行歸一化操作,最終得到詞級別LSTM隱層輸出的權重系數,最終通過該方法得到詞語注意力機制矩陣,可以描述為:

1.5 句子信息特征提取層

同樣,可以把文本看成是由句子組成的序列信息。為了得到整個文本的語義關系特征,將上一網絡層得到的句子向量si輸入到LSTM網絡,在t時刻輸入到網絡的句子根據t-1時刻的LSTM細胞狀態ct-1和隱層狀態ht-1進行更新得到hi。通過該網絡層得到句子之間的語義關聯信息,實現文本特征信息的提取,可以描述為:

1.6 句子Attention層

在一個文本中,不同句子對文本信息重要程度的貢獻也是不同的。采用和詞級別同樣的方式進行對重要句子給予不同權重參數的操作,得到句子的注意力機制矩陣,具體描述為:

式中,us是隨機初始化的句子注意力機制矩陣。

1.7 文本分類層

向量V是經過網絡由詞級別以及句子級別層提取出的文本特征向量。為了把文本的高維特征進行壓縮到低維度,增強數據的非線性能力。在softmax分類層之前添加一個非線性層,將該向量映射為長度為c的向量,其中c是文本的類別數。最后經過softmax分類器計算對應類別的分布概率,描述為:

2 實 驗

2.1 數據集和實驗環境

為了驗證本文提出的模型的有效性,將此模型應用于IMDB,yelp2013和yelp2014數據集上。實驗數據[6]統計如表1所示。本文詞向量是使用word2vec[10]對語料產生200維度的詞向量,所生成的詞向量中包含的單詞均在語料中出現三次以上,否則使用word2vec產生的均值向量進行文本向量化工作。本文實驗平臺的配置包括Intel i5?4460,4×3.2 GHz處理器、8 GB內存、GTX750Ti顯卡以及 Ubuntu 14.04操作系統,并使用Theano深度學習開源框架。

2.2 實驗設計

本文提出LSTM?Attention和LSTM?LSTM兩種神經網絡模型進行實驗對比,具體模型描述如下:

LSTM?LSTM:LSTM?Attention神經網絡是將文本進行向量化后分別使用LSTM網絡對詞語以及句子進行序列信息進行提取,并分別在詞語級別和句子級別之后的LSTM網絡后面加入注意力機制層,最終將得到的文本的特征向量送進softmax分類器進行分類器的訓練。

LSTM?LSTM神經網絡:將文本進行向量化后分別使用LSTM網絡對詞語以及句子進行序列信息提取,并分別在詞語級別和句子級別之后的LSTM網絡后面加入平均池化層,最終將得到的文本特征向量送進softmax分類器進行分類器的訓練。其具體網絡隱層參數如表2所示。

2.3 實驗分析

本文所提方法以及對比方法實驗結果如表3所示。文獻[6]中使用CNN對詞語特征進行提取得到詞語的N元特征信息。但是這種方法容易忽略詞語之間的長期依賴信息。為了解決這個問題使用GRNN對句子特征進行提取從而實現文本特征的提取。本文提出的LSTM?LSTM神經網絡,不僅可以對詞語之間的長期依賴信息進行提取,而且還可以對句子與句子之間的信息進行特征提取。在IMDB,yelp2013和yelp2014數據集上分別取得了50.9%,65.6%和66.5%的正確率。本文提出的LSTM?Attention網絡不僅可以實現對文本進行分層次特征學習提取,通過給予不同的權重參數使用注意力機制實現對文本中重要的詞語和句子進行提取。使得網絡可以實現對文本的信息給予不同的關注程度。本文所提方法和不使用注意力機制的LSTM?LSTM網絡相比均有提高,這也說明了注意力機制的有效性。LSTM?Attention在IMDB,yelp2013和yelp2014數據集上分別取得了52.4%,66.0%和67.6%的正確率。

3 結 論

本文提出一種基于LSTM?Attention的神經網絡實現文本特征提取的方法。首先,相比較于Conv?GRNN[6],本文方法LSTM?LSTM通過LSTM網絡分別實現對詞語之間以及句子之間的特征進行學習提取;其次,通過LSTM?Attention相比較于沒有注意力機制的LATM?LSTM可以實現對貢獻度不同的詞語和句子進行提取;最后,在IMDB,yelp2013和yelp2014數據集上實驗,結果證明,本文的方法可以提取出更具區分能力的文本特征,達到52.4%,66.0%和67.6%的正確率。

注:本文通訊作者為蔡曉東。

參考文獻

[1] WAWRE S V, DESHMUKH S N. Sentiment classification using machine learning techniques [J]. International journal of science and research, 2016, 5(4): 819?821.

[2] DING X, LIU B, YU P S. A holistic lexicon?based approach to opinion mining [C]// Proceedings of the 2008 International Conference on Web Search and Data Mining. New York: Association for Computing Machinery, 2008: 231?240.

[3] KIM Y. Convolutional neural networks for sentence classification [J/OL]. [2014?09?03]. https://arxiv.org/pdf/1408.5882v2.pdf.

[4] ZHANG X, ZHAO J, LECUN Y. Character?level convolutional networks for text classification [J/OL]. [2017?07?09]. http://www.doc88.com/p?1582873490700.html.

[5] 梁軍,柴玉梅,原慧斌,等.基于極性轉移和LSTM遞歸網絡的情感分析[J].中文信息學報,2015,29(5):152?159.

LIANG Jun, CHAI Yumei, YUAN Huibin, et al. Polarity shifting and LSTM based recursive networks for sentiment analysis [J]. Journal of Chinese information processing, 2015, 29(5): 152?159.

[6] TANG D, QIN B, LIU T. Document modeling with gated recurrent neural network for sentiment classification [C]// Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. [S.l.: s.n.], 2015: 1422?1432.

[7] BAHDANAU D, CHO K, BENGIO Y. Neural machine translation by jointly learning to align and translate [J/OL]. [2014?10?11]. http: //nlp.ict.ac.cn/Admin/kindeditor/attached/file/20141011/20141011133445_31922.pdf.

[8] DOS?SANTOS C, TAN M, XIANG B, et al. Attentive pooling networks [J/OL]. [2016?02?11]. http://xueshu.baidu.com/s?wd=paperuri%3A%28f618ebd90de235437fd745ed36080e77%&;29

filter=sc_long_sign&;tn=SE_xueshusource_2kduw22v&;sc_vurl=http%3A%2F%2Farxiv.org%2Fabs%2F1602.03609&;ie=utf?8&;sc_us=17197570488667881682.

[9] HOCHREITER S, SCHMIDHUBER J. Long short?term memory [J]. Neural computation, 1997, 9(8): 1735?1780.

[10] MIKOLOV T, SUTSKEVER I, CHEN K, et al. Distributed representations of words and phrases and their compositionality [J/OL]. [2013?10?16]. https://arxiv.org/pdf/1310.4546v1.pdf.

主站蜘蛛池模板: 久久永久免费人妻精品| 伊伊人成亚洲综合人网7777 | jizz国产在线| 三上悠亚在线精品二区| av一区二区三区在线观看| 熟妇无码人妻| 国产高潮视频在线观看| 亚洲天堂网视频| 成人午夜精品一级毛片| 欧美在线视频不卡| 亚洲午夜福利在线| 亚洲视频三级| 成人av专区精品无码国产| 久久久无码人妻精品无码| 国产天天色| 1024你懂的国产精品| 在线国产资源| 久久精品只有这里有| 福利一区在线| 色窝窝免费一区二区三区| 免费大黄网站在线观看| 一本大道AV人久久综合| 国产成人a毛片在线| 有专无码视频| 久久精品国产一区二区小说| 九九视频免费在线观看| 91国内外精品自在线播放| 国产精品熟女亚洲AV麻豆| 波多野结衣无码中文字幕在线观看一区二区 | 蝴蝶伊人久久中文娱乐网| 国产精品成人免费视频99| 国产人人射| 久久99热66这里只有精品一| jizz亚洲高清在线观看| 国产乱子伦视频三区| 精品福利国产| 国产成人福利在线视老湿机| 欧美日韩激情在线| 免费高清毛片| 少妇被粗大的猛烈进出免费视频| 亚洲无码高清一区| 色妞www精品视频一级下载| 18禁色诱爆乳网站| 97视频在线精品国自产拍| 久久人搡人人玩人妻精品一| 亚洲综合精品第一页| 欧美在线观看不卡| 国产主播一区二区三区| 国产精品亚洲专区一区| 男女精品视频| 国产91视频免费观看| 国产女人爽到高潮的免费视频| 亚洲无码在线午夜电影| 欧美日韩成人| 久久美女精品国产精品亚洲| 国产无遮挡猛进猛出免费软件| 欧美色丁香| 亚洲欧美日韩综合二区三区| 国产成人精品亚洲77美色| 欧美天堂在线| 51国产偷自视频区视频手机观看| 国产在线专区| 国产原创自拍不卡第一页| 福利视频99| 国产二级毛片| 国产一在线观看| 啪啪啪亚洲无码| 在线欧美国产| 欧美色亚洲| 亚洲最黄视频| 波多野结衣一区二区三区四区视频| 精品伊人久久久久7777人| 久久人人97超碰人人澡爱香蕉| 国产精品毛片一区| 免费看av在线网站网址| 黄色网址免费在线| 2020精品极品国产色在线观看| 天堂岛国av无码免费无禁网站| 亚洲日本在线免费观看| 91精品国产91欠久久久久| 亚洲综合二区| 国产中文一区二区苍井空|