999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合GRU 與注意力機制的膠囊文本分類方法

2022-03-16 10:31:08張凌慷
科技創(chuàng)新與應(yīng)用 2022年5期
關(guān)鍵詞:特征提取分類機制

張凌慷

(上海電力大學(xué)電子與信息工程學(xué)院,上海 201306)

隨著互聯(lián)網(wǎng)的不斷發(fā)展,互聯(lián)網(wǎng)中的文本信息呈指數(shù)性增長。文本分類技術(shù)可以從純文本的大量冗余信息中分類出所需的信息,分類后的文本可以應(yīng)用于自然語言處理的許多下游任務(wù)中,例如問答系統(tǒng)、主題分類、信息檢索和情感分析等領(lǐng)域。

文本分類主要可以分為特征提取、分類器選擇與訓(xùn)練、評估分類結(jié)果與反饋等3 大過程。其中特征提取和分類器的選擇與訓(xùn)練共同決定了文本分類任務(wù)的最終效果。在傳統(tǒng)的機器學(xué)習(xí)方法中,往往選擇提取詞頻和詞袋特征,再訓(xùn)練模型。經(jīng)典的機器學(xué)習(xí)方法有樸素貝葉斯、支持向量機等。使用傳統(tǒng)的機器學(xué)習(xí)方法會導(dǎo)致文本分類準(zhǔn)確率較低,存在特征提取時表征能力有限、數(shù)據(jù)稀疏和特征向量維度過高的問題。

隨著深度學(xué)習(xí)的流行,基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)也被應(yīng)用于文本分類任務(wù)中,并取得了相對較好的分類效果[1]。Kim 等[2]在卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的基礎(chǔ)上提出了TextCNN,直接對句子進行文本分類。長短時記憶網(wǎng)絡(luò)(Long-Short Term Memory,LSTM)[3]和基于序列的自動編碼器[4]和在LSTM 詞嵌入層加入對抗擾動[5],得益于該模型在文本表示和對復(fù)雜特征強大的表征能力,取得了較好的效果。文獻[6]提出使用門控循環(huán)單元GRU(Gated recurrent Unit)和注意力機制進行文本分類。

Zhao 等[7]首先在文本分類任務(wù)中引入了膠囊網(wǎng)絡(luò)(Capsule Network),減少了CNN 在池化操作中特征丟失的問題。

本文在膠囊網(wǎng)絡(luò)的基礎(chǔ)上,提出一種融合GRU,注意力機制的膠囊網(wǎng)絡(luò)文本分類模型。先使用GRU 取代原有的卷積神經(jīng)網(wǎng)絡(luò)來進行特征提取,結(jié)合注意力機制對GRU 提取的特征重新進行權(quán)重分配,對文本內(nèi)容貢獻大的分配較大的權(quán)重,最后使用膠囊網(wǎng)絡(luò)進行文本分類,從而解決CNN 在池化過程中的特征丟失問題。

1 膠囊網(wǎng)絡(luò)

CNN 在每次卷積之后,都會進行池化操作對特征圖進行下采樣來簡化計算并改善局部特征。但池化操作從上一層傳遞到下一層的是標(biāo)量,導(dǎo)致無法考慮一些位置與姿態(tài)的信息。因此CNN 在識別具有空間關(guān)系的特征時存在很大的局限性。

為了解決CNN 中存在的問題,Hinton[8]于2011 年首次提出了“膠囊”的概念。其創(chuàng)新之處就是使用向量膠囊來取代CNN 中的標(biāo)量神經(jīng)元,使得膠囊可以保留輸入對象之間的空間信息。基于此,Sabour 等[9]在2017 年進一步提出了具有動態(tài)路由算法的膠囊網(wǎng)絡(luò)結(jié)構(gòu),該網(wǎng)絡(luò)包括一層卷積層來提取特征;初級膠囊層將標(biāo)量特征圖編碼為向量膠囊;高層膠囊層進行分類。

Zhao 在句子中的不同位置用卷積操作提取局部特征,接著訓(xùn)練2 層膠囊層提取全局特征,最后在全連接層輸出每個文本類的概率送入Softmax 分類器進行分類。Kim 等[10]將靜態(tài)路由代替動態(tài)路由機制,忽略句子中部分空間信息,達到簡化路由計算的目的。

2 融合GRU 與注意力機制的膠囊文本分類模型

本文提出一種融合了GRU 和注意力機制的膠囊網(wǎng)絡(luò)文本分類模型,主要由全局特征提取模塊和膠囊網(wǎng)絡(luò)文本分類模塊組成,結(jié)構(gòu)如圖1 所示。

圖1 模型結(jié)構(gòu)

2.1 全局特征提取模塊

2.1.1 GRU

GRU 是循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的一種,相比LSTM,使用GRU 能得到相當(dāng)?shù)男Ч⑶腋菀子?xùn)練,能夠很大程度上提高訓(xùn)練效率。GRU 由更新門Zt、重置門rt組成,ht為記憶單元。其結(jié)構(gòu)如圖2 所示。

圖2 GRU 結(jié)構(gòu)圖

首先,通過上一個傳輸下來的狀態(tài)ht-1和當(dāng)前節(jié)點的輸入xt來獲取重置門rt和更新門Zt的狀態(tài):

更新門Zt信號范圍為0~1。門控信號越接近1,代表記憶下的數(shù)據(jù)越多。GRU 的優(yōu)點在于使用同一個門控Zt同時進行遺忘和選擇。

2.1.2 注意力機制

在文本分類任務(wù)中,一個句子中的不同單詞對于分類效果的影響是不同的,引入注意力機制可以將較重要的單詞分配較大的權(quán)重。將GRU 輸出的ht作為輸入:其中:Wa為權(quán)重矩陣,b0為偏置,ai為經(jīng)過softmax 函數(shù)后得到的每個詞的標(biāo)準(zhǔn)化權(quán)重,然后通過加權(quán)計算得到注意力機制的輸出向量vi作為膠囊網(wǎng)絡(luò)的輸入。

2.2 膠囊網(wǎng)絡(luò)分類模塊

膠囊網(wǎng)絡(luò)的核心思想就是用向量膠囊來取代CNN中的標(biāo)量神經(jīng)元,通過動態(tài)路由算法來不斷迭代低層膠囊和高層膠囊之間的權(quán)重,以確保每個輸出發(fā)射到高層膠囊中。

動態(tài)路由中每個低層膠囊到高層膠囊的概率:

在公式(4)中,利用擠壓函數(shù)(Squash Function)進行歸一化后得到高層膠囊Vj:

動態(tài)路由多次迭代之后,不斷調(diào)整耦合系數(shù)Cij,得到修正后的高層膠囊Vj。

3 實驗與結(jié)果分析

3.1 實驗環(huán)境

為了驗證算法在文本分類任務(wù)上的效果,采用基于Tensorflow 的Keras 進行開發(fā),編程語言為Python3.7。服務(wù)器配置如下:操作系統(tǒng)為Ubuntu16.04,內(nèi)存為16G,GPU 為Nvidia GeForce Titan X。

3.2 實驗數(shù)據(jù)與預(yù)處理

采用今日頭條中文新聞分類數(shù)據(jù)集TNEWS 進行實驗,該數(shù)據(jù)集包含382 688 條新聞文本,可被標(biāo)出類別的共有15 類,去掉5 類樣本數(shù)不足的數(shù)據(jù),保留剩下10 類樣本作為分類文本分解。每類數(shù)據(jù)都選取2 000 條文本,隨機打亂數(shù)據(jù)集。訓(xùn)練集、驗證集和測試集的劃分比例為8∶1∶1。實驗的預(yù)處理部分先將下載好的文本轉(zhuǎn)碼,采用jieba 分詞工具對新聞文本數(shù)據(jù)進行分詞處理,再加上對應(yīng)的標(biāo)簽。

3.3 評價指標(biāo)與實驗設(shè)計

為了準(zhǔn)確評價本文所提出的模型的性能,采用準(zhǔn)確率(Accuracy)作為評價指標(biāo),其定義:

其中:TP代表正確識別的正樣本數(shù)量;FP代表實際為正樣本,識別為負(fù)樣本的數(shù)量。

將預(yù)訓(xùn)練得到的word2vec 詞向量作為GRU 的輸入,文本長度100,詞向量維度300。訓(xùn)練使用學(xué)習(xí)率0.001 的Adam 優(yōu)化器,在每個epoch 將學(xué)習(xí)率衰減為0.99。卷積層中將每個文本數(shù)據(jù)都處理成100×300 的矩陣形式。超過100 的文本截取前100 個詞,不足的文本加零補齊。GRU 單元設(shè)置為64 個,底層膠囊個數(shù)設(shè)置為32個。動態(tài)路由迭代次數(shù)為3 次,高層膠囊個數(shù)11 個,對應(yīng)10 類新聞分類,其中標(biāo)簽0 不用,膠囊的模長代表所屬分類的概率。采用TextCNN 和capsule-B 作為基線進行對比分析。

3.4 實驗結(jié)果與分析

TextCNN、Capsule-B 與本文方法在TNEWS 上的實驗結(jié)果見表1。

表1 對比實驗分類結(jié)果(準(zhǔn)確率)

3 種方法的epoch 都設(shè)置為40。由表1 可見,在TNEWS 數(shù)據(jù)集上,本文提出的模型分類效果比傳統(tǒng)的CNN 算法,以及原有的膠囊網(wǎng)絡(luò)算法的分類效果要好。本文模型在測試集上的分類準(zhǔn)確率達到了87.88%,比TextCNN 的分類結(jié)果高2.81%,比Capsule-B 的分類結(jié)果高3.24%。驗證了本文提出的模型分類有效性。

4 結(jié)論

本文融合GRU 和注意力機制的優(yōu)點,提出了一種融合GRU 和注意力機制的膠囊網(wǎng)絡(luò)文本分類方法。該方法使用GRU 有效提取文本的全局特征,用注意力機制進行權(quán)重分配,進一步關(guān)注文本序列中的關(guān)鍵信息。替換掉了原有膠囊網(wǎng)絡(luò)特征提取時使用的CNN,去除了池化操作帶來的信息丟失問題。實驗結(jié)果證明本文算法有效地提高了文本分類的準(zhǔn)確性。下一步工作將對模型進一步優(yōu)化,提高分類的準(zhǔn)確率。

猜你喜歡
特征提取分類機制
分類算一算
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
分類討論求坐標(biāo)
自制力是一種很好的篩選機制
文苑(2018年21期)2018-11-09 01:23:06
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
一種基于LBP 特征提取和稀疏表示的肝病識別算法
破除舊機制要分步推進
基于MED和循環(huán)域解調(diào)的多故障特征提取
注重機制的相互配合
主站蜘蛛池模板: 国产成人一区| 亚洲视频色图| 国产欧美日韩另类| 国产乱子伦一区二区=| 自拍偷拍欧美日韩| 一区二区三区精品视频在线观看| 国产黄在线观看| 香蕉99国内自产自拍视频| 欧美一级99在线观看国产| 伊人色在线视频| 色婷婷成人网| 亚洲日韩国产精品综合在线观看| 午夜爽爽视频| 午夜日b视频| 91成人在线观看视频| 伊人久久大线影院首页| 日韩精品一区二区三区视频免费看| 亚洲精品综合一二三区在线| 香蕉网久久| 日韩精品一区二区三区大桥未久| 久久毛片网| 四虎AV麻豆| 欧美日本在线| 亚洲第一区精品日韩在线播放| 亚洲一区二区三区香蕉| 国产美女自慰在线观看| 久久免费视频6| 伊人狠狠丁香婷婷综合色| 午夜少妇精品视频小电影| 国产美女在线免费观看| 中文字幕无码电影| 日韩精品成人网页视频在线| 国产九九精品视频| 自慰高潮喷白浆在线观看| 精品视频在线观看你懂的一区| 亚洲精品国产精品乱码不卞| 亚洲不卡无码av中文字幕| 国产日本欧美在线观看| 精品一区二区三区无码视频无码| 综合成人国产| 国产老女人精品免费视频| 免费 国产 无码久久久| av色爱 天堂网| 久久精品国产精品国产一区| 国产人成午夜免费看| 女人18毛片水真多国产| 米奇精品一区二区三区| 久久久久亚洲精品成人网| 国产中文一区a级毛片视频| 91视频免费观看网站| 91最新精品视频发布页| 精品国产香蕉伊思人在线| 亚洲免费播放| 欧美黄网在线| 高潮毛片免费观看| 91小视频在线观看免费版高清| 亚洲欧美日本国产综合在线| 成人一区专区在线观看| 亚洲欧洲日产国码无码av喷潮| 欧美日本不卡| 欧美有码在线| 国产99精品久久| 亚洲综合日韩精品| 亚洲中字无码AV电影在线观看| 99精品国产电影| 国产一级在线观看www色| 中文字幕色站| 久久国产免费观看| 亚洲欧美综合在线观看| 亚洲天堂网站在线| 精品一区二区三区无码视频无码| 区国产精品搜索视频| 乱系列中文字幕在线视频| 欧美中文字幕一区二区三区| 午夜激情福利视频| 免费人成网站在线观看欧美| 亚洲一级毛片免费观看| 亚洲第一香蕉视频| 日本三级欧美三级| 大香伊人久久| 欧美亚洲日韩中文| 国产av一码二码三码无码|