999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

改進卷積神經(jīng)網(wǎng)絡的文本主題識別算法研究

2022-01-25 18:54:46邱寧佳楊長庚
計算機工程與應用 2022年2期
關鍵詞:特征文本模型

邱寧佳,楊長庚,王 鵬,任 濤

長春理工大學 計算機科學技術學院,長春 130022

隨著時代的發(fā)展,互聯(lián)網(wǎng)上的文本數(shù)據(jù)呈指數(shù)級增長,如何從海量的文本數(shù)據(jù)中準確地識別出文章的主題類別,已成為當下廣泛關注的問題。主題識別通過將文本處理成計算機能夠理解的數(shù)據(jù),從中提取、歸納出文本主題類別的過程,是數(shù)據(jù)挖掘領域的研究熱點之一。Blei等人[1]提出隱含狄利克雷分布(latent Dirichlet allocation,LDA)主題模型,利用文章中詞語的共現(xiàn)信息挖掘文中隱含的主題信息。Mikolov等人[2]提出Word2vec詞向量模型CBOW和Skip-gram,利用詞語的局部上下文詞訓練獲得詞向量,能夠保留詞語的上下文語義關系。陳培新等人[3]提出一種新的文檔特征表示方法,將概率主題模型學習到的文檔主題向量與卷積神經(jīng)網(wǎng)絡(convolutional neural network,CNN)學習到的文檔語義向量進行融合,實驗結(jié)果表明,融合后的文檔特征表示比單一向量表示具有更好的文本主題分類性能。陳文實等人[4]提出一種深度主題特征提取模型,將長短時記憶單元(long-short term memory,LSTM)提取的文檔上下文語義特征與LDA主題模型學習到的全局語義特征結(jié)合,實驗證明這種模型能夠更全面地表征文本,提高模型的分類能力。劉心惠等人[5]提出一種基于聯(lián)合模型的文本分類方法,利用膠囊網(wǎng)絡提取文檔的局部特征,BiLSTM提取文檔的全局特征,通過將兩者融合獲得更為豐富的文本特征。Gu等人[6]將LDA主題模型學習到的潛在語義信息引入到神經(jīng)網(wǎng)絡中以改善短文本分類任務中的歧義問題。Zhou等人[7]提出一種篇章級的文檔表示方法,將文檔對應的Word2vec詞向量表示與LDA主題模型表示進行融合,在多個數(shù)據(jù)集上實驗表明,這種方法能夠改善模型的分類效果。Kim[8]提出一種結(jié)構(gòu)簡單的卷積神經(jīng)網(wǎng)絡模型,使用Word2vec詞向量矩陣作為輸入文檔的向量表示,在多個實驗任務中均取得了不錯效果。Tao等人[9]將注意力機制與卷積神經(jīng)網(wǎng)絡相結(jié)合,實驗發(fā)現(xiàn)能夠提升分類效果。Baker等人[10]將CNN與詞向量結(jié)合應用于生物醫(yī)學領域,在癌癥領域數(shù)據(jù)集的文本分類任務中取得了不錯效果。曾凡鋒等人[11]使用Word2vec詞向量作為文本的向量化表示,彌補了傳統(tǒng)詞袋模型信息損失的缺點。Zhou等人[12]使用CNN提取文本的局部特征,然后輸入給LSTM學習句子的長距離依賴,這種方法能夠很好地捕捉到文本的語義信息。王海濤等人[13]使用Word2vec將文本轉(zhuǎn)為為低維的向量表示,分別使用LSTM與CNN對詞向量進行特征提取,解決深層神經(jīng)網(wǎng)絡提取特征時的特征丟失問題。蔡林森等人[14]通過計算文檔中各個詞語的權(quán)重完成詞語的向量化操作,利用CNN進行情感分析,取得了較好的實驗效果。賴文輝等人[15]使用詞向量把文本表示成二維矩陣,然后輸入到CNN中完成垃圾短信識別工作。Hu等人[16]提出SENet(squeeze-and-excitation networks)結(jié)構(gòu),從特征通道角度對網(wǎng)絡進行優(yōu)化,取得了較好效果。

通過以上研究發(fā)現(xiàn),模型融合能夠彌補單一模型的缺陷,提高模型的整體性能。為此本文提出一種基于改進卷積神經(jīng)網(wǎng)絡的文本主題識別算法。首先將每個詞對應的Word2vec詞向量與LDA主題向量進行融合,并依據(jù)詞語對主題類別的貢獻度進行加權(quán)提出詞向量融合算法;然后將SENet引入到CNN中構(gòu)建主題識別模型SECNN(squeeze and excitation convolutional neural network,SECNN),利用SENet對卷積層輸出特征圖進行建模學習,依靠其提升重要特征并抑制無用特征的性能,增強模型提取特征的能力;最后使用FDA評估樣本的類別表征能力,提出FDA-SGD(stochastic gradient descent based on Fisher discriminant analysis)算法對模型參數(shù)進行優(yōu)化,完成文本主題識別工作。

1 主題識別模型

1.1 詞向量融合算法

Word2vec根據(jù)詞語間局部上下文語義信息的相關性生成詞向量,完成文檔固定維度的實值向量轉(zhuǎn)化,而這種向量表示存在全局語義表達缺失和無法突出詞在文檔類別中的重要性等問題。主題向量能夠通過詞在各主題中的概率分布情況完成全局語義表達,Word2vec和LDA相融合能夠更好地表征文本,本文使用Word2vec融合LDA的方式改善主題識別效果,首先將每個詞對應的Word2vec詞向量和LDA主題向量進行歸一化,然后對向量融合的向量依據(jù)該詞對類別的貢獻度進行加權(quán)處理,以突出詞語在文檔類別中的重要性。本文提出的向量融合算法如下所示:

(1)利用Word2vec中的CBOW模型訓練語料庫得到詞向量,d表示詞向量的維度,||P為用詞向量訓練的整個語料庫的詞表。則語料庫中的每一個詞對應的詞向量如式(1)所示:

對于詞wordj,其對應的Word2vec詞向量表示為xj=(pj,1,pj,2,…,pj,d)。

(2)在語料庫上采用吉布斯采樣方法訓練LDA主題模型,得到的主題-詞矩陣φ如式(2)所示:

|φ|表示主題模型的詞表大小,o表示向量的維度,與詞向量的維度設置相同。主題-詞矩陣中的每一列可以看成是每一個詞在各個主題下的概率分布,也即是詞的主題向量。對于詞wordj,其對應的主題向量表示為yj=(z1,j,z2,j,…,zo,j)。

(3)任意詞wordj,其對應的詞向量表示為xj,主題向量表示為yj,考慮到詞向量和主題向量量級上的差別,這里首先將兩種向量通過2-范數(shù)進行歸一化,然后再進行融合。文獻[17]中提到關于詞向量的解釋,即詞向量可以表達語義,詞向量的相加也能表示詞義的組合。因此本文采用相加的向量融合方法,將每個詞對應的Word2vec詞向量與主題向量分別歸一化之后相加組成新的向量表示。表示2-范數(shù),則詞wordj新的向量表示如式(3)所示:

利用融合之后的向量構(gòu)建本文主題識別任務的詞典,如下式(4)所示,||v表示詞典大小。

一篇文檔用式(4)對應的詞向量表示為di=[v1′,v2′,…,vm′]T,m表示文檔句子長度。

(4)文本中每一個詞對文本所屬主題類別的貢獻度是不一樣的,原有的詞向量無法突出每個詞的重要程度,因此這里引入權(quán)重因子對詞向量進行加權(quán)。權(quán)重因子由兩部分組成,第一是關鍵詞權(quán)重,關鍵詞是一篇文章的代表性實體,通過關鍵詞可以了解到文章的主題,其對文本所屬主題的貢獻度高于其他詞;第二是主題權(quán)重,在主題識別任務中,如果詞語wordj在某幾個主題中出現(xiàn)的次數(shù)比較多,而在另外幾個主題中出現(xiàn)的次數(shù)比較少,則說明該詞對文本所屬主題有一定的貢獻度,這一點在原有詞向量中是沒有體現(xiàn)出來的。因此,本文提出首先使用TextRank算法計算文本中的關鍵詞,得到關鍵詞權(quán)重,然后計算關鍵詞對應的主題權(quán)重,將得到的關鍵詞權(quán)重與主題權(quán)重相乘組成詞的權(quán)重因子,最后將權(quán)重因子與對應的詞向量相乘完成詞向量加權(quán)。

使用基于圖的TextRank算法從文檔di中提取關鍵詞,將文檔中每個詞映射為圖的節(jié)點,詞語在預先設定好窗口內(nèi)的共現(xiàn)關系映射為節(jié)點的連邊,隨機初始化節(jié)點Vj和Vi的邊的初始權(quán)重wji,依據(jù)公式(5)迭代計算各節(jié)點的權(quán)重直到收斂,a表示阻尼系數(shù),nt(V)表示節(jié)點V的相鄰節(jié)點集合。

獲得文檔中詞語的權(quán)重之后,為了簡化計算,僅取出權(quán)重排名前k的詞來組成關鍵詞集合kword={kd1,kd2,…,kdk}。針對于每一篇文檔,通過式(6)獲取詞wordj的權(quán)重因子g(wordj),權(quán)重因子代表了該詞的重要程度。

計算文本中關鍵詞所對應的主題權(quán)重,主題權(quán)重反應的是詞語在不同主題中的分布情況,主題權(quán)重越大,則說明詞語在各個主題中的分布差異越大,相應的,對主題識別的貢獻度也就越大,主題權(quán)重的計算如式(7)所示:

其中,ηj表示詞wordj的主題權(quán)重,b表示主題類別數(shù),df(bi,wordj)表示類別bi中包含詞語wordj的文本個數(shù),df(D,wordj)表示在整個語料庫D中包含詞語wordj的文本個數(shù)。

詞語wordj的加權(quán)詞向量表示如式(8)所示:

其中,vj表示加權(quán)后的詞向量,符號代表按元素乘,則文檔di的加權(quán)詞向量表示為di=[v1,v2,…,vm]T。

本文在后續(xù)的模型訓練的過程中采用動態(tài)的詞向量訓練方法,即在模型的訓練過程中把詞向量也作為可優(yōu)化的參數(shù),詞向量隨著模型訓練動態(tài)地進行調(diào)整和優(yōu)化,使之更好地適應任務。由于該算法是采用先訓練Word2vec詞向量與主題向量再將兩者進行融合的方式,在獲取文檔中詞對應的詞向量時只需在詞典中找到該詞對應融合之后的詞向量,然后將該詞的權(quán)重因子與詞向量相乘即可獲得文檔中詞對應的加權(quán)詞向量,所以獲取詞對應加權(quán)詞向量的時間主要花費在了計算該詞的權(quán)重因子上,而權(quán)重因子的計算與當前的文檔長度相關,因此該算法的時間復雜度為O(n)。

此算法得到的文檔向量比單一的Word2vec詞向量表示更能表征文本,使用此算法獲得的文檔向量作為神經(jīng)網(wǎng)絡的特征表示進行學習,有助于提升模型的性能。

1.2 SECNN主題識別模型

卷積神經(jīng)網(wǎng)絡通過多個不同大小的卷積核實現(xiàn)對輸入文檔內(nèi)容的特征提取,不同卷積核產(chǎn)生的大量特征圖會對主題識別產(chǎn)生不同的影響。向量融合后,文檔的語義特征分布具有不確定性,為了讓模型更關注于對主題識別任務有益的特征,將SENet中的SE模塊引入到卷積神經(jīng)網(wǎng)絡中,設計出適用于主題識別任務的SECNN模型,對特征圖的重要程度進行建模學習,依據(jù)重要程度去增強有用特征并抑制無用特征,提高模型提取特征的能力,進而改善主題識別效果。SECNN模型由輸入層、卷積層、SE層、池化層、全連接和Softmax層組成,模型結(jié)構(gòu)圖如圖1所示。

圖1 SECNN模型結(jié)構(gòu)Fig.1 SECNN model structure

(1)輸入層

將文檔中的每個詞對應的詞向量進行拼接組成文檔矩陣作為模型的輸入。對句子長度為m的文檔構(gòu)建的輸入層文檔詞向量矩陣v1:m∈?m×d如式(9)所示,d為詞向量的維度。

其中,vi∈?d表示文檔中的第i個詞對應的d維詞向量表示,相應的vi:i+j表示vi,vi+1,…,vi+j。對于長度小于m的文檔作必要的補0操作。

(2)卷積層

卷積層采用不同大小的卷積核對尺寸為m×d的詞向量矩陣進行特征提取,卷積核的高度l分別設為3、4、5,每種高度的卷積核各輸出128個特征圖,每個文檔都設定一個固定大小的滑動窗口{v1:l,v2:l+1,…,vm-l+1:m},則高度為l的卷積核在窗口xi:i+l-1上進行一次卷積操作,得到一個特征hi,在每一個設定的滑動窗口上進行一輪完整的卷積后,就得到一個特征圖Y∈?m-l+1,如式(10)、(11)所示:

(3)SE層

SE模塊的特點是能夠?qū)μ卣魍ǖ乐g的關系進行建模,讓模型主動學習為每個特征圖的重要性進行賦值,突出重要特征權(quán)重而抑制對識別任務不重要特征的權(quán)重,增強網(wǎng)絡多特征圖中不同特征的表征能力。

每種高度的卷積核輸出特征圖的通道數(shù)為C,SE層將卷積層輸出的特征圖作為輸入,首先對特征圖的每個特征通道Yc做全局平均池化操作,得到壓縮后的特征圖zc,如式(12)所示。其是將每個二維的特征壓縮成一個一維實數(shù),這個實數(shù)某種程度上具有該特征通道的全局感受野,輸出的維度與輸入的特征通道數(shù)相匹配。

其中,W′、H′表示特征圖的尺寸,c∈{1,C}。

接著通過兩個全連接操作,訓練參數(shù)W1和W2對每個特征通道重要程度的識別能力,突出對主題識別任務重要的特征,通過Sigmoid函數(shù)得到歸一化之后的權(quán)重向量S如式(13)所示:

其中,δ表示ReLU激活函數(shù),σ表示Sigmoid激活函數(shù),,r表示中間層的隱層節(jié)點數(shù)。

最后通過乘法將權(quán)重向量逐通道加權(quán)到原始特征圖上,得到最終輸出,完成在通道維度上對原始特征的重標定,加權(quán)特征圖與原始特征圖有相同的維度大小,如式(14)所示:

其中,Sc表示相應特征圖對應的權(quán)重向量,符號?表示向量積運算。

(4)池化層

通過SE層對卷積層輸出特征圖的加權(quán)處理,對帶權(quán)重的特征圖進行最大池化操作來提取最優(yōu)特征,如式(15)所示:

即為池化層提取到的特征,每種高度下卷積核生成128個特征圖,經(jīng)過池化層之后,三種不同高度的卷積核共得到384個特征,將這些特征拼接后得到384×1的特征向量。

(5)全連接和Softmax層

將得到的特征向量作為全連接層的輸入,經(jīng)過Softmax函數(shù)進行分類識別訓練,全連接層輸出的節(jié)點數(shù)即為識別的類別數(shù),每一個節(jié)點分別對應一個類別。為了防止在模型訓練時出現(xiàn)過擬合,參考Kim[8]的策略在特征向量A上加入Dropout,即以一定的概率將特征向量中的值置為0,如式(16)所示:

其中,y表示主題識別的類別,wy為權(quán)值矩陣,by表示偏置項,符號°表示對應位元素相乘,r是服從Bernoulli分布的向量,其以p的概率等于1。

2 主題識別模型優(yōu)化

2.1 主題識別模型優(yōu)化算法

使用詞向量融合算法獲得文檔的向量化表示之后,輸入進SECNN模型進行主題識別訓練,為了進一步提高模型的主題識別效果,本文提出FDA-SGD算法對模型參數(shù)進行優(yōu)化。

傳統(tǒng)的隨機梯度下降算法采取每次選擇一個樣本對模型參數(shù)進行更新的策略,具有訓練速度快的優(yōu)點,但是由于每次選擇樣本的隨機性,使得模型更新迭代時并不總是向著優(yōu)化方向進行,導致模型訓練時損失函數(shù)上下波動較大,模型收斂速度慢。針對此問題,本文提出一種改進的隨機梯度下降算法FDA-SGD,算法使用FDA計算特征的類間離散度與類內(nèi)離散度,并以此來評估特征的類別表征能力大小,即是特征的類間離散度越大、類內(nèi)離散度越小,特征的類別表征能力越大,包含這些特征的樣本類別表征能力越大。算法計算出每個樣本所含全部特征的類別表征能力大小,從樣本集中挑選出更具類別代表性的單一樣本對模型參數(shù)進行更新,降低隨機選擇樣本致使模型向著非優(yōu)化方向進行的概率,解決傳統(tǒng)隨機梯度下降算法模型訓練時損失函數(shù)波動大、收斂速度慢問題。參數(shù)更新公式如式(17)所示:

其中,θ為優(yōu)化參數(shù),μ為學習率,?θJ(θ)為參數(shù)梯度。

為了衡量模型預測主題與實際主題之間的差距,使用交叉熵代價函數(shù)來對模型進行優(yōu)化,交叉熵代價函數(shù)如式(18)所示:

其中,n表示訓練集大小,b表示主題類別數(shù),y表示預測類別,?為實際類別,為正則項。

算法1FDA-SGD改進算法

輸入:帶有類別標簽訓練樣本集合D={d1:e1,d2:e2,…,dn:en},ei∈E,誤差函數(shù)loss,學習率μ,迭代終止閾值p

輸出:更新后的參數(shù)θ

1.初始化樣本集中每個樣本所含特征對應的特征值大小dλi=0

2.FDA算法求特征類別表征能力

3.計算特征的類內(nèi)散度矩陣Sw和類間散度矩陣Sb

使用FDA評估樣本的類別表征能力并挑選出更具類別表征能力的樣本進行模型參數(shù)更新,降低模型隨機選擇樣本使其朝著非優(yōu)化方向發(fā)展的概率,進而減小模型訓練時損失函數(shù)的波動和加快收斂速度。

2.2 模型描述

在進行文本主題識別時,為了提高主題識別準確率,本文首先使用詞向量融合算法將每個詞對應的Word2vec詞向量與LDA主題向量進行融合,并依據(jù)詞語對主題的貢獻度進行加權(quán)處理,得到文檔的向量化表示,然后使用SECNN模型對文檔向量進行特征提取并進行主題識別訓練,最后使用改進的FDA-SGD算法對模型整體進行優(yōu)化,完成文本主題識別任務。模型整體解決方案如圖2所示。

圖2 文本主題識別模型Fig.2 Text topic recognition model

3 實驗分析

3.1 數(shù)據(jù)集

實驗使用公開新聞語料庫THUCNews,包含14個主題,本文選取其中的財經(jīng)、房產(chǎn)、股票、家居、教育、科技、社會、時尚、時政、體育、游戲、娛樂12個主題進行主題識別實驗,每個主題抽取13 000條文本,劃分的訓練集、驗證集、測試集分別為10 000、1 000、2 000,共計156 000條文本。

3.2 評價指標

主題識別采用準確率(Precision)、召回率(Recall)、F1值作為評價標準,這些指標的計算所用到的混淆矩陣如表1所示。

表1 混淆矩陣Table 1 Confusion matrix

準確率是模型識別為A主題的所有結(jié)果中,模型識別正確所占的比重,如式(19)所示:

召回率是實際屬于A主題的所有結(jié)果中,模型識別正確所占的比重,如式(20)所示:

F1值是精確率與召回率的調(diào)和平均值,如式(21)所示:

3.3 參數(shù)設置

實驗采用谷歌開源TensorFlow框架,編程語言為python3.6,使用工具包Gensim在THUCNews語料庫中訓練Word2vec詞向量和LDA主題向量,詞向量維度設為300。CNN使用3種尺寸的卷積核對文本進行卷積操作,分別為3、4、5,每種尺寸的卷積核數(shù)量設為128。為了防止過擬合,在全連接層采用Dropout策略,Dropout概率值為0.5,即隨機選擇一半的參數(shù)丟棄。CNN模型訓練的參數(shù)設置如表2所示。

表2 CNN參數(shù)設置表Table 2 CNN parameter setting table

3.4 實驗結(jié)果分析

實驗1詞向量融合算法性能驗證

為了驗證改進詞向量融合算法的有效性,采用四種文檔向量化方式作對比實驗,分別為單一Word2vec詞向量(W2V)和Glove詞向量(Glove)、傳統(tǒng)onehot向量(one-hot)和本文提出的融合詞向量(W2V+LDA),選擇SECNN作為主題識別模型,實驗結(jié)果如圖3所示。

從圖3可以看出,采用onehot方法表示的主題識別結(jié)果相比而言效果最差,這種文檔表示方法忽略了詞語間的語義相關性,也沒有考慮詞語的順序,不是一種理想的文檔表示方法。Glove的準確率增幅比較明顯,達到了96.0%,說明利用語料庫的全局統(tǒng)計信息與詞語間的共現(xiàn)矩陣訓練詞向量,能夠提升準確率。Word2vec的準確率、召回率、F1分別為94.6%、95.0%、94.8%,整體取得了較好結(jié)果,但由于單一的Word2vec僅能表示詞語的局部上下文語義信息,與本文提出的詞向量融合算法生成的詞向量相比還是存在一定差距,而本文提出的詞向量融合算法在三個指標值上均取得了良好表現(xiàn),說明將Word2vec詞向量與LDA主題向量進行融合,并依據(jù)詞語對類別的貢獻度進行加權(quán)處理,能夠較好地彌補單一Word2vec詞向量的缺陷,具有更好的文本表征能力,從而驗證了該算法的優(yōu)越性。

圖3 不同向量的主題識別效果對比Fig.3 Comparison of topic recognition effects of different vectors

實驗2模型主題識別性能對比

為驗證改進SECNN模型的有效性,分別選取支持向量機(SVM)、K最近鄰(KNN)、樸素貝葉斯(NB)、沒有引入SE層的CNN四種模型作對比實驗,詞向量均使用本文提出的融合向量,實驗結(jié)果如表3所示。

表3 模型主題識別結(jié)果對比Table 3 Comparison of model topic recognition results %

從上述結(jié)果可以看出,在使用同一種向量化方式的前提下,神經(jīng)網(wǎng)絡模型在三個指標值上均優(yōu)于三種機器學習模型,說明神經(jīng)網(wǎng)絡模型在主題識別任務中比傳統(tǒng)機器學習模型更有性能優(yōu)勢,具有強大的特征提取能力和學習能力。引入SENet后的SECNN模型相比于CNN模型,在準確率、召回率、F1值三個指標值上分別提升了1.3%、1.2%、1.3%左右,說明引入SENet到CNN中之后,可以使模型更為關注有用特征并抑制無用特征,增強了模型提取特征的能力,進而也改善了主題識別效果。

為了進一步驗證SECNN模型的性能,分別選擇不同數(shù)量的訓練數(shù)據(jù)在主題識別任務上做對比實驗,在每個主題下選取的訓練數(shù)據(jù)數(shù)量從1 000到10 000之間遞增,每次增加1 000條數(shù)據(jù),共進行10次對比,采用比較有代表性的F1值作為評價標準,實驗結(jié)果如圖4所示。

圖4 不同數(shù)據(jù)量大小的性能對比Fig.4 Model performance comparison of different data sizes

從實驗結(jié)果可以看出,在數(shù)據(jù)量比較小的情況下,改進神經(jīng)網(wǎng)絡模型就已經(jīng)展現(xiàn)出優(yōu)勢,尤其是隨著數(shù)據(jù)量的增加,這種優(yōu)勢逐漸加大。這是因為神經(jīng)網(wǎng)絡模型中的學習參數(shù)較多,需要大量的數(shù)據(jù)才能達到較好的學習效果。而傳統(tǒng)機器學習模型隨著數(shù)據(jù)規(guī)模的增大,模型的學習能力并沒有隨之增加,三種模型的F1值最高僅達到了86.7%左右,這也是傳統(tǒng)機器學習模型的一個不足。另外,與CNN模型相比,SECNN模型在7 000條數(shù)據(jù)時F1值達到94.9%左右,而CNN模型在數(shù)據(jù)量為11 000條時的F1值為95.0%左右,說明SECNN在僅相差0.1%左右F1值的情況下,所需的訓練數(shù)據(jù)更小,證明SECNN模型具有更強的提取特征能力和學習能力。

實驗3改進FDA-SGD算法性能驗證

為了驗證本文改進的FDA-SGD算法訓練模型的穩(wěn)定性與優(yōu)化速度,選擇SGD、MBGD、BGD與本文的改進算法進行模型訓練誤差變化率與主題識別F1值的比較,使用12個主題的全部數(shù)據(jù)共計156 000條文本,詞向量與主題識別模型均采用本文提出的方法,四種算法在模型訓練時的誤差變化率比較如圖5所示,主題識別F1值隨時間的變化率比較如圖6所示。

圖5 相同迭代次數(shù)對模型訓練穩(wěn)定性的影響Fig.5 Influence of the same number of iterations on stability of model training

圖6 不同訓練時間下模型主題識別F1值對比Fig.6 Comparison of model topic recognition F1 values under different training times

從上述結(jié)果可以看出,BGD算法在整個模型訓練過程中損失曲線比較平穩(wěn),模型的訓練誤差隨著迭代次數(shù)的增加基本呈遞減趨勢,但是由于使用了全體樣本進行訓練,無法擺脫訓練速度慢的缺點。SGD算法每次隨機選取樣本進行參數(shù)更新,有訓練速度快的優(yōu)點,但隨機選擇的樣本并不能保證每次迭代更新都向著優(yōu)化方向進行,導致模型訓練時損失值波動較大且F1值較低。MBGD算法每次選擇部分樣本進行模型訓練,在一定程度上緩和了SGD算法每次隨機選擇一個樣本帶來的模型損失值波動大的問題,主題識別的F1值也有所提高。本文改進的FDA-SGD算法由于采用FDA對樣本的類別表征能力進行判斷,并選擇出更具類別代表性的樣本進行模型參數(shù)更新,與SGD和MSGD相比損失值的波動較小,訓練更穩(wěn)定,收斂速度更快。

為了更直觀地展示四種算法對模型訓練的影響,截取當FDA-SGD算法收斂時其與另外三種算法的準確率比較及在相同準確率情況下運行時間比較。實驗結(jié)果如圖7所示。

圖7 相同訓練時間下模型主題識別準確率對比Fig.7 Comparison of model topic recognition accuracy under the same training time

從實驗結(jié)果可以看出,在訓練時間為250 min時,F(xiàn)DA-SGD已經(jīng)收斂,準確率為96%左右,與SGD、MBGD、BGD相比,準確率分別提高了3.2%、1.6%、3.9%左右,其中BGD的準確率最低,這是因為其采用全量數(shù)據(jù)進行訓練,模型更新迭代需要時間較長。在模型準確率達到96%左右時,BGD算法與FDA-SGD算法的訓練時間分別為350、250 min,與BGD算法相比,F(xiàn)DA-SGD算法的時間效率提高了28.6%左右。究其原因在于FDA-SGD算法能夠計算得到特征的類間離散度與類內(nèi)離散度,在每次訓練時,都選擇包含最大類間離散度與最小類內(nèi)離散度特征的樣本進行模型訓練,降低了隨機選取樣本致使模型向著非優(yōu)化方向進行的概率,從而提高了模型收斂速度。綜上,F(xiàn)DA-SGD算法效果更優(yōu)。

4 結(jié)束語

本文使用改進的詞向量融合算法將Word2vec與LDA詞向量進行融合,依據(jù)詞語對類別的貢獻度進行加權(quán)處理,獲得語義信息更加豐富的文檔向量表示;利用引入的SENet對特征圖的重要程度進行建模學習,并在此基礎上搭建主題識別模型;最后使用改進的FDASGD算法完成模型優(yōu)化工作。實驗結(jié)果表明,改進的詞向量融合算法具有更好的文本表征能力;SECNN模型具有更強的特征提取能力和學習能力;改進的FDASGD算法具有更高的穩(wěn)定性和更快的收斂速度。

猜你喜歡
特征文本模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
如何表達“特征”
在808DA上文本顯示的改善
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
抓住特征巧觀察
3D打印中的模型分割與打包
文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
主站蜘蛛池模板: 国产精品香蕉在线| 天天视频在线91频| 精品福利视频导航| 国产成人久久综合777777麻豆| 婷五月综合| 99免费视频观看| 日本精品一在线观看视频| 国产女人水多毛片18| 性色生活片在线观看| 欧美精品二区| 亚洲无码久久久久| 日韩精品免费在线视频| 久久综合婷婷| 久久综合结合久久狠狠狠97色 | 亚洲天堂免费观看| 亚洲av片在线免费观看| 四虎亚洲精品| 日韩视频免费| 毛片免费高清免费| 日韩免费毛片| 欧美午夜网站| 欧洲精品视频在线观看| 一级黄色欧美| 国产在线啪| 亚洲日韩精品综合在线一区二区| 成人午夜免费视频| 日韩国产综合精选| 18黑白丝水手服自慰喷水网站| 国产电话自拍伊人| 国产精品久线在线观看| 片在线无码观看| 精品国产成人av免费| 国产视频 第一页| 国产成人一区免费观看 | 亚洲婷婷丁香| a级毛片网| 乱人伦中文视频在线观看免费| 99在线观看免费视频| 伊伊人成亚洲综合人网7777| 色一情一乱一伦一区二区三区小说 | 亚洲Av激情网五月天| 青青草一区| 一级不卡毛片| 亚洲无码久久久久| 国产精品亚洲一区二区三区z| 国产69囗曝护士吞精在线视频| 国产在线精彩视频论坛| 无码精油按摩潮喷在线播放 | 97国内精品久久久久不卡| 亚洲人成影视在线观看| 黄色在线网| 亚洲AV电影不卡在线观看| 久久99精品国产麻豆宅宅| 色呦呦手机在线精品| 亚洲欧美一区二区三区蜜芽| 久久这里只有精品2| 毛片视频网址| 色国产视频| 欧美精品aⅴ在线视频| 五月天婷婷网亚洲综合在线| 奇米影视狠狠精品7777| 欧美第九页| 国产熟睡乱子伦视频网站| 欧美一级视频免费| 国产综合另类小说色区色噜噜| 18禁影院亚洲专区| 国产9191精品免费观看| 伊人久久影视| 啊嗯不日本网站| 欧美国产精品拍自| 麻豆精品久久久久久久99蜜桃| 国产91丝袜在线播放动漫 | 性色一区| 五月激情综合网| 国产乱子精品一区二区在线观看| 久久精品波多野结衣| 亚洲成人精品| 婷婷亚洲视频| 色网站在线免费观看| 国产福利在线免费| www.91中文字幕| 欧洲一区二区三区无码|