999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

結合注意力機制與雙向切片GRU的情感分類模型

2020-09-02 06:52:20高波涌陳蓮娜
小型微型計算機系統 2020年9期
關鍵詞:文本實驗模型

陳 虎,高波涌,陳蓮娜,余 翠

(中國計量大學 信息工程學院 浙江省電磁波信息技術與計量檢測重點實驗室,杭州 310018)

E-mail:gaoby@cjlu.edu.cn

1 引 言

情感分析又稱為意見挖掘,從書面語言分析人們的觀點、情感、評價、態度,它是自然語言處理中最活躍的研究領域之一[1].在這個互聯網和社交媒體快速發展的時代,通過在線大量數據的收集、跟蹤得到公眾意見的信息,這些信息數據可用于商業,經濟甚至政治目的,這使得情緒分析成為極其重要的反饋機制.隨著過去幾年深度學習的日益普及、計算機硬件設備的不斷完善,再加上標記數據的日益增大,深度學習[2]模型已經取代了許多解決各種自然語言處理和計算機視覺任務的經典技術.基于深度學習的模型已經能夠在若干任務中實現最先進的性能,包括情緒分析,問題回答,機器翻譯,單詞嵌入和命名實體識別,以及圖像計算機視覺中的分類,物體檢測,圖像分割,圖像生成和無監督特征學習[3-6].

在自然語言處理領域,深度學習方法能夠在一定程度上自動捕獲文本中的語法和語義特征,而不再需要特征工程.由于CNN擅長捕獲空間局部特征及其結構模型的可并行性而被廣泛應用于圖像處理領域,一些學者將其引入自然語言處理任務,在特定數據上取得了良好的效果,但CNN不能夠充分捕獲文本序列時序信息,從而無法充分學習文本上下文信息.RNN適合處理序列數據,但是標準的RNN結構無法擺脫時間步驟上的依賴關系,造成訓練時間過長,Yu等人[7]創新性地改進RNN網絡層次結構,提出切片循環神經網絡(SRNN),使得RNN能夠實現并行計算.它將輸入序列進行多次切片處理,形成多個長度相等的最小子序列.因此,循環單元可以在每個層上同時處理每個子序列,實現并行計算,然后通過多層網絡進行信息傳遞.由于RNN存在梯度消失和梯度爆炸的問題[8,9],在具體任務中,SRNN大多采用標準循環神經網絡的變體如LSTM,GRU等作為循環單元.但是SRNN切片操作無法避免在網絡的低層造成長期依賴性的損失,同時其單向結構無法充分利用上下文的語義信息,限制了模型準確性.

針對以上網絡模型設計存在的問題,在本文研究中,我們利用GRU作為簡化RNN的改進版本,提出一種Bi-SGRU-Attention模型網絡,將文本切片為多個子序列,在每個子序列上獨立進行雙向RNN特征提取,增強語義提取深度,實現了訓練的并行,減少了訓練時間.并通過在每個子序列上加入注意力層,突出文本的關鍵信息和文本序列關鍵信息,用以彌補切片導致的低層網絡依賴性的損失.Bi-SGRU-Attention模型在公開數據集IMDB上進行實驗,與一些經典模型和同類型模型進行比較,本文模型在準確率、損失、F1值和訓練時間上取得了較好的效果,在中文酒店評論數據集上也驗證了模型的通用性.證明了Bi-SGRU-Attention模型在文本情感分類上的有效性.

2 相關研究

從2014年開始,注意力機制在機器翻譯任務中取得優越表現,隨后被廣泛運用到其他NLP任務中,并在文本分類任務中成為近年來的研究熱點.Yang等人[10]提出分層注意網絡(HAN)用于文檔分類任務,模型在詞語和句子級別上應用了兩個級別的注意力機制,使得模型能夠在構建文檔表示時差別對待不同文本信息.王偉等人[11]提出BiGRU-Attention網絡模型進行文本情感分類,通過雙向GRU對輸入文本進行隱含表示,利用Attention機制提取出關鍵特征.郭寶震等人[12],采用不同的算法得到兩種詞向量,并將它們輸入雙路卷積神經網絡,并結合注意力機制計算詞語權重分布,最終將兩種特征進行融合,得到了更加豐富的文本信息,以提高句子分類的準確率.關鵬飛等人[13]通過對輸入詞向量直接進行Attention權重分布,以學習到增強分類效果的信息,同時使用雙向LSTM對輸入的詞向量進行特征學習,將語義特征與重點詞特征融合,進行情感極性分析.Wang等人[14]提出了一種基于注意機制的長短期記憶網絡,用于方面級別的情感分類.

近年來,Bert語言模型[15]的提出,刷新了多項自然語言處理領域任務記錄,但是由于Bert語言模型的龐大性,可復現性較差,許多學者大多使用預訓練好的Bert模型進行微調用于下游任務中,然而預訓練模型對輸入長度的又有一定的限制,大量的模型參數也無法避免微調過程時間過長.Yu等人[7]提出了切片循環神經網絡,突破RNN時間依賴性的瓶頸,并通過多層網絡進行信息傳遞,在長文本情感分析中取得最高效的解決方案.針對該模型切片導致低層網絡的長期依賴性損失,Li等人[16]提出了一種斷點信息豐富機制,在不影響并行化的前提下增強子序列間的長期依賴關系用于情感分析中.

本文算法模型在以往的研究成果的基礎上,主要貢獻如下:

1)基于單向SRNN網絡結構與傳統雙向RNN改進了雙向GRU傳統的連接結構,實現雙向GRU網絡結構的并行計算,提高雙向GRU網絡在做文本情感分類任務中的訓練速度.

2)基于改進后形成的Bi-SGRU網絡結構,針對切片導致的低層網絡長期依賴性的損失,結合注意力機制實現特有的句子序列級別的局部特征關注,并在網絡層的傳遞過程中彌補上述損失,這使得網絡能夠更深層次的理解句子文本,提高文本特征提取的效果,實現分類精度的提升.

3)通過可視化注意力層權重進一步驗證注意力層對彌補低層網絡長期依賴性損失的有效性.

3 相關技術介紹

3.1 標準RNN連接結構

循環神經網絡(RNN)被廣泛應用于NLP任務,一個標準的RNN由輸入層、隱藏層、輸出層三部分構成.將一個多輸入、單輸出的循環神經網絡按照時間線展開,其連接結構如圖1所示.

圖1 標準RNN連接結構Fig.1 Standard RNN connection structure

假設輸入長度為8,那么序列(x1,x2,…,x8)輸入RNN模型,當前步驟等待前一步驟計算完成,每一步驟的計算由循環單元H完成,并使用最后一個隱藏狀態Y表示整個序列.

3.2 切片循環神經網絡(SRNN)結構

由于傳統RNN的連接方式在計算當前隱藏狀態時需要使用上一時刻隱藏狀態,因此造成RNN不可并行性,當輸入序列過長,計算時間也隨之延長.

Yu等人[7]通過改進RNN網絡層次結構使RNN能夠實現并行計算,提出了切片循環神經網絡,它將輸入序列進行多次切片處理,形成多個長度相等的最小子序列.因此,循環單元可以在每個層上同時處理每個子序列,實現并行計算,然后通過多層網絡進行信息傳遞.同時,Yu等人也經過推理計算,認為標準RNN是SRNN的一種特殊情況,SRNN能夠比標準RNN獲取到更多的信息,SRNN結構如圖2所示.

SRNN通過將輸入序列劃分成多個長度相等的最小子序列,循環單元可以在每一層同時處理每個子序列,信息通過層與層之間進行傳遞.設輸入的序列X長度為T,輸入序列可以表示為:

X=[x1,x2,…,xT]

(1)

其中xi為i時刻的輸入,它可以有多個維度,例如′Word Embeddings′.將X分割為n個等長的子序列,那么每個子序列N的長度t為:

(2)

n為切片的個數,那么X可以表示為:

X=[N1,N2,…,Nn]

(3)

每個子序列可以表示為:

Nm=[x(m-1)*t+1,x(m-1)*t+2,…,xm*t]

(4)

同樣的,對于每個子序列N,又可以被切片為n個子序列,重復切片操作k次直到達到最底層的最小子序列長度(如圖2所示的第0層),通過k次切片操作,共可以得到k+1層

圖2 SRNN結構Fig.2 SRNN structure

網絡結構,同時第0層的最小子序列長度l0和第0層的最小子序列個數p0分別為:

(5)

p0=nk

(6)

由于在第m層(m>0)的每個父序列被切片為n塊,因此第m層的子序列個數pm和第m層子序列長度lm分別為:

pm=nk-m

(7)

lm=n

(8)

如圖2所示,輸入序列長度T為8,進行k為2次切片操作,每一層切片數n=2,經過兩次切片操作后,在第0層得到4個最小子序列,每個最小子序列長度為2.

3.3 注意力機制(Attention Mechanism)

對于判定一條語句的情感傾向時,我們知道并非所有詞匯對句子含義的表示都有同等作用.同時,對于切片操作造成低層網絡的長期依賴性損失,通過注意力機制對每個序列的靠前段部分以及靠后段部分予以更大的權重,當信息傳遞到下一層時,能夠在一定程度上彌補低層網絡長期依賴性損失.同時,引入注意機制能夠提取對句子含義重要的詞,并匯總這些信息詞的表示用以表示句子向量.本文采用Yang等人[10]使用的單詞級別的注意力權重計算方式,具體實現步驟:

uij=tanh(Wwhij+bw)

(9)

(10)

(11)

其中,i表示第i個最小子序列,j表示最小子序列i的第j個詞匯,hij表示輸入,uij表示hij在詞注意力層的隱含表示;uw表示一個初始化用以表示上下文的向量,αij表示第i最小子序列中第j個詞匯的權重,si表示每一個子序列的新的表示.

4 Bi-SGRU-Attention情感分類模型

在當前情感分類研究中,采用傳統雙向RNN與注意力機制結合使用能夠取得良好的效果,為了提高雙向RNN網絡模型的訓練速度,并加強局部關注度,我們提出可并行的雙向切片GRU與注意力機制結合,構建Bi-SGRU-Attention情感分類模型,為了清晰展示模型思想,我們還是使用輸入長度為8,最小子序列為2示例,模型結構如圖3所示.

圖3 Bi-SGRU-Attention情感分類模型(以輸入長度為8,最小子序列為2示例)Fig.3 Bi-SGRU-Attention sentiment classification model

接下來詳細介紹每一層的具體操作:

1)輸入層

對如輸入序列的構成,我們采用Word2Vec方法先對文本進行預訓練生成詞向量并通過查表的方式形成句子向量,具體操作如下:

首先我們將所有的文本語料Xi,i∈[1,Q],Q為總的文本語料數量,進行預處理包括去除特殊字符、分詞.然后采用Word2Vec方法生成詞向量xm,xm的維度為100,m∈[1,M],M為文本中所有不重復詞匯個數.此處Word2Vec方法采用Skip-Gram模型實現.最后,用xij表示文本Xi的第j個詞的詞向量j∈[1,MaxLen],我們將每個句子的長度固定為MaxLen個詞向量構成,則句向量Xi可以表示為:

Xi=xi1⊕xi2⊕…⊕xij

(12)

對于輸入序列,我們在兩個方向上分別進行處理:

(13)

(14)

i,j分別表示處理方向上的第i個最小子序列的第j個輸入.

3)Attention層

該層主要是為每個序列單詞分配權重,首先,對于每個最小子序列,根據上一層輸出hij,輸入單層感知機MLP以此獲得hij的隱含表示uij,接著使用uij和一個初始化用以表示上下文的向量uw的相似度來衡量單詞的重要性,并通過softmax函數得到一個歸一化的重要性權重矩陣αij.最后,通過詞向量加權求和的方式得到每個最小子序列新的的表示si,實現句子序列級別的局部關鍵特征關注.

對于Attention層輸出序列(s1,s2,…,sp0),同樣也在兩個方向上進行處理:

(15)

(16)

我們同樣可以推算出第m層輸出的隱含表示:

(17)

(18)

6)融合層和softmax層

(19)

p=softmax(WYY+bY)

(20)

7)我們采用的損失函數為:

loss=-∑logpdj

(21)

其中,d表示每條文本語料,j表示標簽.

5 實 驗

5.1 實驗數據集及實驗環境

本實驗所采用的數據是公開的IMDB影評數據集[17].數據集中訓練集和測試集分別有25000條數據,訓練集和測試集分別有2個類別,如表1所示.

本實驗采用Python語言進行編程,使用Keras深度學習框架(以Tensorflow為底層),實驗運行環境為Windows10、Anaconda軟件,電腦硬件配置:I7處理器,8GB內存.

5.2 實驗評估指標

實驗采用的評估指標有準確率、損失、F1值和訓練時間,準確率計算公式為:

(22)

其中,NT表示被正確分類的樣本數目,NN表示樣本總數.

表1 數據集Table 1 Dataset

損失值在每一隨機批量訓練過程中,按照損失公式,公式(21)計算得到,F1值兼顧模型查全率(Recall)與查準率(Precision),訓練時間采用每次迭代過程平均所花費的時間.

5.3 模型參數

在本文的實驗中,詞嵌入維度設置為100,每個方向上隱藏層節點數設置為50.在這種情況下,Bi-SGRU為詞匯提供了100個維度表示.Batch_size設置為32,采用優化器:Adam,共迭代10次.模型參數如表2所示.

表2 實驗模型參數Table 2 Experimental model parameters

5.4 實驗過程

本文提出Bi-SGRU-Attention模型的具體實驗步驟如下:

a)從Keras數據集中提取IMDB數據;

b)使用Word2Vec工具訓練詞向量;

c)將句子轉換成索引表示,并固定長度;

d)每個索引對應一個詞向量;

e)將詞向量拼接成詞矩陣,作為模型的嵌入層權重;

f)將訓練文本測試文本分別進行切片處理作為Bi-SGRU-Attention模型的輸入;

g)文本最小子序列索引表示輸入嵌入層,再輸入Bi-SGRU層,提取子序列文本層次特征;

h)將每個子序列經過Bi-SGRU提取到的特征輸入到Attention層,分配相應的詞向量權重;

i)經過多個網絡層獲取整個文本序列的特征表示;

j)采用測試集數據進行模型評估.

為了確定在IMDB數據集上SGRU(n,k)切片的最佳效果,我們采用四種切片方式進行實驗:在MaxLen為125時1種切片方式:SGRU(5,2);在MaxLen為256時2種切片方式:SGRU(16,1)、SGRU(4,3);在MaxLen為512時一種切片方式:SGRU(8,2);實驗結果如表3所示.

由表3我們可以發現當k為2,n為8時,即當輸入序列長度為512,每次切片將序列切成8片,并進行2次切片操作時,效果較好.因此我們在進行雙向操作并加入Attention機制進行實驗的時候取k=2,n=8,MaxLen=512.

表3 SGRU不同切片實驗結果Table 3 SGRU different slice experiment results

5.5 對比實驗

將本文提出來的模型與以下7種模型進行比較.對比模型如下:

a)FastText模型.Joulin等人[18]提出的使用N元詞袋模型引入詞序信息,并將輸入向量加權求平均整合為一,并通過softmax進行分類,實驗采用1元詞袋模型;

b)C-LSTM,Zhou等人[19]提出的用CNN對文本特征進行提取,將這些特征輸入到LSTM中學習上下文依賴關系進行情感分析模型.本實驗設置濾波器長度為5,池化長度為4;

c)S-BiLSTM模型,Lu等人[20]提出采用2層雙向LSTM網絡堆疊進行情感分析的模型;

d)BiLSTM-EMB-ATT模型.關鵬飛等人[13]提出直接在詞向量上采用注意力機制計算每個詞情感權重分布,并與BiLSTM學習的文本特征進行融合的模型;

e)BiGRU-Attention,王偉等人[11]提出使用雙向GRU進行文本特征提取,并采用Attention機制計算單詞情感權重分布,進行分類的模型;

f)BiLSTM-Attention,與上述BiGRU-Attention模型一樣原理,只是采用了LSTM單元代替GRU;

g)Bi-SGRU模型,采用雙向切片GRU;

h)SGRU-Attention模型,采用單向SGRU,并結合注意力機制的模型;

對比實驗的具體實驗步驟如下:

a)從Keras數據集中提取IMDB數據;

b)使用Word2Vec工具訓練詞向量;

c)將句子轉換成索引表示,并固定長度;

d)每個索引對應一個詞向量;

e)將詞向量拼接成詞矩陣,作為模型的嵌入層權重;

f)將訓練文本測試文本輸入到上述對比實驗網絡模型;

g)獲取整個文本序列的特征表示;

h)采用測試集數據進行模型評估.

以上實驗詞向量維度均為100,輸入維度為512.實驗迭代次數均為10次,為了保證實驗模型變量層的唯一性,保證實驗可比性,除了模型的變量層功能不同,其他實驗條件都相同.

5.6 實驗結果以及實驗分析

實驗設置迭代次數設置為10次,各種模型在測試集上最高精度作為模型的準確率,及其對應的損失值作為模型損失,以及每次迭代所花費的時間如表4所示.

如表4所示,本文提出的模型在準確率、F1值與損失上取得了最優效果,與采用1-gram的FastText模型相比,FastText在訓練模型上花費的時間最少,但在準確率、F1值和損失都要比Bi-SGRU-Attention效果差,我們認為采用將所有詞向量加權取平均的操作不能夠充分的體現詞匯上下文依賴特征,采用N元詞袋模型引入詞序信息,當采用2元詞袋模型實驗時,參數量巨大,花費時間也將是巨大的,FastText在時間上的優勢就沒有那么明顯.C-LSTM模型在所有的實驗模型中,準確率最低,損失最高,我們認為在IMDB數據集上采用CNN與RNN串聯的方式提取文本特征的效果略差.采用兩層雙向LSTM堆疊方式的S-BiLSTM模型,與Bi-SGRU-Attention模型相比較,雙向LSTM堆疊的方式并不能夠突出重要特征,與其他幾種加入Attention機制的模型相比,它的準確率、F1值較低.采用堆疊的方式,在訓練時間花費上也要多出很多.與以上幾款經典的模型相比較,我們提出的模型更具有優勢.

表4 各種模型實驗結果Table 4 Various models experiment results

以上經典模型在模型設計上與我們提出的模型有很大的差異,為了使實驗更具有說服力,我們對其他加入Attention機制模型進行實驗結果分析:與BiLSTM- EMB-ATT模型相比,模型都是采用雙向RNN進行特征提取,BiLSTM- EMB-ATT模型對輸入序列同時進行雙向RNN特征表示和利用Attention機制進行詞向量權重分布表示,并將兩者特征進行融合,而我們的先對劃分的最小子序列進行兩個方向RNN表示,再在每一個子序列隱含表示的基礎上進行詞向量權重分布表示,BiLSTM- EMB-ATT模型雖然對輸入的文本增強了注意力表示,但是沒有關注到詞向量權重分布與RNN在提取文本特征之間的相互關系,使得模型效果略差.與BiLSTM-Attention模型和BiGRU-Attention模型相比較,這兩個模型,都先對輸入文本進行隱含表示,然后根據隱含表示計算詞向量的權重分布,兩者模型都沒有擺脫標準RNN時間步的依賴性,無法實現并行,Bi-SGRU-Attention模型通過切片操作方式,將輸入序列進行劃分,實現了分類模型的可并行性,由表4可以得出結論,本文提出的模型訓練所花費的時間遠遠小于這兩種模型,當輸入的文本序列更長的時候這種優勢將更為明顯.同時Bi-SGRU-Attention模型不僅沒有損失BiLSTM-Attention模型和BiGRU-Attention模型提取文本特征的效果,由于將輸入序列劃分成多個子序列進行特征提取的操作方式,信息通過多個網絡層傳遞,我們的模型還能夠關注到句子之間的局部特征關系,使得模型能夠捕獲到更多的信息.因此在各項評估指標中優于BiLSTM-Attention模型和BiGRU-Attention模型.

同時,與Bi-SGRU模型作比較,說明了在每個最小子序列上加入Attention機制,能夠對每個最小子序列的重點特征實現關注,彌補低層網絡長期依賴性損失從而提升模型情感分析效果.與SGRU-Attention模型比較,單向的SGRU模型只能夠使用過去的信息,采用雙向SGRU能夠結合過去和未來的信息,使得模型能夠更好的理解上下文信息.

為了驗證Attention機制的有效性,我們將Attention層的權重可視化.

圖4 總輸入序列的注意力權重圖Fig.4 Attention weight map of the total input sequence

如圖4所示,圖上展示一條影評語料輸入模型,對每個輸入序列(512個輸入片段)的關注度,通過觀察發現Attention機制能夠對語料的局部特征進行關注.前半段(圖上區域①范圍)為填充段,這些子序列的注意力層基本呈現相同的關注度.具體一個填充段的子序列注意力權重如圖5所示.

圖5 填充段注意力權重圖Fig.5 Padding segment attention weight map

對于第1個輸入片段到第4個輸入片段,注意力權重呈階梯狀遞減,第6個輸入片段到最后一個輸入片段注意力權重呈階梯狀遞增.間接反映了Attention機制能夠對子序列的前半部分以及后半部分予以關注,這樣通過層與層之間的信息傳遞,這些片段能夠在下一層中提供更多的信息,并以此彌補低層網絡的長期依賴性損失.

通過對該條影評語料樣本分析,我們選擇其中兩個關鍵序列進行注意力層權重輸出,如圖6和圖7所示.

通過圖6與圖7分析發現,除了關鍵詞得到一定的關注外(圖6中的′majority′、′Knowles′和圖7中的′stuck′與′basically′),序列的前小部分輸入與后小部分同樣也得到一定的關注,更加直觀的表明Attention機制能夠對子序列的前半部分以及后半部分予以關注,同樣能夠彌補切片操作造成的低層網絡依賴性損失.

圖6 關鍵序列1注意力權重圖Fig.6 Key sequence 1 attention weight map

圖7 關鍵序列2注意力權重圖Fig.7 Key sequence 2 attention weight map

5.7 模型通用性實驗

為了進一步驗證模型的通用性,我們在譚松波中文酒店評論數據集ChnSentiCorp-Htl-ba-6000(1)http://download.csdn.net/download/lssc4205/9903298上進行測試,數據集具體說明,如表5所示.

表5 酒店評論數據集Table 5 Hotel reviews dataset

在中文酒店評論數據集上的實驗步驟與在IMDB數據集上的實驗步驟僅在數據預處理上有所差別,在加載完數據后,中文數據需分詞處理,本實驗采用結巴分詞工具進行分詞.實驗環境、模型參數以及評估標準都保持不變.

為了確定在該數據集上SGRU(n,k)切片的最佳效果,我們采用與5.4節相同的四種切片方式進行實驗,結果如表6所示.

由表6我們可以發現當k為2,n為8時,即當輸入序列長度為512,每次切片將序列切成8片,并進行2次切片操作時,效果較好.因此我們在進行實驗的時候取k=2,n=8,MaxLen=512.

本次實驗為了驗證模型的通用性,我們僅與王偉等人[11]提出BiGRU-Attention模型對比,實驗結果如表7所示.

表6 不同切片實驗結果Table 6 Different slice experiment results

表7 模型通用性實驗結果Table 7 Model versatility experiment results

如表7所示,本文提出的Bi-SGRU-Attention模型在中文酒店評論數據集上依舊表現最好.模型Bi-SGRU與模型SGRU實驗結果表明雙向切片操作能夠更加充分提取文本語義信息.模型Bi-SGRU-Attention與模型Bi-SGRU實驗結果表明,加入Attention機制能夠彌補低層網絡長期以來損失.模型Bi-SGRU-Attention與模型BiGRU-Attention實驗結果表明,雙向切片循環神經網絡能夠獲得比傳統雙向循環神經網絡更深的文本語義信息.同時,充分表明本文所提模型的有效性及通用性.

6 結束語

本文提出的Bi-SGRU-Attention模型,比起廣泛應用于情感分析的幾款經典模型有著更高的準確率,在同種類型即RNN和Attention機制結合的模型中,本文模型有著更為穩定的效果,且實現了RNN在訓練過程中并行性的可能,大大縮減了模型的訓練時間,尤其對長文本情感語料進行分析時,有著更為明顯的優勢.總體上來看,本文所提出模型改變了傳統雙向RNN網絡連接方式,在沒有降低網絡特征提取效果的前提下,有著更快更穩定的優勢.但是本模型在子序列的特征提取的處理上還是采用標準的RNN處理方式,無法像CNN一樣實現完全的并行,在速度上與CNN網絡模型還是有著不小的差距.

猜你喜歡
文本實驗模型
一半模型
記一次有趣的實驗
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
在808DA上文本顯示的改善
做個怪怪長實驗
基于doc2vec和TF-IDF的相似文本識別
電子制作(2018年18期)2018-11-14 01:48:06
3D打印中的模型分割與打包
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 久久精品人妻中文视频| 亚洲一区二区日韩欧美gif| 国产白浆在线| 日日拍夜夜嗷嗷叫国产| 亚洲国产成人麻豆精品| 欧美精品在线视频观看| 手机在线国产精品| 国产欧美专区在线观看| 国产国拍精品视频免费看| 欧美一区精品| 亚洲欧美日韩中文字幕在线一区| 国产无遮挡猛进猛出免费软件| 久久久久久尹人网香蕉| 国产在线麻豆波多野结衣| 国产精品视频导航| 老熟妇喷水一区二区三区| 色综合国产| 99这里只有精品在线| 国产欧美精品一区二区| 中文字幕 日韩 欧美| 久久久久亚洲AV成人人电影软件| 一本大道香蕉高清久久| 日本午夜影院| 日韩在线欧美在线| 国产主播在线一区| 日韩人妻无码制服丝袜视频| 日韩高清成人| 狠狠色综合网| 手机在线免费不卡一区二| 成人va亚洲va欧美天堂| 色综合五月| 国内精品手机在线观看视频| 久久精品国产999大香线焦| 宅男噜噜噜66国产在线观看| 亚洲日本精品一区二区| 国产剧情国内精品原创| 欧美日韩另类在线| 欧美亚洲国产日韩电影在线| 毛片在线区| 无码福利视频| 亚洲精品国产精品乱码不卞| 亚洲欧洲日韩久久狠狠爱| 亚洲成aⅴ人在线观看| 91久久国产综合精品| 国产不卡国语在线| 亚洲人成电影在线播放| 亚洲综合久久成人AV| 国产在线欧美| 国产精品免费露脸视频| 日韩在线欧美在线| 性喷潮久久久久久久久| 超清人妻系列无码专区| 欧美激情,国产精品| 国产成人在线小视频| 无码精品福利一区二区三区| 国产精品久久久久久久久久久久| 国产电话自拍伊人| 亚洲熟女偷拍| 在线日韩日本国产亚洲| 久久99精品久久久久纯品| JIZZ亚洲国产| 九色在线视频导航91| 日韩精品欧美国产在线| 国产精品久久久免费视频| 色婷婷电影网| 夜夜爽免费视频| 精品三级网站| 女人爽到高潮免费视频大全| 国产亚洲欧美在线中文bt天堂| 国产精品女同一区三区五区| 国产在线精品网址你懂的| 亚洲AV无码乱码在线观看代蜜桃| 亚洲精品视频免费看| 人人91人人澡人人妻人人爽| 久久无码高潮喷水| 911亚洲精品| 永久成人无码激情视频免费| 精品人妻无码中字系列| 九九热这里只有国产精品| 99久久精品国产自免费| 日本久久网站| 亚洲成人高清无码|