999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于雙編碼器的短文本自動摘要方法

2019-01-06 07:27:07丁建立李洋王家亮
計算機應用 2019年12期

丁建立 李洋 王家亮

摘 要:針對當前生成式文本摘要方法存在的語義信息利用不充分、摘要精度不夠等問題,提出一種基于雙編碼器的文本摘要方法。首先,通過雙編碼器為序列映射(Seq2Seq)架構提供更豐富的語義信息,并對融入雙通道語義的注意力機制和伴隨經驗分布的解碼器進行了優化研究;然后,在詞嵌入生成技術中融合位置嵌入和詞嵌入,并新增詞頻-逆文檔頻率(TF-IDF)、詞性(POS)、關鍵性得分(Soc),優化詞嵌入維度。所提方法對傳統序列映射Seq2Seq和詞特征表示進行優化,在增強模型對語義的理解的同時,提高了摘要的質量。實驗結果表明,該方法在Rouge評價體系中的表現相比傳統伴隨自注意力機制的遞歸神經網絡方法(RNN+atten)和多層雙向伴隨自注意力機制的遞歸神經網絡方法(Bi-MulRNN+atten)提高10~13個百分點,其文本摘要語義理解更加準確、生成效果更好,擁有更好的應用前景。

關鍵詞:生成式文本摘要;序列映射(Seq2Seq);雙編碼器;經驗分布;詞特征表示

中圖分類號: TP391.1文字信息處理文獻標志碼:A

Short text automatic summarization method based on dual encoder

DING Jianli, LI Yang*, WANG Jialiang

(College of Computer Science and Technology, Civil Aviation University of China, Tianjin 300300, China)

Abstract: Aiming at the problems of insufficient use of semantic information and the poor summarization precision in the current generated text summarization method, a text summarization method was proposed based on dual encoder. Firstly, the dual encoder was used to provide richer semantic information for Sequence to Sequence (Seq2Seq) architecture. And the attention mechanism with dual channel semantics and the decoder with empirical distribution were optimized. Then, position embedding and word embedding were merged in word embedding technology, and Term Frequency-Inverse Document Frequency (TF-IDF), Part Of Speech (POS), key Score (Soc) were added to word embedding, as a result, the word embedding dimension was optimized. The proposed method aims to optimize the traditional sequence mapping of Seq2Seq and word feature representation, enhance the models semantic understanding, and improve the quality of the summarization. The experimental results show that the proposed method has the performance improved in the Rouge evaluation system by 10 to 13 percentage points compared with traditional Recurrent Neural Network method with attention (RNN+atten) and Multi-layer Bidirectional Recurrent Neural Network method with attention (Bi-MulRNN+atten). It can be seen that the proposed method has more accurate semantic understanding of text summarization and the generation effect better, and has a better application prospect.

Key words: generated text summarization; Sequence to Sequence (Seq2Seq); double encoder; empirical distribution; word feature representation

0 引言

如今,互聯網的快速發展使得網絡平臺成為了人們交互信息、互相溝通的重要途徑,也使得人們更容易瀏覽和發布信息。在線信息的爆炸式增長使得信息過載成為了一個嚴重的問題,面對海量信息,如何從中獲取對自己有用的數據已經成為了信息處理領域迫切解決的問題。

自動文本摘要是自然語言處理領域的重要分支。文本摘要是指通過計算機從大量文本中提取關鍵信息,自動文本摘要是信息提取和壓縮的關鍵技術。自動文本摘要早在20世紀50年代就已出現,依據摘要形式可將其分為抽取式和生成式,抽取式文本摘要是認為文章的中心思想可以由文章中的一個或幾個句子進行概括。生成式文本摘要是基于對文章上下文的理解,可以像人一樣對文章進行總結,所概括的文本不必在原文中出現但要切合全文語義。相比之下,生成式文本摘要更加貼近人類思維,更能準確反映文本意境,但同時涉及自然語言理解和文本重塑,使得理解概要更加困難。

目前,深度學習技術已經廣泛地應用于自然語言處理領域,包括閱讀理解[1]、自動問答[2]、機器翻譯[3]、文本重塑[4]等任務。基于數據驅動的端到端的文本摘要生成方法靈感來源于機器翻譯的神經網絡模型。Lopvrev[5]利用遞歸神經網絡和長短期記憶網絡 (Long Short-Term Memory network, LSTM)神經單元構建了基于Encoder-Decoder框架的抽象生成模型,并結合自注意力機制生成文本摘要。Rush等[6]提出了改進的注意力模型用于句子摘要生成。Hu等[7]基于遞歸神經網絡(Recurrent Neural Network, RNN)的編碼器-解碼器結構應用于中文文本摘要任務。Zhang等[8]使用字符級特征作為RNN編解碼器框架的輸入,在保證性能的同時縮小了特征空間的維數。See等[9]提出了一種混合指針生成器網絡,保證了生成摘要原義重述的精確性又保留了新單詞的生成能力。Chen等[10]結合多層神經網絡隱層語義來提高摘要生成質量。張克君等[11]通過增加多層編解碼器網絡層數并結合改進的詞嵌入特征提高了模型對語義的理解。目前對于長短文本的摘要生成任務是自然語言研究熱點[12-14],面對構詞結構迥異、組成結構復雜的文本如何生成語義理解充分、準確度高的摘要是當前亟待解決的問題。當前普遍使用的是編碼器解碼器的抽象生成學習方法,即序列映射(Sequence to Sequence, Seq2Seq)文本學習模型來生成文本摘要,但僅僅通過多個網絡層的線性堆疊或增加原文相關詞語的復制能力,往往不能較好提升單詞級或字符級語義理解能力;而且面對中文短文本句子數量少、文本長短不一的情況,神經網絡層數的線性疊加并不能使得模型獲得良好的生成質量。

人類書寫文本摘要首先是閱讀全文,理解文章的全局意義,然后通過原文和自己的理解對文章的整體進行概括摘要。

本文通過研究人類理解思考過程對Seq2Seq文本摘要生成模型如下改進:1)將雙編碼器應用于編碼器端,高層編碼器用于獲得文本的全局語義信息,而低層編碼器專注于編碼過程中原始序列的對齊單詞語義表示。2)通過建立全局、局部語義信息與原始文本和摘要之間的內在對齊聯系,來優化注意力機制使其融合雙編碼器混合語義信息和解碼器隱藏狀態。3)為解碼器端增加關鍵詞經驗概率分布,加快模型收斂并使生成的摘要更準確。4)融合位置嵌入、詞嵌入方法,增加詞性、詞頻和關鍵性得分改進單詞特征表示以提高模型對詞義的理解;并根據語料庫的大小優化詞向量生成的最優維度。

1 改進的雙編碼器結構的文本摘要生成模型

本文設計的摘要生成模型包含高層和低層雙編碼器結構,高層編碼器注重于全文的上下語義理解,低層編碼器注重于文本特征與隱層狀態的對其輸入,兩者形成聯合語義向量表示;解碼端采用多層單向神經網絡結合改進的詞表經驗分布Qo來輸出高質量摘要。本文改進的雙編碼器結構的文本摘要生成模型Do-Seq2Seq(Double-Seq2Seq)詳細架構如圖1所示。

圖1中,伴隨自注意力機制(Attention)的高層編碼器生成全局語義信息M,低層編碼器生成文本特征對齊向量,兩者融合為聯合語義向量(Joint Vector)用于解碼端,Qo為解碼端詞表經驗分布。

1.1 基于雙向遞歸神經網絡的雙編碼器

文本摘要的抽象生成不僅要對全文進行語義理解還要對原始文本進行壓縮和重塑,并不能像機器翻譯任務那樣通過雙語言并行對齊生成高質量的摘要,為了解決傳統Seq2Seq模型中編碼器端輸出的語義信息不完全、不充分的問題,本文設計了雙編碼器結構用于獲取原文的全局語義信息和局部上下文語義信息。如圖1所示,高層編碼器將文本輸入序列(x1,x2,…,xn)通過伴隨自注意力機制的雙向遞歸神經網絡(Bidirectional RNN, BiRNN)映射成高維語義向量M,低層編碼器聚焦于原始文本局部語義的一致性表示,將文本輸入序列(x1,x2,…,xn)通過BiRNN映射成編碼器隱藏狀態向量(h1,h2,…,hn)。本文所述的雙編碼器具體計算式如下:

H=(H1,H2,…,Hm)=BiRNN(x1,x2,…,xm)(1)

SHi=VH tanh(WHHi)(2)

aHi=exp(SHi)∑ni=1exp(SHi)(3)

M=∑ni=1aHiHi(4)

在式(1)中,原始文本通過雙向遞歸神經網絡將原始文本轉化為高層編碼器的隱藏狀態表示;然后,通過式(2)非線性激活函數將H映射為相似性分數,其中VH和WH為優化參數矩陣;式(3)表示通過Softmax對SHi進行歸一化處理;式(4)通過歸一化得分和編碼器隱藏狀態信息的加權求和獲得M,M代表著原文全局語義向量表示。

1.2 融合全局與局部語義的注意力機制

注意力機制緣起于計算機視覺領域,其核心思想是在瀏覽全局圖像后,獲得需要重點關注的目標區域。隨后注意力機制引入到文本處理領域,并獲得了良好的效果。

在文本摘要任務中注意力機制是在編碼器-解碼器兩端增加的連接架構,以解決Seq2Seq模型中文本語義理解不充分的問題。傳統的注意力機制是將編碼器的隱藏狀態和解碼器的隱藏狀態通過加權求和融合成高維語義表示,并指示解碼器對序列中哪一單詞語義需重點關注。

本文在此基礎之上將雙編碼器獲得全局和局部語義信息融入到注意力機制,豐富原文語義信息表示,增強對文本的閱讀理解。該注意力機制的詳細計算過程如下:

h=(h1,h2,…,hn)=BiRNN(x1,x2,…,xn)(5)

SLti=S(hi,M,St-1)=

Vetanh(Wh[hi,M]+VsSt-1)(6)

aLti=exp(SLti)∑ni=1exp(SLti)(7)

Ct-1=∑ni=1aLtihi(8)

式(5)為低層編碼器將序列映射為隱藏狀態向量(h1,h2,…,hn)。在式(6)中,原始文本的全局語義向量M和低層編碼器隱藏狀態hi級聯通過優化參數Wh將其轉化為當前狀態的語義表示,解碼器隱藏狀態St-1與Vs相乘獲得解碼器當前狀態信息的向量表示;然后,兩者通過相應元素的對齊相加,并通過非線性激活函數tanh()映射成一融合狀態向量,該融合狀態向量結合了編碼器端第i步的語義信息和t-1時刻解碼端的隱藏狀態信息。Ve為優化參數矩陣與結果作內積運算,其過程實質是將注意力機制語義表示和編碼器解碼器的隱藏層狀態通過得分函數映射為相似性得分。式(7)是將得分通過Softmax映射成概率分布。式(8)是加入低層編碼器隱藏狀態加權求和獲得聯合上下文語義表示Ct-1。具有雙編碼器結構的注意力機制融合了全局與局部的雙通道語義,使其更能聚焦于原始文本的抽象語義特征,語義理解更豐富。

1.3 伴隨經驗概率分布的解碼器

本文采用雙層單向神經網絡設計解碼器。傳統解碼器將當前t時刻的隱藏向量、上下文高層語義和t-1時刻解碼端的輸出序列通過條件概率函數映射為t時刻輸出序列的待選概率。解碼端輸出摘要雖不強求出自于原文,但相關部分卻來自原文。本文在此基礎上引入了關鍵詞經驗概率分布,使得解碼端生成摘要序列時增加原文待選詞的傾向性,同時可提高解碼端的收斂速度。

p(ytx)=

Softmax(WcCt+WoSt+QSo+yt-1+bo)(9)

QSo=WQV+λo(10)

式(9)中:Ct為融合全局和局部語義信息的上下文語義表示;St為當前時刻解碼器的隱藏狀態;yt-1為t-1時刻輸出詞;QSo為輸出序列候選詞經驗概率分布;Wc、Wo、bo為優化參數。QSo的定義在式(10)中:WQ、λo為優化參數矩陣;“”表示哈達馬積(Hadamard)再與λo對位相加;V為詞表0/1向量矩陣V=(v1,v2,…,vm),v1=1代表該詞在文章中出現過,否則v1=0。QSo的引入增加了出現在原文中候選詞的輸出概率,加速了收斂過程。

2 改進的詞嵌入技術

2.1 增加詞嵌入特征

中文內容實驗研究中通常使用word2vec或Glove來生成文本的詞向量,前者使用當前詞的向量表示推測出周圍詞的向量表示,后者使用了全局語義信息使得訓練的速度更快。兩者在原理上注重詞語間在向量表示空間中的相對位置,即語義相似關系。為豐富語義,在原詞向量的基礎上融合位置向量并新增詞特征。

生成的文本摘要要在有限的字數內表達出涵蓋整篇短文的理解語義,因此詞序對摘要質量有很大影響,例如:“我愛你”和“你愛我” ,“你” “我”兩字因詞位置的顛倒使句子主賓關系產生變化,改變了摘要應該表達的原有意思,對摘要結果產生重大影響。本文將位置嵌入(Position Embedding) [15]和詞嵌入 (Word Embedding)結合形成新的詞向量表示。此外,在此基礎上增加了詞性(Part Of Speech, POS)、詞頻逆文檔頻率(Term Frequency-Inverse Document Frequency, TF-IDF)和關鍵性得分(key Score, Soc)來豐富單詞語義特征,使得對詞語的特征刻畫更加豐富、充分,為模型訓練提供了更好的特征表達。改進的詞嵌入模型如圖2所示。

本文將所有詞表元素{x1,x2,…,xm}映射為詞向量W=(w1,w2,…,wm),wi∈Rf,同時將詞所在文本中的位置映射為位置向量P=(p1,p2,…,pm),pj∈Rf;將詞向量和位置向量結合為新的向量U=(w1+p1,w2+p2,…,wm+pm)。位置向量(Position Embedding)的生成公式如下:

PE(pos,2i)=sin(pos/100002i/dmodel)

PE(pos,2i+1)=cos(pos/100002i/dmodel)(11)

其中,在被分詞為長度為n的短文本中,將單詞所在位置pos映射成為一個dmodel維的位置向量,且此位置向量第i維的值為PE(pos,i)。位置向量看似是由公式生成的絕對位置,但借助于函數sin(α+β)、cos(α+β)的三角函數性質可知:位置(α+β)的向量可以表示成位置α向量的線性變換,也為相對位置的表達提供了可能,這與詞向量表示單詞相對位置語義空間映射的實質有相同之處。

生成的文本摘要大多是以陳述的總結句為主,更加聚焦于名詞和動詞,對于附有感情色彩的形容詞關注較少。TF-IDF指數能反映詞語在語料庫的綜合特征,將生成的詞語的POS(詞性)、TF-IDF、Sco(關鍵性得分)樸素連接在融合向量后端構成新的詞向量作為編碼器的輸入。Sco的定義如式(12)所示:

Sco(wi)=βP(wi)+β(12)

其中:P(wi)為單詞頻率;β為平滑反頻率系數。在短文本中,詞語的關鍵程度因字數限制與其頻率往往具有負相關關系,相關程度因語料庫的不同而有差異。參數β的引入平衡頻率對詞語關鍵程度的影響,出現頻率較小關鍵性可能更高。

2.2 優化詞嵌入維度

word2vec、Glove是當前最受歡迎的詞嵌入方法,但目前對于詞嵌入維度的選擇卻頗為隨意,沒有一定的理論依據,不同語料庫的大小采用隨意的嵌入維度,并不能保證模型的最優性,勢必影響語義表示質量。大量實驗研究表明,詞嵌入學習維度選擇過小會造成語義丟失,維度過大會引入太多噪聲。一個較好質量的語義高維矩陣無論矩陣怎樣變換,空間中詞向量的相對位置保持不變。本文通過依據矩陣微擾理論設計的伴隨酉不變性質的成對內積(Pairwise Inner Product, PIP)損失函數[16]為當前語料庫設計最優的維度嵌入表示,提高詞向量表示精度。PIP損失函數如下。

PIP(E)=EET(13)

E[‖E^E^T-E*E*T‖]≤∑di=k+1λ4αi+

22nασ∑ki=1λ4α-2i+

2∑ki=1(λ2αi-λ2αi+1)σ∑r≤i < s(λr-λs)-2(14)

式(13)為PIP矩陣定義。式(14)為損失函數期望估計量,其中:E^∈Rn×k為已得到的詞向量矩陣,E*∈Rn×d為未獲得的最優詞向量矩陣;k、d為維數,k

3 實驗與結果分析

3.1 實驗數據優選

本文使用由搜狗實驗室提供的新聞語料庫數據集,該數據集中共包含來自娛樂、文化、教育、軍事、社會、金融等679978條新聞標題數據對。針對文本摘要生成任務,語料庫數據質量同樣影響著最終的實驗結果,需要過濾數據集以提取高質量的文本摘要數據。首先,對數據集預處理去除掉長度小于5的文本,替換英文、特殊字符、表情符號等雜亂字符;其次,摘要是基于語言理解對文本內容的高度壓縮與重塑,兩者相比文字數量雖有減少但仍具有一定的相關程度。本文依據摘要與原文語義相似度的大小將數據分為三級以選取高質量的實驗數據對:1表示最不相關,3表示最相關。文本摘要語義相似度在區間(0,0.15)內相關度為1,在區間[0.15,0.65)內相關度為2,在區間[0.65,1)內相關度為3。本文設計語義相似度算法計算式如下:

vs=1|s|∑w∈sIDFwvw(15)

cos θ=a·b‖a‖‖b‖=∑ni=1AiBi∑ni=1Ai2∑ni=1Bi2(16)

其中:|s|為當前句子所含詞數;IDFw為詞文檔逆文檔頻率指數;vw為詞向量。式(15)專注句子向量生成,并通過余弦距離計算文本摘要對之間的相似度如式(16);數據集的優選劃分詳細如表1所示。

由表1可以看出:本文依據語義相似度將數據分為3個相關程度,如數據集Ⅰ所示,數據總數為679898,將此部分作為訓練集;數據集Ⅱ是從Ⅰ的相關度為2和3的數據中隨機交叉選取的12923條數據作為驗證集;數據集Ⅲ是從Ⅰ的相關度為3的數據中隨機選取的2535條數據集作為測試集,且這部分數據不會包含在Ⅰ的訓練集中。

表格(有表名)表1 實驗數據劃分結果

Tab. 1 Experimental data partition results

數據集相關度數量Ⅰ11540225516483112928Ⅱ2 708235841Ⅲ3 2535

3.2 實驗參數

本文使用jieba分詞工具對語料庫進行分詞,選取10000個高頻詞匯作為編碼器的字典詞匯表,通過成對內積損失函數PIP選取最優的詞向量維度221維,如圖3所示。高層編碼器采用200個門控循環單元(Gated Recurrent Unit, GRU)神經單元、3層BiRNN結構,低層編碼器采用200個GRU神經單元、3層BiRNN結構。解碼端采用集束收縮(beam search)方法,束大小為5;batch_size(批尺寸)為64,平滑參數β=10-3。本文所提的具有雙編碼器的Do-Seq2Seq模型在服務器PowerEdge R210 Ⅱ上運行將近6d時間得到最終結果。

詞嵌入的最優維度與語料庫規模有關,不同大小語料庫伴隨著不同的詞數量、字典量、組詞結構,想要找到最優的詞嵌入維度實質是找到詞向量矩陣偏差與方差的最佳平衡點。損失函數PIP隨詞嵌入維度的變化如圖3所示。由圖3可以看出,PIP值在0~221維內隨維度的增加而減小,221維之后PIP值隨維度的增加而增加;在221維處PIP值達到最小值即當前語料庫的最優維度。

自動文本摘要質量的評價方法分為外部評價方法和內部評價方法兩大類。外部評價方法是使用生成的摘要執行本文相關任務如文檔檢索、文檔分類等,依據其應用性能的水平來評判摘要質量的高低;內部評價方法需提供參考摘要,參考摘要與生成摘要之間的吻合度越高,質量越好。最常使用的是內部評價方法。文本摘要任務中國內與國際最經常使用的內部方法是:Edmundson和Rouge[17],而Rouge更是被廣泛地應用于文本摘要任務的評價當中。本文采用Rouge評價體系對文本摘要的質量進行評價。Rouge是基于摘要中n元詞(n-gram)的共現信息來評價摘要質量,是一種面向n元詞召回率的評價方法。本文使用Rouge-1、Rouge-2和Rouge-L來評估摘要質量和模型性能。

3.3 結果分析

本文采用上述數據集進行實驗,包括與文獻[7]方法和文獻[11]方法的對比實驗,以及融合位置嵌入與否、詞嵌入維度優化與否的本文方法前后對比實驗,實驗詳情如表2所示。其中:

1)RNN+atten(RNN method with attention)[7]:代表使用帶有注意力機制的GRU門控單元的神經網絡模型。

2)Bi-MulRNN+atten(Multi-layer Bidirectional RNN method with attention)[11]:代表文獻[11]中改進的雙向多層遞歸神經網絡文本摘要方法。

[3]CHEN K, ZHAO T, YANG M, et al. A neural approach to source dependence based context model for statistical machine translation [J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2017, 26(2): 266-280.

[4]GAMBHIR M, GUPTA V. Recent automatic text summarization techniques: a survey [J]. Artificial Intelligence Review, 2017, 47(1): 1-66.

[5]LOPYREV K. Generating news headlines with recurrent neural networks [EB/OL]. [2019-03-15]. https://arxiv.org/pdf/1512.01712.pdf.

[6]RUSH A M, CHOPRA S, WESTON J, et al. A neural attention model for abstractive sentence summarization [EB/OL]. [2019-03-13]. https://arxiv.org/pdf/1509.00685.pdf.

[7]HU B, CHEN Q, ZHU F, et al. LCSTS: a large scale Chinese short text summarization dataset [C]// Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2015: 1967-1972.

[8]ZHANG H, LI J, JI Y, et al. Understanding subtitles by character-level sequence-to-sequence learning [J]. IEEE Transactions on Industrial Informatics, 2017, 13(2): 616-624.

[9]SEE A, LIU P J, MANNING C D, et al. Get to the point: summarization with pointer-generator networks [C]// Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2017: 1073-1083.

[10]CHEN G. Chinese short text summary generation model integrating multi-level semantic information [C]// Proceedings of the 2018 International Conference on Network, Communication, Computer Engineering. Paris: Atlantis Press, 2018: 1-12.查不到該文獻,核實要素是否有誤?

[11]張克君,李偉男,錢榕,等.基于深度學習的文本自動摘要方案[J].計算機應用,2019,39(2):311-315.(ZHANG K J, LI W N, QIAN R, et al. Automatic text summarization scheme based on deep learning [J]. Journal of Computer Applications, 2019, 39(2): 311-315.)

[12]沈華東,彭敦陸.AM-BRNN:一種基于深度學習的文本摘要自動抽取模型[J].小型微型計算機系統,2018,39(6):1184-1189.(SHEN H D, PENG D L. AM-BRNN: automatic text summarization extraction model based on deep learning [J]. Journal of Chinese Computer Systems, 2018, 39(6): 1184-1189.)

[13]李娜娜,劉培玉,劉文鋒,等.基于TextRank的自動摘要優化算法[J].計算機應用研究,2019,36(4):1045-1050.(LI N N, LIU P Y, LIU W F, et al. Automatic digest optimization algorithm based on TextRank [J]. Application Research of Computers, 2019, 36(4): 1045-1050.)

[14]龐超,尹傳環.基于分類的中文文本摘要方法[J].計算機科學,2018,45(1):144-147,178.(PANG C, YIN C H. Chinese text summarization based on classification [J]. Computer Science, 2018, 45(1): 144-147, 178.)

[15]GEHRING J, AULI M, GRANGIER D, et al. Convolutional sequence to sequence learning [C]// Proceedings of the 2017 International Conference on Machine Learning. Berkeley: USENIX Association, 2017: 1243-1252.

[16]YIN Z, SHEN Y Y. On the dimensionality of word embedding [C]// Proceedings of the 2018 Neural Information Processing Systems Conference. Vancouver: NeurIPS, 2018: 887-898.

[17]LIN C Y, HOVY E. Automatic evaluation of summaries using n-gram co-occurrence statistics [C]// Proceedings of the 2003 Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology. Stroudsburg: Association for Computational Linguistics, 2003: 71-78.

This work is partially supported by the Civil Aviation Science and Technology Major Special Fund (MHRD20150107, MHRD20160109), the Fundamental Research Funds for the Central Universities (3122018C025), the Research Startup Fund Project of Civil Aviation University (2014QD13X).

DING Jianli, born in 1963, Ph. D., professor. His research interests include civil aviation intelligent information processing, Internet of things of aviation.

LI Yang, born in 1995, M. S. candidate. His research interests include natural language processing, machine learning, deep learning.

WANG Jialiang, born in 1983, Ph. D., lecturer. His research interests include civil aviation information system, embedded computing, pervasive computing.

收稿日期:2019-05-13;修回日期:2019-07-16;錄用日期:2019-07-17?;痦椖浚好窈骄挚萍贾卮髮m椈鹳Y助項目(MHRD20150107,MHRD20160109);中央高?;究蒲袠I務費專項資金資助項目(3122018C025);中國民航大學科研啟動基金資助項目(2014QD13X)。

作者簡介:丁建立(1963—),男,河南洛陽人,教授,博士,CCF會員,主要研究方向:民航智能信息處理、航空物聯網; 李洋(1995—),男,山東濟寧人,碩士研究生,主要研究方向:自然語言處理、機器學習、深度學習; 王家亮(1983—),男,遼寧遼陽人,講師,博士,研究方向:民航信息系統、嵌入式計算、普適計算。

文章編號:1001-9081(2019)12-3476-06DOI:10.11772/j.issn.1001-9081.2019050800

主站蜘蛛池模板: 97色伦色在线综合视频| 18禁高潮出水呻吟娇喘蜜芽| 91久久偷偷做嫩草影院| 久久人人97超碰人人澡爱香蕉| 91视频99| 国产Av无码精品色午夜| 波多野结衣AV无码久久一区| 亚洲色图欧美在线| 免费av一区二区三区在线| 国产视频一二三区| 国产精品99久久久久久董美香| 日韩a级毛片| 久久性妇女精品免费| 黄色国产在线| 国内a级毛片| 黄色国产在线| 国产黑丝一区| 国产成人精品亚洲日本对白优播| 一区二区三区国产精品视频| 日日拍夜夜操| 亚洲Av综合日韩精品久久久| 国产成人乱码一区二区三区在线| 中文字幕免费视频| 欧美日本中文| 久久人搡人人玩人妻精品| 久久综合结合久久狠狠狠97色| 婷婷伊人五月| 日韩激情成人| 男人天堂伊人网| 欧美精品影院| 久久久久免费精品国产| 色综合a怡红院怡红院首页| 午夜精品区| 天堂中文在线资源| 国产精品极品美女自在线看免费一区二区| 美女免费黄网站| 午夜福利网址| 久久婷婷六月| 国产美女主播一级成人毛片| 日本黄色不卡视频| 国产高清在线观看| 国产黄在线免费观看| 亚洲综合国产一区二区三区| 国产91成人| 青青草91视频| 综合亚洲色图| 国产在线观看一区精品| 91精选国产大片| 中文无码精品a∨在线观看| 国产自产视频一区二区三区| 国产成年女人特黄特色毛片免| 婷婷亚洲视频| 在线观看亚洲人成网站| 伊人久久婷婷五月综合97色| 直接黄91麻豆网站| 欧美日韩亚洲国产| 成人福利在线视频免费观看| 亚洲男人天堂2020| 欧美国产在线看| 东京热一区二区三区无码视频| 国产免费久久精品99re丫丫一| 色精品视频| 国产迷奸在线看| 欧美成人精品在线| 伊人婷婷色香五月综合缴缴情| 国产精品白浆无码流出在线看| 亚洲色图欧美激情| 国模粉嫩小泬视频在线观看| 国产成人喷潮在线观看| a网站在线观看| 天天综合天天综合| 久久综合伊人77777| 欧美国产日韩在线播放| 欧美日韩福利| 国产精品第一区在线观看| 久久久久人妻精品一区三寸蜜桃| 97久久超碰极品视觉盛宴| 91麻豆精品视频| 日韩成人在线网站| 国产男女免费视频| 精品免费在线视频| 国产乱人乱偷精品视频a人人澡 |