999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

詞邊界字向量的中文命名實體識別

2016-07-01 00:51:06姚霖劉軼李鑫鑫劉宏
智能系統(tǒng)學(xué)報 2016年1期
關(guān)鍵詞:機器學(xué)習(xí)特征提取

姚霖,劉軼,李鑫鑫, 劉宏

(1. 深港產(chǎn)學(xué)研基地,廣東 深圳 518057; 2.北京大學(xué) 信息科學(xué)技術(shù)學(xué)院,北京 100871; 3.哈爾濱工業(yè)大學(xué) 軟件學(xué)院,黑龍江 哈爾濱 150001; 4.哈爾濱工業(yè)大學(xué)深圳研究生院 計算機科學(xué)與技術(shù)學(xué)院,廣東 深圳 518055)

詞邊界字向量的中文命名實體識別

姚霖1,2,3,劉軼1,李鑫鑫4, 劉宏2

(1. 深港產(chǎn)學(xué)研基地,廣東 深圳 518057; 2.北京大學(xué) 信息科學(xué)技術(shù)學(xué)院,北京 100871; 3.哈爾濱工業(yè)大學(xué) 軟件學(xué)院,黑龍江 哈爾濱 150001; 4.哈爾濱工業(yè)大學(xué)深圳研究生院 計算機科學(xué)與技術(shù)學(xué)院,廣東 深圳 518055)

摘要:常見的基于機器學(xué)習(xí)的中文命名實體識別系統(tǒng)往往使用大量人工提取的特征,但特征提取費時費力,是一件十分繁瑣的工作。為了減少中文命名實體識別對特征提取的依賴,構(gòu)建了基于詞邊界字向量的中文命名實體識別系統(tǒng)。該方法利用神經(jīng)元網(wǎng)絡(luò)從大量未標注數(shù)據(jù)中,自動抽取出蘊含其中的特征信息,生成字特征向量。同時考慮到漢字不是中文語義的最基本單位,單純的字向量會由于一字多義造成語義的混淆,因此根據(jù)同一個字在詞中處于不同位置大多含義不同的特點,將單個字在詞語中所處的位置信息加入到字特征向量中,形成詞邊界字向量,將其用于深度神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練之中。在Sighan Bakeoff-3(2006)語料中取得了F1 89.18%的效果,接近當前國際先進水平,說明了該系統(tǒng)不僅擺脫了對特征提取的依賴,也減少了漢字一字多義產(chǎn)生的語義混淆。

關(guān)鍵詞:機器學(xué)習(xí);中文命名體識別;深度神經(jīng)網(wǎng)絡(luò);特征向量;特征提取

中文引用格式:姚霖,劉軼,李鑫鑫,等.詞邊界字向量的中文命名實體識別[J]. 智能系統(tǒng)學(xué)報, 2016, 11(1): 37-42.

英文引用格式:YAO Lin, LIU Yi, LI Xinxin, et al. Chinese named entity recognition via word boundary based character embedding[J]. CAAI Transactions on Intelligent Systems, 2016, 11(1): 37-42.

命名實體識別(named entity recognition,NER)是計算機理解自然語言信息的基礎(chǔ),其主要任務(wù)是從文本中識別出原子元素,并根據(jù)其所屬類別,標注預(yù)定義的標記,如人名、地名、組織機構(gòu)名等。由于其在自然語言處理領(lǐng)域中的重要作用,許多國際會議,如MUC-6、MUC-7、Conll2002、Conll2003等,將命名實體識別設(shè)為共享任務(wù)(share tasks)。英文命名實體識別具有相對較長的發(fā)展歷史。許多機器學(xué)習(xí)方法,如最大熵[1-4]、隱馬爾可夫模型[2, 5-7]、支持向量機[8]和條件隨機場[9]等都曾被應(yīng)用于命名體識別任務(wù),并取得了較好的精確度。英語中的人名、地名和組織機構(gòu)名具有首字母大寫等特點,因此英文命名實體識別相對簡單。然而中文的語言特點與英文大不相同,字和詞之間沒有明確的界限,人名、地名和組織機構(gòu)名也都沒有首字大寫的特點,而且對于外國人名和組織機構(gòu)名,常常會有不同的翻譯。上述特點使得中文命名實體識別任務(wù)更具有挑戰(zhàn)性。前面提到的有監(jiān)督機器學(xué)習(xí)方法,如隱馬爾科夫模型(HMM),最大熵(ME)[10],支持向量機(SVM)和條件隨機場(CRF)[11]算法等,也都曾被應(yīng)用于解決中文命名體識別問題。這類監(jiān)督學(xué)習(xí)方法訓(xùn)練過程中需要人工定義復(fù)雜不同的特征模板以獲得較好的識別率。設(shè)計和比較模板的工作不僅要求開發(fā)人員具備堅實的語言學(xué)背景,還需要花費大量的時間通過實驗進行篩選,是一件費時費力的工作。

為了減少中文命名實體識別任務(wù)對人工構(gòu)建特性模板的過度依賴,在 Collobert[12]工作的啟發(fā)下,我們搭建了一個基于詞邊界字向量的中文命名實體識別系統(tǒng)。利用字在詞語中所處位置不同,含義大不同的特點,提出了詞邊界字向量的概念。在一定程度上減少了一字多義產(chǎn)生的語義混淆。該系統(tǒng)在標準語料庫SIGHAN Bakeoff-3(2006)上取得了較好的識別效果。

本文首先介紹了中文命名實體識別領(lǐng)域的發(fā)展現(xiàn)狀;接著詳細描述了基于詞邊界字向量的中文命名體識別系統(tǒng)的架構(gòu);其后對系統(tǒng)的結(jié)果和性能進行了進一步的分析;最終進行了總結(jié)和展望。

1系統(tǒng)架構(gòu)

Bengio首次將卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)(convolutional neural network,CNN)應(yīng)用到概率語言模型中[13],并成功應(yīng)用于自然語言處理(natural language processing,NLP)問題[14]。在本系統(tǒng)中,我們使用CNN來處理中文命名體識別問題,神經(jīng)網(wǎng)絡(luò)架構(gòu)如圖1所示。

首先將待測漢字通過系統(tǒng)的查找層,和滑動窗口中其他相鄰漢字一起,被轉(zhuǎn)化為實數(shù)字向量,再將該向量序列輸入到下層神經(jīng)網(wǎng)絡(luò)中。如圖1所示,在時刻t,系統(tǒng)待測漢字為處于滑動窗口正中的漢字“的”。通過查找層后,漢字“的”以及相鄰的漢字“香、港、繁、榮”(假設(shè)窗口大小為5)被轉(zhuǎn)換為實數(shù)向量,傳輸?shù)骄€性轉(zhuǎn)換層。經(jīng)過線性層和sigmoid層的處理后,系統(tǒng)對字符“的”對應(yīng)所有可能標記進行打分,標注概率越大的標記,分值越高。在下一時刻t+ 1, 系統(tǒng)接著處理句子中的下一個漢字“繁”,以此類推。在句子解析層中,將針對整句生成一個由分值組成的網(wǎng)格。網(wǎng)格中第t列上的節(jié)點是t時刻待測漢字對應(yīng)所有標記的分值。節(jié)點間連線上顯示轉(zhuǎn)移概率,用來描述標記間的轉(zhuǎn)換可能性。轉(zhuǎn)移概率在全局統(tǒng)計的基礎(chǔ)上產(chǎn)生。最后應(yīng)用維特比(Viterbi)算法,在分值網(wǎng)格中找到分值最高的路徑,作為最終的標記序列。

圖1 神經(jīng)網(wǎng)絡(luò)架構(gòu)Fig.1 The neural network architecture

1.1字特征向量

生成特征向量序列的第一步要將全部漢字存儲到查找層的字典D中,每個漢字由固定維度的實數(shù)向量表示。語句在通過查找層后,被轉(zhuǎn)換為字向量序列,漢字x∈D的特征向量可以通過方程LTC(·)獲取,方程定義如下:

LTC(x)=Cx

式中:Cx∈R|s|是漢字x對應(yīng)的字向量,s表示向量的維度。查找表C為由字典D中的漢字以及其對應(yīng)的向量組成的矩陣。該特征向量矩陣是通過深層神經(jīng)網(wǎng)絡(luò)模型,在海量未標注的中文數(shù)據(jù)上訓(xùn)練得到的。高維度的特征向量通過向量間的差值能夠較為準確地捕捉到字/詞間的句法和語義關(guān)系,自動包含漢字間所蘊藏的句法和語義信息。

利用神經(jīng)網(wǎng)絡(luò)模型獲得中英文字詞向量的工作已經(jīng)有了一定的應(yīng)用[13,15-17]。在本文中,我們采用相同的方式通過語言模型獲得到向量矩陣。盡管采用了龐大的訓(xùn)練語料,但由于語言的復(fù)雜多變性,數(shù)據(jù)稀疏始終是中文名實體識別中存在的問題。通過對比不同的語言模型[12,17-20],我們最終選擇skip-gram神經(jīng)網(wǎng)絡(luò)模型。

與Collobert和Weston[12]、Turian[19]、Mnih和Hinton[17]采用的語言模型相比,Tomas Mikolov[21]的工作說明skip-gram模型在詞類推任務(wù)(word analogy)能夠獲得較好的成績,該模型雖然在訓(xùn)練速度上不占優(yōu)勢,但適合解決數(shù)據(jù)稀疏問題。skip-gram模型使用當前的字/詞向量來預(yù)測該字/詞之前和之后各(k-1)÷2個字/詞的概率,如圖2所示。該模型的優(yōu)化目標是最大化訓(xùn)練數(shù)據(jù)的對數(shù)似然度:

式中:xi為訓(xùn)練語料中的漢字,k為窗口大小。概率p(xi+j|xj)由softmax 公式得到,定義如下:

式中:vx為漢字x的向量初始值,vx′表示輸出向量。

圖2 Skip-gram神經(jīng)網(wǎng)絡(luò)語言模型Fig.2 The skip-gram neural network language model

字向量雖然為分布式描述,但能夠表達漢字間存在的相互關(guān)系,其泛化(generalization)的程度是其他傳統(tǒng)的N元文法模型無法達到的。模型參數(shù)會依據(jù)屬性相似的漢字出現(xiàn)的次數(shù)加以調(diào)整。

1.2語句級特征抽取

1.3標記預(yù)測

深層神經(jīng)網(wǎng)絡(luò)為多層結(jié)構(gòu),每一層都在前一層獲得的特征基礎(chǔ)上,進一步提取特征。根據(jù)設(shè)計,各層由不同的線性函數(shù)或其他轉(zhuǎn)換函數(shù)實現(xiàn)。公式fθ(·)描述本系統(tǒng)深層神經(jīng)網(wǎng)絡(luò)的中間3層:

f(x)=M2g(M1Cx+b1)+b2

中文命名體識別屬于多分類問題,用f(x,l,θ)表示漢字x標注為第l個標記的分值,通過條件概率p(l|x,θ)描述。應(yīng)用softmax 回歸得到

為方便計算,定義操作log-add為

2實驗結(jié)果與分析

2.1相關(guān)數(shù)據(jù)集

訓(xùn)練skip-gram模型的原始數(shù)據(jù)是包括人民日報和搜狗實驗室提供的新聞?wù)Z料庫,總計超過2GB的中文文本。采用ICTCLAS工具進行分詞。采用Word2vec工具訓(xùn)練skip-gram模型。

使用上述數(shù)據(jù),我們完成了兩組實驗。第1組實驗只采用漢字特征向量一種特征,考察了深度神經(jīng)網(wǎng)絡(luò)模型本身的識別能力。該組實驗滑動窗口大小為3,隱藏層節(jié)點500個,不同特征向量維數(shù)下得到的實驗結(jié)果如圖3所示。

表1 標注數(shù)據(jù)描述

圖3 采用不同維度字向量的實驗結(jié)果Fig.3 Experimental Results with Different Vector Sizes

實驗發(fā)現(xiàn)特征向量的維度對模型性能有較大的影響。增加維度可以提供更多信息,系統(tǒng)的性能也相對較好。實驗表明即使沒有其他詞典或者詞性特征參與,深層神經(jīng)網(wǎng)絡(luò)也能夠較好地實現(xiàn)中文命名實體識別任務(wù)。

第2組實驗中,將字典特征添加到漢字特征向量中。我們采用的字典如表2所示。

表2 字典描述

表3描述了字典特征的細節(jié)。三組特征分為:基礎(chǔ)特征包含了字特征的基本信息;第二組包含了前后綴的信息;最后一組包含已知的名實體信息。

詞是漢語句法和語義的基本單位。同一個字出現(xiàn)在單字詞或者不同的組合詞中,含義可能不同。例如,漢字“行”作為單字詞的意思是表示贊同的意思,但是出現(xiàn)在“銀行”和“行動”中意思就完全不同了。通過觀察發(fā)現(xiàn)字處于詞語的不同位置時,通常會表現(xiàn)出不同的句法和語義屬性。

基于以上觀察,我們采用了基于詞邊界的字向量表示法。我們使用4種標記來描述單個字在詞中所處的位置,漢字x可以轉(zhuǎn)化為以下4種:x-B,x-M,x-E和x-S。 例如,分詞后的句子“去/哈爾濱/看/冰雕”,采用詞邊界表示,可轉(zhuǎn)化為“去S/哈B爾M濱E/看S/冰B雕E”,我們基于上述帶詞邊界信息的文本來構(gòu)建字向量。對于漢字x,其特征向量由基于x-B、x-M、x-E和x-S構(gòu)建的特征向量連接起來,如下所示:

LTc(x)=

表3中文命名實體識別的字典特征

Table 3Dictionary features for Chinese named entity recognition

特征集特征基本特征Xn(n=-2,-1,0,1,2),X0∈D11XnXn+1∈D12(n=-1,0),Xn-1XnXn+1∈D12(n=-1,0,1)Xn-2Xn-1XnXn+1∈D12(n=-1,0),Xn∈D1(n=-2,-1,0)Xn∈D2(n=-2,-1,0),Xn∈D3(n=-2,-1,0,1,2)Xn∈D4(n=-2,-1,0,1,2)前后綴特征Xn∈D7(n=0,1,2),Xn∈D9(n=0,1,2)Xn-1Xn∈D5(n=-1,0,1,2),XnXn+1∈D7(n=0,1)XnXn+1∈D9(n=0,1),Xn-2Xn-1Xn∈D5(n=0,1,2)XnXn+1Xn+2∈D7(n=0),XnXn+1Xn+2∈D9(n=0)X-2X-1X0X1∈D5,X-2X-1X0X1X2∈D5名實體特征X-i…X0…Xj∈D6,X-i…X0…Xj∈D8X-i…X0…Xj∈D10

表4顯示了基于詞邊界字向量的模型使用不同詞典特征的實驗結(jié)果。采用的字典特征與第一組實驗中的字典特征相同。可以明顯看出右側(cè)一列基于詞邊界向量的實驗結(jié)果,相較于左側(cè)基于字向量的實驗結(jié)果有了明顯的提高。增加了字典特征以后,我們發(fā)現(xiàn)對于基于詞邊界模型的實驗結(jié)果提高并不明顯。說明部分詞典特征已經(jīng)在詞邊界模型中自動提取,因此獨立加入詞典特征對于模型的影響較小。

表4中文命名實體識別的實驗結(jié)果

Table 4Experimental Results of Chinese Named Entity Recognition

模型中文命名實體識別F1/%條件隨機場(字特征)SIGHAN2006封閉測試[22]SIGHAN2006開放測試[22]DeepCNN84.6086.5191.1889.18

對比其他實驗?zāi)P停绫?所示,分析第二組實驗結(jié)果可以看出,在不包含任何詞典特征的情況下,基于詞邊界字向量的深度神經(jīng)網(wǎng)絡(luò)模型的F1值比基于基本字向量的深度神經(jīng)網(wǎng)絡(luò)模型提高了1.5%,比條件隨機場模型提高了3.1%,優(yōu)于SINHAN 2006封閉測試的最優(yōu)結(jié)果。加入詞典特征以后,模型的預(yù)測性能得到提高,其中第一組基本特征的作用最大,但是詞典特征對于深度神經(jīng)網(wǎng)絡(luò)模型的作用不如條件隨機場模型(如SINHAN 2006開放測試的最優(yōu)模型)。分析原因是由于深度神經(jīng)網(wǎng)絡(luò)將兩種不同類型的特征(字向量為高維的實數(shù)向量,詞典特征為101維的布爾向量)直接串聯(lián)作為輸入,特征不能較好的融合;特別是詞典特征加入到基于詞邊界字向量對系統(tǒng)的提高,沒有單純使用字向量的時候顯著。究其原因,是詞邊界字向量的維度過高,對詞典特征有較大的稀釋作用。而條件隨機場模型使用的是字、詞和字典特征等離散特征的組合,由人工選擇并通過實驗進行了調(diào)整。

表5不同模型中文命名實體識別的實驗結(jié)果

Table 5Experimental Results of Chinese Named Entity Recognition Based on different model

DeepCNN基本字向量基于詞邊界的字向量+字向量86.7288.31+BasicFeatures87.7688.87+PrefixandSuffixFeatures87.9789.10+NamedEntityFeatures88.1489.18

3結(jié)束語

針對傳統(tǒng)序列標注方法普遍需要人工選擇特征的問題,提出了一種基于詞邊界字向量的深度神經(jīng)網(wǎng)絡(luò)模型,并將其應(yīng)用于中文命名實體識別問題。中文命名實體識別問題的實驗結(jié)果表明:基于詞邊界字向量的深度神經(jīng)網(wǎng)絡(luò)模型優(yōu)于基于基本字向量的深度神經(jīng)網(wǎng)絡(luò)模型和SINHAN 2006封閉測試的最優(yōu)模型。

未來的工作中將從以下幾方面考慮如何進一步提高深度神經(jīng)網(wǎng)絡(luò)的識別性能。首先,考慮如何能夠較好地使用其他統(tǒng)計特征與字向量特征相融合。其次,目前的方法是從句首開始將每個字輸入到神經(jīng)網(wǎng)絡(luò)中,一旦命名實體的左邊界詞出現(xiàn)識別錯誤,會對整句的識別帶來較大影響。下一步,我們考慮結(jié)合反向輸入,以避免對命名實體的左邊界詞的識別率要求較高的問題。

參考文獻:

[1]BENDER O, OCH F J, NEY H. Maximum entropy models for named entity recognition[C]//Proceedings of 7th Conference on Natural Language Learning at HLT-NAACL. Stroudsburg, USA, 2003, 4: 148-151.

[2]WHITELAW C, PATRICK J. Named entity recognition using a character-based probabilistic approach[C]//Proceedings of CoNLL-2003. Edmonton, Canada, 2003: 196-199.

[3]CURRAN J R, CLARK S. Language independent NER using a maximum entropy tagger[C]//Proceedings of the 7th Conference on Natural Language Learning at HLT-NAACL. Stroudsburg, USA, 2003, 4: 164-167.

[4]CHIEU H L, NG H T. Named entity recognition: a maximum entropy approach using global information[C]//Proceedings of the 19th International Conference on Computational Linguistics. Stroudsburg, USA, 2002, 1: 1-7.

[5]KLEIN D, SMARR J, NGUYEN H, et al. Named entity recognition with character-level models[C]//Proceedings of the seventh conference on Natural language learning at HLT-NAACL. Stroudsburg, USA, 2003, 4: 180-183.

[6]FLORIAN R, ITTYCHERIAH A, JING Hongyan, et al. Named entity recognition through classifier combination[C]//Proceedings of the 7th Conference on Natural Language Learning at HLT-NAACL. Stroudsburg, USA, 2003, 4: 168-171.

[7]MAYFIELD J, MCNAMEE P, PIATKO C. Named entity recognition using hundreds of thousands of features[C]//Proceedings of the 7th Conference on Natural Language Learning at HLT-NAACL. Stroudsburg, USA, 2003, 4: 184-187.

[8]KAZAMA J, MAKINO T, OHTA Y, et al. Tuning support vector machines for biomedical named entity recognition[C]//Proceedings of the ACL-02 Workshop on Natural Language Processing in the Biomedical Domain at ACL. Stroudsburg, USA, 2002, 3: 1-8.

[9]SETTLES B. Biomedical named entity recognition using conditional random fields and rich feature sets[C]//Proceedings of the International Joint Workshop on Natural Language Processing in Biomedicine and its Applications (NLPBA). Geneva, Switzerland, 2004: 104-107.

[10]WONG F, CHAO S, HAO C C, et al. A Maximum Entropy (ME) based translation model for Chinese characters conversion[J]. Journal of advances in computational linguistics, research in computer science, 2009, 41: 267-276.

[11]YAO Lin, SUN Chengjie, WANG Xiaolong, et al. Combining self learning and active learning for Chinese named entity recognition[J]. Journal of software, 2010, 5(5): 530-537.

[12]COLLOBERT R. Deep learning for efficient discriminative parsing[C]//Proceedings of the 14th International Conference on Artificial Intelligence and Statistics (AISTATS). Lauderdale, USA, 2011: 224-232.

[13]BENGIO Y, DUCHARME R, VINCENT P, et al. A neural probabilistic language model[J]. Journal of machine learning research, 2003, 3(6): 1137-1155.

[14]COLLOBERT R, WESTON J, BOTTOU L, et al. Natural language processing (almost) from scratch[J]. Journal of machine learning research, 2011, 12(1): 2493-2537.

[15]SCHWENK H. Continuous space language models[J]. Computer speech & language, 2007, 21(3): 492-518.

[16]MIKOLOV T, KARAFIT M, BURGET L, et al. Recurrent neural network based language model[C]//Proceedings of 11th Annual Conference of the International Speech Communication Association (INTERSPEECH). Makuhari, Chiba, Japan, 2010, 4: 1045-1048.

[17]MNIH A, TEH Y W. A fast and simple algorithm for training neural probabilistic language models[C]//Proceedings of the 29th International Conference on Machine Learning (ICML-12). Edinburgh, Scotland, UK, 2012: 1751-1758.

[18]BOTTOU L. Stochastic gradient learning in neural networks[C]//Proceedings of Neuro-Nmes 91. Nimes, France, 1991.

[19]TURIAN J, RATINOV L, BENGIO Y. Word representations: a simple and general method for semi-supervised learning[C]//Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics. Uppsala, Sweden, 2010: 384-394.

[20]MIKOLOV T, YIH W T, ZWEIG G. Linguistic regularities in continuous space word representations[C]//Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Atlanta, Georgia, 2013: 746-751.

[21]MIKOLOV T, SUTSKEVER I, CHEN Kai, et al. Distributed representations of words and phrases and their compositionality[C]//Advances in Neural Information Processing Systems. California, USA, 2013.

[22]LEVOW G A. The third international Chinese language processing bakeoff: word segmentation and named entity recognition[C]//Proceedings of the 5th SIGHAN Workshop on Chinese Language Processing. Sydney, Australia, 2006: 108-117.

Chinese named entity recognition via word boundary based character embedding

YAO Lin1,2,3, LIU Yi1, LI Xinxin4, LIU Hong2

(1. Shenzhen High-Tech Industrial Park, Shenzhen 518057, China; 2. School of Electronics Engineering and Computer Science, Peking University, Beijing 100871, China; 3. School of Software, Harbin Institute of Technology, Harbin 150001, China; 4. School of Computer Science and Technology, Harbin Institute of Technology Shenzhen Graduate School, Shenzhen 518055, China)

Abstract:Most Chinese named entity recognition systems based on machine learning are realized by applying a large amount of manual extracted features. Feature extraction is time-consuming and laborious. In order to remove the dependence on feature extraction, this paper presents a Chinese named entity recognition system via word boundary based character embedding. The method can automatically extract the feature information from a large number of unlabeled data and generate the word feature vector, which will be used in the training of neural network. Since the Chinese characters are not the most basic unit of the Chinese semantics, the simple word vector will be cause the semantics ambiguity problem. According to the same character on different position of the word might have different meanings, this paper proposes a character vector method with word boundary information, constructs a depth neural network system for the Chinese named entity recognition and achieves F1 89.18% on Sighan Bakeoff-3 2006 MSRA corpus. The result is closed to the state-of-the-art performance and shows that the system can avoid relying on feature extraction and reduce the character ambiguity.

Keywords:machine learning; Chinese named entity recognition; deep neutral networks; feature vector; feature extraction

DOI:10.11992/tis.201507065

收稿日期:2015-08-13. 網(wǎng)絡(luò)出版日期:2016-01-06.

基金項目:原創(chuàng)項目研發(fā)與非遺產(chǎn)業(yè)化資助項目(YC2015057).

通信作者:姚霖. E-mail: 1250047487@qq.com.

中圖分類號:TP391.1

文獻標志碼:A

文章編號:1673-4785(2016)01-0037-06

作者簡介:

姚霖,1975年生,高級工程師,主要研究方向為生物信息、自然語言處理。主持和參與多項科研項目。發(fā)表學(xué)術(shù)論文20余篇。

劉軼,1972年生,研究員,主要研究方向為語音識別、多媒體信息處理、嵌入式軟件及系統(tǒng),主持和參與國家自然科學(xué)基金等項目幾十項。發(fā)表學(xué)術(shù)論文50余篇,其中被SCI檢索6篇,EI檢索22篇。

劉宏,1967年生,教授,博士生導(dǎo)師,國家“萬人計劃”首批入選專家,國家“中青年科技創(chuàng)新領(lǐng)軍人才”,主要研究方向為軟硬件協(xié)同設(shè)計、計算機視覺與智能機器人、圖像處理與模式識別。發(fā)表學(xué)術(shù)論文50余篇。

網(wǎng)絡(luò)出版地址:http://www.cnki.net/kcms/detail/23.1538.TP.20160106.1555.002.html

猜你喜歡
機器學(xué)習(xí)特征提取
特征提取和最小二乘支持向量機的水下目標識別
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
基于Daubechies(dbN)的飛行器音頻特征提取
電子制作(2018年19期)2018-11-14 02:37:08
Bagging RCSP腦電特征提取算法
基于詞典與機器學(xué)習(xí)的中文微博情感分析
基于網(wǎng)絡(luò)搜索數(shù)據(jù)的平遙旅游客流量預(yù)測分析
時代金融(2016年27期)2016-11-25 17:51:36
前綴字母為特征在維吾爾語文本情感分類中的研究
基于支持向量機的金融數(shù)據(jù)分析研究
機器學(xué)習(xí)理論在高中自主學(xué)習(xí)中的應(yīng)用
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 国产一二三区在线| 国产精品综合久久久| 四虎免费视频网站| 日韩二区三区无| 四虎国产精品永久在线网址| 亚洲精品男人天堂| 福利视频一区| 中国国产一级毛片| 无码专区在线观看| 青青青草国产| 亚洲aⅴ天堂| 国产黄色免费看| 国产一级无码不卡视频| 嫩草国产在线| 18禁黄无遮挡免费动漫网站| 欧美成人aⅴ| 国产视频大全| 曰韩人妻一区二区三区| 亚洲a级毛片| 久久91精品牛牛| 亚洲无码免费黄色网址| 免费无遮挡AV| 青青国产成人免费精品视频| 91视频区| 国产情侣一区二区三区| 中文无码伦av中文字幕| 中文精品久久久久国产网址| 人妻精品久久无码区| 亚洲男人天堂网址| 美女无遮挡免费网站| 一级做a爰片久久毛片毛片| 91成人在线观看| 波多野结衣一区二区三区四区| 中国黄色一级视频| 国产成人精品高清不卡在线| 国产久草视频| 欧美成人看片一区二区三区 | jizz在线免费播放| 精品天海翼一区二区| 久久综合亚洲色一区二区三区| 伊人久久综在合线亚洲2019| 国产色图在线观看| 亚洲一区网站| av无码一区二区三区在线| 国产精品嫩草影院av| 欧美天堂久久| 韩国福利一区| 丰满人妻中出白浆| 欧美国产综合视频| 69精品在线观看| 成人午夜久久| 超清无码一区二区三区| 日韩欧美91| 日韩无码视频专区| 国产精品极品美女自在线网站| 日韩不卡高清视频| 福利在线不卡| 欧美一区二区福利视频| 国产成人调教在线视频| 亚洲无码高清免费视频亚洲| 国产欧美又粗又猛又爽老| 久久亚洲国产最新网站| 91小视频在线观看| 中文字幕久久亚洲一区| 国产精品综合色区在线观看| 亚洲天堂日韩av电影| 欧美精品亚洲日韩a| 欧美色丁香| yjizz视频最新网站在线| 欧美精品啪啪| 在线免费不卡视频| 国产理论精品| 国产精品亚欧美一区二区| 丁香六月综合网| 国产精品区视频中文字幕 | 午夜国产理论| 在线人成精品免费视频| 在线精品亚洲一区二区古装| 亚洲欧美日韩成人在线| a毛片基地免费大全| 国产精品视频观看裸模| 亚洲一区无码在线|