陳萬禮,昝紅英,吳泳鋼
(鄭州大學 信息工程學院,河南 鄭州 450001)
?
基于多源知識和Ranking SVM的中文微博命名實體鏈接
陳萬禮,昝紅英,吳泳鋼
(鄭州大學 信息工程學院,河南 鄭州 450001)
命名實體是文本中承載信息的重要單元,正確分析存在歧義的命名實體對文本的理解起著關鍵性作用。該文提出基于多源知識和Ranking SVM的中文微博命名實體鏈接,結合同義詞詞典、百科資源等知識產生初始候選實體集合,同時從文本中抽取多種組合特征,利用Ranking SVM對候選實體集合進行排序,從而得到目標實體。在NLP&CC2014*http://tcci.ccf.org.cn/conference/2014/index.html中文微博實體鏈接評測數據集上進行了實驗,獲得了89.40%的平均準確率,與NLP&CC2014中文微博實體鏈接評測取得最好成績的系統相比,本文的系統具有一定的優勢。
命名實體;中文微博實體鏈接;同義詞詞典;百科資源;Ranking SVM;語義特征
據《第35次中國互聯網絡發展狀況統計報告》[1]顯示,截至2014年12月,中國網民規模達6.49億,其中手機網民規模5.57億,互聯網普及率達到47.9%。由此可見互聯網規模之大,已經成為人們生活的重要組成部分。而這種爆炸式的增長帶來的問題之一便是用戶產生的內容數據急劇增長,其中大多數為文本數據,進而促使了文本大數據分析技術的廣泛使用。而這種分析挖掘必然面臨對于詞義正確理解的強烈需求。由此可見,解決命名實體鏈接問題非常必要,將存在歧義的實體正確地鏈接到對應的知識庫中具有重要意義。
本文實驗數據來自新浪微博,而微博與普通文本相比最顯著的區別在于內容長度限制在140字以內,且發布的內容具有如下特點:文本長度短、口語化、表達不清晰等。因此,對應上述特點,針對微博數據的命名實體鏈接也面臨一些新的問題。
針對微博上述特點,本文提出了基于多源知識和Ranking SVM的中文微博命名實體鏈接,主要包
括以下幾個方面: 1)對知識庫進行更新,添加實體對應的中文維基百科分類,并且分別從中文維基百科、互動百科、百度百科抽取實體的別稱(同義詞),以此來提高實體鏈接的準確性; 2)采用百度搜索引擎對存在錯別字的待鏈接命名實體(簡稱: 目標實體)名稱進行糾正; 3)利用Lucene*http://lucene.apache.org/對知識庫中的所有候選實體建立本地索引,根據微博中的命名實體檢索得到初始候選實體集合; 4)抽取候選實體集的語義特征,利用訓練得到的Ranking SVM模型對初始候選實體排序; 5)從候選實體中找出得分最高的實體,如果符合相關條件,則返回KB_ID;否則,返回NIL。
命名實體鏈接的輸入為一段文本,稱為查詢文檔。查詢文檔包含諸多實體名稱,稱為查詢名稱。而命名實體鏈接的目的則是從指定知識庫中找到查詢名稱所指代的實體[2]。
命名實體鏈接任務通常包括兩個主要階段: 候選實體生成與候選實體歧義消解。候選實體生成主要是對查詢詞語的擴展,另外對待鏈接實體的上下文特征的抽取,也屬于候選實體集合的初步生成環節;而候選實體的歧義消解則是對初步生成的集合進行排序,以確定最優選項。命名實體鏈接的任務可以歸納為圖1所示流程。

圖1 命名實體鏈接基本流程圖
2.1 候選實體生成方法
候選實體生成主要是得到知識庫中和查詢名稱相關聯的初始候選實體集,其目的是為了縮小知識庫的實體歧義消解范圍。在獲取初始候選實體集時, Mihalcea和Csomai[3],Milne和Witten[4]從Wikipedia中抽取以查詢名稱為錨文本的文本片段,并進一步找到超鏈接目標頁面對應的實體作為候選。Bunescu和Pasca[5],Cucerzan[6]則為候選實體生成專門構造了命名實體詞典。Gottipati等采取對查詢名稱的擴展[7],Sun利用Wikipedia的重定向頁面、消歧頁面等建立詞典[8],為解決查詢名稱為縮略語的實體生成問題,Zhang[9]提出了在查詢文檔中查找對應全稱詞語的方法。總之,前人通過上述多種方法,在一定程度上提高了系統召回率。
2.2 候選實體消歧方法
候選實體歧義消解則主要是從初始候選實體集中選出最有可能的目標實體,進而將查詢名稱鏈接到目標實體。Varma[10]等人利用搜索引擎工具對候選實體進行排序,以此選出相似度分值最高的候選實體,Han和Zhao[11]通過BOW(bag-of-words)與Wikipedia的語義網絡對候選實體進行相似度計算,Zheng[12]等人提出了L2R(Learning to rank)算法進行實體消歧,Zhang[13]等人利用SVM(Support Vector Machine)對候選實體進行分類,以達到消歧目的。
本文參考上述方法及微博特點,提出了同義詞詞典、百科知識和Ranking SVM模型相結合的策略來獲取知識庫候選實體。
本文把命名實體鏈接任務分成兩個階段, 即候選實體生成和候選實體歧義消解,針對候選實體生成主要采用構建多源知識的方法來完成,而候選實體歧義消解部分則采用有監督的Ranking SVM模型來對候選實體進行排序消解。
3.1 候選實體生成
3.1.1 數據預處理
本文實驗數據來自新浪微博,而知識庫則是維基百科,由于微博內容的長度被限定在140個字符之內,并且發布內容具有文本長度短、口語化、表達不清晰等特點。相應地,對于新浪微博的研究主要有如下問題:
a) 微博的內容構成復雜,常常出現“#”符號,兩個“#”符號之間的內容為話題,還有漢字形式的表情(比如: [衰]、[高興]等);以及“@”符號等。
b) 外來音譯名稱,如“薩科齊”與“薩柯奇”等,本質上二者指代的為同一人物,即法國前總統“Nicolas Sarkozy”等。
c) 微博內容的表達口語化,經常出現錯別字。
d) 微博內容中繁體漢字、簡體漢字、拼音的結合出現,如: “鄭州”、“fudan大學”等。
通常,我們需要對諸如上述問題中的部分情況進行預處理,比如a中的微博符號,可以制定相應的規則對微博文本中的符號進行處理;而對于b和c中的外文名稱音譯問題,則利用百度搜索引擎提供的“候選詞推薦”功能來輔助降低問題復雜性;對于d中提到的情況,則采用繁簡字體轉換和拼音漢字轉換的方法進行處理,最終統一為漢字簡體形式。
3.1.2 同義詞表構建
微博內容中目標實體的表達形式具有多樣性,
包括別名、簡稱及綽號等。根據Han[14]等人的統計,在 Tweets 中每個命名實體平均有3.3個不同的表達形式。為了處理表達形式多樣性的問題,本文從維基百科(中文版)、互動百科、百度百科獲取候選實體對應的所有實體信息,進而將實體對應的不同表達形式進行歸納總結,構建同義詞表,以此提高命名實體鏈接的準確性。我們從維基百科、互動百科及百度百科分別對知識庫中的8 405個、5 492個及6 235個實體進行了同義詞擴展。以“沙奎爾·奧尼爾”為例(如表1所示),同義詞的擴展采用模式匹配方式,比如以百科源代碼網頁中的“綽號”、“nickname”、“別名”標簽作為基本匹配模版進行同義詞的抽取,詳見“2012年CCF自然語言處理與中文計算會議”中關于中文詞匯語義關系抽取*http://tcci.ccf.org.cn/conference/2012/pages/page04_eva.html,通過構建同義詞表,對于圖1中的待鏈接實體“大鯊魚”和“大柴油機”,我們可以準確而快速地找出其中文實體全稱為“沙奎爾·奧尼爾”(英文實體全稱為“Shaquille O’Neal”)。

表1 “沙奎爾·奧尼爾”對應的維基百科、 互動百科的同義詞(別名)

圖1 待鏈接實體為別名的微博示例
3.1.3 人物職稱表的構建
人物實體的職稱主要是社會地位、自身社會關系以及從事職業的一種標識,比如: “發言人”、“歌手”、“公安局長”等,而這些職稱在對人物進行實體消歧時,可以輔助區分具有相同名稱的不同實體。論文所采用的職稱詞匯資源為HowNet中一部分,共計244個,如表2所示。例如,名稱“李娜”,在百度百科中“李娜”對應26個義項,其中25個義項為人物實體名稱(如表3所示),可以通過在“李娜”實體所在文檔中的職稱描述來為實體消歧提供有效的特征信息。

表2 部分人物title列表

表3 百度百科“李娜”的部分義項
3.2 候選實體歧義消解
本文根據初始候選實體抽取指定的特征組,利用訓練得到的Ranking SVM模型對待鏈接實體和候選實體集合構造的特征文本進行預測,具體過程見算法1。

算法1 基于RankingSVM模型的實體鏈接輸入:目標實體(mention),微博內容,知識庫輸出:知識庫中候選實體的KB_ID,或者NIL1.Begin2.選擇mention所在微博的最小子句(以句號,逗號,感嘆號為結束);3.通過NLPIR①工具,將微博句子進行分詞、詞性標注,經過停用詞過濾,抽取特征;4.similarity:=-1,index:=-1;5.將步驟3得到的待檢索詞組在已經建立索引的知識庫中進行檢索,得到檢索結果集合condidate_entities;6.Forei∈condidate_entities7. Begin8. 抽取ei所在的知識庫文本和待鏈接實體的特征,構造特征組合featurei;9. End10.利用訓練得到的RankingSVM模型對condidate_entities構造的特征文本進行預測,得到對各個候選實體的分值γi,score[i]:=γi;11.Forγi∈score12. Begin13. 如果γi>silimarity,則index:=i;14. End15.如果similarity>λ(λ為預先設置的閾值),則輸出KB_ID;16.否則輸出NIL17.End
3.2.1 Ranking SVM模型
Ranking SVM模型是由Herbrich[15]等人提出的一種排序算法,它可以廣泛地應用于信息檢索領域,如Cao[16]等人利用此類模型進行文檔檢索任務。Joachims[17-18]等人提出了基于Pairwise的數據標注方法,并提供了免費的SVMrank工具*http://ictclas.nlpir.org/ ② http://www.cs.cornell.edu/people/tj/svm_light/svm_rank.html。
假設存在一組輸入向量X∈Rn,n在此表示特征的維數,同時存在一組輸出向量Y={r1,r2,r3,……,rn},n表示排序數。進一步假設存在一組全序排列rn>rn-1>……>r1,“>”符號表示一種優先權的偏向關系,那么將存在一系列排序函數f∈F決定了下列的偏序關系:
(1)
Herbrich等人將上述的排序學習問題看作基于實例對的分類學習問題。首先設定一個線性函數f。

(2)
其中,w表示一組權重向量,“
通過公式(1)~(2)可以得到式(3)。

(3)
將公式(3)轉換為二值分類問題,則可以表示為式(4)。
(4)
對于給定的訓練數據S,我們以此構造一個新的包含l個向量的訓練數據集合S′,將S′中的數據作為分類數據構造SVM模型,對任意一組向量X(1)-X(2)賦以分類類別,其中z=+1代表正樣例,z=-1代表負樣例。后續問題即轉化為二次最優化問題,具體可參考[19]。
3.2.2RankingSVM模型的特征選擇
本文選定了三類特征,分別是表面性特征(實體流行度、是否子串、是否滿足編輯距離閾值)、上下文的文本相似度特征、主題相關性特征。
1) 表面性特征
(1) 實體流行度
提取實體流行度特征,即求query對應的候選實體中概率最高的實體。這個概率可以通過很多方式計算得到,比如: 計算query作為超鏈接指向各個候選實體的鏈接比例來獲得。因此,如果一個query對應的候選實體集為E={(e1,C1),(e2,C2),(e3,C3),…, (en,Cn)},其中Ci是實體ei對應的在超鏈接中被指向的次數。則該候選實體的流行度P為:
(5)
(2) 候選實體與待鏈接實體之間是否屬于子串的關系
子串關系特征主要指一個字符串是另外一個字符串的開頭或者結尾,而對于如人名“MichaelJeffreyJordan”、“MichaelJordan”這樣的子串關系,識別難度還是比較大的。這種情況下,可以使用下述Dice系數方法來識別。本文中子串關系特征主要是針對子串是母串的開頭或者結尾的情況。
(3) 候選實體與待鏈接實體之間編輯距離是否小于設定閾值
英文人名通常不寫中間那個名字,比如“MichaelJeffreyJordan”常常寫為“MichaelJordan”,英文中還有大量組合詞,如“home-made”也會被寫成“homemade”,其實它們的所指是一樣的。在此,計算方法可以使用編輯距離或者Dice系數等,而閾值設定則需要通過實驗來調優。
2) 上下文文本相似性特征
本文的內容相似性衡量是先將上下文文本轉換成文本向量,利用向量空間模型計算文本向量相似性。空間向量的相似度有如下計算方法:
(1) 余弦相似度
余弦相似度是通過計算兩個向量在空間中的夾角余弦值來衡量彼此之間的相似程度,取值范圍在[-1,+1],余弦相似度是計算相似度的常見方法,類似的還有Dice系數、Jaccord系數, 如果有向量A和B,其向量之間夾角記為“θ”,則其計算如式(6)所示。
(6)
(2) 歐幾里得距離的相似性
相似度的衡量除了可以計算相似性,還可以計算它們的不相似性,比如計算它們之間的距離,距離大,相似度就小。在衡量距離時,常用的是歐幾里得距離,也叫歐氏距離,它主要是計算空間中兩點之間的距離,計算方式如式(7)所示。
(7)
3) 主題相關性特征
在文本主題關鍵詞的提取方面可以使用隱語義模型(LatentFactorModel)[20],該算法在文本挖掘領域經常被用到,與之相關的還有PLSA、LDA等。
通過獲取文本主題關鍵詞,對待消歧文檔的TopN個詞和候選實體集所對應的每篇文檔的TopN個詞進行相似度計算,從而得到所需特征,即候選實體上下文N個主題關鍵詞與待消歧實體上下文的N個主題關鍵詞相關性的總得分。相關性總得分的計算采用GoogleNormalizedDistance[21]方式進行統計。
GoogleNormalizedDistance是基于關系近的概念更有可能出現在同一網頁中這一假設,然后通過測量兩個詞語在網頁文本中同時出現的頻率就可以得到詞語間的語義距離。任意兩個詞x和y,其距離GND(x,y)的計算方式如式(8)所示。
(8)
式(8)中f(x)、f(y)分別表示在Google中搜x、y時對應記錄數;f(x,y)表示在Google中同時搜索x和y時得到的記錄數;N表示Google能檢索的Web頁數總和。GND(x,y)表示詞語x和y共現的對稱條件概率;假設指定某個頁面包含x(或者y),則GND(x,y)表示該頁面同時包含y(或者x)的概率,GND(x,y)值越大,說明詞語x和y距離越小,語義就越相關。
4.1 實驗數據介紹
實驗所用數據是由第三屆自然語言處理與中文計算會議(簡稱NLP&CC2014)提供, NLP& CC2014*http://tcci.ccf.org.cn/conference/2014/index.html評測數據的知識庫來自中文維基百科中部分含有InfoBox結構的實體集。NLP&CC2014公開的中文微博實體鏈接評測數據如表4所示。

表4 NLP&CC 2014中文微博評測數據統計

續表
4.2 實驗評估指標
本文所采取的度量標準有準確率、召回率以及F值,準確率和召回率的計算公式如下所示:
(9)
(10)
式中M為實體鏈接輸出的結果,M*為標注的正確結果,但是準確率和召回率往往是相互關聯,比如為了得到較高的準確率,召回率則會拉低,反之亦然,為了綜合考慮準確率和召回率的評價,我們使用F值,F值可以認為是對準確率和召回率的加權調和平均值,如式(11)所示。
(11)
4.3 實驗結果分析
本文完成兩組對比實驗,分別是基于Lucene的命名實體鏈接方法(簡稱Lucene_EL)、基于多源知識和RankingSVM的命名實體鏈接方法(簡稱R-SVM_EL),它們均在NLP&CC2014公開的實體鏈接數據集上進行實驗,實驗表現的統計有三部分構成,一部分是在整體數據上的準確率;一部分是知識庫中存在的目標實體的準確率、召回率及F1值;以及知識庫中不存在的目標實體的準確率、召回率及F1值,而Best_2014系統則是NLP&CC2014的命名實體鏈接評測中最佳系統的表現結果,表5是系統在整體數據上的結果,表6對應知識庫中存在的目標實體的結果,表7對應知識庫中不存在的目標實體的結果。

表5 NLP&CC2014整體數據的準確率對比
由于Lucene_EL系統是單純地利用Lucene的檢索功能, 得到與查詢名稱相似度最高的知識庫中

表6 NLP&CC2014在知識庫中存在相應結果的 部分的相關結果

表7 NLP&CC 2014在知識庫中沒有鏈接的結果
的目標實體,因此沒有過多復雜的特征和算法。在實驗數據集中,由于知識庫中無對應詞條的待鏈接實體所占比例基本上為50%,并且真正存在歧義的待鏈接實體個數不多,因此僅利用字符串相似度檢索,即基于Lucene的實體鏈接策略,在NLP&CC 2014數據集上取得了相對不高(0.613)的準確率。
從表6可以發現,基于Lucene的實體鏈接召回率相對較低。這主要由如下原因導致:首先微博的長度通常比較短,與知識庫中的實體信息相比,可能存在語義不充分的情況,這導致單純基于字符串相似度進行匹配時,相似度得分有所降低;再加之基于Lucene的實體鏈接在從知識庫中篩選候選實體時,對相似度得分設置了一定的閾值,過濾掉了一部分相似度得分較低的命名實體,從而降低了該方法的召回率。與Lucene相比,R-SVM_EL系統則融合了更多的語義特征,比如字符串的表面性特征、主題相關性特征等。
從表7可以發現,由于設定了相似度閾值,因此對于在知識庫中不存在鏈接實體的情況,取得了較好的召回率及F1值。這也充分地證明了閾值設置對于Lucene檢索策略的重要性,相似度閾值的設置在一定程度上避免了將在知識庫中不存在的待鏈接實體錯誤地鏈接到知識庫,從而提高了準確率、召回率和F1值。
本文通過對命名實體鏈接的研究與實驗,分析了課題中的問題,并且提出了相應的研究方法、解決路線及技術框架。本文借助自然語言處理的開源工具和網絡百科資源對文本進行數據預處理工作,包括同義詞表的構建,同時利用Lucene對知識庫建立索引。基于Ranking SVM模型的命名實體鏈接,從初始候選實體獲取諸多語義特征,利用Ranking SVM模型對候選實體排序,最終得到最優的目標實體。
鑒于在NLP&CC 2014命名實體鏈接公開數據集上的對比實驗,下一步計劃在知識資源和更多深層有效的語義特征方面進行深入的發掘,這對于命名實體鏈接問題的解決起著關鍵性的作用。
[1] 中國互聯網信息中心. 第35次中國互聯網絡發展狀況統計報告[R].北京:中國互聯網信息中心.2015.
[2] 郭宇航, 秦兵, 劉挺等. 實體鏈指技術研究進展[J]. 智能計算機與應用, 2014, 4(5).
[3] Mihalcea R, Csomai A. Wikify! Linking Documents to Encyclopedic Knowledge[C]//Proceedings of the 16th ACM Conference on Information and Knowledge Management. Association for Computing Machinery, 2007: 233-242.
[4] Milne D, Witten I H. Learning to Link with Wikipedia[C]//Proceedings of the 17th ACM Conference on Information and Knowledge Management. Association for Computing Machinery, 2008: 509-518.
[5] Bunescu R C, Pasca M. Using Encyclopedic Knowledge for Named Entity Disambiguation[C]//Proceedings of the 11st Conference of the European Chapter of the Association for Computational Linguistics. Association for Computational Linguistics, 2006:9-16.
[6] Cucerzan S. Large-Scale Named Entity Disambiguation Based on Wikipedia Data[C]//Proceedings of the Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning. Association for Computational Linguistics, 2007:708-716.
[7] Gottipati S, Jiang J. Linking Entities to a Knowledge Base with Query Expansion[C]//Proceedings of the Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics, 2011: 804-813.
[8] Sun Y, Zou X, Lin L, et al. ITNLP Entity Linking System at TAC 2013[C]//Proceedings of Text Analysis Conference. United States National Institute of Standards and Technology, 2013.
[9] Zhang W, Sim Y C, Su J, et al. Nus-i2r: Learning a Combined System for Entity Linking[C]//Proceedings of Text Analysis Conference. United States National Institute of Standards and Technology, 2010.
[10] Varma V, Bysani P, Kranthi Reddy V B, et al. IIIT Hyderabad at TAC 2009[C]//Proceedings of Test Analysis Conference. U.S. National Institute of Standards and Technology, 2009.
[11] Han X, Zhao J. NLPR_KBP in TAC 2009 KBP Track: A Two-Stage Method to Entity Linking [C]//Proceedings of Test Analysis Conference. U.S. National Institute of Standards and Technology, 2009.
[12] Zheng Z, Li F, Huang M, et al. Learning to Link Entities with Knowledge Base[C]//Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics. Association for Computational Linguistics, 2010: 483-491.
[13] Zhang W, Su J, Tan C L, et al. Entity Linking Leveraging: Automatically Generated Annotation[C]//Proceedings of the 23rd International Conference on Computational Linguistics. Association for Computational Linguistics, 2010: 1290-1298.
[14] Han X, Zhao J. Structural Semantic Relatedness: a Knowledge-based Method to Named Entity Disambiguation[C]//Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics. Association for Computational Linguistics, 2010: 50-59.
[15] Herbrich R, Graepel T, Obermayer K. Large Margin Rank Boundaries for Ordinal Regression[A].In: Alexander J. Smola. Advances in Neural Information Processing Systems[M]. Massachusetts: The MIT Press, 1999: 115-132.
[16] Cao Y, Xu J, Liu T Y, et al. Adapting Ranking SVM to Document Retrieval[C]//Proceedings of the 29th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. Association for Computing Machinery, 2006: 186-193.
[17] Joachims T. Optimizing Search Engines Using Clickthrough Data[C]//Proceedings of the 8th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Association for Computing Machinery, 2002: 133-142.
[18] Joachims T. Training Linear SVMs in Linear Time[C]//Proceedings of the 12th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Association for Computing Machinery, 2006: 217-226.
[19] Dill S, Eiron N, Gibson D, et al. SemTag and Seeker: Bootstrapping the Semantic Web via Automated Semantic Annotation[C]//Proceedings of the 12th International Conference on World Wide Web. Association for Computing Machinery, 2003: 178-186.
[20] Chang A X, Spitkovsky V I, Yeh E, et al. Stanford-UBC Entity Linking at TAC-KBP[C]//Proceedings of Text Analysis Conference. United States National Institute of Standards and Technology, 2010.
[21] McNamee P. HLTCOE Efforts in Entity Linking at TAC KBP 2010[C]//Proceedings of Text Analysis Conference. United States National Institute of Standards and Technology, 2010.
Chinese Micro-blog Named Entity Linking Based on Multisource Knowledge
CHEN Wanli, ZAN Hongying,WU Yonggang
(School of Information Engineering, Zhengzhou University, Zhengzhou, Henan 450001, China)
Named entity is an important component conveying information in texts, and an accurate understanding of named entities is necessary to ensure a correct analysis of the text information. This paper proposes a Chinese micro-blog entity linking strategy based on multi-resource knowledge under Ranking SVM framework. It combines a dictionary of synonyms, the encyclopedia resources to produce an initial set of candidate entities , then extracts various combinations of featuresfor Ranking SVM to generate the target entity set. The evaluation on data sets of NLP&CC2014 Chinese micro-blog entity linking track shows a micro average accuracy of 89.40%, which is better than the state-of-the-art result.
named entity; chinese micro-blog entity linking; dictionary of synonyms; encyclopedia resources; Ranking SVM; semantic features

陳萬禮(1992—),通信作者,碩士,主要研究領域為自然語言處理。E-mail:wanli2013nlp@foxmail.com昝紅英(1966—),教授,主要研究領域為自然語言處理。E-mail:iehyzan@zzu.edu.cn吳泳鋼(1987—),碩士,主要研究領域為自然語言處理。E-mail:wygchina@sina.com
1003-0077(2015)05-0117-08
2015-07-10 定稿日期: 2015-09-26
國家社會科學基金(14BYY096);國家自然科學基金(61402419,61272221);國家高技術研究發展863計劃(2012AA011101);國家重點基礎研究發展計劃973課題(2014CB340504)
TP391
A