999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進卷積神經網絡的語義情感識別應用研究

2019-10-08 09:03:43王穎
軟件 2019年2期
關鍵詞:語義人工智能

王穎

摘? 要: 隨著人工智能研究領域的迅速發(fā)展,各種人工智能相關的行業(yè)也以大爆炸的趨勢迅猛興起,隨著人工智能行業(yè)的迅猛興起,也導致越來越多的行業(yè)都希望能夠以人工智能來取代人工工作。本文提出一種改進卷積神經網絡模型,在傳統(tǒng)的卷積神經網絡模型中增加一層循環(huán)隱含層,并應用在語義情感識別領域,經驗證,在識別準確度方面取得較好的成績。

關鍵詞: 語義;情感識別;卷積神經網絡;人工智能

【Abstract】: With rapid development of research field of artificial intelligence, various industries related to artificial intelligence have been booming with big bang trend. With rapid rise of the artificial intelligence industry, more industries try to replace artificial work with artificial intelligence. The article proposes an improved convolutional neural network model, which adds a circular hidden layer to traditional convolutional neural network model, and is applied in semantic emotion recognition field. Practice has proved that it has achieved good results in recognition accuracy.

【Key words】: Semantics; Emotion recognition; Convolutional neural network; Artificial intelligence

0? 引言

目前,最大化匹配方法常常被用在語義識別中[1]。鑒于漢語的復雜性和表達語義的能力遠高于其他語言,不同語用和語境中同一個次的含義可表達出完全不同的含義[2]。導致使用最大化匹配法實現(xiàn)語義識別效果并不理想[3]。

隨著人工智能技術的飛速發(fā)展,近年也有學者將卷積神經網絡和遞歸神經網絡及誤差反向傳播神經網絡模型用于語義識別技術,這些專家和學者在應用神經網絡實現(xiàn)語義情感識別的領域取得了不錯的成績,但鑒于漢語表達情感的復雜程度導致在識別速度和準確度方面也存在不盡如人意的方面?;谝陨媳尘?,本文提出一種改進的卷積神經網絡模型用以語義識別,該模型在傳統(tǒng)卷積神經網絡模型中增加一層循環(huán)隱含層,該循環(huán)隱含層實現(xiàn)在同等數(shù)量的訓練樣本集前提下實現(xiàn)對網絡模型的過渡訓練的功能,大大提高網絡模型的識別準確度[4]。

1? 語義識別

1.1? 語義的表示

自然語言可通過分布語義,框架語義,模型論語義等三種主要途徑進行表示[5]。隨著人工智能技術發(fā)展衍生出的智能語音表示途徑為自然語言的一種衍生表示形式。使用領域(domain)、意圖(intent)、詞槽(slot)等三種形式來表示語義[6]。

領域(domain):通常按語言數(shù)據(jù)來源來劃分領域,統(tǒng)一行業(yè)背景或專業(yè)范圍內的語言數(shù)據(jù)劃分為統(tǒng)一領域,如醫(yī)療、交通等。領域在語法中可看作句子的主語。

意圖(intent):意圖類似語法中的謂語,是指對語義領域內的數(shù)據(jù)進行的動作或操作,比如查找交通等。

詞槽(slot):指語義領域的屬性,可看作語法中的賓語,如交通類型。

1.2? 語義識別的三個層次

(1)應用層:應用層是指語義的使用層面,如行業(yè)應用等。

(2)NLP技術層:是指對自然語言經過技術手段進行加工、處理轉化成機器語言或將機器語言合成自然語言。

(3)底層數(shù)據(jù)層:底層數(shù)據(jù)層是指語義的領域來源。

2? 卷積神經網絡模型

2.1? 卷積神經網絡介紹

卷積神經網絡模型包含輸入層、隱含層及輸出層。其中輸入層輸入的為原始數(shù)據(jù),模型將輸入層輸入的原始數(shù)據(jù)通過隱含層的卷積操作將原始數(shù)據(jù)逐層提取出目標函數(shù)[7]。其中逐層抽取的過程被稱之為前向反饋操作[8]。

當?shù)玫侥繕撕瘮?shù)后,網絡模型通過計算預測值和目標值之間的誤差,通過反向傳播算法逐層從最后一層向前反饋誤差[9]。次過程被稱之為后向反饋操作。

卷積神經網絡基本模型如圖1所示。

2.2? 改進卷積神經網絡模型研究

2.3? 網絡模型訓練

2.3.1? 卷積神經網絡訓練

卷積神經網絡通過前向傳播和反向傳播兩個階段完成。其中前向傳播是數(shù)據(jù)從低層網絡層向高層網絡層的傳播,反向傳播是誤差從高層網絡層向低層網絡層的傳播。

具體訓練過程為:① 網絡進行權值的初始化;② 輸入層輸入原始數(shù)據(jù);③ 隱含層進行卷積運算、采樣、全連接層向高層網絡層前向傳播;④ 循環(huán)隱含層通過循環(huán)計算網絡的輸出值與目標值之間的誤差;⑤ 如果計算出誤差大于目標期望值時,將誤差反向傳播回網絡模型,并且順序獲得全連接層和采樣層及卷積層的誤差。如果最終得出的誤差小于或等于期望值誤差值,結束訓練;⑥ 根據(jù)三次循環(huán)求得誤差平均值進行權值更新。

2.3.2? 卷積層的前向傳播過程

網絡模型的卷積層的卷積操作被稱作卷積層的前向傳播過程。卷積層采用特定步長的卷積運算方式,先獲取初始運算函數(shù),并與該出事運算函數(shù)進行卷積運算(針對語義情感識別即權值矩陣與文字情感的特征值進行加權和再加上一個偏置量),然后通過激活函數(shù)得到該層的輸出[10]。

2.3.3? 采樣層的前向傳播過程

從卷積層獲取的特征數(shù)據(jù)作為輸入傳輸?shù)讲蓸訉?,并通過下采樣層的池化操作來對輸入數(shù)據(jù)進行降維操作,以此來避免過擬合情況。最大化池方法是拾取語義情感峰值的過程。均值池化方法是拾取語義情感均值的過程。隨機池化方法是拾取所有情感特征在所有特征中出現(xiàn)的概率,然后從所有特征中隨機選取一種作為該語義情感特征值,其中概率越大的特征最終被選取得概率也越大。

2.3.4? 全連接層的前向傳播過程

從卷積層和采樣層獲取到情感特征后,將提取出來的情感特征輸入到模型中的全連接層。并對所提取的情感特征進行分類,從而獲得分類模型,并得到輸出矩陣。然后經過激勵函數(shù)f(y)的激活,傳入下一層[11]。

3? 實驗結果及分析

3.1? 數(shù)據(jù)

3.3? 分析

從實驗結果可以看出,在傳統(tǒng)卷積神經網絡模型中增加一層循環(huán)隱含層在識別的準確度卻有較大的提高。因模型針對特定的流程進行優(yōu)化,所以針對識別準確度的效果提高較明顯。

4? 結論

本文在傳統(tǒng)的卷積神經網絡模型中增加一層循環(huán)隱含層,提出一種改進卷積神經網絡模型,并將其應用在語義情感識別領域,經驗證,取得了較高的識別率。與傳統(tǒng)的方法相比,CNN無監(jiān)督式提取特征應用于不同的數(shù)據(jù)均取得了較好的準確率,但在網絡復雜度上還需繼續(xù)改進。

參考文獻

T. Berners-Lee, J. Hendler, and O. Lassila, “The Semantic Web, ” Scientific American, May 2001, pp. 34-43.

P. Patel-Schneider, P. Hayes and I. Horrocks, “OWL web ontology language AbstractSyntax and Semantics”, W 3C Rec om mendation, http://www.w3.org/TR/owl-semantics/2004.

P. Mika, “Flink: Semantic Web Technology for the Extraction and Analysis of Social Networks, ” Journal of Web Semantics, vol. 3, no. 2, 2005, pp. 211-223

H. Stuckenschmidt and M. Klein, “Structure-based partitioning of large class hierarchies”, In Proceedings of Third International Semantic Web Conference (ISWC 2004), volume 3298 of Lecture Notes in Computer Science, pages 289-303, Springer, 2004.

W. Hu, Y. Zhao and Y. Qu, “Partition Based Block Matching of Large Class Hierarchies”, In Proceedings of the 1st Annual Asian Semantic Web Conference. (ASWC2006), Springer-Verlag Berlin Heidelberg. LNCS 4185, pp: 72-83.

X. Zhang, G. Cheng and Y. Qu, “Ontology Summarization Based on RDF Sentence Graph”, In Proceedings of the 16th International World Wide Web Conference (WWW2007), ACM Press, pp: 707-715, 2006.

韓英杰. 基于綜合調度關鍵路徑的多核任務調度研究[D]. 哈爾濱理工大學. 2014.

蘇賽軍. 網絡化多智能體系統(tǒng)的協(xié)調控制及一致性問題研究[D]. 中南大學, 2011.

郭文忠, 陳國龍, 陳慶良, 等. 基于粒子群優(yōu)化算法和相關性分析的特征子集選擇[J]. 計算機科學, 2008(2): 144-146.

劉騰飛, 于雙元, 張洪濤, 等. 基于循環(huán)和卷積神經網絡的文本分類研究[J]. 軟件, 2018, 39(01): 64-69.

吳亞熙, 岑峰. 基于卷積神經網絡的多層級目標檢測方法[J]. 軟件, 2018, 39(4): 164-169.

猜你喜歡
語義人工智能
我校新增“人工智能”本科專業(yè)
語言與語義
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
IT經理世界(2018年20期)2018-10-24 02:38:24
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
“上”與“下”語義的不對稱性及其認知闡釋
認知范疇模糊與語義模糊
“深+N季”組配的認知語義分析
當代修辭學(2011年6期)2011-01-29 02:49:50
主站蜘蛛池模板: 欧美另类第一页| 日本三级精品| 成人毛片在线播放| 久久综合干| 在线国产91| 一级毛片免费高清视频| 熟女视频91| 国产精品私拍99pans大尺度| 国产丝袜第一页| 国产日产欧美精品| 伊人久久大香线蕉影院| 久久a级片| 99性视频| 国产色网站| 9cao视频精品| 91精品日韩人妻无码久久| 午夜激情福利视频| 99re视频在线| 国产精品白浆无码流出在线看| 国产精品久久久久久久伊一| 亚洲精品欧美日本中文字幕| 91蝌蚪视频在线观看| 欧美97欧美综合色伦图| 22sihu国产精品视频影视资讯| 久久国语对白| 国产乱肥老妇精品视频| 国产亚洲高清视频| 原味小视频在线www国产| 久久久久人妻精品一区三寸蜜桃| 国产精品欧美在线观看| 欧美日韩va| 91精品人妻互换| 亚洲三级影院| 91久草视频| 亚洲大学生视频在线播放| 久久国产精品影院| 亚洲美女一区| 国产成人综合亚洲欧美在| 亚洲天堂网视频| 久久精品亚洲专区| 国产精品视频白浆免费视频| 99偷拍视频精品一区二区| 欧美成人二区| 久久国产香蕉| 2021天堂在线亚洲精品专区| 正在播放久久| 色综合久久88色综合天天提莫| 日本高清免费不卡视频| 亚洲综合色婷婷| 91久久夜色精品国产网站| 凹凸国产熟女精品视频| 久久久精品久久久久三级| 永久免费AⅤ无码网站在线观看| 国产91全国探花系列在线播放| 国产日韩欧美在线视频免费观看| 中文天堂在线视频| 成人av手机在线观看| 国产久操视频| 国产欧美专区在线观看| 91精品亚洲| a欧美在线| 久久久久国色AV免费观看性色| 日韩天堂网| 农村乱人伦一区二区| 亚洲三级影院| 亚洲v日韩v欧美在线观看| 久久青草视频| 欧美五月婷婷| 国产又黄又硬又粗| 欧美精品亚洲精品日韩专| 国产在线91在线电影| 自慰网址在线观看| 亚洲欧美精品一中文字幕| 亚洲精品在线影院| 欧美亚洲国产精品第一页| 91久久天天躁狠狠躁夜夜| 日韩资源站| 欧美成人精品一级在线观看| 中国精品自拍| 97免费在线观看视频| 国产麻豆91网在线看| 国产精品自在在线午夜|