999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學(xué)習(xí)的自適應(yīng)游戲劇情生成系統(tǒng)研究

2019-12-05 08:35:54吳宇晗朱峙成王榮杰劉佳瑋陳麗芳
智能計算機與應(yīng)用 2019年5期
關(guān)鍵詞:深度學(xué)習(xí)

吳宇晗 朱峙成 王榮杰 劉佳瑋 陳麗芳

摘 要:為了使游戲玩家從擁有固定文本的文字游戲中體驗新鮮感,提出采用深度學(xué)習(xí)Seq2Seq模型,根據(jù)已有文本產(chǎn)生新的符合劇情的文本,增加游戲的趣味性和交互性。本文構(gòu)建深度學(xué)習(xí)Seq2Seq模型,并編寫Python代碼實現(xiàn)了文本生成模型的仿真,對生成詞與原文本之間的評價標(biāo)準(zhǔn)進(jìn)行了對比分析,以自創(chuàng)的游戲驗證了該方法的有效性。該論文的研究成果,是對自適應(yīng)文本生成系統(tǒng)研究的有益嘗試和補充,具有一定的應(yīng)用價值。

關(guān)鍵詞: Seq2Seq;LSTM 神經(jīng)網(wǎng)絡(luò);深度學(xué)習(xí);文本生成

【Abstract】 In order to make game players experience novelty from text games with fixed-text, a deep learning Seq2Seq model is put forward, which can generate new scenario text based on existing text to increase the interesting and interactive nature of the game. The paper constructs a deep learning Seq2Seq model and writes Python code to simulate the text generation model. Besides, the paper also compares and analyzes the evaluation criteria between the generated words and the original text. The effectiveness of the method is verified by the self-created game. The research result is a beneficial trial and supplement to the research of adaptive text generation system , which has certain application value.

【Key words】 ?Seq2Seq; LSTM neural network; deep learning; text generation

0 引 言

互聯(lián)網(wǎng)的飛速發(fā)展使人類的學(xué)習(xí)、工作、生活更加豐富多彩,人們在忙碌的學(xué)習(xí)工作之余,就有相當(dāng)一部分年輕人會將玩游戲作為娛樂休閑方式之一。在數(shù)以千計的手游中,大多存在著劇情重復(fù)、模式既成、套路固定等缺乏新意等問題,玩家逐漸摸索出一些固有套路后,就會對相似的游戲失去興趣,雖然一些游戲進(jìn)行了創(chuàng)新嘗試,在游戲內(nèi)部添加隨機元素,但實際上仍然是程序事先設(shè)計好的“隨機性”,因而也削弱了游戲的新奇挑戰(zhàn)性。因此,如何根據(jù)游戲劇情、用戶偏好、實時行為等多重屬性,綜合推出個性化服務(wù),實現(xiàn)由面到點的智能精準(zhǔn)推薦,實時生成新的劇情,使用戶能真正體驗到“不可預(yù)期”帶來的游玩樂趣,是目前游戲設(shè)計中值得深入探討的焦點問題。

鑒于此,本文提出基于深度學(xué)習(xí)的自適應(yīng)劇情生成系統(tǒng):以大數(shù)據(jù)、云計算、深度學(xué)習(xí)等技術(shù)作為理論支撐,運用網(wǎng)絡(luò)爬蟲獲取原生故事,利用文本處理技術(shù)來處理爬取數(shù)據(jù),利用深度學(xué)習(xí)自生成全新的故事,以游戲為窗口展現(xiàn)生成的故事。當(dāng)用戶開始游戲時,依據(jù)用戶實時的行為建立用戶畫像,利用智能推薦技術(shù)根據(jù)所建立的用戶畫像產(chǎn)生劇情,用戶每次對劇情的選擇會影響用戶畫像的改變,從而變換出不同的劇情。整體構(gòu)思如圖1所示。

研究中,故事生成器如何產(chǎn)生新文本是整個技術(shù)的關(guān)鍵。本文擬利用深度學(xué)習(xí)Seq2Seq模型,根據(jù)已有文本數(shù)據(jù)進(jìn)行新文本生成訓(xùn)練,從而產(chǎn)生新的劇情,實現(xiàn)游戲的自適應(yīng)劇情生成系統(tǒng)設(shè)計,從游戲開發(fā)的角度,拓展了設(shè)計思維、提供了建模手段,是對游戲設(shè)計的一種有益嘗試和補充。

1 理論基礎(chǔ)

1.1 智能推薦算法

基于協(xié)同過濾的推薦算法是目前國內(nèi)外學(xué)者研究最多、在各個領(lǐng)域使用最廣泛的推薦算法。其最大的優(yōu)勢是對于所要進(jìn)行推薦的對象沒有特殊的種類要求,能夠使用與文本同樣的方式處理音樂、電影等各類以非結(jié)構(gòu)化形式表示的對象[1]。Yoda綜合了基于內(nèi)容的過濾和協(xié)同過濾推薦兩種技術(shù)的優(yōu)點[2]。根據(jù)個性的游戲用戶畫像來準(zhǔn)確地智能推薦相應(yīng)的游戲劇情,給予玩家獨特的游戲感受。

1.2 深度學(xué)習(xí)

近年來,深度學(xué)習(xí)中的遞歸自編碼方法已成功應(yīng)用于情感分析問題。文獻(xiàn)[3]提出采用遞歸自編碼方法來解決較為復(fù)雜的情感分析問題。文獻(xiàn)[4]提出一種新穎的機器學(xué)習(xí)框架,是基于遞歸自編碼方法對句子級別的情感分布的預(yù)測,從數(shù)據(jù)庫中獲取故事文本,并利用深度學(xué)習(xí)來判別故事的類,自動訓(xùn)練生成新穎的故事情節(jié)。對此可做研究論述如下。

1.2.1 長短時間記憶網(wǎng)絡(luò)

長短時間記憶網(wǎng)絡(luò)(LSTM)是一種基于遞歸神經(jīng)網(wǎng)絡(luò)模型(RNN)的改進(jìn),其原理如圖2所示。由Hochreiter和Schmidhube于1997年提出[5]。LSTM由一組特殊的記憶模塊單元替換遞歸神經(jīng)網(wǎng)絡(luò)的隱藏層神經(jīng)元,這些模塊可以記憶隱藏層的任意時間狀態(tài),從而解決RNN梯度消失等問題。當(dāng)使用長短時間記憶模型進(jìn)行相應(yīng)數(shù)據(jù)反向傳遞時,序列數(shù)據(jù)在循環(huán)神經(jīng)網(wǎng)絡(luò)中會經(jīng)過很長一段時間的學(xué)習(xí),從而保證信息進(jìn)行遠(yuǎn)距離傳遞,將誤差保持在更為恒定的水平。

通常,長短時間記憶單元模塊包括輸入門、輸出門、遺忘門和記憶單元。根據(jù)門用進(jìn)行保存和調(diào)節(jié)存儲單元和環(huán)境之間的相互作用,這樣保證存儲單元的狀態(tài)從一個單元到另一個單元保持不變。LSTM網(wǎng)絡(luò)通過遞歸方程更新網(wǎng)絡(luò)單元,激活從輸入x到輸出y的映射[6]。

1.3 用戶畫像

Alan Cooper在早期就對用戶個體畫像進(jìn)行了詳細(xì)的分析,并在研究中強調(diào)人物角色這個概念,該概念主要是指一個創(chuàng)造出的虛擬用戶[9]。對用戶分析、畫像,主要是為顧客打上標(biāo)簽,通過標(biāo)簽,讓計算機認(rèn)識了解一個人,方便信息處理。標(biāo)簽為研究者提供了一種把難以處理的信息進(jìn)行量化的方法,使計算機能夠?qū)Ψ爆嵉男畔⑦M(jìn)行程序化處理,根據(jù)玩家輸入的信息,對玩家進(jìn)行個性化分析,形成虛擬的用戶畫像,方便利用智能推薦獲取獨特的游戲劇情。

1.4 云服務(wù)

云服務(wù)也可以稱作為云模式服務(wù),是以數(shù)據(jù)的存儲和管理為主要核心任務(wù)的云計算系統(tǒng)[10]。主要用于存儲原生故事以及數(shù)據(jù)交互,提供深度學(xué)習(xí)文本的服務(wù),是游戲的一個核心部位。

2 文本預(yù)處理

文本彼此之間往往難以進(jìn)行有效的計算,Word2vec提供一種比較好的解決思路。Word2vec實際上構(gòu)建了一種映射關(guān)系,利用淺層的神經(jīng)網(wǎng)絡(luò)對文本進(jìn)行訓(xùn)練以獲得文本向量,本文采用此方式實現(xiàn)文本預(yù)處理。

3 模型構(gòu)建

首先,輸入所需要的文本T={(tk)}mk=1;設(shè)定最大訓(xùn)練次數(shù)maxiter、學(xué)習(xí)率η、新文本最大長度n、訓(xùn)練步長step等參數(shù)。然后,按照算法步驟進(jìn)行訓(xùn)練,初始化網(wǎng)絡(luò)權(quán)重、循環(huán)迭代訓(xùn)練參數(shù)、計算網(wǎng)絡(luò)梯度、更新網(wǎng)絡(luò)權(quán)重,直到達(dá)到最大的訓(xùn)練次數(shù)為止;最后,循環(huán)生成文本,返回S={(Sk)}nk=1,即訓(xùn)練結(jié)果。Seq2Seq算法的設(shè)計偽代碼詳見如下。

4.3 實驗結(jié)果

自編小說所給的開始文本:“在新世紀(jì)的某處,一個村子里的能力覺醒儀式正在舉行著,能力覺醒儀式在這里舉行的時間或早或晚,這得看相關(guān)者的能力了,不是所有在新世紀(jì)的人都會有超能力”。本文模型產(chǎn)生新的文本:“墨澤說了,不過他還是自己人,好像沒有傷到一個人,我也沒有人家大,沒有變解能力的。“嗯??你還是大步出去了。”“呃……你說的話不是,我們也不知道還是那個意外的事情,你怎么回事?”“你,你怎么還沒有問題?我怎么會發(fā)現(xiàn)呢。”墨澤說道:“我還不是那么大”。

4.4 結(jié)果分析

經(jīng)過對7萬余字文本訓(xùn)練20 000次,循環(huán)輸出生成新文本長度與原本的相似度,由圖4可知,相似度是隨著輸出文本長度的增加而增加的,對于此文本來說,新文本長度為40~300字之間最為合適,在合適的評價標(biāo)準(zhǔn)區(qū)間,由此生成的新文本有一部分并不是很通順,但已經(jīng)達(dá)到了符合劇情的新文本產(chǎn)生方式。

建模仿真表明,采用深度學(xué)習(xí)的Seq2Seq模型,根據(jù)已有文本劇情產(chǎn)生新文本是可行的,給定的原始文本長度越長,效果越好,但需要找到一個合適的臨界值,讓文本產(chǎn)生更有趣的變化。目前,產(chǎn)生文本符合評價標(biāo)準(zhǔn)最低的是40個詞,在今后研究中,將在詞量的縮減上展開后續(xù)的實驗仿真,使本模型能夠適應(yīng)各種不同游戲劇情生成,進(jìn)一步提升性能。

5 結(jié)束語

本文提出利用深度學(xué)習(xí)Seq2Seq模型,根據(jù)已有文本數(shù)據(jù)進(jìn)行新文本生成訓(xùn)練,從而產(chǎn)生新的劇情,實現(xiàn)游戲的自適應(yīng)劇情生成系統(tǒng)設(shè)計,從游戲開發(fā)的角度,拓展了設(shè)計思維、提供了建模手段,是對游戲設(shè)計的一種有益嘗試和補充。

參考文獻(xiàn)

[1]石靜.基于混合模式的個性化推薦系統(tǒng)的應(yīng)用研究[D].武漢:武漢理工大學(xué),2010.

[2]SHAHABI C, BANAEI-KASHANI F, CHEN YS, et al. Yoda: An accurate and scalable Web-based recommendation system[M]// BATINI C, GIUNCHIGLIA F, GIORGINI P, et al. Cooperative Information Systems. CoopIS 2001. Lecture Notes in Computer Science. Berlin/Heidelberg:Springer,2001,2172:418-432.

[3]FU Xianghua, LIU Wangwang, XU Yingying, et al. Combine HowNet lexicon to train phrase recursive autoencoder for sentence-level sentiment analysis[J]. Neurocomputing, 2017,241:18-27.

[4]SOCHER R, PENNINGTON J, ERIC H H, et al. Semi-supervised recursive autoencoders for predicting sentiment distributions [C]//Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, EMNLP. Edinburgh, UK:ACL, 2011:151-161.

[5]HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation,1997,9(8):1735-1780.

[6]李昭昱,艾芊,張宇帆,等.基于attention機制的LSTM神經(jīng)網(wǎng)絡(luò)超短期負(fù)荷預(yù)測方法[J].供用電,2019,36(1):17-22.

[7]王鈞,張鵬,袁帥.基于股票預(yù)測的Seq2Seq RNN和LSTM模型比較[J].時代金融,2018(12):381-382,392.

[8]方旭,過弋,王祺,等.核心詞修正的Seq2Seq短文摘要[J].計算機工程與設(shè)計,2018,39(12):3610-3615.

[9]KOBSA A. Genetic user modeling systems[J] .User Modeling and User Adapted Interactive, 2001 (11):49-63

[10]郭金婷. 云計算環(huán)境下圖書館云服務(wù)模式構(gòu)建[D]. 大連:遼寧師范大學(xué),2012

[11]李巖.基于深度學(xué)習(xí)的短文本分析與計算方法研究[D].北京:北京科技大學(xué),2016.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 91人人妻人人做人人爽男同 | 久久国产精品电影| 美女扒开下面流白浆在线试听| 国产美女一级毛片| 欧美日韩精品在线播放| 国产美女91视频| 午夜福利亚洲精品| 老司国产精品视频| 国产精品亚洲天堂| 伊人网址在线| 国产精品成人一区二区不卡| 国产精品欧美日本韩免费一区二区三区不卡 | 九九久久精品免费观看| 午夜电影在线观看国产1区| 欧美日韩专区| 色综合久久久久8天国| 久久无码免费束人妻| 东京热一区二区三区无码视频| 极品尤物av美乳在线观看| 国产一区二区三区免费观看| 亚洲香蕉伊综合在人在线| 国产又粗又爽视频| 亚洲丝袜第一页| 日韩精品毛片| 国产女人在线| 亚洲人成人伊人成综合网无码| 一级毛片在线直接观看| 色综合天天视频在线观看| 亚洲精品成人福利在线电影| 日韩精品成人网页视频在线| 一级毛片在线免费视频| 日本色综合网| 成人一级黄色毛片| 91麻豆久久久| 一级毛片中文字幕| 国产精品成人啪精品视频| 欧美日本激情| 国产中文在线亚洲精品官网| 91精品aⅴ无码中文字字幕蜜桃 | 欧美高清日韩| 国产第二十一页| 58av国产精品| 欧美精品1区2区| 草草影院国产第一页| 宅男噜噜噜66国产在线观看| 国产视频 第一页| 国产理论一区| 无遮挡国产高潮视频免费观看 | 亚洲成网站| 国产清纯在线一区二区WWW| 4虎影视国产在线观看精品| AⅤ色综合久久天堂AV色综合| 国产内射在线观看| 日韩国产另类| 久久这里只有精品8| 久久精品午夜视频| 在线色综合| 国产精品一区二区在线播放| 国产拍在线| 无套av在线| 日韩毛片免费视频| 日韩免费成人| 久久免费观看视频| 88av在线看| 天堂av综合网| 亚洲欧美日韩另类在线一| 日韩精品中文字幕一区三区| 最新日本中文字幕| 久久久久国产精品熟女影院| 最新日本中文字幕| 亚洲欧洲天堂色AV| 狠狠躁天天躁夜夜躁婷婷| 国产精品jizz在线观看软件| 亚洲成人77777| 少妇高潮惨叫久久久久久| 久久这里只有精品国产99| 自慰高潮喷白浆在线观看| 久久这里只有精品国产99| 国产成人欧美| 国产精品乱偷免费视频| 成人综合网址| 亚洲国产中文精品va在线播放|