999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向類人角色動(dòng)畫的骨骼運(yùn)動(dòng)數(shù)據(jù)生成算法

2023-02-09 01:49:20李書杰謝文軍
關(guān)鍵詞:動(dòng)畫

王 磊,李書杰,謝文軍,賈 偉

(合肥工業(yè)大學(xué) 計(jì)算機(jī)與信息學(xué)院,安徽 合肥 230601)

0 引 言

目前,角色動(dòng)畫被廣泛應(yīng)用于虛擬現(xiàn)實(shí)、游戲和電影制作中。由骨骼運(yùn)動(dòng)數(shù)據(jù)生成角色動(dòng)畫是目前主流動(dòng)畫制作軟件(如3Dmax、Maya、Blender等)采用的方式,即用已有骨骼運(yùn)動(dòng)數(shù)據(jù)驅(qū)動(dòng)3D角色模型。早期骨骼運(yùn)動(dòng)數(shù)據(jù)的獲取方式是由動(dòng)畫制作師逐幀制作,人力成本和時(shí)間成本都較高。隨著動(dòng)作捕捉儀的出現(xiàn),骨骼運(yùn)動(dòng)數(shù)據(jù)可以通過可穿戴或光學(xué)動(dòng)作捕捉儀獲取,但是由于動(dòng)作捕捉儀穿戴不便,并且只能在特定環(huán)境下使用,其只能采集少量表演者的運(yùn)動(dòng)數(shù)據(jù)。然而3D類人角色模型豐富多樣,具有多種多樣的骨骼長度和比例,因此若將動(dòng)捕數(shù)據(jù)直接用于驅(qū)動(dòng)不同骨骼長度和比例的角色,則會(huì)出現(xiàn)穿地、自相交等不合理現(xiàn)象。

從國內(nèi)外研究現(xiàn)狀來看,使用動(dòng)作捕捉儀采集表演者A的運(yùn)動(dòng)數(shù)據(jù)驅(qū)動(dòng)類人動(dòng)畫角色B,這一問題的常用解決方案是運(yùn)動(dòng)重定向技術(shù),即將表演者A的運(yùn)動(dòng)數(shù)據(jù)經(jīng)過運(yùn)動(dòng)重定向算法生成類人動(dòng)畫角色B的數(shù)據(jù),如圖1所示。

圖1 動(dòng)捕采集表演者A的運(yùn)動(dòng)數(shù)據(jù)驅(qū)動(dòng)類人動(dòng)畫角色B

目前,3D人體骨骼運(yùn)動(dòng)重定向方法可以分為2種:一種是基于約束的優(yōu)化求解算法;另一種是基于深度學(xué)習(xí)的算法。基于約束的優(yōu)化求解方法的典型代表是逆向運(yùn)動(dòng)學(xué)方法,即通過角色A的末端效應(yīng)器位置約束角色B的末端效應(yīng)器位置,然后再反向求解角色B的其余骨骼節(jié)點(diǎn)的坐標(biāo)。由于約束優(yōu)化類方法基于人為定義的約束條件求解角色B的運(yùn)動(dòng),其中人為定義的約束往往會(huì)造成運(yùn)動(dòng)失真的現(xiàn)象。隨著深度學(xué)習(xí)的發(fā)展,大量研究人員探索用深度神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)運(yùn)動(dòng)重定向。文獻(xiàn)[1]提出的運(yùn)動(dòng)神經(jīng)網(wǎng)絡(luò)(neural kinematic networks,NKN)以源角色A的運(yùn)動(dòng)數(shù)據(jù)作為輸入,輸出為目標(biāo)角色B的運(yùn)動(dòng);文獻(xiàn)[2]提出的姿態(tài)運(yùn)動(dòng)網(wǎng)絡(luò)(pose movement networks,PMnet)在NKN的基礎(chǔ)上進(jìn)一步提高了輸出運(yùn)動(dòng)的精度。

但是,此前的深度學(xué)習(xí)算法都要求源角色A和目標(biāo)角色B均具有大量運(yùn)動(dòng)數(shù)據(jù)作為訓(xùn)練集,實(shí)際問題卻是角色A的運(yùn)動(dòng)數(shù)據(jù)由動(dòng)作捕捉儀獲得,往往僅有少量采集數(shù)據(jù)。并且,若B是一個(gè)設(shè)計(jì)師設(shè)計(jì)的全新角色,則無相關(guān)數(shù)據(jù)可以用于訓(xùn)練網(wǎng)絡(luò)。針對(duì)這一實(shí)際問題,本文提出一種深度學(xué)習(xí)算法,該算法能夠使用少量源角色的數(shù)據(jù),生成無任何已知運(yùn)動(dòng)數(shù)據(jù)的目標(biāo)角色的運(yùn)動(dòng)數(shù)據(jù)。另外,從種類上來說,作為目標(biāo)角色的類人動(dòng)畫角色種類豐富多樣,而源角色往往只是少數(shù)幾位在動(dòng)作捕捉環(huán)境下的表演者,因此若想驅(qū)動(dòng)豐富多樣的類人動(dòng)畫角色,則需要使用少數(shù)幾位表演者的數(shù)據(jù),生成多種不同的目標(biāo)角色的數(shù)據(jù)。

本文提出的算法首先利用少量源角色的動(dòng)捕數(shù)據(jù)訓(xùn)練一個(gè)運(yùn)動(dòng)數(shù)據(jù)自編碼器,然后在該自編碼器生成的隱變量空間中通過迭代約束求解的方式獲得多種不同類人角色模型的骨骼運(yùn)動(dòng)數(shù)據(jù)。該方法在訓(xùn)練階段僅需要用到源角色的運(yùn)動(dòng)數(shù)據(jù),無需目標(biāo)角色的數(shù)據(jù)作為訓(xùn)練數(shù)據(jù)。在執(zhí)行階段,只需要通過調(diào)整迭代約束求解時(shí)的參數(shù),即可獲得不同目標(biāo)角色的運(yùn)動(dòng)數(shù)據(jù)。

綜上所述,本文的工作包括以下3個(gè)方面:

(1) 提出了一種深度學(xué)習(xí)算法,該算法能夠基于單一源角色的運(yùn)動(dòng)數(shù)據(jù)生成目標(biāo)角色的運(yùn)動(dòng)數(shù)據(jù),且無需目標(biāo)角色的運(yùn)動(dòng)數(shù)據(jù)作為訓(xùn)練集。

(2) 提出的算法能夠使用單一源角色的運(yùn)動(dòng)數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò),該網(wǎng)絡(luò)訓(xùn)練完成后能生成多種不同目標(biāo)角色的運(yùn)動(dòng)數(shù)據(jù)。

(3) 在Adobe Mixamo數(shù)據(jù)集上的實(shí)驗(yàn)表明,當(dāng)基于單一源角色運(yùn)動(dòng)數(shù)據(jù)生成未知角色的運(yùn)動(dòng)數(shù)據(jù)時(shí),本文提出的算法比現(xiàn)有運(yùn)動(dòng)重定向算法具有更高的精度,即本文的算法更適用于面向類人角色動(dòng)畫的骨骼運(yùn)動(dòng)數(shù)據(jù)生成。

1 相關(guān)工作

本文討論的問題是利用少量動(dòng)捕采集的表演者的運(yùn)動(dòng)數(shù)據(jù)驅(qū)動(dòng)豐富多樣的類人動(dòng)畫角色。目前該問題常用的解決方案是運(yùn)動(dòng)重定向,即將源角色A的運(yùn)動(dòng)數(shù)據(jù)經(jīng)過重定向計(jì)算得到目標(biāo)角色B的運(yùn)動(dòng)數(shù)據(jù)。因此,本文首先介紹運(yùn)動(dòng)重定向相關(guān)技術(shù)和方法,再介紹本文算法與現(xiàn)有運(yùn)動(dòng)重定向算法的區(qū)別與聯(lián)系。

運(yùn)動(dòng)重定向算法是指將源角色運(yùn)動(dòng)重定向到與其在骨骼長度比例,甚至是拓?fù)浣Y(jié)構(gòu)不同的目標(biāo)角色上,即在保持原始運(yùn)動(dòng)特征的前提下,根據(jù)目標(biāo)角色的骨架結(jié)構(gòu)對(duì)原始數(shù)據(jù)進(jìn)行編輯和修改的過程[3]。從國內(nèi)外研究現(xiàn)狀來看,針對(duì)3D骨骼運(yùn)動(dòng)數(shù)據(jù)重定向的方法可以分為2種類型,包括傳統(tǒng)的基于約束求解的算法和基于深度學(xué)習(xí)的算法。

1.1 傳統(tǒng)約束算法

基于約束的優(yōu)化求解算法的典型代表是逆向運(yùn)動(dòng)學(xué)方法,即通過源角色的末端效應(yīng)器位置約束目標(biāo)角色的末端效應(yīng)器位置,然后再反向求解角色B的其余骨骼節(jié)點(diǎn)的坐標(biāo)。但是,逆向運(yùn)動(dòng)學(xué)方法逐幀求解目標(biāo)角色的運(yùn)動(dòng),使得求解出來的運(yùn)動(dòng)存在一定的抖動(dòng)現(xiàn)象。文獻(xiàn)[3]將運(yùn)動(dòng)重定向問題看成時(shí)空約束問題,在整個(gè)運(yùn)動(dòng)序列上進(jìn)行優(yōu)化求解,從而減輕了抖動(dòng)問題;文獻(xiàn)[4]首先運(yùn)用逆向運(yùn)動(dòng)學(xué)方法逐幀求解重定向后的運(yùn)動(dòng),然后再用B樣條對(duì)運(yùn)動(dòng)軌跡進(jìn)行平滑擬合以去除抖動(dòng);文獻(xiàn)[5]對(duì)每幀進(jìn)行逆向運(yùn)動(dòng)學(xué)求解,然后通過最小化相鄰幀之間末端效應(yīng)器差別減少運(yùn)動(dòng)的抖動(dòng);文獻(xiàn)[6]提出一種快速重定向算法可以將一些特定指定行為遷移到任意骨架上,但是其結(jié)果仍需要額外的平滑處理。

早期的傳統(tǒng)運(yùn)動(dòng)重定向算法往往依賴人為設(shè)置的約束,如末端效應(yīng)器約束、平滑性約束等,在約束函數(shù)的解空間中按照特定規(guī)則選取某個(gè)最優(yōu)解。但是需要指出的是,這個(gè)解空間是在數(shù)量上滿足那些人為設(shè)置約束的向量構(gòu)成的空間,但并不一定滿足運(yùn)動(dòng)學(xué)約束。這一特性使得傳統(tǒng)的運(yùn)動(dòng)重定向方法輸出的數(shù)據(jù)往往會(huì)丟失一些運(yùn)動(dòng)學(xué)特性,使得運(yùn)動(dòng)存在抖動(dòng)現(xiàn)象,而且即使經(jīng)過平滑運(yùn)算后,仍然存在不自然、不真實(shí)的現(xiàn)象。

1.2 深度學(xué)習(xí)算法

隨著動(dòng)捕數(shù)據(jù)的積累,研究者們也探索利用深度學(xué)習(xí)算法提升運(yùn)動(dòng)重定向算法的性能。文獻(xiàn)[7]提出一種基于變分自編碼器的運(yùn)動(dòng)重定向的網(wǎng)絡(luò)結(jié)構(gòu),但是該網(wǎng)絡(luò)需要用配對(duì)訓(xùn)練數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò)。所謂配對(duì)訓(xùn)練數(shù)據(jù),是指在訓(xùn)練時(shí)需要源角色和目標(biāo)角色完全同步并一致的動(dòng)作序列。但是對(duì)于重定向問題而言,最難獲取的是配對(duì)訓(xùn)練數(shù)據(jù)。動(dòng)作捕捉儀顯然很難同時(shí)獲得2個(gè)不同角色完全一致的動(dòng)作,而動(dòng)畫師能手工制作出來的配對(duì)數(shù)據(jù)量也非常少。

近年來涌現(xiàn)了許多利用非配對(duì)數(shù)據(jù)的研究。文獻(xiàn)[10]受非配對(duì)的圖像翻譯(unpaired image-to-image translation)任務(wù)[8-10]的啟發(fā),結(jié)合生成對(duì)抗網(wǎng)絡(luò)(generative adversarial nets,GAN)[11]提出運(yùn)動(dòng)重定向網(wǎng)絡(luò)NKN,運(yùn)用GAN來解決運(yùn)動(dòng)重定向問題,不需要使用配對(duì)數(shù)據(jù)來訓(xùn)練網(wǎng)絡(luò)。此后,產(chǎn)生了一系列效仿它解決運(yùn)動(dòng)重定向的工作。例如,文獻(xiàn)[2]提出PMnet網(wǎng)絡(luò),采用四元數(shù)格式的隱變量,使得該網(wǎng)絡(luò)能夠較好地表達(dá)運(yùn)動(dòng)數(shù)據(jù)的特征,提升了結(jié)果的精度。文獻(xiàn)[12]提出一種基于骨骼感知的神經(jīng)網(wǎng)絡(luò)(skeleton-aware networks,SAN),該方法通過池化操作提取源角色和目標(biāo)角色的公共骨架,使得網(wǎng)絡(luò)不僅能夠在同一種骨架拓?fù)浣Y(jié)構(gòu)下完成重定向任務(wù),而且在不同骨架拓?fù)浣Y(jié)構(gòu)間也有不錯(cuò)的表現(xiàn)。但是這些方法僅對(duì)訓(xùn)練數(shù)據(jù)集中的角色能夠較好地實(shí)現(xiàn)重定向,而當(dāng)訓(xùn)練集中不包括目標(biāo)角色的數(shù)據(jù)時(shí),生成的目標(biāo)角色的骨骼運(yùn)動(dòng)數(shù)據(jù)效果欠佳。

1.3 本文算法與重定向算法的區(qū)別

本文算法與現(xiàn)有重定向算法的相同點(diǎn)是算法輸入均為源角色的運(yùn)動(dòng)序列和目標(biāo)角色的骨架信息,生成目標(biāo)角色的運(yùn)動(dòng);不同點(diǎn)在于現(xiàn)有重定向算法在訓(xùn)練時(shí)需要有目標(biāo)角色的運(yùn)動(dòng)序列作為訓(xùn)練數(shù)據(jù),而本文提出的算法在訓(xùn)練時(shí)可以沒有任何目標(biāo)角色的運(yùn)動(dòng)數(shù)據(jù),因此本文算法的意義在于可以生成多種沒有原始數(shù)據(jù)的目標(biāo)角色的骨骼運(yùn)動(dòng)序列,可以作為骨骼運(yùn)動(dòng)數(shù)據(jù)庫的增強(qiáng)算法。

為驗(yàn)證本文算法的特點(diǎn),在實(shí)驗(yàn)中本文用僅包含1位表演者動(dòng)捕數(shù)據(jù)的訓(xùn)練數(shù)據(jù)集對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并實(shí)現(xiàn)了依據(jù)該表演者的數(shù)據(jù)生成多種不同目標(biāo)骨骼的運(yùn)動(dòng)序列,如圖2所示。

圖2 由1位表演者動(dòng)作捕捉數(shù)據(jù)生成多種目標(biāo)骨骼運(yùn)動(dòng)序列

2 骨骼運(yùn)動(dòng)數(shù)據(jù)生成算法

2.1 整體思路

本文算法分為訓(xùn)練階段和運(yùn)行階段2個(gè)階段。在訓(xùn)練階段,依據(jù)已有的骨骼運(yùn)動(dòng)數(shù)據(jù)訓(xùn)練1個(gè)運(yùn)動(dòng)自編碼器,訓(xùn)練時(shí)該網(wǎng)絡(luò)的輸入、輸出均為訓(xùn)練集中已有的運(yùn)動(dòng)數(shù)據(jù),訓(xùn)練損失函數(shù)為重建均方誤差;在運(yùn)行階段,利用已訓(xùn)練好的自編碼器,輸入表演者的運(yùn)動(dòng)序列以及目標(biāo)骨骼的參數(shù),然后迭代生成所需的骨骼運(yùn)動(dòng)序列。本文所采用的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

圖3 本文采用的網(wǎng)絡(luò)結(jié)構(gòu)圖

為驗(yàn)證本文所提算法能夠僅用少量動(dòng)捕設(shè)備采集的運(yùn)動(dòng)數(shù)據(jù)生成多種不同的骨骼運(yùn)動(dòng)數(shù)據(jù),本文從Adobe Mixamo數(shù)據(jù)庫中僅選取了1個(gè)角色的運(yùn)動(dòng)數(shù)據(jù)來訓(xùn)練網(wǎng)絡(luò),即訓(xùn)練集中僅包含1種骨架結(jié)構(gòu)。

然后用訓(xùn)練好的自編碼器生成不同的角色運(yùn)動(dòng)序列并與文獻(xiàn)[2,12]的結(jié)果進(jìn)行對(duì)比。其中,Adobe Mixamo數(shù)據(jù)庫中不同角色的數(shù)據(jù)具有不同的骨骼節(jié)點(diǎn)數(shù)量和動(dòng)畫幀率,在訓(xùn)練網(wǎng)絡(luò)之前需要對(duì)運(yùn)動(dòng)數(shù)據(jù)進(jìn)行預(yù)處理,包括:將運(yùn)動(dòng)數(shù)據(jù)降采樣為60幀/s;保留角色的22個(gè)骨骼關(guān)節(jié)點(diǎn),如圖4所示;將訓(xùn)練數(shù)據(jù)分割為120幀的運(yùn)動(dòng)片段。

圖4 本文所采用類人角色骨架示意圖

2.2 骨骼運(yùn)動(dòng)數(shù)據(jù)生成算法

(1)

(2)

在(2)式中,正則化的作用是讓qA成為單位向量。

(3)

(4)

(4)式也是正則化操作。

其次,將骨架編碼信息和正則化后的隱變量連接起來,再經(jīng)過全連接層FΔ,得到:

(5)

接著令:

qA=Hamiton(qA,qAΔ)

(6)

(7)

最后,本文的網(wǎng)絡(luò)訓(xùn)練損失函數(shù)定義為:

(8)

(9)

其中,φA為迭代的初始值。

(10)

(11)

(12)

qB′=Hamiton(qB′,qBΔ′)

(13)

(14)

接下來,利用文獻(xiàn)[13]中的Adam函數(shù),逐步修正隱變量φB′使得如下函數(shù)小于一定閾值:

(15)

其中:迭代系數(shù)λangle=0.3;λfoot=0.5;2個(gè)損失函數(shù)分別為角度約束和觸地約束。

(1) 角度約束。文獻(xiàn)[14]指出,相似的運(yùn)動(dòng)之間有相似的關(guān)節(jié)角。因此,本文通過角度約束讓生成的骨骼運(yùn)動(dòng)與源運(yùn)動(dòng)有相同的關(guān)節(jié)角度:

(16)

(2) 觸地約束。此約束用于避免生成的骨骼運(yùn)動(dòng)數(shù)據(jù)出現(xiàn)穿地的現(xiàn)象。本文通過約束生成運(yùn)動(dòng)的左腳、右腳、左腳踝、右腳踝4個(gè)關(guān)節(jié)的縱坐標(biāo)與地面的最小值來避免穿地現(xiàn)象:

(17)

3 實(shí)驗(yàn)及分析

現(xiàn)有文獻(xiàn)中用深度神經(jīng)網(wǎng)絡(luò)生成目標(biāo)角色的骨骼運(yùn)動(dòng)數(shù)據(jù)的方法主要是通過運(yùn)動(dòng)重定向網(wǎng)絡(luò),這些運(yùn)動(dòng)重定向網(wǎng)絡(luò)均需要目標(biāo)角色的運(yùn)動(dòng)數(shù)據(jù)來訓(xùn)練網(wǎng)絡(luò)。本文算法的主要特色是在沒有目標(biāo)角色數(shù)據(jù)的情況下生成目標(biāo)角色的運(yùn)動(dòng)。為說明本文算法的有效性,在對(duì)比實(shí)驗(yàn)中本文從Adobe Mixamo數(shù)據(jù)庫中僅選用1個(gè)角色的運(yùn)動(dòng)數(shù)據(jù)來訓(xùn)練網(wǎng)絡(luò),然后分析不同方法在這種情況下生成新角色運(yùn)動(dòng)的效果。

在訓(xùn)練階段,選用Adobe Mixamo數(shù)據(jù)庫中的Malcolm角色的數(shù)據(jù)對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。在實(shí)驗(yàn)過程中,選用Adobe Mixamo數(shù)據(jù)庫中Aj的運(yùn)動(dòng)數(shù)據(jù)作為輸入,產(chǎn)生目標(biāo)角色Big-vegas、Claire和Mutant的數(shù)據(jù),如圖5所示。其中Aj的身高為141.97 cm,而Big-vegas、Claire、Mutant的身高分別為155.40、139.49、162.75 cm。本文對(duì)比的算法包括PMnet和SAN。測(cè)試數(shù)據(jù)共有200個(gè)不同的運(yùn)動(dòng)片段。

圖5 本文算法與現(xiàn)有算法生成的骨骼運(yùn)動(dòng)數(shù)據(jù)效果對(duì)比

根據(jù)文獻(xiàn)[1]中的方法,本文用均方誤差和幀間平滑性2個(gè)數(shù)值指標(biāo)來衡量生成骨骼運(yùn)動(dòng)數(shù)據(jù)的效果,見表1所列。表1中,均方誤差是指生成數(shù)據(jù)關(guān)節(jié)坐標(biāo)與真實(shí)數(shù)據(jù)關(guān)節(jié)坐標(biāo)之間差值,是常用的衡量骨骼運(yùn)動(dòng)數(shù)據(jù)差異的方法;幀間平滑性表明了生成運(yùn)功數(shù)據(jù)的抖動(dòng)程度,值越大抖動(dòng)程度越大。

表1 不同算法的結(jié)果對(duì)比

表1中的數(shù)據(jù)表明,本文算法在沒有目標(biāo)角色的骨骼運(yùn)動(dòng)數(shù)據(jù)情況下,生成的骨骼運(yùn)動(dòng)數(shù)據(jù)效果在均方誤差和數(shù)據(jù)平滑性上均明顯優(yōu)于PMnet和SAN。此外,可以看出,迭代操作對(duì)本文的結(jié)果有較大的提升。

為了清晰地展示本文算法與其他算法結(jié)果的差別,本文對(duì)比同一運(yùn)動(dòng)序列經(jīng)過不同算法處理后的結(jié)果如圖5所示。圖5未提供不迭代操作的結(jié)果,主要原因是其不是本文算法的完全體,且不是本文對(duì)比的重點(diǎn)算法。由圖5可知,本文算法生成的骨骼運(yùn)動(dòng)數(shù)據(jù)與真實(shí)數(shù)據(jù)之間有較高的相似性,而PMnet和SAN生成的骨骼運(yùn)動(dòng)數(shù)據(jù)均出現(xiàn)了失真的現(xiàn)象。

在訓(xùn)練數(shù)據(jù)集僅包含一個(gè)角色的運(yùn)動(dòng)數(shù)據(jù)的情況下,采用本文的方法可以生成大量不同角色的運(yùn)動(dòng),如圖6所示。

圖6 本文算法生成的骨骼運(yùn)動(dòng)數(shù)據(jù)庫

從圖6可以看出,本文算法可以實(shí)現(xiàn)利用1個(gè)角色的運(yùn)動(dòng)數(shù)據(jù)生成多種不同角色的骨骼運(yùn)動(dòng)數(shù)據(jù),可以有效實(shí)現(xiàn)骨骼運(yùn)動(dòng)數(shù)據(jù)庫的數(shù)據(jù)增強(qiáng),并且極大地提高了骨骼運(yùn)動(dòng)數(shù)據(jù)的可重用性。

4 結(jié) 論

目前,骨骼動(dòng)畫是角色動(dòng)畫軟件主要采用的動(dòng)畫制作方式,骨骼運(yùn)動(dòng)數(shù)據(jù)是角色動(dòng)畫制作的重要素材。但是通過動(dòng)捕設(shè)備獲得骨骼運(yùn)動(dòng)數(shù)據(jù)成本高,能獲取的數(shù)據(jù)量少。本文提出了一種骨骼運(yùn)動(dòng)數(shù)據(jù)生成算法,該算法能夠基于少量的采集數(shù)據(jù)生成大量的骨骼運(yùn)動(dòng)數(shù)據(jù),能夠有效對(duì)骨骼運(yùn)動(dòng)數(shù)據(jù)庫進(jìn)行增強(qiáng)。

本文實(shí)驗(yàn)結(jié)果表明本文所提算法的有效性,生成的骨骼運(yùn)動(dòng)數(shù)據(jù)與真實(shí)數(shù)據(jù)具有較高的相似性。當(dāng)然,本文算法生成的數(shù)據(jù)必然與真實(shí)數(shù)據(jù)還有一定的差異,但本文算法作為數(shù)據(jù)增強(qiáng)方法,已經(jīng)可以較大地減少動(dòng)畫師的手工制作時(shí)間。在本文算法的基礎(chǔ)上,可以實(shí)現(xiàn)交互式的骨骼運(yùn)動(dòng)數(shù)據(jù)生成插件,首先由本文算法生成初始的運(yùn)動(dòng)數(shù)據(jù),再由動(dòng)畫師做少量修改即可供動(dòng)畫軟件使用,可以有效節(jié)約動(dòng)畫制作成本。

猜你喜歡
動(dòng)畫
我們的“動(dòng)畫偶像”
Clifford hits the big screen
做個(gè)動(dòng)畫給你看
動(dòng)畫發(fā)展史
Mg動(dòng)畫在慕課中的應(yīng)用及其制作
我的動(dòng)畫夢(mèng)
文苑(2019年22期)2019-12-07 05:28:56
好萊塢動(dòng)畫與中國動(dòng)畫對(duì)比
流行色(2019年7期)2019-09-27 09:33:28
動(dòng)畫批評(píng)融入動(dòng)畫教育的思考
新聞傳播(2018年3期)2018-05-30 07:01:39
暖心動(dòng)畫:最好的禮物
我是動(dòng)畫迷
主站蜘蛛池模板: 色综合中文字幕| 亚洲人成人无码www| 日韩东京热无码人妻| 色成人亚洲| 国产精品手机在线观看你懂的 | 亚洲国产欧洲精品路线久久| 中文字幕亚洲精品2页| 97se综合| 成人伊人色一区二区三区| 女人av社区男人的天堂| 亚欧美国产综合| 国产91精品久久| 女人18毛片一级毛片在线| 啪啪免费视频一区二区| 天天干天天色综合网| 成年人视频一区二区| 一区二区在线视频免费观看| 9啪在线视频| 成人国产小视频| 亚洲人成在线免费观看| 欧美第九页| 不卡午夜视频| 亚洲黄网在线| 国产毛片不卡| 一级一级特黄女人精品毛片| 欧洲av毛片| 国产成人久久综合777777麻豆| 青青青国产在线播放| 国产成人精品午夜视频'| 91麻豆精品国产高清在线| 青青操国产视频| 在线观看亚洲人成网站| 性激烈欧美三级在线播放| 国产亚洲欧美在线中文bt天堂| 婷婷五月在线| 国产午夜福利在线小视频| 啪啪啪亚洲无码| 国产精品免费露脸视频| 99偷拍视频精品一区二区| 亚洲an第二区国产精品| 欧美精品亚洲精品日韩专区| 久久中文字幕av不卡一区二区| 国产高清无码第一十页在线观看| 久久综合激情网| 日韩毛片免费视频| 精品無碼一區在線觀看 | 日韩在线观看网站| 成人福利在线视频| 久久无码av三级| 亚洲制服丝袜第一页| 欧洲亚洲欧美国产日本高清| 四虎成人精品| 一区二区三区四区日韩| 精品超清无码视频在线观看| 亚洲综合香蕉| 亚洲av中文无码乱人伦在线r| 毛片最新网址| 麻豆a级片| 性视频一区| 国产精品综合久久久| 精品成人一区二区| 亚洲中文字幕无码mv| 国产亚洲精品自在线| 99在线视频免费观看| 成人一级免费视频| 黑色丝袜高跟国产在线91| 激情综合五月网| 亚洲最大福利网站| 中国一级特黄大片在线观看| 在线国产91| 亚洲水蜜桃久久综合网站| 日韩激情成人| 亚洲中久无码永久在线观看软件 | 嫩草在线视频| 国产午夜无码专区喷水| 黄色a一级视频| 欧美日韩国产成人高清视频| 91成人在线免费观看| 99久久精品国产麻豆婷婷| 免费人成黄页在线观看国产| 成人精品视频一区二区在线 | 9丨情侣偷在线精品国产|