關(guān)鍵詞:人工智能生成內(nèi)容(AIGC);生成對(duì)抗網(wǎng)絡(luò);自然語言處理;工作流中圖分類號(hào):J954 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2096-7357(2025)13-0124-03《太空歌劇院》,在當(dāng)年美國(guó)科羅拉多州博覽會(huì)藝術(shù)比賽的數(shù)字藝術(shù)類別中獲得了第一名,這一事件在藝術(shù)創(chuàng)作的倫理范疇引發(fā)了廣泛討論,并且在設(shè)計(jì)技術(shù)領(lǐng)域引發(fā)了對(duì)新的技術(shù)應(yīng)用的突破性探討。2023年被認(rèn)為是AIGC元年,因?yàn)樵谶@一年,AIGC技術(shù)取得了突破性進(jìn)展,并在多個(gè)領(lǐng)域?qū)崿F(xiàn)了大規(guī)模應(yīng)用,徹底改變了內(nèi)容創(chuàng)作和生產(chǎn)的模式。

2024年2月16日,OpenAI發(fā)布的AI文生視頻大模型Sora具有里程碑意義[2],緊接著LumaAI和RunwayGEN-3相繼推出視頻生成的首尾幀功能,并可以實(shí)現(xiàn)更長(zhǎng)時(shí)間的生成視頻。同年,基于StableDiffusion的ComfyUI
人工智能(AI),指使機(jī)器用程序來完成人類使用其智力來完成任務(wù),并用計(jì)算機(jī)來模擬人類思維和解決問題。AI的目的是繞過腦和身體來達(dá)到人類理智的全面理解。其思維可以追溯至圖靈的智能機(jī)[。AIGC是一種基于生成對(duì)抗網(wǎng)絡(luò)(GAN)、大型預(yù)訓(xùn)練模型等的AI技術(shù),通過已有數(shù)據(jù)尋找規(guī)律,并通過適當(dāng)?shù)姆夯芰ι上嚓P(guān)內(nèi)容的技術(shù)。2022年8月游戲設(shè)計(jì)師杰森·艾倫(JasonAllen)使用AI繪圖工具M(jìn)idjourney生成的數(shù)字藝術(shù)作品工作流的出現(xiàn),使得AIGC創(chuàng)作獲得了更廣泛的認(rèn)可。與此同時(shí),tripo3d.ai和Meshy.ai也相繼推出了圖生三維模型功能,并且能夠生成更加高質(zhì)量的模型紋理,為三維創(chuàng)作領(lǐng)域帶來了全新的可能。本文基于AIGC技術(shù),以三維數(shù)字內(nèi)容的需求為出發(fā)點(diǎn),聚焦將AIGC技術(shù)引人三維動(dòng)畫的模型創(chuàng)建過程,以優(yōu)化動(dòng)畫制作流程。
一、三維動(dòng)畫技術(shù)的特征
三維動(dòng)畫技術(shù)可分為建模、貼圖、材質(zhì)、動(dòng)畫和渲染五大核心模塊。這些模塊共同構(gòu)成了三維動(dòng)畫制作的完整流程,每個(gè)環(huán)節(jié)都對(duì)最終作品的質(zhì)量起著至關(guān)重要的作用。其中,建模負(fù)責(zé)構(gòu)建三維物體的基礎(chǔ)形態(tài),貼圖與材質(zhì)則賦予模型真實(shí)的表面質(zhì)感,動(dòng)畫實(shí)現(xiàn)物體的運(yùn)動(dòng)效果,而渲染則是將三維場(chǎng)景轉(zhuǎn)化為最終視覺效果的關(guān)鍵步驟。普遍使用的工具包括3dsMax、Maya、Cinema4D、ZBrush、Blender,這些軟件雖然在用戶界面、操作流程和功能側(cè)重上各具特色,但技術(shù)框架基本相同,如圖1所示。
在創(chuàng)作過程中,三維建?;邳c(diǎn)線面構(gòu)建三維結(jié)構(gòu),通過網(wǎng)站獨(dú)立訪客(UV)展開為紋理繪制奠定基礎(chǔ),結(jié)合材質(zhì)通道調(diào)節(jié)與燈光設(shè)置渲染輸出靜態(tài)圖片。動(dòng)態(tài)制作通過關(guān)鍵幀編輯基礎(chǔ)運(yùn)動(dòng),通過骨骼綁定與蒙皮權(quán)重調(diào)節(jié)實(shí)現(xiàn)角色動(dòng)畫,輔以動(dòng)力學(xué)、粒子系統(tǒng)模擬物理特效,最終渲染生成序列幀。模型質(zhì)量作為核心基礎(chǔ),需兼顧精確的幾何結(jié)構(gòu),合理的模型布線,同時(shí)需要充分考慮動(dòng)畫變形的需求、特效模擬的拓展以及渲染效率等技術(shù)指標(biāo)。模型既是高質(zhì)量三維動(dòng)畫的基石,也是確保整個(gè)項(xiàng)目順利推進(jìn)的關(guān)鍵環(huán)節(jié)。

二、AIGC技術(shù)的概述與應(yīng)用
(一)AIGC技術(shù)的基本原理
AIGC技術(shù)是一種基于AI的創(chuàng)新技術(shù),其目的是借助機(jī)器學(xué)習(xí)算法創(chuàng)作出高度逼真、品質(zhì)優(yōu)秀的圖形內(nèi)容。該技術(shù)融合了深度學(xué)習(xí)、圖像處理,以及計(jì)算機(jī)視覺等領(lǐng)域的知識(shí),為圖形生成領(lǐng)域帶來了顛覆性的變革。AIGC技術(shù)的核心理念是利用機(jī)器學(xué)習(xí)模型來解讀和創(chuàng)作圖形內(nèi)容。GAN和變分自動(dòng)編碼器(VAE)是AIGC技術(shù)中常用的模型,它們可以通過大量的數(shù)據(jù)訓(xùn)練,掌握?qǐng)D形數(shù)據(jù)的概率分布和特征表達(dá)。近年來備受矚目的生成穩(wěn)定擴(kuò)散模型(StableDiffusion),通過一系列逐步推進(jìn)的擴(kuò)散步驟,將簡(jiǎn)單的噪聲分布逐漸轉(zhuǎn)化為所需要的數(shù)據(jù)分布,在圖像及文本生成領(lǐng)域的眾多方法中脫穎而出[3]。
(二)基于AIGC技術(shù)的三維模型生成
AIGC生成三維模型的過程與傳統(tǒng)建模方式有很大不同,AIGC技術(shù)具有傳統(tǒng)內(nèi)容生產(chǎn)方式所不具備的自動(dòng)化、大批量和高效率的特點(diǎn)4。早期三維模型的生成采用了GAN算法,提出從概率空間生成三維模型。GAN是由IanGoodfellow等人于2014年提出的一種深度學(xué)習(xí)模型,其核心思想是通過兩個(gè)神經(jīng)網(wǎng)絡(luò)的對(duì)抗訓(xùn)練來生成高質(zhì)量的數(shù)據(jù)。這兩個(gè)網(wǎng)絡(luò)分別是生成器(Generator)和判別器(Discriminator),通過生成器和判別器的對(duì)抗訓(xùn)練,最終生成高質(zhì)量的數(shù)據(jù)。GAN在圖像生成、圖像修復(fù)、風(fēng)格遷移等多個(gè)領(lǐng)域都有廣泛應(yīng)用。基于GAN的三維生成方法通常需要對(duì)GAN的架構(gòu)和損失函數(shù)進(jìn)行改進(jìn),以適應(yīng)三維數(shù)據(jù)的特性。3D-GAN是直接將GAN擴(kuò)展到三維數(shù)據(jù)的一種方法,其生成器負(fù)責(zé)生成三維體素網(wǎng)格,而判別器則負(fù)責(zé)判斷輸入的三維體素是源自真實(shí)數(shù)據(jù)還是由生成器生成,該模型采用三維卷積神經(jīng)網(wǎng)絡(luò)(3DCNN)高效處理體素?cái)?shù)據(jù),使其能夠充分捕捉和利用三維空間中的特征信息。該方法適用于小規(guī)模的三維體素生成任務(wù),但其計(jì)算復(fù)雜度較高,生成質(zhì)量依賴訓(xùn)練數(shù)據(jù)和模型架構(gòu)。
三、設(shè)計(jì)實(shí)例
(一)案例動(dòng)畫設(shè)計(jì)的思路與目標(biāo)
在設(shè)計(jì)思路上,以動(dòng)畫IP作為演繹中樞的系統(tǒng)化解決方案。動(dòng)畫IP泛指動(dòng)畫影片中出現(xiàn)的角色形象,并在觀眾群中較受歡迎,有一定的粉絲基礎(chǔ),具有辨識(shí)度、人格化、最佳視覺效果等特點(diǎn)[5]。知識(shí)科普動(dòng)畫題材嚴(yán)肅,通過設(shè)計(jì)具有吸引力的IP形象,能夠迅速抓住觀眾的眼球,激發(fā)其觀看動(dòng)畫的興趣。同時(shí),為每個(gè)重要知識(shí)點(diǎn)設(shè)計(jì)一個(gè)與之相關(guān)的動(dòng)畫元素,讓觀眾在看到這些元素時(shí)能夠迅速聯(lián)想到相應(yīng)的科學(xué)知識(shí)。通過該設(shè)計(jì)框架,將嚴(yán)謹(jǐn)?shù)牡厍蛭锢碇R(shí)轉(zhuǎn)化為可感知、可學(xué)習(xí)、可傳播的認(rèn)知符號(hào)體系。
(二)設(shè)計(jì)方案與實(shí)現(xiàn)途徑
“小馬博士”IP角色生成。先要制作一個(gè)具備內(nèi)蒙古地域文化特征與科學(xué)傳播功能的動(dòng)畫角色I(xiàn)P,通過用戶畫像分析確立核心受眾需求,采用草原駿馬與青年學(xué)者的復(fù)合角色設(shè)定,既利用動(dòng)物親和力打破知識(shí)壁壘,又依托地域?qū)傩蕴岣呖尚哦葋砥胶鈱I(yè)性與趣味性。這里基于AIGC技術(shù)完成IP角色的設(shè)計(jì)與生成,這個(gè)過程包括對(duì)IP角色的身形比例特征、服飾特征、動(dòng)作習(xí)慣特征及語言特征等方面的深入研究,以確保生成內(nèi)容可以打造“萌系博士”標(biāo)簽,成為兼具地域文化魅力與科普教育價(jià)值的新時(shí)代知識(shí)傳播者。
以動(dòng)畫IP“小馬博士”為例,其圖像生成采用了StableDiffusionWebUI的文生圖技術(shù),StableDiffusionWebUI是一款基于瀏覽器網(wǎng)頁(yè)運(yùn)行的程序,支持本地部署,本案例基于NVIDIARTX3090顯卡環(huán)境驗(yàn)證。圖像生成的核心在于提示詞(prompt)與模型(Models)的精準(zhǔn)設(shè)置。提示詞以逗號(hào)分隔的詞組構(gòu)成,分為正向和反向兩類,正向提示詞涵蓋了畫面風(fēng)格、角色體貌特征、頭身比例、服飾特點(diǎn)、裝飾元素以及畫面質(zhì)量信息。反向提示詞排除干擾元素如“多手”“多人”。提示詞可通過添加“括號(hào)”增強(qiáng)權(quán)重,如對(duì)“眼鏡”權(quán)重的增強(qiáng)使用提示詞“glasses”。模型的使用分為Checkpoint模型和LoRA模型,“小馬博士”的Checkpoint模型選用AnythingV5,該模型適配卡通風(fēng)格且兼容性較強(qiáng)。LoRA模型可多組疊加,其主要作用是對(duì)Checkpoint模型進(jìn)行微調(diào),以增強(qiáng)某些畫面特征?!靶●R博士”使用了blindbox和Strokeequidistant兩種LoRA模型,分別用于增大頭身比例和扁平矢量風(fēng)格,權(quán)重值均設(shè)為0.5。在其他參數(shù)設(shè)置方面,VAE會(huì)直接影響生成圖像的色彩質(zhì)感,將其設(shè)置為自動(dòng)模式。采樣迭代步數(shù)(steps)用于生圖中的去噪過程,數(shù)值設(shè)置為20。采樣方法則選擇了包容性強(qiáng)的Eulera。生圖分辨率的設(shè)置會(huì)直接影響圖像質(zhì)量,但同時(shí)會(huì)受到電腦硬件環(huán)境的制約,因此將分辨率設(shè)置為 1024×1024 ,IP角色如圖2所示。

(三)三維模型智能生成平臺(tái)使用
進(jìn)入meshy.ai在線平臺(tái),利用前期生成的角色二維形象,通過平臺(tái)的“圖片生成模型”功能進(jìn)行三維模型生成。模型生成操作分為兩步:第一步,將二維圖像上傳至平臺(tái);第二步,點(diǎn)擊“生成”按鈕,即可快速生成三維模型。生成的模型支持白模和材質(zhì)貼圖預(yù)覽,并提供四種不同細(xì)節(jié)的基礎(chǔ)模型供用戶選擇。為進(jìn)一步優(yōu)化模型,平臺(tái)提供了重新拓?fù)涔δ?,用戶可以自由切換三角面和四邊面模式,對(duì)模型布線進(jìn)行精細(xì)化調(diào)整。在材質(zhì)設(shè)置方面,平臺(tái)支持基于物理的渲染技術(shù)(PBR)進(jìn)行光影模擬。
在骨骼綁定方面,對(duì)模型進(jìn)行下巴、肩、手肘、手腕、腹、膝蓋、腳關(guān)鍵點(diǎn)的設(shè)置即可完成骨骼綁定,并提供預(yù)設(shè)動(dòng)畫模板供用戶選擇。雖然骨骼綁定過程較為簡(jiǎn)單,但平臺(tái)目前缺乏蒙皮功能,導(dǎo)致角色動(dòng)畫出現(xiàn)拉伸問題。為解決這一問題,筆者將二維圖像的頭部、身體、四肢進(jìn)行分割處理,再分別上傳生成各部分的三維模型,最終構(gòu)建整體的三維模型雛形。通過fbx格式下載后再進(jìn)行后續(xù)優(yōu)化處理,角色模型如圖3所示。

四、結(jié)束語
本文探討了基于AIGC技術(shù)驅(qū)動(dòng)下的三維模型生成技術(shù)。未來,相關(guān)產(chǎn)業(yè)圍繞AIGC技術(shù)的焦點(diǎn)將集中于兩大維度。一是在技術(shù)賦能的背景下維持藝術(shù)獨(dú)特性,當(dāng)AIGC能夠批量生成符合商業(yè)標(biāo)準(zhǔn)的動(dòng)畫內(nèi)容時(shí),如何避免風(fēng)格趨同、構(gòu)建差異化的美學(xué)標(biāo)識(shí)成為關(guān)鍵。這要求創(chuàng)作者在算法訓(xùn)練中構(gòu)建個(gè)性化特征庫(kù),同時(shí)通過人類干預(yù)打破AI的模式化輸出。二是構(gòu)建倫理審核機(jī)制,根據(jù)敘事復(fù)雜程度、藝術(shù)追求層級(jí)等變量動(dòng)態(tài)調(diào)節(jié)人機(jī)協(xié)作深度,通過倫理審核標(biāo)準(zhǔn)解決創(chuàng)作權(quán)屬模糊、符號(hào)誤用風(fēng)險(xiǎn)等衍生問題,最終形成技術(shù)迭代與人文價(jià)值雙重驅(qū)動(dòng)的創(chuàng)新生態(tài)系統(tǒng)。
參考文獻(xiàn):
[1]布寧,余紀(jì)元.西方哲學(xué)英漢對(duì)照詞典[M].北京:人民出版社,2001.
[2]朱光輝,王喜文.人工智能文生視頻大模型Sora的核心技術(shù)、運(yùn)行機(jī)理及未來場(chǎng)景[J].新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023,45(04):150-151.
[3]徐晨雨,祁悅,郭瀚之等.基于AIGC的西夏文化元素提煉及混合現(xiàn)實(shí)數(shù)字人互動(dòng)設(shè)計(jì)[J].包裝工程,2024,45(20):49-57.
[4]巴曉.AIGC技術(shù)在影視制作中的應(yīng)用探索和趨勢(shì)前瞻[J].現(xiàn)代電影技術(shù),2023,(12):37-43.
[5]籍思源.互聯(lián)網(wǎng)語境下中國(guó)影視動(dòng)畫IP開發(fā)模式研究[D].南京藝術(shù)學(xué)院,2022.
(責(zé)任編輯:趙靜琪)