







關(guān)鍵詞:非遺設(shè)計(jì);AIGC技術(shù);文本創(chuàng)意;圖像創(chuàng)新;影像構(gòu)思
引言
在當(dāng)今數(shù)字化時(shí)代,全球網(wǎng)絡(luò)與設(shè)備的互聯(lián)使得視頻和圖像的生產(chǎn)與流通速度加快。視覺內(nèi)容作為交流生活文化的關(guān)鍵媒介,現(xiàn)已占據(jù)中心位置。在非遺設(shè)計(jì)實(shí)踐中,AI 技術(shù)正在改變傳統(tǒng)的圖像制作和傳播方式[1],不僅簡化了設(shè)計(jì)流程,更加深了我們對于非物質(zhì)文化遺產(chǎn)圖像的理解和欣賞。原本靜態(tài)的非遺圖案和符號(hào)借助AI 變得生動(dòng)化,從而吸引了更廣泛的關(guān)注,加強(qiáng)了當(dāng)代文化的鏈接[2]。這種轉(zhuǎn)型不僅顯著提升了非遺項(xiàng)目的視覺傳達(dá)力度,也為尋求非傳統(tǒng)解決方案的設(shè)計(jì)師們提供了無限可能。 簡言之,AI 在非遺視覺傳播的顯著作用,不只是技術(shù)層面的躍進(jìn),更代表著我們認(rèn)知和接受文化遺產(chǎn)的方式正經(jīng)歷著根本的改變。未來,我們甚至能期待AI 技術(shù)在非遺設(shè)計(jì)創(chuàng)造力、傳播效率和文化價(jià)值傳遞中扮演更為關(guān)鍵的角色。
一、人工智能驅(qū)動(dòng)下的非遺設(shè)計(jì)轉(zhuǎn)向
在數(shù)字時(shí)代,隨著設(shè)備和網(wǎng)絡(luò)的全球互聯(lián),視頻和圖像的制作和消費(fèi)速度正在快速提升。視覺內(nèi)容已經(jīng)成為我們生活和文化溝通的關(guān)鍵渠道。在人工智能的輔助下,圖像的傳播有了顯著的優(yōu)勢[3]。數(shù)字圖像無處不在,我們對它們所提供的視覺體驗(yàn)越來越依賴。對圖像的喜愛已經(jīng)不僅僅是為了滿足物質(zhì)需求,它們還成為人們尋求精神快樂的一種方式[4]。簡而言之,AI 不僅在視覺傳播中起著重要作用,也正在改變我們消費(fèi)視覺內(nèi)容的方式。這將進(jìn)一步影響專業(yè)設(shè)計(jì)的領(lǐng)域,并引導(dǎo)我們探索如何結(jié)合AI 技術(shù)來改進(jìn)視覺傳播。
在人工智能的浪潮下,非遺設(shè)計(jì)正在經(jīng)歷一場深刻的變革。這一領(lǐng)域傳統(tǒng)上依賴傳承人的手藝與經(jīng)驗(yàn)進(jìn)行創(chuàng)作,現(xiàn)在卻邁向了“數(shù)字手工藝”,也就是將傳統(tǒng)技藝與現(xiàn)代技術(shù)相結(jié)合,以實(shí)現(xiàn)文化與藝術(shù)的傳承。這一變革表現(xiàn)在從手工技能和工具逐步向數(shù)字輔助設(shè)計(jì),甚至采用智能生成圖像和模式的過渡。當(dāng)前,非遺設(shè)計(jì)正從依賴藝術(shù)家個(gè)人創(chuàng)作及手工制作轉(zhuǎn)變?yōu)槿藱C(jī)協(xié)同的智能創(chuàng)作過程。AI 技術(shù)的應(yīng)用,包括智能化的圖像生成和設(shè)計(jì)模板,正在使設(shè)計(jì)工作從手工時(shí)代步入智能時(shí)代。自2022 年以來,Midjourney、DELL-E2、JasperArt、AutoDraw 等AI 工具已在年輕設(shè)計(jì)師群體中廣泛流行,不僅因?yàn)槠涫褂玫暮唵涡院蛯W(xué)習(xí)曲線的平緩,更因?yàn)槠湓谠O(shè)計(jì)過程中的高效率。對于中小企業(yè)的非遺產(chǎn)品設(shè)計(jì)需求,這些企業(yè)的營銷工作人員也能夠利用AIGC 工具積極參與設(shè)計(jì)[5]。
從行業(yè)發(fā)展的長遠(yuǎn)視角來看,智能科技將為非遺設(shè)計(jì)領(lǐng)域提供更加全面的服務(wù)和支持,個(gè)人的能力也將向跨領(lǐng)域擴(kuò)展。在未來,非遺設(shè)計(jì)的很多工作可能不再局限于由專業(yè)設(shè)計(jì)師來完成,而是打開任何對傳統(tǒng)文化有興趣的所有人打開了參與其中的大門。
二、AIGC在非遺設(shè)計(jì)中的應(yīng)用范圍
(一)文本創(chuàng)意——AI 提示詞引導(dǎo)
在人工智能內(nèi)容生成技術(shù)的成長軌跡上,文本創(chuàng)造性生成扮演著核心角色。該技術(shù)可通過接收特定的關(guān)鍵詞命令迅速產(chǎn)出包括詩作、小說、市場營銷文本以及劇本等多種文本材料。結(jié)合了深度學(xué)習(xí)與自然語言處理等先進(jìn)科技,AIGC 技術(shù)仿效并提升了人類文本創(chuàng)作的過程。
AI 生成文本的質(zhì)量與給定提示詞的質(zhì)量密切相關(guān)。提示詞指的是向AI 系統(tǒng)提供的用以引導(dǎo)生成過程的語言和命令。因而,實(shí)現(xiàn)高質(zhì)量文本生成的前提是精細(xì)構(gòu)建和優(yōu)化這些提示詞。構(gòu)建初步框架,通過專家團(tuán)隊(duì)制訂了一個(gè)提示詞構(gòu)建框架,常見提示詞框架如圖1。例如使用RACE 框架,在進(jìn)行文本生成時(shí),明確角色(Role)為“非遺產(chǎn)品設(shè)計(jì)行業(yè)”,規(guī)定行動(dòng)(Action)是“非遺產(chǎn)品造型推演的工作”,背景(Context)是“產(chǎn)品設(shè)計(jì)造型相關(guān)的提示詞遵循的結(jié)構(gòu)為:主體產(chǎn)品+ 純白色背景+ 產(chǎn)品造型風(fēng)格+ 產(chǎn)品的材質(zhì)+ 產(chǎn)品配色+ 產(chǎn)品細(xì)節(jié)+ 打光方式+ 圖片質(zhì)量”。期待成果(Expectation)是根據(jù)給出的概念,生成一段詳細(xì)的提示詞,注意不要照抄例子,可以適當(dāng)加入一些創(chuàng)造性的想法來與現(xiàn)有的產(chǎn)品造型產(chǎn)生差異化,先生成英文,再翻譯成中文,直接開始給出提示詞[6]。聚焦于定義明確的任務(wù)指令、確保語境的準(zhǔn)確性,以及描繪期望的文本類型和風(fēng)格。
(二)圖像創(chuàng)新—AIGC 輔助繪制
在圖像生成的技術(shù)領(lǐng)域,AIGC 目前主要展現(xiàn)為兩類方法。第1種方法是基于文本描述的圖像生成,這種方式利用自然語言指令來驅(qū)動(dòng)AIGC 系統(tǒng)創(chuàng)建視覺圖像。這不僅使文字內(nèi)容更易于可視化,還增強(qiáng)了信息的直觀性和創(chuàng)造力。第2 種是基于圖像的圖像生成,它采用深度學(xué)習(xí)技術(shù)從現(xiàn)有圖像中提取特征,并生成既有相似性又帶有新穎性的圖像,見圖2。這類技術(shù)在圖像的增強(qiáng)和修復(fù)等方面顯示了廣闊的應(yīng)用前景。
目前AI 繪畫領(lǐng)域最強(qiáng)的兩個(gè)工具是:Midjourney 和Stablediffusion,傳統(tǒng)的非物質(zhì)文化遺產(chǎn)產(chǎn)品設(shè)計(jì)通常遵循以下步驟:開展文化調(diào)研,搜集相關(guān)圖樣,繪制手稿,二維色彩設(shè)計(jì),三維建模和最終的視覺渲染。隨著人工智能技術(shù)的融入,新的設(shè)計(jì)流程使得產(chǎn)品開發(fā)變得更為高效,同時(shí)在保護(hù)和創(chuàng)新非遺文化方面發(fā)揮著重要作用[7]。
在調(diào)研階段,設(shè)計(jì)師首先搜集與特定非遺項(xiàng)目相關(guān)的圖像素材和關(guān)鍵文化要素,并可利用AI 生成技術(shù)快速獲得設(shè)計(jì)草圖。這些草圖分為兩類:第1 類為即時(shí)設(shè)計(jì)提案,可直接提交客戶審批;第2 類與傳統(tǒng)技藝結(jié)合,例如通過Photoshop 編輯或傳統(tǒng)的手稿拼接,進(jìn)一步加工以完成設(shè)計(jì)提案。
手稿階段,則可以利用AI 工具生成草圖方案,加速修改和優(yōu)化的過程。當(dāng)手稿成型后,AI 的色彩上色功能便能迅速構(gòu)建出多樣化的效果圖,供客戶考量不同的顏色與材質(zhì)(CMF)方案,見圖3、4。
在三維建模方面,AI 的介入擴(kuò)展了設(shè)計(jì)的可能性,如使用comfyui 等高級(jí)工具快速渲染多樣化的模型預(yù)覽,從而輔助精確的建模過程。在創(chuàng)意階段,關(guān)鍵詞的生成與自由抽卡可以激活設(shè)計(jì)靈感,并為前期設(shè)計(jì)提供多元化的視覺素材。為優(yōu)化設(shè)計(jì),同類非遺產(chǎn)品的圖像輸入到特定的AI 生成模型,可幫助確定有效的提示詞以自動(dòng)產(chǎn)生不同風(fēng)格和色彩的提案。此外,大型語言模型如CHATGPT、ollama 和千問可作為輔助工具。
(三)影像構(gòu)思—AI 驅(qū)動(dòng)的視頻創(chuàng)意展現(xiàn)
隨著文本與圖像生成技術(shù)的成熟,人工智能在視頻生成技術(shù)方面也取得了顯著進(jìn)展。這一進(jìn)步尤其體現(xiàn)在快手AI 團(tuán)隊(duì)自研的視頻生成大模型開發(fā)的視頻生成大模型可靈中,不僅標(biāo)志著AI 在視頻生成的重大技術(shù)突破,而且開辟了新的應(yīng)用領(lǐng)域,可靈大模型1.6 的出現(xiàn)提供了一種新的方法論。這種技術(shù)允許我們以更細(xì)膩和動(dòng)態(tài)的方式重現(xiàn)和傳播非遺項(xiàng)目,從而增強(qiáng)了公眾對傳統(tǒng)文化的認(rèn)識(shí)和興趣。中國AI 技術(shù)“可靈”在推動(dòng)這一創(chuàng)新應(yīng)用上展現(xiàn)了引領(lǐng)者的角色,其創(chuàng)新實(shí)力在全球范圍內(nèi)受到關(guān)注。見圖5。
為了提高使用AI 視頻短片的制作效率,設(shè)計(jì)師需要對整個(gè)創(chuàng)作流程進(jìn)行詳細(xì)的梳理和優(yōu)化,涵蓋劇本創(chuàng)作、分鏡頭設(shè)計(jì)、視覺效果生成及音樂配制等各個(gè)階段,見圖6。經(jīng)過多次測試并深入分析可靈AI 技術(shù)的能力,圖生視頻是當(dāng)前創(chuàng)作者使用頻率最高的功能,這是因?yàn)閺囊曨l創(chuàng)作角度來看,圖生視頻更可控,創(chuàng)作者可以用提前抽卡生成好的圖片進(jìn)行動(dòng)態(tài)視頻生成,極大降低了專業(yè)視頻的創(chuàng)作成本與門[8]。通過這種方式,可以更加精確地捕捉和表現(xiàn)非遺元素的細(xì)節(jié)和文化內(nèi)涵,從而幫助公眾更好地理解和欣賞這些珍貴的文化遺產(chǎn)。
在利用AIGC 技術(shù)制作非遺視頻內(nèi)容時(shí),我們可以輕松重現(xiàn)原本制作成本高昂且耗時(shí)的復(fù)雜文化場景,極大提升了視頻的視覺表現(xiàn)力。這種技術(shù)支持讓我們能夠精確呈現(xiàn)非遺項(xiàng)目的豐富細(xì)節(jié)和文化深度。文化元素與現(xiàn)代視覺表達(dá)的融合以及場景與角色的和諧搭配仍然需要人類設(shè)計(jì)師與AI 技術(shù)的協(xié)作。盡管目前的AI 技術(shù)已有顯著進(jìn)步,但非遺視頻制作中對腳本和文化細(xì)節(jié)的精準(zhǔn)把握還是依賴于人類的深入理解和創(chuàng)意。
三、基于AIGC的非遺設(shè)計(jì)實(shí)踐
在本研究中,我們引入了實(shí)踐研究和比較研究方法,利用OpenAI 公司的ChatGPT-4.0、Stability AI 的Stable Diffusion,以及快手AI 團(tuán)隊(duì)開發(fā)的視頻大模型可靈等工具,對非物質(zhì)文化遺產(chǎn)設(shè)計(jì)流程進(jìn)行了深入的實(shí)踐分析。我們探討了從初始概念設(shè)計(jì)到最終藝術(shù)作品展示及相關(guān)反饋的全過程,采用比較研究法對不同技術(shù)手段在執(zhí)行中的成效進(jìn)行評(píng)估。研究的目的是為使用AIGC 技術(shù)在非遺設(shè)計(jì)創(chuàng)新中提供實(shí)證支持和理論指導(dǎo)。
(一)文本生成
1. 非遺設(shè)計(jì)項(xiàng)目概念化階段:首先需要明確ChatGPT 的任務(wù)范疇,這可能涉及生成設(shè)計(jì)概念描述、提出文化創(chuàng)意、解決設(shè)計(jì)疑難等。
2. 任務(wù)定義與請求制定:緊接著,根據(jù)指定的目標(biāo)任務(wù),定義一個(gè)具體的請求,可以向ChatGPT 提出這樣的描述:“你是一名專注于文化遺產(chǎn)創(chuàng)新設(shè)計(jì)的專家,常通過技術(shù)工具如Stable Diffusion來輔助進(jìn)行產(chǎn)品原型推演。目前需要設(shè)計(jì)一款反映傳統(tǒng)扎染藝術(shù)美學(xué)與現(xiàn)代生活功能結(jié)合的懶人沙發(fā)。”
3. 關(guān)鍵詞與概描述產(chǎn)出:請基于扎染藝術(shù)和產(chǎn)品實(shí)用性提供4個(gè)關(guān)鍵詞和畫面描述,以更準(zhǔn)確地展現(xiàn)設(shè)計(jì)理念。ChatGPT 根據(jù)這一提議產(chǎn)出諸如“扎染沙發(fā)”“兼容文化與功能”“設(shè)計(jì)感”“裝飾性”“實(shí)用性”以及“傳統(tǒng)藝術(shù)融合”等關(guān)鍵詞。這些建議不但能夠輔助設(shè)計(jì)師精準(zhǔn)界定設(shè)計(jì)方向,而且能夠?yàn)楹罄m(xù)的設(shè)計(jì)元素挑選和理念構(gòu)建提供參照。
4. 任務(wù)定義與請求制定:ChatGPT 能夠提供不同設(shè)計(jì)方案的場景描述和優(yōu)化建議,見表1。例如“設(shè)計(jì)一款具備藝術(shù)感無具體造型的扎染風(fēng)格的懶人沙發(fā),既能成為家庭的藝術(shù)裝飾品,又帶有坐和躺的功能,為用戶帶來便捷體驗(yàn)”。通過ChatGPT 的語言生成能力,非遺設(shè)計(jì)中的創(chuàng)意啟發(fā)與指導(dǎo)作用得到加強(qiáng),有效提升了設(shè)計(jì)的創(chuàng)新度。依賴于ChatGPT 的設(shè)計(jì)建議,設(shè)計(jì)師可以從更為豐富的文化理論中吸取靈感,從而深入挖掘潛在的非遺設(shè)計(jì)概念,并迅速轉(zhuǎn)化為具體視覺表現(xiàn)形式。
(二)創(chuàng)意概念圖像化實(shí)現(xiàn)
1. 設(shè)計(jì)目標(biāo)確定:本次設(shè)計(jì)目標(biāo)是開發(fā)一款融入非遺扎染風(fēng)格的懶人沙發(fā)。該沙發(fā)不僅需要體現(xiàn)非遺扎染的特色風(fēng)格,還要保持實(shí)用性與創(chuàng)新性,以及滿足使用的結(jié)構(gòu)穩(wěn)定性要求[9]
2. 模型選擇與決定:市面上流行的Stable Diffusion 基本模型大致可分為寫實(shí)、虛擬,以及萬能三大類型。其中寫實(shí)型模型因其精確的紋理和光影效果再現(xiàn)能力而被選定用于本項(xiàng)目的剪紙風(fēng)格照明裝置效果圖繪制。最終選擇“juggernautXL_v9”模型作為創(chuàng)作基礎(chǔ),該模型已集成了VAE 功能,無需額外模塊。
3. 核心詞處理:在傳統(tǒng)的非物質(zhì)文化遺產(chǎn)與數(shù)字化設(shè)計(jì)融合的研究中,當(dāng)輸入關(guān)鍵詞“tie-dye(扎染)”時(shí),借助“傳統(tǒng)扎染”“自由形式”“立體沙發(fā)”“極簡”“編織”等關(guān)鍵詞用于正向提示,排除了不利于設(shè)計(jì)質(zhì)量的元素,如“簡單背景”“低分辨率”等負(fù)向提示詞。設(shè)定迭代步數(shù)為30,采用Euler a 為采樣方法,指定生成分辨率為1024x1024 像素,總批次與單批次均設(shè)置為4。提示詞引導(dǎo)系數(shù)設(shè)定為7,隨機(jī)數(shù)種子選定為-1。這些參數(shù)確保了高質(zhì)量剪紙風(fēng)格照明圖像的產(chǎn)生。初步生成的圖像在真實(shí)性和細(xì)節(jié)處理上有待提升。為解決這些問題,將利用Stable Diffusion 進(jìn)行進(jìn)一步圖像精修,增添了“設(shè)計(jì)感”“真實(shí)感”“高細(xì)節(jié)”等強(qiáng)化質(zhì)量的關(guān)鍵詞。經(jīng)過反復(fù)測試和生成,獲得最終修正后的效果圖,明顯提升了圖片的質(zhì)量和細(xì)節(jié)處理,見圖7。
4. 背景優(yōu)化與細(xì)節(jié)增強(qiáng):通過Stable Diffusion 的蒙版繪制與圖生圖功能,將背景進(jìn)行替換為室內(nèi)設(shè)計(jì)風(fēng)格,讓扎染懶人沙發(fā)得以更好地展示。關(guān)鍵詞為“簡約公寓”“米色和白色調(diào)”“織物”“舒適”“從直接角度拍攝”“自然陽光”“工作室燈光”,背景的真實(shí)感與細(xì)節(jié)層次的豐富性需要設(shè)計(jì)師運(yùn)用其專業(yè)技能對近景和遠(yuǎn)景的元素進(jìn)行精準(zhǔn)造型和修飾,以達(dá)到最終圖像的審美要求和功能目標(biāo),見圖8。
(三)創(chuàng)意概念視頻化實(shí)現(xiàn)
AIGC 的技術(shù)基礎(chǔ)主要建立在機(jī)器學(xué)習(xí),尤其是深度學(xué)習(xí)之上。如Transformer 自回歸模型和Diffusion 擴(kuò)散模型,孵化出了Stable Diffusion 3、DALLE-3、Pika、Runway 等文生視頻產(chǎn)品,能夠從大量數(shù)據(jù)中學(xué)習(xí)并模仿人類的創(chuàng)作風(fēng)格[10]。本研究使用快手團(tuán)隊(duì)的可靈平臺(tái)作為主要工具,對扎染藝術(shù)的創(chuàng)意概念進(jìn)行可視化探索。通過撰寫詳細(xì)的腳本和運(yùn)用平臺(tái)內(nèi)多樣的圖像生成功能[11],探索不同的視覺呈現(xiàn)方式,并分析了這些方式如何有效傳達(dá)扎染藝術(shù)的文化特征。
(1)撰寫劇本:劇本圍繞一個(gè)古典扎染手藝的故事,通過一系列具有代表性的扎染技藝作品來展示扎染藝術(shù)的發(fā)展歷程。劇本中詳細(xì)描述了每個(gè)場景的視覺元素,如顏色、紋理和場景布局,以保證視頻內(nèi)容的文化真實(shí)性與視覺吸引力,見表2。
(2)分鏡頭設(shè)計(jì):分鏡頭設(shè)計(jì)這部分可以借助GPT 幫助完成文字版的分鏡表格,包括:鏡號(hào)、畫面描述、景別、運(yùn)鏡、旁白、字幕、音效、時(shí)長等,也可以簡單的繪制一下分鏡頭的畫面,方便后期生圖更明確。根據(jù)GPT 的分鏡頭,在可靈中生成畫面內(nèi)容了,在生圖過程中同樣也需要多多嘗試不同的風(fēng)格模型,見表2。
(3)視覺制作生成:將Stable Diffusio 生成的扎染沙發(fā)靜態(tài)圖片轉(zhuǎn)化為動(dòng)態(tài)視頻。在生成視頻的過程中,直接從文本生成視頻(文生視頻)可能會(huì)因?yàn)锳I 對文本理解的偏差,導(dǎo)致最終視頻內(nèi)容與預(yù)期有所出入,這在穩(wěn)定性和質(zhì)量一致性上帶來了挑戰(zhàn)。相對而言,從圖片生成視頻在視覺連貫性和生成質(zhì)量的穩(wěn)定性方面表現(xiàn)更優(yōu),技術(shù)也更為成熟可靠,如圖9。
AI 工具的應(yīng)用大大提升了電影短片創(chuàng)作的效率和質(zhì)量。從概念構(gòu)思到劇本創(chuàng)作,再到分鏡頭設(shè)計(jì)、視覺效果生成、音樂配制和配音,每一個(gè)環(huán)節(jié)都能借助AI 工具實(shí)現(xiàn)更高效的創(chuàng)作全流程。
結(jié)語
當(dāng)前,將地方文化融入非遺設(shè)計(jì)與文創(chuàng)產(chǎn)品開發(fā)中仍然充滿挑戰(zhàn)。用戶中心的設(shè)計(jì)理念要求設(shè)計(jì)師不僅要具備良好的專業(yè)知識(shí),還需靈活運(yùn)用新興技術(shù)。雖然AIGC 技術(shù)正日趨成熟,但在整個(gè)設(shè)計(jì)流程中的應(yīng)用依然有限,并不能完全取代傳統(tǒng)手工藝和設(shè)計(jì)師的獨(dú)到見解。因此,在非遺設(shè)計(jì)中,設(shè)計(jì)師必須深刻理解并精準(zhǔn)運(yùn)用AIGC 技術(shù),以創(chuàng)造出既體現(xiàn)傳統(tǒng)文化韻味,又符合現(xiàn)代審美趨勢的作品。同時(shí),AIGC 在未來的發(fā)展?jié)摿α钊似诖洳粌H提供了針對地方非遺文創(chuàng)產(chǎn)品設(shè)計(jì)的創(chuàng)新途徑,還促進(jìn)了地方文化的傳播和交流,成為連接傳統(tǒng)與現(xiàn)代的橋梁。