李茹莎
摘 要:本文設計了一個以敦煌壁畫為主題,具有敘事性結構的交互櫥窗系統。通過這種與人類姿勢交互的認知模型,引導用戶主動參與,加強人們對敦煌文化的親近感。
關鍵詞:交互櫥窗;姿勢交互;敘事結構;敦煌飛天
0 引言
隨著科學技術的發展,交互展示在極大地推動了文化遺產的數字化展覽。目前,多數展覽在交互方式上存在同質化現象,內容上多以單向線性灌輸式進行,難以吸引大眾,有效傳達展覽信息。1996年,Hoffmann設計了真人大小的提線木偶模仿人類動作進行表演。[2]2004年,Yamane等人用來自人類的運動捕捉數據控制機動,以弦驅動木偶表演,用算法使捕捉數據適用于木偶。[3]以上研究所設計的木偶通過模仿人類動作以建立同步性,但缺乏內在情感的自主性與差異性。本文設計了一個認知模型的交互櫥窗系統,避免單純模仿并建立其獨立性。采用虛實結合的交互對用戶的姿勢給予回應,讓用戶更自然、積極、主動地參與,并獲得引導性的展覽信息。
1 交互櫥窗系統
1.1 概念設計
參考敦煌壁畫元素,以大眾熟知的《九色鹿》《出游四門》進行設計(圖1a)。交互櫥窗系統借用立體空間與不同交互模式構建多種感官體驗,讓用戶在較短的時間內對系統進行熟悉并嘗試交互方面的探索,達到心理上的情感共鳴。
1.2 系統設計
交互櫥窗系統硬件包括一個55英寸顯示屏,PC,木偶及其控制設備,Kinect(圖1b)。用戶姿勢通過Kinect捕捉,將數據與PC中的木偶動作庫進行同步匹配,使用戶動作得到即時反饋。木偶的運動采用總線舵機控制,借用舵機角度控制繞線圈的旋轉,帶動木偶各關節的運動,從而形成木偶的整體運動。LED屏內的動畫采用數位板繪制敦煌故事,運用動作捕捉技術,通過三維軟件進行后期處理。
1.3 原型設計
交互櫥窗系統包括LED動畫和木偶認知模型兩部分。
LED動畫設計:一是介紹故事基本信息;二是介紹故事的敘事結構、情節發展;三是選擇匹配環節。
木偶認知模型有三個模塊:一是用戶姿勢的識別;二是木偶姿勢的選擇;三是木偶一系列的姿勢動作。[1]
由于人類的姿勢千變萬化且自由度高,具有隨機性和復雜性。為了使木偶的回應更具主動性、不可預知性,采用一對多的關系讓每個用戶的姿勢映射到一組可能的木偶姿勢中。選擇的過程系統無法判斷用戶情緒,所以木偶的姿勢將集結所有可能的情緒。[1]
本文創建了兩種不同的設計模式原型,不同之處主要體現在內容上,針對故事的敘事結構與情節發展進行設計。
(1)原型一的系統設計。原型一的設計希望逐步激發用戶興趣,LED屏中的內容會根據各部分的預設時間進行展示,使用戶按預設的順序與時間依次體驗完所有部分。
第一,用戶走近時,木偶表達激動或心慌等情緒并做出飛行姿勢,代表著木偶希望帶領用戶去了解敦煌壁畫。同時,LED屏動態展示飛天舞蹈并開始自動播放故事的基本信息。
第二,用戶打招呼時,木偶表達欣喜情緒并做出打招呼姿勢,代表著木偶的禮貌與回應。同時,LED屏在飛天打招呼動畫中按照故事情節發展依次展開,讓用戶直觀地了解故事的詳情。
第三,在選擇匹配環節,用戶依據之前所了解的信息對該環節的問題進行互動。
第四,在用戶離開時,木偶做出低頭,雙手耷拉的姿勢,代表著木偶的無奈或低落等情緒。同時,LED屏將故事回歸初始狀態。
無人時木偶做細微動作防止長時間靜止,仿佛有生命力一樣吸引路人。LED屏則是祥云等裝飾元素的循環。當有人經過時,木偶做出走路姿勢,LED屏的壁畫則跟隨路人的位置及行走方向進行對應壁畫部分的動態展示。
(2)原型二系統設計。原型二的設計期望可以鼓勵用戶對內容的欣賞。用戶可以根據自身興趣與節奏,通過交互自由地訪問每一部分。
第一,用戶走近時,木偶表達激動或心慌等情緒并做出飛行姿勢,代表著木偶希望帶領用戶去了解敦煌壁畫。同時,LED屏隨著飛天舞蹈出現敦煌故事基本信息、敘事結構及情節、選擇匹配三部分。
第二,用戶手勢交互(指向/點擊)時,木偶做出打招呼姿勢,表達欣喜情緒。同時,LED屏根據用戶的指向呈現該部分的內容。若用戶做出打招呼姿勢,LED屏呈現歡迎頁面,隨即提示用戶可選取感興趣的內容點擊了解。
原型二在無人或有人經過或有人離開時系統狀態與原型一一致。
2 結語
本文通過交互櫥窗展示設計,從交互敘事結構出發,總結交互展示設計在敘事結構的設計法則,同時探究一個輸入多個輸出的交互反饋,期望實物參與的交互更能激發用戶的興趣與探索欲。相信交互公共展示在未來會運用到教育、娛樂等眾多領域并發揮其價值。
參考文獻:
[1] Mahzoon,M.,Maher,M.L.,Grace,K.,LoCurto,L.,Outcault,B . The Willful Marionette:Modeling Social Cognition Using Gesture-Gesture Interaction Dialogue[C]. International Conference on Augmented,2016:402-413.
[2] Hoffmann, G.: Teach-in of a robot by showing the motion[C]. International Conference on Image Processing,1996:529-532.
[3] Yamane,K.,Hodgins,J.K.,Brown,H.B . Controlling a motorized marionette with human motion capture data[J]. International Journal of Humanoid Robotics,2004.