盧孔筆,柯顯信,尚宇峰
(上海大學機電工程與自動化學院,上海 200072)
仿人面部表情機器人頭部機構方案設計
盧孔筆,柯顯信,尚宇峰
(上海大學機電工程與自動化學院,上海 200072)
為了賦予表情機器人更豐富的面部表情,并最終實現與人之間更和諧的交互,在對人類基本表情的形成與肌肉運動進行分析的基礎上,提出了一種仿人面部表情機器人頭部的機械結構設計方案,為后續研究提供了硬件平臺支持.并對該機器人頭部機構,包括眉毛、眼瞼、眼球、能實現咀嚼動作的下顎以及頸部等的工作原理進行了詳細說明,對多種方案的選擇作了對比.最后,確定了表情機器人頭部的機構設計方案.
仿人面部表情機器人;情感;表情;人機交互;機構設計
在智能機器人產業發展戰略上,中國已經把服務機器人等項目確定為國家“863”計劃的重點.智能機器人從外觀上已遠遠脫離了最初的工業機器人所具有的形狀和局限,其功能和智能程度大大增強,更加滿足各種不同應用環境的需求,從而為機器人技術的研發開辟出更加廣闊的發展空間,其中仿人面部表情機器人的研究也是當前智能機器人研究熱點之一.可以預見,智能機器人將會走進千家萬戶,因此賦予機器人情感,與之進行生動的情感交互變得尤為重要.而人的情感又主要是由面部表情進行表達的.因此對于仿人表情機器人的研究對于實現和諧的人機交互有著十分重要的意義,而其中機器人的硬件平臺的搭建則是基礎性的一步.
哈爾濱工業大學最早開始了對仿人表情機器人的研究.1996年,哈爾濱工業大學的仿生仿人機器人及其智能運動控制研究室以1∶1的設計比例,研究出了以孫中山為原型的仿人頭像演講機器人,該機器人具有彈性皮膚、面部器官及頭頸部、雙臂動作,能夠起立、坐下、進行演講;并于2003年開始進行仿人頭像機器人H&Frobot的研究(從H&Frobot-Ⅰ到H&Frobot-Ⅲ),研究主要面向面部表情再現及語音口形協調等[1];2012年,該研究室研究出了具有智能表情,并具有嗅覺、視覺、力覺、溫度感知、語音口形等多感知機能的集成化仿人全身機器人GOROBOT-Ⅲ.北京科技大學的王志良教授在1999年首次提出了人工心理的概念,即利用已有的人工智能的理論和實踐基礎,結合心理學、神經科學、計算機科學等新方法,進行全面的人工機器(計算機、模型算法等)實現[2].
在國外,對于仿人機器人的研究所取得的成果顯著.日本大阪大學石黑浩教授和Kokoro公司工程師研發的一款名為“Geminoid F”的仿人機器人,能實現60多種表情,具有極高的仿人相似度[3];此外日本早稻田大學的WE-4是目前感官器官最為齊全的機器人,具有視覺、聽覺、觸覺、嗅覺等[4];日本東京理科大學的SAYA通過19個運動控制單元控制機器人臉部硅膠皮膚[5];意大利比薩大學的FACE通過HEFES軟件控制電機做出適當的反應來模擬表情,并實現不同表情的混合[6];美國麻省理工學院的Kismet利用激勵、價和態這3個坐標軸構成情感空間模型,且該情感空間被分割成代表特定情感狀態的區域[7].
如果想讓機器人實現類似人類的6種基本表情,則必須對人類的6種基本面部表情進行分析[8].
(1)驚訝情緒的面部特征:①額肌充分收縮,雙眉大幅提升;②上眼提肌收縮,與額肌共同作用,眼睛睜大,露出虹膜上緣的眼白;③嘴巴不自覺張開.
(2)厭惡情緒的面部特征:①皺眉肌收縮,雙眉緊皺;②眼輪匝肌強烈收縮,緊閉雙眼,同時造成雙眉下壓;③提升唇肌和上唇鼻翼肌收縮,提升上唇,同時在鼻翼兩側擠壓形成鼻唇溝;④頦肌收縮,將下唇向上強力推起,使雙唇緊閉,下巴同時向上收起,表面皮膚形成褶皺,下唇與下巴上的肌肉隆起之間形成深溝;⑤降口角肌收縮,將嘴角向下拉,與提上唇肌的作用形成制衡,嘴角兩側形成括號形紋路.
(3)憤怒情緒的面部特征:①雙眉下壓、緊皺;②上眼瞼提升劇烈,下眼瞼緊繃,稱為怒視;③嘴用力張大,上唇繃緊拉伸,露出牙齒作為攻擊武器;④下巴降低,真正的攻擊行為,沒有抬著頭,抬著下巴;⑤鼻翼提升,不但露出上齒的威脅形態,而且鼻孔還會擴展,用于保持呼吸道的通暢.
(4)恐懼情緒的面部特征:①眉頭上揚,眉形整體在內側1/3處扭曲向上;②上眼瞼向上提升,露出更多的虹膜上緣;③提上唇肌輕微收縮,上唇提起,略微露出上齒;④頸闊肌輕微收縮,將嘴角向兩側拉開,使嘴的水平寬度較平時的松弛狀態更大.
(5)悲傷情緒的面部特征:①嘴部沒有明顯變化,輕微收縮,形成不悅嘴形;②眼睛狀態正常,可能略有增大;③眉毛不會下壓,眉頭輕微上揚,眉間輕微扭曲.
(6)愉悅情緒的面部特征:①眉毛保持松弛時的自然拱形,前額平滑;②雙眼緊閉,下眼瞼凸起、提升,下方會出現溝紋,眼角內側產生皺紋,外側產生魚尾紋;③嘴角向上,向兩側提升,臉頰隆起,提升到最高位置,呈最圓狀態;④上唇提升,露出大部分上齒,下顎打開,表面變得平滑,并露出少量下齒;⑤下巴展開,皮膚平滑,自嘴角到下巴頦,形成笑容特有的溝紋,與鼻唇溝一氣貫通.
圖1為6種基本表情及相對應的面部形態特征.

圖1 基本表情及對應的面部形態特征Fig.1 Basic facial expressions and corresponding morphological characteristics
在多數情況下,人的面部所呈現的表情特征基本上是對稱的,但為使機器人能夠表達出更多樣更細膩的表情特征,本研究提及的設計方案對機器人臉部的特征(如左右眼球、左右眉毛等)均采取獨立驅動的方式,并在對人類的面部表情特征進行了分析之后,提出了機器人頭部機械結構的設計方案.
2.1 眼部及眉毛機構設計
如果要實現人類與機器人的視覺交互,就必須給機器人安裝“眼睛”.眼睛是心靈的窗戶,人類正是通過眼睛感知客觀世界90%以上的信息.人類眼球近似球形,成年時正常眼球的前后徑為24 mm.垂直徑直徑較水平徑略小.眼球向前方平視時,通常會突出于外側框緣12~14 mm,兩眼間相差不超過2 mm[9].如圖2所示,眼球的運動是3對眼外肌(上、下直肌,內、外直肌,上、下斜肌)控制的,它們的協調活動使眼球可以繞著x、y、z軸轉動,從而使眼睛靈活地注視不同方位.如內直肌和外直肌收縮,眼球向左右方向轉動;上直肌和下直肌收縮,眼球向上下方向轉動;上斜肌和下斜肌收縮,眼球沿視軸轉動[10].一般情況下,眼球沿視軸的運動難以被人察覺,故現有的研究大多舍棄這個動作,如中東技術大學的i-RoK[11]、開源機器人i-Cub[12]等,該方案既不影響交互效果,又簡化了機械結構.
此外,眼球運動形式可分為3類[13]:①同向運動:左右眼具有相同的運動方式.包括掃視運動和平滑追蹤運動,前者即人在自由的觀察環境下,眼睛快速地在目標點間轉移,后者即人眼在跟蹤物體運動時,使雙眼平滑地跟隨目標運動.②異向運動:左右眼具有不同的運動方式.包括集合運動和散開運動,前者即目標物由遠及近,雙眼視軸相互集合的運動,后者恰好相反.此外,眼球運動還包括前庭動眼反射和視動反射.

圖2 眼部肌肉構造Fig.2 Muscle structure of eyes
由以上分析可知,要實現上述的眼球運動,左右眼必須相互獨立.而且由于包括眉毛、眼瞼、眼球在內的眼部運動器官相對較為集中,運動較為復雜,因此對機械結構的設計提出了很高要求.正由于機械運動形式復雜,設計空間狹小,故在此采用了空間連桿機構來實現眼瞼和眼球運動的設計方案(圖3為眼部機構圖).空間連桿機構的構建布置靈活,運動副和運動副的排列具有多樣性,合理安排桿件可以顯著提高空間利用率,使結構更加可靠;另外,如果空間連桿機構靈活可靠,則可以避免由于制造安裝誤差而引起的運動不靈活甚至卡住的現象[14].空間連桿機構中的空間RSSR機構,即含有兩個相鄰球面副的空間四桿機構的應用最為廣泛,故在此均采用空間RSSR機構.

圖3 眼部機構Fig.3 Eyes mechanism
眼瞼位于眼眶前部,覆蓋于眼球表面,分上瞼和下瞼.在如圖3所示的眼部機構圖中,上下眼瞼均采用空間RSSR連桿機構,在舵機臂和眼瞼固定架的回轉中心上分別建立坐標系x1y1z1和坐標系x2y2z2.A、B兩點為連桿AB兩端的球鉸中心,舵機臂由舵機驅動繞z1軸轉動,從而帶動連桿推動眼瞼固定架繞x2軸轉動,以此實現上眼瞼的上翻和下合.下眼瞼也與此類似.
日本早稻田大學所研發的Kobian機器人的眉毛機構,是通過驅動臉殼內的磁鐵來帶動臉殼外的眉毛磁性運動單元的[15],該方案設計巧妙,但是難以應用在具有皮膚的仿人機器人上.本研究提出了一種彈性鋼絲推拉機構(見圖4),每一邊的眉毛均包括兩個自由度,由兩根穿過固定在臉骨架上的尼龍管的彈性鋼絲分別推拉眉毛固定板上的運動單元.這種彈性鋼絲推拉機構結構新穎,易于實現,且對設計精度要求不高,尼龍管的固定位置需要反復進行試驗矯正,以獲得最能讓人接受的眉毛動作.

圖4 眉毛機構Fig.4 Eyelid mechanism

圖5 眼球機構Fig.5 Eyeball mechanism
2.2 下顎機構設計
機器人的下顎結構具有7個自由度,其中上嘴唇和嘴角驅動共有4個自由度,下顎的“xy”方向移動2個自由度,以及下顎的張合1個自由度(見圖6).上嘴唇和嘴角的運動相互協調,可以實現機器人元音“O”和“U”的發音(此二元音實現的嘴形相對復雜,其他元音較易實現).中間兩個舵機通過曲柄滑塊機構實現下顎“x-y”方向的移動,與下顎張合動作相協調,可以實現機器人的咀嚼運動.該7自由度的下顎機構將在后續的人機語音交互上發揮主要作用,使機器人能實現逼真生動的口形和下顎動作的變化.
2.3 頸部機構
現有的機器人頸部機構的設計方案大多采用串聯機構,如兒童機器人iCub[12]、哈爾濱工業大學的“H&Frobot”[16]等,或是仿人頸部彈簧機構,如日本的SAYA機器人[5]等.為使機器人頸部具有更好的仿人效果,本研究最初的頸部設計采用彈簧機構(見圖7).該機構的構思是通過采用7層頸椎節來模擬人類7塊頸椎骨,并用球鉸鏈模擬人類椎間盤,頸椎節間通過球鉸鏈以及3根彈簧相連接,而頂層頸椎節則由固定在底座上的電機通過3根鋼絲牽引,并且帶動中間6層頸椎節,從而實現所需的低頭、仰頭、左右側屈等頸部運動.該方案具有很高的擬人性,卻難以建立機構的運動學方程,實現精確控制.

圖6 下顎機構Fig.6 Jaw mechanism

圖7 彈簧頸部機構Fig.7 Spring-type neck mechanism
由于難以精確控制彈簧機構,本研究最后采用了空間連桿并聯機構(見圖8).并聯機構與串聯機構相比,具有承載能力強、剛度高等優點,其誤差為桿件誤差的平均值,且零部件數目也大幅減少[17].在如圖7所示的頸部機構中,兩個電機相互協調,通過空間連桿驅動萬向節的兩個自由度的轉動,實現機器人頭部的低頭、抬頭與左右側屈,下面的舵機則驅動頭部左右轉動.
在完成機器人頭部的每個環節的機械設計方案后,把每個局部機構進行組合,并進行干涉檢驗.如果發生干涉,則返回局部設計進行修改,因此機器人頭部的設計是一個自下而上、自上而下的雙向設計,需要循環往復的矯正.圖9為機器人裝上臉骨架和皮膚的效果圖.

圖8 并聯頸部機構Fig.8 Parallel neck mechanism

圖9 機器人總裝圖及覆蓋皮膚后效果Fig.9 Diagrams of assembly drawing and rendering with skin
機器人頭部總共有22個自由度,其自由度分配如表1所示.

表1 機器人頭部自由度分配Table 1 Distribution of dofs of robot
本研究從對人類表情的面部形態特征的分析出發,總結了在不同表情下人體面部各部位包括眉毛、眼瞼、眼球、下顎、頸部等的運動狀態,從而制定了機器人頭部機械設計方案.同時,把設計過程中欲采用的多種方案進行了對比,分析了各自的優缺點,然后選擇出最合適和最易實現的方案.
在完成仿人表情機器人硬件平臺的搭建之后,將開始進行表情機器人情感模型和控制算法的研究,使機器人實現6種基本表情、混合表情和其他特殊表情的再現,以及實現機器人眼脖協調控制和更深層次的人機交互.
[1]吳偉國,宋策,孟慶梅.仿人頭像機器人“H&Frobot-Ⅲ”語音及口形系統研制與實驗[J].機械設計, 2008,25(1):15-19.
[2]王志良,解侖.我國人工心理與人工情感研究現狀與進展[J].中國科學基金,2013(1):14-17.
[3]BECKER-ASANO C,ISHIGURO H.Evaluating facial displays of emotion for the android robot Geminoid F[C]//IEEE Workshop on Affective Computational Intelligence(WACI).2011:1-8.
[4]MIWA H,OKUCHI T,TAKANOBU H.Development of a new human-like head robot WE-4[C]// IEEE/RSJ International Conference on Intelligent Robots and Systems.2002:2443-2448.
[5]HASHIMOTO T,HITRAMATSU S,TSUJI T.Development of the face robot SAYA for rich facial expressions[C]//SICE-ICASE International Joint Conference.2006:5423-5428.
[6]MAZZEI D,LAZZERI N,HANSON D,et al.HEFES:an hybrid engine for facial expressions synthesis to control human-like androids and avatars[C]//2012 4th IEEE RAS&EMBS International Conference on BioRob.2012:195-200.
[7]BREAZEAL C.Designing sociable robots[M].Cambridge:MIT Press,2004:165-167.
[8]姜振宇.表情的真相[M].香港:商務印書館,2012.
[9]李瑤,楊男.眼科學速記[M].北京:中國醫藥科技出版社,2010.
[10]馮志成.眼動人機交互[M].蘇州:蘇州大學出版社,2010.
[11]OLCUCUOGLU O,KOKU A,KONUKSEVEN E.i-RoK:a human like robotic head[C]//7th IEEERAS International Conference on Humanoid Robots(IROS).2007:442-446.
[12]BEIRA R,LOPES M,PRAGMA M,et al.Design of the robot-cub(iCub)head[C]//Proceedings of IEEE International Conference on Robotics and Automation(ICRA).2006:94-100.
[13]鄒海榮,龔振邦,羅均.仿生眼的研究現狀與發展趨勢[J].機器人,2005,27(5):469-474.
[14]苗鴻賓,喬峰麗.空間RSSR機構運動分析的研究[J].機械設計與制造,2008(2):7-9.
[15]KISHI T,OTANI T,ENDO N,et al.Development of expressive robotic head for bipedal humanoid robot[C]//IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). 2007:4584-4589.
[16]WU W G,MEN Q M,WANG Y.Development of the humanoid head portrait robot system with flexible face and expression[C]//Proceedings of the 2004 IEEE International Conference on Robotics and Biomimetics.2004:756-762.
[17]彭忠琦.并聯機構的發展及應用[J].光機電信息,2011,28(12):45-50.
本文彩色版可登陸本刊網站查詢:http://www.journal.shu.edu.cn
Mechanical scheme design of a humanoid facial expressions robot
LU Kongbi,KE Xianxin,SHANG Yufeng
(School of Mechatronics Engineering and Automation,Shanghai University,Shanghai 200072,China)
To give richer facial expressions to humanoid countenance robot therefore achieve more harmonious interaction with people,a mechanical design of humanoid expressions is proposed by analyzing the generation of basic expressions and muscle movements, providing a hardware platform support for further study.The robot head consists of the mechanisms of eyebrows,eyelids,eyeballs,and neck,as well as the mechanism of jaw for mastication movement.Their working principles are described in detail,and several design choices are compared.The choice of mechanical design is finally made,and the required further research is specified.
humanoid countenance robot;affection;expression;human-robot interaction;mechanical design
TP 242.6
A
1007-2861(2016)04-0432-08
10.3969/j.issn.1007-2861.2014.04.011
2014-09-11
國家自然科學基金資助項目(61273325);國家重大科學儀器設備開發專項項目(2012YQ150087)
柯顯信(1973—),男,副教授,博士后,研究方向為仿人機器人和人機情感交互等. E-mail:xxke@staff.shu.edu.cn