












摘 "要 "以往研究發現, 識別與自身文化背景相同的個體的面部表情比跨文化背景個體更準確, 這被稱為群內優勢效應。然而, 以往研究主要關注靜態表演表情, 對動態表情和自發表情識別中的群內優勢效應知之甚少。為了探究群內優勢效應是否受表情自發性(表演和自發)和呈現方式(靜態和動態)的調節, 本研究招募了中國和加拿大/荷蘭被試, 分別對中國和荷蘭模特表演和自發的氣憤和厭惡表情(實驗1), 以及靜態和動態表演的氣憤和厭惡表情(實驗2)進行識別。研究結果顯示, 在多數情況下, 表演和自發表情的識別都呈現群內優勢效應, 且表演表情的群內優勢效應顯著高于自發表情; 靜態和動態表演表情的識別也出現群內優勢效應, 但兩者總體上沒有顯著差異。這些結果表明, 表情識別的群內優勢效應會受到表情自發性的調節, 但可能不受表情呈現方式的影響。本研究結果對于拓展群內優勢效應研究和深化跨文化表情識別理解具有重要意義。
關鍵詞 "表情識別, 群內優勢效應, 表演與自發表情, 靜態與動態表情, 文化差異
分類號 "B842
1 "引言
當今全球化時代, 不同文化之間的交流日益頻繁。在不同文化和語言的個體之間進行交流時, 準確解讀對方的非語言行為, 尤其是面部表情, 顯得尤為重要(Fang, Rychlowska, amp; Lange, 2022; Van Kleef amp; C?té, 2022)。然而, 準確識別面部表情并非易事, 尤其是解讀其他文化個體的面部表情時。以往研究發現, 與文化群體內部交流相比, 當交流發生在不同文化個體間時, 非語言情緒溝通會受到損害(Elfenbein amp; Ambady, 2002)。具體而言, 人們在識別與自己具有相同文化背景個體的面部表情時, 其準確性要高于識別與自己文化背景不同的個體的面部表情(張秋穎 等, 2011; Elfenbein amp; Ambady, 2002), 這種效應被稱為群內優勢效應(in-group advantage)。
以往有關表情識別的群內優勢效應研究主要聚焦于表演表情(posed facial expressions)和靜態表情(static facial expressions; Elfenbein amp; Ambady, 2002)。表演表情是指個體有意識地擺出某種表情以傳達特定的情緒(Elfenbein amp; Ambady, 2002), 而靜態表情則是指在特定時刻捕捉的面部表情。然而, 在現實生活中, 表情往往是自發的, 即個體在交互過程中自然流露(Matsumoto, Olide, Schug et al., 2009), 也是動態的, 即表情會隨著時間的推移發生變化(張琪 等, 2015; Krumhuber et al., 2023)。近年來, 越來越多的研究揭示個體對表演表情、自發表情(spontaneous facial expressions)、靜態表情和動態表情(dynamic facial expressions)的表達和知覺可能存在差異(Kang amp; Lau, 2013; Krumhuber et al., 2021; Matsumoto, Olide, amp; Willingham, 2009; Valente et al., 2018), 因此有必要考察群內優勢效應是否會受到表情的自發性和呈現方式的調節。為此, 本文首先回顧群內優勢效應及其相關的情緒方言理論, 然后探討表演表情和自發表情識別以及靜態表情和動態表情識別可能存在的差異, 最后通過兩項實驗室研究探究表情的自發性和呈現方式是否調節氣憤和厭惡表情識別的群內優勢效應。本研究首次考察了表情識別的群內優勢效應是否受到表情的兩個重要特性——自發性和呈現方式的調節, 對于拓展表情識別中的群內優勢效應研究, 并加深我們對跨文化表情識別的理解具有重要意義。
1.1 "群內優勢效應和情緒方言理論
盡管早期研究認為情緒面部表情(至少基本情緒面孔)具有文化普遍性, 不受文化的調節(如, Ekman et al., 1969), 但是近年來越來越多的研究者指出情緒表情既有文化普遍性也具有文化特異性(Elfenbein et al., 2007; Fang et al., 2021)。其中一種觀點認為, 盡管來自不同文化的個體均能以高于機會水平識別不同文化個體的表情, 但人們對與自己文化相同的個體的表情識別率更高(Elfenbein amp; Ambady, 2002)。
研究者用情緒方言理論(Dialect Theory of Emotion)解釋這種群內優勢效應(Elfenbein, 2013; Elfenbein et al., 2007)。該理論認為, 情緒可以類比為一種在全球范圍內使用的通用語言, 但來自不同文化背景的人在情緒表達和感知上略有差異, 即形成了所謂的“情緒方言” (Elfenbein amp; Ambady, 2002)。同一文化群體內的情緒識別受益于與其“情緒方言”更好的匹配, 而不同文化群體間較差的“情緒方言”匹配則導致情緒識別的準確性降低。Elfenbein等人(2007)的研究為情緒方言理論提供了實證支持。在該研究中, 來自加拿大和加蓬的被試被要求使用面部表情來表演氣憤、厭惡、恐懼、驚訝、悲傷和快樂等情緒。研究人員使用面部行為編碼系統(Facial Action Coding System, FACS; Ekman et al., 2002)分析了這些表情中使用的動作單元(Action Units, AUs)。結果發現, 盡管不同文化群體的表情均包含了FACS手冊中標準表情的動作單元, 但也存在穩定差異(即情緒方言)。隨后, 來自加拿大和加蓬的一組新被試被要求識別這些表情。結果顯示, 與情緒方言理論相一致, 表情的情緒方言差異越顯著, 群內優勢效應就越強烈。
1.2 "表演/自發表情和群內優勢效應
雖然群內優勢效應在許多研究中都得以驗證, 但這些研究主要集中在表演表情上, 較少關注自發表情(見Elfenbein amp; Ambady, 2002的元分析)。近年來, 有研究發現, 在表達相同情緒時, 個體的表演表情和自發表情的動作單元有顯著區別(Namba, Kagamihara et al., 2017; Namba, Makihara et al., 2017)。Fang, Sauter等人(2022)則發現, 相比于自發表情, 表演表情激活了更多的動作單元。這些結果共同表明, 表演表情和自發表情在面部肌肉運動模式上可能存在差異。
那么, 不同自發性的表情在其識別的群內優勢效應上會有差異嗎?以往研究發現, 表演表情可能比自發表情更易受文化的影響(有關綜述, 請參閱Valente et al., 2018)。無論是早期觀察研究還是標準化面部肌肉運動測量研究, 都發現先天性盲人產生的自發表情與視力正常的個體相似, 但表演表情卻與正常個體有顯著差異。這表明, 相比于自發表情, 表演表情可能更容易受到社會學習的影響。由此, 我們預測表演表情可能比自發表情包含更多與文化相關的情緒方言, 從而導致表演表情識別的群內優勢效應大于自發表情。該推論獲得了Matsumoto, Olide和Willingham (2009)的研究的初步支持。在這項研究中, 美國和日本被試對美國和日本運動員在2004年雅典奧運會獲獎后的快樂或悲傷表情進行識別, 結果并未發現群內優勢效應。這表明群內優勢效應可能不存在于自發產生的表情中。然而, Kang和Lau (2013)卻有不同的發現。他們讓歐裔和亞裔美國被試識別歐裔和亞裔美國模特的標準表情(按照FACS手冊標準制定的表情原型)和自發表情。其中標準表情來自Japanese and Caucasian Facial Expressions of Emotion (JACFEE; Matsumoto amp; Ekman, 1988)的表情圖片, 而自發表情則是通過引導被試講述個人經歷而獲得的動態表情視頻片段。結果顯示, 亞裔美國人在識別標準表情和自發表情時均出現了群內優勢效應。值得注意的是, 該研究考察的標準表情以靜態方式呈現, 自發表情以動態方式呈現, 且兩種表情的情緒類別并不完全相同(模仿表情:悲傷、驚訝、恐懼、氣憤、厭惡和愉快; 自發表情:悲傷、驚訝、沮喪、氣憤和愉快)。因此, 表情的自發性對表情識別的群內優勢效應是否具有調節作用還有待商榷。
然而, 另一方面, 相較于自發表情, 表演表情具有更高的強度和原型性(Krumhuber et al., 2021; Tcherkassof et al., 2007)。這些特性可能會導致表演表情比自發表情具有更高的識別率。跟該推論一致, 以往研究結果確實表明, 不論是人類還是機器, 都能更好地識別表演表情(Fang, Sauter et al., 2022; Krumhuber et al., 2021)。因此, 我們預測這種高識別特性可能縮小了感知者對不同文化個體的表演表情識別率的差異, 從而導致表演表情識別的群內優勢效應小于自發表情。
1.3 "靜態/動態表情和群內優勢效應
除了考察表情識別的群內優勢效應是否會受到表情自發性的調節外, 本研究的第二個目標是探究表情的呈現方式是否影響表情識別的群內優勢效應。相比靜態表情, 動態表情含有獨特的動態信息, 如表情運動的方向、質量和速度(Bould amp; Morris, 2008; Cunningham amp; Wallraven, 2009; Jack et al., 2014)。這些動態信息會啟動更高級的認知過程, 支持社交和情緒推斷, 從而促進面部表情的識別(Blais et al., 2017; Sato et al., 2008)。
盡管如此, 我們仍不清楚動態信息的促進作用是針對特定文化感知者群體, 還是普遍適用于所有文化感知者群體。換言之, 動態表情中的動態信息是否涵蓋了文化特有的情緒方言。如果該動態信息包含情緒方言, 那么這些額外的情緒方言將進一步增強表情識別的群內優勢效應。因此, 我們預期動態表情識別的群內優勢效應將大于靜態表情識別的群內優勢效應。這一猜想在Elfenbein和Ambady (2002)的元分析中初步得到支持。他們發現, 使用動態表情作為實驗材料的研究(共43項研究)所揭示的群內優勢效應大于使用靜態表情作為實驗材料的研究(共79項研究)。值得注意的是, 該元分析發現的表情呈現方式對群內優勢效應的調節僅呈邊緣顯著。此外, 該元分析包含的研究除了在表情呈現方式上存在差異外, 還在其他諸多方面存在差異, 例如表情的自發性、文化和情緒類別的選擇。由于缺乏對其他方面差異的控制, 我們無法確定僅僅表情的呈現方式是否會調節表情識別的群內優勢效應。
然而, 如果動態表情中的動態信息不包含文化特有的情緒方言, 而是普遍促進所有文化感知者的情緒識別表現, 那么動態表情和靜態表情識別的群內優勢效應將不會有差異。因此, 我們預期表情的呈現方式不會調節表情識別的群內優勢效應。
1.4 "當前研究
綜上, 關于跨文化表情識別的群內優勢效應是否受到表情自發性調節的問題, 現有研究雖然進行了初步探討, 但存在一些限制。其中, 有些研究只包括了自發表情識別任務而沒有涉及表演表情識別任務(Matsumoto, Olide, amp; Willingham, 2009), 因此無法直接比較自發表情和表演表情識別的群內優勢效應是否存在差異; 而其他研究則在自發表情和表演表情的情緒類別和呈現方式上存在不匹配(Kang amp; Lau, 2013), 因此無法排除這些因素對結果的影響。此外, 現有研究對于表情自發性是否調節表情識別的群內優勢效應的結論也不一致。至于跨文化表情識別的群內優勢效應是否受到表情呈現方式的調節, 目前尚未開展相關研究。
本研究旨在通過兩項實驗考察跨文化表情識別中的群內優勢效應是否受到表情自發性(表演表情和自發表情; 實驗1)和呈現方式(靜態表情和動態表情; 實驗2)的調節。具體而言, 實驗1招募來自東西方文化的被試, 以識別來自東西方文化表達者的表演動態表情和自發動態表情; 實驗2招募來自東西方文化的被試, 以識別來自東西方表達者的靜態表演表情和動態表演表情。其中, 表演表情是通過讓模特擺出特定表情以便于他們的朋友能夠輕松理解他們的感受所得, 而自發表情則是通過讓模特回憶并講述過去生活中與特定情緒相關的個人經歷所得。相較于前人使用的標準表情(如, Kang amp; Lau, 2013), 本研究中采用的表演表情更加符合各自文化中的情緒表達規范, 并且避免了按照統一標準表演的面部表情掩蓋文化差異可能導致群內優勢效應消失的問題(Elfenbein et al., 2007)。
本研究關注氣憤和厭惡兩種情緒的面部表情。主要考慮如下三點。首先, 氣憤和厭惡被廣泛認為是基本情緒(Ekman, 1992; Izard, 2007), 因此預計在東西方文化中都普遍存在且較為常見。其次, 盡管氣憤和厭惡是不同的情緒, 但它們在概念上存在關聯(Giner-Sorolla et al., 2018), 并且在面部形態上具有相似性(Cordaro et al., 2018; Fang, Sauter et al., 2022)。這些相似性導致個體容易混淆氣憤和厭惡這兩種表情(Fang et al., 2018, 2019; Jack et al., 2009; Pochedly et al., 2012)。采用這兩種具有混淆度的面部表情可以更好地誘發表情識別的群內優勢效應。相反, 當采用兩種完全不同的表情, 如氣憤和快樂時, 個體對無論來自哪個文化的氣憤和快樂表情的辨別都比較好, 因此表情識別的群內優勢效應不太可能顯現。第三, 現有表情數據庫主要刻畫靜態表演表情, 對動態或自發表情的刻畫較少(有關綜述, 請參閱Dawel et al., 2022; Krumhuber et al., 2017), 同時包含兩種表情自發性或者兩種表情呈現方式的跨文化表情數據庫更少。據作者所知, 目前僅有一項跨文化情緒表達的研究同時包含了上述4種條件的表情, 為中國和荷蘭模特的氣憤和厭惡的靜態/動態的表演和自發表情(Fang, Sauter et al., 2022)。因此, 本研究利用該材料, 著重考察氣憤和厭惡表情識別的群內優勢效應是否受到表情自發性和呈現方式的調節。
2 "實驗1:表演和自發動態表情識別的群內優勢效應
2.1 "方法
2.1.1 "被試
參照以往相關研究(Elfenbein amp; Ambady, 2002; Kang amp; Lau, 2013), 本實驗計劃招募加拿大被試和中國被試各100名。我們事先決定在被試數量接近100的那一天停止數據收集(Simmons et al., 2013)。最終, 本實驗招募了126名加拿大被試和126名中國被試。其中, 62名加拿大被試(52名女性; 平均年齡為20.67歲, SD = 6.91歲)和62名中國被試完成表演表情識別任務(52名女性; 平均年齡為20.18歲, SD = 1.29歲), 另外64名加拿大被試(58名女性; 平均年齡為20.89歲, SD = 6.07歲)和64名中國被試(58名女性; 平均年齡為20.03歲, SD = 1.33歲)完成自發表情識別任務。使用軟件G*Power 3.1 (Faul et al., 2007)進行敏感性分析(sensitivity analysis)表明, 本實驗的最終樣本數量(N = 252)可以檢測到的關鍵交互作用(表情自發性 × 表達者文化 × 感知者文化)的效應大小為f = 0.21 (ηp2 = 0.04; power = 0.80, α = 0.05)。所有被試身心均健康, 視力或矯正視力正常, 自愿參與實驗, 并在參與實驗前簽署了知情同意書。本實驗獲得了加拿大約克大學倫理委員會的批準, 編號為e2018-028。
2.1.2 "設計與材料
實驗1采用2 (表情種類:氣憤、厭惡) × 2 (表情自發性:表演、自發) × 2 (表達者文化:東方、西方) × 2 (感知者文化:東方、西方)的混合實驗設計, 其中表情種類和表達者文化為被試內變量, 表情自發性和感知者文化為被試間變量。
實驗材料來源于Fang, Sauter等人(2022)的研究。該研究收集了表演表情和自發表情。在表演表情條件中, 被試被要求在攝像機前擺出特定的表情, 以便“他們的朋友能夠輕松理解他們的感受”。被試完成兩種表情的表演后, 觀看自己的視頻, 并選擇最能表達相應情緒的那一幀畫面作為靜態表演表情材料(用于實驗2; 參見圖1示例)。這種方法確保了所選擇的靜態表情準確地表達了被試意圖表達的情緒, 避免了引入實驗者偏差(類似操作見Cordaro et al., 2018; Elfenbein et al., 2007)。動態表情材料則基于被試選擇的那一幀畫面, 截取前后共2秒的視頻片段 。共有45名中國模特(22名女性)和49名荷蘭模特(36名女性)參與了氣憤和厭惡表情表演, 因此共獲得了188個靜態/動態表演表情材料。在自發表情的采集中, 被試被告知將協助開發一個能夠理解人類情感的機器人。他們需要回憶過去生活中與氣憤或厭惡情緒相關的個人經歷, 并向機器人詳細講述這些經歷。在講述過程中, 被試的面部表情被全程記錄。研究表明, 這種情緒重現法(relived- emotion method)能有效誘發自發表情(如, Siedlecka amp; Denson, 2019; Tsai amp; Chentsova-Dutton, 2003)。其余程序與表演表情相同。共有35名中國模特(24名女性)和35名荷蘭模特(24名女性)參與了氣憤和厭惡故事講述, 因此共獲得了140個動態自發表情刺激。由于被試在自發條件下會因為講述故事而產生嘴部動作, 因此無法區分靜態自發表情的嘴部動作是由說話引起的還是由做特定表情動作引起的。因此, 本實驗只關注動態的自發表情和表演表情之間的比較。
2.1.3 "實驗程序
實驗在PsychoPy (Peirce et al., 2019)上進行。被試被隨機分配到動態表演表情或動態自發表情的識別任務中。在每個試次中, 屏幕中央先呈現500 ms注視點, 再呈現2000 ms大小為18° × 12°的動態表情視頻。視頻播放完畢后, 屏幕上緊接著呈現情緒強度評分量表。被試需要移動量尺上的滑塊, 分別對先前呈現的動態表情的氣憤、厭惡、恐懼、悲傷和愉快情緒的強度進行評分, 評分范圍從0 (一點也不)到100 (非常) 。這里采用評分量表的方式是因為感知者可能會在表情中識別出多種情緒(Fang et al., 2018, 2019; Hess et al., 2016)。與迫選法不同, 評分量表允許被試表達在感知特定表情時識別出的不同情緒的強度, 而不僅僅是選擇一種情緒。
動態表演表情識別任務包含4個blocks, 每個block有47個試次, 共188個試次。動態自發表情識別任務包含140個試次。所有面部表情材料僅呈現一次, 呈現順序完全隨機。所有被試均使用自己的語言進行測試。
2.2 "結果和討論
表情識別正確率的具體計算方式如下:如果被試在目標情緒維度上的評分大于或等于其他情緒維度上的評分且不等于0, 則編碼結果為1 (正確判斷), 否則編碼為0 (錯誤判斷)。為了更加直觀地考察群內優勢效應, 在每種呈現方式和每種表情種類條件下, 計算被試對來自相同文化背景的表情識別正確率減去其對來自不同文化背景的表情識別正確率的差值, 作為群內優勢效應的指標。若差值顯著大于0, 則說明存在群內優勢效應; 若差值顯著小于0, 則說明感知者對其他文化表達者表情的表情識別正確率顯著高于對相同文化表達者表情的表情識別正確率; 若差值和0沒有顯著差異, 則說明感知者對不同文化表達者表情的表情識別正確率沒有顯著差異。結果發現, 西方感知者在識別表演表情和自發表情時均出現了群內優勢效應; 東方感知者在識別表演表情時也出現了群內優勢效應, 但在識別自發表情時未出現群內優勢效應。在綜合討論部分中將對該結果作進一步討論。各條件下群內優勢效應的均值、標準差和單樣本t檢驗結果見表1。各條件下表情識別正確率的均值、標準差和單樣本t檢驗結果見網絡版附表1。
對群內優勢效應進行2 (表情種類:氣憤、厭惡) × 2 (表情自發性:表演、自發) × 2 (感知者文化:東方、西方)三因素混合設計方差分析 。所有效應的概覽見表2。
表情種類的主效應顯著, F(1, 248) = 6.54, p = 0.011, ηp2 = 0.03, 厭惡表情的群內優勢效應(M = 0.06, SD = 0.11)顯著大于氣憤表情(M = 0.04, SD = 0.12); 感知者文化的主效應顯著, F(1, 248) = 27.18, p lt; 0.001, ηp2 = 0.10, 西方感知者的群內優勢效應(M = 0.08, SD = 0.07)顯著大于東方感知者(M = 0.03, SD = 0.09)。
重要的是, 跟本研究假設相關的表情自發性的主效應顯著, F(1, 248) = 31.34, p lt; 0.001, ηp2 = 0.11, 表演表情的群內優勢效應(M = 0.08, SD = 0.08)顯著大于自發表情(M = 0.03, SD = 0.09)。并且, 表情自發性 × 感知者文化的二階交互作用, F(1, 248) = 13.09, p lt; 0.001, ηp2 = 0.05, 表情種類 × 表情自發性 × 感知者文化的三階交互作用, F(1, 248) = 57.08, p lt; 0.001, ηp2 = 0.19, 均顯著(見圖2)。為了進一步分解該三階交互作用, 我們首先拆分感知者文化。結果顯示, 在東方和西方感知者中, 表情種類 × 表情自發性的二階交互作用均顯著(東方:F(1, 124) = 15.23, p lt; 0.001, ηp2 = 0.11; 西方:F(1, 124) = 46.20, p lt; 0.001, ηp2 = 0.27)。由于本研究對群內優勢效應是否會受到表情自發性調節感興趣, 因此將該二階交互作用從表情種類進行拆分。結果發現, 對于東方感知者而言, 表演氣憤和表演厭惡表情的群內優勢效應分別顯著大于自發氣憤和自發厭惡表情(氣憤:t(124) = 6.98, p lt; 0.001, Cohen’s d = 1.24, 95% CI = [0.86, 1.62]; 厭惡:t(124) = 2.09, p = 0.039, Cohen’s d = 0.37, 95% CI = [0.02, 0.72])。對于西方感知者而言, 表演厭惡表情的群內優勢效應同樣顯著大于自發厭惡表情, t(124) = 5.66, p lt; 0.001, Cohen’s d = 1.01, 95% CI = [0.64, 1.38]。然而, 西方感知者識別自發氣憤表情時的群內優勢效應顯著大于識別表演氣憤表情時, t(124) = 3.82, p lt; 0.001, Cohen’s d = 0.68, 95% CI = [0.32, 1.04]。
綜上, 實驗1的結果表明動態表情識別的群內優勢效應會受到表情的自發性調節。總體而言, 表演表情識別的群內優勢效應大于自發表情。這可能是由于表演表情相較于自發表情更容易受到社會學習的影響(Matsumoto amp; Willingham, 2009; Rinn, 1991), 從而包含了更多的情緒方言。這些額外的情緒方言進一步擴大了人們在識別本文化和外文化個體表演表情的差異, 即增強了群內優勢效應。唯一的例外是, 西方感知者在識別自發氣憤表情時的群內優勢效應大于識別表演氣憤表情時。有關此問題的進一步討論將在綜合討論部分進行。
3 "實驗2:靜態和動態表演表情識別的群內優勢效應
3.1 "方法
3.1.1 "被試
本實驗中完成動態表演表情任務的被試來自實驗1。和實驗1類似, 實驗2計劃招募荷蘭和中國被試各約60名完成靜態表演表情的識別任務。我們事先決定在被試數量接近60的那一天停止數據收集(Simmons et al., 2013)。最終, 實驗2招募了75名荷蘭被試(59名女性; 平均年齡為21.53歲, SD = 4.15歲)和82名中國被試(58名女性; 平均年齡為24.16歲, SD = 5.10歲)。使用軟件G*Power 3.1 (Faul et al., 2007)進行敏感性分析(sensitivity analysis)表明, 本實驗的最終樣本數量(N = 283)可以檢測到的關鍵交互作用(表情自發性 × 表達者文化 × 感知者文化)的效應大小為f = 0.19 (ηp2 = 0.03; power = 0.80, α = 0.05)。所有被試身心均健康, 視力或矯正視力正常, 自愿參與實驗, 并在參與實驗前簽署了知情同意書。本實驗獲得了阿姆斯特丹大學倫理委員會的批準, 編號為2018-SP-9379。
3.1.2 "設計與材料
實驗2采用2 (表情種類:氣憤、厭惡) × 2 (呈現方式:靜態、動態) × 2 (表達者文化:東方、西方) × 2 (感知者文化:東方、西方)的混合實驗設計。其中表情種類和表達者文化為被試內變量, 呈現方式和感知者文化為被試間變量。實驗材料獲取方式見實驗1。
3.1.3 "實驗程序
靜態表演表情識別任務在Qualtrics在線調查平臺(https://www.qualtrics.com/)上進行。在每個試次中, 屏幕上會呈現一張氣憤或厭惡情緒的面部表情圖片, 以及圖片下方的氣憤、厭惡、恐懼、悲傷這四個情緒的強度評價量尺。鑒于愉快與這氣憤和厭惡這兩種負面情緒有著明顯的效價區別, 且實驗1中被試只會在少數情況下(約14.84%的試次)將目標表情圖片識別為愉快, 故實驗2中不再將愉快作為強度評價的項目。除此以外, 實驗程序與實驗1保持一致。動態表演表情識別任務來自實驗1。
3.2 "結果和討論
靜態表演表情的識別結果來自本實驗, 動態表演表情的識別結果來自實驗1。表情識別正確率和群內優勢效應的計算方式同實驗1。結果顯示, 東方感知者和西方感知者在識別靜態和動態表演表情時均出現了群內優勢效應。各條件下靜態表演表情的群內優勢效應的均值、標準差和單樣本t檢驗結果見表3。各條件下表情識別正確率的均值、標準差和單樣本t檢驗結果見網絡版附表3。
對群內優勢效應進行2 (表情種類:氣憤、厭惡) × 2 (呈現方式:靜態、動態) × 2 (感知者文化:東方、西方)三因素混合設計方差分析 。所有效應的概覽見表4。
表情種類的主效應顯著, F(1, 277) = 13.25, p lt; 0.001, ηp2 = 0.05, 厭惡表情的群內優勢效應(M = 0.10, SD = 0.12)顯著大于氣憤表情的群內優勢效應(M = 0.07, SD = 0.11); 感知者文化的主效應顯著, F(1, 277) = 18.87, p lt; 0.001, ηp2 = 0.06, 西方感知者的群內優勢效應(M = 0.11, SD = 0.08)顯著大于東方感知者的群內優勢效應(M = 0.07, SD = 0.07)。
重要的是, 跟本研究假設相關的表情呈現方式的主效應不顯著, F(1, 277) = 2.52, p = 0.113。然而, 呈現方式 × 感知者文化的二階交互作用, F(1, 277) = 7.44, p = 0.007, ηp2 = 0.03, 表情種類 × 呈現方式 × 感知者文化的三階交互作用, F(1, 277) = 4.81, p = 0.029, ηp2 = 0.02, 均顯著(見圖3)。為了進一步分解該三階交互作用, 我們同樣先拆分感知者文化。結果顯示, 在東方感知者中, 表情種類 × 呈現方式的二階交互作用不顯著, F(1, 142) = 1.44, p = 0.233, 而在西方感知者中, 該二階交互作用呈邊緣顯著, F(1, 135) = 3.55, p = 0.062, ηp2 = 0.03。進一步將西方感知者的二階交互作用從表情種類進行拆分, 我們發現靜態氣憤表情的群內優勢效應顯著大于動態氣憤表情, t(135) = 3.60, p lt; 0.001, Cohen’s d = 0.62, 95% CI = [0.27, 0.96], 而靜態和動態厭惡表情的群內優勢效應無顯著差異, t(135) = 0.66, p = 0.513。
綜上, 實驗2的結果表明, 在大部分條件下, 群內優勢效應不受表演表情呈現方式的調節。唯一的例外是, 西方感知者識別靜態氣憤表情時的群內優勢效應顯著大于動態氣憤表情。綜合討論中將對這些發現進行進一步討論。
4 "綜合討論
隨著全球化的發展, 人們獲得了更多與其他文化群體交流的機會, 了解不同文化背景的個體如何感知彼此的情緒也變得愈發重要。以往研究普遍發現了情緒識別的群內優勢效應, 即識別同一文化個體面部表情的情緒時的表現優于識別不同文化個體面部表情的情緒時(Elfenbein, 2013; Elfenbein et al., 2007)。然而, 大部分研究僅限于使用模特表演的靜態表情, 很少有研究探討群內優勢效應是否存在于對自發表情和動態表情的識別中。在日常生活中, 人們看到的表情往往是動態的, 且與實驗中模特表演的表情相比, 強度更低, 原型性更弱(Dawel et al., 2022; Krumhuber et al., 2021; Scherer et al., 2011)。因此, 基于靜態表情和表演表情的研究發現是否能推廣到真實情境中有待商榷。
本研究通過比較中國和加拿大/荷蘭感知者對中國和荷蘭表達者的氣憤和厭惡表情的識別, 首次考察群內優勢效應是否會受到表情自發性(表演和自發)和表情呈現方式(靜態和動態)的調節。結果顯示, 總體而言, 表情識別的群內優勢效應受到表情自發性的調節, 但不受表情呈現方式的調節。表演表情比自發表情表現出了更強的群內優勢效應, 然而靜態和動態表情之間的群內優勢效應并不存在顯著差異。下文將詳細討論這些發現。
4.1 "表演和自發表情識別的群內優勢效應
本研究揭示, 在絕大多數情況下(表情種類 × 感知者文化), 表演表情識別的群內優勢效應均大于自發表情。這可能是由于人們有意識擺出的表情更多地受社會化的塑造, 而自發流露的表情表情則較少受到社會學習的影響(Matsumoto amp; Willingham, 2009; Rinn, 1991)。因此, 表演表情相較于自發表情可能含有更多的情緒方言。需要注意的是, 本研究中的表演和自發表情材料均來自Fang, Sauter等人(2022)的研究。該研究顯示, 除了荷蘭表達者的表演氣憤表情的動作單元數量少于自發氣憤表情外, 其他情況下表演表情的動作單元數量均多于自發表情。這些額外的肌肉運動說明表演表情包含更多信息, 更有可能蘊含文化特有的情緒方言。因此, 表演表情的群內優勢效應大于自發表情。然而, 在實驗1中存在一個例外:西方感知者識別自發氣憤表情時的群內優勢效應大于表演氣憤表情。這可能是因為荷蘭表達者的表演氣憤表情常用的動作單元數量少于其自發氣憤表情, 并且兩者常用的動作單元相似度較低(僅共享5或6個動作單元中的其中兩個)。具體而言, 荷蘭表達者的表演氣憤表情常用的動作單元有5個, 分別為AU4 (雙眉緊皺)、AU7 (內眼瞼縮緊)、AU23 (嘴唇緊縮)、AU54 (低頭)、AU63 (雙眼向上), 而自發氣憤表情常用的動作單元有6個, 分別為AU1 (眉毛內側抬升)、AU2 (眉毛外側抬升)、AU4、AU7、AU61 (雙眼向左)、AU64 (雙眼向下)。這些結果表明, 荷蘭表達者在自發氣憤表情和表演氣憤表情方面存在較大差異。荷蘭表達者的自發氣憤表情可能涵蓋了更多文化特有的情緒方言, 從而導致自發氣憤表情具有更強的群內優勢效應。
此外, 盡管表情識別的群內優勢效應在大部分情況下都存在(表情種類 × 表情自發性 × 感知者文化), 但東方感知者識別自發氣憤和厭惡表情時并未出現群內優勢效應。該結果可能由兩個原因導致。首先, 除情緒方言對跨文化情緒溝通的影響外, 歷史異質性是另一個常見的影響因素(historical heterogeneity; Niedenthal et al., 2018)。歷史異質性指的是過去500年中對一個國家的當前人口做出貢獻的來源國的數量(Rychlowska et al., 2015; Wood et al., 2016)。歷史異質性越高的社會擁有更多樣化的價值觀和信仰。為了在如此多元化的社會環境中生存, 個體需要直接而準確地傳達他們的情感和意圖。因此, 相較于來自歷史同質性社會(例如中國和日本)的個體, 來自歷史異質性社會(例如美國和加拿大)的個體在使用面部表情表達不同情緒時往往更加清晰(Fang, Rychlowska et al., 2022; Wood et al., 2016), 因此更容易被其他個體識別。在本研究中, 與表演表情相比, 歷史異質性可能對自發表情產生了更大的影響。對于中國感知者來說, 盡管情緒方言使得他們能更好地辨認中國的自發表情(相比于荷蘭的自發表情), 但歷史異質性使得他們能更好地辨認荷蘭的自發表情(相比于中國的自發表情)。這兩種作用相互抵消, 從而導致中國感知者識別自發氣憤和厭惡表情時并未出現群內優勢效應。
第二, 除了歷史異質性外, 集體主義/個人主義也會影響情緒的跨文化溝通(Matsumoto et al., 2008)。相較于西方文化, 東方文化的個體更具集體主義傾向, 更注重維護群體的和諧與穩定, 在交流時可能更傾向于弱化對消極情緒的表達(Ekman, 1971; Matsumoto et al., 2008)。Fang, Sauter等人(2022)的研究在一定程度上支持了這一推論。他們發現, 中國個體在自發表達氣憤和厭惡表情時常用的動作單元(氣憤表情僅有2個, 厭惡表情僅有3個)遠遠少于荷蘭個體(氣憤表情有6個, 厭惡表情有7個)。弱化的情緒表達提高了表情識別的難度。因此, 即使對于中國感知者來說, 中國表達者的自發消極表情也可能較難識別, 導致中國感知者在識別自發表情時并未出現群內優勢效應。未來的研究需要更深入地探討這些可能的解釋。
4.2 "靜態和動態表情識別的群內優勢效應
本研究發現, 表演表情識別的群內優勢效應不受表情呈現方式的調節。然而, 與預期不一致的是, 該現象并不是因為動態信息普遍促進了所有文化感知者群體的表情識別。相反, 在絕大多數情況下(表情種類 × 表達者文化), 感知者對靜態表情和動態表情的識別率并無顯著差異(詳見補充材料2)。該結果說明, 本研究中的動態信息對表演表情識別沒有促進作用。盡管以往大量研究揭示動態表情的識別率優于靜態表情, 但也有其它研究并未發現兩者的識別率存在差異(如, Fiorentini amp; Viviani, 2011; Wehrle et al., 2000)。這些不一致的結果可能與面部表情材料及感知情境有關。當面部表情信息有限時, 如表情真實性受損(K?tsyri et al., 2008; Wehrle et al., 2000)或表情強度較弱(Bould amp; Morris, 2008; Yitzhak et al., 2018), 動態信息可以彌補靜態表情的信息不足, 從而有助于提高表情識別。然而, 當面部表情信息充足時, 如表情清晰或者強烈, 靜態表情的識別可能已經達到較高水平, 額外的動態信息并不會提高表情識別準確率(Bould amp; Morris, 2008; Gold et al., 2013)。此外, 當面部表情材料呈現時間短暫且被試應答時間有限時, 靜態表情比動態表情得到更加充分的加工, 反而導致個體對靜態表情的識別率大于動態表情(Jiang et al., 2014)。在本研究中, 靜態表情和動態表情的比較建立在模特表演特定情緒的表情上, 而表演表情往往包含了相對強烈的情緒信息(Kayyal amp; Russell, 2013)。這些強烈的情緒信息導致靜態表情和動態表情的識別率相當, 從而進一步導致了表情識別的群內優勢效應不受呈現方式調節。
然而, 實驗2發現一個例外:當西方感知者識別靜態和動態表演的氣憤表情時, 靜態表情具有更大的群內優勢效應。進一步的分析表明, 該差異是由于西方感知者對于西方表達者的靜態氣憤表情的識別率高于對于西方表達者的動態氣憤表情, 而對于東方表達者的靜態和動態氣憤表情的識別則沒有明顯差異(詳見補充材料2)。該發現與以往研究揭示動態信息促進表情識別的結果完全相反(Ambadar et al., 2005; Krumhuber et al., 2023)。值得注意的是, 與以往研究主要使用morph軟件生成從中性表情轉變為特定情緒的動態表情不同(Krumhuber et al., 2023), 本研究使用的動態表情材料是真實個體的動態表演錄像片段。這些片段是從個體選取的, 能夠最好地代表特定情緒表情的那一幀前后共2秒的視頻片段。因此, 與以往研究中的情緒變化呈線性變化不同, 本研究中的情緒變化可能呈現非線性和不規律的特點。這些不規律的動態信息可能缺乏清晰的情緒信號, 因此導致動態表情的識別率與靜態表情沒有差異, 甚至可能低于靜態表情。
4.3 "局限與展望
本研究仍存在一些局限之處, 后續研究可進一步從以下幾個方面繼續深化對跨文化情緒識別的認識。
首先, 本研究僅考察了兩種消極情緒——氣憤和厭惡的群內優勢效應。同時, 本研究僅考察了中國和荷蘭這兩種文化識別各自文化個體的情緒時的表現。目前尚不清楚本研究的結論是否也適用于除氣憤和厭惡外的其他情緒的感知, 以及是否適用于其他文化群體。因此, 未來研究可以探究其他情緒和其他文化群體在情緒識別方面是否也存在群內優勢效應, 以及群內優勢效應是否受表情自發性或者呈現方式的調節, 以更全面地了解不同文化群體的成員進行情緒交流時的文化異同。
其次, 本研究在考察表情自發性對群內優勢效應的調節作用時僅采用了動態表情(動態表演表情 vs. 動態自發表情), 而在考察表情呈現方式對群內優勢效應的調節作用時僅采用了表演表情(靜態表演表情 vs. 動態表演表情)。這是因為本研究使用的自發面部表情是根據個體自述以往經歷時伴隨的面部表情獲得的。如果在此基礎上截取特定幀作為靜態自發表情, 可能導致被試無法區分嘴部動作是由說話引起的還是由特定表情動作引起的。因此, 在排除靜態自發表情這一選項后, 我們選擇了上述比較對象。未來可以嘗試使用其他自發表情誘發技術, 如讓模特觀看帶有特定情緒色彩的電影片段(Gross amp; Levenson, 1995)或聞特定的氣味等(Zhang et al., 2014), 以在避免嘴部影響的前提下獲取模特的靜態自發表情。
最后, 雖然本研究發現群內優勢效應會受到動態表情自發性的調節, 并推測面部動作單元的激活數量可能與群內優勢效應的大小相關, 但具體的關聯機制仍需要進一步的實證檢驗。此外, 本研究發現群內優勢效應可能不受表演表情呈現方式的調節, 但這可能是因為本研究中感知者識別靜態和動態表情時的表現沒有區別。未來的研究可以探究當表情強度較低時, 動態信息是否在感知者識別本文化和其他文化個體表情時的增益不同, 從而導致靜態表情與動態表情識別的群內優勢效應產生差異。
5 "結論
本研究首次考察了氣憤和厭惡表情識別的群內優勢效應是否會受到表情自發性(表演表情和自發表情)和表情呈現方式(靜態表情和動態表情)調節。總體而言, 表演表情識別的群內優勢效應大于自發表情識別的群內優勢效應, 但群內優勢效應未受到表情呈現方式的調節。本研究結果擴展了跨文化情緒識別領域的發現, 揭示了表演表情和自發表情在識別上的群內優勢效應的差異, 為更好地理解人們如何識別不同文化個體的表情提供了新的實證證據。
參 "考 "文 "獻
Ambadar, Z., Schooler, J. W., amp; Cohn, J. F. (2005). Deciphering the enigmatic face: The importance of facial dynamics in interpreting subtle facial expressions. Psychological Science, 16(5), 403?410. https://doi.org/10.1111/ j.0956-7976.2005.01548.x
Bain, A. (2006). The emotions and the will. New York, NY: Cosmo Classics. (Original work published 1859)
Blais, C., Fiset, D., Roy, C., Saumure Régimbald, C., amp; Gosselin, F. (2017). Eye fixation patterns for categorizing static and dynamic facial expressions. Emotion, 17(7), 1107?1119. https://doi.org/10.1037/emo0000283
Bould, E., amp; Morris, N. (2008). Role of motion signals in recognizing subtle facial expressions of emotion. British Journal of Psychology, 99(2), 167?189. https://doi.org/10.1348/ 000712607X206702
Cordaro, D. T., Sun, R., Keltner, D., Kamble, S., Huddar, N., amp; McNeil, G. (2018). Universals and cultural variations in 22 emotional expressions across five cultures. Emotion, 18(1), 75?93. https://doi.org/10.1037/emo0000302
Cunningham, D. W., amp; Wallraven, C. (2009). Dynamic information for the recognition of conversational expressions. Journal of Vision, 9(13), 7?7. https://doi.org/10.1167/9.13.7
Dawel, A., Miller, E. J., Horsburgh, A., amp; Ford, P. (2022). A systematic survey of face stimuli used in psychological research 2000?2020. Behavior Research Methods, 54(4), 1889?1901. https://doi.org/10.3758/s13428-021-01705-3
Ekman, P. (1971). Universals and cultural differences in facial expressions of emotion. Nebraska Symposium on Motivation, 19, 207?283.
Ekman, P. (1992). An argument for basic emotions. Cognition and Emotion, 6(3?4), 169?200. https://doi.org/10.1080/ 02699939208411068
Ekman, P., Friesen, W. V., amp; Hager, J. C. (2002). The facial action coding system: A technique for the measurement of facial movement. San Francisco, CA: Consulting Psychologists Press.
Ekman, P., Sorenson, E. R., amp; Friesen, W. V. (1969). Pan-cultural elements in facial displays of emotion. Science, 164(3875), 86?88. https://doi.org/10.1126/science.164.3875.86
Elfenbein, H. A. (2013). Nonverbal dialects and accents in facial expressions of emotion. Emotion Review, 5(1), 90?96. https://doi.org/10.1177/1754073912451332
Elfenbein, H. A., amp; Ambady, N. (2002). On the universality and cultural specificity of emotion recognition: A meta-analysis. Psychological Bulletin, 128(2), 203?235. https://doi.org/10.1037/0033-2909.128.2.203
Elfenbein, H. A., Beaupré, M., Lévesque, M., amp; Hess, U. (2007). Toward a dialect theory: Cultural differences in the expression and recognition of posed facial expressions. Emotion, 7(1), 131?146. https://doi.org/10.1037/1528-3542.7.1.131
Fang, X., Rychlowska, M., amp; Lange, J. (2022). Cross-cultural and inter-group research on emotion perception. Journal of Cultural Cognitive Science, 6(1), 1?7. https://doi.org/10.1007/ s41809-022-00102-2
Fang, X., Sauter, D. A., Heerdink, M. W., amp; van Kleef, G. A. (2022). Culture shapes the distinctiveness of posed and spontaneous facial expressions of anger and disgust. Journal of Cross-Cultural Psychology, 53(5), 471?487. https://doi.org/10.1177/00220221221095208
Fang, X., Sauter, D. A., amp; Van Kleef, G. A. (2018). Seeing mixed emotions: The specificity of emotion perception from static and dynamic facial expressions across cultures. Journal of Cross-Cultural Psychology, 49(1), 130?148. https://doi.org/10.1177/0022022117736270
Fang, X., van Kleef, G. A., Kawakami, K., amp; Sauter, D. A. (2021). Cultural differences in perceiving transitions in emotional facial expressions: Easterners show greater contrast effects than Westerners. Journal of Experimental Social Psychology, 95, 104143. https://doi.org/10.1016/ j.jesp.2021.104143
Fang, X., van Kleef, G. A., amp; Sauter, D. A. (2019). Revisiting cultural differences in emotion perception between easterners and westerners: Chinese perceivers are accurate, but see additional non-intended emotions in negative facial expressions. Journal of Experimental Social Psychology, 82, 152?159. https://doi.org/10.1016/j.jesp.2019.02.003
Faul, F., Erdfelder, E., Lang, A.-G., amp; Buchner, A. (2007). G*Power 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences. Behavior Research Methods, 39(2), 175?191. https://doi.org/ 10.3758/BF03193146
Fiorentini, C., amp; Viviani, P. (2011). Is there a dynamic advantage for facial expressions? Journal of Vision, 11(3), 17. https://doi.org/10.1167/11.3.17
Giner-Sorolla, R., Kupfer, T., amp; Sabo, J. (2018). Chapter Five - What makes moral disgust special? An integrative functional review. In J. M. Olson (Ed.), Advances in experimental social psychology (Vol. 57, pp. 223?289). Academic Press. https://doi.org/10.1016/bs.aesp.2017.10.001
Gold, J. M., Barker, J. D., Barr, S., Bittner, J. L., Bromfield, W. D., Chu, N., Goode, R. A., Lee, D., Simmons, M., amp; Srinath, A. (2013). The efficiency of dynamic and static facial expression recognition. Journal of Vision, 13(5), 23?23. https://doi.org/10.1167/13.5.23
Gross, J. J., amp; Levenson, R. W. (1995). Emotion elicitation using films. Cognition and Emotion, 9(1), 87?108. https://doi.org/10.1080/02699939508408966
Hess, U., Kafetsios, K., Mauersberger, H., Blaison, C., amp; Kessler, C.-L. (2016). Signal and noise in the perception of facial emotion expressions: From labs to life. Personality and Social Psychology Bulletin, 42(8), 1092?1110. https://doi.org/10.1177/0146167216651851
Hoffmann, H., Traue, H. C., Bachmayr, F., amp; Kessler, H. (2010). Perceived realism of dynamic facial expressions of emotion: Optimal durations for the presentation of emotional onsets and offsets. Cognition and Emotion, 24(8), 1369?1376. https://doi.org/10.1080/02699930903417855
Izard, C. E. (2007). Basic emotions, natural kinds, emotion schemas, and a new paradigm. Perspectives on Psychological Science, 2(3), 260?280. https://doi.org/10.1111/ j.1745-6916.2007.00044.x
Jack, R. E., Blais, C., Scheepers, C., Schyns, P. G., amp; Caldara, R. (2009). Cultural confusions show that facial expressions are not universal. Current Biology, 19(18), 1543?1548. https://doi.org/10.1016/j.cub.2009.07.051
Jack, R. E., Garrod, O. G. B., amp; Schyns, P. G. (2014). Dynamic facial expressions of emotion transmit an evolving hierarchy of signals over time. Current Biology, 24(2), 187?192. https://doi.org/10.1016/j.cub.2013.11.064
Jiang, Z., Li, W., Recio, G., Liu, Y., Luo, W., Zhang, D., amp; Sun, D. (2014). Time pressure inhibits dynamic advantage in the classification of facial expressions of emotion. PLOS ONE, 9(6). https://doi.org/10.1371/journal.pone.0100162
Kang, S.-M., amp; Lau, A. S. (2013). Revisiting the out-group advantage in emotion recognition in a multicultural society: Further evidence for the in-group advantage. Emotion, 13(2), 203?215. https://doi.org/10.1037/a0030013
K?tsyri, J., Saalasti, S., Tiippana, K., von Wendt, L., amp; Sams, M. (2008). Impaired recognition of facial emotions from low-spatial frequencies in Asperger syndrome. Neuropsychologia, 46(7), 1888?1897. https://doi.org/10.1016/ j.neuropsychologia.2008.01.005
Kayyal, M. H., amp; Russell, J. A. (2013). Americans and Palestinians judge spontaneous facial expressions of emotion. Emotion, 13(5), 891?904. https://doi.org/10.1037/ a0033244
Krumhuber, E. G., Küster, D., Namba, S., amp; Skora, L. (2021). Human and machine validation of 14 databases of dynamic facial expressions. Behavior Research Methods, 53(2), 686?701. https://doi.org/10.3758/s13428-020-01443-y
Krumhuber, E. G., Skora, L. I., Hill, H. C. H., amp; Lander, K. (2023). The role of facial movements in emotion recognition. Nature Reviews Psychology, 2(5), 283?296. https://doi.org/10.1038/s44159-023-00172-1
Krumhuber, E. G., Skora, L., Küster, D., amp; Fou, L. (2017). A review of dynamic datasets for facial expression research. Emotion Review, 9(3), 280?292. https://doi.org/10.1177/ 1754073916670022
Matsumoto, D., amp; Ekman, P. (1988). Japanese and Caucasian facial expressions of emotion and neutral faces (JACFEE and JACNeuF) [Slides]: San Francisco, CA: Intercultural and Emotion Research Laboratory, Department of Psychology, San Francisco State University.
Matsumoto, D., amp; Ekman, P. (2004). The relationship among expressions, labels, and descriptions of contempt. Journal of Personality and Social Psychology, 87(4), 529?540. https://doi.org/10.1037/0022-3514.87.4.529
Matsumoto, D., Olide, A., Schug, J., Willingham, B., amp; Callan, M. (2009). Cross-cultural judgments of spontaneous facial expressions of emotion. Journal of Nonverbal Behavior, 33(4), 213?238. https://doi.org/10.1007/s10919-009-0071-4
Matsumoto, D., Olide, A., amp; Willingham, B. (2009). Is there an ingroup advantage in recognizing spontaneously expressed emotions? Journal of Nonverbal Behavior, 33(3), 181?191. https://doi.org/10.1007/s10919-009-0068-z
Matsumoto, D., amp; Willingham, B. (2009). Spontaneous facial expressions of emotion of congenitally and noncongenitally blind individuals. Journal of Personality and Social Psychology, 96(1), 1?10. https://doi.org/10.1037/a0014037
Matsumoto, D., Yoo, S. H., amp; Fontaine, J. (2008). Mapping expressive differences around the world: The relationship between emotional display rules and individualism versus collectivism. Journal of Cross-Cultural Psychology, 39(1), 55?74. https://doi.org/10.1177/0022022107311854
Namba, S., Kagamihara, T., Miyatani, M., amp; Nakao, T. (2017). Spontaneous facial expressions reveal new action units for the sad experiences. Journal of Nonverbal Behavior, 41(3), 203?220. https://doi.org/10.1007/s10919-017-0251-6
Namba, S., Makihara, S., Kabir, R. S., Miyatani, M., amp; Nakao, T. (2017). Spontaneous facial expressions are different from posed facial expressions: Morphological properties and dynamic sequences. Current Psychology, 36(3), 593?605. https://doi.org/10.1007/s12144-016-9448-9
Niedenthal, P. M., Rychlowska, M., Wood, A., amp; Zhao, F. (2018). Heterogeneity of long-history migration predicts smiling, laughter and positive emotion across the globe and within the United States. PLOS ONE, 13(8), e0197651. https://doi.org/10.1371/journal.pone.0197651
Oatley, K., amp; Johnson-Laird, P. N. (1987). Towards a cognitive theory of emotions. Cognition and Emotion, 1(1), 29?50. https://doi.org/10.1080/02699938708408362
Ortony, A. (2022). Are all “basic emotions” emotions? A problem for the (basic) emotions construct. Perspectives on Psychological Science, 17(1), 41?61. https://doi.org/ 10.1177/1745691620985415
Peirce, J., Gray, J. R., Simpson, S., MacAskill, M., H?chenberger, R., Sogo, H., Kastman, E., amp; Lindel?v, J. K. (2019). PsychoPy2: Experiments in behavior made easy. Behavior Research Methods, 51(1), 195?203. https://doi.org/ 10.3758/s13428-018-01193-y
Pochedly, J. T., Widen, S. C., amp; Russell, J. A. (2012). What emotion does the “facial expression of disgust” express? Emotion, 12(6), 1315?1319. https://doi.org/10.1037/a0027998
Rinn, W. E. (1991). Neuropsychology of facial expression. In R. S. Feldman amp; B. Rimé (Eds.), Fundamentals of nonverbal behavior (pp. 3?30). Cambridge University Press.
Rychlowska, M., Miyamoto, Y., Matsumoto, D., Hess, U., Gilboa-Schechtman, E., Kamble, S., Muluk, H., Masuda, T., amp; Niedenthal, P. M. (2015). Heterogeneity of long-history migration explains cultural differences in reports of emotional expressivity and the functions of smiles. Proceedings of the National Academy of Sciences, 112(19), E2429?E2436. https://doi.org/10.1073/pnas.1413661112
Sato, W., Fujimura, T., amp; Suzuki, N. (2008). Enhanced facial EMG activity in response to dynamic facial expressions. International Journal of Psychophysiology, 70(1), 70?74. https://doi.org/10.1016/j.ijpsycho.2008.06.001
Scherer, K. R., Clark-Polner, E., amp; Mortillaro, M. (2011). In the eye of the beholder? Universality and cultural specificity in the expression and perception of emotion. International Journal of Psychology, 46(6), 401?435. https://doi.org/10.1080/00207594.2011.626049
Siedlecka, E., amp; Denson, T. F. (2019). Experimental methods for inducing basic emotions: A qualitative review. Emotion Review, 11(1), 87?97. https://doi.org/10.1177/1754073917749016
Simmons, J. P., Nelson, L. D., amp; Simonsohn U. (2013, January). Life after p-hacking. Paper presented at the Meeting of the Society for Personality and Social Psychology, New Orleans, LA, 17-19. https://ssrn.com/ abstract=2205186 or http://dx.doi.org/10.2139/ssrn.2205186
Tcherkassof, A., Bollon, T., Dubois, M., Pansu, P., amp; Adam, J.-M. (2007). Facial expressions of emotions: A methodological contribution to the study of spontaneous and dynamic emotional faces. European Journal of Social Psychology, 37(6), 1325?1345. https://doi.org/10.1002/ejsp.427
Tsai, J. L., amp; Chentsova-Dutton, U. (2003). Variation among European Americans in emotional facial expression. Journal of Cross-Cultural Psychology, 34(6), 650?657. https://doi.org/10.1177/0022022103256846
Valente, D., Theurel, A., amp; Gentaz, E. (2018). The role of visual experience in the production of emotional facial expressions by blind people: A review. Psychonomic Bulletin amp; Review, 25(2), 483?497. https://doi.org/ 10.3758/ s13423-017-1338-0
Van Kleef, G. A., amp; C?té, S. (2022). The social effects of emotions. Annual Review of Psychology, 73(1), 629?658. https://doi.org/10.1146/annurev-psych-020821-010855
Wehrle, T., Kaiser, S., Schmidt, S., amp; Scherer, K. R. (2000). Studying the dynamics of emotional expression using synthesized facial muscle movements. Journal of Personality and Social Psychology, 78(1), 105?119. https://doi.org/ 10.1037/0022-3514.78.1.105
Widen, S. C., Christy, A. M., Hewett, K., amp; Russell, J. A. (2011). Do proposed facial expressions of contempt, shame, embarrassment, and compassion communicate the predicted emotion? Cognition and Emotion, 25(5), 898?906. https://doi.org/10.1080/02699931.2010.508270
Wood, A., Rychlowska, M., amp; Niedenthal, P. M. (2016). Heterogeneity of long-history migration predicts emotion recognition accuracy. Emotion, 16(4), 413?420. https://doi.org/ 10.1037/emo0000137
Yitzhak, N., Gilaie-Dotan, S., amp; Aviezer, H. (2018). The contribution of facial dynamics to subtle expression recognition in typical viewers and developmental visual agnosia. Neuropsychologia, 117, 26?35. https://doi.org/10.1016/ j.neuropsychologia.2018.04.035
Zhang, Q., Yin, T. Z., amp; Ran, G. M. (2015). Psychological and neural mechanisms for the superiority effect of dynamic facial expressions. Advances in Psychological Science, 23(9), 1514?1522.
[張琪, 尹天子, 冉光明. (2015). 動態面孔表情優勢效應的心理機制及神經基礎. 心理科學進展, 23(9), 1514?1522.]
Zhang, Q. Y., Chen, J. W., Yu, Q. L., amp; Xin, P. (2011). An in-group advantage in recognizing emotion. Advances in Psychological Science, 19(2), 209?216.
[張秋穎, 陳建文, 于全磊, 辛鵬. (2011). 情緒識別中的群內優勢效應. 心理科學進展, 19(2), 209?216.]
Zhang, X., Yin, L., Cohn, J. F., Canavan, S., Reale, M., Horowitz, A., Liu, P., amp; Girard, J. M. (2014). BP4D- Spontaneous: A high-resolution spontaneous 3D dynamic facial expression database. Image and Vision Computing, 32(10), 692?706. https://doi.org/10.1016/j.imavis.2014.06.002
The impact of spontaneity and presentation mode on the ingroup advantage
in recognizing angry and disgusted facial expressions
FANG Xia, GE Youxun
(Department of Psychology and Behavioral Sciences, Zhejiang University, Hangzhou 310058, China)
Abstract
With the acceleration of globalization, effective cross-cultural communication has become increasingly important in modern society. One significant aspect of this communication involves accurately interpreting facial expressions of emotion. Previous research has found that nonverbal emotional communication is compromised when communication occurs between individuals from different cultural backgrounds compared to within cultural groups. Specifically, individuals are more accurate at recognizing facial expressions of individuals from their own cultural background than those from a different cultural background, a phenomenon known as ingroup advantage effect. However, most previous studies examining the ingroup advantage in facial expression recognition have focused primarily on posed and static facial expressions, paying less attention to spontaneous and dynamic facial expressions. Given that facial expressions in real-life interactions are often spontaneous and dynamic, it is imperative to investigate whether the ingroup advantage is influenced by the spontaneity (posed and spontaneous) and presentation mode (static and dynamic) of facial expressions.
To address these research objectives, we conducted two experiments involving participants from China, Canada, and the Netherlands. In Experiment 1, Chinese and Canadian participants were asked to recognize posed and spontaneous facial expressions of anger and disgust displayed by Chinese and Dutch models. In Experiment 2, Chinese and Dutch participants were recruited to recognize static and dynamic facial expressions of anger and disgust displayed by Chinese and Dutch models. Specifically, Experiment 1 included 126 Chinese participants and 126 Canadian participants, while Experiment 2 involved 82 Chinese participants and 75 Dutch participants. In both experiments, participants were asked to rate the intensity of facial expressions on scales of anger, disgust, fear, sadness, and joy ranging from 0 (not at all) to 100 (extremely).
The results indicated that the ingroup advantage was influenced by the spontaneity of the facial expressions. In three out of four cases (Eastern perceivers recognizing facial expressions of anger and disgust, and Western perceivers recognizing facial expressions of disgust), posed expressions exhibited a stronger ingroup advantage compared to spontaneous expressions. The exception was Western perceivers demonstrating a greater ingroup advantage when recognizing spontaneous facial expressions of anger. Furthermore, the findings revealed that the ingroup advantage was not influenced by the presentation mode of the facial expressions. In three out of four cases (Eastern perceivers recognizing facial expressions of anger and disgust, and Western perceivers recognizing facial expressions of disgust), there was no significant difference in the ingroup advantage between static and dynamic expressions. The only exception was Western perceivers' recognition of static expressions of anger, where the ingroup advantage was greater than that for dynamic expressions of anger.
In conclusion, the present research demonstrated that the ingroup advantage was more pronounced in posed expression recognition compared to spontaneous expression recognition, while the presentation mode of the expressions did not influence the ingroup advantage. These findings contribute to the existing knowledge in the field of cross-cultural emotion recognition by revealing differences in the ingroup advantage between posed and spontaneous expressions. Consequently, these results provide new empirical contributions that enhance our understanding of how individuals recognize expressions displayed by individuals from different cultural backgrounds.
Keywords "facial expression recognition, ingroup advantage, posed and spontaneous facial expressions, static and dynamic facial expressions, culture difference
附錄
補充材料1:實驗1中對表情識別正確率的分析
對實驗1各條件下的表情識別正確率進行單樣本t檢驗(見附表1), 以檢驗表情識別正確率是否大于隨機水平(即1/5個情緒維度 = 0.2)。結果發現, 大部分條件下的表情識別正確率均顯著大于0.2, 這表明被試均能以高于隨機水平的概率識別目標情緒。然而, 當西方感知者識別東方表達者的自發氣憤表情時, 識別正確率與0.2差異不顯著, 說明西方感知者可能難以識別東方表達者的自發氣憤表情。
對表情識別正確率進行2 (表情種類:氣憤、厭惡) × 2 (表情自發性:表演、自發) × 2 (表達者文化:東方、西方) × 2 (感知者文化:東方、西方)四因素混合設計方差分析(見附表2)。結果顯示, 感知者文化的主效應顯著, F(1, 248) = 21.08, p lt; 0.001, ηp2 = 0.08, 西方感知者的表情識別正確率(M = 0.39, SD = 0.16)顯著大于東方感知者的表情識別正確率(M = 0.34, SD = 0.10); 表達者文化的主效應顯著, F(1, 248) = 27.18, p lt; 0.001, ηp2 = 0.10, 被試對西方表達者的表情識別正確率(M = 0.38, SD = 0.15)顯著大于對東方表達者的表情識別正確率(M = 0.35, SD = 0.14); 表情自發性的主效應顯著, F(1, 248) = 295.42, p lt; 0.001, ηp2 = 0.54, 被試對表演表情的表情識別正確率(M = 0.46, SD = 0.12)顯著大于對自發表情的表情識別正確率(M = 0.27, SD = 0.07); 表情種類的主效應顯著, F(1, 248) = 8.87, p = 0.003, ηp2 = 0.04, 被試對厭惡表情的表情識別正確率(M = 0.38, SD = 0.17) 顯著大于對氣憤表情的表情識別正確率(M = 0.35, SD = 0.15)。
與假設相關的表情自發性 × 表達者文化 × 感知者文化的三階交互作用顯著, F(1, 248) = 31.34, p lt; 0.001, ηp2 = 0.11, 且表情種類 × 表情自發性 × 表達者文化 × 感知者文化的四階交互作用也顯著, F(1, 248) = 4.02, p = 0.046, ηp2 = 0.02。進一步分析發現, 在所有條件下, 西方感知者對西方表達者的表情識別正確率均大于東方表達者(表演氣憤:t(61) = 2.55, p = 0.013, Cohen’s d = 0.32, 95% CI = [0.01, 0.06]; 表演厭惡:t(61) = 9.86, p lt; 0.001, Cohen’s d = 1.25, 95% CI = [0.11, 0.17]; 自發氣憤:t(63) = 7.84, p lt; 0.001, Cohen’s d = 0.98, 95% CI = [0.07, 0.12]; 自發厭惡:t(63) = 3.43, p = 0.001, Cohen’s d = 0.43, 95% CI = [0.02, 0.06])。對于東方感知者來說, 他們對東方表達者的表演表情識別正確率大于西方表達者的表演表情(表演氣憤:t(61) = 6.50, p lt; 0.001, Cohen’s d = 0.83, 95% CI = [0.06, 0.11]; 表演厭惡:t(61) = 4.38, p lt; 0.001, Cohen’s d = 0.56, 95% CI = [0.03, 0.08])。然而, 他們對東方表達者的自發氣憤表情的識別正確率小于西方表達者的自發氣憤表情, t(63) = 3.48, p lt; 0.001, Cohen’s d = 0.44, 95% CI = [0.02, 0.08], 對東方表達者的自發厭惡表情的識別正確率與西方表達者的自發厭惡表情無顯著差異, t(63) = 1.47, p = 0.147, Cohen’s d = 0.18, 95% CI = [?0.01, 0.04]。
補充材料2:實驗2中對表情識別正確率的分析
對各條件下靜態表情的表情識別正確率進行單樣本t檢驗(見附表3), 以檢驗表情識別正確率是否大于隨機水平(即1/4個情緒維度 = 0.25)。結果發現, 大部分條件下靜態表情的表情識別正確率均顯著大于0.25, 這表明被試均能以高于隨機水平的概率識別目標情緒。
對表情識別正確率進行2 (表情種類:氣憤、厭惡) × 2 (呈現方式:動態、靜態) × 2 (表達者文化:東方、西方) × 2 (感知者文化:東方、西方)的四因素混合設計方差分析(見附表4)。結果顯示, 感知者文化的主效應顯著, F(1, 277) = 99.74, p lt; 0.001, ηp2 = 0.27, 西方感知者的表情識別正確率(M = 0.53, SD = 0.10)顯著大于東方感知者的表情識別正確率(M = 0.41, SD = 0.09); 表達者文化的主效應顯著, F(1, 277) = 18.87, p lt; 0.001, ηp2 = 0.06, 被試對西方表達者的表情識別正確率(M = 0.48, SD = 0.15) 顯著大于對東方表達者的表情識別正確率(M = 0.46, SD = 0.10); 呈現方式的主效應不顯著, F(1, 277) = 2.35, p = 0.126; 表情種類的主效應邊緣顯著, F(1, 277) = 3.77, p = 0.053, ηp2 = 0.01。
與假設相關的呈現方式 × 表達者文化 × 感知者文化的三階交互作用不顯著, F(1, 277) = 2.52, p = 0.113, ηp2 = 0.01, 但是表達者文化 × 感知者文化的二階交互作用顯著, F(1, 277) = 345.35, p lt; 0.001, ηp2 = 0.56。東方感知者對東方表達者的識別正確率(M = 0.45, SD = 0.10)顯著大于西方表達者(M = 0.38, SD = 0.10), t(143) = 10.64, p lt; 0.001, Cohen’s d = 0.89, 95% CI = [0.69, 1.08]; 西方感知者對西方表達者的識別正確率(M = 0.59, SD = 0.12)顯著大于東方表達者(M = 0.48, SD = 0.10), t(136) = 15.31, p lt; 0.001, Cohen’s d = 1.31, 95% CI = [1.08, 1.54], 表明東西方感知者識別表演表情時均會出現群內優勢效應。
為了考察表情的不同呈現方式對表情識別是否有影響, 我們還關注了與呈現方式相關的效應。盡管呈現方式主效應不顯著, F(1, 277) = 2.35, p = 0.126, 但是呈現方式 × 表達者文化的二階交互作用, F(1, 277) = 7.44, p = 0.007, ηp2 = 0.03, 以及表情種類 × 呈現方式 × 表達者文化的三階交互作用, F(1, 277) = 4.81, p = 0.029, ηp2 = 0.02, 均顯著。對該三階交互作用進一步分析發現, 除了西方表達者的氣憤表情外, 其余情況下的靜態表情(東方氣憤:M = 0.47, SD = 0.14; 東方厭惡:M = 0.45, SD = 0.14; 西方厭惡:M = 0.50, SD = 0.19)和動態表情(東方氣憤:M = 0.45, SD = 0.14; 東方厭惡:M = 0.47, SD = 0.15; 西方厭惡:M = 0.51, SD = 0.19)的識別正確率均沒有顯著差異(東方氣憤:t(279) = 1.29, p = 0.200; 東方厭惡:t(279) = 0.68, p = 0.495; 西方厭惡:t(279) = 0.55, p = 0.582)。對于西方表達者的氣憤表情而言, 靜態表情的識別準確率(M = 0.49, SD = 0.18)顯著大于動態表情(M = 0.42, SD = 0.17), t(279) = 3.11, p = 0.002, Cohen’s d = 0.37, 95% CI = [0.14, 0.61]。
補充材料3:剔除表情識別正確率過低的被試后的群內優勢效應分析
在實驗1中, 我們剔除了表情識別正確率低于平均值減去2.5倍標準差(M ? 2.5 SD)的被試, 剩余249名被試進行了分析。我們同樣對群內優勢效應進行了2 (表情種類:氣憤、厭惡) × 2 (表情自發性:表演、自發) × 2 (感知者文化:東方、西方)三因素混合設計方差分析。結果顯示剔除被試前后的分析結果相似(見附表5)。
在實驗2中, 我們同樣剔除了表情識別正確率低于平均值減去2.5倍標準差(M ? 2.5 SD)的被試, 剩余277名被試納入了分析。我們對群內優勢效應進行了2 (表情種類:氣憤、厭惡) × 2 (表情自發性:表演、自發) × 2 (感知者文化:東方、西方)三因素混合設計方差分析。結果顯示剔除被試前后的分析結果相似(見附表6)。