張丹丹 趙 婷 柳昀哲 陳玉明
(深圳大學情緒與社會認知科學研究所, 深圳 518060)
在社會交往過程中, 情緒性信息可通過多種載體傳遞, 包括面孔、身體姿勢、語音、文字、音樂等(Altarriba, 2012; Garrido-Vásquez, Jessen, & Kotz,2011)。其中, 面孔和身體姿勢是日常交流互動中最重要的視覺性情緒載體。
對情緒性面孔的研究, 最早可追溯至達爾文的六種情緒類型, 時至今日, 科學家在面孔及面孔表情加工領域已積累了相當豐富的知識(Eimer &Holmes, 2007; Lindquist, Wager, Kober, Bliss-Moreau,& Barrett, 2012; Sabatinelli et al., 2011; Vuilleumier& Pourtois, 2007)。面孔加工的特異性腦區主要包括梭狀回面孔區(fusiform face area, FFA) (Kanwisher,McDermott, & Chun, 1997)以及枕葉面孔區(occipital face area, OFA) (Gauthier et al., 2000)。事件相關電位(event-related potential, ERP)研究發現, N170是面孔加工的特異性成分, 其源定位結果位于 FFA(Schendan & Ganis, 2013)。加工情緒性面孔時, ERP的早期成分(如P1)早在刺激呈現后100 ms左右就出現對負性面孔特別是恐懼面孔的波幅增強, 有研究者認為這體現了P1 對負性面孔的低頻空間信息(如睜大的雙眼、張開的嘴)的高度敏感性(Pourtois,Dan, Grandjean, Sander, & Vuilleumier, 2005); 中期成分(如 N170、頂正成分(vertex positive potential,VPP))對面孔各個部件的細節以及整個面孔的構造進行初步加工, 但此階段得到的信息僅可用于區分情緒性面孔和中性面孔, 即實現情緒與非情緒信息的分離(Eimer & Holmes, 2007; Jiang et al., 2009;Pourtois et al., 2005); 晚期成分(如P3)可進一步評估與面孔情緒效價有關的更細致的信息, 對不同情緒類型的面孔進行加工(Luo, Feng, He, Wang, &Luo, 2010; Zhang, Luo, & Luo, 2013a, 2013b)。
相比于情緒性面孔, 人們對情緒性身體姿勢的研究起步較晚, 該領域還有大量科學問題尚待解決(de Gelder, Snyder, Greve, Gerar, & Hadjikhani,2004)。目前已知, 加工身體姿勢的特異性腦區主要包括梭狀回身體區(fusiform body area, FBA) (Peelen& Downing, 2005)以及外紋狀皮層身體區(extrastriate body area, EBA) (Downing, Jiang, Shuman, &Kanwisher, 2001)。與情緒性面孔加工類似(Lindquist et al., 2012), 個體在加工不同情緒種類的身體姿勢時, 激活的腦區不盡相同。例如, 雖然恐懼和憤怒的身體姿勢均可激活杏仁核、顳葉皮層、前額葉皮層,但恐懼身體姿勢還可激活右側顳頂聯合區, 而憤怒身體姿勢還可激活前運動皮層(Pichon, de Gelder,& Grezes, 2009)。另外, 情緒性身體姿勢也可在皮層誘發早(P1)、中(N170/VPP)、晚期(P3)的ERP成分(Gu, Mai, & Luo, 2013; Meeren, van Heijinsbergen,& de Gelder, 2005; Stekelenburg & de Gelder, 2004)。
加工身體姿勢和加工面孔的腦區相鄰(EBA與OFA相鄰, FBA與FFA有部分重疊) (Schwarzlose,Baker, & Kanwisher, 2005), 且情緒性身體姿勢和面孔可誘發相似的ERP成分。更重要的是, 面孔表情和身體姿勢表情的加工在很大程度上存在相互影響(Aviezer et al., 2008; Aviezer, Trope, & Todorov,2012; Kret, Stekelenburg, Roelofs, & de Gelder, 2013;Meeren et al., 2005; Mondloch, Nelson, & Horner,2013; van den Stock, Righart, & de Gelder, 2007)。基于上述三點原因, 我們認為在研究中對比考察大腦對情緒性身體姿勢和情緒性面孔的加工非常有必要(Peelen & Downing, 2007)。
表情加工研究的熱點之一在于個體對負性情緒的關注, 即“負性偏向(negativity bias)” (Cacioppo& Gardner, 1999)。功能磁共振成像研究發現, 與中性身體姿勢相比, 恐懼身體姿勢在 EBA產生了更大激活(van den Stock, Vandenbulcke, Sinke, & de Gelder, 2012)。ERP研究發現, 無論是面孔還是身體姿勢, 恐懼表情均比中性表情在早期階段得到了更多的加工, 表現為早期的 P1成分在恐懼條件下的波幅更大(Luo et al., 2010; Gu et al., 2013)。在恐懼身體姿勢及面孔加工的中期階段, Stekelenburg和de Gelder (2004)發現, 與身體姿勢相比, 面孔誘發的N170幅度增大, 潛伏期延長, 而VPP在身體姿勢與面孔兩個條件間無顯著差異(但有類似于N170的趨勢)。另外, VPP可區分中性與恐懼的身體姿勢, 而N170能區分中性與恐懼的面孔。
目前在恐懼情緒面孔和身體姿勢的加工方面還存在以下問題:1) 在早期階段(P1階段), 情緒載體是否會影響恐懼情緒的加工?即恐懼性身體姿勢和面孔的 P1幅度是否存在差別?在一項以憤怒和恐懼的身體姿勢及面孔為實驗材料的研究中(Meeren et al., 2005), 作者發現與身體姿勢相比,面孔誘發的 P1幅度增大, 潛伏期延長。但當前缺乏以中性表情為基線的、對恐懼性身體姿勢和面孔P1成分的比較研究。2) 在加工的中期階段, 情緒載體對N170和VPP的影響還有待進一步澄清。目前已發現面孔誘發的N170比身體姿勢誘發的N170具有更大的幅度和更長的潛伏期(情緒載體效應)(Meeren et al., 2005; Stekelenburg & de Gelder,2004), 但VPP僅表現出類似于N170的情緒載體差異的趨勢(Stekelenburg & de Gelder, 2004)。另外,該N170結果與另一項非情緒性的研究相反(后者發現身體姿勢誘發的 N170潛伏期更長) (Thierry,Pegna, Dodds, Roberts, Basan, & Downing, 2006)。此外, Stekelenburg和de Gelder (2004)發現VPP不能區分中性與恐懼的面孔, 這與情緒面孔研究的主流觀點不符(Campanella, Quinet, Bruyer, Crommelinck,& Guerit, 2002; Eimer & Holmes, 2007; Luo et al.,2010; Zhang et al., 2013a, 2013b)。我們推測該VPP的兩項結果是由于Stekelenburg和de Gelder (2004)研究的被試量太少造成的假陰性(僅 12名)。3) 在相關研究中未發現對晚期階段(P3成分)的考察。
本文在Stekelenburg和de Gelder (2004)研究的基礎上, 擴大被試量, 以中性表情為基線, 對比考察恐懼/中性的面孔和身體姿勢誘發的早(P1)、中(N170和VPP)、晚(P3)三個時期的ERP成分。根據已有文獻提供的證據, 本文作者對實驗結果提出以下預期:1) 在身體姿勢和面孔加工的早期階段, P1成分不但存在“負性偏向”, 還會表現出情緒載體效應; 2) 中期階段的N170和VPP可能具有相似的表現, 即面孔條件下的幅度更大、潛伏期更長, 且在恐懼和中性條件間表現出幅度差異 3) 晚期階段的P3成分體現了大腦對情緒性刺激的深入加工(Luo et al., 2010; Zhang et al., 2013a, 2013b), 因此很可能同時受到情緒效應(恐懼與中性相比)和情緒載體效應的影響。與Stekelenburg和de Gelder (2004)的研究相比, 本研究可獲得情緒性面孔和身體姿勢加工的更可靠的神經電生理證據, 從而加深我們對情緒性身體姿勢加工腦機制的了解, 為情緒認知障礙的診斷提供更多的生物標記物。
共40名(男女各20名)年齡分布在19~24歲的健康成年被試參加了實驗。被試均為右利手, 視力或矯正視力正常。實驗前均被告知了實驗目的, 并簽署了知情同意書。本實驗已經深圳大學倫理委員會批準。
身體姿勢圖片40張, 男女演員各半, 選自中國身體姿勢表情圖片庫(Gu et al., 2013), 該庫的建立參考了西方國家的身體姿勢表情圖片庫(de Gelder& van den Stock, 2011)。面孔圖片40張, 男女演員各半, 選自中國面孔表情圖片庫(龔栩, 黃宇霞, 王妍, 羅躍嘉, 2011)。以上材料包含數量均等的恐懼和中性圖片(各20張)。所有的材料以相同的對比度和亮度呈現在灰色背景上(中央呈現, 3.0° × 3.5°)。

實驗程序如圖1所示。面孔或身體姿勢圖片呈現300 ms。被試的任務是又快又準地判斷圖片的情緒類型, 恐懼和中性分別對應F鍵和J鍵(左右手食指按鍵, F鍵和J鍵對應的情緒類型在被試間平衡)。實驗依據情緒載體(面孔或身體姿勢)分兩個 block進行, block的順序在被試間平衡。每個block內恐懼和中性圖片隨機出現。每張圖片重復呈現 3次,即每個條件60個試次。實驗共60 × 2 (情緒類型) ×2 (情緒載體) = 240個試次。

圖1 實驗程序示意圖
使用64導腦電放大器(Brain Products, Gilching,德國)采集腦電和眼電數據, 電極的阻抗低于5 k?。參考電極置于左側乳突, 離線轉為雙側乳突平均參考。腦電中的水平和垂直眼電利用Neuroscan軟件(Scan 4.3)內置的回歸程序去除。
數據分析采用 Matlab R2011a (MathWorks,Natick, 美國)。腦電數據依次經過以下處理:濾波(0.01~30 Hz, 零相位延遲)、分段(–200 至 800 ms)、基線矯正(–200至0 ms)、疊加平均(僅選用行為反應正確的試次進行疊加)。
本文分析的 ERP成分包括枕區的 P1, 顳枕區的N170, 中央–額區的VPP, 以及頂區的P3。由于早期和中期的 ERP成分具有較尖銳的峰值, 故對P1、N170、VPP采用基線–峰值進行度量; 而晚期的成分波形較鈍, 故對P3采用平均波幅進行度量。為了獲得可靠的高信噪比的 ERP結果, 每個 ERP成分由該成分波幅最大的2~3個電極點的平均值計算而得。根據腦電地形圖、ERP波形圖、以及已有的相關文獻選取電極點的位置和 ERP成分的分析時間窗(Liu, Zhang, & Luo, 2014; Luck, 2005; Zhang,Liu, Wang, Chen, & Luo, 2014)。具體而言, P1成分的分析電極點為O1, O2, PO3, PO4 (數據分別取左右半球的均值), 峰值檢測窗口為90~130 ms。N170成分的分析電極點為P7, P8, PO7, PO8(數據分別取左右半球的均值), 峰值檢測窗口為 150~200 ms。VPP成分的分析電極點為FCz, FC1, FC2(數據取均值), 峰值檢測窗口為150~200 ms。P3成分的分析電極點為Pz, P1, P2(數據取均值), 平均幅度計算窗口為450~600 ms。
統計分析采用SPSS Statistics 20.0 (IBM, Somers,美國)。描述性統計量表示為均值±標準誤。行為正確率、反應時以及VPP和P3的潛伏期/幅度采用雙因素重復測量方差分析, 被試內因素為情緒類型(恐懼、中性)和情緒載體(身體姿勢、面孔)。P1和N170的潛伏期及幅度采用三因素重復測量方差分析, 被試內因素為情緒類型、情緒載體、大腦半球(左半球、右半球)。





圖2 實驗的ERP結果





本文研究了大腦對面孔和身體姿勢在恐懼和中性兩種條件下的加工。行為結果發現, 與中性條件相比, 恐懼條件下的正確率更高, 反應時更短。該結果表明, 與情緒性面孔相似, 情緒性身體姿勢的加工也符合“負性偏向”理論。另外, 結果顯示身體姿勢圖片對應的正確率高于面孔圖片對應的正確率, 這可能是因為恐懼與中性的身體姿勢在形態上的差異較大(中性條件下雙臂更多地貼于軀干兩旁, 恐懼的身體姿勢雙臂往往與軀干分離, 參見身體姿勢表情圖片庫(de Gelder & van den Stock, 2011)),因此更容易準確區分。
本研究發現, ERP早期成分P1幅度在情緒類型和情緒載體兩個因素上都存在顯著的主效應。首先,恐懼比中性條件誘發更大的 P1, 符合“負性偏向”理論。其次, 身體姿勢比面孔誘發更大的P1, 此結果與 Meeren等(2005)的研究不符(后者認為面孔誘發的 P1幅度更大)。兩個研究在P1結果上的差異可能源于二者的情緒類別不同:本研究要求被試區分恐懼與中性情緒, 而Meeren等(2005)的研究要求被試區分恐懼與憤怒情緒。已知恐懼與中性的身體姿勢在整體輪廓(即圖片的低頻信息)方面差異較大,而恐懼與憤怒的面孔在輪廓方面差異較小(參見身體姿勢表情圖片庫(de Gelder & van den Stock,2011))。而我們在引言中已提到, ERP的早期成分(如P1)對圖片的低頻空間信息敏感, 而大腦對圖片的高頻信息(即細節)的加工可能發生在中期及晚期ERP成分的時間窗(Pourtois et al., 2005)。因此在本研究中, 身體姿勢比面孔條件誘發更大的 P1很可能是該成分對恐懼與中性身體姿勢更大的低頻信息差異(與恐懼與中性面孔的低頻信息差異相比)進行加工的表現。
我們發現, ERP中期成分N170和VPP在實驗中具有相同的趨勢:1) 能區分恐懼和中性的面孔(恐懼面孔的幅度更大), 但不能區分恐懼和中性的身體姿勢; 2) 情緒載體的主效應顯著, 與面孔圖片相比, 身體圖片誘發的 ERP幅度更小, 潛伏期更短。不少學者認為N170和VPP是由位于梭狀回的同一個偶極子產生的一對共軛的ERP成分(Itier &Taylor, 2002; Jemel et al., 2003; Rossion, Joyce,Cottrell, & Tarr, 2003; Williams, Palmer, Liddell,Song, & Gordon, 2006), 另外 Stekelenburg等(Stekelenburg & de Gelder, 2004)也指出, 面孔和身體姿勢誘發的 N170/VPP的頭皮分布相似。N170和 VPP在本實驗中表現出的相似結果, 支持這一觀點。其實de Gelder小組的兩項研究(Meeren et al.,2005; Stekelenburg & de Gelder, 2004)也與本文有類似結果, 只是可能由于他們的被試量太少, 造成了部分結果的假陽性或假陰性。本文的結果提示,由于大腦在情緒性身體姿勢加工初期(即P1的時間窗內)已快速完成了對恐懼和中性身體姿勢的初步辨識, 因此在此后的N170和VPP時期, 大腦給身體姿勢圖片的加工分配了較面孔加工更少的認知資源, 表現為身體姿勢圖片對應的 N170/VPP幅度較小, 潛伏期較短。
在情緒性面孔和身體姿勢加工的晚期, ERP的P3成分在情緒類型和情緒載體兩個因素上均表現出了主效應, 說明 P3可區分身體與面孔以及恐懼表情和中性表情, P3幅度在兩個主效應上出現了較大的效應量, 體現了大腦在 P3階段對情緒性信息的更深入的加工。先前對面孔表情的研究已指出,大腦在情緒加工的晚期階段可進一步評估與效價有關的更細致的信息, P3成分能將不同情緒種類的圖片區分開(Campanella et al., 2002; Krolak-Salmon,Fischer, Vighetto, & Mauguière, 2001; Williams et al.,2006)。遺憾的是本研究僅選用了恐懼和中性的情緒材料, 無法明確 P3在身體姿勢加工中是否能區分開不同種類的情緒信息。
綜上所述, 本文在de Gelder等人的基礎上, 以較大的被試樣本進一步考察了大腦對恐懼和中性身體姿勢及面孔的加工時程, 回答了引言中提出的三個問題。我們的研究結果說明, 與情緒性面孔加工類似, 大腦對情緒性身體姿勢的加工也是快速的,早在 P1階段即可將恐懼和中性的身體姿勢區分開來, 并且身體姿勢圖片誘發的 P1幅度大于面孔圖片; 在加工的中期階段, 與情緒性面孔相比, 情緒性身體姿勢誘發出的N170和VPP幅度較小, 潛伏期較短, 說明此階段大腦在身體姿勢加工方面的優勢不如在面孔加工方面的優勢大; 在加工的晚期階段, P3可區分情緒載體和情緒類別。本文對情緒性面孔和身體姿勢的結合研究將有助于深入了解情緒腦的工作機制, 同時找到更多的情緒相關的生物標記物以幫助臨床診斷具有情緒認知障礙的精神病患者的腦功能缺損。例如, 已發現自閉癥患者和精神分裂癥患者在面孔情緒和身體姿勢情緒加工方面均存在缺陷(Grèzes, Wicker, Berthoz, & de Gelder, 2014; Hadjikhani et al., 2009; Hubert et al.,2007; Kohler, Bilker, Hagendoorn, Gur, & Gur, 2000;van den Stock, de Jong, Hodiamont, & de Gelder,2011)。下一步還可從以下幾個方面對情緒性身體姿勢的加工進行研究:1) 選用多種情緒類別的身體姿勢材料; 2) 考察情緒性身體姿勢加工的跨文化差異; 3) 對比男性和女性被試在加工男性及女性演員表演的身體姿勢圖片時的行為及神經表現的差異。
Altarriba, J. (2012). Emotion and mood: Over 120 years of contemplation and exploration in the American Journal of Psychology. American Journal of Psychology, 125(4),409–422.
Aviezer, H., Hassin, R. R., Ryan, J., Grady, C., Susskind, J.,Anderson, A., … Bentin, S. (2008). Angry, disgusted, or afraid? Studies on the malleability of emotion perception.Psychological Science, 19(7), 724–732.
Aviezer, H., Trope, Y., & Todorov, A. (2012). Body cues, not facial expressions, discriminate between intense positive and negative emotions. Science, 338(6111), 1225–1229.
Cacioppo, J. T., & Gardner, W. L. (1999). Emotion. Annual Review of Psychology, 50, 191–214.
Campanella, S., Quinet, P., Bruyer, R., Crommelinck, M., &Guerit, J. M. (2002). Categorical perception of happiness and fear facial expressions: An ERP study. Journal of Cognitive Neuroscience, 14(2), 210–227.
de Gelder, B., Snyder, J., Greve, D., Gerard, G., & Hadjikhani,N. (2004). Fear fosters flight: A mechanism for fear contagion when perceiving emotion expressed by a whole body. Proceedings of the National Academy of Sciences of the United States of America, 101(47), 16701–16706.
de Gelder, B., & van den Stock, J. (2011). The bodily expressive action stimulus test (BEAST). Construction and validation of a stimulus basis for measuring perception of whole body expression of emotions. Frontiers in Psychology,2, 181. doi: 10.3389/fpsyg.2011.00181
Downing, P. E., Jiang, Y., Shuman, M., & Kanwisher, N.(2001). A cortical area selective for visual processing of the human body. Science, 293(5539), 2470–2473.
Eimer, M., & Holmes, A. (2007). Event-related brain potential correlates of emotional face processing. Neuropsychologia,45(1), 15–31.
Garrido-Vásquez, P., Jessen, S., & Kotz, S. A. (2011).Perception of emotion in psychiatric disorders: On the possible role of task, dynamics, and multimodality. Social Neuroscience, 6(5-6), 515–536.
Gauthier, I., Tarr, M. J., Moylan, J., Skudlarski, P., Gore, J. C.,& Anderson, A. W. (2000). The fusiform "face area" is part of a network that processes faces at the individual level.Journal of Cognitive Neuroscience, 12(3), 495–504.
Grèzes, J., Wicker, B., Berthoz, S., & de Gelder, B. (2014). A failure to grasp the affective meaning of actions in autism spectrum disorder subjects. Neuropsychologia, 47(8-9),1816–1825.
Gong, X., Huang, Y. X., Wang, Y., & Luo, Y. J. (2011).Revision of the Chinese facial affective picture system.Chinese Mental Health Journal, 25(1), 40–46.
[龔栩, 黃宇霞, 王妍, 羅躍嘉. (2011). 中國面孔表情圖片系統的修訂. 中國心理衛生雜志, 25(1), 40–46.]
Gu, Y. Y., Mai, X. Q., & Luo, Y. J. (2013). Do bodily expressions compete with facial expressions? Time course of integration of emotional signals from the face and the body. PLoS One, 8(7), e66762.
Hadjikhani, N., Joseph, R. M., Manoach, D. S., Naik, P.,Snyder, J., Dominick, K., … de Gelder, B. (2009). Body expressions of emotion do not trigger fear contagion in autism spectrum disorder. Social Cognitive and Affective Neuroscience, 4(1), 70–78.
Hubert, B., Wicker, B., Moore, D. G., Monfardini, E.,Duverger, H., Da Fonséca, D., & Deruelle, C. (2007). Brief report: Recognition of emotional and non-emotional biological motion in individuals with autistic spectrum disorders. Journal of Autism and Developmental Disorders,37(7), 1386–1392.
Itier, R. J., & Taylor, M. J. (2002). Inversion and contrast polarity reversal affect both encoding and recognition processes of unfamiliar faces: A repetition study using ERPs. NeuroImage, 15(2), 353–372.
Jiang, Y., Shannon, R. W., Vizueta, N., Bernat, E. M., Patrick,C. J., & He, S. (2009). Dynamics of processing invisible faces in the brain: Automatic neural encoding of facial expression information. NeuroImage, 44(3), 1171–1177.
Jemel, B., Schuller, A. M., Cheref-Khan, Y., Goffaux, V.,Crommelinck, M., & Bruyer, R. (2003). Stepwise emergence of the face-sensitive N170 event-related potential component. Neuroreport, 14(16), 2035–2039.
Kanwisher, N., McDermott, J., & Chun, M. M. (1997). The fusiform face area: A module in human extrastriate cortex specialized for face perception. The Journal of Neuroscience,17(11), 4302–4311.
Kohler, C. G., Bilker, W., Hagendoorn, M., Gur, R. E., & Gur,R. C. (2000). Emotion recognition deficit in schizophrenia:Association with symptomatology and cognition. Biological Psychiatry, 48(2), 127–136.
Kret, M. E., Stekelenburg, J. J., Roelofs, K., & de Gelder, B.(2013). Perception of face and body expressions using electromyography, pupillometry and gaze measures. Frontiers in Psychology, 4, 28. doi: 10.3389/fpsyg.2013.00028
Krolak-Salmon, P., Fischer, C., Vighetto, A., & Mauguière, F.(2001). Processing of facial emotional expression: Spatiotemporal data as assessed by scalp event-related potentials.European Journal of Neuroscience, 13(5), 987–994.
Lindquist, K. A., Wager, T. D., Kober, H., Bliss-Moreau, E., &Barrett, L. F. (2012). The brain basis of emotion: A metaanalytic review. Behavioral Brain Science, 35(3), 121–143.
Liu, Y. Z., Zhang, D. D., & Luo, Y. J. (2014). How disgust facilitates avoidance: An ERP study on attention modulation by threats. Social Cognitive and Affective Neuroscience, 10,598–604.
Luck, S. J. (2005). An introduction to the Event-related potential technique. London: The MIT Press.
Luo, W. B., Feng, W. F., He, W. Q., Wang, N. Y., & Luo, Y. J.(2010). Three stages of facial expression processing: ERP study with rapid serial visual presentation. NeuroImage,49(2), 1857–1867.
Meeren, H. K., van Heijnsbergen, C. C., & de Gelder, B.(2005). Rapid perceptual integration of facial expression and emotional body language. Proceedings of the National Academy of Sciences of the United States of America,102(45), 16518–16523.
Mondloch, C. J., Nelson, N. L., & Horner, M. (2013).Asymmetries of influence: Differential effects of body postures on perceptions of emotional facial expressions.PLoS One, 8(9), e73605.
Peelen, M. V., & Downing, P. E. (2005). Selectivity for the human body in the fusiform gyrus. Journal of Neurophysiology,93(1), 603–608.
Peelen, M. V., & Downing, P. E. (2007). The neural basis of visual body perception. Nature Reviews Neuroscience, 8(8),636–648.
Pichon, S., de Gelder, B., & Grèzes, J. (2009). Two different faces of threat. Comparing the neural systems for recognizing fear and anger in dynamic body expressions.NeuroImage, 47(4), 1873–1883.
Pourtois, G., Dan, E. S., Grandjean, D., Sander, D., & Vuilleumier,P. (2005). Enhanced extrastriate visual response to bandpass spatial frequency filtered fearful faces: Time course and topographic evoked-potentials mapping. Human Brain Mapping, 26(1), 65–79.
Rossion, B., Joyce, C. A., Cottrell, G. W., & Tarr, M. J. (2003).Early lateralization and orientation tuning for face, word,and object processing in the visual cortex. NeuroImage,20(3), 1609–1624.
Sabatinelli, D., Fortune, E. E., Li, Q. Y., Siddiqui, A., Krafft,C., Oliver, W. T., … Jeffries, J. (2011). Emotional perception:Meta-analyses of face and natural scene processing.NeuroImage, 54(3), 2524–2533.
Schendan, H. E., & Ganis, G. (2013). Face-specificity is robust across diverse stimuli and individual people, even when interstimulus variance is zero. Psychophysiology, 50(3),287–291.
Schwarzlose, R. F., Baker, C. I., & Kanwisher, N. (2005).Separate face and body selectivity on the fusiform gyrus.The Journal of Neuroscience, 25(47), 11055–11059.
Stekelenburg, J. J., & de Gelder, B. (2004). The neural correlates of perceiving human bodies: An ERP study on the body-inversion effect. Neuroreport, 15(5), 777–780.
Thierry, G., Pegna, A. J., Dodds, C., Roberts, M., Basan, S., &Downing, P. (2006). An event-related potential component sensitive to images of the human body. NeuroImage, 32(2),871–879.
van den Stock, J., de Jong, S. J., Hodiamont, P. P. G., & de Gelder, B. (2011). Perceiving emotions from bodily expressions and multisensory integration of emotion cues in schizophrenia. Social Neuroscience, 6(5–6), 537–547.
van den Stock, J., Righart R., & de Gelder B. (2007). Body expressions influence recognition of emotions in the face and voice. Emotion, 7(3), 487–494.
van den Stock, J., Vandenbulcke, M., Sinke, C. B. A., & de Gelder, B. (2012). Affective scenes influence fear perception of individual body expressions. Human Brain Mapping,35(2), 492–502.
Vuilleumier, P., & Pourtois, G. (2007). Distributed and interactive brain mechanisms during emotion face perception: Evidence from functional neuroimaging. Neuropsychologia, 45(1),174–194.
Williams, L. M., Palmer, D., Liddell, B. J., Song, L., &Gordon, E. (2006). The ‘when’and ‘where’of perceiving signals of threat versus non-threat. NeuroImage, 31(1),458–467.
Zhang, D. D., Liu, Y. Z., Wang, X. C., Chen, Y. M., & Luo, Y.J. (2014). The duration of disgusted and fearful faces is judged longer and shorter than that of neutral faces:Tattention-related time distortions as revealed by behavioral and electrophysiological measurements. Frontiers in Behavioral Neuroscience, 8, 293. doi: 10.3389/fnbeh.2014.00293
Zhang, D. D., Luo, W. B., & Luo, Y. J. (2013a). Single-trial ERP analysis reveals facial expression category in a three-stage scheme. Brain Research, 1512, 78–88.
Zhang, D. D., Luo, W. B., & Luo, Y. J. (2013b). Single-trial ERP evidence for the three-stage scheme of facial expression processing. Science China (Life Sciences), 56(9), 835–847.