999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面孔寬高比的自動加工*

2023-11-11 05:36:02汪海玲陳恩光連玉凈李晶晶王麗薇
心理學報 2023年11期
關鍵詞:情緒實驗

汪海玲 陳恩光 連玉凈 李晶晶 王麗薇

面孔寬高比的自動加工*

汪海玲 陳恩光 連玉凈 李晶晶 王麗薇

(山東師范大學心理學院, 濟南 250358)

研究發現, 高低面孔寬高比(facial width-to-height ratio, fWHR)在表征某男性個體實際攻擊性或預測他人評價該男性個體的攻擊性行為水平上存在差異, 高fWHR較低fWHR個體不僅有更強的攻擊性, 也被他人評價為有更高的攻擊傾向。但是, 其中的神經機制尚不清楚, 尤其是非注意條件下二者的加工機制。因而, 本研究以視覺失匹配負波(visual mismatch negativity, vMMN)為指標, 考察非注意條件下高低fWHR加工的神經機制。實驗1給被試呈現中性情緒面孔, 要求被試完成注視點大小探測任務。結果發現, 高fWHR在200~500 ms, 而低fWHR在200~250 ms和300~350 ms誘發vMMN, 在300~350 ms高fWHR比低fWHR誘發的vMMN更大。實驗2呈現憤怒和恐懼面孔, 結果發現, 憤怒情緒高fWHR在200~250 ms和300~400 ms誘發了vMMN, 而恐懼情緒低fWHR在左半球250~400 ms誘發vMMN。對比實驗1和實驗2發現, 憤怒情緒較中性情緒降低了高fWHR的vMMN。這些結果表明, 與個體感知攻擊性水平密切相關的fWHR的自動加工可能受情緒信息的影響, 憤怒情緒促進高fWHR自動加工, 而恐懼情緒促進低fWHR自動加工; 但可能受情緒自動加工的影響使得憤怒情緒較中性情緒減弱了高fWHR的自動加工程度。

面孔, 寬高比, 情緒, 視覺失匹配負波(vMMN), 自動加工

1 引言

面孔寬高比(facial width-to-height ratio, fWHR)指的是面孔寬與高的比值; 寬指的是面孔左右顴骨最外側之間的距離, 高指的是眉心和上唇最高點之間距離(Geniole & McCormick, 2015; Haselhuhn et al., 2015)。已有研究多聚焦于面孔寬高比對個體心理狀態和社會行為感知的影響(鄭治國等, 2017)。研究發現, 面孔寬高比存在性別差異, 男性個體的fWHR較女性個體更大(Weston et al., 2007; Wong et al., 2011), 同時, 女性面孔寬高比與社會行為之間的關系未能得到顯著結果(Goetz et al., 2013; Haselhuhn & Wong, 2011); 因而, 關于面孔寬高比的研究多采用男性面孔。大量研究表明, 男性面孔寬高比是預測他人評價該個體不良社會行為水平的可靠指標(Geniole et al., 2015; Haselhuhn et al., 2015)。相比于擁有低fWHR的男性而言, 擁有高fWHR的男性被認為更容易讓人感覺受到威脅(Hehman, Leitner, & Gaertner, 2013), 更不可被信任(Costa et al., 2017), 當團體內部成員間存在競爭時也被評價為缺乏合作精神等(Stirrat et al., 2012)。

上述研究的理論基礎主要來源于Carré和McCormick (2008)發現的fWHR與攻擊性行為間的相關關系, fWHR越高個體表現出來的實際攻擊性也越強; 同時, 研究者進一步發現相比于擁有低fWHR的男性而言, 擁有高fWHR的男性也被評價為更具有行為上的攻擊性(Carré et al., 2009), 這也被之后的一系列研究所證實(Costa et al., 2017; Geniole et al., 2012; Geniole et al., 2015; Lefevre et al., 2014)。研究者認為, 上述結果可能與雄性激素睪酮這一生理指標有關(Lefevre et al., 2013)。研究發現睪酮與個體表現出來的實際攻擊行為有顯著正相關關系(Carré et al., 2011), 同時, 高低fWHR也被認為是睪酮濃度水平高低非常可靠的外顯指標(Hehman, Leitner, Deegan & Gaertner, 2013; Lefevre et al., 2013)。也就是說, 睪酮分泌量增加可能既增大了個體的fWHR也增強了其實際攻擊性行為水平, 因而, 睪酮可能是fWHR和個體實際攻擊性水平共變的生理基礎。與此同時, 研究者發現個體實際攻擊性水平與被感知的攻擊性水平存在較高相關性(Carré et al., 2009), 因而睪酮也可能使得高fWHR個體被感知的攻擊性水平也較高。但是, 這個解釋尚不能明晰高低fWHR信息自身加工上的差異, 尤其是二者時間進程上加工的神經機制。

此外, 研究者認為上述研究結果還可能源于面孔寬高比和面孔情緒間的密切關系。研究發現, 當向被試呈現一張中性情緒面孔時, 被試更傾向于認為高fWHR要表達的是憤怒情緒, 而低fWHR要表達的是恐懼情緒; 而當向被試呈現一張帶有憤怒、恐懼或高興的情緒面孔時, 被試能快速準確地識別高fWHR的憤怒情緒和低fWHR的恐懼和高興情緒(Deska et al., 2018)。這表明, 面孔寬高比能表達情緒信息且不受面孔自身情緒的影響。最近的一項研究也證實了這一點, 隨著面孔寬高比的增加被試對憤怒情緒強度的感知也增加, 而對恐懼情緒強度的感知減弱(Merlhiot et al., 2021)。與此同時, Merlhiot等人(2021)通過測量同一個體不同情緒下的面孔寬高比發現, 個體表現出來的面孔情緒也會影響其實際面孔寬高比的大小; 具體表現為, 與中性情緒相比, 憤怒和恐懼情緒分別使得眉心下移和上移, 上唇上移和下移, 進而分別減少和增加了面孔寬高比中的高度, 而不影響寬高比中的寬度, 因而, 憤怒情緒使得面孔寬高比增加, 而恐懼情緒使得面孔寬高比降低。此外, 憤怒表情意味著表達該表情的個體將要出現攻擊性行為, 而恐懼表情意味著表達該表情的個體感知到環境中潛在的威脅信息(Adams et al., 2003), 這可能使得被試感知憤怒表情表達的直接威脅性比恐懼情緒大, 進而得到高低fWHR分別與憤怒和恐懼情緒密切相關??傊? 這些研究表明, 借助面孔寬高比所呈現出的憤怒和恐懼情緒信息可能是面孔寬高比與攻擊性行為密切相關的重要線索(Carré et al., 2009)。

雖然研究者從不同視角探討了面孔寬高比與個體被感知的攻擊性行為水平間的關系, 但是, 關于面孔寬高比自身的加工機制知之甚少, 尤其是其自動加工機制, 這對于理解個體快速識別威脅性信號有重要的社會價值。眾所周知, 我們的大腦可以快速自動地完成對外界信息的加工, 尤其是對個體生存具有重要意義的社會信息(Haselton & Funder, 2006; Kovarski et al., 2017)。在具有高時間分辨率特點的事件相關電位(event related potential, ERP)技術中能反映大腦前注意自動加工的指標是視覺失匹配負波(visual mismatch negativity, vMMN), 它是指在oddball實驗范式中偶然出現的任務無關刺激和經常出現的任務無關刺激在大腦后頂枕區誘發的ERP差異波, 具體表現為偶然出現的刺激較經常出現的刺激誘發的波幅更負(Stefanics et al., 2014)。大量研究發現, 從簡單的顏色(Czigler et al., 2002)、線條朝向(Fu et al., 2003)等到復雜的具有重要社會意義的面孔情緒(Stefanics et al., 2012)、性別(Kecskés-Kovács et al., 2013)、年齡(Csizmadia et al., 2021)等視覺刺激均能誘發vMMN。這表明, 我們的大腦不僅可以快速完成對簡單視覺刺激的探測, 而且可以對復雜視覺刺激進行自動加工。但是, 面孔寬高比作為表征某個體實際攻擊性或預測他人評價該個體攻擊性行為傾向的可靠指標, 其自動加工機制如何尚不清楚。因此, 本研究將以vMMN為指標研究面孔寬高比的自動加工機制, 試圖為面孔寬高比表征某個體實際攻擊性或預測他人評價該個體攻擊性行為提供證據和新的視角。

此外, 本研究關注了早期P1和N170成分對面孔寬高比的敏感性。雖然P1對刺激物理屬性比較敏感, 但是最近的研究發現, P1能反映面孔知覺信息變化, 面孔二階構形信息(面孔特征間的距離信息, 如雙眼間距和嘴鼻距)較特征信息誘發較大的P1(Wang et al., 2015, 2016, 2020; Wang & Fu, 2018)。同時, 研究發現對面孔刺激較敏感的N170主要反映面孔結構編碼并且對面孔構形信息變化較敏感(Eimer, 2011)。由于高低面孔寬高比都屬于面孔構形信息, 因而我們預測高低寬高比在P1和N170波幅上都不存在差異。但是, 研究發現N170能區分中性和其他具體情緒面孔(Luo et al., 2010), 并且對面孔眼睛部位信息較敏感(Itier et al., 2006), 眼睛又是識別憤怒和恐懼情緒的較重要部位(Smith et al., 2005), 因而, N170對面孔寬高比的敏感性是否隨不同情緒發生變化尚不清楚。再者, 盡管N170成分的時空分布與面孔情緒誘發的早期vMMN相似, 但是研究者認為早期vMMN反映的是視覺不應性, 晚期vMMN (200 ms之后)才反映信息的自動加工(Kimura et al., 2009)。因此, 我們有必要分析N170對不同概率面孔寬高比刺激的敏感性。

總之, 本研究主要以vMMN為指標研究面孔寬高比在前注意加工階段的神經機制, 同時結合ERP技術高時間分辨率的特點以期揭示高低面孔寬高比的自動加工機制在時序上的變化。實驗1采用中性情緒面孔考察沒有特定情緒時高低fWHR的自動加工。前人研究發現, 對識別和加工個體身份、種族和情緒等信息起重要作用的面孔二階構形信息在枕顳葉區可以誘發vMMN (Wang et al., 2022)。據此, 我們預期隸屬于面孔構形信息的高、低面孔寬高比信息都會誘發vMMN。但是, 從進化的角度來看, 快速探測到具有威脅性的高攻擊性刺激信號對個體生存有重要價值(Haselton & Funder, 2006)。因此, 根據已有研究, 相比于低fWHR, 個體對高fWHR的攻擊性感知較高(Carré et al., 2009), 我們進一步預期, 與低fWHR誘發的vMMN相比, 高fWHR誘發的vMMN波幅較大, 時程較長。同時, 結合研究發現的中性情緒高低寬高比面孔在預測他人評價該個體攻擊上的差異可能源于其分別被傾向于識別為憤怒和恐懼情緒(Deska et al., 2018), 以及憤怒較恐懼情緒更可能表達直接威脅性信息(Adams et al., 2003), 也可以得到上述實驗1的預期結果。實驗2采用憤怒和恐懼情緒面孔為解釋情緒在fWHR與攻擊性行為間關系的作用提供證據。根據已有研究, 高低fWHR分別與憤怒和恐懼情緒密切相關(Deska et al., 2018; Merlhiot et al., 2021), 如果實驗1的解釋成立, 即具體情緒在面孔寬高比預測他人評價某個體攻擊性水平中起作用, 那么我們預期憤怒情緒促進高fWHR的自動加工, 而恐懼情緒促進低fWHR的自動加工。最后, 通過對比實驗1和實驗2可以考察面孔情緒線索明確性對高低fWHR自動加工程度的影響。

2 實驗1:中性情緒fWHR的自動加工

2.1 方法

2.1.1 被試

根據G*Power (Faul et al., 2007)計算, 對于本實驗采用的2 (fWHR: 高 vs. 低) × 2 (刺激類型: 標準 vs. 偏差)的被試內實驗設計至少需要33名被試(η2 p = 0.06, 檢驗力: 80%, α = 0.01; Wang et al., 2022)才能得到高低寬高比面孔誘發vMMN的差異。最終招募41名被試(女生19名, 21.05 ± 1.70歲), 所有被試身體健康, 視力正?;虺C正后正常, 實驗前均簽署知情同意書。本實驗已得到山東師范大學心理學院倫理研究委員會的批準。

2.1.2 實驗材料

本實驗所用面孔刺激選自中國面孔情緒圖片庫(Chinese Facial Affective Picture System, CAFPS, 龔栩等, 2011), 并使用Image J (National Institutes of Health open-source software)軟件測量113張男性中性情緒(即圖片庫中平靜情緒)面孔的fWHR——左右顴骨之間的距離(寬度)以及眉心和上唇最高點之間的距離(高度; Carré & McCormick, 2008; Weston et al., 2007), 寬度除以高度得到所有面孔fWHR的平均值和標準差(比值: 1.620 ± 0.080)。根據已有研究(Carré et al., 2013), 高于平均值一個標準差為高fWHR, 低于平均值一個標準差為低fWHR。最終得到3張高fWHR (fWHR: 1.744、1.745、1.781)和3張低fWHR (fWHR: 1.436、1.520、1.520)面孔(圖1), 高fWHR值顯著高于低fWHR,(4) = 8.669,= 0.001, Cohen’s= 0.962。根據圖片庫提供的信息, 本實驗所使用中性情緒面孔高、低fWHR的情緒認同度分別為80.073% ± 5.362% vs. 76.087% ± 8.490%, 情緒強度的評分分別為5.775 ± 0.075 vs. 5.608 ± 0.138 (1為最弱, 9為最強); 高、低fWHR的情緒認同度和強度值都不存在顯著差異(s ≥ 0.466), 這表明, 高低寬高比面孔情緒強度和認同度的差異在一定程度上得到控制, 較少或不影響我們對實驗主要結果寬高比機制的分析。我們通過Photoshop CC 14.0 (Adobe Systems)軟件對面孔進行處理, 調整其大小為6.6° × 7.7° (170 × 198像素)。

圖1 實驗刺激圖片示例。中性情緒面孔用于實驗1, 憤怒和恐懼情緒面孔用于實驗2。

2.1.3 實驗程序

實驗1采用與已有研究相似的反向oddball實驗范式(Stefanics et al., 2012; Wang et al., 2014; Wang et al., 2022), 在該范式中同一個刺激在不同block中既是偏差刺激也是標準刺激, 這樣可以允許我們考察相同物理刺激誘發的vMMN, 從而減少低級物理刺激屬性對ERP成分的影響。正式實驗由2個block組成, 每個block共有300個試次, 其中標準刺激240個試次(80%), “+”大小為24號; 偏差刺激30個試次(10%), “+”大小為24號; 目標刺激30個試次(10%), “+”大小為32號, 但是其所呈現的面孔為標準刺激面孔。所有刺激在每個block中隨機呈現, block順序在被試間進行平衡。在一個block中高fWHR作為偏差刺激, 低fWHR作為標準刺激和目標刺激, 因而, 每張高、低fWHR刺激分別呈現10次和90次; 在另一個block中低fWHR作為偏差刺激, 高fWHR作為標準刺激和目標刺激,因而, 每張高、低fWHR刺激分別呈現90次和10次。

每個試次開始時先呈現200 ms注視點“+”, 之后呈現高或低fWHR刺激300 ms, 然后呈現450 ms的反應屏, 最后呈現600~800 ms隨機間隔。注視點始終呈現在屏幕中, 被試需要探測面孔刺激呈現時“+”的變化, 當它變大(即由“24”號變為“32”號)時按F或J鍵。被試的按鍵反應從刺激呈現屏開始計算, 按鍵順序在被試間進行平衡。所有的刺激使用E-Prime 2.0 (Pittsburgh, PA, USA)呈現在19英寸DELL顯示器上(分辨率: 1024 × 768像素; 刷新率: 60 Hz), 屏幕中心與被試的距離為60 cm。

2.2 腦電記錄與處理

腦電記錄使用美國Neuroscan公司生產的EEG系統。被試佩戴64導腦電帽, 以左眼眶額上、下部的兩電極記錄垂直眼電(VEOG), 以兩眼外側1.5 cm處的兩電極記錄水平眼電(HEOG)。采集數據時, 信號阻率小于10 kΩ, 采樣率為500 Hz, 濾波為0.05~ 100 Hz, 物理參考電極位于CZ和CPZ之間。原始數據由基于MATLAB (R2015a, The MathWorks, Natick, MA)的插件letswave7 (https://letswave.cn)進行預處理, 使用band-pass濾波方式過濾出了0.1~ 30 Hz頻率的信號, 采用全腦電極平均的方式進行參考重設, 使用獨立成分分析算法識別并去除眼動成分。面孔刺激出現前200 ms至出現后600 ms (?200~600 ms)進行分段, 分段后根據 ± 75 μV的信號范圍對所有分段的數據進行了偽跡去除。高fWHR偏差刺激、高fWHR標準刺激、低fWHR偏差刺激和低fWHR標準刺激的試次數分別是23.44 ± 3.96、208.34 ± 37.66、24.29 ± 3.73、218.78 ± 35.44。

基于已有研究(Kecskés-Kovács et al., 2013)和本實驗腦電地形圖, 選擇后部P3/4、PO5/6和PO7/8電極, 對P1 (90~120 ms)、N170 (130~200 ms)成分的波幅(峰基線值, 即相應時間段內波幅最高點和最低點分別到基線X軸的垂直距離)和峰潛伏期(相應時間段內波幅最高點和最低點出現的時間點)及vMMN成分所在時間窗口內的平均波幅進行了2 (fWHR: 低、高) × 2 (刺激類型: 偏差刺激、標準刺激) × 3 (電極: P3/P4、PO5/PO6、PO7/PO8) × 2 (半球: 左半球、右半球)的重復測量方差分析。本研究采用SPSS Statistics 21.0 (Armonk, NY: IBM Corp)進行統計分析, 非球形性時使用Greenhouse-Geisser校正值, 利用Bonferroni校正來解釋多重比較和事后分析。

對vMMN成分進行傳統常規分析方法前, 我們采用基于從聚的置換檢驗(cluster-based permutation test)進行探索性分析來確定vMMN成分時域分析時間窗口并控制多重比較問題。ERP傳統分析方法側重于分析特定時間窗口內記錄的單個電極或一小組電極上的數據, 基于從聚的置換檢驗通過構建一個假定兩個實驗條件沒有差異的零分布與實際觀測進行對比(Maris & Oostenveld, 2007), 允許對ERP振幅在所有電極和所有時間樣本上進行比較(Sassenhagen & Draschkow, 2019)。雖然本實驗是兩因素實驗設計, 但是我們對感興趣的兩個實驗條件進行了配對樣本檢驗, 具體對比如下:(1)高fWHR條件下標準刺激和偏差刺激的差異; (2)低fWHR條件下標準刺激和偏差刺激的差異; (3)以標準刺激和偏差刺激反應之差作為vMMN指標, 高fWHR和低fWHR條件下的vMMN差異。原因在于, 研究者認為基于從聚的置換檢驗不能保證方差分析的有效性(Groppe et al., 2011), 同時已有采用基于從聚的置換檢驗的研究也是進行的配對樣本檢驗分析(Vormbrock et al., 2023; Zochowska et al., 2021)。本研究選取刺激呈現后的0~600 ms作為置換檢驗時間窗口對所有電極點的反應進行分析, 使用配對樣本檢驗比較感興趣兩個條件在所有電極點以及時間上的差異, 差異在0.05水平上顯著且在時間和空間位置上鄰近的數據點將會被認定為從聚。之后計算每個從聚內所有電極?時間點的值之和作為從聚水平統計量, 使用蒙特卡羅法(Monte Carlo method)進行顯著性檢驗(α = 0.05), 隨機抽樣2000次。

2.3 結果

2.3.1 行為結果

對正確率和反應時分別進行配對樣本檢驗結果顯示, 對高寬高比目標(98.79% ± 0.25%)和低寬高比目標(98.96% ± 0.13%)反應的正確率不存在顯著差異(= 0.366); 低寬高比目標刺激(544 ± 7 ms)的反應時顯著快于高寬高比目標刺激(563 ± 7 ms),(40) = ?5.851,< 0.001, Cohen’s= 0.816, 95% CI = [?28.158, ?12.454]。

2.3.2 ERP結果

P1

波幅結果顯示, 半球主效應顯著,(1, 40) = 4.109,0.049, η2 p = 0.093; fWHR主效應不顯著(= 0.825)。潛伏期結果顯示, 刺激類型主效應顯著,(1, 40) = 20.569,0.001, η2 p = 0.340。fWHR × 刺激類型 × 電極 × 半球的交互作用顯著,(2, 80) = 6.189,0.005, η2 p = 0.134, 在PO5/6和PO7/8電極上高fWHR偏差刺激誘發的P1早于標準刺激(PO5: 113 ± 1 vs. 117 ± 1 ms,= 0.024, 95% CI = [?0.006, ?0.000], PO6: 113 ± 1 vs. 115 ± 1 ms,0.041, 95% CI = [?0.004, ?0.001]; PO7: 110 ± 2 vs. 116 ± 1 ms,= 0.001, 95% CI = [?0.009, ?0.003], PO8: 112 ± 1 vs. 115 ± 1 ms,= 0.017, 95% CI = [?0.004, ?0.000]), 在PO8電極上低fWHR偏差刺激誘發更早的P1 (110 ± 2 vs. 114 ± 1 ms,= 0.011, 95% CI = [?0.007, ?0.001])。

N170

波幅結果顯示, 刺激類型的主效應顯著,(1, 40) = 11.128,0.002, η2 p = 0.206, 偏差刺激比標準刺激誘發更負的N170 (?1.419 ± 0.372 vs. ?0.972 ± 0.551 μV, 95% CI = [?0.717, ?0.177])。fWHR × 刺激類型交互作用顯著,(1, 40) = 17.125,0.001, η2 p = 0.285, 高fWHR的偏差刺激較標準刺激誘發更負的N170 (?1.717 ± 0.589 vs. ?0.571 ±0.534 μV,0.001, 95% CI = [?1.588, ?0.703]), 低fWHR的偏差刺激與標準刺激誘發波幅差異不顯著(= 0.242)。潛伏期結果顯示, 刺激類型×半球交互作用顯著,(1, 40) = 5.037,0.027, η2 p = 0.117, 右半球標準刺激比偏差刺激誘發更早的N170 (168 ± 3 vs. 170 ± 3 ms,= 0.048, 95% CI = [?0.004, ?0.000])。

vMMN

基于從聚的置換檢驗結果顯示, 高低fWHR標準刺激與偏差刺激的差異在時間和空間上廣泛分布。高fWHR條件下標準刺激與偏差刺激的差異在我們感興趣的枕顳葉區(除P1, P2, PZ)表現為, 在刺激呈現后228~600 ms間偏差刺激較標準刺激誘發的波幅更負。相反, 低fWHR條件下標準刺激和偏差刺激的差異在刺激呈現后300~600 ms的枕顳葉區域(P1, P3, PZ, PO3, PO4, PO5, PO7, PO8, POZ)表現為偏差刺激較標準刺激誘發的波幅更正。重要的是, 對比高、低fWHR誘發的vMMN發現, 枕顳葉區域(P1, P3, P4, P5, P6, P7, P8, PO3, PO4, PO5, PO6, PO7, PO8, POZ)在刺激呈現后254~600 ms內差異顯著, 高fWHR誘發的vMMN顯著大于低fWHR (圖2)。結合上述基于從聚的置換檢驗結果以及已有研究中對vMMN成分的分析(200~440 ms, Wang et al., 2022), 本研究選取200~500 ms作為時間窗口對vMMN成分進行重復測量方差分析。

200~500 ms結果顯示, 刺激類型主效應顯著,(1, 40) = 52.173,0.001, η2 p = 0.566, 偏差刺激誘發的波幅較標準刺激更負(2.576 ± 0.471 vs. 3.323 ± 0.449 μV, 95% CI = [?0.955, ?0.538]), 表明該時間段存在vMMN成分。此外, fWHR × 刺激類型交互作用顯著,(1, 40) = 21.588,0.001, η2 p = 0.351; fWHR × 刺激類型 × 電極交互作用顯著,(2, 80) = 7.493,0.004, η2 p = 0.158, 進一步分析發現, 在P3/4、PO5/6和PO7/8電極上, 高fWHR偏差刺激較標準刺激誘發的波幅更負(s < 0.001, P3/4: 2.463 ± 0.386 vs. 3.282 ± 0.395 μV, 95% CI = [?1.178, ?0.460], PO5/6: 2.617 ± 0.614 vs. 4.382 ± 0.585 μV, 95% CI = [?2.276, ?1.255], PO7/8: 1.506 ± 0.545 vs. 3.463 ± 0.548 μV, 95% CI = [?2.495, ?1.420]), 低fWHR的偏差刺激與標準刺激誘發波幅差異不顯著(s ≥ 0.456)。這表明, 高fWHR能夠誘發vMMN, 進行自動加工。

圖2 實驗1基于從聚的置換檢驗結果。高fWHR和低fWHR誘發的vMMN存在顯著差異的從聚p值地形圖。

已有研究發現面孔構形信息的自動加工存在時序上的變化(Wang et al., 2022), 本實驗基于從聚的置換檢驗結果也顯示高低fWHR誘發的vMMN存在時間窗的差異, 高fWHR在感興趣電極點(P3/4; PO5/6; PO7/8)上誘發的vMMN表現為刺激呈現228 ms后連續出現, 低fWHR在感興趣電極點(P3, PO5, PO7/8)上的vMMN以16~124 ms (平均值為50.44 ms)的時間片段斷續出現。因此, 為了更清楚地考察不同時間段內高、低寬高比面孔誘發的vMMN, 接下來我們對vMMN以50 ms為時間窗口進行分段統計分析(圖3), 以便更清楚地研究其時間進程, 類似的時間窗劃分在已有面孔vMMN (Kreegipuu et al., 2013; Wang et al., 2014; Wang et al., 2022)研究中也被使用過。如果能得到刺激類型與其他自變量間顯著的交互作用, 尤其是fWHR × 刺激類型間顯著的交互作用, 并且簡單效應分析能得到高、低fWHR都能誘發vMMN (偏差刺激誘發的波幅較標準刺激更負), 那么我們將以vMMN (偏差刺激誘發的波幅減去標準刺激誘發的波幅)為指標做進一步分析, 考察高、低fWHR自動加工程度的差異。

200~250 ms結果顯示, 刺激類型主效應顯著,(1, 40) = 23.502,0.001, η2 p = 0.370, 偏差刺激誘發的波幅較標準刺激更負(4.117 ± 0.591 vs. 4.685 ± 0.582 μV, 95% CI = [?0.804, ?0.331])。此外, 刺激類型×半球交互作用顯著,(1, 40) = 4.537,0.039,η2 p = 0.102, 左右半球上均表現為偏差刺激較標準刺激誘發的波幅更負(s ≤ 0.003, 左半球: 3.749 ± 0.622 vs. 4.137 ± 0.621 μV, 95% CI = [?0.633, ?0.143], 右半球: 4.485 ± 0.664 vs. 5.233 ± 0.654 μV, 95% CI = [?1.079, ?0.416])。以vMMN為指標進行分析發現, 右半球誘發的vMMN更大(= 0.039, 95% CI = [?0.700, ?0.018])。

圖3 實驗1 ERP結果波形圖(A)和300~350 ms的地形圖(B)。差異波指的是由偏差刺激減去標準刺激誘發的ERP波形。(A)陰影部分指的是偏差刺激誘發波幅較標準刺激更負, 即存在vMMN的時間窗; (B)黃色圓點指的是偏差刺激誘發波幅較標準刺激更負的電極點(P3/4、PO5/6和PO7/8)。

250~300 ms結果顯示, 刺激類型主效應顯著,(1, 40) = 55.353,0.001, η2 p = 0.581, 偏差刺激誘發的波幅較標準刺激更負(3.513 ± 0.552 vs. 4.496 ± 0.531 μV, 95% CI = [?1.250, ?0.716])。重要的是, fWHR × 刺激類型交互作用顯著,(1, 40) = 11.149,0.002, η2 p = 0.218, 高fWHR偏差刺激誘發的波幅較標準刺激更負(3.273 ± 0.562 vs. 4.869 ± 0.553 μV,< 0.001, 95% CI = [?2.043, ?1.150]), 低fWHR的偏差刺激與標準刺激誘發波幅差異不顯著(0.119)。此外, 刺激類型×半球交互作用顯著,(1, 40) = 4.733,0.036, η2 p = 0.106, 左右半球上均表現為偏差刺激較標準刺激誘發的波幅更負(s ≤ 0.001, 左半球: 3.126 ± 0.561 vs. 3.919 ± 0.530 μV, 95% CI = [?1.113, ?0.474], 右半球: 3.900 ± 0.670 vs. 5.073 ± 0.655 μV, 95% CI = [?1.494, ?0.852])。以vMMN為指標進行分析發現, 右半球誘發的vMMN更大(= 0.036, 95% CI = [?0.733, ?0.027])。

300~350 ms結果顯示, 刺激類型主效應顯著,(1, 40) = 72.457,0.001, η2 p = 0.644, 偏差刺激誘發的波幅較標準刺激更負(2.368 ± 0.511 vs. 3.313 ± 0.490 μV, 95% CI = [?1.168, ?0.720])。重要的是, fWHR × 刺激類型交互作用顯著,(1, 40) = 16.713,0.001, η2 p = 0.295, 高fWHR偏差刺激較標準刺激誘發的波幅更負(2.026 ± 0.532 vs. 3.725 ± 0.510 μV,< 0.001, 95% CI = [?2.114, ?1.284]), 低fWHR的偏差刺激與標準刺激誘發波幅差異不顯著(0.405)。此外, fWHR × 刺激類型×半球的交互作用顯著,(1, 40) = 6.436,0.015, η2 p = 0.139, 在左半球高fWHR偏差刺激較標準刺激誘發的波幅更負(1.820 ± 0.544 vs. 3.490 ± 0.535 μV,< 0.001, 95% CI = [?2.115, ?1.224]), 右半球高、低fWHR偏差刺激較標準刺激誘發的波幅更負(s ≤ 0.009, 高fWHR: 2.231 ± 0.628 vs. 3.959 ± 0.591 μV, 95% CI = [?2.217, ?1.240], 低fWHR: 2.563 ± 0.648 vs. 3.256 ± 0.588 μV, 95% CI = [?1.207, ?0.179])。以vMMN為指標進行分析發現, 高fWHR比低fWHR在右半球上誘發更大的vMMN (?1.728 ± 0.242 vs. ?0.693 ± 0.254 μV,= 0.010, 95% CI = [?1.804, ?0.266])。

350~400 ms結果顯示, 刺激類型主效應顯著,(1, 40) = 21.817,0.001, η2 p = 0.353, 偏差刺激誘發的波幅較標準刺激更負(2.654 ± 0.454 vs. 3.236 ± 0.418 μV, 95% CI = [?0.834, ?0.330])。重要的是, fWHR × 刺激類型交互作用顯著,(1, 40) = 32.146,0.001, η2 p = 0.446, 高fWHR偏差刺激誘發的波幅較標準刺激更負(2.104 ± 0.483 vs. 3.692 ± 0.443 μV,< 0.001, 95% CI = [?2.064, ?1.113]), 而低fWHR標準刺激誘發的波幅較偏差刺激更負(2.780 ± 0.419 vs. 3.205 ± 0.470 μV,= 0.037, 95% CI = [?0.823, ?0.027])。此外, 刺激類型×半球交互作用顯著,(1, 40) = 8.960,0.005, η2 p = 0.183, 左右半球上均表現為偏差刺激較標準刺激誘發的波幅更負(s ≤ 0.023, 左半球: 2.921 ± 0.469 vs. 3.245 ± 0.441 μV, 95% CI = [?0.602, ?0.048], 右半球: 2.387 ± 0.548 vs. 3.226 ± 0.483 μV, 95% CI = [?1.171, ?0.507])。以vMMN為指標進行分析發現, 右半球誘發的vMMN更大(= 0.005, 95% CI = [?0.862, ?0.167])。

400~450 ms結果顯示, 刺激類型主效應顯著,(1, 40) = 31.429,0.001, η2 p = 0.440, 偏差刺激誘發的波幅較標準刺激更負(1.764 ± 0.449 vs. 2.453 ± 0.421 μV, 95% CI = [?0.913, ?0.426])。fWHR × 刺激類型交互作用顯著,(1, 40) = 30.727,0.001, η2 p = 0.434, 高fWHR偏差刺激誘發的波幅較標準刺激更負(1.163 ± 0.463 vs. 2.936 ± 0.431 μV,< 0.001, 95% CI = [?2.231, ?1.316]), 低fWHR的偏差刺激與標準刺激誘發波幅差異不顯著(0.077)。

450~500 ms結果顯示, 刺激類型主效應顯著,(1, 40) = 34.891,0.001, η2 p = 0.466, 偏差刺激誘發的波幅較標準刺激更負(0.991 ± 0.452 vs. 1.722 ± 0.422 μV, 95% CI = [?0.981, ?0.481])。fWHR × 刺激類型交互作用顯著,(1, 40) = 36.899,0.001, η2 p = 0.480, 高fWHR偏差刺激誘發的波幅較標準刺激更負(0.331 ± 0.449 vs. 2.231 ± 0.434 μV,< 0.001, 95% CI = [?1.889, ?0.752]), 而低fWHR標準刺激誘發的波幅較偏差刺激更負(1.212 ± 0.431 vs. 1.651 ± 0.497 μV,< 0.001, 95% CI = [?1.392, ?0.646])。

綜上, 對200~500 ms平均波幅的分析發現, fWHR能誘發vMMN。具體表現為, 高fWHR在整個時間窗口上均誘發了vMMN, 低fWHR僅在200~250 ms和300~350 ms時間窗口上誘發了vMMN。雖然低fWHR在350~400 ms和450~500 ms時間段也能得到偏差刺激與標準刺激間的顯著差異, 但是, 這時表現出的差異是標準刺激比偏差刺激更負。根據已有研究, vMMN指的是偏差刺激比標準刺激誘發的波幅更負的結果, 而標準刺激比偏差刺激更負的結果則被稱作vMMP (visual Mismatch Positivity; Sulykos & Czigler, 2011), 因而, 低fWHR在350~ 400 ms和450~500 ms誘發的不是vMMN。值得注意的是, 以vMMN為指標的分析發現, 在300~350 ms高fWHR比低fWHR誘發更大的vMMN。總之, 本實驗結果表明, 與低fWHR相比, 高fWHR的自動加工時間較長, 強度更大。

3 實驗2:恐懼和憤怒情緒fWHR的自動加工

3.1 方法

3.1.1 被試

根據G*Power (Faul et al., 2007)計算, 實驗2至少需要22名被試(η2 p = 0.06, 檢驗力: 80%, α = 0.01)才能得到2 (情緒: 憤怒 vs. 恐懼) × 2 (fWHR: 高 vs. 低) × 2 (刺激類型: 標準 vs. 偏差)重復測量方差分析的交互作用。最終25名被試(女生13名, 20.56 ± 1.635歲)進行了實驗, 所有被試身體健康, 視力正常或矯正后正常, 在實驗前均簽署知情同意書。本實驗已得到山東師范大學心理學院倫理研究委員會的批準。

3.1.2 實驗材料

從CAFPS圖片庫選取男性恐懼情緒和憤怒情緒面孔各37張。與實驗1相同, 使用ImageJ測量得到男性恐懼情緒面孔fWHR的平均值和標準差(1.760 ± 0.152)、憤怒情緒面孔fWHR的平均值和標準差(1.690 ± 0.153), 選取高于平均值一個標準差為高fWHR, 低于平均值一個標準差為低fWHR, 最終得到6張高fWHR憤怒情緒面孔(fWHR: 1.949 ± 0.147)、6張高fWHR恐懼情緒面孔(fWHR: 2.000 ± 0.135)、6張低fWHR憤怒情緒面孔(fWHR: 1.505 ± 0.058)及6張低fWHR恐懼情緒面孔(fWHR: 1.558 ± 0.067; 圖1); 憤怒和恐懼情緒高fWHR值都顯著大于低fWHR, 憤怒:(10) = 6.262,< 0.001, Cohen’s= 0.874; 恐懼:(10) = 6.568,< 0.001, Cohen’s= 0.885。根據圖片庫提供的信息, 本實驗所使用憤怒情緒面孔高、低fWHR的情緒認同度分別為81.313% ± 12.218% vs. 75.597% ± 15.152%, 情緒強度的評分分別為6.305 ± 1.658 vs. 6.153 ± 1.285; 恐懼情緒面孔高、低fWHR的情緒認同度分別為73.232% ± 7.498% vs. 72.317% ± 9.425%, 情緒強度的評分分別為6.003 ± 0.762 vs. 6.354 ± 1.189。我們對憤怒和恐懼情緒高低fWHR的情緒認同度和強度值分別進行2 (fWHR: 高、低) × 2 (面孔情緒: 憤怒、恐懼)統計分析, 結果未發現任何顯著差異(s≥ 0.359); 這表明, 憤怒和恐懼情緒高低寬高比面孔的情緒強度和認同度的差異在一定程度上得到控制, 較少或不影響我們對實驗主要結果寬高比機制的分析。

3.1.3 實驗程序

與實驗1相同, 實驗2采用反向oddball實驗范式, 共包含4個block, 憤怒情緒和恐懼情緒分別由兩個block組成。每個block有600個試次, 其中標準刺激420個試次(70%), “+”大小為24號; 偏差刺激120個試次(20%), “+”大小為24號; 目標刺激60個試次(10%), “+”大小為32號, 但是其所呈現的面孔與標準刺激一致。其他與實驗1相同。對于憤怒情緒, 一個block是高fWHR憤怒情緒面孔作為偏差刺激, 低fWHR憤怒情緒面孔作為標準刺激和目標刺激, 因而, 每張高、低fWHR刺激分別呈現20次和80次; 另一個block是低fWHR憤怒情緒面孔作為偏差刺激, 高fWHR憤怒情緒面孔作為標準刺激和目標刺激, 因而, 每張高、低fWHR刺激分別呈現80次和20次; 恐懼情緒同理。

3.2 腦電記錄與處理

腦電記錄與分析方法和實驗1相同。其中, 高fWHR憤怒情緒面孔偏差刺激、低fWHR憤怒情緒面孔標準刺激、低fWHR憤怒情緒面孔偏差刺激、高fWHR憤怒情緒面孔標準刺激的試次數分別是110.44 ± 18.29、390.08 ± 61.45、106.16 ± 17.76、366.40 ± 64.78; 高fWHR恐懼情緒面孔偏差刺激、低fWHR恐懼情緒面孔標準刺激、低fWHR恐懼情緒面孔偏差刺激、高fWHR恐懼情緒面孔標準刺激的試次數分別是107.72 ± 16.87、379.76 ± 54.76、112.32 ± 13.15、392.52 ± 47.23。本實驗對P1 (90~ 120 ms)、N170 (130~200 ms)成分的波幅(峰基線值)和峰潛伏期及vMMN成分所在時間段的平均波幅進行2 (fWHR: 低、高) × 2 (刺激類型: 偏差刺激、標準刺激) × 2 (面孔情緒: 憤怒、恐懼) × 3 (電極: P3/P4、PO5/PO6、PO7/PO8) × 2 (半球: 左半球、右半球)的重復測量方差分析。非球形性時使用Greenhouse-Geisser校正值, 利用Bonferroni校正來解釋多重比較和事后分析。基于從聚的置換檢驗進行的配對樣本檢驗分析如下: (1)標準刺激和偏差刺激的差異; (2)高fWHR條件下, 憤怒和恐懼情緒下vMMN的差異; (3)低fWHR條件下, 憤怒和恐懼情緒下vMMN的差異。

3.3 結果

3.3.1 行為結果

憤怒情緒高fWHR、憤怒情緒低fWHR、恐懼情緒高fWHR和恐懼情緒低fWHR目標面孔的正確率分別為99.19% ± 0.17%、99.38% ± 0.11%、99.32% ± 0.13%、99.36% ± 0.12%; 反應時分別為580 ± 12 ms、582 ± 12 ms、570 ± 12 ms、567 ± 12 ms。對正確率和反應時分別進行2 (fWHR: 低、高) × 2 (面孔情緒: 憤怒、恐懼)重復測量方差分析發現, 正確率上不存在任何顯著效應(s ≥ 0.092); 反應時上發現情緒主效應顯著,(1, 24) = 10.437,= 0.004, η2 p = 0.303, 憤怒情緒目標面孔的反應時顯著長于恐懼情緒(581 ± 12 vs. 568 ± 12 ms, 95% CI = [4.593, 20.840]), 其他效應均不顯著(s ≥ 0.485)。

3.3.2 腦電結果

P1

波幅結果顯示, 刺激類型主效應顯著,(1, 24) = 7.006,0.014, η2 p = 0.226, 偏差刺激比標準刺激誘發更正的P1 (3.698 ± 0.236 vs. 3.572 ± 0.217 μV, 95% CI = [0.028, 0.225]); fWHR主效應不顯著(= 0.188)。情緒 × fWHR的交互作用顯著,(1, 24) = 5.892,0.023, η2 p = 0.197, 情緒 × fWHR × 半球的交互作用顯著,(1, 24) = 5.781,0.024, η2 p = 0.194; 在左半球, 高fWHR恐懼面孔比憤怒面孔誘發更大P1 (3.295 ± 0.240 vs. 3.002 ± 0.210 μV,= 0.004, 95% CI = [0.102, 0.485])。

潛伏期結果顯示, 情緒主效應顯著,(1, 24) = 6.820,0.015, η2 p = 0.221, 情緒和半球的交互作用顯著,(1, 24) = 5.041,0.034, η2 p = 0.174, 在右半球發現憤怒情緒面孔比恐懼情緒誘發更早的P1 (114 ± 1 vs. 116 ± 1 ms,0.007, 95% CI = [?0.002, ?0.000])。

N170

波幅結果顯示, 情緒 × fWHR × 半球的交互作用顯著,(1, 24) = 5.646,0.026, η2 p = 0.190, 在右半球, 憤怒情緒高fWHR比低fWHR誘發更負N170 (?3.355 ± 0.703 vs. ?3.057 ± 0.697 μV,= 0.008, 95% CI = [?0.444, ?0.229]), 其他條件差異不顯著(s ≥ 0.161)。

潛伏期結果顯示, 情緒主效應顯著,(1, 24) = 9.276,0.006, η2 p = 0.279, 憤怒情緒比恐懼情緒誘發更早的N170 (180 ± 2 vs. 182 ± 2 ms, 95% CI = [?0.003, ?0.001])。fWHR主效應顯著,(1, 24) = 26.999,0.001, η2 p = 0.529, 高fWHR比低fWHR誘發更早的N170 (180 ± 2 vs. 182 ± 2 ms, 95% CI = [?0.003, ?0.001])。此外, 情緒 × fWHR交互作用顯著,(1, 24) = 5.122,0.033, η2 p = 0.176, 情緒 × fWHR × 電極交互作用顯著,(2, 48) = 4.904,0.018, η2 p = 0.170; 進一步分析發現, 在PO5/6電極上, 憤怒和恐懼情緒均表現為高fWHR比低fWHR誘發更早N170 (憤怒: 180 ± 2 vs. 184 ± 2 ms,= 0.002, 95% CI = [?0.006, ?0.002], 恐懼: 183 ± 2 vs. 184 ± 2 ms,= 0.004, 95% CI = [?0.003, ?0.001]), 在PO7/8電極上表現為憤怒情緒高fWHR比低fWHR誘發更早N170 (178 ± 2 vs. 182 ± 2 ms,< 0.001, 95% CI = [?0.005, ?0.002])。

vMMN

基于從聚的置換檢驗結果顯示, 在額葉、中央區和頂葉區域(AF4, F2, F4, F6, FC1, FC2, FC4, CZ, C1, C2, C4, C6, CPZ, CP1, CP2, CP4, CP6, PZ, P1, P2, POZ), 面孔刺激呈現后194~430 ms標準刺激誘發的波幅較偏差刺激更負?;趶木鄣闹脫Q檢驗未發現高、低fWHR在不同情緒間誘發vMMN的差異。雖然實驗2的置換檢驗未在本研究所感興趣的電極點上(P3/4, PO5/6, PO7/8)發現vMMN, 但是考慮到實驗2與實驗1的邏輯關系, 以及對實驗1和實驗2結果進行對比的需要, 本實驗選用與實驗1相同的時間窗和電極點對vMMN成分平均波幅進行重復測量方差分析。

200~500 ms結果顯示, 刺激類型主效應顯著,(1, 24) = 7.422,0.012, η2 p = 0.236, 偏差刺激誘發的波幅較標準刺激更負(1.186 ± 0.424 vs. 1.328 ± 0.392 μV, 95% CI = [?0.249, ?0.034]), 表明該時間段存在vMMN成分。fWHR主效應顯著,(1, 24) = 70.097,0.001, η2 p = 0.745, 高fWHR誘發的波幅比低fWHR更正(1.402 ± 0.408 vs. 1.112 ± 0.407 μV, 95% CI = [0.218, 0.361])。此外, 情緒 × fWHR × 半球交互作用顯著,(1, 24) = 6.287,0.019, η2 p = 0.208, 各半球上憤怒情緒高fWHR比低fWHR誘發更正波幅(s ≤ 0.046, 左半球: 1.130 ± 0.368 vs. 0.754 ± 0.358 μV, 95% CI = [0.259, 0.493], 右半球: 1.461 ± 0.529 vs. 1.315 ± 0.507 μV, 95% CI = [0.003, 0.288]), 各半球上恐懼情緒高fWHR比低fWHR誘發更正波幅(s ≤ 0.001, 左半球: 1.179 ± 0.331 vs. 0.883 ± 0.349 μV, 95% CI = [0.133, 0.459], 右半球: 1.839 ± 0.502 vs. 1.496 ± 0.514 μV, 95% CI = [0.192, 0.493])。

圖4 實驗2 ERP結果波形圖。A: 憤怒情緒面孔, B: 恐懼情緒面孔。差異波指的是由偏差刺激減去標準刺激誘發的ERP波形; 陰影部分指的是偏差刺激誘發的波幅較標準刺激更負, 即存在vMMN的時間窗。

為了更清楚地考察不同時間段內憤怒和恐懼情緒高、低寬高比面孔誘發的vMMN, 與實驗1一致, 接下來我們以50 ms為時間窗口進行分段統計分析(圖4)。能反映本實驗預期的結果是情緒× fWHR × 刺激類型出現顯著的交互作用, 如果簡單效應分析能得到憤怒和恐懼情緒高、低fWHR能誘發vMMN (偏差刺激誘發的波幅較標準刺激更負), 那么我們將以vMMN (偏差刺激誘發的波幅減去標準刺激誘發的波幅)為指標做進一步分析, 考察憤怒和恐懼情緒高、低fWHR自動加工程度的差異。

200~250 ms結果顯示, 刺激類型主效應顯著,(1, 24) = 5.909,0.023, η2 p = 0.198, 偏差刺激誘發的波幅較標準刺激更負(1.417 ± 0.462 vs. 1.555 ± 0.433 μV, 95% CI = [?0.256, ?0.021])。fWHR主效應顯著,(1, 24) = 118.363,0.001, η2 p = 0.831; 重要的是, 情緒 × fWHR × 刺激× 電極× 半球交互作用顯著,(2, 48) = 3.832,0.032, η2 p = 0.138, 在P4/PO8電極上憤怒情緒高fWHR偏差刺激誘發的波幅較標準刺激更負(P4: 2.291 ± 0.547 vs. 2.694 ± 0.542 μV,0.039, 95% CI = [?0.784, ?0.022]; PO8: 1.298 ± 0.669 vs. 1.966 ± 0.664 μV,0.011, 95% CI = [?1.166, ?0.169]), 其他條件差異不顯著(s ≥ 0.119)。

250~300 ms結果顯示, 刺激類型主效應顯著,(1, 24) = 12.851,0.001, η2 p = 0.349, 偏差刺激誘發的波幅較標準刺激更負(2.041 ± 0.551 vs. 2.237 ± 0.530 μV, 95% CI = [?0.309, ?0.083])。fWHR主效應顯著,(1, 24) = 89.960,0.001, η2 p = 0.789; 重要的是, 情緒 × fWHR × 刺激× 電極× 半球交互作用顯著,(2, 48) = 3.488,0.044, η2 p = 0.127, 在PO6電極上憤怒情緒低fWHR偏差刺激誘發的波幅較標準刺激更負(2.467 ± 0.808 vs. 2.957 ± 0.820 μV,0.040, 95% CI = [?0.955, ?0.024]), 在PO5電極上恐懼情緒低fWHR偏差刺激誘發的波幅較標準刺激更負(1.484 ± 0.600 vs. 1.911 ± 0.551 μV,0.026, 95% CI = [?0.797, ?0.056])。

300~350 ms結果顯示, 刺激類型主效應顯著,(1, 24) = 8.056,0.009, η2 p = 0.251, 偏差刺激誘發的波幅較標準刺激更負(1.101 ± 0.489 vs. 1.291 ± 0.463 μV, 95% CI = [?0.329, ?0.052])。fWHR主效應顯著,(1, 24) = 86.854,0.001, η2 p = 0.783; 重要的是, 情緒 × fWHR × 刺激× 電極× 半球交互作用顯著,(2, 48) = 4.101,0.025, η2 p = 0.146, 在P3/PO5/PO8電極上憤怒情緒高fWHR偏差刺激誘發的波幅較標準刺激更負(P3: 1.068 ± 0.361 vs. 1.492 ± 0.291 μV,0.009, 95% CI = [?0.731, ?0.116]; PO5: 0.689 ± 0.580 vs. 1.097 ± 0.525 μV,0.044, 95% CI = [?0.804, ?0.012]; PO8: 0.775 ± 0.636 vs. 1.348 ± 0.702 μV,0.049, 95% CI = [?1.143, ?0.002]), 在PO5電極上恐懼情緒低fWHR偏差刺激誘發的波幅較標準刺激更負(0.239 ± 0.538 vs. 0.820 ± 0.510 μV,0.022, 95% CI = [?1.069, ?0.092])。以vMMN (PO5)為指標的分析發現, 憤怒情緒高fWHR誘發的vMMN與恐懼情緒低fWHR誘發的vMMN無差異,(24) = 0.649,= 0.522, 95% CI = [?0.376, 0.722]。

350~400 ms結果顯示, 刺激類型主效應顯著,(1, 24) = 6.866,0.015, η2 p = 0.222, 偏差刺激誘發的波幅較標準刺激更負(0.965 ± 0.411 vs. 1.121 ± 0.380 μV, 95% CI = [?0.279, ?0.033])。fWHR主效應顯著,(1, 24) = 15.172,0.001, η2 p = 0.387。雖然情緒 × fWHR × 刺激× 電極× 半球交互作用不顯著,(2, 48) = 2.515,0.098, η2 p = 0.095, 但是效應量達到中等, 并且主效應發現該時間段存在vMMN, 為了明確憤怒和恐懼情緒高、低寬高比面孔誘發的vMMN, 進一步分析發現, 在P3和PO8電極上憤怒情緒高fWHR偏差刺激誘發的波幅較標準刺激更負(P3: 0.613 ± 0.307 vs. 0.979 ± 0.229 μV,0.031, 95% CI = [?0.696, ?0.036]; PO8: 0.730 ± 0.553 vs. 1.343 ± 0.587 μV,0.035, 95% CI = [?1.180, ?0.047]), 在PO5電極上恐懼情緒低fWHR偏差刺激誘發的波幅較標準刺激更負(0.657 ± 0.435 vs. 1.109 ± 0.390 μV,0.035, 95% CI = [?0.870, ?0.035])。

400~450 ms結果顯示, fWHR主效應顯著,(1, 24) = 4.318,0.049, η2 p = 0.152; fWHR × 半球的交互作用顯著,(1, 24) = 6.225,0.020, η2 p = 0.206, 左半球上高fWHR誘發的波幅比低fWHR更正(1.153 ± 0.341 vs. 0.950 ± 0.339 μV,0.004, 95% CI = [0.071, 0.334])。刺激類型×電極的交互作用顯著,(2, 48) = 5.981,0.016, η2 p = 0.199, 僅在PO7/8電極上表現為偏差刺激誘發的波幅較標準刺激更負(1.049 ± 0.446 vs. 1.282 ± 0.388 μV,0.044, 95% CI = [?0.460, ?0.007]), 其他條件差異不顯著(s ≥ 0.199)。

450~500 ms結果顯示, fWHR主效應顯著,(1, 24) = 9.170,0.006, η2 p = 0.276, 高fWHR誘發的波幅比低fWHR更正(0.682 ± 0.361 vs. 0.543 ± 0.536 μV, 95% CI = [0.044, 0.234])。

總之, 在200~450 ms時間窗口內fWHR都能誘發vMMN成分。具體表現為, 憤怒情緒高fWHR在200~250 ms和300~400 ms能誘發vMMN, 而恐懼情緒低fWHR在左半球(PO5) 250~400 ms能誘發vMMN; 憤怒情緒高fWHR和恐懼情緒低fWHR在相同時間段和電極上誘發的vMMN不存在顯著差異。此外, 憤怒情緒低fWHR在右半球(PO6) 250~ 300 ms能誘發vMMN。這說明, 憤怒情緒主要促進高寬高比面孔的自動加工, 而恐懼情緒促進低寬高比面孔的自動加工; 但是, 二者對寬高比自動加工的促進程度不存在差異。需要注意的是, 本實驗在對200~500 ms整個時間窗口分析時發現fWHR在此時間段能誘發vMMN成分, 未發現與本實驗研究目的對應的結果, 即情緒 × fWHR × 刺激類型顯著的交互作用, 而僅在分時間窗分析時發現了與上述交互作用有關的結果。這說明, 非中性情緒面孔高低寬高比信息的自動加工可能存在時間窗的差別。其原因可能與情緒的加工有關, 情緒自動加工的元分析發現, 非中性情緒面孔在200~400 ms能誘發vMMN, 但是, 不同情緒自動加工的時間窗又存在差別(曾憲卿等, 2021), 這可能在一定程度上影響了作為知覺信息fWHR的自動加工, 因而, 本實驗整體分析時未得到上述交互作用。

4 實驗1 vs. 實驗2

雖然有研究發現, 與中性情緒面孔相比, 個體表現出的憤怒情緒會增加其面孔寬高比, 恐懼情緒會降低其面孔寬高比(Merlhiot et al., 2021), 但是, 對本研究實驗1和實驗2使用的不同情緒面孔寬高比的值進行2 (fWHR: 低、高) × 3 (面孔情緒: 中性、憤怒、恐懼)的統計分析并未發現情緒對fWHR值的影響,(2, 4) = 1.119,0.411。這與Merlhiot等人(2021)的實驗結果不一致, 其原因可能與本研究兩個實驗使用的是不同身份面孔有關。同時, 這在一定程度上增加了接下來對本研究兩個實驗間vMMN比較的有效性, 中性與憤怒情緒高寬高比以及中性與恐懼情緒低寬高比自動加工程度的差異較少或不受不同情緒寬高比差異的影響。對兩個實驗行為結果進行2 (fWHR: 低、高) × 3 (面孔情緒: 中性、憤怒、恐懼)的統計分析僅在反應時上發現fWHR × 情緒的交互作用顯著,(2, 88) = 5.864,= 0.004, η2 p = 0.118, 進一步分析發現, 對于高fWHR目標, 中性情緒的反應時顯著快于憤怒情緒(= 0.020), 其他情緒之間的差異均不顯著(≥ 0.307)。此外, 對兩個實驗面孔情緒強度和認同度的值分別進行2 (fWHR: 低、高) × 3 (面孔情緒: 中性、憤怒、恐懼)的統計分析也并未發現任何顯著差異(s≥ 0.232)。

為了進一步探討面孔情緒線索明確性對高低fWHR自動加工程度的影響, 我們對比了高fWHR中性和憤怒情緒面孔以及低fWHR中性和恐懼情緒面孔誘發的vMMN。結果發現, 對于高fWHR, 中性情緒和憤怒情緒均在200~250 ms的P4電極, 300~350 ms的P3/PO5/PO8電極, 350~400 ms的P3/PO8電極上誘發vMMN (表1)。進一步對這些時間點和電極上誘發的vMMN進行獨立樣本檢驗發現, 在300~350 ms的PO5/PO8和350~400 ms的PO8電極上, 中性比憤怒情緒面孔誘發更大的vMMN (300~350 ms的PO5:(64) = ?3.654,= 0.001, Cohen’s= 0.272, 95% CI = [?2.180, ?0.639]; 300~350 ms的PO8:(64) = ?3.455,= 0.001, Cohen’s= 0.289, 95% CI = [?2.581, ?0.690]; 350~400 ms的PO8:(64) = ?3.279,= 0.002, Cohen’s= 0.305, 95% CI = [?2.538, ?0.617])。對于低fWHR, 中性情緒和恐懼情緒誘發的vMMN在時間點和電極上未發現重疊(表2), 因而沒有做進一步的分析??傊? 這表明, 面孔情緒線索明確性影響高fWHR自動加工程度; 相比于中性情緒, 憤怒情緒減弱高fWHR的自動加工程度。

表1 中性和憤怒情緒高fWHR誘發的vMMN

注: 表中數值為各條件下偏差刺激較標準刺激誘發的波幅更負的值。

表2 中性和恐懼情緒低fWHR誘發的vMMN

注: 表中數值為各條件下偏差刺激較標準刺激誘發的波幅更負的值。

5 討論

本研究通過考察高低面孔寬高比誘發的vMMN為高低面孔寬高比在前注意加工階段表征某個體實際攻擊性或預測他人評價該個體攻擊性上的差異提供新的視角。實驗1采用中性情緒面孔考察高低面孔寬高比誘發的vMMN, 結果發現, 高fWHR在200~500 ms誘發了vMMN, 低fWHR僅在200~250 ms和300~350 ms誘發了vMMN。更為重要的是, 高fWHR比低fWHR在300~350 ms誘發更大的vMMN。這表明, 大腦在前注意加工階段能區分出高低面孔寬高比, 并且對高fWHR的自動加工程度更大。為了進一步考察面孔情緒線索明確時高低fWHR的自動加工, 實驗2呈現帶有憤怒和恐懼情緒的面孔, 結果發現, 憤怒情緒高fWHR在200~250 ms和300~400 ms以及憤怒情緒低fWHR在右半球250~300 ms能誘發vMMN, 而恐懼情緒低fWHR在左半球250~400 ms能誘發vMMN。這表明, 憤怒和恐懼情緒分別促進了高、低fWHR的自動加工, 并且憤怒情緒高fWHR的自動加工早于恐懼情緒低fWHR的自動加工。對比實驗1和實驗2的結果發現, 憤怒情緒較中性情緒減弱了高fWHR的自動加工程度。

已有研究發現, 面孔構形信息可以進行自動加工(Wang et al., 2022)。與此一致, 本研究發現隸屬于面孔構形信息的fWHR也能誘發vMMN, 進行自動加工。更重要的是, 本研究實驗1進一步發現高低fWHR的自動加工不僅在時間窗上不同, 而且在自動加工程度上也存在差異。具體表現為, 當面孔為中性情緒時, 相比低fWHR, 高fWHR自動加工的時間窗較長, 并且在300~350 ms自動加工程度更大, 這與我們的預期一致。這一結果可能與fWHR被感知的攻擊性水平有關, 已有研究發現, 相比于低fWHR, 個體對高fWHR的攻擊性感知較高(Carré et al., 2009), 因而, 與潛在威脅更密切的高fWHR的自動加工程度較大, 時間較長。

此外, 這一結果可能還與fWHR所表征的情緒線索有關。情緒研究發現, P1和N170分別對憤怒和恐懼情緒較敏感(Batty & Taylor, 2003), 這表明, 憤怒和恐懼可能在加工時間進程上存在差異。最近的一項關于情緒面孔誘發vMMN的元分析研究顯示, 雖然鮮有研究同時關注或對比憤怒和恐懼情緒誘發的vMMN (曾憲卿等, 2021), 但是, 對比不同的研究發現, 憤怒和恐懼誘發的vMMN分別出現在100~500 ms (Kovarski et al., 2017)和180~220 ms (Chen et al., 2020)。這表明, 憤怒和恐懼面孔在加工時間進程上存在差異, 憤怒情緒的自動加工時程長于恐懼。與此同時, 面孔寬高比的行為研究發現, 中性情緒高fWHR更多被感知為憤怒情緒, 而低fWHR更多被感知為恐懼情緒(Deska et al., 2018; Merlhiot et al., 2021)。因而, 高低fWHR分別表征的憤怒和恐懼情緒可能導致了我們實驗1得到的結果, 高fWHR比低fWHR的自動加工時程較長。

再者, 高低fWHR誘發vMMN的差異可能與憤怒和恐懼情緒表達不同類型的威脅性社會信號有關。憤怒表情意味著表達該表情的個體將要出現攻擊性行為, 而恐懼表情意味著表達該表情的個體感知到環境中潛在的威脅信息(Adams et al., 2003), 因而, 相比于恐懼表情, 被試感知憤怒表情表達的直接威脅性可能較大, 其自動加工程度和時程也可能大于恐懼情緒。這與已有研究發現的情緒面孔不僅僅是通過基礎的視覺特征或其簡單組合來誘發vMMN, 而是通過情緒類別信息誘發vMMN相吻合(Li et al., 2012; Stefanics et al., 2012)。與fWHR所被感知的情緒線索解釋一致, 我們實驗2進一步發現, 當面孔呈現憤怒和恐懼情緒時, 二者分別促進了高、低fWHR的自動加工。這表明, 情緒信息可能在前注意加工階段面孔寬高比表征某個體實際攻擊性或預測他人評價該個體攻擊性水平中起重要作用。與此同時, 由于憤怒表情表達的直接威脅性較大, 因而憤怒情緒低fWHR在一定程度上也能誘發vMMN, 進行自動加工。

根據已有研究提到的面孔情緒在fWHR預測他人評價某個體攻擊性水平中的作用(Carré et al., 2009), 我們預期憤怒情緒高fWHR的自動加工程度高于中性情緒高fWHR的自動加工。但是, 我們通過對比實驗1和實驗2發現, 中性情緒較憤怒情緒增強了高fWHR晚期(300~400 ms)的自動加工程度。這可能與面孔情緒自身的自動加工有關, 雖然面孔是任務無關的面孔刺激, 但是, 被試在完成簡單的探測任務時面孔刺激呈現在視野中央, 注意在一定程度上可能會被面孔所吸引。尤其是相對于中性情緒而言, 其他具體情緒作為一種更重要的社會互動信號更可能會自動捕獲被試的注意, 進行自動加工(曾憲卿等, 2021)。研究發現, 憤怒和恐懼情緒的自動加工不僅開始時間較早而且持續時間較長(Chen et al., 2020; Kovarski et al., 2017)。同時, 我們實驗2的行為結果發現, 當呈現憤怒面孔時, 被試對注視點大小探測的反應時較長; 實驗1和實驗2的行為結果對比也發現, 對于高fWHR目標, 被試對憤怒情緒面孔的反應時慢于中性情緒。這說明, 表征直接威脅性較大的憤怒面孔可能更多吸引了被試的注意, 這在一定程度上可能減弱了作為知覺信息面孔寬高比的自動加工程度。另一方面, 上述結果可能還與本研究對不同情緒面孔寬高比的控制有關。已有研究發現, 與中性情緒面孔相比, 個體表現出的憤怒情緒會增加其面孔寬高比(Merlhiot et al., 2021), 進而可能會提高其被感知的攻擊性水平。但是, 本研究通過對比實驗1和實驗2面孔寬高比的值發現, 中性與憤怒情緒高寬高比的值不存在顯著差異, 這在一定程度上可能減弱了個體對憤怒情緒面孔攻擊性的感知, 進而也可能減弱其自動加工的程度。與Geniole等人(2015)觀點一致, 這表明, 面孔寬高比在預測他人評價某個體攻擊性時是否與面孔情緒有關仍有待進一步研究。

另外, 實驗1發現的中性情緒高低fWHR自動加工程度的差異表現在較晚的300~350 ms, 這可能與情緒信息的加工時間進程機制有關, 有研究發現, 枕顳葉區較晚的P3(350~500 ms)和N300(250~ 350 ms)成分能區分出具體面孔情緒(Luo et al., 2010)。與實驗1結果相反, 雖然實驗2發現在PO5電極上憤怒高fWHR和恐懼低fWHR在300~350 ms都能誘發vMMN, 但是此時間段二者誘發的vMMN大小不存在差異。這可能也與具體情緒捕獲一定的注意減弱面孔寬高比自動加工程度有關。盡管研究者對面孔刺激敏感的N170成分上得到的偏差刺激較標準刺激誘發波幅更負的結果反映的是心理不應期還是刺激的自動加工存在爭議(Kimura et al., 2009), 但是, 本研究實驗1在N170成分上發現高fWHR偏差刺激較標準刺激誘發波幅更負, 而實驗2在N170成分上并未發現與此相似的結果。這在一定程度上也表明, 憤怒和恐懼情緒fWHR的自動加工可能由于受情緒自動加工的影響而小于中性情緒fWHR的自動加工。此外, 有研究者可能會質疑面孔寬高比刺激物理屬性上的差異對vMMN的影響, 因而, 本研究分析了早期對刺激物理屬性較敏感的P1成分, 實驗1和實驗2都沒有在P1成分上發現高低fWHR間的差異, 這也與我們的預期一致, 同屬于面孔構形信息的高低寬高比在P1成分上不存在差異。N170對寬高比的敏感性因情緒而異, 僅在憤怒情緒上發現N170對高fWHR較敏感, 這可能也與此條件預測他人評價該個體面孔的攻擊性較高有關。本研究實驗1還顯示fWHR的自動加工在多個時間段存在右半球優勢, 這與已有研究發現的中性情緒面孔構形加工存在右半球偏側化效應一致(Wang & Fu, 2018)。

需要注意的是, 實驗1和實驗2基于從聚的置換檢驗中都發現標準刺激和偏差刺激的差異分布在更廣的時間和空間上, 這在一定程度上補充和拓展了我們ERP分析的結果。實驗1置換檢驗分析的結果與ERP結果較一致, 高fWHR不僅能在更廣的時間和空間上誘發vMMN, 而且其誘發的vMMN大于低fWHR, 這在枕顳葉、額葉和中央電極區都有體現。高fWHR在額葉以及中央區域能進行自動加工, 這可能與上述區域參與攻擊性反應加工有關 (Peterson et al., 2008)。但是, 實驗2置換檢驗的結果不同于ERP結果, 未發現憤怒和恐懼情緒在促進高低fWHR自動加工中的作用。這可能與兩種方法的側重點有關, ERP分析側重于對單個電極或者電極組上特定時間窗內的腦電信號進行分析, 基于從聚的置換檢驗則是對腦電信號在所有電極和所有時間樣本上進行比較(Sassenhagen & Draschkow, 2019)。實驗2 ERP分析得出的交互作用結果出現的電極點比較分散, 而基于從聚的置換檢驗不太可能檢測到定位于少數電極以及時間點的非常集中的效應(Groppe et al., 2011)。此外, 在對基于從聚的置換檢驗結果進行解釋時, Sassenhagen和Draschkow (2019)認為某從聚的顯著性僅僅代表其從聚水平統計量在此類統計中的分布位置, 而不能使用該統計結果去推論效應在空間、時間或者頻率上的定位, 并且該方法導致結果中效應潛伏期的偏差。基于從聚的置換檢驗的優越性在于確定效應存在而非定位效應具體時間以及位置(Groppe et al., 2011), 同時參考已有研究對置換檢驗的分析, 本研究將其作為對ERP結果的探索性分析。

最后, 本研究尚有一定的局限。雖然已有面孔vMMN的研究常常把任務無關的面孔至于視野中央(Kecskés-Kovács et al., 2013; Kovarski et al., 2017), 但是, 如上所述, 這種操作方法可能不能保證面孔刺激完全處于非注意狀態, 尤其是實驗2中的呈現的憤怒和恐懼情緒面孔可能會自動吸引個體的注意影響fWHR的自動加工, 因而, 將來的研究可以考慮把面孔刺激呈現在視野周圍以增加面孔非注意的可能性。其次, 參考已有研究(Carré & McCormick, 2008; Carré et al., 2009; Carré et al., 2010; Stirrat et al., 2012), 本研究只采用了男性面孔, 尚未考察女性面孔寬高比自動加工的機制; 因而, 本研究的結論是否適用于女性面孔尚不明確。最后, 關于兩個實驗中刺激比例的問題。根據GPower計算, 兩個實驗的被試數量有較大的差別, 實驗2的被試數量較實驗1少, 為了能在實驗2中得到偏差刺激誘發的較穩定的波形, 因而, 我們調整了實驗2各刺激類型的比例, 增加了偏差刺激的比例, 由實驗1的10%調整到實驗2的20%。我們實驗中使用的這兩種刺激比例的分配情況在已面孔vMMN研究中經常用到(Kecskés-Kovács et al., 2013; Stefanics et al., 2012; Wang et al., 2022), 并且尚未有研究說明不同刺激的比例會影響vMMN (Stefanics et al., 2014, a review for vMMN), 但是, 使用同一刺激比例可能更能增加實驗間比較的說服力。

6 結論

本研究不僅發現面孔寬高比信息能進行自動加工, 而且發現高fWHR比低fWHR的自動加工時程更長, 程度更大。這可能與其在表征某個體實際攻擊性或預測他人評價該個體面孔攻擊性時分別被感知為憤怒和恐懼情緒有關, 我們進一步發現, 憤怒和恐懼情緒分別促進了高低fWHR的自動加工, 但是, 憤怒情緒較中性情緒減弱了高fWHR的自動加工程度??傊? 本研究結果表明情緒可能在面孔寬高比的前注意加工階段起重要作用。

Adams, R. B., Gordon, H. L., Baird, A. A., Ambady, N., & Kleck, R. E. (2003). Effects of gaze on amygdala sensitivity to anger and fear faces.,(5625), 1536?1536. https://doi.org/10.1126/science.1082244

Batty, M., & Taylor, M. J. (2003). Early processing of the six basic facial emotional expressions.,(3), 613?620. https://doi.org/10.1016/S0926- 6410(03)00174-5

Carré, J. M., & McCormick, C. M. (2008). In your face: Facial metrics predict aggressive behaviour in the laboratory and in varsity and professional hockey players.,(1651), 2651?2656. https://doi.org/10.1098/rspb.2008.0873

Carré, J. M., McCormick, C. M., & Hariri, A. R. (2011). The social neuroendocrinology of human aggression.,(7), 935?944. https://doi.org/ 10.1016/j.psyneuen.2011.02.001

Carré, J. M., McCormick, C. M., & Mondloch, C. J. (2009). Facial structure is a reliable cue of aggressive behavior.,(10), 1194?1198. https://doi.org/ 10.1111/j.1467-9280.2009.02423.x

Carré, J. M., Morrissey, M. D., Mondloch, C. J., & McCormick, C. M. (2010). Estimating aggression from emotionally neutral faces: Which facial cues are diagnostic?,(3), 356?377. https://doi.org/10.1068/p6543

Carré, J. M., Murphy, K. R., & Hariri, A. R. (2013). What lies beneath the face of aggression?,(2), 224?229. https://doi.org/ 10.1093/scan/nsr096

Chen, B., Sun, P., & Fu, S. (2020). Consciousness modulates the automatic change detection of masked emotional faces: Evidence from visual mismatch negativity.,, 107459. https://doi.org/10.1016/ j.neuropsychologia.2020.107459

Costa, M., Lio, G., Gomez, A., & Sirigu, A. (2017). How components of facial width to height ratio differently contribute to the perception of social traits.,(2), e0172739. https://doi.org/10.1371/journal.pone.0172739

Csizmadia, P., Petro, B., Kojouharova, P., Gaal, Z. A., Scheiling, K., Nagy, B., & Czigler, I. (2021). Older adults automatically detect age of older adults’ photographs: A visual mismatch negativity study.,, 707702. https://doi.org/10.3389/fnhum. 2021.707702

Czigler, I., Balazs, L., & Winkler, I. (2002). Memory-based detection of task-irrelevant visual changes.,(6), 869?873. https://doi.org/10.1111/1469-8986.3960869

Deska, J. C., Lloyd, E. P., & Hugenberg, K. (2018). The face of fear and anger: Facial width-to-height ratio biases recognition of angry and fearful expressions.,(3), 453?464. https://doi.org/10.1037/emo0000328

Eimer, M. (2011). The face-sensitive N170 component of the event-related brain potential. In: Calder A. J. et al. (Eds).(pp. 329?344). Oxford University Press.

Faul, F., Erdfelder, E., Lang, A. G., & Buchner, A. (2007). G*Power 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences.,(2), 175?191. https://doi.org/ 10.3758/BF03193146

Fu, S. M., Fan, S. L., & Chen, L. (2003). Event-related potentials reveal involuntary processing of orientation changes in the visual modality.,(5), 770?775. https://doi.org/10.1111/1469-8986.00077

Geniole, S. N., Denson, T. F., Dixson, B. J., Carré, J. M., & McCormick, C. M. (2015). Evidence from meta-analyses of the facial width-to-height ratio as an evolved cue of threat.,(7), e0132726. https://doi.org/10.1371/ journal.pone.0132726

Geniole, S. N., Keyes, A. E., Mondloch, C. J., Carré, J. M., & McCormick, C. M. (2012). Facing Aggression: Cues Differ for Female versus Male Faces.,(1), e30366. https://doi.org/10.1371/journal.pone.0030366

Geniole, S. N., & McCormick, C. M. (2015). Facing our ancestors: Judgements of aggression are consistent and related to the facial width-to-height ratio in men irrespective of beards.,(4), 279?285. https://doi.org/10.1016/j.evolhumbehav.2014.12.005

Goetz, S. M. M., Shattuck, K. S., Miller, R. M., Campbell, J. A., Lozoya, E., Weisfeld, G. E., & Carré, J. M. (2013). Social status moderates the relationship between facial structure and aggression.,(11), 2329?2334. https://doi.org/10.1177/0956797613493294

Gong, X., Huang, Y. X., Wang, Y., & Luo, Y. J. (2011). Revision of the Chinese facial affective picture system.(1), 40?46.

[龔栩, 黃宇霞, 王妍, 羅躍嘉. (2011). 中國面孔表情圖片系統的修訂.(1), 40?46.]

Groppe, D. M., Urbach, T. P., & Kutas, M. (2011). Mass univariate analysis of event-related brain potentials/fields I: A critical tutorial review.,(12), 1711?1725. https://doi.org/10.1111/j.1469-8986.2011.01273.x

Haselhuhn, M. P., Ormiston, M. E., & Wong, E. M. (2015). Men’s facial width-to-height ratio predicts aggression: A meta-analysis.,(4), e0122637. https://doi.org/10.1371/journal.pone.0122637

Haselhuhn, M. P., & Wong, E. M. (2011). Bad to the bone: Facial structure predicts unethical behaviour.,(1728), 571?576. https://doi.org/10.1098/rspb.2011.1193

Haselton, M. G., & Funder, D. C. (2006). The evolution of accuracy and bias in social judgment. In: Schaller M. et al. (Eds.).(pp. 15?37). Psychosocial Press.

Hehman, E., Leitner, J. B., Deegan, M. P., & Gaertner, S. L. (2013). Facial structure is indicative of explicit support for prejudicial beliefs.,(3), 289?296. https://doi.org/10.1177/0956797612451467

Hehman, E., Leitner, J. B., & Gaertner, S. L. (2013). Enhancing static facial features increases intimidation.,(4), 747?754. https://doi.org/10.1016/j.jesp.2013.02.015

Itier, R. J., Latinus, M., & Taylor, M. J. (2006). Face, eye and object early processing: What is the face specificity?(2), 667?676. https://doi.org/10.1016/ j.neuroimage.2005.07.041

Kecskés-Kovács, K., Sulykos, I., & Czigler, I. (2013). Is it a face of a woman or a man? Visual mismatch negativity is sensitive to gender category.,, 532. https://doi.org/10.3389/fnhum.2013.00532

Kimura, M., Katayama, J., Ohira, H., & Schroeger, E. (2009). Visual mismatch negativity: New evidence from the equiprobable paradigm.,(2), 402?409. https://doi.org/10.1111/j.1469-8986.2008.00767.x

Kovarski, K., Latinus, M., Charpentier, J., Clery, H., Roux, S., Houy-Durand, E., … Gomot, M. (2017). Facial expression related vMMN: Disentangling emotional from neutral change detection.,, 18. https://doi.org/10.3389/fnhum.2017.00018

Kreegipuu, K., Kuldkepp, N., Sibolt, O., Toom, M., Allik, J., & N??t?nen, R. (2013). vMMN for schematic faces: Automatic detection of change in emotional expression.,, 714. https://doi.org/ 10.3389/fnhum.2013.00714

Lefevre, C. E., Etchells, P. J., Howell, E. C., Clark, A. P., & Penton-Voak, I. S. (2014). Facial width-to-height ratio predicts self-reported dominance and aggression in males and females, but a measure of masculinity does not.,(10), 20140729. https://doi.org/10.1098/ rsbl.2014.0729

Lefevre, C. E., Lewis, G. J., Perrett, D. I., & Penke, L. (2013). Telling facial metrics: Facial width is associated with testosterone levels in men.,(4), 273?279. https://doi.org/10.1016/j.evolhumbehav. 2013.03.005

Li, X., Lu, Y., Sun, G., Gao, L., & Zhao, L. (2012). Visual mismatch negativity elicited by facial expressions: New evidence from the equiprobable paradigm.,, 7. https://doi.org/10.1186/1744-9081-8-7

Luo, W., Feng, W., He, W., Wang, N., & Luo, Y. (2010). Three stages of facial expression processing: ERP study with rapid serial visual presentation.(2), 1857?1867. https://doi.org/10.1016/j.neuroimage.2009.09.018

Maris, E., & Oostenveld, R. (2007). Nonparametric statistical testing of EEG- and MEG-data.(1), 177?190. https://doi.org/10.1016/j.jneumeth. 2007.03.024

Merlhiot, G., Mondillon, L., Meot, A., Dutheil, F., & Mermillod, M. (2021). Facial width-to-height ratio underlies perceived dominance on facial emotional expressions.,, 110583. https://doi.org/10.1016/j.paid.2020.110583

Peterson, C. K., Shackman, A. J., & Harmon-Jones, E. (2008). The role of asymmetrical frontal cortical activity in aggression.,(1), 86?92. https://doi.org/ 10.1111/j.1469-8986.2007.00597.x

Sassenhagen, J., & Draschkow, D. (2019). Cluster-based permutation tests of MEG/EEG data do not establish significance of effect latency or location.,(6), e13335. https://doi.org/10.1111/psyp.13335

Smith, M. L., Cottrell, G. W., Gosselin, F., & Schyns, P. G. (2005). Transmitting and decoding facial expressions.(3), 184?189. https://doi.org/ 10.2307/40064199

Stefanics, G., Csukly, G., Komlosi, S., Czobor, P., & Czigler, I. (2012). Processing of unattended facial emotions: A visual mismatch negativity study.,(3), 3042?3049. https://doi.org/10.1016/j.neuroimage.2011.10.041

Stefanics, G., Kremlacek, J., & Czigler, I. (2014). Visual mismatch negativity: A predictive coding view.,, 666. https://doi.org/10.3389/ fnhum.2014.00666

Stirrat, M., Stulp, G., & Pollet, T. V. (2012). Male facial width is associated with death by contact violence: Narrow-faced males are more likely to die from contact violence.,(5), 551?556. https://doi.org/10.1016/j.evolhumbehav.2012.02.002

Sulykos, I., & Czigler, I. (2011). One plus one is less than two: Visual features elicit non-additive mismatch-related brain activity.,, 64?71. https://doi.org/ 10.1016/j.brainres.2011.05.009

Vormbrock, R., Bruchmann, M., Menne, L., Straube, T., & Schindler, S. (2023). Testing stimulus exposure time as the critical factor of increased EPN and LPP amplitudes for fearful faces during perceptual distraction tasks.,, 9?23. https://doi.org/10.1016/j.cortex.2022.12.011

Wang, H., Chen, E., Li, J., Ji, F., Lian, Y., & Fu, S. (2022). Configural but not featural face information is associated with automatic processing., 884823. https://doi.org/10.3389/fnhum.2022.884823

Wang, H., & Fu, S. (2018). Spatial attention modulates the temporal sequence of hemispheric asymmetry in configural and featural face processing.,, 269? 275. https://doi.org/10.1016/j.neuropsychologia.2018.01.029

Wang, H., Guo, S., & Fu, S. (2016). Double dissociation of configural and featural face processing on P1 and P2 components as a function of spatial attention.,(8), 1165?1173. https://doi.org/ 10.1111/psyp.12669

Wang, H., Qiu, R., Li, W., Li, S., & Fu, S. (2020). Cultural differences in the time course of configural and featural processing for own-race faces.,, 157?170. https://doi.org/10.1016/j.neuroscience.2020.08.003

Wang, H., Sun, P., Ip, C., Zhao, X., & Fu, S. (2015). Configural and featural face processing are differently modulated by attentional resources at early stages: An event-related potential study with rapid serial visual presentation.,, 75?84. https://doi.org/ 10.1016/j.brainres.2015.01.017

Wang, W., Miao, D., & Zhao, L. (2014). Automatic detection of orientation changes of faces versus non-face objects: A visual MMN study.,, 71?78. https://doi.org/10.1016/j.biopsycho.2014.05.004

Weston, E. M., Friday, A. E., & Lio, P. (2007). Biometric evidence that sexual selection has shaped the hominin face.,(8), e710. https://doi.org/10.1371/journal.pone. 0000710

Wong, E. M., Ormiston, M. E., & Haselhuhn, M. P. (2011). A face only an investor could love: CEOs’ facial structure predicts their firms’ financial performance.,(12), 1478?1483. https://doi.org/10.1177/ 0956797611418838

Zeng, X. Q., Xu, B., Sun, B., Ye, J. T., & Fu, S. M. (2021). EMMN varies with deviant-standard stimulus pair type and emotion type: Evidence from a meta-analysis study.(7), 1163?1178.

[曾憲卿, 許冰, 孫博, 葉健彤, 傅世敏. (2021). EMMN受偏差-標準刺激對類型和情緒類型影響: 來自元分析的證據.(7), 1163?1178.]

Zheng, Z. G., Yu, Z. H., Liao, H., & Liu, J. P. (2017). Can we judge a person by his appearance? A literature review of facial width-to-height ratio.(5), 1235?1241.

[鄭治國, 俞宗火, 廖華, 劉建平. (2017). 能以貌取人嗎? 面孔寬高比研究述評.(5), 1235?1241.]

Zochowska, A., Nowicka, M. M., Wojcik, M. J., & Nowicka, A. (2021). Self-face and emotional faces-are they alike?,(6), 593?607. https://doi.org/10.1093/scan/nsab020

Automatic processing of facial width-to-height ratio

WANG Hailing, CHEN Enguang, LIAN Yujing, LI Jingjing, WANG Liwei

(School of Psychology, Shandong Normal University, Jinan 250358, China)

The facial width-to-height ratio (fWHR) is a stable perceptual structure of all faces. It is calculated by dividing the face width (the distance between the left and right zygion) by the face height (the distance between the eyebrow and the upper lip). Previous studies have demonstrated that men's facial width-to-height ratio is a reliable clue to noticing aggressive tendencies and behavior. Individuals with higher fWHR were considered by observers as more aggressive than those with lower fWHR. The researchers proposed that this may be related to facial expression. Observers more readily saw anger in faces with a relatively high fWHR and more readily saw fear in faces with a relatively low fWHR. However, it is unclear what the neural mechanism of fWHR is, particularly in the absence of attention. The present study investigated this issue by recording visual mismatch negativity (vMMN), which indicates automatic processing of visual information under unattended conditions.

Participants performed a size-change-detection task on a central cross, while random sequences of faces were presented in the background using a deviant-standard-reverse oddball paradigm. High fWHR faces (deviant stimuli) were presented less frequently among low fWHR faces (standard stimuli), or vice versa. Forty-one and twenty-five Chinese participated in Experiment 1 and 2, respectively. We hypothesized that faces with high fWHR would elicit a larger vMMN compared to faces with low fWHR. If the above result is related to the fact that high fWHR faces appear angrier and low fWHR faces appear more fearful, then high fWHR faces displaying an angry expression would evoke vMMN and low fWHR faces displaying a fearful expression would evoke vMMN.

In Experiment 1, faces with neutral expressions were used. The occipital-temporal vMMN emerged in the latency range of 200~500 ms for faces with high fWHR and in the latency range of 200~250 ms and 300~350 ms for faces with low fWHR. More importantly, faces with high fWHR elicited a higher vMMN than those with low fWHR faces in the 300~350 ms latency range. In Experiment 2, faces with expressions of fear and anger were used. Results showed that high-fWHR faces displaying an angry expression elicited a vMMN in the 200~250 ms and 300~400 ms latency ranges, while low-fWHR faces displaying a fearful expression elicited a vMMN in the 250~400 ms latency range, especially in the left hemisphere. Comparing Experiment 1 and 2, we found that faces with high fWHR displaying an angry expression elicited smaller vMMN than those displaying a neutral expression.

In conclusion, the present findings suggest that the facial width-to-height ratio is associated with automatic processing and provide new electrophysiological evidence for the different mechanisms underlying high and low fWHR faces under unattended conditions. The results might be related to facial expressions. Consistent with previous studies, the current finding demonstrates that automatic processing of high and low fWHR is promoted by expressions of anger and fear, respectively. At the same time, due to the automatic processing of facial expressions, the automatic processing of faces with high fWHR was weakened by angry faces relative to neutral faces.

face, facial width-to-height ratio, emotion, vMMN, automatic processing

2022-12-28

* 國家自然科學基金項目(32171042)資助。

汪海玲, E-mail: hailingwang@sdnu.edu.cn

B842

猜你喜歡
情緒實驗
記一次有趣的實驗
微型實驗里看“燃燒”
做個怪怪長實驗
小情緒
小情緒
小情緒
小情緒
小情緒
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
主站蜘蛛池模板: 免费a在线观看播放| 国产玖玖视频| 色AV色 综合网站| 婷婷午夜天| 欧美另类图片视频无弹跳第一页| 国产精品无码翘臀在线看纯欲| 伊人AV天堂| 中文字幕无码av专区久久| 亚洲色图另类| 色香蕉影院| 曰AV在线无码| 麻豆AV网站免费进入| 欧美一级在线看| 91小视频在线| 99在线观看精品视频| 国产门事件在线| 国产一区二区丝袜高跟鞋| 成·人免费午夜无码视频在线观看| 国产网站一区二区三区| 国产丝袜无码精品| 精品一区二区无码av| 国产精品无码AⅤ在线观看播放| 免费一级毛片在线观看| 99热这里都是国产精品| 嫩草国产在线| аv天堂最新中文在线| 美女一级毛片无遮挡内谢| 亚洲侵犯无码网址在线观看| 精品国产91爱| 美女被躁出白浆视频播放| 亚洲一级无毛片无码在线免费视频| 99草精品视频| 91久久国产热精品免费| 久久久久久久久久国产精品| 亚洲人人视频| 99热免费在线| 精品人妻无码中字系列| 精品超清无码视频在线观看| 日韩AV手机在线观看蜜芽| 欧美爱爱网| 欧美笫一页| 秘书高跟黑色丝袜国产91在线 | 国产成人做受免费视频| 人妻丰满熟妇啪啪| 一级毛片无毒不卡直接观看| 老司机精品一区在线视频| 国产农村妇女精品一二区| 国产高清自拍视频| 欧美天堂在线| 永久天堂网Av| 91精品国产麻豆国产自产在线| 99激情网| 毛片久久网站小视频| 人人爽人人爽人人片| 欧美一级夜夜爽| 尤物亚洲最大AV无码网站| 国产精品成人免费视频99| 精品伊人久久久香线蕉| 亚洲成人免费在线| 国产凹凸一区在线观看视频| 丰满人妻一区二区三区视频| 91在线激情在线观看| 青青热久免费精品视频6| 青青草欧美| 免费人成黄页在线观看国产| 午夜不卡视频| 国产成人精品在线| 77777亚洲午夜久久多人| 成年网址网站在线观看| 永久在线播放| 亚洲色无码专线精品观看| 欧美黄网站免费观看| 狠狠色成人综合首页| 88av在线看| 久久国产精品麻豆系列| 亚洲AV免费一区二区三区| 日韩a级毛片| 亚洲日韩久久综合中文字幕| 91九色视频网| 福利视频久久| 欧美午夜在线播放| 91丨九色丨首页在线播放|