999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多面孔情緒變異性的自動加工:來自視覺失匹配成分的證據(jù)

2025-09-28 00:00:00陳子龍季碌妍
心理學(xué)報 2025年9期

1引言

面孔是我們生活中重要的社會線索,而多張面孔更是能提供豐富的社會信息。比如在兩場面試中,多位面試官對我們總體評價是一樣的,但如果一場中每位面試官都表現(xiàn)出一致的態(tài)度,而另一場中面試官之間態(tài)度差別很大,我們可能還是會感受到兩者之間的差別,從而影響對自已面試表現(xiàn)的評價。這種將個體特征或信息整合在一起而獲得的表征被稱為統(tǒng)計概要表征(summary statistical representation),也被稱為整體知覺(ensembleperception)(何蔚祺等,2021;勵奇添,陳文鋒,2022;仝可等,2015;Alvarez,2011;Whitneyamp;YamanashiLeib,2018)。無論是多個低水平刺激特征,如線條朝向、圓圈大小、顏色等,還是高水平復(fù)雜物體,如情緒面孔,個體都能對其進行統(tǒng)計概要加工(Chetverikovetal.,2017;Chong amp; Treisman, 2003;Haberman et al.,2015;Yangetal.,2018),提取其平均值(Ariely,2001)或變異性信息(deGardelleamp;Summerfield,2011)。本研究主要關(guān)注多面孔情緒的變異性表征。前人研究已經(jīng)證明,只需短暫的呈現(xiàn)時間,人們就可以分辨多張面孔的情緒變異性(Habermanetal.,2015)。此外,神經(jīng)影像研究還發(fā)現(xiàn)了專門處理集合變異性和異常值信息的腦區(qū)(如:右側(cè)額上回、前內(nèi)側(cè)腹側(cè)視覺皮層)(Allard et al.,2021;Cantamp;Xu,2020)。不過盡管個體可以快速準(zhǔn)確地提取集合的變異性信息(Haberman etal.,2015;Jeongamp; Chong,2021;Lauamp;Brady, 2018;Morgan et al.,2008;Tokita et al.,2016),但尚不清楚是否可以在非注意條件下對多面孔情緒變異性信息進行自動加工。

目前關(guān)于統(tǒng)計概要加工是否需要注意資源,研究大多集中在平均加工領(lǐng)域。一些研究支持統(tǒng)計概要加工依賴注意資源。例如,相比于沒有提示,預(yù)先提示可以提高對多個圓平均大小和顏色的識別能力,以及對多張面孔平均情緒的加工績效(Brandetal.,2012;Huang,2015)。另一項研究采用雙任務(wù)范式,要求被試同時注意面孔朝向和情緒,結(jié)果發(fā)現(xiàn)當(dāng)朝向任務(wù)占據(jù)注意資源時,個體無法完成多面孔平均情緒的加工(Eliasetal.,2018)。此外,研究者還采用注意瞬脫范式,要求被試在對快速呈現(xiàn)的一張面孔判斷性別后,評估4張面孔的平均情緒。當(dāng)兩項任務(wù)間隔時間變短時,被試會在多面孔平均情緒判斷中出現(xiàn)注意瞬脫(McNairetal.,2017)。這些研究結(jié)果均表明個體對多個刺激特征的平均加工并不是自動的,而是會受制于有限的注意資源。

但是,也有研究表明平均加工僅需很少的注意資源,甚至還能自動加工。例如,在多物體追蹤任務(wù)中,注意資源減少只影響對單個物體位置的識別但并不影響加工多個物體的平均位置或背景朝向信息(Alvarezamp;Oliva,2008,2009)。類似的,在非注意下也能對多面孔的平均情緒進行加工。一項研究采用空間線索提示范式,結(jié)果發(fā)現(xiàn)即使在線索無效(即空間注意被轉(zhuǎn)移到其他位置時),被試對目標(biāo)位置的多面孔平均情緒的判斷依然高于機會水平,且與線索有效條件沒有顯著差異(Jietal.,2018)。近期研究還指出,即使在同時進行其他任務(wù)的情況下,多面孔平均情緒加工的能力并未受損,并且不受到其他任務(wù)注意負(fù)荷的影響(Liuamp;Ji,2024)。

僅有少量研究聚焦變異性加工與注意的關(guān)系。一項雙任務(wù)的研究表明變異性信息也可以如同平均值一樣,在有限的注意下得到加工(Khvostovamp;Utochkin,2019)。在這項研究中,被試需要單獨對集合中的平均值或者變異性進行加工(單任務(wù)),或者同時加工(雙任務(wù)),結(jié)果發(fā)現(xiàn)雙任務(wù)和單任務(wù)下變異性加工的精確度基本一致(Khvostovamp;Utochkin,2019)。在腦損傷病人的研究中也發(fā)現(xiàn),患者即使視覺通路中只有V1完好,而V2到V4有一定程度的受損,也能對多個刺激的朝向變異性有較好的感知,這表明視覺系統(tǒng)在早期已經(jīng)可以編碼變異性信息(Norman etal.,2015)。

然而,上述研究中統(tǒng)計概要加工多是與任務(wù)相關(guān)的。盡管分心任務(wù)會占據(jù)一定的注意資源,或是注意被其他線索分散,但個體可能仍能利用剩余的注意來感知或提取統(tǒng)計概要信息。此外,當(dāng)兩個任務(wù)都處理相同的刺激,并且都專注于統(tǒng)計概要加工時,對注意水平的操縱可能不夠嚴(yán)格(Khvostovamp;Utochkin,2019)。因而,在本研究中,多面孔情緒變異性加工始終保持與任務(wù)無關(guān),同時被試需要完成的任務(wù)也與統(tǒng)計概要加工無關(guān),這旨在進一步減少對無關(guān)面孔刺激的注意分配。為此,本研究以視覺失匹配負(fù)波(visualmismatchnegativity,vMMN),這一事件相關(guān)電位(ERPs)成分作為指標(biāo),考察個體在加工不同情緒變異性面孔集合時大腦活動的差異。視覺失匹配負(fù)波是在oddball范式中,偶然出現(xiàn)的刺激(即:偏差刺激)與經(jīng)常出現(xiàn)的刺激(即:標(biāo)準(zhǔn)刺激)在大腦枕顳葉區(qū)誘發(fā)的ERP差異波,通常偏差刺激誘發(fā)的波幅比標(biāo)準(zhǔn)刺激更負(fù)(Czigler,2007;Pazo-Alvarezetal.,2003;Winkleramp;Czigler,2012)。在這一范式中,刺激序列呈現(xiàn),能夠模擬現(xiàn)實世界中紛繁復(fù)雜的信息流,同時可以控制不同刺激或特征的概率,考察我們是否能夠以及如何加工這些信息流中蘊含的相關(guān)事件的潛在分布。

為了避免物理屬性不同的影響,研究者們通常會采用反向oddball范式。它是指在一個刺激序列中,標(biāo)準(zhǔn)刺激為A,偏差刺激為B,那么在另一個刺激序列中標(biāo)準(zhǔn)刺激為B,偏差刺激則為A。同樣的物理刺激,通過對比作為標(biāo)準(zhǔn)和作為偏差誘發(fā)的波幅差異,考察vMMN是否存在。vMMN有早期到晚期的時間窗 (70-520ms) (Kovarski etal.,2017;Stefanics etal.,2012;Xiongetal.,2022)。作為視覺系統(tǒng)中自動檢測刺激規(guī)律變化的腦電指標(biāo),它可以被簡單的視覺刺激(如:線條朝向、空間頻率、顏色等)和包含復(fù)雜社會信息的刺激(性別、情緒、年齡等)所誘發(fā),因此被廣泛用于自動加工的研究(Csizmadia etal.,202l;Czigleramp; Sulykos,2010;Kecskés-Kovacs et al., 2013;Kovarski et al.,2017;Stefanics et al.,2012; Sulykos amp; Czigler, 2011)。不過,也有一些vMMN研究發(fā)現(xiàn)了正向的視覺失匹配成分(visual mismatch positivity, vMMP) (Chen et al.2020; Ji et al.,2024; Sel et al., 2016; Sulykos amp; Czigler,2011),這同樣可以被認(rèn)為反映了大腦對刺激的自動加工。

大量研究以vMMN/vMMP為指標(biāo)揭示了個體可以自動加工多張相同或不同的情緒面孔(Chenetal.,2020;Ji et al.,2024;Stefanics et al.,2012; Zeng et al.,2022),甚至可以自動檢測視野中央面孔與外周非注意面孔的情緒一致性(Xiongetal.,2022),但是尚未清楚個體是否可以自動加工多面孔情緒的變異性信息。在現(xiàn)實中,我們看到多張面孔的情緒強度往往是不一致的,因此本研究采用的每張面孔情緒平位均不怕間。

綜上,本研究采用反向oddball范式,以vMMN為指標(biāo)探討多面孔情緒變異性自動加工的神經(jīng)機制。研究中,高情緒變異性面孔組合和低情緒變異性面孔組合系列呈現(xiàn),互為標(biāo)準(zhǔn)刺激和偏差刺激,面孔呈現(xiàn)在外周視野且保持與任務(wù)無關(guān)。被試需要完成vMMN研究中常用的中央注視點辨別任務(wù)(Stefanics et al., 2012; Tse et al., 2021; Winkler et al.,2005),從而使得注意資源被占據(jù)。如果觀察到vMMN,則說明人們可以自動檢測位于外周視野的多面孔情緒變異性的變化,從而提示非注意條件下對情緒變異性的自動加工。研究包含三個腦電實驗。實驗1首先考察個體究竟是否可以自動加工多面孔情緒的變異性信息,以及對于高、低情緒變異性的敏感程度是否存在差別。已有研究發(fā)現(xiàn),對多個高變異的光柵刺激進行整體知覺會引起更強的大腦活動(Allardetal.,2021),可能說明大腦對高變異性信息更敏感。據(jù)此,我們預(yù)期高、低情緒變異性面孔集合均可誘發(fā)vMMN,但與低情緒變異性面孔集合誘發(fā)的vMMN相比,高情緒變異性誘發(fā)的vMMN波幅更大。實驗2進一步區(qū)分憤怒和高興兩種情緒面孔集合,考察情緒類型對多面孔情緒變異性自動加工的影響。以往研究揭示多面孔加工存在負(fù)性偏向(Mihalache etal.,2021;Stefanics et al.,2012;Zengetal.,2022)。因此在實驗2中,我們除了預(yù)期重復(fù)實驗1的結(jié)果,還進一步預(yù)期無論在何種情緒變異性條件下,憤怒面孔集合誘發(fā)的VMMN 波幅比高興面孔更大。實驗3中控制了高、低情緒變異性集合的全距和分布形式,旨在排除這兩個因素對結(jié)果的影響,預(yù)期再次驗證前面實驗的結(jié)果。此外,我們還采用了機器學(xué)習(xí)的方法,對腦電活動進行多變量模式分析(multivariate patternanalysis,MVPA),旨在充分利用全腦所有通道和時間點,考察大腦加工不同刺激時神經(jīng)反應(yīng)模式的差異(Carlsonetal.,2020)。與vMMN分析邏輯相似,同樣的情緒變異性面孔集合,如果大腦可以解碼其作為標(biāo)準(zhǔn)刺激還是偏差刺激,則說明對這兩類刺激的反應(yīng)模式存在差異,暗示對情緒變異性的自動加工。這將對vMMN結(jié)果進行重要補充,從不同角度探究變異性自動加工的神經(jīng)機制。本研究有助于加深我們對概要統(tǒng)計表征,尤其是變異性表征加工機制的理解,并從預(yù)測編碼的角度為多面孔情緒自動

加工提供新的證據(jù)。

2 實驗1:多面孔情緒變異性的自動加工

2.1 方法

2.1.1 被試

實驗1共招募28名被試,其中4名被試因為偽跡或 波過多而被剔除。最終納入分析被試24名(女性12名),年齡為 19.05±2.04 歲,所有被試均為右利手,視力或矯正視力正常。在實驗之前所有被試均簽署知情同意書并知曉實驗內(nèi)容,實驗結(jié)束后他們可以獲得每小時30元或一個學(xué)分的報酬。根據(jù)vMMN已有研究效應(yīng)量(汪海玲等,2023,刺激類型與面孔條件的交互作用 ηp2= 0.351 ,通過MorePower軟件(Campbellamp;Thompson,2012)計算出最少被試量為18名( ,power =0.8 ,因此本研究樣本量符合要求。

2.1.2 實驗材料

從清華大學(xué)情緒面孔庫(Yangetal.,2020)中選取兩張男性和兩張女性面孔,分別呈現(xiàn)憤怒、高興和中性的閉口表情。使用FantaMorph軟件,對每張身份面孔進行變形(morph),由其最高強度的憤怒面孔(情緒單位1)變形到中性面孔(情緒單位50),再由中性面孔變形到最高強度的高興面孔(情緒單位99),各情緒最高強度為面孔庫中該面孔的原始表情。相鄰兩張面孔之間相差一個情緒單位,共生成396張情緒面孔圖片(99張 ×4 個身份)。所有面孔圖片僅保留面部,頭發(fā)、耳朵、脖子等非面孔區(qū)域被截去,使用平均值法進行灰度處理。此外,計算所有圖片平均RMS (Rootmeansquare,均方根)對比度,再將該數(shù)值賦予每張面孔,達(dá)到控制對比度的目的(Bexamp;Makous,2002)。每張面孔視角為4.82°×6.83° 。4張面孔同時呈現(xiàn),構(gòu)成一個面孔集合,其中心圍成的視角為 10.05°×13.12° 。

面孔集合分為兩種,分別為高情緒變異性組和低情緒變異性組,每種集合均由兩張憤怒和兩張高興面孔組成,集合內(nèi)4張面孔身份一致。實驗前招募了8名被試,均未參加正式實驗,通過恒定刺激法,讓被試判斷集合中的面孔情緒是完全一樣的,還是彼此之間存在差異。實驗分為高興與憤怒兩種情緒類型,4張面孔的標(biāo)準(zhǔn)差有2、3、4、5、6、7共6種水平,平均情緒為中等高興或憤怒。結(jié)果表明無論在何種情緒類型下,僅有1名被試絕對閾限大于7,還有1名被試絕對閾限小于2。其余被試在高興條件的絕對閾限范圍是2.19到6.75;在憤怒條件的絕對閾限范圍是2.52到5.74。根據(jù)該結(jié)果,選擇超過變異性感知絕對閾限的數(shù)值作為低情緒變異性面孔集合的標(biāo)準(zhǔn)差,而高情緒變異性的標(biāo)準(zhǔn)差設(shè)定為低情緒變異性的三倍。具體而言,在低情緒變異性面孔集合中,4張面孔情緒的標(biāo)準(zhǔn)差為12.08,各面孔情緒單位分別為34、44、56、66。在高情緒變異性面孔集合中,4張面孔情緒的標(biāo)準(zhǔn)差為36.24,各面孔情緒單位分別為6、25、72、97(圖1)。面孔集合的平均情緒均為中性(平均效價為50)。

屏幕中央始終呈現(xiàn)紅色注視點,視角為 0.51°× 0.55° 。在實驗過程中,注視點會隨機將豎杠或橫杠變長,視角分別為 0.51°×1.03° 和 0.97o×0.55o 。注視點變化隨機分布在標(biāo)準(zhǔn)刺激和偏差刺激中,每個block中變化比例占block總試次的 10% 。

2.1.3 實驗程序

實驗在隔音、弱光、電磁屏蔽的腦電實驗室中進行。本研究采用Psychopy2022.1.3編制實驗程序,并使用可視面積為 345mm×275mm 的CRT顯示器呈現(xiàn)實驗刺激,顯示器刷新率為 60Hz. ,分辨率為1024×768pix 。被試距離屏幕約 60cm 0

每個試次中,4張面孔同時呈現(xiàn) 300ms ,接著是 400~700ms 的ISI,被試需要在面孔刺激呈現(xiàn)時探測中央注視點的變化,如果橫杠變長按下“J\"鍵,豎杠變長則按下“F\"鍵。注視點不變化時被試無需做出反應(yīng)(圖2)。

實驗采用反向oddbal1范式,低情緒變異性面孔集合和高情緒變異性面孔集合互為標(biāo)準(zhǔn)刺激(80%) 和偏差刺激 (20%) 。實驗一共有768個標(biāo)準(zhǔn)刺激和192個偏差刺激,總共960個試次。為了減少

"

被試疲勞,將實驗分成12個組塊,其中6個組塊采用低情緒變異的面孔集合作為標(biāo)準(zhǔn)刺激,高情緒變異的面孔集合作為偏差刺激;而另外6個組塊則相反。各組塊隨機順序呈現(xiàn)。同一組塊內(nèi)面孔為同一性別,各條件下男性和女性面孔集合各半。相同性別的面孔身份在試次間隨機變化,并保證在標(biāo)準(zhǔn)試次和偏差試次中,每種面孔身份出現(xiàn)的次數(shù)相同。另外,集合中的4張情緒面孔被隨機分配到4個預(yù)先設(shè)定的位置。每個組塊有64個標(biāo)準(zhǔn)刺激和16個偏差刺激,注視點在每個組塊內(nèi)隨機變化8次。每個組塊結(jié)束后,有至少一分鐘的強制閉眼休息時間。實驗開始前,有80個練習(xí)試次,練習(xí)數(shù)據(jù)不納入分析,正式實驗約45分鐘。

2.1.4腦電信號記錄與預(yù)處理

腦電數(shù)據(jù)(EEG)由 64導(dǎo) Ag/AgCI 電極腦電系統(tǒng)(NeuroScan,Texas,USA)采集。所有電極的頭皮電阻均小于 5kΩ ,采樣率為 500Hz 于距離左側(cè)眼晴上下 1.5cm 的位置放置電極記錄垂直眼電(VEOG),于距離雙眼外側(cè) 1.5cm 的位置放置電極記錄水平眼電(HEOG),位于鼻尖的電極作為參考電極。

在MatlabR2022a中使用EEGLABv2022.0和ERPLAB v9.10 對數(shù)據(jù)進行預(yù)處理。首先進行0.05~30Hz 的帶通濾波和 50Hz 的凹陷濾波。接著檢查并插值壞導(dǎo),并以面孔刺激出現(xiàn)前 100ms (作為基線)到面孔刺激出現(xiàn)后的 600ms 對腦電進行分段。在數(shù)據(jù)分段后使用獨立成分分析(ICA)和IClabe1插件識別并矯正與眨眼、心電和肌電相關(guān)的成分。最后剔除超過 ±75μV 幅值范圍的偽跡,并使用階躍函數(shù)(step-likeartifacts, 400ms 的移動窗口,每步 10ms ,幅值范圍為 剔除含有水平眼動的試次。根據(jù)實驗需要,本研究只選取被試不按鍵的試次進行疊加平均,并剔除以下試次:1每個組塊的前5個試次,因為考慮到每個組塊剛開始時,被試尚未習(xí)得偏差刺激和標(biāo)準(zhǔn)刺激呈現(xiàn)概率的規(guī)律;2實驗中被試按鍵反應(yīng)后的下一個試次,旨在避免按鍵產(chǎn)生的動作電位對后續(xù)試次的干擾。最終,低情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為 280.92±33.85,64.21±8.08 ,高情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為 263.50±31.86 、 76.46±9.99 。

2.1.5 行為數(shù)據(jù)分析

在以高情緒變異性和低情緒變異性為標(biāo)準(zhǔn)刺激的兩種條件下,分別計算注視點辨別的擊中率和

反應(yīng)時,以此來評估被試的注意是否主要集中在中央注視點上。分析兩種條件下?lián)糁新屎头磻?yīng)時的差異,評估被試在各條件注意投入是否一致。

2.1.6 腦電信號分析

根據(jù)本實驗?zāi)X電地形圖(圖3B)和前人情緒失匹配負(fù)波相關(guān)研究(Jietal.,2024;Liuetal.,2016;Stefanicsetal.,2012),選取110~140ms和320~420 ms這兩個時間窗,并選取枕顳葉電極P7/P8和PO7/PO8(Astikainen et al., 2013; Chen et al., 2020; Ding et al.,2022;Kovarskietal.,2017;Zhaoamp;Li,2006),對vMMN進行分析。

首先,分別將左半球(P7,PO7)和右半球(P8,PO8)在高、低情緒變異性條件下偏差刺激誘發(fā)的ERP減去標(biāo)準(zhǔn)刺激誘發(fā)的ERP,得到各條件下的差異波。通過單樣本 t 檢驗,將兩個時間窗中各條件差異波的平均波幅與0進行比較,判斷哪些條件誘發(fā)了vMMN(Chenetal.,2020)。其次,為了比較不同情緒變異程度和左右半球誘發(fā)的vMMN是否存在差異,對差異波進行2(情緒變異性:高情緒變異、低情緒變異) ×2 (半球:左半球、右半球)兩因素重復(fù)測量方差分析。當(dāng)交互作用顯著時,進一步進行簡單效應(yīng)分析。

此外,我們使用基于Matlab的解碼工具CosmoMVPA(Oosterhofetal.,2016),對標(biāo)準(zhǔn)刺激和偏差刺激誘發(fā)的ERP進行解碼分析。具體而言,采用支持向量機(supportvectormachine,SVM)作為分類器,對所有被試經(jīng)過預(yù)處理后的數(shù)據(jù),在高、低情緒變異性條件下,分別進行“標(biāo)準(zhǔn)刺激\"和“偏差刺激\"的分類預(yù)測輸出。為了提高解碼分析中的信噪比,首先隨機選擇相同數(shù)量的標(biāo)準(zhǔn)試次和偏差試次,并對每個條件選擇 25% 原始試次在時域上疊加平均,合成新的ERP,該過程進行500 次(Grootswagers etal.,2017;Proklova et al.,2019)。接著,將經(jīng)過合成后的ERP在62個有效電極(排除了M1、M2、水平眼電和垂直眼電)上進行四折(four-fold)交叉驗證解碼。在每次解碼過程中,數(shù)據(jù)將隨機分成4個獨立的組塊,分類器在其中3個組塊上進行訓(xùn)練,并在第四個組塊上進行測試。分類器的訓(xùn)練每 10ms 進行一次(降采樣至 100Hz ,并進行了4次迭代。為了避免分類誤差,訓(xùn)練集和測試集的試次數(shù)量保持一致。最后,對所有數(shù)據(jù)進行平滑處理,并進行二分預(yù)測(判斷數(shù)據(jù)屬于標(biāo)準(zhǔn)刺激還是偏差刺激) (Proklovaetal.,2019),得到解碼正確率,即正確分類次數(shù)除以所有樣例數(shù)。

我們用單樣本 t 檢驗(單尾)將每個時間點的解碼正確率與機會水平(0.5)進行比較,并采用非參數(shù)聚類的蒙特卡羅方法進行10000次置換檢驗,以控制多重比較問題(Marisamp;Oostenveld,2007),聚類閾限為0.05,顯著性水平 a=0.05 。由此獲得每對條件解碼正確率高于隨機水平的時間進程,這反映了條件之間神經(jīng)模式的差異(Carlsonetal.,2020)。此外,參考Li等人(2022)中bootstrap 統(tǒng)計方法,檢驗高、低面孔情緒變異性的最早解碼時間是否存在顯著差異。具體而言,我們對兩個情緒變異性條件的解碼正確率分別進行了1000次bootstrap重采樣,并將每次重采樣結(jié)果中每個時間點的解碼正確率與機會水平(0.5)進行比較,采用非參數(shù)聚類的蒙特卡羅方法進行10000次置換檢驗,以此得到兩條件各自最早解碼時間的經(jīng)驗分布。然后,進行1000次置換檢驗(雙尾檢驗),檢驗兩條件最早解碼時間是否存在顯著差異。計算出大于或小于觀測值的樣本數(shù),再除以置換檢驗的總樣本數(shù),得到 p 值。

2.2 結(jié)果與討論

2.2.1 行為數(shù)據(jù)結(jié)果

以低情緒變異性和高情緒變異性作為標(biāo)準(zhǔn)刺激時,被試對相應(yīng)的中央注視點變化辨別的擊中率分別為0.86 和0.86 SD=0.09 ,對目標(biāo)正確辨別的反應(yīng)時分別為593.01ms( ?SD=61.86? 和590.02ms 1 (SD=54.36) 。注視點辨別的成績較高,表明被試的注意能夠集中在中央注視點上。此外,分別對兩個條件的擊中率和反應(yīng)時進行配對樣本 t 檢驗,結(jié)果發(fā)現(xiàn)擊中率和反應(yīng)時均無顯著差異, psgt; 0.484。這表明被試在各個條件的注意投入是相似的。

2.2.2 腦電數(shù)據(jù)結(jié)果

圖3A展示了左右側(cè)枕顳葉在高、低情緒變異性條件下的腦電波形圖。時間窗為 110~140ms 的結(jié)果顯示,高情緒變異性條件下右半球的差異波顯著小于0, t(23)=-3.10 , p= 0.005 ,Cohen's d= -0.63,95%CI=[-1.44,-0.29] 。其他條件差異波均與0無顯著差異,ts (23)gt;-1.27 , psgt;0.217 Cohen's dgt;-0.26 。對差異波進行情緒變異性與半球的兩因素重復(fù)測量方差分析,結(jié)果表明情緒變異性與半球主效應(yīng)均不顯著, psgt;0.117 。情緒變異性與半球交互作用顯著, F(1,23)=4.59 p=0.043 , ηp2= 0.17。進一步簡單效應(yīng)分析發(fā)現(xiàn)在左半球,低情緒變異性 (M=-0.05 , SD=1.51 與高情緒變異性 (M= -0.33 , SD=1.27, 誘發(fā)的失匹配負(fù)波波幅無顯著差異, p=0.457 , Cohen's d=0.16 , 95% ΔCI=[-0.48 0

1.03];而在右半球,高情緒變異性 (M=-0.87 , SD= 1.37)誘發(fā)的失匹配負(fù)波比低情緒變異性 (M=0.02 0SD=1.40Ω )波幅更負(fù), p=0.038 ,Cohen's d=0.45 595%CI=[0.05,1.71 1(圖3C)。以上結(jié)果表明,高情緒變異性面孔集合能夠在早期誘發(fā)vMMN,進行自動加工,且存在右半球優(yōu)勢。

時間窗為 320~420ms 的結(jié)果顯示,高情緒變異性條件下右半球的差異波 (M=-1.00 , SD=1.99 )顯著小于0, t(23)=-2.45 , p= 0.022 , Cohen's d= -0.50,95%CI=[-1.84,-0.16]? 其他條件差異波(高情緒變異左半球: M=-0.57 SD=1.69 ;低情緒變異左半球: M=-0.01 , SD=1.83 ;低情緒變異右半球: M= -0.28 SD=2.24) 均與0無顯著差異,ts (23)gt;-1.66 psgt;0.111 ,Cohen's dgt;-0.34 。該結(jié)果說明高情緒變異性面孔集合在晚期右半球也能誘發(fā)vMMN。不過,兩因素重復(fù)測量方差分析結(jié)果表明情緒變異性與半球的主效應(yīng)和交互作用均不顯著, psgt;0.178 。

腦電解碼的結(jié)果發(fā)現(xiàn),兩種情緒變異性條件的解碼正確率在刺激呈現(xiàn)約 80ms 內(nèi)與隨機水平?jīng)]有差異。從 80ms 左右開始,低情緒變異性條件解碼正確率顯著高于隨機水平,而高情緒變異性條件解碼正確率則在 90ms 左右開始高于隨機水平(圖3D)但兩者最早解碼的時間無顯著差異 (p=0.827 ,雙側(cè)檢驗)。這表明兩個情緒變異性條件的標(biāo)準(zhǔn)和偏差刺激均能在早期被成功解碼。

總之,實驗1結(jié)果發(fā)現(xiàn),低情緒變異性面孔集合無論在早期還是晚期均沒有誘發(fā)vMMN,而高情緒變異性面孔集合則誘發(fā)了早期 (110-140ms) 和晚期 320~420ms) 的vMMN。盡管在單變量分析上,低情緒變異性在所有時間窗上均為陰性結(jié)果,但這可能僅反應(yīng)了特定時間窗和電極點的結(jié)果。所以,我們還結(jié)合了多變量模式分析(MVPA),利用所有時間點和多通道數(shù)據(jù),進一步探究大腦自動加工情緒變異性信息時的神經(jīng)模式。MVPA的結(jié)果表明,在高、低情緒變異性條件下,全腦均能在 90ms 前解碼出標(biāo)準(zhǔn)和偏差兩類刺激類型,這反映了不論情緒變異性水平高還是低,大腦對標(biāo)準(zhǔn)與偏差刺激加工均有著不同的神經(jīng)響應(yīng)模式。以上結(jié)果說明個體可以自動加工多張面孔的情緒變異性信息。

3 實驗2:情緒類型對多面孔情緒變異性自動加工的影響

實驗1揭示了當(dāng)平均情緒為中性時,多面孔情緒變異性信息可以得到自動加工。實驗2將區(qū)分高

"

興和憤怒兩種平均情緒,進一步考察不同情緒類型對情緒變異性自動加工的影響。

3.1 方法

3.1.1 被試

實驗2共招募32名被試,其中1名被試因設(shè)備故障問題被剔除,其余4名被試因為偽跡或 a 波過多而被剔除。最終納入分析被試27名(女性16名),年齡為 21.34±1.97 歲,所有被試均為右利手,視力或矯正視力正常。在實驗之前所有被試均簽署知情同意書并知曉實驗內(nèi)容,實驗結(jié)束后他們可以獲得每小時30元或一個學(xué)分的報酬。與實驗1相同,實驗2繼續(xù)沿用vMMN已有研究的效應(yīng)量(汪海玲等,2023),計算出最少被試量為18名,因此實驗2最終樣本量符合要求。

3.1.2 實驗材料

面孔材料與實驗1類似,同樣有兩種面孔集合,分別為高情緒變異性組和低情緒變異性組。不同的是,面孔集合中的4張面孔均為憤怒或高興,且平均情緒不再是中性,而是分為中等憤怒(平均情緒效價為 25)和中等高興(平均情緒效價為 75)。低情緒變異性同樣超過情緒變異性感知的絕對閾限。由于區(qū)分兩種情緒類型,變異性可選范圍減少,因此高情緒變異性條件設(shè)定為,集合中任意兩個面孔情緒能互相區(qū)分(超過6個情緒單位這一分辨閥限)的最大標(biāo)準(zhǔn)差組合。具體而言,如圖4所示,在低情緒變異性面孔條件中,各面孔情緒單位分別為14、24、30、32(憤怒面孔集合)或64、74、80、82(高興面孔集合),4張面孔情緒的標(biāo)準(zhǔn)差均為7。在高情緒變異性面孔條件中,各面孔情緒單位分別為1、9、41、49(憤怒)或51、59、91、99(高興),4張面孔情緒的標(biāo)準(zhǔn)差均為20.39。集合內(nèi)4張面孔的情緒類型一致。

3.1.3 實驗程序

實驗2同樣采用反向oddbal1范式,同一種情緒類型下,低情緒變異性面孔集合和高情緒變異性面孔集合互為標(biāo)準(zhǔn)刺激( 80% 和偏差刺激 (20%) 。實驗中憤怒面孔條件和高興面孔條件為block設(shè)計,順序在被試間平衡。每種情緒類型各有768個標(biāo)準(zhǔn)刺激和192個偏差刺激,總共有1920個試次。為了減少被試疲勞,與實驗1類似,每種情緒類型分成12個組塊隨機呈現(xiàn),其中6個組塊以低情緒變異性的面孔集合作為標(biāo)準(zhǔn)刺激,另外6個組塊以高情緒變異性的面孔集合作為標(biāo)準(zhǔn)刺激。實驗任務(wù)同樣是判斷中央注視點的變化。每個組塊間有至少一分鐘的強制閉眼休息時間,正式實驗約90分鐘,在正式實驗中同時采集腦電信號。

3.1.4 數(shù)據(jù)分析

行為數(shù)據(jù)分析以及腦電數(shù)據(jù)預(yù)處理分析同實驗1。其中,在高興條件下,低情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為 272.74± 19.67,63.63±4.92 ,高情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為 272.48±16.55 、68.52±4.52 。在憤怒條件下,低情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為289.26±13.71 、 67.30±4.72 ,高情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為289.52±13.66 、 69.19±1.75 。在腦電數(shù)據(jù)分析中,結(jié)合本實驗?zāi)X電地形圖(圖5B),選取 320~420ms 時間窗,枕聶葉電極P7/P8和PO7/PO8,對vMMN進行分析。從波形圖和地形圖看,實驗2并沒有如實驗1的早期失匹配成分 (110-140ms) ,但為了方便對照,也對該時間窗進行了統(tǒng)計檢驗。

圖4實驗2面孔材料示例。A)為低情緒變異性面孔組合,B)為高情緒變異性面孔組合。在憤怒面孔集合的高、低情緒變異性條件中,平均情緒均為中等憤怒(25);在高興面孔集合的高、低情緒變異性條件中,平均情緒均為中等高興(75)。

首先將各條件下偏差刺激誘發(fā)的ERP減去標(biāo)準(zhǔn)刺激誘發(fā)的ERP,得到差異波。通過單樣本 t 檢驗,將各條件差異波的平均波幅與0進行比較,判斷哪些條件誘發(fā)了vMMN(Chenetal.,2020)。接著,對差異波進行2(情緒變異性:高情緒變異、低情緒變異) ×2 (情緒類型:高興、憤怒) ×2 (半球:左半球、右半球)的三因素重復(fù)測量方差分析。

與實驗1相似,實驗2也采用支持向量機作為分類器,分別在高興高情緒變異、高興低情緒變異、憤怒高情緒變異和憤怒低情緒變異條件下對標(biāo)準(zhǔn)刺激和偏差刺激誘發(fā)的ERP進行解碼分析。對每個條件,通過單樣本 t 檢驗(單尾)將每個時間點的解碼正確率與機會水平(0.5)進行比較,并采用非參數(shù)聚類的蒙特卡羅方法進行10000次置換檢驗,以控制多重比較問題(Marisamp;Oostenveld,2007),聚類閥限為0.05,顯著性水平 a=0.05 。由此獲得每個條件解碼正確率高于機會水平的時間進程,這反映了條件之間神經(jīng)模式的差異(Carlsonetal.,2020)。此外,采用bootstrap統(tǒng)計方法,分別檢驗不同情緒類型時,高、低面孔情緒變異性條件對標(biāo)準(zhǔn)和偏差刺激類型的最早解碼時間是否存在顯著差異,以及憤怒與高興情緒下對兩種刺激類型的最早解碼時間的先后關(guān)系。

3.2 結(jié)果與討論

3.2.1 行為數(shù)據(jù)結(jié)果

高興低情緒變異性、高興高情緒變異性、憤怒低情緒變異性和憤怒高情緒變異性條件下中央注視點變化辨別的擊中率分別為0.91 ?SD= 0.09? !0.90 ΔSD=0.07Ω. 、0.93 SD=0.07 )、0.92 ?SD=0.11 )正確分辨目標(biāo)的反應(yīng)時分別為 573.43ms 限 (SD= 50.83)、569.01ms( SD=48.87, )、567.72ms( 59.40)、570.24ms ?SD=59.36? 。注視點辨別的成績較高,表明在所有情緒變異性條件,被試的注意均能夠集中在中央注視點。此外,對擊中率和反應(yīng)時分別進行2(情緒變異性:高情緒變異、低情緒變異) × 2(情緒類型:高興、憤怒)的重復(fù)測量方差分析,擊中率和反應(yīng)時的主效應(yīng)與交互作用均不顯著, psgt;α 0.243。這表明被試在各個條件的注意投入一致。

3.2.2 腦電數(shù)據(jù)結(jié)果

圖5A展示了高興、憤怒兩種情緒類型下,高、低情緒變異性條件在左右側(cè)枕顳葉的腦電波形圖。早期時間窗 110-140ms 并未在任何條件發(fā)現(xiàn)差異波波幅與0有顯著差異,ts (26)gt;-0.93 psgt;0.310 Cohen's dgt;-0.18 ,因而不再進行進一步方差分析比較各條件之間的差異波。

時間窗為 320~420ms 的結(jié)果顯示,當(dāng)面孔平均情緒為高興時,無論低情緒變異性還是高情緒變異性條件,左右半球的差異波均與0沒有顯著差異,ts (26)gt;-1.73 0 psgt;0.095 ,Cohen's dgt;-0.33 。當(dāng)面孔平均情緒為憤怒時,低情緒變異性條件下,左右半球的差異波均顯著小于0,誘發(fā)了失匹配負(fù)波t(26)=-2.18,p=0.038, Cohen's d=-0.42 2 95%CI= [-1.06,-0.03] t(26)=-2.52 , p=0.018 , Cohen's d= -0.48 ,95%CI=[-1.14,-0.12] 。高情緒變異性條件下,左半球的差異波(邊緣)顯著大于0,誘發(fā)了失匹配正波, t(26)=2.03,p=0.053 ,Cohen's d=0.39 95%CI=[-0.70%,1.08] ;而右半球的差異波與0沒有顯著差異, t(26)=1.64 , p= 0.113 , Cohen's d= 0.32,95%CI=[-0.12,1.02] 。這些結(jié)果表明當(dāng)面孔整體情緒為憤怒時,個體可以自動加工面孔情緒變異性信息。

對 320~420ms 時間窗的差異波進行情緒變異性、情緒類型與半球三因素重復(fù)測量方差分析,結(jié)果表明情緒變異性和情緒類型交互作用顯著, F (1,26)=5.83 5 , ηp2=0.18 。進一步簡單效應(yīng)分析發(fā)現(xiàn),在低情緒變異性條件下,高興面孔 M= -0.27 , SD=1.57 與憤怒面孔 (M=-0.59 , SD=1.23 )誘發(fā)的差異波無顯著差異, p=0.390 ;在高情緒變異性條件下,高興面孔 (M=-0.58 , SD=1.80) 誘發(fā)的差異波比憤怒面孔 (M=0.50 SD=1.36 更負(fù), p= 0.016(圖6A)。其余主效應(yīng)和交互作用均不顯著, psgt; 0.167。

腦電解碼的結(jié)果發(fā)現(xiàn),所有情緒變異性條件的解碼正確率在刺激呈現(xiàn)后大約 70ms 內(nèi)與機會水平?jīng)]有差異。當(dāng)平均情緒為高興時,低情緒變異性的解碼正確率在 100ms 左右開始顯著高于隨機水平,而高情緒變異性則在 70ms 左右開始高于隨機水平大約比低情緒變異性早 30ms 1 (plt;0.001 ,雙側(cè)檢驗)。當(dāng)平均情緒為憤怒時,低情緒變異性的解碼正確率在 80ms 左右開始高于隨機水平,而高情緒變異性則在 70ms 左右開始高于隨機水平,大約比低情緒變異性早 10ms 1 (plt;0.001 ,雙側(cè)檢驗)(圖6B)。也就是說,無論在何種情緒類型下,相較低情緒變異性面孔集合,大腦對高情緒變異性面孔集合作為標(biāo)準(zhǔn)和偏差刺激的解碼進程更早。此外,憤怒條件下,對標(biāo)準(zhǔn)和偏差刺激類型的解碼最早顯著時間也早于高興條件 ,雙側(cè)檢驗),在一定程度上支持了負(fù)性偏向。

"
"

總之,實驗2并未發(fā)現(xiàn)實驗1中的早期失匹配負(fù)波 110-140ms) 。而在 320~420ms 時間窗的結(jié)果發(fā)現(xiàn),當(dāng)面孔整體情緒為高興時,高、低情緒變異性面孔集合并未誘發(fā)顯著的vMMN。當(dāng)面孔整體情緒為憤怒時,高、低情緒變異性面孔集合均在呈現(xiàn)后320~420ms 誘發(fā)了視覺失匹配成分。具體而言,在低情緒變異性條件下,發(fā)現(xiàn)了視覺失匹配負(fù)波(vMMN);而當(dāng)其為高情緒變異性時,偏差刺激比標(biāo)準(zhǔn)刺激引起的波幅更正,即出現(xiàn)了正向的視覺失匹配成分(vMMP)。雖然這里憤怒的高、低情緒變異性面孔誘發(fā)的失匹配成分極性相反,但均表明大腦對情緒變異性信息進行了自動加工。MVPA結(jié)果發(fā)現(xiàn),所有情緒變異性條件下,標(biāo)準(zhǔn)和偏差刺激均能在早期就被成功解碼,但低情緒變異性面孔時間相對更晚。以上結(jié)果說明個體可以自動加工多張面孔的情緒變異性信息,且情緒類型可能對變異性自動加工產(chǎn)生影響。

4實驗3:排除全距和分布對多面 孔情緒變異性自動加工的解釋

實驗1和實驗2表明個體可以自動加工多面孔情緒變異性信息。然而,在這兩個實驗中,變異性增大的同時也帶來全距增大,個體有可能通過極端值對集合進行估計(Solomonetal.,2011)。相比于低情緒變異性面孔集合,高情緒變異面孔集合包含了情緒更強的面孔。這可能使結(jié)果反映的是個體對某張情緒面孔的自動加工,而不是多張面孔情緒變異性的自動加工。此外,兩個實驗的高、低情緒變異性面孔分布形式并不一致。根據(jù)Kim和Chong(2020)的研究,個體可以感知集合的分布形式。因而,實驗3將控制高、低情緒變異性條件的全距,兩者均包含相同的最強情緒面孔,另外兩者均為對稱分布,進一步檢驗是否能重復(fù)之前實驗的發(fā)現(xiàn),從而排除全距和分布形式對結(jié)果的影響。

4.1 方法

4.1.1 被試

實驗3共招募30名被試。由于高、低情緒變異性條件的全距相同,兩者標(biāo)準(zhǔn)差之間的差別更小因而在實驗后我們測試了被試是否能夠正確區(qū)分變異性程度。結(jié)果發(fā)現(xiàn)6名被試成績在隨機水平,因而將其剔除。最終納入分析被試24名(女性15名),年齡為 19.58±1.98 歲,所有被試均為右利手,視力或矯正視力正常。在實驗之前所有被試均簽署知情同意書并知曉實驗內(nèi)容,實驗結(jié)束后他們可以獲得每小時30元或一個學(xué)分的報酬。與實驗1、2相同,實驗3繼續(xù)沿用vMMN已有研究的效應(yīng)量(汪海玲等,2023),計算出最少被試量為18名,因此實驗3最終樣本量符合要求。

4.1.2 實驗材料

面孔材料與實驗1類似,同樣有兩種面孔集合,分別為高情緒變異性組和低情緒變異性組。不同的是,出于控制全距的需要,兩種面孔組合中均包含最強的憤怒(1)和最強的高興情緒(99)面孔。因而,實驗3中兩種面孔組合的情緒變異性都較大,只是高情緒變異性相對而言變異性更大。具體而言,低情緒變異性的標(biāo)準(zhǔn)差與實驗1的高情緒變異性接近而高情緒變異性則為各面孔情緒能互相區(qū)分的最大標(biāo)準(zhǔn)差組合。如圖7所示,高、低情緒變異性中各情緒值都是對稱分布。在低情緒變異性面孔條件中,各面孔情緒單位分別為1、38、62、99,四張面孔情緒的標(biāo)準(zhǔn)差為35.67。在高情緒變異性面孔條件中,各面孔情緒單位分別為1、13、87、99,四張面孔情緒的標(biāo)準(zhǔn)差為43.42。

圖7實驗3面孔材料示例。A)為低情緒變異性面孔組合,B)為高情緒變異性面孔組合。在高、低情緒變異性條件中,平均情緒均為中性(50)。

4.1.3 實驗程序

與實驗1一致。

4.1.4 數(shù)據(jù)分析

行為數(shù)據(jù)分析以及腦電數(shù)據(jù)預(yù)處理分析同實驗1。低情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為 282.58±3.72 、 77.46±3.09 0高情緒變異性面孔集合為標(biāo)準(zhǔn)刺激或偏差刺激的試次數(shù)量分別為 282.33±5.29 、 76.21±4.73 。在腦電數(shù)據(jù)分析中,與實驗1一致,選取 110~140ms 和320~420ms 這兩個時間窗,并選取枕顳葉電極P7/P8和PO7/PO8,對vMMN進行分析。

腦電分析方法與實驗1相同。計算各條件差異波,單樣本 t 檢驗與0進行比較,并對差異波進行2(情緒變異性:高情緒變異、低情緒變異) ×2 (半球:左半球、右半球)的兩因素重復(fù)測量方差分析。此外,實驗3同樣采用支持向量機作為分類器,對標(biāo)準(zhǔn)刺激和偏差刺激誘發(fā)的ERP進行解碼分析,并用bootstrap統(tǒng)計方法,檢驗高、低面孔情緒變異性條件之間最早解碼時間是否存在顯著差異。

4.2 結(jié)果與討論

4.2.1 行為數(shù)據(jù)結(jié)果

以低情緒變異性和高情緒變異性作為標(biāo)準(zhǔn)刺激時,被試對相應(yīng)的中央注視點變化辨別的擊中率分別為0.88 ?SD=0.09, 和0.86 (SD=0.12) ,對目標(biāo)正確辨別的反應(yīng)時分別為 560.42ms 1 ?SD=49.01 和562.08ms 0 ?SD=39.34? 。注視點辨別成績較高,表明被試的注意能夠集中在中央注視點上。此外,分別對兩個條件的擊中率和反應(yīng)時進行配對樣本 t 檢驗,結(jié)果發(fā)現(xiàn)擊中率和反應(yīng)時均無顯著差異, psgt; 0.342。這表明被試在各個條件的注意投人一致。

4.2.2 腦電數(shù)據(jù)結(jié)果

圖8A展示了左右側(cè)枕顳葉在高、低情緒變異性條件下的腦電波形圖,圖8B展示了兩個時間窗的差異波地形圖。早期時間窗 (110-140ms) 并未在任何條件發(fā)現(xiàn)差異波與0有顯著差異,ts (23)gt;0.31 psgt;0.180 ,Cohen's dgt;0.06 。時間窗為 320~420ms 的結(jié)果顯示,低情緒變異性條件下,左、右半球的差異波(左半球: M=0.01 , SD=2.02 ;右半球: M= -0.12 , SD=1.69, 均與0無顯著差異,ts (23)gt;-0.34 psgt;0.735 ,Cohen's dgt;-0.07 。高情緒變異性條件下,左、右半球差異波(左半球: M=0.66 SD=1.05 右半球: M=0.78 , SD=1.14) 均顯著大于0, t(23)= 3.08, p=0.005 ,Cohen's d=0.63 , 95% ( CI=[0.22 01.10]; t(23)=3.33 p=0.003 ,Cohen's d=0.68 95% CI=[0.30,1.26] (圖8C)。結(jié)果表明高情緒變異性面孔集合在 320~420ms 時間窗能誘發(fā)視覺失匹配成分。不過,兩因素重復(fù)測量方差分析發(fā)現(xiàn),情緒變異性與半球的主效應(yīng)和交互作用均不顯著, psgt;0.129 。

腦電解碼的結(jié)果發(fā)現(xiàn),兩種情緒變異性條件的解碼正確率在刺激呈現(xiàn)約 70ms 內(nèi)與隨機水平?jīng)]有差異。從 70ms 左右開始,高、低情緒變異性條件解碼正確率均顯著高于隨機水平(圖8D),最早解碼時間不存在顯著差異 (p=0.683 ,雙側(cè)檢驗)。這表明各情緒變異性條件的標(biāo)準(zhǔn)和偏差刺激均能在早期就被成功解碼。

總之,實驗3也未發(fā)現(xiàn)實驗1中的早期失匹配負(fù)波。不過,在 320~420ms 這一時間窗,低情緒變異性面孔集合沒有誘發(fā)視覺失匹配成分,而高情緒變異性面孔集合則誘發(fā)了視覺失匹配正波(vMMP),這表明大腦對高情緒變異性信息進行了自動加工。MVPA結(jié)果發(fā)現(xiàn),在高、低情緒變異性條件下,全腦均能在 70ms 解碼出標(biāo)準(zhǔn)和偏差刺激的差異,這反映了大腦對標(biāo)準(zhǔn)刺激與偏差刺激有著不同的神經(jīng)響應(yīng)模式。以上結(jié)果說明個體可以自動加工多張面孔的情緒變異性信息,且這一結(jié)果不能僅由全距或分布不同來解釋。

圖8A)實驗3中的ERP波形圖。差異波指由偏差刺激誘發(fā)的ERP減去標(biāo)準(zhǔn)刺激誘發(fā)的ERP,陰影部分是感興趣的時間窗( 110~140ms 和 320~420ms) 。B)實驗3中差異波的地形圖。地形圖上所標(biāo)記電極點的平均波幅用于繪制該腦區(qū)的ERP波形圖以及統(tǒng)計分析 實驗3中高、低情緒變異性條件在 320~420ms 左右側(cè)分析電極的vMMN(偏差刺激波幅減標(biāo)準(zhǔn)刺激波幅)平均波幅,每個點代表被試在該條件下的平均波幅,黑色菱形和誤差棒代表每個條件平均值及 95% 置信區(qū)間。D)實驗3中ERP的解碼結(jié)果??拷? 軸的橫線為解碼正確率大于機會水平的時間窗 (plt;0.05) 。

5 總討論

本研究首次通過反向oddball范式和vMMN(Pazo-Alvarez et al., 2003; Winkler amp; Czigler, 2012)考察多面孔情緒變異信息自動加工的神經(jīng)機制。研究中多面孔情緒變異性加工是與任務(wù)無關(guān)的,并且人們的注意主要被中央注視點變化檢測任務(wù)所占據(jù)(Ding et al., 2022;Liu etal.,2016;Stefanics et al.,2012;Zeng etal.,2022)。實驗1采用兩張憤怒和兩張高興面孔組成面孔集合,平均情緒為中性,考察高、低情緒變異性面孔誘發(fā)的vMMN。單變量分析結(jié)果發(fā)現(xiàn),僅有高情緒變異性面孔在刺激出現(xiàn)后110~140ms 和 320~420ms 誘發(fā)了vMMN。多變量模式分析(MVPA)結(jié)果發(fā)現(xiàn)高、低情緒變異性條件均能在早期解碼出標(biāo)準(zhǔn)和偏差兩種刺激類型。實驗2中面孔集合包含相同情緒效價的4張面孔,平均情緒為中等程度的憤怒或高興,進一步考察情緒類型對多面孔情緒變異性自動加工的影響。單變量分析結(jié)果發(fā)現(xiàn),當(dāng)整體情緒為憤怒時,高、低情緒變異性面孔集合在刺激出現(xiàn)后 320~420ms 均能誘發(fā)視覺失匹配成分;而當(dāng)整體情緒為高興時,高、低情緒變異性面孔集合在呈現(xiàn)后 320~420ms 并未誘發(fā)顯著的vMMN。MVPA結(jié)果則發(fā)現(xiàn),在所有情緒變異性條件下,全腦均能在早期開始解碼出標(biāo)準(zhǔn)和偏差刺激,且高情緒變異性的解碼時程相對更早。與實驗1類似,實驗3中平均情緒為中性,并且控制了不同情緒變異性條件的全距與分布形式。結(jié)果發(fā)現(xiàn)僅有高情緒變異性面孔在刺激出現(xiàn)后320~420ms 誘發(fā)了視覺失匹配成分。MVPA結(jié)果發(fā)現(xiàn),在高、低情緒變異性條件下,全腦也能在早期開始解碼出標(biāo)準(zhǔn)和偏差刺激,這在一定程度上重復(fù)了前兩個實驗的結(jié)果。這些研究結(jié)果表明,人們可以在注意資源非常有限的條件下,自動探測多張面孔情緒變異性的變化,且相對更高的情緒變異性更具加工優(yōu)勢,負(fù)性情緒也在一定程度上有利于情緒變異性的加工。

5.1 多面孔情緒變異性自動加工受相對情緒變異程度影響

已有許多研究表明個體可以自動加工多張面孔的情緒信息。當(dāng)在外周視野呈現(xiàn)的多張面孔情緒類型發(fā)生變化,或是外周與中央面孔的情緒一致性發(fā)生變化時,大腦可以對其進行自動檢測和加工(Stefanics et al., 2012; Xiong et al., 2022; Zeng et al.,2022)。但是這些研究中,同時呈現(xiàn)的多張面孔身份或情緒類型往往是相同的。當(dāng)集合中包含多個不同身份或情緒面孔時,個體也能自動加工其身份和情緒的平均信息(Jietal.,2024;Robertsetal.,2019)。

與平均加工類似,視覺系統(tǒng)可以快速且準(zhǔn)確地對多張不同面孔形成變異性表征。例如,在短暫的呈現(xiàn)時間下(1s)分辨16張面孔的情緒變異性水平(Habermanetal.,2015)。在本研究中,集合包含的每張面孔的情緒強度都是不同的,且無論是偏差還是標(biāo)準(zhǔn)刺激,它們的平均情緒都一致,唯一變化的是面孔集合的變異性。因此,研究中發(fā)現(xiàn)的視覺失匹配成分反映了非注意條件下,個體能夠自動加工外周多張面孔的情緒變異性信息。這種能力使得個體可以感知到一系列面孔集合中情緒變異性水平的規(guī)律,而當(dāng)與規(guī)律不符的偏差刺激出現(xiàn)時,大腦會產(chǎn)生預(yù)測誤差(Jietal.,2024;Lacroixetal.,2022;Stefanics et al.,2014,2019;Winkleramp; Czigler,2012)。

需要注意的是,雖然在實驗2中憤怒的高情緒變異性面孔與實驗3的高情緒變異性面孔也誘發(fā)了視覺失匹配成分,但此時結(jié)果是標(biāo)準(zhǔn)刺激比偏差刺激誘發(fā)的平均波幅更負(fù),即誘發(fā)視覺失匹配正波(vMMP)。以往在低水平刺激(如:光柵)和高水平刺激(如:面孔)上,均有發(fā)現(xiàn)這種\"正向失匹配\"成分(Chen et al.,2020;Ji et al., 2024;Sel et al.,2016;Sulykosamp;Czigler,2011)。與經(jīng)典的vMMN成分相比,vMMP出現(xiàn)了相反的極性,這可能反映了不同情緒類型的視覺失匹配神經(jīng)響應(yīng)來源于不同腦區(qū)(Chenetal.,2020)。盡管我們對于vMMP的形成尚缺少深入的理論解釋,但它仍然可以被認(rèn)為大腦區(qū)分了標(biāo)準(zhǔn)刺激與偏差刺激之間的差異(Sulykosamp;Czigler,2011)。因此,與vMMN類似,vMMP在一定程度上也能反映大腦對刺激的自動加工。

與高情緒變異性面孔集合不同,除了實驗2的憤怒條件,實驗1、實驗2的高興條件,以及實驗3中,低情緒變異性面孔集合并沒有誘發(fā)顯著的視覺失匹配成分。對這一結(jié)果可能的解釋是,人們雖然可以自動識別多面孔情緒變異性信息的變化,但在低情緒變異性面孔序列中,情緒變化較小,而高情緒變異性面孔更為顯著,從而更容易自動識別,反過來卻相對困難。這種不對稱性在以往研究中也有所發(fā)現(xiàn)。例如,多個光柵朝向完全隨機的集合(高變異)與多個光柵朝向很相近的集合(低變異)系列呈現(xiàn),互為標(biāo)準(zhǔn)刺激和偏差刺激。結(jié)果發(fā)現(xiàn),只有對高變異的集合,才發(fā)現(xiàn)偏差和標(biāo)準(zhǔn)誘發(fā)的腦電波幅差異,即誘發(fā)了vMMN;對低變異集合,則沒有發(fā)現(xiàn)顯著的vMMN(Durant etal.,2017)。研究者從預(yù)測編碼(Stefanicsetal.,2014)的角度對其解釋,可能當(dāng)高變異集合作為標(biāo)準(zhǔn)刺激重復(fù)呈現(xiàn)時,雖然集合標(biāo)準(zhǔn)差不變,但集合之間每個個體差異較大,難以建立預(yù)期,因而對偶爾呈現(xiàn)的低變異集合偏差刺激也不再有預(yù)測誤差。

此外,低情緒變異性面孔加工的相對劣勢與其相對變異性水平有關(guān),而非變異性的絕對值。例如,實驗3中低情緒變異性條件(35.67)與實驗1中高情緒變異性條件(36.24)的標(biāo)準(zhǔn)差相似,但是實驗3中低情緒變異性面孔無法誘發(fā)vMMN,而實驗1中高情緒變異性集合卻誘發(fā)了視覺失匹配成分。值得注意的是,雖然各實驗中大部分低情緒變異性條件沒有發(fā)現(xiàn)顯著的vMMN,但是MVPA結(jié)果卻發(fā)現(xiàn)大腦也能解碼出低情緒變異性條件下標(biāo)準(zhǔn)和偏差兩類刺激,說明對這兩類刺激的神經(jīng)反應(yīng)模式存在差別,這在一定程度上反映個體能夠?qū)Φ颓榫w變異性信息進行自動加工。不同結(jié)果之間存在差異的原因可能在于,MVPA利用所有通道的大腦反應(yīng)模式,相較于分析某些特定電極上的平均活動,具有更高的靈敏度(Fahrenfortetal.,2017),有助于揭示傳統(tǒng)ERPs分析中較難識別的條件之間的差異(Epsteinamp;Emmanouil, 2021)。

另一個有趣的發(fā)現(xiàn)是,在實驗1的高情緒變異性條件出現(xiàn)了早期的視覺失匹配成分 (110-140ms) 這與P1成分時間窗有所重疊。一些與面孔情緒加工相關(guān)的研究也發(fā)現(xiàn),視覺失匹配成分出現(xiàn)在P1的時間窗(Liu etal.,2015,2016;Stefanicsetal.,2012)。本研究采用反向oddball范式(Stefanicsetal.,2012),在高情緒變異偏差刺激和高情緒變異標(biāo)準(zhǔn)刺激之間進行比較,或者在低情緒變異偏差刺激和低情緒變異標(biāo)準(zhǔn)刺激之間比較,相比較的刺激僅在呈現(xiàn)頻率上不同,因而早期的視覺失匹配成分不能完全歸因于物理刺激的影響。此外,不同于以往研究只采用單一身份(Gayleetal.,2012;Zhaoamp;Li,2006或相同情緒強度的面孔(Chen etal.,2020;Stefanicsetal.,2012;Zeng etal.,2022),本研究面孔選用了兩名男性和兩名女性共4個身份,并且4張面孔情緒強度均不一致,面孔的位置也是隨機的避免簡單的適應(yīng)效應(yīng)。本研究發(fā)現(xiàn)的早期視覺失匹配成分可能與情緒的相對變異性程度有關(guān)。在實驗1中,高情緒變異性面孔集合的標(biāo)準(zhǔn)差(36.24)與低情緒變異性標(biāo)準(zhǔn)差(12.08)的差距更大,而實驗2中(20.39vs.7與實驗3中高、低情緒變異性標(biāo)準(zhǔn)差(43.42vs.35.67)的差距更小。結(jié)果發(fā)現(xiàn),僅有實驗1中的高情緒變異性面孔集合誘發(fā)了早期的vMMN。一項腦成像研究指出,相較于低變異性的光柵朝向,個體加工高變異性的光柵朝向會引起左側(cè)額中回和右側(cè)額上回更大的激活程度,這表明存在對高變異性信息的加工優(yōu)勢(Allardetal.,2021)。本研究結(jié)果也表明,當(dāng)面孔集合情緒相對變異性程度更大時,個體對其自動加工的程度也相應(yīng)增強。

不過當(dāng)方差分析直接對比高、低情緒變異性下的差異波幅時,除了實驗1的早期時間窗發(fā)現(xiàn)高情緒變異性誘發(fā)的vMMN波幅大于低情緒變異性,其余實驗結(jié)果均沒有發(fā)現(xiàn)兩者之間的顯著差異。這可能表明高、低情緒變異性需要較大的區(qū)別,才能觀察到其誘發(fā)的vMMN差異。后續(xù)研究可以考慮采用更多的面孔數(shù)量,進一步擴大高、低情緒變異性之間的距離,以驗證相對情緒變異性的自動加工機制。

5.2 情緒類型對多面孔情緒變異性自動加工的影響

實驗2中發(fā)現(xiàn)在 320~420ms ,低情緒變異性面孔集合僅有在整體情緒為負(fù)性時,才誘發(fā)視覺失匹配負(fù)波。MVPA也揭示,憤怒條件下對標(biāo)準(zhǔn)和偏差刺激的最早解碼時間早于高興條件。這在一定程度支持了大腦在自動加工多張憤怒面孔時可能出現(xiàn)了負(fù)性偏向。類似的,無論在加工的早期(Stefanicsetal.,2012;Zenget al.,2022)、中期(Chen etal.,2020)、或是晚期階段(Liuetal.,2016),許多研究發(fā)現(xiàn)了對負(fù)性情緒面孔自動加工的優(yōu)勢。

Chen等人(2020)采用視覺掩蔽范式,考察無意識狀態(tài)下個體能否對情緒面孔自動加工,結(jié)果發(fā)現(xiàn)負(fù)性情緒比正性情緒更容易在較低的意識水平下自動加工。另一項研究采用連續(xù)閃爍抑制范式,發(fā)現(xiàn)負(fù)性面孔情緒更容易突破無意識到意識的知覺閾限(Jiangetal.,2018)。當(dāng)個體加工多面孔的平均情緒時,也會出現(xiàn)負(fù)性偏向。一項研究采用二擇一的迫選任務(wù),要求被試將呈現(xiàn)的單張或多張面孔的情緒判斷為憤怒或者高興,其中每種情緒類型的強度范圍從 20% 到 100% 。結(jié)果發(fā)現(xiàn)負(fù)性偏向是面孔數(shù)量與面孔感知的不確定性共同作用的結(jié)果。多張面孔引起的負(fù)性偏向比單張面孔更大,并在面孔數(shù)量4張時達(dá)到峰值。此外,當(dāng)情緒強度低時,會導(dǎo)致面孔感知的不確定性,進而加大了負(fù)性偏向(Mihalacheetal.,2021)。在我們的研究中,采用了4張面孔作為刺激材料,且在外周視野快速呈現(xiàn),同樣也會造成感知的不確定性。因此,大腦出于自我保護的需要,可能會更容易對憤怒面孔這種具有潛在威脅的刺激進行自動加工。此外,無論在高興還是憤怒條件下,相較低情緒變異性面孔集合,大腦對高情緒變異性面孔集合的解碼進程更早。而當(dāng)整體情緒為中性時,并未在高、低情緒變異性之間發(fā)現(xiàn)解碼進程的差異。這說明情緒類型會對多面孔情緒變異性自動加工產(chǎn)生影響。

值得注意的是,實驗2結(jié)果發(fā)現(xiàn),在高情緒變異性條件下,高興面孔誘發(fā)的差異波比憤怒面孔更負(fù)。但是,這并非由于高興面孔誘發(fā)更大程度的視覺失匹配負(fù)波,而是因為兩者誘發(fā)的差異波方向不同,前者為負(fù)值而后者為正值,兩者絕對值沒有顯著差異??傊?,我們的結(jié)果部分支持了憤怒情緒在一定程度上有利于情緒變異性的自動加工,但仍需在更嚴(yán)格控制不同效價的情緒強度的基礎(chǔ)上進一步驗證這一結(jié)果。

此外,實驗2還發(fā)現(xiàn),在憤怒情緒下,低情緒變異性面孔誘發(fā)了vMMN,而高情緒變異性面孔誘發(fā)了vMMP。在以往研究中,也發(fā)現(xiàn)在不同的情緒條件下,面孔情緒的自動加工誘發(fā)了相反極性的視覺失匹配成分。例如,憤怒情緒誘發(fā)vMMN,而高興情緒誘發(fā)vMMP(Chenetal.,2020;Jietal.,2024)。然而,在本研究的實驗3中,即使平均情緒為中性,高情緒變異性條件依然誘發(fā)了vMMP。視覺失匹配成分的極性與面孔情緒效價以及情緒變異性程度的關(guān)系尚未完全明確,仍需進一步考察。

本研究還有一些不足之處。首先,研究采用中央注視點辨別任務(wù)來占據(jù)注意資源,盡管該任務(wù)在vMMN研究中被廣泛使用(Liuetal.,2024;Menzelet al.,2018;Stefanics et al., 2012; Tse et al., 2021;Zengetal.,2022),并有證據(jù)表明在該任務(wù)下,人們難以分辨或識別外周視野與任務(wù)無關(guān)的面孔信息(Jietal.,2024),但該任務(wù)仍相對比較簡單。未來研究可以考慮采用其他更需注意資源的任務(wù),例如移動目標(biāo)追蹤(Csikós etal.,2024;Fileamp; Czigler,2019),以進一步檢驗變異性加工對注意資源依賴的程度。其次,雖然實驗3中控制了高、低情緒變異性條件均為對稱分布,但嚴(yán)格而言兩者分布仍不完全相同,這是在控制全距操縱變異性時不可避免的。不同分布對面孔情緒變異性自動加工的影響有待未來進一步探究。

6 結(jié)論

綜上所述,本研究發(fā)現(xiàn)了個體可以在非注意的狀態(tài)下,自動加工多張情緒強度各不相同的面孔的情緒變異性信息。當(dāng)情緒相對變異性程度更高時,個體對其自動加工程度相應(yīng)增強。此外,情緒類型也對多面孔情緒變異性自動加工產(chǎn)生影響,憤怒面孔變異性的自動加工具有一定優(yōu)勢。

參考文獻

Allard,R.,Ramanoél,S.,Silvestre,D.,amp; Arleo,A.(2021). Variance-dependent neural activity in an unvoluntary averaging task.Attention, Perception,amp;Psychophysics,3(3), 1094-1105. https://doi.org/10.3758/s13414-020-02223-8

Alvarez, G. A. (2011). Representing multiple objects as an ensemble enhances visual cognition. Trends in Cognitive Sciences,15(3), 122-131. https://doi.org/10.1016/j.tics. 2011.01.003

Alvarez,G.A.,amp; Oliva,A.(2oo8).The representationof simple ensemble visual features outside the focus of attention.Psychological Science,19(4),392-398.https:/ doi.org/10.1111/j.1467-9280.2008.02098.x

Alvarez, G.A.,amp; Oliva,A. (20o9).Spatial ensemble statistics are efficient codes that can be represented with reduced attention.Proceedings of the National Academy of Sciences. 106(18), 7345-7350. https://doi.org/10.1073/pnas.0808981106

Ariely,D.(2ool).Seeing sets:Representation by statistical properties. Psychological Science, 12(2),157-162. htps:// doi.org/10.1111/1467-9280.00327

Astikainen,P.,Cong,F(xiàn).,Ristaniemi,T.,amp; Hietanen,J.K. (2013).Event-related potentialsto unattended changesin facial expressions:Detection of regularity violations or encodingofemotions?FrontiersinHumanNeuroscience,7 https://doi.org/10.3389/fnhum.2013.00557

Bex,P.J.,amp; Makous,W. (2oo2). Spatial frequency, phase,and the contrast of natural images. Journal of the Optical Society of America A, 19(6),1096-1106.https://doi.org/ 10.1364/JOSAA.19.001096

Brand,J.,Oriet,C.,amp; Sykes Tottenham,L.(2012). Size and emotion averaging: Costs of dividing attention after all. Canadian Journal ofExperimental Psychology/ Revue Canadienne dePsychologie Experimentale,66(1),63-69. https://doi.org/10.1037/a0026950

Campbell, J.I.D.,amp; Thompson, V.A. (2012).MorePower 6.0 for ANOVA with relational confidence intervalsand Bayesian analysis. Behavior Research Methods,44(4), 1255-1265.https://doi.org/10.3758/s13428-012-0186-0

Cant,J. S.,amp; Xu, Y. (2020). One bad apple spoils the whole bushel: The neural basis of outlier processing. NeuroImage, 211,116629.https://doi.org/10.1016/j.neuroimage.2020.116629

Carlson, T.A., Grootswagers,T.,amp; Robinson,A.K. (2020). An introduction to time-resolved decoding analysis for M/EEG.In D. Poeppel, G.R.Mangun,amp; M. S.Gazzaniga (Eds.), The cognitive neurosciences (6th ed., pp. 679-690). TheMIT Press.https:/oi.org/10.7551/mitpress/11442.003.0075

Chen,B., Sun,P.,amp; Fu, S.(2020).Consciousness modulates the automatic change detection of masked emotional faces: Evidencefromvisualmismatchnegativity.Neuropsychologia,144, 107459. https://doi.org/10.1016/j.neuropsychologia.2020.107459

Chetverikov,A.,Campana,G.,amp; Kristjansson,A.(2017). Representing color ensembles. Psychological Science, 28(10), 1510-1517. https://doi.org/10.1177/0956797617713787

Chong, S. C., amp; Ireisman, A. (ZUu3). Kepresentation oI statistical properties. Vision research, 43(4), 393-404. https:// doi.org/10.1016/s0042-6989(02)00596-5

Csikós,N.,Petro,B., Kojouharova,P., Gaal, Z. A., amp; Czigler, I.(2024).Automatic change detection in Interwoven sequences: A visual mismatch negativity study. Journal of Cognitive Neuroscience, 36(3), 534-550. https://doi.org/ 10.1162/jocn_a_02099

Csizmadia,P.,Petro,B.,Kojouharova,P.,Gaal,Z. A., Scheiling,K.,Nagy,B.,amp;Czigler,I.(2021).Older adults automatically detect age of older adults’ photographs: A visual mismatch negativity study. Frontiers in Human Neuroscience, 15, 707702. https://doi.org/10.3389/fnhum. 2021.707702

Czigler,I. (20o7).Visual Mismatch Negativity:Violation of nonattendedenvironmentalregularities. Journalof Psychophysiology,21(3-4), 224-230. htps://doi.org/10.1027/ 0269-8803.21.34.224

Czigler, I.,amp; Sulykos,I. (2010). Visual mismatch negativity to irrelevant changes is sensitive to task-relevant changes. Neuropsychologia, 48(5), 1277-1282. htps://doi.org/10.1016/ j.neuropsychologia.2009.12.029

deGardelle,V.,amp; Summerfield, C.(2011).Robust averaging during perceptual judgment. Proceedings of the National Academy of Sciences,108(32),13341-13346. https://oi.org/ 10.1073/pnas.1104517108

Ding,X.,Chen,Y.,Liu,Y.,Zhao,J.,amp; Liu,J.(2022).The automatic detection ofunexpected emotion and neutral body postures: A visual mismatch negativity study. Neuropsychologia, 164,108108. htps://doiorg/10.1016/j.neuropsychologia.2021. 108108

Durant,S.,Sulykos,I.,amp; Czigler,I.(2017).Automatic detectionoforientation variance.NeuroscienceLetters,658, 43-47. https://doi.org/10.1016/j.neulet.2017.08.027

Elias,E., Padama,L.,amp; Sweeny, T. D. (2018). Perceptual averaging of facial expressions requires visual awareness and attention. Consciousness and Cognition,62,110-126. https://doi.org/10.1016/j.concog.2018.03.005

Epstein,M.L.,amp; Emmanouil,T. A.(2021).Ensemble statistics can be available before individual item properties: Electroencephalography evidence using the oddball paradigm. Journal of Cognitive Neuroscience,33(6),1056-1068. https://doi.org/10.1162/jocn_a_01704

Fahrenfort,J.J.,van Leeuwen,J.,Olivers,C.N.L.,amp; Hogendoorn,H. (2017).Perceptual integration without conscious access. Proceedings of the National Academy of Sciences,114(14), 3744-3749. htps://doi.org/10.1073/ pnas.1617268114

File,D.,amp; Czigler,I. (2019). Automatic detectionof violations of statistical regularities in the peripheryis affected by the focus of spatial attention:Avisual mismatch negativitystudy.EuropeanJournalofNeuroscience,49(10), 1348-1356.https://doi.org/10.1111/ejn.14306

Gayle,L. C., Gal,D.E.,amp; Kieffaber, P D. (2012). Measuring affective reactivity in individuals with autism spectrum personality traits using the visual mismatch negativity event-related brain potential. Frontiers in Human Neuroscience, 6. https://doi.org/10.3389/fnhum.2012.00334

Grootswagers,T.,Wardle,S.G.,amp; Carlson,T.A.(2017). Decoding dynamic brain patterns from evoked responses: A tutorial on multivariate pattern analysis applied to time series neuroimaging data. Journal of Cognitive Neuroscience, 29(4),677-697. htps://oi.org/10.1162/jocn_a_01068

Haberman,J., Lee,P.,amp; Whitney,D. (2015).Mixed emotions: Sensitivity to facial variance in a crowd of faces. Journal of Vision, 15(4),16. https://doi.org/10.1167/15.4.16

He,W.,Li, S.,amp; Zhao,D. (2021). Neural mechanism underlying the perception of crowd facial emotions. Advances in Psychological Science,29(5),761-772. https://doi.org/10.3724/SP.J.1042.2021.00761

[何蔚祺,李帥霞,趙東方.(2021).群體面孔情緒感知的神 經(jīng)機制.心理科學(xué)進展,29(5),761-772.]

Huang,L. (2015). Statistical properties demand as much attention as object features. PLOS ONE,10(8), e0131191. https://doi.org/10.1371/journal.pone.0131191

Jeong,J.,amp; Chong, S.C.(2021).Perceived variability reflects thereliability of individual items.Vision Research,183, 91-105. https://doi.org/10.1016/j.:visres.2021.02.008

Ji,L.,Chen,Z.,Zeng,X.,Sun,B.,amp; Fu,S.(2024).Automatic processing of unattended mean emotion:Evidence from visual mismatch responses. Neuropsychologia,202,108963 https://doi.org/10.1016/j.neuropsychologia.2024.108963

Ji,L.,Rossi,V.,amp; Pourtois,G.(2018).Meanemotion from multiple facial expressions can be extracted with limited attention: Evidence from visual ERPs. Neuropsychologia, 111, 92-102. https://doi.org/10.1016/j.neuropsychologia.2018.01.022

Jiang,Y.,Wu,X.,Saab,R.,Xiao,Y.,amp;Gao,X.(2018).Time course of influence on the allocation of attentional resources caused by unconscious fearful faces. Neuropsychologia, 113, 104-110. https://doi.org/10.1016/j.neuropsychologia.2018.04.001

Kecskés-Kovacs,K., Sulykos,I.,amp; Czigler,I. (2013).Is it a face of a woman or a man? Visual mismatch negativity is sensitive to gender category. Frontiers in Human Neuroscience,7. https://doi.org/10.3389/fnhum.2013.00532

Khvostov,V. A.,amp; Utochkin,I. S. (2019). Independent and parallel visual processing of ensemble statistics: Evidence from dual tasks.Journal of Vision,19(9),3.https:// doi.org/10.1167/19.9.3

Kim,M.,amp; Chong, S.C. (2020). The visual system does not compute a single mean but summarizes a distribution. JournalofExperimental Psychology:Human Perception and Performance, 46(9), 1013-1028. https://doi.org/ 10.1037/xhp0000804

Kovarski,K.,Latinus,M.,Charpentier,J.,Cléry,H.,Roux,S., Houy-Durand, E.,... Gomot, M. (2017). Facial expression relatedvMMN:Disentangling emotional from neutral change detection.Frontiersin Human Neuroscience,11. https://doi.org/10.3389/fnhum.2017.00018

Lacroix,A.,Harquel,S.,Mermillod,M.,Vercueil,L., Alleysson,D.,Dutheil,F(xiàn).,Kovarski,K.,amp; Gomot,M. (2022). The predictive role of low spatial frequencies in automatic face processing:A visual mismatch negativity investigation. Frontiers in Human Neuroscience, 16, 838454.https://doi.org/10.3389/fnhum.2022.838454

Lau,J.S.-H.,amp; Brady,T. F. (2018). Ensemble statistics accessed through proxies: Range heuristic and dependence onlow-level propertiesin variability discrimination. Journal of Vision,18(9),3. https://doi.org/10.1167/18.9.3

Li,Q.,amp;Chen,W.(2022).Differencesin ensemble representation dependent on various stimulus types and attributes. Chinese Science Bulletin,67(21),2463-2472. https://doi.0rg/10.1360/TB-2021-1068

[勵奇添,陳文鋒.(2022).集群表征在不同刺激及屬性間的 差異.科學(xué)通報,67(21),2463-2472.]

Li, Y., Zhang, M.,Liu, S., amp; Luo, W. (2022). EEG decoding of multidimensional information fromemotional faces. NeuroImage,258,119374.https://doi.org/10.1016/j.neuroimage. 2022.119374

Liu, J.,Liu, Y., Jiang, H., Zhao,J.,amp; Ding, X.(2024).Facial feedback manipulation influences the automatic detection of unexpected emotional body expressions. Neuropsychologia, 195,108802. https://doi.org/10.1016/j.neuropsychologia.2024. 108802

Liu,T.,Xiao,T.,Li,X.,amp; Shi,J.(2015).Fluid intelligence and automatic neural processes in facial expression perception: An event-related potential study. PLOS ONE, 10(9), e0138199. https://doi.org/10.1371/journal.pone.0138199

Liu, T.,Xiao, T.,amp; Shi, J.(2016).Automatic change detection to facial expressions in adolescents:Evidence from visual mismatch negativity responses. Frontiers in Psychology, 7, 462. htps://doi.org/10.3389/fpsyg.2016.00462

Liu,Y.,amp;Ji,L.(2024).Ensemblecodingofmultiplefacial expressions is not affected by attentional load.BMC Psychology,12(1),102. https://oi.org/10.1186/s40359-024- 01598-9

Maris,E.,amp; Oostenveld,R. (20o7).Nonparametric statistical testing of EEG- and MEG-data. Journal of Neuroscience Methods, 164(1), 177-190. https://doi.org/10.1016/ j.jneumeth.2007.03.024

McNair,N.A., Goodbourn,P.T., Shone,L.T.,amp; Harris,I.M. (2017). Summary statistics in the attentional blink.Attention, Perception,amp; Psychophysics, 79(1), 100-116. https://doi.org/ 10.3758/s13414-016-1216-2

Menzel, C., Kovacs, G., Amado, C., Hayn-Leichsenring, G U., amp;Redies,C.(2018).Visual mismatch negativityindicates automatic, task-independent detection of artistic image composition in abstract artworks. Biological Psychology, 136,76-86. htps://doi.org/10.1016/j.biopsycho.2018.05.005

Mihalache,D.,Lamer, S.A.,Allen,J.,Maher,M.,amp; Sweeny, T.D.(2021). Anger bias in the evaluation of crowds. Journal of Experimental Psychology: General, 150(9), 1870-1889. https://doi.org/10.1037/xge0001025

Morgan,M.,Chubb,C.,amp;Solomon,J.A.(20o8).A‘dipper’ function for texture discrimination based on orientation variance. Journal of Vision, 8(11), 9-9. https://doi.org/ 10.1167/8.11.9

Norman,L.J.,Heywood,C.A.,amp;Kentridge,R.W.(2015). Direct encodingof orientation variance in the visualsystem. Journal of Vision,15(4),3. https://doi.org/10.1167/15.4.3

Oosterhof, N.N.,Connolly,A.C.,amp; Haxby, J.V.(2016). CoSMoMVPA:Multi-modal multivariate patrn analysis of neuroimaging data in Matlab/GNU Octave. Frontiers in Neuroinformatics,10. https://doi.org/10.3389/fninf.2016. 00027

Pazo-Alvarez,P., Cadaveira,F(xiàn).,amp;Amenedo,E.(2oo3).MMN in the visual modality: A review. Biological Psychology, 63(3),199-236. htps://doi.org/10.1016/S0301-0511(03)00049-8

Proklova,D.,Kaiser,D.,amp; Peelen,M.V.(2019).MEG sensor patterns reflect perceptual but not categorical similarity of animateandinanimateobjects.NeuroImage,193,167-177. https://doi.org/10.1016/j.neuroimage.2019.03.028

Roberts,T.,Cant,J.S.,amp; Nestor,A. (2019).Elucidating the neural representation and the processing dynamics of face ensembles.TheJournalofNeuroscience,39(39),7737-7747. https://doi.0rg/10.1523/JNEUROSCI.0471-19.2019

Sel,A., Harding,R.,amp; Tsakiris,M. (2016). Electrophysiological correlates of self-specific prediction errors in the human brain.NeuroImage,125,13-24.https://doi.org/10.1016/ j.neuroimage.2015.09.064

Solomon, J.A.,Morgan,M.,amp; Chubb,C.(2011).Efficiencies for the statistics of size discrimination. Journal of Vision, 11(12),13-13. https://doi.org/10.1167/11.12.13

Stefanics,G.,Csukly, G., Komlósi, S., Czobor,P.,amp; Czigler,I. (2012). Processing of unattended facial emotions: A visual mismatch negativity study.NeuroImage,59(3),3042-3049. https://doi.org/10.1016/j.neuroimage.2011.10.041

Stefanics,G.,Kremlacek,J.,amp; Czigler,I.(2014).Visual mismatch negativity: A predictive coding view. Frontiers in Human Neuroscience, 8. https://doi.org/10.3389/fnhum. 2014.00666

Stefanics,G.,Stephan,K.E.,amp; Heinzle,J.(2019). Feature-specific prediction errors for visual mismatch. NeuroImage, 196,142-151. https://doi.org/10.1016/ j.neuroimage.2019.04.020

Sulykos,I.,amp; Czigler,I. (2011). One plus one is less than two: Visual features elicit non-additive mismatch-related brain activity. Brain Research,1398,64-71. https://doi.org/ 10.1016/j.brainres.2011.05.009

Tokita,M., Ueda, S., amp; Ishiguchi, A. (2016). Evidence for a global sampling process in extraction of summary statistics of item sizes in a set. Frontiers in Psychology, 7, 711. https://doi.org/10.3389/fpsyg.2016.00711

Tong,K., Tang, W., Chen, W.,amp; Fu, X. (2015).Statistical summary representation:Contents and mechanisms.Advances in Psychological Science,23(10),1723-1731. htps:/doi.org/ 10.3724/SP.J.1042.2015.01723

[仝可,唐薇,陳文鋒,傅小蘭.(2015).統(tǒng)計概要表征的內(nèi) 容與機制.心理科學(xué)進展,23(10),1723-1731.]

Tse,C.-Y., Shum,Y.-H., Xiao,X.-Z.,amp; Wang,Y.(2021). Fronto-occipital mismatch responses in pre-attentive detection of visual changes: Implication on a generic brain network underlying Mismatch Negativity (MMN). NeuroImage, 244,118633. https://doi.org/10.1016/j.neuroimage.2021.118633

Wang,H.,Chen,E.,Lian,Y.,Li,J.,amp;Wang,L.(2023). Automaticprocessingof facialwidth-to-heightratio.Acta Psychologica Sinica,55(11),1745-1761.https://doi.org/ 10.3724/SP.J.1041.2023.01745

[汪海玲,陳恩光,連玉凈,李晶晶,王麗薇.(2023).面孔寬 高比的自動加工.心理學(xué)報,55(11),1745-1761.]

Whitney,D.,amp;Yamanashi Leib,A.(2018).Ensemble perception. Annual Review of Psychology,69(1),105-129. https://doi.org/10.1146/annurev-psych-010416-044232

Winkler, I.,amp; Czigler, I. (2012). Evidence from auditory and visual event-related potential (ERP) studies of deviance detection (MMN and vMMN) linking predictive coding theories and perceptual object representations.International Journal of Psychophysiology, 83(2), 132-143. https://doi.org/ 10.1016/j.ijpsycho.2011.10.001

Winkler,I., Czigler,I., Sussman,E.,Horvath,J.,amp; Balazs,L. (2005). Preattentive binding of auditory and visual stimulus features. Journal of Cognitive Neuroscience,17(2), 320-339. https://doi.org/10.1162/0898929053124866

Xiong,M.,Ding,X.,Kang,T., Zhao,X.,Zhao,J.,amp;Liu,J. (2022). Automatic change detection of multiple facial expressions:Avisualmismatchnegativitystudy. Neuropsychologia,170, 108234.htps://doi.org/10.1016/ j.neuropsychologia.2022.108234

Yang,T.,Yang,Z.,Xu,G.,Gao,D., Zhang,Z.,Wang,H.,. Sun,P. (2020). Tsinghua facial expression database -A database of facial expressions in Chinese young and older women and men: Development and validation. PLOS ONE, 15(4),e0231304. https://doi.org/10.1371/journal.pone.0231304

Yang,Y.,Tokita,M.,amp; Ishiguchi,A.(2018).Istherea common summary statistical process for representing the meanand variance?Astudyusingillustrationsof familiar items. I-Perception,9(1),204166951774729.https:// doi.org/10.1177/2041669517747297

Zeng,X.,Ji,L.,Liu,Y., Zhang,Y.,amp; Fu,S.(2022).Visual mismatch negativity reflects enhanced response to the deviant:Evidence from event-related potentialsand electroencephalogram time-frequency analysis. Frontiers in HumanNeuroscience, 16, 800855. https://doi.org/ 10.3389/fnhum.2022.800855

Zhao,L.,amp; Li, J. (20o6).Visual mismatch negativity elicited byfacial expressions under non-attentional condition. Neuroscience Letters, 410(2), 126-131. https://doi.org/ 10.1016/j.neulet.2006.09.081

Automatic processing of variability in multiple facial expressions: Evidence from visual mismatch responses

CHEN Zilong, JI Luyan

(SchoolofEducation,GuangzhouUniversity,Guangzhou51ooo6,China

Abstract

The variability of multiple facial expressions can be extracted efficiently. However, whether processing emotional variability is automatic and whether it is impacted by types of emotions remain unresolved.

To answer these questions, we employed a passive oddball paradigm and recorded event-related potentials while participants performed an atention-demanding task to detect changes in central fixation.A setof four faces was shown in the periphery, either displaying low (Experiment ; Experiment 2: SD=7 )or high emotional variability (Experiment ; Experiment 2: SD=20.39 ),which was manipulated by changing the distance of emotional units among faces. In Experiment 1,the face set consisted of two angry faces and two happy faces, and the mean emotion was neutral (M=50 ). In Experiment 2, all four faces were angry or happy,and the mean emotion was moderate anger ( M=25 )ormoderatehappiness( M=75 ).In Experiment 3, we additionally controlled for the range of emotional units in the setand used symmetrical distributions in both low- ( , ) and high-variability conditions ( δM=50 SD=43.42Ω . The two variability conditions had matched mean emotions and were shown with probabilities of 20% (deviant) and 80% (standard), respectively, in the sequence,or vice versa.When deviant stimuli are embedded within a series of standard stimuli, the appearance of the deviant disrupts the established statistics or regularity,leading to the observation of the vMMN (visual mismatch negativity). The vMMN is considered an index of automatic change detection, evoked by any alteration in the sequence.

The results showed that in Experiment 1, faces with low emotional variability did not elicit vMMN, whereas those with high emotional variability elicited vMMN at both early ( (110-140ms) andlate (320-420ms) ! time intervals. Further multivariate pattern analysis (MVPA)using all EEG channels revealed that the brain could decode standard and deviant stimuli before 100ms under conditions of both high and low emotional variability. In Experiment 2,when the mean emotion was angry,faces with low emotional variability elicited vMMN,whereas faces with high emotional variability elicited vMMP (visual mismatch positivity) in the time window of 320-420ms . In contrast, when the mean emotion was happy,faces with both high and low emotional variability did not elicit significant vMMN in the 320-420 ms time window. Moreover, under all conditions of emotional variability,the standard and deviant stimuli could be successully decoded at an early stage, but the decoding onset latency was significantly later in the low-variability condition than in the high-variability condition for both happy and angry emotions.In Experiment 3,faces with low emotional variability did not elicit vMMN, whereas those with high emotional variability elicited vMMP in the time window of 320-420ms MVPA revealed that the standard and deviant stimuli could be decoded during the early stage in both variability conditions,replicating the results ofthe previous experiments and excluding the potential confounding factors of range and distribution.

Overall,we found that the variability of multiple unattended facial expressions can be perceived automatically.Moreover,there is an advantage in the automatic processing of relatively higher emotional variability, and this advantage is also influenced by the valence of emotions.

Keywordsemotional variability, ensemble pereption,facial expressions, visual mismatchnegativity (vM),eventrelated potentials (ERPs)

主站蜘蛛池模板: 久久综合伊人 六十路| 国产精品第一区| 亚洲不卡网| aⅴ免费在线观看| 成年人国产视频| 中文字幕欧美日韩| 精品一区二区三区波多野结衣| 免费又爽又刺激高潮网址 | 国产成人精品在线1区| 五月综合色婷婷| 亚洲v日韩v欧美在线观看| 国产精品对白刺激| 日a本亚洲中文在线观看| 色噜噜狠狠色综合网图区| 丁香六月综合网| 日韩不卡免费视频| 国产导航在线| 日韩国产欧美精品在线| 国产成人三级| 在线免费看片a| 一本色道久久88综合日韩精品| 日韩精品一区二区三区大桥未久| 亚洲色无码专线精品观看| 亚洲男女天堂| 国产精品美人久久久久久AV| 97青草最新免费精品视频| 国产精品尤物在线| 亚洲欧美激情小说另类| 欧美一道本| 在线国产资源| 亚洲日产2021三区在线| 91口爆吞精国产对白第三集| 国产一区二区精品福利| 亚洲无限乱码| 91精品伊人久久大香线蕉| 伊人成色综合网| 国产SUV精品一区二区| 孕妇高潮太爽了在线观看免费| 欧美亚洲国产日韩电影在线| 国产精品成| 韩国v欧美v亚洲v日本v| 亚洲黄色高清| 国产www网站| 99视频精品在线观看| 成人免费午夜视频| 成人精品视频一区二区在线| 男人天堂亚洲天堂| 91精品啪在线观看国产91九色| 一本大道东京热无码av| www.亚洲一区二区三区| 免费不卡在线观看av| 成人在线天堂| 久久久久国产精品熟女影院| 色天天综合| 欧美精品导航| 人妻无码中文字幕一区二区三区| 精品国产电影久久九九| 在线国产毛片手机小视频| 在线精品亚洲国产| 五月丁香在线视频| 亚洲天堂视频在线播放| 专干老肥熟女视频网站| 国内毛片视频| 色婷婷电影网| 亚洲中文久久精品无玛| 精品久久香蕉国产线看观看gif| 日韩人妻精品一区| 国产免费a级片| 欧洲在线免费视频| 国产三级成人| 91极品美女高潮叫床在线观看| 91精品国产麻豆国产自产在线| 国产精品永久不卡免费视频| 久久婷婷综合色一区二区| www.国产福利| 欧美日韩成人在线观看| 97国内精品久久久久不卡| 国产成人无码Av在线播放无广告| 九九九九热精品视频| 国产精品免费福利久久播放| 国产av剧情无码精品色午夜| 99久久亚洲综合精品TS|