1引言
視覺工作記憶(VisualWorkingMemory,VWM)是一個容量有限的記憶系統,負責對視覺信息進行短暫的維持和操作。傳統理論認為工作記憶表征的維持依賴持續的神經元激活。但近幾年的研究卻揭示出,工作記憶維持階段的神經活動實際上由記憶項目和當前任務的相關性所主導(Lewis-Peacocketal..2012;LaRocqueetal.,2013):那些與當前任務緊密相關的項自信息會被留存于注意力焦點之內,通過持續的神經元激活進行記憶表征維持,被稱為“在線態\"記憶;與之相對,那些與當前任務并無關聯的項目信息則處于注意力焦點之外,依靠暫時改變神經元突觸間的鏈接權重進行記憶表征維持,在這一過程中無法觀測到神經元激活,被稱作“離線態”記憶。記憶表征能夠依據任務的具體要求在這兩種存儲狀態之間靈活地進行轉換(Chotaetal.,2021;Muhle-Karbeetal.,2021;Rose,2020)。已有研究顯示,盡管在離線態表征存儲期間無法檢測到神經激活現象,但這些表征依然能被有效維持,并在面對時間衰減和外界干擾時表現出一定程度的穩定性(Zhangetal.,2022;李子媛等,2025);此外,在線態和離線態的存儲資源彼此之間呈現出相互獨立的關系,具體表現為其中某一存儲態的負荷發生變化時,并不會對另一存儲態的記憶表現產生影響(Lietal.,2021;Oberauer,2002)。需要指出的是,現有研究多采用簡單視覺刺激(如顏色、形狀等)來考察工作記憶離線態的存儲機制,這與現實情境中復雜的多模態信息處理存在顯著差異。作為社會性物種,面部情緒加工在人類社會認知中具有特殊地位。實驗研究顯示,人類對面孔的感知相較于其他具有意義的信息或客體更為敏銳(Yeetal.,2018;Youngamp;Burton,2018)。因此,深入探究情緒面孔信息的離線態存儲加工機制具有更為重要的社會價值。
以往關于負性情緒面孔的工作記憶研究表明,負性情緒面孔信息具有穩定的記憶加工優勢。例如,Jackson等人(2009)的經典研究發現,相對于中性和愉悅面孔,被試對憤怒面孔的工作記憶成績更好。后續研究認為,負性情緒面孔的加工優勢來源于在編碼和維持階段占用了更多的注意資源,進而提高了表征質量(Sessa etal.,201l;Leeamp; Cho,2019;Schindleramp;Bublatzky,2020),且與喚醒度無關(Jacksonetal.,2014;Leeamp;Cho,2019)。與此同時,這種優勢可以通過負性情緒加工過程中的神經活動來解釋,研究者們發現負性情緒能夠增強杏仁核和梭狀回活動,而這些腦區與威脅識別和注意調控密切相關(Lietal.,2023)。需要注意的是,以往涉及情緒面孔記憶的工作記憶任務,都只局限于在線態存儲,并未涉及離線態存儲。當利用離線態系統存儲負性情緒面孔時,存儲本身是否仍會被自動分配更多的認知加工資源,從而與在線態表征存儲發生資源競爭?這一問題尚需要進一步通過實驗驗證。
此外,已有研究發現,在情緒面孔分類判斷任務中,面孔的情緒信息可以引發被試自身情緒狀態的改變(Falkenberg et al.,2012;Schneider et al.,1994;Srivastavaetal.,2003)。而個體的工作記憶加工模式在不同的情緒狀態下會存在一定的差異,例如負性的情緒狀態會降低個體的工作記憶容量(Figueiraetal.,2017),并且影響工作記憶的加工過程(Linamp;Liang,2023;Longetal.,2020;Xie etal.,2023;Yeetal.,2024)。上述研究結果提示了另一種潛在的作用機制:負性面孔信息的離線態存儲可能通過誘發個體情緒狀態的改變,進而對同步進行的在線態存儲產生自上而下的調節作用。因此,在觀察到負性面孔的工作記憶離線態存儲對在線態存儲存在顯著影響的結果時,有必要對其潛在的作用機制進行區分驗證:這種影響究竟源于認知資源的直接競爭,還是通過情緒狀態的改變進行間接調節?
研究表明,在刺激呈現后 500ms 的編碼階段頂葉以及枕葉區域會出現一個持續的正向波(LatePositivePotential,LPP),該成分能有效反映編碼階段的注意資源分配以及對任務目標的持續性注意(Gableamp; Adams,2013;Hajcaketal.,2013;Ribes-Guardiola etal.,2023;Schindleretal.,2022)。研究結果顯示,相較于中性面孔,憤怒面孔能夠誘發更大的LPP波幅,即具備注意資源分配方面的顯著優勢(Schindleramp;Bublatzky,2020;Linamp;Liang,2023);并且在面孔編碼過程中,若先前的材料對當前任務的注意過程產生干擾,那么也會對LPP振幅產生影響(Linamp;Liang,2023)。此外,工作記憶維持階段的神經活動通常以對側延遲活動(ContralateralDelayActivity,CDA)為指標,該成分表現為偏側化刺激在對側頂-枕區域誘發的持續性負慢波,其幅值與在線態存儲負荷呈正相關。大量研究表明,CDA能夠反映工作記憶項目的在線維持,當記憶項目轉移至離線態存儲,CDA就會降落至基線水平(Kreitheretal.,2022;Zhang etal.,2022)。基于此,CDA可作為監測記憶項目狀態轉換的重要依據。
綜上,本研究將采用序列記憶提取范式并結合腦電技術,探究離線態中負性面孔信息是否會影響在線態面孔信息的編碼和維持。實驗中通過控制雙記憶陣列(M1/M2)順序呈現并逆序探測實現存儲態分離(Li et al.,2024;Zhang et al.,2022);同時,采用腦電事件相關電位(Event-related potentials,ERPs)技術,選取和分析LPP和CDA腦電指標,并結合多變量模式分析(Multivariate Pattern Analysis,MVPA)對腦電信號進行神經解碼。在刺激調控上,僅操縱 M1的面孔情緒(憤怒/中性),并且控制 M1中的項目偏側化呈現以誘發特異性CDA成分;而M2始終為中性面孔,并以中線呈現的方式消除空間干擾。我們假設,在M1呈現后將觀察到明顯的CDA成分,但是該成分將在M2呈現后消失,意味著M1的存儲完全轉移到離線狀態。如果離線態儲存的負性面孔影響在線態面孔的儲存,那么在M2編碼過程中所觀察到的注意資源分配相關的LPP成分的幅度,應該在負性面孔條件下顯著大于中性面孔條件;同時,在M1和M2的加工階段,也能觀察到基于情緒條件的有效解碼。另外,由于解碼曲線無法體現由條件操縱引發的具體神經活動的變化進程,即在不同條件下的神經活動差異是由于憤怒面孔的情緒狀態導致的,還是由于資源分配的差異引發的。因此引入時間泛化分析作為補充:如果神經活動差異來自于憤怒面孔引發的負性情緒狀態,那么解碼模型在整個任務中應該具備較強的泛化能力,即M1和M2維持階段的分類模型可以相互解碼;如果神經活動差異來自于情緒面孔的資源分配差異,那么解碼模型應隨著時間動態變化,在較遠的時間上不具備泛化能力,即M1維持階段的解碼模型無法對M2維持階段的腦電數據進行解碼。
2 方法
2.1 被試
來自遼寧師范大學的22名大學生參加本實驗(平均年齡 21±2.01 歲,13名女性)。所有被試視力正常或矯正視力正常。我們基于Cohen(2013)定義的高效應量0.80,采用 G* Power3.19軟件計算Cohen's d=0.80 ! a=0.05 、 N=22 時,
0本研究遵循赫爾辛基宣言,并獲得了遼寧師范大學倫理委員會的批準。
2.2 儀器
被試在一個昏暗安靜的房間內進行實驗,坐在距離屏幕 60cm 的位置。屏幕分辨率為 1920×1080 0刷新率為 60Hz 。實驗計算機使用Windows7系統,實驗程序由MatlabR2017a和PsychToolBox3.0編寫。
2.3 刺激
實驗材料來自于中國情緒圖片(ChineseAffectivePictureSystem,CAPS),先前的研究表明,男性面孔比女性面孔更有助于被試的識別(Beckeretal.,2007;Yeetal.,2018)。與此同時,相比于其他消極面孔,憤怒面孔能更有效地引起被試對材料的注意和識別(Foxetal.,2000)。因此本實驗只采用男性的中性情緒和憤怒情緒面孔圖片作為材料。在憤怒條件下,從8張憤怒面孔中隨機選擇2張作為M1的記憶項目;在中性條件下,從8張中性面孔中選擇2張作為M1的記憶項目。為避免與M1的中性面孔重復,M2中的2張記憶項目來自另外的16張中性面孔。圖片數量設置保證每張面孔作為記憶項目出現的概率相同。除此之外,在實驗材料之外隨機選取8張中性面孔圖片,每張圖片分割成 5×5 的碎片,將 8×5×5 個碎片隨機組合成8張新圖片,將其作為記憶階段和探測階段的占位符。刺激呈現在灰色的屏幕上,大小為 2.6°×3° ,M1與十字注視點的水平距離為 2.9° ,垂直距離為 1.6° ;M2與十字注視點的垂直距離為 1.6° 。
2.4 實驗程序
本研究使用了序列記憶提取任務,實驗程序如圖1所示。先前研究發現面孔的記憶容量為2(Jacksonamp;Raymond,2004)。為了充分占用工作記憶資源,兩個記憶陣列都包含2張記憶面孔。具體流程如下,每個試次開始前先呈現 800ms 的十字注視點,然后進入記憶階段。在M1中,被試需要記住呈現在屏幕左側或右側的情緒面孔圖片,這兩張圖片是憤怒面孔(憤怒條件)或中性面孔(中性條件),另一側為占位符。在M2中,兩張中性面孔圖片呈現在注視點上方或下方。為確保被試對每張面孔圖片鞏固完全,每個記憶陣列呈現時間為1s,維持時間也為1s(Jackson et al.,2009;Mallett et al.,2020)。在探測階段,被試需要判斷陣列1中紅色方框內的面孔與M2對應位置的面孔是否一致,如果一致,則按\"F\"鍵;否則按\"J\"鍵。然后判斷探測陣列2中紅色方框內的面孔與M1對應位置的面孔是否一致,作相同的按鍵反應。探測陣列1和2中面孔變化和不變的試次各占比 50% 。在變化試次中,選擇情緒相同但身份不同的面孔圖片作為探測刺激;在不變試次中,選擇原圖片作為探測刺激,這樣設定使被試對面孔的情緒信息和身份信息進行整體記憶。實驗分4個組塊進行,每個組塊包含64個試次,憤怒條件和中性條件在每個組塊中隨機出現,各占總試次的 50% 。
2.5 EEG記錄和分析
整個實驗過程使用了32通道電極帽(根據國際10/20系統:FP1/2,F7/8,F3/4,Fz,FC5/6,FC1/2,C3/4,Cz,1/M2,CP5/6,P7/8,P3/4,PO7/8,PO3/4, Pz, 01/2,POz,VEOG,HEOG)來記錄被試的腦電活動。垂直眼電(VEOG)在左眼下方 1cm 處,水平眼電(HEOG)在右眼眼角外側 1cm 處。每個電極電阻降至 5kΩ 以下。以 CPz 為在線參考,采樣率為 500Hz 。
實驗數據以雙側乳突(M1和M2)的平均值作離線參考,進行了 0.01Hz 至 30Hz 的帶通濾波,斜率為 12dB, /octave,并從記憶陣列呈現前 800ms 到維持期2結束 (4000ms) 進行分段。使用獨立成分分析(IndependentComponentAnalysis,ICA)來去除水平和垂直眼動,并移除了電壓超過 ±100μV 的試次。憤怒條件保留試次數均值為 113.89±13.07 ,中性條件保留試次均值為 113.63±13.51 。最后,以刺激呈現前 400ms 的數據均值作為基線對數據進行基線校正。
圖1 實驗流程圖

CDA分析時間窗為維持期1( 1000~2000ms) 和維持期2( 3000~4000ms 。P7/8,P3/4,PO7/8和PO3/4這4對電極用于CDA成分分析(Ankaouaamp;Luria,2023;Balabanamp;Luria,2015;Wangetal.,2019)。通過刺激呈現位置(左或右)的同側平均電壓減去對側平均電壓來獲得差異波。LPP成分的時間窗分別為M1和M2的編碼階段(M1: 500~1000ms M2: 2500~3000ms) ,中線上的 Fz Cz, Pz 和 POz 作為分析電極(賈世偉,2022)。解碼分析選用除參考電極和眼電以外的全部活動電極,共28個通道。
2.6 ERP解碼
本研究利用ERPLAB(10.02)工具箱,基于ERP波形對M1陣列的情緒條件進行解碼。時間窗被設置為M1陣列呈現前 400ms 至其呈現后 4000ms 并將時間采樣率降至 100Hz 。將所有試次按M1的情緒條件分為2類,并為每位被試生成一個4維數據矩陣,其維度包括M1情緒條件(2)、時間點(440)、EEG通道(28)和試次。由于預處理過程排除了數量不確定的試驗,因此每個條件的試次數量可能會有所不同。
以一位被試為例,在此介紹單個時間點的解碼過程。假設某位參與者在2種情緒條件下的剩余試次數量分別為112和103,其中最小的試次數是103次。則在單個時間點下,每個條件分別隨機抽取96個試次(8的倍數)。接著,這96個試次被隨機平均分配到8個組,對每個組分別計算每個EEG通道的ERP振幅平均值。對于每種情緒條件,我們輪流取其中1組的ERP平均值作為測試數據,其余7組的平均值作為訓練數據,以進行8折交叉驗證。每次訓練中,根據 ECOC 方法(error-correcting outputcodes,Thomasamp;Ghulum,1994),首先用7組 ×2 種情緒的數據,為2種情緒訓練一個SVM分類器(即一個28維的超平面),然后將2組測試數據輸入分類器,并獲得一個最佳決策(其中一個被分類為憤怒條件,另一個被分類為中性條件)作為解碼結果。8組輪流作為訓練數據和測試數據之后,2個情緒條件共得到16個解碼結果。以上過程被迭代了30次,每次迭代中所有試次都被重新隨機抽取并隨機分組,最后總共得到480個解碼結果。這480個解碼結果和每次測試數據的真實情緒條件分別進行比對,其正確率即為此被試在該時間點上的解碼精度值。
我們對每位被試在所有時間點上完成了上述解碼分析,得到一組 22×440 的解碼精度數據
2.7 解碼結果的統計分析
首先,對每個時間點,通過單樣本 t 檢驗,將所有被試的真實解碼精度值和隨機水平(1/2)進行差異分析,得到每個時間點上的 t 值和 p 值。接著找到解碼精度顯著大于隨機水平的連續時間集群(至少連續3個時間點的 p 值小于0.05),然后計算每個集群的 t 質量(即每個時間集群內的 t 值之和)。
接著,為了確定這些時間集群的解碼精度是否真的高于偶然預期,我們使用基于聚類的置換檢驗構建了集群t質量的空分布,其方法與之前的解碼研究類似(Baeamp;Luck,2019)。我們從osf.io/2h6w9下載了腳本。在置換檢驗的每次迭代中,為了保留時間上的一貫性,我們為每次測試的所有時間點選擇了相同的隨機標簽(“憤怒\"或“中性\"替換真實條件。然后用實際解碼過程得到的解碼結果和隨機標簽進行比對,相同記為正確,不同記為錯誤,并取正確率作為虛擬解碼精度。同樣,每個時間點的虛擬解碼精度通過單樣本 t 檢驗與偶然水平(1/2)進行比較,然后找到虛擬解碼精度顯著高于偶然性的連續時間集群,并計算群級t質量。在每次迭代中,如果存在多個顯著的集群,則記錄其中最大的t質量;如果沒有顯著的集群,則本次迭代的 t 質量記錄為零。置換檢驗共迭代重復1000次,以形成1000個無效的集群t質量,作為置換檢驗的空分布。
空分布建立完成之后,用實際解碼得到的幾個顯著集群 t 質量分別與空分布中的 t 質量作比較,如果一個時間集群的t質量大于無效分布中 95% 的值,則認為該時間段的解碼精度顯著高于隨機水平。
2.8 時間泛化分析
最后,由于解碼曲線存在一定局限性,無法體現由條件操縱引發的具體神經活動的變化進程,本研究對解碼結果進行了時間泛化分析作為補充。在時間泛化分析中,為了減少運算難度,將采樣率降至 50Hz ,其他步驟與解碼過程基本相同。不同的是,我們用每個時間點單獨訓練分類器,然后用其他全部時間點的數據作為測試數據,計算該模型對其他時間點的解碼精度,以得到分類模型在時間維度上的泛化能力。
3 結果
3.1 行為結果
本研究分析了M1和M2的記憶正確率和辨別力 d′ 。結果如圖2所示。在M1中,憤怒條件的正確率為0.67( SE=0.017, ,辨別力 d′=0.95 ( SE= 0.11);中性條件的正確率為0.60 (SE=0.015 ,辨別力 d′=0.54 1 ?SE=0.08) 。對于M2,憤怒條件的正確率為0.76( ?SE=0.014? ,辨別力 d′=1.49 0 ?SE= 0.08);中性條件的正確率為0.76( SE=0.012 ,辨別力 d′=1.52 1 ?SE=0.08? 。
為了控制家族錯誤率(Family-Wise ErrorRate,FWER),我們對所有比較的 p 值進行了Bonferroni校正,將顯著性水平0.05除以比較次數4,校正后顯著性水平 a=0.0125c 配對 t 檢驗結果顯示,憤怒條件下M1回憶正確率顯著高于中性條件, t(21)= 4.49, plt; 0.001 ,Bonferroni 校正, 95% CI [0.037,0.10],Cohen's d=0.97 ,憤怒條件下辨別力 d′ 也顯著高于中性條件,
0 p=0.001 , Bonferroni校正, 95% CI[0.20,0.62], Cohen's d=0.86 。但是,M2的正確率 (t(21)=-0.32,p=0.752 ,Bonferroni校正,
Cohen's d=0.0088? 和辨別力 d′(t(21))=0.551
,Bonferroni校正, 95% CI[-0.17,0.10], Cohen's d=0.117) 在條件之間無顯著差異。這些結果表明,離線態情緒性面孔的效價變化只影響該存儲態的記憶表現,而不影響在線態面孔信息的行為表現
3.2 CDA
CDA波形如圖3所示。對維持期1的CDA成分進行2(條件:憤怒vs.中性) ×2 (偏側化:對側vs.同側)重復測量方差分析。結果顯示,偏側化主效應顯著, F(1,21)=51.371 , plt;0.001 , 95% CI [-1.67,-0.92] ηp2=0.710 ,這表明在M1之后的維持期間出現顯著的CDA,意味著M1記憶項目進人工作記憶系統并被有效維持。條件主效應不顯著, F(1,21)= 0.274, p=0.606 ;偏側化和條件之間的交互作用也不顯著, F(1,21)=0.161 , p=0.693 。在維持期2期間,相同的重復測量方差分析結果顯示,偏側化 (F (1,21)=0.458 p=0.506) 和條件 (F(1,21))=0.407 p= 0.530) 的主效應均不顯著,兩個因素之間交互作用也不顯著 (F(1,21)=0.726,p=0.404) ;憤怒條件 (t(21)=-0.16 p=0.877 , 95% CI [-0.51 ,0.44])和中性條件 (t(21)=-1.02 p=0.319 , 95% CI [-0.70 0.24])的CDA活動與基線均無顯著差異。以上結果表明CDA在維持期2期間回到基線水平。
3.3 LPP
LPP波形如圖4所示。在M1編碼階段 (500~ 1000ms, ,對電極(Fz,Cz, Pz 和 POz 和情緒(憤怒vs.中性)進行了兩因素重復測量方差分析,結果顯注:其中深灰色部分為刺激呈現階段,淺灰色部分為維持期。彩圖見電子版,下同
圖2 行為結果圖

注: ??? 表示 plt;0.001 ,ns代表 
圖3 CDA結果圖

圖4兩個條件下對應電極點的LPP成分注:紅色虛線部分為LPP在M1和M2刺激呈現期間分析時間窗

示情緒主效應顯著, F(1,21)=9.47 0 p=0.006 , ηp2= 0.310;電極和情緒交互作用顯著, F(1,21)=3.45 0p= 0.037 , ηp2=0.353 。進一步簡單效應分析發現,POz 電極的LPP成分在情緒條件間差異顯著, t(21)= 3.63, p=0.002 , 95% CI[0.47,1.72], Cohen's d= 0.77; Pz 電極的LPP成分在情緒條件間差異顯著, t (21)=3.80 , p=0.001 , 95% CI[0.62, 2.13], Cohen'sd=0.80 : Cz 電極的LPP成分情緒條件間差異顯著,t (21)= 2.436 , p= 0.024 , 95% CI [0.20,2.55],Cohen's d=0.51 ;而額葉電極點 Fz 的LPP成分在條件之間差異不顯著, t(21)=1.31 p=0.205 , 95% CI [-3.1,1.34] 。總之,憤怒面孔在M1編碼階段誘發了頂-枕區域更強的LPP成分。
在M2編碼階段 (2500~3000ms) ,對電極 (Fz, (204號CZ Pz 。POz)和情緒(憤怒vs.中性)進行了兩因素重復測量方差分析,結果顯示電極主效應顯著, F (1,21)=4.55 , p=0.015 , ηp2=0.418 。電極和情緒交互作用顯著, F(1,21)=4.87,p=0.011 , ηp2=0.435 。進一步簡單效應分析發現,憤怒條件下額葉 Fz 的LPP 振幅顯著低于中性條件, t(21)=-3.56 , p= 0.002, 95% CI[-2.41, -0.63] ,Cohen's d=0.67 ;同時憤怒條件下 Fz 的 LPP 振幅顯著低于 Cz (p= 0.047),1 Pz(p=0.009) 和POz (p=0.006) 。而其他電極點在條件之間差異均不顯著,因此,在M2編碼階段,中性條件 Fz 誘發的LPP成分顯著高于憤怒條件。
3.4行為和腦電結果的相關分析
為探究腦電結果與行為表現之間的關系,即由憤怒面孔引起的LPP波幅增強是否與行為表現上對M1辨別力的提高呈正相關。據此,本研究計算了M1編碼階段頂-枕區域 (CZ,PZ 和POz)的LPP幅值在兩個條件下的平均差值,并與M1辨別力的差值進行了單尾相關性檢驗(見圖5),結果顯示,M1中頂-枕LPP振幅差值與其辨別力 d 差值成正相關注:圖5A為M1編碼階段額葉LPP差值與比辨別力差值的相關圖;圖5B為M2編碼階段額葉LPP差值與比辨別力差值的相關圖
圖5兩條件LPP和辨別力 d′ 差值 (憤怒-中性)線性相關關系圖

ζr=0.369 , p=0.045 , 95% CI[-0.017,0.22]),說明憤怒面孔離線態工作記憶成績優勢與編碼階段的注意資源分配有關。而M2編碼階段額葉 Fz 電極LPP振幅差值與M2辨別力 d′ 差值無顯著相關性
-0.048 , p= 0.416) ,即M2工作記憶成績并不受額葉LPP成分的影響。
3.5 解碼結果與時間泛化分析
解碼分析發現,在M1呈現后330~1710ms以及 1760~3250ms 兩個時間段,對M1情緒信息的解碼準確率高于隨機水平,如圖6所示。由于刺激呈現后 3000ms 是M2的在線維持階段,該結果表明,在M2維持階段離線情緒面孔不能被有效解碼。另外,時間泛化分析并沒有發現相應時間點的解碼模型對其余測試時間點具備解碼泛化能力。這說明,在ERP解碼中,兩個顯著時間段可能反映了不同的腦活動。
4討論
本研究采用序列記憶任務范式,首次探討了工作記憶離線態存儲的負性情緒面孔對在線態信息加工的影響機制。行為學數據顯示,離線態存儲的憤怒面孔情緒特征對在線態面孔記憶準確率無顯著影響,這一發現與多態表征資源獨立性假說高度吻合。事件相關電位分析揭示了該現象的神經機制:在M2編碼階段,頂-枕區晚期正電位波幅未發現顯著差異,表明離線態負性表征未引發在線態編碼階段的注意資源競爭;解碼結果顯示,M2維持階段并未有效解碼離線態存儲的面孔情緒特征,進一步證實兩種表征狀態的神經資源獨立性。不同于既往研究通過認知負載操縱探討資源分配機制,本研究通過系統操縱離線態表征的情緒特征,首次將工作記憶多態表征的資源獨立性機制從簡單視覺特征拓展至復雜社會性刺激加工領域。該發現對理解人類社會信息加工機制具有重要啟示:當處理序列呈現的社會性信息時,多態表征的并行存儲特性可保障認知系統在維持原有情緒信息表征的同時,對新輸人的社會線索進行高效編碼,這種特性可能構成社會性動物適應復雜人際交互的神經基礎。
本研究發現負性面孔在工作記憶的離線態儲存中仍表現出記憶優勢,與前人對在線態加工的研究一致(Jackson et al.,2014;Jackson amp; Raymond,2004;Jacksonetal.,2009)。ERP分析表明,憤怒面孔在M1編碼階段引發了頂-枕區域更強的LPP活動,并且與工作記憶成績的提高密切相關。這一結果支持了負性面孔在編碼階段獲得更多注意資源的觀點。具體而言,憤怒面孔在加工過程中會引發更強的趨近動機(Carveramp; Harmon-Jones,2009),這種動機性注意可能使其在注意資源分配上占據優勢(Ferreira de Sa et al., 2019; Jackson et al., 2014)。杏仁核的雙重功能為此提供神經解釋——研究表明,杏仁核不僅參與情緒加工,還在注意控制和工作記憶編碼階段發揮關鍵作用(Lietal.,2023;Mostetal.,2006;Richter-Levinamp; Akirav,200O)。在M1維持期間,雖然沒有發現CDA成分在條件之間產生差異,但ERP解碼結果表明,不同情緒條件之間的神經活動出現了顯著差異。時間泛化分析則表明這種差異具有階段特異性,解碼模型不具備在較遠時間上的泛化能力,而是隨著時間推移不斷變化。這意味負性面孔的加工優勢并非通過引發消極的情緒狀態實現,而是源于編碼和維持階段互相獨立的神經活動。Sessa等人(2011)的研究認為負性面孔在維持階段可能具有更高的加工優勢,但是CDA指標并不能有效地反映出來。一方面,CDA成分只能夠有效反映出維持在視覺皮層中的表征的數量信息,而無法反映出表征的質量等其他信息。相對于中性面孔,負性面孔在編碼階段的注意資源分配優勢,會導致其在維持階段的表征質量更高。另一方面,與簡單色塊不同,面孔刺激更為復雜,而維持期間可能有更廣泛的腦區參與該過程。而通過本研究的解碼結果,似乎能夠確認相較于中性面孔,負性面孔在維持階段確實存在不同的神經活動,這在一定程度上支持了Sessa等人(2011)對于負性面孔維持階段加工優勢的猜想。綜上所述,實驗結果支持了負性面孔在工作記憶編碼和維持階段的加工優勢,并將其從單一狀態表征擴展到工作記憶的離線態儲存中。
圖6ERP解碼圖及時間泛化分析圖注:圖A為ERP解碼圖;圖B為時間泛化分析圖

值得注意的是,本研究在M2編碼階段觀察到額葉LPP成分在實驗條件間存在顯著差異。M2時間窗口內涉及兩個并行的加工過程: (1)對當前M2記憶陣列的在線編碼;(2)對M1記憶內容的離線態儲存。由于M2僅使用中性面孔作為記憶材料,且行為表現和枕-頂LPP成分未受情緒信息影響,上述差異可能源于離線態儲存過程中非情緒性因素的神經調控,而與 M2 編碼進程無關。同時,時間泛化分析進一步支持這一推論:M1與M2編碼階段的解碼模型缺乏跨階段泛化能力,表明兩者的神經表征模式具有顯著異質性,因而解碼結果也反映了不同情緒面孔在離線態儲存過程中的神經活動差異。前人研究表明,額葉LPP與自上而下的認知控制密切相關(Ferrari etal.,2008;Moratti et al.,2011),而本研究發現的額葉LPP條件間差異可能源于以下兩種機制:(1)憤怒條件下額葉LPP的降低可能源于情緒調節效應。先前研究顯示,情緒的調節是一個自發過程,并且這一過程有利于后續記憶加工(Flores Jr amp; Berenbaum,2017;Lin amp; Liang,2023;Mauss etal.,2007)。具體而言,額葉皮層通過抑制負性情緒反應以優化記憶表現(Lietal.,2022),這種調節過程可能導致LPP振幅的降低。因此本研究推測,情緒調節過程避免了憤怒面孔誘發的情緒狀態對M2記憶過程的影響,而對負性情緒的調節導致了額葉LPP成分的下降。(2)在中性條件下,額葉LPP振幅顯著升高。這可能源于中性刺激的特征局限性:相較于憤怒面孔豐富的情緒線索,中性面孔的特征信息更少(如缺乏顯著情緒特征),導致其離線態儲存需要更強的認知控制資源(Li et al.,2024)。具體而言:一方面,離線態儲存要求對冗余神經活動進行抑制以維持表征穩定性(Li et al.,2024),而中性條件下M1與M2均為中性面孔,可能需通過更強的額葉抑制機制抵消記憶干擾;另一方面,根據活動-靜默態理論(Kuo et al.,2016),離線態轉換涉及內部注意(維持 M1)與外部注意(編碼M2)的動態平衡,而中性面孔的低特征顯著性,可能迫使額葉皮層分配更多資源介入內部注意過程,以穩定維持儲存于離線態的中性面孔表征(Kuoetal.,2016;梁騰飛,2023)。值得注意的是,額葉LPP的調節效應未延伸至M2行為表現,揭示額葉皮層的認知控制機制可能獨立于傳統注意資源分配過程。這一發現支持情緒面孔多態儲存的復雜性:相較于簡單刺激,其加工可能涉及更廣泛的分布式腦網絡(如額葉-頂葉-杏仁核環路)。未來研究可通過動態腦網絡分析或雙任務范式,進一步解析額葉皮層在情緒工作記憶多態表征中的特異性作用。
5結論
本研究揭示了視覺工作記憶多態儲存過程中,資源獨立性并不受情緒信息的影響。同時,儲存于離線態中的負性面孔依舊具有工作記憶表現上的優勢。另外,不同的情緒信息可能影響離線態儲存時的執行控制過程,這意味著在工作記憶情緒面孔離線態儲存過程中涉及更廣泛的腦區協作。本研究結果為理解情緒面孔如何影響工作記憶的多態存儲提供了新的視角。
參考文獻
Ankaoua,M,amp; Luria,R.(2o23).Oneturnatatime: Behavioral and ERP evidence for two types of rotations in theclassical mental rotation task.Psychophysiology,60(4), e14213.
Bae,G.Y.,amp;Luck,S.J.(2019).Decodingmotion direction usingthe topography of sustained ERPsand alpha oscillations. NeuroImage,184,242-255.
Balaban,H.,amp;Luria,R.(2o15).The number of objects determines visual working memory capacity allocation for complexitems.NeuroImage,119,54-62.
Becker,D.V.,Kenrick,D.T.,Neuberg,S.L.,Blackwell,K.C. amp; Smith,D. M.(2o07). The confounded nature of angry menand happy women. Journal ofPersonality and Social Psychology,92(2),179-190.
Carver,C.S.,amp; Harmon-Jones,E.(2oo9).Angerisan approach-related affect: Evidence and implications.Psychological Bulletin,135(2),183-204.
Chota,S.,amp;VanderStigchel,S.(2021).Dynamicandflexible transformation and reallocation of visual working memory representations.Visual Cognition,29(7), 409-415.
Cohen, J. (2013). Statistical power analysis for the behavioral sciences.Routledge.
Ferrari,V.,Codispoti,M.,Cardinale,R.,amp;Bradley,M.M. (2008).Directed and motivated attention during processing of natural scenes. Journal of Cognitive Neuroscience, 20(10),1753-1761.
FerreiradeSa,D.S.,Michael,T.,Wilhelm,F.H.,amp;Peyk,P. (2019).Learningto seethethreat:Temporal dynamicsof ERPsof motivated attention in fearconditioning.Social CognitiveandAffectiveNeuroscience,14(2),189-203.
Falkenberg,I.,Kohn,N.,Schoepker,R.,amp; Habel,U. (2012). Mood induction in depressive patients:A comparative multidimensional approach.PloSOne,7(l),e30016.
Figueira, J. S., Oliveira, L., Pereira, M. G., Pacheco, L. B., Lobo,I.,Motta-Ribeiro, G.C.,amp; David,I.A. (2017).An unpleasant emotional state reduces working memory capacity: Electrophysiological evidence. Social Cognitive and Affective Neuroscience, 12(6), 984-992.
Flores Jr,L.E.,amp; Berenbaum,H.(2017).Thesocial regulation of emotion and updating negative contents of working memory. Emotion, 17(4),577.
Fox,E.,Lester,V.,Russo,R.,Bowles,R.,Pichler,A.,amp; Dutton,K. (20oo). Facial expressions of emotion: Are angry faces detected more efficiently? Cognition amp; Emotion, 14(1),61-92.
Gable,P.A., amp; Adams, D.L. (2013). Nonaffective motivation modulatesthesustainedLPP(1,000-2,000 ms). Psychophysiology,50(12),1251-1254.
Hajcak, G., MacNamara,A.,Foti,D., Ferri,J.,amp; Keil,A. (2013). The dynamic allocation of attention to emotion: Simultaneous and independent evidence from the late positive potential and steady state visual evoked potentials. Biological Psychology, 92(3), 447-455.
Jackson,M.C.,Linden,D.E.,amp; Raymond,J.E.(2014). Angry expressions strengthen the encoding and maintenance of face identity representations in visual working memory. Cognitionamp; Emotion,28(2),278-297.
Jackson, M.C.,amp; Raymond, J. E. (2004). Visual working memory for faces.Journal of Vision,4(8),394.
Jackson,M.C.,Wu, C.-Y.,Linden,D.E.J.,amp; Raymond,J.E. (2009). Enhanced visual short-term memory for angry faces. Journal of Experimental Psychology: Human Perception and Performance,35(2),363-374.
JIA,S.,QI,C.,CHEN,L.,amp; REN,Y.(2022). The effect of working memory load on feedback processing: Evidence from an event-related potentials (ERP) study. Acta Psychologica Sinica, 54(3),248-258.
[賈世偉,齊叢叢,陳樂樂,任衍具.(2022).工作記憶負荷 對反饋加工過程的影響:來自腦電研究的證據.心理學 報,54(3),248-258.]
Kreither, J.,Papaioannou,O.,amp; Luck,S.J.(2022).Active working memory and simple cognitive operations.Journal ofCognitive Neuroscience, 34(2), 313-331.
Kuo, B.-C., Nobre,A. C.,Scerif, G., amp; Astle,D. E. (2016). Top-down activation of spatiotopic sensory codesin perceptual and working memory search. Journal of Cognitive Neuroscience,28(7), 996-1009.
LaRocque, J. J., Lewis-Peacock, J. A., Drysdale,A.T., Oberauer, K.,amp; Postle,B. R. (2013).Decoding attended information in short-term memory: An EEG study. Journal ofCognitive Neuroscience, 25(1),127-142.
Lee,H.J.,amp; Cho,Y.S.(2019).Memory facilitation for emotional faces:Visual working memory trade-offs resulting from attentional preference for emotional facial expressions.Memoryamp;Cognition,47(6),1231-1243.
Lewis-Peacock,J.A.,Drysdale,A.T.,Oberauer,K.,amp;Postle, B.R.(2012). Neural evidence for a distinction between short-term memory and the focus of attention. Journal of Cognitive Neuroscience,24(1),61-79.
Li,J.,Cao,D., Yu,S., Xiao,X., Imbach,L., Stieglitz,L., Sarnthein,J.,amp; Jiang,T. (2023). Functional specialization and interaction in the amygdala-hippocampus circuit during working memory processing. Nature Communications, 14(1),2921.
Li,S.,Xie,H., Zheng,Z.,Chen, W.,Xu,F., Hu,X.,amp; Zhang, D.(2022). The causal role of the bilateral ventrolateral prefrontal cortices on emotion regulation of social feedback. Human Brain Mapping, 43(9),2898-2910.
Li, Z.,Guo,W., Zhao,N.,amp; Liu,Q. (2024). The suppression mechanisms of passive memory in visual working memory: The evidence from electroencephalography. Journal of Cognitive Neuroscience. 37(2).334-344
Li, Z., Liang, T., amp; Liu, Q. (2021). The storage resources of the active and passive states are independent in visual working memory. Cognition,217,104911.
Li, Z.,Ren, G.,Yuan, Z.,Yu,Q.,Wu, Y.,amp; Liu,Q.(2025). Offline memory representations have robustness superiority invisual workingmemory.Acta Psychologica Sinica,57(5) 739-748.
[李子媛,任國防,袁子昕,喻青青,伍越,劉強.(2025).視 覺工作記憶離線態表征具有穩固性優勢.心理學報, 57(5), 739-748.]
Liang, T. (2023). Research on the processing mechanism of dual representation states in visual working memory [Unpublished doctoral dissertation]. Liaoning Normal University, China.
[梁騰飛.(2023).視覺工作記憶雙重表征態的加工機制研究 (博士學位論文).遼寧師范大學.]
Lin,H.,amp; Liang, J. (2023). The priming effects of emotional vocal expressions on face encoding and recognition: An ERP study. International Journal of Psychophysiology,183 32-40.
Long,F., Ye,C.,Li,Z., Tian,Y.,amp; Liu, Q.(2020).Negative emotional state modulates visual working memory in the late consolidation phase. Cognition and Emotion, 34(8), 1646-1663.
Mallett,R.,Mummaneni, A.,amp; Lewis-Peacock,J.A.(2020). Distractionbiasesworkingmemoryforfaces.Psychonomic Bulletinamp; Review,27(2),350-356.
Mauss,I. B., Bunge, S.A.,amp; Gross,J.J.(2007). Automatic emotion regulation. Social and Personality Psychology Compass,1(1),146-167.
Moratti,S., Saugar,C.,amp; Strange,B.A. (2011).Prefrontaloccipitoparietal coupling underlies late latency human neuronal responses to emotion. The Journal of Neuroscience, 31(47),17278-17286.
Most, S. B., Chun, M. M., Johnson, M. R., amp; Kiehl, K. A. (2006). Attentional modulation of the amygdala varies with personality. NeuroImage, 31(2), 934-944.
Muhle-Karbe,P. S.,Myers, N.E.,amp; Stokes,M. G. (2021).A hierarchy of functional states in working memory. The Journal ofNeuroscience,41(20),4461-4475.
Oberauer, K. (2002). Access to information in working memory: Exploring the focus of attention. Journal of Experimental Psychology: Learning, Memory, and Cognition,28(3),411.
Ribes-Guardiola,P.,Ventura-Bort,C.,Poy,R.,Segarra,P., Branchadell,V.,amp; Moltó,J.(2023).Attention-affect interactions and triarchic psychopathy: New electrophysiological insights from the late positive potential. Psychophysiology, 60(4), e14222.
Richter-Levin,G.,amp; Akirav,I. (20oo).Amygdala-hippocampus dynamic interaction in relation to memory. Molecular Neurobiology,22(1-3), 11-20.
Rose,N. S. (2020). The dynamic-processing model of working memory. Current Directions in Psychological Science, 29(4), 378-387.
Schindler,S.,Bruchmann,M.,amp; Straube,T.(2022). Feature-based attention interacts with emotional picture content during mid-latency and late ERP processing stages. Biological Psychology, 170,108310.
Schindler,S.,amp; Bublatzky,F.(2020).Attention and emotion: An integrative review of emotional face processing as a function of attention. Cortex,130,362-386.
Schneider,F.,Gur,R.C.,Gur,R.E.,amp; Muenz,L.R.(1994). Standardized mood induction with happy and sad facial expressions.Psychiatry Research,51(1),19-31.
Sessa,P.,Luria, R., Gotler,A.,Jolicceur, P.,amp; Dell'acqua,R. (2011). Interhemispheric ERP asymmetries over inferior parietal cortex reveal differential visual working memory maintenance for fearful versus neutral facial identities. Psychophysiology, 48(2), 187-197.
Srivastava,S., Sharma,H.O.,amp;Mandal,M.K. (20o3).Mood induction with facial expressions of emotion in patients with generalized anxiety disorder.Depression and Anxiety, 18(3),144-148.
Thomas, G. D.,amp; Ghulum,B.(1994). Solving multiclass learning problems via error-correcting output codes.Journal of ArtificialIntelligenceResearch,2(1),263-286.
Wang,S.,Rajsic,J.,amp;Woodman,G.F.(2019).The contralateral delayactivitytracksthesequentialloadingof objects into visual working memory,unlike lateralized alpha oscillations. Journal of Cognitive Neuroscience, 31(11),1689-1698.
Xie,W.,Ye,C.,amp;Zhang,W.(2023).Negativeemotionreduces visualworkingmemory recall variability:Ameta-analytical review. Emotion,23(3),859-871.
Ye,C.,Liu,R.,Guo,L.,Zhao,G.,amp; Liu,Q.(2024).A negative emotional state impairs individuals’abilityto filterdistractors from working memory:An ERP study. Cognitive,Affective,amp; Behavioral Neuroscience,24(3), 491-504.
Ye,C.,Xu,Q.,Liu,Q.,Cong,F.,Saariluoma, P.,Ristaniemi, T.,amp;Astikainen,P.(2o18).The impactofvisual working memory capacity on the filtering efficiency of emotional facedistractors.BiologicalPsychology,138,63-72.
Young,A.W.,amp;Burton,A.M.(2018).Are we face experts? TrendsinCognitiveSciences,22(2),100-110.
Zhang,J.,Ye,C.,Sun,H.J.,Zhou,J.,Liang,T.,Li,Y.,amp;Liu, Q.(2022).The passive state:A protective mechanism for informationinworkingmemorytasks.Journal ofExperimental Psychology: Learning,Memory, and Cognition,48(9), 1235-1248.
The passive storage of negative facial expressions in working memory does not affect the active state storage
WANG Junbo122, ZHAO Na2 ,LI Ziyuan3, LIU Qiang
( Instituteof Brainand Psychological Science,Sichuan Normal UniversityChengdu 61o066,China) ( Research Centerof Brain and Cognitive Neuroscience,Liaoning Normal University,Dalian 116029,China) ( School ofEducation,Anyang Normal University,Anyang 455oo,China)
Abstract
Visual working memory (VWM) is a cognitive system responsible for the temporary storage and manipulation of visual information and serves as acormerstonefor high-level socialcognition. State-based models propose that memory representations are hierarchically organized: items within the focus of attention are maintained inanactive state,while those outside this focus are retained in a pasive state.Previous research investigated the passive storage mechanisms predominantly employed simple color stimuli, demonstrating that passve memory storage operates independently from activememory processing.However,indaily-lifecontext,facial information procesing iscriticallyimportantfor human social interactions.Itremainsunclear whether variations in the emotionalvalenceof faces retained in the passive state affect concurrent active memory processing.
To address this question,this study adopted a sequential presentation memory task involving 22 college students, who were instructed to memorize two sequentially presented arays containing face stimuli.The first array (M1) was expected to enter the passive state during the active maintenance of the second array (M2).The emotional valence of face stimuli inMl was either angry orneutral,whereas M2 always contained neutral faces.Behavioralperformance and EEG neural activities were recorded,including late positive potential (LPP,indexingencodingatention),contralateral delay activity(CDA,reflecting active memory storage),and the whole-trial neural decoding of memory representations.
Behavioral results showed that the emotional valence modulation of M1 had no significant impact on performance related to M2. Consistently,neural indices suggested functional independence btweenactive and passvestorage states. Specifically:1) during theencoding of M2,parieto-occipital LPPamplitudes did not diffr as a functionof M1's emotional valance,,indicating that attentional resource allocationremainedunaffected;2)multivariatedecodingof M2-related maintenance-phase activity yielded no distinguishable neural pattems between angry- and neutral-face in M1.Moreover,time-generalization analysis confirmed that passive representations lacked cross-phase generalizability.
These findings support the notion of resource independence between VWM active and passive states, indicating that emotional representations in the passve state do not influence ongoing memory processing. These results extend the domain-general characteristics of passive storage to complex socially relevant stimuli, and highlight the adaptive eficiency of VWM in processing sequentially presented facial information. Overall, the present study demonstrates that emotional information stored in the passive state does not interfere with concurrent active processingof facial stimuli.
Keywordsvisual working memory, emotional faces, state-based models, ERP decoding,LPP