999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

分類學習與混合學習下的注意促進效應比較*

2020-02-19 07:33:02孟迎芳葉秀敏馬慧姣
心理學報 2020年2期
關鍵詞:詞匯分類實驗

孟迎芳 葉秀敏 馬慧姣

分類學習與混合學習下的注意促進效應比較

孟迎芳 葉秀敏 馬慧姣

(福建師范大學心理學院, 福州 350117)

注意促進效應(ABE)是指目標探測性質的干擾會促進與之同時進行的背景刺激的記憶編碼, 產生比分心拒絕下更優的記憶成績。Spataro等人(2017)對此提出項目特異性解釋, 認為目標探測主要促進的是對項目的特異性信息而非關系性信息加工。本研究采用混合學習和分類學習的方式形成對背景刺激的特異性信息和關系性信息加工。結果表明, 與混合學習相比, 分類學習下的ABE有所減少(實驗2), 甚至消失(實驗1), 表明當編碼過程中對背景刺激的加工主要依賴于關系性信息時, 目標探測所產生的促進效應會被削弱, 從而為ABE的項目特異性解釋提供更為直接的證據。

注意促進效應; 項目特異性信息; 項目關系性信息; 項目特異性解釋

1 引言

一般認為, 注意容量是有限的(Johnston & Dark, 1986), 在進行一項記憶任務的同時如果要求被試再完成一項與記憶任務無關的干擾任務, 則會消耗有限的注意資源, 減弱對記憶刺激的編碼加工, 使得記憶任務的測驗成績顯著下降(Mulligan, 2008)。但近期一些研究卻發現, 目標探測性質的干擾任務并不一定會削弱同時出現的記憶刺激的編碼加工(Lin, Pype, Murray, & Boynton, 2010; Swallow & Jiang, 2010; 2011; 2012; Meng, Lin, & Lin, 2019; 也見: 孟迎芳, 林惠茹, 2018)。

Swallow和Jiang (2010)最早對這一現象進行探討。實驗采用學習–再認范式, 學習階段要求被試記憶屏幕中出現的系列風景圖片, 同時對圖片中央的小方塊進行目標探測任務(干擾任務), 如果是白色方塊(目標)需進行按鍵反應, 如果是黑色方塊(分心)則忽略方塊, 只記憶圖片即可。白色與黑色方塊比例為1 : 6。學習結束后對圖片進行再認判斷。結果發現, 與目標方塊同時出現的圖片再認成績明顯優于與分心方塊一起呈現的圖片。一般認為, 目標探測所需消耗的注意資源要大于分心拒絕(Pashler, 1994), 按照注意資源有限理論, 應該會導致與之同時呈現的記憶刺激得到的注意資源減少, 產生更差的記憶效果。但Swallow和Jiang (2010)的實驗結果卻與之相反。隨后實驗將視覺的目標探測干擾任務修改為聽覺的目標探測干擾任務, 也得到了類似的結果, 但如果要求被試忽略所有方塊, 只編碼圖片, 則沒有發現伴隨目標方塊一起呈現的背景圖片和伴隨分心方塊一起呈現的背景圖片之間再認成績的差異。因此Swallow和Jiang (2010)將這種伴隨著目標探測任務而產生的, 對與目標一起呈現的背景刺激的記憶增強效應稱為注意促進效應(Attentional Boost Effect, ABE)。之后研究者使用不同的背景材料(面孔: Swallow & Jiang, 2011; 詞匯: Mulligan, Spataro, & Picklesimer, 2014; Mulligan, Smith, & Spataro, 2015)、在多種記憶測驗中(短時記憶測驗: Makovski, Swallow, & Jiang, 2011; 內隱記憶測驗: Spataro, Mulligan, & Rossi-Arnaud, 2013)都驗證了該效應的存在。并且發現, 該效應不會受到目標與分心刺激比例變化(Swallow & Jiang, 2010), 對目標探測任務是否進行動作反應(Swallow et al., 2012), 以及目標探測任務的難度增加(Swallow& Jiang, 2010)等變量的影響, 表現出較為穩定的特性。

然而在詞匯領域的ABE研究對其發生機制有著一些爭議。Spataro等人(2013)采用經典ABE范式首次在詞匯以及內隱記憶領域進行實驗, 發現目標探測只能促進背景詞在知覺內隱測驗(詞匯判斷和殘詞補筆)中的啟動效應, 但對概念內隱測驗(語義分類任務)卻沒有產生任何促進作用。由此提出知覺編碼假設, 認為目標探測主要增強的是對背景刺激的知覺加工, 而非語義加工。但隨后Mulligan等人(2014)在詞匯領域的實驗結果卻無法以知覺編碼假設來解釋。其實驗發現, 學習和測驗通道的變化并不會影響ABE的大小, 并且在自由回憶測驗中ABE也是明顯的。依據遷移適當加工理論, 學習?測驗通道的變化會減少刺激的知覺加工優勢, 并且知覺加工優勢一般只會體現在再認測驗中而不會體現在自由回憶測驗中(Yonelinas, 2002; Parks, 2013)。那么這些設置應該都會減少ABE, 然而研究結果卻與之相反。由此Mulligan等人(2014)提出了詞匯假設(Lexical Hypothesis), 認為目標探測所促進的并非只是詞匯知覺信息的編碼, 而應該是包括詞匯、語義、音位特征等更為抽象的詞匯表征。然而該假設卻又無法解釋隨后Spataro, Mulligan, Bechi和Rossi-Arnaud (2017)的實驗。在其實驗中對比兩種概念任務的ABE差異, 一個為外顯的范疇線索回憶任務(Category-Cued Recall Task, CCRT), 即給出范疇名稱, 要求被試回憶出在學習階段見過的該范疇類詞匯。另一個為內隱的范疇樣例生成任務(Category Exemplar Generation Task, CEGT), 即被試報告在看到范疇樣例后首先想到的該范疇類詞匯。目標探測下所促進的抽象詞匯表征應該會促使這兩個測驗都產生ABE。然而結果表明, ABE穩定存在于CCRT中, 而CEGT并未發現該效應。Spataro等人(2017)將該結果歸結為在CCRT中, 被試對測驗任務的正確反應是依靠詞匯的項目特異性信息(item-specific information), 而在CEGT中, 被試對測驗任務的反應不僅依賴于學習階段習得的項目特異性信息, 更多地是依靠詞匯間的關系性信息(relational information), 并為ABE提出了一個有著更大理論框架的假設:項目特異性解釋(item- specific account), 即目標探測所增強的是發生在記憶編碼早期階段的項目特異性精細加工(Mulligan, 1999)。也就是說, ABE只發生在項目特異性信息中, 而在項目的關系性信息上沒有體現。

ABE的項目特異性解釋似乎有著更大的適用范圍, 然而Spataro等人(2017)主要根據測驗任務對項目特異性信息和關系性信息的依賴程度不同而提出的該解釋, 由此我們產生了一個疑問:如果編碼任務對背景刺激的特異性信息和關系性信息的依賴性上也存在著差異, 是否會對ABE產生類似的影響呢?也就是說, 如果目標探測主要促進的是背景刺激的項目特異性信息, 那么當編碼階段的背景刺激主要依賴于關系性信息加工時, 目標探測所產生的促進效應是否會減少, 甚至消失呢?這一問題的探討能為ABE的項目特異性解釋提供更為直接的證據。

依據Hunt和McDaniel (1993), 項目特異性信息是指項目的特定特征使得該項目相對于其它項目更為獨特, 并與其它項目區分得更為明顯, 而關系性信息則指該項目與其他項目共同擁有的語義、時間和空間特征, 即在某一特征上隸屬于一種類別。以往研究曾采用相同類別范疇的刺激分類呈現或與其它類別范疇的刺激混合呈現兩種學習方式來形成對刺激的關系性信息和特異性信息加工(Carvalho & Goldstone, 2017; Mulligan, 1999; Gollin & Sharps, 1988)。研究表明, 在某一特征上高度相關的項目或事件會吸引人們對項目之間關系的注意, 而不相關的項目更有可能引發人們對項目本身的關注(Einstein & Hunt, 1980; Hunt, 1981; Hunt & Seta, 1984)。Carvalho等人(2017)曾直接探討過分類呈現和混合呈現兩種學習方式對記憶的影響。結果發現, 項目混合呈現時學習者傾向于關注連續項目之間不同屬性。相反, 在分類呈現時, 學習者更多將注意集中在項目相似性上。基于此, 本研究擬設置兩種不同的編碼方式, 即對分屬于不同類別范疇的刺激分類學習或混合學習, 以促使被試對背景刺激的編碼更多依賴于關系性信息或特異性信息。根據Spataro等人(2017)的ABE項目特異性解釋, 我們可推測, ABE應該只在混合學習條件下存在, 因為背景刺激的加工主要依賴于項目特異性信息。而在分類學習條件下, 被試對背景刺激的加工主要依賴于關系性信息, 目標探測對此類信息并不會產生促進作用, 因此在分類學習下ABE應該會減少甚至消失。

此外, Spataro等人(2017)研究中項目特異性和關系性信息針對的是詞匯材料。一般認為, 詞匯與圖片屬于不同的符號系統, 有不同的結構特性和區別特征。詞匯既具有表意又有表音的特性, 而圖片可以通過形象直接通達語義。研究表明, 圖片的區別性特征比詞豐富, 而項目的區別性特征愈是豐富, 語義識別愈是容易, 而知覺識別愈是困難(方燕紅, 張積家, 2009)。那么詞匯和圖片兩種材料之間的加工差異是否會調節分類與混合學習對ABE所產生的影響呢?或者說, ABE的項目特異性解釋是否對詞匯和圖片材料都同樣適用呢?因此本研究設置了兩個實驗, 分別以詞匯和圖片刺激作為背景材料, 以期對項目特異性解釋的普適性進行驗證。此外, 由于ABE既可能源于目標探測所產生的促進作用, 也可能來自分心拒絕所產生的抑制作用(Meng et al., 2018), 為了更好地了解ABE的特性, 本研究借鑒了Sallow和Jiang (2014b)的ABE范式, 在學習階段添加空白項, 即單獨呈現的背景刺激作為基線, 與目標項(項目與目標刺激呈現)和分心項(項目與分心刺激呈現)混合隨機呈現, 以區分目標探測與分心拒絕在ABE中的作用。

2 實驗1:詞匯領域中分類學習和混合學習下ABE比較

2.1 方法

2.1.1 被試

采用G*Power 3.1軟件計算研究所需樣本量(Faul, Erdfelder, Lang, & Buchner, 2007)。根據Cohen (1992)設定的效應量標準, 設置= 0.14, α = 0.05, 1 ? β = 0.8, 計算得到總樣本量為56人。基于樣本流失率的考慮, 一共招募某高校60名大學生和研究生參與本實驗(其中10名男生), 平均年齡20 ± 2.27歲。將被試隨機分為兩組:分類學習和混合學習, 每組30人。所有被試視力或矯正視力正常, 實驗結束后獲得小禮品。

2.1.2 實驗材料

從華南師范大學董昌鋒碩士論文(2004)中自主評定的范疇范例中選取15個范疇:哺乳動物、花類、職業、樂器、蔬菜、水果、昆蟲、體育運動、方位、稱謂、交通工具、家具、鳥類、餐具, 每個范疇8個范例, 均為雙字詞。將每個范疇8個范例隨機分成4組, 其中3組用于學習階段, 分別作為目標詞、分心詞和空白詞, 1組作為測驗階段的范疇新詞(N)。請30名非正式實驗參與者對所選的范疇范例在典型性和熟悉度上進行7點評分(1表示非常不典型或非常不熟悉, 7表示非常典型或非常熟悉)。結果顯示, 所有范例的典型性平均分為6.46, 熟悉度為6.19。典型性和熟悉度在不同的范疇之間無顯著差異[典型性(14, 406) = 1.64,= 0.13; 熟悉度(14, 406) = 0.52,0.79], 在不同的類型上(目標詞、分心詞、空白詞和新詞)也無顯著差異[典型性(3, 1347) = 2.09,0.10; 熟悉度(3, 1347) = 2.01,0.16]。同時從董昌鋒(2004)碩士論文中自主評定的范疇范例詞表中另外選取與此15個范疇無語義相關的其他漢語雙字詞144個, 其中84個作為填充詞在學習階段出現(共14組), 另外60個在測驗階段作為無關新詞(P)呈現。

2.1.3 實驗設計

實驗采用2(呈現方式:分類學習、混合學習) × 3(舊詞類型:目標詞、分心詞、空白詞)混合設計。其中, 呈現方式為被試間變量, 舊詞類型為被試內變量, 因變量為各個舊詞類型再認正確率和反應時。

2.1.4 實驗程序

實驗在標準隔音間進行, 被試距離顯示器(19英寸, 分辨率1024×768) 70 cm, 根據指導語提示進行相應按鍵操作。兩組被試的實驗流程類似, 都包含學習和再認兩個階段, 兩組差別主要在學習階段。

學習階段:屏幕中央同時呈現雙字詞與探測刺激(目標“+”或分心“–”或空白), 探測刺激位于雙字詞正上方1 cm處。被試需要大聲讀詞并監測詞匯上方探測刺激, 出現目標“+”按空格鍵, 分心“–”或空白只需讀詞。學習階段共呈現29組, 每組6個詞語, 其中2個目標詞(與“+”同時呈現), 2個分心詞(與“–”同時呈現), 2個空白詞(即基線, 詞上方為空白)。在分類學習被試組中, 29組詞匯分為15組范疇詞和14組無關詞, 分組依次呈現, 每組內詞匯隨機呈現。詞匯和探測刺激同時呈現100 ms, 之后詞匯繼續呈現400 ms, 隨后間隔500 ms后呈現下一個刺激(如圖1所示)。為強化詞匯分類呈現的效果, 每兩組詞匯之間插入3000 ms的“請眨眼”和1000 ms的“繼續”。在混合學習被試組中, 范疇詞與無關詞混合, 按每組6個詞匯分成29個組塊后依次呈現, 組與組之間無額外間隔。學習階段結束后要求被試進行300倒減3的算術任務。

再認階段:180個新舊詞混合隨機呈現, 其中90個為學習階段呈現過的15個范疇共90個范例詞(包括30個目標詞, 30個分心詞, 30個空白詞), 另外90個為新詞, 包括15個范疇共30個范例新詞(N), 以及60個無關新詞(P)。要求被試對詞匯進行新舊再認判斷, 舊詞按“A”鍵, 新詞按“S”鍵。詞匯呈現在屏幕中央至被試按鍵反應后才消失, 刺激間隔(ISI)為1200~1600 ms。

圖1 學習階段的實驗流程圖

實驗程序采用Presentation 0.71編寫, 所有刺激均以白色、60磅黑體字呈現在黑色屏幕中央。

2.2 結果與分析

2.2.1 目標探測任務的結果分析

首先對學習階段的目標探測任務進行分析, 以確定被試是否對干擾任務也進行了認真的反應。分類學習被試對大部分的目標刺激進行了正確的探測反應(= 92.50%,= 345 ms), 對分心刺激的虛報率略高于基線,= 4.53%,= 1.60%,(29) = 3.96,< 0.001,= 1.04, 95% CI = [0.01, 0.04]。混合學習被試對目標刺激的探測正確率平均為93.93% (反應時394 ms)。類似地, 對分心刺激的虛報率也略高于基線,= 4.80%,= 0.80%,(29) = 4.86,< 0.001,= 1.27, 95% CI = [0.02, 0.06]。

2.2.2 再認測驗任務的結果分析

首先需要確定的是, 不同的呈現方式是否導致對背景刺激產生了關系性信息和特異性信息編碼的差異。以往研究對此通常采用虛報率來加以說明, 即認為在分類學習中關系性信息的激活會導致同類未學過的其它項目產生較高的虛報率(劉希平, 李永梅, 2007)。因此, 我們對新詞的虛報率(見表1)進行2(呈現方式:分類學習vs混合學習) × 2(新詞類型:范疇新詞vs無關新詞)的混合方差分析。結果表明, 呈現方式主效應不顯著,(1, 58) = 0.12,0.74; 但新詞類型主效應顯著,(1, 58) = 47.00,< 0.001, η= 0.45; 且呈現方式與新詞類型的交互作用顯著,(1, 58) = 16.58,< 0.001, η= 0.22。進一步簡單效應分析發現, 在分類學習下范疇新詞虛報率顯著大于無關新詞[(1, 29) = 65.93,0.001, η= 0.69], 而在混合學習下兩類新詞無顯著差異[(1, 29) = 3.54,0.05], 并且分類學習下的范疇新詞虛報率也要略高于混合學習[(1, 58) = 2.88,= 0.095, η= 0.05], 表明兩種學習方式確實產生了對背景刺激的編碼差異。

表1 分類學習和混合學習下兩類新詞的虛報率(%)

注:括號內為標準差, 下同

本研究更為關注的是, 兩種呈現方式下ABE是否存在差異, 因此我們對三類舊詞的再認正確率(見表2)進行2(呈現方式:分類學習vs混合學習) × 3(舊詞類型:目標詞vs分心詞vs空白詞)的混合方差分析。結果表明, 呈現方式主效應不顯著,(1, 58) = 1.80,0.18; 舊詞類型主效應不顯著,(2, 116) = 2.45,0.09; 但呈現方式與舊詞類型的交互作用顯著,(2, 116) = 4.44,0.01, η= 0.07。隨后的簡單效應分析發現, 分類學習的被試在三類舊詞再認率上并無顯著差異[(2, 58) = 0.97,0.38], 但混合學習的被試在三類舊詞上有明顯差異[(2, 58) = 6.70,0.002, η= 0.19], 目標詞與空白詞的再認率都顯著大于分心詞(= 0.004,= 0.044), 但目標詞與空白詞之間并無顯著差異(0.95)。因此, ABE只在混合學習的呈現方式下是明顯的, 即目標詞的再認率明顯優于分心詞, 甚至達到集中注意狀態(空白詞)的水平, 而分心詞的再認率明顯低于空白詞, 表現出典型的分心抑制效應。為了更好地理解不同類型詞在兩種呈現方式之間的差異, 我們也對三類舊詞分別進行了兩種呈現方式之間的簡單效應檢驗。結果表明, 兩類目標詞[(1, 58) = 0.23,= 0.64]和空白詞[(1, 58) = 0.15,= 0.70]并不存在明顯差異, 但分類學習下的分心詞再認率明顯高于混合學習,(1, 58) = 7.49,= 0.008, η= 0.12。

表2 分類學習和混合學習下三類舊詞的再認正確率(%)

3 實驗2:圖片領域中分類學習和混合學習下ABE比較

3.1 方法

3.1.1 被試

所需樣本量以及被試選取的方式均與實驗1類似, 共招募78名大學生和研究生參與本次實驗(其中14名男生), 平均年齡20.92 ± 2.93歲, 分類學習和混合學習各39人。

3.1.2 實驗材料

圖片刺激采用簡筆畫, 通過網絡中選取或自主設計, 一共包含哺乳動物、鳥類、建筑物、衣服、食物、水果、家具、昆蟲、工具、人物、服裝配飾、文具、樂器、蔬菜、交通工具15個類別, 每個類別由8個范例組成。與實驗1類似, 也招募了30名非正式實驗參與者對每類范疇的典型性和熟悉度進行7點評估。結果顯示, 所有范例的典型性平均分為6.27, 熟悉度為6.11。典型性和熟悉度在不同的范疇之間無顯著差異[典型性(14, 406) = 1.78,= 0.23; 熟悉度(14, 406) = 1.37,= 0.16], 在不同的類別上(目標圖、分心圖、空白圖和新圖)也無顯著差異[典型性(3, 1347) = 1.95,= 1.21; 熟悉度(3, 1347) = 1.62,= 1.83]。另外選取與以上類別無語義相關的簡筆畫114幅, 其中84幅作為填充圖在學習階段出現(共分14組, 每組6幅), 另外30幅在測驗階段作為無關新圖(P)呈現。所有圖片在亮度上一致, 圖片大小為281×197像素。

3.1.3 實驗設計與程序

與實驗1類似。

3.2 結果與分析

3.2.1 目標探測任務的結果分析

首先對學習階段的目標探測任務進行分析。分類學習被試對目標刺激的平均探測正確率為平均94.97% (反應時358 ms), 混合學習被試的目標探測正確率為93.10% (反應時345 ms)。兩組被試中, 分心刺激的虛報率都要略高于基線{分類學習:分心刺激(4.18%) vs基線(0.90%),(38) = 4.67,< 0.001,= 1.07, 95% IC = [0.02, 0.05]; 混合學習:分心刺激(4.13%) vs基線(0.49%),(38) = 7.68,< 0.001,= 1.76, 95% IC = [0.03, 0.05]}。

3.2.2 再認測驗任務的結果分析

首先對新圖的再認虛報率(見表3)進行2(呈現方式:分類學習vs混合學習) × 2(新圖類型:范疇新圖vs無關新圖)的混合方差分析比較, 以確定不同的呈現方式是否導致對背景信息產生關系性和特異性加工的差異。結果表明, 呈現方式主效應不顯著,(1, 76) = 0.64,0.42; 但新圖類型主效應顯著,(1, 76) = 96.32,0.001, η= 0.56; 且呈現方式與新圖類型的交互作用顯著,(1, 76) = 30.26,0.001, η= 0.29。隨后簡單效應分析顯示, 不論分類學習還是混合學習的被試, 范疇新圖的虛報率都要顯著高于無關新圖[分類學習:(1, 38) = 115.48,< 0.001, η= 0.75; 混合學習:(1, 38) = 9.45,0.004, η= 0.19], 但分類學習下范疇新圖的虛報率要明顯高于混合學習,(1, 76) = 6.83,= 0.011, η= 0.10。該結果與實驗1類似, 因此認為分類學習與混合學習導致對背景刺激產生了關系性和特異性加工的差異。

表3 分類學習和混合學習下兩類新圖的虛報率(%)

3.2.3 再認測驗任務的結果分析

其次, 對三類舊圖的再認正確率(見表4)進行2(呈現方式:分類學習、混合學習) × 3(舊圖類型:目標圖、分心圖、空白圖)的混合方差分析。結果顯示, 呈現方式主效應不顯著,(1, 76) = 3.09,0.083; 舊圖類型主效應顯著,(2, 152) = 49.17,0.001, η= 0.39; 且呈現方式與舊圖類型的交互作用顯著,(2, 152) = 3.11,0.047, η= 0.04。簡單效應分析表明, 分類學習被試對三類舊圖的再認率差異顯著[(2, 76) = 16.71,0.001, η= 0.30], 多重比較(Bonferroni校正)發現, 目標圖再認率顯著優于分心圖(0.001)和空白圖(= 0.013), 而分心圖的再認率則明顯低于空白圖(0.038)。混合學習被試在三類舊圖的再認率上也存在明顯差異[(2, 76)= 33.61,0.001, η= 0.47], 目標圖的再認率顯著大于分心圖(0.001)和空白圖(0.001), 但未發現分心圖與空白圖之間的差異(= 0.078)。因此, ABE在分類和混合學習兩組被試中都有發現, 但分類學習下的ABE (10%)要小于混合學習下的ABE (16%), 且目標圖的再認率甚至優于空白圖, 表現出絕對的注意促進效應。隨后也對三類舊圖分別進行了兩種呈現方式之間的簡單效應檢驗, 結果表明, 兩種呈現方式下的目標圖在再認率上沒有表現出差異[(1, 76)= 0.26,= 0.614], 但分心圖[(1, 76)= 4.24,= 0.043, η= 0.05]和空白圖[(1, 76)= 4.57,= 0.036, η= 0.06]都表現出呈現方式上的差異, 分類學習下分心圖和空白圖的再認率都要略高于混合學習。

表4 分類學習和混合學習下三類舊圖的再認正確率(%)

4 討論

本研究在經典ABE范式基礎上設置混合學習和分類學習兩種編碼呈現方式, 通過詞匯和圖片兩種刺激, 對Spataro等人(2017)提出的ABE項目特異性解釋進行驗證。該解釋認為, 目標探測主要促進的是對項目的特異性信息編碼, 而不會促進關系性信息編碼。基于此本文也提出了一個假設, 即如果編碼過程中對背景刺激的加工主要依賴于關系性信息時, 目標探測所產生的促進效應應該會減少, 甚至消失。而通過混合學習與分類學習的方式可以形成對項目的特異性信息和關系性信息加工, 因為同類別項目分組呈現會以犧牲個別項目信息為代價, 從而引發更大的關系性加工(Carvalho & Goldstone, 2017; Gollin & Sharps, 1988)。與本文的假設一致, 實驗結果表明, 與混合學習條件相比, 分類學習條件下的ABE有所減少(實驗2), 甚至消失(實驗1)。因此本研究為ABE的項目特異性解釋提供了更為直接的證據。

本研究更感興趣的是, 為何分類學習下對背景刺激的關系性信息加工反而會減少ABE呢?研究曾表明, 相比項目特異性信息加工, 個體在編碼階段如果能夠利用項目關系性信息的話, 在提取時更可能根據項目之間的關系進行搜索提取, 從而能夠回憶出更多的學習項目(Huff & Bodner, 2014; 李廣政, 李梅, 林文毅, 王麗娟, 2016)。但為何在這樣的條件下, 目標探測對其產生的作用反而減少或消失了呢?本研究中對三類學習項目在兩種呈現方式之間的再認率比較或許可以為這一問題提供答案。兩個實驗都表明, 目標項目在兩種呈現方式下并未表現出明顯的再認差異, 差異主要表現在分心項目上, 分類學習下的分心項再認率均高于混合學習。由此我們推測, 分類學習下ABE的減少是否源于關系性信息的激活使得分心拒絕下對背景刺激的抑制作用減少, 從而使得分心項的再認率有所提高, 導致ABE, 即目標與分心之間的差異有所減少。

分類學習的設置最初來源于聯想研究范式, 該范式常用于研究錯誤記憶, 發現分類學習下對關鍵誘餌(學習階段未呈現)的再認虛報率要明顯高于隨機學習(周楚, 2007)。根據錯誤記憶的激活/監測理論(Activation / Monitoring Theory), 在類別范疇材料的學習過程中, 被試可能有意識地覺察到范疇類型并在后來的測驗中混淆學過項目和新項目, 也有可能無意識地激活了對范疇類型的表征并在隨后測驗過程中認為新項目在學習階段呈現過(Roediger, Watson, Mcdermott, & Gallo, 2001)。也是基于這樣的前提邏輯, 我們在測驗階段設置了類別范疇新項目(范疇新詞或范疇新圖)和無關新項目(無關新詞或無關新圖), 如果分類學習中產生了關系性信息, 那么分類學習條件下類別范疇新項目的虛報率應該顯著大于無關新項目。同理, 如果混合學習中產生了項目特異性信息, 那么在混合學習條件下兩類新項目的虛報率應該沒有顯著差異, 在此前提下才可以進一步分析兩種呈現條件下的ABE差異。本研究的結果驗證了這一前提邏輯, 即與混合學習相比, 分類學習下同范疇的新詞或新圖再認虛報率都要更高, 因此分類學習的呈現方式使得被試對背景刺激的編碼更多依賴于項目的關系性信息。

我們認為, 分類學習下被試容易覺察出隱藏在項目之間的共同特征, 從而傾向對其類別屬性這一關系性信息進行加工, 并無意識地激活該類別下的其它項目。根據組織理論(Organizational Theory), 如果同類別的項目在語義維度上是相似的, 那么項目之間的相似性特征不斷重疊, 并且概念化為一個特征集進入記憶領域, 此時代表關系性信息的特征集的激活與單個項目的激活相一致(Hunt & Seta, 1984)。這意味著在編碼過程中與目標刺激有著相同類別屬性的分心刺激的特征已經被提早激活, 因此當分心刺激出現時, 分心拒絕對其產生的抑制作用被減弱, 使得其在隨后的再認過程中表現出相對于混合學習下更優的記憶成績。這一解釋與以往研究中發現的詞頻或情緒對ABE的調節現象是相符的。Mulligan等人(2014)發現, 與高頻詞相比, 低頻詞的ABE較小, 即目標探測對背景刺激為低頻詞所產生的注意促進效應要明顯小于高頻詞。隨后Spataro, Mulligan和Rossi–Arnaud (2015)進一步控制了低頻詞的正字法(orthographic), 發現與常見字母組合成(常見正字法)的低頻詞相比, ABE控制對不常見字母組合成(特殊正字法)的低頻詞沒有產生任何作用。孟迎芳等人(2018)采用負性情緒材料作為背景刺激, 發現與中性材料相比, 負性情緒材料下的ABE有所減少甚至消失。對此, 已有研究認為, 這是源于這些刺激本身的獨特性而使得它們在編碼早期容易吸引注意, 從而使得目標探測這種與背景材料本身無關、額外的控制加工對其帶來的記憶促進作用相應減少。而仔細分析這些研究的數據, 我們會發現, 與本研究的結果類似, 這些條件下的ABE減少似乎都源于這些獨特刺激在分心拒絕下受到的影響更小一些(具體可見Mulligan等人(2014)圖5; Spataro等人(2015)圖1; 孟迎芳等人(2018)圖2和圖3)。因此我們推測, 在這些研究中, 刺激的獨特性使得同類刺激的關系性信息被激活, 此時代表關系性信息的特征集的激活與單個項目的激活相一致(Hunt & Seta, 1984), 使得不論是目標探測還是分心拒絕, 對同類刺激所產生的作用都有所減弱, 從而導致目標和分心條件之間的差異減少。當然, 關系性信息又可以分為不同的種類, 例如類別關系性信息(categorical relation) (Engelkamp, 1995)、情景關系性信息(episodic relation) (Engelkamp, 1995)、順序關系性信息(the sequential relation between learning items) (Olofsson, 1996)、環境關系性信息(relation between item and context) (Engelkamp, 1995), 是否不同類型的關系性信息的激活都會對ABE產生類似的影響呢?這個問題還有待進一步的研究加以解決。

此外, 本研究也發現, 相比于詞匯刺激, 圖片材料的ABE似乎更不容易受到分類學習的影響。這可能與圖片材料的特殊性有關。詞匯主要包含言語編碼, 圖片主要包含表象和言語結合的雙重編碼, 而詞匯只有言語的單一編碼, 相對于圖片的雙重編碼加工, 圖片編碼可能比詞匯編碼需要更多的注意資源, 使得同等條件下圖片更具有記憶優勢(Paivio, 1991)。因此我們猜測, 分類學習條件下對于更多依賴于語義加工的詞匯材料會更容易產生對關系性信息加工的依賴, 而對于圖片材料的編碼, 根據交互激活和競爭模型, 視覺刺激的物理屬性在語義信息被聯結前就能得到加工(Humphreys, Lamote, & Lloydjones, 1995), 因此即使在分類學習條件下, 圖片材料的加工也可能更多依賴于圖片本身的物理屬性(如圖片亮度、圖形大小等)。此外, Yum, Holcomb和Grainger (2011)發現, 額葉在圖片視覺加工中會被激活, 在詞匯加工中卻未得到激活, 研究者認為這可能是因為與詞匯相比, 圖形的視覺空間結構更為顯著。在實驗2中以簡筆畫為背景刺激, 由于簡筆畫本身有著突出的形狀特征(任靜, 2010), 其視覺屬性最先被加工和提取。因此與詞匯學習相比, 圖片材料的ABE似乎更不容易受到分類學習的影響。兩種刺激材料對ABE的不同影響也表現在以往關于ABE研究中類似的混合學習條件下。在本研究中我們借鑒了Swallow等人(2014b)的ABE范式, 在學習階段添加了空白項來區分目標探測與分心拒絕在ABE中的作用。Swallow等人(2014b)的研究中采用的是圖片刺激, 與他們的實驗結果類似, 我們采用圖片材料的實驗2發現, 在與多數ABE研究類似的混合學習條件下, 分心圖的再認成績與空白圖并無差異, 而目標圖的再認成績卻明顯優于空白圖, 表現為一種絕對的記憶促進現象。但實驗1采用詞匯作為背景信息卻發現, 目標詞的再認成績與空白詞無差異, 但分心詞的再認成績卻明顯低于空白詞, 表現為一種相對的記憶促進現象。而這一結果與不少采用詞匯作為背景信息的其它研究是相似的(Mulligan et al., 2014; Rossi- Arnaud et al., 2014; Spataro et al., 2013)。

綜上, 本研究采用分類學習和混合學習兩種編碼方式, 比較不同背景信息加工方式可能對ABE產生的影響。結果表明, 與混合學習條件相比, 分類學習條件下的ABE有所減少, 相比圖片材料而言, 詞匯材料的ABE更容易受到分類學習的影響, 甚至使得ABE消失。而這種影響可能是源于分類學習下被試傾向對背景刺激進行關系性信息編碼, 而這種關系性信息編碼可能減少分心拒絕下產生的抑制作用, 從而減少了目標與分心之間的差異。因此本研究為ABE的項目特異性解釋提供了更為直接的證據。

Carvalho, P. F., & Goldstone, R. L. (2017). Carnegie mellon university the sequence of study changes what information is attended to, encoded, and remembered during category learning.,(11), 1–21.

Cohen, J. (1992). Statistical power analysis.(3), 98–101.

Dong, C. F. (2004).(Master's thesis). South China Normal University.

[董昌鋒. (2004).(碩士學位論文). 華南師范大學.]

Einstein, G. O., & Hunt, R. R. (1980). Levels of processing and organization: Additive effects of individual-item and relational processing.(5), 588–598.

Engelkamp, J. (1995). Visual imagery and enactment of actions in memory.(2), 227–240.

Fang, Y. H., Zhang, J. J. (2009). Asymmetry in naming and categorizing of Chinese words and pictures: Role of semantic radicals.(2), 114–126.

[方燕紅, 張積家. (2009). 漢字詞和圖片命名與分類的比較.(2), 114–126.]

Faul, F., Erdfelder, E., Lang, A. G., & Buchner, A. (2007). G*power 3: A flexible statistical power analysis program for the social, behavioral, and biomedical sciences.(2), 175–191.

Gollin, E. S., & Sharps, M. J. (1988). Facilitation of free recall by categorical blocking depends on stimulus type.(6), 539–544.

Huff, M. J., & Bodner, G. E. (2014). All varieties of encoding variability are not created equal: Separating variable processing from variable tasks., 43–58.

Humphreys, G. W., Lamote, C., & Lloydjones, T. J. (1995). An interactive activation approach to object processing: Effects of structural similarity, name frequency, and task in normality and pathology.(3-4), 535–586.

Hunt, R. R. (1981). Relational and item-specific information in memory.(5), 497–514.

Hunt, R. R., & McDaniel, M. A. (1993). The enigma of organization and distinctiveness.(4), 421–445.

Hunt, R. R., & Seta, C. E. (1984). Category size effects in recall: The roles of relational and individual item information.(3), 454–464.

Johnston, W. A., & Dark, V. J. (1986). Selective attention.(1), 43–75.

Li, G. Z., Li, M., Lin, W. Y., & Wang, L. J. (2016). The Encoding Mechanism of SPT Effect: Item-Specific and Item-Relational Information.(2), 292–297.

[李廣政, 李梅, 林文毅, 王麗娟. (2016). SPT效應的編碼機制: 項目特異性與項目關聯性信息.(2), 292–297.]

Lin, J. Y., Pype, A. D., Murray, S. O., & Boynton, G. M. (2010). Enhanced memory for scenes presented at behaviorally relevant points in time.(3), e1000337.

Liu, X. P., & Li, Y. M. (2007). The effects of gist representations and verbatim representations on false recognition.(5), 1091–1094.

[劉希平, 李永梅. (2007). 要點表征與字詞表征在錯誤再認中的作用.(5), 1091–1094.]

Makovski, T., Swallow, K. M., & Jiang, Y. V. (2011). Attending to unrelated targets boosts short-term memory for color arrays.(6), 1498–1505.

Meng, Y. F., & Lin, H. R. (2018). Attentional boost effect: New insights on relationship between attention and memory.(2), 221–228.

[孟迎芳, 林惠茹. (2018). 注意促進效應: 注意與記憶關系的新見解.(2), 221–228.]

Meng, Y. F., Lin, G. Y., & Lin, H. R. (2019). The role of distractor inhibition in the attentional boost effect: Evidence from the R/K paradigm.(6), 750–757.

Meng, Y. F., Zheng, S. Q., Wang, D. P., & Nie, A. Q. (2018). Limits to the attentional boost effect: The moderating influence of negative emotion.(2), 298–304.

[孟迎芳, 鄭思琦, 王大鵬, 聶愛情. (2018). 負性情緒對注意促進效應的調節.,(2), 298–304.]

Mulligan, N. W. (1999). The effects of perceptual interference at encoding on organization and order: Investigating the roles of item-specific and relational information.(1), 54–69.

Mulligan, N. W. (2008). Attention and memory. In H. L. Roediger (Ed.),(pp. 7–22). Oxford, England: Elsevier.

Mulligan, N. W., Smith, S. A., & Spataro, P. (2015). The attentional boost effect and context memory.(4), 598–607.

Mulligan, N. W., Spataro, P., & Picklesimer, M. (2014). The attentional boost effect with verbal materials.(4), 1049–1063.

Olofsson, U. (1996). The effect of enactment on memory for order.(1), 75–79.

Paivio, A. (1991). Dual coding theory: Retrospect and current status.(3), 255–287.

Parks, C. M. (2013). Transfer-appropriate processing in recognition memory: Perceptual and conceptual effects on recognition memory depend on task demands.(4), 1280–1286.

Pashler, H. (1994). Dual-task interference in simple tasks: Data and theory.(2), 220–244.

Ren, J.(2010).(Unpublished master’s thesis), Guangzhou University.

[任靜. (2010).(碩士學位論文). 廣州大學.]

Roediger, H. L., Watson, J. M., Mcdermott, K. B., & Gallo, D. A. (2001). Factors that determine false recall: A multiple regression analysis.(3), 385–407.

Rossi-Arnaud, C., Spataro, P., Saraulli, D., Mulligan, N. W., Sciarretta, A., Marques, V. R., & Cestari, V. (2014). The attentional boost effect in schizophrenia.(3), 588–597.

Spataro, P., Mulligan, N. W., Bechi, G. G., & Rossi-Arnaud, C. (2017). Divided attention enhances explicit but not implicit conceptual memory: An item-specific account of the attentional boost effect.,(2), 1–6.

Spataro, P., Mulligan, N. W., & Rossi-Arnaud, C. (2013). Divided attention can enhance memory encoding: The attentional boost effect in implicit memory.(4), 1223–1231.

Spataro, P., Mulligan, N. W., & Rossi-Arnaud, C. (2015). Limits to the attentional boost effect: The moderating influence of orthographic distinctiveness.(4), 987–992.

Swallow, K. M., & Jiang, Y. V. (2010). The attentional boost effect: Transient increases in attention to one task enhance performance in a second task.(1), 118–132.

Swallow, K. M., & Jiang, Y. V. (2011). The role of timing in the attentional boost effect.(2), 389–404.

Swallow, K. M., & Jiang, Y. V. (2012). Goal-relevant events need not be rare to boost memory for concurrent images.(1), 70–82.

Swallow, K. M., & Jiang, Y. V. (2014b). The attentional boost effect really is a boost: Evidence from a new baseline.(5), 1298–1307.

Yonelinas, A. P. (2002). The nature of recollection and familiarity: A review of 30 years of research(3), 441–517.

Yum, Y. N., Holcomb, P. J., & Grainger, J. (2011). Words and pictures: An electrophysiological investigation of domain specific processing in native Chinese and English speakers.(7), 1910–1922.

Zhou, C. (2007). Strong false memory effect: The impact of presentation duration and presentation mode.(1), 23–28.

[周楚. (2007). 強大的錯誤記憶效應: 詞表呈現時間與呈現方式的影響.(1), 23–28.]

Comparing the attentional boost effect between classified learning and mixed learning

MENG Yingfang; YE Xiumin; MA Huijiao

(School of Psychology, Fujian Normal University, Fuzhou 350117, China)

Stimuli presented with interference of the nature of targets detection are later recognized more accurately than that of distracted rejection, an unusual effect labeled the(ABE). Spataro, Mulligan, Gabrielli and Rossi-Arnaud (2017) proposed the item-specific account, arguing that target detection mainly facilitates the processing of item-specific information rather than relational information. The item-specific account seems to have a larger scope of application. However, Spataro et al. (2017) proposed this account mainly based on the different degrees to which test tasks depended on item-specific and relational information. As a result, we propose a question: if target detection mainly promotes the item-specific information of the background stimulus, when the background stimulus mainly depends on the processing of relational information, will the promoting effect of target detection be reduced or even disappear? The discussion of this issue could provide more direct evidence for the item-specific account of the ABE. In the present study, mixed learning and classified learning methods were used to process the item-specific information and relational information of background stimuli. In general, pictures and words contain different perceptual information; the memory of picture preferentially utilizes image representations, while the memory of word preferentially utilizes semantic representations. Additionally, do the processing differences seen between words and pictures change the effects of classified and mixed learning on the ABE? To answer these questions, the current study performed two experiments to test whether the ABE is affected by the different types of processing needed for words and pictures used as background information.

The experiment was a 2 (presentation mode: classified learning, mixed learning) × 3 (stimulus type: target, distraction, baseline) mixed design. The presentation mode is the between-subjects variable, and the stimulus type is the within-subjects variable. In experiment 1, in classified learning, category words and words unrelated to the category were presented in sequential groups, and the words in each group were presented randomly. To enhance the effect of classification, a 3000 ms "blink" cue and a 1000 ms "continue" cue were inserted between every two groups of words. In mixed learning, category words and words unrelated to the category were presented randomly through a mixed display, and there were no extra intervals between groups. Sixty students participated in experiment 1, and 78 students participated in experiment 2. Participants were told to read each word aloud while simultaneously monitoring a small indicator above the word. Participants were then instructed to press the space bar as quickly as possible when they saw that the indicator was a “+” (a target) and to withhold a response when they saw that the indicator was a “–” (a distractor) or when they did not see an indicator at all (no indicator). In experiment 2, pictures (brief strokes) were used as background stimuli, and the other task and procedure were similar to those in experiment 1.

The main results were as follows. In Experiment 1, the ABE is robust only in mixed learning; that is, the recognition rate of target-paired words is obviously better than that of distractor-paired words (= 0.004) and even reaches the level of full attention (baseline words) (= 0.95). The recognition rate of distractor-paired words is obviously lower than that of baseline words (= 0.044), showing a typical distraction inhibitory effect. Moreover, there was no significant difference between target-paired words (= 0.636) and baseline words (= 0.697) in the two presentation modes, but the recognition rate of distractor-paired words during classified learning was significantly higher than that of mixed learning (= 0.008). In experiment 2, the ABE was found in both classified and mixed learning modes, but the ABE during classified learning (10%) was lower than that during mixed learning (16%). The recognition rate of target-paired pictures was even better than that of baseline pictures, showing an absolute attention boosting effect. Moreover, there was no significant difference between the recognition rate for the two kinds of target-paired pictures (= 0.614). However, the recognition rates of distractor-paired pictures (= 0.043) and baseline pictures (= 0.036) show differences in the presentation mode. During classified learning, the recognition rates of distractor-paired pictures and baseline pictures are slightly higher than those during mixed learning.

The results suggest that compared with the mixed learning condition, the ABE in the classified learning condition is reduced. Compared with pictures, the ABE for words is more vulnerable to classified learning, which can even makes the ABE disappear. This effect may occur because participants tend to encode relational information in classified learning, which may reduce the inhibitory effect of distraction rejection, thus reducing the difference between target-pair stimuli and distractor-pair stimuli. Therefore, the current study provides more direct evidence for the item-specific account of the ABE.

attentional boost effect; item-specific information; item-relational information; item-specific account

2019-03-25

* 國家自然科學基金青年項目(31800906); 2018年福建省自然基金面上項目(2018J01719)。

注:葉秀敏為共同第一作者。

孟迎芳, E-mail: 175695016@qq.com

B842

10.3724/SP.J.1041.2020.00139

猜你喜歡
詞匯分類實驗
記一次有趣的實驗
分類算一算
本刊可直接用縮寫的常用詞匯
一些常用詞匯可直接用縮寫
山東醫藥(2020年34期)2020-12-09 01:22:24
做個怪怪長實驗
本刊可直接用縮寫的常用詞匯
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
NO與NO2相互轉化實驗的改進
主站蜘蛛池模板: 午夜小视频在线| 欧美爱爱网| 久久综合丝袜长腿丝袜| 香蕉eeww99国产精选播放| 亚洲国产亚综合在线区| 欧美在线免费| 亚洲中文字幕在线一区播放| 欧美日韩国产在线人| 高清久久精品亚洲日韩Av| 天天综合网站| 99精品福利视频| 女人天堂av免费| 亚洲无码在线午夜电影| 99在线观看精品视频| 国产微拍精品| 亚洲va欧美va国产综合下载| 欧美成人午夜影院| 国产激爽爽爽大片在线观看| 国产激情第一页| 欧美在线天堂| 三级欧美在线| 99在线视频网站| 久久综合五月婷婷| 亚洲香蕉久久| lhav亚洲精品| 久久久噜噜噜久久中文字幕色伊伊 | 日韩精品一区二区三区中文无码 | 日韩久久精品无码aV| 国产精品国产主播在线观看| 精品视频91| 日本不卡在线播放| 久久国产精品麻豆系列| 精品91视频| 无遮挡国产高潮视频免费观看| 亚洲a级毛片| 精品欧美视频| 欧美日韩精品一区二区在线线| 国产免费观看av大片的网站| 免费看的一级毛片| 欧美亚洲第一页| 91精品视频网站| 激情午夜婷婷| 日韩高清欧美| 91色在线观看| 国产欧美日韩另类| 午夜a级毛片| 久久国产成人精品国产成人亚洲| a亚洲天堂| 亚洲视频在线青青| 国产在线视频自拍| 天堂网亚洲系列亚洲系列| 精品国产成人三级在线观看| 久久精品视频一| 久久久精品无码一二三区| 中文字幕在线播放不卡| 欧美精品亚洲精品日韩专区| 国产玖玖玖精品视频| 在线毛片网站| 五月婷婷丁香色| 国产中文一区a级毛片视频| 老汉色老汉首页a亚洲| 少妇被粗大的猛烈进出免费视频| 一级毛片免费的| 日韩a级毛片| 免费久久一级欧美特大黄| 日本伊人色综合网| 欧美视频在线播放观看免费福利资源 | 尤物国产在线| 国产成+人+综合+亚洲欧美| 日韩无码黄色| 国产亚洲精| 午夜影院a级片| 视频国产精品丝袜第一页| 国产综合网站| 欧美激情首页| 老熟妇喷水一区二区三区| 超碰精品无码一区二区| 麻豆AV网站免费进入| 国产精品网拍在线| 99精品欧美一区| 国产精品永久免费嫩草研究院| 国产乱子伦手机在线|