唐溢張智君曾玫媚黃可劉煒趙亞軍
(1浙江大學心理與行為科學系,杭州310028)(2云南民族大學教育學院,昆明650504)(3西南民族大學社會學與心理學學院,成都610041)
在日常生活中,人類除了加工事物的視覺特征(如顏色和形狀等)和語義信息(如名稱)外,還對事物間的時空規律(如時間順序或空間位置信息)特別敏感。例如,當我們對一個新環境(如陌生的超市或城市)進行短期的熟悉后,就能自動習得場景中事物間的時空關系。有研究者認為,人們之所以能夠自動加工場景中的規律信息,是因為統計學習(statistical learning)能力在其中發揮了重要的作用(Turk-Browne,Scholl,Chun,&Johnson,2009)。
統計學習就是個體自覺地運算刺激間的轉接概率(transitional probabilities,TP)掌握統計規律的過程(Fiser&Aslin,2001)。該概念最初由Saffran,Aslin和Newport(1996)在研究嬰兒的語言習得時提出,他們給嬰兒呈現由無意義音節組成的刺激序列。這些音節每三個構成一個三聯體(triplet),三聯體內每個音節的時間順序固定不變,而各個三聯體之間的時間順序變化(如pa-bi-ku/go-la-tu/da-ro-pi/pabi-ku/da-ro-pi…)。更具體地說,在整個序列中,每個音節出現的頻次相同,而刺激之間的轉接概率不同。轉接概率的運算方式為TP=P(XY)/P(X),其中X和Y為刺激元素,P(XY)為整個刺激序列中XY組合出現的頻率,P(X)為X出現的頻率(Miller&Selfridge,1950),即三聯體內部元素間的轉接概率為1,而三聯體之間元素的轉接概率小于1。結果發現,在兩分多鐘的學習(聽覺呈現)后,嬰兒能明顯地分辨出呈現過的三聯體(如pa-bi-ku)與未呈現過的三聯體(如pa-la-pi)或偶爾呈現的三聯體(如bi-ku-da)。他們認為,嬰兒是通過“統計運算”(statistical computation)音節間的轉接概率而習得語言規律的(Saffran et al.,1996)。隨后,一些研究者在成人的視覺通道中也發現了類似的統計學習能力(Fiser&Aslin,2001,2002),并將其稱為“視覺統計學習”(visual statistical learning,VSL)。他們給被試呈現圖形序列,該序列內的各個圖片在空間位置(Fiser&Aslin,2001)或時間順序(Fiser&Aslin,2002)上隱含統計規律,但被試事先并不知道該規律。經過一定時間的熟悉后,要求被試完成二選一迫選任務,即每次先后呈現兩個結構(如三聯體),其中一個為熟悉結構,另一個為熟悉元素組成的偽結構,要求被試確定哪個結構更熟悉,即在熟悉階段出現過。結果顯示,被試對熟悉結構的熟悉性判斷顯著高于偽結構。
以往研究發現,這種統計學習機制在知覺和認知技能中廣泛存在,如因果結構知覺(Sobel,Tenenbaum,&Gopnik,2004)、動作學習(Baldwin,Anderrson,Saffran,&Meyer,2008)、視覺加工(Brady&Oliva,2008;Fiser&Aslin,2001,2002;Kirkham,Slemmer,&Johnson,2002;Yuille&Kersten,2006)和語言學習(Conway,Bauernschmidt,Huang,&Pisoni,2010;Goldwater,Griffiths,&Johnson,2009)。另外,被試在統計學習過程中并沒有意識到材料之間存在統計結構(Brady&Oliva,2008;Turk-Browne,Junge,&Scholl,2005),即他們只能從肯定例證(positive instances)中進行學習,而不可能采用分析加工或假設驗證的策略(Perruchet&Pacton,2006)。基于此,研究者認為統計學習具有自動化(Fiser&Aslin,2001,2002;Saffran et al.,1996;Turk-Browne et al.,2005)和無意識(Fiser&Aslin,2001)等特點。
由于內隱學習(implicit learning)和統計學習范式均不告知被試學習任務,即內隱學習也具有無意識特點(Willingham,Nissen,&Bullemer,1989),因此,有研究者認為,統計學習和內隱學習是一種現象的兩種不同形式(Perruchet&Pacton,2006)。甚至有研究者直接使用內隱統計學習(implicit statistical learning)概念來統和它們(Conway&Christiansen,2006)。不過,也有研究者認為,被試在內隱學習范式下習得的是規則(rule),而這種規則與具體刺激無關(Marcus,Vijayan,Bandi Rao,&Vishton,1999)。如果該假設成立,則內隱學習與統計學習是不同的現象,因為統計學習是被試通過統計運算刺激之間轉接概率來習得刺激間的統計規律關系,轉接概率與每個刺激直接相關。
對時間順序結構的視覺統計學習能力非常重要,它有利于人們掌握事物發生的順序規律。近年來,許多研究者對個體在視覺統計學習中能基于哪些特征進行統計運算非常關注,結果發現人類不僅能基于視覺特征(Fiser&Aslin,2002;Turk-Browne,Isola,Scholl,&Treat,2008;Turk-Browne et al.,2005),還能基于抽象語義信息(Brady&Oliva,2008;Otsuka,Nishiyama,Nakahara,&Kawaguchi,2013)加工時間順序結構。不過,基于這些特征對時間順序結構的視覺統計學習效果到底是精確的(specific),還是靈活的(flexible),以往的研究結果并不一致(Turk-Browne&Scholl,2009;Otsuka et al.,2013)。也就是說,在視覺統計學習中,被試能基于哪些特征對統計規律進行何種程度的加工,依然是關注的焦點。
有研究者認為,個體的視覺統計學習是基于客體發生的,視覺特征信息是否起作用取決于個體如何定義“客體”(Turk-Browne et al.,2008)。他們給被試呈現帶有顏色的隱含時間順序結構的無意義圖形序列(如A-B-C),要求被試在被動觀看后完成二選一迫選任務,即判斷(A-B-C vs.A-E-I)哪一個在熟悉階段出現過。結果發現:當圖形的顏色在測試階段與熟悉階段中保持一致時,被試表現出明顯的視覺統計學習效果,而當測試階段圖形的顏色變為單色(即只保留形狀)或只呈現顏色塊(即消除形狀)時,視覺統計學習的效果變弱或消失;當圖形某一視覺特征(顏色或形狀)的變化在熟悉階段具有規律性,且測試階段只對該視覺特征進行測試時,視覺統計學習效果又重新出現(Turk-Browne et al.,2008)。
另外,有研究者認為,個體還可以基于類別(語義)信息進行視覺統計學習(Brady&Oliva,2008)。他們采用自然場景(如森林、建筑、客廳等)探討了個體是否可以基于類別(語義)信息進行視覺統計學習。在熟悉階段,給被試呈現1000張圖片,每張圖片呈現300 ms,圖片之間的間隔700 ms,要求被試探測重復出現的圖片(無關任務)。在測試階段,要求被試完成圖片三聯體二選一迫選任務。與先前的實驗不同,該實驗中每個三聯體內部固定位置所呈現的圖片屬于某一類客體(如橋梁,包括水泥結構、鋼材結構、木質結構等),而非特定客體。結果顯示,被試能以類別信息判斷三聯體的熟悉性,表明個體在熟悉階段能根據抽象的語義信息來加工時間順序結構,即被試能基于類別(語義)信息進行視覺統計學習(Brady&Oliva,2008)。但是,該研究不能排除被試的類別統計學習是基于同類場景中固有特征的可能性。對此,有研究者在熟悉階段呈現客體圖片,而在測試階段呈現客體圖片或客體名稱。結果發現,被試對視覺特征(客體圖片)順序三聯體的熟悉性判斷均顯著高于隨機水平,對視覺特征倒序三聯體的熟悉性判斷為隨機水平,而對客體語義信息(客體名稱)順序三聯體和倒序三聯體的熟悉性判斷均顯著高于隨機水平。根據這一結果,他們認為,對客體視覺特征和語義信息的加工是兩個平行的過程:個體在提取視覺特征時間順序的同時,形成了不具有時間規律信息的語義組塊(Otsuka et al.,2013)。
以往研究者一般采用倒序三聯體測試方式來檢驗視覺統計學習的靈活性(Turk-Browne&Scholl,2009;Otsuka et al.,2013)。他們在熟悉階段給被試呈現隱含時間順序結構(如A-B-C)的刺激序列,而在測試階段分別呈現順序三聯體(A-B-C vs.A-E-I)和倒序三聯體(C-B-A vs.IEA),讓被試分別做熟悉性判斷。他們認為,順序三聯體測試反映被試對轉換概率的統計學習,而倒序三聯體測試則反映被試基于該具體特征表征時間順序結構的靈活性。也就是說,如果被試對順序三聯體(如A-B-C)的熟悉性判斷顯著高于隨機水平,而對倒序三聯體(如C-B-A)的熟悉性判斷為隨機水平,則表明被試基于該特征的視覺統計學習是精細的;而若對倒序三聯體(如C-B-A)的熟悉性判斷也顯著高于隨機水平,則表明被試基于該特征的視覺統計學習具有靈活性,即被試基于該特征的統計運算結果并不是基于精確的時間順序信息進行的(Turk-Browne&Scholl,2009)。
有研究發現,被試基于視覺特征和語義信息的視覺統計學習效果的靈活性會受其他因素的影響。例如,Turk-Browne和Scholl(2009)發現,如果在熟悉階段呈現隱含時間順序結構(如A-B-C)的無意義圖形序列,則被試在測試階段會將順序三聯體(如A-B-C)和倒序三聯體(如C-B-A)均顯著判斷為熟悉三聯體,但當測試情景改為比較順序三聯體和倒序三聯體(A-B-C vs.C-B-A)的熟悉性時,則被試會顯著地將順序三聯體判斷為熟悉三聯體。該現象也存在于基于客體語義信息的視覺統計學習中(Otsuka et al.,2013)。這表明,被試基于視覺特征和語義信息的視覺統計學習存在靈活性,而這種靈活性受測試情景的影響。但是,Otsuka等(2013)卻發現,當刺激材料包含語義信息的場景和類別客體時,被試基于視覺特征的統計運算表現出精確加工的特點,即抽象語義信息會易化基于視覺特征的視覺統計學習效果。他們進一步提出,個體之所以表現出靈活的視覺統計學習效果,是對統計結構進行組塊加工(chunk)的結果,因為在組塊中元素間的時間順序信息或空間位置信息具有不確定性(Otsuka et al.,2013)。
Otsuka等(2013)所使用的實驗材料為類別語義信息(類別名稱,common name),與之相對應的是特定語義信息(特定名稱,proper name)(比如,建筑物名,人名等)。有研究表明,個體對兩類語義信息的加工是分離的過程(Martins&Farrajota,2006),但也有研究發現人類對兩者的加工存在關聯(Joassin,Meert,Campanella,&Bruyer,2007)。Otsuka等人(2013)考察了基于類別語義信息的視覺統計學效果,而基于特定語義信息的視覺統計學習效果到底是如何,還并未有相關的研究。
基于上述分析,本研究將進一步檢驗視覺特征與語義信息的視覺統計學習在多大程度上能夠精確加工時間順序結構。
以上這些研究考察了人類對非社交主體(如無意義圖形、場景、類別客體等)的統計運算能力,而對社交主體(如人臉面孔)的統計運算能力到底如何,目前并未有直接的研究。作為社會性動物,人類與同類打交道的機會最頻繁,很多時候需要在非面對面的情況下掌握其他個體的信息,因此擁有自動將人臉面孔與其特定名稱聯系起來的能力(Alvarez,Novo,&Fernandez,2009)。人類對面孔的加工也比類別客體加工更深刻,如面孔(尤其是名人)比客體更能吸引人類的注意(Langton,Law,Burton,&Scweinberger,2008;Theeuwes&van der Stigchel,2006)。ERPs研究表明,在視覺特征加工階段個體對面孔的加工比客體更精細,能誘發更大的N170成分(Guillaumea et al.,2009)。個體對熟悉面孔的語義啟動也比客體更充分,能誘發更顯著的N250成分(Pickering&Schweinberger,2003)。名人面孔會導致更活躍的N400(Saavedra,Iglesias,&Olivares,2010;Wiese&Schweinberger,2011;Rugg&Curran,2007;Germain-Mondona,Silvert,&Izaute,2011)和P600(Saavedra et al.,2010),而這些腦電成分主要與語義信息加工有關。以上研究表明,個體對人臉面孔(特別是名人面孔)本身及其語義信息的加工更精細。但是,也有研究表明,被試加工特定名稱(如面孔名字)比類別名稱(如袋鼠等)更困難(Ahmed,Arnold,Thompson,Graham,&Hodges,2008;Bredart,1993;Evrard,2002;Semenza,2006),如Evrard(2002)的研究發現,被試命名面孔名字時需要更長的時間,他認為這是因為命名面孔名字需要更復雜和更多的認知資源。因此,與基于客體語義信息的統計加工相比,基于人類面孔語義信息的統計加工可能存在兩種情況:精確的統計運算或組塊的統計運算。
鑒于此,本研究將采用人臉面孔和面孔名字作為實驗材料,考察被試基于面孔視覺特征與語義信息的視覺統計學習。
需要指出的是,先前研究發現,當被試基于同一實驗材料的不同特征進行視覺統計學習時,其視覺統計學習效果往往不同(Otsuka et al.,2013;Turk-Browne et al.,2008)。但是,這些研究并沒有探討被試基于這些特征進行視覺統計學習的時間特點及其差異。研究表明,負責面孔視覺特征(Sergent,Ohta,&McDonald,1992;Kanwisher,McDermott,&Chun,1997;Campanella et al.,2001)及其名字(Damasio,Grabowski,Tranel,Hichwa,&Damasio,1996;Gorno-Tempini et al.,1998)加工的腦區是分離的。同時,以往研究者采用ERPs技術對面孔加工的階段進行了具體的分析(Alvarez et al.,2009),發現面孔語義加工發生在視覺特征加工的基礎之上(Bruce&Young,1986;Burton,Bruce,&Johnson,1990),面孔視覺特征加工在刺激呈現170~200 ms左右就已完成(Bentin&Deouell,2000),而面孔語義信息加工則需要更長的時間。有研究者認為,面孔語義信息的加工發生于450~650 ms(N400成分)(Huddy,Schweinberger,Jentzsch,&Burton,2003);也有研究者發現,被試對面孔語義信息的加工發生于550~750 ms(Diaz,Lindin,Galdo-Alvarez,Facal,&Juncos-Rabadan,2007);Alvarez等人(2009)則認為,面孔語義信息的加工發生于450~750 ms之間。
因此,本研究還將通過調節面孔圖片的呈現時間,考察被試基于面孔視覺特征和語義信息進行統計運算的時間特征。
總之,本研究以名人面孔為實驗材料,采用語義測試(Otsuka et al.,2013)和倒序三聯體(Turk-Browne&Scholl,2009)測試的視覺統計實驗范式,考察人類基于面孔視覺特征和語義信息進行視覺統計學習的特點。另外,本研究還采用倒置面孔呈現范式,深入探究視覺統計學習中的面孔特性。以往研究表明,倒置會破壞面孔結構信息的加工,而不會破壞特征信息的加工(Freire,Lee,&Symons,2000;Webster&MacLeod,2011)。因此,如果個體基于正立面孔與倒置面孔視覺特征的視覺統計學習存在顯著差異,則說明基于視覺特征的視覺統計學習存在面孔特性,即基于面孔視覺特征的視覺統計學習并非一般視覺特征的統計學習;反之,則基于視覺特征的視覺統計學習不存在面孔特性。因此,本研究包含了以下5項實驗:實驗1與實驗2分別采用圖片和名字三聯體為測試材料,檢驗人類是否能基于面孔語義信息進行視覺統計學習;實驗3A和3B采用倒序三聯體(如C-B-A)測試方式進一步探討基于名人面孔視覺特征和語義信息進行視覺統計學習的靈活性,分析視覺統計學習中被試對面孔視覺特征和語義信息的加工特點。實驗4A和4B則通過操縱圖片呈現時間(由實驗3的1000 ms縮減到700 ms)考察個體基于面孔語義信息的統計加工過程是與語義加工同時發生,還是發生在語義信息加工之后,從而探討視覺統計學習中個體基于視覺特征和語義信息的統計規律提取機制。實驗5在實驗4的基礎上,采用倒置面孔呈現范式,驗證基于名人面孔視覺特征的視覺統計學習是否具有面孔特異性。綜合先前的研究成果,我們假設:在實驗1與實驗2中,被試基于面孔視覺特征與語義信息的視覺統計學習效果顯著,表現為對熟悉(視覺特征和語義信息)三聯體的熟悉性判斷都顯著高于隨機水平;在實驗3A和3B中,被試基于面孔視覺特征和語義信息的視覺統計學習均能精確加工時間順序結構,表現為對熟悉(視覺特征和語義信息)三聯體的熟悉性判斷都顯著高于隨機水平,而對倒序(視覺特征和語義信息)三聯體的熟悉性判斷都為隨機水平;在實驗4A中,被試基于面孔視覺特征的視覺統計學習不會受圖片呈現時間調整的影響,表現與實驗3A相同,而在實驗4B中,基于語義信息的視覺統計學習能力減弱或消失,表現為對順序和倒序語義三聯體的熟悉性判斷均顯著高于隨機水平或者表現為隨機水平。在實驗5中,被試基于正立面孔的視覺統計學習效果將顯著高于倒置面孔視覺特征的視覺統計學習效果。
探討個體是否能對名人面孔進行視覺統計學習。
15名某大學本科生或研究生(6名男生,9名女生)為被試,均沒有參加過其他相關實驗。他們的年齡在19~24歲之間,均為右利手,視力或矯正視力正常,無色盲、色弱。他們自愿參加實驗,實驗結束后獲得學分或一定的報酬。
實驗裝置為一臺PentiumⅣPC電腦,Dell 17英寸純平顯示器,分辨率為1024×768,刷新率為85 Hz,屏幕背景為灰色。被試距離屏幕的距離為70 cm。
實驗材料為12張名人面孔,均來自網絡圖片。所有面孔的高度在6.56°~7.04°之間,寬度在4.92°~5.41°之間,呈現在屏幕中央,均進行去色處理,直視被試。具體見圖1。

圖1 實驗1采用的材料(名人面孔及名字)
在實驗開始之前,所有被試都需要完成名人面孔熟悉程度的測試,即在電腦屏幕中央呈現名人的面孔,要求被試快速說出面孔對應的名字。如果被試不能一次性成功報告所有面孔的名字,則將不參與正式實驗。
正式實驗與先前研究(Turk-Browne et al.,2008;Otsuka et al.,2013)相同,也包括兩個階段:熟悉階段與測試階段。
熟悉階段:在屏幕中央呈現面孔圖片序列,每張面孔每次呈現300 ms,兩張面孔之間間隔700 ms。12張面孔組成4個三聯體,每個三聯體重復96次,總共呈現1152個面孔刺激。三聯體內部的圖片位置固定,且順序總是一致的(如A-B-C,J-K-L)。4個三聯體在整個實驗過程中隨機出現并遵循以下規則:同一三聯體不連續重復(如A-B-C-A-B-C)且兩個三聯體也不連續重復(如A-B-C-G-H-I-A-B-C-G-H-I)。在面孔呈現過程中,三聯體首或尾的圖片隨機插入重復圖片(如A-B-C-C-G-H-I或A-B-C-G-G-H-I),這樣的重復在整個過程中隨機出現96次,該操作不會影響三聯體結構的完整,且有助于防止被試對三聯體結構信息進行外顯學習(Otsuka et al.,2013)。具體見圖2A。在熟悉階段,被試從事與學習無關的任務,即準確且快速地對重復出現的面孔進行按鍵反應。具體地說,當后一面孔圖片與前一面孔圖片相同時,按“空格”鍵進行反應。該任務可以很好地阻止被試對圖片的順序結構進行外顯學習(Turk-Browne et al.,2005)和被動觀看(Brady&Oliva,2008)。需特別強調的是,在整個實驗過程中都不會告訴被試與圖片呈現結構有關的任何信息。此外,在正式實驗(熟悉階段)開始之前,讓被試完成6個試次的重復探測任務作為練習,練習所使用的實驗材料不在正式實驗中出現。熟悉階段大約持續20 min。

圖2 實驗1熟悉階段(A)和測試階段(B)的刺激示例(C為實驗2測試階段的刺激)
測試階段:在熟悉階段結束后,立即讓被試進行二選一迫選測試。具體地說,先在屏幕中央呈現白色“+”(0.8°×0.8°),持續1000 ms,然后連續呈現兩個三聯體(1個試次),其中每個圖片的呈現時間為300 ms,兩個圖片之間的間隔為700 ms,兩個三聯體之間的間隔為1000 ms。在每個試次中,一個三聯體的圖片順序是熟悉階段出現過的(如A-B-C),另一個為偽三聯體,它的圖片來自熟悉階段的圖片,但不是出現過的三聯體(如A-E-I)。在6張圖片呈現后,屏幕中央出現一個小紅點(0.5°×0.5°),要求被試判斷兩個三聯體中哪一個是熟悉階段出現過的,如果是前一個三聯體,按數字“1”鍵,反之按“2”鍵,小紅點直到被試按鍵反應后才會消失。具體見圖2B。每個三聯體(A-B-C,D-E-F,G-H-I,J-K-L)都與每個偽三聯體(A-E-I,D-H-L,G-K-C,J-B-F)匹配兩次,前后順序隨機平衡,總共測試32次。該階段大約持續5 min。
將被試在測試階段判斷三聯體熟悉性的正確率作為視覺統計學習的指標。
在實驗結束后,詢問被試是否知道實驗目的及是否在熟悉階段探測到圖片呈現的規律。
實驗結果的統計指標均參照Otsuka等人(2013)采用的方法進行計算。
熟悉階段的結果表明,被試對重復目標的平均探測概率為94.06%(SE
=1.14%)。這表明,被試能將注意集中到圖片重復探測任務上。事后詢問表明,被試不能報告出完整的三聯體和實驗目的。測試階段的結果為,被試對熟悉三聯體的熟悉性辨識率(72.29%)顯著高于隨機水平,t
(14)=5.89,p
<0.001,d
=1.52,表明被試能明顯區分偽三聯體與熟悉三聯體。該結果與先前無意義圖形(Turk-Browne et al.,2005)、真實場景(如森林、建筑、客廳等)(Brady&Oliva,2008)及客體(Otsuka et al.,2013)的視覺統計學習研究一致,說明被試可以基于熟悉面孔進行視覺統計學習。實驗1的結果表明,被試可以基于熟悉面孔進行視覺統計學習。但是,個體到底是基于面孔視覺特征信息還是基于語義信息(如名字)進行視覺統計學習的,實驗1并不能給出明確的答案。先前研究表明,個體不僅可以基于客體的視覺特征信息(如形狀)(Turk-Browne et al.,2008),也可以基于客體的語義信息(如類別)進行視覺統計學習(Brady&Oliva,2008;Otsuka et al.,2013)。因此,在實驗2中,在熟悉階段仍呈現名人面孔,但在測試階段卻以與名人面孔對應的真實名字作為測試材料(Otsuka et al.,2013),考察個體能否基于面孔語義信息進行視覺統計學習。如果被試能基于名人面孔語義信息進行視覺統計學習,那么在測試階段將能區分名字熟悉三聯體(如A-B-C)與偽三聯體(如A-E-I)。
15名某大學本科生或研究生(6名男生,9名女生)作為被試,均沒有參加過實驗1。他們的年齡在18~24歲之間,均沒有參加過其他相關實驗。他們均為右利手,視力或矯正視力正常,無色盲、色弱。他們均自愿參加實驗,實驗結束后獲得學分或一定的報酬。
熟悉階段完全與實驗1相同,而測試階段的刺激變為與面孔對應的人名(Otsuka et al.,2013)。名字最多三個漢字,字體為微軟雅黑(1.31°×1.31°),顏色為白色,字間距離為0.5°。名字的視角寬度和面孔寬度一致(圖2C)。
除測試階段的材料改為與面孔對應的名字外,其他程序均與實驗1相同。
整個實驗持續大約25 min。
SE
=1.41%)。視覺統計學習的效果顯著,對熟悉三聯體的辨識率(62.08%)顯著高于隨機水平,t
(14)=4.35,p
<0.01,d
=1.12。該結果與先前以客體為實驗材料的實驗結果一致(Otsuka et al.,2013),說明個體也能基于名人面孔的語義信息進行視覺統計學習。實驗1表明被試能夠基于名人面孔進行視覺統計學習,實驗2則進一步說明被試能夠基于名人面孔語義信息進行視覺統計學習。Turk-Browne等人(2009)的研究表明,倒序三聯體(如C-B-A)的測試方式能有效地揭示被試基于某一特征對時間順序結構進行統計運算的精確性。Otsuka等人(2013)采用該范式發現,被試基于客體語義信息表征時間順序結構時出現組塊現象(Otsuka et al.,2013)。基于此,實驗3A與3B分別以面孔視覺特征和語義信息作為測試材料,利用順序和倒序三聯體相結合的測試方式(Turk-Browne et al.,2009),比較被試基于面孔視覺特征和語義信息進行視覺統計加工的特點。如果被試對順序視覺特征和順序語義三聯體(如A-B-C)的熟悉度判斷均顯著高于隨機水平(50%),而對倒序視覺特征和倒序語義三聯體(如C-B-A)的熟悉度判斷均呈隨機水平,則說明被試在視覺統計學習中能同時基于面孔視覺特征和語義信息精確地加工時間順序結構。
某大學本科生或研究生參與本實驗。其中,實驗3A共14名被試(5男,9女),年齡為19~26歲;實驗3B共15名被試(7男,8女),年齡為18~26,均沒有參加過實驗3A。他們均為右利手,視力或矯正視力正常,無色盲、色弱。他們自愿參加實驗,實驗結束后獲得學分或一定的報酬。
除測試階段三聯體內部圖片或名字的順序發生變化外,其余都分別與實驗1或2相同。
熟悉階段與實驗1相同。
測試階段的三聯體內部順序包括兩種情況:一半與熟悉階段一致(如A-B-C,D-E-F,G-H-I和J-K-L,見圖2B、2C),一半與熟悉階段相反(如C-B-A,F-E-D,I-H-G和L-K-J,見圖3)。為了平衡順序效應,與倒序三聯體匹配的偽三聯體也為倒序(如I-E-A,L-H-D,C-K-G和F-B-J)。每個三聯體(包括正序三聯體和倒序三聯體)分別與對應的4個偽三聯體匹配一次,一共32個試次。具體示例見圖3。
實驗3A和實驗3B均持續大約25 min。

圖3 實驗3熟悉階段(A)和測試階段倒序三聯體刺激示例(B視覺刺激、C語義刺激)
SE
=1.22%);實驗3B中重復目標的平均探測概率為94.32%(SE
=1.40%)。實驗3A中,被試對名人面孔的視覺統計學習效果顯著:在順序三聯體測試條件下,被試對熟悉三聯體的辨識率(75.00%)顯著高于隨機水平,t
(13)=6.19,p
<0.001,d
=0.99,與實驗1的結果無顯著差異,t
(27)=–0.49,p
>0.05,d
=0.19;而在倒序三聯體測試條件下,被試對倒序三聯體的熟悉性辨識率(54.46%)為隨機水平,t
(13)=1.51,p
>0.05,d
=0.40。實驗3B的被試對面孔名字的視覺統計學習效果同樣顯著:在順序三聯體測試條件下,被試對熟悉三聯體的辨識率(66.25%)顯著高于隨機水平,t
(14)=4.33,p
<0.01,d
=1.12,與實驗2的結果也無差異,t
(28)=0.89,p
>0.05,d
=0.34;而在倒序三聯體測試條件下,被試對倒序三聯體的熟悉性辨識率(49.58%)為隨機水平,t
(14)=–0.19,p
>0.05,d
=1.15。具體結果的比較見圖4。

圖4 實驗1、實驗2和實驗3測試階段三聯體熟悉性判斷情況比較
實驗3結果支持被試能夠同時基于面孔視覺特征和語義信息進行可靠的視覺統計學習的假設。以面孔圖片為測試材料的實驗結果(實驗3A)與先前關于客體的研究(Otsuka et al.,2013)一致,即被試能基于視覺特征精確地運算面孔間的時間順序結構。而以面孔語義信息為測試材料的實驗結果(實驗3B)則表明,個體也能精確地基于面孔語義信息對時間順序結構進行加工,這與Otsuka等人(2013)以客體語義信息為材料的研究結果不一致。這說明,雖然被試可基于刺激的視覺特征和語義信息對時間順序結構進行精確加工,但基于語義信息的統計加工會受刺激材料社會屬性的影響,即個體能精確加工基于面孔語義信息的時間順序結構(實驗3B),而對基于客體語義信息的時間順序結構只能進行組塊加工(Otsuka et al.,2013)。
實驗3B的結果發現,個體能夠基于面孔的語義信息精確加工時間順序結構,結合Otsuka等人(2013)的研究結果,提示在視覺統計學習中,被試對名人面孔語義信息的視覺統計學習更加深刻。
同時,Otsuka等人(2013)認為,基于客體視覺特征和語義信息的視覺統計學習是兩個獨立的過程,即對它們的時間順序信息加工存在差異。而實驗3的結果卻表明,名人面孔視覺特征與語義信息之間的關系不同于客體,個體對名人面孔視覺特征與語義信息的加工可能并不是獨立進行的。
對此,實驗4通過調整圖片呈現方式來探討視覺統計學習中名人面孔視覺特征與語義信息加工之間的關系。先前研究表明,面孔語義加工發生在視覺特征加工的基礎之上(Bruce&Young,1986;Burton et al.,1990),采用ERPs技術對面孔加工階段的分析發現,面孔視覺特征加工在刺激呈現170~200 ms左右就已完成(Bentin&Deouell,2000),而面孔語義信息的加工時間因任務不同而發生變化,Huddy等人(2003)認為面孔名字加工發生于450~550 ms之間,而Diaz等人(2007)的研究中則顯示面孔語義加工發生于550 ms之后,Alvarez等人(2009)則認為,面孔語義信息的加工發生于450~750 ms之間。綜合來看,面孔語義信息加工與面孔特征加工之間的時間延遲大概為300 ms。基于此,我們將熟悉階段的圖片間隔時間由實驗3的700 ms調整為400 ms,這種控制不僅可以考察基于面孔語義信息進行統計運算發生的時間條件,還能揭示基于名人面孔視覺特征與語義信息的統計加工的機制差異。我們假設:如果在此情景下個體對名人面孔語義信息的視覺統計學習表現出“組塊”現象,或視覺統計完全消失,則說明被試對名人面孔語義信息的視覺統計加工發生在語義信息加工完成之后;如果被試對名人面孔語義信息的視覺統計學習與實驗3B完全相同,則說明對名人面孔語義信息的視覺統計加工與語義信息加工同時進行。
均為某大學本科生或研究生。其中,實驗4A共14名被試(4男,10女),年齡為18~26歲;實驗4B共14名被試(7男,7女),年齡為19~25,均沒有參加過實驗4A。被試均為右利手,視力或矯正視力正常,無色盲、色弱。他們自愿參加實驗,實驗結束后獲得學分或一定報酬。
實驗的面孔與名字材料均與實驗3相同。
除了面孔(或名字)間隔時間改為400 ms外,熟悉階段與測試階段的程序均與實驗3相同。
SE
=1.21%);實驗4B中重復目標的平均探測概率為90.09%(SE
=1.34%)。實驗4A的被試對面孔圖片的視覺統計學習效果非常顯著:在順序三聯體測試條件下,被試對熟悉三聯體的辨識率(65.63%)顯著高于隨機水平,t
(13)=5.11,p
<0.001,d
=1.37,與實驗3A順序三聯體測試條件下熟悉三聯體的辨識率無顯著差異,t
(26)=1.85,p
>0.05,d
=0.73;在倒序三聯體測試條件下,被試對倒序三聯體熟悉性辨識率(52.23%)為隨機水平,t
(13)=0.79,p
>0.05,d
=1.16,與實驗3A倒序三聯體測試條件的情況相同。實驗4B的被試對面孔名字的視覺統計學習效果不顯著:在順序三聯體測試條件下,被試對熟悉三聯體辨識率(51.34%)為隨機水平,t
(13)=0.38,p
>0.05,d
=0.87,與實驗3B順序三聯體測試條件下熟悉三聯體的辨識率有顯著差異,t
(27)=2.90,p
<0.01,d
=1.12;在倒序三聯體測試條件下,被試對倒序三聯體的熟悉性辨識率(49.11%)為隨機水平,t
(13)=–0.26,p
>0.05,d
=0.70,與實驗3B倒序三聯體測試條件的情況相同。具體見圖6。
實驗4A與實驗3A結果一致,表明被試基于面孔視覺特征的視覺統計學習發生在刺激出現的700 ms之內;而實驗4B中基于面孔語義信息的視覺統計學習效果消失,表明基于面孔語義信息的視覺統計學習發生于刺激出現的700 ms之后。這些結果提示:基于面孔視覺特征和語義信息視覺統計學習是分離的;與面孔視覺特征加工相比,個體基于面孔語義信息的統計運算需要更長的時間。同時也說明,至少在基于語義信息的視覺統計學習中,規律提取過程發生在特征加工完成之后。
實驗4的結果發現,當名人面孔呈現時間縮短后,個體基于面孔語義信息的視覺統計學習效果消失,而基于面孔視覺特征的視覺統計學習效果依然顯著。有研究者認為,實驗4的面孔圖片均帶有發型,而發型差異是非常明顯的物理特征差異,它可能會干擾和增強面孔視覺統計學習效果。同時,即使發型不會干擾面孔視覺統計學習,實驗4也并不能確定基于名人面孔視覺特征的視覺統計學習是否與基于一般視覺特征(物理特征)的視覺統計學習相同,也就是說,個體基于名人面孔視覺特征的視覺統計學習可能并不存在面孔特異性。因此,為了深入考察視覺統計學習中視覺特征加工的面孔特性,實驗5采用去除發型后的名人面孔為實驗材料,設置兩種面孔呈現方式(正立、倒置),通過比較被試基于正立面孔與倒置面孔的視覺統計學習效果,來探討面孔特征視覺統計學習的特異性。如果基于正立面孔的視覺統計學習效果顯著高于基于倒立面孔的視覺統計學習效果,說明基于面孔視覺特征的視覺統計學習存在面孔特異性;如果基于正立面孔與基于倒置面孔的視覺統計學習效果無顯著差異,則說明基于面孔視覺特征的視覺統計學習不存在面孔特性。
均為某大學本科生或研究生。其中,正立實驗共14名被試(6男,8女),年齡為18~24歲;倒置面孔實驗共14名被試(7男,7女),年齡為19~24歲,均沒有參加過正立面孔實驗。被試均為右利手,視力或矯正視力正常,無色盲、色弱。他們自愿參加實驗,實驗結束后獲得一定報酬。
除了去除面孔的發型外,實驗5的面孔均與實驗4相同。正立面孔圖片垂直旋轉形成倒置面孔圖片。(見圖5)
除了采用倒置面孔外,熟悉階段與測試階段的程序均與實驗4A相同。

圖5 實驗5面孔圖片示例
SE
=1.11%);倒置面孔重復目標的平均探測概率為88.62%(SE
=1.36%)。被試基于正立面孔圖片的視覺統計學習效果顯著高于基于倒置面孔圖片的視覺統計學習效果:t
(26)=2.09,p
<0.05,d
=1.39。被試基于正立面孔的視覺統計學習效果非常顯著:對熟悉三聯體的辨識率(66.07%)顯著高于隨機水平,t
(13)=4.93,p
<0.001,d
=1.34,對倒序三聯體的熟悉性辨識率(53.13%)為隨機水平,t
(13)=1.29,p
>0.05,d
=0.34;被試基于倒置面孔圖片的視覺統計學習效果顯著:對熟悉三聯體的辨識率(57.14%)高于隨機水平,t
(13)=2.58,p
<0.05,d
=0.69;對倒序三聯體的辨識率(49.11%)為隨機水平,t
(13)=–0.25,p
>0.05,d
=0.07。
圖6 實驗4和實驗5測試階段三聯體熟悉性判斷情況
實驗5中基于倒置面孔的視覺統計學習效果與正立面孔視覺統計學習效果差異顯著,表明基于名人面孔視覺特征的視覺統計學習不同于基于一般視覺特征的視覺統計學習,即基于名人面孔視覺特征的視覺統計學習存在面孔特異性。這些結果提示:基于名人面孔視覺特征的視覺統計學習是區別于一般物理特征統計學習的。
本研究探討了個體基于面孔視覺特征和語義信息進行視覺統計學習的特點。實驗1和2考察個體能否基于名人面孔的視覺特征和語義信息進行視覺統計學習,結果與真實場景(Brady&Oliva,2008)和客體(Otsuka et al.,2013)的視覺統計學習一致,即個體能基于面孔的視覺特征和語義信息進行視覺統計學習。實驗3A和3B利用倒序三聯體處理范式,考察基于面孔視覺特征和語義信息進行統計運算的精確性,結果顯示個體能基于名人面孔視覺特征和語義信息對時間順序結構進行精確運算。實驗4A和4B通過調整圖片呈現時間,探討視覺統計學習中基于面孔視覺特征和語義信息提取統計規律的機制,結果在縮減圖片呈現時間(由1000 ms縮短到700 ms)后,被試喪失了基于面孔語義信息進行視覺統計學習的能力,提示基于名人面孔視覺特征和語義信息的視覺統計學習可能是兩個分離的過程,基于語義信息的視覺統計學習比基于視覺特征的統計學習需要更長時間。同時也表明,至少在基于語義信息的視覺統計學習中,規律提取過程發生在特征加工完成之后。實驗5利用倒置面孔呈現范式,考察基于面孔視覺特征的視覺統計學習是否具有面孔特異性,結果顯示個體基于名人面孔視覺特征的視覺統計學習不同于基于一般視覺特征的視覺統計學習。
在視覺統計學習中,個體(基于視覺特征和語義信息)對時間順序結構的統計運算效果并不總是精確的。當統計材料為無意義圖形時,被試基于視覺特征對時間順序結構的統計運算表現出組塊現象(Turk-Browne&Scholl,2009);同時,基于客體語義信息的統計運算也表現出組塊加工的特點(Otsuka et al.,2013)。不過,以上這些組塊現象均會受測試情景的影響,當測試情景要求被試判斷時間順序結構(如A-B-C)與組塊結構(如C-B-A)的熟悉性時,被試表現出時間順序結構精確加工的特點(Turk-Browne&Scholl,2009;Otsuka et al.,2013)。而當實驗材料為帶有語義信息客體(Otsuka et al.,2013)時,被試基于視覺特征的統計學習則直接表現出精確加工的特點。本研究(實驗3)發現,當實驗材料為名人面孔時,被試能同時基于面孔視覺特征和語義信息對時間順序結構進行精確的統計運算,而并沒有出現組塊現象。綜上,我們認為,在視覺統計學習中,個體能夠同時基于刺激的視覺特征和語義信息進行精確的統計運算,而這種統計運算能力的實現與刺激材料本身的特性和場景信息有關。
Perruchet和Pacton(2006)認為,時間規律與組塊之間存在三種可能的關系。第一,統計運算(statistical computation)與組塊加工是獨立進行的。Meulemans與van Der Linden(2003)也對該觀點進行了闡述,他們基于遺忘癥病人的研究提出,組塊是意識的產物,而統計運算則對內隱任務的貢獻更大。當然,也有研究者提出了不同的解釋(Kinder&Shanks,2003;Shanks,Channon,Wilkinson,&Curran,2006)。第二,統計運算與組塊加工是兩個連續的階段,即組塊是由統計運算推導的結果。有研究者將該解釋應用于聽覺(Saffran,2001)和視覺(Fiser&Aslin,2005)的統計學習。第三,只存在組塊過程,對統計結構的加工是該過程的副產物。其中,組塊競爭模型(competitive chunking model)(Servan-Schreiber&Anderson,1990)和剖析器模型(PARSER model)(Perruchet&Vinter,2002)支持第三種觀點。例如,剖析器模型認為,由于我們的注意資源有限,因此我們對輸入信息的組塊是基于隨機模式發生的,所形成的組塊也會因為聯結記憶規則而在隨后被遺忘或者被強化。
結合先前的研究(Brady&Oliva,2008;Otsuka et al.,2013;Turk-Browne&Scholl,2009),本研究傾向于支持第二種解釋。當面臨新情境(測試階段)時,人類需要基于先前的統計運算結果進行推導,來判斷新情景中的結構是否為熟悉的統計結構。也就是說,被試在熟悉階段基于統計運算推導出統計結構,而該統計結構可能是精確的時間順序結構,也可能是靈活的組塊。當新情景中需要被試對時間順序結構進行辨別時,他們的辨別結果就可能呈現組塊現象。比如,有研究者發現,在熟悉階段呈現隱含時間順序結構(如ABC)的刺激序列,當測試情景為倒序三聯體對偽三聯體(如CBA vs.IEA)時,被試表現出組塊現象;當測試情景為倒序三聯體對順序三聯體(如CBA vs.ABC)時,組塊現象消失(Turk-Browne&Scholl,2009;Otsuka et al.,2013)。以上研究中,被試的統計運算過程并未發生變化,而測試情景的不同誘發不同的統計運算結果,說明組塊與統計運算加工直接相關,而并不是兩個獨立的加工機制。本研究(實驗4B)的結果顯示,當被試沒能完成統計運算任務時,也不會發生組塊現象。綜合以上結果,我們認為,組塊是基于統計運算進行推導的結果,而測試的情景信息、材料的名稱屬性等因素會影響被試的統計運算能力。
有研究者使用功能性核磁共振成像(fMRI)發現,統計運算的組塊現象可能是統計運算所形成的抽象信息所導致的。大腦中存在與視覺統計學習密切相關的腦區:尾葉(caudate)和海馬回(hippocampus)。海馬回的參與表明個體生成了更抽象的知識信息以便適用于更廣泛的新情境,而尾葉的參與則使知識以客體的具體視覺特征方式保存下來,從而可以精確再現所加工的情境(Turk-Browne et al.,2009)。
本研究熟悉階段只呈現面孔圖片,而在測試階段呈現名人面孔圖片(實驗1、3A)或面孔名字(實驗2、3B),結果個體基于名人面孔視覺特征與語義信息的視覺統計學習效果具有一致性,這說明人類會自動將人臉面孔與其特定名稱聯系起來(Alvarez et al.,2009),且能直接利用名稱信息進行規律加工。不過,先前研究者認為,面孔視覺特征與語義信息加工并不是同時完成的(Alvarez et al.,2009;Bruce&Young,1986),因此,我們設計了實驗4來考察視覺統計學習中面孔視覺特征與語義信息的加工特點,結果發現當面孔呈現時間縮短(1000 ms縮短至700 ms)后,被試能保持基于面孔視覺特征的統計學習能力(實驗4A),且基于面孔特征的視覺統計學習顯著優于基于一般物理特征的視覺統計學習(實驗5),但基于面孔語義信息的視覺統計學習能力消失,說明基于面孔語義信息的視覺統計學習需要更多的加工時間。Bruce和Young(1986)認為,面孔加工可分為輪廓加工(structural coding)、面孔識別(face recognition units,FRUs)、身份識別(person identity nodes,PINs)和語義加工(name generation)等4個階段,其中語義加工發生在輪廓加工的基礎之上(Bruce&Young,1986;Burton et al.,1990)。有研究者利用ERPs技術對面孔加工的階段進行了具體的分析(Alvarez,et al.,2009),認為面孔視覺特征的加工在刺激呈現170 ms左右就已完成(Bentin&Deouell,2000),而直到刺激呈現750 ms左右才完成面孔語義信息的加工(Diaz et al.,2007)。因此,本研究的結果也支持了語義加工比視覺特征加工需要更長時間的觀點。
Otsuka等人(2013)認為,被試基于客體視覺特征和語義信息的視覺統計學習是兩個平行的過程,在基于視覺特征提取時間順序的同時形成了不具有時間規律信息的語義組塊。結合本研究實驗3和實驗4的結果,我們認為,被試基于名人面孔視覺特征和語義信息的視覺統計加工是分離的,基于面孔語義信息的視覺統計學習需要更多的加工時間。這兩個過程到底是平行加工的,還是序列加工的?由于在實驗4B中未檢驗被試對語義信息的加工情況,因此本研究并不能給出直接判斷。不過,結合Alvarez等人(2009)關于面孔名稱的研究可以推知,被試在實驗4B中應該完成了面孔語義信息的加工,只是未能加工面孔名稱之間的統計關系。由此,我們猜想,個體基于面孔特征的統計運算過程可能與面孔語義信息加工同時進行,即被試基于面孔視覺特征和語義信息的視覺統計學習也是兩個平行的過程。當然,這還需要更多的研究進行論證,我們實驗的熟悉階段只呈現面孔圖片來啟動面孔名字,先前研究發現,涉及面孔圖片加工(Campanella et al.,2001;Kanwisher et al.,1997;Sergent et al.,1992)與面孔名字加工(Damasioetal.,1996;Gorno-Tempini et al.,1998)的腦區是分離的。同時,基于面孔圖片的啟動結果和基于面孔名字的啟動結果也存在差異(Joassin et al.,2007)。因此,以后的研究可以采用在熟悉階段只呈現面孔語義信息(名字)的方式,深入探究基于面孔視覺特征和面孔語義信息的視覺統計學習之間的相互關系。實驗4的圖片呈現時間較實驗3減少了300 ms,基于面孔視覺特征信息的視覺統計學習效果無顯著變化,而基于面孔語義信息的視覺統計學習效果消失,表明基于面孔視覺特征的視覺統計學習時間要求少于700 ms,而基于名人面孔語義信息的視覺統計學習的時間要求在700~1000 ms之間。先前研究也表明,統計運算的時間要求會因為統計學習效果而發生變化(Abla&Okanoya,2009)。本研究未能對基于面孔不同特征的統計運算時間進行精確地控制,因此,需要以后更多的研究來繼續探討基于不同特征的統計學習發生的時間要求。
Brady與Oliva(2008)認為,利用抽象類別信息可以減少統計學習中需要提取和儲存的信息量,從而更輕松地習得統計規律。有研究者認為,研究中基于語義信息的測試結果(實驗2和3B)提示:被試基于面孔圖片的測試實驗結果(實驗1和3A)可能獲得來自面孔語義信息的促進作用。我們在實驗4縮短熟悉階段面孔呈現時間,結果發現基于面孔語義信息的視覺統計學習效果消失,但基于面孔視覺特征信息的視覺統計學習效果并沒有顯著降低,這在一定程度上說明基于面孔語義信息與面孔特征信息的視覺統計學習是兩個分離的過程,即面孔語義信息并不會影響面孔視覺(輪廓)特征的加工(Bentin&Deouell,2000)。不過,這還不能完全排除被試在面孔圖片較長呈現時間條件下(實驗1和3A)利用語義信息促進基于面孔視覺特征的視覺統計學習的可能。因此,以后的研究可以采用其他的手段(比如在面孔呈現過程中,通過雙任務范式抑制被試的面孔命名過程),進一步探討面孔語義信息在基于面孔視覺特征的視覺統計學習中是否起作用。我們的實驗(3B)發現個體能基于面孔語義信息對時間順序結構進行精確加工,這與Otsuka等人(2013)(實驗2B)以客體語義信息為測試材料的研究結果不一致。我們認為,這種差異可能是由客體名稱與面孔名稱加工的差異導致的。面孔名稱與面孔的關系具有唯一性,而客體名稱則代表某一類客體。Joassin等人(2007)發現,與客體名稱與客體本身的匹配相比,被試更容易完成面孔名稱與面孔本身的匹配任務。在視覺統計學習范式中,熟悉階段以(客體或面孔)圖片的方式呈現統計結構,被試基于圖片生成語義信息,因此,對圖片與名稱之間匹配關系的加工程度將影響個體基于名稱進行統計結構判斷的結果。也就是說,當刺激材料為擁有語義信息的熟悉事物時,被試能基于語義信息加工時間順序結構,不過其加工的效果將受刺激材料語義屬性的影響,即當語義信息為特定名稱(如面孔名稱)時,基于語義信息對時間順序結構的加工是精確的,而當語義信息為類別名稱(如客體名稱)時,基于客體語義信息的時間順序結構加工則表現出組塊現象。以后的研究可進一步考察個體基于其他具有特定名稱的非社交主體(如建筑物)進行的視覺統計學習。
本研究獲得以下結論:(1)個體能同時基于名人面孔的視覺特和語義信息進行精確的視覺統計學習;(2)基于名人面孔視覺特征和語義信息對時間順序結構進行統計運算的結果具有一致的精確性;(3)基于面孔視覺特征的視覺統計學習表現出顯著的面孔特性,即個體基于面孔視覺特征的視覺統計學習不同于基于一般物理特征的視覺統計學習;(4)基于名人面孔視覺特征信息與語義信息的視覺統計學習過程是分離的,統計運算過程發生在面孔特征加工完成之后,基于語義信息的視覺統計學習需要更多的加工時間。
Abla,D.,&Okanoya,K.(2009).Visual statistical learning of shape sequences:An ERP study.Neuroscience Research,64
,185–190.Ahmed,S.,Arnold,R.,Thompson,S.A.,Graham,K.S.,&Hodges,J.R.(2008)Naming of objects,faces and buildings in mild cognitive impairment.Cortex,44
,746–752.álvarez,S.G.,Novo,M.L.,&Fernández,F.D.(2009).Naming faces:A multidisciplinary and integrated review.Psicothema,21
,521–527.Baldwin,D.,Anderrson,A.,Saffran,J.,&Meyer,M.(2008).Segmenting dynamic human action via statistical structure.Cognition,106
,1382–1407.Bentin,S.,&Deouell,L.Y.(2000).Structural encoding and identification in face processing:ERP evidence for separate mechanisms.Cognitive Neuropsychology,17
,35–54.Brady,T.F.,&Oliva,A.(2008).Statistical learning using real-world scenes:Extracting categorical regularities without conscious intent.Psychological Science,19
,678–685.Bredart,S.(1993).Retrieval failures in face naming.Memory,1
,351–366.Bruce,V.,&Young,A.(1986).Understanding face recognition.British Journal of Psychology,77
,305–327.Burton,A.M.,Bruce,V.,&Johnson,R.A.(1990).Understanding face recognition with an interactive activation model.British Journal of Psychology,81
,361–380.Campanella,S.,Joassin,F.,Rossion,B.,De Volder,A.G.,Bruyer,R.,&Crommelinck,M.(2001).Association of the distinct visual representations of faces and names:A PET activation study.NeuroImage,14
,873–882.Conway,C.M.,Bauernschmidt,A.,Huang,S.S.,&Pisoni,D.B.(2010).Implicit statistical learning in language processing:Word predictability is the key.Cognition,114
,356–371.Conway,C.M.,&Christiansen,M.H.(2006).Statistical learning within and between modalities:Pitting abstract against stimulus-specific representations.Psychological Science,17
,905–912.Damasio,H.,Grabowski,T.J.,Tranel,D.,Hichwa,R.D.,&Damasio,A.R.(1996).A neural basis for lexical retrieval.Nature,380
,499–505.Diaz,F.,Lindín,M.,Galdo-Alvarez,S.,Facal,D.,&Juncos-Rabadán,O.(2007).An event-related potentials study of face identification and naming:The tip-of-the-tongue state.Psychophysiology,44
,50–68.Evrard,M.(2002).Ageing and lexical access to common and proper names in picture naming.Brain Language,81
,174–179.Fiser,J.,&Aslin,R.N.(2001).Unsupervised statistical learning of higher-order spatial structures from visual scenes.Psychological Science,12
,499–504.Fiser,J.,&Aslin,R.N.(2002).Statistical learning of higher-order temporal structure from visual shape sequences.Journal of Experimental Psychology:Learning,Memory,and Cognition,28
,458–467.Fiser,J.,&Aslin,R.N.(2005).Encoding multi-element scenes:Statistical learning of visual features hierarchies.Journal of Experimental Psychology:General,134
,521–537.Freire,A.,Lee,K.,&Symons,L.A.(2000).The face-inversion effect as a deficit in the encoding of configural information:Direct evidence.Perception,29
,159–170.Germain-Mondona,V.,Silvert,L.,&Izaute,M.(2011).N400 modulation by categorical or associative interference in a famous face naming task.Neuroscience Letters,501
,188–192.Goldwater,S.,Griffiths,T.L.,&Johnson,M.(2009).A Bayesian framework for word segmentation:Exploring the effects of context.Cognition,112,
21–54.Gorno-Tempini,M.L.,Price,C.J.,Josephs,O.,Vandenberghe,R.,Cappa,S.F.,Kappur,N.,&Frackowiak,R.S.J.(1998).The neural systems sustaining face and proper name processing.Brain,121
,2103–2118.Guillaumea,C.,Guillery-Girard,B.,Chaby,L.,Lebreton,K.,Hugueville,L.,Eustache,F.,&Fiori,N.(2009).The time course of repetition effects for familiar faces and objects:An ERP study.Brain Research,1248
,149–161.Huddy,V.,Schweinberger,S.R.,Jentzsch,I.,&Burton,A.M.(2003).Matching faces for semantic information and names:An event-related brain potentials study.Cognitive Brain Research,17
,314–326.Joassin,F.,Meert,G.,Campanella,S.,&Bruyer,R.(2007).The associative processes involved in faces-proper names versus-animals-common names binding:A comparative ERP study.Biological Psychology,75
,286–299Kanwisher,N.,McDermott,J.,&Chun,M.M.(1997).The fusiform face area:a module in human extrastriate cortex specialized for face perception.The Journal of Neuroscience,17
,4302–4311.Kinder,A.,&Shanks,D.R.(2003).Neuropsychological dissociations between priming and recognition:A single-system connectionist account.Psychological Review,110
,728–744.Kirkham,N.Z.,Slemmer,J.A.,&Johnson,S.P.(2002).Visual statistical learning in infancy: Evidence for a domain general learning mechanism.Cognition,83
,35–42.Langton,S.R.H.,Law,A.S.,Burton,A.M.,&Scweinberger,S.R.(2008).Attention capture by faces.Cognition,107
,330–342.Marcus,G.F.,Vijayan,S.,Bandi Rao,S.,Vishton,P.M.(1999).Rule learning by seven-month-old infants.Science,283
,77–80.Martins,I.P.,&Farrajota,L.(2006).Proper and common names:A double dissociation.Neuropsychologia,45
,1744–1756.Meulemans,T.,&van der Linden,M.(2003).Implicit learning of complex information in amnesia.Brain and Cognition,52
,250–257.Miller,G.A.,&Selfridge,J.A.(1950).Verbal context and the recall of meaningful material.American Journal of Psychology,63
,176–185.Otsuka,S.,Nishiyama,M.,Nakahara,F.,&Kawaguchi,J.(2013).Visual statistical learning based on the perceptual and semantic information of objects.Journal of Experimental Psychology:Learning,Memory,and Cognition,39
,196–207.Perruchet,P.,&Pacton,S.(2006).Implicit learning and statistical learning: One phenomenon, two approaches.Trends in Cognitive Sciences,10
,233–238.Perruchet,P.,&Vinter,A.(2002).The self-organizing consciousness.Behavioral and Brain Sciences,25
,297–330.Pickering,E.C.,&Schweinberger,S.R.(2003).N200,N250r,and N400 event-related brain potentials reveal three loci of repetition priming for familiar names.Journal of Experimental Psychology:Learning,Memory,and Cognition,29
,1298–1311.Rugg,M.D.,&Curran,T.(2007).Event-related potentials and recognition memory.Trendsin Cognitive Science,11
,251–257.Saavedra,C.,Iglesias,J.,&Olivares,E.I.(2010).Eventrelated potential elicited by the explicit and implicit processing of familiarity in faces.Clinical EEG and Neuroscience,41
,24–31.Saffran,J.R.(2001).Words in a sea of sounds:The output of infant statistical learning.Cognition,81
,149–169.Saffran,J.R.,Aslin,R.N.,&Newport,E.L.(1996).Statistical learning by 8-month-old infants.Science,274
,1926–1928.Semenza,C.(2006).Retrieval pathways for common and proper names.Cortex,42
,884–891.Sergent,J.,Ohta,S.,&McDonald,B.(1992).Functional neuroanatomy of face and object processing.Brain,115
,15–36.Servan-Schreiber,D.,&Anderson,J.R.(1990).Learning artificial grammars with competitive chunking.Journal of Experimental Psychology:Learning,Memory,and Cognition,16
,592–608.Shanks,D.R.,Channon,S.,Wilkinson,L.,&Curran,H.V.(2006).Disruption of sequential priming in organic and pharmacological amnesia:A role for the medial temporal lobes in implicit contextual learning.Neuropsychopharmacology,31
,1768–1776.Sobel,D.M.,Tenenbaum,J.B.,&Gopnik,A.(2004).Children’s causal inferences from indirect evidence:Backwards blocking and Bayesian reasoning in preschoolers.Cognition,28
,303–333.Theeuwes,J.,&van der Stigchel,S.(2006).Faces capture attention:Evidence from inhibition of return.Visual Cognition,13
,657–665.Turk-Browne,N.B.,Isola,P.J.,Scholl,B.J.,&Treat,T.A.(2008).Multidimensional visual statistical learning.Journal of Experimental Psychology:Learning,Memory,and Cognition,34
,399–407.Turk-Browne,N.B.,Junge,J.A.,&Scholl,B.J.(2005).The automaticity of visual statistical learning.Journal of Experimental Psychology:General,134
,552–564.Turk-Browne,N.B.,&Scholl,B.J.(2009).Flexible visual statistical learning:Transfer across space and time.Journal of Experimental Psychology:Human Perception and Performance,35
,195–202.Turk-Browne,N.B.,Scholl,B.J.,Chun,M.M.,&Johnson,M.K.(2009).Neural evidence of statistical learning:Efficient detection of visual regularities without awareness.Journal of Cognitive Neuroscience,21
,1934–1945.Webster,M.A.,&MacLeod,D.I.(2011).Visual adaptation and face perception.Philosophical Transactions of the Royal Society B:Biological Sciences,366
,1702–1725.Wiese,H.,&Schweinberger,S.R.(2011).Accessing semantic person knowledge: Temporal dynamics of nonstrategic categorical and associative priming.Journal of Cognitive Neuroscience,23
,447–459.Willingham,D.B.,Nissen,M.J.,&Bullemer P.(1989).On the development of procedural knowledge.Journal of Experimental Psychology:Learning,Memory,and Cognition,15
,1047–1060.Yuille,A.,&Kersten,D.(2006).Vision as Bayesian inference:Analysis by synthesis.Trends in Cognitive Science,10
,301–308.