999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面孔知覺中特征、結構和整體加工策略的眼動研究*

2014-02-02 07:03:58符永川
心理學報 2014年8期
關鍵詞:眼動特征策略

樊 倩 隋 雪 符永川

(1延安大學教育科學學院, 延安 716099) (2遼寧師范大學心理學院, 心理發展與教育研究中心, 大連 116029)

1 引言

人類被認為是面孔識別的專家。雖然面孔間有很強的同質性, 但我們還是能夠精準地識別出我們熟悉的面孔。對于我們熟悉的面孔, 即使是多年之后, 我們仍然能夠識別出來(Bahrick, Bahrick, &Wittlinger, 1975), 但對于我們不熟悉的面孔, 這種識別就相對困難一些(Hancock, Bruce, & Burton,2000)。有兩種主要的假說都試圖解釋面孔識別的內部機制。面孔的整體說(the holistic approach)認為面孔是作為無差別的整體來存儲的, 不須要對面孔各個部分進行清晰地表征(Tanaka & Farah, 1993;Farah, Tanaka, & Drain, 1995); 面孔的雙編碼理論(the dual-code view)認為面孔是基于特征信息和結構信息被加工的且這兩種表征方式是被獨立存儲的(Cabeza & Kato, 2000; Sergent, 1984)。特征信息涉及面孔各部分精細的視覺信息, 比如嘴巴和鼻子的形狀、瞳孔的顏色和臉部的輪廓。結構信息涉及特征間的空間關系, 比如兩眼之間的距離、嘴巴和鼻子之間的距離。結構加工常常難以清晰地區別于整體加工。Bartlett, Searcy和Abdi (2003)認為, 結構加工屬于上位概念, 結構加工并不須要把握整張面孔的信息。對面孔上某兩個特征間(如右眼與鼻子之間)距離的分析屬于結構加工但不屬于整體加工, 因為它涉及的是兩個特征間空間關系的表征而非對整張面孔信息的把握。汪亞珉和黃雅梅(2011)認為, 整體加工可歸結為結構加工的一個層次。

Tanaka和Farah (1993)的研究結果支持了整體說。他們發現面孔的各部分嵌入整張面孔時比孤立呈現時更加容易被識別, 因而認為面孔是作為整體被加工的, 不須要對面孔特征信息進行清晰地表征。其他支持整體說的研究發現面孔各特征實際上是被清晰地表征了, 只是沒有完全進入注意監控并進行口頭報告(Carey & Diamond, 1994), 或者說面孔各個部分的內部編碼會受到其余特征信息的影響(Bruce & Humphreys, 1994)。這些研究結果都表明面孔各部分不是獨立被存儲的。

雙編碼理論得到來自行為學(Cabeza & Kato,2000; Leder & Bruce, 1998; 郭建偉 等, 2010;Lobmaier & Mast, 2007, 2008; Searcy & Bartlett,1996)和神經成像科學(Lobmaier, Klaver, Loenneker,Martin, & Mast, 2008; Rossion et al., 2000)研究的支持。這些研究證實了面孔的特征信息和結構信息可被獨立地加工和存儲, 以此對激進的整體說提出挑戰。Rossion等人(2000)采用正電子發射斷層掃描技術, 發現了大腦半球差異, 當被試專注于結構信息時, 大腦右側梭狀回被激活, 而當被試專注于特征信息時, 左側相應腦區被激活, 這一研究結果支持了面孔加工中兩條通路相互獨立的論斷。Lobmaier等人(2008)的功能性磁共振成像研究也證實了在加工特征信息和結構信息時分別涉及到不同腦區的參與。

有一些實驗采用錯亂面孔和模糊面孔分別考察對特征信息和結構信息的加工, 以此來研究兩種加工方式在面孔識別中獨立的作用(Collishaw &Hole, 2000; Lobmaier & Mast, 2007, 2008;Schwaninger, Lobmaier, & Collishaw, 2002)。錯亂面孔消除了空間結構信息卻保留了詳盡的特征信息,而模糊面孔則保留了空間結構信息卻干擾了特征信息的識別。Collishaw和Hole (2000)采用錯亂面孔和模糊面孔來研究對不同熟悉度面孔的識別, 他們發現被試可利用特征信息和結構信息這兩類信息對不熟悉面孔進行識別且識別的正確率大于隨機水平。這一結果被進一步的研究所證實(Lobmaier& Mast, 2007; Schwaninger et al., 2002), 當人類在識別面孔時, 的確會有效地使用這兩種加工策略中的任意一種。

各種整合的觀點正是為了調和整體說和雙編碼理論某種程度上的對立而提出的(Cootes, Edward,& Taylor, 2001; Schwaninger, Wallraven, Cunningham,& Chiller-Glaus, 2006; Swets & Weng, 1996)。例如,Schwaninger等人(2006)提出一個理論模型, 在這一模型中, 初級視覺區的神經網絡負責從面孔刺激中提取特征信息和結構信息, 接著, 兩種表征方式出現在同一識別單元中, 這樣就形成了對面孔的整體表征。事實上, 無論是激進的整體說還是激進的雙加工理論似乎都無法提供關于面孔識別機制的詳盡的描述, 而計算機整合模型提出:整體加工系統與特征-結構加工系統是共存的。

本研究在支持整合系統理論的基礎上旨在進一步考察面孔識別中特征加工、結構加工和整體加工三種不同加工方式對應的眼動模式, 因為不同的眼動模式將預示著不同表征方式驅使下對重要面孔信息的搜索。雖然一些研究者探討了熟悉面孔、變形面孔(Barton, Radcliffe, Cherkasova, Edelman,& Intriligator, 2006; 郭建偉 等, 2010)和倒置面孔(Williams & Henderson, 2007; 郭建偉 等, 2010)的加工方式, 但對于在不同加工方式下的眼動模式我們卻知之甚少。探索特征加工、結構加工和整體加工這三種表征方式是否對應著不同的眼動模式將有助于我們揭示不同加工策略如何作用于面孔識別。

2 實驗1

本實驗期望通過操作線索面孔, 引發面孔的特征加工和結構加工, 從而考察兩類不同加工方式對應的眼動模式。我們首先給被試呈現線索刺激, 即模糊面孔或錯亂面孔, 接著呈現測試面孔即完整面孔, 被試判斷測試面孔與線索面孔是否為同一個人的面孔。因為無論呈現哪種線索面孔, 測試面孔在兩種線索面孔條件下都為完整面孔, 所以測試面孔眼動模式的差異可看做是由不同線索面孔所引發的, 而不同的眼動模式則預示著不同的面孔加工策略。相比早先的行為學和神經成像科學的研究, 眼動分析法可以很好地闡明對特征信息和結構信息的加工是否對應著特定的視覺搜索策略。若特征加工和結構加工采用不同的視覺搜索范式, 那么當線索刺激是錯亂面孔時將會引發對隨后出現的測試面孔更多局部加工模式, 這可以通過對特征信息的凝視時間變長而得以證實; 相反, 當線索刺激是模糊面孔時將會引發對隨后出現的測試面孔更多綜合加工模式, 表現為被試對特征信息的注視時間變短, 此外, 為了獲取結構信息從而把握面孔整體布局信息, 被試對面孔上各特征之間將出現更多的眼跳次數, 我們稱之為特征間眼跳。若特征信息和結構信息對信息搜索不產生影響, 那么無論將錯亂面孔或是模糊面孔作為線索刺激, 測試面孔的眼動模式都不會有差異。

2.1 方法

2.1.1 被試

遼寧某高校13名在校生(男性被試5名, 女性被試 8名, 年齡在 18~24歲之間), 均為自愿參加,所有被試視力或矯正視力正常, 實驗前得到被試的知情同意且所有被試均未參加過類似實驗。

2.1.2 實驗儀器和材料

采用瑞典Tobii公司生產的Tobii X120眼動儀記錄被試的眼動情況。在完全自然狀態下追蹤眼動,雙眼采集, 采樣率為 120 Hz, 精確度為 0.5°, 漂移小于 0.3°, 被試在實驗過程中可自由移動頭部, 頭動范圍30 cm × 22 cm × 30 cm。實驗采用E-prime軟件編程, 呈現在17英寸的顯示器上, 屏幕分辨率為1024×768像素, 刷新率為100 Hz。被試距離屏幕64cm。實驗材料為20張模糊面孔圖片、20張錯亂面孔圖片和 40張完整面孔圖片, 這些面孔圖片對被試來說都是陌生的, 所有面孔圖片都為黑色背景, 圖片大小為 15 cm × 15 cm, 對應視角為 13.4° ×13.4°。圖1中的左圖和右圖分別展示了一個完整面孔以及它的變式—— 模糊面孔和錯亂面孔。完整面孔的表情均為中性, 采用 Photoshop圖片處理軟件截取橢圓形面孔以消除背景信息如頭發和耳朵的干擾。模糊面孔是基于完整面孔制作出來的, 首先對完整面孔進行“去色”處理, 接著, 使用高斯濾鏡對面孔進行模糊處理。錯亂面孔是采用橢圓形工具截取面孔上的眼睛、鼻子、嘴巴, 然后將各部位打亂后重新放置。我們設計了不同版本的錯亂面孔以確保同一特征能夠出現在錯亂面孔的不同位置,且不同版本的錯亂面孔是隨機呈現的, 這樣一來各特征出現的位置就是隨機的。同一個體的面孔作為線索面孔即無論是錯亂面孔還是模糊面孔只出現一次, 測試階段的完整面孔一半是與線索面孔相匹配的, 另一半是作為干擾面孔出現的。

2.1.3 實驗任務和程序

本實驗采用2(線索面孔類型:模糊線索面孔和錯亂線索面孔)×2(測試面孔類型:目標面孔和干擾面孔)兩因素重復測量實驗設計。實驗開始之前先進行眼部校準。正式實驗共 40個試次, 采用E-prime軟件編程, 每一個試次都遵循以下的步驟:(1)首先在屏幕中央呈現注視點, 持續 2 s; (2)接著呈現線索面孔即錯亂面孔或模糊面孔, 持續5 s; (3)隨后呈現掩蔽刺激(白噪音), 將被試的注視點固定在屏幕的中央, 持續 2 s, 其目的是避免視覺后像的干擾; (4)最后呈現的是測試面孔即完整面孔, 被試一旦做出反應, 圖片即刻消失, 若被試未能做出任何反應, 6 s之后圖片將自動消失。實驗任務是讓被試判斷呈現在測試階段的完整面孔是否與先前呈現的錯亂面孔或模糊面孔為同一個人的面孔, 要求被試通過按“F”鍵和“J”鍵既快又準地做出反應, 對被試做出的反應不提供任何反饋。異同判斷任務中兩個按鍵代表的選項在被試間進行平衡。實驗中有一半測試面孔(目標項)與線索面孔是同一個體的面孔, 另一半測試面孔(干擾項)與線索面孔是不同個體的面孔。

2.1.4 數據分析

采用 Tobii Studio軟件分析眼動數據, 記錄注視和眼跳這兩類眼運動的參數。注視點的計算是通過從凝視點中去除眼跳數據, 小于 100 ms的注視點被刪除。面孔上的特征信息即眼睛、鼻子、嘴巴成為獨立的興趣區。除了各項眼動指標外, 辨別力指標 d′與反應時也作為分析的指標, d′值等于擊中率對應的Z分數與虛報率對應的Z分數之差。

2.2 結果與討論

分別考察了兩類線索面孔條件下測試面孔的眼動模式。位于不同興趣區的兩個連續注視點間的快速位移算作一次特征間眼跳, 為了使特征間眼跳的個數具有可比性, 我們對特征間眼跳的個數進行標準化, 用它除以反應時。以特征間眼跳這項眼動指標為因變量, 2(線索面孔類型:模糊線索面孔和錯亂線索面孔)×2(測試面孔類型:目標面孔和干擾面孔)兩因素重復測量方差分析結果表明:線索面孔類型主效應顯著,

F

(1,12)=9.06,

p

< 0.05, 即同錯亂線索面孔條件(

M

=1.59,

SD

=0.17)相比, 被試在模糊線索面孔條件下(

M

=1.86,

SD

=0.23)對測試面孔表現出更多的特征間眼跳(見圖 2); 測試面孔類型主效應不顯著,

F

(1,12)=0.46,

p

=0.510; 二者交互作用不顯著,

F

(1,12)=0.37,

p

=0.554。

圖1 完整面孔及其變形面孔:模糊面孔(左)和錯亂面孔(右)

圖2 標準化的平均特征間眼跳次數

首次進入一個興趣區之后, 到跳出這一興趣區之前所有連續的注視點相加就是這一興趣區的凝視時間, 特征內凝視時間是通過計算每張面孔上不同興趣區的凝視時間的平均值得到的。以特征內凝視時間這項眼動指標為因變量, 兩因素重復測量方差分析結果表明:線索面孔類型主效應顯著,

F

(1,12)= 8.23,

p

< 0.05, 即同模糊線索面孔條件(

M

=313 ms,

SD

=67 ms)相比, 被試在錯亂線索面孔條件下(

M

=330 ms,

SD

=62 ms)對測試面孔表現出更長的特征內凝視時間(見圖 3); 測試面孔類型主效應不顯著,

F

(1,12)=1.24,

p

=0.287; 二者交互作用不顯著,

F

(1,12)=0.34,

p

=0.571。特征間眼跳與特征內凝視時間呈負相關(

r

=?0.312,

p

< 0.05)。

圖3 平均特征內凝視時間

綜合與局部的比率(g/l) (Zangemeister,Sherman, & Stark, 1995)用3°的視角來區分綜合與局部的眼動模式(本實驗以圖片上 4cm的視角范圍來區分綜合與局部的眼動模式), 以這項眼動指標為因變量進行配對樣本

t

檢驗, 結果表明:同錯亂線索面孔條件(

M

=1.25,

SD

=0.23)相比, 被試在模糊線索面孔條件下(

M

=1.63,

SD

=0.35) g/l更高(

t

=?2.65,

p

< 0.05), 但 g/l與特征間眼跳不相關(

r

=0.063,

p

=0.77)。此外, 對兩類線索面孔眼動模式的分析并未發現二者在特征間眼跳這項眼動指標上的差異

t

(12)= ?0.389,

p

=0.704, 但在凝視時間上, 模糊線索面孔(

M

=557 ms,

SD

=88 ms)比錯亂線索面孔(

M

=504 ms,

SD

=76 ms)有更長的特征內凝視時間,

t

(12)= ?2.06,

p

=0.062。錯亂線索面孔條件下d′的平均值為2.54, 模糊線索面孔條件下d′的平均值為0.91。兩種條件下面孔識別的正確率都大于隨機水平(模糊線索面孔:

t

(12)=5.62,

p

< 0.001; 錯亂線索面孔:

t

(12)=8.45,

p

< 0.001)。配對樣本

t

檢驗結果表明:同模糊線索面孔條件相比, 被試在錯亂線索面孔條件下對測試面孔識別的正確率更高

t

(12)=6.76,

p

< 0.001。以反應時為因變量, 2(線索面孔類型:模糊線索面孔和錯亂線索面孔)×2(測試面孔類型:目標面孔和干擾面孔)兩因素重復測量方差分析結果表明:線索面孔類型主效應顯著,

F

(1,12)=10.73,

p

< 0.01, 同模糊線索面孔條件(

M

=2451 ms)相比, 被試在錯亂線索面孔條件下(

M

=2301 ms)對測試面孔識別得更快; 測試面孔類型主效應不顯著,

F

(1,12)=0.56,

p

=0.469; 二者交互作用不顯著,

F

(1,12)=1.08,

p

= 0.319。

本實驗中, 我們發現了面孔的特征加工和結構加工分別對應著不同的眼動模式, 同錯亂線索面孔條件相比, 模糊線索面孔條件引發了對測試面孔更多的特征間眼跳, 預示著對各特征間空間關系一系列地分析; 同模糊線索面孔條件相比, 錯亂線索面孔條件引發了對測試面孔更長的特征內凝視時間,預示著對細節信息的局部搜索模式。實驗所呈示出的這兩種面孔加工策略似乎是相互排斥的, 因為凝視時間與特征間眼跳這兩項眼動指標呈負相關。

3 實驗2

實驗1通過操縱線索面孔, 引發了面孔加工的兩種不同的眼動策略, 本實驗要考察的是當線索面孔的兩類提示信息都可見時, 被試會在多大程度上運用這兩種不同的加工策略?本實驗中線索面孔除了包括完整面孔, 我們還將與實驗1中線索面孔相似的兩種處理水平(特征水平和結構水平)引入到線索面孔中, 目的是考察同這兩者相比, 完整面孔所引發的眼動模式有何不同。特征水平下, 面孔孤立的特征間維持面孔原始的空間關系, 結構條件下對面孔進行低水平模糊處理, 為了對低水平模糊面孔與輕度錯亂面孔識別的難易度進行匹配, 我們預先讓另一組被試測評實驗材料, 使之相比實驗1中的線索面孔較容易識別。事實上, 低水平模糊面孔和輕度錯亂面孔是介于實驗1中的模糊面孔和錯亂面孔與完整面孔之間的中等強度的線索刺激。我們想了解這兩種刺激強度被“弱化”的面孔在作為線索刺激時是否仍會影響被試面孔識別的眼動策略,此外, 與這兩種刺激條件相比, 完整面孔條件下被試的眼動策略又會有何不同。對于將完整面孔作為線索刺激我們有以下幾種預期:(1)完整面孔條件下對測試面孔的加工, 或者更傾向于采用特征加工策略, 或者更傾向于采用結構加工策略, 即一種加工策略處于優勢, 另一種加工策略處于劣勢; (2)兩種加工策略不存在優勢與劣勢之分, 使用的頻率均等;(3)除了特征加工和結構加工策略外, 還存在另一種全新的加工策略。

3.1 方法

3.1.1 被試

遼寧某高校另外 13名在校生(男性被試 7名,女性被試6名, 年齡在19~25歲之間), 均為自愿參加, 所有被試視力或矯正視力正常, 實驗前得到被試的知情同意且所有被試均未參加過類似實驗。

3.1.2 實驗儀器和材料

實驗儀器和數據的記錄同實驗1。本實驗采用20張低水平模糊面孔圖片、20張輕度錯亂面孔圖片和80張完整面孔圖片, 圖4分別展示了一個完整面孔以及它的變式—— 輕度錯亂面孔和低水平模糊面孔。完整面孔的處理方法同實驗1。輕度錯亂面孔采用橢圓形工具截取面孔上的眼睛、鼻子、嘴巴, 并在原有面孔的基礎上做輕微的距離的改變,面孔各孤立的特征間仍維持面孔原始的空間關系(眼睛最上方, 嘴巴在最下方, 鼻子在眼睛和嘴巴中間)。低水平模糊面孔是通過與輕度錯亂面孔在難易度上進行匹配制作出來的。

圖4 完整面孔(左)、輕度錯亂面孔(中)和低水平模糊面孔(右)

3.1.3 實驗任務、程序和數據分析

本實驗包括兩個組塊:一個組塊將低水平模糊面孔和輕度錯亂面孔作為線索刺激, 另一個組塊將完整面孔作為線索刺激, 之所以使它成為一個獨立的組塊是為了避免線索面孔和測試面孔的混淆。所有被試都必須完成這兩個組塊的實驗任務, 兩個組塊的呈現順序在被試間進行平衡。實驗任務、程序和指導語同實驗 1, 不同之處是將線索刺激的呈現時間由原來的 5s變為 3s, 我們認為縮短線索刺激呈現時間可以相應地增加任務難度, 避免完整線索面孔條件下可能會出現的天花板效應。被試通過按鍵盤上“F”鍵和“J”鍵做出反應, 按鍵所代表的選項在被試間進行平衡。

3.2 結果與討論

分別考察了三類線索面孔即輕度錯亂面孔、低水平模糊面孔和完整面孔所引導的測試面孔的眼動模式。與實驗1相同, 由于對測試面孔的反應時不同, 須對特征間眼跳的個數進行標準化, 用它除以反應時。以特征間眼跳這項眼動指標為因變量,3(線索面孔類型:低水平模糊面孔、輕度錯亂面孔和完整面孔)×2(測試面孔類型:目標面孔和干擾面孔)兩因素重復測量方差分析結果表明:線索面孔類型主效應顯著,

F

(2,24)=7.42,

p

< 0.01, 事后檢驗發現, 同完整面孔條件(

M

=1.38,

SD

=0.36)相比,被試在低水平模糊面孔條件下(

M

=1.61,

SD

=0.44)對測試面孔表現出更多的特征間眼跳(

p

< 0.01), 而輕度錯亂面孔條件(

M

=1.56,

SD

=0.18)相比低水平模糊面孔條件(

p

=0.976)和完整面孔條件(

p

=0.135)對測試面孔的特征間眼跳差異都不顯著(見圖5); 測試面孔類型主效應不顯著,

F

(1,12)=2.62,

p

=0.131; 二者交互作用不顯著,

F

(2,24)=1.53,

p

= 0.237。

圖5 標準化的平均特征間眼跳次數

以特征內凝視時間這項眼動指標為因變量,3(興趣區:眼睛、鼻子和嘴巴)×3(線索面孔類型:低水平模糊面孔、輕度錯亂面孔和完整面孔)兩因素重復測量方差分析結果表明:線索面孔類型的主效應顯著,

F

(2,24)=4.56,

p

< 0.05, 事后檢驗結果表明, 同完整面孔條件(

M

=300 ms,

SEM

=17.36)相比, 被試在輕度錯亂面孔條件下(

M

=335 ms,

SEM

=15.18)對測試面孔表現出更長的特征內凝視時間(

p

< 0.05), 而低水平模糊面孔條件(

M

=327ms,

SEM

=11.61)相比輕度錯亂面孔條件(

p

=0.380)和完整面孔條件(

p

=0.127)對測試面孔的特征內凝視時間差異都不顯著; 不同興趣區的凝視時間差異顯著,

F

(2,24)=6.79,

p

< 0.01, 事后檢驗結果表明, 對鼻子的凝視時間(

M

=384 ms,

SEM

=11.97)顯著地長于對眼睛(

M

=302 ms,

SEM

=13.93)和嘴巴(

M

=277 ms,

SEM

=6.76)的凝視時間(

p

< 0.01); 二者交互作用顯著,

F

(4,48)=5.40,

p

< 0.01(見圖6)。值得注意的是, 以鼻子的凝視時間為因變量, 單因素(線索面孔類型:低水平模糊面孔、輕度錯亂面孔和完整面孔)重復測量方差分析結果表明:線索面孔類型主效應不顯著,

F

(2,24)=0.53,

p

=0.595, 這說明在三類線索面孔條件下, 被試對鼻子區域的凝視時間相比其他興趣區都長。

圖6 各興趣區的平均特征內凝視時間

通過計算每一類線索面孔條件下不同興趣區上注視時間(不考慮注視點的連續性)的百分數我們發現, 興趣區的主效應顯著,

F

(2,24)=12.47,

p

<0.001, 對嘴巴的注視時間百分數(

M

=0.11,

SEM

=0.01)顯著地低于眼睛(

M

=0.43,

SEM

=0.012)和鼻子(

M

=0.46,

SEM

=0.01) (

p

< 0.001); 興趣區與線索面孔類型的交互作用顯著,

F

(4,48)=6.46,

p

<0.001。事后檢驗結果表明, 同低水平模糊面孔(

M

=0.45,

SEM

=0.01)和輕度錯亂面孔條件(

M

=0.41,

SEM

=0.02)相比, 被試在完整面孔條件下(

M

=0.52,

SEM

=0.020)對鼻子的注視時間百分比更高(

p

< 0.001), 同低水平模糊面孔(

M

=0.1,

SEM

=0.01)和完整面孔條件(

M

=0.08,

SEM

=0.009)相比, 被試在輕度錯亂面孔條件下(

M

=0.15,

SEM

=0.02)對嘴巴的注視時間百分比更高(

p

< 0.05)。見圖7。

圖7 各興趣區的平均注視時間百分數

低水平模糊面孔條件下d′的平均值為2.01; 輕度錯亂面孔條件下d′的平均值為2.13; 完整面孔條件下兩種條件下d′的平均值為3.42。以正確率為因變量, 單因素(線索面孔類型:低水平模糊面孔、輕度錯亂面孔和完整面孔)重復測量方差分析結果表明:線索面孔類型主效應顯著,

F

(2,24)=22.73,

p

<0.001, 事后檢驗結果表明, 同輕度錯亂面孔和低水平模糊面孔條件相比, 被試在完整面孔條件下對測試面孔識別的正確率更高(

p

< 0.001); 輕度錯亂面孔和低水平模糊面孔條件下面孔識別的正確率差異不顯著(

p

=0.98)。以反應時為因變量, 線索面孔類型主效應顯著,

F

(2,24)=20.77,

p

< 0.001, 同低水平模糊面孔條件(

M

=1573 ms)和輕度錯亂面孔(

M

=1545 ms)條件相比, 被試在完整面孔條件下(

M

=1134 ms)對測試面孔的反應時更短(

p

< 0.001), 輕度錯亂面孔和低水平模糊面孔條件下對測試面孔的反應時差異不顯著(

p

=0.99); 測試面孔類型主效應不顯著,

F

(1,12)=0.87,

p

=0.369; 二者交互作用不顯著,

F

(2,24)=0.28,

p

=0.757。

本實驗中, 我們發現了面孔的整體加工對應的眼動模式。完整面孔條件相比低水平模糊面孔條件,引發了對測試面孔各特征間更少的眼跳次數, 相比輕度錯亂面孔條件, 引發了對測試面孔各特征(各個興趣區)更短的凝視時間。分析各個興趣區的凝視時間(連續的注視點)我們發現:三類線索面孔條件下, 被試對測試面孔鼻子區域的凝視時間都更長且差異不顯著, 這就說明鼻子區域的信息相比眼睛和嘴巴在三類線索面孔條件下都為優勢信息。分析各個興趣區注視時間(不考慮注視點的連續性)的百分數我們發現:三類線索面孔條件下, 被試對測試面孔鼻子區域注視時間的百分數差異顯著, 且在完整面孔條件下, 對測試面孔鼻子區域注視時間的百分數更高, 這就說明, 相比低水平模糊面孔和輕度錯亂面孔條件, 被試在完整面孔條件下大部分時間注視位于測試面孔中央區的鼻子部位, 這是由完整面孔條件下對鼻子區域更多的回視引發的。我們認為之所以花更多的時間注視鼻子部位是因為將注視點對準面孔的中央區域可以增大注視范圍, 正是基于這種加工策略, 被試不用轉動眼球就可以捕捉整張面孔的信息。Weber, Schwarz, Kneifel, Treyer和 Buck (2000)在其注意范式的研究中也發現了類似的眼動, 這是一種綜合的眼動策略, 表現為極少注視點所引發的注視范圍的擴大。為了區別于結構加工策略, 本文中使用整體加工策略這一術語。王乾東、胡超和傅根躍(2013)在其面孔加工異族效應的眼動研究中, 發現幼兒和成人均表現出對本族面孔以鼻子為中心的整體加工策略。

綜上所述, 本實驗的結果表明當線索面孔的兩類信息都可見時, 會引發除特征加工和結構加工外的另一種加工策略——整體加工策略。相比兩種被“弱化”的線索面孔, 完整面孔條件引發了對測試面孔鼻子區域注視時間百分數的顯著升高, 這預示著一種整體加工策略。整體加工策略在本文中被描述為將注視點更多地固定在面孔中央進而引發注視范圍的擴大。此外, 在完整面孔條件下, 特征加工和結構加工也共同參與進來, 事實上, 同低水平模糊面孔條件相比, 被試在完整面孔條件下對測試面孔的凝視時間沒有明顯地減少(平均凝視時間為300ms), 而同輕度錯亂面孔條件相比, 被試在完整面孔條件下對測試面孔的特征間眼跳也沒有顯著地減少 (平均特征間眼跳次數為1.38次/秒)。值得注意的是, 兩種被“弱化”的線索面孔引導的測試面孔無論在特征間眼跳還是特征內凝視時間這兩項眼動指標上, 差異都不顯著, 而只有在和完整面孔條件做比較的時候, 才體現出二者之間的差異。

4 討論

以上兩個實驗分析了特征加工、結構加工和整體加工策略, 并探索了它們各自對應的眼動模式。實驗1分析了特征和結構加工策略的眼動模式, 實驗2考察了當線索面孔的兩類信息都可見時會采用什么樣的加工策略。

4.1 各項眼動指標和行為指標與前人研究結果的異同

通過在實驗1中誘導出兩種不同的面孔加工策略, 我們為面孔的識別既可以基于特征信息又可以基于結構信息這一論斷提供了來自眼動的證據, 特征加工和結構加工顯示出它們特有的眼動模式, 這兩種加工策略揭示了對于面孔這一類特殊的刺激,信息是如何被提取的。更長的特征內凝視時間會提取出更多的細節信息, 而高頻的特征間眼跳會提取出更多的空間信息。

有研究者采用不同的方法來分析綜合和局部的眼動模式。Liechty, Pieters和Wedel (2003)假定局部的視覺注意以短距離的眼跳從特定的部位提取信息, 而綜合的視覺注意采用遠距離的眼跳整合來自各個部位的信息。Zangemeister等人(1995)發現了人們在觀看抽象派繪畫作品和現實派繪畫作品時所表現出得綜合掃描策略和局部掃描策略。他們計算出綜合與局部的比率(g/l)進而分析不同的掃描策略。比率越高表明大幅度的眼跳次數越多即為典型的綜合掃描策略, g/l的計算是基于眼跳幅度,不考慮眼跳是發生在同一特征內部還是不同特征之間。因此, 一些被認為是發生在局部的細微眼跳很可能作用于兩個臨近的特征之間, 而一些幅度較大的眼跳也有可能作用于面孔的同一特征之上。而本研究中, 在計算特征間眼跳時充分考慮到注視點的位置, 明確區分出特征內眼跳和特征間眼跳, 從而得到更加精確的數據。

對實驗1或許會存在這樣的質疑:被試對測試面孔的掃描模式似乎先前就設定好了(可以人為操縱), 因為在模糊線索面孔條件下, 被試對測試面孔的加工僅依賴結構信息; 而在錯亂線索面孔條件下, 被試對測試面孔的加工僅依賴特征信息。有趣的是, 在特征內注視時間和特征間眼跳次數這兩項眼動指標上, 錯亂線索面孔和模糊線索面孔之間并沒有顯著差異, 雖然這兩類線索面孔給人的視覺感受很不一樣; 相反, 由不同類型的線索面孔所引導的完整面孔, 眼動模式卻大相徑庭。這說明了測試面孔的眼動模式并不是對線索面孔眼動模式簡單地復制。Henderson, Williams和Falk (2005)的研究也發現讓被試識別之前看過的面孔, 被試并不會重復先前的眼動模式。他們在學習面孔階段設定了兩種注視條件, 分別是自由注視和受限制注視, 在隨后的識別任務中, 他們并未發現不同注視條件所引發的眼動模式的差異。綜上所述, 我們的研究結果表明不同的眼動模式是由不同的策略所導致的, 而這種策略就是搜索相關的信息, 而并非掃描面孔中所有可見的信息。

我們的研究結果與 Williams和 Henderson(2007)的研究結果不一致, 在他們的研究中, 被試首先識記一組面孔, 然后對出現在測試階段的正立或倒立面孔進行識別。由于倒立面孔普遍被認為阻礙了面孔結構信息的加工(Leder & Bruce, 2000),因此在識別倒立面孔時更多地依賴對特征信息的加工。然而, 結果卻是正立面孔和倒立面孔所引發的眼動模式沒有差異。對于Williams和Henderson的研究結果, 我們至少可以提出兩種解釋。其一,Williams和Henderson沒有分析凝視時間和特征間眼跳, 只是采用面孔不同區域的總注視時間和平均眼跳幅度來比較正立面孔和倒立面孔的眼動模式;其二, 相比采用錯亂面孔誘導特征加工策略, 將面孔倒置或許會激活另一種形式的“特征加工策略”。事實上, 在倒立面孔中, 結構信息仍然存在(如面孔中特征間的距離)。一項有關反應分類的研究表明在面孔知覺中, 倒立面孔的知覺并沒有發生質的改變(Sekuler, Gaspar, Gold, & Bennet, 2004)。此外,Butler和Harvey (2005)認為在倒立面孔中也存在形式簡單的結構加工。相比倒立面孔, 錯亂面孔消除了面孔上所有的結構信息, 因此能誘導出更顯著的特征加工策略。

本研究的結果與Lobmaier和Mast (2007)的研究結果相一致:同模糊線索面孔條件相比, 被試在錯亂線索面孔條件下對完整面孔識別的正確率更高, 速度更快。與之相反, 另一些基于相同范式的研究支持模糊線索面孔條件下的識別優勢。(Collishaw & Hole, 2000; Schwaninger et al., 2002)。對于這兩類不同的研究結果, 一種可能的解釋是由于實驗中所采用的不同的刺激材料所導致的。我們采用的面孔刺激, 模糊水平較高, 且剔除了面孔的外部特征(發際線, 頭的形狀), 這樣做勢必會增加面孔識別的難度(Lobmaier & Mast, 2007), 另一種可能的解釋是由于實驗程序的不同而造成的。Collishaw和Hole (2000)在正式實驗之前增加了一個學習階段, 這足以使被試建立起對陌生面孔結構信息的表征。值得注意的是, 本研究中, 在錯亂線索面孔和模糊線索面孔條件下對面孔識別的正確率都大于隨機水平。

之所以特征間眼跳和特征內凝視時間這兩項眼動指標在目標面孔與干擾面孔間沒有顯著差異,我們可以做如下解釋:線索刺激所誘導的面孔加工策略已深刻地影響到被試對隨后的測試面孔的眼動模式, 而不受測試面孔類型的影響。此外, 還有一種可能的解釋是:任務相對較難, 被試須對測試面孔即無論是目標面孔或是干擾面孔進行細致地加工。

4.2 不同加工方式下眼動模式的認知機制

實驗2發現當線索面孔中的特征信息和結構信息都可見時, 被試采用了除特征加工和結構加工策略以外的第三種加工策略。因為這種加工策略涉及對面孔各區域的同時編碼, 所以我們稱其為整體加工策略, 整體加工策略從人類進化的角度來講有著重大的意義。特征加工策略和結構加工策略在針對具體任務時精確度較高, 但它們都屬于系列加工,所以是耗時的, 而整體加工策略作用于面孔識別時通常只需1到2個注視點, 屬于并行加工, 因而可以快速完成面孔識別任務。在完整線索面孔條件下,被試會同時使用這三種加工策略。單一整體加工策略是通過幾個固定在面孔中央區域(鼻子部位)的注視點來掌握整張面孔的信息(Weber et al., 2000; 王乾東 等, 2013)。然而, 我們的研究發現在完整線索面孔條件下, 被試對測試面孔各個特征的凝視時間大約為300ms, 特征間眼跳為1.38次/秒。這表明同輕度錯亂面孔和低水平模糊面孔條件相比, 被試在完整線索面孔條件下更少地運用特征加工策略和結構加工策略, 但并非完全放棄使用這兩種加工策略。正是這三種眼動策略的結合才使得被試在完整線索面孔條件下對面孔識別的正確率高于低水平模糊面孔和輕度錯亂面孔條件。

4.3 概念的界定

學界普遍認為整體加工和結構加工這兩個概念是相互關聯的, Bartlett等人(2003)認為結構加工屬于上位概念因為它涵蓋的范圍更廣。Maurer,LeGrand和 Mondloch (2002)認為整體加工就是一種結構加工。他們都將整體加工定義為“將各特征粘合為格式塔”, 即對面孔上各特征非細枝末節地分析和對面孔綜合地表征。本研究尋找到區分這兩個看似混淆的概念的途徑, 實驗1誘導出以高頻特征間眼跳整合各部位信息的結構加工策略, 實驗 2又激活了以固定注視點把握整張面孔信息的整體加工策略。學界對綜合加工策略這一概念的界定目前還比較含糊, 有的將其界定為有著高頻且大幅度的眼跳(Liechty et al., 2003; Zangemeister et al., 1995),有的將其界定為有著極少的眼跳(Weber et al., 2000),未來我們仍須更加清晰地界定這一概念。

5 結論

三種面孔加工策略即特征加工策略、結構加工策略和整體加工策略共同作用于面孔識別, 且表現出各自特有的眼動模式:特征加工表現為對面孔各特征內更長的凝視時間; 結構加工表現為對面孔各特征間高頻的眼跳; 整體加工表現為將注視點固定在面孔中央區的鼻子部位以擴大注視范圍。

Bahrick, H. P., Bahrick, P. O., & Wittlinger, R. P. (1975).Fifty years of memory for names and faces: A cross-sectional approach.

Journal

of

Experimental Psychology

:

General, 104

, 54–75.Bartlett, J. C., Searcy, J. H., & Abdi, H. (2003). What are the routes to face recognition. In M. A. Peterson & G. Rhodes(Eds.),

Perception of faces, objects and scenes: Analytic and holistic processes

(pp. 21–52). New York, America:Oxford University Press.Barton, J. J. S., Radcliffe, N., Cherkasova, M. V., Edelman, J.,& Intriligator, J. M. (2006). Information processing during face recognition: The effects of familiarity, inversion, and morphing on scanning fixations.

Perception, 35

(8),1089–1105.Bruce, V., & Humphreys, G. W. (1994). Recognizing objects and faces.

Visual Cognition, 1

, 141–180.Butler, S. H., & Harvey, M. (2005). Does inversion abolish the left chimeric face processing advantage?

NeuroReport, 16

(18), 1991–1993.Cabeza, R., & Kato, T. (2000). Features are also important:Contributions of featural and configural processing to face recognition.

Psychological Science, 11

(5), 429–433.Carey, S., & Diamond, R. (1994). Are faces perceived as configurations more by adults than by children?

Visual Cognition, 1

, 253–274.Collishaw, S. M., & Hole, G. J. (2000). Featural and configurational processes in the recognition of faces of different familiarity.

Perception, 29

(8), 893–909.Cootes, T., Edward, G., & Taylor, C. (2001). Active appearance models.

IEEE Transactions on Pattern Analysis and Machine Intelligence, 23

(6), 681–685.Farah, M. J., Tanaka, J. W., & Drain, H. M. (1995). What causes the face inversion effect?

Journal of Experimental Psychology: Human Perception and Performance, 21

(3),628–634.Guo, J. W., Hu, F. P., Su, X. H., Wang, D. M., Wang, X., &Ge, L. Z. (2010). The relation of configural and feature face information under the condition of holistic process.

Acta Psychologica Sinica, 42

(3), 352?359.[郭建偉, 胡鳳培, 蘇曉華, 王篤明, 王曦, 葛列眾. (2010).整體加工方式下面孔結構與特征關系.

心理學報, 42

(3),352–359.]Hancock, P. J. B., Bruce, V., & Burton, A. M. (2000).Recognition of unfamiliar faces.

Trends in Cognitive Sciences, 4

(9), 330–337.Henderson, J. M., Williams, C. C., & Falk, R. J. (2005). Eye movements are functional during face learning.

Memory &Cognition, 33

(1), 98–106.Leder, H., & Bruce, V. (1998). Local and relational aspects of face distinctiveness.

Quarterly Journal of Experimental PsychologyA, 51

(3), 449–473.Leder, H., & Bruce, V. (2000). When inverted faces are recognized: The role of configural information in face recognition.

Quarterly Journal of Experimental Psychology A, 53

(2), 513–536.Liechty, J., Pieters, R., & Wedel, M. (2003). Global and local covert visual attention: Evidence from a Bayesian hidden Markov mode.

Psychometrika, 68

(4), 519–541.Lobmaier, J. S., Klaver, P., Loenneker, T., Martin, E., & Mast,F. W. (2008). Featural and configural face processing strategies: Evidence from a functional magnetic resonance imaging study.

NeuroReport, 19

(3), 287–291Lobmaier, J. S., & Mast, F. W. (2007). Perception of novel faces: The parts have it!

Perception, 36

(11), 1660–1673.Lobmaier, J. S., & Mast, F. W. (2008). Face imagery is based on featural representations.

Experimental Psychology,55

(1), 47–53.Maurer, D., LeGrand, R., & Mondloch, C. J. (2002). The many faces of configural processing.

Trends in Cognitive Sciences, 6

(6), 255–260.Rossion, B., Dricot, L., Devolder, A., Bodart, J.-M.,Crommelinck, M., de Gelder B., & Zoontjes, R. (2000).Hemispheric asymmetries for whole-based and part-based face processing in the human fusiform gyrus.

Journal of Cognitive Neuroscience, 12

(5), 793–802.Schwaninger, A., Lobmaier, J. S., & Collishaw, S. M. (2002).Role of featural and configural information in familiar and unfamiliar face recognition.

Lecture Notes in Computer Science, 2525

, 643–650.Schwaninger, A. C., Wallraven, C., Cunningham, D. W., &Chiller-Glaus, S. (2006). Processing of identity and emotion in faces: A psychophysical, physiological and computational perspective.

Progress in Brain Research,156

, 321–343.Searcy, J. H., & Bartlett, J. C. (1996). Inversion and processing of component and spatial–relational information in faces.

Journal of Experimental Psychology: Human Perception and Performance, 22

(4), 904–915.Sekuler, A. B., Gaspar, C. M., Gold, J. M., & Bennet, P. J.(2004). Inversion leads to quantitative, not qualitative,changes in face perception.

Current Biology, 14

(5),391–396.Sergent, J. (1984). An investigation into component and configural processes underlying face perception.

British Journal of Psychology, 75

(2), 221–242.Swets, D., & Weng, J. (1996). Using discriminant eigenfeatures for image retrieval.

IEEE Transactions on Pattern Analysis and Machine Intelligence, 18

(8), 831–836.Tanaka, J. W., & Farah, M. J. (1993). Parts and wholes in face recognition.

Quarterly Journal of Experimental Psychology A,46

(2), 225–245.Wang, Q. D., Hu, C., & Fu, G. Y. (2013). An eye-tracking research on the other race effect during face processing in preschool children.

Acta Psychologica Sinica, 45

(2),169–178.[王乾東, 胡超, 傅根躍. (2013). 幼兒面孔加工異族效應的眼動研究.

心理學報, 45

(2), 169–178.]Wang, Y. M., & Huang, Y. M. (2011). The role of configural and featural processing in face recognition.

Advances in Psychological Science, 19

(8), 1126–1137.[汪亞珉, 黃雅梅. (2011). 面孔識別中的構形加工與特征加工.

心理科學進展, 19

(8), 1126–1137.]Weber, B., Schwarz, U., Kneifel, S., Treyer, V., & Buck, A.(2000). Hierarchical visual processing is dependent on the oculomotor system.

NeuroReport, 11

(2), 241–247.Williams, C. C., & Henderson, J. M. (2007). The face inversion effect is not a consequence of aberrant eye movements.

Memory & Cognition, 35

(8), 1977–1985.Zangemeister, W. H., Sherman, K., & Stark, L. (1995).Evidence for a global scanpath strategy in viewing abstract compared with realistic images.

Neuropsychologia, 33

(8),1009–1025.

猜你喜歡
眼動特征策略
基于眼動的駕駛員危險認知
基于ssVEP與眼動追蹤的混合型并行腦機接口研究
載人航天(2021年5期)2021-11-20 06:04:32
例談未知角三角函數值的求解策略
如何表達“特征”
我說你做講策略
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
高中數學復習的具體策略
數學大世界(2018年1期)2018-04-12 05:39:14
抓住特征巧觀察
國外翻譯過程實證研究中的眼動跟蹤方法述評
外語學刊(2016年4期)2016-01-23 02:34:15
眼動技術在數字媒體中的應用
出版與印刷(2014年4期)2014-12-19 13:10:39
主站蜘蛛池模板: 六月婷婷激情综合| 无码国产伊人| 国内精品久久人妻无码大片高| 999在线免费视频| 国产成人综合久久| 国产00高中生在线播放| 亚洲男人在线天堂| 欲色天天综合网| 亚洲码一区二区三区| 亚洲乱码在线播放| 国产在线观看第二页| 精品五夜婷香蕉国产线看观看| 免费看a毛片| 国产美女主播一级成人毛片| 凹凸精品免费精品视频| 国产精品视频久| 婷婷激情亚洲| 91视频区| AV熟女乱| 制服丝袜 91视频| 免费看的一级毛片| 国产女人在线观看| 最新亚洲人成无码网站欣赏网 | 亚洲国产午夜精华无码福利| 国产理论一区| 免费99精品国产自在现线| 久久精品人人做人人综合试看| 日韩AV无码一区| 91丝袜美腿高跟国产极品老师| 亚洲制服中文字幕一区二区| 亚洲一区精品视频在线| 亚洲第七页| 在线日本国产成人免费的| 成年女人a毛片免费视频| 黄片在线永久| 毛片一级在线| 91精品国产一区自在线拍| 精品国产一区91在线| 日韩资源站| 亚洲va视频| 亚洲第一视频网| 嫩草国产在线| 午夜成人在线视频| 亚洲精品第一页不卡| 亚洲AⅤ综合在线欧美一区| 亚洲免费人成影院| 中文字幕自拍偷拍| 秋霞午夜国产精品成人片| 国产三级精品三级在线观看| 亚洲人成网线在线播放va| 亚洲精品麻豆| 黄色片中文字幕| 国产黄色爱视频| 女人毛片a级大学毛片免费| 久久亚洲精少妇毛片午夜无码| 亚洲欧美成人综合| 在线观看无码av免费不卡网站 | 国产日韩欧美中文| 曰韩人妻一区二区三区| 视频二区欧美| 亚洲欧美自拍一区| 国产精品深爱在线| 97综合久久| 91成人在线免费视频| 久久亚洲天堂| 欧美中出一区二区| 国产成人高清亚洲一区久久| 亚洲国产日韩欧美在线| 色哟哟色院91精品网站| 亚洲中文字幕无码爆乳| 经典三级久久| 色噜噜综合网| 亚洲人成网站18禁动漫无码| 一本大道无码日韩精品影视| 99精品在线看| 黄片在线永久| 国产在线视频自拍| 四虎精品国产永久在线观看| 国产精品视屏| 国产经典三级在线| 亚洲人精品亚洲人成在线| 日本人妻一区二区三区不卡影院|