999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

尋找丟失的自我——精神分裂癥患者的自我面孔識別*

2020-02-19 07:42:00周愛保潘超超謝君偉
心理學報 2020年2期
關鍵詞:精神分裂癥實驗

周愛保 謝 珮 潘超超 田 喆 謝君偉 劉 炯

尋找丟失的自我——精神分裂癥患者的自我面孔識別

周愛保謝 珮潘超超田 喆謝君偉劉 炯

(西北師范大學心理學院;甘肅省行為與心理健康重點實驗室, 蘭州 730070) (甘肅省天水市第三人民醫院, 天水 741000)

為探索精神分裂癥患者自我面孔識別的能力以及在視聽整合任務中面孔對聲音身份識別(同性和異性)的影響, 選取34名住院精神分裂癥患者和26名健康被試, 分別進行單通道動態自我面孔識別任務、單通道自我聲音識別任務和視聽整合任務的3個實驗。結果發現:精神分裂癥患者的單通道自我面孔識別能力和自我聲音識別能力與健康組無區別, 但在視聽整合任務中, 精神分裂癥患者的聲音身份識別受到視覺通道面孔識別的影響。結果表明, 精神分裂癥患者有自我面孔識別的能力, 自我面孔會促進自我聲音的識別, 并抑制對同性他人聲音和異性他人聲音的識別。

自我面孔識別; 自我聲音識別; 視聽整合; 面孔主導

1 前言

長久以來, 科學家們致力于自我面孔對自我認識特殊性的研究。無論是在人類還是黑猩猩身上, 都發現了較強的自我面孔識別能力, 自我面孔識別也被當作個體擁有自我意識的標志(Gallup, 1970; Parker, Mitchell & Boccia, 1994; Keenan, Mccutcheon, Freund, Gallup, & Pascual-Leone, 1999)。雖然自我面孔識別的研究歷程悠久且方法較為成熟, 但是某些因疾病所導致的自我面孔識別能力受損仍舊是心理學研究的要點。例如, 在自閉癥、阿茲海默癥等神經或發育障礙的個體中, 自我面孔識別的損傷已被證實(Uddin et al., 2008; Adduri & Marotta, 2009)。不過, 精神分裂癥作為一種病因較為復雜的精神類疾病, 在自我面孔識別的研究上仍存在爭議。

精神分裂癥患者在自我感知方面的缺陷已經被證實(Sass & Parnas, 2003; Moe & Docherty, 2014), 但是對患者是否擁有自我面孔識別能力的意見卻不一致。有些研究發現, 精神分裂癥在識別自我面孔方面存在一定的缺陷(Seiferth, Baar, & Schwabe, 2007; Hur, Kwon, Lee, & Park, 2014)。也有學者認為, 精神分裂癥患者自我面孔識別的能力未受損, 并且相比于正常人, 加工過程反而增強了(Lee, Kwon, Shin, Lee, & Park, 2007)。近年對精神分裂癥自我面孔研究的結果似乎更支持患者自我面孔識別出現障礙的原因并非是自我加工受損, 而是面孔的熟悉性加工出現問題(Zhang, Zhu, Xu, Jia, & Liu, 2012; Bortolon, Capdevielle, Salesse, & Stéphane, 2016; Catherine, Delphine, Salesse, & Raffard, 2016)。從現有研究來看, 精神分裂癥的自我面孔研究大多集中在視覺通道的識別上, 即使方法各不相同, 但都并未脫離單通道研究的束縛。若能從其他較為成熟的研究領域出發(如多感覺整合), 采用多通道的研究手段, 或許能為精神分裂癥自我面孔識別的研究帶來新的證據。

多感覺整合理論(multisensory integration, MSI)提出, 相比于單通道, 多個通道同時呈現刺激時個體的反應更快更準確(Mishler & Neider, 2016)。但是在多個通道同時接受到刺激時, 會出現某個通道的主導效應, 促進或者抑制對另一個通道信息的反應(彭姓, 常若松, 任桂琴, 王愛君, 唐曉雨, 2018)。在視聽整合中有視覺的主導效應(von Kriegstein et al., 2008), 例如McGurk效應, 表現為面孔和面部動作(如唇語)對聲音識別的影響(McGurk & MacDonald, 1976)。這可能是由于聽覺輸入滯后于視覺輸入(一般為150 ms)導致視覺內容對語音的可預測性(Arnal, Morillon, Kell, & Giraud, 2009)。Arnal等人(2009)認為視聽整合是由兩條不同的皮質通路完成的, 較快的直接皮質通路將視覺信息傳遞給聽覺皮層, 較慢的反饋通路將視覺的預測信息與聽覺輸入之間的誤差傳遞給聽覺皮層, 這種視聽不一致引起的神經失匹配經由顳上溝(superior temporal sulcus)反饋給聽覺皮層, 當視聽信息一致時, 視覺的預測性會促進語音的識別, 個體對信息的識別會加快, 當視聽不一致時, 視聽的誤差會影響識別的速度。

精神分裂癥患者的視聽整合研究大多在于整合過程是否受損。有研究發現, 精神分裂癥患者相比于正常人更少的產生McGurk錯覺, 是由于交叉模態匹配的視聽整合功能受損所致(Pearl et al., 2009; White et al., 2014), 但也有研究報告精神分裂癥患者存在多感覺整合的現象, 并且視聽整合功能并未受損(de, Vroomen, Annen, Masthof, & Hodiamont, 2003; Martin, Giersch, Huron, & van Wassenhove, 2013)。功能磁共振成像(fMRI)顯示, 視聽整合過程主要涉及上丘(superior colliculi), 另外顳上溝皮層(cortex within the superior temporal sulcus)、頂內溝(intraparietal sulcus)和腦島(insula)等腦區與這種交叉模態有關(Calvert, Hansen, Iversen, & Brammer, 2001)。有研究發現, 視覺通道的面孔加工區梭狀面孔區(fusiform face area, FFA)和聽覺通道聲音敏感區(superior temporal sulcus, STS)有結構上的連接(Blank, Anwander, & Kriegstein, 2011), 這可能為單通道區之間的信息交流提供了橋梁(Maguinness & Kriegstein, 2017)。因此, 視聽通道的身份識別可能直接通過這種連接共享信息, 并且gamma頻段(30~50 Hz)神經震蕩(neural oscillation)活動地同步可能是單通道區域相連的證據(Joassin, Maurage, & Campanella, 2011)。Stoned等人(Stoned, Coffman, Bustillo, Aine, & Stephen, 2014)通過腦磁圖掃描(magnetoencephalography)發現, 在視聽整合任務中, 精神分裂癥患者gamma頻段的震蕩發生變化, 表明其在多感覺整合過程中發揮作用, 精神分裂癥患者面孔和聲音的視聽整合過程可能直接通過FFA和STS的連接執行。

自我聲音和自我面孔一樣都包含自我身份信息, 這種自我感知與其它刺激相比是特殊的(Graux, Gomot, Roux, Bonnet-Brilhault, & Bruneau, 2015)。已有研究發現, 即使受到傳導方式的影響, 個體依舊能夠區分自我和陌生人的聲音, 自我聲音的檢測與早期反應的一個成分(‘pre-MMN’, 即早期的失匹配負波, 表明了大腦對聽覺信息的自動化檢測, 是研究聲音辨別力的指標)有關, 主要存在于左側前額葉(Graux et al., 2013)。而性別信息作為一種固有的社會身份信息, 在面孔識別和聲音識別上也被確認了認知過程的特殊性(Fellowes, Remez, & Rubin, 1997)。視聽整合中, 正常人在視聽性別信息不匹配的條件下(男性的面孔匹配女生的聲音), 視覺的性別信息會影響被試對聽覺信息的識別(Peynircio?Lu, Brent, Tatz, & Wyatt, 2017)。考察精神分裂患者在視聽整合任務中自我面孔對聲音識別影響的特點, 可能會為精神分裂癥患者自我面孔識別的研究提供一些新的思路。

綜上, 探索精神分裂癥患者在視聽整合中自我面孔的作用及其特點, 就成為一個重要的問題。本研究選取一批健康被試作為對照組, 采用自我面孔和他人面孔(同性和異性)同自我聲音和他人聲音(同性和異性)的匹配范式來進行研究, 提出的問題假設:精神分裂癥患者能夠在單通道任務中進行自我面孔和自我聲音的識別, 并在視聽整合任務中出現視覺通道的面孔主導效應, 該效應會影響到聽覺通道的自我身份(自我聲音)識別, 并對他人(同性和異性)聲音的識別產生影響。

2 實驗1:精神分裂癥患者的面孔識別

2.1 實驗目的

通過比較精神分裂癥患者和健康被試在自我面孔、同性他人面孔和異性他人面孔識別任務中的差異, 分析精神分裂癥患者面孔識別的能力。

2.2 實驗方法

2.2.1 被試

選取甘肅省天水市第三人民醫院34名(男17名)住院精神分裂癥患者作為患者組。排除藥物濫用、精神發育遲緩以及其他器質性疾病的患者。經由兩名精神科主治醫生診斷, 所有患者均符合DSM-5的診斷標準。其中3名患者為偏執型精神分裂癥, 31名為未分化型。患者的平均病史為(3.50 ± 4.7)年。在實驗階段, 所有患者服用利哌酮、喹硫平、氯氮平等非典型抗精神病藥物。招募了26名健康被試(男12名)作為健康組, 健康組的被試在年齡和受教育水平上與患者組匹配, 被試身體健康, 無精神病史及其他腦器質性損傷。采用G-power軟件計算在效應量為0.4和統計檢驗力為0.8時所需要的被試總人數為25人, 實驗達到了該水平。

所有被試均為右利手, 視力或矯正視力正常, 面部無明顯疤痕及突出特征(例如胡須)。表1顯示了具體的人口學變量信息。本研究得到西北師范大學和甘肅省天水市第三人民醫院倫理委員會的批準。所有被試及其家屬都同意參加實驗, 并簽署了書面的知情同意書。

表1 被試基本信息表(M ± SD)

注:SAPS: 陽性癥狀量表; SANS: 陰性癥狀量表。

2.2.2 實驗材料

利用Nikon-D7200單反相機以60幀/秒(1280×720像素分辨率)分別為每位被試進行視頻拍攝, 要求被試目視鏡頭, 在聽到研究人員說“開始”后, 被試在有嘴唇運動的條件下發“a”, 直到研究人員說“結束”后停止, 要求被試有完整的唇部發音過程, 該過程盡量保持在在1.5 s。

采用Adobe premiere視頻處理軟件將所有視頻消音并處理為黑白色, 并對視頻畫面進行裁剪, 統一留出被試面孔的650×480像素。根據實驗要求, 除了被試自己的面孔, 再為每位被試加入了3位陌生同性面孔和3位陌生異性面孔, 共7個面孔視頻。

2.2.3 實驗程序

視覺通道的自我身份識別通過對自我和他人的動態面孔進行識別, 自我面孔和他人面孔(同性和異性)分別都有30個試次(trial), 加上6個練習試次(trial), 共有96個試次, 練習結束后隨機呈現。

實驗程序采用E-prime 2.0軟件在15.6寸的電腦液晶屏上呈現所有的視頻刺激, 像素為1600像素×900像素, 60 Hz刷新率。要求被試雙眼始終注視屏幕中央, 眼睛離屏幕60 cm左右。每個試次開始時都是在屏幕中央呈現500 ms的黑色十字, 之后呈現1.5 s的無聲動態面孔。刺激呈現后, 被試要對面孔進行識別, 如果是自己的面孔就按“F”鍵, 不是就按“J”鍵, 直到被試按鍵之后進入500 ms的空屏, 再到下一個試次, 按鍵之間進行了平衡, 實驗流程見圖1。

圖1 實驗1單一試次流程圖

注:實驗開始屏幕中央呈現字號為36磅的黑色十字, 500 ms之后出現無聲的動態面孔刺激, 被試按鍵反應之后進入實驗緩沖的空屏。

2.3 結果與分析

實驗中練習試次被排除。對反應時的數據進行處理, 剔除了所有的錯誤試次。剔除了反應時超過3個標準差的反應試次(占總試次數的2.9%), 1名被試(該患者平均反應時超過3000 ms)數據被剔除。

采用信號檢測理論中的辨別力(= Z? Z)指標來分析被試對自我面孔的辨別能力。

采用SPSS 23.0分別對被試的正確率和反應時進行了2 (被試類型:患者組, 健康組) × 3 (面孔身份:自我, 同性他人, 異性他人)的重復測量方差分析, 對被試自我面孔識別的辨別力進行了獨立樣本檢驗分析。

2.3.1 面孔識別的正確率

單通道面孔識別任務正確率的分析結果顯示, 面孔識別的主效應不顯著,(2, 57) = 1.34,= 0.27, 表明所有被試在面孔識別方面正確率沒有顯著差異; 組別的主效應不顯著,(1, 59) = 0.73,= 0.40, 表明患者組和健康組被試面孔識別的正確率沒有顯著差異; 組別與面孔身份識別之間沒有顯著的交互作用,(2, 57) = 0.94,= 0.40, 具體見圖2(a)。

2.3.2 面孔識別的反應時

單通道面孔識別任務反應時的分析結果為, 面孔身份識別的主效應不顯著,(2, 56) = 0.92,= 0.40。組別的主效應顯著,(1, 57) = 21.78,< 0.001, partial η= 0.28, 表現為健康組被試識別面孔的反應時(=595.94, 95% CI501.57, 690.30)總體低于患者組(= 889.99, 95% CI806.23, 973.75)。組別與面孔身份識別之間存在顯著的交互作用,(2, 56) = 4.80,= 0.01, partial η= 0.15; 簡單效應分析發現, 患者組的自我面孔識別的反應時(= 834.47, 95% CI730.37, 938.57)小于同性他人(= 909.66, 95% CI828.83, 990.49)和異性他人(= 925.85, 95% CI835.21, 1016.48), 具體見圖2(b)。

2.3.3 自我面孔識別的辨別力

自我面孔辨別力的分析結果為, 患者自我面孔識別的辨別力與健康被試無顯著差異,(58) = ?0.71,= 0.48。

2.4 討論

從精神分裂癥患者和健康被試的視覺面孔識別的結果發現, 患者能夠和正常人一樣辨別自己的面孔, 并且對自我面孔有更快的反應, 與之前的某些研究結果一致(Bortolon et al., 2016; Catherine et al., 2016; Bortolon et al., 2017), 驗證了研究的假設, 精神分裂癥患者有自我面孔識別的能力。但這并不能否定前人對精神分裂癥患者自我面孔識別受損的說法, 由于對面孔識別的研究方法不同(有的研究采用morphing任務, 有的則采用視覺搜索范式), 所探究的角度不同, 結論大不相同。不過, 本研究可以說明, 至少在動態自我面孔識別的能力上, 精神分裂癥患者與正常人一樣。精神分裂癥患者對面孔識別任務的反應時總體要大于正常被試, 這也存在于聽覺任務和視聽整合任務實驗中。精神分裂癥患者的反應變慢是一個病理上的普遍特征, 用精神分裂癥患者和健康被試進行比較并不能只采用這個指標(Schatz, 1998)。

3 實驗2:精神分裂癥患者的聲音識別

3.1 實驗目的

通過比較精神分裂癥患者和健康被試在自我聲音、同性他人聲音和異性他人聲音識別任務中的差異, 分析精神分裂癥患者聲音識別的能力。

3.2 實驗方法

3.2.1 被試

實驗2被試來自實驗1。

3.2.2 實驗材料

被試聲音的采集采用aigo-R8611錄音筆, 采樣頻率為44.1 kHz, 音頻信號為16-bit。要求被試在看到研究人員開始手勢后面對錄音筆用中性平緩的語調發“a”的音, 直到看到結束的手勢后停止, 該過程盡量保持在在1.5 s以上。

采用Pro Tool軟件將所有音頻材料剪輯成1.5 s, 采用Praat軟件將所有音頻的響度標準化為70 dB, 除了被試自己的聲音, 再為每位被試加入了3位陌生同性聲音和3位陌生異性聲音, 共7個音頻。

圖2 不同類型被試單通道面孔識別任務結果

注:圖(a)中正確率的結果為平均數, 豎線代表正確率的標準差;圖(b)中反應時的結果為平均數, 豎線代表反應時的標準差。*< 0.05, **< 0.01, ***< 0.001。

3.2.3 實驗程序

聽覺通道的自我身份識別共有他人聲音和自我聲音。自我聲音和他人聲音(同性和異性)分別都有30個試次, 加上6個練習試次, 共有96個試次, 練習結束后隨機呈現。

實驗程序采用E-prime2.0軟件在15.6寸的電腦液晶屏上呈現所有的音頻刺激, 每個試次開始時都是在屏幕中央呈現500 ms的黑色十字, 之后耳機中播放1.5 s的聲音刺激, 同時屏幕保持白色空屏, 要求被試眼睛不能離開電腦屏幕。刺激呈現后, 被試要對聲音進行識別, 如果是自己的聲音就按“F”鍵, 不是就按“J”鍵, 直到被試按鍵之后進入500 ms的空屏, 再到下一個試次, 按鍵之間進行了平衡, 實驗流程見圖3。

3.3 結果與分析

研究中練習試次被排除。對反應時的數據進行處理, 剔除了所有的錯誤試次。剔除了反應時超過3個標準差的反應試次(占總試次數的1.8%), 1名被試(該患者平均反應時超過3000 ms)被剔除。

圖3 實驗2單一試次流程圖

注:實驗開始屏幕中央呈現字號為36磅的黑色十字, 500 ms之后出現空屏, 耳機中出現聲音刺激, 要求被試注視屏幕, 被試按鍵反應之后進入實驗緩沖的空屏。

采用信號檢測理論中的辨別力(= Z? Z)指標來分析被試對自我聲音的辨別能力。

對被試的正確率和反應時進行了2 (組別:患者組, 健康組) × 3 (聲音身份:自我, 同性他人, 異性他人)的重復測量方差分析, 對被試自我聲音識別的辨別力進行了獨立樣本檢驗的分析。

3.3.1 聲音識別的正確率

單通道聽覺識別任務正確率的分析結果顯示, 聲音身份識別的主效應顯著,(2, 57) = 23.71,< 0.001, partial η= 0.45, 所有被試對異性聲音識別(= 0.97, 95% CI0.95, 0.99)的正確率顯著高于自我(= 0.89, 95% CI0.86, 0.93)和同性的他人聲音(= 0.85, 95% CI0.80, 0.90); 自我聲音和同性聲音識別之間沒有顯著差異。組別的主效應不顯著,(1, 58) = 0.66,= 0.42。組別與聲音身份識別之間沒有顯著的交互作用,(2, 57) = 2.86,= 0.07, 具體見圖4(a)。

3.3.2 聲音識別的反應時

單通道聽覺識別任務反應時的分析結果顯示, 聲音身份識別的主效應顯著((2, 56) = 20.95,< 0.001, partial η= 0.43), 具體為被試對自我聲音識別的反應時(= 1071.93, 95% CI969.27, 1174.58)和異性他人聲音識別的反應時(= 1080.06, 95% CI996.23, 1163.89)顯著低于對同性他人聲音識別的反應時(= 1198.53, 95% CI1119.04, 1278.01), 自我聲音識別的反應時與異性他人聲音無顯著差異; 組別的主效應顯著((1, 57) = 43.54,< 0.001, partial η= 0.43), 患者組對聲音身份識別的反應時(= 1393.64, 95% CI1282.12, 1505.16)顯著高于健康組(= 840.03, 95% CI714.39, 965.67); 組別與聲音身份識別之間存在顯著的交互作用((2, 56) =15.13< 0.001, partial η= 0.35), 簡單效應分析發現, 患者組的自我聲音識別的反應時(= 1250.42, 95% CI1114.13, 1386.72)小于同性他人(= 1515.55, 95% CI1410.23, 1621.08)和異性他人(= 1414.94, 95% CI1303.65, 1526.24), 健康組對異性他人聲音識別的反應時(= 745.17, 95% CI619.78, 870.55)小于自我聲音(= 893.42, 95% CI739.88, 1046.97)和同性他人聲音(= 881.50, 95% CI762.61, 1000.39), 具體見圖4(b)。

圖4 不同類型被試單通道聲音識別任務的結果

注:圖(a)中正確率的結果為平均數, 豎線代表正確率的標準差; 圖(b)中反應時的結果為平均數, 豎線代表反應時的標準差, *< 0.05, **< 0.01, ***< 0.001。

3.3.3 自我聲音識別的辨別力

自我聲音辨別力的分析結果為, 患者自我聲音識別的辨別力與健康被試無顯著差異,(58) = 0.5,= 0.62。

3.4 討論

聽覺通道的聲音識別任務的結果表明, 精神分裂癥患者自我聲音的識別能力與健康被試沒有區別, 這與之前的自我和他人聲音識別的研究結果一致(Mingdi, Fumitaka, Ryu-Ichiro, & Hiroko, 2013; Conde, Gon?alves, óscar, & Pinheiro, 2018), 且患者在反應時結果上表現出對自我聲音有更快的反應。已有的研究表明, 聲音的音色就能反映個人的性別身份, 而不需要依賴音高或語義(Fellowes et al., 1997), 符合被試對異性聲音的識別好且快于同性聲音, 并且從結果看出, 所有被試都在異性他人聲音識別上有較好的表現, 說明精神分裂癥患者具有分辨異性聲音的能力。患者聲音身份識別的反應時均差于健康組, 這支持了以往對精神分裂癥患者自我?他人聲音加工異常的研究(Anouk, Prikken, & van Haren, 2015)。結合正確率、反應時和辨別力的結果, 認為精神分裂癥患者在單通道聽覺任務中具有自我聲音識別的能力, 并且能夠區分自我聲音和異性聲音。而健康被試的自我聲音和同性聲音識別的反應時慢于異性聲音識別的反應時可能是受到速度—準確性權衡的影響。

4 實驗3:視聽條件下的面孔對聲音識別的影響

從單通道的視覺和聽覺的自我識別任務結果可以看出, 精神分裂癥患者在單通道聽覺和視覺的自我身份識別上與健康被試無異。那么在雙通道的視聽任務中, 精神分裂癥自我面孔是否會影響到聽覺通道這一結果, 可進一步驗證精神分裂癥患者有自我面孔識別能力的假設。

4.1 實驗目的

在視聽整合任務中, 通過比較精神分裂癥患者和健康被試在不同面孔條件下對自我聲音、同性他人聲音和異性他人聲音識別任務中的差異, 分析精神分裂癥患者自我面孔對聲音識別的影響, 以證明患者自我面孔識別的能力。

4.2 實驗方法

4.2.1 被試

實驗3被試來自實驗1。

4.2.2 實驗材料

用Adobe premiere 視頻處理軟件將實驗1的視頻材料匹配上實驗2的音頻材料。在自我面孔、同性面孔(2位)和異性面孔(2位)條件下, 分別匹配了2位陌生同性聲音和2位陌生異性聲音和自我聲音, 每位被試共17個視頻。

4.2.3 實驗程序

視聽條件下聲音識別共有9種條件, 分別為自我面孔下的自我聲音、同性他人聲音和異性他人聲音, 同性面孔下的自我聲音、同性他人聲音和異性他人聲音, 異性面孔下的自我聲音、同性他人聲音和異性他人聲音, 每種條件為20個試次, 加上6個練習試次, 共有186個試次, 練習結束后隨機呈現。

實驗過程同實驗1和實驗2, 被試需要在看到視頻刺激之后判斷耳機中聽到聲音身份, 實驗流程圖見圖5。

圖5 實驗三單一試次流程圖

注:實驗開始屏幕中央呈現字號為36磅的黑色十字, 500 ms之后呈現有聲的視頻刺激, 被試按鍵反應之后進入實驗緩沖的空屏。

4.3 結果與分析

研究中練習實驗試次被排除。剔除了反應時超過3個標準差的反應試次(占總試次數的1.06%), 5名被試(3名患者正確率低于50%, 1名患者的反應時超過3000 ms, 1名健康被試正確率低于50%)的數據被剔除。

采用信號檢測理論中的辨別力(= Z? Z)指標來分析被試對不同面孔下自我聲音的辨別能力。

對被試的正確率和反應時進行了2 (組別:患者組, 健康組) × 3 (面孔身份:自我, 同性他人, 異性他人) × 3(聲音身份:自我, 同性他人, 異性他人)的重復測量方差分析。

對不同面孔下被試自我聲音的辨別力進行了2 (組別:患者組, 健康組) × 3 (面孔身份:自我, 同性他人, 異性他人)的重復測量方差分析。

為驗證自我面孔對精神分裂癥患者自我聲音識別的促進和對他人聲音的識別的抑制作用, 進一步對實驗2和實驗3的統計結果進行跨實驗的比較, 由于實驗3為雙通道任務, 其反應時和單通道實驗結果相比意義不大, 因此跨實驗的比較只對自我面孔條件下2 (組別:患者組, 健康組) × 2 (通道:聽覺通道, 視聽雙通道) × 3(聲音身份:自我, 同性他人, 異性他人)正確率進行重復測量方差分析。

4.3.1 視聽整合任務中聲音識別的正確率

視聽整合任務正確率分析結果顯示, 聲音身份識別的主效應顯著((2, 57) = 22.74,< 0.001, partial η= 0.44), 被試對自我聲音識別的正確率(= 0.8, 95% CI0.75, 0.85)低于同性他人(= 0.89, 95% CI0.85, 0.92)和異性他人(= 0.95, 95% CI0.93, 0.98); 組別的主效應顯著((1, 58) = 5.42,= 0.023, partial η= 0.09), 患者組對聲音身份識別的正確率(= 0.85, 95% CI0.81, 0.89)低于健康組(= 0.92, 95% CI0.87, 0.96); 不同面孔條件下聲音識別的主效應不顯著,(2, 57) = 2.29,= 0.11。組別與面孔之間無顯著的交互作用,(2, 57) = 0.92,= 0.40。組別與聲音身份識別之間無顯著的交互作用,(2, 57) = 1.51,= 0.23。面孔身份與聲音身份識別之間存在顯著的交互作用((4, 55) = 8.15,< 0.001, partial η= 0.37), 被試在自我面孔條件下自我聲音(= 0.94, 95% CI0.92, 0.96)和異性聲音識別的正確率(= 0.84, 95% CI0.89, 0.99)高于同性聲音識別的正確率(= 0.78, 95% CI0.70, 0.87), 同性他人面孔條件下同性聲音(= 0.96, 95% CI0.91, 0.98)和異性聲音識別的正確率(= 0.96, 95% CI0.93, 0.99)高于自我聲音識別的正確率(= 0.68, 95% CI0.60, 0.76), 異性他人面孔條件下同性聲音(= 0.94, 95% CI0.91, 0.98)和異性聲音識別的正確率(= 0.97, 95% CI0.95, 0.98)高于自我聲音識別的正確率(= 0.78, 95% CI0.70, 0.85), 組別、面孔身份和聲音身份之間的交互作用邊緣顯著((4, 55) = 2.51,= 0.052, partial η= 0.15), 具體見圖6。

4.3.2 視聽整合任務中聲音識別的反應時

視聽整合任務反應時分析結果顯示, 聲音身份識別反應時的主效應顯著((2, 52) = 22.49,< 0.001, partial η= 0.46), 被試對自我聲音識別的反應時(= 1020.92, 95% CI928.13, 1113.63)低于同性他人(= 1088.70, 95% CI1007.58, 1169.82), 對異性他人聲音識別的反應時(= 926.88, 95% CI895.81, 1029.95)低于自我聲音; 組別的主效應顯著((1, 53) = 36.94,< 0.001, partial η= 0.41), 患者組對聲音身份識別的反應時(=1254.22, 95% CI1151.85, 1356.59)大于健康組(= 794.11, 95% CI681.97, 906.26); 不同面孔條件下聲音識別的主效應不顯著,(2, 57) = 2.67,= 0.078。組別與不同面孔條件下的聲音識別之間無顯著的交互作用((2, 52) = 2.13,= 0.12), 組別與聲音身份識別之間有顯著的交互作用((2, 52) = 4.20,= 0.02, partial η= 0.14), 進一步分析得出, 患者在對同性聲音識別的反應時(=1313.18, 95% CI1203.80, 1422.56)大于自我聲音(= 1219.28, 95% CI1094.29, 1344.27)和異性聲音(= 1230.20, 95% CI1139.77, 1320.63); 面孔身份與聲音身份識別之間存在顯著的交互作用((4, 50) = 7.61,< 0.001, partial η= 0.38), 被試在同性他人面孔條件下對異性聲音識別的反應時(= 975.41, 95% CI902.40, 1048.41)小于自我聲音(= 1096.64, 95% CI990.8, 1203.21)和同性聲音(= 1077.12, 95% CI991.28, 1162.95), 異性他人面孔條件下同性聲音識別的反應時(= 1128.27, 95% CI1058.20, 1198.35)大于自我聲音(= 987.56, 95% CI901.18, 1073.96)和異性聲音識別的反應時(= 911.92, 95% CI833.21, 0.63), 組別、面孔身份和聲音身份之間沒有顯著的交互作用,(4, 50) = 0.95,= 0.44, 具體見圖7。

圖6 不同面孔條件下聲音識別任務的正確率

注:圖中正確率的結果為平均數, 豎線代表正確率的標準差, *< 0.05, **< 0.01, ***< 0.001。

4.3.3 視聽整合任務中聲音識別的辨別力

不同面孔條件下自我聲音辨別力的結果顯示, 不同面孔條件下自我聲音的辨別力有顯著的主效應((2, 57) = 8.70,= 0.001, partial η= 0.23), 自我面孔(= 3.13, 95% CI2.81, 3.45)和異性面孔條件下自我聲音的辨別力(= 2.96, 95% CI2.60, 3.32)好于同性面孔條件下(= 2.52, 95% CI2.15, 2.90); 組別的主效應顯著((1, 58) = 5.43,= 0.023, partial η= 0.09), 健康組對自我聲音的辨別力(= 3.22, 95% CI2.77, 3.66)好于患者組(= 2.53, 95% CI2.13, 2.90); 組別和面孔身份之間沒有顯著的交互作用,(2, 57) = 0.13,= 0.87。

4.3.4 聽覺和視聽整合的比較

跨實驗正確率比較的結果顯示, 自我面孔條件下, 聲音識別有顯著的主效應((2, 57) = 15.53,< 0.001, partial η= 0.35), 被試對自我聲音識別(= 0.92, 95% CI0.89, 0.94)的正確率高于同性他人聲音(= 0.82, 95% CI0.76, 0.87), 但低于異性他人聲音(= 0.96, 95% CI0.93, 0.99); 不同通道聲音識別無顯著的主效應,(1, 58) = 1.19,= 0.28; 組別無顯著主效應,(1, 58) = 1.19,= 0.28; 組別和面孔身份之間無顯著的交互作用,(1, 58) = 3.62,= 0.62。聲音身份和組別之間有顯著的交互作用((2, 57) = 4.06,= 0.02, partial η= 0.13), 進一步分析得出患者對自我聲音(= 0.92, 95% CI0.89, 0.95)和異性聲音(= 0.92, 95% CI0.88, 0.96)識別的正確率高于同性聲音(= 0.76, 95% CI0.69, 0.84); 通道和聲音身份之間有顯著的交互作用((2, 57) = 4.35,= 0.02, partial η= 0.13), 進一步分析得出視聽條件下的自我聲音識別正確率(= 0.94, 95% CI0.92, 0.96)要高于聽覺單通道下的自我聲音識別(= 0.89, 95% CI0.86, 0.93), 組別、通道和聲音身份之間沒有顯著的交互作用,(2, 57) = 0.86= 0.43, 具體見圖8。

4.3 討論

視聽整合任務中, 被試在三種面孔條件下進行了聲音識別任務, 自我面孔條件下, 患者在同性他人聲音識別準確度上明顯差于自我聲音識別和異性他人聲音識別, 自我聲音和異性聲音之間沒有差別, 但在單通道聽覺識別任務中, 患者對異性聲音識別的能力好于對自我聲音識別, 結合跨實驗的比較結果可以看出, 精神分裂癥患者在自我面孔條件下對自我聲音識別有一定的提升, 而對于同性他人和異性他人的聲音識別都變差了, 可能是患者在視聽整合中視覺通道的自我面孔影響了聽覺身份識別, 健康組被試在自我面孔條件下相比于單通道自我聲音識別能力提升, 這與之前的研究結果一致(Candini et al., 2014), 自我面孔促進了自我聲音的識別。在同性面孔和異性面孔條件下所有被試的自我聲音識別都受到了影響, 并且對異性聲音的識別和同性聲音識別之間沒有了差異, 這證明了視聽整合中面孔對聲音識別的影響(Peynircio?Lu et al., 2017), 這一點從自我聲音辨別力上也可看出, 面孔的確會影響自我聲音的辨別。在異性面孔條件下, 精神分裂癥患者自我聲音識別的能力差于健康被試, 這可能是患者受到異性面孔的干擾, 錯誤的拒絕了自我聲音。

圖7 不同面孔條件下聲音識別任務的反應時

注:圖中反應時的結果為平均數, 豎線代表反應時的標準差, *< 0.05, **< 0.01, ***< 0.001。

圖8 單通道和雙通道(自我面孔)條件下聲音識別任務的正確率

注:圖中正確率的結果為平均數, 豎線代表正確率的標準差, *< 0.05, **< 0.01, ***< 0.001。

5 總討論

自我面孔是自我意識最獨特的標志。通過對精神分裂癥患者自我面孔識別的研究, 能夠幫助人們更好地了解該疾病所導致患者自我意識的變化。本研究通過對精神分裂癥患者在不同通道下自我身份識別能力地探索, 共采用了單通道面孔識別任務、單通道聲音識別任務和不同面孔(自我、同性他人和異性他人)條件下聲音識別視聽整合任務驗證精神分裂癥有自我面孔識別的能力。實驗1探究精神分裂癥患者在動態面孔識別任務中自我面孔識別能力與健康被試的差異; 實驗2探究精神分裂癥患者在聲音識別任務中自我聲音識別能力與健康被試的差異; 實驗3在發現精神分裂癥患者有自我面孔識別能力的基礎上, 進一步通過自我面孔、同性他人面孔和異性他人面孔條件下進行聲音識別的視聽整合任務來證明精神分裂癥患者自我面孔的識別能力。結果發現, 精神分裂癥患者在視覺動態自我面孔識別的能力上與健康被試沒有區別, 在單通道聲音識別中表現出對自我聲音和異性聲音的加工優勢, 在視聽整合聲音識別任務中受到面孔的影響, 自我面孔促進自我聲音的識別, 抑制同性聲音和異性聲音的識別。他人面孔(同性+異性)抑制自我聲音的識別。

5.1 精神分裂癥的自我面孔識別特點

精神分裂癥自我面孔識別研究是對患者自我意識研究的重要組成。本研究發現了精神分裂癥自我面孔識別的能力與正常人一致, 支持了精神分裂癥患者能進行自我面孔識別的研究結果(Bortolon et al., 2016; Catherine et al., 2016)。Catherine (2016)等人對精神分裂癥患者面孔識別的過程進行了眼動追蹤, 精神分裂癥患者在對自我面孔加工過程中注視時間相對正常被試更長, 但是面部檢測的模式與正常人沒有區別, 證明了精神分裂癥患者有自我面孔識別的能力。盡管之前的一部分研究認為精神分裂癥患者可能會在識別自我和他人面孔時存在一定的困難, 但是最近的研究將這種面孔識別的困難解釋為認知缺陷, 可能是精神分裂癥患者的注意力和處理速度的缺陷而導致面孔識別異常(Hayley, Peterman, Sohee, Suresh, & Olivia, 2013; Bortolon et al., 2015)。精神分裂癥患者在進行面孔識別的過程中, 除了本身疾病導致的反應速度變慢以外, Bortolon等人(2015)認為患者面孔識別過程的時間較長可能是因為他們需要以此來對面部的細節進行加工, 從而形成準確的判斷。

本研究的自我面孔識別任務還發現了精神分裂癥患者在識別自我面孔的反應時間要快于同性他人和異性他人面孔。而以往的研究發現精神分裂癥患者識別性別面孔的能力和正常人沒有區別(Delerue, Vincent, Verfaillie, & Boucart, 2010), 那么, 在精神分裂癥患者能夠識別性別面孔的能力正常的基礎上, 對自我面孔加工的結果證明了精神分裂癥患者的自我面孔的加工優勢。

總的來看, 在視覺通道的動態面孔識別條件下, 精神分裂癥患者能夠區別自我面孔和他人面孔, 并且和正常人一樣, 對自我面孔有更快地反應。這種動態面孔似乎能從基礎上了解患者面孔識別的特點, 更具有生態效度, 也為精神分裂癥患者具有自我意識提供了一個方面的證據。

5.2 精神分裂癥的自我聲音識別特點

聲音識別的研究一直以來都是一項較為復雜的工作, 這是由于聲音的傳導分為骨傳導和空氣傳導, 傳導方式的多樣使得個體發出的聲音和聽到自己的錄音有一定的差異, 這也是很多人覺得錄制自己的聲音不像自己的原因(Maurer & Landis, 1990)。而精神分裂癥患者聲音識別的難度除了傳導方式導致的識別的困難外還有患者本身可能出現的較為常見的病理特征——幻聽的影響。實驗2的研究發現精神分裂癥患者同正常人一樣, 能夠區別自我聲音和異性聲音, 這與之前的某些研究結果不同(Stephane, Kuskowski, McClannahan, Surerus, & Nelson, 2010; Pinheiro, Rezaii, Rauber, & Niznikiewicz, 2016), 可能的原因是這些研究是在有幻聽癥狀的精神分裂癥患者和健康被試的比較中發現了自我?他人聲音加工異常, 并且有研究還在中性聲音的基礎上加入了情緒性的聲音或是情緒性的語義。Pinheiro等人(2017)所研究的語義效價對精神分裂癥患者辨別自我?他人聲音影響的結果發現, 雖然精神分裂癥患者在對自我和非我聲音處理的ERP結果上有差異, 患者在辨別消極詞匯的自我或非我聲音上對顯著(情緒或自我相關)刺激增強的LPP (late positive potential)的振幅都要小于健康被試, 但是患者對無論是自我還是非我聲音識別的準確性上同健康被試一樣高, 都達到了90%以上。本研究選取的被試是在住院治療后較為穩定的精神分裂癥患者, 幻聽經歷患者的癥狀有所減緩。不過, 患者識別自我聲音的能力雖然同健康被試沒有區別, 但是辨別的時間仍舊要長于健康被試, 并且患者拒絕同性他人聲音的能力較差, 這很可能受到之前幻聽經驗的影響。

此外, 精神分裂癥患者對于異性聲音識別的準確率和反應結果驗證了患者對聲音生物屬性的識別同健康被試無異。患者分辨異性聲音的正確程度甚至高出自我聲音, 正如前言中所提到的性別作為社會身份信息, 患者能夠又快又好的分辨, 也許能夠證明精神分裂癥患者在性別識別方面的社會功能并未受到疾病的影響。

本研究中, 對聲音材料的選取只是簡單的一個單音節字母, 這是考慮到有些患者只會方言而無法用普通話表達語音材料。根據Conde (2018)等人研究, 當聲音是單詞而不是簡單的發音時, 被試能更好的區別自我聲音, 精神分裂癥患者是否會在文本聲音材料中表現更好, 還需進一步的驗證。

5.3 精神分裂癥面孔識別對聲音識別的影響

精神分裂癥患者的某些癥狀被認為與聲音處理的異常有關(Woodruff et al., 1997), 但有對視聽整合的fMRI研究發現被試即使在面對不發聲而只有唇動的情況下, 大腦中處理聽覺性言語的顳上回仍舊被激活(MacSweeney et al., 2000), 證實了視覺信息對于聽覺認知的影響, 并且在對精神分裂癥患者視聽整合的研究中也發現, 患者對模糊視覺的辨別也是通過激活多感官結構來實現的(Surguladze et al., 2001)。本研究對精神分裂癥患者不同面孔條件下聲音識別的探索發現, 自我面孔條件下患者對同性他人聲音辨別的能力相比于健康被試較差, 與單通道聲音識別任務比較, 患者在自我面孔下對自我聲音識別的準確程度有所提高, 對同性他人聲音識別的準確性有明顯的降低, 對異性聲音識別的能力也有降低, 雖然對于自我聲音識別準確性的提高并不明顯, 但這有可能是在單通道聲音識別任務中患者自我聲音識別的能力已經同健康被試沒有差異且略高于健康被試, 不過患者在自我面孔條件下對自我聲音識別的速度仍舊快于對異性聲音的識別。異性聲音和同性聲音識別的速度沒有差異, 而單通道聲音識別條件下異性聲音識別的速度快于同性聲音識別, 表明異性聲音識別可能也受到了面孔的影響。精神分裂癥患者在視聽任務中自我面孔促進了其自我聲音的識別, 影響了他人聲音(同性+異性)的識別, 可能從另一方面佐證了精神分裂癥患者自我面孔識別能力的完好。

當面孔的條件變為同性面孔和異性面孔時, 可以看出患者對自我聲音識別的能力差于健康被試, 雖然健康被試在對自我聲音進行辨別的時候反應的時間增加了, 但是他們仍舊能夠做出正確的選擇, 精神分裂癥患者卻無法做到, 他們看見屏幕中的面孔為他人時, 即使耳機中播放了自己的聲音, 他們也會選擇這不是自己的聲音。精神分裂癥患者這種表現的原因除了其視聽整合可能的缺陷之外, 還有可能是精神分裂癥患者基于貝葉斯的推理過程出現問題所致, Jardri和Denève (2013)提出精神分裂癥患者的分層神經網絡中興奮與抑制之間的失衡會導致一種病理性因果推斷, 稱為循環信念傳播(circular belief propagation), 患者自上而下和自下而上的信息被不斷地回彈, 會產生之前的信念被誤認作直接的感官輸入。因此, 精神分裂癥患者可能會在視聽任務中根據所看到的面孔信息預測聽覺信息, 將這種預測作為自己真實聽到的聲音身份, 當對這種自上而下的信息選擇過度自信時, 患者看到他人面孔刺激, 會十分肯定聽到的聲音不屬于自己。精神分裂癥患者很難根據先驗的反饋來調整之后的選擇, 他們對于因果學習的結果似乎是不可動搖的(Jardri & Denève, 2013)。

研究中精神分裂癥患者在所有任務上的反應時都長于健康被試, 這也是精神分裂癥患者的一種常見病理特征, 患者們由于長期服用神經阻滯劑類藥物, 產生了許多方面的副作用, 其中就有如急性肌張力不全等對神經系統方面的影響(Schatz, 1998), 致使患者反應變慢, 這是精神分裂癥患者研究中常見的一種額外變量。

6 結論

本研究發現在視覺通道條件下, 精神分裂癥患者有自我面孔識別的能力; 在聽覺通道條件下, 精神分裂癥患者有自我聲音識別的能力; 在視聽雙通道條件下, 視覺通道自我面孔的主導效應超過正常人, 即自我面孔促進了自我聲音識別, 抑制了對他人聲音的識別, 乃至會更多地將他人聲音虛報為自我聲音, 驗證了精神分裂癥患者有自我面孔識別的能力。此外, 在視聽雙通道條件下, 同性面孔和異性面孔都抑制了自我聲音的識別。

致謝:本文的英文摘要部分得到了西北師范大學Nicole L. Ross老師的支持, 特此鳴謝。

Adduri, C. A., & Marotta, J. J. (2009). Mental rotation of faces in healthy aging and Alzheimer's disease.(7), e6120.

Anouk, V. D. W., Prikken, M., & van Haren, N. E. M. (2015). Self-other integration and distinction in schizophrenia: A theoretical analysis and a review of the evidence., 220–237.

Arnal, L. H., Morillon, B., Kell, C. A., & Giraud, A. L. (2009). Dual neural routing of visual facilitation in speech processing.(43), 13445–13453.

Blank, H., Anwander, A., & Kriegstein, K. V. (2011). Direct structural connections between voice- and face-recognition areas.(36), 12906–12915.

Bortolon, C., Capdevielle, D., & Stéphane, R. (2015). Face recognition in schizophrenia disorder: A comprehensive review of behavioral, neuroimaging and neurophysiological studies., 79–107.

Bortolon, C., Capdevielle, D., Altman, R., Macgregor, A., Attal, J., & Raffard, S. (2017). Mirror self-face perception in individuals with schizophrenia: Feelings of strangeness associated with one's own image.,, 205–210.

Bortolon, C., Capdevielle, D., Salesse, R. N., & Raffard, S. (2016). Further insight into self-face recognition in schizophrenia patients: Why ambiguity matters., 215– 222.

Calvert, G. A., Hansen, P. C., Iversen, S. D., & Brammer, M. J. (2001). Detection of audio-visual integration sites in humans by application of electrophysiological criteria to the bold effect.(2), 427–438.

Candini, M., Zamagni, E., Nuzzo, A., Ruotolo, F., Iachini, T., & Frassinetti, F. (2014). Who is speaking? Implicit and explicit self and other voice recognition., 112–117.

Catherine, B., Delphine, C., Salesse, R. N., & Raffard Stéphane. (2016). Self-face recognition in schizophrenia: An eye-tracking study.

Conde, T., Gon?alves, óscar, F., & Pinheiro, A. P. (2018). Stimulus complexity matters when you hear your own voice: Attention effects on self-generated voice processing., 66–78.

de, G. B., Vroomen, J., Annen, L., Masthof, E., & Hodiamont, P. (2003). Audio-visual integration in schizophrenia.(2–3), 211–218.

Delerue, C., Laprévote, V., Verfaillie, K. & Boucart, M. (2010). Gaze control during face exploration in schizophrenia.(3), 245–249.

Fellowes, J. M., Remez, R. E., & Rubin, P. E. (1997). Perceiving the sex and identity of a talker without natural vocal timbre.(6), 839–849.

Graux, J., Gomot, M., Roux, S., Bonnet-Brilhault, F., & Bruneau, N. (2015). Is my voice just a familiar voice? An electrophysiological study.(1), 101–105.

Graux, J., Gomot, M., Roux, S., Bonnet-Brilhault, F., Camus, V., & Bruneau, N. (2013). My voice or yours? An electrophysiological study.(1)72–82.

Hayley, D., Peterman, J. S., Sohee, P., Suresh, S., & Olivia, C. (2013). Are patients with schizophrenia impaired in processing non-emotional features of human faces?.

Hur, J. W., Kwon, J. S., Lee, T. Y., & Park, S. (2014). The crisis of minimal self-awareness in schizophrenia: A meta- analytic review.,(1), 58–64.

Jardri, R., & Denève, S. (2013). Circular inferences in schizophrenia.(11), 3227–3241.

Joassin, F., Maurage, P., & Campanella, S. (2011). The neural network sustaining the cross-modal processing of human gender from faces and voices: An fMRI study.(2), 1654–1661.

Jr, G. G. (1970). Chimpanzees: Self-recognition.(3914), 86–87.

Keenan, J. P., Mccutcheon, B., Freund, S., Gallup, G. G. & Pascual-Leone, A. (1999). Left hand advantage in a self-face recognition task.(12), 1421–1425.

Lee, J., Kwon, J. S., Shin, Y. W., Lee, K. J., & Park, S. (2007). Visual self-recognition in patients with schizophrenia.(1-3), 215–220.

MacSweeney, M., Amaro, E., Calvert, G. A., Campbell, R., David, A. S., McGuire, P., ... Brammer, M. J. (2000). Silent speechreading in the absence of scanner noise: An event-related fMRI study.(8), 1729–1733.

Maguinness, C., & Kriegstein, K. V. (2017). Cross-modal processing of voices and faces in developmental prosopagnosia and developmental phonagnosia.(4–6), 644–657.

Martin, B., Giersch, A., Huron, C., & van Wassenhove, V. (2013). Temporal event structure and timing in schizophrenia: Preserved binding in a longer “now”.(2), 358–371.

Maurer, D., & Landis, T. (1990). Role of bone conduction in the self-perception of speech.(5), 226–229.

McGurk, H., & MacDonald, J. (1976). Hearing lips and seeing voices(5588), 746–748.

Mingdi, X., Fumitaka, H., Ryu-Ichiro, H., & Hiroko, H. (2013). Acoustic cues for the recognition of self-voice and other-voice..

Mishler, A., & Neider, M. (2016). Evidence for the redundant signals effect in detection of categorical targets.(12), 1024–1024.

Moe, A. M., & Docherty, N. M. (2014). Schizophrenia and the sense of self.(1), 161–168.

Parker, S. T., Mitchell, R. W., & Boccia, M. L. (Eds.). (1994).New York: Cambridge University Press.

Pearl, D., Yodashkin-Porat, D., Katz, N., Valevski, A., Aizenberg, D., Sigler, M., … Kikinzon, L. (2009). Differences in audiovisual integration, as measured by mcgurk phenomenon, among adult and adolescent patients with schizophrenia and age-matched healthy control groups.(2), 186–192.

Peng, X., Chang, R., Ren, G., Wang, A., & Tang, X. (2018). The interaction between exogenous attention and multisensory integration.(12), 2129–2140.

[彭姓, 常若松, 任桂琴, 王愛君, 唐曉雨. (2018). 外源性注意與多感覺整合的交互關系.(12), 2129–2140.]

Peynircio?Lu, Z. F., Brent, W., Tatz, J. R., & Wyatt, J. (2017). Mcgurk effect in gender identification: Vision trumps audition in voice judgments.(1), 59–68.

Pinheiro, A. P., Rezaii, N., Rauber, A., & Niznikiewicz, M. (2016). Is this my voice or yours? the role of emotion and acoustic quality in self-other voice discrimination in schizophrenia.(4),335–353.

Pinheiro, A. P., Rezaii, N., Rauber, A., Nestor, P. G., Spencer, K. M., & Niznikiewicz, M. (2017). Emotional self-other voice processing in schizophrenia and its relationship with hallucinations: ERP evidence.(9), 1252–1265.

Sass, L. A., & Parnas, J. (2003). Schizophrenia, consciousness, and the self.(3), 427–444.

Schatz, J. (1998). Cognitive processing efficiency in schizophrenia: Generalized vs domain specific deficits.(1), 41–49.

Seiferth, N. Y., Baar, S., & Schwabe, R. (2007). Self-face recognition in schizophrenia.(1-3), 264–272.

Stephane, M., Kuskowski, M., Mcclannahan, K., Surerus, C., & Nelson, K. (2010). Evaluation of speech misattribution bias in schizophrenia.(5), 741–748.

Stone, D. B., Coffman, B. A., Bustillo, J. R., Aine, C. J., & Stephen, J. M. (2014). Multisensory stimuli elicit altered oscillatory brain responses at gamma frequencies in patients with schizophrenia.

Surguladze, S. A., Calvert, G. A., Brammer, M. J., Campbell, R., Bullmore, E. T., Giampietro, V., & David A. (2001). Audio-visual speech perception in schizophrenia: An fMRI study.(1), 1–14.

Uddin, L. Q., Davies, M. S., Scott, A. A., Eran, Z., Bookheimer, S. Y., & Marco, I. (2008). Neural basis of self and other representation in autism: An fMRI study of self-face recognition.(10), e3526.

von Kriegstein, K., Dogan, O., Gruter, M., Giraud, A. L., Kell, C. A., Gruter, T., … Kleinschmidt, A. (2008). Simulation of talking faces in the human brain improves auditory speech recognition.(18), 6747–6752.

White, T. P., Wigton, R. L., Joyce, D. W., Tracy, B., Christian, F., & Nisha, W., … Shergill, S. S. (2014). Eluding the illusion? Schizophrenia, dopamine and the mcgurk effect.,565.

Woodruff, P. W., Wright, I. C., Bullmore, E. T., Brammer, M., Howard, R. J., … Williams, S. C. (1997). Auditory hallucinations and the temporal cortical response to speech in schizophrenia: A functional magnetic resonance imaging study.(12), 1676– 1682.

Zhang, L., Zhu, H., Xu, M., Jia, H. X., & Liu, J. (2012). Selective impairment in recognizing the familiarity of self faces in schizophrenia.(15), 1818–1823.

Looking for the lost self: Self-face recognition in schizophrenics

ZHOU Aibao; XIE Pei; PAN Chaochao; TIAN Zhe; XIE Junwei; LIU Jiong

(School of Psychology, Northwest Normal University; Lanzhou 730070, China) Key Laboratory of Behavior and Mental Health, Gansu Province, Lanzhou 730070, China) Tian Shui Third People's Hospital, Tianshui 741099, China)

lf-face recognition of patients with schizophrenia has always been a controversial topic. Different opinions exist about whether patients with schizophrenia have the ability of self-face recognition. One theory holds that the ability to recognize one’s own face is impaired in patients with schizophrenia, whereas others assert that the ability to process one’s face is intact. The most recent studies on self-face recognition in patients with schizophrenia are only based on visual self-face recognition. Therefore, in addition to using self-face recognition of a single modality, the audiovisual integration task may become a new way to explore schizophrenics’ self-face recognition.

In the present study, 34 patients with schizophrenia and 26 participants without schizophrenia were assigned to complete a dynamic single-modality self-face recognition task, self-voice recognition task, and audiovisual integration task. Experiment 1 was a 2 (participant type: schizophrenic, participants without schizophrenia) × 3 (face type: self, same gender, opposite gender) within-groups design. Experiment 2 was a 2 (participant type: schizophrenic, participants without schizophrenia) × 3 (voice type: self, same gender, opposite gender) within-groups design. Experiment 3 was a 2 (participant type: schizophrenic, participants without schizophrenia) × 3 (face type: self, same gender, opposite gender) × 3 (voice type: self, same gender, opposite gender) within-groups design, which aimed to explore the influence of participants’ self-face recognition on voice recognition in the audiovisual integration task.

Results showed that: 1) There was no significant difference in self-face recognition between patients with schizophrenia and participants without schizophrenia, and patients with schizophrenia could recognize their faces; 2) In self-voice recognition, there was no significant difference between patients with schizophrenia and participants without schizophrenia, and the ability of self-voice recognition in patients with schizophrenia was better than the voice recognition of others; 3) In the audiovisual integration task, voice recognition in patients with schizophrenia could be influenced by faces. There was no significant difference between patients with schizophrenia and participants without schizophrenia in the ability to recognize their own voices and self-face recognition. However, the ability of patients with schizophrenia to recognize voices of the same gender and opposite gender was not as good as that of participants without schizophrenia. Faces of the same and opposite gender could influence self-voice recognition.

It was found that patients with schizophrenia have the ability of self-face recognition and self-voice recognition. In the audiovisual integration task, faces could affect voice recognition, and self-face recognition could promote self-voice recognition but inhibit the recognition of other voices, including the same and opposite gender’s voices. Thus, using the approach of the audiovisual integration, it could be proved that the ability of self-voice recognition of patients with schizophrenia is intact.

self-face recognition; self-voice recognition; audio-visual integration; face dominance effect

2019-04-19

* 國家自然科學基金地區項目(31660281、31860285)資助。

周愛保和謝珮為共同第一作者。

周愛保, E-mail: zhouab@nwnu.edu.cn; 潘超超, E-mail: chaochaopan_nwnu@163.com

R395; B842

10.3724/SP.J.1041.2020.00184

猜你喜歡
精神分裂癥實驗
記一次有趣的實驗
微型實驗里看“燃燒”
阿立哌唑與利培酮在難治性精神分裂癥治療中的應用
做個怪怪長實驗
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
五行音樂療法對慢性精神分裂癥治療作用的對照研究
松弛治療對青少年精神分裂癥干預的效果觀察
利培酮治療精神分裂癥22例臨床觀察
腦爾新膠嚢治療精神分裂癥的初步臨床觀察
主站蜘蛛池模板: 伊人久热这里只有精品视频99| 99热这里只有免费国产精品| 国产高颜值露脸在线观看| 在线免费观看a视频| 亚洲大尺码专区影院| 日韩小视频在线观看| 国产在线观看高清不卡| 欧美色综合网站| 精品黑人一区二区三区| 国内精品自在自线视频香蕉| 国产小视频在线高清播放| 国产精品一区在线观看你懂的| 亚洲无线观看| 日韩123欧美字幕| 伊人久久青草青青综合| 成人蜜桃网| 麻豆精品在线视频| 夜夜拍夜夜爽| 九色在线观看视频| 欧美精品在线观看视频| 国产欧美在线观看精品一区污| 中文成人无码国产亚洲| 天堂网亚洲系列亚洲系列| 97在线公开视频| 欧美专区在线观看| 久久精品一卡日本电影| 成人伊人色一区二区三区| 国产人在线成免费视频| 中文字幕1区2区| 91久久夜色精品国产网站| 亚洲综合久久成人AV| 精品国产免费人成在线观看| 国产乱人视频免费观看| 伊人久久久久久久久久| 2020精品极品国产色在线观看| 久久黄色影院| 99热国产这里只有精品9九| 亚洲香蕉伊综合在人在线| 亚洲成人网在线播放| 2020最新国产精品视频| 亚洲精品无码AⅤ片青青在线观看| 亚洲精品自在线拍| 午夜影院a级片| 亚洲视频二| 国产男女XX00免费观看| 亚洲综合狠狠| AV在线麻免费观看网站 | 中文字幕有乳无码| 国产91麻豆免费观看| 亚洲有无码中文网| 国产欧美日韩免费| 91激情视频| 中文字幕在线看| 国产粉嫩粉嫩的18在线播放91| 亚洲国产精品不卡在线| 国产男女免费完整版视频| 免费人成网站在线观看欧美| 欧美激情综合一区二区| 91色国产在线| 一本久道久久综合多人| 色综合婷婷| 内射人妻无码色AV天堂| 国产在线98福利播放视频免费 | 亚洲VA中文字幕| 亚洲天堂视频网站| 特级做a爰片毛片免费69| 成人国产免费| 成年看免费观看视频拍拍| 亚洲综合香蕉| 亚洲毛片网站| A级全黄试看30分钟小视频| 97视频在线精品国自产拍| 成人欧美在线观看| 国产福利微拍精品一区二区| 狠狠色综合久久狠狠色综合| 免费无码AV片在线观看国产| 丝袜美女被出水视频一区| 日韩AV手机在线观看蜜芽| 国产高清在线丝袜精品一区 | 亚洲成在线观看 | 久久动漫精品| 亚洲日本中文综合在线|