張昌盛
(中國社會科學院 哲學研究所, 北京 100732)
智能機器人是人工智能(artificial intelligence,簡稱AI)在日常生活場景中的重要應用類型之一,對未來人類生活的意義重大。從某種角度而言,長久以來人們所期盼的類人的、具有高度智能的機器人集中代表了人類對AI的終極夢想。智能機器人最終能模仿人到什么程度,或者說智能機器人的逼真度究竟能夠達到什么高度?這很大程度上可以看作是對未來人工智能的極限問題的另一種提法。智能機器人的逼真度問題會引出一個與智能機器人密切相關的基本理論——恐怖谷理論??植拦壤碚摫緛硎顷U述高逼真度的智能機器人會引發的人類的一系列特別的感受和審美體驗,但在更深刻的層面,它指向了智能機器人及AI所能達到的極限。本文以恐怖谷理論為切入點,探討智能機器人的逼真度和未來AI的可能限度問題。
自20世紀50年代人工智能產生以來,關于智能機器人的設想就引起了學者的思考并進入了大眾的視野。人們關于智能機器人有很多種思考角度,恐怖谷理論則是從人類的感受和審美體驗的角度談論人類和智能機器人之間的關系。
在AI產生之后,人們就期望制造出具有類似于人的智能和行動能力的機器人,可以承擔很多人類的工作,甚至這些機器人也會具有類似于人類的思維、情感和價值,成為人類生活的重要成員。后來,西方產生了很多具有影響力的機器人主題的科幻小說和科幻電影,核心問題是探討人類和機器人之間的關系。
過去幾十年,國際科技界一直有人在努力研發高仿真機器人,尤其是日本科技界投入了極大的智力和財力資源進行機器人研發,雖然取得了很大進步,但多次陷入停滯狀態,迄今距離目標依然很遙遠。這主要是因為數十年來AI科技進展緩慢。
2010年左右,隨著辛頓(Hinton)等在深度學習算法領域中的重要突破, AI科技才重獲新生,隨之而來的是新一代人工智能技術研究和產業的爆發式發展?,F在的機器學習算法,成為人工智能的主流,在人類認知的圖像識別、自然語言、機器翻譯、自動駕駛等領域不斷取得進步,讓人們看到人工智能的大規模產業化乃至引發新的產業革命的前景。AI機器人可以為人類的生活和工作提供很多全新的重要輔助工作,甚至在很多場景中替代很多原先由人類承擔的工作和服務。
很多人期待,在不久的將來,具有高度智能的機器人能夠在人類日常生活中扮演重要角色,例如承擔家務、看護等工作,甚至可以充當聊天、陪伴的伴侶,機器人不僅可以模擬人的思維、行為能力,而且可以具有類似于人的行為舉止、言說談吐、姿態表情(強人工智能者認為機器人還可以具有類似于人的情緒及情緒表達)。
未來的高仿真機器人能夠達到什么程度,很大程度上要回溯到人工智能的極限到底在哪里這個問題。數十年來,很多參與和關注人工智能領域的科學家、哲學家一直就這個問題爭論不休。AI的極限問題不僅涉及到前沿技術和基礎科學問題,更涉及到對意識、腦和人等問題的基本哲學立場和基本觀點層面的爭論。
這里最基本的問題就是對心智、意識和計算之間關系的看法。早在18世紀,法國哲學家拉·梅特里就提出著名的命題“人是機器”[1]?,F在人工智能又把這個問題推到了新的階段:即心智的本質是不是算法?人和智能機器有沒有本質區別?20世紀50年代以來,立足于功能主義的科學家和哲學家如圖靈、丘奇等主張心智的本質就是計算,大腦就是計算機,因此計算機可以模擬人腦,而且可以由電腦的軟硬件模擬出一種類似于人類的、人工的意識;另外,立足聯結主義的科學家和哲學家則主張大腦并非計算機,意識也不能歸約為符號計算的算法,但他們主張可以模擬大腦來發展人工智能。
現在看來,這個問題并非可以簡單回答,最終要由人工智能、認知科學以及現象學等科學、哲學來聯合解答。
數十年來,人們關于智能機器人有多種思考角度,恐怖谷理論則是從人類的感受和審美體驗的角度論述人類和智能機器人之間的關系。
1970年日本機器人專家森昌弘在經過大量關于機器人的田野調查基礎上撰寫了短文《恐怖谷》,闡述了恐怖谷理論。森昌弘文中的“恐怖谷效應”是一個關于人類對機器人和非人類物體的感覺的假設?!翱植拦取边@個名詞最初來自Ernst Jentsch于1909年的論文《恐怖谷心理學》,1919年弗洛伊德在論文《恐怖谷》中進行了進一步闡述。森昌弘的恐怖谷理論則把恐怖心理學理論引進到機器人領域,成為AI領域的一個重要問題。
森昌弘認為:“當機器人與人類相像超過95%的時候,由于機器人與人類在外表﹑動作上都相當相似,所以人類亦會對機器人產生正面的情感。直至到了一個特定程度,他們的反應便會突然變得極之反感。哪怕機器人與人類有一點點的差別,都會顯得非常顯眼刺目,讓整個機器人顯得非常僵硬恐怖,讓人有面對行尸走肉的感覺。人形玩具或機器人的仿真度越高人們越有好感,但當超過一個臨界點時,這種好感度會突然降低,越像人越反感恐懼,直至谷底,稱之為恐怖谷??墒?,當機器人的外表和動作和人類的相似度繼續上升的時候,人類對他們的情感反應亦會變回正面,貼近人類與人類之間的移情作用。”(1)百度百科.恐怖谷.https://wapbaike.baidu.com/item/%E6%81%90%E6%80%96%E8%B0%B7%E7%90%86%E8%AE%BA?adapt=1.

圖1 恐怖谷函數圖
從圖1的曲線可知,所謂恐怖谷與人造物的外形、動作的逼真度直接相關;在恐怖谷的范圍內,相比而言,在同樣的逼真程度下,機器人在動態時比靜態時更讓人感到恐怖。
對“恐怖谷效應”的相關問題在學界有種種闡釋,如艾斯·薩伊琴(Ayse Saygin)認為其是由感知錯亂引起的,“人的大腦會預先根據觀察對象的外表預測對方可能的動作。而發現一個外表像人,走路卻像機器人的物體時,這會超出大腦的預期,產生錯亂”[2]。心理學家科特·格雷(Kurt Grey)等的研究表明,機器人“擁有感情”的特質最令人感覺不安,這是因為我們在類人機器人身上看到了人類情感的影子,但我們卻無法理解這樣的情感[3]129。
恐怖谷理論發布之后,在機器人制造等行業產生了廣泛的影響,人們設計產品時盡量設法遠離恐怖谷區域,以免讓人產生不適感。在后來的電影、動漫、漫畫以及電子游戲等制作中,人們也盡量使卡通人物在外形上減少人類的特征,以免墮入恐怖谷陷阱。
近日,德國的神經科學家Pütten等在《神經科學雜志》(JournalofNeuroscience)上發表文章稱,已經確定了大腦內部的機制有助于解釋恐怖谷效應是如何發生的。他們在研究時發現內側前額葉皮層的兩個不同部分對恐怖谷非常重要,“其中一部分將人類感的信號轉換為‘人類探測’信號,該區域的活動過度強調了人類和非人類刺激之間的界限——對人類的反應最為強烈,而對非人的反應則要弱得多。第二部分,腦內側前額葉皮質(VMPFC),將這一信號與可愛度評估相結合,產生了一種與恐怖谷反應密切匹配的獨特活動模式”。他們的研究驗證了恐怖谷理論,“我們驚訝地發現,腹內側前額葉皮質對類人機器人的反應就像恐怖谷假說預測的那樣,對更像人類的因素反應更強烈,但隨后在接近人類/非人類邊界的地方——即典型的‘山谷’——活動就會出現下降”[4]。
Pütten等的研究發現,恐怖谷效應的強度存在個體差異[4],因此沒有一種機器人設計能適合所有用戶,或者從另一個角度說,沒有一種機器人讓所有人害怕。
由現象學角度分析恐怖谷效應,需要解決如下3個方面的問題:
(1)主體關于機器人的經驗是如何構成的
從現象學的角度看,我們所認知的外在存在有兩種類型:一種是關于外在對象和事物的認知,另一種是關于對其他主體的認知。這兩類認知所具有的共性都是基于主體的意向性構成,其顯現的結構也都是由直觀顯現和非直觀的共現兩個方面組成,主體對對象的感知都有主題化和非主題化兩種方式。通常大多數的直觀中,對象的正面被我們感知,但是還有一部分并未直接顯現,而是以“共現”的方式間接為我們把握,也就是我們通常只是直觀到對象的某些面或部分,但我們的意識把它構成為一個對象整體。當然,由于大多數感知并非被完全充實地直觀,因此總是有部分錯誤的可能性。這兩類認知方式的差異在于:對于外部對象的認知是一種客體化行為,而對于其他主體的認知則包含著對身體、動作和表情等的客體化認知,同時也有非對象化把握的部分,會把他人的身體、動作、表情認知為不同于自我的其他主體的一部分,而不是看作像自然物一樣的、非生命的客觀對象。在更原初的層面,我們不僅以主體間性的方式把握他者的外形、語言和動作,而且把對象認知為主體間性顯現的客體。
(2)恐怖谷效應是如何產生的
我們對一個機器人的感知也是首先把握了其外形或行為的一部分,而意識在某些情況下會自發地把它構成一個具有完整的外形或連續的行為的對象的部分顯現。當機器人的外形或者行為的逼真度達到某種高度時,我們的意識會把它把握為類似自我的智能行動者(intelligent agent)。隨著智能機器人的逼真度由低到高,我們的意向構成方式在逼真度的某一節點處會出現一個根本性的轉換,即由對對象的構成方式轉變為對他者主體的構成方式。這種意向構成方式的自發轉換,是由于前述的感覺錯亂造成的。
我們對他者的具體的意向構成包含很多配對、移情的意識構成形式,這些方式依賴以往的具體經驗。這種意向構成的內在視域具有整體性,是由對象的類型上的先天確定性所決定的。因此,雖然對象只是部分被直觀,意向構成原則上是可錯的,但主體對對象內在視域的整體把握引導著對對象的進一步意向構成和直觀充實的方向,避免意向構成發生類型錯亂和部分之間的內在沖突。但同時,以往的具體經驗和意識模式也會參與和干擾意向構成過程:我們的意向構成會參雜著以往的經驗、判斷和信念,如果不進行現象學式的懸置,這些自然態度下的經驗會以聯想、類比、猜測的方式夾雜在我們的具體經驗中,那錯誤更難以避免。因此,在機器人的外形、語言及動作逼真度達到某種高度時,意識會具有一種自發地把它們類人主體的傾向。但由于機器人和人的類型上的先天性差異性,在對機器人的具體的認知中,主觀上認知他者的期望和預判導致對機器人的認知由客體對象構成模式轉換為他者主體構成模式;同時,由于主體和機器人的內在視域類型的差異性,這種對他者主體的經驗的構成會遭遇阻礙,導致該經驗的內在統一性、整體性無法達成,即對機器人的經驗產生自我沖突,也就是造成感知錯亂。進而,這種怪異的感知把機器人經驗為怪異的、類型上陌生的、未知的他者,由此產生恐懼感。
當機器人的逼真度進一步提高,和人的相似度達到極高的程度時,至少從外表上,機器人和人在客體化直觀中被構成類似于人的主體,類型上的差異性在某種程度上被克服,這個時候不適感、恐懼感消失。但這種相似性總是局部的、相對的,而某些方面細節的差異是難以克服的。例如主體的身體、表情和動作都是具身性的,是精神的一種外在表達,這種具身性表達往往是智能機器人無法模擬的。
(3)機器人的哪些方面的高逼真性可以引起恐怖谷效應
如上所述,當主體試圖以經驗他者主體的方式去認知機器人時,就會因感知錯亂引起恐怖感受??梢?,機器人的逼真性不限于外表和動作這些表象的層面,凡是類似于人的外形、思維、語言、表情、姿態、情緒、行為等諸多方面,都可以作為逼真性的內容范圍。森昌弘的逼真度概念受限于當時的AI科技的發展水平,主要是涉及機器人的外形和動作兩個方面,可稱之為狹義的逼真度概念??梢栽O想,未來的智能機器人可以模仿人類的內容,不僅體現在范圍廣泛而全面,更體現在它可能能夠模擬人的最內在的層面,包括模仿人的思維、語言、表情、情緒等。因此,我們可以在森昌弘的狹義逼真度概念的基礎上提出廣義的逼真度概念,即機器人在思維方式、語言表述、情感表達、情緒以及日常行為等多方面和人類的相似性??梢栽O想,這些涉及人類精神性的方面綜合起來后所能引起的情感錯亂的程度和恐怖谷效應的程度,應該遠非以前的機器人的外表和動作所可比擬的。未來的機器人將會是對人類從身體、語言、行為、情緒等方面更為全面、綜合和深入的模仿。因此,恐怖谷理論的原圖(圖1)將會隨著AI科技的發展和逼真度概念的擴展而不斷地被改進修正,圖中的“恐怖谷”的“谷底”應該會更深、兩側“谷壁”會更加陡峭。
因此,對于未來智能機器人可能達到的逼真性程度以及是否能夠跨越“恐怖谷”等問題的追問,必然會導向追問未來AI科技所能達到的深度和廣度的問題,即未來人工智能所能達到的智力和功能將在何種程度上或哪些方面能夠逐漸逼近乃至超越人類的智力和功能?
未來可實現的智能機器人能達到什么程度?這取決于AI的算法可以模擬的范圍,因為AI的智能基于算法。如果要讓機器人模仿人類的思維、認知、語言、行為、姿態、表情乃至情緒,前提是AI的算法可以模擬人的認知、語言和行為等方面。這意味著可以把人類的這些認知、言談及行為理解為本質上是一種基于種種軟件和硬件的生物計算。要實現未來的高仿真機器人的類人的基本功能,AI科技面臨的核心難題是如何解決智能算法問題。
下面本文將從功能主義、聯結主義、生物自然主義以及現象學等多個角度來考量未來人工智能可能達到的程度以及所需要的條件。
這里首先會遇到的問題是:智能和意識可以被歸結為自然的因素和規律的產物嗎?
按照自然主義的立場,答案是肯定的。自然主義認為一切事物都可以歸為基礎本體層面和與主體相關的層面。所謂基礎本體層面是物理層面,人在最基礎層面是作為自然世界的一部分,人的身體包括大腦屬于所謂自然的基礎本體的層面,人的包括意識、語言、文化、價值等在內的與主體相關的層面是奠基于自然本體的層面。在物理主義看來,宇宙是完全由物理規律支配的,是物理上封閉的宇宙,沒有非物理的心靈因素可以參與到物理世界的因果過程中。因此,一切生命過程包括人的意識、智能都是基于物理和生物規律的。
而從非物理主義的角度看,人的意識現象具有獨立性,不能被完全歸約為物理、生物的因素和規律。最典型的非物理主義是二元論,認為身心是兩種不同類型的實體或者屬性。
從現象學角度看,人的智能是具身性主體的功能,因此與意識、大腦乃至身體有關,但意識是產生智能的核心因素,而意識并不能歸約為大腦,甚至意識并非自然的產物,意識現象也超出了物理和生物的規律。歸根結底,人的意識乃至整個人的存在模式都不能被歸約為自然因素和規律的產物,而是由精神性的動機引發機制驅動的。因此,智能與意識、腦、身體相關,但并不能歸結為生物學層面。
第二個問題隨之而來:認知科學或者生命科學能夠系統、準確地揭示人類的智能乃至意識的本質和運作機制嗎?
按照物理主義,意識現象不具有獨立的本體論地位,具有隨附性,乃是物理現象和性質的表現形態。按照功能主義,基于硅基硬件和軟件的算法,計算機可以模擬出意識。按照自然主義,既然意識、智能根本上是生物現象,遵循生物學原理和物理規律,在原則上,神經生物學或者整個生命科學等自然科學可以揭示這些關于人的智能和意識的客觀事實和規律。而按照非物理主義,意識現象具有獨立的本體論地位,不能規約為物理和生物現象,意識的特性及規律并非自然科學可以揭示的。
現象學認為,既然意識不等同于腦,主體并不等同于身體,因而自然科學基于物理和生理層面的研究進路是無法揭示意識的本質和運作機制的。現象學并不關注大腦及身體的生理物理運行機制,但依據本質直觀方法,以描述的方式揭示意識的本質特性和運行機制。因此,未來的AI研究除了基于腦科學之外,還可以從現象學的意識研究中獲取啟發。
第三個問題是:關于人的這些生物事實和生物規律乃至意識,都可以歸結為算法嗎?
按照塞爾的看法,算法是與主體性相關的,“計算在本質上并不是一種像消化或者光合作用那樣的內在過程,而只是相對于為這種物理學提供一種計算性解釋的某智能體才會存在。結果是,計算并不是自然所固有的,而是相對于觀察者或使用者而言的”[5]9。從理性的人的角度看,不僅計算機有算法,一切自然現象當中都包含算法,因此大腦乃至身體的運作模式都是基于某一類生物的算法。
從非物理主義角度看,意識超出了物理規律的范圍,也無法形式化,不能被歸約為計算機的算法。
從現象學的角度看,意識不僅有高級的推理、抽象等理性思維形式,還有更基本的感性論層面[6],而后者是無法完全被形式化地刻畫的,此外還有更為原初的、前謂詞的、非對象性的層面均無法被對象化地表征;另外,心智具有具身性,身心是主體的不可分割的整體,因此很多具身性的意識現象和非對象性的身體現象并不能被符號表征,因而不能歸約為算法。
問題在于,即便退一步而言,我們把宇宙的運行、生命的活動、大腦的運作和意識活動都看作遵循某些廣義的算法,但這些現象分別是物理的、生物的和意識的活動,很難說它們本身就是一種計算機計算意義上的算法。
第四個問題是:關于人的智能、意識的這些基于生命運作的算法可以被計算機模擬嗎?
首先,一個問題是廣義算法的可模擬性問題,即使人的智能、意識等可以被看作廣義的算法,但并不等于這些廣義的算法可以被模擬。按照功能主義的觀念,智能本質無非是計算,心靈就像電腦,強人工智能可以由硅基的芯片以及算法實現人類的智能甚至產生類似于人類的意識;而按照弱人工智能的看法,類似人類的智能需要計算機模擬人腦神經網絡及其運行,這種模仿是有限的,因此人工智能可以在某種程度上逼近人類智能,但無法代替人類智能,更不用說產生意識了。按照塞爾的生物中心主義的看法,雖然人類的智能屬于廣義的算法,但基于生物的功能性組織,純粹依賴計算機算法和硬件,無法模擬人類的智能,但類似于人類的智能可以由類似于人類大腦的功能性組織實現。
根據現象學,既然人類的部分意識和行為的確可以被符號表征,那么就具備了用算法模擬的基礎,如高級的理性思維形式(推理、論證、想象等思維),以及在經驗基礎上的歸納、類比、聯想等思維模式,都可以用符號計算或者仿腦的算法來模擬,因此人工智能可以在很多認知方面接近于人的智能。但是,主體更為基礎的、原初的、具身的、非對象性的、整體性的層面則無法被轉化為算法模擬。
其次,這個問題涉及到AI的可計算性和算法復雜性?,F有的AI都是基于圖靈機, AI的可計算性也受到圖靈機基本原理的限制,即便從理論原則上人的智能和意識等都屬于廣義的算法,而在邏輯和工程層面,基于丘奇-圖靈原則的計算機也未必能夠模擬人類智能和意識。除非,未來能夠發明一種“超計算”(Hyper-computation)[7]205解決AI的可計算性問題,以及未來量子計算機的成熟能夠解決AI所面臨的算力和計算復雜性問題。
總而言之,不同理論立場的人對AI的整體認知和信念不同,對其在未來角色的期待也不同。例如持強人工智能立場者堅信終有一天AI將具有比肩人類甚至超過人類的智能,是類人行動者,而贊同弱人工智能立場者則認為AI終究是輔助人類工作、生活的智能機器。
從現象學角度看,不僅強人工智能的預設無法實現,通常的模擬大腦的弱人工智能對未來AI智能的預期也難以達成。不過借助現象學的意識的研究方法,可以啟發AI發明新的算法。也就是說,根據現象學,意識并不能完全歸約為大腦的功能,而AI算法原則上只能部分模擬人的大腦和意識,那么未來可實現的AI只能是比聯結主義所設想的弱AI更弱的AI。
過去幾十年,AI功能主義和聯結主義兩種研究范式一直相互競爭,相應的符號計算和大腦模擬兩種AI進路也此消彼長。目前最主流的人工智能是大腦模擬的機器學習,但還很難說哪一種范式會徹底勝出。也許在未來很長一段時間,這兩種AI研究范式還會繼續處于相互競爭但并存的狀況。
目前,聯結主義范式占據AI研究的優勢地位,如以深度學習為代表的機器學習成為AI科技的主流,而深度學習算法恰好是在仿人類腦神經網絡方面取得突破的;而基于功能主義的符號計算,AI依然在機器推理、證明等領域有其生命力。從制造智能機器人的角度看,研發未來AI的主要思路是要讓機器算法擁有模仿人類的意識和行為背后的深層神經元運作機制,顯然聯結主義的范式更適合這種AI發展模式。因為,人類的思維、語言和行為能力雖然有其遺傳和生理基礎,但其能力的成熟是在社會生活中通過學習不斷習得的。因此,對于未來智能機器人更全面地模仿人類而言,機器學習算法將會是一種非常重要的進路。
未來的AI科技需要什么樣的學科基礎?按照功能主義的強AI立場,未來以符號計算為主的AI科技主要是不斷基于數學和計算理論而進行算法的創新;按照聯結主義的弱AI立場,未來以仿大腦神經網絡為主的AI科技需要建立在腦科學、認知神經科學乃至整個神經生物學基礎上;而按照現象學的立場,未來AI科技除了需要以數學、邏輯學、腦科學、認知科學、神經生物學等自然科學為基礎,還需要從哲學層面對意識、具身性等問題的探索來揭示智能的本質特性和運作機制。限于本文的主題,下面主要從腦科學和現象學的角度簡述一下未來AI科技需要什么樣的科學和哲學研究作為前提。
如果按照聯結主義的進路,那么AI和智能機器人的發展就需要基于未來的腦科學和生命科學。未來AI需要以基于腦神經科學、神經生物學乃至生物學的研究的高度成熟為前提。具體而言,要基于神經生物學尤其是腦神經科學所揭示的人類認知、語言和行為等的腦神經生物學的基本原理,創建相應的算法來模擬這些機制。這就意味著,未來AI的突破,需要以這些學科的高度成熟為前提,才可能實現以算法對人類的認知、語言和行為等諸多功能的高度近似的模擬。
首先,AI需要腦神經科學對認知、情緒、語言、行為等的腦神經元機制的揭示,因此腦神經科學是未來人工智能發展的基石。
其次,如果按照現象學的具身性理論,則人類的智能是具身的,也就是身體是塑造人類認知框架和意識結構的重要組成要素,因此未來的認知神經科學的研究將不限于腦神經結構及機制的研究,而是會擴展到全身的感知器官,以揭示人類感受所具有的整體性機制。
再次,如果超出認知而擴展到情緒、語言和行為等方面,則會發現人類的體驗、認知、行為舉止、言談乃至表情,往往是關聯的、動態的。因此,基于具身性的思路,需要對人的全身神經系統、運動系統乃至整個身體進行深入系統的研究,揭示整個具身性的身體在塑造人類認知和智能等方面所具有的基礎性、框架性作用。
最后,如果按照海德格爾的存在論現象學,則此在的一切生存模式都是基于與世界的內在關聯模式,即“此在在世界中存在”是理解人的認知、語言和行為的基本預先存在的框架,也就是說,人的感知系統是對環境開放的、與環境相耦合的、具有整體性的,因此需要揭示這種與環境耦合、互動的認知神經科學機制。對人類智能的探究需要把主體與環境的互動、耦合的整體結構考慮進去,因此海德格爾式AI需要計算機可以模擬此在的生存論結構尤其是與世界打交道的模式。
如前所述,從現象學的角度看,人類的智能僅從數學、腦科學、神經生物學等科學的角度進行研究是不夠的,需要采用本質直觀的方式來揭示人的意識、具身性以及此在的在世存在方式等方面的本質特征和運行機制。雖然現象學的第一人稱視角也有其局限性,本質直觀方法要受明見性原則的限制,但現象學依然可以為研究意識、主體、具身性等提供其獨特的理論貢獻?,F象學的這些深刻的直觀洞察一定程度上可以彌補自然科學方法研究意識方面的間接性局限,為AI算法的構造提供頗具價值的啟發。因此,現象學將是未來AI發展的重要基礎學科之一。
和未來AI相關性比較大的現象學問題主要有如下幾個方面:第一是意向性問題,根據現象學,一切客體化意識都是意向性的,意識行為總是指向意向對象,構成意向對象。AI所處理的大多數問題都是對象化的認知、智能,因此意向性對于未來AI的認知能力至關重要。從現象學的角度闡明如何從對象的意向性構成角度分析對象的構成,對于AI識別視覺、聽覺對象具有啟發性。現象學認為,意向相關項(noema)[8]、意向對象的構成具有其內在視域,這種視域具有的整體性使得對象和意義的構成得以可能,這對于AI如何根據有限的數據分析來識別對象具有重要的啟發作用。第二是現象學的感性論,涉及到心靈、身體的關系,這個部分的深入研究結合被動綜合分析,可能對揭示底層的感性意識特性以及身心關系具有重要意義,這對于建構未來AI感知等基礎層面的認知能力很重要。第三是具身性問題,結合現象學的感性論對身心問題、具身性的框架結構以及動感意識的研究,對于建構具有身體感知、運動感知的機器人具有很關鍵的作用。第四是生活世界問題,對生活世界的現象學研究,尤其是對生活世界中具有本質性的形態學結構和普遍性的基本運作方式的揭示,可能會對解決AI的“框架難問題”(the frame problem)具有重要的推動作用。第五是主體間性問題,主體間性問題涉及到自我與他者的交互認知關系,共涉及意識、語言和行為3個層面,對于主體間性的深層挖掘,有利于建構機器人與人類交流互動的能力,對于處理人類和機器人的相互關系,以及建立智能社會的秩序具有重要而基礎的作用。第六是主體與世界的關系,如果按照海德格爾的存在論現象學,即“此在在世界中存在”是理解人的認知、語言和行為的基本預先存在的框架,則海德格爾式AI需要計算機模擬此在的生存論結構尤其是與世界打交道的模式。另外,AI科技可以借鑒情感現象學和道德現象學的研究,它們是研究所謂機器情感和機器倫理的重要理論視角,也是未來建立整個機器人的行動哲學和倫理學的重要理論基礎。
從現有的哲學理論看,關于未來智能機器人的發展具有以下幾種可能性:從聯結主義和現象學看,AI無法具有類似于人的意識和具身性的主體性,因為表情、語言和動作的類型上的差異性是機器人無法克服的。從現象學看,越是在精神性的層面,人和機器人之間的差距越大,二者的相似總是表面的。因此,在這種情境下,智能機器人對人類的模仿不可能無限逼近,讓智能機器人達到足以跨越恐怖谷的超高逼真度是一件很困難的事情。
即便在設計智能機器人時避開機器人外形和動作這兩方面與人類的雷同,但當機器人的認知模式、語言和行為模式的逼真度達到一定高度時,也會引起恐怖谷效應。這就使得某些智能機器人的設計陷入進退兩難的境地:要么以降低逼真度為代價避免陷入“恐怖谷”,而這么做的缺點是智能機器人無法滿足某些輔助和陪伴的功能需求;要么設計高逼真度的智能機器人以滿足工作和生活的需求,但容易讓人類陷入情感錯亂,產生恐怖谷效應。
當然,從功能主義的強AI角度看,機器人也是會具有意識的,人的認知、情感等功能可以由算法加芯片實現。因此,對強人工智能而言,跨越恐怖谷并非難事。如果有一天,人類能夠設計出這樣超高逼真度的機器人,人類也許會產生錯覺,模糊機器人和人類的界限,把機器人當作人類的同類,而不僅僅是作為人類生活中充當輔助工具的智能行動者。但功能主義本身面臨如無法說明意識所具有的感受性質(qualia)這樣的困難問題,因此即便智能機器人表面上幾乎和人類一樣,也不會對人和世界具有意識和體驗,而僅僅是一種查爾莫斯所說的哲學僵尸(Philosophical Zombie or P-Zombie)[9]。
但如前所述,智能機器人及AI科技未來的成就并非現在就可以從理論上判定的,而最終是要通過AI科學的實踐來回答。AI科技的發展必須要奠基于數學、腦科學、神經生物學及現象學等更為基礎的學科,汲取這些學科關于意識、腦及計算等方面的前沿成就,尤其是要以現象學的方法和腦科學的方法為參照,以現象學關于意識的研究來補充腦科學的認知研究的不足,才可能最大程度地揭示人類智能的奧秘,才有可能讓AI的智能逐漸臻于其極限。
另外,如果設想未來有一天機器人的逼真度達到極致的極端情境,即如果它能成功跨越“恐怖谷”而無限逼近人類的智能,這時會產生一個有趣但很難有答案的問題:它面對其他逼真度很高但沒有能夠跨越“恐怖谷”的類人智能機器時,是否也會有類似于人的認知錯覺和情感錯亂,產生類似于人類“恐怖谷”的效應?如果答案是肯定的,則無論這種“恐怖谷”效應只是“無心”的機器適應環境的智能反應,還是伴隨著類似于人類的體驗和感受,都表明人和智能機器之間的界限逐漸模糊了。