谷生然 郭燕
摘 要:強人工智能是一種能達到或完全超越人的意識的機器智能。人工智能主義是強人工智能在哲學上的理論表現,它為人工智能的發展提供了方法論指導,極大地激發了人工智能研究者的信心和熱情。人工智能主義認為,機器具有思維,人不過是一種高度復雜的機器,未來人工智能將遠遠勝過人的意識。然而,人工智能主義面臨人本主義多方面的質疑:隨著人工智能的發展,人日益遠離自由,淪為人工智能的奴仆;人工智能不是獨立的主體,只能作為人的工具;人工智能并不能從根本上超越人類思維。歷史唯物主義在這一問題上的理論原則充分吸收了人工智能主義與人本主義的合理性。一方面,人工智能主義以機器模擬人的思維,不僅提升了人類處理信息的能力,而且提高了人類改造世界的能力;另一方面,在人工智能與人的關系上,人居于決定地位。無論人工智能如何發展,都改變不了人工智能是人的工具或伙伴的地位。
關鍵詞:強人工智能;人工智能主義;人本主義;歷史唯物主義
中圖分類號:B03;TP18文獻標志碼:A文章編號:1672-9684(2023)03-0058-08
人工智能(簡稱AI)是由電子計算機的數字技術發展而成的新領域。1950年人工智能的奠基者阿蘭·圖靈(Alan Turing)發表論文《計算機與智能》,提出智能機器具有人類智能的設想。1956年在達特茅斯學院召開的一次學術會議上,十人科學家組成的小組首次討論了“人工智能”的概念,正式創立了人工智能領域。進入21世紀,人工智能及其相關技術加速發展,孕育了一些新興生產領域,如無人駕駛汽車、無人機、機器人、人臉識別、語音識別、機器翻譯、圖像處理等,重塑并深刻影響了經濟、政治以及社會生活各方面。
當代人工智能的發展形成了一種新的哲學方法論,即人工智能主義,這種哲學方法論構成了當代人工智能研究的哲學基礎。本文試圖省視人工智能主義的基本理念及其面臨的主要挑戰,從而進一步明確歷史唯物主義在人工智能問題上的基本態度。一般地,人工智能主義也稱為強人工智能主義,是指倡導強人工智能的理論、觀點和學說,它相信人工智能可以超越人的意識。這種理論主張,意識不再是人類特有的一種能力,而是人與人工智能共享的一種能力,而且,在人工智能發展的高級階段上,人工智能的意識能力高于人類。
一、概念:人工智能與人工智能主義
人工智能的基本意義源于圖靈與1956年達特茅斯會議的研究者。圖靈提出了“機器智能”一詞,而達特茅斯會議倡導的“人工智能”概念產生了廣泛的社會影響。“人工智能”一詞與“機器智能”(Machine Intelligence)同義,區別是前者影響更廣泛,而后者出現時間更早。英國科學家圖靈是20世紀人工智能的開創者之一。圖靈以“機器智能”表達機器具有思維能力的思想。1947年圖靈在倫敦皇家天文學會發表演講,主題是機器智能,1948年圖靈把該演講整理成論文——《智能機器》(Intelligent Machine),作為英國國家物理實驗室的內部報告。1950年,圖靈發表論文《計算機與智能》,提出了“圖林測試”,并就“機器能思維嗎”等問題做了科學探討。人工智能(Artificial Intelligence)一詞最早出現在1955年9月2日,約翰·麥卡錫(John McCarthy)作為1956年達特茅斯人工智能會議的召集人,撰寫了一份項目建議書,向洛克菲勒基金會申請會議資助,計劃召開“人工智能夏季研討會”。人工智能是通過計算機等機器所體現的智能,它與人的智能相區別。 正如克勞斯·梅因澤(Klaus Mainzer)指出,人工智能的核心觀點形成于1956年達特茅斯會議的研究者們,而后者又受到圖靈“機器能夠思維嗎”這一問題的啟發[1]。
人工智能包括兩種意義:強人工智能與弱人工智能。強人工智能(“strong AI”)也稱為“一般意義的人工智能”(“general AI”),是一種在幾乎所有的認知任務中超越人、具有一定自主判斷能力的機器智能。這種機器智能達到或完全超越人的意識水平。這種人工智能迄今為止還不存在,但它一直是人工智能發展的方向,也是人工智能一詞的本來意義。弱人工智能(“weak AI”)也稱為“狹義的人工智能”(“narrow AI”),是一種在特定領域超越于人的認知能力、能夠執行人所賦予的特定任務的機器智能。弱人工智能是人工智能的現存狀態,它服務于人的發展,并在當代社會生活各方面展示了巨大影響力。
兩種人工智能的主要區別在于:機器智能能否達到或超越人的智能或意識。強人工智能能夠在幾乎每一項認知任務中勝過人類的智能或意識,而弱人工智能在特殊領域(如下棋等)勝過人類,但是整體上仍然附屬于人。
兩種人工智能之間不是截然對立的,兩者存在著密切關系。弱人工智能是機器智能的現實,是已經實現的機器智能;而強人工智能則是人工智能追求的目標,是具有現實可能性的人工智能。隨著人工智能的不斷發展,機器智能在越來越多的方面達到甚至超越人的智能或意識。人工智能領域的科學家以數學、算法等工具為基礎,積極融合電子學、量子學、生命科學等多學科知識,不斷提升計算機等智能機器的信息處理能力。弱人工智能的目標是實現強人工智能,即幾乎在所有方面達到或超越人的智能,特別是實現機器智能的自主行動。強智能機器能夠自動地與外部環境協調,實現最優化地設定目標、選擇路徑、完成目標等一系列活動。
人工智能進一步延伸了人工智能主義。嚴格意義上,人工智能是一種機器智能,而人工智能主義則是人們對人工智能所持的一種理論、觀點,它不同于人本主義、歷史唯物主義的理論立場。人本主義、歷史唯物主義堅持人的意識在根本上優越于人工智能,那種超越于人的意識的強人工智能不可能實現或者不應當實現。與此相反,人工智能主義則堅信強人工智能的存在,認為弱人工智能的每一進步都體現了強人工智能正在不斷實現。
一般意義上的人工智能主義,也被稱為強人工智能主義,是一種相信強人工智能能夠實現的理論與觀點。不少從事人工智能研究的科學家持這一立場,如人工智能的開創者圖靈、馬文·明斯基(Marvin Minsky)、雷·庫茲韋爾(Ray Kurzwell)等。持這一立場的研究者相信隨著科學技術呈現加速創新的趨勢,人工智能能夠達到甚至超越人的意識,他們看到了人工智能正在趕超人的能力,特別是人工智能超強的數字處理能力。
贊成弱人工智能的理論與觀點一般不被稱為弱人工智能主義,弱人工智能不是各方爭論的焦點,它被人本主義和歷史唯物主義普遍接受。例如,人本主義思想家休伯特·德雷弗斯(Hubert Dreyfus,1929—2017)、約翰·塞爾(John Searle)等認為,盡管人工智能獲得了巨大的技術進步,甚至在一定程度上對人的意識的地位形成了威脅,但是,人工智能只是人的工具,這些進步并不能改變人工智能從屬于人及其意識。對于歷史唯物主義而言,它既贊同把強人工智能作為追求目標,相信強人工智能正在逐漸實現,但并不支持人工智能最終達到人的意識的完善程度,堅持在維護人類基本價值的基礎上發展人工智能。
強人工智能與人工智能主義既相互區別,又密切聯系。一方面,兩個概念區別在于,嚴格意義上,強人工智能是一種機器智能能力,而人工智能主義則是堅信這種機器智能存在且在將來優越于人的意識的一種理論、學說與觀點。另一方面,兩個概念又相互聯系。人工智能主義以強人工智能為基礎,沒有強人工智能,也就沒有人工智能主義。而人工智能主義則是強人工智能在哲學上的理論表現,為強人工智能的發展提供方法論指導。人工智能主義在強人工智能實踐的基礎上,積極開展同其他反對強人工智能的學說、理論與觀點(如人本主義)進行斗爭,從而不斷完善自身理論,更好地堅持、捍衛、推動強人工智能的發展。
應當看到,在寬泛意義上強人工智能與人工智能主義可以互換使用。強人工智能是一種機器智能,但是,迄今為止,這種人工智能還不是現實,而是一種理想狀態。“強人工智能”同時又蘊含著“人工智能主義”的要求。“強人工智能”概念從一提出就已與現存哲學中的核心概念“意識”形成了尖銳對立,倡導“強人工智能”的學者同時就是倡導“人工智能主義”的學者。例如,作為強人工智能的倡導者的圖靈同時開創了人工智能主義,他的論文《計算機與智能》發表于哲學期刊《Mind》上,宣揚了機器思維能夠存在。圖靈的命題迄今仍然是人工智能主義與人本主義之間爭論不休的基本命題之一。
二、人工智能主義的基本理念
人工智能主義體現了一種新的世界觀模式。在人工智能主義者看來,不但機器能夠思維,而且,人也不過是高度復雜的機器。由于人腦大量冗余信息、矛盾信息并存,滿足于次優化決策,而人工智能儲存的信息量巨大,并按照最優化決策,人工智能比人腦的智能發展程度更高。那種認為只有人具有思維、情感、自由意志的主張,只是人類中心主義者自以為是的觀念。
(一)機器能夠思維
在大多數學者的觀念中,只有人具有思維能力,思維、意識是人與動物相區別的根本標志之一。黑格爾認為:“人類自身具有目的,就是因為他自身中具有‘神圣的東西,——那便是……稱作‘理性的東西。”[2] 62而在強人工智能主義看來,那些只賦予人類具有思維的理論、觀點,體現出人類固有的偏見和狹隘。
作為人工智能主義的倡導者,圖靈堅持認為,機器能夠思維。在圖靈看來,世界的運動基礎都是基于極其微觀的電子運動,電現象構成了萬物的共同基礎,不是萬物有沒有思維能力的問題(誰知道機器沒有思維能力?誰知道動物沒有思維能力?),關鍵的問題是機器、動物在何種程度上達到或者超越了人的思維能力。機器、動物與人在思維能力上具有差異,但是,此差異并不是不能改變。當大象發生一定的基因突變后,它可以具有與人同等程度的思維;同樣地,當人賦予機器一定的人造血肉以后,機器的思維也可能達到與人同等的程度,甚至超越人的思維能力。
在圖靈的《計算機與智能》一文中,機器智能被賦予了“強人工智能”的意義。圖靈提出“機器會思維嗎?”這一問題,認識到“思維”被傳統觀念視為人所特有的一種能力,而賦予機器 “思維能力”,是很危險的,這一問題必然會引起人們的爭論,而且這種爭論沒有太多的意義[3]。圖靈提出了著名的“圖靈測試”:如果有一臺計算機,擁有足夠的存儲空間、適當的運算速度、恰當的程序,在“模仿游戲”中具有不次于人的表現,就可以令人滿意地獲得“機器會思維嗎”的答案。不能因為機器智能出錯就否定它,人也經常出錯。即使在特定歷史階段,人們比所有機器智能更加聰明,但是,機器智能也在提升,更加聰明的機器也會不斷出現。
圖靈把人區分為“身體能力”與“智力能力”,計算機具有與人相類似的“智力能力”。計算機包括存儲、操作、控制三部分,它根據信息科學原理進行操作,無限接近于一位“做計算的人”。“做計算的人”被圖靈假定為這樣的人:遵循固定的規則,無權改變規則的任何細節;這些規則是由一本書提供的,當他被安排一份新工作時,這本書就會被修改;他有無限量的紙可以計算。計算機中蘊含著一些隨機元素,例如,可以命令其進行以下操作:“擲骰子,將結果存入1000”,有人認為這一活動體現了計算機的自由意志。計算機的存儲能力在理論上可以達到無限容量;電子運動是計算機與人的神經的基礎,在人的神經中,也伴隨著電現象的發生。
擁有“智力能力”的計算機在未來可能完成“拉普拉斯妖”的作用,它可以根據宇宙的現存狀況,準確地預測未來特定時刻的事件。圖靈贊賞拉普拉斯的絕對必然性觀點。法國數學家拉普拉斯否定偶然性,相信徹底的必然性,他在1814年提出了“拉普拉斯妖”的觀點。宇宙的現存狀態是過去的“結果”,并作為未來的“原因”,即我們可以把宇宙現在的狀態視為其過去的果以及未來的因。當“拉普拉斯妖”知道某一刻所有自然運動的力和所有自然構成的物的位置,假如他也能夠對這些數據進行分析,那么他就能夠預測未來所有的數據。圖靈認為,在整體的宇宙中,初始條件的極小錯誤都會在以后產生巨大的影響,例如,一個電子在某一時刻位移十億分之一厘米,可能導致一年以后一個人死于雪崩或逃離雪崩,而在計算機的未來理想狀態下,“離散狀態的計算機”不會使這種情況發生。
圖靈反對思維能力只屬于人的觀點,認為這是一種專斷任意的觀點。圖靈認為,相信人優越于其他創造物、只有人具有思維的觀點,只是人類自我優越感的體現。人與動物的區別,沒有生物與非生物之間的區別大。人的前身也是屬于動物的古猿,古猿在突變的情況下擁有了意識,也許大象在突變的情況下也可以擁有思維與靈魂。既然大象可以突破這種任意的限制,機器又未嘗不能突破此類限制。雖然機器不能夠像人那樣吞咽,但是,一切皆有可能,不能排除在一定條件下機器也能夠具有思維與靈魂。
圖靈談到機器智能發展的未來前景:在下棋等抽象的活動中勝過人類;機器通過修改一些不必要的、具有“短暫有效性”的“規則”,像小孩子接受教育一樣不斷地自動從環境中獲得“知識”;通過安裝人造器官,讓它擁有更加靈敏的感覺,然后教會它理解和學習英語。
(二)人是一種高度復雜的機器
18世紀法國唯物主義思想家拉·美特里提出“人是機器”的觀點,簡化了對人的本質的認識。在拉·美特里看來,“人體是一架會自己發動自己的機器:一架永動機的活生生的模型”[4] 20。由于拉·美特里的觀點沒有看到生命運動、社會運動的特殊性,它把一切運動都簡化為機械運動,因而遭到學者的普遍批評。然而,隨著人工智能的發展,人工智能主義者重新提出了“人是機器”的觀點。這里的“機器”已經不再是19世紀簡陋的鋼鐵復合體形象,而是高度復雜,且進步快速的發展體。
當代人工智能主義的主要代表馬文·明斯基(Marvin Minsky)認為,我們應當改變“機器”的舊觀念,現在的“機器”正在日新月異地發生變化,已經不同于過去的機器觀念。計算機在20世紀40年代,只有幾千個組件,而人腦包含數十億細胞,每個細胞本身很復雜,而且還與其他幾千個細胞相連接。現在人們開始制造由十幾億個組件構成的計算機,用于研究人工智能,現在的運算規模是過去無法想象的[5] 20。
人工智能主義者把人體理解為無數最簡單單位(如細胞)的相互作用的結果。最簡單的東西之間相互作用,使整體的性能發生質的飛躍。人工智能在于揭示和模仿這些最簡單單位之間相互作用的機制。明斯基認為,一切復雜的東西都是由簡單的東西構成,“在科學領域,人們可以從看似最簡單的事物中了解到最復雜的知識”[5] 7。這種最簡單的單位受制于人的認識能力,是某一時代人們所知的最小的東西。隨著科學的革命性進步和人的認知能力的提升,這種最簡單的單位可能變化,更加微觀化的事物為人類所發現,如從原子到電子等。只有把復雜的對象分解成可以被人所認識的最簡單單位,才能提高并逐漸深化人類對其的認知與理解。
人由身體與思維構成,思維主導著身體,身體按照思維發布的要求而行動,同時,身體把感知到的外部世界的各種信息及時傳遞給思維。人的思維是什么?人工智能主義者認為,思維是大腦的機能,是人腦內各種程序之間的相互作用。其基本機制是人在本能、環境的影響下,逐漸確立了由長遠目標、主要目標等構成的目標調節機制,并以長遠目標為標準對各種需求傾向進行調節,在此基礎上形成了自我、靈魂、性格等特質。
在明斯基看來,人腦的主要功能是思維,思維的實質在于運用符號、信號、圖像等手段在大腦中建構各種程序的相互作用機制。明斯基認為,“使用信號、符號、單詞和名稱真的是一項偉大的發現,它們讓我們的思維可以把陌生的事物轉換為司空見慣的事物”[5]54。思維對于運行不佳的簡單程序有意識,而對于沒有故障的其他部分沒有意識,服務于我們將要達成的目標,更多關注對象對我有什么用。
人的核心機制在于形成個人的長期目標、長期計劃和理想。明斯基認識到,一個人要完成一項事業,不是一個決定或選擇就可以實現,而是需要合理調整各種興趣或志向的沖突,把目標集中于最重要的事情上。人決定以一生的時間去完成的事業,形成了個人的理想,并進而決定和塑造著個人的個性、風格與性格特征。在不同的歷史階段也有一些重要的目標,影響著不同人生階段的行為特征。
自我、靈魂并不神秘,它們都是基于個人的目標、理想而形成和發展起來。自我、靈魂的功能在于防止人變化太快,實現在長期目標與短期多種誘惑之間的平衡,“理想自我是我們鍛造出來的鎖鏈,用來防止我們破壞掉自己所做的所有計劃” [5]35。自我并不是總是單一的,自我是單一自我與多重自我的統一。單一自我是中心化的自我,源于自我的“理想”,這是個人變化得最慢的方面。人們基于天生最喜愛的傾向發展出個人理想,決定了單一自我的總特征。然而,個人在不同階段上受制于實現需求的現實條件,形成了不同性質的具體追求,從而表現為多重自我。多重自我是去中心化的自我,代表個人的不同傾向、不同計劃。
一般觀念看來,人有情感而機器沒有。在人工智能的視野中,情感只是自我控制的重要手段,本質是表達個人的需求。在個人實現目標的過程中,直接控制太危險。意志力告訴自己不要放棄,在一開始有效,最后通常會失敗,如同“思維中的發動機燃料耗盡” [5]36-37。人的情緒、依戀等情感因素是人類自我控制的專門技術,情感是表達需求的信號。嬰兒時期情感比較簡單,以哭、笑的方式表達他們的需求,隨著年齡的增大,人的需要增加,情感也更加復雜[5]208。
人工智能的任務在于認識人腦的機制,并通過無數的電子元件、算法等模仿人腦的機制。人工智能可以模仿人的大腦,不斷提升計算機等智能機器在硬件系統、軟件系統方面的運行效率。認識大腦的機制,人工智能要解決三類問題:腦細胞的工作方式;不同類型腦細胞之間的相互作用;數十億腦細胞組織在一起。大腦的生理機制促進了智能機器的硬件系統的進步,而大腦的思維邏輯機制也推動了智能機器的軟件系統的進步。
(三)智能機器將比人更具優越性
人工智能主義者不僅肯定機器具有意識,而且認為智能機器在多方面超越了人的智能。人腦具有不少缺陷,例如運行速度慢、學習進化需要漫長的過程、滿足于戰勝對手、沒有得到充分開發、大量冗余信息與矛盾信息存在等,而人工智能則克服了這些問題,從而引領人類發展到一個新階段。
智能機器具有創造性、具有意志,能夠達到比人類天才更高的程度。只要給人工智能設定試錯程序,人工智能就具有創造性。馬文·明斯基認為,“我們可以為一臺計算機設定程序,讓它通過試錯來解決任何問題,而我們不需要提前知道解決辦法”[5]74。智能機器具有意志,意志即是實現目標的努力,而且,智能機器還具有意志自由。意志自由就是為了達到目標,自覺地抵抗那些試圖改變目標的其他程序。人具有意志自由,例如,“每個人童年時就學著去識別、厭惡和抵抗各種形式的攻擊性和壓迫感”[5]393。智能機器在算法作用下,也實施著抵抗各種妨礙實現目標的壓力。智能機器比人類天才更優秀,天才源于堅定的目標、強烈的動機和有效的學習方式。“光學得多是不夠的,人們還要管理他們所學的內容。”[5]85然而,對于人工智能而言,目標的堅定程度超越了人類天才,對知識的管理方式達到最優化,所掌握的知識更加廣博。受個人主、客觀因素影響,天才的數量極少,而人工智能則可以無限地復制。
人腦具有多方面的局限性,在思考能力、進化速度、完善自身等,等方面比不上電子計算機,不能適應知識爆炸時代處理信息的需要。雷·庫茲韋爾(Ray Kurzwell)認為,“基礎的神經元事件處理比同等的電子電路要慢上數百萬倍。這將導致人類在生理上處理新知識的能力遠遠跟不上人類知識的指數級增長速度”[6]2。人腦需要進化,新生兒的大腦主要包含隨機聯系的神經元,隨著兒童的成長,那些有利于認識世界的連接模式得到發展,知識不斷充實。大腦還存在著其他不完善之處,如人腦神經中包含著大量混亂(隨機的和難以預料的)的部分;大腦中相互矛盾的信息并存;大腦中大多數想法都是衍生的、瑣碎的;人類滿足于騙過對手,只要優于對手即可等,因而大腦決策不是最優化,而是次最優化的,體現出智能發展的程度較低。而且,人的身體很脆弱,很容易屈服于大量錯誤的模式 [6]89-90。
與人腦的局限性相反,人工智能具有思考速度快、學習快、儲存量大等優越性。雷·庫茲韋爾認為,計算機能以接近光速的速度進行信號的處理和轉換,比人腦進行信號傳輸的速度快300萬倍,因此可以高速地下載并共享資源。人工智能允許我們超越身體和大腦的限制,獲得超越命運的力量,我們將控制死亡,我們將可以活到自己想達到的年齡 [6]12-13。
三、人工智能主義的理論困境:來自人本主義的批判
人工智能主義面臨的主要挑戰是來自當代人本主義思想家的批判。當代人本主義思想家的卓越代表海德格爾對科學技術對人的自由的束縛和壓迫做了深刻的揭示和批判,這些批判同樣適用于人工智能主義。此外,人本主義學者從不同角度對人工智能主義的觀念進行了深刻的批判,主要代表是休伯特·德雷弗斯(Hubert Dreyfus,1929—2017)、約翰·塞爾(John Searle)等。
人工智能主義能否給人帶來充分的自由?顯然,在海德格爾視角下,作為科學技術最新成就的人工智能主義不能給人帶來自由。在海德格爾看來,科學技術越發展,人越迷失于表象,越貪婪地追逐物質利益,海德格爾認為,科學技術的本質是追逐物質利益,它不斷地拷問自然界,扭曲人類歷史,泯滅人的個性,導致主觀主義盛行,最終將使人類淪為缺乏辨別力的烏合之眾。
科學技術研究追求物質利益,以“籌劃”“方法”去支配著整個存在者(世界),自然界與人類社會成為可供科學研究肆意處理的“擺置”。現代科學以研究為特征,并與“企業活動”密切聯系起來,通過人的“籌劃”、“方法”,服務于科學研究者對物質利益的追逐。“籌劃(Entwurf)與嚴格性(Strenge),方法(Verfahren)與企業活動(Betrieb),它們相互需要,構成了現代科學的本質,使現代科學成為研究。”[7]895現代科學研究滿足于用數學方式對表象進行說明,并沒有理解更深層次的“存在”,計算主義支配了科學技術。海德格爾認為:“作為研究,認識對存在者作出說明,說明存在者如何和在何種程度上能夠為表象所支配。當研究或者能夠預先計算存在者的未來過程,或者能事后計算過去的存在者時,研究就支配著存在者。可以說,在預先計算中,自然受到了擺置,在歷史學的事后計算中,歷史受到了擺置。自然和歷史成了說明性表象的對象。”[7]896科學技術越是發展,人就越滿足于表象,從而越忘記了去追尋人何以存在的本質。
在海德格爾看來,在科學技術的名義規訓下,社會成員日益以千篇一律的狀態設定自己的主體性,他們缺乏反思性,失去了個性。這種由科學技術導致的主觀主義實質上是個人主觀方面完全被客體所支配的體現,這是現代性給人類社會帶來的最大危險。海德格爾認為,“在以技術方式組織起來的人的全球性帝國主義中,人的主觀主義達到了它的登峰造極的地步,人由此降落到被組織的千篇一律狀態的層面上,并在那里設立自身。這種千篇一律狀態成為對地球的完全的(亦即技術的)統治的最可靠的工具。現代的主體性之自由完全消融于與主體性相對應的客體性之中了” [7]894。千篇一律的群眾極容易被少數別有用心之徒利用,淪為失去辨別力的烏合之眾,技術社會淪為專制社會。在《技術的追問》中,海德格爾指出,“在現代技術中起支配作用的解蔽乃是一種促逼。此種促逼向自然提出蠻橫要求,要求自然提供自身能夠開采和儲藏的能量”[7]932。促逼是解蔽的主要表現,體現了解蔽的根本性質。與科學技術的主觀主義類似,人工智能主義倡導智能機器達到或優于人的意識水平,表面上似乎是爭取智能機器同人一樣的平等能力、一樣的主體地位,而實質在一定程度上預示了人類淪為人工智能奴仆的命運。人工智能按照一定的邏輯必然性行動,理性遵循最優化邏輯,而人天生滿足于現狀,并不總是遵循最優化邏輯。人工智能主義揭示了人并不神秘,也并沒有個性,只是一種遵循一定“尚未發現的”數量邏輯關系的必然性的機器。按照人工智能主義統治的人類,正如海德格爾所批判的,將逐漸喪失了個性,在所謂的數量邏輯關系的必然性名義下,人類不但在力量上軟弱,而且在精神上麻木,匍匐于科學技術的專制主義統治中。
人工智能與人處于同等地位,還是永遠不可能達到與人一樣的地位?最早對人工智能主義展開批判的學者休伯特·德雷弗斯認為,只有人才能把自己的意識融入工具之中,拓展自己的身體能力。
休伯特·德雷弗斯認為,人工智能能夠做一些事,某種有限的人工智能并不是不切實際的,然而,人工智能不可能實現完全智能的行為。人類可以借助外物為工具,并將意識沉浸于其中,去作用于其他事物,而人工智能不能達到這一點。德雷弗斯批評明斯基混淆人打乒乓與金屬機器打乒乓之間的本質區別,強調應當區分使用工具的經驗與關于對象的經驗。使用工具構成了人自身的一部分,而對象外在于人,金屬機器、人工智能則不能達到使用工具的經驗[8]。盲人使用拐杖去探路,拐杖構成了人自身的一部分,不同于我們用拐杖所接觸的外部物體。波蘭尼對盲人用拐杖做了深刻分析:“雖然我們依靠工具或探測物,但它們并不是作為外部物體處理的……它們仍然在我們這邊……構成我們(即行動者)的一部分。我們將自己的意識傾注于它們中,并將它們同化為我們存在的一部分。”[9]59
人工智能研究者常常把思維與大腦的關系,比作計算機的程序與硬件之間的關系。但是,在約翰·塞爾看來,以程序、語法、硬件等組成的人工智能系統,在根本性質上不同于人的思維和大腦。程序純粹是從形式上或語法上定義的,僅僅是一種符號,而且思維不僅具有關于外部事物的語義,還具有內在的心理內容,因此程序本身不能構成思維。他在1980年的《中文屋》中論證了這一點:在不懂一個中文單詞的情況下,一個被測試者通過運行程序,并不能夠獲得對中文的理解。因為語法與語義不一樣,也不足以表達語義。塞爾認為,人腦也不是計算機。計算機按照符號操作的語法來運算,這里的語法和符號不是在物理現象中發現的,它們只是物理現象的標記。而大腦是一個特定的生物器官,其特定的神經生物學過程導致特定形式的意向性。在大腦中,本質上存在神經生物學過程,有時它們會引起意識。“即使你可以像對其他任何東西一樣對其進行計算解釋,但是你無法發現大腦或其他任何東西本質上是一臺數字計算機。”[10]
人本主義批判的積極意義在于,它讓人們發現:人工智能主義歪曲、貶低了人。海德格爾批評現代科學技術(包括人工智能技術)泯滅了人的個性,使人扈從于物。休伯特·德雷弗斯強調人的意識不同于人工智能的智能行為,約翰·塞爾則認為人工智能系統在其根本性質上不同于人的思維和大腦,這些見解對于克服人工智能主義的片面性具有積極意義。如果科學技術的發展使人成為一種無個性的、無生命活力的機器或者僵死的物體,那么,這樣的科學技術真的能夠造福人類或者人類文明嗎?對于那些不能造福人類甚至嚴重危害人類的科學技術,人類至少應當高度警惕它們帶來的負面效應。從根本性質上看,人工智能系統與人的思維和大腦不同。人工智能系統是一種用物來模仿人的生命、人的大腦功能的科技創造物,它始終不是真正的生命與人腦。而且,人工智能系統集中體現為一種工具理性,但人的思維則是工具理性、價值理性、審美理性等多種理性的統一。
四、人工智能主義的揚棄路徑:堅持歷史唯物主義原則
否定和貶低人工智能領域取得的成就是盲目的、片面的,畢竟自從人工智能概念提出以來,隨著微電子技術、網絡技術的發展,人工智能的成就已經深刻地影響著社會生活的方方面面,并且此趨勢愈發明顯。同樣地,無批判地對待人工智能主義也是錯誤的。正確的態度是堅持歷史唯物主義的辯證原則,盡可能綜合吸收分歧雙方的合理性。歷史唯物主義堅持人本主義與科學主義的高度統一,在對待人工智能、人工智能主義的問題上,歷史唯物主義的理論原則表現為:人工智能的充分發展與人的自由發展是高度一致的,人工智能的發展只能服務于人的自由發展。
具體地說,在如何評價和對待人工智能、人工智能主義的問題上,歷史唯物主義認為應當辯證地對待人工智能主義與人本主義之間的分歧,積極吸收兩者蘊含的合理性。一方面,歷史唯物主義應當充分吸收人工智能主義的合理性,支持人工智能的積極發展。人工智能是當代社會生產力中最活躍、最革命的因素,它的發展進程具有某種不以人的主觀意志為轉移的客觀必然性。人工智能從根本上推動著社會的進步,它既促進了一些新產業的形成,又深刻地滲透進傳統產業中,同時深刻地影響著人類社會生活的各個方面。另一方面,在人工智能的發展中,歷史唯物主義應當同人本主義一起,始終堅持和捍衛人類根本利益,使人工智能的發展服務于人類的自由發展。人工智能的發展并不等于人的自由本身,它只是為人的自由提供了更多的認識工具、實踐手段和物質基礎。要實現人的自由,關鍵還在于人的能動性的全面發揮。只有堅持將人類的自由發展作為人工智能發展的價值目標,不斷發展人的內在豐富性,才能使人工智能沿著正確的方向發展。
在歷史唯物主義的視野中,人工智能主義是科學主義的最新形態,但是,其根本缺點是把物(包括人造物、人工智能)凌駕于人之上,否定了人的主體地位,其結果不是給人帶來了自由,而是給人的自由制造了更加強大的新枷鎖。
人工智能主義是當代科學技術發展到新階段的哲學理論成果,對于豐富和發展科學主義信仰、科學主義文化做出了貢獻。19世紀中后期,伴隨著上帝的消亡,“人該怎么辦?”成為核心的信仰問題和文化問題。對這一問題的不同回答形成了人本主義信仰與科學主義信仰。人本主義信仰將人的自由置于最高地位。而科學主義信仰則把科學規律置于最高地位,認為人從屬于科學規律。20世紀上半期,邏輯實證主義構成了科學主義信仰的主要表現形式,20世紀下半期以來,隨著人工智能理論以及人工智能技術的迅猛發展,人工智能主義成為科學主義信仰的主要形式。在人工智能主義視角下,科學技術已經發展到人工智能時代,人工智能是現代科學的結晶,是科學理性、科學規律在當代的集中體現,人工智能優越于人,并且隨著人工智能的發展,人工智能將遠勝于人。
無疑,人工智能主義為人工智能的研究提供了方法論指導,推動了人工智能的發展。人工智能主義試圖以機器等方式復制、模擬人的意識,促進了對人的意識的科學研究。同時,在對意識科學認識的基礎上,各種科學技術集成在計算機或其他智能設備上,并不斷升級換代,不斷提升智能化水平,力圖使之達到擁有意識的程度。人工智能的發展,既極大地提升了人類處理各種信息的能力,也極大地提高了人類的生產自動化水平和改造世界的能力。
然而,無論人工智能如何發展,都改變不了人工智能是人的工具或伙伴的地位。人是一種有限性的存在,正是這種有限性激發了人多方面的內在特質。當人真的有一天淪為了人工智能一樣的千篇一律的存在物時,那樣的人類不再是真正的人類,因為人的本性在于人是一種自由而有意識的存在物,是一種具有內在豐富性的存在物。而且,有血肉的、原生的人類尚且沒有實現完全的自由和幸福,怎么能考慮無血肉的、人造的智能機器的主體地位呢?正如科學技術具有負面效應一樣,智能機器也可能嚴重威脅人類的根本利益,人類應當高度警惕人工智能的負效應,努力使人工智能的發展服務于人類發展,使智能機器在本質上只是人的工具和伙伴。
[責任編輯:張思軍]
參考文獻:
[1] MAINZER Klaus.Knowledgebased systems:remarks on the philosophy of technology and artificial intelligence[J].Journal for general philosophy of science,1990(1):47-74.
[2] 黑格爾.歷史哲學[M].王造時,譯.上海:上海三聯書店,1956.
[3] TURING A M.Computing machinery and intelligence[J].Mind,1950 (236):433-460.
[4] 拉·梅特里.人是機器[M].顧壽觀,譯.北京:商務印書館,1996.
[5] 馬文·明斯基.心智社會[M].任楠,譯.北京:機械工業出版社,2016.
[6] 雷·庫茲韋爾.奇點臨近[M].李慶誠,董振華,田源,譯.北京:機械工業出版社,2011.
[7] 海德格爾.海德格爾選集(下)[M].孫周興,編選.上海:上海三聯書店,1996.
[8] DREYFUS H L.Artificial intelligence [J].Annals of the american academy of political and social science,1974 (MAR):21-33.
[9] POLANYI Michael.Personal knowledge:towards a postcritical philosophy [M].London:Routledge and Kegan Paul,1958.
[10] SEARLE J R.Is the brain a digital computer?[J].American philosophical association.proceedings and addresses,1990(3):21-37.
Abstract:SAI(Strong Artificial Intelligence) is a kind of machine intelligence that can reach or completely surpass human consciousness.As the theoretical expression of SAI in philosophy,the doctrine of SAI provides methodological guidance for the development of AI,which greatly stimulates the confidence and enthusiasm of AI researchers.The doctrine of SAI believes that machines can think while humans are just highly complex machines,and that AI in the future will far surpass human consciousness.However,the theory faces questions from many aspects of humanism.Firstly,with the development of AI,people are increasingly far away from freedom and become slaves of AI.Secondly,AI is not an independent subject,it can only be used as a tool for human beings.lastly,AI cannot be fundamentally superior to the human mind.The author believes that the theoretical principle of historical materialism on this issue is to fully absorb the rationality of both doctrines of SAI and humanism.On the one hand,the doctrine of SAI uses machines to simulate human thinking,which not only promotes the abilities of human beings to process information but also enhances the abilities of human beings to transform the world.On the other hand,humans occupy a decisive position in the relationship between artificial intelligence and humans.No matter how artificial intelligence develops,it cannot change the status of artificial intelligence as a tool or a partner of human beings.
Key words:strong artificial intelligence (SAI);doctrine of AI;humanism;historical materialism