摘 要:" 人工智能的理解標(biāo)準(zhǔn)為判斷人工智能是否具有理解力提供了依據(jù)。人的理解是由認(rèn)知能力、意志能力和解釋能力共同作用而涌現(xiàn)出來的能力。而模仿于人的理解的人工智能的理解能力,是由認(rèn)知能力與解釋能力共同作用而彰顯出來的。基于唐納德·米奇對人工智能學(xué)習(xí)能力的分類,可將人工智能的理解劃分為簡單理解、具體理解與形式理解。簡單理解能夠?qū)κ挛镞M行簡單地識別或判斷;具體理解能夠運用相關(guān)概念并對具體事物進行歸納與推理;形式理解能對實在進行理解。
而具備深度推理和解決復(fù)雜問題能力的DeepSeekR1在一定程度上已初步具備形式理解能力。
簡單理解與具體理解屬于認(rèn)識論理解,形式理解屬于本體論理解。人工智能的理解過程需要符合使用目的、客觀事實等因素,這些因素是判斷人工智能的理解是否合理的基本依據(jù)。
關(guān)鍵詞:人工智能;理解標(biāo)準(zhǔn);DeepSeek
中圖分類號:TP18"""" 文獻(xiàn)標(biāo)志碼:A"""" 文章編號:1009-055X(2025)02-0009-10
一、引 言
“理解”(understanding)作為人的一個重要標(biāo)識,是人進行活動的基本前提。自1956年“人工智能”(AI)概念被提出以來,人工智能的發(fā)展就始終離不開對人的理解能力的模擬,人工智能的發(fā)展過程就是通過對人的智能或理解活動的模擬從而使人工智能的模擬能力不斷提升的過程[1]。因此,“理解”問題一直是人工智能理論研究中的核心問題。雖然人工智能試圖用計算機模擬人類理解過程,以機器方式再現(xiàn)人類智能,并在一定程度上取得了顯著成效;但在與人類的互動中,人工智能的理解力仍是有限的。
人工智能理解力的有限性引發(fā)了人工智能哲學(xué)領(lǐng)域的一系列探討。相對人的理解而言,人工智能何以具有理解能力?它的理解又是何種性質(zhì)的理解?人工智能的理解是否像人的理解一樣具有發(fā)展性或?qū)哟涡裕课覀內(nèi)绾闻袛嗳斯ぶ悄艿睦斫馐怯行У模棵鎸@些問題,本文試圖以DeepSeek、ChatGPT、Claude 3等新興人工智能為例,對人工智能模仿人的理解的程度及人工智能理解的本質(zhì)及其結(jié)構(gòu)作出相對深入的探討。通過這些討論,希望對人工智能的理解問題提供一些有益的思考。
二、人工智能的理解標(biāo)準(zhǔn)
人工智能的理解標(biāo)準(zhǔn)是判斷人工智能是否具有理解能力的依據(jù)。當(dāng)我們說人工智能具有理解能力時,實際上涉及兩個方面的問題:人工智能如何理解?人工智能是以何種方式或狀態(tài)表現(xiàn)出理解的?要回答這兩個問題,首先需要清楚“理解”是什么。分析哲學(xué)家Kvanvig[2]192認(rèn)為,理解需要在一個龐大和全面的信息體系中掌握解釋和其他連貫的關(guān)系。人們可以知道許多不相關(guān)的信息片段,但只有當(dāng)信息要素被相關(guān)的主題連接在一起時,才能實現(xiàn)理解。由此,掌握信息之間的關(guān)系是理解的核心。這意味著,理解并非偶然性的活動,而是具有一定的因果性和邏輯性。那么,認(rèn)識又是什么呢?在Kvanvig[2]205看來,認(rèn)識可以是主觀的、偶然性的,它是對個別、局部的關(guān)系進行把握;因此,理解需要大量的信息,而認(rèn)識可以零散地獲得。Elgin[3]也表達(dá)了類似的觀點,她舉了一個例子進行說明:一個懂幾何的人,知道所有的公理、所有的主要定理,以及如何從這些公理中推導(dǎo)出主要的定理。而這些認(rèn)識只需通過記憶就能獲得,并非真正的理解。獲得幾何理解的人還可以用幾何方法對新問題進行推理,能夠在不同的領(lǐng)域應(yīng)用幾何知識等。可見,在Elgin看來,理解是對認(rèn)識的深化,理解不僅是掌握信息片段之間的聯(lián)系,還表現(xiàn)為一種運用所掌握的信息的能力。但Elgin等人的觀點并沒有闡明理解是如何高于認(rèn)識的。對此,陳嘉明[4]指出,“理解”與“認(rèn)識”都涉及對事物某種信息的獲得,但“認(rèn)識”只是知道信息,并不知道“事物為何如此”,即只“知其然”,而“理解”不僅“知其然”,同時深入事物的“理由與原因”層面,即“知其然并知其所以然”。可見,“理解”是對“認(rèn)識”的深化,能夠?qū)κ挛镆蚬P(guān)系進行把握和運用。但“理解”作為日常生活中的一種活動,它不僅具有一般知識的屬性,而且與主體的心靈活動相關(guān),因為“‘理解’最為典型的對象應(yīng)當(dāng)是與心靈活動有關(guān)的行為,包括對言語和行動的理解”[5]。在一些領(lǐng)域,我們雖然知道對象是什么,但并未理解對象。例如,一首詩,我們能夠背誦它,但不一定能夠理解作者所要表達(dá)的意義。再如,什么是“善”與“惡”?什么又是“好”與“壞”?在道德領(lǐng)域,不同的人可能對同一件事會作出不同的價值判斷。這是因為個人的價值觀念與他人有所不同,而價值觀念從根本上說就是人們理解的產(chǎn)物,不同的價值觀念就是人們理解的不同結(jié)果。因此,理解活動還涉及把握對象的意義與價值之類的東西。此外,陳嘉明[6]
認(rèn)為,“理解”需要“解釋”,因為“理解是建立在理由(解釋)之上”的。若沒有“解釋”給出合理的理由,“理解”也就無法產(chǎn)生。那么“解釋”又是什么?傳統(tǒng)的觀點將“explanation”翻譯為“解釋”或“說明”。但嚴(yán)格來講,“解釋”與“說明”并不完全等同,“說明”更強調(diào)因果性與邏輯性。有鑒于此,Wu[7]認(rèn)為“解釋”對應(yīng)“explication”,“說明”對應(yīng)“explanation”。但區(qū)分“說明”與“解釋”之間的差異并非本文所討論的焦點,所以我們不作細(xì)致的劃分,而是從傳統(tǒng)觀點出發(fā),將“解釋”與“說明”相等同。 中文的“解釋”具有“分析闡明”“說明含義、原因、理由”的含義[8]670。因此,從“解釋”的基本含義出發(fā),可以認(rèn)為“解釋”本身就是一個理解過程,是對事件的原因或理由的探尋,是給出原因或理由來闡釋或說明的理解過程。按此理解,凡是能夠?qū)е隆袄斫狻钡幕顒佣伎煽醋魇恰敖忉尅保@意味著解釋活動既可能是語言上的表達(dá),也可能是肢體上的行為。因為在日常生活中,甚至在科學(xué)活動中,都存在著無法明言的知識或理由,當(dāng)面對這些“不可言傳”的理由或知識時,我們只能通過觀察、實驗、操作等行為進行解釋,而這一過程也就是理解的過程。正如De Regt[9]44所說,對事物因果性的把握并不完全來自語言上的解釋,那些不可言傳的隱性知識只能通過實際的觀察、實驗、操作來理解。
基于以上論述,可以認(rèn)為,“理解”表現(xiàn)為“解釋”,而在解釋的過程中,主體的價值觀念、態(tài)度也就融入其中。質(zhì)言之,人的“理解”依賴于三種能力共同作用而彰顯出來:一是認(rèn)知能力,把握事物因果邏輯形成知識;二是意志能力,能夠主觀地把握對象的意義和價值之類的東西,如對事物“好”與“壞”的區(qū)分,這實際上需要人們基于自己的道德觀念來作出理解;三是解釋能力,即將理解的理由與原因整理出來的能力。人具有主觀能動性,通過對客體的把握,會形成不同的信念,并付諸實踐,從而改變世界。從這一意義來說,“理解”就是一個創(chuàng)造性活動,通過“解釋”表現(xiàn)出與他人不同的“理解”。
人工智能概念于1956年在達(dá)特茅斯會議上被提出,之后大致經(jīng)歷了三個階段的發(fā)展。20世紀(jì)40年代到20世紀(jì)70年代,早期的人工智能主要用于完成特定的任務(wù),通過邏輯和啟發(fā)式算法實現(xiàn)知識表達(dá)、推理和專家系統(tǒng)。此后30年里,研究界開始構(gòu)建從數(shù)據(jù)中自動提取規(guī)律的算法,并開始嘗試為能夠完成指定任務(wù)的候選模型搭建一個統(tǒng)一架構(gòu)。進入21世紀(jì)以來,杰弗里·辛頓(Geofrevy Hinton)等人開發(fā)出了建立在卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上的深度學(xué)習(xí)模型Alex Net,使人工神經(jīng)網(wǎng)絡(luò)技術(shù)大放異彩。自此,深度學(xué)習(xí)成為機器學(xué)習(xí)和人工智能的核心子集,深度學(xué)習(xí)技術(shù)被看作是第四次工業(yè)革命的核心技術(shù)[10]。
從人工智能的發(fā)展歷程來看,人工智能始終作為一種工具而存在,表現(xiàn)為能夠讀懂人的指令并作出合理的反饋。隨著技術(shù)的提升,人工智能對人的指令的理解越發(fā)準(zhǔn)確,所作出的反饋越發(fā)符合人的預(yù)期,甚至在某些方面超越了人的能力。從形式上看,人工智能似乎一直在試圖更好地理解人的語言,所作出的反饋表現(xiàn)出對語義的理解。但在內(nèi)容上,人工智能是否真正理解到對象的意義?
要回答這一問題,需要清楚人工智能是如何進行理解的。本質(zhì)上看,數(shù)據(jù)、算力與算法是人工智能的三駕馬車:海量的數(shù)據(jù)與超級算力是人工智能提高理解能力的必要但非充分條件;而算法是人工智能進行理解的核心。算法指的是解決一個問題的流程或思路。近幾年深度學(xué)習(xí)的算法讓我們感覺智能無處不在,但深度學(xué)習(xí)算法依然是從海量數(shù)據(jù)中用擬合的方式尋找相關(guān)性并歸納出某種規(guī)律,計算機按總結(jié)出的規(guī)律來執(zhí)行指令。可見,數(shù)據(jù)是人工智能理解的直接對象,數(shù)據(jù)蘊含的信息成為訓(xùn)練算法的必要材料。既然數(shù)據(jù)是人工智能理解的直接對象,那么人工智能獲得的數(shù)據(jù)本身是否有意義?這些數(shù)據(jù)代碼通過算法進行計算,其計算的結(jié)果是否就代表著人工智能對數(shù)據(jù)進行了理解?塞爾的“中文屋”思想實驗對此給予了否定的回答[11]73。在塞爾看來,意義是說者通過他們的言語來意指的東西,而“也只有人類,具有這種特殊的但也是以生物性為基礎(chǔ)的意向性形式,而我們把它和語言及意義聯(lián)系了起來”[12]163。質(zhì)言之,意識與語言及意義相聯(lián)系,人類作為高級動物,人類的語言及意義塑造出了意識。按塞爾的觀點,人工智能并不具有人的意識,因此數(shù)據(jù)本身是否具有意義是由人所規(guī)定的,機器本身是不理解數(shù)據(jù)所蘊含的意義的。博登對此表達(dá)了不同的觀點。她認(rèn)為,“學(xué)習(xí)一種語言就是建立起相關(guān)的因果聯(lián)系,這不僅是詞與現(xiàn)實世界之間的聯(lián)系,而且是詞與解釋這些詞時所具有的許多非內(nèi)省過程之間的聯(lián)系”[11]133,因此“一種符號是通過參照它與其他現(xiàn)象的因果聯(lián)系而體現(xiàn)出的意義”[11]139。按博登觀點,符號之所以能體現(xiàn)出意義,是因為符號與現(xiàn)實事物之間具有因果關(guān)聯(lián),理解符號的意義,就是把握符號與現(xiàn)實事物之間的因果關(guān)聯(lián)。按此理解,若一組按特定方式組合的數(shù)字代碼能夠表征出事物之間的因果關(guān)聯(lián),那么這一組數(shù)字代碼就具有意義。由此,“理解自然語言”可以完全脫離人的情感、態(tài)度、審美等主觀的東西,人工智能只要能夠通過數(shù)據(jù)表征出事物之間的因果關(guān)聯(lián),那么就應(yīng)該承認(rèn)它理解了所輸入的語言信息。顯然,博登是從理解的形式上來看待人工智能對語義的理解問題。雖然有學(xué)者指出,“ChatGPT具有前所未有的文本生成能力,能夠根據(jù)上下文生成連貫、準(zhǔn)確的文本。在多項評測任務(wù)中,ChatGPT的文本生成能力已經(jīng)超越了人類,塞爾的中文屋程序幾乎已成為現(xiàn)實”[13]。但在筆者看來,這一觀點是對塞爾的誤解。雖然現(xiàn)代的人工智能的確表現(xiàn)出了理解自然語言和解決問題的能力,塞爾所提出的“中文屋”似乎已成為現(xiàn)實,但這并非塞爾本人所強調(diào)的,塞爾真正想指出的是人工智能是否能夠像人一樣真正把握對象的意義。
以DeepSeek(深度求索)為例。2025年1月20日,DeepSeek公司發(fā)布了DeepSeekR1大模型。這款模型在數(shù)學(xué)、代碼、自然語言推理等任務(wù)上,表現(xiàn)得可以與 OpenAI o1等最先進的模型媲美。那么它究竟是如何進行理解的?DeepSeek團隊發(fā)表在預(yù)印本ArXiv上的論文中提到,DeepSeekR1是在大規(guī)模的數(shù)據(jù)基礎(chǔ)上進行聯(lián)合訓(xùn)練得到的生成模型[14]。而與傳統(tǒng)大語言模型(LLM)不同的是,在核心推理方面,傳統(tǒng)方法多依賴監(jiān)督微調(diào)(SFT)和復(fù)雜的提示工程,而DeepSeekR1是通過純強化學(xué)習(xí)(RL)自主激發(fā)模型的推理能力,并結(jié)合蒸餾技術(shù)實現(xiàn)高效遷移。具體來說,DeepSeekR1先是進行訓(xùn)練數(shù)據(jù)的結(jié)構(gòu)化、格式統(tǒng)一化以及數(shù)據(jù)標(biāo)注等一系列數(shù)據(jù)預(yù)處理工作,隨后將不同類型的數(shù)據(jù)(如文本、視頻、圖片等)轉(zhuǎn)化為轉(zhuǎn)換架構(gòu)(transformer architecture)下的向量,從而進行后續(xù)的模型訓(xùn)練。在模型訓(xùn)練過程中,DeepSeekR1使用了強化學(xué)習(xí)進行訓(xùn)練,它會根據(jù)環(huán)境反饋的獎勵信號來學(xué)習(xí)最優(yōu)行為策略,會基于反饋的信息不斷調(diào)整算法,提高模型的準(zhǔn)確性和泛化能力。訓(xùn)練完成后,DeepSeek團隊對DeepSeekR1進行評估,以提升模型在實際應(yīng)用中的性能。可見,DeepSeekR1的設(shè)計思路實際與大語言模型(LLM)是一致的,都是先將所有輸入數(shù)據(jù)統(tǒng)一化(LLM是文本/代碼等,DeepSeekR1是各種類型的視頻、圖片、文字),然后再訓(xùn)練模型預(yù)測下一個“詞”(tokens)。學(xué)會了預(yù)測即具備了生成的能力,LLM是對語言文本的生成,而DeepSeekR1不僅能生成文本,還會在思維鏈上進行反思和驗證,有邏輯地推導(dǎo)出連貫答案,提升可讀性。
由此可見,即使是DeepSeekR1這種能夠根據(jù)數(shù)據(jù)信息來準(zhǔn)確生成相關(guān)內(nèi)容的人工智能仍然不可能真正像人一樣理解“語義”,它們只是通過大量的數(shù)據(jù)訓(xùn)練、模式匹配和統(tǒng)計概率的方式來產(chǎn)出結(jié)果。正如Stephen[15]評價ChatGPT時所說,雖然它的表達(dá)結(jié)果非常像人,但歸根結(jié)底ChatGPT只是從它積累的統(tǒng)計數(shù)據(jù)中抽取出一些“連貫的文本線索”,這只是表明了人類語言在某種程度上比我們想象的結(jié)構(gòu)更簡單、更規(guī)律。進一步而言,基于深度學(xué)習(xí)的大模型只是大型統(tǒng)計機器,這些模型在大量文本中訓(xùn)練、預(yù)測單詞時,只學(xué)會了語言的形式,并沒有學(xué)會語義[16]。
綜上,我們綜合博登與塞爾的觀點,認(rèn)為人工智能可以進行理解。在理解的形式上,人工智能是對由0與1構(gòu)成的二進制的理解,進而表現(xiàn)出能夠讀懂輸入信息。而對于理解的內(nèi)容,由于人工智能不具備人的意識,因而不可能擁有意志能力,也就不能真正地理解輸入信息的意義。質(zhì)言之,人工智能的“理解”是模仿于人類的理解過程,是脫離了心理屬性的純粹符號操作和知識表征。因此,人工智能的理解是由兩種能力整合表現(xiàn)出來:一是認(rèn)知能力,二是解釋能力。
那么認(rèn)知能力與解釋能力之間的關(guān)系如何?
人工智能的認(rèn)知能力是解釋能力的基礎(chǔ),認(rèn)知能力通過把握事物的內(nèi)在邏輯關(guān)聯(lián)形成知識、經(jīng)驗,而解釋能力則是運用所掌握的知識與經(jīng)驗去整合、論證對象為何如此的原因和理由。由此,我們可以將人工智能的理解標(biāo)準(zhǔn)制定如下:
如果人工智能能夠運用已有的數(shù)據(jù)信息對輸入的對象作出符合通常經(jīng)驗、邏輯要求的解釋,那么人工智能就具有理解力。
理解的過程就是解釋的過程,通過如何解釋可以表現(xiàn)出如何理解。人工智能對輸入對象作出的解釋既可能是語言上的輸出,也可能是行為上的反饋。但解釋并非無理由、無根據(jù)的,作出的解釋要符合人們通常的經(jīng)驗或邏輯要求。基于人工智能的理解標(biāo)準(zhǔn)可以看到:我們關(guān)注的是從理解的形式或理解的表象上看人工智能是否知道對象是什么的問題。因為,只有在知道對象是什么時,才會給出符合經(jīng)驗和邏輯要求的解釋。事實上,這與圖靈測試所表達(dá)的觀點是一致的。在圖靈構(gòu)想的思想實驗中,核心問題是:計算機能否像人一樣回答提問者的問題?圖靈本人對此給予了肯定的回答[12]5。在圖靈看來,有智能就是能計算,而“所謂計算就是應(yīng)用形式規(guī)則,對(未解釋的)符號進行形式操作”[12]4。雖然計算機是通過計算來作出回答或判斷的,但圖靈認(rèn)為,判斷計算機是否有智能,不應(yīng)看其內(nèi)部結(jié)構(gòu)或理解過程,而應(yīng)看計算機的實際表現(xiàn)。如果計算機能夠完成人需要用智能才完成的行為,能像人一樣回答提問,那么也就應(yīng)該認(rèn)為它有智能[12]57。因此,可以認(rèn)為:一旦人工智能對理解對象作出了符合人的經(jīng)驗或邏輯要求的解釋,那么人工智能就算理解了或讀懂了對象,而所給出的解釋是否正確則需要后續(xù)的實踐或科學(xué)實驗進行檢驗。
三、人工智能的三種理解能力
理解標(biāo)準(zhǔn)具有普遍的意義,任何符合理解標(biāo)準(zhǔn)的人工智能都可以看作是具有理解能力的。但在理解標(biāo)準(zhǔn)之上,人工智能的理解是有層次的。美國人工智能協(xié)會創(chuàng)始人之一唐納德·米奇(Michie)曾將人工智能的學(xué)習(xí)(machine learning)能力劃分為弱(weak)、強(strong)和超強(ultrastrong),并對其制定了判斷標(biāo)準(zhǔn):弱標(biāo)準(zhǔn)確定了人工智能的預(yù)測能力會隨著數(shù)據(jù)的增加而增強;強標(biāo)準(zhǔn)要求人工智能能夠以符號的形式進行假設(shè)(hypotheses);超強標(biāo)準(zhǔn)進一步拓展了強標(biāo)準(zhǔn),符合超強標(biāo)準(zhǔn)的人工智能不僅能夠提供假設(shè),還能將假設(shè)傳授給人類,從而提高人類研究水平[17]。事實上,學(xué)習(xí)與理解活動有關(guān),唐納德·米奇對人工智能學(xué)習(xí)能力的劃分對應(yīng)著人工智能不同的理解能力。基于唐納德·米奇的判斷標(biāo)準(zhǔn),可以劃分出人工智能的三種理解能力:弱標(biāo)準(zhǔn)下的人工智能具備簡單理解能力,能簡單地處理一些事物,如對事物進行識別或判斷。隨著所掌握的數(shù)據(jù)的增多,人工智能識別和判斷的能力就越強。可以說,今天大多數(shù)的人工智能都屬于這一類。強標(biāo)準(zhǔn)下的人工智能擁有具體理解能力,它可以對具體事物進行歸納和推理,并能形成、運用相關(guān)概念。超強標(biāo)準(zhǔn)下的人工智能具有形式理解能力,體現(xiàn)出了更多的靈活性和專業(yè)性,它可以幫助科學(xué)家進行科學(xué)發(fā)現(xiàn),并促進科學(xué)理解[18]。基于當(dāng)前科學(xué)實驗,可以看出人工智能的形式理解具有對實在進行理解的能力,它能夠?qū)κ挛锏男再|(zhì)、屬性進行科學(xué)發(fā)現(xiàn),并創(chuàng)造新觀點和理論來描述實在。
(一)簡單理解
簡單理解就是把握到了某個或某類事物在某方面的屬性,并能基于把握到的屬性對事物進行識別或判斷。日常使用的圖像識別、無人駕駛、語言翻譯等就屬于簡單理解。這些程序的工作原理就是對一些原始信息輸入加以處理,并對這些輸入的信息進行一種合適的描述或判斷。比如,文字識別可以通過對潦草的字跡進行辨認(rèn)后輸出普通人可讀的字符;無人駕駛則通過傳感器將汽車內(nèi)部與外部的環(huán)境信息傳輸給中央計算機,中央計算機對輸入的信息進行識別,并最終作出反應(yīng)、判斷。具備簡單理解能力的人工智能,其形成路徑主要有兩種:一種是符號AI技術(shù),另一種是ANN(人工神經(jīng)網(wǎng)絡(luò))技術(shù)。符號AI技術(shù)使人工智能先天具有識別事物的信息加工裝置——算法,即程序員事先把有關(guān)的標(biāo)準(zhǔn)程序化并交給計算機,當(dāng)數(shù)據(jù)輸入時,計算機可以直接按已形成的理解機制(算法)將輸入數(shù)據(jù)加工成輸出符號,形成認(rèn)知表征(理解結(jié)果)。這種類型的人工智能的“理解”是一種自上而下的被賦予,且受到設(shè)計者的設(shè)計能力和數(shù)據(jù)庫大小的限制。而當(dāng)面對不同形態(tài)、類別的對象時,僅靠預(yù)先把握到的物理特征還不足以應(yīng)對形態(tài)各異的輸入對象。因此,符號AI技術(shù)下的人工智能雖然具有簡單理解能力,但缺少了理解的靈活性和模糊性,除非程序員實時更新數(shù)據(jù)庫,完善算法,或使識別程序先天獲取所有可能的輸入類型。但這不僅會增加程序員的工作,而且將會使系統(tǒng)的數(shù)據(jù)庫變得大得無法容忍。例如,對數(shù)字“6”的識別中,一般設(shè)計出的數(shù)字識別程序?qū)Ψ枴?”的外形特征進行了把握,能夠按一定步驟把“6”從眾多對象中識別出來,但面對手寫的阿拉伯?dāng)?shù)字“6”時,由于書寫者的筆鋒不同,所寫出的“6”呈現(xiàn)出千姿百態(tài),有些形態(tài)的數(shù)字“6”超出了計算機所擁有的識別規(guī)則,進而無法被有效識別。面對這一問題,ANN技術(shù)顯示出了優(yōu)勢。在ANN技術(shù)下,人工智能呈現(xiàn)出一定的學(xué)習(xí)能力,人工神經(jīng)網(wǎng)絡(luò)可以由不同層次的人工神經(jīng)元組成,在分析數(shù)字“6”時,程序員可以將分析步驟劃分為四個不同的層次[19]:第一層次可以將像素識別為暗或亮,第二層次可以識別邊緣和簡單的“6”的形狀,第三層次識別更復(fù)雜的“6”的形狀,第四層次學(xué)習(xí)總結(jié)出哪些形狀可以用來識別數(shù)字“6”。可見,人工神經(jīng)網(wǎng)絡(luò)計算機可以對不同形態(tài)的數(shù)字“6”進行觀察,從中找出屬于數(shù)字“6”的特征,并上升為規(guī)則,最終根據(jù)這些規(guī)則對數(shù)字作出判斷。
(二)具體理解
具體理解建立在簡單理解之上,是對簡單理解能力的進一步發(fā)展。
首先,具備具體理解的人工智能能夠?qū)κ挛镞M行概括與歸納,并最終形成反映某個事物或某類事物特有屬性的概念。西蒙認(rèn)為:“‘概念形成’、‘概念掌握’或‘概念歸納’都是‘學(xué)習(xí)’的同義語。概念形成就是把一個名稱和一類事物聯(lián)系起來。”[20]227那么,如何將一個名稱與一類事物聯(lián)系起來?這就需要通過歸納、判斷、推理等邏輯演繹行為來進行。正如De Regt提出的“科學(xué)理解”,在他看來,構(gòu)建邏輯演繹的行為過程就是一種“解釋”(interpretation)。科學(xué)的解釋產(chǎn)生科學(xué)的理解[21]96,而構(gòu)建解釋所需的額外要素是一種技能:從現(xiàn)有知識中構(gòu)建演繹邏輯的能力[21]25。歸納、推理以及判斷活動需要運用概念,而運用概念的過程也是理解概念甚至形成新的概念的過程。人工智能的具體理解具有理解概念和形成概念的能力,這體現(xiàn)在它可以進行歸納、推理等邏輯演繹活動。例如,早期的專家系統(tǒng)通過知識庫和推理引擎相結(jié)合的方式表現(xiàn)出一定的推理能力。推理引擎使專家系統(tǒng)能夠從知識庫的規(guī)則中得出推論,通常采用“如果—那么”的推理結(jié)構(gòu)。但這種推理方式只有兩個值,即真值和假值。這種絕對的精確性使得模糊的屬性或情況難以表征。而卷積神經(jīng)網(wǎng)絡(luò)的出現(xiàn)使人工智能具備了學(xué)習(xí)能力,將機器學(xué)習(xí)與推理相結(jié)合成為當(dāng)前提高人工智能理解力的重要方法。一些學(xué)者認(rèn)為主要有三個趨勢:第一,使用機器學(xué)習(xí)技術(shù)(尤其是強化學(xué)習(xí))在求解器/證明器中對證明規(guī)則進行排序、選擇和初始化;第二,在程序綜合和驗證的背景下,人工智能可以進行歸納學(xué)習(xí)和演繹推理的結(jié)合;第三,使用求解器層為機器學(xué)習(xí)模型提供校正反饋,以幫助提高其在部分規(guī)范或領(lǐng)域知識方面的準(zhǔn)確性、可推廣性和魯棒性[22]。值得注意的是,真正的推理不僅僅涉及推論,而且涉及與特定任務(wù)或情況的解決方案相關(guān)的推論。目前,這是人工智能面臨的最棘手的問題之一。
其次,人工智能的具體理解能夠概括、總結(jié)出基本原理或概念,并能用這些概念或基本原理去解釋相似現(xiàn)象。“在學(xué)習(xí)研究中,‘遷移’是一個重要的問題。遷移就是能夠使用學(xué)會的東西去解決新的任務(wù),而概括在遷移中起到重要作用”[20]222。人工智能的具體理解可以用“類比”的方式,將所習(xí)得的概念和基本原理變?yōu)榻鉀Q新問題的能力。也就是說,當(dāng)具備的解釋能力與解決新問題所需要的解釋能力之間相似而不完全相同時,人工智能在具體理解中往往能把新事物的各種特征與已有的解釋(理解)方式進行匹配,有時盡管不能完全吻合,但仍可運用所習(xí)得的知識去解釋新問題。例如,2024年3月人工智能公司Anthropic發(fā)布了Claude 3模型系列。Claude 3 能夠總結(jié)高達(dá)15萬個單詞,用戶可以輸入大量數(shù)據(jù)集,并要求 Claude 3以備忘錄、信件或故事的形式進行總結(jié),所總結(jié)出的基本知識使得 Claude 3在處理長文本方面超過ChatGPT。其中,Claude 3 Opus對于長文的語境理解準(zhǔn)確率超 99%[23]。也就是說,面對不同的輸入信息,Claude 3基于已有知識庫可以有效地回答或解決提問者的問題。
(三)形式理解
形式理解是當(dāng)前人工智能所能達(dá)到的最高理解能力,具有形式理解的人工智能擁有類似于人的推理能力與論證能力,能夠?qū)嵲谶M行理解。具有形式理解的人工智能就是唐納德·米奇所提出的超強標(biāo)準(zhǔn)下的人工智能。有學(xué)者曾對超強標(biāo)準(zhǔn)提出過質(zhì)疑,認(rèn)為到目前為止還沒有任何記錄在案的嘗試證明存在唐納德·米奇所定義的超強標(biāo)準(zhǔn)的機器學(xué)習(xí)系統(tǒng)[24]。但事實上,近年開發(fā)出的深度學(xué)習(xí)算法在一定程度上表現(xiàn)出了超強標(biāo)準(zhǔn)的特征,科學(xué)家運用具有深度學(xué)習(xí)功能的人工智能進行科學(xué)發(fā)現(xiàn),并從它們的推論中獲得了學(xué)習(xí),從而促進了科學(xué)理解。例如,在過去的幾年里,科學(xué)家們將人工智能運用到自然科學(xué)領(lǐng)域中,并一直在嘗試重新發(fā)現(xiàn)物理定律或概念,包括日心說[25]、時間的運動方向[26]以及機械運動的力學(xué)方程[27]。對此,有學(xué)者表示,某些邏輯任務(wù)的實驗表明,超強人工智能算法可能已經(jīng)存在,從而證明了存在某一類概念,這些概念對人類來說很難獲得,但是對這些概念進行抽象的解釋卻很容易理解[19]。由此可見,人工智能的形式理解不僅具有類似于人的學(xué)習(xí)能力,而且也表現(xiàn)出了一定的創(chuàng)造力。
基于唐納德·米奇的超強標(biāo)準(zhǔn)和當(dāng)前的一些科學(xué)實驗案例,我們認(rèn)為具有形式理解的人工智能的適應(yīng)表征能力主要表現(xiàn)在三個方面:一是它能以更好地解釋方式來表征信息。由于科學(xué)計算工具的有限性,一些實驗過程無法被科學(xué)家直觀地展現(xiàn)出來,而具有形式理解的人工智能可以廓清或展現(xiàn)那些無法以任何其他方式可視化或探測的物體及過程。例如,科學(xué)家們目前主要是分析二維圖形表中的數(shù)據(jù),但具有形式理解的人工智能可以將數(shù)據(jù)展現(xiàn)為三維環(huán)境(通過虛擬或增強現(xiàn)實眼鏡或全息投影技術(shù)實現(xiàn)),這將有助于人們理解復(fù)雜現(xiàn)象。目前,這一方面的初步成果已在天體物理研究中得到運用[28]。二是它能基于所掌握的數(shù)據(jù)信息進行論證、推理出新觀點或新理論,科學(xué)家們可以利用這些新想法來獲得新的科學(xué)理解。例如,計算機算法MELVIN能從系統(tǒng)的解決方案中自主學(xué)習(xí),并提高了對更復(fù)雜實驗的發(fā)現(xiàn)率。在最新的量子實驗中,它找到了新的實驗來實現(xiàn)創(chuàng)建和操作復(fù)雜的量子態(tài),發(fā)現(xiàn)了一個比預(yù)期更大的量子糾纏的解決方案[29]。算法MELVIN可以應(yīng)用于許多量子系統(tǒng),并能實現(xiàn)以前認(rèn)為只能存在于數(shù)學(xué)公式中的量子態(tài)。三是它能基于數(shù)據(jù)信息進行假設(shè)分析,能夠?qū)ΜF(xiàn)實的結(jié)果進行反事實推理。雖然唐納德·米奇未提出“反事實推理”問題,但我們認(rèn)為人工智能能夠進行的“假設(shè)(hypotheses)”應(yīng)該包含“反事實推理能力”,而且“反事實推理”應(yīng)該作為人工智能模擬人類推理的最高模擬能力。珀爾等曾提出因果關(guān)系之梯,其中反事實推理是因果關(guān)系之梯的最高層[30]27。反事實推理就是能夠?qū)ΜF(xiàn)實結(jié)果進行否定性假設(shè),在否定性假設(shè)中能夠虛構(gòu)創(chuàng)造物,進而獲得更豐富的理解。但數(shù)據(jù)是一種現(xiàn)實信息,對于當(dāng)前人工智能來說,如何基于數(shù)據(jù)來進行反事實推理是一個巨大的挑戰(zhàn),許多學(xué)者都在試圖尋找解決的路徑。其中,珀爾等通過建立因果模型分析了AI算法如何實現(xiàn)反事實推理的問題,認(rèn)為“這是機器邁向強人工智能的重要一步”[30]323。限于篇幅,本文不進一步展開,但我們認(rèn)為未來將反事實推理算法化是將意識和智能體現(xiàn)轉(zhuǎn)化為計算機現(xiàn)實的重要一步,也是未來人工智能發(fā)展形式理解能力的重要內(nèi)容。
目前,由“深度學(xué)習(xí)”算法驅(qū)動的“神經(jīng)網(wǎng)絡(luò)”復(fù)雜程序使人工智能具備一定的形式理解能力,并在解決一些科學(xué)問題方面取得了一定成功,但它們作為科學(xué)發(fā)現(xiàn)的通用工具的使用仍處于起步階段。現(xiàn)階段的人工智能還只是初步具有形式理解能力,雖然它們在一定程度上能自主地對事物的屬性、關(guān)系進行表征,但還不能與人的表征相提并論。因為人工智能的表征內(nèi)容仍依賴于人的關(guān)聯(lián)和解釋。在創(chuàng)造性方面,雖然具有形式理解能力的人工智能表現(xiàn)出一定的創(chuàng)新能力,但離不開與人的合作,在這個意義上,人工智能被當(dāng)作一種用于進行發(fā)明和發(fā)現(xiàn)的手段或方式。此外,在珀爾看來,當(dāng)前的人工智能仍處于因果關(guān)系之梯最底層——關(guān)聯(lián)推理[30]9。未來人工智能理解的自主性還需要進一步學(xué)習(xí)、模仿人類的干預(yù)推理,才能夠進行反事實推理。這些都是未來人工智能發(fā)展形式理解能力的重要內(nèi)容。
基于以上論述,可以將三種理解劃分為:認(rèn)識論理解與本體論理解。理解在海德格爾之后有了認(rèn)識論與本體論之分。認(rèn)識論理解是對事物的特征、概念、理論的把握;本體論理解是對事物的存在的把握。簡單理解與具體理解是對事物的特征和概念的把握,因此屬于認(rèn)識論理解。形式理解不僅能把握事物的關(guān)系、屬性,而且能基于已有的知識去發(fā)現(xiàn)新的關(guān)系和屬性,甚至能夠創(chuàng)造出新的科學(xué)理論,而這種具有科學(xué)發(fā)現(xiàn)和創(chuàng)造理論的能力實際就具備了對“實在”進行描述的能力。因此,從這一意義來講,形式理解可以創(chuàng)造理論和觀點來描述實在,屬于本體論理解。
四、人工智能理解的合理性
一般而言,人們在生活過程中,總是以各種形式在接收和反饋他人的理解,而在一個人的理解傳遞給他人的過程中,將不可避免地發(fā)生“變異”及“分裂”,即他人總是以各種理由和依據(jù)去重新理解所接收到的信息。也就是說,對于他人的理解,我們只能通過一些間接的方式(對話、文本)進行理解,對于所進行理解的依據(jù)、理由,由于無法參與對方的理解過程,我們又如何判斷對方的理解是否合理?對于人工智能的理解亦是如此。算法是人工智能理解的核心。具有自主學(xué)習(xí)能力的人工智能所具備的算法會通過數(shù)據(jù)的不斷更新而不斷迭代,通過數(shù)次迭代之后,程序員基本看不懂迭代后的算法是什么。因此,人工智能的理解過程成了一個“黑箱”問題,算法對于程序員而言并不完全具有可理解性。從這一意義來說,人工智能的理解具有一定的自主性,人們無法完全參與人工智能的理解過程。因此,我們?nèi)绾闻袛嗳斯ぶ悄艿睦斫馐欠裼行Щ蚝侠恚窟@時應(yīng)當(dāng)說,我們需要依據(jù)的是人工智能進行理解的那些理由、依據(jù)是否合理。由此,合理性作為理解活動的一個判斷標(biāo)準(zhǔn),凸顯出了它的重要性。
人工智能理解的合理性問題涉及人工智能進行理解的理由、依據(jù)是什么的問題。但要回答這一問題,首先需要清楚人工智能的理解是否具有合理性。因為,Searle認(rèn)為,合理性是人所特有的諸種認(rèn)知能力中的獨特的能力之一,合理性就是一種遵守規(guī)則的問題[31]8。在Searle看來,理解的合理性問題應(yīng)只針對人的理解而言。但人工智能作為人類智能的體外延伸,具有理解能力,并作為一個類主體而存在,它也可以具有理解的合理性問題。其理由主要有兩點:
首先,人工智能具有自主性,在一定程度上能夠協(xié)助甚至代替人去改造環(huán)境。“人工智能所反映的是人類的三個屬性(存在、遺傳、適應(yīng))中的第三個屬性:適應(yīng)。人類為什么要發(fā)展人工智能,因為要最大限度地去適應(yīng)環(huán)境,包括自然環(huán)境與社會環(huán)境。”[32]248從人自身來看,發(fā)展人工智能是為了更好地適應(yīng)環(huán)境。因此,人工智能應(yīng)具備適應(yīng)環(huán)境的能力。而對環(huán)境的適應(yīng)能力問題,實際上涉及人工智能的自主性問題。人工智能具有一定的功能,而技術(shù)人工物的功能是它在與環(huán)境的相互關(guān)系中表現(xiàn)出來的系統(tǒng)對環(huán)境產(chǎn)生某種作用的能力[33]166。也就是說,人工智能具有對環(huán)境作出反應(yīng)的能力。進一步而言,“只要機器人以某種程度的獨立性或自主性進行一些操作,如抓取東西,我們就應(yīng)該認(rèn)為它們具有一定的自主性”[34]。按此理解,不論是具有何種理解能力的人工智能,只要能夠在一定程度上獨立地對輸入信息進行“解釋”,那么它就具有一定的自主性。而
這意味具有理解力的人工智能擁有類似于人的能動性,能夠根據(jù)環(huán)境信息的變化作出反應(yīng),甚至能夠?qū)唧w問題作出具體分析和具體解答,在科學(xué)研究中,還能夠幫助科學(xué)家進行科學(xué)理解。因此,在某些方面,人工智能可以表現(xiàn)出像人一樣的行為,可以進行和人一樣的既能知也能行的活動。
其次,人工智能是作為一種工具而存在的。它承載著人的意圖和目的,并表現(xiàn)為具有某種功能。人工智能是建立在當(dāng)代技術(shù)之上的技術(shù)人工物。而技術(shù)人工物來源于人的設(shè)計、制造,并最終被用于滿足使用者的需求。同樣,人工智能是由人編寫并在硬件上運行的程序系統(tǒng)。編程者將要素(計算機語言)按一定的邏輯關(guān)系進行編寫組合,形成多個字節(jié)序列(程序),程序通過硬件才能發(fā)揮出相應(yīng)的功能。因此,編程者在編寫程序時就已將自己的意向賦予其中,進而使程序最終具有某種目標(biāo)功能,功能承載著編程者的意向。即使是擁有深度學(xué)習(xí)算法的人工智能能夠收集數(shù)據(jù)自行進行編程,修改算法,但其仍需要元算法的存在,若沒有編程者賦予的元算法,人工智能無法在后續(xù)進行數(shù)據(jù)訓(xùn)練來調(diào)整算法。因此,歸根結(jié)底它們都源于人的設(shè)計。
由此,人工智能的存在具有兩重性:一方面,它作為人的工具,其存在的意義在于滿足人的需要。另一方面,它作為類主體,具有一定的自主性,能夠在一定程度上進行自主的理解活動,其理解的過程并不完全受人的影響或指引。陳嘉明曾提出理解的合理性的三個原則:“與目的性相關(guān)聯(lián)的合理性”“與真或事實相關(guān)聯(lián)的合理性”“與模態(tài)概念相關(guān)聯(lián)的合理性”[35]。由于人工智能的理解與人的理解不完全相同,基于陳嘉明的觀點和人工智能的存在特性,人工智能理解的合理性應(yīng)包含以下兩個方面:
一是人工智能的理解與使用目的相關(guān)聯(lián)的合理性。使用目的是人工智能進行理解的理由或依據(jù)之一。人工智能接收的信息承載著使用者的使用目的。因此,人工智能的理解受使用目的的制約。而以滿足不同的使用目的為導(dǎo)向,所產(chǎn)生的對合理性性質(zhì)的界定也相應(yīng)地不同。使用目的可以是“好”或“效用”等。若使用是以“好”為目的,那么人工智能的理解應(yīng)受“好”的目的所制約。越是“好”的使用目的,人工智能的理解也就越合理。若是以“效用”為目的,那么人工智能的理解是否合理,就取決于其理解的結(jié)果(解釋)是否是有好的“效用”。例如,
DeepSeek-R1模型具有數(shù)理邏輯推理、編程代碼分析、文本創(chuàng)作等方面的功能,能夠極大助力人們的工作和生活。對于大部分的使用者來說,DeepSeek-R1的強大功能發(fā)揮了較大效用,在符合社會道德與職業(yè)道德的前提下去使用DeepSeek-R1幫助解決工作和生活中的問題,越是好的使用目的,它所進行的理解活動也就越合理。但與此同時,DeepSeek-R1所具備的強大功能也帶來了一系列的誠信、道德上的困擾,例如在課程論文、學(xué)術(shù)論文撰寫方面,一些人會利用DeepSeek-R1的寫作能力,讓其代替自己創(chuàng)作,從而形成一種新的學(xué)術(shù)不端行為,顯然,對這些人來說DeepSeek-R1發(fā)揮了較大“效用”,但這并不是一個好的使用目的,對于公眾來說,該使用目的并不合理。
二是人工智能的理解與真的或與事實相一致的合理性。Nozick認(rèn)為,與事實相聯(lián)系的理解,也就是與“理由”相聯(lián)系[36]119。因此,“真”或“事實”也可以成為理解的理由。這里的“真”是一種認(rèn)識的標(biāo)準(zhǔn)。質(zhì)言之,若人工智能的理解能夠與事實相一致,即達(dá)到“真”的標(biāo)準(zhǔn),那么人工智能的理解就是合理的。這種界定方式實際就是以還原論(回到事實本身)的方式來界定合理性問題。人工智能的理解具有一定的自主性,人們無法全程參與人工智能的理解過程。因此,判斷人工智能的理解是否合理,不僅要看理解結(jié)果是否符合使用目的,而且要注意其理解結(jié)果是否符合客觀事實。例如,在科學(xué)研究中,具有形式理解的人工智能常被科學(xué)家用來進行科學(xué)發(fā)現(xiàn),它可以基于所掌握到的實驗信息發(fā)現(xiàn)一些新的概念或現(xiàn)象,但所發(fā)現(xiàn)的概念或現(xiàn)象還須符合客觀事實,即能夠經(jīng)得起因果推理或?qū)嶒灆z驗。只有符合因果邏輯或客觀事實的理解才具有合理性。
可見,人工智能的理解并非盲目地接收信息并反饋信息的過程。它的理解過程受到使用目的、“真”等因素的制約,這些因素成為人工智能進行理解的理由和依據(jù)。人工智能的理解也只有符合使用目的并反映客觀事實時,才是合理的理解。當(dāng)然,人工智能理解的合理性是一個復(fù)雜的問題,限于文章篇幅,我們僅從人工智能的存在特性、人工智能與使用者關(guān)系進行了論述。
隨著人工智能的不斷更新發(fā)展,人工智能理解的合理邊界、合理效用以及是否會形成新的合理性標(biāo)準(zhǔn)等必然會是持久的新問題。例如,像DeepSeekR1的理解的合理性問題是否只與使用目的、符合客觀事實有關(guān)?它的推理過程是否合理當(dāng)前,國外一些學(xué)者認(rèn)為DeepSeek-R1的推理模型具有潛在的安全風(fēng)險,這在一定程度上讓我們反思DeepSeek-R1推理過程的合理性問題。詳見:Kassianik P,Karbasi A.Evaluating Security Risk in DeepSeek and Other Frontier Reasoning Models[BFB].(2025-01-31)[2025-02-22].https://blogs.cisco.com/security/evaluatingsecurityriskindeepseekandotherfrontierreasoningmodels。?它具備的反思能力是否就是反事實推理?是人賦予它的理解的合理性,還是它自身?更進一步說,它的理解核心——算法是否具有偏見?如果是,它的算法偏見在何種程度上是合理的?后續(xù),我們將從這些方面進行討論。
參考文獻(xiàn):
[1] 肖峰.人工智能與認(rèn)識論的哲學(xué)互釋:從認(rèn)知分型到演進邏輯[J].中國社會科學(xué),2020(6):49-71,205-206.
[2] KVANVIG J L. The value of knowledge and the pursuit of understanding [M]. Cambridge:Cambridge University Press,2003.
[3] ELGIN C. Understanding and the facts [J]. Philosophical Studies,2006,132(1):33-42.
[4] 陳嘉明.理解、理由與解釋[J].自然辯證法通訊,2019,41(5):10-17.
[5] 陳嘉明.“理解”的理解[J].哲學(xué)研究,2019(7):118-125.
[6] 陳嘉明.無解釋的理解是否可能[J].哲學(xué)分析,2020,11(5):139-150,198.
[7] WU G L. A Hermeneutical analysis of quantum mechanics [J]. Technology and Language,2024,5(1):18-36.
[8] 中國社會科學(xué)院語言研究所詞典編輯室.現(xiàn)代漢語詞典[M]. 7版.北京:商務(wù)印書局, 2016.
[9] DE REGT H W.Scientific understanding : philosophical perspectives [M].Pittsburgh: University of Pittsburgh Press,2009.
[10] SARKER I H. Deep learning: a comprehensive overview on techniques,taxonomy,applications and research directions [J]. SN Computer Science,2021(2):1-20.
[11] 博登.人工智能哲學(xué)[M].劉西瑞,王漢琦,譯.上海:上海譯文出版社,2006.
[12] 塞爾.意向性——論心靈哲學(xué)[M].劉葉濤,譯.上海:上海人民出版社,2007.
[13] 毛郝浩,李建會.ChatGPT能夠理解嗎?從符號奠基問題的角度看[J].科學(xué)技術(shù)哲學(xué)研究,2023,40(4):15-22.
[14] DeepSeek.DeepSeekR1: incentivizing reasoning capability in LLMs via reinforcement learning[EB/OL].(2025-01-22)[2025-02-22]. https://arxiv.org/abs/2501.12948.
[15] STEPHEN W. What is ChatGPT doing and why does it work?[EB/OL].(2023-02-14)[2024-06-04].https://writings.stephenwolfram.com/2023/02/whatischatgptdoingandwhydoesitwork/.
[16] TERRENCE S. Large language models and the reverse turing test [J]. Neural Computation,2023,35(3):309-342.
[17] MICHIE D.Machine learning in the next five years[M]∥SLEEMAN D H.Proceedings of the 3rd European Conference on European Working Session on Learning.London:Pitman Publishing,1988:107-122.
[18] KRENN M, POLLICE R,GUO S Y. On scientific understanding with artificial intelligence [J]. Nature Reviews Physics,2022,4(12):1-9.
[19] JONES N .Computer science:the learning machines [J]. Nature,2014,505(7482):146-148.
[20] 西蒙.認(rèn)知:人行為背后的思維與智能[M].荊其誠,張厚粲,譯.北京:中國人民大學(xué)出版社, 2020.
[21] DE REGT H W. Understanding scientific understanding [M]. Oxford:Oxford University Press,2017.
[22] GANES V,SESHIA SA,SOMESH J. Machine learning and logic: a new frontier in artificial intelligence [J]. Formal Methods in System Design,2023,60(3):426-451.
[23] Anthropic.Introducing the next generation of Claude[EB/OL].(2024-03-04)[2024-06-04]. https://www.anthropic.com/news/claude-3-family.
[24] STEPHEN H M, SCHMID U,ZELLER C,et al. Ultrastrong machine learning: comprehensibility of programs learned with ILP [J]. Machine Learning,2018,107(7):1119-1140.
[25] ITEN R,METGER T, WILING H. Discovering physical concepts with neural networks [J]. Physical Review Letters,2020,124(1):010508.
[26] SEIF A, HAFEZI M, JARZYNSKI C. Machine learning the thermodynamic arrow of time [J]. Nature Physics,2021,17(1):105-113.
[27] UDRESCU S-M, TEGMARK M . AI Feynman: a physicsinspired method for symbolic regression [J]. Science Advances,2020,6(16):1-16.
[28] MICHAEL F. A 3D view of Orion.I. Barnards Loop [J]. Astrophysical Journal,2023 , 947(2):1-19.
[29] KRENN M,MALIK M,F(xiàn)ICKLER R. Automated search for new quantum experiments [J]. Physical Review Letters,2016,116(9):090405.
[30] 珀爾,麥肯齊. 為什么[M]. 江生,于華,譯.北京:中信出版社,2019.
[31] SEARLE J.Rationality in action[M].Boston: MIT Press,2003.
[32] 劉東明.智能的起源[M].成都:成都時代出版社,2019.
[33] 吳國林,等. 當(dāng)代技術(shù)哲學(xué)的發(fā)展趨勢研究[M]. 北京:經(jīng)濟科學(xué)出版社, 2019.
[34] 魏屹東.對李德毅院士關(guān)于“新一代人工智能十問”的哲學(xué)思考[J].智能系統(tǒng)學(xué)報,2023,18(6):1352-1355.
[35] 陳嘉明.理解與合理性[J].哲學(xué)研究,2017(9):75-81.
[36] NOZICK R . The nature of rationality [M]. Princeton:Princeton University Press,1994.
On the Understanding of Artificial Intelligence:" Taking Emerging AI such as DeepSeek-R1 as an Example
LI Quanxing1 WU Guolin1,2
(1.School of Marxism,South China University of Technology,Guangzhou 510641,Guangdong, China;
2. Institute for Advanced Study in Science, South China University of Technology, Guangzhou 510641, Guangdong, China)
Abstract:The comprehension criterion for AI provides a basis for determining whether AI has comprehension. Human understanding emerges from the combined influence of cognitive ability, volitional ability, and interpretative ability. In contrast, the understanding ability of artificial intelligence, which mimics human understanding, is manifested through the interaction of cognitive ability and interpretative ability. Based on Donald Mitchs classification of AIs learning ability, AIs understanding can be divided into simple understanding, concrete understanding and formal understanding. Simple understanding can make simple identification or judgement of things; specific understanding can apply relevant concepts and make induction and reasoning about specific things; formal understanding can make sense of the real.
DeepSeek-R1,which has the ability to reason deeply and solve complex problems,has been primed with formal understanding to some extent.
Simple understanding and concrete understanding belong to epistemological understanding, and formal understanding belongs to ontological understanding. The process of understanding in artificial intelligence needs to align with factors such as intended use and objective facts. These factors serve as the fundamental basis for determining whether the understanding demonstrated by artificial intelligence is reasonable.
Key words:artificial intelligence; understanding standard; DeepSeek
基金項目:國家社會科學(xué)基金重大項目“當(dāng)代量子詮釋學(xué)研究”(19ZDA038);2020年度中宣部文化名家暨“四個一批”人才項目“技術(shù)詮釋學(xué)研究”(x2sxN2200060)。
作者簡介:李全興(1996—),男,博士研究生,主要研究方向為馬克思主義基本原理、技術(shù)詮釋學(xué)。吳國林(1963—),男,博士,教授,博士生導(dǎo)師,主要研究方向為量子詮釋學(xué)、分析技術(shù)哲學(xué)、馬克思主義基本原理。