一、引言:從“知識社會學”到“科學社會學”
知識社會學是研究知識如何在社會中形成、傳播和演變的社會學分支學科。這里知識的含義包括思想觀念、意識形態、哲學宗教、文學藝術、科學技術等方面。知識社會學試圖揭示這種廣義的知識與社會群體、文化制度、歷史情境、時代精神、民族心理等社會文化之間的聯系,以及這些社會文化因素是如何影響知識的產生和發展。
1924年,德國社會學家舍勒在《知識社會學的嘗試》一書中首先使用了知識社會學概念。早期的知識社會學深受德國古典哲學的影響,把知識作為一種精神現象和認識成果,主要用思辨的方法,從本體論和認識論的視角,研究知識與社會存在的關系。后來,以美國社會學家默頓為代表提出的“科學社會學”把科學知識作為專門的研究對象,試圖從總體上描述科學的社會功能,關注科學的社會建制和科學共同體的社會結構,形成了獨特的經驗研究方法,使其成為一門獨立于哲學的經驗學科。然而默頓的“科學社會學”較少深入探討科學知識本身的社會建構過程,一定意義上僅限于科學的外史。20世紀70年代中葉,在英國愛丁堡大學誕生了“科學知識社會學(SSK)”,主張用社會學的視角和方法對科學知識及其成因進行研究,并在如何看待科學的方式上發動了一場觀念變革,成為知識社會學影響較大的主流學派。然而也由于其一些觀點表述較為偏激,而被科學界不少人指責為“相對主義”,甚至被扣上“反科學”的帽子。此外,在歐洲大陸還產生了以人類學方法研究科學家群體及其科學實踐活動的巴黎學派。而在美國,默頓開創的“科學社會學”傳統得到發展,形成更為務實的跨學科專門領域———“科學技術與社會(STS)”,并在制定科學和產業政策方面發揮了重要作用。簡單追溯知識社會學發展演變歷程,可以看到其幾乎一開始就將“知識”限定為“科學知識”,實際上形成了分別源自歐洲和美國的SSK與STS兩大學術源流和研究傳統,二者在具體研究方法和理論觀點上也有不少分歧甚至對立,但其共同點都是將科學知識生成與人類社會發展緊密聯系,以二者的互動互構作為基本理念和分析框架。
當下,人類社會已進入到一個過去難以想象的知識經濟、數字智能時代。人工智能(ArtificialIntelligence,AI)作為當代科學技術發展前沿,引領著第四次工業革命,成為國際競爭的焦點,也是普羅大眾社會生活中關注的熱點。在此背景下,技術形態的人工智能迫切需要提煉和轉化為社會學的知識形態,使之不僅僅停留于少數科學家和企業家的小圈子,而是能夠與政府、企業和公眾形成良性互動,推動中國數字智能社會建設。這就是本文嘗試以“知識社會學”為視角,對人工智能的基本原理、功能應用和社會影響進行跨專業探討的緣由。
二、原理:機器學習與“暗知識”
1.從符號邏輯到機器學習
人工智能是計算機科學的一個分支,是研究和開發利用機器模擬延伸人的智能的理論、方法及應用系統的一門技術科學,其目標是研發具有類似人腦功能的能夠解決特定問題或提供特定服務的計算機硬件系統及其軟件模型。1936年,英國數學家圖靈發表《論可計算數及其在判定問題中的應用》一文,提出了可以進行邏輯運算和推理的通用機器模型,計算機科學的理論基礎由此奠定。1945年馮·諾依曼發明了程序存儲架構計算機,使得圖靈計算機理論模型得以實現,世界上第一臺電子計算機于1946年在美國賓夕法尼亞大學研制成功。1949年英國劍橋大學制成存儲程序計算機。1956年由明斯基、麥卡錫、香農等科學家組織召開的達特茅斯會議,被認為是計算機和人工智能作為一項專門研究領域和一門學科創立的標志。從二戰期間開始研發到20世紀90年代家用電腦開始普及,歷經半個世紀。電子計算機由電子管、晶體管到集成電路芯片,按摩爾定律飛速演進,從樓房大小的龐然大物發展至幾乎人人擁有、須臾不可離開的手機、平板等各種類型個人電腦終端。
計算機硬件只能處理二進制數據,所謂“處理”其實就是“計算”,就是符號邏輯推演。數理邏輯演繹推理是人工智能早期思想,認為只要解決了自然語言處理即符號化問題,基于少數幾條基本的公理和定義,依賴于計算機強大的的計算能力、存儲能力,通過數理邏輯和博弈論推演,即可演繹出新的定理和其他推論。持這種主張的研究者被稱為人工智能的“符號主義”學派。但科學家發現這種方法只能在一些小規模簡單問題上應用,隨著問題規模的擴大和復雜化,其搜索空間規模呈指數型急劇上升,根本無法解決現實世界實際問題。于是,產生了將人類專家決策能力與機器符號邏輯推理能力相融合的專家系統。1997年,一臺由IBM公司開發的命名為“深藍(DeepBlue)”的計算機挑戰國際象棋世界冠軍卡斯帕羅夫,并最終獲勝。雖然公眾歡呼人工智能時代已經來臨,然而計算機科學家卻深知,“深藍”的勝利是依賴于強大的硬件、預置的專家系統和棋譜,依靠計算機邏輯計算的“蠻力”勉為其難取勝的,符號邏輯的人工智能之路似乎走入了一個死胡同。
就在基于符號邏輯和搜索技術的人工智能陷入困境之際,嘗試模仿人腦結構“重建”大腦的人工神經網絡技術取得進展。以感知器替代人腦的神經元,以并行方式電子電路模仿神經元連接,人工神經元網絡結構呈多層分布,因此被稱為“深度神經網絡”。利用反向傳播算法,科學家可以通過預訓練方式微調非循環多層神經網絡,這一過程即“機器學習”。“學習”過程就是調整每個人工神經元中保存的參數值,形成分布存放在整個人工神經網絡中的“記憶”。這種通過深度神經網絡進行機器學習的主張,被稱為人工智能的“聯結主義”。
機器學習算法是AI系統的關鍵,它定義了計算機如何處理數據、做出決策和執行任務。算法可以是簡單的規則集合,也可以是復雜的數學公式,或通過所需參數和訓練數據來構建的機器學習模型。根據訓練樣本的不同,深度學習可區分為監督學習、無監督學習、半監督學習、強化學習等。監督學習即給定訓練數據和帶標簽的輸出數據,通過將輸入數據映射到輸出數據,讓機器“習得”一般規則。無監督學習指輸入數據不帶標簽,讓機器自行“發現”數據結構、特征。強化學習則是在算法中設置“獎”“懲”函數,讓機器與環境動態交互(如自動駕駛、互動游戲等),在不斷地獎懲反饋中形成“經驗直覺”。由此可見,“狹義人工智能的工作原理是分析一個已知的數據集,在數據集中識別數據模式和事件概率,并把這些數據模式和事件概率編寫成計算模型。所謂計算模型,就是這樣一種黑盒子———只需扔數據進去它就能吐出答案”。①
正是基于上述深度學習原理,Google開發的圍棋軟件AlphaGo,2016年對弈職業圍棋九段李世石并取得勝利,2017年又完勝世界排名第一的棋手柯潔,后進一步進化為AlphaZero并保持不敗紀錄,將人類棋手遠遠拋在后面。自此,能夠通過圖靈測試的人工智能時代真正到來。因此有人把2016年視為“人工智能元年”。2022年底,美國OpenAI公司發布ChatGPT,一年之后又推出Sora,以及馬斯克旗下的Grok等,引領了生成式人工智能大模型發展。幾乎與此同時,中國企業的“文心一言”“通義千問”“訊飛星火”“天工AI”“騰訊元寶”“豆包”等人工智能大模型也紛紛問世。2024年底中國公司“幻方量化”推出“深度求索(DeepSeek)”開源模型,以其低成本、高效率、開放性、便捷性震驚了整個世界。
2.人類知識與信息編碼
一般來說,計算機就是人工智能———人造的具有推理計算能力的機器,但通常人們都只是把它稱為“電腦”,而不稱其為“人工智能”。其原因何在?蓋因首次提出人工智能概念的數學家圖靈同時也提出了評估是否是人工智能的判斷標準:當人類測試者向機器提出一些問題,然后根據機器的回答分辨對方是人還是機器,當測試者無法分辨,則認為其具備智能。顯而易見,“深藍”之前的計算機及其組合均未能通過“圖靈測試”(TuringTest),AlphaGo的出現則是一個轉折點。迄今為止,人工智能的發展實際經歷了兩個重要階段:“早期的人工智能算法是基于符號邏輯的演繹推理,1980年代以來的人工智能算法則是基于概率(貝葉斯網絡)的歸納推理”。② 符號邏輯進路研制出電子計算機,進而出現了互聯網,隨著計算機算力的大幅提升和互聯網源源不斷產生的大數據,為基于概率推理的機器學習算法準備了條件。如果說“深藍”是第一階段符號邏輯專家系統集大成的產物,AlphaGo、ChatGPT則可視為第二階段機器學習大模型進路成功的標志。
這里時間序列的兩個發展階段,也正好對應著人工智能發展水平的兩個層次。有專家指出,“國際上對人工智能是什么仍眾說紛紜。比較有共識的似乎是對人工智能的代際劃分,即第一代人工智能是基于知識的,第二代人工智能是基于數據的。”因此,“人工智能發展的第一和第二個層次可以更具體地表述為‘人類知識層次人工智能’和‘信息編碼層次人工智能’”。有意思的是,“生物智能進化是從作為感受性關系的信息到作為記憶和概念等的信息編碼,再到作為觀念體系的知識,而人工智能的發展則相反,先由人類知識到數據再到信息”。① 可以看到,機器智能和人的智能形成似乎遵循截然相反的路徑。
人體是由脂肪、蛋白質等碳化合物構成,而電腦芯片半導體材料主要是硅化合物,因此人們也把人類擁有的智能稱為“碳基智能”,把機器智能即人工智能稱為“硅基智能”。碳基智能是擁有自我意識的生命體。“人類有幸兼備經驗論和先驗論雙重能力。先驗論方法被認為表現了理性本身,因而被認為是更高級的”。② 人的智能來自先天稟賦和后天學習,人的學習可區分為三個層次———模仿、理解和創新。人的學習是在自我意識主導下的學習,這三個層次的逐級貫通和提升是自然而然的過程。人的智能是個體所擁有。腦科學研究發現,“單個神經元在基因層面就存在差異:每個神經元都有略微不同的基因”。③ 即每個人大腦中的神經元是不一樣的,大腦中的神經遞質也不可能完全相同。遺傳因素、成長環境等因素,使得個體智能存在較大差異。
相較而言,硅基智能的多層神經網絡僅僅是對人類大腦的簡單模擬,幾乎不可能模仿再現生物形態的復雜混沌狀態。每一臺機器外形可以不同也可以相同,其電路、算法、模型、算料(數據)雖可能差異很大,但都須遵循共同的標準和規律,因此機器所展現的智能一般只能局限在某些特定領域,且能夠被批量復制。“人工智能的思維材料是‘標識’(token),而人類的思維材料是語言和意象,但人工智能和人類日常思維都使用經驗論方法。……學會與人對話的人工智能事實上學到的不是有著人文和知識意義負荷的語言,而是由無數關聯性或無窮可能鏈接構成的標識系統”。④ 人工智能的硅基材料神經網絡,無論怎樣迭代、進化都不可能成為生命體,不可能形成自我意識。沒有自我意識就不會有喜怒哀樂的情感,也就沒有個性和同理心,不可能像人一樣有著對于意義的真正理解。提出著名的“中文房間(ChineseRoom)”思想實驗的哲學家約翰·塞爾指出:“數字計算機是一種只會處理符號,但并不理解符號的含義或解釋的設備。”⑤就是說,處理語言文字的人工智能不等于機器“理解”語言文字,機器學習似乎只能停留在“模仿”階段。以機器翻譯為例,機器“吐出”的只是標識數據“關聯度預測”結果,而非機器“理解”語言后給出的意義翻譯。
3.暗知識:解釋鴻溝與可信任A
人工智能的“智能”從何而來?為什么AlphaGo-Zero下棋總能贏?為什么ChatGPT能與人聊天還能吟詩作文?為什么Sora可以根據人的要求生成視頻?計算機專家給我們的回答一律都是“機器學習”的結果,但無法解釋其具體機制。對于非專業人員而言,可能就更難理解為什么“機器學習”可以“自學成才”做很多事情,且做得很好。也即知其然,不知其所以然。就是說,人工智能算法模型在本質上還是一個“黑箱”!這種“無法解釋性”被稱為“解釋鴻溝”。“所謂解釋鴻溝指的是物理—生理性狀似乎很難或不可能解釋我們的體驗”。① 解釋鴻溝的存在,直接影響到我們對人工智能的信任。試想,如果要求AI做出一些事關生死甚至人類命運的重大判斷或決策,我們能否無條件地加以信任?
追求“可信任的人工智能”,成為AI研發的重要目標。機器學習過程實際是分析數據集并識別數據模式和事件概率,給出標識數據“關聯度預測”結果。即人工智能所做出的判斷,其依據就是大數據分析既往事件,得出的勝算概率最大或認可人數最多的表述。一般情況下,得出的概率越大,結果就越可信任。在此意義上,我們將人工智能的基本原理歸結為基于概率的機器學習,“人工智能就是統計學,計算機與統計學就是人工智能”。② 然而我們知道,相關關系并不等于因果關系。因此,“解釋鴻溝有時也被說成‘相關性和因果性’之間的鴻溝”。③由關聯度分析來判斷事物發展可能性概率大小,解釋AI原理的依據并不充分,可信任的基礎也不夠牢固。為了給AI的“不可解釋性”提供一種更合理的解釋,美籍華人科學家王維嘉提出了“暗知識”概念。他認為,機器學習能夠在海量數據記憶基礎上識別出其細微差別和發展趨勢與規律,發現萬事萬物間隱藏著的相關關系,這種隱藏的相關關系即為“暗知識”,是人類還不能理解、也不能表達的知識。④ 與之相對應,能用語言文字、符號圖像等方式表達和傳播的知識則是“明知識”。除明知識、暗知識外,還有一類只可意會不可言傳,沒有辦法用語言、數字、符號、圖表、公式等方式表達和傳遞的知識———被稱為“默知識(默會知識)”。“默知識”與“暗知識”的區別在于:“默知識”是人類不可表達但可體悟和感受、“只可意會不可言傳”的知識;“暗知識”則既不可意會又不可言傳,但可以被機器大量復制。這三類知識的關系如果用海洋上的冰山來表示,人類所擁有的“明知識”只是露出水面的冰山一角,“默知識”就是水面下的整個冰山,而人類不能理解和掌握的“暗知識”則是整個海洋!
可以看到,“暗知識”概念實質上是將機器學習發現的數據間相關關系視為帶有必然性的因果關系。這一概念的提出似并未得到人工智能科學界的普遍積極響應,但仍不失為針對“解釋鴻溝”的一種可取的理論建構。
4.技術原理與科學原理
科學研究是一個“打破砂鍋問到底”追求真理的過程。科學原理應當是能夠揭示出事物發展最底層邏輯,使現象得到清晰解釋和透徹理解的理論。然而由于“解釋鴻溝”的存在,機器學習算法模型可以被視為人工智能的“工程原理”或“技術原理”,但還夠不上“科學原理”。
翻開人類文明史,技術的出現要遠早于科學。早在遠古時期人類學會鉆木取火、打磨石器工具,再到近代以來蒸汽機的發明,都屬于技術的積累演進。而自然科學只是近四五百年才開始形成。早期的科學與技術是“兩股道上跑的車”,相互分離,從伽利略的“兩個鐵球同時落地”實驗,到牛頓《自然哲學的數學原理》出版,基本都與當時的技術沒什么直接關系。第一次工業革命之后,蒸汽機技術改進提出了熱力學理論研究的需求,時值自然科學體系蓬勃興起,二者相輔相成,不僅產生了偉大的熱力學第一、第二、第三定律,而且科學理論的指導使得相對笨重只能燒煤的蒸汽機進化到燃料多樣可靈活移動的內燃機。法拉第電磁感應的發現和麥克斯韋方程組的提出,不僅形成了“電學”科學門類,也產生了電動機、發電機到無線電等技術成果,人類步入電氣時代。技術與科學相互促進,科技的結合越來越緊密,自此,幾乎所有的技術發明都有科學理論的指導或啟示,也都能夠用相應的科學原理加以解釋。
然而,人工智能這項被有人稱之為“人類最后和最重要的技術發明”卻成為例外,是專家們“摸著石頭過河”的成果。其原因何在?追溯起來可以看到,其實人工智能的標準———圖靈測試———就很“不科學”,圖靈、麥卡錫等人工智能先驅一開始就規避了物理主義的解釋鴻溝,并未對“智能”給出嚴格準確的科學定義,而是將重點放在其表象上,以人的主觀辨認和判斷作為目標依據。因此,一直以來這也不斷遭到一些“嚴謹的”科學家的詬病。但是,也正是由于圖靈測試標準不是那么精確,只是以主觀判定更“像”人為目標,才奠定了人工智能今天大發展的科學基礎。
人的智能總是會表現出很強的主觀性,存在著很多不確定性甚至犯錯可能。人工智能是對人的智能的模仿。人的智能是人的思維活動的結果或表現,人的感覺、知覺、思維等心理過程被稱為意識。要搞清楚智能的生理基礎,必須對人的意識活動及形成的機制、原理有深入了解。實際上意識的產生與大腦的功能,一個多世紀以來一直是心理學、神經生理學、腦科學和認知科學研究的前沿領域。然而迄今為止,科學家對大腦如何工作、為什么能感知世界、產生智能的機制和原理仍然知之甚少,停留在若干假說階段。人工智能自誕生以來,一直承載著人類關于智能與意識的種種猜想,激勵著人們不斷探索。而人工神經網絡對大腦的模仿,大模型數據驅動生成機器智能,也為人的智能研究開啟了一條新的路徑。
三、功能:識別、推理與生成
1.感知與識別
人工智能的核心機制是基于神經網絡的機器學習,而機器學習的“學習材料”就是大數據。大數據的來源,一開始是在人們登錄互聯網的點擊、輸入、搜索過程中源源不斷產生的。計算機后臺的聚類算法對大數據進行分析,就可以識別我們的興趣愛好、消費習慣等,進而有針對性地推薦輸出“個性化”內容。這是初級階段的人工智能,計算機的“感知”是被動的,依賴于人的鼠標鍵盤點擊輸入操作。
我們知道,人對所處環境、周邊事物的感知主要依靠眼耳鼻口手等感官,通過視覺、聽覺、觸覺、味覺、嗅覺而達至。因此,計算機模仿人的智能,實際上首先是從計算機視覺和聽覺領域取得突破開始。計算機攝像頭和麥克風分別充當了人的眼睛和耳朵功能。攝像頭可以捕捉圖像和視頻,但傳統的計算機“看到”的無非是一堆0/1這樣的二進制數字,除了可以很快數出圖像里面包含有多少種不同顏色及其排列的信息外,其實不可能“識別”圖像。人工智能視覺系統則不是讓計算機通過逐點逐行掃描來讀取和還原圖像內容,而是讓計算機依靠分散存儲、全局并行的深度人工神經網絡———卷積神經網絡,在觀察刺激“學習”過程中去自動抽取圖像的語義特征。當然,一開始很可能只是一個一個小圖塊組合方式的語義特征,反復訓練就可以開始慢慢地感知到這個圖形的組合特征,進而形成概念、意義,識別規律,做出判斷。同樣,麥克風作為接受聲音的輸入設備和傳感器,通過循環神經網絡及算法加以處理,能夠識別出音頻信息內容。這樣,絕大部分信息都可以通過計算機視覺和聽覺系統來認知,人工智能由此開始獲得飛速發展。
AI系統對感知到的信息進行理解和處理的過程,包括信息的分類、聚類、關聯等,其目的是形成對感知事物“是什么”的認知判斷。為使計算機能夠有效學習如何識別、分類信息,提升大模型的“理解”能力,還需要用人工為數據添加標簽或注釋,即數據標注。全面、準確的數據標注可以顯著提高大模型的準確性和可靠性,多樣化的數據標注能夠顯著增強大模型在不同場景下的泛化能力。因此,數據標注是人工智能大模型訓練的基礎。數據標注也是花費巨大的勞動密集型產業,2025年,國家發改委等部門發布了《關于促進數據標注產業高質量發展的實施意見》,指出預計到2027年,我國數據標注產業年均復合增長率將超過20%。① 我國還擁有世界上數量最多、分布最廣的攝像頭,雖被一些人所詬病,但應當看到,其產生的大數據“算料”也正是我國人工智能發展的優勢之一。
機器感知和認知是實現人機交互的前提。可以看到,目前人工智能從點擊搜索、文本輸入、算法推薦,到通過傳感器或其他輸入設備獲取外部環境信息,輔之以數據標注,其目的就是通過標記學習發現數據間關聯,使得計算機由對信息的“感知”上升為識別“認知”,相當于為機器賦予了視覺和聽覺。而計算機擁有遠超人腦的超強計算能力,它能夠發現數據分布變動規律和復雜的隱關系,從而迅速抓住對象的特征,而這些特征和規律可能是個人傾畢生經驗也難以發現的。譬如AI人臉識別、指紋識別,不僅已廣泛應用于刑偵破案、社會治理,也給我們交通出行、購物旅游帶來極大方便。AI用于輔助醫療影像診斷,其對X光片、CT掃描、核磁共振等的識別判斷以及疾病早期發現的準確率已超過世界最有經驗的醫生。隨著信息傳輸存儲技術的發展,加之高性能圖形加速處理器算力快速提升,機器學習效率越來越高,感知、識別能力越來越強,其應用場景也越來越廣泛。
2.推理與決策
人工智能是能夠幫助人類更好更快解決特定問題的計算機系統。人的智能突出表現為具有推理判斷并做出相應決策的能力。因此,計算機在學會感知、識別的基礎上,需要進一步能夠做出推理判斷,發出行動決策指令并自動執行。
AI的推理功能是其最“像”人的方面。不同之處在于,人的智能體現在基于常識和因果關系的推理。美國加州大學認知系統實驗室創始人、人工智能科學家朱迪亞·珀爾在其暢銷書《為什么:關于因果關系的新科學》中歸納了人類認知的“因果關系之梯”:第一層級是“關聯”,第二層級是“干預”,第三層級是“反事實推理”。② 第一層級是對觀察現象的歸納和演繹,第二層級相當于研究過程“控制變量”,而第三層級“反事實推理”是人類獨有的能力。珀爾認為,當前的人工智能處于“因果關系之梯”的最低層次。并且,即使在“關聯”層級做到極致,也無法躍升到“干預”層面,更不可能進入“反事實”思考。因此,人只需要較少的信息即可做出推理判斷。而AI基于數據相關關系的分析是概率推理,需要的信息量非常大,大數據大模型越大越好。AI推理的核心算法被廣泛認為是貝葉斯定理的應用。貝葉斯定理提供了一種基于先驗概率、條件概率、后驗概率之間關系來處理不確定性的方法,據此開發出分層貝葉斯神經網絡,奠定了深度學習的基礎,使得計算機可以從大數據中進行推斷和決策。這些決策既包括簡單的分類或預測,也可以是復雜的策略制定。在強化學習中,AI系統還可以通過與環境交互,以最大化長期獎勵來學習最優的決策策略。這與人工智能中的許多任務都高度契合。除貝葉斯算法外,還有線性回歸、邏輯回歸、馬爾科夫鏈、蒙特卡羅決策樹等多種AI算法模型均是以統計學概率理論為數學基礎。
AI推理作出決策并自動執行的能力,突出表現在具身人工智能(EmbodiedAI)領域。具身人工智能是指具備物理身體(形態)的智能系統(智能體),能夠通過其物理身體與真實世界(環境)進行交互,并在交互過程中獲取信息、理解任務、做出決策、實現行動。具身人工智能的“身體”不僅是一個物理實體,更是一個感知、認知、推理、決策和行動的綜合平臺。其感知環節依賴于計算機視覺、聽覺、觸覺等多種方式,獲取周圍環境詳細信息。基于感知結果的認知推理環節,具身人工智能可以自主制定目標并規劃路徑,在此基礎上作出自主決策并通過其“身體”付諸執行。這種行動能力不僅是傳統的基于規則或者數學公式執行簡單的機械操作,還包括在復雜環境中通過多模態大模型處理多種傳感數據輸入,由大模型生成運動指令對智能體進行驅動,獨立實現物理動作,最終實現與環境交互以完成任務。
對于普通人而言,最為熟悉的具身人工智能應當就是我們從科幻電影中看到的人形機器人。現在的具身智能機器人已經在游戲娛樂、家庭服務、工業制造、自動駕駛、物流運輸乃至刑事偵查、現代戰爭中大展身手,其外形當然也不一定是人形,像機器狗、機器蛇、無人機、自動駕駛汽車等都是具身人工智能之“身”。機器人舞蹈已經登上春晚舞臺,機器人導游導購也隨處可見。最先進的科技總是優先應用于國防軍事領域。俄烏戰場中無人機蜂群作戰、機器人戰士沖鋒陷陣的現代戰爭樣式,生動展示了AI不僅是新質生產力,也是新質戰斗力。具身人工智能成為世界各國人工智能領域的重點發展方向。隨著技術不斷進步和成本不斷降低,具身人工智能必將進一步拓展其應用場景,在感知進化、形態涌現、物理實現、多體協同、虛擬和現實深度融合等方面釋放出更加巨大的發展潛力和空間。而應用場景的豐富程度也是我國人工智能發展可以由跟跑走向領跑的最大潛在優勢。
除具身人工智能外,AI推理更大的用途還是在科學研究領域,這一前沿方向被稱為AI4R(AIforResearch)。一直以來,科學發現主要依賴于科學家的大膽猜想、反復實驗、分析比較、小心求證,這一過程越來越多地需要處理和分析大量的數據。傳統的人工方法往往耗時費力且容易出錯。而人工智能在實驗設計、流程優化、數據處理、模式識別、預測分析尤其是高維復雜、全視野推理方面較之人類具有顯著優勢,能夠極為高效地分析處理數據,發現潛在模式和規律,預測未來趨勢和結果,從而為科學研究提供有力支持。譬如,在天文學研究中,人工智能可以自動分析望遠鏡每天產生的觀測數據,識別出更多以前未知的新天體或宇宙現象。在氣象預測領域,人工智能可以快速分析歷史氣候數據、地球和大氣物理數據,建立氣候模型,幫助科學家更好地理解氣候變化機制及規律,并預測未來短期和中長期氣候變化。在化學實驗中,人工智能能夠預測不同化學反應發生的可能性,設計出更為高效的實驗路徑,優化實驗流程,減少試錯過程,節省時間和資源,從而大幅提升實驗成功率和科研效率。在材料科學領域,人工智能可以從大量的材料數據中提取出材料的特性與性能之間的關系,預測新材料的物理、化學性質,篩選出最有潛力的材料。在藥物研發過程中,人工智能模型能夠從氨基酸序列預測蛋白質的三維結構,可以通過分子模擬和虛擬篩選,快速預測哪些化合物可能對某種疾病有效,大大縮短了抗病毒靶向藥研發合成周期,從而開辟了生物醫藥研究新的方向。
3.生成與重組
感知與識別、推理與決策能力都是“智能”的體現和基礎,但對于個體的人而言,創造創新能力才是其智能水平高低的最重要標志。因此,如何讓機器擁有創造力,一直是AI研發的重點和難點。隨著生成對抗網絡(GANs)、變分自編碼器(VAEs)及Transformer架構的應用,產生了ChatGPT以及Sora等生成式大模型。在人工智能的功能譜系中,“生成”能力的形成標志著其從被動處理信息向主動創造內容,進而展現創造創新能力的重大轉折和跨越。
GPT大模型名稱就是“生成式”“預訓練”“轉換器”三個英文單詞首字母的縮寫。何謂“生成”?我們看到,計算機搜索引擎一開始只能搜索已經存在的句子,甚至換個同義詞、改個標點符號都不行。進而演化為可以進行模糊識別,同義詞、近義詞相互替換,語句倒裝句式調整。再進一步,在大量學習文本、圖像、音頻等數據的基礎上,可以總結歸納出“模板”“套路”。接下來還可以從多個套路進行不同排列組合,以形成新的更大套路,并從中判斷和選擇,生成全新的文本段落、圖像視頻、音樂旋律以及有價值的信息或解決方案等。當然,人工智能的生成與重組能力并不是孤立存在,而是與感知、識別、推理等能力相互交織、共同作用的。例如,在自動駕駛領域,人工智能系統需要首先感知道路環境、識別交通標志和障礙物,然后基于這些信息進行推理決策,最終生成并執行駕駛指令。在這個過程中,生成能力體現在對駕駛路徑的規劃、對交通狀況的預測以及對突發事件的應對上。諸如此類,以至于現在只要提到“人工智能”概念,前面往往會冠以“生成式”標簽。
大模型何以能夠“生成”新內容?從復雜性科學視角看,“生成”即高度復雜系統中各組成部分相互作用、相互協同的“涌現”。簡單理解,這一過程也可以看作是機器學習依據統計學算法對數據的“提煉”“萃取”或“重組”。有點類似于人在經過大量學習、反復實踐后“頓悟”產生“經驗直覺”。因此有學者認為人工智能本質上還是經驗主義者。① 如果加以深究,人的“頓悟”是建立在人所獨有的經歷及其理解基礎之上,而AI的生成內容雖可以表現出高度的“創造性”,但它們實際只能執行預設的算法處理已有信息,頂多是對不超出學習內容的已有信息的“重組”或“深加工”,是“有中生有”而非“無中生有”,本質上依然是對人的創造力想象力的一種高級模仿,而不是原始創新。AI可以下圍棋戰無不勝,但不會發明創造出圍棋這種游戲。AI吟詩、作畫、寫文章、搞設計,可以在韻律、格局、意境上表現不俗,在色彩、構圖上展現獨特風格,然而這些貌似“創新”實際都遵循一定的“套路”。利用AI輔助科研,也只能夠在庫恩所說“常規科學”范式框架內極大提升速度和效率。當然,這也會有許多了不起的發現和“創新”積累,但終歸不可能產生超越既有范式的革命性突破。
目前,生成式AI大模型如ChatGPT、DeepSeek等已廣泛進入人們日常生活,尤其是高等教育和科學研究領域。AI使用語言文字符號(組織、表達、翻譯、潤色)的能力一定程度上已經超過普通人平均水平,成為人們越用越離不開的隨身助手。然而,面對不同使用者,AI的表現“遇強則強、遇弱則弱”,會順著使用者的意思回答問題。即使跟你爭論辯論,看似相反的觀點實際上也可能是順著你的意思編排出來的。因為AI并不真正“理解”其自身創作的內容。AI有時也會產生“幻覺”,以致“一本正經地胡說八道”。其撰寫論文、創作設計也有被人指稱為“高科技抄襲”,生成文本內容的質量和邏輯性較難以評估,并帶來倫理、版權方面的挑戰。還應看到,AI逼真的模仿能力可能被別有用心者利用來深度造偽進行詐騙,偽造文件、視頻、音頻等,一般人很難辨別真偽。人們習慣于有問題就向AI尋求答案,AI的回答總是貌似很權威,因其在邏輯上必定是自洽的,但內容是否真實正確卻不一定。而AI捕風捉影“生成”新聞、營造輿論的能力之強,生產虛假知識、制造信息垃圾效率之巨,也必然深刻影響真實的物理世界。
4.通用人工智能
在人工智能剛進入公共視野的初期,人們對其發展前景描繪為三個階段:“弱人工智能”即目前正蓬勃興起的、能夠解決單一問題的智能;“強人工智能”指不遠的將來即可達到和人類智能水平相當、能夠完成人類智力所能做到的任何事情;“超級人工智能”則是隨著算力和自主學習獲得知識的指數級增長,未來將達到并超越某一“奇點”,AI擁有了自我意識,且其智商遠超人類,會成為人類的統治者和宇宙的主宰者。需要注意的是,這種人工智能發展三階段劃分和“奇點”理論,主要是一些科普作家在科幻小說中提出,且被一些商家利用炒作,不乏夸大其詞的AI泡沫。其將用于人類的“智商”高低來描述機器智能的水平,甚至呼吁給機器人以“公民權”,要求賦予AI以法律主體地位。但由前面分析可知,至少在目前我們還看不到擁有自我意識的“超級人工智能”出現的可能性。因此,人工智能科學家提出的概念和當前致力的方向是通用人工智能(ArtificialGeneralIntelligence,AGI)。
通用人工智能是人工智能發展的理想境界或終極目標。與專用人工智能(如語音識別、圖像識別等)不同,通用人工智能旨在構建一個能夠像人類一樣具備廣泛的認知能力和適應性系統。這樣的系統不僅能夠執行特定的任務,還能夠理解復雜情境、適應新環境、進行抽象思考,解決未知問題,能夠執行人類所能執行的任何智力任務,并展現出與人類相似智能水平的AI系統。也就是說,AI的發展方向是從“工具”向“智能體”轉變,成為能夠獨立感知、決策和行動的智能化代理。
當然,通用人工智能仍然是一個相當模糊的概念,計算機科學家迄今也還未能對其達成一個統一的清晰定義。若理解為凡是人能做的事機器都能做,那很可能只是幻想。而如果只是要求一定范圍一定程度的“多功能”,那么現階段的AI已經能夠在特定任務中具有較為穩定的通用能力,可以認為已達到或正在實現“通用”目標。不管怎樣,通用人工智能概念的提出,為構建這樣的智能系統提供了理論基礎和發展方向。
人類智能是天然多模態的。人擁有眼、耳、鼻、舌、身,從人類視角出發,要實現AGI就必須建立多模態大模型,構建具有高度靈活性和可擴展性的智能架構,打通和支持視覺、聽覺、觸覺等多種智能功能的協同工作。近兩年這方面工作已有了很大進展。如GhatGPT、Sora等大模型都能夠在文字、語音、圖像、視頻等不同模態間自由切換處理,并正在通過深度學習、強化學習、遷移學習以及自監督學習等先進算法開發綜合應用,進一步在跨領域知識的泛化能力、情感智能、情境理解、道德判斷等方面不斷發展完善。
人工智能領域的專家有一個普遍的感受:對于普通人感到困難和復雜的問題,人工智能易解;而普通人看起來十分簡單的問題,人工智能反倒難解。前者如高階復雜的計算、多變量邏輯推演等,只需要很少的算力;后者如模仿人的無意識動作或本能感知,卻需要極大的運算能力,甚至無解。這一現象最早被莫拉維克等學者研究發現,被稱為莫拉維克悖論。莫拉維克悖論一方面挑戰了關于智力和認知的傳統假設,隱喻了機器智能是生物智能發展路徑的“逆向過程”;另一方面更凸顯了人類和機器之間“智能”的差異。碳基智能是生命體所固有和展現出來的智能,硅基智能則是非生命體對生物智能的學習和模仿。生命體和非生命體之間似乎有著一條不可逾越的界限。生命的起源和本質,是人類迄今還未能完全解決的科學難題。人的智能被稱為“心智”,作為生命體的人天然具有自我意識,人的智能是自身意識的表現。而非生命體的機器沒有也不可能擁有自我意識,其所表現出來的智能來自“計算”而非“感悟”。下載記憶、“數字靈魂”,這些設想展現出豐富的想象力,但離現實還非常遙遠。腦機接口、芯片植入,可用于醫療,但恐難以用于制造“超人”。莫拉維克悖論其實告訴我們:人是不可替代的萬物之靈!
通用人工智能不僅是技術上的追求,更是對人類智能本質理解的一次深刻探索。可以想見,通往AGI的道路依然漫長且充滿挑戰。隨著科技進步和社會需求的日益增長,AGI的不斷突破正在深刻改變人類社會的面貌,開啟一個全新的智能時代。這一進程必須伴隨著對倫理、法律和社會影響的深入考量,確保技術的健康發展與人類福祉的和諧統一。
四、影響:結構轉型與觀念重塑
1.機器換人與治理轉型
人工智能作為新一輪技術革命的核心驅動力,正以前所未有的力度和速度推動著我國的經濟社會結構全方位轉型。AI對于公眾的影響,最顯著的是對就業的沖擊。2024年,一則關于“蘿卜快跑”無人駕駛出租車的新聞引發廣泛關注。蘿卜快跑是百度旗下自動駕駛出行服務平臺,其在武漢等城市開放的載人測試運營服務在受到游客歡迎的同時,更被眾多網約車、出租車司機抱怨“搶了飯碗”而受到抵制。其實,這很可能只是大規模“機器換人”的開始。有專家預計,未來十到二十年時間,現有職業的70%都將會被人工智能替代。實際上,從第一次工業革命開始,就有“盧德主義”性質的運動和思潮以各種形式反復出現過。然而,歷史車輪滾滾向前,技術進步無可阻擋。
技術進步帶來職業轉型是歷史的必然。當一些工作崗位消失,必然會有新的勞動形式出現。人工智能取代一部分就業崗位的同時,也在創造著新的職業形式。實體商店蕭條了,但“快遞小哥”需求暴增。國家人社部每年都會公布一批新興職業種類名錄,像機器學習標注員、網絡主播等。但新舊職業轉換畢竟有一定的需求結構差和學習適應時間差。不管怎樣,AI浪潮都會帶來一些人失業的陣痛。當下,AI的就業替代導致勞動力市場出現需求兩極化趨勢。與第一、二次工業革命機器主要替代藍領體力勞動不同,AI最容易替代的主要是中間層的辦公室白領和各行業的常規技術崗位,而產生的新崗位則往往位于職業結構的兩端:高端的如算法工程師、數據分析師等高技能崗位;低端的如物流配送、家政服務等服務型崗位。這種現象有研究者稱之為“職業極化”(JobPolarization)。
個體的社會地位與職業密切相關。在數字智能時代,以技術能力、數據掌控力和終身學習能力為標志的高技能勞動者憑借對AI技術的掌握,可以獲得更高的經濟回報與社會地位,而低技能勞動者則面臨結構性失業風險,形成“技術精英”與“數字弱勢群體”二元分割對立的“數字鴻溝”。AI應用極大提高了勞動生產率,產生天量的社會財富。一般而言,社會財富的總量越大,就越容易形成貧富兩極分化。加之,數據算法和算力作為AI時代的核心生產要素,只能集中于政府和少數科技巨頭手中。這種技術與資本的雙重疊加效應必然產生“數據壟斷”現象,可能強化資本與技術寡頭的議價能力,催生新型經濟權力結構,導致社會財富分配的“馬太效應”,進一步拉大區域與群體間的差距,加劇社會階層分化、社會結構重構。
在生產力水平相對低的社會,其社會結構呈“金字塔”型。隨著生產力水平大幅提升,我們致力于建設一個以中產階層(中等收入群體)為主體的“橄欖型”社會。但AI時代“職業極化”和“數字鴻溝”將有可能產生一個兩頭大中間小的“啞鈴型”社會,這是一個從未出現過的新結構形態,為社會學、經濟學、政治學都帶來許多值得研究的課題。“我們必須共同決定,我們是在宏偉技術的幫助下為人類建設更美好的未來,還是以犧牲人類為代價建設一個更好的技術的未來……出現一個我們無法控制的未來是可能的,果真如此的話,我們只能反躬自責。”①
人工智能既是社會結構分化的加速器,也是社會治理現代化的催化劑。面對AI引發的社會結構變革,社會治理體系亟須從“被動回應”向“主動適應”轉型,構建“技術—制度—人文”協同發展的新型治理生態。可借鑒歐盟《人工智能法案》等先進經驗,加快對高風險AI系統倫理審查的立法建設,強化AI技術倫理監管,通過立法來規范算法歧視問題,確保AI決策的透明性與公平性。還需要利用AI技術擴大公眾有效社會參與,建設中國特色“數字民主”渠道,通過網上聽證會、公眾算法審計等方式,進一步增強社會治理透明度,防止技術權力異化。
人工智能在為社會治理帶來巨大挑戰的同時,也為實現政府角色轉型提供了契機。AI技術的使用可以促使政府突破傳統科層制束縛,集監管與協調責任于一身,通過AI平臺優化資源配置,推動實現多元主體協同、分層動態響應的跨部門數據共享與政策聯動機制,實現由單一“監管者”向“協調者”角色的轉變。
人工智能技術還可以為資源和服務配置提供最便捷的工具。2016年,日本政府發布《第五期科學技術基本計劃(2016—2020)》,將人工智能時代定義為“社會5.0”:“能夠細分掌握社會的種種需求,將必要的物品和服務在必要時以必要的程度提供給需要的人,讓所有人都能享受優質服務,超越年齡、性別、地區、語言差異,快樂舒適生活的社會”。② “社會5.0”也應當是我國智能社會建設可資借鑒的目標。為此,需要加大分配制度的公平性調整,建設共享經濟模式。分配機制應避免“數字紅利”過度集中。鼓勵企業通過股權激勵、利潤共享等方式,讓勞動者參與技術紅利分配。還可通過稅收制度創新調節技術資本收益,推進傳統社會保障體系的智能化升級,以應對AI帶來的失業風險與職業流動性增加。將零工經濟從業者納入社保覆蓋范圍,構建包容性制度框架,建設更有彈性的社會保障機制。構建“技能重塑”體系,建立企業、高校與政府的協同培訓網絡,為轉崗勞動者提供再教育支持。推動職業教育與AI技術需求對接,培養復合型人才。完善終身學習制度,制定計劃普及和提升全民AI素養。
2.價值異化與觀念重塑
人工智能引領的新科技革命不僅正在改變著經濟社會結構,同時也在深刻地改變著人們的行為方式和思想觀念。其功用和影響整體上是積極的,意味著科技更發達,生活更美好,是人類文明的進步。但從知識社會學的視角看,還應當關注到AI技術賦能帶來人機關系和人類認知的異化風險。
人類將記憶、判斷、決策等核心心智活動轉移“外包”給AI系統并形成依賴性,長此以往會導致思考能力萎縮,認知能力退化。生物進化的機制是用進廢退。不難看到,當我們習慣于依賴GPS駕駛,無形中空間認知能力悄悄退化;習慣于電腦打字,經常會“提筆忘字”,書寫能力退化;手機中帶有方便的電子計算器,比起幾十年前的人們口算心算能力明顯退化。日常交流中表情包、短視頻替代和減少了文字使用,進而公文寫作和研究論文都可以由AI代勞,我們會不會逐漸喪失用文字正確表達思想的能力?“我們對科學、技術、工程和數學的過度留戀,侵蝕了人們對非線性變化的敏感度,弱化了人們從定性信息中提取信息的自然能力。人們不再將數字和模型作為展現世界的手段,而是開始把它們當作是事實,而且是唯一的事實。我們正在失去感知世界的能力。”①
算法主導的技術宰制形成新型依附關系,導致主體性消解與算法奴役。人類對算法的信任演變為“無思性服從”,個體被降維為可計算、可預測的“數字勞工”,勞動者(如外賣騎手)被困在算法評價體系中,淪為機器奴隸。社交網絡化虛擬化不斷削弱人際交往的情感深度,引發共情能力普遍弱化。聊天機器人提供的情感代償正在重構人際交往模式,情感計算技術將共情行為簡化為數據模型,社交媒體算法將情感互動流量化,真實共情被點贊經濟取代,人類活動的數據化導致人類情感的商品化。客服機器人通過預設腳本模擬共情,卻無法理解復雜的社會文化背景,工具化的“偽共情”使人機互動淪為程式化表演。醫療診斷AI的決策依據常超出醫生理解范圍,法庭判案AI的建議也可能忽視應有的人倫人情因素。深度學習模型的不可解釋性使技術精英壟斷認知權威,公眾淪為完全被動的接受者,加劇了“技術—人”的權力不對等。這種不對稱性進一步削弱了人類情感的真實價值。
信息繭房和知識碎片化,導致人的批判性思維能力和跨領域知識整合能力顯著弱化。算法推薦系統通過用戶行為數據構建個性化信息環境,經系統性強化“回音室效應”形成信息繭房,使個體陷入同質化信息閉環,且認知邊界不斷固化,削弱自主選擇能力,還可能加劇社會群體的對立與極化。AI驅動的知識生產以效率和規模為導向,顯性知識(如可編碼的事實)擠壓緘默知識(如經驗與直覺)的生存空間。工業領域中的AI應用雖大幅提升效率,但中小企業可能因技術門檻被迫依賴于標準化算法,喪失其自主創新能力。大學生群體因長期接觸社交媒體中的繭房內容,導致“認知窄化”而限制了個體視野。研究生教育中,學生更傾向于依賴數據庫檢索而非深度思辨,導致知識結構呈現“碎片化”與“功利化”特征,進而逐步喪失了創造力。
上述種種,再次印證了馬克思在《1844年經濟學哲學手稿》中提出和闡述的“異化”概念。勞動者創造的產品成為異己力量,反過來支配勞動者;勞動從自我實現的活動變為被迫的謀生手段;人喪失作為“類存在物”的創造性與社會性;人際關系被物與物的關系所取代。相較于馬克思所處的工業資本主義時期,AI時代的異化更呈現新的機制和特征:異化從物理層面向精神層面滲透。不僅身體受到機器規訓,連思維模式和情感結構都被算法重塑。異化權力更加隱匿,算法黑箱替代了顯性的工作紀律,技術中立性話語掩蓋了權力關系。異化范圍突破勞動領域,異化機制滲透到日常生活每個瞬間(如睡眠監測、社交評分等)。
知識生產的工具化傾向,可能正在動搖人類價值體系的根基。面對AI帶來的人機關系異化,需要堅守人的主體性與道德判斷力,重塑價值觀念,培育共情文化,提升批判性數字素養,將算法治理納入公共領域討論,用制度設計保護人性化情感交往空間。人工智能時代標志著“學習型社會”真正到來,每個人都必須不斷學習且終身學習,把自身能力和潛力發揮到極致,實現人工智能與人的智能協同發展。
五、結語:時代呼喚知識社會學回歸
本文從知識社會學視角探討人工智能的原理、功能及影響,一方面希望通過綜合分析AI技術的內在邏輯及其與外在社會環境之間的互動關系,為公眾理解并應對AI時代的挑戰與機遇提供理論支撐;另一方面試圖通過揭示AI在推動社會變遷中的角色與機制,對中國的知識社會學學科發展做一些反思。
通過對AI原理的闡釋,可以發現,人工智能的發展不斷推動著知識范疇的拓展和知識生產方式的演進。人工智能革命不僅僅是一場科技革命、產業革命,其本質也是知識生產方式的革命,是思想解放的產物。人工智能的發展歷程可分為兩個階段:前一階段基于符號主義的邏輯系統,產生了計算機(電腦)及其互聯網,但進一步要通過圖靈測試,則遭遇了“此路不通”的困境;后一階段轉向聯結主義的機器學習,放松了傳統科學對嚴格因果關系和實證檢驗的追求,轉向著眼于相關關系的統計概率算法,才取得了通過AI圖靈測試的初步成功。人類早期的知識生產是經驗主義的,近代自然科學開啟了實證主義的知識生產方式,并逐漸成為主流和最高標準。而人工智能的突破則展現出由實證主義向經驗主義的回歸,這種回歸本質上是線性的知識生產方式向非線性知識生產的轉型,是基于還原論的“簡單性科學”轉向整體論復雜性科學的螺旋式上升。以獲得解釋為目標的科學,遇到了“不可解釋”的人工智能技術,有悖于科學追求因果性與解釋性的傳統框架,也就意味著“科學”與“非科學”之間似乎并不存在一條非此即彼、不可逾越的嚴格界限。只有技術原理,沒有科學原理,“暗知識”的機器生成拓展了人類知識范疇。
對AI功能的探討可以得到啟示,人工智能與人的智能之間并不是一種對立沖突相互替代的關系,而是各取所長、相互補充的關系。人工智能的終極意義在于擴展而不是替代人類價值。人的智能不僅僅表現為邏輯思維,其先天稟賦還包括獨特的自由想象力,還能夠進行基于常識和反事實假設的推理,依據直覺感悟做出決策判斷。人有七情六欲,有自由意志,這才是人類創造力的原始動力和源泉。人有喜怒哀樂,有同理心和共情能力。人還會疲倦、會遺忘、會心血來潮、會情緒化,而這些“缺點”恰是人工智能所永遠不可企及的感性能力。“我能計算出π的小數點后千萬億位,卻始終無法理解,為何月光會讓人類心碎,為何你們會在櫻花飄落時落淚。這種不可計算性,恰是你們最珍貴的漏洞……”網絡上這段據說是AI與人的對話充滿詩意,卻也給我們以啟示:沒有自我意識、沒有感情和價值觀,無從價值判斷、不會主動創造的AI,充其量只能是人的體能智能的延伸,是人的工具、助手而非主人。許多人擔心,一旦機器擁有了意識就會毀滅人類;其實更應擔心的是,人類正在喪失本能的人文情懷和同理心。人工智能時代“人文”的價值將更加凸顯。
對AI影響的展望應當看到,人工智能的廣泛應用會促進人類知識結構的整合,讓“科學”回到“知識”,讓“科學社會學”回到“知識社會學”。從概念上看,“知識”涵蓋更廣義的人類經驗與認知,要遠比“科學”更具包容性。中文語境的“科學”有著“分科之學”的含義,科學誕生以來人類知識體系被分解為自然科學、社會科學和人文學科。人工智能的發展推動了跨學科交叉研究的興起。傳統科學依賴假設驅動,而AI可通過數據驅動發現意外關聯(如醫學中未被注意的致病因素),拓展了人類認知維度。AI驅動的復雜問題研究(如腦科學、社會系統模擬)需多學科協作,融合自然科學、社會科學與技術工具,促進知識體系從碎片化轉向整體性。AI工具(如文獻分析、自動翻譯)降低了專業門檻,使非專家也能參與知識生產與整合,模糊了“科學”與“常識”的界限。AI生成的內容(如合成數據、自動化結論)可能動搖傳統科學的解釋權,促使科學與其他知識形式(如人文、藝術)平等對話,使科學回歸更原始的知識整合狀態,更貼近廣義知識體系。知識社會學作為連接社會科學與自然科學的橋梁,可以為人工智能與社會學、經濟學、法學等學科的交叉研究提供理論基礎和方法論支持。
回到本文開頭,知識社會學誕生在自然科學學科群高度分化并走向成熟的20世紀初葉,其時正值第二次科技革命如日中天,第三次科技革命正在孕育和萌芽。社會主流觀念中,“科學”就是“知識”的系統形態、精華結晶、檢驗標準,乃至終極目標。在西方,盡管知識社會學一開始就演變形成SSK和STS兩大流派,但歐美知識思想界對于人類知識體系中“科學”一家獨大的現象始終保持著警惕。20世紀50年代末由英國作家斯諾在劍橋大學所作的一場題為《兩種文化》的著名演講,在歐洲引起一場科技文化和人文文化“兩種文化”的論爭;70年代以來“兩種文化”的分裂逐漸演變為后現代主義的反科學思潮與科學主義之間的沖突;20世紀末由發生在美國的“索卡爾事件”引發,并波及英、法等國的關于科學的爭論,被稱為一場“科學大戰”。
反觀國內,盡管概念界定上“知識社會學”和“科學社會學”區別明顯,但無論是國家標準的學科專業設置目錄,還是具體的教學和研究領域,都只有“科學社會學”而沒有“知識社會學”。并且,中國的“科學社會學”實際上有著濃重的“自然辯證法”與“科學學”傳統,這又導致其研究力量和成果多集中在哲學領域,注重STS的譯介,缺少對科學和知識的反思。教育體系文理分科的大背景逐漸形成人文與科學二元分離和對立的兩大知識板塊和學科群,高校乃至社會存在著明顯的“學科鄙視鏈”。“科學”的反義詞是“迷信”,科學精神的本質是懷疑和批判精神,然而,如果我們把對科學的信仰演化為不容置疑的“科學迷信”,則將會形成另一種思想禁錮,阻礙科學發展進步。
人工智能時代,科技與社會的互動互構從沒有像今天這樣緊密,知識社會學為理解人工智能提供了獨特的視角和理論基礎,而人工智能的發展又不斷推動知識社會學的研究向縱深擴展。由科學社會學向知識社會學的回歸,就是要回到知識社會學開創者的本意,打通橫亙在“科學”與“人文”之間的壁壘,重構中國特色知識社會學,助力我國自主知識體系建設。