面對機器人、人工智能、自動駕駛等新興技術(shù)不斷出現(xiàn),人類與非人類之間的界限正日益模糊。這些技術(shù)革新不斷拋出新的問題:我們是否正站在一場道德變革的臨界點上?技術(shù)是否正在將我們推向一個“后人類” 的烏托邦,抑或是通向災(zāi)難性的“奇點”?人類學(xué)家韋伯·基恩(Webb Keane)于2025年出版的新作《獸、機、神:我們?yōu)槭裁捶磸?fù)愛上非人類》(Animals, Robots, Gods:Adventures in the Moral Imagination)試圖為這些問題提供一種新的思考路徑。
基恩認(rèn)為,人類與非人類之間的道德關(guān)系由來已久,早在工業(yè)革命之前,人類就已經(jīng)與動物、神明等非人類或超人類存在建立起復(fù)雜的互動。

在第一章中,作者聚焦于無人駕駛的道德倫理困境,開門見山地提出了一個問題:具有選擇能力的無人駕駛汽車,能否被認(rèn)為是道德主體?或者說能否被視為造成行人死亡的責(zé)任人。讓-弗朗索瓦·博訥豐(Jean-Fran?ois Bonnefon)是無人駕駛算法的設(shè)計者之一。為了設(shè)計無人駕駛汽車在極端事故中如何進行抉擇,博訥豐開發(fā)了一個在線游戲“道德機器”。玩家會面對各種自動駕駛汽車發(fā)生致命事故的情境。通過選擇讓汽車急轉(zhuǎn)彎還是保持原路行駛,玩家可以決定讓誰被撞,讓誰得以避開。這款游戲迅速走紅,到2020年已有數(shù)百萬人參與。然而,基恩認(rèn)為,一旦一部機器能夠決定人類的生死,“這就不再是一個技術(shù)問題,而是一個道德問題”。他通過梳理老撾佛教儀式中將卡車而非司機作為祝福對象,揭示了機器以及其他非人類的物品同樣具有道德屬性。 此外,基恩引用人類學(xué)家莫里斯·布洛赫(Maurice Bloch)關(guān)于馬達加斯加土著社群拒絕參與“電車難題”道德實驗的研究指出,人們在現(xiàn)實生活中通過社會互動來應(yīng)對道德困境,諸如交流對話、傾聽彼此觀點、梳理各種可能的選擇。因此,關(guān)于道德與倫理的討論,不能孤立地在思想實驗中進行。扎根于人與人之間的互動與社會關(guān)系之中,才能真正反映人類如何作出道德判斷。

作者將自己的研究對象定位在人類與非人類的“接觸地帶”,包括作為“近人類”的動物,作為“準(zhǔn)人類”的機器人和作為“超人類”的人工智能。在考察這些“接觸地帶”的民族志中,作者試圖揭示人類道德倫理的變革潛力。在研究方法上,有別于沉浸式民族志田野調(diào)查,基恩的研究更多體現(xiàn)出一種跨學(xué)科的特質(zhì)。從硅谷到亞馬孫雨林,從印度的動物保護者到日本擁有機器人的家庭,作者綜合借鑒跨越多種文化的人類學(xué)民族志,揭示了不同社群如何界定“人類”的邊界。在此基礎(chǔ)上,基恩融合哲學(xué)、歷史學(xué)的思想資源,探究不同文化在面對動物、機器、靈體與新技術(shù)時,如何協(xié)商倫理難題,進行道德建構(gòu)。通過這些豐富的資料和新穎的見解,基恩意在論證道德主體并非固定不變,而是常常在這些邊界關(guān)系中被塑造。
在第二章中,作者將目光投向了醫(yī)療人類學(xué)的田野調(diào)查案例,以及醫(yī)療技術(shù)革新帶來的人類與機器新關(guān)系的變革。基恩指出,在現(xiàn)代醫(yī)學(xué)技術(shù)背景下,生命的終結(jié)從“自然命運”變成了一種倫理選擇。通過參考多地民族志調(diào)查資料,包括美國、泰國、日本、埃及、越南,作者展現(xiàn)了不同文化如何理解“生”與“死”的邊界,以及在面對植物人、器官捐獻、臨終決策等情境時,人們?nèi)绾卧诘谝蝗朔Q的情感立場與第三人稱的科學(xué)、宗教或法律視角之間不斷轉(zhuǎn)換。本章強調(diào),“人”的界限并非固定不變,而是在與技術(shù)、身體、靈魂和親情的交互中不斷地協(xié)商與重塑。
第三章探討了人類如何在不同文化與生活方式中,將動物視為“近似人類”的存在,并據(jù)此建立起復(fù)雜的道德關(guān)系。作者首先指出,西方動物權(quán)利話語常以理性或感知能力為標(biāo)準(zhǔn)決定動物是否具備道德屬性,而這種思維忽視了全球其他文化中人與動物更為豐富、情感化甚至神圣化的互動方式。在印度北部的烏塔拉坎德邦,村民將山羊視為親人。即使山羊最終被祭獻,也被認(rèn)為是在履行一種愛的回報;在西伯利亞,尤卡吉爾獵人通過模仿獵物,與之產(chǎn)生精神認(rèn)同,認(rèn)為獵物是“自愿”犧牲。同樣,在加拿大和馬來西亞的原住民社群中,動物被視為擁有自己視角的“人格體”,獵人與獵物之間的互動充滿道德張力,甚至?xí)l(fā)羞恥與悔恨。狗和馬的訓(xùn)練也體現(xiàn)出類似道德結(jié)構(gòu):命名、呼喚與回應(yīng),構(gòu)建了人與動物之間的社會關(guān)系,使動物成為有責(zé)任與回應(yīng)能力的道德主體。作者認(rèn)為,擬人化并非只是內(nèi)心情感的投射,更是一種敏銳的倫理感知方式,促使人類意識到動物作為“你”而非“它”的可能性。因此,基恩認(rèn)為,道德并非抽象原則,而是在具體實踐、文化背景和生活方式中生成的關(guān)系倫理。一旦人與動物建立起社會關(guān)系,便無法再以道德中立的方式對待它們。
賽博格(cyborg):
作為“控制論生物體”(cybernetic organism)的縮寫,賽博格是一種生物體與技術(shù)裝置的混合體,通常將機械或電子部件整合到生物體中以恢復(fù)或增強其能力。該術(shù)語誕生于20世紀(jì)60年代,由科學(xué)家曼弗雷德·克萊尼斯(Manfred Clynes)和內(nèi)森·S·克萊恩(Nathan S. Kline)在太空探索的背景下提出。賽博格的概念在科幻作品中十分常見,著名的例子包括《終結(jié)者》和《機械戰(zhàn)警》中的角色。在本書中,作者將賽博格的范圍進一步擴大,包括依靠生命維持系統(tǒng)生存的重癥監(jiān)護病人、植入心臟起搏器或假肢的人,甚至包括電子產(chǎn)品成癮的人。他認(rèn)為,這種交互引發(fā)了關(guān)于依賴、自我和控制的問題,在這個世界里,工具越來越多地代表我們的行動、思考,甚至感受。

在漫長的進化史中,人類從動物世界中脫穎而出,如今卻受到機器人、人機合體等準(zhǔn)人類的挑戰(zhàn)。于是,在第四章中,作者首先討論了“賽博格”的概念,指出我們早已與技術(shù)深度融合,ICU病人、戴助聽器者或沉迷賭博機的用戶,都是人機融合的一種體現(xiàn)。技術(shù)不僅是身體的延伸,也可成為認(rèn)知與情感的補充,甚至改變我們的意識與自我認(rèn)知。“恐怖谷”理論說明,當(dāng)機器人太像人類但又不完全一樣時,反而會引起不適與恐懼。但不同文化對此反應(yīng)各異。例如,日本受神道教影響,更能接受人與物之間的通靈與親密關(guān)系,機器人常被視為家庭成員,甚至有寺廟為“死去”的機器寵物舉行葬禮。而在西方社會,人們試圖規(guī)范機器人的行為,以防“傷害人類”。面對人類對機器人產(chǎn)生的情感投射,有人將其批評為“戀物癖”。但作者借助印度等地的案例指出,人們對“非人存在”表達情感與尊重,是一種具有文化想象力的社會互動。作者提醒我們,人機互動的道德意義不在于機器本身是否具有人性,而在于我們在互動中如何反思、塑造自我。
在第五章,作者首先通過圖靈測試的社會屬性揭示了一個關(guān)鍵悖論:我們判斷AI是否具備“人性”的標(biāo)準(zhǔn),恰恰建立在人類特有的社交能力之上。這種評判機制本身就暗示著AI可能獲得某種“類神”地位。如同古希臘的德爾菲神諭,現(xiàn)代AI通過算法生成“神諭般”的文本。人類學(xué)家露西·薩奇曼(Lucy Suchman)的研究更是指出,人們會不自覺地賦予AI以“神性”特質(zhì):其不可預(yù)測的算法如同神意般難以揣度,海量的數(shù)據(jù)處理能力堪比“全知”,而無實體的存在方式則呼應(yīng)了傳統(tǒng)對神靈“無形無相”的想象。通過將AI與靈媒、占卜等跨文化宗教實踐進行類比,作者揭示了人類認(rèn)知模式的延續(xù)性:無論是面對ChatGPT生成的文本,還是薩滿的通靈儀式,人類都傾向于為不可理解的現(xiàn)象建構(gòu)神圣敘事。這種認(rèn)知機制使得AI的不透明性不再是技術(shù)缺陷,反而成為其“超自然權(quán)威”的來源——正如信徒不會要求神靈解釋其旨意,普通用戶也常對AI的決策過程保持“虔信”態(tài)度。然而,這種“數(shù)字神性”的倫理困境在于:當(dāng)AI在司法、醫(yī)療等關(guān)鍵領(lǐng)域扮演“數(shù)字神明”角色時,人類既期待其超越人性的公正,又恐懼其缺乏人性的冷酷。作者最終指出,AI的“神性幻象”實則是人類將自身對超越性的追求投射到了技術(shù)產(chǎn)物之上。這一洞見不僅解構(gòu)了AI神話,更啟示我們:在AI時代,真正需要審視的或許不是技術(shù)的本質(zhì),而是人類自身對\"造神\"的永恒執(zhí)念。
(責(zé)編:劉婕)