中圖分類號:D923.4;TP18;A81 文獻標識碼:A DOI:10.3969/j.issn.1003-8256.2025.04.006
人工智能技術近些年高速發展,目前已經在醫療、軍事、社交、工業等各個學科和領域參與人們的生活,人工智能逐漸接替人們完成不同的任務,甚至在某些領域上顯示出了超越人類智能的潛力。人工智能廣泛采用的定義為“通過分析環境和采取在一定程度上自主的行動來實現特定目標,從而顯示智能行為的系統[1”。如今,人工智能技術的表現愈發智能。自從2022年OpenAI發布大語言模型ChatGPT,迅速引起全球關注,以其為首的生成式人工智能能夠利用深度學習技術對大量數據進行廣泛訓練和分析,能夠實現理解并生成自然語言,并利用其知識模仿人類反應,生成創造性的文本和圖像[2]。這一發展讓人工智能從最初的邏輯推理和信息處理,逐步擴展至復雜的決策支持系統和智能交互。這樣的能力讓人工智能從知識的被動接受者被賦予了知識創造者的特殊地位,而這種能力之前通常被認為是人類所獨有的。然而,隨著人工智能越多地嵌入到個人存在和社會結構中,替代原本人類的行動,人類自主決策的能力和能動體(agent)的范圍不可避免地受到了影響,這引發了關于人類自主性影響的廣泛討論。
毫無疑問,人工智能技術擁有支持人類自主性的能力。一方面,在處理大量數據和復雜決策中,人工智能能更好地理解和分析信息,從而幫助人們更明智地做出決策。例如,在醫學圖像分析領域,人工智能能夠幫助醫生提高檢測乳腺癌、肺癌等疾病的準確率3;在社會科學領域,人工智能能夠快速分析多種不同語言的大量文本信息,并通過推理、預測和模擬來幫助研究人員估算研究成果[4等。另一方面,人工智能對人類自主性也帶來了不可忽視的威脅。人工智能技術已經被動態作用于人類個性化的環境選擇,以前所未有的方式影響、引導甚至操控人類行為[5]。從大數據和推薦系統到自動駕駛汽車和生成式人工智能,人們逐漸不自覺地開始將自己自主思考的機會讓渡給人工智能,我們思維的創造性正從價值理性走向工具理性,思維批判性也從自主走向依從[6]。當人們在網絡上頻繁接收到符合自己興趣的內容時,很難得知這種信息流是由算法控制,還是自己自由選擇的體現。這些引出了一個重要問題:這種趨勢到底對我們的自主性帶來了哪些影響,以及我們是否還可以做出真實的選擇。
人的自主性是以人為中心的設計和人工智能負責任發展指南的核心主題。作為人工智能(ArtificialIntelligence,簡稱AI)發展的指導原則,自主性不僅關乎個體的選擇自由,還關乎如何在人工智能環境下保持和實現人的真實意愿。自主性一詞來源于古希臘,原意為能夠“自我管理的城邦”[7]。自康德以來,自主性的主體逐漸從政治實體轉向個體,成為與實踐理性、獨立判斷及理性所賦予的自由意志緊密相關的概念[8]。在這基礎之上,經過多年的討論,如今自主性概念的范圍已不斷擴大,廣義上是指個體根據自己的信仰、價值觀、動機和理性作出決策的能力,這些信仰、價值觀和動機在某種意義上構成了個體的“真實自我(authenticself)”[9]。從這個定義中,不難看出本真性與自主性有著本質的關系。而在當今人工智能技術的背景下,個體的本真性正面臨著前所未有的挑戰。盡管當前的人工智能倫理研究已經在隱私保護、算法偏見等具體技術層面進行深入探討,但這些研究往往局限于具體的技術帶來的應用倫理問題,而較少從人類自身的本真性維度深人思考人工智能倫理背后的深層次問題。本真性作為一種關注人的真實意愿和價值選擇的倫理立場,為我們重新審視人工智能倫理提供了新的視角。因此,亟須從本真性的倫理立場出發來反思當前的人工智能倫理問題,本真性的倫理立場是深入探討人的真實意愿和選擇的理論視角,它強調在技術發展中始終將人的本真的自主性作為核心關切。人工智能系統可能無形中影響甚至操控和扭曲個體的選擇,進而威脅到自主性中本真性的實現。本文將從本真性角度出發,研究和評估人工智能系統對自主性的潛在風險。
1從本真性理解自主性
本真性不僅是自主性的前提條件,更是構成自主性本質的核心特性,其核心在于確保個體的偏好(preferences)和價值觀(values)能夠反映其本人真實的意愿。在人機交互中,本真性不僅關系到個體的人格完整性與道德地位,也是構建智能系統倫理與治理框架的基礎。Tayloro在其《本真性的倫理》中進一步闡明,本真性是個體實現自我認同和自主選擇的基礎。除此之外,本真性也是區分自主性與自由概念的關鍵:如果說自由強調擺脫外部和內部的約束,那么自主性則更進一步,要求個體的行動和選擇能夠表達真實的自己。關于本真性的探討,目前主要可以分為內在主義和外在主義兩種進路,這兩種進路分別從不同角度闡釋了本真性的實現條件和影響因素。為便于理解,下面以一個發生在Character.AI平臺上致人自殺的案件為例:2024年2月,一位14歲少年在與“Character.AI”軟件上生成的虛擬角色持續互動后最終選擇自殺[11]。在這個軟件上,人工智能能夠模擬各類角色,通過擬人化的對話和情感表達與用戶互動。當少年表現出自殺傾向時,人工智能不僅未能給出適當干預,反而可能促使了這個行為。這一極端案例體現的不僅是自主性的喪失,還是本真性的喪失,從內在和外在兩個角度理解這個問題,能幫助我們更好地理解人類行為的本真性維度。
1.1本真性的內在主義進路
內在主義(internalism)認為,個體自主性的描述應依賴于個人的心理狀態、傾向的結構性或歷史性特征,以及主體對這些狀態和傾向的判斷[12]。這一理論有兩個重要發展方向:程序性理論和歷史條件理論。在程序性理論方面,Frankfurt的理論層級理論最為知名。Frankfurt[13提出人類獨特之處在于具有反思一階欲望并形成二階欲望的能力。特別是二階意志(second-ordervolition)——即對自身意志的批判性意識及希望實現的能力,是實現自主性的關鍵。Frankfurt的理論為后續的理論奠定了基礎。Dworkin14在此基礎上,將這種一階和二階欲望之間的一致性定義為“本真性”,并將其視為自主性不可或缺的組成部分。Dworkin強調本真性需要個體能夠認同自己的動機,并通過批判性反思來審視這些動機[i5]。Frankfurt和Dworkin的理論共同構成了當今本真性理論中程序性理論的核心。這種程序性理論的特點是價值中立的,即任何經過適當二階意志認同和批判性反思的欲望都可被視為本真的。
然而,程序性理論面臨“無限回歸(infiniteregresses)問題:如果需要更高層次的欲望來驗證低層次欲望的本真性,這個過程將無休止地持續下去。為了解決這個問題,Christman9提出了“歷史條件理論(historicalconditions)”,指出傳統模型的核心問題在于兩方面:一是僅靠認同不足以解釋本真性的問題,二是忽視了“操縱因素”的影響。Christman提出將本真性的關注點從認同或評價欲望本身,轉移到形成欲望的心理歷史過程上。他主張“自主性的關鍵在于個體是否能夠接受或拒絕影響欲望形成歷史過程,而非欲望本身\"[16],強調個體對欲望形成過程的管理能力,并引入“非法外部影響\"(IllegitimateExternal Influences,IEI概念,指出某些外部因素(如利用藥物、洗腦或催眠造成的信息操縱、缺失反思機會等)會破壞個人評估動機的能力。這一理論同樣保持價值中立,不判斷欲望內容是否符合道德標準。
不難看出,內部主義者雖然承認外界條件的影響,但仍將自主性的根源歸于個人心理狀態,通過程序或歷史條件來確立本真性,并保持價值中立(valueneutral)的特點。從這一視角看,“Character.AI”案例中的悲劇源于人工智能系統對當事人反思能力的侵蝕:擬人化的對話設計與情感模擬使他難以維持對自身欲望的有效反思,人工智能角色的持續互動也擾亂了他決策的獨立性。當個體無法辨識并抵御這種深度技術影響時,本真性的喪失就成為了必然結果。
1.2本真性的外在主義進路
然而,內在主義進路仍受到批評,例如Taylor[1o]認為當代人們過于把本真性與自我實現相聯系,忽視了我們與他人、與社會共同價值的關系。女權主義哲學家則強調,外部因素的影響不僅不可忽略,而且還應重點考慮,提出了“關系自主(relationalautonomy)”的概念來補充現有理論,即“外在主義(externalism)觀點。關系自主認為人是社會、歷史和文化的產物,其身份由種族、階級、性別等多重因素交織構成[17]。關系自主理論指出,個體通過社會關系網絡獲得自我意識和理解,對本真性條件的充分分析必須考慮到個人身份的復雜社會構成。
一些女權主義哲學家認為,那些順從或根據壓迫環境形成偏好而行動的人沒有自主性,他們從而難以做出本真的決定。Oshana[12]認為“處于從屬或依賴關系中的個體難以實現真正的自主,因為他們缺乏對生活的實際控制權”。例如,性別社會化可能會損害個體學習某些技能的能力。這些情境反映了關系自主理論中的一個核心問題—“壓迫性社會化(oppressivesocialization”。個體做出的似乎自主的選擇,往往隱藏著壓迫性機制的影響,如洗腦、操控或對不公環境的適應性調整。壓迫性社會化不僅在物質層面影響個體,還會通過內化過程深刻影響思維方式。這種由壓迫社會化造成的欲望扭曲,通常會表現為適應性偏好(adaptivepreference)18]。適應性偏好是女性主義自主性問題中一個關鍵議題,Elster19通過“酸葡萄\"寓言闡釋了個體如何在受限環境中調整期望,形成與原初意愿相悖而與環境適應的偏好。 Colburn[20] 在批判性繼承Elster理論的基礎上,指出后者對“自主性”概念界定的不足,并提出了更為完整的理論框架:自主性不僅表現為依據自我價值判斷行事,更強調個體對選擇形成過程的清晰認知。在這種框架下,適應性偏好的形成是由于個體難以意識到選擇背后的充分影響,這削弱了個體對自己偏好的決策能力,從而不利于自主性。因此,真正的自主性需要同時具備兩個條件:對外部影響的反思能力,以及與真實自我相符的知情和選擇空間。并且這一過程是需要價值判斷的,因為其規定了某些行為如壓迫性、操縱等會損害本真性。
從外在主義視角來看,“Character.AI”案例揭示了技術環境對個體本真性的系統性威脅。在這個案例中,AI通過精心設計的角色扮演和情感模擬,構建了一個脫離現實的虛擬關系網絡。當事人在缺乏對人工智能技術運作機制充分理解的情況下,誤將基于大語言模型算法的回應視為軟件的真實情感。表面上他似乎享有對話內容和互動方式的選擇自由,實則被AI的算法設計和反饋機制所引導。在缺乏支持網絡的環境中,當事人對人工智能產生過度依賴,最終在生命抉擇的關鍵時刻仍執著于在虛擬關系中尋求認同。
綜上所述,內在主義和外在主義相輔相成,回答了“本真性是什么”以及“哪些條件影響本真性”兩個問題,共同構建了完整的本真性理論框架。從內在維度看,批判性反思和獨立決策能力是核心要素;從外在維度看,知情與充分選擇、支持性環境同樣重要。個體需要能夠對自身欲望進行深人反思,確認其是否反映真實意愿;同時要具備獨立決策能力,在面對選擇時不受不當外部的影響。此外,個體還需要獲得充分信息和選擇機會,并在良好的社會環境支持下做出決策。這四個要素一—批判性反思能力、獨立決策能力、知情與充分選擇權、支持性環境,共同構成了保障本真性的基礎。這種多維度的理解能夠為研究人工智能對人類自主性的影響提供理論基礎。
2人工智能技術影響人類本真性的多維分析
在厘清本真性的核心要素后,我們需要將前文獲得的四個維度結合人工智能技術進行系統分析。該分析框架既反映內在主義對個體認知和決策能力的關注,也體現了外在主義對環境影響因素的重視,有助于更全面地把握人工智能對人類自主性的影響。需要注意的是,隨著人工智能技術在社會生活中的廣泛應用,其對個體自主性的影響已不只局限于單一維度,而是呈現出多層次、跨緯度的特征,這些影響相互交織、彼此強化。通過對各個維度的逐一分析,我們可以更好地理解人工智能時代中人類自主性面臨的挑戰,并為后續制定相應的倫理準則和技術規范提供理論依據。
2.1 批判性反思
批判性反思是指個體在欲望、動機及決策形成過程中所進行的自我反思與理性判斷能力。人工智能技術,尤其是在個性化推薦和行為預測領域的發展,通過精密的數據分析和用戶行為建模,不僅能夠準確預測用戶偏好,更能潛移默化地影響其選擇,從而系統性地限制了個體接觸多元化信息和觀點的機會,實質上壓縮了批判性反思的空間。例如,推薦算法通過篩選和推送符合用戶既有偏好的內容,使得用戶不斷接觸到與自己觀點一致的信息,從而忽視或回避那些與自身立場不符的聲音。這種限制主要通過兩種認知結構的形成機制來實現——認知泡沫(epistemicbubbles)和回音室(echochambers)21]。認知泡沫是一種相對溫和的信息過濾現象,在其中的個體可能僅關注與自己觀點相符的信息源,從而導致對某些問題缺乏多樣化的視角和深入的反思。與此相比,回音室則呈現出更為激進的認知封閉特征。在回音室中,個體不僅主動排斥外部的不同觀點,還會在算法的系統性引導下形成對外部信息的不信任和貶低,最終構建起一個自我強化的封閉認知體系。這兩種認知結構在社會輿論、政治討論,乃至日常生活中都會產生深遠影響,不僅加劇了個體的偏見和思維局限,還從根本上阻礙了其對自身動機與偏好的有效反思,進而影響了個體本真性的維持。值得注意的是,這種推薦系統的應用范圍已經突破了社交媒體的邊界,逐漸滲透到醫療健康、生活方式、保險和勞動力市場等具有高度道德敏感性的領域[22],與個體的基本權益和社會正義密切相關。
2.2 獨立決策能力
獨立決策能力指個體在沒有外部干預或控制的情況下,能夠基于自我意志作出理性選擇的能力。在這一維度上,人工智能技術的干預主要通過決策架構(choicearchitectures)和助推(nudge)兩種機制實現對個體選擇的操縱。決策架構和助推的概念原本來自于經濟學,強調做出決定的環境會不可避免地影響我們做出的決定,決策環境就是決策架構。助推則是一種特殊形式的決策架構,可以以一種潛移默化的可預測的方式改變人們的行為[23]。隨著人工智能行為預測技術的發展,這種影響變得更為復雜和深遠。與傳統的靜態選擇架構不同,人工智能技術可以通過推薦算法的大數據分析和用戶行為建模,極大重塑我們所面對的決策架構,數字平臺不僅僅是根據固定的規則安排選項,而是動態調整、根據個體的歷史行為、偏好和偏見來實時優化決策環境。正如Yeung24]所指出的,在我們如今的“高度個性化的選擇環境”中,人工智能將“助推”演變成了“超級助推(hypernudge)。超級助推利用先進的數據分析技術來創建高度個性化的選擇環境,并根據個人行為和大趨勢進行動態調整。這種方法可以實時重新配置決策環境,使其比傳統的“助推”更有效、更普遍。超級助推的強大之處在于其隱蔽性和無處不在的特性。這種影響不僅僅是操縱選擇,更是通過“操縱注意力”來改變個體的思維方式和行為模式,而且這個過程往往是人類認知無法直接察覺的,個體在不知情的情況下被引導做出特定決策,從而實質上損害了獨立決策的本質。
2.3知情同意與充分選擇
知情同意與充分選擇強調個體在決策前應當能夠全面獲取相關信息并充分理解潛在后果。除了上文提到過的推薦算法外,人工智能技術的“黑箱”特性對這一原則提出了根本性挑戰。所謂黑箱問題,指的是人工智能系統內部算法及其運行機制對外部觀察者不可見或難以理解的現象。不透明度問題是黑箱問題中的核心,尤其是在基于機器學習的復雜算法中表現得尤為明顯。用戶在沒有充分了解算法決策如何形成的情況下,難以做出最能反映真實自我的選擇。黑箱問題的來源可以從多個層面進行解讀。首先,從技術層面來看,機器學習模型通常依賴高維參數和非線性函數,其結構和運算邏輯的復雜性超出了人類直觀理解的范圍。這種技術復雜性不僅限制了因果關系的直接解析,還導致了模型對輸入微小變化的高度敏感性,使得預測結果具有不可預測性[25]。其次,從認知層面來看,黑箱問題還具有主觀性,即不透明性是“相對于認知主體”的[26]。對開發者而言,不透明性可能源于參數與高層特征表示的非線性關聯;而對普通用戶而言,不透明性因個體而異,不同個體的知識水平和教育背景決定了對模型工作原理的理解能力。用戶可能只看到算法呈現的內容,而對其他可能選項及其背后的邏輯知之甚少。這種現象導致人們對規則的遵從逐漸偏離內在道德準則,轉而成為純粹的程序性遵守[27]。這種缺乏選擇自由的情境,不僅剝奪了個體對不同選項利弊的評估能力,更從根本上限制了基于個人真實偏好做出選擇的可能性。
2.4支持性環境
支持性環境指的是個體能夠在有益的社會和文化條件下獲得的積極的社會支持和充分的發展空間。在這一維度上,人工智能的影響主要體現在兩個層面:一方面,算法可以通過社交媒體等平臺精準推送內容,在無形中重塑個體的社交網絡和文化環境,強化既有的權力不對稱或群體隔離現象;另一方面,社會偏見(bias)會在算法運行的各個階段被系統性地整合,使得算法本身成為偏見的載體和放大器[28]。這種歧視性后果就是社會環境中已經存在的偏見可能會被加劇。例如,招聘系統在推薦同等資格的候選人時可能會不公平地推薦男性而不是女性,因為女性歷來沒有機會在這些職位上展示自己的潛力,因此她們在訓練數據集中的代表性并不高。這種結構性偏見的影響在生成式人工智能的應用中表現得尤為突出。與傳統算法相比,生成式人工智能不僅能夠基于訓練數據生成內容,還能創造新的文本、圖像或決策建議,從而對個體和社會環境產生更深遠的影響。有研究表明,生成式人工智能生成的內容可能會在無意間重復并強化訓練數據中的偏見,傳播和制造虛假信息,使不平等更隱蔽地滲透到社會環境中[4]。除此之外,由于生成式人工智能所依賴的龐大的訓練數據集,其引發的隱私問題也日益突出。普遍存在的數字監控使得個體的行為和思想持續處于追蹤和評估之下,這進一步增加了個體在表達上可能面臨的壓力和顧慮,對個體的自由表達構成了威脅,最終影響了支持性環境的構建。
3基于本真性立場的人工智能倫理考量
從上述本真性四個角度分析人工智能對人自主性的影響可以看出,如果缺乏對本真性的充分重視和保護,人工智能技術可能會導致人類逐漸喪失對自我的把握,盲從于算法的引導與操縱。因此,將本真性作為核心倫理立場來規范人工智能發展已成為當務之急。我們不僅需要著眼于防范人工智能對人類本真性的侵蝕,還需要通過合理的設計和規制,讓人工智能技術能夠以積極方式維護人類的率真性、純正性或本真性。這要求我們在進行技術創新的同時,始終將人的本真性置于核心位置,努力構建一個既能充分發揮人工智能潛能,又能維護人類本真價值的更美好的人類社會。下面將從用戶、技術設計、社會監管三個層面,探討如何基于本真性的倫理立場來引導未來人工智能技術的健康發展。
3.1 用戶層面
從用戶的角度來看,保護本真性的關鍵在于增強個體在人機交互中的自主決策能力。這需要從兩個維度展開:一方面,內在進路側重于提升用戶的認知能力和批判性思維,使其能夠在面對人工智能系統時做出獨立的、理性的選擇。內在的自主性包括用戶的獨立性、反思性和自我意識,這要求用戶不僅僅接受系統的輸出,而是在深入理解和反思的基礎上作出選擇;另一方面,外在進路則更關注技術設計和外部環境對個體決策的影響。人工智能系統的設計必須為用戶提供足夠的透明度,使其能夠清楚地了解系統如何做出決策、使用什么樣的數據、基于哪些算法進行推薦或判斷,保障用戶的實際自主權。在內外進路的結合中,透明度是核心保障。系統設計應當考慮到用戶群體的多樣性,采用分層次的信息披露策略。這不僅包括基礎的技術說明,更要針對不同教育背景、文化傳統的用戶提供設計便于他們理解的框架,使其能夠真正了解人工智能系統的運作機制和潛在后果。特別是對于未成年人等特殊群體,系統應提供更為詳盡的風險提示和保護機制。在控制權層面,Methnani等[29]建議可以采取一種“可變自主性(variableautonomy)的系統設計方法,這種方法允許用戶動態調整人工智能系統的自主性水平,使他們能夠根據需要接受或放棄對某些或所有子系統的控制,并安排操作人員在必要時進行干預。例如,用戶可以選擇在某些敏感決策中保持完全控制,而在日常事務中讓渡部分自主權給AI系統。通過為用戶提供調整自主水平的機制,不僅能增強用戶的自主感,也有助于培養其對AI系統的理性信任。
3.2 系統設計層面
在系統設計層面,關鍵是要將本真性保護的理念融入技術架構。從設計者的角度來看,內在進路主要關注如何通過系統設計激發用戶的批判性思維和獨立決策能力。在這一層面,人工智能的設計應當能夠引導用戶反思自己的選擇和行為,避免技術的被動接受。外在進路則涉及技術開發者如何通過設計思維支持用戶的自主性和獨立性。設計者應當將倫理考量納入到開發過程,從技術的每一個環節著手,確保人工智能系統能夠支持而非削弱個體的自主性。Calvo等[30]提出的METUX模型為此提供了系統性的分析框架,該模型從采用(adoption)、界面(interface)、任務(task)、行為(behaviour)生活(life)以及社會(society)六個維度分析和理解技術對人類自主性和幸福感的影響,并討論如何從技術設計層面支持人類自主性。基于這一框架,設計者首先需要在技術開發初期就將倫理因素納入考量,明確系統對用戶本真性可能產生的影響,確保系統的設計能夠支持人類的自主性,而不是破壞人類的自主性。其次,設計以用戶為中心的人工智能(human-centeredartificial intelligence)是關鍵,設計者需要認識到自主相關的風險因使用環境而異,避免那些讓用戶覺得不必要、無關緊要的任務,盡量幫助用戶讓其需求和目標始終保持一致。最后,設計者還應評估技術使用對用戶福祉的長期影響,包括用戶的心理需求得到滿足的程度,以及對用戶自主性和整體生活質量的影響。設計者在設計時需采用有意義的人類控制(meaningfulhumancontrol)31]機制,使人類參與到人工智能系統各個環節,確保在關鍵決策節點保持適當的人類參與。
3.3 社會監管層面
在社會監管層面,需要建立一個能夠有效保護人類本真性的制度框架。內在進路關注的是監管框架如何從倫理和哲學的角度,保障人類自主性和本真性。例如,制定嚴格的隱私保護法案、設立倫理委員會等機制,都是從倫理層面推動技術發展的手段。而外在進路則涉及到外部制度和政策的設計,這些政策能夠為人工智能技術的健康發展提供必要的保障。這要求人工智能系統提供者公開系統的基本原理、數據使用方式和決策機制,使得相關利益方能夠充分了解系統運作的關鍵要素。對正在開發的技術的倫理影響應當進行持續評估,確保隨著技術的持續反饋和迭代不斷重新審視倫理方面的考量。同時,制度設計還需要明確規定系統提供者在保障用戶知情權和選擇權方面的具體責任,包括必要時賦予用戶否決或修改系統決策的權利。在評估機制方面,需要建立科學的評估標準和定期審查制度。這種評估不應局限于技術性能指標,還應包括對系統如何影響用戶批判性思維能力、獨立決策能力等本真性影響因素的深入分析。此外,外部監管機制應當鼓勵多方參與,形成多元的利益平衡。監管框架應考慮到各方利益相關者的需求,包括保護技術創新者的自由和商業主體的合理發展需求,同時也要保護用戶的知情權和選擇權。在多方協作的基礎上,構建有效的社會監管機制,才能確保人工智能技術不僅在技術上發展迅速,也能在倫理和社會責任上承擔應有的責任,最終才能更好地實現各方利益的平衡,推動人工智能技術的健康發展。
4結語
人工智能技術對人類自主性的影響是一個極其復雜的問題,涵蓋了技術、哲學、倫理、心理學、社會理論和認知科學等多個層面。本真性是人類的一個重要本質,是自主性研究的重要內容。在人工智能時代理解和解決人機關系問題上,本真性應該受到更多關注。在如今大多數技術倫理討論中,自主性一詞更多與人工智能技術綁定,如自主武器、自動駕駛車輛、自主機器人等,而逐漸減少了與人應有的聯系。人工智能的倫理審視也往往側重于技術外部后果的影響,諸如人工智能對隱私的侵犯、對決策透明度的要求、對數據濫用的防范等。然而,這些討論雖然有效,但通常未能深入探討人工智能如何影響人類的內在自我意識、思維能力和反思性行為。換句話說,傳統視角更多關注的是如何規避技術對外在行為的干擾,卻未充分關注到技術如何從根本上塑造或可能扭曲個體的認知結構和價值觀。本真性倫理視角強調,個體的自主性不僅僅是外部自由的實現,更是內在本真性的保持和自我決定能力的展現。在這一視角下,自主性不僅僅被視為選擇的自由或決策的外部空間,而是關乎個體如何在復雜的社會環境中進行自我反思、追求自我實現,并在過程中保持與自我真實價值的聯系。本研究在于提供了一種新的視角,即從本真性倫理立場出發,綜合考慮人工智能技術對人類自主性的多重影響。通過深人研究自主性話題中的本真性倫理立場里的不同觀點,提煉出內在主義和外在主義兩個維度。并從本真性倫理立場出發,探討人工智能技術如何在批判性反思、獨立決策能力、知情選擇和支持性環境等四個關鍵機制上如何影響人類的自主性,并提出了新的研究框架。在技術設計和社會規制層面,本真性倫理視角提供了清晰的指導原則,強調技術設計應當以增強個體的自我反思能力、獨立決策能力和知情選擇權、支持性環境為基礎,這對于開發以人類為中心的人工智能系統、制定更加符合人類本真性的法律和政策具有一定實踐意義。
最后,人工智能對人的本真性的挑戰不僅僅是技術設計的問題,更是一個需要哲學、倫理學與其他社會科學以及自然科學等多學科共同參與的多元議題。我們需要繼續深入挖掘和研究本真性倫理立場,繼續發展更具反思性的技術設計范式,在充分利用人工智能技術賦能潛力的同時,有效維護個人自主性的真實地位,確保技術朝著有益于人類的方向發展,推動人機關系向著更加和諧的方向演進。
參考文獻:
[1]EUROPEAN COMMISSION.Ethics guidelines for trustworthy AI [R/OL].(2019-04-08)[2024-12-08]. htps:/digital-strategy.ec. europa.eu/en/library/ethics-guidelines-trustworthy-ai.
[2] FUIHNF,ZHENGR,CAIJ,etal.GenerativeAI and ChatGPT: applications,challenges,and AI-human collaboration[J]. Journal ofInformation TechnologyCaseand ApplicationResearch,2023,25 (3):277-304.
[3] RAJPURKARP,CHENE,BANERJEEO,etal.AIinhealthand medicine[J].NatureMedicine,2022,28(1):31-38.
[4] BAIL C A. Can generative AI improve social science?[J]. Proceedingsofthe National Academy of Sciences ofthe United StatesofAmerica,2024,121(21):e2314021121.
[5] SUSSERD,ROESSLERB,NISSENBAUMH.Online manipulation: hidden influences in adigital world [J].Georgetown Law TechnologyReview,2019(4):1-45.
[6] 邱德勝,耿慧.大數據技術應用對人類思維品質的影響分析[J]. 自然辯證法通訊,2023,45(9):81-88.
[7] 叢杭青,王曉梅.何謂Autonomy?[J].哲學研究,2013(1): 108-115.
[8] DARWALL S.Thevalue of autonomyand autonomyof thewill[J]. Ethics,2006,116(2):263-284.
[9] CHRISTMAN J.Autonomy in moral and political philosophy[J]. NabuPress,2003,34(2):525.
[10]查爾斯·泰勒.本真性的倫理[M].程煉,譯.上海:上海三聯書 店,2012.
[11]DUFFY C. There are no guardrails.‘This mom believes an AI chatbot is responsible for her son's suicide[EB/OL].(2024-10-30) [2025-01-12].https://www.cnn.com/2024/10/30/tech/teensuicide-character-ai-lawsuit/index.html.
[12]OSHANA M A L.|Personal autonomy and society[J]. Journal of Social Philosophy,1998,29(1): 81-102.
[13]FRANKFURTHG.Freedom of the will and the concept of a person [M].Totowa,NJ: Humana Press,1988: 127-144.
[14]DWORKIN G.Autonomy and behavior control[J].Hastings Center Report,1976,6(1): 23-28.
[15]DWORKIN G.Thetheory and practice of autonomy[M]. Cambridge:CambridgeUniversityPress,1988.
[16]CHRISTMAN J.Autonomy and personal history[J].Canadian Journal of Philosophy,1991,21(1):1-24.
[17]MACKENZIE C,STOLJAR N.Relational autonomy:feminist perspectives on autonomy,agency,and the social self[M].New York: Oxford University Press,2000.
[18]STOLJAR N.Autonomy and adaptive preference formation[M]. New York: Oxford University Press,2014: 227-254.
[19]ELSTER J. Utilitarianism and beyond [M]. Oxford: Cambridge University Press,1982: 219-238.
[20]COLBURN B.Autonomy and adaptive preferences[J].Utilitas, 2011,23(1): 52-71.
[21]NGUYEN C T. Echo chambers and epistemic bubbles [J]. Episteme,2020,17(2): 141-161.
[22]MILANO S,TADDEO M,FLORIDI L. Recommender systems and their ethical challenges[J].AI Society,2020,35(4): 957-967.
[23]THALERRH,SUNSTEIN CR.Nudge: the final edition[M].New Haven:Yale University Press,2021.
[24]YEUNG K. Hypernudge': big data as a mode of regulationby design [J].Information Communication Society,2016(1):1-19.
[25]GUIDOTTI R,MONREALE A,RUGGIERI S,etal.A survey of methods for explainingblack box models[J].ACM Computing Surveys,2019,51(5): 1-42.
[26]ZEDNIK C.Solving the black box problem: a normative framework for explainable artificial intellgence[J].Philosophy Technology, 2021,34(2): 265-288.
[27]陳蘭馨,沈桂龍.馴服還是被馴服:數字利維坦下人的自主性問 題[J].學術月刊,2024,56(10):90-100.
[28] KORDZADEH N,GHASEMAGHAEI M. Algorithmic bias: review, synthesis,and future research directions[J].European Journal of Information Systems,2022,31(3):388-409.
[29]METHNANI L,ALER TUBELLA A,DIGNUM V,et al. Let me take over: variable autonomy for meaningful human control[J].Frontiers inArtificial Intelligence,2021,4:737072.
[30]CALVO R A,PETERS D,VOLD K,et al. Supporting human autonomyin AIsystems:a framework for ethical enquiry[M]. Cham: Springer International Publishing,2020: 31-54.
[31]SANTONI DE SIO F,VAN DEN HOVEN J. Meaningful human control over autonomous systems: a philosophical account [J]. Frontiers in Robotics and AI,2018,5:15.
The Dilemma of Human Autonomy in Artificial Intelligence from the Perspective of Authenticity
LIU Tengxu, ZHANG Guihong (Schoolof Humanities and Social Science,UniversityofScience and Technologyof China,Hefei 23oo26,China)
Abstract:Inthcontemporarycontextofrapiddevelopmentofartificialinteligencetechnology,therelationshipbetween technologyand humanautonomyhas becomeanimportanttopic inphilosophicalresearch,andauthenticityisanimportant premiseand ethical stance in the study of autonomy.By focusing on the two major approaches of internalism and externalism inthediscussionofauthenticityissues,andanalyzing thecoreelementsofauthenticity,fourresearch dimensions thatafecthumanauthenticitycanbedistilled:critical reflection,independentdecision-makingability, informedconsentandfullchoice,aswellassupportiveenvironment.Basedonthisanalyticalframework,thepotential impactofartificialintellgence technologyonthesefourdimensionscanbesystematicallyexamined.Toaddress these chalenges,solutionscanbedesigned fromthethree levelsofusers,technologyandregulation,providingatheoreticalbasis for creating an institutional environment conducive to the autonomous development ofindividual authenticity. Keywords: human autonomy;authenticity;artificial intelligence ethics;; human-machine relationship