999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能的責任困境:以自主能動性和道德圖靈測試為探討中心

2020-12-08 14:45:28黃素珍
山東社會科學 2020年4期
關鍵詞:規范性人工智能人類

黃素珍

(上海師范大學 哲學與法政學院哲學系,上海 200234)

人工智能被認為是一種在機器上模擬、實現和延伸人類智能的技術,近幾十年來這種技術經歷了一個從以計算能力為核心的計算智能、以語音識別和圖像識別為核心的感知智能的發展歷程后,現在進入了認知智能的迅猛發展階段,并深入到在物理性狀上模擬人腦的生物性神經結構和功能,成為具有深度學習和高度自主控制能力的系統。一方面,人工智能被設計成即便脫離了人類的即時控制,仍然能夠憑借其模擬認知神經網絡而具備獲取和重新組織新的知識、根據不同的具體情景改變自適應性等功能,并據此持續作出合理的決策和獨立行動。在可預見的未來,它們的行為將越來越深入地影響人類的生活。另一方面,當高度自動化的人工智能由于能夠自我調整以適應具體的工作任務,生產商對這一學習過程不再干預,而使用者往往無法清楚地理解和評估機器內部的算法機制與決策邏輯,難以預測其行為后果,對人工智能的行動決定權似乎已從人類手中轉移到以算法和數據為核心技術的人工智能自己身上,加之設計者、開發者、生產者、使用者等相關主體與人工智能的行為后果之間缺乏清晰的、可追溯的因果關系,這就帶來一系列嚴重的道德責任歸屬和分配問題。已經出現或可預見的困境包括:金融服務機器人如果根據大數據技術而自主作出導致投資者損失的金融交易決策,它能否對此負責;無人駕駛汽車如果撞傷行人或破壞開放領域內的私人財物,該事故應該由誰負責;脫離人力控制的軍事機器人能否對誤擊平民的軍事打擊負有戰爭責任;醫療服務機器人是否需要對因其醫療決定而導致的醫療事故負責,或輔助安樂死的人工智能能否具備對人類生命質量的識見而代替病人做出醫療決策。

這些已經發生或很有可能發生的實踐困境在三個方面挑戰了傳統責任觀的條件:(1)在認知條件上,如果人類主體不了解或無法預測人工智能行為造成的后果,我們傾向于不對人類主體進行責任歸屬;(2)在因果條件上,如果人類主體的意圖、意愿、決定等與人工智能的行為后果缺乏明確的因果關系,也無法因果性地控制該行為的發生與否,我們似乎也難以將其歸責;(3)在心理條件上,人工智能模擬人類大腦神經的內部算法機制似乎能夠自主產生與人類主體類似的決策、推理和行動能力,不受外部干涉和控制,那么人工智能而非相關的人類主體似乎可以甚至在實踐上有必要被歸責。此外,即使我們認為(1)(2)不足以消解人類主體的責任,但在人類設計者、開發者、生產者和使用者等多主體共同參與的情況下,我們仍然缺乏確定的標準把人工智能具體的行為后果的責任在這些主體之間進行恰當的歸屬和分配。這就會帶來兩個理論后果:要么我們承認人工智能具有道德行動者(moral agent)的地位,但很可能由此消解人類主體的責任;要么我們始終承認人類主體要對人工智能的行為后果負責,但仍然缺乏與傳統責任條件不同的責任歸屬和分配標準。

本文試圖以自主能動性和道德圖靈測試為兩個探討維度,指出以深度自適應學習能力和自主控制能力為核心功能的人工智能因其缺乏道德心理學方面的特性,因此不能在本體論和規范性層面成為“充分的道德行動者”,但在解釋性或描述性層面,人工智能作為“潛在的或隱性的道德行動者”在實踐必要性的意義上應當被納入人機復雜交互環境的道德責任的歸屬和分配機制。只有確定人工智能能否成為道德行動者,抑或始終只能被當作執行人類意圖的工具,我們才能回應在多主體協作、人機廣泛交互、后果不確定的情境中人類主體和人工智能各自的責任性質、歸屬和分配的條件,以便為設計出一個更安全、更可靠的人工智能技術環境提供一個構建共同體責任文化的理論支持,以恰當地評估人類主體和人工智能的倫理風險和相應責任。

一、“人工道德行動者”與道德圖靈測試

針對機器人發展過程中可能出現的倫理風險,早在60多年前艾薩克·阿西莫夫(Isaac Asimov,1920—1992)就預見到有必要建立道德準則來指導機器人的行為,他確立了機器人三定律:“(1)機器人不得傷害任一人類個體,也不得因不作為而讓任一人類個體受到傷害;(2)機器人必須服從人類的命令,除非這種命令與第一定律相沖突;(3)機器人必須保護自己的存在,只要這種保護不違反第一或第二定律。”(1)參見Isaac Asimov, I, Robot. New York: Gnome Press, 1950. 同時參見Isaac Asimov, ‘The bicentennial man’ in The bicentennial man and other stories, New York: Doubleday, 1984.阿西莫夫的機器人三大道德定律旨在盡量減少沖突,因此,不傷害人類的要求優先于服從人類,服從人類勝過機器人的自我保存。隨后,阿西莫夫在此基礎上加上了優先于以上三條的定律——“第零定律”(Zeroth Law):“機器人不得傷害人性,也不得因不作為而傷害人性?!?2)同上,同時參見Wendell Wallace, Colin Allen, Moral Machines : Teaching Robots Right from Wrong, London: Oxford University Press, 2009, p. 48.阿西莫夫的機器人三大定律開啟了機器倫理(machine ethics)、機器人倫理(robots ethics)、計算倫理(computing ethics)或人工智能倫理(AI ethics)的先聲,這些理論認為有必要以倫理規范約束人工智能技術的發展,以降低其倫理風險,提高人類福利和其他社會價值。為了達到這個目標,最好的方式就是在編程層面把基本倫理原則變得是可計算的,從而通過編程的方式將其嵌入機器的行為機制中。(3)參見Michael Anderson, Susan Leigh Anderson, “Asimov’s ‘Three Laws of Robotics’ and Machine Metaethics,” in AI and Society (2008) 22:4, pp. 477-493.

艾倫與瓦拉赫認為,這種自上而下的進路存在三個主要缺陷:首先,它不過是把傳統的規范倫理學理論直接應用于技術領域,并且還忽視了新一代人工智能能夠模擬人類神經認知的機制,它是一個高度復雜的自動系統,沒有任何單一的算法能夠因果性地決定某一人工智能的一切行為。第二,這一進路忽視了各個規范倫理學理論已有的內部困難,以及由此帶來的在編程上如何實現“可計算”的問題,例如對于功利主義,什么是效用,以什么標準衡量效用與其他人類價值的沖突,這些問題仍然屬于功利主義內部懸而未決的理論問題,更不用說在機器編程上實現出來功利主義原則。第三,傳統的規范倫理學理論的目標都旨在追求抽象的普遍性和邏輯上的自洽性,因此難以把實踐中所有相關的復雜情況都容納在內,因此也就難以斷定針對一類經驗情境,采用何種規范倫理學理論作為算法原則才是最恰當的。(4)參見Wendell Wallace, Colin Allen, Moral Machines : Teaching Robots Right from Wrong, London: Oxford University Press, 2009.

因此,艾倫與瓦拉赫試圖繞過規范理論上的普遍分歧,不預設道德行動者的本體論或形而上學前提,也不斷定人工智能能否合乎倫理地行動,而是借用圖靈測試,將其轉化成“道德圖靈測試”。圖靈測試源自英國著名數學家、計算機之父阿蘭·圖靈在1950年提出的一個開拓性的問題:“計算機能夠思考嗎?”他的基本思路是,“機器如果在某些現實條件下能夠非常好地模仿人類回答問題,以致使回答在相當長的時間內被誤認為它不是機器,那么機器就可以被認為是能思維的”(5)圖靈測試被公認為奠定了人工智能的理論基礎,參見Alan Turing, “Computing Machinery and Intelligence”, Mind, (1950) 59: 236, pp. 433-460. 中譯本參見[英]A·M·圖靈:《計算機器與智能》,載[英]瑪格麗特·博登:《人工智能哲學》,劉西瑞、王漢琦譯,上海譯文出版社2001年版,第56-91頁。。圖靈測試的思路預設了行為主義和操作主義,智能首要地被定義為語言能力,一個人通過一系列對話(語言行為),如果不能區分與他對話的是人抑或機器,那么就可以認定這臺機器類似一個人類主體,或具有人類的思維智能。艾倫與瓦拉赫的道德圖靈測試延續了這一基本思想:假設某人分別與一臺人工智能和另一個人進行道德性質的對話(例如分別提出以娛樂為目的獵殺動物的行為是否是不道德這類問題),如果提問者不能以高于一般常人偶然出錯的方式分辨出與他對話的是機器還是人類,那么我們就可以宣稱這臺機器是一個“人工道德行動者”(Artificial Moral Agent,下文簡稱AMA)(6)Wendell Wallace, Colin Allen, Moral Machines: Teaching Robots Right from Wrong, London: Oxford University Press, 2009, p. 70. 同時參見Colin Allen, Gary Varner, “Prolegomena to any future artificial moral agent,” Journal of Experimental and Theoretical Artificial Intelligence (2000) 12: 3, pp. 254-255.。這一測試并不預設任一道德標準,就算這臺人工智能認為獵殺動物的行為在道德上是可接受的,甚至撒謊欺騙對話者,令其相信它是人類,只要它提供了恰當的道德理由,我們就可以合理地相信它是一個道德行動者。

艾倫認為,如果AMA是可能的,那么剩下的問題就是在算法層面上實現AMA,這需要把特定的道德認知和道德推理過程轉變為AMA決策過程的有機組成部分,將道德規則程序化或變得是“可計算的”(7)Colin Allen, Gary Varner, “Prolegomena to any future artificial moral agent,” Journal of Experimental and Theoretical Artificial Intelligence (2000) 12: 3, p. 253.。在這一點上,盡管他們承認自上而下的進路存在諸多缺陷,但仍然采用這一進路,以“道義邏輯”的方式在AMA的算法結構上編入可計算的倫理規范(例如功利主義、義務論、契約論、雙重效應學說等)。同時,他們也看重“自下而上的進路”(a bottom-top approach),即人工智能在經驗性情境中通過案例學習(case study)模擬人類的道德行為,調整或修正事先通過編程而嵌入的算法規范,從而間接地獲取普遍而抽象的道德規范在具體情景中的應用規則,并利用它們來指導未來的決策,甚至形成類似人類的社會性情感關系。為了使這兩條進路能夠共同發揮作用,他們把作為道德決策核心的自主性能力和與道德事實相關的敏感性能力作為AMA的兩個必要條件,它可以被設計成可以根據對規范的理解作出自主的決策,進而決定自己的行為。

但令人困惑的是,艾倫與瓦拉赫并沒有回應針對標準圖靈測試提出來的“語義理解”問題是否同樣會發生在道德圖靈測試上。對標準圖靈測試的經典批評來自約翰·塞爾對“強人工智能”的評論,根據塞爾的觀點,人的心理活動的意向性本質必須以大腦的生理—生物特性為基礎,表達的是對語言的語義理解,而不在于計算機是否具有與人一樣的外在行為或功能狀態。計算機的程序純粹是句法的或語法的,是運用形式規則對抽象的符號進行形式操作,而人的心理過程的根本特征在于語義屬性或語義內容,即對詞匯形成意義理解或意向性活動,因此計算機程序不能等同于人類心智。(8)[美]約翰·塞爾:《心靈、大腦與程序》,載[英]瑪格麗特·博登:《人工智能哲學》,劉西瑞、王漢琦譯,上海譯文出版社2001年版,第92-120頁。與圖靈測試面臨的問題類似,艾倫與瓦拉赫并沒有斷定AMA能否理解和識別對話情境中的倫理要素和道德詞匯的意義,因為要確定一個行動者是否理解和恰當使用道德詞匯的語義,遠比確定它能否理解非道德詞匯要棘手得多。對具體情景中倫理要素的理解是一個社會化建構的過程,人類個體在其中逐漸發展自己對情景中倫理詞匯的“語義學”的理解能力、同情能力和敏感性,并區分哪些要素具有道德重要性,哪些沒有,從而形成道德判斷和自身行動的道德理由。機器為了可以勝任對話,使得人類觀察者確定他是在與一個道德行動者打交道,我們需要假定它必須理解討論中所設計的全部情境,區分這些情境中哪些與道德理由相關,清楚支撐道德話語合理性的社會生活語境,以及理解這些話語對道德主體內在狀態的影響。但為了讓機器以有意義的方式參與道德對話,它就必須已經理解道德話語的意義,而為了達成對道德話語的語義理解,它必須已經參與到道德的社會化建構過程,即為了通過道德圖靈測試,它已經是一個道德行動者,那么這就犯了循環論證的錯誤。與之相對,人類主體之所以具備這些能力在于他一直處于主體交互的“生活世界”中,與他人共享一個意義和共情的世界,在此背景中進行有意義的道德對話和道德辯護。沒有任何一種人工智能算法能夠容納生活世界的全部參照信息從而作為啟動應用的初始條件,如果有,那么它就添加了道德圖靈測試根本沒有預設的大量經驗性前提,因而它只能限于用在經過高度人工信息過濾和人為設計的環境,而這根本不是我們所設想的人類正常的道德對話情境。

另外一個嚴重問題在于他們對自主性概念的使用。艾倫和瓦拉赫之所以強調以“自主性”定義AMA,是因為他們意識到單純強調用道德規范從外部約束人工智能設計者和操作者的行為是不夠的,還需要在人工智能的內部結構中設置能夠進行“倫理推理”的算法機制,即“把倫理放入機器中”,通過“自上而下”的編程程序和“自下而上”的案例應用兩個方面讓AMA成為現實。這背后預設了一個道德認知主義的前提,即認為心靈本質上是一個處理信息的機制,道德決策和道德推理的過程可以類比為計算的過程,因此,計算機作為一個信息處理系統,只要輸入足夠多的“道德規則”(算法)和“道德知識”(信息),那么計算機就能夠根據更高層次的規則將信息應用于具體情景,它也就能因此被賦予道德行動者的地位。但他們默認使用的自主性概念來自于對當代人工智能技術中自主學習能力的觀察,并沒有提出一個關于自主性的清晰論述,他們看起來更像是未加區分地就把人工智能脫離人類控制的“自動化”行為類比為人類行動者的“自主性”行為。此外,對自主性概念的簡單化處理導致他們過快地從對人工智能自主能力的經驗描述過渡到認為它們具有規范性意義的倫理主體的地位,即在認知主義倫理學的框架內把“自主的行動者”等同于“道德行動者”,在這一點上,他們并沒有對自主性與道德能動性之間的關系展開充分的前提論述。

此外,通過道德圖靈測試的人工智能系統不管其認知能力和自主決策能力多么強大,我們仍然可以合理地懷疑它們是否具備道德敏感性。正如上文所述,即便觀察者通過道德對話,可以確定某一人工智能能夠進行道德推理和道德辯論,我們也不能肯定它能以道德敏感性實現事實行為,例如具備共感和同理性,有能力理解他人的感受,對相關的倫理要素具有敏感性,能夠在復雜的情況下作出有效的倫理判斷,并能夠評估它們的行為可能帶來的道德和社會后果,例如醫療服務機器人需要衡量病人對物質福利的需求和對自主價值的需求。道德敏感性意味著人類行動者總可以質疑他被給予的道德要求,但要假定人工智能可以意向性地質疑算法給予它的目標或經過自下而上的方式而獲得的道德知識,這就需要設置超出道德圖靈測試之外的關于人工智能是否具有自我意識、意向性、自由意志、自我反思、動機等內在特質,而這正是艾倫和瓦拉赫使用圖靈測試所意欲排除的前設條件。

瓦拉赫已經意識到為了讓人工智能能夠以倫理的方式推理和行動而建構的AMA仍然面臨某些關于價值選擇的道德風險。(9)參見Wendell Wallach, “Robot minds and Human Ethics: the Need for a Comprehensive Model of Moral Decision Making”, Ethics and Information Technology (2010) 12: 3, pp. 243-250.例如一輛無人駕駛汽車可能面臨是撞向突然沖出馬路的行人以保護司機還是緊急剎車但傷害司機的選擇,一個醫療服務機器人可能面臨為了促進病人的福利而喂藥或尊重病人的意愿不喂藥的選擇。在這兩個場景中,這輛已經具有深度學習能力的無人駕駛汽車和醫療服務機器人“應該”作出什么樣的具有道德涵義的決策?它能否“理解”這個場景屬于一個道德兩難困境?我們應該根據什么規范標準把它作出不同決策而帶來的“道德責任”歸到它們身上?

(4)銑槽機施工成槽時對周圍土體擾動較小,一般不容易出現大量漏漿塌槽的現象,小量漏漿時需及時調整泥漿性能指標,補充槽內泥漿,同時也應在現場儲備足量的粘土、膨潤土、水泥等堵漏材料,以免在造孔過程中遇特殊地層出現槽孔大量漏漿時應對不及而導致塌槽,造成施工安全隱患。

因此,即便AMA在決策能力方面具備最低限度的自主性,甚至通過自下而上的學習模式,形成了類似人類情緒反應的能力,并根據由算法嵌入的框架和相關的倫理要素作出道德評估和道德選擇,我們仍然需要澄清以描述性和規范性兩種維度呈現出來的不同的自主性,繼而在道德心理學層面判定人工智能能否對它行為后果的“道德對錯”具有不同的實質性的語義理解能力和情感反應能力。因此,他們通過道德圖靈測試得出AMA可行性的結論與其說是證成,不如說是“類比”。

二、自主能動性:描述性與規范性

艾倫與瓦拉赫認為,“自主性”是構成人工智能之所以成為AMA的要素,這項能力指的是在操作和決策“自主”方面脫離人類控制的自動性和獨立性。但是艾倫與瓦拉赫對自主性概念的使用存在一個嚴重問題,如果AMA能夠自主行動并參與到道德情境中,那么它們是否能夠對規范作出充分反應這一問題就會凸顯出來。為了澄清如何從對人工智能核心能力的描述過渡到它們由此具有道德規范性意義上的“道德行動者”的本體論地位這一問題,我們需要在行動哲學與道德哲學交叉層面闡明自主性概念的描述性和規范性雙重涵義。

在當代行動哲學中,“自主性”理論的重要源頭之一是由哈里·法蘭克福(Harry Frankfurt)發展起來的自主性層級模型(hierarchy of autonomy)。法蘭克福試圖以意愿的層級結構和認同概念建立一個關于人類能動性的論證模式,把自主性視作個體通過對低階欲望進行批判性反思的認同活動,進而把人類行動者與其他類型的行動者區分開來。(10)參見Harry Frankfurt, “Freedom of the Will and the Concept of a Person,” Journal of Philosophy (1971) 68, pp. 829-839.法蘭克福的自主性理論模型沒有直接訴諸傳統形而上學的“意志”概念,而是以“意愿”(volition)或“欲望”來指向“意志的內在組成”(inner organization of the will),作為行動者概念化自我的手段。通過把個體欲望區分為“一階欲望”和“二階欲望”,法蘭克福認為個體是自主的,或者說他的行為之所以是自主的,乃在于直接激發行動的一階欲望被二階欲望所“認同”(endorsement/identification)(11)參見Harry Frankfurt, The Importance of What We Care About, Cambridge: Cambridge University Press, 1988, pp. 12-25. 中譯本參見[美]哈里·法蘭克福:《事關己者》,段素革譯,浙江大學出版社2010年版。。所謂一階欲望指的是行動者對于行動對象的直接欲求或意向,即我們最初形成的想做某件事的心理傾向,而二階欲望是我們對一階欲望的欲求,它反映的是我們經過反思性評價并意愿真正實現的欲望。只有得到二階欲望認同的一階欲望才是行動者本真的或真正屬己的欲望,這樣出于本真欲望而發出的行為才能稱得上是自主的選擇和行為。

“認同”概念在這里是法蘭克福意愿結構的核心,認同是一個心理活動與心智活動的過程,在這個過程中,行動者的意向活動,尤其是欲望,整合成為真正屬于或由行動者所創制(authorize)的東西,通過二階決斷的過程,特定的欲望才能真正“屬于”這個行動者,才能真正表達行動者的真實意志?!爱斠粋€人認同自己的欲望的時候,他對它們是能動的,他所作的事是他主動的?!?12)[美]哈里·法蘭克福:《事關己者》,段素革譯,浙江大學出版社2010年版,第61頁。行動者通過運用認同能力,作為二階決斷的結果真正體現他的自主能動性(autonomous agency),一個個體行動是自主的,當且僅當行動者的行動決斷來自于他的本真的反思認同;一個個體人格是自主的,當且僅當他的選擇與行為是他“全心全意”真正欲望的東西,與其“真實自我”相吻合。按照法蘭克福的說法:“一個人對自己的一個二階欲望的認同,那個欲望變成了一個二階決斷。那個人因此就擔負起對有關的一階和二階欲望以及這些欲望引導他實現的那些行為的責任……對于我們內心生活,對自我欲望的認同……在人類精神性(mentality)的現象學和哲學中都起到首要的作用?!?13)Harry Frankfurt, Necessity, Volition, and Love, Cambridge University Press, 1999, p.132.

對欲望/意愿結構的層級性劃分非常簡明地刻畫了人類行動者所具有的傾向性、意向性、主觀性或精神性特質,即我們并非按照直接的欲望而行事。二階欲望與一階欲望的區分以及前者對后者的認同活動形成了一個“反思性距離”、“反思性的自我評價”或“意愿的結構”(14)[美] 哈里·法蘭克福:《事關己者》,段素革譯,浙江大學出版社2010年版,第62頁。,這個距離使得我們能夠對最直接的欲望進行有意識的反思,在此基礎上才有可能作出真實的選擇和決定。自主行動的可能性也正在于個體并不是受 “欲望”的直接驅動而行動的,而是對“一階欲望”具有一般反思的能力,即形成對一階欲望的二階欲望,這也是人格與非人格(例如動物)的本質區別之一。

從上述分析來看,法蘭克福的欲望層級模型和反思認同是價值中立(value-neutral)的,他并不考慮欲望內容的社會性來源與評價性維度。(15)基于欲望的社會性對法蘭克福提出的批評,參見M. Berstein, “Socialization and Autonomy,” Mind (1983) 92, pp.120-123。以及Charles Taylor, Sources of Self: The Making of Modern Identity, MA: Harvard University Press, 1989.在他看來,自主性并非是一個實質性的價值,而是一種反思性的決定能力;重要的不是形成“正確的”欲望,而是形成本真的決斷和本真自我。他的理論并沒有回答行動者到底能夠依據什么標準對欲望進行選擇和評價,因此二階欲望很有可能自身并非是自主的,為了判斷二階欲望是本真的,行動者就需要形成三階、四階欲望等無限回溯的意愿鏈條。正如沃特森指出的,法蘭克福的模型沒有區分“欲求”(wanting)和“評價”(valuing),正是評價系統構成了一個人看待世界的支點,如果失去此支點,個人也就失去了“作為行動者的同一性”(16)Gary Watson, , 1975. "Free Agency," Journal of Philosophy (1975) 72, p. 106.。由于法蘭克福的自主性理論只是聚焦于作為程序性能力的自主性,以描述性的方式刻畫自主人格的特征,但因其內涵過于單薄,難以真正區分由行動者的內在力量激發的“行動”與物理性質的“事件”。因此,法蘭克福的自主性理論難以說明和證成他提出來的目標:“行動不僅僅是發生在這個人之內或他身上的事情,而是他作為一個行動者而做的事情”(17)[美]克里斯蒂娜·科爾斯戈德(又譯科絲嘉):《柏拉圖與康德倫理學中的自我構成》,葛四友譯,載《世界哲學》2011年第3期。。

針對法蘭克福自主性理論中規范性缺失這一問題,科爾斯戈德提出了一個以“實踐同一性”為核心的實質性自主性理論。在我們諸多實踐身份里,她認為最為重要的是我們的“道德同一性”,即我們“把自己的人性看作是規范性的、看作是理由和義務的來源”(18)[美]克里斯蒂娜·科爾斯戈德:《規范性的來源》,楊順利譯,上海譯文出版社2010年版,第148頁。??茽査垢甑抡J為,我們的實踐同一性正是“規范性承諾”的來源。實踐同一性的最終根源在于行動者的本質是具有自我意識,并根據理由而行動的個體,這樣的個體是形而上學意義上的自我建構的統一體,關涉到我們如何看待“自己是誰”。實踐同一性最終也就是具有自我意識的行動者根據自己對個人同一性的認識而反思認同的建構結果,“自我意識的反思結構必然地把我們置于在我們自身之上的權威和我們作為一個結果”(19)Christine Korsgaard, Self-Constitution: Agency, Identity, and Integrity, Oxford: Oxford University Press, 2009, p.10.。科爾斯戈德使用康德式的道德話語,認為道德規范性通過“自我認同而完成”:“只要你是一個理性存在者,你就必須在自由觀念之下行動?!惆涯阕约憾皇悄阋乐袆拥哪莻€誘因看作是你行動的原因。康德認為你就必須基于一個普遍法則去行動。除非你普遍地意愿,否則你不可能把自己看作是你行動的原因——你不可能把這個行動看作是你自己意志的產物?!?20)[美]克里斯蒂娜·科爾斯戈德:《柏拉圖與康德倫理學中的自我構成》,葛四友譯,載《世界哲學》2011年第3期。根據這一觀點,具有一般的實踐同一性同時就意味著行動者必然發展出道德規范性意義上的實踐同一性。

根據科爾斯戈德的觀點,要構建具有這一特征的成功的規范性理論必須滿足三個條件。首先,一個成功的規范性理論要基于第一人稱的視角,而基于第三人稱的理論只具有現象解釋的作用。所謂第一人稱指“從自己的角度看”,主體反思所要接受的原則或規則是否得到“證成”,因為無論我們被給予什么樣的規范,我們總能提出自我追問:我為什么要服從那樣的道德要求?我為什么應該是道德的?換句話說,規范性問題必須是針對道德行動主體而提出來的道德證成問題。(21)[美]克里斯蒂娜·科爾斯戈德:《規范性的來源》,楊順利譯,上海譯文出版社2010年版,第15頁。第二個條件是“動機透明性”,它被用以解釋道德規范性如何能夠激發我們產生一個行動動機。第三個條件是自我意識,它要求合格的規范性理論能夠說明,為什么主體會對自己實施的道德錯誤產生強烈的愧疚感,甚至會產生自我同一性的危機。(22)[美]克里斯蒂娜·科爾斯戈德:《規范性的來源》,楊順利譯,上海譯文出版社2010年版,第18-19頁。

科爾斯戈德按照實踐同一性概念對法蘭克福的反思認同概念進行了轉化。正因為人具有反思認同的意志結構,因此人不會依據直接的一階欲望行事,而是“出于理由”而行動,行動者也由此對自己的理由形成了一個“承諾”(23)[美]克里斯蒂娜·科爾斯戈德:《規范性的來源》,楊順利譯,上海譯文出版社2010年版,第113頁。。但不同的是,法蘭克福的反思概念涉及的是如何鑒定出一個本真欲望的實現過程,而科爾斯戈德的目標則是要鑒定出一個最具有證成力量的規范性理由。其中占主導地位的不是心理意義上的欲望,而是基于主體自我意識的反思結構,即作為整體的人格其本質是“他必須出于理由行動”(24)[美]克里斯蒂娜·科爾斯戈德:《規范性的來源》,楊順利譯,上海譯文出版社2010年版,第114頁。。在這個理論框架中,一個行動者要具備道德能動性,首先必須將自己反思認同為能夠根據規范理由而行動的主體。

根據上文的分析,如果援引法蘭克福價值中立或單純作為描述性概念的自主性去理解人工智能的能動性特點,認為人工智能具有與人類行動者類似的自我導向、自我管理、自我決策的能力,能夠根據多個選擇項制定并執行一定的行動策略,這只能說明一般意義的基本“行為”(behavior),而非由行動者基于內在意愿結構而發出的“行動”(action)。而按照科爾斯戈德的規范性自主性理論,認為一個具有高度自主系統的人工智能能夠對其行為具有責任能力,那我們就忽視了成為道德行動者最基本的規范性條件:它不僅能夠理解,并且也能夠基于自我意識進行反思認同的過程,根據得到證成的道德理由去行動。因此,當艾倫與瓦拉赫把“自主性”作為AMA的特征時,他們指的是機器脫離了人類的直接控制而能夠繼續以自動化的方式運作,這是最低程度的自主性,而非在刻畫與物理事件本質上不同的“行動”特征,更不足以說明AMA具有道德規范性意義。因此,不管在描述性抑或規范性層面上,他們言說的不是在行動能力和規范性意義上的“自主性”,而是一種概念上的誤用。

三、責任歸屬:一般行動者與道德行動者

艾倫與瓦拉赫力圖建立AMA旨在解決這樣一個問題:除非我們賦予可自主作出行動決策的人工智能以道德地位,否則我們在傳統的責任歸屬條件下難以解決因人工智能迅猛發展而產生的責任消解或責任感模糊的問題。但專注于為人工智能配備道德決策能力,而不關注人工智能嵌入其中的社會系統,人類主體的責任感很有可能在漫長的技術鏈環中被消解;同樣,完全剔除人工智能的倫理位置,人機交互技術環境的復雜性就會遭到忽視。他們所訴諸的道德圖靈測試和自主能動性都存在概念上的問題,因此不能滿足道德能動性的恰當條件。

正如上文所述,除了最基本的不受外部控制的自主性能力,一個能夠承擔道德責任的行動者還應當具備道德敏感性,包括識別具體情景的道德要素的能力、判斷道德價值的優先性、理解什么樣的普遍規范和價值能夠被用于具體情景等認知能力,即行動者不僅在行動上看起來是符合一定的規范,他還應當出于對規范的語義理解而做出意向性的行動,能夠對自己的行為作出規范性評價和反思,并對此具有道德性質的反應性情感。反應性情感在這里主要指識別和作出恰當情感性反應的能力,例如內疚、羞恥、憤怒、義憤、正義感、怨恨、同感、共情、尊嚴感、感激、原諒等與道德規范性密切相關的情感。(25)參見P. F. Strawson, “Freedom and Resentment,” Proceedings of the British Academy (1962) 48, pp.1-25.這個觀點最早由彼特·斯特勞森(Peter Strawson)闡明,他認為,反應性態度本質上源自我們總是生活在一定的社會性關系中,是我們實踐生活和人際期待的自然表達,而非外在于實踐生活的某一個理性判斷標準。當我們判斷一個人是否應該負有責任,當且僅當我們通過反應性態度讓他負責是恰當的。透過反應性態度,道德責任和道德能動性本質上是根植于我們作為社會性參與者這一本質。

即便艾倫與瓦拉赫基于自主能動性和道德圖靈測試而建構的AMA一定程度上失敗了,但這并不意味著人工智能不能作為“一般行動者”而參與到多主體的人機交互的責任歸屬和分配中。自主性作為道德行動者的重要能力,其實現有程度之別,根據程度不同我們可以區分如下從一般行動者到道德行動者的層級,并據此分配不同程度的道德責任和共同責任。(26)例如Moor根據人工智能的發展階段而區分了三類道德行動者:第一階段的人工智能在其行為輸出上體現的是人類設計者呈現在意圖中的倫理規范,模仿人類的道德行為,是為隱性的(implicit)道德行動者;第二階段的人工智能具備類似人類的道德推理能力,可以在按照算法的道德模型并確切輸入信息的條件下決定應該做什么,且參與道德決策,這屬于顯性的(explicit)道德行動者;第三階段的人工智能具有類似人類主體的道德能動性,具備能夠做出道德判斷和道德辯護的能力,具有自我意識和自由意志,屬于充分的(full)道德行動者。Moor認為,從第一階段到第三階段的人工智能的實現是一個經驗性的技術發展問題,而非斷然不可跨越的鴻溝。參見J. H. Moor, “The Nature, Importance, and Difficulty of Machine Ethics,” Intelligent Systems, IEEE (2006) 21:4, pp.18-21. 但與Moor的觀點不同,本文認為不能僅僅關注人工智能的道德能動性發展階段,還應該關注人類主體在這一發展過程中所要承擔的責任程度和范圍。

(1)人工智能在技術操作層面“似乎表現得”具有人類的道德認知和道德行為努力,它的自動化系統和行為機制就不受外部控制這一點上具有最低程度的自主性,但由于它不具有規范性的語義理解能力和高階的自主性能力,對倫理要素和行為后果的“道德對錯”也缺乏相應的情感反應能力,因此,我們可以將其劃分為“不充分的行動者”或“一般行動者”(agent in general)以作為解釋導致某一物理事件的一個因果性原因,并承擔相應的因果性責任(causal accountability)。我們可以把人工智能的能動性與動物的能動性進行類比,例如城市里沒有拴牢狗繩的寵物犬咬傷了路人,搜救犬把一個溺水的人救了上來,我們認為它們在引發行為后果上可以被賦予責備、懲罰或贊揚、獎賞的道德評價性語言,但并不因此就認為它們是充分的道德行動者,即便它們的行為在一定程度上脫離主人的控制,我們也會認為主人需要對它們的行為負有一定的責任。在這些事件上它們與其主人的疏忽監管或有效教養共同成為道德歸屬的對象,并根據能動性程度的不同而被分配不同分量的道德責任。

與之類似,對于在整個無人駕駛情景中的人工智能,我們可以認為它是其行為的發起者,是對整個場景的描述性和解釋性要素之一;如果缺乏這一要素,我們就難以解釋無人駕駛倫理的兩難困境。反過來,如果單純根據這一因果性解釋要素,我們就認為該無人駕駛汽車具有充分的責任能力,我們就消解了所有的相關各方參與者的責任。把能動性語言賦予人工智能是為了解釋它的行為,而非為了它在現實中能夠實踐能動性,更不是以此為借口而推諉人類主體的責任,其最終目標是為了建構一個更全面的多主體責任環境。

(2)成熟的人類行動者展現的能動性是一個規范性概念,除了最低限度的自主能力,還包括意愿層級結構的自主性與作為內在意向性和規范反思能力的自主性,因此,人類行動者因其展現為“充分的道德行動者”(full moral agent)而承擔“主體責任”(agent responsibility)。正如前述,除了自主性能力外,充分的道德能動性還指行動者具有有意識的心理意圖和反應性情感,對規范性目標進行反思性認同,辨別相關的倫理要素,把普遍的道德原則適用于具體情景等概念化能力,并將自我設想為在社會性關系中自我賦予道德責任。這種主體責任在人機交互環境中主要體現為人類設計者、開發者、生產者、使用者、維護者在人工智能技術上實現其意圖、目標和價值承諾,并在促進福利、尊重自主、公平開放等價值共識上建立更負責任的科技框架。(27)近年來世界各國已經積極推進人工智能倫理框架的確立,例如歐盟于2019年4月發布《人工智能倫理準則》,以尊重基本人權和核心價值觀與技術上的安全可靠為關鍵建立“可信賴的人工智能”;我國亦于2019年6月發布《新一代人工智能治理原則——發展負責任的人工智能》,指出人工智能倫理的主旨不僅在于設立自上而下的規范,還要考慮人工智能能否作為潛在的行動者被納入到整個責任框架中。在這一框架內,主體責任可以根據每一參與者在每一個環節的影響分量和后果而分為可定位、可問責的具體職責(accountability)與法律責任(legal liability)。

(3)人類行動者和人工智能共同構成多主體的人機交互整體,以擔負“共同責任”(joint responsibility)。這是一種積極的共同責任觀,它超越了狹義的倫理框架,旨在建立一個更全面的倫理框架以便把人工智能作為不充分的道德行動者納入進來,同時保持人類行動者對自主系統有意義的控制。參與人工智能技術工程的每個環節的個體和集體參與者都意識到自己的行動是更大圖景中不可缺失的一部分,在消極方面將可預見的風險盡可能地降到最低,在積極方面則把人工智能行為對提升人類主體責任感的影響納入進來,將人類主體與人工智能之間的關系視為超越狹隘的目的—手段的共同協作關系。

基于對不同類型的能動性的區分,我們可以看出,一方面,人工智能的最低限度自主性能力并不滿足道德能動性的條件,也無法為具有高度自主系統的人工智能提供道德歸屬的條件。如果說人工智能具有一定的能動性,那么也只是在因果性意義上使用自主性這一概念,即脫離外力的即時操作而自動制定行為決策,它起到的是描述事件發生的作用,而不具有構成道德能動性所需要的充分條件。當我們脫離情景,孤立地討論具有深度學習能力和自主能力的人工智能對它的行為后果與人類一樣負有完全的道德責任,這是誤導性的,很有可能導致我們忽視甚至消解人類參與者的責任。我們應當修正傳統責任話語的不足,將涉及人工智能行為的整個情景作為一個整體來探討其中道德責任歸屬和分配問題,把風險責任納入到人工智能的設計、開發、應用和維護等整個過程中,并建立可追溯和可追責的責任分配框架。

日益發展的人工智能技術在自主能力方面獲得迅猛的發展,雖然并沒有達到人類道德行動者所具備的具有層級結構和規范性維度的自主性,以及具有作出道德敏感性和情感反應性態度等能力,但仍然可以據此將其劃分為一般行動者以用構建一個包括人類主體和人工智能在內的責任歸屬和分配框架,這并不排除人工智能可以從一般行動者發展成為充分道德行動者的可能性。解決這個難題已經超出了本文的任務,本文只是力圖指出人工智能倫理的一個可能的思路:這個跨越是否僅僅是一個技術經驗性的問題,還需要我們從人工智能的復雜算法、道義邏輯、形而上學、行動哲學、認知科學、道德心理學、規范倫理學等各個學科對道德能動性作出深度的綜合性研究。

猜你喜歡
規范性人工智能人類
人類能否一覺到未來?
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
自然資源部第三批已廢止或者失效的規范性文件目錄
礦產勘查(2020年7期)2020-01-06 02:03:17
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
作為非規范性學科的法教義學
法律方法(2018年3期)2018-10-10 03:20:38
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
我國知識產權判例的規范性探討
知識產權(2016年1期)2016-12-01 06:56:38
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
主站蜘蛛池模板: 国产91在线|日本| 日韩欧美一区在线观看| 亚洲免费黄色网| 亚洲愉拍一区二区精品| 国产成人亚洲日韩欧美电影| 日本高清在线看免费观看| 黄色网站不卡无码| 亚洲国产成人超福利久久精品| www.精品国产| 国内a级毛片| 成人日韩精品| 亚洲丝袜第一页| 久久99精品久久久久纯品| 国产丝袜丝视频在线观看| 欧美在线三级| 中文精品久久久久国产网址 | 国产欧美精品一区二区| 97久久精品人人做人人爽| 亚洲h视频在线| 青青青草国产| 波多野结衣中文字幕久久| 免费高清a毛片| 亚洲最黄视频| 国产黄色片在线看| 四虎永久在线| 日韩精品一区二区三区中文无码| 亚洲国产理论片在线播放| 思思热在线视频精品| 成年人久久黄色网站| 亚洲网综合| 亚洲区视频在线观看| 国产精品中文免费福利| 國產尤物AV尤物在線觀看| A级毛片高清免费视频就| 99精品视频九九精品| 午夜无码一区二区三区在线app| 伊人狠狠丁香婷婷综合色| 久久人人妻人人爽人人卡片av| 男女精品视频| 中国毛片网| 国产在线拍偷自揄观看视频网站| 欧美亚洲中文精品三区| 欧美劲爆第一页| 麻豆AV网站免费进入| 欧美天堂在线| 97国产在线观看| 国产啪在线91| 人人艹人人爽| 日韩激情成人| 欧美性精品| 中国特黄美女一级视频| 欧美一级夜夜爽| 国产一级做美女做受视频| 99性视频| 日韩天堂视频| 久久精品91麻豆| 成人夜夜嗨| 精品一区二区三区四区五区| 欧美午夜网站| 国产精品成人啪精品视频| 首页亚洲国产丝袜长腿综合| 在线五月婷婷| 亚洲第一黄色网址| 中文字幕永久在线观看| 成年免费在线观看| 亚洲精品成人片在线播放| 国产精品久久久久鬼色| 少妇精品在线| 欧美国产菊爆免费观看| 日韩欧美国产中文| 精品国产中文一级毛片在线看| 中文国产成人精品久久| 欧美日韩一区二区三| 一区二区三区高清视频国产女人| 1024国产在线| 亚洲天堂2014| 女高中生自慰污污网站| 毛片手机在线看| 欧美一级99在线观看国产| 四虎永久在线精品影院| 永久免费av网站可以直接看的| 久久这里只有精品8|