王 亮
不同的人工智能倫理研究范式有著不同的理論前提預設,即人工智能倫理主要是立足于人工智能體,還是立足于人本身的美好生活、人的自由等,這些理論前提構成了人工智能倫理研究范式的基礎,它不僅決定了人工智能倫理研究的方向,也體現著人工智能倫理的價值底蘊。因此,對這些理論前提的探討有助于推進人工智能倫理的深入研究。
目前的人工智能倫理研究主要是圍繞人工智能體進行,它的研究分為兩個層面:第一個層面是對人工智能體是否可以承擔倫理責任進行追問;第二個層面是對人工智能體的倫理設計、監管等問題進行探討。相比較而言,第一個層面更為基本,它是第二個層面的研究得以開展的前提。
一些學者認為人工智能體可以承擔倫理責任。蘇爾林斯(John P.Sullins)認為,只要機器人滿足相對獨立性、行為的可解釋性、理解力三個條件,它的道德權利和責任就與其身份無關。①Sullins J P,When is a robot a moral agent,Machine ethics,2006,pp.151-160.費爾貝克(Peter-Paul Verbeek)認為,人工物和設計者、使用者之間具有交互式倫理責任。②Verbeek P,Design Ethics and the Morality of Technological Artifacts,Vermaas P E.,Kroes P.,Light A.,et al.Philosophy and Design:From Engineering to Architecture,Dordrecht:Springer Netherlands,2008,pp.91-103.柯恩科威克和舒科呂(Gordana Dodig Crnkovic &Baran ?ürüklü)認為:“所有的人類利益相關者(機器人設計師、制造商、維護人員和用戶)都有特定的責任來保證安全、適當的性能,而機器人則需要不斷地發展人工倫理能力,包括為自己的行為承擔功能性責任的能力。”①Crnkovic G D,?ürüklü B.,Robots:Ethical by Design,Ethics and Information Technology,2012,Vol.14,No.1,pp.61-71.波爾森等人(Adam Poulsen et al.)認為:“機器倫理領域關注的是如何將倫理行為或確定倫理行為的方法嵌入到人工智能(AI)系統中。其目標是生產出具有隱性倫理(旨在避免不道德后果)或顯性倫理(旨在行為合乎倫理)的人工道德代理(AMAs)。”②Poulsen A.,Anderson M.,Anderson S L.,et al.,Responses to a Critique of Artificial Moral Agents,https://arxiv.org/ftp/arxiv/papers/1903/1903.07021.pdf,2019/2019-05-15.正如波爾森所言,在肯定人工智能體可以承擔倫理責任的基礎上,一些人工智能倫理研究者分別從人工智能體的倫理設計路徑、倫理數據庫構建、價值觀嵌入等方面研究了人工智能體的倫理設計問題。就人工智能體的倫理設計路徑而言,瓦拉赫和艾倫(Wendell Wallach &Colin Allen)可以說是該領域的奠基者,他們在《道德機器:如何讓機器人明辨是非》一書中詳細對比了“自上而下式(top-down) ”進路和“自下而上式(bottom-up) ”進路,認為“自上而下式”進路由于涉及抽象的倫理“原則”或“規范”,因此具有“全面的解決方案”的優勢,但同時面臨著“繁重的計算需求”的劣勢;“自下而上式的策略有望產生對人工道德智能體整體設計而言不可或缺的技術和標準,但這些策略相當難以進化或發展”③[美]溫德爾·瓦拉赫、[美]科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,北京:北京大學出版社,2017 年,第71—99 頁。。在綜合分析“自上而下式”和“自下而上式”進路的基礎上,瓦拉赫和艾倫提出了一種“混合式美德倫理”進路,并認為它綜合了“美德的自上而下進路”和“聯結主義式的美德”進路,適合作為人工道德智能體的有效設計進路。④[美]溫德爾·瓦拉赫、[美]科林·艾倫:《道德機器:如何讓機器人明辨是非》,第102—109 頁。就人工智能體的倫理數據庫構建而言,德加尼等人(Morteza Dehghani et al.)倡導通過創建數據庫來為人工智能的道德決策提供參考依據。⑤Dehghani M,Tomai E,Forbus K,et al.,An Integrated Reasoning Approach to Moral Decision Making,New York:Cambridge University Press,2011,pp.422-441.穆恩等人(AJung Moon et al.)提出采用開源模式共建人工智能的倫理知識庫。⑥Moon A,Calisgan C,Operto F,et al.,Open roboethics:Establishing an online community for accelerated policy and design change,http://robots.law.miami.edu/wp-content/uploads/2012/01/Moon_et_al_Open-Roboethics-2012.pdf,2012/2019-04-05.徐英瑾深刻分析了人工智能中的“人工神經元網絡”計算模型與儒家傳統的“德性熏養”以及“儒家德性樣板庫”的隱喻性投射之間的關系。⑦徐英瑾:《儒家德性倫理學、神經計算與認知隱喻》,《武漢大學學報(哲學社會科學版)》2017 年第6 期。價值觀嵌入也是人工智能體倫理設計的重要內容之一,施皮克曼(Sarah Spiekermann)將設定和理解價值目標作為人工智能系統倫理設計的第一步。⑧Spiekermann S.,Ethical IT innovation:A value-based system design approach,New York:Auerbach Publications,2015,pp.239-241.拉根伯格(Michael Nagenborg)認為,在人工道德代理人的設計中價值觀總是被有意識地嵌入到“倫理子程序”中。⑨Nagenborg M.,Artificial moral agents:an intercultural perspective,International Review of Information Ethics,2007,Vol.7,No.9,pp.129-133.李倫和孫保學認為,人工智能系統應當內置價值糾偏機制。⑩李倫、孫保學:《給人工智能一顆“良芯(良心)”——人工智能倫理研究的四個維度》,《教學與研究》2018 年第8 期。
也有一些學者認為人工智能體無法承擔倫理責任。西普內恩(Mikko Siponen)認為,目前的人工智能實體不能視為具有倫理責任的代理,將倫理責任轉移至人工代理也不利于對開發人員或用戶進行追責。?Siponen M.,A pragmatic evaluation of the theory of information ethics,Ethics and Information Technology,2004,Vol.6,No.4,pp.279-290.米勒(Keith Willam Miller)認為,人工智能體的倫理責任應當由設計者、開發者、評估者和使用者來承擔。?Miller K W.,Moral Responsibility for Computing Artifacts:" The Rules",IT Professional,2011,Vol.13,No.3,pp.57-59.溫斯伯格和羅賓斯(Aimee van Wynsberghe &Scott Robbins)認為,構建人工道德代理人的理由不夠充分,沒有嵌入倫理的機器人也可以發揮作用。?Van Wynsberghe A,Robbins S.,Critiquing the reasons for making artificial moral agents,Science and engineering ethics,2018,pp.1-17.弗洛里迪和桑德斯(Luciano Floridi &J.W.Sanders)通過抽象層次方法(LoA)將責任和道德代理相分離,認為人工道德代理盡管不能承擔責任,但作為道德行為能力者仍有必要接受相關的道德行為規范。①Floridi L,Sanders J W.,On the morality of artificial agents,Minds and machines,2004,Vol.14,No.3,pp.349-379.因此,這也為人工智能倫理研究開辟了另一條路徑,即從外部對人工智能體進行倫理規范,而非其內部的倫理設計,相關研究主要集中于工程師倫理責任、倫理準則、倫理監管等方面。赫圖寧等人(Anniina Huttunen et al.)主張通過工程人員學習“新阿基米德誓言(New Archimedes' Oath)”來解決人工智能體的倫理問題。②Huttunen A,Brace W,Kantola V,Lechner L,Kulovesi J,Silvennoinen K.,Cross-cultural Application of Ethical Principles in the Design Process of Autonomous Machines,http://www.iiis.org/CDs2010/CD2010IMC/ICEME_2010/PapersPdf/FB476NT.pdf,2010/2019-4-2.木村剛(Takeshi Kimura)認為機器人工程師應當熟悉不同的社會、文化和倫理內涵,要具備良好的倫理責任意識。③Kimura T.,Roboethical arguments and applied ethics:Being a good citizen,Cybernics.Springer,Tokyo,2014,pp.289-298.溫菲爾德(Alan Winfield)對世界上部分人工智能研究機構或政策機構所制定的倫理準則進行了總結。④Winfield A.,An Updated Round Up of Ethical Principles of Robotics and AI,http://alanwinfield.blogspot.com,2019-04-18/2019-05-02.伍敏敏總結了國外人工智能倫理標準的制定情況,并分別從“人類社會倫理標準優化、人類對人工智能技術探索的倫理標準、人工智能體的倫理規約標準”三個層面對人工智能倫理標準化體系構建進行了思考。⑤伍敏敏:《人工智能倫理標準化體系初探》,《中國標準化》2018 年第21 期。孫保學認為,“自上而下”和“自下而上”的人工智能道德決策研究進路并不能完全解決問題,還需要結合“外部制約”和“內部監控”。⑥孫保學:《人工智能如何進行道德決策》,http://www.xinhuanet.com/tech/2017-09/11/c_1121640568.htm,2017-09-11/2019-05-02。蘇令銀認為,“自上而下”和“自下而上”的倫理嵌入路徑存在困難,應當采取“法律規制、技術監管、倫理建模、程序正義等綜合策略”。⑦蘇令銀:《能將倫理準則嵌入人工智能機器嗎?——以無人駕駛汽車為例》,《理論探索》2018 年第3 期。
可以看出,對人工智能體的倫理責任追問是“以人工智能體為中心”的人工智能倫理研究的前提問題,它直接影響著對人工智能體的倫理設計、監管等問題的探討,并由此形成了人工智能倫理研究的兩條不同的路徑:內部倫理設計和外部倫理監管。而人工智能體的倫理責任追問所對應的深層次理論問題是“人工智能體是什么”?是純粹的人工智能物(系統)還是具備倫理責任的人工道德智能體?這些問題的答案構成了“以人工智能體為中心”的人工智能倫理范式的理論基石。然而,科克爾伯格(Mark Coeckelbergh)并不滿足于對“人工智能體是什么”的探討,而是深入分析人工智能體與人之間的關系,從美德倫理的視角分析“人工智能體應該是什么”,因此,他將人和人工智能體同時融入人工智能倫理范式之中,并且重點突出了倫理視域下人工智能體對人的影響。
與主張倫理設計和倫理監管的人工智能倫理范式不同,科克爾伯格明確提出,“將個人機器人倫理學作為一種外觀倫理學、美好生活倫理學、體驗倫理學和想象力倫理學”⑧Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,International Journal of Social Robotics,2009,Vol.1,No.3,pp.217-221.。他這樣做的依據何在?其倫理范式與“以人工智能體為中心”的人工智能倫理范式的區別是什么?為了更好地回答這些問題,科克爾伯格首先對傳統的人工智能倫理范式進行了分析,他認為:“倫理學通常被理解為應用倫理學。從這個角度來看,如果要評估人機交互(可能包括人機關系),應該將倫理標準——倫理理論提供的道德原則——應用于手頭的問題或案例。這就允許人們判斷所發生的事情在倫理上是否可以被接受。在機器人倫理學中,這種方法意味著外在于人機交互的倫理標準應用于其中。”⑨Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.顯而易見,科克爾伯格認為傳統的人工智能倫理范式的核心是對“倫理標準”的運用,而這一運用的方式正如之前所探討的,可以分為外部倫理監督和內部倫理設計兩條路徑,前者主要體現為人類運用“倫理標準”來評判人工智能體的一些行為特性“在倫理上是否可以被接受”,后者主要體現于“倫理標準”的內化,“對于設計師來說,這種‘外在的’方法意味著他們的目標是嘗試在機器人中‘內置’規則”。①Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.同時也要注意到,科克爾伯格認為傳統人工智能倫理范式中的“倫理標準”是外在于人機交互的,因此,“這種倫理方法,無論是應用于人類還是應用于機器人,不僅在具體的情境中遇到麻煩(正如阿西莫夫自己的故事所顯示的),而且還忽略了其他類型的倫理問題”②Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.,“這種方法忽略了更廣泛的倫理問題,比如人們想要什么樣的生活”③Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.。至此,科克爾伯格指出了傳統人工智能倫理范式的兩大缺點:第一,缺乏人機交互情境的倫理解釋力;第二,忽略了與人類美好生活相關的美德倫理問題。而這也正是科克爾伯格想要通過新的人工智能倫理范式所要解決的問題。他認為:“除了上述方法論取向之外,另一種可能的選擇是轉向外觀倫理(ethics of appearance)和人類善的倫理(ethics of human good),即在體驗和實踐中出現的倫理。”④Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.可以看出,科克爾伯格新倫理范式的內核就是“外觀倫理”和“人類善的倫理”。
何為“外觀倫理”?科克爾伯格提出,“我建議我們從人類與基于表象而非真實的人形特征(智力,意識,情感等)的機器人相互作用的研究開始,而不是探究類人機器人如何能成為具有代理、自主性和責任感的機器人。例如,一個特定機器人的臉看起來像人嗎?如果是,我們如何在與那個機器人的交互中體驗這個特征?機器人對我們做了什么,取決于它們在我們面前的樣子,而不是它們真正在想什么”⑤Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.。“外觀倫理”的獨特之處就在于研究基于表象的人機互動,而非人工智能體的自主性、倫理責任等屬性。相較而言,“外觀倫理”的優勢在于,它彌合了因實體與其外觀的二分而造成的倫理理論與現實情境脫節的解釋力鴻溝。科克爾伯格認為,“屬性觀假設一個實體只有一個‘正確’的本體狀態和意義,與機器人的‘外觀’和‘感知’形成對比。那些指責人們行為不‘應該’的人依賴于道德立場的科學,而道德立場的科學假定了實體(例如,機器人,作為一個物自體本身)和實體的外觀之間的二分法。但可以想到另一種非二元論的認識論,它拒絕這種二分法,接受一個實體可以以幾種方式出現在我們面前,而這些方式都沒有先驗的本體論或解釋學的優先權”⑥Coeckelbergh M.,The moral standing of machines:Towards a relational and non-Cartesian moral hermeneutics,Philosophy &technology,2014,Vol.27,No.1,pp.61-77.。科克爾伯格對于實體(人工智能體)屬性觀的探討將人工智能倫理范式中的“外觀倫理”問題直接推向了其理論的源頭,即對道德地位的分析。很明顯,科克爾伯格不贊成基于實體(人工智能體)屬性的道德地位觀點,他認為,“我們需要將道德地位置于情境中,而不是在道德地位科學的解剖劇場中把實體作為原子主義的珍玩來研究”⑦Coeckelbergh M.,The moral standing of machines:Towards a relational and non-Cartesian moral hermeneutics,pp.61-77.。科克爾伯格的道德地位情境論和他的實體與其外觀的非二元論是一致的,在具體的情境之中實體(人工智能體)及其外觀直接向人呈現,和人發生相互作用,并且與人是一種天然的關系性存在,正因如此,“一個實體的道德地位是建立在作為認知主體的實體與我們之間的關系的土壤上的”⑧Coeckelbergh M.,The moral standing of machines:Towards a relational and non-Cartesian moral hermeneutics,pp.61-77.。在具體的情境中,不存在任何“本體論”的優先性,在分析與人相互作用的實體(人工智能體)屬性之前,關系就已經存在。這種生長于情境關系的道德地位觀較好地解決了倫理理論與現實情境脫節問題,例如,當人們在探討智能服務機器人倫理時,“欺騙”是一個很重要的倫理問題,但現實的情況卻并非如此,一些老年人或者兒童在現實的人機互動過程中十分投入,完全忽視了“欺騙”問題,同時這種投入的人機互動還對他們產生了積極的效果。“欺騙”的前提是從本體論上首先認定機器人不是情感物,對于傳統的倫理學理論而言“欺騙”確實是不道德的,而“外觀倫理”理論認為在具體的關系情境中,不存在任何“本體論”的優先性,只有人機互動的關系性和體驗性,所以也無所謂“欺騙”,正如科克爾伯格所言:“首先,我對外觀(荷蘭語:verschijning;德語:Erscheinung)的關注旨在引起人們對體驗的關注。重點不在于機器人的作用(它的行為),而在于它對我們的作用。”①Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.如果將“外觀倫理”理論應用于更大的情境之中——人類生活——就會形成另一種新的倫理內容,即“人類善的倫理”。
科克爾伯格的“人類善的倫理”與“外觀倫理”一脈相承,他提出,“我建議,我們也應該,尤其是考慮個人機器人可能為人類的福祉做出的潛在貢獻,而不是將人機交互的倫理評估局限于與道德權利有關的問題”②Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.。很明顯,“人類善的倫理”的要旨或者目標是指向人類的福祉,而非“局限于與道德權利有關的問題”,它在理論方向上與“外觀倫理”保持高度的一致,盡力避免對人工智能倫理進行抽象的道德屬性探討。為了更深入地闡述這一理論主張,科克爾伯格對比了兩種不同的人工智能倫理方法,“人類的善是多樣的。然而,這些人類的善是什么?為了評估個人機器人需要什么樣的方法?以上提出的倫理問題至少可以用兩種方法來回答”③Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.。“一種方法是從人類的善、人類的繁榮、幸福、友誼和愛的某種觀念出發”④Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.,這種方法可以稱之為“觀念的方法”,科克爾伯格認為它能夠給出“更精確和更可行的人類善的定義”,并且能提供“標準清單”,借此可以對機器人進行倫理方面的判斷,是一種“技術倫理的創新”⑤Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.。但同時,科克爾伯格也深刻意識到了“觀念的方法”的弊端,他直言不諱,“然而,如果這些關于善的概念和這些清單被視為先驗標準,善的先存概念(pre-conceptions of good),那么這種方法是有問題的。前文我拒絕了外在主義的道德方法。標準可能是如此籠統或遠離人機交互情境,它們并不是非常有用。因此,我們必須通過更強有力的方式將理論與實踐聯系起來,認真對待新技術的特性及其對我們的影響”⑥Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.。可以看出,科克爾伯格將“觀念的方法”看作是一種“外在主義的道德方法”,認為它是從具體的人機交互情境中抽象出去的、外在的、先驗的是將理論與人類生活實踐脫離的,因此,“是有問題的”,且“不是非常有用”。那么,對于“人類善的倫理”而言,什么樣的方法才是合理的呢?科克爾伯格基于其“關系情境”理論提出了一種“體驗和想象的方法”,他認為:“我們需要從人機交互的具體體驗和想象開始,然后討論善在性能清單方面是如何被理解的,而不是從作為先驗道德規范的性能清單開始。”⑦Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.“因此,無論人類善是否可能外在于人類體驗,我們必須研究、想象和塑造善可能會出現于其中的人類與機器人共同生活的具體情境。讓我們聆聽人們的體驗,并運用我們的道德想象力,找出是否有可能增進人類繁榮和福祉的人—機共同生活。”⑧Coeckelbergh M.,Personal robots,appearance,and human good:A methodological reflection on roboethics,pp.217-221.科克爾伯格將人—機共同生活看作是人機交互的最廣闊情境,而“人類善的倫理”就是倡導人們利用已有的人機交互體驗和“道德想象力”,構建“增進人類繁榮和福祉的人—機共同生活”。
至此,可以看出,科克爾伯格利用其“關系情境主義”理論為人工智能倫理勾勒了一幅極具吸引力的美德倫理式的宏偉畫卷。他不僅通過“人類善的倫理”將人工智能倫理范式從“以人工智能體為中心”轉換為“以人為中心”,而且將人工智能倫理的研究視域從抽象的概念、屬性分析轉換為對具體的、體驗式的美好生活的探討。更為重要的是,科克爾伯格十分注重倫理理論對于現實的解釋力,強調理論的可用性及其與人類生活實踐的關聯性,其關于人機共同塑造“美好生活”“人類福祉”等方面的理論闡述對于人工智能倫理范式的轉向具有重要的價值導向性。然而就實現這些美好的倫理價值追求的方法方式而言,科克爾伯格卻背離了理論與實踐應強有力結合的主張,“體驗”和“道德想象力”的方法使其倫理范式掉入了認識論窠臼,與其說科克爾伯格的人工智能倫理范式體現的是“人工智能體應該是什么”這一命題,不如說其所表達的是“人類眼中或者期待的人工智能體應該是什么”。要想走出科克爾伯格人工智能倫理范式的理論困境,必須立足于更為宏大、深遠的理論視野來分析人工智能與人類倫理道德之間的深刻關系,而馬克思主義道德學說的“語境主義”恰恰具備這一理論品質。
加拿大著名哲學家凱·尼爾森(Kai Nielsen)立足于唯物史觀提出了馬克思主義道德學說的“語境主義”理論,這不僅開闊了馬克思主義倫理學學理基礎的研究,而且也拓展了倫理學理論的廣度和深度。尼爾森是如何從唯物史觀的豐富資源中萃取“道德精華”的呢?首先,尼爾森對“語境主義”進行了準確的說明,他認為:“語境主義(當它被運用于道德時)是這樣一個命題,即,道德要求幾乎毫無例外地隨語境而發生較大程度的改變。語境主義并不是那種認為對或錯、善或惡是由一個人的態度和承諾或一個人所愿意接受的任何可普遍化命令來決定的主張;毋寧說,對或錯、善或惡,在相當大的程度上是由客觀情境決定的,在這些情境中,人們可以發現他們自身。”①[加]凱·尼爾森:《馬克思主義與道德觀念——道德、意識形態與歷史唯物主義》,李義天譯,北京:人民出版社,2014 年,第1 頁。在此,尼爾森表達出了三點看法:第一,在道德學說的“語境主義”理論中,道德不是抽象的、永恒的存在,而是隨情境變化發生改變;第二,變化著的情境是“客觀情境”而非取決于“態度”“承諾”等主觀因素的情境;第三,“在這些情境中,人們可以發現他們自身”。前兩點是尼爾森“語境主義”與唯物史觀結合的關鍵,歷史唯物主義強調人類歷史發展規律的客觀性,它體現了更為宏大的客觀情境。正因如此,尼爾森認為:“歷史唯物主義自身創造了這樣一種從道德層面觀察事物的方式,在重要的意義上,這種觀察方式是語境主義的,但依然絕非相對主義的。”②[加]凱·尼爾森:《馬克思主義與道德觀念——道德、意識形態與歷史唯物主義》,第159 頁。不可否認,“語境主義”的提出為歷史唯物主義中的道德理論合理性提供了有力的支撐。然而,道德合理性不等于道德本身,“語境主義”的道德內容正是隱藏于上述的第三個觀點之中,即人在客觀情境中發現自我。在人類宏大的歷史發展進程中,發現自我的過程就是人的自由實現的過程。“作為人的存在形態,自由既有其本體論的意義,又包含價值論的內涵。從價值論的角度看,自由具體展開為二個維度:在類或社會的層面,它以人向自身的復歸為其深刻內容,在個體層面,它所指向的,則是真、善、美統一的存在境界;二者統一于走向自由王國的歷史過程”③楊國榮:《自由的形上意蘊》,《文史哲》 2004 年第6 期。。而這也被尼爾森敏銳地捕捉到了,并將其作為評判道德進步的標準,“即,人有能力理性地評價道德規定并相信道德進步。隨著生產力的發展,它們為幸福、人的興旺,特別是為更多的人擁有更大的生活控制權進而為更多的人享有更大的自主性,開啟了越來越多的可能”④[加]凱·尼爾森:《馬克思主義與道德觀念——道德、意識形態與歷史唯物主義》,第159 頁。。在這里,尼爾森并沒有直觀地提到人的自由,而是重點闡述了唯物史觀視野下人的“自主性”程度和廣度的拓展問題。然而,自主性、自由與道德倫理又是緊密相關的,“正因為我們存在于這種自由之中,我們的生活與行動在任何時候都不會有‘非如此不可’的必然性處境,或者說,我們的生活或行為在任何時候都不會被鎖定在一個既定的唯一軌道上;相反,總還有其他可能性呈現在我們眼前。在這個意義上,自由使我們永遠處在能夠自主決斷的處境之中,自由使我們永遠面臨著自主決斷的任務。所以,對于人這種存在者,才面臨著應當或不應當的問題,也才會提出應當或不應當的要求,并因此才會有各種倫理價值。在這個意義上,我們可以說,自由使一切倫理價值成為可能而構成了一切倫理價值的基礎”⑤黃裕生:《論自由與倫理價值》,《清華大學學報(哲學社會科學版)》2016 年第3 期。。
其實,作為德國古典哲學的代表人物,康德和黑格爾都曾經深入研究過自由與倫理之間的關系。“康德把道德基礎從經驗外在對象物轉移到先驗主體人的意志上來,以意志自律原則批判了經驗的他律原則,在倫理學上進行了一場所謂‘哥白尼式革命’,建立起以人的意志自由為中心的主體倫理思想體系”①程惠蓮:《康德倫理學的主體性思想及其影響》,《湖北大學學報(哲學社會科學版)》1993 年第2 期。。黑格爾在《法哲學原理》中直接強調,“倫理是自由的理念。它是活的善,這活的善在自我意識中具有它的知識和意志,通過自我意識的行動而達到它的現實性;另一方面自我意識在倫理性的存在中具有它的絕對基礎和起推動作用的目的。因此,倫理就是成為現存世界和自我意識本性的那種自由的概念”②[德]黑格爾:《法哲學原理》,范揚、張企泰譯,北京:商務印書館,1961 年,第164 頁。。可以看出,康德和黑格爾都從主體意識、意志等主觀方面來界定倫理,強調主體對道德律令、倫理秩序有發自內心的期盼和認同,并且自覺、自愿遵從,這些都深刻體現了主體意志之自由。恩格斯也認為:“如果不談談所謂自由意志、人的責任、必然和自由的關系等問題,就不能很好地討論道德和法的問題。”③《馬克思恩格斯選集》(第 3 卷),中共中央馬克思恩格斯列寧斯大林著作編譯局譯,北京:人民出版社,1972 年,第152—153 頁。然而要注意的是,唯物主義和唯心主義在關于自由的倫理觀立場上有本質的區別,馬克思認為:“從前的一切唯物主義——包括費爾巴哈的唯物主義——的主要缺點是:對對象、現實、感性,只是從客體的或者直觀的形式去理解,而不是把它們當作人的感性活動,當作實踐去理解,不是從主體方面去理解。因此,結果竟是這樣,和唯物主義相反,唯心主義卻發展了能動的方面,但只是抽象地發展了,因為唯心主義當然是不知道現實的、感性的活動本身的。”④《馬克思恩格斯選集》(第1 卷),中共中央馬克思恩格斯列寧斯大林著作編譯局譯,北京:人民出版社,1995 年,第58 頁。唯心主義過于夸大主體的能動性,而唯物主義在肯定主體的能動性的同時強調了實踐對于主體的重要意義。唯物主義的立場恰恰是“語境主義”道德學說的理論出發點:在人類歷史的發展進程中,道德的進步體現為,人在現實的實踐中自由的實現程度。這里的自由是人對于自身的解放,人向自身本質的復歸的自由,也正因此,它體現為一種“解放的道德”⑤[英]史蒂文·盧克斯:《馬克思主義與道德》,袁聚錄譯,北京:高等教育出版社,2009 年,第27 頁。。
如果對尼爾森的“語境主義”再做進一步探討就會提出質疑:當“自由的實現”成為道德進步的標準時,“自由”本身是否會成為脫離實踐的抽象原則?事實上,為了更好地說明客觀情境與道德之間的關系,尼爾森預設了“道德公理(moral truism)”的存在,但他同時也表明了其與先驗真理、道德原則等之間的區別,他認為,“在沒有什么爭議性的意義上,道德公理也很瑣碎,它與永恒原則或道德真理(假定我們知道其內涵)的差別在于,它不是先驗真理(分析的或綜合的,如果具體說來就是這些),也不是自明地確定的道德真理或道德原則”⑥[加]凱·尼爾森:《馬克思主義與道德觀念——道德、意識形態與歷史唯物主義》,第14 頁。。“雖然它們在理論或原則上可能消失,但事實上不會,而且沒有理由認為,它們會在任何心理或社會層面上有所改變的環境中消失。”⑦[加]凱·尼爾森:《馬克思主義與道德觀念——道德、意識形態與歷史唯物主義》,第15 頁。可以看出,盡管“道德公理”沒有理論的抽象形式,但它卻在實踐中永存。尼爾森通過這種方式將道德的根基深深地扎入了客觀情境之中,結合唯物史觀的視角,“人的自由是善”這一命題就是隱藏于人類歷史實踐活動之中的“道德公理”,它也因此成為道德判斷的標尺。馬克思曾經將人的發展過程分為了三個大的歷史階段:“人的依賴關系”階段、“物的依賴關系”階段、“自由個性”階段,其中“自由個性”的階段是建立在“共同的社會生產能力”之上的。⑧《馬克思恩格斯全集》(第46 卷·上),中共中央馬克思恩格斯列寧斯大林著作編譯局譯,北京:人民出版社,1979年,第104 頁。所以也就不難理解為什么尼爾森將生產力的發展看作是道德進步的動力。
科技是第一生產力,人工智能從本質上來看是一種新興的科學技術,它引領并推動著第四次工業革命。馬克思指出:“自然科學卻通過工業日益在實踐上進入人的生活,改造人的生活,并為人的解放做準備。”⑨《馬克思恩格斯文集》(第1 卷),中共中央馬克思恩格斯列寧斯大林著作編譯局譯,北京:人民出版社,2009 年,第193 頁。人工智能所引領的第四次工業革命分別從物質財富、自由時間、主體性等方面,為人
的解放、人的自由的實現作著充分的準備,從而也為人工智能倫理的“語境主義”進路奠定了堅實的現實基礎。人工智能技術滲透到各行各業,深刻地改變著人的生產方式和生活方式,為人類帶來日益豐富的產品和服務,為社會創造出巨大的物質財富。人工智能在家居、教育、醫療、交通、物流、金融、社交、傳播、裝備制造等領域顯現出巨大的應用潛力,就近期來看,“IDC 統計數據顯示,人工智能市場規模在2024 年將達到470 多億美元”①張彥坤、劉鋒:《全球人工智能發展動態淺析》,《現代電信科技》2017 年第1 期。。此外,人工智能的應用使得勞動生產率大幅度提高,這為人類節省出非常多的“自由時間”。馬克思認為時間對人的存在和發展意義重大,他指出,“時間實際上是人的積極存在,它不僅是人的生命的尺度,而且是人的發展的空間”②《馬克思恩格斯全集》(第 47 卷),中共中央馬克思恩格斯列寧斯大林著作編譯局譯,北京:人民出版社,1979 年,第532 頁。。并且強調,“自由時間”是“從事較高級活動的時間”,“個人得到充分發展的時間”。③《馬克思恩格斯全集》(第46 卷·下),中共中央馬克思恩格斯列寧斯大林著作編譯局譯,北京:人民出版社,1980 年,第225—226 頁。那么什么樣的活動是“較高級活動”?人工智能如何使人有大量從事較高級活動的自由時間,進而讓人自身得到充分發展呢?福克斯(Christian Fuchs)曾經按照不同的勞動(工作)對象對人類所從事的勞動進行了簡單的劃分,他認為:“農業和采掘勞動以自然為對象,工業勞動以人造自然為對象,信息勞動以思想和人的主體性為對象。”④Fuchs C.,Digital Labour and Karl Marx,New York:Routledge,2014,p.247.很明顯,從目前人類發展的歷史階段來看,在這三種勞動中,“信息勞動”可以稱得上高級勞動形式,而人工智能則是信息勞動的高級階段,它是人類對腦信息、感官信息乃至心理信息、情感信息等進行模擬的產物或過程。“盡管目前的人工智能距離所設想的超級人工智能還十分遙遠,其在局部領域展示出的強大能力和應用潛力已經足夠令人瞠目結舌。IBM 開發的Watson 系統與醫生在提供肺癌、結腸癌和直腸癌治療建議方面一致性比例分別高達96%、81%和93%,最近中國本土開發人工智能神經影像系統判別病例的準確率超過了人類醫學專家約20 個百分點。谷歌和微軟旗下的語音識別技術準確率都已經達到95%左右,接近人耳的極限。微軟提供的智能語音語義分析不僅能夠對于單一語言有效識別,更能夠進行分析和轉化,自動翻譯成世界范圍內60 種語言。”⑤俞建拖:《未來基石——人工智能的社會角色與倫理》,北京:中國發展研究基金會、微軟公司,2018 年,第1—37 頁。不難看出,人工智能通過對人的感官能力、大腦思維等各種復雜信息處理過程的模擬,使人從復雜的腦力勞動中得以解放,從而使人有更多的時間來從事更為高級的腦力勞動——創造,而創造力本身就是人類智能最核心的能力,世界著名心理學家霍華德·加德納(Howard Gardner)曾經強調:“智能是一種計算能力——即處理特定信息的能力,這種能力源自人類生物的和心理的本能。盡管老鼠、鳥類和計算機也具有這種能力,但是人類具有的智能,是一種解決問題或創造產品的能力。”⑥[美]霍華德·加德納:《多元智能新視野》,沈致隆譯,北京:中國人民大學出版社,2008 年,第7 頁。但同時也要注意,人的創造能力不僅僅局限于智能領域,人作為一種主體性的存在,具有復雜而綜合的本質特性,智能的發展只是為主體創造能力的提升拓展了空間,這種創造不僅僅是霍華德所說的“創造產品的能力”,而是進行自我創造的能力。“而人工智能時代的來臨,可能會更加鼓勵我們選擇區別于此兩者的第三種方法,即對自我的創造。也就是說,不僅僅是‘重估一切價值’,更是重估一切賴以重估的存在本身。人不僅要突破‘話語關系’的束縛,還要突破肉體生命的束縛,從而徹底地掌握自己”⑦高奇琦:《人工智能、人的解放與理想社會的實現》,《上海師范大學學報(哲學社會科學版)》2018 年第1 期。。歸根到底,人的創造活動是要最終實現人的自由,由此反觀之,致力于人的自由的實現的人的創造活動才是真正意義上的“較高級活動”,而人工智能的應用和發展使人的創造活動得以深化,進而也促進了人的自由的實現和人的充分發展。正是在這個意義上,與人的自由緊密相關的馬克思主義道德學說的“語境主義”賦予了人工智能倫理全新的研究范式和價值內涵。
盡管科克爾伯格所提出的人工智能倫理范式在盡力避免倫理的抽象化,在論述的過程中也使用了“實踐”的概念,但他過于夸大主觀作用,他將人機的互動實踐置于心理感受的體驗之上,將人機互動的美好情境置于主觀的道德想象之中。與此不同,馬克思主義道德學說的“語境主義”將道德的進步根植于人類具體的感性的歷史實踐活動之中,從客觀的人類歷史發展規律出發,消除了主觀的倫理道德臆想。因此,新的人工智能倫理范式的出發點不再是人機互動的心理體驗,而是唯物史觀視野中的人的自由的實現;新的人工智能倫理范式的道德推動力也不再是人機互動的道德想象,而是具體而現實的人類實踐。同時不可否認,科克爾伯格的“人類善的倫理”為人工智能倫理探索了美德倫理進路,使得人們能更加關注人工智能與“美好生活”的緊密關系。然而,對于有無限發展可能的人而言,真正的“美好生活”不是止于人和機器之間和諧、動人的情境,而是人的本質、人的自由的實現。正如胡爾卡(Thomas Hurka)所言:“這一道德理論始于對人類美好生活或真正的理想生活的描述。它以獨特的方式描繪了這種生活。某些構成人的本質或者是人最根本的特性使人成為人自身。美好生活使這些特性發展到一個新的高度或者體現著人的本質的核心。不同版本的(道德)理論可能對相關特性是什么有不同意見,因此對美好生活的內容持不同意見。但他們有著共同的基本觀點,即人的本質的實現過程是善。”①Hurka T.,Perfectionism,New York:Oxford University Press,1993,p.16.可以看出,基于馬克思主義道德學說的“語境主義”的人工智能倫理的另一理論優勢就是將人的根本目的——人的本質、人的自由的實現——看作是倫理道德的最終歸宿,同時賦予了“美好生活”最深刻的價值內涵。