999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能倫理的研究現狀、應用困境與可計算探索*

2021-10-26 10:07:06
社會科學 2021年9期
關鍵詞:人工智能

徐 源

早在人工智能誕生之初,科學家就開始關注并探討人工智能可能涉及的倫理問題,包括20世紀40年代艾倫·圖靈(Alan Turing)和諾伯特·維納(Norbert Wiener)對算法涉及的倫理問題的思考。然而過了很長時間,這一話題才引起政策制定者和倫理研究者的興趣。倫理本質上是關于道德的學問,西方近現代倫理學思想的主要淵源是亞里士多德的《尼各馬可倫理學》,亞里士多德在其中探討了道德行為的目的和各項規定。在中國,倫理被理解為事物的條理或人與人相處的道德準則。例如,西漢劉德《禮記·樂記》中提到“凡音者,生于人心者也;樂者,通倫理者也”。這里的倫理指的是事物的條理。《朱子語類》卷七二中說:“正家之道在于正倫理,篤恩義。”這里的倫理指人與人相處的各種道德準則。可見,倫理學以人類的道德問題作為研究對象,是系統化、理論化的關于道德的觀念集合,屬于哲學范疇。

20世紀后期,針對技術發展中的不確定性和潛在風險等問題,技術倫理學出現了。技術倫理學試圖通過對技術行為進行倫理調節,來協調技術發展與人類社會中的問題。人工智能以在機器上實現類人的智能為技術目標,對人類社會影響的廣泛性、不可預知性比以往任何一種技術都明顯。但原生于哲學的人工智能倫理具有很強的泛意性,可操作性弱,因此倫理原則很難直接量化為技術語言。同時,人機關系的復雜性和環境的不可預測性也無法確保一般的人工智能倫理在實際中真正符合倫理效度。基于此,本文將探討人工智能倫理原則實際落地的可能路徑。

一、人工智能倫理發展現狀分析

倫理研究對人工智能科技發展發揮著引領性、支撐性和規范性的作用。對人工智能系統的設計、開發和應用等一系列行為中的安全性和正當性的思考及價值判斷,都需要倫理研究的介入。制定人工智能倫理規范,建立統一完善的標準體系,對引領人工智能科技發展、爭奪智能領域治理規則的話語權具有重要意義。國內外與人工智能倫理相關的研究工作,主要在兩個層面上展開:其一,理論性的研究工作,包括在哲學、社會學、心理學、管理學等具體學科中進行人工智能倫理基礎理論與問題的探討;其二,政策和規則的制定,包括有關國家、地區、機構和企業等針對人工智能技術發展制定的倫理原則、規范和政策等。

人工智能倫理的理論和重要問題研究是其應用原則的基礎和前提,在討論可操作的應用原則和治理機制之前,需要先研究清楚人工智能倫理究竟要解決什么問題,以及如何解決這些問題,并厘清其中涉及的概念、方法和關鍵要素。在承認人工智能倫理必要性的前提下,首先要闡述作為道德主體的人工智能何以可能。科克爾伯格(Mark Coeckelbergh)通過傳統倫理學中的義務論、功利論與德性論探討了機器人作為道德主體的哲學意義。(1)Coeckelbergh M.,“Robot Rights? Towards a Social-Relational Justification of Moral Consideration”,Ethics and Information Technology, 12(3), 2010, pp.209-221.其次要論證在實踐中機器成為道德代理者是否可能。現有研究試圖在人工智能的設計中加入“道德”功能,使人工智能具有功能性的道德,從而可以為其自身行為負責。甚至有研究者設計了一種人工道德智能體(AMAs),使其具有道德敏感性。例如,摩爾(James H. Moor)研究了機器作為道德代理者的可能性,包括:作為倫理關涉的代理者(ethical-impact agents),這種機器行為程序的編寫需要關涉倫理要求;作為隱性倫理意識代理者(implicit ethical agents),這種機器在設計之初需要植入倫理程序源;作為顯性倫理意識代理者 (explicit ethical agents),這類機器可以自動識別周圍環境的倫理信息,在不同情境下判斷當前行為的合理性,并對該行為產生的后果進行預測;作為完全倫理能力代理者(full ethical agents),這種機器可以高度模擬人類思維與倫理意識,在特定情境中做出判斷與選擇,完全可以被視為具有道德行為能力的道德主體。(2)Moor J. H.,“The Nature,Importance,and Difficulty of Machine Ethics”,IEEE Intelligent Systems,21(4), 2006,pp.18-21.最后,當機器開始承載道德功能后,人機共存的未來社會會形成怎樣的倫理社會秩序?對此,雷·庫茲韋爾(Ray Kurzweil)首次提出了“奇點臨近論”,即當人類臨近“奇點”(singularity) 智能技術無限制突破,機器將融合人類的知識和智慧,成為超出人類生物學范疇的“智慧生物”,挑戰人類生存空間,因此,構建“人類與機器文明”的社會倫理秩序,以及人工智能道德安全體系是人類生存與延續不可或缺的保障。(3)Kurzweil R., The Singularity is Near: When Humans Transcend Biology,London: Penguin Books,2005.

人工智能倫理的理論性研究也延伸到技術領域,包括人工智能倫理系統設計。博納豐(Jean-Fran?ois Bonnefon)等通過實驗測試人工智能倫理系統對無人駕駛汽車實現道德自主權的可能性,認為倫理系統設計突出了人們對智能機器的道德期望、文化價值和法律標準,但實驗結果證明,目前尚沒有能協調道德價值觀和個人利益的人工智能倫理系統,更無法通過倫理系統設計去融合文化差異,人工智能機器的倫理系統設計研究仍然任重道遠。(4)Bonnefon J. F., Shariff A. and Rahwam I.,“The Social Dilemma of Autonomous Vehicles”, Science, 352(6293), 2016, pp.1573-1575.此外,對人工智能算法與數據的倫理控制也是研究熱點,代表性研究包括牛津大學互聯網研究所密妥斯泰特(Brent Daniel Mittelstadt)等提出的“人工智能算法的倫理調節作用”,他們認為,倫理中介應在人工智能代理算法中發揮三方面的調節效用,即調節運算信息不對稱導致的不正當結果、調節運算信息不確定性導致的不透明或不公正結果、調節運算誤差產生的偏見或歧視。(5)Mittelstadt B. D.,Allo P. and Taddeo M.,“The Ethics of Algorithms: Mapping the Debate”,Big Data & Society,3(2) , 2016,pp.1-21.

在人工智能倫理原則、規則和相關政策研究制定方面,據德國非營利機構Algorithm Watch 的統計, 世界范圍內迄今已有160多個機構或組織提出了各自的人工智能倫理準則建議,世界主要國家都將人工智能倫理原則的提出或政策的制定上升為國家戰略,各國政府陸續出臺了相關政策以推動并規范人工智能的發展:美國頒布了《國家人工智能研究與發展戰略規劃》和《為人工智能的未來做好準備》兩個國家級政策框架;日本出臺了《第五期(2016-2020年度)科學技術基本計劃》,提出了超智能社會5.0的概念;英國政府發布了《人工智能:未來決策制定的機遇與影響》;法國發布了《人工智能戰略》;我國也發布了《新一代人工智能發展規劃》等相關政策。雖然各國人工智能的倫理規范與政策不盡相同,但他們都高度關注人工智能的規范性與治理問題。同時,各國的人工智能倫理規范呈現出差異化特征。例如,美國是第一個出臺軍用人工智能倫理規范的國家。2019 年10月,美國國防創新委員會發布《人工智能原則:國防部應用人工智能倫理建議》,對美國國防部設計、開發和部署人工智能用于戰斗或非戰斗用途作出倫理層面的規范建議。歐盟試圖通過規則的制定來占據國際競爭的主導權,促使歐洲成為人們信任的、以人為本的人工智能領導者。歐盟委員會人工智能高級專家組于2019年發布了《可信人工智能倫理指南》,提出可信AI具有三個組成部分:合法性、倫理性和魯棒性(robustness)。此外,企業、行業對人工智能倫理與社會發展的關注度較高,各領軍企業也日益重視人工智能的安全和倫理問題,發起行業人工智能倫理倡議,紛紛提出了各自的人工智能倫理原則。Facebook、亞馬遜、谷歌、IBM、微軟等公司聯合成立 Partnership on AI 組織,匯集全球不同的聲音,以保障人工智能在未來能夠安全、透明、合理地發展,讓世界更好地理解人工智能的影響。

相對于蓬勃發展的技術研究,人工智能倫理的系統性研究尚未成熟。實際上,人工智能倫理的發展具有階段性:第一階段是對人工智能倫理必要性的討論。在這方面,耶魯大學溫德爾·瓦拉赫(Wendell Wallach) 等美國學者起了帶頭作用,在國際上引起了普遍重視。第二階段是對人工智能倫理理論和重要問題的討論,以及相關規則和政策的出臺。隨著人工智能技術的迅猛發展,人工智能技術帶來的倫理和安全問題日益凸顯,而一般性的規范和原則已無法滿足技術的實際需求。如何將倫理規范融入人工智能技術設計和使用中?是否可形成“可計算的倫理”來打通倫理原則與技術實現之間的鴻溝?對這些問題的回答預示著人工智能倫理已經開始從“是什么”轉變為“怎么做”。本文認為,人工智能倫理已經進入發展的第三階段,即人工智能倫理的3.0時代,倫理原則的技術實現將成為未來人工智能倫理的重要方向。

二、人工智能倫理應用原則技術落地中的困境

當前,人工智能倫理泛意性的原則尚未充分應用于具體的技術場景和技術產品中,倫理原則的可計算性尚未實現。我們不能期待人工智能倫理會比人類倫理簡單,在融合了很多技術問題后情況可能會更加復雜。(6)Thomsen, K., “Ethics for Artificial Intelligence, Ethics for All”, Paladyn, Journal of Behavioral Robotics , 10 (1), 2019,pp.359-363.已有的對人工智能倫理的理論性研究或規則政策的出臺是倫理原則實現可操作性的必要基礎,但仍然與在技術中實現這些原則存在巨大的鴻溝,人工智能倫理原則往往過于抽象,類似“以人為本”的原則雖獲得了一致認可,但對人工智能技術產品的開發設計并不具有直接的指導性和實際的可操作性。因此,倫理原則并不能很好地在技術實踐中發揮作用。

首先,人工智能倫理作為一種規約和價值判斷,似乎先天具有不可計算性。段偉文提出機器倫理的理論預設是可以用數量、概率和邏輯來描述和計算各種價值與倫理范疇,進而用負載價值內涵的道德代碼為智能機器編寫倫理算法。(7)段偉文:《人工智能的道德代碼與倫理嵌入》,《光明日報》2017年9月4日。但目前這種設想可操作性不強,也存在一定的問題,如量化的倫理如何保真,機器如何與人有效溝通等,都是難以解決的問題。人類的情感也具有先天不可計算性,倫理計算與情感計算具有相似性。與運算和邏輯等可量化能力不同,情感與倫理都是基于個體的情境性主觀反饋。20世紀80年代麻省理工學院媒體實驗室羅莎琳德·皮卡德(Rosalind Picard)教授就提出情感計算的概念,然而很長時間以來,情感計算并沒有獲得主流學界的認可,當時人工智能學界追逐的是運算、推理等“理性”能力在機器上的實現,情感并沒有被視為實現智能的相關因素。情感作為一種主觀體驗,體現了人與環境的互動關系。隨著技術的發展和人們對“何為智能”的認識更加深入,有研究者認為,未來人工智能技術的突破將是實現情感智能,馬文·明斯基(Marvin Minsky)認為,情感是人們用于增強智能的思維方式。(8)[美]馬文·明斯基:《情感機器:人類思維與人工智能的未來》,王文革等譯,浙江人民出版社2016年版,第5頁。情感計算目前的主要路徑是通過對人的面部表情、生理指標等信息、數據的獲取進行情感計算建模,這已經在面部識別、語音理解、人機交互等實際應用中取得了一定進展,但其面臨的挑戰也是多方面的,因為情感與倫理一樣具有主觀色彩,具有不確定性、模糊性和動態變化等特征,因此很難在其中尋找和發現客觀規律。未來似乎可以沿著情感計算的路徑去發展倫理計算,從而讓倫理內嵌于機器中。然而倫理比情感負載更多的價值判斷,因此在計算性上也更加困難。

其次,人工智能倫理具有一定的社會屬性。復雜的社會場景涉及的關系眾多、要素復雜,這決定了倫理問題難以還原為可量化的具體問題。麥克·安妮(Mike Ananny)等指出,現實是算法系統是人類和非人類角色的集合,它們具有許多非確定性的影響。要理解(并因此管理)倫理含義需要理解整個系統是如何工作的——包括系統部署后可能發生的未知事情,或該系統被用于其他目的,而這些都與最初的系統開發者所承諾的不同。(9)Ananny, M., Crawford, K.,“Seeing Without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability”,New Media & Society, 20(3), 2018, pp.973-989.人工智能倫理是一項集成多種技術指標、協調多種利益訴求和沖突的活動行為,是一種相對復雜的人工實踐,需要眾多的行動者參與。這些行動者包括人類行動者、非人類行動者以及特殊的行動者。人類行動者主要有規則制定者、智能機器的設計者、智能技術的使用者、智能技術監管者等。這些人類行動者代表了不同的利益訴求方和價值主體,這使得人工智能技術在人類行動者中形成了一個復雜的社會網絡,特別是擁有智能技術的對立雙方。非人類行動者主要是人工智能的機器、裝備等。區別于其他技術種類,智能技術還產生了一類特殊的行動者:人機協同行動者。可見,人工智能實踐中具有不同類型的行動者,出現了分布式的倫理形態,復雜的利益訴求形成了非單一的道德主體,而分布式的道德主體正是人工智能倫理困境的源頭。在人工智能場景中,人類行動者、非人類行動者網絡彼此交織,圍繞著技術的開發和應用構成了一個立體的社會網絡。這個立體網絡在“內部”和“外部”關系上存在著多種復雜的安全利益和價值關系。不同行動者既可能是合作關系,也不可避免地存在沖突。從倫理研究的發展歷程我們也可以發現,對于價值判斷和倫理標準的選擇本身就具有一定的多元性,不同國家、地區,不同文化背景和利益訴求的人在討論問題時都會具有相當強烈的主觀認識和意圖。

最后,人工智能技術或產品是為了實現某種特定功能,倫理在一定程度上會弱化功能的實現,智能產品的倫理考量和技術考慮實現的是綜合效益,但具有一定的矛盾性。倫理本質上是對做什么合適、不能做什么的規約,技術實現的是能做什么,相互之間有一定的反向作用力。例如在軍事應用中,人工智能技術的倫理問題尤為突出。第一,關于人的尊嚴問題所涉及的機器奪取人的生命權的合法性,一些人認為,人具有其固有的尊嚴,其生命被自主武器剝奪永遠是錯誤的,這與機器人殺人這一行為是否正確無關,與這一生命剝奪方法、過程的道德合法性有關,而自主武器不具有道德判斷能力。在他們看來,只有能做出道德判斷且自身擁有尊嚴的人,才有資格在道德層面為奪取他人生命進行自我辯護。第二,機器行為的無道德意識問題。人類戰士具有諸如同情、尊重生命等情感意識,可在復雜的形勢下進行適當的道德考量、約束過度的暴力傾向與行為,而機器不具備這種意識,它更注重效率、硬性標準,沒有情感的機器系統缺乏任何正義戰爭所必需的基本人類特征。第三,遠程操控(如無人機)可以讓操控人員遠離真實戰場,虛擬化、游戲化的操縱方式往往降低了操控人員對死亡、身體損傷的真切感受。因此,在人工智能技術軍事應用的場景下,技術的自主化程度越高、先進性越強就越會弱化倫理效度。

綜上,倫理在人類社會中尚且需要德性、義務、契約等方式去規范,其所具有的個體性、主觀性、價值與利益負載性在本質上不具有可計算性,是一種復雜的社會行為,何況人工智能倫理呢?那么,人工智能倫理在技術發展中究竟要如何發揮實際作用?可計算性究竟能否實現?

三、可計算倫理的探索:EaaS與社會實驗

當前人工智能倫理原則的主要制定者是人工智能從業者,其習慣性地傾向于采用自己較易理解的方式,而不是大眾想要的方式來解釋人工智能相關倫理準則,現行倫理準則偏向于指出問題而不是給出解決問題的方案,已有的倫理編譯工具一般為一次性工具,僅僅在人工智能系統創建時發揮作用,不能隨著系統的更新而更新,從而有可能為倫理準則的確立產生負面影響。莫利(Jessica Morley)等人認為,由于人工智能技術發展過快、人工智能行業的覆蓋面極廣,以及監管不到位等因素的共同作用,現行的倫理準則不能很好地適應各方需求。具體來說,人工智能技術發展過快導致倫理準則呈現出滯后性;人工智能行業覆蓋面極廣導致倫理準則表現出模糊性;人工智能行業監管不到位導致倫理準則缺少標準性。(10)Morley, J., Elhalal A., et al.,“Ethics as a Service: A Pragmatic Operationalisation of AI Ethics” (February 11, 2021), Available at SSRN: https://ssrn.com/abstract=3784238.

在制定人工智能倫理應用規范和原則的基礎上,各國在完善技術設計研發規范方面也做了相應探索。在劃定使用權限方面,提出人工智能系統的應用應具有時間、地域及任務類型限制,一旦超出限制,便應終止任務,避免帶來不必要的危害;在可控性標準方面,提出人工智能系統的設計和使用應確保實現其預期功能,建立系統的手動或自動重定向或一鍵運行停止等功能,以應對人工智能系統出現事故、遇到突發事件、被嚴重干擾、機器決策明顯失誤等情形,特別是針對已部署的人工智能系統發生意外升級或其他行為時,操作員有權限及時干預、停止系統的行動;在可靠性標準方面,要求進行嚴格的測試,建立明確的、定義良好的測試體系與標準,測試包括設計過程、應用過程、反饋過程等全生命周期,實現自治系統的安全性與穩定性運行,可通過建立虛擬“沙箱”,在所有安全級別上對機器學習技術進行試驗,或進行紅藍對抗,發現人工智能方法中的弱點并進行改進;(11)孫琴:《美媒:美聯合人工智能中心應采取六種方式加速人工智能的軍事應用》,《國防科技要聞》2021年2月7日。在可追蹤性方面,要求確保對自治系統的開發與運行過程的追蹤,使技術專家能對人工智能系統的技術、開發過程和操作方法有適當的了解,包括透明和可審計的方法、數據源、設計程序和文件。這些方法和探索在一定程度上起到了對風險的預防和監管,但人工智能倫理原則并沒有在根本上融入技術實踐。拉布(Raab)認為,自上而下、指導性的方針意味著可以采取公式化的方法將倫理規范、原則和一般規則應用于具體實例。(12)Raab, C. D.,“Information Privacy, Impact Assessment, and the Place of Ethics”, Computer Law and Security Review, 2020,Scopus, https://doi.org/10.1016/j.clsr.2020.105404.

國內外已有學者展開前期探索。凱特·克勞福德(Kate Crawford)等人指出,目前人工智能技術規范工具主要是對倫理規則的自覺遵守或哲學思辨,包括(1)守序準則(deploy and comply),即用道德約束人工智能技術,如谷歌算法歧視、臉書刪除兒童色情圖片等;(2)規范準則(values in design),即人工智能的設計應遵循行業規范,慎重對待涉及用戶隱私、環境等問題;(3)思想實驗(thought experiments),即為了解決人工智能所蘊含的諸多問題,學者們提出的諸多思想實驗,如電車難題、中文屋等。而對于技術落地影響的測量和分析,是目前研究的盲區。(13)Crawford K.,Calo R.,“There is a Blind Spot in AI Research”, Nature,538 (7625), 2016, pp. 311-313.一些研究者提出了“倫理即服務”(Ethics as a service,EaaS)的人工智能倫理實踐方式,使人工智能倫理成為一種可實際運用的操作。他們認為,現行的AI倫理政策大致可以分為兩類:一方面是“硬”的治理機制,如現行標準和法規;另一方面是“軟”的治理機制,如道德編碼、指南、框架以及相應針對性政策。前者具有強制性,而后者更多起引導作用。(14)Morley, J., Elhalal A., et al., “Ethics as a Service: A Pragmatic Operationalisation of AI Ethics”(February 11, 2021), Available at SSRN: https://ssrn.com/abstract=3784238.如果“硬”機制過于嚴格,受技術的限制相關倫理準則無法實現,就會制約AI的發展;但如果“硬”機制過于靈活,又會失去制衡的意義。同樣,“軟”機制如果過于模糊就會失去參考價值,如果過于具象化雖然可以解決特異性問題,但又會失去普遍性。因此,如何分別在兩種機制的兩個方向中找到平衡是一個重要問題。對于如何尋找“硬”和“軟”的折衷方案,研究者認為人工智能倫理準則應經過社會、學界等多方人士的審核,并且定期對其內容進行更新;從業者應當用可重復、可復制的方法將這些準則轉化為程序;相關準則制定、轉化的全階段應受到監管。同時,還應聚合好的準則,推廣這些準則,并屏蔽壞的準則。基于此,他們認為人工智能倫理學的問題中心正在由倫理條例轉移到算法實現上,“倫理即服務”是一個可行的方案,在制定相關準則時將所有有關方案納入考量,結合實際解釋倫理準則的具體含義,提供可行的、可重復使用的算法工具以供選擇,同時對產品進行定期審核,以確保它們符合倫理標準。但是“倫理即服務”的實用性仍然需要進一步研究與論證。

賈開、薛瀾以2021年全國信息安全標準化技術委員會《網絡安全標準實踐指南——人工智能倫理安全風險防范指引》發布為研究背景指出,從全球來看,人工智能治理原則大多以“軟體系”的方式出現,未形成有效的“硬體系”,在關鍵概念、具體內容或決策過程中仍存在含糊與不一致。他們認為,由于人工智能發展應用進程即風險涌現的緊迫,治理規范在逐步向“硬體系”轉移。(15)賈開、薛瀾:《人工智能倫理問題與安全風險治理的全球比較與中國實踐》,《公共管理評論》 2021年第1期。蘇竣等在2020年提出人工智能社會實驗的研究路徑,應面向廣泛的人工智能應用場景開展人工智能社會實驗研究,基于“控制-對照-比較”的研究邏輯,探索將泛意性概念轉變為邊界清晰的科學變量并進行測量和比較的技術路線,將人工智能社會實驗室的基本研究路徑劃分為組織應用、科學測量和綜合反饋三個階段,最后形成技術規范、技術標準和政策建議。(16)蘇竣、魏鈺明、黃萃:《社會實驗:人工智能社會影響研究的新路徑》,《中國軟科學》2020年第9期。2021年,蘇竣等又進一步提出了基于場景生態的人工智能社會影響整合分析框架,并在對近3000篇中英文文獻分析的基礎上,從微觀層面技術與人的互動、中觀層面行業與組織變革、宏觀層面制度變遷與政策回應三個維度,從科學測量的角度建立了人工智能社會影響的數據采集與評價體系。(17)蘇竣、魏鈺明、黃萃:《基于場景生態的人工智能社會影響整合分析框架》,《科學學與科學技術管理》2021年第9期。

綜上所述,我們可以發現:一方面,人工智能倫理由“軟性”規范到“硬性”規范的轉變正在逐步發生,現階段的人工智能倫理的應用原則已不能滿足技術快速發展所帶來的社會問題,技術的快速發展對倫理規范提出了更高的要求,對技術問題的思考也推動了科技時代倫理等人文社會科學的發展;另一方面,已經有學者開始用科學測量等技術方法探索人工智能對社會影響的科學規律,無論是“倫理即服務”還是“社會實驗”,一種科技與社會交叉研究的范式已然開啟。

四、計算社會科學的研究路徑——人機認知平衡

文藝復興后期,社會科學開始運用科學方法中的一些概念和原理,于是統計學和數學的方法逐步被運用到社會領域的研究中。二戰后計算社會科學開始興起,先驅人物查爾斯·斯皮爾曼(Charles Spearman)、魯道夫·拉美爾(Rudolf Rummel)等人做了大量探索性工作,包括對人類認知空間維數等方面的研究。計算社會科學被定義為對復雜的,通常是大規模人類行為 (有時是仿真的) 數據計算方法的開發和應用,(18)Lazer D., Pentland A., Adamic L., et al.,“Computational Social Science”,Science, 323 (5915), 2009, pp.721-723.它基于一種社會的信息加工范式,以信息為關鍵要素去理解社會系統及其進程,通過信息處理來理解和解釋社會復雜系統,以信息加工作為重要手段。它的一個重要特征是包含純科學研究和應用政策分析,也就是除了研究對社會的基本理解之外,還具有改進社會生活的向度。(19)[美]克勞迪奧·喬菲-雷維利亞:《計算社會科學:原則與應用》,梁君英等譯,浙江大學出版社2019年版。

復雜適應系統是計算社會科學中的重要概念,指一個隨著外部環境的改變而改變其自身結構及狀態的系統。社會是一個復雜適應系統,是一個由人、機器及其中關涉的倫理問題所構成的系統。赫伯特·西蒙(Herbert A.Simon)在其經典著作《人工科學》(TheSciencesoftheArtificial)中引入了人工制品理論的概念。他認為,在本體論層面上存在自然系統、人類系統和人工系統三類,人工系統是由人類設計建造的,是人與自然之間的緩沖。西蒙認為,人工制品存在的起因是其作為人與自然之間緩沖的功能,人工智能技術也是人類的一種適應性策略,解決人類所面臨的替代勞動的一些問題。我們已經分析過人工智能倫理作為一種社會復雜系統涉及的行動者和關系要素,那么如何通過計算社會科學的信息加工方法來實現其可計算性呢?

社會科學家已經在諸多領域使用抽象來制定復雜社會的統計方法和數學模型,用計算機程序和計算模型來抽象、表征、分析并理解人類和社會的復雜性。針對人工智能倫理應用原則這一問題域,我們需要通過社會信息提取并建立社會仿真模型。本文僅從微觀層面考察人工智能倫理應用原則的計算社會科學實驗路徑,從人類信念體系來探索人工智能倫理的計算路徑。人類的信念體系是跨文化的普遍性概念,但不同文化的信念體系會出現相異性。個體具有個人信念體系,但人類會共享某些信念體系,形成集體信念體系,如共同的倫理規范、社會認同等。信念體系包含一組概念實體(節點),節點可以代表某種態度價值、觀點或概念。信念體系在計算上的困難主要有兩個方面:一方面是巨大的數據規模,語言學家估計普通人大約認識一萬個詞,可能的關聯和高階連接大約有一千萬個,而二元結構的數量可達數億,那么節點信息量無疑更加巨大;另一方面人類信念體系是動態變化的,新的信息不斷產生會增加新的節點。這種巨大的信息規模和動態變化卻能保持一種整體平衡,這一重要現象被稱為認知平衡(見圖1)。(20)[美]克勞迪奧·喬菲-雷維利亞:《計算社會科學:原則與應用》,第117-118頁。認知平衡遵循符號代

圖1 價值網絡的簡單模型

數邏輯,該邏輯中正向連接用實線表示、負向連接用虛線表示,在二元和多重連接情況中符號代數都會出現正向結果。羅伯特·埃布爾森(Robert P. Abelson)認為,人類有否認、支持、超越、分化四種平衡機制(21)Abelson R.P.,“Modes of Resolution of Belief Dilemmas”, Journal of Conflict Resolution,3(4), 1959, pp.343-352.,認知平衡所遵循的符號代數邏輯如下:

+·+=+

-·-=+

+·-=-

-·+=-

人工智能倫理應用原則可作為信念節點通過四種機制應用于機器中,嘗試在特定問題或情境中達到人機認知平衡。本文以算法歧視和公平性原則為例:(1)否認機制。消解機器認知節點不平衡最簡單的方法是否認,或者直接忽略問題,忽略數據中會產生變化的信息。比如,在篩選簡歷的算法系統中不特意標注性別。(2)支持機制。強調信息體系中的平衡部分,并堅信該部分更加重要。例如,選擇信用系統強化“對60歲以上人群的信任”而忽略“60歲以上人群中仍有特定比例的不誠信率”。(3)超越機制。超越認知不平衡的不一致性。例如,面對著名的“電車難題”,電車究竟是撞向少數還是多數,在危機時期通常會考慮到“為了大眾利益”維持社會秩序,雖然這種機制不一定是正確的。(4)分化機制。將一個概念劃分為兩個(或多個)概念,得出一些更加復雜但平衡的穩定結構。例如,在智能武器的使用中,武器(+)傷害人群(-),但出于人道主義的原因又不能傷害人類(+)這會導致認知不平衡,即+·+·-=-,可以通過劃分人群里的敵人(-)和平民(+)來進行平衡,分化后的結構會達到新的平衡(見圖2)。

圖2 分化機制的認知平衡

從計算角度而言,這四種機制都可以應用于人工智能倫理所涉及的復雜系統,既可以單獨使用,也可以組合使用,盡管都可能出現突發現象,但仍不失為一種可行的探索路徑。

結 語

雖然計算和社會體系之間的映射并不精確,隨著社會理論和研究的進步,以及計算各領域的發展,計算社會科學在研究復雜社會問題中取得了良好效果。從基礎的理論研究到原則與規范的提出,再到人工智能技術之中的倫理原則的落地,人工智能倫理的研究范式也在發生相應變化。本研究從社會復雜網絡中人類認知結構平衡機制來探討人工智能倫理所面臨的相同問題,是對人工智能倫理應用原則技術落地微觀層的范式探究,后續的倫理決策、歸責機制等問題還需要進一步研究,包括對人工智能倫理應用原則的社會仿真等,都將成為計算社會科學有益的探索。

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: jizz国产视频| 久久免费精品琪琪| 国产xx在线观看| 国产欧美高清| 在线观看免费黄色网址| 久久精品中文字幕免费| 四虎精品免费久久| 久热re国产手机在线观看| 精品久久久久久成人AV| 日韩精品无码免费一区二区三区 | 欧美激情视频一区二区三区免费| 日韩精品久久无码中文字幕色欲| 国产9191精品免费观看| 国产99免费视频| 热思思久久免费视频| 婷婷六月综合网| 精品视频在线观看你懂的一区| 中国黄色一级视频| 成人免费一级片| 久久精品电影| 国产精品99久久久| 国产sm重味一区二区三区| 国产高清国内精品福利| 伊人久久精品亚洲午夜| 成人年鲁鲁在线观看视频| 久久久精品无码一区二区三区| 久久精品中文字幕少妇| 久爱午夜精品免费视频| 一本大道在线一本久道| 美女无遮挡免费视频网站| 国产精品香蕉在线观看不卡| 国产在线视频自拍| 国产二级毛片| 无码电影在线观看| 久久国产精品77777| 99久久精品久久久久久婷婷| 亚洲婷婷六月| 亚洲欧洲一区二区三区| 久久天天躁狠狠躁夜夜2020一| 无码啪啪精品天堂浪潮av| 精品超清无码视频在线观看| 伊人久综合| 亚洲免费播放| 免费一级α片在线观看| 无码免费试看| 国产一级小视频| 欧美一区二区三区香蕉视| 精品成人一区二区| 亚洲中文字幕无码mv| 国产日韩欧美一区二区三区在线 | 伊人网址在线| 少妇人妻无码首页| 国产午夜精品鲁丝片| 99ri国产在线| 毛片免费视频| 国产91透明丝袜美腿在线| 成人福利视频网| 日本精品影院| 国产精品免费p区| 亚洲欧洲日韩综合| 一本一道波多野结衣av黑人在线| 在线视频亚洲色图| 91精品国产综合久久不国产大片| 婷婷伊人五月| 97在线免费| 丁香六月综合网| 亚洲欧美精品一中文字幕| 米奇精品一区二区三区| 精品国产毛片| 久久久噜噜噜久久中文字幕色伊伊 | 依依成人精品无v国产| 无码网站免费观看| 国产免费怡红院视频| 国产精品 欧美激情 在线播放| 国产成人亚洲日韩欧美电影| 草草线在成年免费视频2| 国产美女丝袜高潮| 欧美福利在线观看| 欧美97欧美综合色伦图| 天堂av综合网| 国产小视频免费| 国产日韩欧美在线视频免费观看|