孫偉平 李 揚
我們正處在一個社會全方位急劇變革的偉大時代。繼工業化、信息化之后,智能化已經成為時代強音,成為“現代化”的最新表征,成為一個國家和地區發展水平的標志。智能時代標志性的高新科技——人工智能——究竟會如何發展,可能導致哪些倫理后果,可能推動人與社會走向何方?這些問題的重要性越來越凸顯出來。或許人們觀察和思考這些問題的視角不同,認知也不一,短時間內難以取得基本共識,但人工智能作為一種開放性、革命性、顛覆性的高新科學技術,確實已經引發了大量的倫理問題和倫理沖突。如何立足智能科技的發展和社會的智能化趨勢,準確研判其倫理后果,提出合理的、整體性的、具有前瞻性的倫理原則體系,對人工智能的發展予以必要的引導、規制和支持,是不容回避的重大理論和現實課 題。
顯而易見,提出關于人工智能研發、應用的具有前瞻性的倫理原則體系屬于價值判斷的范疇。正如休謨在《人性論》一書中所揭示的“應該”必須以“是”為基礎一樣,合理的價值判斷也必須以事實判斷為基礎。只有回答了“人工智能是什么”“人工智能存在一些什么樣的發展可能性”“人工智能可能給人與社會帶來哪些改變”等問題,才能提出人工智能發展的合理的價值原則(體系)。這正如海德格爾所說,“揭示發生之處,才有真實的東西”。
人工智能是以基于大數據的復雜算法為核心,以對人類智能的模擬、延伸和超越為目標的高新科學技術。它比人類歷史上所發明的任何科學技術都更具革命性和顛覆性。究竟應該如何給人工智能下一個定義?這是一個令所有人都感到頭痛、迄今仍然莫衷一是的問題。囿于當前人工智能的發展現狀,特別是遠未定型的事實,或許任何匆忙的定義都是不明智的。不過,無論“人工智能是什么”的問題具有怎樣的開放性、革命性和顛覆性,我們都應該清醒地意識到:它仍然是人類所創造并一直服務于人類的一種高新科學技術;或者說,人工智能與其他任何“屬人的”科學技術一樣,都植根于人類生活實踐活動的需要,都服務于人的解放、自由全面發展的價值目 標。
在人類早期的社會實踐活動中,人是具體社會實踐的發起者與評價者,是實踐工具的制造者和操控者,是社會協作的組織者和參與者,是實踐動力的提供者和實踐后果的承擔者。在原始的漁獵、采集活動,以及農耕、家庭手工業活動中,人不僅需要承擔大量的體力勞動,而且幾乎包攬了全部的腦力勞動。以蒸汽機為標志性成果的第一次科技革命和以內燃機、發電機為標志性成果的第二次科技革命,通過機器代替人承擔社會實踐所需的大部分動力,承擔越來越多的體力勞動,大幅提升了人類活動的能力和效率。機器在發展過程中,還通過“生產流水線”這一協作方式,將包括教育、文化在內的各項生產活動高效地組織起來。在“生產流水線”上,既有機器之間的,也有人與人、人與機器之間的分工與協作。隨著大機器生產的應用和普及,個體的人日益成為“生產流水線”的一部分。具體的社會實踐不再僅僅由人發起,機器開始“承擔”部分的腦力勞動,“接管”一部分職責和權力。“生產流水線”外化、固化了人的“生產思維過程”。每一步生產加工什么?怎么進行生產加工?各個生產加工步驟如何銜接?……這些原本人腦思維過程之中的內容使用“生產流水線”“表達”、固定下來了。當然,生產流水線般對人腦思維過程的外化、固化不僅是片段的,而且缺乏對思維過程的變動性處理,省略了作為思維過程背景的知識體系,造成了實踐過程的“程式化”和“機械化”,產生了一系列非人性、異化勞動者自身的后果。對此,以馬克思、馬爾庫塞、海德格爾為代表的思想家們進行過深刻的揭露和批 判。
第三次科技革命不同凡響,出現了模擬人的大腦和智能,并以“像人一樣思考、像人一樣行動”為目標的人工智能。這導致人類生活實踐的內容和形式正在發生重大變革。人工智能是以互聯網、物聯網、大數據、云計算等為基礎的現代高新科學技術。它基于強大的數據采集能力、處理能力和大數據,彌補了生產流水線所欠缺的作為思維過程背景的知識體系的不足;它以算法為核心,不僅外化了人的思維過程,也可以對思維過程進行變動性處理,實現了機器在“思維”“理性”方面的躍升。無論是“弱人工智能”還是“強人工智能”,都能夠在一定意義上“發起”具體的社會實踐活動,實現對實踐工具的操控,組織人與機器的社會協作,并對實踐過程適時進行評價和調整。作為“人造物”的人工智能甚至日益接近突破“圖靈奇點”,在人類歷史上第一次接近成為像人一樣的“主體”,從而前所未有地取代人的工作,將人從各種繁重、單調的強迫勞動中解放出 來。
人工智能突飛猛進的發展和在生活實踐中的廣泛應用,特別是日益接近突破“圖靈奇點”,日益接近成為“主體”,不可避免地給人和社會帶來巨大的、全方位的變化。這種變化不僅體現在智能科技日益成為整個社會的基本技術支撐,智能機器人在一定意義上日益成為“人”(如2018年沙特阿拉伯授予漢森機器人技術公司研制的類人機器人索菲亞“公民”身份),而且促使社會的方方面面經受無孔不入的“智能化洗禮”,導致我們身邊的一切快速信息化、智能化,以至于“世界每天都是新 的”。
首先,智能科技的發展和應用重塑了社會生產方式,使經濟活動日益信息化、自動化和智能化。這不僅極大提高了勞動能力和勞動生產率,導致物質財富前所未有地豐富,而且令信息和知識成為最重要的經濟和社會資源。“在21世紀的數據驅動型社會中,經濟活動最重要的‘食糧’是優質、最新且豐富的‘實際數據’。數據本身擁有極其重要的價值,對數據領域的控制決定著企業的優劣。”信息、知識具有可共享性、主體依附性、價值增益等與土地、資本、自然資源完全不同的自然稟賦,這種與源自資源的自然稟賦之不同正在深刻地改變經濟活動,改變人與人之間的經濟和社會關系——例如,催生知識經濟、智能產業快速崛起,將知識勞動者置于經濟活動中的核心位 置。
其次,伴隨智能產業的崛起和傳統產業的智能化,一種前所未有的社會分工體系正在形成。人工智能的發展給以往“機械”“呆板”的機器裝上了聰明的“大腦”。智能機器不僅能夠自己“看”和“聽”,也能對生產過程進行“思考”,從而“自主”地運轉起來,開展靈活多樣的“訂制型生產”。人們所從事的大量重復、單調、繁重的體力勞動,以及越來越多的腦力勞動,正被一批又一批地交給智能機器去做。在信息化、自動化、智能化背景下,人與機器之間正在重新分工,傳統的“人機關系”在轟轟烈烈的解構中重建。在這種新型的社會分工體系中,“知識勞動者”以其自身掌握的信息和知識,特別是科學研究和技術開發,成為社會生產、服務、管理的主體;各種智能系統“滲透”到社會的各行各業,承擔越來越多、越來越重要的勞動任務和工作職責;一種人機協作、人機一體化的新型分工體系正在形 成。
再次,社會上層建筑正在“重筑”,信息化、智能化的組織方式和治理方式漸成主流。與農業時代、工業時代依靠土地、工廠組織社會生產和生活不同,人工智能帶來的技術基礎設施和經濟、社會資源的轉向,使得人們的生產和生活日益出現擺脫地域限制的趨向,虛擬銀行、虛擬企業、虛擬車間、虛擬商店、虛擬博物館、虛擬法庭、虛擬學校、虛擬醫院、虛擬社區、虛擬家庭等新興社會組織方式大量出現。新興社會組織方式以其數字化、虛擬化、智能化特點,呼喚社會治理方式進行相應的調整和變革。在信息科技,特別是人工智能的“加持”下,社會治理和社會服務變得更為敏捷,更加多樣化,與此同時,金字塔式的科層組織管理結構日益顯現出自身的弊端,組織管理結構出現了扁平化、分權式之類的趨 向。
最后,在生產方式、社會分工、社會組織方式、社會治理方式變遷的基礎之上,思想文化領域也必然發生相應的變化。基于智能經濟、智能社會而產生的各種新思想、新文化,基于智能算法推送的各種公共信息、文化服務和商業廣告,可以越來越及時、精準地傳遞給受眾。思想文化的生產、傳播、消費在人工智能的“加持”下日益信息化、智能化。同時,隨著信息、知識轉變為最重要的經濟和社會資源,隨著社會組織方式和組織結構的變遷,農業時代、工業時代產生的意識形態、價值觀念、倫理道德正在遭受猛烈的沖擊。與全新的社會生活實踐相適應,一種新型的具有智能時代特質的思想文化體系正在孕育、生 成。
毋庸置疑,目前人工智能的發展仍然處于早期,遠未成熟、定型,它對人與社會的變革、塑造仍然是初步的。未來人工智能將如何發展,并以此為基礎如何變革、塑造人與社會,仍然有待冷靜觀察。但非常明顯的是,正在發生的變革與塑造之快速、廣泛與深刻,是以往一切科技革命無法比擬的。事實上,人類正處在一場波瀾壯闊的生存、活動革命之 中。
倫理道德作為人與動物相揖別、“調節人與人之間社會關系的一種價值體系”,植根于人們的社會生活實踐之中,且隨著社會生活實踐的發展而發展。人工智能作為一種深刻改變世界、對社會“再結構”的高新科學技術,正在全方位、深刻地影響人們的社會生活實踐,影響人與人之間的社會關系和倫理道德關 系。
倫理道德曾被認為是專屬于人的哲學范疇。從傳統倫理學的視角看,人因其有理性、會思維,能夠根據自主意識開展活動,而被認為是“宇宙之精華,萬物之靈長”,被設定為唯一具有自主性的道德主體。如果說人工智能作為“人造物”日益接近突破“圖靈奇點”,在人類歷史上第一次接近成為“主體”,那么,它是否可能成為“道德主體”?這引發了持不同立場的學者之間的激烈爭 論。
弗洛里迪(L. Floridi)和桑德斯(J. Sanders)提出了判斷X是否為道德主體的標準:只有X在能夠起作用,例如對世界產生重要的道德影響的前提下,并且具有交互性、自主性和適應性,它才是道德主體。即是說,只有X能夠與其環境發生交互作用;能夠在不受外部環境刺激的情況下,具有改變其自身狀態的能力;能夠在與環境發生交互作用中改變規則,才是道德主體。顯而易見,智能系統能夠符合上述各項標準,弗洛里迪和桑德斯由此直接承認了智能系統的道德主體地 位。
而與此相對照,不少學者則表示質疑,拒絕承認智能系統的主體地位,最多只給予其“準道德主體”的地位。有些學者引用泰勒(P. Taylor)1984年提出的判斷道德主體地位的五條標準:“第一,具有認識善惡的能力;第二,具有在道德選擇中作出道德判斷的能力;第三,具有依據上述道德判斷作出行為決定的能力;第四,具有實現上述決定的能力與意志;第五,為自己那些未能履行義務的行為作出解釋的能力”,據此質疑、否定今天智能系統的道德主體地位。例如,布瑞(P. Bery)用道德主體應該具備的三個特征,即“有能力對善惡進行推理、判斷和行動的生物;自身的行動應當遵循道德;對自己的行動及其后果負責”,來否定智能系統的道德主體地位。然而,如果我們深入地進行分析,那么不難發現,上述判定標準存在兩個不容忽視的問題:其一,判定標準,特別是其中“意志”“生物”等用語,直接顯示了標準提出者的“人類中心主義”思路,明顯是以人為參照物來衡量人工智能的道德主體地位;其二,根據上述判定標準得出人工智能僅具有“準道德主體”地位的結論,顯示其理論視野僅僅局限于弱人工智能,而沒有考慮到突破“圖靈奇點”之后的強人工智能或超級智能。但無論學術界具體認定的標準是什么,無論不同學者站在不同立場上得出什么樣的結論,激烈的爭論本身就表明,人工智能的橫空出世與快速發展已經對人作為唯一道德主體的地位提出了嚴峻挑 戰。
如果說肯定純粹由人所制造的智能系統擁有道德主體地位還存在難度,一時難以被學術界和社會公眾所認同,那么,說生物智能與人工智能的混合體將擁有道德主體地位,則明顯比較容易被認可和接受。因為,否定人工智能具有道德主體地位的關鍵就在于,人工智能并不擁有真正意義上的“心靈”,而“心靈”則是獨屬于人的。隨著生物技術的發展,特別是生物技術與智能技術的綜合發展,人的自然軀體一直在被修補、被改造。雖然這種修補和改造目前還是初步的,還停留在物質性的軀干部分(如假肢對手或腿的修補、冠狀動脈支架對血管的改造),還沒有深入到對人腦及其智能的修補和改造,但是,“生物智能必將與我們正在創造的非生物智能緊密結合”,人機互補、人機一體顯然處于技術發展的邏輯進程之中。人工智能所具有的強大感知能力、記憶能力、計算能力、快速反應能力等,正是人的自然軀體所缺乏或存在嚴重局限的智能和技能。科幻小說中所描繪的在人腦中植入特定的芯片,輔助人腦承擔感知、記憶、判斷、表達等功能,創造出打破技術與人的傳統界限的新生事物,都很有可能變成現實。在智能化進程中,無論在何種程度上否定這種生物智能和人工智能“共生體”的道德主體地位,將會直接導致對人的道德主體地位的否定。可見,人作為唯一的道德主體的地位遭遇到人工智能強有力的挑 戰。
人工智能在挑戰“人的唯一道德主體地位”的同時,還通過所擁有的越來越強大的勞動能力,以及對人所占據的勞動崗位的排擠,令人的生存、生活環境變得惡劣。人工智能的自主程度正在日益增強,在生產、生活的諸多領域展現出相對于自然人的優勢。它們不僅能夠代替人從事各種危險或有毒有害環境中的工作,而且開始向曾經“專屬于人的工作崗位”發起挑戰。例如,在復雜的城鄉道路上開車曾經一直是人的“專利”,而無人駕駛汽車正在興起;寫出自己所感、所想,引起他人共鳴,一直是作家引以為傲的資本,“薇你寫詩”之類智能程序也可以做到;繪畫、書法、作曲、彈琴、舞臺表演一直是高雅的人類藝術,相應的智能系統正在向這些領域快速進軍……在智能技術指數級進步速度的襯托下,人(特別是“數字貧困者”之類普通勞動者)的進步速度顯得過于緩慢,遠遠跟不上智能機器進化的速度;加之現實社會中原本就存在的貧富差距、技術差距和“數字鴻溝”,“數字貧困者”之類普通勞動者在這場智能革命中很可能徹底喪失勞動的價值、工作的權利,從而被經濟和社會發展體系排斥在外,淪為“無用階層”或“多余的人”。在社會快速信息化、智能化進程中,這種不公正、不人道的“社會排斥”現象可能愈演愈烈,越來越多的人因為喪失勞動價值、喪失工作機會,從而令自己在生活實踐中的主體地位遭遇危機,令自己的存在看上去變得可笑和荒謬。
首先,“人—智能系統”的道德關系已經引發憂慮與不解。人工智能既是人類所創造的一種工具,又絕非一般性工具,它具有成為“主體”的潛質。它劇烈地沖擊、解構著傳統的“人機關系”,引發了學術界關于“人—智能系統”的道德關系的熱烈討論。目前學者們的立場和觀點越來越分裂,達成普遍共識的難度越來越大。有些科學家和學者甚至充滿憂慮地提出,“強人工智能”或者“超級智能”是否會失控、異化,反過來統治、虐待、奴役人類。如阿庫達斯(Arkoudas)和布林斯約德(Bringsjord)在為《劍橋人工智能手冊》 ()所供稿件中認為,人工智能不會僅僅滿足于模仿智能或是產生一些聰明的假象,成為真正的主體是技術發展的邏輯追求。庫茲韋爾甚至預言:“(有意識的)非生物體將首次出現在2029年,并于21世紀30年代成為常態。”這種超越其設計者的“強人工智能”自我學習、自主創新、彼此聯系,是否會超出原先設計者對其職能邊界的設定而走向“失控”,成為統治、虐待、奴役人類的“超級智能”?這種“強人工智能”或“超級智能”是否會基于自身的強大,判定人類“沒有什么用”,并且“浪費資源”,從而怠慢“數字貧困者”之類弱勢群體,進而漫不經心地滅絕人 類?
其次,人工智能對現有的“人—人”之間的道德關系帶來了沖擊。人工智能作為一種尚未成熟、定型的通用型技術,已經展現出自身強大的威力,開始改變人與人之間的社會關系,已經并正在造成一系列嚴重的倫理后果。例如,在歷史與現實中,人與人之間本來存在一定的自然能力差距、貧富差距、城鄉和地區差別、社會分化等現象,這種不平等的現實往往令弱勢群體感到憤憤不平,而在死亡面前的“終極平等”又構成了人類社會最基本,甚至是最重要的平等。或許正是因為“死亡面前人人平等”,人與人之間的一切不平等都變成了有限的不平等。而隨著人工智能的發展,特別是生物技術與智能技術的綜合發展,一些原本處于優勢地位的人可能更有條件實現“智能+”,更好地享用先進的科技成果,人與人之間的分化可能以知識、智慧為突破口而不斷拓展,“數字貧困者”之類弱勢群體可能處于更加無助、無奈的地位。醫療技術、生物技術與智能技術的綜合發展,還可能對人的基因進行重新編輯,通過基因增強大大改善人的健康狀況,大幅延長人的壽命;通過“思維上傳”實現“精神不死”,甚至成了一些精英群體現在就開始討論的話題。如果基因增強等技術真的能夠實現,原本處于優勢地位的精英群體自然更有可能受益,可能優先獲得弱勢群體渴望而不得的提升機會。這將直接瓦解“死亡面前人人平等”的自然鐵律,令既有的社會不平等得以長期延續,甚至變本加 厲。
再次,基于人工智能的研發和應用,可能產生難以計數的道德問題。例如,在具體的道德關系中,如何確定智能系統的道德責任就是當前困擾人們的一個道德難題。正處于測試階段的智能無人駕駛汽車如果獲準上路,馬上就顛覆了傳統的駕駛員與其他道路交通參與者之間的關系。智能無人駕駛固然可能更便捷、更安全、更高效,可以減少交通事故的發生,但它顯然并不能完全消滅交通事故。而一旦發生交通事故,傳統的以駕駛員為中心的責任體系已經土崩瓦解,智能無人駕駛系統的設計者、生產者、擁有者、使用者等之間難以避免相互間的責任推諉。此外,智能無人駕駛系統本身還會加劇原有的一些“道德兩難”問題。如義務論和功利論爭論不休的“電車難題”并非沒有根據的理論設想,完全可能出現在發達的智能時代。例如:一輛載有大量乘客的智能無人駕駛汽車突遇橫穿馬路的行人,在剎車不足以避免相撞的情況下,緊急轉向可能導致車輛側翻,造成乘客傷亡,而不轉向、僅剎車則可能造成行人傷亡。面臨兩難情形,如果駕駛員是自然人,憑借自身的道德直覺所作的決定往往能夠得到人們的理解;而如果是算法主導的智能無人駕駛,則很難逃脫義務論者或者功利論者的苛責,以及沒完沒了的追 責。
人工智能的研發和應用可能導致的倫理道德挑戰還有很多,比如近年來人們熱衷討論的虛擬對真實的挑戰、大數據與隱私權問題、算法可能內嵌的歧視問題、智能推送加劇人的單向發展問題、人形智能機器人對人際關系(特別是婚戀家庭關系)的挑戰、殺人機器人的研制和應用問題,等等。我們可以肯定,更多的新問題、新挑戰還將隨著時間的推移不斷地顯現出來。所有這些新問題、新挑戰對智能時代的倫理建構和道德治理提出了新的要求,呼喚我們基于新的倫理原則體系重建新的倫理秩序,建設更加合乎人性、人們的幸福指數更高、社會也更加公正的新型智能文 明。
直面人工智能的快速發展和對世界的變革,以及所產生的新的倫理問題和挑戰,社會各界對此都極其關注。不少組織機構提出了人工智能發展的倫理原則和道德規范。例如,微軟公司將“公平、包容、透明、負責、可靠與安全、隱私與保密”作為人工智能的六個基本道德準則;騰訊研究院從“技術信任”“個體幸福”“社會可持續”三個層面提出若干道德原則;歐盟將“人的能動性和監督能力、安全性、隱私數據管理、透明度、包容性、社會福祉、問責機制”作為“可信賴人工智能”的七個關鍵性條件。喬賓(Anna Jobin)等人從美英等國84份關于人工智能倫理指南的資料中,按出現頻率的高低,將人工智能的倫理原則歸納列舉如下:“透明、公正和公平、不傷害、責任、隱私、有益、自由和自主、信任、尊嚴、持續性、團結”。還有不少國內外學者從不同的理論視域提出和論證了“透明”“責任”“問責”等人工智能的倫理原則,要求智能系統具有一顆“良芯”的呼聲此起彼 伏。
然而,細致思考既有的各種倫理主張,以及所提出的各種倫理原則,我們不難發現,其中或隱或顯地存在著兩個嚴重的缺陷:其一,誠如有些科學家所說,面對人工智能對世界的全方位改造和對社會生活的整體性參與,這些倫理原則彼此之間缺乏有機聯系,并沒有針對新的問題和挑戰提供整體性的解決方案;其二,這些彼此之間缺乏有機聯系的倫理原則更多是對人工智能發展的消極預防或限制,而很少顧及對于人工智能發展的積極倫理支持。無論是從智能科技的良性發展而言,還是從智能社會的倫理建構來說,這兩個嚴重的缺陷都是不容回避的,應該得到關注和解 決。
基于人工智能的快速發展和廣泛應用,建構能夠整體性回應人工智能對現實社會的眾多問題和挑戰,并包含對人工智能的發展給予必要規制和積極支持的倫理原則體系,必須尋找一個類似“阿基米德支點”的“基點”。這個“基點”,也就是人工智能研發、應用的最高倫理原 則。
這樣的“基點”或最高倫理原則只能從“從事實際活動的人”出發,立足人自身的立場去尋找。眾所周知,無論是倫理道德,還是人工智能等高新科學技術,都是“屬人的”創造物,都是為人類的根本目的和利益服務的。任何科技活動(包括技術的應用)本質上都屬于人類實踐活動的范疇,是“人為的”且“為人的”價值創造活動。這類活動必須遵循“人是目的”,以人作為“萬物的尺度”的原則。因此,無論人工智能體多么接近突破“圖靈奇點”,多么接近成為具有自主意識的“主體”,都不可能也不應該改變其“屬人性”。“人”是我們在這里看待一切問題的出發點,“人本原則”是人工智能研發、應用的倫理原則體系的“基點”和最高原 則。
當然,“人本原則”是既抽象又含混的,學者們對其內涵與外延的爭議頗多,聚訟不斷。但刪繁就簡,它至少應該包含以下三重含義:首先,在技術的倫理價值取向方面,人工智能的研發、應用必須“以人為中心”,始終堅持“人是目的”,尊重人的人格和尊嚴,維護人在世界上的主導性地位。其次,積極推進人工智能的發展和應用,為人類提供更好的產品和服務,更好地滿足人類的需要,同時在技術研發、應用的方向上,防止它朝著蔑視人類,甚至危害人類的方向發展。再次,就具體的風險防控而言,不能放任人工智能“隨心所欲”地發展,不能對任何可疑的技術風險和負面社會效應聽之任之;相反,正如稍后提到的責任原則將要論及的,必須強化相關人員的責任意識,對一切不負責任的行為問責、追責。邁入智能時代,面對越來越智能、越來越強大的人工智能,人類自身的不完滿、局限性和缺陷正在被不斷放大。但是,不完滿、有局限性和缺陷的人依然是一切社會實踐活動的主體,依然是倫理道德或“人機(智能系統)道德關系”的主體,依然是一切科技、人文活動的目的和宗旨之所在。各種智能系統雖然可能在體力甚至腦力活動方面超過人,卻始終只是人的工具、助手和伙伴。任何算法都不能忽視人類的生存和發展、人格和尊嚴,任何不直接受人控制的智能系統,例如“智能殺人武器”,都不應該被研發和應用,任何智能系統都不應在能夠救人于危難時袖手旁 觀。
作為人工智能發展的最高倫理原則,“人本原則”是所有的、各個層級的倫理原則的“基點”和“統領”。即是說,其他各項倫理原則都可以從“人本原則”中推導出來,并基于“人本原則”得到合理的解 釋。
“公正”是亞里士多德所謂的“德性之首”,是“人本原則”在現實社會最為基本的價值訴求。公正作為人們被平等相待、得所當得的道德直覺和期待,是社會共同體得以長久維系的重要保障;公正作為一種對當事人的利益互相認可并予以保障的理性約定,更是社會共同體制度安排、“人—人”的道德關系、確定主體和“類主體”道德責任最為基本的倫理原則。當然,對于公正是什么、公正怎樣闡釋才是合理的這類問題,自古以來人們一直爭論不休。如何在現實社會實現公正,特別是解決一直存在的不公正現象,并沒有一勞永逸的萬能方法。或許應該說,公正的理解和實現都是歷史的,人們永遠只能在社會發展過程中踉蹌前行。在促進人工智能快速發展和廣泛應用,并對人與社會帶來革命性、顛覆性的改變時,我們需要“以人為中心”進行“公正的制度設計”,既遏制“資本的邏輯”之貪婪成性和為所欲為,也防止“技術的邏輯”的漠視人性與橫沖直撞,從而讓每一個人都擁有平等的接觸、應用人工智能的機會,都可以按意愿使用人工智能產品,并與人工智能相融合,都能夠從這一場前所未有的科技革命中受益;我們需要不斷完善相應的勞動時間、社會財富的公正分配體制,采取有效措施消除數字鴻溝和“信息貧富差距”,消除經濟不平等、社會貧富分化和“社會排斥”現象,維護“數字貧困者”等弱勢群體的人格、尊嚴和合法權 益。
責任是人工智能研發、應用過程中最基本的倫理原則,也是“人本原則”的邏輯延伸。如果說公正原則更多關注的是社會整體,那么責任原則更多指向的則是個體。人工智能的研發畢竟是由科研人員進行的,他們往往是處在人類知識邊緣的直接評價者和具體決策者,他們的所思所想、所作所為往往決定著人工智能及相關產品、服務的社會影響,因而肩負著神圣的、不容推卸的道義責任。人工智能的研發人員不僅要關心技術的進步,以及技術的應用可能給人類帶來的福祉,也要關注技術本身的倫理后果、技術應用的負面社會效應。這正如科學巨擘愛因斯坦對科學工作者的諄諄告誡:“如果你們想使你們一生的工作有益于人類,那么,你們只懂得應用科學本身是不夠的。關心人的本身,應當始終成為一切技術上奮斗的主要目標;關心怎樣組織人的勞動和產品分配這樣一些尚未解決的重大問題,用以保證我們科學思想的成果會造福于人類,而不致成為禍害。”責任原則絕不僅僅局限在人工智能的研發領域,它同樣也是對生產者、所有者、使用者的道德要求。它不僅是確定智能系統的道德責任的倫理原則,而且是在受人工智能影響的“人—人”道德關系中確定相應主體道德責任的倫理原則。在人工智能的研發、應用過程中,研究者、生產者、所有者與使用者都應該對人工智能的技術邊界有著清晰的界定,應該讓人工智能“可靠”地為人類服務;一旦出現問題,則可以及時、有效地追責;從而確保信息化、智能化發展的正確方向,實現為人類謀福利,促進人類自由、全面發展的偉大目 標。
總而言之,以“人本原則”為“基點”和“統領”,以公正原則和責任原則為主干,這就構成了人工智能發展的整體性的倫理原則體系。這一原則體系在邏輯上是提綱挈領、一以貫之的,是一個有主有次、層次分明的有機整體。它既涵蓋了對人工智能可能導致的負面后果進行必要的倫理規制的內容,也能夠對人工智能的研發、應用提供積極的倫理支持。同時,人們經常討論的諸如公開、透明、可控、可靠等次級倫理原則,或者更為具體、更為細致的倫理實施細則,完全可以結合相應的生活實踐領域,以上述三個基本原則為基礎加以解釋,從而被納入人工智能發展的倫理原則體系之中,實現對由人工智能引發的諸多問題和挑戰的整體性回應。當然,在時代和社會急劇變遷過程中,以上人工智能研發、應用的整體性的倫理原則體系是否合理、是否有效,我們必須堅持辯證的、歷史的觀點和方法,將其具體地應用于解決問題、應對挑戰,使之在智能時代的社會生活實踐中不斷得到檢驗、豐富、完善和發 展。