段偉文
(中國社會科學院科學技術和社會研究中心、中國社科院大學,北京 100732)
自2016年人工智能圍棋“阿爾法狗”(AlphaGo)擊敗李世石以來,新一輪人工智能熱潮以前所未有的態勢席卷世界。在各國和地區紛紛提出人工智能發展規劃和戰略的同時,人工智能的倫理風險與治理也成為全球共同關注的焦點。在全球范圍內,人們對人工智能前景的認知明顯地呈現出兩極化:一方面,對其可能極大促進經濟社會發展的預期興奮不已;另一方面,對其可能帶來的破壞民生等危害與風險愈益擔憂。盡管各國和地區、相關國際組織、行業機構等紛紛提出了各種人工智能的倫理與治理方面的原則、規范、宣言、公約、共識等,而且大多都強調負責任、可信賴、尊重隱私、公平公正、安全可控等基本理念,但鑒于不同區域社會環境和文化背景的不同,各個國家和地區對具體的倫理權利、責任和是非的認知存在微妙的差異,很難構建單一的全球性人工智能倫理與治理框架。因此,構建人工智能倫理與治理框架的基本思路在于立足本土實際情況,同時加強不同地區的框架之間的互操作性和協同性,進而搭建起全球人工智能倫理與治理框架的生態體系。包括中國在內的亞洲地區,盡管人工智能創新與應用發展十分迅猛,但由于受到儒家文化等東方群體導向的文化的影響,公眾在認識和法律層面對于隱私、數據權利、歧視等相關價值訴求與權利界定不甚明確,倫理與治理框架也尚未系統構建,由此所形成的張力使人工智能發展中的價值沖突與倫理抉擇變得更為突出。
對此,《麻省理工技術評論洞察》最近發布的一份題為“亞洲人工智能議程:人工智能倫理”的報告指出,在亞洲,隨著人工智能大規模的工業化和商業化,人工智能幾乎無處不在,正在成為經濟增長的主要動力,相關研究機構和企業在對前景充滿樂觀的同時,也希望政府能推動健全的倫理規范和治理體系的建設,使人們從人工智能中獲得更多的好處[1]。但我們應該看到,這種樂觀和實用的立場對人工智能倫理與治理帶來了一系列不容小覷的挑戰,應對其予以適當的價值校準。
近30年來,在追趕信息通信技術和網絡數字技術的過程中,中國成為全球科技進步最快的區域。如今,在邁向全球人工智能發展的快車道上,人們無疑比1/4個世紀之前跟隨美國和歐洲擁抱互聯網時更為主動與自信。面對這一波的人工智能熱潮,曾以新興科技帶動社會發展的經驗,再加上經世致用和民生優先的文化傳統,使政府和企業對人工智能的基本立場更為樂觀,也更具實用主義色彩,在整個社會也自然地形成了相對有利于人工智能探索的制度文化環境。在此環境下,中國在總體上對于人工智能為經濟、社會、企業和個人福祉帶來的積極影響更加樂觀,這使得雖然相關的研究者、行業組織、標桿企業特別是業界領袖已指出人工智能應用可能帶來潛在的倫理風險,但在人工智能發展戰略中,倫理考量的優先級相對于歐洲等其他地區較低。由此,一旦出現由人工智能的濫用和惡意,很可能導致偏見、排斥和社會不公等問題。
必須指出的是,人工智能的倫理風險并非虛構。在各種人工智能應用場景中,數據分析、內容推薦、人臉識別等應用直接涉及和影響到人的身份和行為,相關技術的濫用對人造成的危害和負面影響將遠遠大于傳統的網絡與數字技術。如果不加反省地固守樂觀主義和實用主義的立場,人工智能對社會和個人造成的潛在威脅往往容易被忽略或無視,由此所引發的倫理風險,既得不到事先防范也難以事后糾正,非但難免釀成嚴重后果,還會破壞整個社會對人工智能的信任,打擊普通公眾對發展新興科技的信心,最終必然給創新生態系統中的機構和企業帶來巨大的風險和損失。因此,在這種樂觀主義立場和實用主義態度背后,實際上潛藏著相關利益群體的雙重焦慮:一方面,人工智能用戶在享受各種創新便利的同時,難免因為擔心個人數據濫用、算法決策的不透明而心存疑慮;另一方面,人工智能開發者也會擔心倫理缺位會使其為由此帶來的風險付出高昂代價。為了從根本上消除這種雙重焦慮,應該通過技術倫理評估、“技術-倫理”矯正和信任機制的構建等方面入手,對樂觀主義立場和實用主義的態度展開必要的價值倫理校準。
首先,要通過技術倫理評估克服樂觀實用立場對人工智能倫理問題的實質性忽視。針對人工智能的倫理風險,有人提出應該強調倫理優先,但不一定要將創新與倫理對立起來。實際上,各種場景中的價值倫理問題是否應該得到優先考慮,取決于相關群體對具體的技術應用的負面影響及其嚴重程度的厘清和認知,而這又必須借助各種形式的技術倫理評估。具體而言,促進開發者和使用者切實認知人工智能倫理風險的關鍵在于:一方面,技術監管者應該要求企業對技術應用在相關群體中造成的負面影響展開預見性的倫理評估,進而對其加以矯正;另一方面,應該通過建設性與參與性的倫理評估,使可能因技術應用而受到嚴重負面影響的相關群體參與到相關的倫理評估、爭論與矯正等環節之中。
其次,運用“技術-倫理”矯正,以包容審慎的監管實現倫理與創新的協同。毋庸置疑,在中國的人工智能研究與創新生態系統內外,正在就人工智能倫理問題進行各種形式的探討與辯論,目前政府、業界、媒體及公眾已經達成的基本共識是政府應該主導對人工智能的監管。但在業界和相關部門的認知中,多少有些吃不準的是,他們希望相關政策、框架和監管應審慎行事,不應扼殺創新。對此,不應錯誤地將倫理上的相對寬松視為創新的“倫理優勢”,而應該認識到,對于那些具有高度價值敏感性的人工智能應用,應該努力尋求一種將倫理價值融合到技術之中的復合創新,從而使創新與倫理相輔相成、協同并進。具體而言,就是通過有針對性的“技術-倫理”矯正,落實對人工智能的倫理治理。在此過程中無疑需要通過科技倫理專家與科技專家的對話,以實現價值訴求與技術需求之間的“轉譯”。由此,在討論推薦算法可能導致的“過濾氣泡”時,不應停留在對具有“多樣性”的推薦算法之類的倡導,而應該通過批評者與設計者的對話,共同探討如何進行反向的“技術-倫理”矯正。這種使技術合乎倫理的矯正又稱為道德敏感設計——將倫理道德內置于技術設計,在信息技術等新興技術中已有長期的運用實踐。早在21世紀初,現任哈佛大學教授的拉坦婭·斯威尼(Latanya Sweeney)就曾在她當時任職的卡內基梅隆大學創建了數據隱私實驗室,開展隱私設計方面的研究,如通過軟件幫助人們堵住網上的隱私漏洞、通過隨機換臉應對人臉識別技術的濫用可能導致的隱私泄露和侵權[2]。相關實踐探索表明,人工智能的倫理和治理可以貫穿于人工智能創新應用的全過程,為了實現倫理與創新的協同,要將其背后的價值觀轉換為技術層面的目標與需求。
最后,以信任機制的構建作為人工智能倫理與治理的突破口。我們看到,盡管政府和企業正在更加積極地為人工智能行業的倫理發展制定目標和指導方針,但客觀地講,由于人工智能處于開放性的高速發展之中,目前只能通過個案處理和經驗積累,對人工智能濫用和惡意使用的不良后果進行倫理和法律上的規制。因此,一種相對可行的倫理與治理策略是,轉而訴諸消費者、人工智能用戶和人工智能開發商之間的信任,在人工智能研究與創新生態系統內外構建起可持續的多方信任機制,使整個行業得到全社會的接受,進而為其在多方共治下的健康發展奠定基礎。毋庸置疑,可持續的多方信任機制的構建不可能建立在簡單的信任與承諾之上,而要求人工智能開發者承擔起應有的機構與企業責任,開展負責任的研究與創新,使整個行業和產業以一種負責任和透明的方式發展。以當前的人工智能涉及大量數據驅動的智能應用為例,其中所涉及的與人相關的數據反映了人格特征、行為方式和具體行為,企業必須就如何恰當地收集、使用和共享數據與客戶及利益攸關者展開溝通,只有這樣才可能避免用戶的疑慮和不信任,使創新與應用高效有序地展開。
近20年來,發展迅猛且具有高度不確定性的新興科技不斷涌現,由此產生了人工智能、物聯網、基因編輯等可能對經濟社會與人類未來造成根本性、深遠性、普遍性影響的顛覆性技術,如何針對人工智能等技術構建穩健可行的倫理與治理框架無疑是各個國家與地區所必須面臨的最大挑戰。雖然對此并沒有最佳答案和統一標準,但還是有一些基本理念有助于進一步的實踐探索。
一是要對人工智能可能造成的社會影響進行更加深入系統的研究,在此基礎上構建起考慮到最壞情形的社會風險防范機制。從人工智能對未來社會的發展角度來看,最為重要的問題是人工智能對就業的影響。盡管一般認為,人工智能驅動的技術性失業的困擾將被創新所帶來的新機遇和人類創造與適應新的工作的潛力所抵消,但應該看到,由于我國勞動密集型工業和服務業的“可自動化”的比例較發達國家更高,人工智能及其所帶來的新一輪的自動化浪潮在短時間內對于中國的具體影響可能是巨大的,特別是那些受到人工智能威脅的低技能職業階層再培訓和再提升技能的能力更弱。因此,在對未來普遍持有樂觀態度的同時,政府對所主導的人工智能倫理與治理框架必須看到最壞的情形,充分考慮到可能被智能機器替換的勞動力的出路,以此避免人工智能的顛覆性發展帶來新的社會不平等。
二是要從文化出發構建一種兼具區域性與全球性的人工智能倫理與治理體系框架。正如前文所言,由于在表達倫理的“正確”方式上存在著巨大的文化差異,加上科技創新與應用文化本身具有開放性,人工智能倫理與治理并沒有“全球性”。毫無疑問,人們對人工智能的不同態度確定了不同區域與社會發展人工智能的不同方法和旨趣。以前衛的性愛機器人為例,具有神道教傳統與豐富人偶文化的日本可能更容易接受其研發與應用。在未來的無人汽車等智能無人系統中,個人主義與集體主義等不同社會主流價值導向也會在一定程度上影響機器的價值取向和倫理抉擇。因此,文化和價值觀上的可接受性是構建人工智能時代的人機信任與人機和諧的關鍵所在。但與此同時,必須指出的是,人工智能的發展必然會加速推進更深層次的全球化,區域性的人工智能倫理與治理不僅要具有局域的適切性,還應該建立起通達全球治理的機制。
在中國的《新一代人工智能發展規劃》[3]中,不僅設想通過人工智能提高社會管理能力,還承諾對隱私與知識產權、信息安全、問責、設計倫理等展開研究,并積極參與全球治理。在此過程中,如何講清區域性倫理與治理框架的核心價值取向和倫理訴求是關鍵,不論在什么文化和社會主流價值觀下,都必須對人工智能時代的隱私、尊嚴、個人權利等基本的倫理和法律概念做出明晰與合理的詮釋,都要對數據的采集與使用、智能系統對人的行為的影響與干預的限度做出合乎倫理與法律的準確陳述。而對這些問題的深究最終所涉及的與其說是價值和倫理問題,毋寧說關乎更大社會歷史背景與文化語境下的社會政治抉擇,這就使得區域性的人工智能的倫理與治理框架之間的對話成為其整合為全球性治理架構的難點和關鍵所在。
三是要在構建人機和諧的未來的同時確保人類和平這一文明底線。在我們試圖通過人工智能發展構建人機和諧未來之時,應該認識到人與機器的關系實質是人與人以機器為中介的關系,對人工智能等技術的倫理規制和治理的關鍵是避免其對人作惡。因此,人工智能的倫理與治理要對人工智能的惡意使用和軍事運用等負面用途加以必要的法律管制、倫理規制全球治理。隨著深度造假等技術的發展,人工智能的惡意使用會越來越大,如果不加以及時的法律管制和倫理規制,必將極大地破壞整個社會對人工智能等顛覆性技術的信任,影響其有益的創新與應用。同時,應該看到,人類科技文明發展的悖謬之處恰恰在于包括計算機、互聯網和人工智能在內的很多顛覆性的技術與軍事對抗和國家競爭密切相關。我們必須承認,在這一波人工智能熱潮背后,或明或暗地存在著人工智能軍備競賽的陰影,無人機及大規模智能自動武器系統等人工智能的軍事應用,將對人類文明的未來構成前所未有的威脅,必須得到有效的控制和全球性的治理。
2019年6月17日,國家新一代人工智能治理專業委員會發布了《新一代人工智能治理原則——發展負責任的人工智能》,提出了“和諧友好、公正公平、包容共享、尊重隱私、安全可控、共擔責任、開放協作和敏捷治理”八項原則[4]。其中的敏捷治理強調,應在人工智能的發展中及時發現和解決可能引發的風險、推動治理原則貫穿人工智能產品和服務的全生命周期、確保人工智能始終朝著有利于人類的方向發展。而實現這一原則的關鍵在于切實將人工智能發展中的所有相關利益群體的認知納入人工智能倫理與治理的各個環節,訴諸面向人工智能研究創新實踐的具體的價值校準和穩健的框架設計,以此形成多相關方的對話與共識機制,落實多方參與,實行多元共治,實現從微觀到宏觀的反饋、修正與迭代,最終推動人工智能的未來沿著合乎人性的方向和諧發展。