999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能的社會安全風險及其治理路徑

2023-02-28 19:23:49任晨宇
廣州大學學報(社會科學版) 2023年6期

容 志,任晨宇

(武漢大學 政治與公共管理學院,湖北 武漢 430072)

一、引 言

伴隨互聯網、物聯網、大數據、人工智能和5G等新一代數智技術的飛速發展,人類正在進入第二次機器革命時代。新技術的深度運用不斷引發全球性變革,“智慧力量”在工作、生活、學習等各個領域將更多地支配甚至取代傳統的“金屬力量”,人和受軟件驅動的機器之間亦可能由互補關系轉向替代與被替代的關系。[1]XVIII-XXIII作為引領新一輪科技革命和產業變革的戰略性技術,人工智能實現了對人腦力的模擬、延伸和擴展,憑借強大的信息處理能力為社會現代化提供有力的技術支撐。人工智能在服務經濟社會發展的同時,產生的風險也時刻對人類的財產、健康、自由乃至生命安全造成威脅。現實中,侵犯個人隱私、偽造肖像詐騙、自動駕駛事故、誘導危險行為等安全問題同社會生活密切相關,無一不凸顯出人工智能的“雙刃劍”作用。這種風險甚至隨著人工智能應用領域的不斷擴大而越來越多。根據網絡安全公司Surfshark于2023年發布的報告顯示,人工智能翻車事故(AI incident)的數量在十年時間增長了15倍。[2]

總體上看,關于技術的研究可以分成賦能和風險兩大視角。前者關注技術運用于不同場景中所產生的價值,以及如何最大程度發揮技術的功效;后者則關注技術對人類社會帶來的問題與隱患,探討應如何在技術發展及運用過程中對與之相關的社會安全風險進行治理。有關人工智能實踐運用的研究同樣與人工智能的發展歷程相伴相隨。特別是隨著GPT-4等更為復雜的模型問世,以及各類隱患不斷被曝光,人工智能社會安全風險問題日漸受到學界關注。由于涉及領域眾多且與人類自身息息相關,此類討論涉及工學、哲學、法學、管理學、教育學等諸多學科乃至實務領域,并且大致呈現出積極與消極兩種態度。積極一派強調人工智能的社會安全風險是有限或可控的,認為人類有能力如控制其他技術一樣控制人工智能,在既定的框架內同其展開合作;而消極一派則對人類在人工智能面前的行動及風險應對能力表示深刻擔憂,認為人工智能不僅可能從體力與腦力維度實現對人的全面超越,甚至直接威脅到人類文明。

目前,關于人工智能安全風險的討論日漸增多,但主要從技術和法律的角度切入,內容較為分散,大多直接提出對策和建議,尤其缺乏對人工智能社會安全風險的整體性和理論性分析。事實上,催生第四次科技革命的人工智能技術同以往的技術發展有著明顯的不同,其對社會的革命性變革力度更大,影響更為深遠,只有從整體上認識和把握人工智能技術的社會效應及其風險,才談得上未雨綢繆、見微知著,提早進行風險防控和有效規制。因此,本文首先在風險社會的背景下梳理了技術風險反思的基本理論,討論了技術的實踐性和風險性問題,進而基于人工智能的技術特性探討其社會安全風險的生成機理,接著從類型上對風險的具體表現形式進行劃分和剖析,最后探討了實現人工智能風險長效治理的機制和路徑。

二、反思技術風險的理論基礎

(一)技術的實踐性問題

盡管作為一種革命性的新興技術,人工智能在功能和應用等多方面表現出同其他技術的顯著差異,但至少目前仍作為一種延展人類能力邊界的高級工具而被使用。人和人工智能依舊保持主客關系,并未超出合理的人機分工。[3]同樣地,人工智能的社會安全風險仍然是在人工智能技術的進步與運用中,社會成員在技術與社會的互動中受到的直接或間接的負面影響。從本質上講,這種“人-技術”關系問題亦屬于技術風險的研究范疇。

技術指人類為了滿足自身需求,基于自然規律而改造世界和自身的所有方法、技能和手段的總和,包括各種工藝方法、操作技能、勞動工具和工程裝置等。技術與科學既有內在關聯,又有一定區別。科學的目的是探索現象背后的客觀規律,認識世界運行的因果關系;而技術則追求實用,強調解決現實問題或者達到某種實用目的。可以說,技術和技術運用是同義詞,即技術就是一種運用。換言之,并不存在完全脫離實踐的技術,或者說完全客觀的技術。簡·E·芳汀(Jane E.Fountain)在《構建虛擬政府》一書中即探討了“行動者內嵌于認知、文化、社會以及制度結構的特性是怎樣影響對因特網和相關IT技術的設計、感知和使用”的問題。[4]正所謂“行動中的技術”,技術自誕生伊始便存在于人與世界的互動中,與其他事物產生普遍、客觀及多樣的聯系。因此歸根結底,實踐性是技術的根本屬性之一,脫離了人的主觀能動性和社會實踐性也就無所謂技術。

從歷史上看,技術的發展史也就是人類的實踐史。從石器時代到青銅時代、再到鐵器時代,采礦、冶煉技術的發展帶來了生產工具的進步,進而推動生產力向前發展,人類脫離了原始社會的茹毛飲血,創造了輝煌的農耕文明。技術同樣作用于防災減災、保護人類安全等方面,在應對“社會以外力量”[5]所引發的災害中,起到如疏導洪澇、治療疾病等作用,為社會穩定提供有力保障。近代以來,蒸汽機的發明將人類帶入工業文明,機械工程、化學工業、冶金術等領域的技術突飛猛進,催生了工廠和大規模生產,鐵路和大規模運輸時代得以到來。第一次機器革命開啟了人類現代意義上的生產與生活。[1]8-9隨著電力的運用和普及,電氣化生產進一步推動生產力快速發展,人類社會在短短上百年的時間創造了比此前幾千年創造的總和還要多的生產力。這些都是技術在社會發展中的正向作用和功能。

正因為這種實踐的特性,技術在大面積應用中必然會對社會產生多種影響和效用。馬克思、恩格斯等人在當時就已敏銳地注意到機器生產和工業化帶來的就業替代、生態污染等問題。總體來說,工業時代的風險根源于技術實踐的外部效應,即偏離技術運用本意的負面效應。例如,運用電力技術的目的是為了發動機器,提高工作效能,但操作不當就可能造成用電傷害事故;汽車制造技術的目的是為了生產高速交通工具,但車輛的普及也會帶來交通事故;醫療技術的使用是為了治病救人,但在綜合性因素的影響下也可能出現醫療衛生事故等。整體上看,這類安全風險具有以下幾個共同特點。第一,從影響范圍來說,往往是對個體和少數人群造成健康層面的傷害,并沒有對社會成員的整體健康帶來威脅。第二,從形成原因來說,往往是因為人類操作不當或者技術設備故障所引發,大量的安全生產事故都屬于這一類,甚至包括影響較為嚴重的危化品爆炸事故等。因此,傳統工業技術的安全往往依靠操作者技能培訓、安全監管制度和技術本身的進步和發展來實現,屬于安全生產的范疇。第三,這類事故的發生具有一定的隨機性、概率性,因此可以靠理性計算進行預測,甚至可以通過納入保險等方式減少社會的總體傷害,提高整體的社會福利。例如,為了保障勞動者的權益,大多數國家都建立了工傷保險制度,即勞動者在工作中或在規定的特殊情況下,遭受意外傷害或患職業病導致暫時或永久喪失勞動能力以及死亡時,勞動者或其遺屬可以從國家和社會獲得物質幫助。

當然,更為重要的是,這類風險并沒有產生規模性的、社會性的影響和后果。所謂“社會性”,根據烏爾里希·貝克(Ulrich Beck)的看法,是指“不僅是對健康的威脅,而且是對合法性、財產和利益的威脅。進一步說,風險社會的風險不僅是自然和人類健康的次級問題,而且是這些副作用所帶來的社會的、經濟的和政治的后果——市場崩潰、資本貶值、對工業決策的官僚化審查、新市場的開辟、巨額浪費、法律程序和威信的喪失”[6]21-22。因此傳統工業技術風險一般是局部的、可感知的、后果有限的、相對可控的。在近代社會技術創新及政治革新的基礎上,人類已經形成一套系統的技術及制度手段對此類風險進行預防、預測與響應,例如,生物制藥的發展、行業保險的建立等。

(二)技術的風險性問題

第二次世界大戰后,特別是20世紀70年代以來,隨著工業化、信息化和全球化的深入發展,現代科學技術也迎來了前所未有的加速期和爆發期。不到半個世紀的時間里,現代生產就經歷了以電子信息技術為主的工業3.0,以及基于信息物理融合的工業4.0。計算機、核能、生物等領域的發展成就超過了此前很長一段時期的積累。但是,也出現了切爾諾貝利核泄漏、全球氣候變暖和環境污染等重大風險事故,對人類社會安全造成了更為深層和長期的影響,引發學界對技術風險的再次深入反思。這時的思考也超越了安全生產的范疇,進一步拓展到社會層面,聚焦技術對社會形態與生產生活方式的影響。可以說,總體上看,理論層面的反思集中體現為“風險社會”理論。這一理論集中對新興科學技術對社會的廣泛深遠的影響進行了深刻剖析,特別是基于對社會結構、社會未來形態等方面的思考。在這一理論視角下,現代技術的風險主要體現在三個方面。

第一,被制造性。風險(risk)是個古老的概念,甚至可以追溯到大航海時代的投資行為。但眾多思想家都一致認為,傳統的“風險”與現代的“風險”具有不同的內涵和表征。安東尼·吉登斯(Anthony Giddens)就將現代社會的風險分為外部風險(external risk)和被制造出來的風險(manufactured risk)。外部風險就是“來自外部的、因為傳統或者自然的不變性和固定性所帶來的風險”,包括千百年來一直伴隨著人類社會的自然災害,如地震、海嘯、洪水等,以及國家之間的沖突和戰爭等。這里的“外部”主要是指外在于人類社會,從人類之外孕育和策源的。而所謂被制造出來的風險,指的是“由我們不斷發展的知識對這個世界的影響所產生的風險,是指我們沒有多少歷史經驗的情況下所產生的風險”[7]22。雖然吉登斯也強調全球化的重要影響,但這里“不斷發展的知識”顯然與現代科學技術密切相關,與基于科學認識之上的技術實踐相關。道理很簡單,如果人類僅僅停留在科學研究的層面,那么僅僅是認識了世界(包括人類自身),只有運用技術的實踐活動才是真正改造世界。而由于技術本身的實踐性本質,人類“不斷發展的知識對這個世界的影響”其實正是技術發展及其運用所產生的影響。而且,隨著全球化進程的加速,外部風險占主導地位逐漸轉變成為被制造出來的風險占主要地位。[7]23

第二,不確定性。從主流來看,目前主要是從不確定性的角度來認識和界定技術風險。盧曼認為,風險就是“未來不確定性的危害可能性”[8]。吉登斯明確提出,被制造出來的風險與外部風險不同,人們很難準確知道這種風險的大小和程度,“而且在很多情況下,直到很晚,我們也不能確切知道這種風險的大小”[7]25。例如,對于震驚世界的烏克蘭切爾諾貝利核電站事故,人們很難知道這個事故的長期后果是什么。這種不確定性是與現代理性主義相對立的概念。理性主義彰顯人類認識世界和人類自身的理性能力,強調對世界運行規律的把握以及對未來的預測和干預。但不確定性打破了理性主義神圣的光環。正是在這種情形下,甚至所謂的謊言和謠言有時也能夠起到減少風險的作用,因為“在大部分被制造出來的風險中,是否存在風險甚至都可能受到懷疑。我們不能預先知道我們什么時候真的在散布謠言,什么時候又沒散布謠言”[7]27。對于現代社會來說,這當然是最為吊詭的事情。貝克也認為,風險社會的“風險”不同于工業時代的風險之處在于,后者更多是指針對個體的不確定性,正如哥倫布在航海時所認識的“風險”,而在后現代社會,如因核裂變和放射性廢料儲藏而出現的問題,“對整個人類來說這是全球性的威脅”[6]18。或者說,傳統的風險“有著勇敢和冒險的意思,而不意味著地球上所有生命自我毀滅這樣的威脅”[6]18,這與后現代風險是不同的。同時,“文明的風險通常是不被感知的,并且只出現在物理和化學的方程式中(比如食物中的毒素或核威脅)。過去,危險能夠追究到醫療技術的缺乏,但現在,問題的根源在于工業的過度生產。在面對風險社會時,科學和法律制度建立起來的風險計算方法已經崩潰了,因為像原子能事故這樣的災害的影響已經超出了世代,那些當時還未出生的或者多年以后在距離事故發生地很遠的地方出生的人都會受到這種影響。在風險社會中,不明的和無法預料的后果成為歷史和社會的主宰力量。”[6]18-20因此,貝克認為,現代社會的風險是工業化的副產品,并且隨著它的全球化的不斷深入而加劇。此外,例如瑪麗·道格拉斯基于社會文化研究立場,同樣對依賴經濟學“成本-受益”計算和推崇專家知識的傳統風險評估機制進行了批判。[9]

第三,再分配性。再分配性是技術風險的社會效應最重要的體現之一。不論是傳統技術風險還是新興技術風險,人們一般認為都是無差別作用于社會成員的。但貝克對此持明確否認的態度,他認為,“在完全由化學、生物和技術術語引導的對環境問題的討論中存在著一種危險,即不知不覺地把人僅僅歸結為一個有機物。”[6]22也就是說,沒有從社會關系和社會分化的角度來看待人及其面對的風險和威脅。馬克思主義認為,人是社會關系的總和,因此社會中的人并不是單純的生物形態,而是有著各種社會身份和關系的社會存在。因為每個人的生活環境、經濟地位、工作性質都不同,即使是同樣的風險事件,不同人所面臨的威脅、損失都不相同。例如,如果以平均值來看,全球的糧食產量是足夠實現人類溫飽的,但其實糧食并非平均分給每個地球人。同樣的道理,如果發生糧食減產風險,每個人的口糧也并非等比例縮減。這種風險的分配顯然受到經濟社會格局、秩序和權力結構的制約和影響。進一步看,在技術大行其道的后現代社會,在社會權力和分配結構的框架內,技術的運用者和技術的受用者之間也存在很大的差異,不同的社會位置和關系就會對風險的分配和分擔造成最為直接的影響。

風險社會理論深刻揭示了現代化、技術化進程所造成的社會性后果,對技術發展帶來的“文明的風險”提出了警示。在這里,技術風險既是風險社會的主要成因,也是風險社會的重要特征。[10]但對于人工智能技術風險的研究來說,風險社會理論似乎還缺少了一些更明確和深入的內容。這主要體現在:不確定性是技術風險的主要特征,但如何深度認識人工智能的不確定性?不確定性是否僅僅意味著模糊和無方向感?另外,人工智能技術風險的影響是否僅僅停留在人類的健康、身體層面?是否會,以及如何會對社會生產、社會生活乃至社會結構等深層次因素造成影響?切爾諾貝利核泄漏事故是啟發貝克的風險社會理論思考的重要誘因,但類似核泄漏事故事實上并未如人工智能一般對社會生產方式和生活秩序造成顛覆性、重構性影響。

三、人工智能的技術特性及風險生成機理

人工智能在1956年達特茅斯會議上首次被提出,如今成功越過科學與應用之間的“技術鴻溝”,在理論、技術與應用方面都取得了重要突破。[11]作為模擬人類思維活動并按照既定目標開展行動的計算系統,人工智能以數據、算力、算法三大要素為核心,愈發體現出“人類高級工具”這一特征。[12-13]區別于貝克在20世紀80年代關注的核能、化學、生物等技術,人工智能技術具有顯著的高速迭代、通用性、顛覆性和重塑性等特性。

第一,高速迭代,指人工智能的創新速度在60余年間實現了指數級增長,取得了長足的進步。摩爾定律指出,集成電路上可容納的晶體管數目約每經過18—24個月便會增加一倍。基于這一推論,新的產出與應用將隨著信息技術的持續升級而不斷涌現。特別是近十年來,伴隨科學研究的深入,以及神經網絡、大數據和深度學習等技術的運用,人工智能的性能愈發取得大幅提升。[14]如今,ChatGPT作為生成式人工智能發展的一個重要里程碑,不僅可以就某些問題做出搜索引擎式的規范回答,還可以完成更具綜合性、邏輯性和復雜性的任務,例如提供建議、編寫程序、創作樂曲等。這一現象級應用產品實現了對原先語言機械、功能單一的人工智能聊天技術的重大突破,引領了諸多行業的變革,甚至直接推動社會的智能化轉型。

第二,通用性,指相較于僅“專用”于某些領域的技術而言,人工智能技術的應用范圍更加廣泛。通過模擬人腦思維的更高階段,人工智能可以實現知識的自主創造。[15]因此,人工智能不需要行為主體的時刻控制就能夠做出決策和行動,并且可以順利適應相應的工作環境,這也為其在不同領域中的應用提供了有力保障。憑借降低成本、提高效率、優化服務等優勢,人工智能目前已同醫療、教育、金融、交通等領域跨界融合,在互聯互通與快速擴散的同時,進一步實現更高層級的創新應用。因此有觀點認為,人工智能作為繼蒸汽、電力與信息技術后新一輪工業革命的先導,具有“通用目的技術”(general purpose technology,簡稱GPT)的特征,能夠在與新舊產業的交互中助力全球經濟增長與包容性發展,最終推動經濟形態的整體性變革。[16-17]

第三,顛覆性,指人工智能技術在實用領域得到廣泛運用的同時,還會對傳統生產生活方式產生顛覆性影響。從本質上講,發明創新是一種對各種要素的組合,人工智能技術的飛躍與應用亦是如此,即通過對原有要素的嵌入與整合,造就更大可能的創新。[18]更進一步地,人工智能技術賦能不應被視為線性的增長,而是一種指數性的提升,是量變引發的質變。它不僅能夠實現一般意義上技術進步帶來的便利,甚至會通過破壞現有的知識體系,進而顛覆某些長期以來一直存在的模式。[19]例如通過對汽車動力系統進行優化,可以實現提高速度、節約能源、提升舒適度等目標,延展汽車原本的功能。而人工智能一旦進入駕駛領域,則有望以無人駕駛完全替代原先的駕駛員駕駛,從而引發駕駛模式革命性的突破,由此帶來例如責任判定等一系列新問題也是此前鮮有涉及的。聚焦宏觀層面,隨著人工智能的發展,流動性進一步增大,未來社會結構甚至將從“人-技術”雙層面演變為“人-智能技術-社會”三層面。[20]

第四,重塑性,指伴隨人工智能技術大規模普及后帶來的數字化轉型,部門、行業、社會乃至人自身的狀態都有可能被改變,并在技術的作用下實現更深層次的重塑。習近平總書記指出:“新一輪科技革命和產業變革正在重構全球創新版圖、重塑全球經濟結構。”[21]一方面,人工智能可以再造新的流程。人工智能作為一項新興技術嵌入到原有業務管理流程中,能夠發揮解放、分解、取代和增強的功效,改變組織的工作方式,進而構建“AI+”的新形態。[22]以出版產業為例,人工智能賦能策劃、審校、印制及發行等環節,以自動化、智能化、系統化的智能出版流程助力傳統出版與新興出版融合發展。[23]另一方面,人工智能可以再造新的角色。工業革命就重塑了社會中的時間觀念,使人們對時間的把握更加精確和嚴格。同理,為了構建智能時代人機和諧關系,個人同樣有必要且不得不對原先的社會行為做出相應的改變。例如,在生產領域,人工智能在推動傳統行業轉型升級的同時,對角色定位、部門分工等內容提出新的要求與挑戰,呼吁從業者適時更新自身的觀念與技能。

基于上述特性,同傳統技術風險相比,人工智能技術風險在影響范圍和深度兩方面呈現新的特點。

一方面是影響群體的廣泛性。飛速發展的人工智能目前已在許多領域和行業得到運用,幾乎無差別地覆蓋了生產生活的各個方面。同時,數字化成為不可逆轉的時代潮流,在沉沒成本等因素的作用下,人工智能技術一旦進入到某個領域便很難被移除。因此,人類幾乎沒有可能再像規避傳統風險一樣順利規避人工智能帶來的社會安全風險。工業時代中,某項技術引發的風險往往只針對一定范圍內的群體。例如,為避免遭遇可能發生的空難,人類還有其他交通工具可供出行選擇。而在大數據與人工智能時代中,不論是瀏覽網頁還是線上購物,只要試圖在互聯網中同其他對象進行聯系,個人隱私便會時常暴露于人工智能的掌控之下。英國政治咨詢公司“劍橋分析”在2018年被爆出通過至多有幾十萬人參加的智力競賽應用程序,最終竊取了至少8700萬份臉書用戶的數據。[24]這一數據濫用問題的影響范圍顯然是其他傳統技術難以達到的,也充分證明了人工智能社會安全風險具有規模化、常態化的特點。在這一情境下,無處不在的風險點使社會群體被進一步籠罩在技術威脅的陰影中,對安全乃至生存問題的深入關注也推動了人工智能技術風險的社會建構。

另一方面是影響程度的深刻性。傳統技術風險的影響往往易被公眾直接感知,且很大程度上表現在物理的、個體的層面。而人工智能風險在影響程度方面顯著區別于傳統技術風險,表現為模糊性、疊加性和社會性的集合。其一,許多人工智能風險隱藏于技術應用的“合理外衣”之下,并被有意或無意地掩蓋。即使公眾正親身經歷來自人工智能的威脅,仍可能對此缺乏察覺以及預防。因而這一特性使得公眾更易在無形中受到侵犯,例如APP借默認勾選隱私條款等手段違規收集用戶信息的情況屢見不鮮。其二,因為人工智能與其他技術表現為耦合發展而非絕對替代的關系,所以人工智能技術風險也是在其他技術風險之上的疊加與演進。例如人工智能應用于自動駕駛領域,不僅同樣可能發生安全事故,還會引發新的倫理爭議。因此,人工智能技術風險也更加復雜、不穩定和難以控制。其三,隨著人工智能技術發展水平的不斷提升,以及應用領域的不斷擴張,其帶來風險的層次也會隨之加深。相較于主要影響生命、健康等外在層面的機器爆炸或交通事故,人工智能風險對人類的沖擊進一步拓寬到權利、價值等內在層面,乃至引發關于人的生存發展將受到威脅等深層次的擔憂。特別是運用于關鍵領域的人工智能一旦出現問題,則更有可能在全社會范圍內產生“牽一發而動全身”的后果,對政治、經濟、文化等各方面的影響甚至會超越時間和空間的限制。

四、人工智能社會安全風險的表現形式

技術的實踐性說明,技術并非絕對獨立的存在。人工智能社會安全風險有別于傳統的自然災害或人為事故,是技術、技術的使用者和受眾等多重主體相互作用的結果,可以被視為技術因素與社會因素的結合。[25]參考已有研究成果,本文認為,其中既有源于人工智能技術本身的本體性風險,又有源于技術利用主體的主體性風險,還包括在技術利用過程中對社會群體產生影響的客體性風險。

(一)本體性風險

本體性風險是指由于人工智能技術本身發展的不成熟、不完善,從而可能在算法、數據等方面產生一系列的問題。該類風險往往與技術的利用者和利用過程無關,在人工智能產品“出廠”那一刻起就決定了風險發生的必然性。因此,本體性風險主要依靠工程技術的手段進行防范。總體而言,本體性風險包括技術事故、技術漏洞等方面。

1.技術事故

作為一項方興未艾的高新技術,人工智能盡管在許多領域都實現了突破,但仍存在許多提升空間。因此,人工智能在設計及后續運行的過程中,不可避免地會因設計不合理或缺乏足夠訓練冗余量等因素而出現數據誤差或運算錯誤等,從而產生一系列事故。[26]例如許多醫生在使用醫療健康領域的人工智能系統Watson(沃森)時,發現其給出了“多個不安全、不正確的治療意見”。更有甚者,Watson還出現過給有出血癥狀的癌癥病人開容易導致出血的藥品的情形。[27]當然,這類事故不僅可能發生在人工智能的使用過程中,也同樣是其他技術普遍會面臨的問題。

2.技術漏洞

快速發展的人工智能技術也存在一些特有的技術缺陷或技術漏洞,導致一定的安全隱患,使其難以應對來自數據或環境的不良影響。 對于復雜系統而言,類似問題甚至將直接引發全局性的后果。有研究指出,在輸入中施加細微擾動,就會沖擊機器學習模型固有的安全脆弱性,易使其得出錯誤的結果。在自動駕駛、人臉識別等敏感領域,這更是會帶來嚴峻的安全威脅。[28]例如,倘若在停車指示路牌上貼上一些簡單的貼紙,就可能會干擾到自動駕駛汽車的識別系統,從而使其錯誤識別這個路牌。[29]

(二)主體性風險

主體性風險是指在人工智能技術的研發及使用過程中,因人類自身行為而直接導致的風險。這類風險產生的原因既包括人的疏忽等主觀上無意的行為,又包括人主觀上有意的行為,例如為滿足某些需求而利用人工智能侵犯他人權益等。因此,主體性風險的應對需要構建相應的制度規范體系。總體而言,主體性風險包括隱私侵犯、群體歧視、責任沖突和角色危機等方面。

1.隱私侵犯

隨著人工智能、大數據等技術的發展和普及,個人信息正被愈發頻繁地獲取并應用于各種用途。互聯網時代,人工智能的人機交互與聯網能力使數據處理更加便捷,對隱私數據的大規模監測與處理因而成為可能。[30]一方面,隱私侵犯更加呈現隱蔽性的特征;另一方面,隱私暴露程度在智能算法作用下大幅增加。由于個體數據全貌僅需一定的片段信息就可以被獲取,因而隱私侵犯還呈現出整體性特征。[31]與此同時,這類權益問題不僅可能發生在商業行為中,甚至也會受到公權力的影響。例如在公共安全領域,有學者針對人工智能賦能的唇語識別技術指出,一方面可能會有人惡意進行唇語獲取識別,另一方面可能因存儲、使用等環節保護不當,而導致相關數據被竊取或濫用。[32]

2.群體歧視

眾多研究表明,盡管人工智能可以基于既定的、中立無偏的算法,在一定程度上減少人主觀感情色彩的影響,但也不能夠做到絕對客觀、公正與科學。[33]在選取數據、建構模型及訓練優化等環節中,可能會受到制作者價值偏好的影響,或者數據來源會反映社會上存在的固有偏見,最終導致人工智能的決策判斷出現種族、性別歧視等不公平問題。值得注意的是,類似由人工智能做出的歧視在很大程度上看似中立,實則排斥了部分群體的間接歧視(indirect discrimination),這種更為隱蔽的差別影響同樣需要社會治理主體的認真對待。[34]例如曾有研究指出,用于預測犯罪的COMPAS系統使黑人被告比白人被告更可能被錯誤地判斷為有更高的累犯風險。[35]

3.責任沖突

隨著人工智能在決策領域的推廣,如何應用人工智能的決策,以及如何界定人工智能決策的責任是值得思考的新問題。現實中,多數決策場景均涉及了各主體的交互,是包含情感、倫理等因素的復雜權衡過程。而單純依靠數據與算法的人工智能則可能使決策變得“非人格化”,例如某些外賣騎手就陷入了被效率主義剝削的“算法困境”。更嚴重的是,類似決策引發的后果很難在設計者、使用者乃至監管者等主體間劃分責任,甚至可能造成無人承擔責任的責任空場,從而誘發一系列倫理沖突或懶政怠政等問題。誠然,一般情況下,可以由人對人工智能的決策做出最終選擇。但在某些需要人工智能決策的、不確定性的場合,這種困境將帶來深刻不安。例如德國梅賽德斯-奔馳公司澳大利亞分公司高管麥卡錫指出,當車禍無法避免時,無人駕駛汽車更傾向于犧牲路人以保護車內人員的安全,由此引發了諸多關于生存權利的爭議。[36]

4.角色危機

人工智能在被應用于日常生活與社會治理時,同樣會在觀念及行動層面對作為社會主體的人起到反作用。具有強大適用性的人工智能可能使人類對其產生過度的信任與依賴,甚至逐步完成原本應由人完成的事項。[37]事實上,有關“科技進步使人懶惰”的隱憂早已有之,不過在如今表現得更為明顯。例如,據美國一項對1000名18歲以上學生的調查顯示,有89%的學生在完成作業時使用過ChatGPT。[38]ChatGPT在教育領域的廣泛運用就導致了一系列關于過度依賴人工智能從而降低學生學習能力、使其缺乏思考力和創造力的擔憂。更進一步地,當便利的人工智能技術不止作為工具本身而且在社會空間中長期存在時,就可能助長極端的理性主義(rationalism)和技治主義(technocracy),對人類原本的能力、價值乃至主體地位產生沖擊。

(三)客體性風險

客體性風險是指在人工智能規模化應用過程中間接作用于部分社會群體,并對其產生例如社會排斥等長期性影響的風險。盡管該類負外部性風險同樣源于技術與社會的結合,但相較于主體性風險而言,往往不是出自技術設計或使用者的本意,且難以在有限時間內得到妥善應對,因而需要更具針對性的治理機制創新。總體而言,客體性風險包括就業替代、數字鴻溝等方面。

1.就業替代

技術進步往往伴隨著舊產業與舊職業的衰退乃至消亡。人工智能對就業市場的影響究竟是以替代效應還是以創造效應為主,學界對此莫衷一是。譬如有研究指出,人工智能可以促進產業轉型升級,激發社會創新創業活力,從而創造新的就業機會。[39]盡管如此,人工智能對勞動與就業環境產生的顛覆性影響仍不容忽視。特別是在人工智能顯著輔助乃至替代人類的某些領域里,原先的人工崗位確實會在一定程度上受到威脅,進而誘發失業、再教育、權益保障等方面的風險。這種風險將隨著以ChatGPT為代表的生成式人工智能的運用而進一步擴張。例如,據美國高盛集團發布的報告顯示,生成式人工智能可能對勞動力市場產生重大沖擊,“預計全球18%的工作崗位可由AI實現自動化,約3億個工作崗位將受到影響”[40]。

2.數字鴻溝

互聯網與人工智能在提高生活質量的同時,也對人的數字素養提出了更高的要求。隨著社會信息化水平進一步提升,文化程度偏低或年齡偏大的群體可能被逐漸排除在數字福利之外,由此產生的“數字鴻溝”等新的社會不平等問題值得關注。[41]在馬太效應的影響下,甚至這種差異不僅僅體現在一個國家內部不同的地區與群體上,還容易加劇各國之間原本就存在的信息以及財富不平等現象。例如以色列歷史學家、《人類簡史》和《未來簡史》的作者尤瓦爾·赫拉利就此指出:“單個國家不足以解決這個問題,何況不同的國家也會分化——有的國家會從人工智能中獲益,變得更加繁榮富裕,而有的國家會被遠遠地甩在后面。”[42]

五、人工智能社會安全風險的治理路徑

在世界經濟社會加速分化,風險呈現深度全球性和不確定性,以及全人類對權利、責任、公平、正義的追求日益增強的“烏卡”(VUCA)時代,更加需要實現“敏捷回應、開放包容、韌性容錯”的技術善治。[43]整體而言,技術風險的善治意味著在充分發揮新一代信息技術正面效用的同時,有效規避、控制或轉移其帶來的風險,最大程度上實現興利除弊。2018年,習近平總書記在中共中央政治局第九次集體學習時指出:“要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控。”[44]

對于快速迭代創新的人工智能技術而言,單純依靠自上而下的監管與處罰可能會扼殺創新主體的積極性,不利于新興產業的持續健康發展。同時,靜態的規制顯然也難以妥善應對層出不窮的新問題、新挑戰。因此,在人工智能的利用方面,要以統籌技術賦能過程中的發展與安全為核心目標,構建快速預見風險、持續回應變化、多元協調共治的敏捷治理體系,通過提高治理的前瞻性與敏捷性,最終實現對人工智能的全方位治理。[45]這既要求采取動態性、適應性、包容性的發展策略,為技術進步與創新提供充足的空間,又要求切實通過頂層設計、精細管理與機制革新,主動回應新技術時代的治理風險與挑戰,對人工智能可能帶來的社會安全風險進行前瞻預測及快速反應。[46]

(一)堅持以人為中心的發展思路

首先,應從政治的高度看待人工智能的使用及風險治理,將滿足人民對美好生活的向往作為出發點和落腳點,推動技術成果惠及民生。對于作為技術利用主體之一的政府部門而言,應當助推城市管理、公共安全、醫療保障等公共服務領域的數字化轉型,更好地發揮人工智能提升體驗、態勢研判、前瞻預測等優勢,以管理工具的變革推動社會治理的提效,使公眾充分享受到數字化與人工智能帶來的便利。還要注意處理好技術應用過程中目的與手段的關系,克服技術主義和工具主義傾向,避免使“數字官僚”“面子工程”完全取代行之有效的傳統群眾工作方式。[47]此外,從硬件建設到軟件操作,將人工智能融入社會治理需要大量的高新技術人才。[48]因此,政府既要加大對優秀數字人才的引進力度,還應通過技術培訓、實踐運用等途徑不斷提高工作人員的數字素養和信息化能力,以適應信息化時代人工智能技術治理的要求。

同時,在人工智能技術狂飆突進的今天,政府還要積極迎接人工智能對人類自由、正義等價值帶來的挑戰。歸根結底,技術的利用應當堅持以人為本的理念,將實現人的全面發展作為核心目標。因此,政府為更好地應對就業替代、數字鴻溝等社會排斥風險,賦予每一位公民更加平等的參與權利,一是要推進普及性技術教育培訓,提升公民在網絡時代的數字素養和技能,使其重新適應勞動力市場的要求;二是要推進互聯網應用及產品的適老化改造,為老年人等數字弱勢群體提供更具針對性的信息服務,從而彌合現實中存在的“接入溝”,實現人工智能的開放、共享。[49]

(二)營造人文良善的技術生態

技術的發展和運用始終是在人的主導下進行的,因此,技術生態是一種社會性、制度性和文化性的環境。為了應對未來深度的不確定性,需要營造人文良善的技術生態。一方面,要加強人工智能的應用創新,以技術的優化提升幫助實現人工智能的向善運用。對此,一是要把握好數字化、網絡化、智能化發展方向,牢固抓住數字時代機遇,實現產學研深度融合,推動針對算法缺陷等固有問題的行業合作攻關,助力技術的迭代升級,在提高人工智能發展優勢的同時主動規避可能發生的風險。二是要在需求導向的基礎上強化人工智能的場景應用。既要推動人工智能在能夠顯著提高生產水平和生活質量的領域中的合理使用,充分發揮技術創新對人類發展與社會進步的積極作用,又要尤為注意某些領域存在的例如侵犯他人權益、引發倫理爭議等安全風險,并積極采取提高人工智能系統運行的透明性和解釋性等方式加以預控。[50]

另一方面,要推動實現人工智能行業的自律自治,營造公平公正、包容創新的發展環境。鼓勵人工智能行業聯盟、龍頭企業等主體積極承擔社會責任,圍繞產品應用與風險規制等內容凝聚合力,從而形成有效的行業共識、宣言、標準等,并自覺接受社會監督。[51]例如2019年,深圳市人工智能行業協會與數十家人工智能企業共同發起首份《新一代人工智能行業自律公約》。這一公約旨在促進人工智能健康可持續發展,提出了堅持以人為本、促進正義公平、確保安全可控等原則,是對人工智能行業環境的有效塑造和規范。[52]除此之外,還需要每一位人工智能從業人員在提高技術研發能力的同時牢固樹立責任意識和風險意識,時刻堅守職業倫理和法律規范,以保障公眾的生命權、自由權、隱私權、財產權等權利作為人工智能技術發展的前提,摒棄例如將主觀的性別歧視嵌入算法或竊取隱私數據等侵犯他人合法權益的行為。

(三)構建包容審慎的監管體系

敏捷治理原則強調全過程和全周期治理,即人工智能社會安全風險的治理既要從技術設計研發的源頭入手,又要在技術的運用過程中科學研判,并及時解決出現的問題。[53]因此作為政府部門,在事前領域,一是要在安全、透明、公正等倫理原則的基礎上重視對人工智能前端開發者資質和行為的審核,并要求其構建事前數據風險評估認證機制,以更具針對性的監管環境幫助相關行為主體提高風險防范能力。[54]二是要加強數據安全保護制度建設。既需要在規則層面明確相關行為主體的權限與責任,例如由國家網信辦等七部門聯合公布,自2023年8月15日起施行的《生成式人工智能服務管理暫行辦法》就指出,“提供者對使用者的輸入信息和使用記錄應當依法履行保護義務”[55]。此外,還要在實踐層面完善以國家網信辦為中心,以各地區、各行業、各領域的網信工作機構和第三方數據安全監管機構為支撐的數據安全治理機構體系,[56]并通過落實防火墻等技術保障措施,實現對數據安全的有效監管。

在事后領域,一是要健全公民權利救濟機制。這不僅需要推進申訴程序法制化,通過細化查詢、申辯、更正機制等方面的具體規定以保障公民陳述、申訴或對抗的機會,還要完善相應的公益訴訟制度,在人工智能日益普及的背景下因時更新公益訴訟類型。[47]可以建立針對人工智能公司的集體訴訟制度,更好地解決受害者人數眾多且分散的問題。[57]二是要健全輿情風險控制機制。后現代風險社會中,技術風險同樣呈現出主觀建構的特征。為避免因公眾缺乏了解或存在恐懼心理而產生的輿情危機,在與人工智能相關的社會安全風險事件發生后,既要珍惜輿情處置的黃金時間,于輿情蔓延前快速啟動應急流程,以多部門的協調共享做好信息收集和處理工作,又要真實、準確、全面且易懂地回應公眾關切,加大科普宣傳力度,從而有效預防虛假消息或煽動性信息等不良現象的產生。

(四)形成多元共治的社會格局

人工智能社會安全風險的敏捷治理亦強調多元主體參與,旨在通過對各方關切的事項進行有效溝通,從而凝聚社會信任,并實現共識下的一致行動。[58]對此,在人工智能的研發、應用與監管過程中,一是要提高全流程的開放程度。打破各行其道的封閉環境,有序引導科研機構、研發企業、社會組織等利益相關者充分發揮各自的專業優勢,實現跨學科、跨領域、跨地區的參與和融入。二是要重視對社會需求和民眾訴求的吸納。各主體尤其要著眼于對隱私、財產安全等事關人民群眾切身利益的風險的防范,并將其納入到人工智能技術落地與推廣的標準中。三是要構建有效的社會監督體系。有關部門應注意在提高公眾數字素養的基礎上,通過宣傳、教育等手段幫助公眾進一步了解人工智能技術的原理及應用概況;同時暢通民意表達渠道,為公眾進行社會監督創造有利條件。

此外,聚焦全球視野,還應當構建人工智能的國際合作與全球治理機制,使人工智能的發展與應用更好地增進全人類共同福祉。世界性風險社會中,技術風險的跨域傳播使每一個國家都難以獨善其身。同時,數字行業具有開放、融合、相互依賴的本質特征,決定了世界各國必須走合作治理的道路。[59]因此,一方面有必要加強同各國在數據處理、人才培養、權利保護、準則制定等方面的戰略合作,推動實現人工智能技術的健康發展;另一方面,應摒棄單邊主義、孤立主義傾向,努力搭建讓每個國家都可以平等對話發聲的平臺,在構建人類命運共同體理念的指引下發揮負責任大國作用,與國際社會共同營造開放、公平、公正、非歧視的人工智能發展環境。

主站蜘蛛池模板: 国内精品一区二区在线观看| 亚洲男女天堂| 久久一本精品久久久ー99| 色综合中文| 男女男免费视频网站国产| 亚洲AV色香蕉一区二区| 久久久噜噜噜| 亚洲精品视频免费观看| 欧美一区二区三区不卡免费| 国产在线视频福利资源站| 色欲色欲久久综合网| 国产情侣一区二区三区| 天天综合网色| 欧美成在线视频| 一级在线毛片| 伊人久久久大香线蕉综合直播| 国产99在线| 制服丝袜一区二区三区在线| 在线观看精品自拍视频| 超碰aⅴ人人做人人爽欧美| 亚洲人成网址| 久久久久久久97| 亚洲福利一区二区三区| 色综合天天娱乐综合网| 多人乱p欧美在线观看| 四虎影院国产| 九月婷婷亚洲综合在线| a毛片在线播放| 国产精品女人呻吟在线观看| 亚洲一区国色天香| 精品久久国产综合精麻豆| 激情亚洲天堂| 91精品啪在线观看国产60岁 | 99九九成人免费视频精品| 老司机午夜精品视频你懂的| 国产成人成人一区二区| 免费一级大毛片a一观看不卡| 欧美成人在线免费| 久久久无码人妻精品无码| 国产成人综合久久精品下载| 国产视频一区二区在线观看| 99热免费在线| 国产精品午夜福利麻豆| 91亚洲精选| 国产日本欧美亚洲精品视| 亚洲av中文无码乱人伦在线r| igao国产精品| 国产尤物视频在线| 日本三级精品| 国产99视频在线| 国产精品亚洲天堂| 国产精品亚洲一区二区三区在线观看| 亚洲AV无码不卡无码| 91青青草视频在线观看的| 99热这里只有精品国产99| 91成人在线免费视频| 国产成人a毛片在线| 国产九九精品视频| 国产门事件在线| 波多野结衣一区二区三区AV| 91香蕉国产亚洲一二三区| 精品亚洲欧美中文字幕在线看| av性天堂网| 欧美日韩一区二区在线播放| 2048国产精品原创综合在线| 欧美色99| 亚洲综合欧美在线一区在线播放| 最新国产成人剧情在线播放| 久久久久亚洲av成人网人人软件 | 亚洲精品777| 亚洲欧洲一区二区三区| 尤物在线观看乱码| 精品国产91爱| 成人毛片免费观看| 亚洲天堂日韩在线| 91无码国产视频| 午夜福利无码一区二区| 国产精品嫩草影院视频| 成人免费视频一区二区三区 | 国产麻豆精品久久一二三| 久久国产V一级毛多内射| 91精品视频播放|