袁亦豪
(上海社會科學院,上海 200083)
隨著人工智能(AI)在近些年來的井噴式發展,其所帶來的各方面風險也開始引起各方注意。康奈爾大學的研究指出,人工智能可以被用來延續偏見、賦能武器、傳播錯誤信息和進行網絡攻擊。即使在人類參與下使用,人工智能也能造成自主性傷害[1]。盡管如此,目前對于人工智能造成的潛在風險類型仍缺乏清晰的界定,全球知名研究機構如布魯金斯學會、普華永道,各類國際組織如經合組織、世界經濟論壇等都根據自身的認知劃定了相關的風險類型。通過歸納,目前對人工智能風險的判斷主要有以下幾類:
人工智能的技術風險主要針對其系統以及相應的平臺帶來的風險。第一,涉及數據隱私的安全風險。AI系統通常需要大量數據來進行訓練和學習,這可能涉及個人隱私信息的收集和處理。如果這些數據受到不當使用、泄露或黑客攻擊,將導致隱私泄露并帶來后續的風險。第二,惡意使用的安全風險:AI 技術也可能被用于惡意目的,包括網絡攻擊、虛假信息生成和社交工程等,使用者可通過AI 技術提升攻擊的復雜性和威力,甚至為殺傷性武器賦能。
人工智能的經濟風險主要指包含失業與經濟不平等。人工智能驅動的自動化有可能導致各行各業的工作崗位流失,對低技能工人的傷害尤其明顯。隨著人工智能技術的不斷發展和效率的提高,勞動力必須適應和獲得新的技能,而低技能工人的工作替代性強而賦能效應卻相對缺乏。在此基礎上,人工智能可能造成經濟不平等,使富裕的個人和公司受益過多。而由于人工智能開發和所有權集中在少數大公司手中,這種不平等可能會進一步加劇。
人工智能的社會風險主要體現在人類對人工智能的不信任及相關的潛在風險。第一,人工智能系統缺乏透明度,這種不透明性模糊了人工智能技術的決策過程和基本邏輯。當人們不能理解一個人工智能系統是如何得出結論時,就會導致對采用這些技術的不信任和抵制[2]。第二,人工智能對人類隱私產生巨大的破壞力。人工智能技術的基本運作建立在收集和分析大量的個人數據之上,從而將引發了與數據隱私和安全相關的問題。
人工智能的運行模式可能對于人類習以為常的倫理、道德及法律的認知邏輯產生新的挑戰。第一,人工智能程序是有偏見的訓練數據或算法設計,系統可能放大社會偏見并造成進一步的撕裂。第二,人工智能系統中被灌輸道德和倫理價值觀,在面臨復雜的決策環境中,不一定符合人類的基本倫理認識。第三,在新的場域中,缺乏新的法律法規來規范或解決人工智能技術引起的上述各類問題。
目前看來,盡管各方對于人工智能風險的判斷仍處于摸索的階段,但是對于加強監管以降低其風險已經取得了一定的共識。對于企業而言,行業領導者正尋求一種可信的、數據安全的方式使用人工智能技術。而在政府層面,歐盟、美國、中國等都在推出各自的監管措施或法律,以確保技術發展處于正確的方向。
美國的科技和產業體制一向以私營部門為主,政府參與程度始終較低。聯邦層面,美國目前沒有明確針對人工智能的法律,但政府部門正在與企業界就監管問題磋商并達成一些成果,立法部門同樣在該領域取得了小幅進展。
第一,美國商務部下屬的國家標準與技術研究所(NIST)主要擔任人工智能(AI)技術和系統的設計、開發、使用和治理方面培養信任,涵蓋了人工智能的風險識別及政策制定等 工 作。2023 年1 月26 日,NIST發布了人工智能風險管理框架(AI RMF 1.0) ,3 月30 日NIST 啟 動了可信賴和負責任的人工智能資源中心,該中心將促進該框架的實施及國際協調。該框架通過一個共識性的、開放的、透明的和協作的過程開發,旨在為各方的人工智能風險管理工提供合作平臺及支持服務。
第二,白宮與科技巨頭就人工智能的發展路徑及風險控制進行磋商。2023 年7 月21 日,白宮七 家領先的人工智能公司(Amazon,Anthropic, Google, Inflection,Meta, Microsoft 及 OpenAI)共 同宣布幫助人工智能技術朝著安全、安全和透明的方向發展。其主要達成的共識包括:確保產品的可靠性,進行足夠的安全測試并公布風險管理信息;保證系統的安全性,加強網絡與內部數據安全并建立漏洞彌補機制;爭取公眾信任,公開人工智能的使用記錄和限制條件,并避免歧視與隱私泄露。
第三,國會議員已經就涉及人工智能監管提交法案草案。立法小組于2023 年6 月20 日提交了一項法案[3],旨在建立一個專注于人工智能監管的委員會。該委員會一方面要減輕人工智能的風險和危害,另一方面又要保護美國“在人工智能創新方面的領導地位以及這種創新可能帶來的機遇”。平衡這兩方面的考慮意味著制定一種全面的監管方法,承認在利用人工智能的變革力量帶來社會和經濟效益的同時解決潛在缺陷的重要性。
歐盟對于人工智能監管的態度相對積極。歐盟特別注重人工智能發展中的兩個問題。第一,倫理和法律準則。為了確保人工智能的發展和應用符合道德和法律要求,歐洲將倫理和法律準則置于人工智能戰略的核心。歐盟希望通過一系列指導原則和規范,在涉及數據隱私、透明度、責任和公平等方面促進人工智能的可持續發展。第二,數據共享與隱私保護。歐洲鼓勵數據共享和合作,以加強人工智能算法的訓練和改進,同時也重視個人隱私的保護,在數據使用和處理過程中采取相應的法律和技術措施。從前些年開始,歐盟就已經試圖推出高度規范性指令,針對高風險人工智能系統的研發者和使用者做出具體的技術和機構規定。
2.2.1《通用數據保護條例》
《通用數據保護條例》(GDPR)是歐盟于2018 年5 月25 日實施的旨在保護歐盟內部個人隱私和個人數據的法規,是歐盟在人工智能時代專注于數據隱私的重要法案。GDPR 取代了以前的《數據保護指令》 ,并對數據保護規則進行了重大修改和改進。法案明確了適用范圍,歐盟以外的企業若為歐盟居民提供的個人數據類服務,同樣受到管轄。該法規要求企業必須使個人對數據處理保持自由、具體、知情和明確的狀態。GDPR 賦予個人獲取、修正、刪除、傳輸數據的權利,并限制個人行為受AI 等自動化決策的影響。大型企業必須任命一名數據保護官,負責監督數據保護戰略并確保遵守該法律。同時, GDPR 對不遵守規定的行為實施了嚴厲的處罰,對最嚴重的違規行為處以高達2000 萬歐元或全球年收入的4% 的罰款。
2.2.2《歐盟人工智能法案》
2021 年4 月,歐盟委員會提出了歐盟首個人工智能監管框架。作為其數字戰略的一部分,歐盟希望對人工智能(AI)進行監管,以確保為這一創新技術的開發和使用創造更好的條件。一旦通過,這將是世界上第一個系統性的關于人工智能的規則。
這份法案中,不同應用的人工智能系統將根據其對用戶構成的風險進行分類,不同的風險水平對應不同的監管級別[4]。不可接受風險的人工智能系統被視為對人類構成威脅,將被禁止使用,包括:對人或特定弱勢群體的認知行為控制,操縱社會撕裂,實時和遠程生物識別系統等。高風險的人工智能系統被定義為對安全或基本權利產生負面影響,并將分為兩類:1)在歐盟產品安全法規下的產品中使用的人工智能系統;2)在8 個特定領域中使用且必須在歐盟數據庫中注冊。低風險的人工智能系統應符合最低限度的透明度要求,使用戶能夠作出知情的決定。與應用程序交互之后,用戶可以決定是否繼續使用它。當用戶與人工智能交互時,用戶應該意識到這一點。這包括生成或操縱圖像、音頻或視頻內容的人工智能系統[5]。
現有的人工智能系統主要由大型科技公司開發,產品的迭代升級能力強,監管措施的出臺速度遠遠落后于產品的更新速度。2022 年11 月,chatgpt-3 的發布才將其從一個軟件工程師的工具,重新定位為一個以消費者為中心的工具,而僅僅四個月之后, OpenAI 公布了 GPT-4 支持基礎大型語言模型(LLM)的最新版本,“展示了人類水平的性能”。ChatGPT成為歷史上增長最快的網站,在兩個月內吸引了超過1 億用戶。然而,應對人工智能驅動的變革速度,可能超出監管部門現有的專業知識和能力。今天用的監管法規和結構大部分建立在電氣時代的假設之上,這些假設已經被數字平臺時代的飛速發展超越??陀^來看,現有的規則不夠靈活,尚無法應對人工智能的發展速度。未來對于人工智能的監管方式應更專注于職權與功能,而不是依靠政策加以約束之上。相關部門需要更多的靈活性,擺脫舊的監管方式,以跟上技術發展的步伐。
人工智能的監管內容方面,政策制定者并沒有取得一種共識。在消除偏見、數據隱私和系統安全性等領域的監管,涵蓋太多的領域,從而大幅度提高了監管的難度。更進一步,作為一種強化系統,人工智能本身不具備主觀的善惡,因此對其監管的難度較大。以歐盟制定的人工智能法草案為例,存在明顯的漏洞和例外。例如,目前法案中明確禁止面部識別,但這項條款卻忽視了面目識別在安全保密、身份認證,甚至協助破案中發揮的巨大作用。究竟如何定義人工智能的風險等級,如何權衡其對社會發展帶來的利弊,監管無疑面臨很大的挑戰。
雖然對監管的必要性取得了一定的共識,但毫無疑問監管政策會阻礙行業發展和技術進步。相比于中美兩國,歐盟缺乏大型的人工智能企業,整體的運用水平也相對較低。這某種程度上使其采取了較為嚴格的數據管理政策,而在人工智能的發展要素中,數據起到了關鍵性的作用。谷歌前董事長施密特稱,他認為更希望由公司主導監管界限,這種自我監管的方式與過去20 年數字平臺公司一直倡導的不干涉方案是一樣的[6]。布魯金斯學會認為,所有現代法規都在保護公共利益與促進創新和投資之間走鋼絲。在人工智能時代,監管意味著承認不同的人工智能應用會帶來不同的風險,并確定一個監管與風險相匹配的方案,同時避免阻礙創新。
人工智能的強大賦能作用及其快速的發展趨勢,一方面極大改變了人類的生產生活方式,另一方面對于人類自身也造成了威脅與挑戰,因此人工智能監管也必然隨著產品與技術的更新而不斷向前跟進。根據中國互聯網信息辦公室網站2023 年4 月11 日消息,為促進生成式人工智能技術健康發展和規范應用,根據《中華人民共和國網絡安全法》等法律法規,起草了《生成式人工智能服務管理辦法》,并現向社會公開征求意見??梢?,世界主要行為體都開始關注人工智能監管這一前沿話題。可以預見的是,人工智能監管的前路并不平坦,需要更精準風險的識別、更先進的監管模式,并充分考慮監管的各類挑戰,才能實現監管與發展的平衡,從而實現有效監管。 (文責自負)