


摘要:當前,人工智能得到迅猛發展,在提升經濟和社會效益的同時,也引發諸多風險問題。文章以美國《人工智能權利法案藍圖》和歐盟《人工智能法案》為例,分析了人工智能風險防治的國際經驗,在此基礎上,提出對我國人工智能風險治理體系的建議,即在風險管理工具和評估方法、全鏈條監管機制、治理精細化程度、知識產權保護與安全監管等方面并重并行。
關鍵詞:人工智能;風險規制;國際借鑒
中圖分類號:中圖分類號F4266文獻標志碼:A文獻標志碼
0引言
近年來,人工智能技術在全球范圍內持續發展,在多個領域取得了顯著進展。人工智能技術推陳出新,尤其是在深度學習、自然語言處理、計算機視覺和強化學習等領域。深度神經網絡的訓練和計算能力的提升,使得人工智能在語音識別、圖像識別、機器翻譯等應用上表現出了前所未有的準確性和效率。人工智能技術的應用范圍不斷擴大,涵蓋了包括醫療健康、金融、教育、制造業、交通、零售等眾多行業。例如,在醫療領域,人工智能被用于輔助診斷、藥物研發和個性化治療;在金融領域,人工智能廣泛應用于風險評估、智能投顧和欺詐檢測;在自動駕駛和智慧城市建設中,人工智能也發揮著重要作用。
1人工智能發展現狀
11人工智能戰略不斷升級
人工智能已成為科技創新的核心領域,是數字經濟時代的重要支柱。自2016年以來,全球超過40個國家和地區將推動人工智能發展作為國家戰略,尤其是在疫情之后,許多國家意識到其在提升全球競爭力方面的關鍵作用,因此加強了相關戰略,出臺了一系列政策和措施,以推動人工智能技術的研發和應用。例如,歐盟發布了《人工智能白皮書》和《2030數字化指南》,美國成立了國家人工智能倡議辦公室,中國則在“十四五”規劃中明確提出要加快人工智能等前沿技術的發展,這些政策為人工智能的發展提供了資金、人才和市場支持[1]。
隨著人工智能創新需求的增長,各國加大了對這一領域的投資。歐盟通過“地平線歐洲”和“數字歐洲”等計劃,增加對人工智能的資金支持,投資總額達到955億歐元。美國則將人工智能列為未來技術發展的優先領域,計劃在未來幾年投入超過1000億美元。英國也在人工智能研究和應用上加大投入,以推動技術創新和產業應用。全球各國還通過實際應用推動人工智能技術落地。例如,美國通過國家科學基金會和相關機構的合作,推動人工智能在多個行業的應用。英國啟動了國家人工智能研究計劃,促進人工智能技術的廣泛應用。日本著重于在醫療、農業、交通及制造業等關鍵領域深化人工智能的應用,加大對中小企業的扶持力度。與此同時,我國在“十四五”規劃綱要中明確規劃了人工智能產業的發展藍圖,鼓勵各地建立創新應用示范區,以加速人工智能技術在各行各業的融合與落地。
12人工智能持續健康發展成為發展焦點
人工智能問世以來,其理論與技術框架經歷了數次重大革新。近10年來,人工智能憑借著深度學習算法的飛躍、計算性能的顯著提升及大數據資源的累積,實現了從學術研究到商業化應用的跨越。在這一轉變過程中,人工智能的應用范疇逐步從“初步可用”到“高度實用”,但一系列的風險與挑戰也隨之浮現。公眾認知的逐漸深化促使人們開始聚焦于人工智能的治理問題,對其安全性和可靠性提出了更高要求[2]。
德國大眾汽車工廠機器人在2015年出現故障,引發全球第一起智能機器人殺人事件。此后,人工智能外科機器人在手術中出現重大失誤,智能汽車“突然失控”“自動加速”“剎車失靈”等事件頻發,導致死亡案例不斷增長。美國司法系統在人工智能的錯誤判斷下,甚至逮捕了無罪人員。某詐騙團隊利用“人工智能換臉”技術,在BitVex比特幣詐騙平臺一周之內就成功詐騙2億元。人工智能問題主要體現在以下幾個方面:
121倫理道德問題
人工智能在倫理道德層面存在諸多隱患。算法偏見是一個突出問題,由于訓練數據可能存在偏差或不完整,算法在決策時便容易對特定群體產生不公平對待。如在招聘場景中,如果數據集中男性求職者的樣本更多且成功案例也較多,基于此訓練的算法可能就會對男性求職者更為青睞,從而使女性求職者處于不利地位。在人類自主性和尊嚴方面,當人工智能深度介入一些決策過程時,如在醫療中僅憑算法決定治療方案而不充分考慮患者自主意愿,就可能違背人類的基本倫理原則,對人類尊嚴造成侵害,引發社會對人工智能道德性的廣泛爭議。
122數據隱私與安全問題
數據隱私與安全在人工智能應用中面臨嚴峻挑戰。數據泄露風險極高,因為人工智能的訓練和運行依賴海量數據,在數據的收集、存儲與共享環節,只要安全防護稍有漏洞,個人隱私信息、企業商業機密乃至國家機密就可能被不法分子竊取[3]。如一些大型互聯網企業曾曝出數據泄露事件,導致大量用戶信息被非法利用。同時,數據還可能遭受惡意篡改與濫用。不良分子通過篡改數據來誤導人工智能系統做出錯誤決策,進而擾亂社會經濟秩序或損害公共利益,如利用篡改后的金融數據進行詐騙活動,給社會帶來極大危害。
123就業與社會經濟影響問題
在就業結構方面,人工智能的廣泛應用使得大量重復性、規律性強的工作崗位面臨被替代的命運,如制造業中的流水線工人崗位、部分數據錄入員崗位等。這無疑會沖擊就業市場,但同時也促使社會加速職業轉型進程。從貧富差距角度來看,那些能夠率先掌握先進人工智能技術和擁有豐富數據資源的企業和個人,在市場競爭中優勢明顯,而那些缺乏相關資源與能力的群體則可能逐漸被邊緣化,收入差距進一步拉大,加劇社會的貧富分化。
124技術失控與安全性問題
技術失控與安全性問題是人工智能發展的重大隱憂。其意外風險不容小覷,人工智能系統的復雜性與自主性使其行為難以精準預測與掌控,像自動駕駛汽車可能因系統故障或對復雜路況判斷失誤而引發交通事故,智能機器人也可能因程序錯誤而出現誤操作,對周圍人員和環境造成傷害[4]。此外,惡意利用風險也日益凸顯,人工智能技術被惡意用于網絡攻擊、制造虛假信息以擾亂社會穩定或開展恐怖活動等情況已逐漸出現。例如,利用人工智能生成高度逼真的虛假視頻或音頻來傳播謠言、誹謗他人。在軍事領域,人工智能應用于自主武器系統和情報分析等方面,可能引發軍備競賽,使戰爭的不確定性大幅增加,一旦技術失控,將對人類的生存與安全構成難以想象的威脅。
125監管與治理難題
監管與治理是人工智能健康發展的關鍵環節,但監管滯后性極為明顯,人工智能技術的快速迭代創新使得新應用和新風險層出不窮,而監管政策從制定到實施需要時間和流程,難以迅速跟上技術發展節奏。例如,一些新興的人工智能金融服務模式在出現初期可能處于監管空白狀態,容易引發金融風險。監管標準差異也是一大難題。不同國家和地區基于自身的法律體系、文化背景和發展戰略,對人工智能制定了不同的監管標準。這使得企業在跨國經營和技術交流時無所適從,既要滿足本國監管要求,又要應對其他國家的不同標準,不僅增加了運營成本和法律風險,也阻礙了全球人工智能產業的協同合作與統一治理[5]。當人工智能系統造成損害時,由于涉及開發者、使用者、數據提供者等多主體,各主體在系統運行中的角色和作用復雜交織,導致責任界定困難重重,容易出現相互推諉責任的情況,對受害者權益保護和社會公平正義的維護構成了巨大障礙。
2人工智能風險治理的國際經驗
針對人工智能的科技倫理和風險問題,美國發布了《人工智能權利法案藍圖》(以下簡稱《藍圖》),歐盟出臺了《人工智能法案》(以下簡稱《法案》),兩者均把人工智能安全建設作為法案核心內容,兼顧技術創新與安全監管。
21美國《藍圖》更注重公平隱私保護
《藍圖》包括5項原則:(1)建立安全有效系統,保護美國公民免受不安全或無效系統的影響;(2)算法歧視保護,以公平安全方式設計和使用系統;(3)數據隱私保護,通過內置保護措施并由相關機構管理數據的方式,保護公民免受數據濫用影響;(4)自動化決策系統通知和解釋要清晰、及時和可訪問,公民應當知曉正在使用的系統并了解該系統對結果造成何種影響;(5)設計人工智能系統失敗時使用的替代方案、考慮因素和退出機制,保證在適當情況下公民應該能夠選擇退出并快速解決問題(見表1)。《藍圖》核心主旨是避免人工智能系統濫用危害。
《藍圖》追究大技術責任,保護美國公民權利,著重強調技術使用過程中的公平性和隱私性,警告算法歧視,敦促數據保護與隱私保護,強調人類對人工智能能力的選擇,確保人工智能和大語言模型等技術為公民服務。《藍圖》在公平性方面,要求自動化系統的設計者、開發者和部署者應采取積極措施,保護個人和社區免受算法歧視,以公平方式使用和設計系統;在隱私保護方面,要求數據隱私制定符合安全框架下的基礎性要求和交叉性原則,自動化和人工智能系統的設計、構建和使用,均需要默認和嚴格遵守保護隱私規則。
同時,美國正在考慮制定《人工智能安全創新》,包括5個核心支柱:(1)安全。通過檢查來自外國敵對勢力或流氓團體的人工智能威脅來支撐國家安全,確保勞動力特別是低技能、低收入勞動力的經濟安全。(2)問責制。支持創建“負責任”的系統,以解決錯誤信息和偏見等問題。(3)基礎。要求人工智能系統以民主價值觀為核心,保護選舉,促進人工智能的社會效益并遏制潛在危害。(4)解釋。以簡單易懂的方式分享人工智能系統決策結果,以便用戶可以更好地理解系統決策結果產生過程。(5)創新。支持人工智能技術創新以保持美國在人工智能技術方面的領先地位。
22歐盟《法案》更加強調風險管控
《法案》提出了全生命周期的風險管理規制體系。《法案》創新了風險分類思路、產品規制路徑、負責任創新和實驗主義治理等理念,平衡了數據流動和廣泛使用之間關系,保證高水平的隱私、安全和倫理標準。《法案》強調對人工智能風險管理,包括對數據、算法規則和設計人員倫理的管理,還重視對風險管理過程和結果的控制。《法案》基于人工智能風險管控理念,打造全生命周期風險規制,覆蓋人工智能產品的入市前、入市后兩階段,劃分為事前風險管理、事中應急管理、事后開展學習的3個維度,提出風險應對措施[6]。其中,風險管理涵蓋風險的預知、研判和預警;應急管理覆蓋應急的響應與處置;善后學習包括總結反思與自動化決策系統完善重構。
《法案》遵循“特征、問題、目標、舉措”基本思路。針對人工智能特征,其技術原理具有復雜性、模糊性特征,在錯誤算法下存在一定的歧視性,再加上自動化程度增強讓人工智能系統自主性愈發顯著,使其運用更具有不確定性和不可預測性。針對人工智能問題,其復雜性、模糊性、歧視性、不確定性和不可預測性特征,引發了安全風險和人權風險問題。同時,由于現有法律規則供給不足,監管機構面臨規制困境,各國出臺的人工智能治理政策過于分散零碎,引發了人工智能的執法困難和法規空白,造成了法律監管碎片化。為此,《法案》確立了4項關鍵目標,包括確保人工智能安全與合法、實現對人工智能科學治理和有效執法、彌補法律監管空白以及形成人工智能單一市場。《法案》還引入多個監管工具,包括全生命周期風險管理、“人-機”界面管理工具和監管沙盒機制等(見表2)。
《法案》將人工智能風險分為4種類型,針對不同風險采取不同監管措施(見表3)。第一種為最為嚴重的不可接受風險,即威脅人的安全、生計和權利的風險,包括操縱人類行為規避用戶自由意志的系統和允許政府使用社會評分系統等。不可接受風險的監管措施為禁止,若違反則被處以巨額罰款。第二種為高風險,涉及基本的私人和公共服務,威脅生命和健康的重要基礎設施,決定受教育機會的考核或職業培訓,涵蓋自動駕駛和機器人手術的產品安全使用,包括就業履歷篩選、員工管理流程、司法和民主程序的執法系統等。高風險監管措施為:上市前受到嚴格管控,開展風險評估,為系統提供高質量數據;對活動記錄確保可追溯,提供關于系統和目的的所有必要信息;由監管機構評估合規性;配套人為監督措施和停止功能;上市后持續的市場監督和共享故障信息,嚴格執法與處罰。第三種為有限風險,包括使用人工智能時使用者能意識到與機器互動,進而做出明智決定。第四種為最小風險,涉及允許自由使用人工智能的電子游戲或垃圾郵件過濾器等應用。后面兩種風險的監管措施,均為實現透明和公開化。
基于風險分類,《法案》明確了人工智能風險管控的適用范圍、管理步驟和流程監控。《法案》針對風險適用范圍方面,將不可接受風險領域和高風險領域細化為重要基礎設施、就業、公共服務、教育、產品安全、涉權型執法等類型,著重強調生物識別系統。《法案》針對風險管理步驟,規定為識別和分析已知和可預見的風險,評估使用后可能的風險,基于上市后檢測數據預估風險,采取針對性是風險管理措施。《法案》針對人工智能風險流程監控,支持構建監管沙盒機制,即在自動化決策系統入市或使用前,引入受檢測控制的機制環境,人工智能自動化決策系統在受監測控制環境進行有效開發、測試和驗證。沙盒實驗機制內一旦發現對人的健康、安全和基本權利構成風險,應采取積極應對措施。
3對我國人工智能風險治理體系的啟示與建議
借鑒歐美國際經驗來看:一是人工智能強技術性特征,加劇信息不對稱下的監管難度;二是人工智能應用范圍跨度大,加大協調監管難度;三是人工智能風險和軌跡的發展速度較快,具有高度不確定性[7]。這些因素共同導致事前與前瞻性監管決策更加困難,現有國際監管法規顯得滯后。當前,中國人工智能治理法律對自動化決策系統和算法的公平性尚未作出明確規定,也未給出明確治理方案,亟須完善相應立法體系。
31開發可信賴的人工智能風險管理工具和評估方法
建立工具選擇、納入和修正程序,為相關工具建立評估標準,明確增加到共享中心/數據庫指標和方法,更新和維護共享中心/數據庫。積極推動監測、評估已出現的和潛在人工智能風險。根據人工智能風險管理工具使用情況,標記已出現的人工智能風險,建立跟蹤辦法,嘗試建立風險分類標準。確定對新出現的人工智能風險測試和評估方法,通過對人工智能傷害事件的參數估計和實證研究,建立風險分類標準和評估機制。
32設計“事前評估、事中監督、事后學習”的全鏈條監管機制
在人工智能產品進入市場前的事前評估階段,進行風險評估和管控,構建風險分類分級模式,參照不同應用場景下的不同風險匹配程度,制定對應措施規制,如禁止危害人身安全、人格尊嚴和自主意識的人工智能產品入市。在人工智能產品進入市場后的事中階段,持續開展市場監督,完善產品質量的后續觀察和監控機制,保障產品符合各項安全指標,配套產品質量信息反饋。同時,針對問題產品采取立刻召回或強制銷毀制度并及時向外發出警示信息,讓公眾了解產品風險和危害。在人工智能產品進入市場后的善后學習階段,開展風險事故的數據共享和風險監測,構建風險數據平臺,加強風險監測和預防。同時,建立統一科學的檢測監控體系,拓寬缺陷信息采集渠道,實現風險監測和預防。
33保護企業數據挖掘,提升人工智能治理精細化程度
首先,在加速人工智能產業發展方面,應當明確開發者進行數據挖掘時的合理使用原則。針對以科學研究為目的和不限制目的的文本和數據挖掘活動,采取不同的著作權保護方案,以解決人工智能輸入端數據學習中的侵權責任,明晰了輸入端的合理使用標準,避免出現侵犯原著作權的情況。其次,在人工智能產業治理方面,應積極提升知識產權規則適用的精細化水平。從保護權利人自由決定權與利益角度出發,要求徹底記錄任何用于訓練人工智能系統如何生成類似于人類作品的文本、圖像、視頻和音樂的著作權材料;再由權利人決定相關著作權資料是否可以用于ChatGPT等人工智能模型復制、訓練并獲取補償;最后,在人工智能產業監管方面,對于生成式人工智能工具如ChatGPT,應當立法嘗試按照其潛在風險進行分類,將透明度要求與風險級別掛鉤,實施不同的監管措施。計算能力越強大的模型,應當面臨更為嚴格的監管,同時用于數據訓練模型的數據也將受到額外的安全審查。
34強化知識產權保護
首先,完善治理理念,平衡著作權權利人、大模型經營者和社會公共利益的權利要求,積極回應著作權權利人獲得合理的報酬和著作權保護的呼聲,降低大模型經營者的知識產權風險,促進社會的知識普惠與文化創新的共同繁榮。其次,健全治理規則,主動明晰數據訓練的合理使用規則,加快人工智能生成物保護范圍的法律研究。最后,統籌治理主體,充分發揮各方主體參與,建立起綜合、平衡、適應性強的人工智能知識產權治理體系,積極提高行業組織和標準機構圍繞內容生成產業治理的內容質量,制定行業標準,推動行業聯合研發著作權合規工具,鼓勵企業主體和開發者參與著作權治理流程。
4結語
綜上所述,隨著以人工智能為代表的新技術的興起,新一輪產業與科技革命在全球范圍內迅猛發展。面對人工智能帶來的潛在風險和新挑戰,歐美國家通過設立一系列法案、規制,已經在人工智能風險治理領域取得了較為成功、有效的實踐。因此,應積極借鑒歐美成熟的理論經驗,立足我國國情,提出具有自身特色的人工智能風險評估和治理措施。在進一步完善國內相關人工智能風險治理體系的同時,為國際人工智能領域的風險監管難題貢獻中國方案。
參考文獻
[1]王彥雨,雍熙,高芳.人工智能巨風險研究:形成機制、路徑及未來研究[J].自然辯證法研究,2023(1):104-110.
[2]張欣.生成式人工智能的算法治理挑戰與治理型監管[J]. 現代法學,2023(3):108-123.
[3]周漢華.探索激勵相容的個人數據治理之道:中國個人信息保護法的立法方向[J]. 法學研究,2018(2):3-23.
[4]張欣.我國人工智能技術標準的治理效能、路徑反思與因應之道[J].中國法律評論,2021(5): 79-93.
[5]王彥雨,李正風,高芳.歐美人工智能治理模式比較研究[J].科學研究,2024(3):460-468.
[6]曾雄,梁正,張輝.歐盟人工智能的規制路徑及其對我國的啟示:以《人工智能法案》為分析對象[J].電子政務,2022(9):63-72.
[7]俞晗之,王晗曄.人工智能全球治理的現狀: 基于主體與實踐的分析[J].電子政務,2019(3):9-17.
(編輯姚鑫)
基金項目:2024年度江蘇省社科聯科技倫理專項課題項目;項目名稱:新時期加強科技倫理知識普及與教育機制研究;項目編號:24SLB-08。2023 年度江蘇省生產力促進中心青年人才基金項目;項目名稱:“33310”集成創新服務體系深化研究;項目編號:D2023013。
作者簡介:楊玲娟(1981—),女,研究員,碩士;研究方向:科技管理與科技服務
*通信作者:徐瑞(1992—),女,副研究員,碩士;研究方向:科技管理與科技服務。
Abstract: "At present, the rapid development of artificial intelligence has not only improved economic and social benefits, but also caused many risk problems. Taking the Blueprint of the AI Bill of Rights in the United States and the AI Bill in the European Union as examples, this paper analyzes the international experience of AI risk prevention and control, and on this basis, puts forward suggestions for China's AI risk governance system, that is, both risk management tools and evaluation methods, the whole chain regulatory mechanism, the degree of refinement of governance, intellectual property protection and safety supervision.