田豐 胡正坤

6 月8 日,北京首鋼會展中心舉行的第十六屆中國國際社會公共安全產品博覽會上,觀眾在參觀“AI 指揮中心系統”
伴隨以ChatGPT為代表的大模型的出現,人類邁入AI2.0時代,并向通用人工智能進軍。
在AI1.0時代,100%的程序由人類程序員編寫,計算機中20%的指令承擔了80%的工作;而在AI2.0時代,80%的程序和內容由AI大模型生成(即生成式AI),20%的程序與業務邏輯由提示工程來優化改進。
人工智能底層技術范式的重大變革,帶來了新的倫理風險。
隨著技術發展,人工智能在計算機視覺、自然語言處理、語音識別等領域逐步落地,在科學研究、制造、醫療、城市治理等場景廣泛應用,一個泛在智能的時代正加速到來。
縱觀歷史,通用技術在推動社會生產力實現躍遷時,往往會對原有的社會生產關系帶來革命性影響,比如電力與工廠、互聯網與電商、視頻互聯網與主播等。這一規律同樣適用于人工智能。
即便在“弱人工智能”階段的當下,人們已對自動化決策系統的健壯性和公平性充滿關切,對算法推薦、深度合成以及生物特征信息識別技術的廣泛使用表達了擔憂。
對于技術濫用的問題,比如利用AI 實施電信詐騙,應當嚴格監管;對于崗位替代等技術負面性問題,可考慮職業培訓等“救濟措施”;對于技術水平不足的問題,比如AI 生成內容的準確性問題,可采取“柔性監管”方式,在能夠滿足內容治理和事件響應的基本要求下,允許迭代優化。
在過去十年里,人工智能治理受到企業、政府機構、國際組織、社會團體等多方重視,已進入落地實踐。從發展歷程看,人工智能治理至今走過了三個階段:
第一個階段起于2016年,以原則設計為主。
第二個階段起于2020年,以政策制定為主。2020年2月,歐盟委員會發布《人工智能白皮書》,在全球率先提出“基于風險的人工智能監管框架”。此后,主要國家紛紛跟進,在不同程度開展了監管人工智能相關技術及應用的探索。
第三個階段起于2022年,以技術驗證為主。新加坡政府率先推出了全球首個人工智能治理開源測試工具箱“AI.Verify”。在市場側,美國人工智能治理研究機構RAII發布了“負責任人工智能認證計劃”,向企業、組織、機構等提供負責任AI認證服務。
經濟合作與發展組織(OECD)統計數據顯示,全球已有60余個國家提出了700多項人工智能相關政策舉措。從各國發布的人工智能法案、政策文件,以及監管舉措看,人工智能監管呈現以下四點趨勢:
一是基于場景的風險分級分類治理成為共識。基于風險的治理路徑(Risk-Based Approach)首現于歐盟《通用數據保護條例》(GDPR),并在歐盟2020年發布的《人工智能白皮書》中得到繼承和發揚。目前,風險已經成為各國人工智能政策文件中必不可少的關鍵詞。
二是備案成為高風險應用的主要監管模式。目前,主要國家對高風險人工智能應用的監管均提出了不同程度和形式的“備案”要求。例如,美國《2022 年算法責任法案》提出,在聯邦貿易委員會(Federal Trade Commission)設立公共存儲庫來管理系統。我國網信辦等4部門發布的《互聯網信息服務算法推薦管理規定》也明確要求,具有輿論屬性或者社會動員能力的算法推薦服務提供者應當在提供服務之日起十個工作日內通過互聯網信息服務算法備案系統履行備案手續。
正在征求意見的《生成式人工智能服務管理辦法(征求意見稿)》,也對生成式人工智能產品或服務在核心價值觀、算法歧視、虛假內容、等領域風險提出管控要求。
三是事前風險評估成為人工智能監管的重要手段。2017年,美國紐約《算法問責法》首次提出自動化決策系統的影響評估制度。2019年2月,加拿大發布的《自動化決策指令》,同樣要求政府部門在部署任何自動化決策系統,或其系統功能、范圍發生變化時均需進行影響評估。我國《關于加強互聯網信息服務算法綜合治理的指導意見》中也提出了開展算法安全評估的要求。
四是算法治理成為當前各方監管發力的聚焦點。各國應對算法風險的思路通常落腳于提升算法透明度,算法備案制度正在成為各國實現治理目標的關鍵抓手,而披露算法運行機理、提供算法關閉選項成為各國保障用戶知情權和選擇權的通用做法。
從產業層面觀察,目前我國人工智能治理仍面臨多重挑戰。這些挑戰包括:
倫理治理難以真正融入企業的業務價值閉環。由于倫理治理短期業務收益不明顯,業務方可能會因短期看不到收益,對倫理治理工作重視不足或落實缺位。
缺少權威測評標準和認證體系,出海容易遭受差別待遇。目前,部分國家和地區如歐盟、新加坡已推出人工智能治理“沙箱”和測試工具箱,并有將倫理標準作為市場準入要求的發展勢頭。不久前,美國和歐盟聯合發布了路線圖,明確提出將在AI治理的定義、標準,以及評估框架方面開展合作。
研究與實際存在差距,難以有效指導行業發展。與歐美相比,目前,我國人工智能倫理研究的重點主要在學術理論層面,對產業發展面臨的實際倫理挑戰和企業治理需求的研究不夠深入,不同領域對于AI倫理治理問題尚未形成共識,尤其是未能與國際倫理制度相關聯、相制衡。
人工智能倫理治理是一個學科交叉領域,“良將難求”。目前,人工智能技術背景的專業人才對于轉型做倫理治理的興趣不高,科技哲學等社科背景的專業人才對人工智能技術的理解不夠深入,是我國推動人工智能倫理治理落地需要解決的現實問題。
當前,人工智能正處于應用落地的關鍵發力期,創新創業活躍、市場競爭激烈,關于創新治理模式,可考慮從以下方面著手:
首先,要準確定義問題,避免因對新興技術誤解,造成責任偏移或責任誤判。
對于技術濫用的問題,比如利用AI實施電信詐騙,應當嚴格監管;對于崗位替代等技術負面性問題,可考慮職業培訓等“救濟措施”;對于技術水平不足的問題,比如AI生成內容的準確性問題,可采取“柔性監管”方式,在能夠滿足內容治理和事件響應的基本要求下,允許迭代優化。
其次,合理劃分責任,避免責權利不統一。
從目前的落地模式考慮,對于AI產品及服務的責任劃分,可以按照“技術提供方”“服務提供方”“用戶”等在技術研發、部署、使用等不同環節的作用配置責任。
第三,優先使用既有政策工具、呼吁兼容。
人工智能治理的內容涉及數據、算法和應用三個層面,包括數據安全、隱私保護、算法安全、內容治理等具體方面。針對上述內容,我國現行法律政策體系基本能夠實現比較有效的覆蓋,例如,《數據安全法》《個人信息保護法》《互聯網信息服務管理辦法》等。因此,開展人工智能治理的制度設計應關注政策體系的協調性和一致性,優先考慮利用已有的政策工具實現監管目標,對于新增要求應充分論證其必要性。
第四,要充分發揮多方治理協同,行成跨技術、跨領域、跨行業、跨區域、跨文化的通用彈性治理能力。
目前,人工智能領域正處于高速創新的發展階段,在監管制度設計方面宜為適應產業實際的快速變化,保證一定的彈性空間。同時,在政策實施方面,可重點考慮與企業內部治理體系和行業第三方機構在要求闡釋、評估測試等方面加強溝通協同,保障對人工智能安全風險的治理效率和效力。

3月20日,天津市人工智能計算中心中控室,技術人員在監控設備運行情況( 孫凡越/攝)