我國人工智能呈現出多元化發展的領先優勢,不斷為中國的高質量發展提供新動能。2024年,我國人工智能核心產業規模接近6000億元,企業數量超過4500家,正在形成從基礎支撐、核心技術到行業應用的全產業鏈條。
人工智能的迅猛發展正在重塑全球產業格局和社會治理模式,但其帶來的倫理風險、安全挑戰和監管空白等問題日益凸顯。
“人工智能是新一輪科技革命的標志性技術,我國作為全球人工智能技術研發和應用的主要參與者、貢獻者,亟須進行專項立法以平衡創新發展與風險防控。”全國人大代表、浙江宇視科技有限公司研究院院長周迪建議,制定一部專門的人工智能法,將有助于保障國家安全和社會公共利益、維護公民合法權益,對于推動我國人工智能產業高質量發展、搶占全球科技競爭制高點具有重要意義。
周迪在調研中發現,當前我國人工智能領域面臨三大挑戰:
一是我國現有的網絡安全法、數據安全法等法律法規,難以解決算法歧視、人工智能侵權責任認定、自主決策透明度等人工智能快速發展帶來的新情況、新問題;二是現有法律法規難以適應國際競爭與爭奪規則話語權的迫切需要;三是現有法律法規難以適應人工智能產業健康發展的迫切需求。
對此,周迪提出3項建議:
—明確人工智能法的立法定位和基本原則。將人工智能法定位為人工智能領域的基礎性法律,明確其適用范圍、監管原則、發展目標等。
同時,建立法律動態更新機制(如每3年進行評估修訂),穩定市場長期預期,引導資源向高質量創新聚集。
—構建多方協同的人工智能治理體系。明確政府、企業、科研機構、社會公眾等各方主體的責任和義務,構建多方參與、協同共治的人工智能治理體系。
在人工智能法中細化數據分類分級規則,建立公共數據開放共享機制,明確生物特征數據、敏感數據的處理邊界;同時對接國際規則,制定跨境數據流動“白名單”,為AI研發提供合法、高效的數據支撐。
—成立多方協同的人工智能法起草工作領導小組,廣泛征求意見,充分聽取專家學者、企業代表、社會公眾等各方建議,凝聚社會共識。