今年7月發布的《人形機器人治理導則》,是業界首個以開放簽署方式生效的具身智能治理規則文件,也是向全球人工智能治理領域提供中國方案的良好開端。新技術引發的變革撲面而來,我們要與時俱進,充分利用更多更詳盡的標準、規范和法規,探索有效的規制路徑,從而打造開放、公平的具身智能發展環境。
風險評估是風險規制的關鍵環節。中辦、國辦印發的《關于加強科技倫理治理的意見》提出,“科技活動應客觀評估和審慎對待不確定性和技術應用的風險,力求規避、防范可能引發的風險,防止科技成果誤用、濫用,避免危及社會安全、公共安全、生物安全和生態安全”。在此基礎上,工信部在2023年11月發布《人形機器人創新發展指導意見》,提出“強化整機、關鍵部組件、核心軟件、算法等重點環節安全風險評估,促進安全能力提升”。
在人工智能的發展過程中,應通過科學合理的方法評估風險,然后采取相應的管理措施。風險等級越高,采取的風險管理措施就應當越嚴格。對于人工智能的風險評估結果,可以分為無風險、低風險、中風險、高風險及不可接受風險五個等級。如果經評估后發現某類具身智能將導致不可接受的風險,就應當禁止研發此類技術和設備。
對于具身智能的安全風險評估,至少應涉及算法影響評估和個人信息保護影響評估。算法影響評估指對智能系統的算法進行全面分析,以明確該系統的風險影響水平。通過對算法設計、部署、運行的全流程予以動態評估,要求智能系統在應用于商業以及公共事業場景前就接受獨立的專業分析,促使科技公司實現更高效率的風險管理,從而有利于實施差異化、精準化的風險治理。
我國在一些領域初步規定了算法影響評估,例如《互聯網信息服務算法推薦管理規定》第27條要求“具有輿論屬性或者社會動員能力的算法推薦服務提供者應當按照國家有關規定開展安全評估”,第28條要求“有關部門對算法推薦服務依法開展安全評估和監督檢查工作”。《生成式人工智能服務管理暫行辦法》第17條規定,“提供具有輿論屬性或者社會動員能力的生成式人工智能服務的,應當按照國家有關規定開展安全評估”。具身智能設備通過“強算法”與人類進行深入交互,因此應建立健全其算法影響評估制度。
具身智能設備同人類聯系緊密,必然涉及大量個人信息處理。應完善個人信息保護影響評估,并對個人信息處理活動所造成的影響進行評判。個人信息保護影響評估有利于及早發現相關行為可能存在的風險,從而有針對性地進行研發設計并采取防范措施。
人類智能靠思維,人工智能靠算法,而算法的基礎在于數據。為了提升基于“大數據+高算力+強算法”的具身智能的安全性,以高水平安全保障高質量發展,需要完善與數據相關的認證制度。
作為風險規制和質量保證的一種手段,認證可以提供多方面優勢,如卓越的技術專長、更有效的檢查和監控、更好的回應能力和更高的規制效率。工信部、國家發展改革委和國家認證認可監督管理委員會聯合發布的《關于促進機器人產業健康發展的通知》,要求建立認證采信制度,以國家機器人檢測與評定中心、機器人檢測認證聯盟等為支撐,開展機器人檢測認證。《人形機器人創新發展指導意見》要求“打造權威檢驗檢測機構,完善評測配套工具,滿足企業和用戶的檢測認證需求”。我國有關機器人的認證體系仍在發展和孕育中,需要不斷完善。
具身智能設備需要處理大量個人信息、企業數據、公共數據,有效保障信息安全、數據安全以及相關的國家安全,除了應當完善產品質量、服務、管理體系等傳統認證制度,還需要建立健全適應數字時代的新型認證制度。應根據《數據安全管理認證實施規則》《個人信息保護認證實施規則》等規范性文件,結合具身智能的新特點,不斷完善數據安全和個人信息保護認證制度。
由于認證屬于第三方規制,所以具身智能認證機構應具有高度的獨立性與專業性。在認證程序啟動上,原則上應以自愿申請為主,對于事關重大安全的事項,則應實施強制認證。
為了使認證有據可依,保障認證質量,除了需要不斷完善人工智能立法,還應當分級分類推動具身智能標準的制定。不同于傳統的粗放式監管,分級分類監管是一種精細化監管。分級分類監管屬于典型的風險牽引式監管資源配置模式,主張以風險為尺度實行數據驅動、精準聚焦以及靈活權變的差異化監管資源配置。《人形機器人創新發展指導意見》要求“開展人形機器人標準化路線圖研究,全面梳理產業鏈標準化需求,建立健全人形機器人產業標準體系,分級分類推動標準制定”。
具身智能種類多元,應用場景多樣,其風險類型和大小存在很大的差異。如果“一刀切”地制定統一的標準,表面上看好像實現了平等,但造成了實質的不平等,不利于人工智能企業的發展。同種情況同等對待,不同情況區別對待,應分級分類治理具身智能設備的安全風險。
合理配置責任對于具身智能的發展至關重要。如果過度追求安全而設置過重的責任,就可能抑制人工智能創新,阻礙具身智能的發展。探討具身智能及相關主體的責任,首先要明確具身智能是否可以成為法律主體。
當前對于人工智能的主體地位還存在爭論,否定說占據主導地位,認為人工智能能否獲得法律主體資格,關鍵并不在于法律建構的技術可行性,而在于其是否符合現代法律主體的本性定位,即具備人格尊嚴。人工智能在形式上不具有普遍必然性,在功能上是為了滿足人類的需求,在意志規定根據上無法從本源上決定其自身的發展方向,因此人工智能不能成為法律主體。
基于此,應防止“具身智能陷阱”,避免設備的過度擬人化,從而防止相關主體逃脫應有的主體責任。雖然具身智能設備在外形、思維和行動上很像人,其智能程度較高且具有深度學習能力,但其不具有獨立的自由意志和責任能力,不能成為獨立的法律主體。如果陷入具身智能過度擬人化的陷阱,就會認為其研發者比自動化機器人擔負更少的責任。機器人僅是機器,不能以高度人格化的方式將其與人類進行類比。

為了使研發者更好地做到以人為本,審慎設計相應的代碼程序,并持續優化智能算法,應合理設置相應的主體責任。如果具身智能設計本身沒有缺陷,但由于其具備的深度學習能力而導致安全事故,研發者也應當承擔責任。即使研發者當時沒有過錯,但因為其可以從新技術中獲取巨大收益,可以通過定價等方式分散風險成本,由其承擔相應的賠償責任更為公平。
任何新技術的開發都蘊含一定的風險,將其一概歸于制造商會嚴重妨礙技術的創新與發展。除研發者以外,同具身智能設備相關的生產者、硬件供應商、軟件設計者、銷售者、使用者等多主體,都應當承擔相應的責任。
《“十四五”機器人產業發展規劃》提出,“優化首臺(套)重大技術裝備保險補償機制試點工作”。保險責任制度能有效平衡人工智能應用中各方主體的利益,在為受害人提供及時有效的權利救濟的同時,推進技術革新。
要有效實現具身智能發展和安全并重,在完善法規治理的同時,還需要加強科技倫理治理。只有具備“人工道德”的人工智能系統,才能更好地實現科技向善。具身智能雖然難以完全像人類一樣成為獨立的道德主體,但不妨礙為其設定倫理標準。
國務院發布的《新一代人工智能發展規劃》要求“到2030年建成更加完善的人工智能法律法規、倫理規范和政策體系”。《人形機器人創新發展指導意見》要求“加快推進相關倫理標準規范的研究制訂”。《關于加強科技倫理治理的意見》提出“將科技倫理要求貫穿科學研究、技術開發等科技活動全過程”。
法律無法對下游的科技應用行為進行全面的風險規制,需要通過倫理準則對上游的科技研發過程進行規范。科技倫理不僅可以在人工智能研發之初就提出相應的要求,而且可以靈活地適用于不同場景、不同業態下的人工智能應用,從而有利于促進人工智能產業的創新。
應通過完善的倫理規范約束人工智能研發者,確保其設計出能真正造福人類的安全、可靠、可控的具身智能。為具身智能“加載道德”的目的并非是使其成為一個物種,而是為了控制人工智能技術發展所導致的風險。
應著眼于“算法正義”完善算法倫理規范,關注算法的商業道德導向,以公平、安全、透明、非歧視的倫理價值觀指引算法應用,建構規范化的算法倫理審查制度。應設立人本化的人工智能倫理治理組織機構,完善倫理風險的預警機制,設置人工智能倫理治理的風險預警閾值,嚴格追究引發倫理危機相關主體的倫理責任。
總而言之,倫理規范應成為預防具身智能安全風險的重要準則。應將倫理規范融入具身智能研發和應用的全生命周期,并不斷強調其實質性指引作用。