摘要:人工智能的蓬勃發展引發諸多刑事風險,由于法律滯后性、技術產業復雜多樣以及算法黑箱等因素影響,當前刑法規制中存在對人工智能體本身保護不足、對濫用人工智能犯罪以及涉弱人工智能過失犯罪規制不足等問題。當前我們仍處于弱人工智能時代,在規制涉弱人工智能犯罪時既要秉持刑法謙抑性理念,同時也應進行適當前瞻性立法以應對人工智能尚不可控的技術迭代可能引發的新型法律風險。對于刑法規制中的不同問題,可從法律與制度兩方面入手,分情況采取完善相關犯罪司法解釋、調整相關犯罪構成要件、設立新罪名、完善相應制度等應對措施。
關鍵詞:弱人工智能;刑事風險;刑法規制
中圖分類號:D9"""""" 文獻標識碼:A""""" doi:10.19311/j.cnki.16723198.2025.14.063
2024年2月15日,美國頂級人工智能公司OpenAI發布了最新款文生視頻大模型Sora,使人工智能在短短3年內實現了從語言到圖像再到視頻的完整覆蓋。人工智能在以人類無法想象的速度進行著技術迭代,給人們的生產生活帶來革命性變化。然而科學技術也具有兩面性,人工智能的普遍應用帶給人們便捷的同時也引發諸多社會風險與法律風險,并對現有的法律體系造成沖擊。人工智能的發展加重了傳統犯罪的危害性,并催生了新的犯罪形式。習近平總書記對人工智能相關風險問題高度重視,提出“要加強人工智能發展的潛在風險研判和防范,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德”[1]。對人工智能的刑法規制研究具有重要指引意義。目前在針對人工智能犯罪的刑法規制實踐中,我國已開展了一系列既具針對性又富前瞻性的探索,例如對于人工智能引發的刑事責任分配問題,不僅考慮了人工智能使用者的主體責任,還著重考慮了服務提供者的責任歸屬。
1 涉弱人工智能刑法規制中存在的問題
1.1 人工智能體作為犯罪對象保護不周延
根據現行刑法的規定,人工智能體作為犯罪對象而實施的犯罪主要由侵犯知識產權罪或計算機犯罪來規制,也有些犯罪情形構成二者的想象競合。目前,人工智能技術已經是國家戰略層面重點支持的新興科學技術之一,無論是對于國家還是企業而言,都是能夠帶來實質性效益、具有實用價值且具有保密性的技術。因此,將非法侵入人工智能系統獲取其中存儲的他人知識產權或竊取人工智能技術信息的行為用侵犯知識產權罪規制自不待言。
然而,計算機犯罪中的相關規定仍存在對人工智能體保護不周延問題。主要體現在保護范圍過窄與定罪標準過高兩方面。一方面,相關法律保護范圍較窄。例如,在現行刑法關于非法獲取計算機信息系統數據罪的界定中,“數據”一詞主要聚焦于那些對信息系統功能維護至關重要、以訪問控制為關鍵考量的數據,卻忽視了數據本身所具有的獨立價值及相應保護需求[2]。人工智能時代的核心挑戰轉變為海量數據的處理與決策制定。人工智能依托于物聯網、大數據、云計算等尖端技術,憑借其強大的智能計算能力來處理數據并做出精確判斷[3]。隨著人工智能系統日益深入地融入社會各個角落,對其內部數據的獲取或篡改將會對其運行產生重要影響。因此,由人工智能負責收集、存儲、傳輸及處理的各類電子數據,應當成為刑法體系中獨立保護的對象。
同時,由于當前相關法律設定的定罪標準較高,對人工智能的有效預防性保護面臨挑戰。考慮到我國采用的是“定性結合定量”的定罪模式,眾多計算機犯罪在判定過程中均以“情節嚴重”作為關鍵定罪條件。然而,人工智能實體是依據預設程序和智能系統收集的數據進行決策的,智能系統和數據重要性不言而喻[4]。以無人駕駛汽車為例,智能控制系統事實上已掌控了駕駛主導權。駕駛智能系統能夠依據收集到的數據進行自我學習和決策,因此系統和數據的完整性與安全性必須得到嚴格保障。在遭遇系統或數據的侵入及損害情境下,人工智能可能會發生故障,并因此引發嚴重的危害結果,直接威脅到人身和財產安全。因此,智能系統及其數據作為新型重大法律,應當受到更為前置和嚴格的法律保護,降低入罪門檻以提前預防潛在風險。然而,當前刑法規范以“后果嚴重”作為入罪標準,但由于技術層面難以明確區分是由系統自我調整還是外部干擾直接導致的“嚴重后果”[5],導致部分侵入或破壞人工智能系統及其數據的行為難以得到刑法有效規制。
1.2 濫用人工智能技術犯罪行為規制不足
現行刑法對濫用人工智能實施的犯罪規制中存在的不足主要表現為兩方面。一方面,傳統罪名規制范圍較窄,難以應對濫用人工智能體的復雜情形。盡管《刑法修正案(九)》已增設如非法利用信息網絡罪等與網絡相關罪名,但現有司法解釋對“信息網絡”的定義相對狹窄,僅局限于計算機及其他電子裝置作為終端的場合。然而,人工智能并不完全符合司法解釋中關于電子裝置終端的界定,其運作也并不全然依賴于網絡鏈接。例如,自動駕駛汽車在沒有互聯網接入的情況下也能執行自動駕駛功能[6]。此外,針對人工智能體的活動,非法利用信息網絡罪所界定的行為范疇難以做到全面覆蓋。具體而言,從技術操作視角來看,構建旨在從事違法犯罪活動的網站、通信群組等行為,并不直接關聯到人工智能實體的參與。又如,幫助信息網絡犯罪活動罪是對為他人提供技術支持、廣告推廣等幫助行為進行規制,由于人工智能體與這些“技術支持”和“廣告推廣”等幫助行為在本質上存在差異,也難以將幫助他人利用人工智能體實施犯罪的行為納入規制范疇。
另一方面,現行刑法缺乏普適性罪名應對新型犯罪。人工智能技術的日新月異會出現越來越多傳統犯罪無法規制的情形,但刑事立法必須具備相對穩定性。社會的發展具有無限性,而立法者的智慧和預見能力卻有限。在針對涉人工智能的新型犯罪設定罪名時,立法者只能基于一般犯罪的考量來制定法律條文。若在立法中窮盡所有具體情節,則可能使刑法體系變得過于繁瑣復雜[7]。因此亟須設立具有普適性的一般性罪名來規制未來產生的現行刑法無法涵蓋的新情形。
1.3 涉弱人工智能過失犯罪規制不足
由于我們目前仍處于人工智能研究的初級階段,尚不能對人工智能體的運行與迭代發展進行全面把控,因此由于過失引發的人工智能事故頻發。而人工智能使網絡空間與現實社會兩個危害場域連接更加緊密,對安全生產與管理義務要求也隨之提高。但目前刑法尚未對人工智能引發的過失犯罪進行規制。例如在自動駕駛汽車運行中,即使該自動駕駛汽車是合格并滿足相關安全標準的產品,研發者、制造者和使用者在網絡中的任何操作不當都有可能直接引發交通事故,造成人員傷亡與財產損失。因此,人工智能操作不當導致的過失犯罪也可能帶來極大的社會危害。但在多數情況下,研發者、制造者擁有比常人更豐富的專業技能,對人工智能體具備一定的控制權,但目前卻難以將傳統過失罪名應用于人工智能體的研發者及制造者身上,過失引發的人工智能事故尚且無法得到有效規制。
2 弱人工智能刑法規制不足的原因分析
2.1 法律本身存在滯后性
馬克思主義法學的視角下,特定的社會物質條件決定法律的本質,法律作為社會關系的調節器,旨在維護社會秩序與公正。“從一般意義上來講,社會變化的速度往往遠超法律的變化”[8]。人工智能時代法律的滯后性一方面體現在技術發展速度與立法周期的矛盾。人工智能技術的發展日新月異,其應用的范圍和深度都在不斷擴大。然而,法律和司法解釋的出臺通常需要經過一系列討論、審議和通過程序,這些程序需要花費大量時間。這使法律在應對人工智能技術帶來的新型犯罪和問題時,往往具有滯后性。另一方面體現在立法預見性的局限。立法者在制定法律時,往往只能基于當前社會現象和問題進行預測。然而,人工智能技術的發展方向具有極大的不確定性,因此,立法者很難對人工智能領域可能出現的新型犯罪作出全面預測和有效防治。
2.2 技術復雜性增加法律規制難度
涉人工智能犯罪行為往往蘊含高度技術性和隱蔽性,其引發的犯罪風險種類的多樣性、生成機理的復雜性往往給刑法立法與法律適用造成困難。人工智能的分工關系并非僅限于服務提供者和用戶之間,而是涉及一個龐大且復雜的技術鏈和產業鏈,涵蓋了上游、中游和下游的多個環節。以Sora為例,其上游環節聚焦于數據供給,包括數據的采集、標記和預處理,為模型訓練提供基礎。中游環節則專注于模型的開發與定制,涉及算法的研發、深度學習模型的訓練以及根據特定需求進行的二次開發。下游環節則負責應用與分發內容,生產廠商、應用服務商和分發平臺共同參與,將Sora的功能融入各類場景中[9]。這些相互依存的環節既可以由同一主體負責,也可以由不同主體分工合作。但不論何種情形,都有可能深刻地影響人工智能自我學習過程,并最終決定其輸出成果。因此,從因果鏈的視角審視,人工智能可能涉及的犯罪問題既可以是多階段因素累積所致,也可能是某一特定階段單獨引發的后果。然而在多主體共同作用的復雜情形中,每個主體往往僅對其所參與的特定階段有深入的了解。主體之間往往缺乏直接的意思聯絡,且難以預測或控制上一階段或下一階段中其他主體對整體過程的影響[10]。這種相互獨立又相互依賴的關系,給刑法中因果關系的確定和責任的判斷帶來極大困難。
2.3 算法黑箱影響主觀罪過的認定
作為弱人工智能技術的核心,算法構成了弱人工智能的智能基礎[11],這一基礎相對獨立于自然人類個體,這也給涉弱人工智能的監管帶來了挑戰。弱人工智能的數據處理涉及算法的不透明性,又稱算法黑箱,在很大程度上掩蓋了行為人主觀罪過。算法黑箱指的是與過程相關的不可知性,科學家們只能知道輸入黑箱和從黑箱輸出的信息,但并不能知曉輸入和輸出之間具體發生了什么[12]。弱人工智能算法如深度學習的決策基礎在于相關性分析而非直接因果聯系。這些算法依據輸入與輸出間復雜非線性相關性模式進行預測與判斷。它們通過捕捉輸入與輸出之間復雜的非線性關聯來做出判斷。這種高度非線性的相關性使得通過簡單的規則難以直接推斷或量化輸入與輸出之間的聯系。正因如此,“算法黑箱”問題隨之而來。當結果出現錯誤時,當前的技術無法完全解密算法黑箱,使得分析錯誤原因變得困難,從而難以判斷是否存在主觀過錯,更難以區分故意和過失[13]。此外,設計者和生產者常常以技術中立原則為借口,將技術錯誤歸咎于主觀過錯,從而掩蓋了他們實際的主觀過錯,進一步影響對行為人主觀罪過的判斷。
3 弱人工智能犯罪的刑法規制路徑
3.1 運用擴大解釋加強涉弱人工智能犯罪刑法規制
3.1.1 人工智能體保護不周延的刑法規制
人工智能體保護不周延的問題可通過兩種方式加以解決。一方面擴大非法獲取計算機信息系統數據罪的保護對象。建議通過司法解釋明確非法獲取計算機系統數據罪中“數據”的保護范疇包括計算機系統及其數據本身,以及經由人工智能體所采集、保存、傳送及加工處理的各類電子數據信息。另一方面降低破壞計算機信息系統罪的入罪標準,將以下行為按照破壞計算機信息系統罪進行懲處:一是刪除、篡改、增添或干擾人工智能系統功能,影響其正常運行的行為;二是對人工智能系統中存儲、加工或流轉的數據及應用程序,執行刪除、篡改、增添操作,導致系統無法正常運轉的行為;三是蓄意開發并散布針對人工智能的病毒等具有破壞性的程序,妨礙系統正常運行的行為。
3.1.2 濫用人工智能技術犯罪的刑法規制
人工智能技術的加入的確給傳統犯罪帶來更高效便捷的犯罪手段,但在應對濫用人工智能技術犯罪時,我們不能陷入“工具決定論”的誤區,認為只要是人工智能參與的犯罪都會產生更嚴重的危害結果而加重處罰,而應當分不同情形分別采用不同的規制方式。當人工智能的加入并未改變傳統犯罪的行為方式,本質上仍在該罪的構成要件之內,應當適用現行刑法條文規制。對于現行刑法條文中模糊或籠統的規定,可以通過完善傳統罪名司法解釋來對該行為進行全面、準確評價。例如遠程操控攜帶武器和擴音裝置的無人機實施搶劫行為。根據最高人民法院《關于審理搶劫、搶奪刑事案件適用法律若干問題的意見》的規定,搶劫罪的“當場性”體現為行為人實施劫取財物的行為一般應在同一時間、同一地點[14]。從常規理解來看,在搶劫罪的語境中“同一時間”與“同一地點”應被詮釋為犯罪嫌疑人與被害人在同一時間點和同一地理位置上同時存在,這表示搶劫行為會對被害人的人身與財產權利構成緊迫威脅或造成實質損害。搶劫行為人運用一般的傳統犯罪手段很難實現不在場便可造成如此緊迫的危險,但在人工智能的參與下實施的搶劫行為,即使行為人未出現在犯罪現場也不會比傳統搶劫行為的社會危害性有任何減輕。因此仍應適用搶劫罪加以規制。這就需要運用司法解釋明確人工智能時代“當場性”的含義。在人工智能時代,“當場性”的成立不再局限于行為人與被害人在物理上的“同一時間”和“同一地點”同時存在,而是強調行為人的行為(包括其遠程操控、數據交互等延伸行為)與被害人在時間上的同步性和空間上的相關性。
3.1.3 涉弱人工智能過失犯罪的刑法規制
人工智能技術蘊含著較高風險,其研發者與生產者作為核心技術的掌控者,理應承擔較高注意義務。為了避免刑法體系過度復雜化,針對其可能存在的過失責任問題建議擴大重大責任事故罪的適用范圍,將人工智能研發者與生產者的違法行為納入其中。具體而言,若行為人在人工智能的生產或運行過程中,違反了既定的規章制度,如擅自更改編程而未獲授權,或負有監管職責的人員因疏忽大意未能有效履行監管責任,導致發生重大安全事故或其他嚴重后果;或在人工智能產品的制造與運作流程中,行為人出于故意或疏忽,錯誤地植入指令,致使人工智能進行違規作業或采取冒險行為,給個人或社會帶來重大損害及其他嚴重后果,則需依據重大責任事故罪承擔相應刑事責任。
3.2 增設新罪加強涉弱人工智能犯罪刑法規制
3.2.1 增設設計、生產、銷售不符合算法安全標準的人工智能產品罪
本罪可與生產、銷售不符合安全標準的產品罪構成特別法與一般法的關系。生產、銷售不符合安全標準的產品罪的行為特征表現為制造與銷售未達到安全或質量標準的各類產品。具體而言,若行為人制造或銷售未達到安全標準的人工智能產品,則可依據前述罪名定罪處罰。然而,涉及“算法安全犯罪”的人工智能產品具有其獨特性,它既不同于普通意義上的假冒偽劣商品,也區別于常規的人工智能產品,因此,運用生產、銷售不符合安全標準的產品罪來規制此類犯罪可能存在諸多不妥。考慮到人工智能算法安全犯罪本質上是對公共安全法益的侵害,因此應當單獨設立罪名,并將其納入危害公共安全罪的章節里。
3.2.2 增設濫用人工智能罪
人工智能迅猛發展,技術迭代令人目不暇接,然而刑事立法作為社會穩定的基石,需要保持一定的相對穩定性[15]。本罪可作為兜底性條款,對于尚未導致實際危害結果的預備性行為,或是雖已造成一定實際危害但未達到其他犯罪法定追訴標準的情形,以本罪名追究行為人的刑事責任。若行為人利用人工智能實施的犯罪行為還同時觸犯了其他傳統罪名,則依據想象競合進行處理;若存在牽連關系,則按照牽連犯的原則進行處置。增設濫用人工智能罪既能避免刑法條文過于冗雜問題,又能夠應對立法者無法預見的新犯罪形式,在一定程度上彌補法律滯后性的不足。
3.2.3 增設妨害人工智能活動罪
若行為人采取切斷電源、干擾信號等特定手段阻礙人工智能系統正常運行,可能導致他人或社會遭受重大損失而人工智能本身并未受損。在此情形下,由于不涉及財產的直接侵害,行為人無法被定性為財產犯罪,同時也難以適用其他相關罪名進行懲處。因此建議增設妨害人工智能活動罪,在此,“妨害”一詞應作擴大解釋,不僅涵蓋直接“物理破壞”行為,也包含那些看似“無害”但實際上干擾了人工智能正常運作秩序的行為。
3.3 加強算法的規制
3.3.1 完善算法應用前的備案監督制度
其一,應明確算法應用的目的和范圍,確保所有關鍵算法和相關信息都包含在應用管理結構中。截至2024年4月11日,國家互聯網信息辦公室已對外公布了五批次國內深度合成服務算法備案信息,涵蓋阿里巴巴、百度、科大訊飛等企業的大型算法模型,增強了公眾的知情權和技術透明度[16]。
其二,為了增強算法訓練流程的透明度和可解釋性,有必要增設關于人工智能算法備案流程及其標準的法規條款,并在制度框架內明確4個關鍵環節。首要步驟為提交備案申請,即人工智能研發者需向網信辦、科技部等相關監管機構提供算法訓練的詳細信息、資料及訓練流程概述;其次是備案材料的審核階段,監管機構需深入檢查提交的備案材料,重點考量數據的合法性、算法設計的合理性及安全性,同時保留要求申請者提供額外材料或澄清說明的權力;隨后是備案審批與信息公示,監管機構依據審核結果決定是否批準備案,并頒發備案憑證,同時公開備案信息以接受社會監督;最后是備案后的監管評估機制,即對已備案的算法訓練活動實施定期監察與評估,確保其符合規定并維持高標準,同時實施定期復審,以保障其適應性和可靠性。
其三,為保障算法訓練備案制度的有效實施與監管,管理部門應組建專業的監管機構或團隊,負責備案資料的審查、備案流程的監督以及備案成效的評估。同時,加大對算法訓練活動的監管強度,確保其合規性與高質量。此外,還應增進與科研機構、企業及高等院校等的合作與溝通,攜手促進人工智能算法的穩健發展。
3.3.2 健全算法應用后的問責體系
國務院頒布的《新一代人工智能發展規劃》明文規定了建立公開透明的人工智能監管體系的目標,推行設計問責與應用監督并行的雙層監管架構,以確保對人工智能算法設計、產品開發至成果應用的整體流程進行全面監督[17]。該全面監管機制的核心體現在于企業需履行的算法審查義務及行政部門的算法監督權限兩大層面。
首先,網絡服務平臺應自覺承擔起算法審查的責任,包括算法運行狀態的審查以及運行結果的監控。一旦發現輸出結果有誤或存在顯著偏離預期的趨勢,應立即采取行動予以糾正。其次,行政機關需對應用后的算法進行評估與審查。專門機構應增強對算法及其決策結果的隨機抽檢,從技術維度深入審查算法,并對不當決策進行適時調整。算法的審查工作體現為兩方面:一是審視算法的表現形式,即代碼層面,作為算法功能的直接體現,代碼審查在技術層面相對直接,可由具備專業技能的工程師執行;二是探究算法的核心思想,聚焦于算法的設計理念及其預期功能實現。算法的核心思想是算法運作的靈魂,涉及商業秘密等更為復雜的問題,對其評估與審查需謹慎處理,以避免過于生硬嚴苛的審查措施抑制企業的創新積極性。
4 結語
在當前的弱人工智能背景下,人工智能體扮演著人類身體與大腦的延伸角色,由于嚴格受限于預定的設計和編程框架,其行為大多體現為人類的意志。目前我國現行刑法體系能夠有效涵蓋并規制大部分涉人工智能犯罪行為。然而,針對部分法律條文中表述較為模糊的領域,有必要通過制定司法解釋的方式加以澄清,或調整某些犯罪構成要件,以確保傳統罪名規制不足的新犯罪方式也能為法律所涵蓋。面對人工智能時代涌現出的前所未有的新型犯罪形態,我們應秉持刑法謙抑性的同時適當進行前瞻性立法,通過增設新罪名,以維持技術發展進程與刑法條文相對穩定之間的動態協調與平衡狀態。
參考文獻
[1]新華社.習近平在中共中央政治局第九次集體學習時強調加強領導做好規劃明確任務夯實基礎推動我國新一代人工智能健康發展[J].黨建,2018,(11):19.
[2]于志剛,李源粒.大數據時代數據犯罪的制裁思路[J].中國社會科學,2014,(10):101102.
[3]鄭戈.人工智能與法律的未來再思考[J].數字法治,2023(03):6870.
[4]陳結淼,王康輝.論無人駕駛汽車交通肇事的刑法規制[J].安徽大學學報(哲學社會科學版),2019,43(03):116118.
[5]鄭少飛.人工智能技術應用風險法律分配的制度邏輯[D].吉林大學,2023:41.
[6]何逸煦,林泓熠,劉洋,等.強化學習在自動駕駛技術中的應用與挑戰[J].同濟大學學報(自然科學版),2024,52(04):526528.
[7]劉憲權,房慧穎.涉人工智能犯罪的前瞻性刑法思考[J].安徽大學學報(哲學社會科學版),2019,43(01):117.
[8]Hary W.Jones,The Greative Power and Function of Law in Historical Perspective[J]. Vanderbilt Law Review ,1936,17(35).
[9]孫志燕.以技術中立為總體導向平衡人工智能的發展與安全[J].中國發展觀察,2023,(08):4041.
[10]曾粵興,高正旭.論人工智能技術的刑法歸責路徑[J].治理研究,2022,38(03):117.
[11]金東寒.秩序的重構:人工智能與人類社會[M].上海:上海大學出版社,2017:105.
[12]Frank P.Asquale,The Secret Algorithms That Control Money and Information[J].European Data Protection Law Review,2023,2(03):188-189
[13]張琳琳.人工智能司法應用的責任歸結困境與解決路徑[J].當代法學,2023,37(05):100111.
[14]最高人民法院關于審理搶劫刑事案件適用法律若干問題的指導意見[N].人民法院報,20160120(003).
[15]阮林赟.數據犯罪的刑法規制論[D].華東政法大學,2022:130.
[16]劉輝,雷崎山.生成式人工智能的數據風險及其法律規制[J].重慶郵電大學學報(社會科學版),2024,36(04):4051.
[17]國務院.國務院關于印發新一代人工智能發展規劃的通知[J].中華人民共和國國務院公報,2017,(22):721.