摘 ? ?要:自動駕駛汽車算法需要大量算法數據作為運行基礎,而當前算法數據使用的紕漏在于類型劃分不清、保全措施存在不足,以及合規體系出現缺位。在參考《數據安全法》明確算法數據的定義后,需要根據算法場域的差異將其劃分為學習算法數據、運行算法數據和衍生算法數據,并結合算法場域的技術特征消除算法偏見。保全算法數據需要預先設置算法數據的記錄、留存和公開模式以避免算法黑箱,并在制定行程數據保護計劃的同時貫徹行程數據算法透明原則。基于《數據安全法》構建算法數據的合規體系,需要將公民個人信息法益為合規基礎,基于法秩序統一原理協調不同法律規范,調整刑事政策來指引合規體系走向,同時參考刑法規范制定具體的合規計劃。
關鍵詞:自動駕駛;數據安全法;算法數據;算法偏見;刑事合規
中圖分類號:D 912 ? ? ? 文獻標志碼:A ? ? 文章編號:2096?9783(2022)03?0085?08
引 ?言
自動駕駛汽車的技術核心是算法,算法通過計算公共交通中事故的規模和概率,輸出精準的車輛控制措施,將數字控制下的自動駕駛汽車合理地安置于公共交通秩序中,并實現本身的迭代升級,優化自動駕駛算法的運行流程[1]。自動駕駛算法本質上是以數字代碼來表達意見,以大規模、高質量的算法數據為算法提供決策參考的基礎。比如當下自動駕駛廣泛使用的羅爾斯算法模型,其計算原理是將事故主體(使用者、行人等)與可選操作(轉彎、直行等)之間的效用函數構成一個笛卡爾積,先從笛卡爾積的映射數據集中權衡出事故主體存活概率的最低收益集,再循環窮舉篩選出將最低收益最大化的操作[2]。有鑒于此,在《中華人民共和國數據安全法》(以下簡稱《數據安全法》)頒布后,對算法數據的保護力度進一步增強,應該基于《數據安全法》對算法數據進行分類,并配合其他法律規范完善算法數據的保全措施,構建算法數據合規體系,以期實現對算法數據的全方位保護。
一、問題緣起:自動駕駛算法數據使用存在紕漏
當下人類社會正在由傳統物理社會牛頓的“大定律,小數據”技術范式轉向人工智能算法時代默頓的“大數據,小定律”技術范式,算法的運行規則是由“小數據”產生“大數據”,再由“大數據”加強機器算法學習[3]。自動駕駛汽車的安全行駛需要算法數據和算法進行有機結合,如果使用的算法數據存在紕漏,則會影響自動駕駛汽車的正常行駛。
(一)自動駕駛算法數據的類型劃分不清
自動駕駛算法的正常運行需要算法數據的支持,而伴隨算法數據應用范圍的擴張,算法數據的類型也日趨復雜,因此需要根據算法場域的差異進行類型化區分,否則算法數據會因為自身的交錯混亂導致流通“梗阻”并缺乏持續性的數據供給,影響算法決策的科學性[4]。當前劃分算法數據存在以下問題:第一,當前劃分算法場域缺乏準確合理的劃分標準,沒有準確理解算法場域的技術特征,無法為后續算法數據的類型劃分提供依據。第二,在劃分算法場域后,如何結合場域特征來區分算法數據存在爭議,算法數據背后蘊藏著算法的價值選擇[5],而區分算法數據則應該基于算法數據在不同場域的技術特征進行實質分類。第三,在劃分算法數據類型后,需要對不同類型的算法數據有針對性地消除其算法偏見,如何合理消除不同場域下算法數據中隱藏的算法偏見,關系到算法數據選取的準確性和可用性。總之,對于算法數據的類型化區分,需要解決算法場域、算法數據分類,以及算法偏見消除這一系列問題,為保障算法數據的運行奠定規范基礎。
(二)自動駕駛算法數據的保全措施不足
當前自動駕駛交通肇事頻發的原因之一在于對算法數據的保全措施存在不足,導致算法數據面臨各種侵害的威脅,主要包括兩個方面:第一,算法黑箱吞噬運行數據導致數據保全出現紕漏。算法黑箱中的算法不公布收集與使用數據的范圍,甚至會隱藏乃至消除其非法利用數據的痕跡。在河南張女士特斯拉維權案中,張女士質疑特斯拉篡改剎車失靈時的記錄數據,特斯拉事后提供的算法數據中缺少了電機扭矩、剎車踏板位移、iboost(發動機助力)記錄等諸多數據,導致無法判斷交通事故時車輛的剎車狀態[6],這意味著特斯拉可能借助算法黑箱隱藏了關鍵的行程數據來規避交通肇事的事后追責。有鑒于此,如何避免自動駕駛的算法黑箱吞噬數據并保全完整的車輛運行數據,與算法數據的公信力直接相關。第二,算法設計缺陷容易導致公民個人行程數據泄露,對個人行程數據的保全不夠周延。《數據安全法》第27條規定了數據安全保護義務,第32條規定了數據收集方式,自動駕駛算法的運行需要依據規范整合不同類型的算法數據,而在整合數據的過程中,算法會將數據通過多種頻道向外傳遞并交互回饋,在此過程中有個人行程數據泄露的風險。總之,鑒于算法數據在算法運行中扮演著重要角色,對算法數據的獲取和使用應該強化保全措施,保全的核心內涵是為了算法數據能夠按照其既定目標正常運轉,不僅內容要完整,更要功能完備,在提升算法數據使用效率的同時保護其周延。
(三)自動駕駛算法數據的合規體系缺位
當前,自動駕駛算法運行過程中算法數據合規體系的缺位,導致自動駕駛車企容易陷入算法數據糾紛之中,扼殺了自動駕駛車企技術開發的積極性[7]。算法數據合規體系的構建需要依據自動駕駛發展的實際狀況與利益需求進行構建,并在合規體系中強化刑法的兜底性保障作用。第一,算法數據合規體系的構建缺乏明確的法益保護訴求,關于保護法益有私法益和公法益之爭,導致刑事合規體系的核心利益搖擺。第二,當前關于算法數據的法規規范復雜,因此合規體系中需要對不同法律規范進行協調,避免合規體系的規范基礎產生內容沖突影響合規效用的發揮。第三,算法數據合規體系中發揮刑法的兜底性作用需要正確制定并理解刑事政策,刑事政策對于合規體系具有方向性的指引作用。第四,算法數據合規體系需要制定科學合理的合規計劃,實現對算法數據的預防性保護,合規計劃是合規體系正常運行的基礎,缺乏科學合理的合規計劃會導致合規體系面臨空置化之虞。總之,針對當前算法數據合規體系的缺位,應該構建行之有效的合規體系來填補空缺,在監督車企強化對算法數據管理的同時,提供預防機能和出罪路徑,實現對算法數據的全面監管。
二、不同場域下自動駕駛算法數據的類型化區分
算法數據本質上是信息表達的一種方式,《數據安全法》第3條規定,“本法所稱數據,是指任何以電子或者其他方式對信息的記錄”,而自動駕駛算法數據的定義則應該基于算法的整體環境展開,具有數字性、場域性、學習性、偏見性等固有特征。有鑒于此,算法數據作為“算法場域下的數據”,其定義是“適用于算法場域,以電子或者其他方式對信息的記錄”,算法數據的外延與算法場域緊密關聯,只要置于算法場域就屬于算法數據,其區分依據是算法場域的差異,并在區分后消除算法偏見,科學有效地發揮出算法數據的內在價值[8]。
(一)場域化視角下算法數據的類型劃分
自動駕駛算法的應用場景日趨復雜,意味著算法數據需要逐漸適應不同的算法場域,并根據《數據安全法》第21條的規定,由“國家建立數據分類分級保護制度”,實現對算法數據的“規訓”[9],而區分算法場域是劃分算法數據類型的基礎。自動駕駛算法場域主要是學習場域、行駛場域和靜態場域,劃分依據是自動駕駛汽車的不同行駛狀態:(1)學習場域對應自動駕駛汽車的學習狀態,主要對應自動駕駛汽車在出廠前的調適過程,由車企調整算法數據,包括速度測試數據、傳感器反應數據等,幫助自動駕駛算法學習如何處理公共交通狀況。(2)行駛場域對應自動駕駛汽車的機動狀態,主要是指自動駕駛汽車在行駛過程中對算法數據的收集和使用,需要處理行駛過程中的動態化數據。(3)靜態場域對應自動駕駛汽車的常態靜止狀態,主要是指自動駕駛汽車在停止運行時,收集個人行程數據和公共交通規范數據并進行衍生加工處理。個人行程數據包括駕駛習慣、便捷設置等數據,公共交通規范數據是指一定地域內公共交通規定的數字化記錄,對公共交通規范進行數據化轉型有助于自動駕駛汽車“理解”交通秩序,從而更好地融入其中。
與區分后的算法場域相對應,自動駕駛算法數據的區分也受到算法場域特征的影響,不同場域下算法數據受其影響后的內涵亦不相同,體現了算法數據的場域性、數字性以及學習性特征,主要包括學習算法數據、運行算法數據和衍生算法數據。(1)學習算法數據,主要集中在自動駕駛算法的預先學習階段,包括模擬各種公共交通狀況和模擬駕駛者心態的數據,在機器學習中幫助算法通過處理數據進行“自我成長”以應對復雜的公共交通狀況,不斷強化操作流程。(2)運行算法數據,主要是指自動駕駛汽車在行駛場域中實際運行所收集、處理的算法數據,主要分為兩大來源:一是收集路況信息后進行反饋處理的算法數據,通過傳感器元件對行駛時周圍的交通狀態進行數字化展示;二是收集駕駛者的狀況并進行數字化處理后進行反饋的算法數據,將駕駛者的判斷力、反應力乃至生命健康狀況進行數字化演示。(3)衍生算法數據,主要是算法數據在靜止狀態下經過算法深度再加工之后挖掘出更多價值的算法數據,增加了對算法數據的實質管理和利用。衍生算法數據能夠對自動駕駛算法進行“反哺”,經過算法加工處理后,不僅發掘出衍生算法數據的潛在價值,而且可以由衍生算法數據修正原始算法,再形成新的衍生算法數據進行不斷優化,最終形成最優化的算法[10]。總之,學習算法數據、運行算法數據和衍生算法數據貫穿了自動駕駛算法運行的全流程,對應不同類型的算法場域,從機器學習到投入使用,再到不斷優化的過程中,自動駕駛算法數據都發揮了重要作用,并且在保證數據可靠性的前提下積極擴充、擴張算法數據的應用規模。
(二)算法數據類型化后的算法偏見消除
基于算法數據的類型化區分,算法數據受算法場域影響產生的算法偏見也應該予以消除,防止算法偏見在算法數據的處理過程中被不斷強化,最終陷入“自我的歧視性反饋循環”。《數據安全法》第8條規定數據處理要“尊重社會公德和倫理,遵守商業道德和職業道德”,這里對社會公德、倫理、商業道德、職業道德的遵守,都是為了避免算法數據存在歧視性偏見,要求算法數據在處理之后能夠客觀公正地反映社會生活要素。有鑒于此,消除算法偏見、跨越數字鴻溝是自動駕駛算法數據真正投入使用前的必經之路,而不同類型算法數據的算法偏見也應該根據算法場域的技術特征進行針對性消除。
第一,學習算法數據的算法偏見主要存在于處理駕駛風險的虛擬學習場域,算法的學習效果高度依賴于算法數據的數量和質量,學習算法偏見是因為傾向性的算法數據導致算法在學習處理模式時無法公正地做出決策,影響算法后續的正常運行。為了消除學習算法偏見,應該響應《數據安全法》第24條的倡導來建立數據安全審查制度,通過設定機器學習算法訓練數據的最小數量規模和合理采集方式,確保算法學習所用算法數據的質量,限制使用歧視性和違法性算法數據,通過預先的嚴格審查來消弭學習算法偏見[11]。消除學習算法偏見,能夠保證算法在后續實際運行過程中不會對算法數據的選擇產生偏見,防止學習算法受數據處理慣性誤導產生錯誤決策。
第二,行駛場域中運行算法數據的算法偏見,主要是行駛狀態中收集處理算法數據所帶來的錯誤引導,既包括實行數據收集不全或者數據固有缺陷導致的錯誤引導,也有算法和運行算法數據的配合不當產生錯誤輸出。針對運行算法偏見一般采用自律性規制和他律性規制“雙管齊下”的消除模式,自律式規制要求算法自身優化對運行算法數據的校正,由優化后的算法來內部篩選算法數據,他律式規制要求參考用戶對算法偏見排除意見,駕駛者在行駛過程中對可能出現的算法偏見進行匯報并且手動制止,防止算法處理失誤[12]。質言之,自律式規制還是他律式規制都需要遵循《數據安全法》的規范指引,鑒于運行算法偏見具有不可預測性,所以應該履行算法數據安全保護義務,對算法數據處理加強風險監測。
第三,靜態場域中衍生算法數據的算法偏見,主要是因為對基礎算法數據的錯誤加工或者過度加工,導致加工后的衍生算法數據存在錯誤導向,這種錯誤導向來源于被加工的基礎算法數據,卻相較而言影響更大且難以根除。對于衍生算法偏見應該預先參考《數據安全法》等法律規范,妥善地規定算法數據收集范圍與衍生算法數據加工方式。規范算法數據的收集范圍,要求限制基礎算法數據的收集范圍,排除自帶偏見的基礎算法數據,從數據根源上消除衍生的算法偏見影響。規范衍生算法數據的處理方式,要求對收集后的基礎算法數據進行標準化處理,避免過度處理基礎算法數據加深偏見性影響。總之,將法律規范應用于算法數據處理過程中,有助于調節算法處理邏輯,得出更加準確的衍生算法數據,避免過度解讀導致原有的算法偏見被擴大。
三、《數據安全法》下完善算法數據的保全措施
《數據安全法》為保全算法數據提供了宏觀層面的指引,其中第4章規定數據安全保護義務,主要包括預防階段的風險監測、風險評估,使用階段的數據收集、數據審核,事后階段的數據安全管理、數據交易處理,從而形成全流程算法數據保全體系,體現法律規范對算法數據保全的積極介入[13]。在自動駕駛算法運行過程中,算法數據保全上的紕漏會導致算法數據被吞噬或泄露,包括運行算法數據和公民個人行程數據,而對應的算法數據保全措施應該以數據安全法為基礎,制定切實可行的保全措施,實現對算法數據的全方位保障。
(一)避免算法黑箱吞噬運行算法數據
當前算法運行過程中依靠技術壁壘形成了不公開、不透明與缺乏監督的“算法黑箱”[14],其通過算法壁壘剝奪了公民理解自動駕駛算法的權力,甚至在算法數據處理過程中肆無忌憚地吞噬運行算法數據[15]。算法黑箱吞噬運行算法數據導致使用者在行駛過程中難以把握算法決策,加劇了人與技術之間的疏離感,而為了保全運行算法數據,需要明確運行算法數據的處理要求。當前我國僅在《數據安全法》第27條概括性規定,“建立健全全流程數據安全管理制度……履行上述數據安全保護義務”,而為了保全運行算法數據,應該預先設置數據處理要求來限制算法黑箱,主要包括運行算法數據的記錄、留存和公開。
1.明確運行算法數據記錄標準
明確運行算法數據的記錄標準是后續開展保護的基礎,貫徹《數據安全法》第17條倡導的“國家推進數據開發利用技術和數據安全標準體系建設”來構建記錄標準,健全全流程數據安全管理制度,在自動駕駛全過程中明確運行算法數據的記錄頻率、記錄模式以及記錄范圍,在科學有效地記錄運行算法數據的同時避免記錄冗余。通過明確的記錄標準能夠從基礎上遏制算法黑箱。算法黑箱吞噬數據的機理在于其對算法數據的不公開、不透明處理,導致一般人難以理解算法數據,而明確的記錄標準將打破算法黑箱人為制造的技術壁壘,算法黑箱將無法吞噬運行算法數據,而是必須提供準確的數據記錄流程并進行標準化解讀。
2.優化運行算法數據留存模式
優化運行算法數據的留存模式是保護措施的核心模式,通過留存的運行算法數據在處理交通肇事追責爭議時提供裁判依據。參考德國的《道路交通法》第63條對自動駕駛汽車數據的規定,“當車輛控制模式從人工向技術系統切換或者技術系統向人工系統切換時,必須記載位置和時間信息。當系統要求駕駛員接管對車輛的控制或者系統出現技術故障時,也應保存相應信息”,并設置平臺向主管機關傳輸保存數據的義務[16]。鑒于數據安全法中規定的數據處理包括儲存,所以需要優化對運行算法數據的留存內容、留存形式,讓算法黑箱無法篡改留存數據,以技術標準限制吞噬、篡改可能性。此外,為了節約算力和成本,不能無限制地留存運行算法數據,而是應該規定運行算法數據的留存和刪除周期,維持合理的數據存量。
3.制定運行算法數據公開制度
制定運行算法數據公開制度有助于保護體系的整體改進,合理的數據處理包括對數據的公開,通過法律規范要求車企將交通肇事時的運行算法數據向官方鑒定機構公開,有助于增強運行算法數據的公信力。在河南張女士特斯拉維權案中,盡管有關部門多次協調,但是車企仍然拒絕提供全部數據,最終僅提供約半小時數據且存在缺失,影響事故追責認定。有鑒于此,制定運行算法數據公開制度并向官方鑒定機構公開肇事車輛的運行算法數據,可以防止車企通過算法黑箱吞噬不利運行算法數據,算法黑箱將被納入官方機構的監管范疇,符合《數據安全法》第6條規定的“主管部門承擔本行業、本領域數據安全監管職責”,實現對算法數據的常態監管。
(二)遏制自動駕駛個人行程數據泄露
公民個人行程數據是算法數據的重要組成部分,和公民個人信息法益緊密相關,《數據安全法》第32條規定收集數據應當采取合法、正當的方式,不得竊取或者以其他非法方式獲取數據。為了保全個人行程數據,自動駕駛算法在需要處理個人行程數據的同時遏制數據泄露,包括制定行程數據保護計劃并貫徹行程數據算法透明原則。
1.制定個人行程數據具體保護計劃
針對自動駕駛過程中個人行程數據的泄露,可以參考《數據安全法》制定符合我國自動駕駛實際發展狀況的行程數據保護計劃,通過行業規劃的方式落實對個人行程數據的保護。在行程數據保護計劃中,需要根據行程數據的保護訴求規定生產者的義務與使用者的權利:(1)規定生產者對個人行程數據的處理義務,分為目的一致義務,即自動駕駛汽車收集個人行程數據的適用目的和個人行程數據收集后最終的生成目的保持一致;數據安全義務,即采取有效措施防止個人行程數據遺失,禁止生產者未經使用者或主管部門允許而披露個人行程數據;最小化義務,即采集個人行程數據以完成行程為目的,只采集能夠完成行程所必須的最少個人行程數據;觀察預警義務,要求生產者在整合個人行程數據時進行安全審查,如若傳輸到中央處理器的個人行程數據存在異樣則要及時預警。(2)規定使用者個人行程數據的權利,分為數據知情權,即使用者有權知曉生產者如何收集、使用、共享乃至銷毀個人行程數據;選擇決定權,即使用者對于自身被收集的個人行程數據,可以在保障道路交通安全的前提下自主決定收集使用方式;訪問修改權,即使用者在使用自動駕駛汽車時,可以隨時訪問檢查自己的個人行程數據,并且在未出現交通肇事時,可以依據個人意志修改數據;銷毀刪除權,即使用者在未出現交通肇事時,可以在規定的留存期間后按照自主意志銷毀刪除個人行程數據,確保未經自己允許任何人無法取得自己的個人行程數據。
2.貫徹個人行程數據算法透明原則
從根源上遏制個人行程數據的泄露需要貫徹算法透明原則,公開自動駕駛的算法模型,基于可問責性和知情權兩個維度進行公開透明的算法解釋,預防個人行程數據泄露[17]。算法透明原則要求算法解釋為何選擇和如何利用個人行程數據,在投入使用前公開其使用模式和運行機理[18],幫助公眾理解自己的個人行程數據如何被采集與處理,比如歐盟《通用數據保護條例》第13—15條就要求數據控制者向數據主體提供自動化決策的邏輯并解釋其影響。簡言之,在貫徹算法透明原則之后,使用者可以通過較為可信的方式獲得算法對個人行程數據的處理功能、運行邏輯等關鍵信息,有助于提升公眾對自動駕駛算法的信任。
具體而言,針對個人行程數據貫徹算法透明原則,應該從自動駕駛算法的運行模式入手逐步完善。第一,在人機交互場域中,自動駕駛算法在收集公民個人行程數據時必須給出清晰準確的解釋,確保其收集的個人行程數據不被用于其他非駕駛用途,保全個人行程數據的使用范圍。第二,在自主學習場域中,需強調自主學習算法收集處理個人行程數據的合理理由和范圍邊界,如若是為了提升自動駕駛效果而收集使用信息,則應該獲得使用者的許可,否則即便沒有擴散個人行程數據,也存在非法利用的可能性,對這種自帶的算法設計缺陷需要進行算法問責[19]。第三,算法透明原則需要在兼具開放性、反思性和統合性的框架內運行,不能僅局限于當前對個人行程數據的使用,同時也要考慮算法的自我糾偏等未來功能,所以可以適當擴充數據的收集規模。總之,貫徹算法透明原則能夠在開發者和使用者之間維持權力關系的平衡,做到雙方實質平等,確保收集使用個人行程數據具有合理的信賴基礎[20]。
四、基于《數據安全法》構建算法數據的合規體系
為了保障自動駕駛產業的安全發展,需要由政府主導構建針對自動駕駛算法數據的合規體系,實現對算法數據的預防性監管,這本身就是《數據安全法》倡導的“建立健全數據安全治理體系”的應有之義。技術層面的自動駕駛算法是為實現行駛任務而構造的指令集,其以數據為基礎、以算力為支撐,通過準確高效的運算將輸入數據轉化為輸出的智能決策[21]。自動駕駛對算法數據的使用,如若僅進行事后追責則存在保護不及時的弊端,而通過構建算法數據合規體系,卻能夠實現前置性預防,形成對算法數據的全流程保護。
(一)以公民個人信息法益為合規基礎
構建合規體系應該在明確算法數據保護法益的基礎上展開,自動駕駛算法數據的保護法益是公民個人信息法益[22],其作為新型權利兼具私密性和社會性[23],其中私密性體現為算法數據與個人隱私相關,在價值內涵上蘊涵公民個人的利益訴求,而社會性是指自動駕駛汽車在公共道路上行駛,處理算法數據后做出的決策關系到公共交通秩序的正常運轉,進而影響整體社會公共秩序。以公民個人信息法益作為算法數據合規體系的基礎,可以從法益保護的角度勾勒出合規體系的預設保護目標,即對算法數據的保護本質上是保護公民個人信息權,不僅及于私法益,還包括公法益。圍繞公民個人信息法益構建的合規體系,在協調法秩序關系、調整合規體系走向、制定具體合規計劃等諸多層面都需要參考對保護法益的實質解讀,保護法益是合規體系運行的價值基礎,依據保護法益的內涵可以明確合規體系的實際影響范圍,同時也是對抽象法律規范的實質解讀。《中華人民共和國網絡安全法》(以下簡稱《網絡安全法》)第12條規定“國家保護公民、法人和其他組織依法使用網絡的權利”,《數據安全法》第7條規定“國家保護個人、組織與數據有關的權益”,《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)第1條規定“為了保護個人信息權益”,梳理三部不同法規可以發現,雖然具體的規范內容不同,但是其設立初衷都是保護公民個人信息法益,那么可以將抽象的法律規范聚合為保護法益實體,并以此為核心構建算法數據合規體系,確保合規體系本身貫徹了不同法律規范對保護算法數據的共同訴求。總之,自動駕駛的高速發展急需算法數據合規體系作為規范支撐,為了保障新技術的進步,對算法數據的保護不能僅依據事后追責,同時也要借助合規體系對保護法益這一核心利益進行前瞻性預防。
(二)法秩序統一下協調不同法律規范
基于法秩序統一原理保護算法數據需要協調不同法律規范,由算法數據合規體系吸納不同類型法律規范對數據的規定,消弭規范沖突的同時尋求不同規范的共通之處,最大程度地尋求法律規范上的保護共識。第一,法秩序統一原理下協調不同法律規范需要樹立《數據安全法》的主導地位,圍繞《數據安全法》的規定將其他法律規范補充進算法數據合規體系中。算法數據合規體系的核心是對算法數據的預先保護,算法數據作為數據的一部分,以專門的《數據安全法》作為核心規范更符合算法數據保護的整體語境。第二,在《數據安全法》與其他法律規范的銜接過程中,需要優化關于算法數據的細節性規定,將相關細節規定補充進算法數據合規體系,實現對算法數據的多層次保護。比如算法數據合規體系中對處理個人行程數據的規定,除了引用《數據安全法》第32條規定的“任何組織、個人收集數據,應當采取合法、正當的方式”作為整體性規范,還要參考《個人信息保護法》第2章個人信息處理規則的細節內容,堅持《中華人民共和國民法典》第6章規定的個人信息處理規則,同時將《中華人民共和國刑法》(以下簡稱《刑法》)第253條侵犯公民個人信息罪的犯罪構成要件作為合規體系的兜底性條款,在多方協調配合下實現對算法數據的體系性保護。有鑒于此,為了在算法數據合規體系中實現法秩序的內部統一,在法律規范框架的構建上,應該以聯系最為緊密的《數據安全法》為統籌,配合《網絡安全法》《個人信息保護法》等其他法律規范,從刑法、民法、行政法等多方面入手優化合規體系的運行[24]。
(三)調整刑事政策指引合規體系走向
刑事政策是對刑法解釋與刑事立法的宏觀指引,在算法數據合規體系中,刑事合規是算法數據合規體系的強制力保障,而刑事合規遵從刑事政策的指引,針對潛在的算法數據犯罪風險,調整對應的刑事政策可以有效預防算法數據犯罪,實現算法數據合規體系的預防性機能。保護算法數據、強調數據合規的刑事政策需要圍繞算法權力擴張的時代背景進行展開,一方面倡導完善刑事立法強化對單位及自然人的追責,借助合規激勵機制促使車企從內部優化對算法數據的保護;另一方面調整刑法解釋上的出罪路徑,促使司法機關在處理算法數據犯罪時考慮合規體系的預防犯罪功能,為車企預設合理的出罪路徑,借助刑事政策構建非犯罪化模型,避免車企在處理算法數據時承擔過重的責任。當算法深度嵌入社會各個環節之后,強調數據合規的刑事政策體現了國家強力監管算法的意志,展現了預防型積極的刑法觀,借助刑事政策在理念構成和實體法律規劃上強化對算法數據的監管[25]。第一,在理念構成層面,通過外部激勵機制促進企業合規,從刑事政策上體現監管算法數據的刑法強制力,本身也是為車企的發展提供行為規范的邊界,要求自動駕駛算法在處理算法數據的過程中避免數據泄露、違規利用等刑事不法行為。第二,在實體法律規劃層面,在制定對應的刑事政策時充分考慮不同法律規范對算法數據合規的共同價值訴求,對《數據安全法》《網絡安全法》《個人信息保護法》等法律規范進行統籌考量,不能僅偏重對算法數據的強制力保護,也要在刑事政策的松緊度上考慮算法數據的利用需求,做到利用與保護并重。
(四)參考刑法規范制定數據合規計劃
在算法數據合規體系中,《刑法》發揮刑法強制力保障合規體系的正常運行,而制定切實可行的合規計劃則需要正確理解侵犯公民個人信息罪等罪名的犯罪構成,一方面在責任層面為車企構建主觀免責的合規出罪路徑;另一方面將《數據安全法》等法律規范作為侵犯公民個人信息罪中“違反國家有關規定”的參考,構建合規管理義務為使用算法數據提供合理性支撐[26]。第一,合規計劃中規定車企主觀罪過免除制度。自動駕駛車企在編譯自動駕駛算法時,應該發布企業合規政策和員工行為手冊,針對算法數據建立合規標準,明令禁止員工和高管實施違法行為并建立懲戒機制,設立內部合規培訓制度[27]。如果員工編譯算法時內置算法后門違規獲取、使用算法數據,則其個人構成犯罪而企業不承擔刑事責任。第二,合規計劃中參考相關法律規范制定需要履行的法定管理義務。自動駕駛車企對算法數據的法定管理義務主要參考《數據安全法》等法律規范,包括對數據安全進行規范審查,甄別算法數據污染的情況,對算法數據實行預防保護。比如《數據安全法》中第3章數據安全制度、第4章數據安全保護義務的內容,都屬于企業在編譯自動駕駛算法時應該考慮的法定管理規范,車企編譯的算法應該在初始階段就消除可能存在的負面影響,只有這樣的算法才能避免對算法數據產生負面影響,同時也將企業對算法的監管納入合規計劃中。
結 ?語
自動駕駛算法以算法為決策核心,通過神經網絡、深度學習等手段實現智能交通的目的[28],而算法發揮效用則需要依靠大量精確的算法數據作為支撐。《數據安全法》出臺后,保全算法數據需要認清其數據實質,并在不同場域中對算法數據提供針對性的保全措施,確保公民可以從法律和倫理層面真正信任算法數據。為了降低算法數據被侵害的風險,需要強化對算法數據的預防性前置保護,為自動駕駛算法數據構建切實可行的合規體系,規范算法數據的處理流程,真正實現對算法數據的立體化監管,提升自動駕駛的安全性[29]。
參考文獻:
[1] PRIMIERO G. Algorithmic iteration for computational intelligence[J]. Minds & Machines, 2017, 27(3): ?521-543.
[2] 陳禹衡. 算法優化語境下自動駕駛汽車交通肇事的困境紓解[J]. 蘇州大學學報(法學版),2021(3):60-73.
[3] 鄭智航. 人工智能算法的倫理危機與法律規制[J] .法律科學,2021(1):14-26.
[4] 劉文杰. 被遺忘權:傳統元素、新語境與利益衡量[J]. 法學研究,2018(2):24-41.
[5] 金夢. 立法倫理與算法正義——算法主體行為的法律規制[J]. 政法論壇,2021(1):29-40.
[6] 陳白. 用戶數據歸屬權才是特斯拉維權案的命門[N]. 經濟觀察報,2021-04-26(008).
[7] 李本燦. 企業犯罪預防中合規計劃制度的借鑒[J]. 中國法學,2015(5):177-205.
[8] 陳兵,馬賢茹. 數據要素權益配置類型化研究[J]. 科技與法律(中英文),2022(1):1-9.
[9] HASSAN S, FILIPPI P D. The expansion of algorithmic governance: from code is law to law is code[J]. Field Actions Science Report, ?2017(17): 88-90
[10] 胡小偉. 人工智能時代算法風險的法律規制論綱[J]. 湖北大學學報(哲學社會科學版),2021(2):120-131.
[11] 崔聰聰,許智鑫. 機器學習算法的法律規制[J]. 上海交通大學學報(哲學社會科學版),2020(2):35-47.
[12] GURNEY J K. Crashing into the unknown: an examination of crash-optimization algorithms through the two lanes of ethics and law[J]. Albany Law Review, 2016, 79(1): 183-267.
[13] 王俊. 積極刑法觀的反思與批判[J]. 法學,2022(2):68-85.
[14] 吳椒軍,郭婉兒. 人工智能時代算法黑箱的法治化治理[J]. 科技與法律(中英文),2021(1):19-28.
[15] CITRON D K, PASQUALE F A. The scored society: due process for automated predictions[J]. Washington Law Review, 2014, 89(1): 1-34.
[16] 汪慶華. 人工智能的法律規制路徑:一個框架性討論[J]. 現代法學,2019(2):54-63.
[17] 張莉莉,朱子升. 算法歧視的法律規制:動因、路徑和制度完善[J]. 科技與法律(中英文),2021(2):15-21.
[18] EZRACHI A, STUCKE M E. Artificial intelligence & collusion: when computers inhibit competition[J]. University of Illinois Law Review, 2017, 1(5): 1-38.
[19] 沈偉偉. 算法透明原則的迷思——算法規制理論的批判[J]. 環球法律評論,2019(6):20-39.
[20] 張凌寒. 商業自動化決策算法解釋權的功能定位與實現路徑[J]. 蘇州大學學報(哲學社會科學版),2020(2):51-60.
[21] BEER D. Power through the algorithm? participatory web cultures and the technological unconscious[J]. New Media & Society, 2009, 11(6): 985-1002.
[22] 劉艷紅. 侵犯公民個人信息罪法益:個人法益及新型權利之確證——以《個人信息保護法(草案)》為視角之分析[J]. 中國刑事法雜志,2019(5):19-33.
[23] 歐陽本祺. 侵犯公民個人信息罪的法益重構:從私法權利回歸公法權利[J]. 比較法研究,2021(3):55-68.
[24] 陳禹衡. 《個人信息保護法》視角下征信合規體系構建[J]. 上海金融,2022(1):23-30.
[25] 劉艷紅. 積極預防性刑法觀的中國實踐發展——以《刑法修正案(十一)》為視角的分析[J]. 比較法研究,2021(1):62-75.
[26] PRICE W N. Black-Box medicine[J]. Harvard Journal of Law and Technology, 2015, 28(2): ?419-468.
[27] 陳瑞華. 企業合規出罪的三種模式[J]. 比較法研究,2021(3):69-88.
[28] NYHOLM S, SMIDS J. Automated cars meet human drivers: responsible human-robot coordination and the ethics of mixed traffic[J]. Ethics and Information Technology, 2018, 22(4): 1-10.
[29] 張韜略. 自動駕駛汽車道路測試安全制度分析:中日立法的比較[J]. 科技與法律,2019(4):73-82.
Classification, Preservation and Compliance of Autonomous Driving
Algorithm Data under the Data Security Act
Chen Yuheng
(School of Law, Southeast University, Nanjing 211189, China)
Abstract: Autonomous driving algorithms need a large amount of algorithm data as the basis of operation, and the flaws in the use of current algorithm data lie in unclear classification, inadequate preservation measures and absence of compliance system. After defining algorithm data by referring to the Data Security Law, it is necessary to divide algorithm data into learning algorithm data, operating algorithm data and derived algorithm data according to the difference of applicable field, and eliminate algorithm bias by combining with the technical characteristics of applicable field. The preservation of algorithm data requires pre-setting of algorithm data recording, retention and disclosure modes to avoid algorithm black box, and implement the principle of algorithm transparency while formulating the protection plan for algorithm data. To build a compliance system based on the Data Security Law, it is necessary to take the legal interests of citizens' personal information as the basis of compliance, coordinate different legal norms based on the principle of law unification, adjust criminal policies to guide the trend of the compliance system, and formulate specific compliance plans by referring to the norms of criminal law.
Keywords: autonomous driving; data security act; algorithm data; algorithm bias; criminal compliance