胡小偉
(華東交通大學 人文社會科學學院, 江西 南昌 330013)
伴隨著互聯網、云計算、大數據與人工智能的深度融合,“萬物互聯、人人在線、事事算法”的人工智能時代悄然而至。學理上對人工智能法律問題的研究如火如荼、方興未艾,但基于研究立場不同,研究分野隨之產生。若立足于“人機共處”(人類機器人)研究視角,則對人類安全、法律主體資格、倫理問題等強人工智能應用風險關注甚多,如人工智能創作物的法律性質、無人駕駛汽車交通事故責任、人工智能民事和刑事責任等(1)相關研究參見易繼明:《人工智能創作物是作品嗎?》,《法律科學》2017年第5期;葉明、張潔:《無人駕駛汽車交通事故損害賠償責任主體認定的挑戰及對策》,《電子政務》2019年第1期;楊立新:《人工類人格:智能機器人的民法地位——兼論智能機器人致人損害的民事責任》,《求是學刊》2018年第4期;葉良芳:《人工智能是適格的刑事責任主體嗎?》,《環球法律評論》2019年第4期。。若立足于“人機交互”(人類人類控制機器人方式)研究視角,則側重于從本源角度對支撐人工智能運行的數據、算法等所引起的風險問題加以研究,如對算法黑箱、算法歧視、數據壟斷、信息繭房、大數據殺熟、算法共謀等問題的探討(2)相關研究參見徐鳳:《人工智能算法黑箱的法律規制——以智能投顧為例展開》,《東方法學》2019年第6期;劉友華:《算法偏見及其規制路徑研究》,《法學雜志》2019年第6期;洪丹娜:《算法歧視的憲法價值調適:基于人的尊嚴》,《政治與法律》2020年第8期;崔海燕:《大數據時代“數據壟斷”行為對我國反壟斷法的挑戰》,《中國價格監管與反壟斷》2020年第1期;丁曉蔚、王雪瑩等:《論“信息繭房”矯治——兼及大數據人工智能2.0和“探索—開發”模式》,《中國地質大學學報》(社會科學版)2018年第1期;時建中:《共同市場支配地位制度拓展適用于算法默示共謀研究》,《中國法學》2020年第2期。。未來人工智能無論是奔向替代人類的方向發展,抑或是朝向模擬、延伸和擴展人類智慧的方向發展,作為當前具有主體性地位的人類在架構“人機融合”理想圖景之前,還應對人工智能的內在運行規則和外在運化結果加以合理預判和控制。
從學術趨勢觀之,有學者認為法學界近兩年對算法相關法律問題的研究,從最初算法應用層面的大數據處理、人工智能以及算法黑箱問題的研究轉向算法風險層面(3)熊鑫:《風險社會背景下算法的構建及司法運用研究》,《四川行政學院學報》2020年第4期。,理論轉向反映了學界對算法風險研究的逐步深入(4)以“算法規制”和“算法風險規制”為主題在中國知網進行檢索,可以發現,2018—2020三年文獻量,“算法規制”主題分別為9篇、44篇、55篇;“算法風險規制”主題分別為0篇、7篇、8篇。而在2018年之前,學者鮮有對算法或算法風險規制的直接討論。。當前,學界對算法風險分類不盡一致,既有用戶畫像、算法黑箱、算法歧視、算法操控之分(5)邵國松、黃琪:《算法傷害和解釋權》,《國際新聞界》2019年第12期。,亦有信息繭房、隱私泄露、算法歧視(6)孫建麗:《算法自動化決策風險的法律規制研究》,《法治研究》2019年第4期。以及“社會風險”、“法律風險”、“政治風險”(7)孫逸嘯、鄭浩然:《算法治理的域外經驗與中國進路》,《信息安全研究》2021年第1期。之分等,不勝枚舉。學界賢達對算法風險的法律規制雖不乏“點上突破”式的研究,但缺乏“線上貫通、面上展開”式的系統性研究。算法風險的法律規制研究總體呈現平面化、散狀化、碎片化態勢,較易陷入“頭痛醫頭、腳痛醫腳”式的規制定式。如一些研究對算法黑箱等技術類風險的研究偏重于從算法透明度、算法監管等角度加強防范(8)譚九生、范曉韻:《算法“黑箱”的成因、風險及其治理》,《湖南科技大學學報》(社會科學版)2020年第6期。;對數據類風險的討論多止于算法偏見或算法黑箱等風險成因的討論(9)趙學剛、馬羽男:《算法偏見的法律矯正研究》,《遼寧大學學報》(哲學社會科學版)2020年第5期。,缺乏將諸如個人信息保護、企業數據保護等納入算法風險規制整體框架之中;一些研究對算法共謀(10)周圍:《算法共謀的反壟斷法規制》,《法學》2020年第1期。、大數據“殺熟”(11)鄒開亮、劉佳明:《大數據“殺熟”的法律規制困境與出路——僅從〈消費者權益保護法〉的角度考量》,《價格理論與實踐》2018年第8期。、智能機器民法和刑法責任(12)參見司曉、曹建峰:《論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點》,《法律科學》2017年第5期;劉憲權:《人工智能時代的刑事風險與刑法應對》,《法商研究》2018年第1期。等決策類風險則分別從反壟斷法、消費者權益保護法、民法、刑法等視角進行了探討,由于算法決策風險場景化規制側重于部門法領域某一具體法律問題的剖析,較易忽略規制前移問題。
縱然學界對算法風險規制保持了一定的關注,但基于人工智能運行機理而進行算法風險的分層分類規制并非理所當然的理論范式。“算法規制需要建立譜系,將零敲碎打的制度安排及學理思考整合為系統性的思考圖式”(13)蘇宇:《算法規制的譜系》,《中國法學》2020年第3期。。人工智能運行流程可破觚斫雕,簡要描述為“隱含層(建立算法模型)→輸入層(將實際數據置入算法模型)→輸出層(得到輸出結果)”,也即存在著算法技術層、算法基礎層、算法結果層三個重要階段(14)類似劃分如有學者便將人工智能產業結構劃分為技術層(算法、語言處理、計算機視覺等)、基礎層(數據、芯片、傳感器、生物識別等)、應用層(機器人、智能應用、可穿戴設備等)。參見房超、李正風等:《基于比較分析的人工智能技術創新路徑研究》,《中國工程科學》2020年第4期。,并由此對應于算法技術類、數據類、決策類風險。從橫向維度中人工智能各要素面上展開觀之,算法技術層、算法基礎層、算法結果層皆有其內在運行機理和風險主題,算法技術層要完成算法技術的邏輯實現到代碼實現轉變,可能產生算法黑箱、算法歧視等風險;算法基礎層要完成算法學習的規則學習到自主學習轉變,可能產生數據濫用、數據壟斷等風險;算法結果層要完成算法決策的輔助決策到智能決策轉變,可能產生決策失控等風險。從縱向維度中人工智能各要素線上貫通觀之,誠如“軟件開發各個階段之間的關系不可能是順序的、線性的,而應該是帶有反饋的迭代過程”(15)周玉萍主編:《信息技術基礎》,北京:清華大學出版社,2017年,第242頁。,算法技術層、算法基礎層、算法結果層之間并非孤立體,而是相互依存、相互傳導的整體,如數據喂養算法,算法決策生成新的數據,新的數據又不斷優化算法,任何一個階段所產生的風險皆可引發算法風險連鎖反應,如算法偏見與數據偏見在相互影響、轉化的同時,任何一種偏見亦皆可引起算法決策偏見,并循環往復下去。《新一代人工智能發展規劃》明確提出要“實現對人工智能算法設計、產品開發和成果應用等的全流程監管”。聚焦某一算法風險主題的規制對完善算法風險規制體系無疑是具有重要意義的,但算法作為人工智能的“大腦”,貫穿于人工智能設計開發、后臺運行、場景應用等全過程,須以算法為邏輯線索,立足算法技術層、算法基礎層、算法結果層之間的不同思考維度,把握人機交互與人機共處兩種不同面向,拓展規制研究視野,動態、系統考量算法風險規制問題。從算法技術、算法學習、算法決策三個切面,人機交互與人機共處兩種視角,厘定橫向維度中不同階段的算法風險,條分縷析縱向維度中不同層面算法風險轉化邏輯,并據此拿出周全的因應規制之策,構建集算法技術類風險、數據類風險、決策類風險于一體的全流程規制體系,方可為完善我國人工智能法治體系提供更為有益的啟示。
算法勾連人工智能應用全過程,上承數據,即依賴于現有數據結構進行算法建模、設計;中連程序,即以程序設計語言編碼算法;下接應用,即算法自動化決策。然而,算法并不存在技術中立性(16)孫瑩:《人工智能算法規制的原理與方法》,《西南政法大學學報》2020年第1期。,數據的社會性、算法的價值偏好以及決策的偏見更是強化人工智能的價值非中立性實質(17)樸毅、葉斌等:《從算法分析看人工智能的價值非中立性及其應對》,《科技管理研究》2020年第24期。。人的意志因素可融入算法以及算法技術復雜性,導致算法偏見、算法黑箱不可避免,算法運行不可控因素隨之增加。
算法可被界定為一系列“已被編碼的程序”或者“為了快速實現特定目標對一組數據進行處理的邏輯步驟”(18)Tarleton Gillespie,Pablo J.Boczkowski,eds.,Media Technologies:Essays on Communication,Materiality,and Society,Cambridge,MA:MIT Press,2014,p.167.。作為一種解決特定問題的步驟或方法的邏輯思維,算法是有限序列指令,生發于程序之前,多以自然語言、偽代碼、流程圖等多種方式加以描述。而代碼是由字符、符號或信號碼元以離散形式表示的一系列計算機指令。程序員運用諸如C++、JAVA等計算機語言所編寫的計算機程序被稱為源程序或源代碼。機器學習語境下,“模型的求解是對給定的輸入找到針對數據的一系列處理步驟(即算法),以得到預期的輸出。用計算機求解實際問題還需要把模型映射到存儲器并將算法轉換為程序”(19)沈華:《數據結構、算法和程序之間關系的探討》,《計算機教育》2013年第4期。。算法與代碼關系可描述為:算法欲在計算機世界之中獲得立錐之地,則需將其轉換成計算機能夠理解的源代碼形式,方能使人的抽象思維為計算機所感知。此時便需要既懂自然語言又懂程序設計語言的程序員運用某種程序設計語言將算法編寫成源程序代碼,使算法模型映射至存儲器中,進而為計算機完成某種特定任務提供指令。綜合觀之,算法屬邏輯實現,編程屬于代碼實現,為實現同一種算法可通過BASIC語言、C語言、JAVA語言、HTML語言等不同的程序語言編寫源代碼。算法設計與算法實現分屬人類世界和程序世界兩個不同的范疇。正因如此,“代碼創設了算法的運行方式,其亦具有反向管理算法的權能”(20)崔靖梓:《算法歧視挑戰下平等權保護的危機與應對》,《法律科學》2019年第3期。,算法規制在一定程度上可借助代碼規制實現。
算法運行本質是數據輸入、輸出的過程,但在輸入輸出之間存在無法解釋的“黑洞”,引發“算法黑箱”問題。究其原因,其一,算法技術的復雜性,使算法設計、開發、應用等階段分散于不同的研發主體。同一算法還可通過不同程序設計語言加以編碼,思想與表達之間存在諸多可能。無論是業內人員,還是其他人員,系統了解算法內部運行機理并非易事。其二,多種算法的疊加及多個隱含層的存在加劇了算法的不可解釋性風險。“算法有優先級排序算法、分類算法、關聯度算法和濾波算法等多種類型,而自動化決策往往不是單一的某個算法可以完成的,有時可能需要多種算法的疊加”(21)張淑玲:《破解黑箱:智媒時代的算法權力規制與透明實現機制》,《中國出版》2018年第7期。。人工智能算法行為是一種由算法底層的簡單規則生成的復雜行為,不是邊界清晰的單個行為而是集體行為的演化,具有涌現性(22)劉勁楊:《人工智能算法的復雜性特質及倫理挑戰》,《光明日報》2017年9月4日,第15版。。以深度學習為代表的算法,在每個學習步驟或環節不再存在相對獨立的算法,機器學習的各個組成部分被視為一個整體,不同算法的一體化運用已然成為常態。其三,基于神經深層網絡的深度學習元從數據中學習特征并自動生成結果,在輸入層與輸出層之間存在著復雜的線性變換和大規模的神經元連接也即隱含層,很難準確解釋其內部規則。“算法黑箱”將會導致人工智能決策不可解釋,進而引起算法決策失控。有學者指出:在司法和醫療等一些不可逆的決策領域,由于無法對決策過程做出充分而有效的解釋,一旦通過算法進行最終決策,算法的不可解釋性將會使基于這一技術的醫療診斷或者司法裁決很難令人信服(23)高奇琦:《互聯網與人工智能發展:風險及治理》,《中國社會科學報》2019年3月29日,第5版。。
與此同時,“一系列的數據代碼背后是算法主體的行為目標和價值選擇”(24)金夢:《立法倫理與算法正義——算法主體行為的法律規制》,《政法論壇》2021年第1期。。以數學形式或計算機代碼表達意見的算法并非完全客觀,算法開發和設計者可能將自己持有的偏見嵌入智能算法之中(25)蘇令銀:《透視人工智能背后的“算法歧視”》,《中國社會科學報》2017年10月10日,第5版。。“算法設計的效率導向、作為算法運行基礎的數據之偏差與算法黑箱造成的透明度缺失共同觸發了算法歧視”(26)崔靖梓:《算法歧視挑戰下平等權保護的危機與應對》。。申言之,人類主觀情感可能隱形化身于算法之中加以表達。算法作為一種數學表達,其在設計和開發中可能通過特征選擇、損失函數選擇、超參數調節等方式夾帶著算法開發、設計者的主觀價值判斷。數據在人工智能中的本源性地位,使得經過主觀選擇的數據運用于算法設計之中,極易產生“偏見進,偏見出(BIBO:Bias In,Bias Out)”(27)D.U.Himmelstein,S.Woolhandler,“Bias in,Bias out:A Reply to Sheils,Young,and Rubin”,Health Affairs,Vol.11,No.2,1992.的現象。一旦數據和算法被人類主觀偏見裹挾,算法決策領域中的算法歧視現象將難以避免。谷歌圖像識別算法曾將黑色人種圖片標記為“大猩猩”;微軟公司的人工智能聊天機器人Tay上線首日,便被網絡使用者訓練出具有反猶太人、性別歧視、種族歧視等不良價值取向,不到24小時便被迫下線。數據偏見和算法偏見引發的疊加效應,較易引發公平正義、社會穩定問題。如以帶有偏見的算法來決定貸款是否獲批、保險費率、具體量刑幅度、人員錄用等,將會加劇社會不平等,引起社會失調,增加社會不穩定因素。
從算法設計到算法實現,完成了由自然語言向程序語言的轉變、抽象思想向具體表達的轉變。在技術層面對算法加以規制,須結合這種轉變過程加以綜合考量。
1.算法知識產權保護中的技術風險規制。第一,包含算法在內技術方案的專利權保護可促進算法公開。算法本身作為一種智力活動規則和方法,不具有專利適格性。新修訂的《專利審查指南》明確規定,“對一項包含算法特征或商業規則和方法特征的權利要求是否屬于技術方案進行審查時,需要整體考慮權利要求中記載的全部特征”。當算法與特定應用領域結合,并解決了該領域內的技術問題,所述技術特征功能與算法特征相互支持、相互作用,共同構成了解決某一技術問題的技術手段,并且能夠獲得相應的技術效果時,對包含算法在內的技術方案并不能排除授予專利權的可能性。由于存在專利申請公開程序或專利授權公布程序,故算法的專利權保護對促進算法透明性具有積極意義。但對包含算法特征的技術方案的專利權保護并不能囊括所有算法,以專利權規制算法風險具有較大局限性。第二,軟件著作權保護有利于算法的特定公開和算法行政監管。依據“思想—表達”二分法,軟件著作權主要保護計算機程序及其相關文檔,不延及開發軟件所含思想、操作方法或者數學概念等。算法作為一種抽象思想或智力活動規則,排除在著作權保護范圍之外。但算法的實現依賴于源程序,而源代碼作為算法的表達方式,可通過軟件著作權進行保護。軟件著作權登記需要提交軟件開發情況、軟件用途和技術特點、源程序、計算機文檔等材料,有利于算法公開及備案,便于算法行政監管。即使如此,欲以軟件著作權保護源代碼的方式將算法技術風險控制在可控范圍并不具有普適性。首先,計算機軟件著作權保護權不延及思想,軟件著作權人并不需要向社會公眾公開軟件技術方案或技術構思。其次,程序是算法的真子集,通過軟件著作權保護算法的范圍也僅局限于對算法加以編程后的源程序。再次,基于深層神經網絡算法等發展,顯性編程并非必須,也即“借助機器學習,程序員則無需將指令譯成代碼,只要操作系統即可”(28)《機器學習不需要人工編碼?》,《中國經濟周刊》2016年第23期。,借助代碼保護對算法加以控制的方法將無適用之地。最后,在部分軟件公開程序源代碼的背景下,“盡管開源軟件允許用戶自由的使用、復制、修改和再發布,但這種行為并不是毫無限制的,用戶必須在遵循許可協議的條件下使用開源軟件”(29)肖建華、柴芳墨:《論開源軟件的著作權風險及相應對策》,《河北法學》2017年第6期。,未來一段時間內閉源軟件仍占主流。第三,算法商業秘密保護可在一定程度上促進算法創新。通過商業秘密保護可突破傳統知識產權保護的期限性、客體性等限制,算法開發者和利用者通過算法的商業秘密保護可獲得更高的算法權力,進而促進算法創新。然而,算法的商業秘密保護可能與算法透明原則之間存在沖突。誠如有學者所言,算法的商業秘密保護將面臨算法操縱被視為可以合理付出的代價,算法黑箱亦被視為算法正常情形的尷尬境地(30)陳景輝:《算法的法律性質:言論、商業秘密還是正當程序?》,《比較法研究》2020年第2期。。過于倚重商業秘密保護,除了存在“客體和主體界定困難、保密難度較大、保密成本偏高和價值性證明不易等缺陷外”(31)李宗輝:《論人工智能的商業秘密保護》,《中國發明與專利》2019年第2期。,算法的商業秘密保護還與算法的可解釋性、透明度等存在較大沖突,加劇“算法黑箱”困境。綜合觀之,算法的知識產權保護在一定程度上對促進算法公開、算法監管、算法創新具有積極意義,但受制于專利權保護適格性要求、軟件著作權保護僅延及表達、商業秘密保護的保密性等限制,算法技術風險的知識產權保護并不能成為算法技術風險的主要規制路徑。
2.引入算法解釋權。算法解釋權指“當自動化決策的具體決定對相對人有法律上或者經濟上的顯著影響時,相對人向算法使用人提出異議,要求提供對具體決策解釋,并要求更新數據或更正錯誤的權利”(32)張凌寒:《商業自動化決策的算法解釋權研究》,《法律科學》2018年第3期。。對算法解釋權在我國設立的必要性,學理上不乏從算法可理解性、權利沖突等角度加以質疑。如一些學者認為,旨在提升算法透明度的硬性規定“既不可行,也無必要”(33)沈偉偉:《算法透明原則的迷思——算法規制理論的批判》,《環球法律評論》2019年第6期。,披露計算機源代碼和增設算法解釋權均存有各種弊端。尤其是,算法解釋權對以深度學習為代表的人工智能算法根本不具備技術上實現的可能性;對于非深度學習算法,算法解釋權也有擾亂商業實踐的隱憂,算法解釋權應為我國法律所拒絕(34)林洹民:《個人對抗商業自動決策算法的私權設計》,《清華法學》2020年第4期。。在存在個人信息保護制度、消費者權益保護制度下,算法解釋權無獨立存在之必要(35)賈章范:《論算法解釋權不是一項法律權利——兼評〈個人信息保護法(草案)〉第二十五條》,《電子知識產權》2020年第12期。。然而,技術的非中立性和算法的復雜性,將使依賴人工智能作出的關鍵決策判斷具有較高的風險。除了功能偶發性失常所引發恐慌之外,人工智能很可能會超出人類已有的認知界限,知識的終點無法預測,更是增加了人們對于人工智能功能的恐懼(36)孫波、周雪健:《人工智能“倫理迷途”的回歸與進路——基于荷蘭學派“功能偶發性失常”分析的回答》,《自然辯證法研究》2020年第5期。。人工智能風險會引發人工智能恐懼,而恐懼本身又可使人類對人工智能“投鼠忌器”,最終導致人工智能發展裹足不前。由此可見,縱然算法解釋面臨著技術、法律上的諸多難題,但亦不能因噎廢食,否定算法解釋權存在的意義。算法解釋權可消解人工智能的可解釋性難題,建立更透明、更魯棒(37)“魯棒控制”是針對機器人不確定性的基本控制策略,“魯棒性”是指控制系統在一定(結構、大小)的參數攝動下,維持某些性能的特性。參見謝明江、代穎、施頌椒:《機器人魯棒控制研究進展》,《機器人》2000年第1期。、更信賴的人工智能系統,確保人工智能在更廣領域的應用。
算法解釋權作為一種請求權,“向誰請求、由誰請求、請求內容、算法問責”等問題需根據特定場景、決策類型加以明晰。其一,在“向誰請求、由誰請求”問題上,人工智能牽涉算法設計、產品開發、成果應用等環節,算法設計者、算法使用者(數據控制者)可能分屬于不同的主體,算法解釋的主體應根據特定場景循名責實。在算法決策對個人隱私、信息保護產生影響時,受算法決策影響的相對人可依就近原則徑直向算法使用者請求算法解釋;對影響公共利益、國家安全等公共算法,政府監管部門可要求算法設計者、使用者對算法分別加以決策解釋。其二,就“請求內容”的問題,算法解釋的范圍應根據具體場景加以界定。學理上探討的算法解釋范圍包括決策系統的邏輯、意義、設想后果和一般功能以及具體決策的基本原理、理由和個體情況(38)張恩典:《大數據時代的算法解釋權:背景、邏輯與構造》,《法學論壇》2019年第4期。;或至少應包括數據(原始數據和訓練數據等)、代碼(算法的運算法則)、決策目標、決策結果、合規情況、利益沖突情況(算法的關聯方及潛在的利害關系)、數據使用方法等(39)包康赟:《論算法解釋的基本原則——來自司法公開的啟示》,《時代法學》2020年第6期。。然而,算法決策場景、決策類型的不同,決定了算法解釋范圍并無統一定式。可依據公共算法和商業算法不同類型制定算法解釋標準清單,并就每一項解釋對象的適用條件加以規定,且對基于深度學習的算法亦應規定特殊的解釋清單。同時可參照《專利審查指南》給出實施例的做法,就每種適用情形給出具體解釋實例,避免因算法技術復雜性造成非技術人員的難以理解。其三,算法解釋應以必要、合理為原則,解釋的對象范圍、人員范圍等須控制在一定限度之內。對涉及影響個人信息利益的數據挖掘算法解釋,按照請求的相對性,僅向該相對人解釋即可,而不必將人員范圍擴大至社會公眾;算法解釋不應侵害他人在先權利等。其四,算法解釋要與算法問責做好銜接。對經過解釋的算法,相關部門可依情形分別采取公開源代碼、修正后使用、限制使用、禁止使用等措施。同時將算法解釋的結論應用于具體個案之中。如對算法共謀問題,由于涉嫌壟斷行為,危害公共市場競爭秩序,競爭執法機關既可要求壟斷行為實施者也可要求算法設計者進行算法解釋,并將算法解釋結論作為判定是否構成壟斷行為的考量因素。
3.算法的行政監管。人工智能的治理主要包括政府主導模式、第三方主導模式和企業自我規制模式(40)汪亞菲、張春莉:《人工智能治理主體的責任體系構建》,《學習與探索》2020年第12期。。由于算法技術牽涉公共利益,除了加強企業內部審查以及引入算法解釋權、算法知識產權保護等加以私法規制外,行政機關亦應加強對算法的監管。當前,學界對建立算法專門監管主體、算法審查機制、算法監管的技術標準內容與算法并重的雙軌審查機制、算法的分層分類的多元監管分別進行了探討(41)參見孫建麗:《算法自動化決策風險的法律規制研究》;靖鳴、婁翠:《人工智能技術在新聞傳播中倫理失范的思考》,《出版廣角》2018年第1期;江溯:《自動化決策、刑事司法與算法規制——由盧米斯案引發的思考》,《東方法學》2020年第3期;張凌寒:《風險防范下算法的監管路徑研究》,《交大法學》2018年第4期;倪弋:《網絡時代,應如何規范“算法”》,《人民日報》2018年7月4日,第19版。,但對算法立體式監管體系構建的關鍵共性問題討論尚存不足。第一,針對算法監管主體設置,考慮到算法的技術復雜性和場景應用的多元性,可設立專門的數據和算法監管機構,負責算法的審核、管理、解釋標準制定等事項。第二,針對算法監管工具的選擇,可綜合采用算法認證、算法備案、算法評級、算法有限披露、算法有效性測試、內容審查、監管接口、監管沙箱(42)沙箱是法律監管外的一個“安全空間”,準入的企業可在其中測試創新產品、服務、業務模式和交付機制,監管沙箱可縮短創新想法進入市場的時間。參見柴瑞娟:《監管沙箱的域外經驗及其啟示》,《法學》2017年第8期。目前監管沙箱在金融科技領域探索較多,今后可將監管沙箱模式在算法應用重點領域加以推廣,在促進算法創新同時,亦有利于創新算法行政監管方式,進行算法的動態監管。等手段,既強調對算法技術層面的過程監管,又重視對算法決策的結果監管。如在金融領域,“開發公司可根據宏觀金融形勢,每月或每季度對算法模型進行檢驗,并根據市場的波動規律對算法模型進行檢查驗證,修改完成后需向監管部門進行備案”(43)陳慧華:《監管視角下智能投顧算法的應用風險治理研究》,《保險職業學院學報》2020年第3期。;又如依據算法評級為算法使用設定準入門檻。第三,針對算法監管方式,可分為決策前、決策中、決策后的監管。某種算法采取何種監管方式,須綜合考量算法類型(公共算法、商業算法)、算法分級、應用場景等因素。對影響國家安全和公共利益的公共算法,既需要算法有效性測試、算法評級、算法備案等事前監管,還可能需要通過接入監管接口進行動態監管以及對算法決策內容加以事后審查等。第四,針對算法監管的行政責任,對于過程監管,除了對未履行監管要求承擔相應的不利的后果之外,算法監管機構可視情形對某一算法作出自由使用、限制使用、禁止使用等決定;對于結果監管,依據行為違法性質及所適用的法律來確定相應責任。
算法從邏輯實現到代碼實現,是人類世界與程序世界對話的發端,但受算法技術的復雜性、人類主觀性偏見等影響,引發了算法黑箱和算法歧視等技術類風險。算法貫穿人工智能系統運行的全過程且存在迭代過程,導致算法技術類風險“感染性”極強,可引發算法數據類、決策類風險連鎖反應。通過算法知識產權保護、引入算法解釋權、算法行政監管等措施,可從源頭上減少算法風險的發生。有學者提出,對機器進行雙重意義的編碼,將人類所要實現的法律目的寫入法律,同時寫入控制機器的軟件(44)孫那:《人工智能的法律倫理建構》,《江西社會科學》2019年第2期。,進而實現法律規則的代碼化(45)馬長山:《人工智能的社會風險及其法律規制》,《法律科學》2018年第6期。,也即代碼即是法律,以代碼規制代碼(46)勞倫斯·萊斯格:《代碼2.0:網絡空間中的法律》,李旭、沈偉偉譯,北京:清華大學出版社,2009年,第89頁。。然而,以深層神經網絡技術為代表的深度學習發展,算法實現由顯性編碼向非顯性編碼轉變,寄希望于借助代碼規制實現算法規制具有較大局限性,未來對算法技術類風險的規制應適應這種變化,精耕細作算法解釋權、算法行政監管等規制方式和手段,確保人類世界與程序世界和平對話,封住算法風險“潘多拉之盒”。
早期的人工智能以與人類邏輯推理過程相符的推理方法去驗證命題或謂詞正確與否,或者學習推導出新規則新知識(47)吳飛:《人工智能:從規則學習,到數據驅動,再到能力增強》,《杭州科技》2017年第2期。,屬于有監督學習。隨著機器學習的發展,人工智能的發展從依賴諸多編程規則軟件的規則學習階段向基于機器學習尤其是深層神經網絡自我反復訓練數據的無監督學習系統階段轉變。基于數據庫編碼的計算機自動化逐漸讓位于基于機器學習的算法自動化,數據加持機器學習模型,在范圍不確定的環境中進行規律挖掘或模式識別,并逐步向基于神經網絡的超級自動化邁進(48)唐林垚:《“脫離算法自動化決策權”的虛幻承諾》,《東方法學》2020年第6期。。機器學習語境下,算法基于自身已有模型對新輸入數據的排列和分類,除了依賴于算法框架,更依賴于用于訓練人工智能的大數據(49)吳午東:《人工智能生成內容與傳統版權制度的分歧》,《山東社會科學》2020年第7期。。數據質量與自主學習能力的密切關系,防范數據風險對人工智能發展具有重要意義。
機器學習依賴算法模型,而算法模型的形成離不開海量數據的喂養和訓練。算法的應用對象主要是數據結構,在算法研發中,往往先要進行數據結構的調整和搭建,以保證算法對其有充分的適應性(50)范玉紅:《數據結構、算法和程序之間關系分析》,《中國新通信》2017年第18期。。在給定已知數據前提下,機器學習算法的步驟可分為“確定模型→訓練模型→使用模型”。人類在由傳統物理社會牛頓的“大定律,小數據”技術范式向人工智能算法時代默頓的“大數據,小定律”技術范式轉移過程中(51)王飛躍:《人工智能:第三軸心時代的來臨》,《文化縱橫》2017年第6期,以量子力學為基礎,利用規則由小數據產生大數據,再由大數據練就“小定律”,通過“小定律”精準地掌握知識(52)鄭智航:《人工智能算法的倫理危機與法律規制》,《法律科學》2021年第1期。,這里的“小定律”便可視為基于大數據訓練所生成的算法模型。計算機科學家尼克勞斯·沃思提出“數據結構+算法=程序”。機器學習語境下,對數據、算法、程序(代碼)、算法決策之間的關系可進一步描述為,數據結構→算法模型(輸入實際數據)→代碼形式+數據結構(可執行程序)→(輸出)算法決策。總體來看,人工智能經歷了規則學習、機器學習(深度學習)發展歷程,從依賴編程邏輯的規則學習轉向非顯性編碼的深度學習,由模仿人類理性行為的系統轉向模擬基于數據驅動的深層神經網絡系統,對數據愈發依賴。
“基礎數據的不完善將直接影響算法輸出的科學性”(53)李婕:《算法規制如何實現法治公正》,《檢察日報》2018年7月10日,第3版。。“無論學習算法有多好用,也只是在獲得數據時好用。控制了數據的人也就控制了學習算法”(54)佩德羅·多明戈斯:《終極算法:機器學習和人工智能如何重塑世界》,黃芳萍譯,北京:中信集團出版社,2017年,第58頁。。算法開發離不開數據的喂養,而一旦數據本身出現缺陷或偏見,將可能使“算法決策可以強化已有的社會歧視模式,繼承人類決策的某種偏見”(55)B.Lepri,N.Oliver,et al.,“Fair,Transparent,and Accountable Algorithmic Decision-making Processes”,Philosophy & Technology,Vol.31,No.4,2018.。在數據資源向數據資產的轉變過程中,數據屬性、數據主體、數據形式、數據價值等不斷發生變化,誰擁有數據、誰控制數據等問題并未定于一尊。數據法律保護的闕如導致數據缺陷、數據濫用等常有發生,影響著數據的獲取及流通,為算法在具體領域運用產生諸如歧視、安全、隱私等風險埋下了隱患。有學者指出:算法訓練時采用的數據和實際輸入的數據在數據質量上重合度愈高,愈能得出符合預期目標的結論數據。如果用于訓練算法的數據存在諸如不完整、陳舊、不相關等缺陷,無論算法設計得多么完美,最后的數據輸出也是錯誤的(56)張超:《新聞生產中的算法風險:成因、類型與對策》,《中國出版》2018年第13期。。數據在人工智能中的本源性地位,數據錯誤極易引起結果失真。同時,訓練數據與實際輸入數據之間存在偏差,也會產生內容失實、信息錯誤乃至偏見;若未經許可將他人隱秘信息和個人信息納入輸入范圍,還可能存在侵犯他人隱私權和個人信息權等風險。
算法風險的規制不能拘泥于算法本身的規制。“當對數據進行嚴格保護的時候,其實就在源頭上對人工智能進行了規制”(57)汪慶華:《人工智能的法律規制路徑:一個框架性討論》,《現代法學》2019年第2期。。“算法規制本身就體現著對數據收集、利用層面的規制”(58)F.H.Cate,M.S.Viktor,“Notice and Consent in a World of Big Data”,International Data Privacy Law,Vol.3,No.2,2013.。為防范數據層面的風險對算法所造成的影響,確保數據的流通和共享,需對個人信息保護、企業數據保護等加以合理制度安排。
1.原始數據的適度保護。“垃圾輸入,垃圾輸出(GIGO:Garbage in,Garbage Out)”(59)Y.Kim,J.Huang,et al.,“Garbage in,Garbage Out:Data Collection,Quality Assessment and Reporting Standards for Social Media Data Use in Health Research,Infodemiology and Digital Disease Detection”,Journal of Medical Internet Research,Vol.18,No.2,2016.,數據人格權對原始數據的適度保護,在保護原始數據生成者利益的同時,亦有利于保證高質量數據的持續供給,防止諸如大數據殺熟和信息繭房現象的發生。由于“當代個人信息保護法的諸項原則以經濟活動中的個人信息采集和處理為主要假設場景”(60)劉文杰:《被遺忘權:傳統元素、新語境與利益衡量》,《法學研究》2018年第2期。,若對數據人格利益采取超越技術發展水平的保護,將可能引起數據流通的“梗阻”,使算法缺乏數據的持續供給,影響算法決策的科學性,進而阻礙人工智能產業發展。原始數據主要包括私密信息、個人信息等,如用戶基于某種事實行為而形成的數據。《民法典》頒布之后,基于原始數據的形態不同,對隱私和個人信息的保護加以區分的同時,并對個人信息的保護加以專門規定。但《民法典》并未將個人信息的保護進行正面確權,而是將其視為一種防御性利益予以保護(61)李媛:《民法典為個人信息保護確立方向》,《中國社會科學報》2020年7月22日,第4版。。縱然數據的獲取和利用受到個人信息處理規則的約束,數據獲取須經過原始數據主體的許可或授權,但這種約束須保持在合理的限度。企業數據主要包括原生數據與衍生數據,原生數據主要指匯集個人數據而形成的規模化數據。“原生數據被記錄、存儲后,經過算法加工、計算、聚合而成的系統的、可讀取、有使用價值的數據”(62)楊立新、陳小江:《衍生數據是數據專有權的客體》,《中國社會科學報》2016年7月13日,第5版。稱之衍生數據。司法實踐中形成的“三重授權”原則,明晰了獲取企業數據時“用戶、數據控制者、第三方”之間的授權規則,但對不具有識別性的企業數據的獲取,個人信息處理規則并不能延及于此,否則數據流通將受到極大限制。誠如學者所言,個人數據可以基于不同的目的進行開發和使用,產生不同的增值服務或衍生應用,而這種多目的或多用途的適用之間又會產生更復雜和更高級的應用(63)吳偉光:《大數據技術下個人數據信息私權保護論批判》,《政治與法律》2016年第7期。。所以,考慮到數據收集目的與利用目的之間的偏差,當企業數據不具有可識別性時,企業數據形成階段的用戶授權規則并不能對后續衍生數據的利用加以約束。
2.企業數據的權利保護及行使限制。衍生數據雖然是算法決策的產物,但從動態觀之,其之后亦可成為算法建模時的訓練數據。當前,企業數據保護主要存在立法賦權模式和行為規制兩種模式(64)寧立志、傅顯揚:《論數據的法律規制模式選擇》,《知識產權》2019年第12期。。有學者認為,數據用益權屬于一項新興財產權,根據不同主體對數據形成的貢獻來源和程度的不同,應當設定數據原發者擁有數據所有權與數據處理者擁有數據用益權的二元權利結構,以實現數據財產權益分配的均衡(65)申衛星:《論數據用益物權》,《中國社會科學》2020年第11期。。此外,按照“數據權屬—數據獲取與使用—數據控制”的規則框架,在肯認數據權基礎上,還可依據反不正當競爭法對數據獲取和使用進行調整(66)曹勝亮、張曉萌:《人工智能時代數據競爭的法律規制》,《學習與實踐》2019年第10期。。然而,數據權利保護方式亦廣受質疑,一些學者認為依靠傳統財產權路徑,存在阻礙數據流通以及權利配置中權利客體不清晰、缺乏法律排他性、權利內容和范圍缺乏公示等問題,數據治理合同路徑更契合當前數據經濟的發展(67)金耀:《數據治理法律路徑的反思與轉進》,《法律科學》2020年第2期。。通過賦權模式保護數據隱藏著邏輯漏洞與風險,并可能制約數據、人工智能行業的發展,應構建以合同為中心的中間權模式(68)張素華、李雅男:《數據保護的路徑選擇》,《學術界》2018年第7期。。數據合約保護模式繞過權利保護寄希望于合約對數據交易方的行為加以一定規范,雖具有一定的靈活性,但亦存在合同具有相對性、產權不清晰導致數據交易成本過高、數據投資激勵不足等問題,從而制約著數據的創新和流通。算法建模和機器學習過程中,離不開海量的企業數據,若對企業數據采取絕對性的權利保護方式,將可能給數據流通形成阻礙;若不對企業數據加以保護,將可能挫傷數據創新動力,進而影響數據生成、算法訓練、機器學習。對基于原始數據的加工和處理所形成的企業數據尤其是衍生數據的保護,應平衡好數據原始主體與數據經營者、數據流通與數據創新等之間的關系,并將其作為一種新興權利并納入知識產權體系保護之中,但對其權能內容應加以合理設計和限制,確保數據創新、數據流通、數據共享之間的互動發展。
3.原始數據的刪除、移植、修改。數據的必要刪除、有序流動、合理修改可為算法提供干凈、高質量的數據,進而推動人工智能的發展。其一,被遺忘權和數據攜帶權皆起源于歐盟《一般數據保護條例》。對被遺忘權的本土化,學界進行較為廣泛的討論。有學者認為,從歐盟數據保護體制來看,“被遺忘權”具有遺忘權與刪除權兩個維度(69)張里安、韓旭至:《“被遺忘權”:大數據時代下的新問題》,《河北法學》2017年第3期。,其中,刪除權針對的是缺乏法律基礎的信息,以排除對信息的不法收集和處理;被遺忘權所針對的信息則是在合法的基礎上收集、使用、加工、傳輸的已過時、不相干、有害和不準確的信息(70)滿洪杰:《被遺忘權的解析與構建:作為網絡時代信息價值糾偏機制的研究》,《法制與社會發展》2018年第2期。。還有學者認為,被遺忘權應改為刪除權,且納入個人信息權之中(71)鄭志峰:《網絡社會的被遺忘權研究》,《法商研究》2015年第6期。。被遺忘權的權能主要在于刪除,試圖根據刪除信息的不同劃分為遺忘權與刪除權實無必要。在人這一主體身份“被數據化”背景下,被遺忘權作為一項主動性權利,可打破固有數據記憶,維護人格尊嚴、減少隱私泄露,有效紓解記憶與遺忘的困境,保證數據合理流動。但凡事過猶不及,“被遺忘權并不是任意刪除,也不是對個人信息、人生痕跡的任意涂改或掩過飾非”(72)滿洪杰:《被遺忘權的解析與構建:作為網絡時代信息價值糾偏機制的研究》。。基于無監督機器學習的人工智能系統離不開多元、全面的數據,而刪除決定其關鍵規則的數據可能會降低人工智能的精確性。故在權利設置中,應對被遺忘權的主體和客體等加以嚴格限制。被遺忘權權利主體應在公眾人物和普通人物之間有所區分,不具有人格屬性的法人組織等應排除在權利主體范圍之外;被遺忘權客體應僅限于侵害隱私和個人信息權益、過時的、錯誤的數據等,從而防止被遺忘權的濫用造成數據失真及匱乏,影響人工智能健康發展;被遺忘權內容主要包括刪除權,但不同的刪除義務主體(數據控制者)所承擔刪除義務亦有差異,如對于搜索引擎服務商,刪除主要表現為斷開鏈接,而對既提供平臺亦介入交易的內容服務商,刪除則表現為具體的可識別性信息內容。其二,數據攜帶權“指數據主體有權獲得其提供給控制者的個人數據或者有權將這類數據轉移給另一個控制者”(73)卓力雄:《數據攜帶權:基本概念,問題與中國應對》,《行政法學研究》2019年第6期。。但數據攜帶權一方面在增加用戶體驗、推動數據開放利用和數據分享、防止數據壟斷方面具有積極意義,另一方面可能誘發其他企業在數據獲取時“搭便車”的行為。為促進數字經濟的發展,在確保隱私和個人信息安全基礎上,我國在相關制度構建中應以不對數據轉移設置技術障礙為前提,并依據不同場景為用戶獲取、轉移數據以及跨平臺數據交換提供便利,逐步推進數據攜帶權的建立。其三,《民法典》第1037條規定,“自然人可以依法向信息處理者查閱或者復制其個人信息;發現信息有錯誤的,有權提出異議并請求及時采取更正等必要措施”。未來可對數據修改條件、修改程序作出更加具體明確的規定,在動態上確保數據的準確性,為人工智能的持續發展提供高質量的數據。
理性主義與經驗主義的不同哲學取向對人工智能的研究產生了深遠影響(74)趙澤林:《理性主義與經驗主義:人工智能的哲學分析》,《系統科學學報》2018年第4期。。規則學習到自主學習的演變伴隨著人工智能從理性主義到經驗主義的轉向,數據的角色日益重要,如深度學習依賴于以數據驅動為基礎的隨機梯度下降算法、卷積神經網絡算法等。在某種程度上,“算法自動化決策系統事實上是以決策為用、以數據為體、以機器學習為魂的”(75)肖冬梅:《“后真相”背后的算法權力及其公法規制路徑》,《行政法學研究》2020年第4期。。基于深度學習人工智能系統的自主性、反饋性、迭代性等特征,對數據的依賴日漸加深,然而,諸如個人信息泄露、數據安全、數據缺陷、數據壟斷等問題不斷涌現,掣肘人工智能發展。通過個人信息保護、企業數據權利保護以及對數據風險的防范,處理好數據創新與數據流通之間的關系,便是對人工智能時代法律變革的有力回應,可為人工智能的持續發展提供持續資源保障。
自動化決策可劃分為計算機技術(1980—2000)、算法程序(2000—2020)、深度學習或神經網絡(2020+)三個階段(76)唐林垚:《“脫離算法自動化決策權”的虛幻承諾》。。輔助系統主要指在人工智能發展中,人類處于主導地位,機器僅視作人類支配的工具;智能系統指機器具有獨立的主體地位,并能承擔一定的法律責任的“主體”。算法決策作為算法、程序(代碼)、數據等作用于計算機的產物,交織著人機交互和機器自我學習,使得算法決策形態具有多元性、算法決策機制具有隱蔽性、算法決策主體具有模糊性,從而對算法決策風險的規制形成了挑戰。
算法決策的形態既可表現為數據產品,又可表現為某種推薦或選擇,還可表現為人工智能生成物乃至具有思維能力的智能機器。具體說來,有以下四種呈現方式:(1)數據產品。大數據產品屬于算法生成物,是網絡運營者在收集巨量用戶數據的基礎上,以特定的算法或人工處理、分析、整合后產生的衍生數據產品(77)李永明、戴敏敏:《大數據產品的權利屬性及法律保護研究》,《浙江大學學報》(人文社會科學版)2020年第2期。。數據產品形態印證了數據與算法是相輔相成的關系,數據在喂養算法、促進算法不斷優化的同時,算法也使數據的獲取和分析更加科學和精準,并不斷生成新的數據。(2)算法推薦。推薦系統是幫助用戶解決信息過載問題的有效工具,協同過濾、基于內容推薦、基于圖結構推薦和混合推薦是目前較為常見的推薦方法(78)楊博、趙鵬飛:《推薦算法綜述》,《山西大學學報》(自然科學版)2011年第3期。。算法造成的風險主要是濫用數據挖掘和深度學習技術,不當收集、分析用戶數據,并利用用戶畫像對用戶進行定制化服務,甚至對用戶進行歧視性定價或進行差別化對待(79)魯春雅:《自動化決策算法的法律規制》,《民主與法制時報》2020年11月19日,第6版。,如大數據殺熟和算法共謀等。(3)人工智能生成物。未來將存在“外部制造”的“人化物”(越來越高級的機器人)和“內部改造”的“物化人”(即通過植入芯片乃至基因改造“新人”)(80)何懷宏:《何以為人,人將何為——人工智能的未來挑戰》,《探索與爭鳴》2017年第10期。。“現階段,人工智能生成的內容只是應用某種算法、規則和模板的結果”(81)王遷:《論人工智能生成的內容在著作權法中的定性》,《法律科學》2017年第5期。。弱人工智能時代,計算機軟件智能生成報告與人工智能生成物并非同一概念,前者游離于數據庫、衍生數據、商業秘密等形態之間。而“人工智能的生成成果是人工智能程序在人類參與度極低的情況下基于數據和算法通過自主學習和建模所自動生成的內容”(82)陶乾:《論著作權法對人工智能生成成果的保護——作為鄰接權的數據處理者權之證立》,《法學》2018年第4期。。(4)人工智能主體(機器人)。當前,人類自然世界與機器程序世界的相互影響,“機器正在生物化,而生物正在工程化”(83)凱文·凱利:《失控:全人類的最終命運和結局》,東西文庫譯,北京:新星出版社,2010年,第3頁。。弱人工智能時代,智能機器并不具有主體地位,更多附屬于人類,屬于人類的支配工具。強人工智能時代,人工智能將不再是簡單的以技術工具角色參與人類社會生活,未來將可能產生各種各樣的具有獨立思維意識的機器人,對基于“主客體二分法”以人類為中心而構建的法律體系帶來前所未有的沖擊與挑戰。
在人工智能的不同發展階段,算法應用所引起的決策風險具有不同的表征,當前人們對算法推薦、算法共謀、人工智能責任等決策風險較為關注。
其一,算法推薦問題。伴隨信息技術迅猛發展,信息爆炸式增長、信息過載的時代悄然邁入。有學者指出:越來越多的信息被生產出來,而最終信息總量遠遠超過了個人或系統所能接受、處理或有效利用的范圍(84)徐瑞朝、曾一昕:《國內信息過載研究述評與思考》,《圖書館學研究》2017年第18期。。個性化推薦算法通過收集用戶之前的一些歷史記錄等信息,分析用戶的偏好并向用戶推薦,有效解決了信息過載問題。然而,在個性化推薦算法具體應用中,基于逐利動機、信息的不對稱等影響,諸如“個人信息泄密、大數據殺熟、信息繭房”等現象相伴而生。如搜索引擎的競價排名、電子商務的商品推薦、社交網絡的朋友推薦、資訊APP的新聞推薦等基于推薦算法所產生的大數據殺熟、信息繭房、低俗劣質信息精準推送等問題,對互聯網內容治理、用戶知情權的保障、競爭秩序維護造成嚴重影響。又如,效率導向是算法的主導原則,在算法應用某一領域時可能會缺乏人性關懷。受一味追求效率、實現利益最大化影響,外賣騎手可能會被困在平臺算法精確設計的系統里,被算法所壓榨,同時觸發交通安全等問題。
其二,算法共謀問題。數據在算法加持下,使經營者對產品需求、價格變化、用戶習慣、競爭對手等信息獲取更為便利,為不同經營者之間通過利用算法尋找利益共同點并達成共謀提供可能。算法共謀可分為“信使型、軸輻型、預測型、自主型”等幾種方式,其中,“信使”類算法和“軸輻”類算法只是執行企業共謀限制競爭意圖的工具,屬于以正式協議、意思聯絡或一致意志為基礎的“明示共謀”;“預測”類算法和“自主”類算法屬于不依賴任何協議、意思聯絡的“默示共謀”(85)時建中:《共同市場支配地位制度拓展適用于算法默示共謀研究》。。算法可能構成經營者共謀達成壟斷協議的工具,而受到反壟斷法調整。但在算法缺乏透明度情形下,如何界定人為合謀與機器合謀則需要競爭執法機關在實踐中結合算法類型、主觀意圖、損失大小等加以綜合判斷。
其三,人工智能主體地位問題。在弱人工智能向強人工智能轉變過程中,機器自主學習得到前所未有的提升,人工智能由客體性地位向主體性地位轉變的可能性不再是天方夜譚,附屬關系的人機交互由平等關系的人與人工智能交互替代的圖景可期,強人工智能是否具有主體資格引起人們關注,啟迪人們進行面向未來的法治研究。判斷人工智能是否具有主體地位,關鍵在于算法自動化決策中占據主導作用的是人類抑或機器本身,這也是輔助系統與智能系統的分水嶺。對于無人駕駛事故責任,規制對象由傳統的駕駛人員向算法設計者、智能系統制造者乃至智能系統本身轉變。對于人工智能生成物,可區分為人工智能作為人類創作輔助工具生成的計算機衍生作品和人工智能創作無需人類事先定義規則而作為獨立的創作主體(86)劉影:《人工智能生成物的著作權法保護初探》,《知識產權》2017年第9期。。根據人為因素與機器因素參與程度的不同,人工智能生成物的權利歸屬存在著“虛擬法律人格說”、“人工智能編程設計者為作者說”、“社會公有領域說”、“人工智能使用者說”、“人工智能編程設計者與使用者為共同作者說”(87)朱夢云:《人工智能生成物的著作權歸屬制度設計》,《山東大學學報》(哲學社會科學版)2019年第1期。等不同論斷。
算法應用場景十分廣泛,非某一部法律法規所能囊括,關于算法決策風險討論范圍十分廣泛。“智能革命對當下的法律規則和法律秩序帶來一場前所未有的挑戰,在民事主體法、著作權法、侵權責任法、人格權法、交通法、勞動法等諸多方面與現有法律制度形成沖突”(88)吳漢東:《人工智能時代的制度安排與法律規制》,《法律科學》2017年第5期。。有學者認為,算法可能因為運用算法主體、針對對象、涉及問題等不同而具有不同性質。算法規制應采取場景化的規制路徑(89)丁曉東:《論算法的法律規制》,《中國社會科學》2020年第12期。。算法的應用若侵犯了消費者的公平交易權,有消費者權益保護法規制;若涉及濫用市場支配地位,有反壟斷法規制;若與價格欺詐有關聯,有價格法規制,還有民法、電子商務法、網絡安全法等法律作保障(90)沈亮亮:《算法在市場競爭中的應用與法律難題——從大數據殺熟談起》,《太原學院學報》(社會科學版)2019年第3期。。同理,基于算法推薦的“大數據殺熟”行為,可能涉及價格法、網絡安全法、反壟斷法、電子商務法等多部法律法規的協調規制。弱人工智能時代的算法法律問題主要以人類為法律關系主體,機器并未獲得獨立的法律主體地位。而在向強人工智能時代轉變過程中,諸如人工智能可否成為著作權法上的主體、無人駕駛汽車事故的責任認定等問題對法治轉型和制度變革提出了新要求。有學者認為,“在智能機器人不具有獨立法律地位之前,由算法運營商和算法技術開發商對智能機器人提供的算法服務造成的妨害全盤承擔民事責任;一旦智能機器人具有獨立法律地位,則可認定智能機器人有優于運營商和技術開發方的信息地位,由智能機器人與運營商、技術開發方共同承擔連帶責任”(91)唐林垚:《人工智能時代的算法規制:責任分層與義務合規》,《現代法學》2020年第1期。。我國《電子商務法》便確定了“對網絡平臺的搜索算法明示義務、搜索算法自然結果的提供義務及推薦和定價算法的消費者保護義務”(92)張凌寒:《〈電子商務法〉中的算法責任及其完善》,《北京航空航天大學學報》(社會科學版)2018年第6期。。可見,人工智能領域法律問題維度由單向的“人機交互”向多維的“人機共處”轉變。
當前,人工智能處于輔助系統向智能系統的轉型期,算法自動化決策的法律性質定位較為混沌,混雜著人機交互場景和人機融合愿景的雙重視角討論。對于人工智能算法風險決策的規制,其一,就現有制度框架可以解決的算法決策風險問題,可通過法律解釋等方式,增強現有法律適用張力。如對算法共謀問題,本質上仍是壟斷行為在算法決策領域的新表現,可通過完善壟斷行為認定規則,確保算法共謀行為適配于現有壟斷行為類型之中。其二,對于現有法律制度無法解決且已經出現的算法決策風險問題,通過法律修訂、立法續造等方式,及時出臺相關規則,裨補缺漏,使新型算法自動化決策風險的規制有法可依。其三,對未來可能出現的算法決策風險問題,可通過不具有傳統管理型法律規范結構的“促進型”立法方式,對涉及算法決策風險防范的關鍵技術和行業加以扶持,為未來算法決策風險規制提前做好制度安排。
我國《新一代人工智能發展規劃》對建立保障人工智能健康發展的法律法規框架提出了明確要求。有學者認為,我國應當構建“國家戰略—基本法律—標準體系”三級人工智能規范(93)張玉潔:《論我國人工智能的法治化進程:現狀、挑戰與革新》,《廣州大學學報》(社會科學版)2019年第2期。。在人工智能由作為工具性價值的輔助系統向主體性價值的智能系統嬗變過程中,交織著弱人工智能、強人工智能的復雜討論,考驗著算法自動化決策過程中人為主導因素和機器主導因素的精確甄別和判斷能力,加之算法技術風險、數據風險、決策風險面向不同的維度,決定了不但構建一部集算法技術風險、數據風險、決策風險于一體的人工智能算法風險規制體系并不現實,而且算法決策場景的復雜性、所涉領域的廣泛性,使得算法決策法律規制自成體系亦不具有邏輯自洽性。“花開兩朵,各表一枝”,較為可行的辦法是,采取立足當下的“漸進式立法”與面向未來的“頂層式立法”并重、并存的立法模式,也即對基于弱人工智能所產生的算法風險,除了依據現有制度予以規制外,可分別采取“成熟一部制定一部、成熟一條制定一條”的漸進式立法模式彌補規制依據不足問題,對基于未來強人工智能可能產生的算法風險,在構建人工智能算法風險規制的基本原則、倫理標準、政策體系基礎上,采取制定人工智能促進法的頂層式立法模式,強化政府在扶持和引導算法決策風險防范領域關鍵技術和行業領域的責任。待時機成熟,再通過人工智能基本法的方式,將算法公開、算法問責、知識產權保護、隱私和個人信息保護、企業數據保護、網絡安全和信息安全、算法自動化決策、人工智能法律主體地位等予以法律確認,指引人工智能具體發展領域的立法,為建立友好人工智能(94)友好人工智能指人工智能不僅在當下,而且在將來都能夠與人類和諧相處并且給人類帶來益處,而不是傷害與威脅。參見杜嚴勇:《建構友好人工智能》,《自然辯證法通訊》2020年第4期。提供制度保障。
恐懼往往來源于未知,當人們訝異人工智能開始全面滲透、互嵌人類生活的同時,算法黑箱、算法歧視、算法共謀、算法損害(95)張凌寒:《搜索引擎自動補足算法的損害及規制》,《華東政法大學學報》2019年第6期。、算法操縱(96)高奇琦:《警惕“算法操縱”》,《領導決策信息》2019年第5期。、算法霸權(97)凱西·奧尼爾:《算法霸權——數學殺傷性武器的威脅》,馬青玲譯,北京:中信出版集團,2018年,第21-22頁。、算法權力(98)許天穎、顧理平:《人工智能時代算法權力的滲透與個人信息的監控》,《現代傳播(中國傳媒大學學報)》2020年第11期。、算法監獄(99)周建明、馬璇:《個性化服務與圓形監獄:算法推薦的價值理念及倫理抗爭》,《社會科學戰線》2018年第10期。、算法囚徒(100)彭蘭:《假象、算法囚徒與權利讓渡:數據與算法時代的新風險》,《西北師大學報》(社會科學版)2018年第5期。、算法奴隸(101)郝雨、李林霞:《算法推送:信息私人定制的“個性化”圈套》,《新聞記者》2017年第2期。等概念相繼提出,折射出人們對人工智能發展過程中的算法風險隱憂。在智能社會形態由雛形走向成熟過程中,對國家治理能力現代化提出了新要求,“技術+規則”的國家治理體系建設刻不容緩。應該基于整體性治理和全流程規制的視野,將算法技術層、基礎層、結果層視為一個整體,在關注“邏輯實現—代碼實現”、“規則學習—自主學習”、“輔助系統—智能系統”橫向維度中算法風險生成的同時,嵌入“輸入層→隱含層→輸出層”縱向維度中算法風險轉化的考量,秉持前瞻性、系統性、包容性、審慎性等原則,對人工智能時代所產生的算法技術風險、數據風險、決策風險等的規制提出因應之策,以期突破算法風險對人工智能發展的桎梏,助推國家治理體系和治理能力現代化。然而,伴隨人工智能尤其是深度神經網絡算法應用的迅猛發展,人工智能經歷著由理性主義向經驗主義轉變、由輔助系統向智能系統轉變、由客體地位向主體地位轉變的過程,無論是輸入變量、輸出變量,抑或是二者之間的隱含層,存在諸多人類無法探究、觸及之處。“人是生而自由的,但卻無往不在枷鎖之中;自以為是其他的一切主人的人,反而比其他一切更是奴隸”(102)盧梭:《社會契約論》,何兆武譯,北京:商務印書館,2005年,第4頁。。為防止墜入人工智能奴隸的深淵,人類須以超前智慧做好人機共處的制度準備和應對,讓人工智能“帶著鐐銬跳舞”。法國學者帕斯卡爾曾言,“人只不過是一根葦草,是自然界最脆弱的東西;但他是一根會思想的葦草”(103)帕斯卡爾:《思想錄——論宗教和其他主題的思想》,何兆武譯,北京:商務印書館,1985年,第157-158頁。,人工智能倒逼人類將其思維帶至窮極之處。誠如有學者將個人信息保護、數據治理、算法規制、大數據競爭、人工智能倫理與治理等納入未來法治領域之中一樣(104)王軼:《在未來法治領域發展中國特色法學理論》,《北京日報》2021年1月25日,第19版。,人工智能的法治建設沒有“完成時”,只有“進行時”,需要人們以“面向未來、走向未來、引領未來”的學術定力和學術容量,不斷精進、豐富算法風險的法律規制范式,將不確定的未來納入法治軌道,破解“人工智能的崛起可能是人類文明的終結”之命題。