李文姝 劉道前
【摘要】人工智能與互聯網、大數據的加速融合誘發新型社會風險,提出了信息規制的新訴求。總結信息規制的相對性、公共性特征,反思信息自決機制,應當基于利益平衡的立場,適恰地處理信息領域個人利益與公共利益的緊張關系。隱私場景理論為處理這種緊張關系提供了進路,強調信息的適當流通,建構了信息規范的四項參數,反對信息類型的二分法,提供了特定場景中“適當”的分析工具。激勵與規范的視域下,應當從基于使用場景與敏感程度的同意規則,差異化應用場景,以及法律、標準、協議、代碼的規范體系,技術自我規制四方面探索場景理論的應用。
【關鍵詞】人工智能 ?信息規制 ?隱私場景理論 ?利益平衡
【中圖分類號】A811 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2019.06.008
基于James Andrew Bates案的風險考量。James Andrew Bates因一起發生在其家中的一級謀殺罪案件被指控,美國阿肯色州本頓維爾警方持許可令對其家中進行搜查,發現包括亞馬遜Echo在內的智能設備,并要求亞馬遜公司提供該智能設備在案發當晚錄下且保存在云端服務器的音頻資料。亞馬遜最初以涉及用戶隱私為由拒絕,在貝茨同意后才予以提供。貝茨案中,亞馬遜公司的處理方式與蘋果公司拒絕聯邦調查局解鎖犯罪嫌疑人賽義德·法魯克的蘋果手機極為相似,但又存在區別于后者的新問題:智能設備無時無刻不在記錄并存儲著用戶信息(除了Echo之外,警方還通過smart meter發現在被害人死亡的時間有大量的水被使用),這種信息收集區別于以往的電子通訊工具、互聯網社交平臺,因為智能家居設備的功能不是社會交互,該應用場景中的用戶對“戶”具有合理的隱私價值預期,具有更強的自治性,而這種價值預期為正當法律程序所回應。貝茨案聽證階段提出,法院有責任確保提供的信息能夠有針對性地適用于該案的具體情況,也將為未來刑事司法程序中如何處理此類信息創造先例。智能家居設備時刻向云端傳送用戶數據,可供處理、分析和利用,形成“個人的量化身份”。貝茨案涉及個人信息、數據控制方與刑事司法之間的關系處理,這些爭議在我國同樣存在,其實質是技術發展誘發的新型關系處理。
科學技術的高度發展既是風險社會的特征,也是風險社會的成因。彼得·休伯(Peter Huber)在貝克風險理論的基礎上,將風險區分為“私人風險”(private risk)和“公共風險”(public risk)[1]。巨量級數據的出現、計算能力的增強、理論算法的革新共同促成了第三次人工智能浪潮的興起,包括機器學習、生物特征識別、虛擬現實/增強現實等關鍵技術,借助信息數據的獲取、流動與使用發揮作用。人工智能與互聯網、大數據的加速融合正在全面地改變國家-社會的基本結構、社會主體的行為與決策方式、政府監管模式及其所附帶的政策體系,被稱為“技術統治”和“新的政治空間”[2],人類正在進入“一切皆可計算”的時代。與此同時,智能科技革命也誘發了信息與隱私領域的新型社會風險。貝茨案僅僅展現出人工智能視域下信息規制爭點的一隅,信息及隱私領域的爭點已不僅僅存在于前述公權力介入的場景。機器學習可以識別圖像或視頻中隱藏的信息,例如,商場研發面部識別系統識別顧客情緒,神經網絡算法通過面部識別來判斷人的性取向……利用人工智能進行的信息監測與分析可能引發數字、物理、政治安全風險,如自動化監測(如分析大量收集的數據)、說服、欺騙,會擴大與侵犯隱私和操縱社交相關的威脅[3]。與此同時,人工智能技術的惡意使用會帶來新型公共安全風險,例如公安部督辦的“2017·01·03”侵犯公民個人信息、提供非法侵入計算機信息系統工具案。技術發展伴隨著現有風險的擴張、新型風險的產生、典型風險的特征變化,提出了新的規制訴求。
信息領域個人利益與公共利益的緊張關系。首先,信息主體對信息控制力的減弱。人工智能的本質在于數據處理系統的輸入與輸出關系,其核心是基于超強的算力與學習能力,對個人信息的分析、使用與處理加劇了信息保護與數據利用的沖突,從根本上消解了信息的主觀管理能力。人工智能算法日益廣泛地滲透到用戶畫像、事件抓取、信息個性化推送等領域,讓渡部分信息,才能享受智能化服務,信息主體或主動或被動地成為“透明人”。人像識別技術應用場景中,相對人姓名、性別、年齡、職業,甚至不同情境下的情緒、行為、軌跡等大量關聯信息,都被收集、處理與使用,寬泛的授權協議減損了“知情同意”規范的效力。而廣泛的應用場景衍生出更多行為異化。例如Facebook數據泄露事件中,用戶授權登陸帳戶后的“點贊”“好友”等信息被用于“學術研究目的”,劍橋分析公司甚至出于政治目的利用了用戶數據,Facebook還承認用戶的公開數據可能被非法抓取,通過反向搜索非法獲取了用戶的個人數據。
其次,巨量級數據深度分析引發的爭議。當信息數據的社會價值和經濟價值逐步得到認同,監管規則與措施的滯后在一定程度上導致了數據安全和隱私保護領域的風險。利用人工智能技術進行信息收集、處理、使用,容易推導出公民更多的隱私。這主要涉及如下亟需解決的問題:其一,數據所有權、數據交易規則等數據行為基本秩序仍未明確;其二,數據處理與使用的信息不對稱,隨著數據的爆炸式增長和云計算能力的指數級進步,信息主體深陷“黑箱”,無法充分知曉個人信息在何時、何種場景下被收集、分析、使用、處理;其三,平衡數據使用方、數據控制方及數據主體的三方利益。作為現代社會的主要治道,如何設置與調整“激勵”與“規制”科技發展的法律價值目標?如何預測、預防和緩解技術發展與應用帶來的隱私、安全風險?如何建構與設計法律規范體系?其實質在于如何處理技術發展與應用中的個人利益與公共利益的緊張關系。
傳統解釋工具的思辨。第一,信息規制的相對性與公共性。人工智能通過計算機發掘數據的能力,通過信息流動與使用,使法治從消極的危險消除模式延伸到積極預防模式。網絡法律關系中的權利保護,已經無法沿用工業時代的權利保護模式,這種保護的出發點不是基于公權力的暴政,而是基于權利自身的需求。人工智能應用帶來國家與社會、公法與私法界限變遷,通過采集、存儲、使用個人數據帶來新的權利內容與責任,借助個人數據所完成的用戶畫像,可以呈現個人的經濟狀況、興趣偏好、行為軌跡等,引發傳統權利法理的變革。人工智能技術應用使“人-人”的關系轉變為“人-技術-人”,尊嚴與隱私、安全與自由之外的數據、虛擬生物信息等進入權利視野。
人工智能應用場景中,信息本身即具有相對性,從用戶的角度是用戶的個人信息,從服務提供者角度是服務信息,從國家機關角度是政府監管信息。以用戶畫像為例,其包含多個主體利益,既有信息自決的內容,也有經營自主權的內容。自然人對個人信息的利益不是積極的、絕對的,而是防御性的、相對的,數據保護也絕不限于財產權的歸屬和分配[4]。相較傳統的權利保護視角,風險防范及利益平衡的視角更能夠回應人工智能應用場景中的信息規制基礎——財產權或人格權屬性之外,必須考量公共利益。信息規制是國家、企業(機構)、個人多方主體的共同作用,涉及商業平臺、技術開發主體、數據提供方等,通過信息的收集、流動、分析和使用,提升公共福祉,創新社會治理。信息規制不能脫離信息業發展和社會公益。
第二,信息自決的挑戰與變革。美國的傳統控制理論、德國的信息自決權理論是主導信息立法的基礎理論,這些理論強調個人自我決定在信息規制中的作用,實質是強調自然人在信息社會中的主體地位。人工智能技術依靠強大的信息感知及計算能力,實現個人信息的挖掘、使用、流動,消解了傳統信息自決機制中主體的主觀管理能力,技術發展使個人信息的收集與使用更加便利,出示證件、經批準的檢查或搜查,以及當事人同意等正當法律程序被消解。爭議開始出現,如公共區域的人像識別、數據采集是否需要有明顯標示?是否要求企業在收集用戶信息前獲得明示同意?針對特殊類型信息的收集是否適用行政許可規制工具?從公共數據中推導出個人信息,從個人信息中推導出與個人有關的其他人員(親友、同事)信息(在線行為、人際關系等),遠超出最初個人同意披露的范圍。但是,物聯網中巨大量級的用戶數據在各個設備和系統之間頻繁傳輸處理,不加區分地將所有場景均設置以用戶同意為前提將產生巨大的信息利用成本,減損流通與共享的收益,亦不具備可操作性。
信息自決面臨挑戰的基本命題——為什么要進行信息規制?我們保護的是個人信息本身,是建立在個人信息上的利益,還是預防個人信息的風險?信息自決的內涵應該是控制個人信息的使用,還是控制對其不正當的使用?如果我們對這項基本命題的解讀是預防信息領域的風險,則風險或利益侵害的存在是規制工具適用的前提,而這種風險或侵害不是恒定的、絕對的,而是流動的、相對的、場景式的。如果我們對命題的解讀是保護個人信息,則規制進路的前提是明確權利的范圍、實現方式、主張及責任模塊。這是完全不同的規制進路,所以,信息規制的基本立場是我們首先要明確的問題,這決定著我們的規制對象和基本原則。
基本立場:風險防范、利益平衡抑或權利保護?我們應當在何種語境下敘述信息領域個人利益與公共利益緊張關系的實質?北京百度網訊科技公司與朱某隱私權糾紛案中[5],判決的敘事邏輯并沒有將用戶畫像與個性化推薦置于人格權、隱私保護的范疇。
權利保護語境下,權利范圍的爭議是廣泛存在的。個人識別信息(Personally identifiable information)曾經是信息隱私監管規則的核心和邊界。法律適用的基本假設是,只有個人識別信息才被法律所保護,如果不涉及個人識別信息,則不可能有隱私侵害,但信息隱私法中個人識別信息的定義尚存爭議。在人工智能時代的強大算力下,非個人識別信息也可以與個人相聯系,并且可以重新識別被識別的數據,二者之間并不是不可變的,非個人識別信息可能在某一事件中被轉化為個人識別信息,技術的發展深刻地影響著二者的界限,且這種界限的界定必須基于特定的場景。[6]基于權利保護的視角論證,預設了個人對于自身用戶畫像應當有控制的權利,“挑出個人信息”的數據保護是為了公平與隱私[7]。但該視角必須回應個人信息的基本范疇,有學者提出了個人識別信息2.0的概念,包含“已識別信息”與“可識別信息”兩類,對個人面臨的不同風險程度建立有針對性的法律保護[8],這種進路既避免了美國對個人識別信息的簡化主義觀點(the United States' reductionist view),也避免了歐盟的擴張主義觀點(the European Union' s expansionist view)。簡化主義觀點認為信息隱私監管只保護已識別的數據,因此留下太多的個人信息而沒有法律保護;擴張主義觀點認為,如果信息已經與某一特定的人相聯系,或將來可能與之相聯系,則應當被保護,這一觀點將已識別和可識別的數據視為等同數據。也有學者提出,信息隱私監管法律規范必須剝離個人識別信息的概念,尋找新的范式進行規范。[9]……中國法律中個人信息的概念還是與身份識別聯系起來[10],而數據權利法理尚不成熟,“可識別性”的實踐邊界不清,容易導致規則的遲滯與對風險的放任,抑或規則的局限與不自洽。在此基礎上,更重要的命題在于,主體對信息的權利主張是什么?是否應當由個人來主張權利實現?在權利種類似乎已經明確的情況下,權利主張介入程度的譜系是什么?如何根據不同場景,分配個人不同的權利主張強度?規則如何保障?規制的成本與效益如何?例如,能否強制企業進行非精準推送?是否賦予企業從第三方間接收集個人信息時,核實第三方收集、轉讓個人信息的合法性的義務(信息的間接收集人信息來源合法性的注意義務)?
本文論證的基本立場,即信息規制的目的是風險防范與利益平衡。回歸風險防范與利益平衡的立場,很多規范邏輯也更容易厘清[11],亦將避免信息規制成本收益的失衡,避免切斷數據利用帶來的技術損害。例如,匿名化信息(包括行為標簽、群體畫像)是否可能納入個人信息范疇以及作為國際通例的信息規制措施的平衡考量[12]。本文所指的信息規制,是指基于風險預防與利益平衡,為規范信息收集、使用、分析、流動等提供的制度供給、政策激勵、外部約束、公私合作的過程。從法律與技術雙重立場識別與控制信息風險,實現技術發展的激勵與規范。
基于利益平衡的隱私場景理論。其一,隱私場景理論的內涵與構造。信息的“適當”流通、分享是隱私場景公正性理論的邏輯起點。信息的規制不是單面向地基于權利的保護或者對侵權行為的壓制,而是以社會整體利益作為考量,基于利益關系的平衡,使規制合目的、合比例,降低規制的對抗成本。Helen Nissenbaum提出了隱私場景理論(Theory of Contextual Integrity),認為隱私不在于安全或控制,而是個人信息的適當流通(a right to appropriate flow of personal information),并通過場景公正性的基本框架強化了這種“適當”。隱私仍然是一項需要通過立法和其他途徑保護的重要的權利和價值,但是要強調其在特定場景下的公正及不同場景之間的區別。[13]
Michael Walzer突破了傳統自由主義的方式,重新審視了社會的公正與正義,建構了多元正義理論,在普適正義的基礎上提出了“復合平等”(complex equality),即不同領域的獨特的正義準則。Michael Walzer認為,當社會商品按照不同的分配標準分配時,就會實現復合的平等,即正義的標志。各領域是相對自治的,依據多元正義理論,存在“不同領域不同的人的不同結果”[14]。根據另一個領域的標準分配一個領域的社會商品構成不公正。[15]隱私場景理論正是基于多元正義理論而建構,認為同樣的信息在不同的社會群體中隱私參數不同[16],其原因在于隱私是一個文化上的相對偏好,而不是一個普適的人類價值。隱私場景理論的框架正是來源于這個視角。這個框架的核心在于不同場景信息規范的建構[17],回應個人信息的傳輸、交流、轉換、分配、擴散。場景公正性與信息規范相結合,即“個人信息的適當流通”中“適當”的判斷標準是信息的流動是否符合特定場景下的信息流動規范。Helen Nissenbaum認為,信息規范構造包含以下參數:具體化的情景(行為類型、目的)、主體(信息的接受者和發送者等主體、主體之間的關系)、信息的類型和屬性、傳輸原則(主體之間以何種條件共享信息、進一步傳播的條件)。[18]其中,信息的類型和屬性不僅僅是個人或者非個人(公有的)、高度敏感或者非敏感這樣的一維的、二分的邏輯[19],相同的信息在不同場景下呈現出不同的敏感程度。如何判斷是否侵犯了隱私,需要依據特定社會場景描述個人信息流動的參數,進而得出結論,規則應當基于不同的場景制定。
其二,隱私場景理論的實現路徑及意義。傳統信息規制模式下,主導隱私保護的三項原則,即限制政府對公民的監視和使用有關公民的信息;限制獲取敏感或私人信息;限制侵入被視為私人或個人的場所。規范與現實的衡量,不僅要考量其在特定場景下所促進的價值與收益,也要考量其對社會整體的價值與收益。信息規制影響的價值包括:預防基于信息的損害、信息平等、自主、自由、維護重要的人際關系、民主和其他社會價值觀。[20]個人信息的收集、共享、流通的價值包括言論自由[21]和新聞自由、經濟效率[22]和盈利能力、開放政府和安全。傳統的原則存在灰色地帶,在政治和法律調查的其他領域一直沿用的公私二分法是不適用的,而普適性的框架和規則也難以奏效。隱私場景理論與傳統隱私保護原則是不同的,隱私場景理論實質是個人信息的個人利益與公共利益的平衡,在技術應用的具體場景下實現個人信息保護,從技術激勵與規范的角度,實現信息的恰當使用與社會發展。
Helen Nissenbaum結合克林頓-萊溫斯基性丑聞、美國《金融服務現代化法案》、加拿大《個人信息保護及電子文檔法案》以及醫療處方隱私展示了如何借助隱私場景理論論證權利保障與侵害[23],為論證何謂信息“適當地流動”提供了分析工具。人工智能技術發展過程中,數據的收集、分析、流通直接關系到算法及其結果的公平性、準確性。而隨著互聯網+、大數據、智能技術的發展,“普遍性、一致性、抽象邏輯化的生活方式逐漸淡去,而根據特定情形、地域和對象的數據分析、場景定制、程序建模,則逐漸成為一種發展趨勢”[24]。利用隱私場景理論,細化考量因素,能夠在具體場景(法律關系)中厘清信息規制的界限。
基本原則:信息保護的激勵與規范之爭。隱私場景理論的核心在于信息的適當流動,數據對技術發展至關重要,也是數字經濟時代商業運行的基礎,信息在特定應用場景之下往往具有多重身份。例如,網約車軟件收集、分析、使用的信息不僅僅是消費者的行動軌跡,也是機構(企業)的服務信息,這些信息與數據的收集是商業運行之必需。所以,信息規制的前提是要充分考量具體場景及目的,同時區分網絡法律關系中信息數據的收集、使用、共享行為,基于個人利益與公共利益平衡,進行規范的建構。歐盟《一般數據保護條例》(下文簡稱GDPR)除了規定合法透明、目的限制、準確性等原則之外,還將限期儲存原則作為個人數據處理的基本原則,即對于能夠識別數據主體的個人數據,其儲存時間不得超過實現其處理目的所必需的時間,并在后章規定個人數據的刪除權。但美國ITIF發布了GDPR對人工智能影響的報告,提及GDPR中的刪除權、禁止其他目的使用、懲罰性模式等規定在實踐中對人工智能發展可能或已然的不利影響。“刪除人工智能系統運行中關鍵規則的數據可能會降低準確性,并限制其對其他數據主體的好處,甚至完全破壞人工智能系統。”“禁止數據用于除首次收集之外的任何其他目的,企業難以使用數據進行創新。這將限制公司在歐盟開發或使用人工智能改善服務的能力。”[25]一方面,全面評估新規的影響,對實現有效的激勵與規范具有現實意義。另一方面,技術發展使得權利保護的程度在不同的社會歷史階段、文化背景里呈現出不同的敘事,不同國家利益與產業利益背景下,歐盟模式與美國模式在信息規制方面呈現出不同側重。美國聯邦通信委員會發布的《保護寬帶和其他通信服務用戶隱私條令》因過于嚴苛的監管于2017年被廢止,但隨著Facebook數據泄露事件的發酵,引入歐盟數據保護模式的呼聲在美國日益高漲。將隱私場景理論作為信息規制工具,可以避免前述簡化主義與擴張主義的沖突,使信息規制符合比例性與目的性,以對個人利益、商業利益、社會總體利益最優的方式實現對技術發展的激勵與規范。
基于使用場景與敏感程度的同意規則。傳統的保護模式是用戶的絕對主動,唯有經過信息主體的知情和同意,收集處理行為才是合法的,這種風險與責任的分配機制是源于信息保護傳統脈絡。諾貝爾經濟學獎得主、普林斯頓教授Sir Angus Deaton提出的隱私數據信息交易系統或是對傳統知情同意模式下數據授權的回應。但巨量級數據的使用與流通場景中,同意無法在全部場景下均以明示的方式作出,“一刀切”的知情同意風險分配機制并不符合人工智能的技術應用特征,既會導致規則的失靈,又會對技術發展帶來傷害。隱私場景理論更符合信息保護模式的實踐,知情與同意應當區分數據的敏感程度與使用場景。
基于使用場景的區分包括規范的場景與個案的場景。規范的場景,是指具有普遍性、一致性、抽象邏輯化的場景模塊。如GDPR規定了不需要識別的處理(Article 11)、數據控制者與處理者的關系(Article 26),以及對個人數據的處理條件和特殊數據問題。按照GDPR的規定,知情同意并非數據處理的唯一合法性條件,還有合同履行、法律義務履行等,但其他條件的適用是非常審慎的(Article 6);GDPR還規定了“禁止處理顯示基因數據、為了特定識別自然人的生物性識別數據、以及和自然人健康、個人性生活或性取向等”特殊類型數據的處理條件,并規定了基于數據主體同意、實質性公共利益等共10項例外(Article 9)。個案的場景,是指包含了具體化的情景、主體、傳輸原則的場景。
在不同場景的基礎上,基于數據敏感程度的區分,理想的模型是針對個人敏感信息采用選擇同意(opt-in)模式,而針對非敏感信息,在相應場景中以合理的手段收集、留存、使用信息的同時,強調默示同意的用戶對信息處理有撤回同意(選擇退出opt-out)的選擇權,即“默示同意+選擇性退出”的同意機制,并針對敏感信息設置更為嚴格的透明原則。隱私場景理論的基本觀點,信息類型的劃分,敏感程度的判斷,不是絕對的,一分為二的,而是相對于特定的場景而言。技術層面,個人信息控制者可以通過默示條款的方式,使得信息主體完全不知道自身的信息正在被收集;通過對大量的非敏感信息的收集和處理可以識別個人的敏感信息。但是,如果取消個人敏感信息與非敏感信息的差別保護,要求個人信息收集時全部適用明示同意,又會涉及巨大的規制成本,與信息流動的本質與收益有所沖突。
差異化應用場景的規范要素。Helen Nissenbaum預設了隱私場景理論的前景,將不同的歷史階段、地域、社會文化構建到任何給定場景的信息規范中,信息規制將鼓勵今后對突出領域進行研究,以揭示這些領域的技術創新如何影響信息規范。[26]智能算法造就了新的權力形態,也亟需新的利益分配模式,以及不同傳輸原則的規范描述。成熟的規則設計尚需系統把握人工智能算法與系統的特點,考慮到人工智能技術不同類型的應用場景,除了共性技術外,不同人工智能產品在不同行業場景中進行數據獲取與使用存在明顯的個性化需求與技術特色,必須進行類型化差異化規制,根據技術應用場景和信息類型制定不同的技術標準及系統安全設計方案,回應不同應用場景信息安全保障需求。差異化規制思路在美國表現為敏感領域(如醫療檔案、金融數據等)的分散式立法、設立行業規范。
隱私場景理論中信息規范的基本構造,應當根據不同場景(行為類型、目的)、主體(信息的接受者和發送者等主體、主體之間的關系)、信息的類型和屬性、傳輸原則(主體之間以何種條件共享信息、進一步傳播的條件),設計不同的規制方案。“一刀切”的監管與風險控制方案無法回應人工智能的技術特征和復雜多變的應用場景,針對不同的應用場景建立差別化的信息治理方案是人工智能信息規制的顯著特征,實質是情境化、差別化、類型化的風險責任分配。例如,視頻、音頻采集識別分析系統(如谷歌“隱私分析個性化內容智能家居”專利、亞馬遜的語音交互分析與關聯個性化推薦專利等)在智能家居場景中的應用,該場景中通過視頻、音頻的采集、識別進行的家庭結構、情緒、愛好、生活習慣分析,與基于商品交易平臺、互聯網搜索平臺數據收集、分析而進行的個性化推送,從預防基于信息的損害、信息平等、自主、自由、維護重要的人際關系、民主等價值衡量的視角是有所區別的。前者需要更為嚴苛的隱私保護技術、絕對主義路徑的必要數據界定,遵循更為嚴格的透明原則,即該場景下技術企業負有更多充分披露隱私數據使用和保護原則與目的的義務。但在規范內容編制的過程中,要注意一般性規范的提煉,防止將監管引向碎片化。例如,GDPR條款的基本格式多為“基本規則+除外條款”,情境化、差異化的同時兼顧統一性的基本規制思路,例如限期儲存的一般性規則與例外,獲得信息主體同意后處理的一般性規則與例外等。
法律、標準、協議、代碼的多元規范體系。第一,多元糾紛解決進路的規范建構。《刑法》第285條規定了提供侵入、非法控制計算機信息系統的程序、工具罪,《關于辦理侵犯公民個人信息刑事案件適用法律若干問題的解釋》等為刑事打擊惡意利用人工智能侵犯個人信息或提供工具行為提供了法律基礎。規范的目的是保障人工智能健康發展,能夠平衡個人信息保護和數據應用,與技術發展創新相適應是衡量立法效果的關鍵因素。一套切實有效的信息治理規則體系,需要公法和私法共同構建,政府監管、企業責任,以及民事法律角度對信息主體的賦權,確保規制的安全性、可操作性、可追溯性。例如,收集網絡用戶瀏覽、搜索、收藏、交易等行為痕跡所產生的巨量原始數據,深度分析過濾,整合并匿名化脫敏處理后,形成預測性、統計性數據,這類加工信息如何規制,在2018年8月淘寶(中國)軟件有限公司訴安徽美景信息科技有限公司“生意參謀”零售店上數據平臺不正當競爭糾紛案中作出了闡述。在新浪微博訴脈脈案中,司法實踐中采取的也是反不正當競爭訴訟的糾紛解決進路,在網絡法律關系中,基于數據共享的模式,通過互聯網開放端口獲取數據,數據抓取行為需要法律邊界,以防止技術的恣意。而在相似的hiQ Labs與LinkedIn之間的訴訟中,美國聯邦法院給出了不同的答案,其核心爭議點在于平臺公司對于用戶公開發布至平臺的數據權限是什么,這是數據財產權利的保護進路。我國數據權利正處于生成和發展階段,數據所有權、數據交易規則等基本秩序規則需要進一步明確,需要刑罰、民法、行政法規則體系的建構。
第二,標準、方案、協議等軟法體系的建構。隱私場景理論強調不同場景與情境的描述,探索信息隱私監管的新范式,回應個人識別信息的延展性,這里需要標準,而不僅僅是規則。微軟總裁兼首席法務官Brad Smith在博文中提到對人臉識別技術的公共監管與企業責任。人工智能時代需要制定新的公共原則來管理技術,作為逐步進入甚至接管公共事務的技術企業(機構),合法、合規、透明、說明理由等公法義務的恰當賦予尤為重要。軟法作為技術企業描述特定場景、信息主體、信息類型和屬性、傳輸原則的文本形式,應當被納入信息規制的規范體系中。人工智能信息規制中的軟法,首先包含差異化的技術標準,現階段,人臉、指紋、虹膜圖像數據的生物特征樣本質量標準,智能家居通信交互協議規范、安全參考模型及通用要求、基于可信環境的生物特征識別身份鑒別協議等信息安全技術標準均是人工智能技術標準化建設亟需解決的重要問題。此外,軟法還包括各類系統安全設計方案、網絡安全方案、系統測試方案等[27],也應包括用戶協議等規定了數據合規內容的、具有一定約束效力的文本。基于服務協議的用戶權利讓渡條款獲得服務,其知情條款、使用目的、方式等透明性規范應當進一步規范,避免冗長帶來的實質失效。
第三,法律代碼化與代碼之治。可預期性是法律規則的根本特性,智能革命是否會帶來法律根本特性的變革尚存爭議,但一個現象不可否認,“對于規則的認識會成為一個動態的過程,數據的輸入與反饋會不斷引導人工智能進行學習,以自身的算法輸出動態調整的規則”[28]。代碼化的技術主義規制更加符合人工智能技術應用個性化、自主化的場景式信息規制需求。以法律原則、規則指引編程人員,并且基于技術和商業運行模式特征,適恰地設置對算法和代碼設計的透明、審查機制。算法本身的公開性、透明性和公正性是人工智能技術規制的現實進路,但一些場景之下,“算法黑箱”是連程序員都不能完全揭示的,尚須平衡商業秘密、技術保護與技術規制之間的關系。
信息流通的技術自我規制。其一,技術風險的自我規制。網絡法律關系的規制,應當由誰來制定規則?技術企業(機構)掌握巨量數據,且熟稔技術應用運行機制、發展格局。技術企業(機構)的自我規制具有必要性及可行性,應積極制定公開透明的行業標準、企業標準、協議、系統安全方案等,以補充個人信息保護法制的不足。“自我規制強調由社會組織行使對科技風險的調控權力,但這種權力并不是法律、法規、規章所授予的權力,因而社會組織并非行政主體,不受法律保留、比例原則等原則的制約,避免了以傳統行政法學理回應風險規制時產生捉襟見肘的困局。”[29]人工智能的信息風險規制由最熟悉技術應用場景企業(機構)實施規范制定、技術甄別、風險承擔,避免法律系統與科技系統的捍格不入,減輕企業的合規負擔,緩和行政命令式技術規制的壓力,更有利于信息保護與技術發展的平衡。
其二,去標識化及其標準化。去標識化是自我規制視角下從傳統的個人信息自決向個人信息保護與共享利用相平衡轉化的重要技術支撐,是通過對個人信息的技術處理,使其在不借助額外信息的情況下,無法識別個人信息主體的過程,數據集的某些屬性可以共享發布,供外部業務系統進行處理分析。去標識化是隱私保護數據發布的主要工具[30],現階段方法包括屏蔽、隨機、泛化、加密等。圍繞我國大數據安全標準化體系規劃,對去標識化技術機制、模型以及評估方法進行標準化操作,例如保密格式加密技術等技術的標準化,優先將成熟的應用和實踐成果轉化為標準規范。當然,去標識化后是否有重新建立標識的可能性,也需要在規范層面作出回應。同時,去標識化不等同于標識符的移除,“一刀切”地去除標識符可能導致數據的重復、混亂和遺失,無法保證智能技術應用結果的公平性、可信性。隱私場景理論下,需要結合具體的應用場景對數據的敏感程度進行非二分式地分析,評估被重標識的風險,以規范數據共享和處理活動,保障數據安全與有效,保證數據在共享、流通過程中能夠得到準確的描述、有效的組織,最大化數據的收益,實現數據流動的“適當”。信息處理的匿名化以及數據的不可追溯性,成為公共性屬性之下信息保護的基點[31],但是,技術層面可以使匿名化的信息重新標示特定個體,即便沒有姓名個體識別符號,信息匿名化處理之后,也可以通過技術定位到具體的個體、服務器等,可以在技術自我規制的基礎上,借助民法、刑法、行政法規則,禁止違法解匿名化(De-anonymization)行為,實現個人信息保護和數據收益之間的平衡。
互聯物聯、人工智能、虛擬科技時代的信息規制不僅是法律與技術的銜接問題,更關涉信息社會中人的主體地位。信息規制不僅需要了解人工智能技術的運用機理與決策機制,準確把握其與普通計算機程序運行的核心區別,更需理順其道德、經濟和社會基礎,進行不同應用場景的價值衡量,使規制合目的、合比例。應對人工智能時代的不確定性和變動性,亟需構建一種精細化的、試驗主義的信息規制模式,不是對以往規則的顛覆,而是適應新技術的發展,在網絡法律關系中妥當處理權利保障與科技發展、社會發展的關系。
(本文系遼寧省社會科學規劃基金青年項目“人工智能視域下信息獲取與使用的法律規制研究”成果,項目編號:L18CFX001;同時系中央高校基本科研業務費重大培育項目“‘互聯網+智能制造治安評估與防控機制研究”成果)
[1]Peter Huber, "Safety and The Second Best: The Hazards of Public Risk Management in the Courts", Columbia Law Review, 1985, 2, pp. 277-337.
[2]樊鵬:《利維坦遭遇獨角獸:新技術的政治影響》,《文化縱橫》,2018年第8期。
[3]Miles Brundage, Shahar Avin et al. , "The Malicious Use of Artificial Intelligence:Forecasting, Prevention, and Mitigation", https://arxiv.org/abs/1802.07228, October 3, 2018.
[4]王利明:《亟需法學研究和立法工作予以關注——人工智能時代提出的法律問題》,《北京日報》,2018年7月30日,第13版
[5]朱某稱其利用百度搜索引擎搜索“減肥”“豐胸”“人工流產”等詞,瀏覽相關的內容后,在一些網站上就會出現上述廣告。朱某主張,百度網訊公司利用網絡技術,未經其知情和選擇,記錄和跟蹤了其搜索的關鍵詞,將其興趣愛好、生活學習工作特點等顯露在相關網站上,對其瀏覽的網頁進行廣告投放,侵犯了隱私權。一審法院認為,網絡活動蹤跡屬于個人隱私,百度網訊公司利用cookie技術收集朱某信息,侵犯了朱某的隱私權。二審法院認為,百度網訊公司在提供個性化推薦服務中運用網絡技術收集、利用的是未能與網絡用戶個人身份對應識別的數據信息,該數據信息的匿名化特征不符合“個人信息”的可識別性要求。推薦服務只發生在服務器與特定瀏覽器之間,沒有對外公開其網絡活動軌跡及偏好,未強制網絡用戶必須接受個性化推薦服務,提供了退出機制,未侵犯網絡用戶的選擇權和知情權。
[6][8]Paul.M.Schwartz, Daniel.J.Solove , "The PII Problem: Privacy and a new concept of personally identifiable information", New York University Law Review, 2011, 86 (12), pp. 1814-1894.
[7]Frederik J. Zuiderveen Borgesius, "Singling out people without knowing their names – Behavioural targeting, pseudonymous data, and the new Data Protection Regulation", Computer Law & Security Review, 2016, 32(2), pp. 256-271.
[9]PAUL O., "Broken promises of privacy: responding to the surprising failure of anonymization", UCLA Law Review, 2010, 57(6), pp. 1701-1777.
[10]參見《信息安全技術公共及商用服務信息系統個人信息保護指南》、《信息安全技術:個人信息安全規范》(GB/T 35273-2017)。
[11]如歐盟《一般數據保護條例》對用戶畫像、信息主體對信息的控制權利的規定。
[12]匿名化信息是否是個人信息的范疇,企業主張以能否識別特定個體作為判斷標準。
[13][17][19][23]Helen Nissenbaum, Privacy in Context Technology, Policy, and the Integrity of Social Life, California: Stanford University Press, 2010, p.127, p.129, pp.140-144, pp.152-156.
[14][15]Michael Walzer, Spheres of Justice: A Defense of Pluralism and Equality, Basic Books, 1983,p. 320, pp. 17-20.
[16]例如,電子商務平臺通過分析用戶的喜好信息進行個性化推送是符合適當性規范的,但是雜貨鋪的老板詢問消費者家庭信息、工作信息、子女入學信息等,以及電影、讀書、度假等生活信息,并把這些信息提供給了第三方,則違反了適當性規范,也違反了信息流通規范。
[18][20][26]Helen Nissenbaum, "Privacy as Contextual Integrity", Washington Law Review, 2004, 79, pp. 119-158.
[21]Paul M. Schwartz, "PrivacyandDemocracy in Cyberspace ",VAND. L. REV., 1999, 52, p. 1607.
[22]Solveig Singleton, "Privacy as Censorship: A Skeptical View of Proposals To Regulate Privacy in the Private Sector", CATO POLICY ANALYSIS No. 295, (Cato Inst. 1998), http://www.cato.org/pubs/pas/pa-295.pdf.
[24]馬長山:《智能互聯網時代的法律變革》,《法學研究》,2018年第4期。
[25]Nick Wallace and Daniel Castro, "The Impact of the EU's New Data Protection Regulation on AI", October 3, 2018, https://www.datainnovation.org/2018/03/the-impact-of-the-eus-new-data-protection-regulation-on-ai/.
[27]吳沈括、羅瑾裕:《人工智能安全的法律治理:圍繞系統安全的檢視》,《新疆師范大學學報(哲學社會科學版)》,2018年第7期。
[28]李晟:《略論人工智能語境下的法律轉型》,《法學評論》,2018年第1期。
[29]張青波:《自我規制的規制:應對科技風險的法理與法制》,《華東政法大學學報》,2018年第1期。
[30]FUNG B C M, WANG K, CHEN R, et al., "Privacy-preserving data publishing: a survey on recent developments", ACM Computing Surveys, 2010, 42(4),p. 14.
[31]張平:《大數據時代個人信息保護的立法選擇》,《北京大學學報(哲學社會科學版)》,2017年第5期。
責 編∕馬冰瑩
Abstract: The accelerated integration of artificial intelligence with the Internet and big data has caused new social risks and hence there has been the need for information regulation. Reviewing the relativity and publicity of information regulation and reflecting on the mechanism for information self-determination should be based on the balance of interests and properly handling the tension between personal interests and public interests in the information field. The theory of privacy scenarios provides support for dealing with this tension, which underscores the appropriate flow of information, constructs the four parameters for information regulation, opposes the dichotomy concerning information types, and provides an "appropriate" analysis tool for the specific scenarios. From the perspective of incentives and norms, we should explore the application of the scenario theory in the four areas: the agreement rules based on the usage scenarios and the sensitivity degree, the differentiated application scenarios, the legal, standards, protocols, and code specification systems, and technical self-regulation.
Keywords: Artificial intelligence; data governance; theory of contextual integrity; balance of interests