唐亦可
(中南大學法學院,湖南 長沙 410083)
與當初大眾美好的展望有所出入,如今的互聯網產業不論是以自由主義為起跑線,還是以管制主義為錨點,都走向了蠶食用戶價值、擺布用戶思想的集權主義,商業帝國越來越不止是一個形容詞,更像是互聯網巨頭公司的忠實寫照。倏忽之間,人們的日常生活已經與各類軟件緊密捆綁在一起,我們的隱私信息被肆意搜刮,成為價格歧視、精準營銷甚至詐騙等行為的養料。這場從網絡到現實的侵略中,算法是企業掠奪用戶價值的關鍵武器,且逐步脫離了純粹的工具角色,演化為無所不包、無處不在的新型社會權力。
算法嵌入舊社會秩序、塑造新型社會秩序的進程越來越快,以往技術革命的歷史經驗證明,個人拒絕算法應用不可能成為普遍選擇。算法與社會秩序彼此間的聯系在逐步加深,朝著算法網絡的方向發展。對一個算法應用的接納或拒絕意味著對更多其他算法應用的接納或拒絕,隨之而來的連鎖反應往往超出預期。總而言之,個人欲擺脫算法展開社會活動,幾乎是不可能的。
然而,知情同意原則已經基本處于架空狀態,要求個人具備閱讀理解平臺服務協議的時間和能力,是不現實也不合理的。個人敏感數據的劃分與脫敏,因為數據庫具備交叉對比信息從而復原敏感信息的技術分析能力,已經失去了使我們絕對匿名的可能性。數據法提供的權利及救濟的客體限于個人與公共的數據,不涉及直接對抗算法。個人面臨著既無法回避算法社會秩序,又無力充分舉證推翻算法決策的困境。
舊有社會秩序在算法“技術理性”的背書下,質疑和矯正的通道日漸縮窄。算法塑造的新型社會秩序則一面享受著自由市場的福利,一面游離在市場競爭原則和規則的邊緣。排名類平臺如大眾點評直接導致了市場競爭焦點和商業運營模式的轉變,雇水軍刷好評等迎合新秩序的行為,早已成為公開的商業模式。算法直接變為行為規范,影響甚至控制個體的行為(1)張凌寒.算法權力的興起、異化及法律規制[J].法商研究,2019,(4).,超級平臺的用戶數量和覆蓋面決定了其擬制的規則可以在短時間內改變甚至顛覆原有的社會秩序,政府若聽憑影響力極大的開發商和運營商任意變更算法,或者放任算法自我更迭,不及時跟進其變化情況,適時干預,會伏下社會動蕩的風險。
鑒于當前算法是互聯網企業的核心競爭力,也具備作為法律權利客體保護的條件,需要提出合適的規制措施,治理企業以私權保護作掩護謀取實質性權力的亂象,同時警惕算法滲入公權力體制后反客為主的風險。本文從算法規制的必要性出發,探討符合產業發展與法律實踐的規制原則與規制措施,試圖解答這一問題。
從廣義上來說,任何一個完成特定事務的流程都可以稱作算法。算法的本質是將意欲解決問題的具體操作步驟以某種形式固定下來,能否真正解決問題則在所不論。從狹義上來說,今日所言算法指的是一種計算機軟件技術規則,是為了完成某項任務設計的數字化流程,通過路徑和機制的設定,運算出相應結果(2)顧偉,郭弘,陳朝銘.人工智能算法的法律審視及規制[C].《上海法學研究》集刊,2021,(5):9.。虛擬空間內一切數據的處理,網絡主體身份的識別、分類、認證和評分等操作,平臺及其運行規則的建構均依賴算法設計實現,遵循算法預定邏輯。可以說,算法就是網絡世界的自然規律。
算法的起點定位是作為人類計算的輔助工具。在此須將算法和純粹的數學計算方法區別開來,二者的關系存在著從基本重合到分道揚鑣的變化。在計算機技術發展初期,計算機的發明初衷和主要功能是代替人類進行大體量數學運算,縮短計算時間,提高計算效率。該階段的算法等同于數學計算方法,與加減乘除規則沒有根本區別。產生錯誤運算結果的原因或是計算機設備故障,或是計算規則——即當時的算法本身尚有紕漏,而后者理論上應當是客觀真理,人類可以通過分析錯誤結果,回溯運算環節,修正、完善既有算法,也可以依據在先的理想規則來檢驗計算機運算結果的正確與否。
因此,作為輔助工具的算法主要有如下兩個特點:第一,工作環節由人類預先設計擬制,是對計算機下達的機械化執行指令,其邏輯可回譯為人類能夠理解的形式。第二,工作成果由人類評價、選用,具有可檢驗性。是服務于更大目標的階段性任務,屬于最終決策的參考而非最終決策本身。
此后很長一段時間里,盡管計算機從機構走入家庭,又從書桌落入口袋,算法的長度和復雜度不斷增加,但上述兩個特點并沒有改變。以購物平臺為例,商品分類、展示界面、付款手續等均由平臺方事前設計成型,商品成交量、用戶點擊率等數據則交由平臺方分析,用于制定和調整運營方案。
直到算法權力的出現,算法開始超越輔助工具的范疇。算法以新型社會權力的角色登場得益于兩個因素:一方面,因為體積縮小、價格低廉,移動電子設備日益普及,加之基礎通信設施工程廣泛布局,大規模、多場景、全時段、高效率的數據采集成為可能乃至常態;另一方面,計算機算力突飛猛進的發展,實現了對前述海量數據的整理與分析。在二者的配合下,此前早已存在的傳統算法模型因為訓練數據的量變而達到質變,不僅預測精確度大幅提升,對數據中潛在規律的挖掘能力也顯著增強,算法技術躍升成為人工智能應用的核心技術。同時,伴隨著網絡平臺業務范圍持續擴大,算法的介入不只局限于內容發放、工作聘雇、交友婚配、購物推薦等商業領域,還擴張到了刑事司法、智慧城市、智慧政府、智慧醫療等公共領域,前所未有地深入人民的安全、民主、自由各個方面。
然而,僅僅是影響力的迅速膨脹,尚不足以驅動算法產生從工具到權力的轉變。算法從工具演變為權力的制度因素有二:第一,外在來源。壟斷性平臺和政府對算法的利用,即權力是外部機構賦予的。相關單位和機關對算法判斷的信任與采用,使算法擁有了擬制決策、直接決策的權力。相較于傳統公權力而言,算法權力不是主權賦予而是經由壟斷產生的,其實然狀態先于應然狀態出現。第二,內在屬性。算法本身是權利客體,法權設置使其具有了權力性質。
權力形態的算法與工具形態的算法的區別主要在于:
1.可理解性下降。算法的核心代碼不再全部由人類編寫,而是基礎算法模型通過機器學習方式對自身關鍵參數或代碼進行調整后最終成型。傳統的勞動密集型人工智能方法是基于編寫不同的復雜計算機程序來解決問題,相比之下,機器學習是數據密集型的,通過實例學習來解決問題。無論是監督學習、半監督學習還是非監督學習,算法在訓練數據中發掘的人類社會、生理、心理等方面的相關性規律,往往超出人類的經驗認知范圍。
2.運算結果的功能發生改變,從決策依據發展成為決策本身。以個性推薦算法為例,推送哪些信息內容、如何排列布署各類信息的工作直接由個性推薦算法根據點擊率、停留時長等數據來完成。
目前,大面積應用和部署的算法主要由私企開發、維護,而計算機編程語言的不斷拓展、算法應用場景的持續豐富、第三方庫的廣泛應用和開源代碼的不斷增長,使算法研發呈現分散化、多樣化、便捷化的特征:不具備商業資質的民事主體能夠向全網提供算法應用或者源代碼(3)蘇宇.算法規制的譜系[J].中國法學,2020,(3):165-184.。潛在算法權力主體的不確定性決定了算法正處于由純粹的技術產品向絕對的社會制度轉變的角色過渡階段,既是一種私權利客體,也是一種新型公共權力形態。根據影響力來源的不同,算法權力可以分為兩種,一種是與行政司法工作內容緊密結合而形成的,一種是在商業領域背靠用戶流量和數據野蠻生長而形成的(4)蔡星月.算法決策權的異化及其矯正[J].政法論壇,2021,39(5):25-37.。隨著時間推移,后者的諸多類型要么會被收編入前者行列,要么將受到嚴格的制度化管控。算法權力會否完全替代傳統公權力尚未可知,但算法必將在一段時間里保持權利和權力并存的雙重屬性狀態。
一直以來,算法作為商業秘密受到保護,要達到算法公開、算法問責等治理要求,必須處理好這二者的關系(5)李曉輝.算法商業秘密與算法正義[J].比較法研究,2021,(3):105-121.。2020年8月《最高人民法院關于審理侵犯商業秘密民事案件適用法律若干問題的規定》將算法列入了技術信息范疇,使其正式成為我國商業秘密法所保護的對象。算法商業秘密保護的內容主要是源代碼,以及與源代碼相關的文檔,如目標代碼和關鍵的數據庫。保護途徑主要有三種:第一,合同模式。《勞動合同法》第23條、第24條規定用人單位可通過簽訂保密協議、競業禁止協議,為相對人設立保密義務。第二,后合同義務模式。《民法典》第558條規定,債權債務終止后,當事人應當遵循誠實信用原則,根據交易習慣履行通知、協助、保密、舊物回收等義務。第三,反不正當競爭法規制模式。《反不正當競爭法》第9條規定了商業秘密的要件、列舉了侵害商業秘密的行為類型,第32條規定了商業秘密侵權糾紛中的舉證責任。要突破商業秘密這一制度性因素實現算法透明和可解釋性,首先要分析清楚突破的合理性之所在,其次才能談具體方法。
因此算法規制體現在兩個方面,一方面是對算法權力的控制,另一方面是對算法私權的限制,如何在遏制算法濫用、預防算法侵權與保護算法私權之間取得平衡,就成為算法規制實施的關鍵。
隨著時代的變遷,人權屬性已經不再僅僅依賴于人的生物屬性和物理空間,它在很大程度上也要依賴于人的信息屬性和虛擬空間(6)馬長山.智慧社會背景下的“第四代人權”及其保障[J].中國法學,2019,(5):5-24.。算法對于公民基本權利的威脅存在于其架構到運營的每個領域、每個環節。
就預測型算法而言,其名稱和效果使人產生直覺上的誤會,將運作過程簡化理解為基于某個特定個體過去的行為,推導這一特定個體未來的行為,忽視了其原理實際是:根據特定個體a的某些行為特征,將其劃入群體A,輸入a在時間點m的行為x,轉化為A在時間點m前的類似行為X,將算法認為與X成相關關系的行為Y,作為a在未來時間點n的行為預測y輸出。從實踐效果來看,這個推理無疑可以通過不斷優化提高精確度,但許多值得推敲和質疑的地方應該留下審查和申訴的余地。比如,X與x、Y與y的替換必須忽視時間點的差別,抹去了可能隨著時間而改變了的環境因素。看似量身分析的計算,恰恰是非個性化的過程。全球化引起了空間維度的坍塌,預測型算法觸發了時間維度的消弭。將一個主體過去的行為視作未來的行為,將符合某一群體特征的人完全當作該群體曾經的成員對待,預測型算法應用于個性推薦,負面結果是形成信息繭房,侵蝕公民的自主權,乃至禁錮公民的自由發展;應用于評分系統,負面結果是制造、輸送、傳播社會偏見的“證據”,從而強化偏見,將隱性歧視正當化。
調度型算法對公民基本權利底線的試探則突出體現在勞動者權益領域。以基礎服務業中的便利店為例,企業管理層可以通過實時監控分析顧客流量,并將天氣、交通狀況等因素對人流量的影響納入計算,隨時調整人力配置,更改員工的工作時間和工作任務,使之匹配不斷波動的業務需求。勞動者受制于算法的調度,被迫成為全天候待命的工具,表面上按勞動量或勞動時長發放的薪水,遮蔽了因實時調度而省下的成本進入資本家口袋的真相,這部分增長的利潤,是以勞動者主體性的喪失和在勞動權益上的讓步作為代價換取的。典型的調度型算法要求勞動力是“彈性”的,然而在實踐中,為了將“彈性的勞動力”假設付諸實施,反而得剝奪其對象的靈活性和活動性。為了達到算法規則中的“彈性”,勞動者必須召之即來、揮之即去,其處境在短期和長期上都處于無彈性的僵化狀態,即在短期上無法掌控自己的行動,自主權形同虛設,因此無法計劃和實現提升自我等長期目標。這類模型的首要甚至唯一目的是服務于企業的經濟利益,衡量其正確性的標準是盈利,罔顧勞動者的基本權利根本是本質之一。
社會制度的目的應當是改善整體社會成員的生存生活環境,并保持對個體權益的平等關注。算法在誕生之初并沒有被視作一項社會制度,與服務目的無關的負面影響沒有得到充分考量,技術上的驚艷掩蓋了價值觀上的欠缺。因此,在算法技術不斷迭代的情勢之下,規制的初心應當回到保障公民基本權利中來。具體而言,前期設計階段訓練數據與后期使用階段反饋數據的采集可能涉及對個人隱私的侵犯,應結合數據安全法和個人信息法設置對算法開發期間的監管措施;智能政府系統和智能司法系統可能剝奪公民享有的正當程序權利,應拓展傳統行政法及其訴訟法原則在算法時代的內涵;金融、保險等行業可能利用算法將本應由商家承擔的風險轉嫁給無議價能力的消費者,用人單位和公司采用調度型算法安排員工的工作與休息時間則可能損害勞動者權益,應及時查處這類權利義務不對等的算法。最后,須關注算法在宏觀上對人的尊嚴、平等、自由等價值是否有所貶抑,保障人權原則納入新聞、娛樂、社交等媒體平臺算法系統的監管思想之中。
出于優化公共服務、提高政府效率等目的,公共管理部門越來越多地開始對舊有的數據分析形式進行改革,如數字服務轉型、綜合數據基礎設施。部分行政管理工作內在的分類、量化邏輯和算法的本質一拍即合,但部分行政工作本身是和自動化決策相抵觸的(7)王懷勇,鄧若翰.算法行政:現實挑戰與法律應對[J].行政法學研究,2021.,卻遭到了默認的忽視。數字化標準大有延伸到管理實踐方方面面的趨勢,算法在公共權力領域的滲透,決定了算法透明原則是正當程序原則在算法時代的必然發展。人們若不能對公共決策過程,尤其是涉及自身具體權益的決策進行有效地討論、審查和監督,政府公信力就會受損。
在2016年的Loomis案中,COMPAS是一款旨在評估再犯風險的算法系統,由一家私人企業“Northpointe”研發,法庭量刑以其評估報告為部分參考。Loomis在減刑請求中稱法院前述行為侵犯了他的正當程序權利,因為該報告僅提供了評估結果,評估方式即算法則被作為商業秘密不予公開。終審法院維持了原判,僅提出Loomis可以對該報告采集的全部信息——即輸入數據——表示異議。法院這一堅定維護該算法秘密性的態度,引發了眾多學者的口誅筆伐。
在算法深度參與政務系統、司法系統等機構的決策,甚至直接代替政府機構作出決策時,不應被排除在正當程序原則覆蓋范圍之外。政府的具體行政行為和抽象行政行為是否有算法的參與,參與程度的高低,都應納入政府信息公開的范圍。公民有權知曉算法參與行政工作的情況,有權監督和建議調整算法參與行政行為的方式,正如公民有權溯源政府的決策人員、決策程序和各類條例的起草與施行。拒絕公開算法對公務的介入情況,無疑會消耗人民長期以來對政府的信任。當然,公開對象、公開內容、公開方式、公開時長等細節的確定需要考量與算法商業秘密保護和算法輔助效果的平衡,比如抽象行政行為里算法公開應面向其規范范圍內的所有公民、法人和其他組織,而具體行政行為里算法公開應面向特定的公民、法人和其他組織,配置相應的算法解釋請求權制度。一刀切的公開未必能使行政行為相對人獲取有效信息,還有可能對算法輔助效果產生負面影響,也不利于維護政府公信。
算法技術監管的目標有二,首先是確保算法邏輯和實踐合法合規,其次是通過監管,促進算法的完善和提升。如果監管者無法進入算法內部進行審查,就無法了解造成危害后果的技術原因,難以提出切實有效的算法整改方案,只能在結果端予以形式上的審查,難以對平臺起到實質性的內部規制作用(8)崔聰聰,許智鑫.機器學習算法的法律規制[J].上海交通大學學報(哲學社會科學版),2020,28(2).。因此,在已經得到廣泛討論的建立第三方監管機構和政府監管機構的基礎上,還應重視個人用戶監管的途徑和方法,因為個人用戶能通過自下而上的視角,提供在宏觀層面和慣性思維下難以察覺的算法邏輯漏洞、道德風險。
算法自我更新升級的依據是運行過程中用戶反饋。但此反饋非彼反饋,指的是用戶的操作而非用戶的意圖。誠然,意圖與操作絕大部分時候是連貫的,但算法應用面向的用戶基數一般較大,百分比數低不等于實際數目低,意圖與操作出現參差甚至南轅北轍的情況并不在少數。意圖與操作產生隔閡的原因大致可分為兩類,一是用戶在算法提供的有限選項中,無法找到符合自身情況的描述,被迫勾選了不真實的選項而進行了有違本意的操作,或者用戶不在意算法的信息采集,隨意或故意填選了與真實情況有所出入的選項,不慎進行了有違本意的操作;二是算法對用戶正確報錄信息解讀出現差錯,這種差錯一般反映出算法系統的原始紕漏。
不論是哪種原因引起了算法對用戶操作的誤讀,如果沒有獨立于算法外部的渠道用于收集用戶使用體驗的反饋和建議,這些誤讀極可能湮滅在海量的“正反饋”中。算法的誤讀不僅對被誤讀用戶權益造成直接的損害,對其他用戶也構成潛在的威脅。因此,任何應用算法的平臺或機構都需要向用戶公開必要的邏輯,允許用戶查詢算法在微觀層面是如何影響自己,設立認真對待用戶意見的專門渠道,保證關于算法運用過程中得到妥善處理。此外,應積極鼓勵用戶群體自發建立類似婦聯或工會的團體,對算法應用進行討論,整理算法運行過程中的不當傾向等,以供第三方和政府監管機構從專業角度對該算法有的放矢地查漏補缺。
上述三項算法規制的基本原則,均以對算法內容的了解和分析為行動基礎。但是,對內容和受眾不加區分的全面披露,并不是最佳選擇。理由如下:
第一,全面披露會損害更大的利益。當被監管的算法涉及國防安全時,比如機場和車站的智能偵察系統,其關鍵技術人臉識別算法,就絕對不宜全面披露,理由無需贅述。金融和醫療方面的算法,微觀上對個人敏感數據的披露易涉嫌侵犯隱私,宏觀上對大數據的披露也事關國家安全,一味追求大范圍共享可謂舍本逐末。在這些情況下,全面披露算法內容的收益相對其損失來說,不具有價值位階的優越性。有限披露才能最大程度地平衡披露算法程序正義和保密算法的實質正義。
第二,全面披露可能阻礙算法實現預期效果。例如銀行可能會在貸款申報表中,尋找與之前拖欠貸款者的申報表高度相關的隱性特征,這些特征是機器學習深度挖掘的結果,并不是人們能根據常識推論出來的。如果全面公布批準貸款的規則,公眾確切知道申報表中的哪些內容將導致自己被視為高風險申報人,那么,預謀實施貸款欺詐的不法分子可能會據此調整其行為,隨后,這些特征也可能會失去其預測價值。在谷歌公開PageRank算法后,很多網站有針對性地嵌入迎合該算法的網頁。于是,一些與用戶搜索內容關聯性不強或者完全沒有關聯的網頁出現在谷歌搜索結果中。出于防止這類投機行為的考慮,谷歌已在逐年淡化PageRank的概念,停止更新其算法和結果。如今谷歌采用建立在PageRank基礎上綜合搜索算法,維持了搜索算法的秘密性,以求保證其核心功能不受影響。
第三,全面披露不利于算法市場的競爭秩序,不利于算法技術的進步發展。目前算法市場上以目標代碼為主要交易對象,如若公開算法源代碼,剽竊算法的行為將難以追責。因為源代碼可以編譯為多種目標代碼,而目標代碼回譯為源代碼難度極高。至于通過觀察業務范圍往往重合的平臺外部表現,推斷其是否使用了同一種算法,幾近于天方夜譚。發現不了盜用行為,追責乏力,則勢必導致盜用高價值算法信息的行為增多。即使政府對公開的算法進行補貼,通常也無法覆蓋其合理保密狀態下的商業利潤。長此以往,企業對算法開發無疑會持觀望甚至負面態度,在創新算法方面的經濟支持、技術投入將呈現保守趨勢。
綜上,到位的有限披露較之簡單的全面披露更有利于平衡各類公共利益、實現算法本職功能、維護算法市場秩序和促進技術不斷發展。算法披露應堅持有限披露原則,細分披露的目標、場景、受眾和時段,杜絕為了披露而披露的形式主義。
在《個人信息保護法》《數據安全法》以及《互聯網信息服務算法推薦管理規定》(以下簡稱《算法管理規定》)中,間接或直接地對算法披露作了相關規定,但尚待細化。以非必要不公開為指導,算法披露的內容、方式和前提,取決于披露面向的對象。一般可分為三種:
1.面向個人用戶的披露
《個人信息保護法》第44條確認了個人對其個人信息處理活動的知情權。其所言“知情權”的知情內容應以該法第7條中要求個人信息處理者公開的“處理的目的、方式和范圍”為限,且不需要以其他個人權利受到實際影響為前提。第48條賦予了個人用戶算法解釋權。個人用戶一般不具備理解代碼的能力,此種情況下披露代碼的實際意義有限,卻會增加算法泄露的風險,向個人披露的算法規則是否與實際運行的代碼相吻合,交由監管機構核實更為合理(9)解正山.算法決策規制:以算法“解釋權”為中心[J].現代法學,2020,42(1).,因此披露內容不需要包括源代碼、目標代碼等機密信息。考慮到個人用戶隨時可以行使該項權利,可能存在大量重復提問,應允許運營方以非人工方式進行自動化回復,保留人工解釋渠道處理特殊情況即可。《算法管理規定》第17條第3款規定了算法推薦服務提供者給用戶權益造成重大影響時的說明解釋等責任,這是在第16條規定了對所有用戶提供系統性解釋義務的基礎上,進一步規定的事后個案解釋義務,不能否定前述的事先披露義務。
2.面向政府或第三方監管機構的披露
這類披露的核心目標在于對算法實行評估、管理,因此務必公布所有關鍵信息(10)魏遠山.算法透明的迷失與回歸:功能定位與實現路徑[J].北方法學,2021,15(1).。《個人信息保護法》第58條針對“提供重要互聯網平臺服務、用戶數量巨大、業務類型復雜的個人信息處理者”,要求其成立獨立監管機構。遺憾的是,在披露時間上,該法第55條僅規定了事前評估。現今算法的特點之一是根據源源不斷的新數據自我更新,應以事前披露和事中披露并重,要求算法投入運用前備案,經歷重要迭代后及時更新備案信息(11)張恩典.算法影響評估制度的反思與建構[J].電子政務,2021,(11).,同時輔以抽查方式,檢驗實際運行情況與備案是否相符。《算法管理規定》第8條提到了算法推薦服務提供者定期審評自身算法,但這類自我管理機制的落實情況合理存疑。該法第四章、第五章分別就算法推薦服務提供者的監督管理和法律責任作出了詳細的規定,但是這些規則的適用前提是規制對象“具有輿論屬性或者社會動員能力”,在第23條所言“算法分級分類安全管理制度”未明晰之前,該如何作此判斷呢?另外,互聯網企業的崛起速度驚人,將中小型平臺排除在監管制度之外是否合適尚值得商榷。
3.面向公眾或其他特定人員的披露
《個人信息保護法》第58條第4款規定了某些個人信息處理者定期發布責任報告的義務。《算法管理規定》第16條也規定了算法推薦服務提供者以適當方式公示算法推薦服務的義務。個人的能力有限,注意力也通常局限在自身,僅以個人為權利主體的算法解釋權、算法應用拒絕權等權利束不足以聚焦波及大眾或某些特殊群體的算法隱性歧視,無法應對算法應用的集體性、累積性風險。若該類風險要等個人用戶的具體情況得到體現并形成一定體量才能通過個人算法權利的伸張來引起大范圍關注和管控,則嚴重違背了算法治理的應有之義。向公眾公布算法是合理且必須的預警機制,既是借助群眾的敏銳以補充監管機構的力有不逮之處,也是對人民基本權利的尊重和保障。
1.普及保密協議,明確違約泄密責任
首先,對監管機構的工作人員要加強職業培訓,除入職離職前,在職期間也要進行定期培訓,提高保密意識。相比普通民眾和行政人員,技術人員在履行職責的過程中接觸到的算法秘密信息量大,自身理解能力強,建議在其工作流程中拆分信息披露環節,根據不同的步驟簽訂相應的保密協議。《數據安全法》第38條提到了國家機關工作人員在這方面的保密義務,第三方機構的人員流動相比政府更加頻繁,應參照簽訂與國家機關工作人員類似或者更為嚴格的保密協議。《算法管理規定》第29條規定,算法監管相關機構和人員的保密義務,但在第五章“法律責任”僅擬制了機構和單位的責任,沒有針對工作人員的個人責任。其次,申請算法解釋的個人應在算法披露前簽訂保密協議,即使拒不簽訂,若有故意泄露算法信息的行為,也應推定為負有附隨義務,情節嚴重者應及時追究刑事責任。這不僅是保護企業的商業秘密,也是意在防止引發其他安全危機。
2.細化競業限制,提高競業限制補償
此處僅討論“針對接觸商業秘密的雇員設定的競業協議”。傳統觀點認為競業協議的目的在于保護公司商業秘密、防止惡性競爭,但在算法秘密性的意義不限于商業價值,還涉及諸多公共利益,算法領域競業協議的目的應涵蓋維護算法治理秩序。但目前算法核心技術人員在離職時的競業限制協議對“有競業業務的公司”規定過于寬泛,雇員的擇業自由受到極大的限制。一方面,互聯網企業的擴張導致各企業間的業務重合率高,尤其是大型企業如騰訊、阿里,幾乎所有互聯網公司都可以劃入其“競爭對手”的范圍。另一方面,平臺基本框架的構建、基礎功能和目標(如圖像識別、個性推薦等)日益趨同,兼之算法開發的技術難度高、分工細,要求雇員徹底轉崗既有損其自身利益,也有礙于技術發展。另外,實踐中企業的競業限制補償金普遍止步于司法解釋中最低標準30%,而競業協議的違約金在勞動法中沒有規定上限。建議提倡各公司在競業協議中縮小、精確對雇員的擇業限制,并依據公司情況、雇員能力等因素適當提高補償金,使競業協議具備更高的可行性。
算法侵權具有漸進性的特點:在采集個人信息、提供個性推薦等行為初期,用戶享受到了高質量的服務,當平臺的行為更深入、更主動時,用戶的處境猶如溫水煮青蛙,即使察覺到權利受到侵犯,也不知如何維權。即使賦予用戶算法解釋權等私權對抗算法權力,缺乏便利的救濟渠道也會妨礙有效救濟的實現。讓公眾感受到算法規制的存在,參與到算法規制的活動中來,可以從以下三種制度的發展與完善著手:
1.法律援助
在2016年爆出的魏則西事件中,百度的競價排名算法使不正規的醫療機構排在搜索結果前列,其個性推薦算法使點擊過該類醫療機構鏈接的用戶在后續搜索中接收到更多的推廣信息,包括聯系電話等等。魏則西一家出于對百度及其算法系統的信任就診于某醫療機構,后由于受到不當治療,兼之錯過治療時期,因病身亡。在這起嚴重侵犯他人生命健康權的醫療事故中,百度算法系統對醫療機構直接侵權行為起到了關鍵輔助作用,卻逃脫了作為幫兇應負的法律責任。
因此,建議在法律援助制度框架內,適當補充針對算法人身權侵權糾紛的內容。2021年8月通過的《法律援助法》第31條對民事法律援助事項的規定新增了人身損害賠償情形,結合第22條對法律援助形式的規定,為應對算法直接或間接侵犯公民人身權并造成損害結果的情況,應暢通法律咨詢、代理等法律援助服務渠道,提高法律援助信息曝光,如要求平臺以顯著形式標注法律援助聯系方式等。在“符合法定條件的其他當事人”的認定上,應以算法對受害人造成的后果是否嚴重及受害人經濟狀況為主要考量因素,不宜強求算法和后果之間存在直接因果關系,因為算法對人認知與行為的限制往往是通過間接卻有力的方式實現,稍微延長因果鏈符合算法規制正義。
2.公益訴訟
互聯網產品是商品,互聯網服務是生意。廣告是互聯網企業最普遍的商業行為。而對于廣告商來說,用戶隱私可以轉化成精準的用戶畫像,指導減少無效廣告的投放,極大程度降低成本。越全面、越詳細、越新鮮的個人信息能制作出越有商業價值的數據畫像。為了收集盡可能多的個人信息,平臺索要超出完成自身任務所需求的后臺訪問權限已成為常態,這種行為本身嚴重侵犯用戶肖像權、隱私權(如訪問相冊、聊天記錄等),同時也是滋生精準詐騙等灰色產業鏈的溫床。
這類算法侵權行為發生后,被侵權人要么因為起訴成本遠高于實際損失,放棄追究平臺責任,要么因為侵權行為過于隱蔽,根本沒有發現侵權事實。但是算法應用平臺卻能從動輒數以萬計的用戶個人隱私中獲利,同時構成了群體性風險。人民檢察院、消費者保護協會或其他形式的組織機構具有更強的采證舉證能力,應通過公益訴訟制度,實現公共利益和私人利益的雙重救濟。《個人信息保護法》第70條對違法處理個人信息的情況適用公益訴訟作出了原則性規定,但算法其他形式的危害公共利益的侵權現象也應納入公益訴訟的范圍。參照張新寶教授對個人信息公益訴訟制度的觀點(12)張新寶.個人信息保護公益訴訟制度的理解與適用.[J].國家檢察官學院學報,2021,29(5):55-74.,算法公益訴訟不影響個人的私益訴訟,也不宜以私益訴訟為前置程序,因為算法公益訴訟保護的法益并不只是算法應用用戶們權利的簡單相加。
3.知識產權懲罰性賠償
在互聯網知識產權侵權案件中,企業爭相使用“技術中立原則”,或援引“避風港原則”否認侵權行為,回避侵權責任。2018年,愛奇藝公司起訴字節跳動公司,稱后者容許用戶上傳《延禧攻略》的短視頻,并協助了該類短視頻的傳播,侵犯了原告的信息網絡傳播權。2022年,法院認定字節跳動公司的涉案行為構成幫助侵權,并判定賠償原告經濟損失及訴訟合理開支。
類似的訴訟糾紛并不在少數。推薦類算法的興起,使原本僅提供信息存儲空間服務、信息展示交流服務等中立性較強的網絡服務者,偏向將信息推薦轉化為主要服務,其用戶的增長量、互動量、停留時長則與推薦算法技術的水平息息相關。若堅持嚴格的通知—刪除規則,維權者須就各上傳盜版作品的用戶一一通知相應平臺,而這般疲于奔命式的維權模式,是不能保證阻斷此類侵權行為的流變。對于平臺一邊受惠于此類侵權,一邊卻躲進“避風港”的行為,應提高知識產權懲罰性賠償制度的適用率,在原告提出懲罰性賠償請求時,對于被告“故意”的認定宜寬不宜窄。這一是因為推薦算法技術的基礎是內容的識別與分類,平臺知曉侵權的可能性高;二是因為盜版作品、假冒偽劣商品低廉的特點決定了其一旦流入市場,用戶便會趨之若鶩,在算法的推波助瀾下,給著作權、商標權的權利人造成的損失比以往更甚。
算法的差異化使其成為互聯網企業倚重的商業秘密,但隨著平臺的膨脹,從用戶的服務者搖身一變成為用戶的支配者,算法的角色也不再是單純的輔助性工具,而是可與公權力分庭抗禮的新型社會權力,其因商業秘密制度獲得的保護需要向公共利益作出一定程度的讓步。但是,盲目地公開算法并不能解決問題,反而會阻礙算法正常運用,造成社會秩序混亂等后果。算法的法律限制不是非黑即白的對錯題,公開與保密不是水火不相容的關系。如何平衡公眾知情與技術保密,是算法治理時代不可回避的議題。