999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

《個人信息保護法》語境下“免受算法支配權”的實現路徑與內涵辨析

2021-01-12 04:51:38唐林垚
湖北社會科學 2021年3期
關鍵詞:主體信息

唐林垚

(中國社會科學院法學研究所,北京 100009)

算法決策相對于自然人決策具有成本低、效率高、反應快、應用廣等優勢。依托算法決策的各類智能應用,無疑能為人們的生活帶來便利,“已經日益成為社會經濟發展和公共治理的重要支點”,[1](p165)但新的問題也由此產生:外賣平臺近乎嚴苛的超時懲戒制度,逼迫外賣騎手不顧交通安全疲于奔命;網約車軟件、網購平臺通過對用戶操作習慣的分析,在隱藏環節加價、對消費者進行揩油和“殺熟”;各類短視頻應用登頂全球下載量最多的應用行列,“成癮性”利用空洞內容吞噬空余時間的算法設計被詬病為21世紀的“精神鴉片”。在智能應用無所不在的數字經濟時代,如何保護個體免受算法的支配和控制,同保護個人信息一樣,已經成為廣大人民群眾最關心、最直接、最現實的利益問題。目前,被人大法工委列為2021年立法工作重點的《個人信息保護法》對個人信息的利用和流轉保護有余,對個體脫離算法決策的相關權利保障卻明顯不足,解決方案是在《個人信息保護法(草案)》中明確具體地規定個體享有“免受算法支配權”。

一、規制的基點:針對算法決策的規則構建邏輯

算法,是求解特定結果的數理步驟,是解決特殊問題的思維路徑,[2](p365)但其一旦以智能應用為載體介入對個體或群體的日常決策,就可能產生關涉個體權益、公序良俗和公共安全的問題。馬斯克對此直言不諱:“以算法為代表的人工智能或是人類文明的最大敵人。”[3](p1)這種“反電子烏托邦”的論點或許過于悲觀和絕對,但我們確有必要對算法決策的優點和缺點持有更全面和更清醒的認識。

(一)算法決策的特征及應用場景。

作為各類智能應用的關鍵所在,算法決策,是指利用先進的信息挖掘技術對海量用戶進行持續追蹤和信息采集,通過特定規則對信息進行提煉以確定用戶的群組特質或特征,①《個人信息保護法(草案)》第4條:“個人信息的處理包括個人信息的收集、存儲、使用、加工、傳輸、提供、公開等活動。”算法決策是典型的信息處理活動,算法決策中的相對方為信息處理主體(即算法利用方,包括但不限于智能服務提供方、社交媒體、短視頻軟件、網購平臺、智能配送系統等)和信息主體(即算法決策對象,包括但不限于智能應用用戶、網購平臺消費者、外賣送餐平臺騎手、網約車司機等)。為與《個人信息保護法(草案)》表述一致,本文采用信息而非數據的提法。最終生成具有明確指向性的決策或用戶畫像的過程。算法決策精于預測,號稱能為信息主體提供貼心的“個性化服務”。舉例而言,短視頻軟件的內容推薦算法圍繞“熱度權重”進行內容推送,具有極高的用戶黏性;產品推薦引擎革新了網絡購物平臺的內容呈現方式,從滿足消費者需求一躍提升至培養消費者習慣;動態投喂算法被社交媒體廣泛采用,極大地增加了用戶沉浸其中的時間。內置算法決策的智能應用不勝枚舉,通常,算法決策都是“免費”的,信息主體無須繳納任何費用即可“享用服務”,只要允許信息處理者獲取和重復使用個人信息即可。[4](p196)

算法決策還被廣泛應用于公共治理。如用于考察客戶信譽的銀行大數據資信系統、公安部門的犯罪預測系統、居民養老保險在線審核系統以及各地為抗擊疫情推出的健康碼應用等。與此同時,人們對智慧城市和智慧生活的向往,推動了算法決策對傳統商業模式的顛覆。以大家耳熟能詳的智能應用為例,美團、餓了么等外賣平臺的實時智能配送系統,號稱能夠完成“萬單對萬人的秒級求解”,以最低的價格、最短的時間實現最精確的物品配送;滴滴出行、首汽約車等網約車軟件,在實現百萬級出乘需求匹配的同時,還力圖盡可能平衡司機和乘客的利益,讓出行的時間和成本都“可預見”和“可控制”。在算法決策已經結構性嵌入社會運營的大背景下,[5](p133)赫拉利所描述的“算法社會”已經奇點臨近:“權威將從個人轉向由算法構成的網絡。人類不會再認為自己是自主的個體,不再依據自己的期望度日,而是習慣把人類整體看作一種生化機制的集合體,由電子算法網絡實時監測和指揮。”[6](p296)

(二)算法決策的問題及法律風險。

盡管,使用算法決策的信息處理者堅稱,算法決策能給用戶提供更有意義的體驗、為信息主體帶來便利、提升社會運營效率,但智能應用和傳統服務大相徑庭——算法決策的服務供給通常完全基于信息處理者推斷出來的用戶喜好和商業痛點,向信息主體提供服務時也未真正征求其意愿和完整的意思表示。誠然,“通知—同意機制”早已被前置為算法決策全周期的“第一閘口”,但晦澀難懂的用戶須知無法讓信息主體知曉全部信息、非同意不可使用的俘獲同意機制誘使用戶匆忙決策,“通知—同意機制”形同虛設。[7](p126)從程序法的視角來看,現行算法決策系統的設計理念普遍有待商榷,[8](p4)相關的道德和倫理問題也由此凸顯:算法決策系統真正提升的,是信息處理者的收入所得,還是信息主體的便利性和獲得感?信息處理者的利己和社會整體的利他如果發生本末倒置,法律就有介入的必要,以調適二者之間的沖突。

當算法決策從“試圖適應和預測人們的偏好”轉向“將本不存在的偏好強加于人們”時,法律應對風險也隨之激增。自然人決策是維系人類集體生活所不可或缺的“陽光、空氣和水”,自然人決策向算法決策的讓渡是人類主動對自身特性的放棄和抹殺,必然將對社會群體和個人產生深刻影響。眾所周知,自然人決策存在諸多弊端,遠非盡善盡美,近代法律制度在彌補和矯正自然人決策方面頗有建樹;但對于算法決策的缺陷和不足,我們知之甚少,缺乏查缺補漏的經驗,遑論能夠自上而下建立切實可行的制度性保障機制。當生成決策的邏輯基礎是不同于人類理性的算法程式時,過去行之有效的監督和干預機制難以發揮實效;在科技創新發展和應用于社會的過程中,倡導“負責任的治理”尤其重要,這要求立法者具備“三界五行”的視野,而不是被現有問題驅動著走。習近平總書記指出,“要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究?!蔽ㄓ薪⑼晟频乃惴Q策規范,才能更好地獲取人工智能福利,讓科技造福人類。[9](p17)

(三)算法規制的權利路徑與方向。

各類應用對用戶“潤物細無聲”的投其所好,看似簡單,實則需要過濾大量的個人信息才能實現,在這個過程中,算法決策是核心,規制算法決策與保護個人信息同樣重要。算法決策日益成為影響國家安全、政治安全、意識形態安全的重點問題,也是世界各國所面臨的共性難題。2021年2月7日,國務院反壟斷委員會制定發布《關于平臺經濟領域的反壟斷指南》,將“大數據殺熟”和“算法合謀”納入重點監管范疇,提倡保護市場公平競爭,促進平臺經濟規范有序創新健康發展,維護消費者利益和社會公共利益。[10](p3)但是,算法決策所帶來的法律挑戰,并非都因互聯網巨頭濫用市場支配地位而產生,任何信息處理者,無論大小,只要濫用算法工具,都可能造成嚴重后果。算法決策以大數據為其“養分”和“燃料”,而構成大數據的,則是眾多獨立的個體。因此,公法視域之外,個體權利保障的進路更加重要。在《網絡安全法》已經生效、《數據安全法》呼之欲出之時,與每個個體休戚相關的《個人信息保護法》勢必將主要承載保護信息主體免受算法決策侵害之重任。

算法對個體的侵害,源于對人類自主性的侵蝕??戮S指出,“人不律己,便是情緒、食欲和情欲的奴隸”。[11](p1)由此看來,缺乏自律便會喪失自由。既然自由通常建立在嚴于律己的基礎之上,人們行事時須常以更高標準約束自己,才能充分體會到自主性的存在。根據尼采的觀點,“真正的幸福來自自我節制”,[12](p505)只有自我節制才能讓人持續地感受到自己是自身利益的最佳判斷者??v觀當下各類算法決策的應用場景,不僅不能促進人們以更高標準約束自身以獲得更高的自主性,反倒傾向于引導人們不斷屈服于低層次的本能和唾手可得的滿足感,在對廉價快感的角逐中徹底喪失幸福和自由:“抖音”“快手”極易讓人沉迷于快節奏的驚喜變幻之中,從而降低做其他事情的積極性,甚至讓人忘記思考;網購平臺的新品推送,催生了無數原本不需要的消費需求,甚至在一定程度上培養了消費者“超前消費”和“過度消費”的壞習慣,從而引發債務危機。要想突破算法決策對人們的支配和困擾,首先應當根除信息主體對算法應用的不當依賴,倡導一種以自然人自律取代算法他律的原初狀態。

算法決策規制的重要基點,應聚焦于算法決策濫用所導致的權力失衡。交易,是商業的基石;從交易中獲利,是商業的本質。算法決策在商業領域的頻繁應用,正源于算法決策可以帶來更高的正向收益。問題在于,算法決策帶來的正向收益并未在交易雙方中平均分配;憑借著技術和信息的雙重優勢,掌控算法應用的信息處理者最終將能占盡信息處理活動中的所有剩余利益。不知疲倦、隨時待機、能力隨算力水漲船高的算法決策應用在設計之初,就是為了助力信息處理者或以巧妙、精準的方式掠奪消費者剩余實現“開源”,或通過節省人工成本的方式減少自然人崗位實現“節流”。因此,打著“個性化服務”“提供貼心支持”等幌子的算法應用,并不總是以受眾或消費者的利益最大化為追求,相反,二者存在不可避免的利益沖突。職是之故,針對算法決策的個人權利保障,應以交易雙方的利益再分配為根本目標,改變“數據處理者中心主義”的現狀。

二、試錯的過程:現行信息主體權利的局限與不足

在擺脫算法依賴、保護信息主體權益方面,立法者早已有所行動?!秱€人信息保護法(草案)》第四章針對算法決策行為,賦予了信息主體“更正權”(第46條)、“被遺忘權”(第47條)和“獲解釋權”(第48條),但這三種權利尚不足以保護信息主體免受算法操縱、平臺殺熟和信息繭房的傷害,也不可能真正實現“免受算法支配權”的綜合意涵。

(一)“更正權”:治標不治本。

針對算法決策的“更正權”,始見于歐盟《通用數據保護條例》(下簡稱GDPR)第16條,算法決策對象可以在不違反算法目的的前提下,更正、完善、調整存在偏差的個人信息。我國《網絡安全法》第43條最先規定了在“網絡運營者收集、存儲的其個人信息有錯誤”等情形中,“個人有權要求網絡運營者予以更正”;2021年生效的《民法典》吸納了這一規定,將其置于人格權編第1037條:“自然人可以依法向信息處理者查閱或者復制其個人信息;發現信息有錯誤的,有權提出異議并請求及時采取更正等必要措施?!薄秱€人信息保護法(草案)》第46條在前述規定的基礎上,進行了細化,要求信息處理者對不準確和不完整的個人信息進行及時更正和補充。然而,無論是歐盟還是我國,算法決策對象主動行使“更正權”可以更正的對象,只能是處于決策鏈前端的底層數據或者個人信息,不能更正形成錯誤算法決策的錯誤邏輯。由于機器學習模型抓取的大數據通常來源于多個渠道,個人實際上不可能對較長時間維度中的每一次數據抓取都進行糾偏,極偶爾的數據更正相對于體量異常龐大的“數據池”而言,根本不具備統計學意義條件,因此難以對算法決策的結果產生決定性影響。

更何況,在卷積神經網絡中,算法決策所依賴的機器學習模型群,對應著不同層級的信息簇,信息簇和信息簇之間存在層層遞進的關系,除了直接來源于信息主體的初始信息外,其余所有層級的信息簇都是信息主體難以理解的推論信息。要對算法決策的結果產生影響,“更正權”的作用對象應當是環環相扣的推論信息簇,但單從字面意思來看,GDPR第16條、《網絡安全法》第43條、《民法典》第1037條以及《個人信息保護法(草案)》第46條,皆不涉及對推論信息的“更正”。已經有學者注意到了算法決策過程中推論信息的監管空白,主張“通過保障推論數據獲取權以搭建個人數據主體與數據控制者之間的溝通機制”。[13](p107)此番呼吁對應的背景是,域外為數不多的司法判決對推論信息的歸屬和本質尚未定性。在Y.S v.Minister voor Immigra?tie一案中,荷蘭高等法院曾判決,無論推論信息與原始信息之間的關聯有多么直接、是否關涉信息主體的重要權益,只要推論信息通過特定的處理方式(算法)在原始信息的基礎上有所遞進,那么該推論信息就不是信息主體可以任意支配的個人信息。①Y.S v.Minister voor Immigratie,C-372/12(2010).在Peter Nowak v.Data Protection Commissioner一案中,愛爾蘭高等法院則認為,只要能夠證明同信息主體有所關聯,那么不管是經歷了多少輪處理取得的推論信息,都應被視為信息主體可以直接支配的個人信息。②Peter Nowak v.Data Protection Commissioner,C-434/16(2017).易言之,只要能追溯至算法決策對象原始信息的推論信息,都屬于信息主體通過行使“更正權”可以糾正的信息。問題是,即便采納Pe?ter Nowak案的審判思路,考慮到計算機的思維通常異于常人,信息輸入和輸出之間通常不是線性關聯,對算法決策運算邏輯缺乏相應知識的信息主體,如何有能力對推論信息進行更正呢?

綜上所述,機器學習模型從數個渠道、多個平臺抓取信息,形成對個體產生重大影響的算法決策。單一信息源頭的修改及修正,在整體邏輯不變的前提下,能夠起到的作用可謂“微乎其微”,根本不可能實現徹底更正錯誤的法律效果。在算法黑箱的掩映下,針對推論信息的“更正權”實屬天方夜譚,不具備可行性。更正基礎信息完全不同于更正結果,二者具有指向性的區別,在行權擬取得的法律效果上,“更正權”甚至算不上最低程度的“免受算法支配權”。

(二)“獲解釋權”:聊勝于無。

長期以來,算法可解釋性的合規要求,被視為“對抗數據個體的主體性和自治性淪陷和喪失的內在之善”;[14](p1425)本應居于非普遍使用、輔助性地位的算法透明原則,一躍成為世界各國人工智能法律法規的核心要旨。[15](p20)似乎,只要過程是可以被解釋的,那么算法決策結果的合理與否,便一目了然。但是,算法透明真的能夠一蹴而就嗎?答案顯然是否定的。

透過可解釋性的合規要求確實可以將有爭議的問題擺至臺面進行探討,但針對算法決策過程的人為解釋,未必能夠通過科學合理的方式進行驗證。機器學習模型所涉及的中間環節越多,身處局外的觀察家們就越不能終局地評價信息輸入和結果輸出之間的因果關系。強推算法可解釋性合規要求的結果是,信息處理者被迫加大力度,去尋求能夠正當化算法決策且能夠被大眾所接受的理由和借口[16](p61)——對算法決策的解釋是事后添加的,而解釋說理的方式完全取決于政治和經濟目標。對算法可解釋性的合規要求進行補強的方案,是要求信息處理者在算法決策的各個流程引入同行評議,由同信息處理者無關聯的專家同行對機器學習模型和代碼的構造進行實質審查。英國《政府數據倫理框架》將法定同行評議作為算法決策的“安全屏障”,但并未給出切實可行的操作方案。需要指出的是,通過同行評議并不意味著算法就可被解釋,更不意味著算法不具備支配性和攻擊性。缺乏充分反映自然人價值體系的倫理審查標準,同行評議充其量只能保證:(1)算法代碼的字里行間不充斥著個別程序員帶有偏見的價值負載;(2)機器學習建模過程和指令轉譯過程中不存在必須調整的理解偏差和表達耗散。

GDPR第13條、第14條、第15條分別規定了直接、間接以及因各類原因進行個人信息處理活動主體應向信息主體履行的強制性信息披露義務;《個人信息保護法(草案)》第48條相對簡單地闡述了“個人有權要求個人信息處理者對其個人信息處理規則進行解釋說明”。以上兩種規定方式,均是從信息主體的“獲解釋權”入手,來反向規定信息處理者應當遵循的算法可解釋性的合規要求,并不必然涉及對算法決策的“全流程”解釋。在這種規定方式之下,信息處理者可以輕松地以信息采集的范圍和合理性來搪塞信息主體對算法決策過程的懷疑,將本來是針對信息采集環節的事前解釋“依葫蘆畫瓢”地作用于算法決策的事中和事后過程。同行評議程序的缺乏,配合上本來就意義不大的事前解釋,必然將架空信息主體的“獲解釋權”,既無法降低信息處理者和信息主體之間的信息不對稱,甚至都難以協助信息主體加深對算法決策的了解。

總而言之,立法者看到的是一個設定一項“獲解釋權”就可以讓算法決策可解釋的世界,而這種理想愿景同當今技術運作的現實情況存在巨大鴻溝。隨著機器學習模型的日益復雜、卷積神經網絡的廣泛適用、數據搜集源頭的交匯重疊,要就算法決策的運作原理與裁判機制做出詳細且外行人也能理解的解釋,經常是“解釋了也是白解釋”,無助于信息主體從不公平的算法決策中抽身而退,也并未賦予信息主體在算法決策前負隅頑抗的籌碼。

(三)“被遺忘權”:徒勞無功。

從字面來看,“被遺忘權”是迄今為止,最接近“免受算法支配權”的一種權利創設,因為信息主體只要確實身處“被遺忘”的狀態,那將不再受到算法工具的針對、評價和信息封鎖。世界各國縱有截然不同的“被遺忘權”立法背景,“被遺忘權”卻殊途同歸地在法律文件中被轉譯為“擦除權”(the right to erase)或“刪除權”(the right to delete)。以歐盟為例,在2010年的Google Spain v.Costeja Gonzalez案中,原告要求在搜索引擎中剔除自己已經過時的個人信息,《個人數據保護指令》(下簡稱DPID)第12條“允許信息主體擦除不符合相關規定的信息”的原始規定得以適用。GDPR第17條吸收了此前的規定,將DPID第12條表達為:“信息主體有權要求數據控制者擦除關于其個人信息的權利”。我國的相關法律實踐開始于2015年,在任甲玉訴北京百度網訊科技有限公司人格權糾紛案中,原告除了主張姓名權和名譽權受到侵害之外,還額外主張被告侵犯了其人格權中“被遺忘”的權利。①任甲玉與北京百度網訊科技有限公司人格權糾紛案,北京市海淀區人民法院民事判決書,(2015)海民初字第17417號。雖然原告在二審中敗訴,但是“被遺忘權”的主張,引發了學界和實務界的熱切關注,[17](p155)并體現在《民法典》人格權編的立法工作中。《民法典》第1028條、1029條、1037條和1195條分別規定了自然人在四種情形中享有“刪除權”:1.報刊、網絡等媒體報道的內容失實;2.針對自己的信用評價不當;3.信息處理者違反法律、行政法規的規定或者雙方的約定處理其個人信息;4.網絡用戶利用網絡服務實施侵權行為?!秱€人信息保護法(草案)》集判例和《民法典》之大全,在第22條規定了超出約定處理目的、合同履行完畢時信息處理者的信息返還或刪除義務,在第47條明確了個人撤回信息處理同意時所享有的“刪除權”;對于刪除信息在技術上難以實現的,《個人信息保護法(草案)》要求個人信息處理者立即停止處理個人信息。

遺憾的是,表現為“刪除權”的“被遺忘權”,并非完整意義上的“被遺忘權”,只能在有限范圍內將涉及信息主體的部分信息“隱去”,并不能起到讓信息主體“被遺忘”的效果。在Google Spain案中,雖然原告勝訴,但被允許行使“刪除權”的結果,只是讓搜索引擎在其算法模型中,剔除了包含原告個人信息的鏈接,并沒有徹底刪除包含這些個人信息的原始界面,畢竟,這些界面所對應的門戶網站,并不歸搜索引擎公司所有。因此,原告行使“刪除權”頂多實現了被某個搜索引擎算法“遺忘”的法律效果;只要包含個人信息的原始頁面依舊存續,其他的智能應用依舊可以實現對這些頁面的抓取和訪問,信息主體也就仍然隨時處于各類算法決策的支配之下。“被遺忘權”的自欺欺人之處在于,信息主體只能暫時免受某算法決策的“跟蹤”,就好比清空網絡購物平臺購物車雖然可以暫時改變“猜你想要”的推送結果,但算法系統依舊可以憑借對用戶購買習慣、支付方式等深層次信息的牢牢掌控進行“套路”和“殺熟”。若想達至被徹底遺忘的效果,信息主體只能依次向包含個人信息的網站逐一行使“被遺忘權”,此種在理論上可行的操作方式在實踐中將面臨極高的行權成本。更何況,現實中有不少專門記錄從搜索引擎界面移除鏈接的界面,例如Wikime?dia和Reddit等,讓希冀行使“被遺忘權”的信息主體陷入“越描越黑”的境地之中。[18](p18)以此觀之,如果“被遺忘權”只是停留在“擦除權”“刪除權”的水準,期望信息主體通過行使“被遺忘權”來達到“免受算法支配”的希望,定然會落空。

三、應對的方案:“免受算法支配權”的內涵與外延

“更正權”“被遺忘權”“獲解釋權”的固有缺陷決定了,即使三者在實踐中能夠合乎情理的聯動,也無法真正起到讓信息主體“免受算法支配”的效果。等因奉此,《個人信息保護法(草案)》應當以更加直接的方式規定“免受算法支配權”:“個人有權不成為算法決策支配對象,信息處理者應當保障個人可以不受信息自動化處理的決定的限制”。性質上,“免受算法支配權”是信息主體請求免受算法決策影響、獲得人工干預等權利的集合。對這種復合式權利的內涵界定,可以分情境從以下三個方面展開。

(一)算法操縱場景:“陳情權”。

“免受算法支配權”是最低限度的“陳情權”,是個體就自身不公平遭遇獲得公平聆訊以及請求行政復議的權利。允許個體就廣泛存在的“算法不公”進行陳情,可以讓政策制定者以“同為自然人”的立場對被決策者的實際遭遇感同身受,借此制定出更人性化的政策和法律,及時矯正影響深遠的算法決策可能存在的偏誤。

在算法操縱的場景中,受算法支配的從業人員,主要是學歷不高、無專業技能的基礎工種,是各類勞動者中幾近最為弱勢的群體。以外賣送餐騎手為例,各平臺的騎手一般分為兩類,一種是加入各個站點、由代理商作為“隔層”與平臺構成勞務關系的專職騎手,理應按照勞動法規范落實工作時間和社會保險的相關規定;另一種是入行門檻極低,自主注冊、接單、配送的眾包騎手,由于其服務樣態不符合典型勞動關系的特征,很難納入勞動法調整,缺乏與其勞動方式相適應的法律保障機制。在平臺的外衣下,專職騎手實際上也難以行使勞動法所提供的法定議價權利,與眾包騎手一樣缺乏同平臺的議價能力,這實際上是勞動者被算法支配的問題的根源。在該類法律關系中,工作時間、加班報酬以及獎懲規則由平臺決定,平臺的決定權由算法決策予以具體落實。由于缺乏議價能力,勞動者只能選擇要么被迫接受、要么離開平臺,算法決策加劇了平臺與底層勞動者之間的權力和利益結構失衡。

讓勞動關系中的信息主體免受算法支配的對策,是回歸基本的勞動者權益保障,即綜合運用政策工具,提升勞動者與平臺之間的議價能力。在人工智能的加持下,新業態、新模式層出不窮,政策和既有規定很難及時捕捉因技術變革帶來的新問題和新挑戰,此時,賦予作為受支配者、當事人的信息主體通過正當渠道發聲的“陳情權”,有助于提醒立法者及時調整法律法規,以構筑勞動者權益保障的底線。“陳情權”的行使,將有助于建立與不同業態和模式相匹配的“政府—勞動者—平臺”三方參與的議價協商制度,借用公共對話的場域來制衡平臺的技術霸權,為處于弱勢地位的勞動者提供議價渠道,以各方都能接受的協商結果修正近乎肆意妄為的算法決策。

“陳情權”所構筑的商談場域,也有助于矯正雇傭關系中不平衡的風險分配機制,避免不公平的責任轉嫁或無必要的責任攬承?!胺芍贫鹊恼斝匀Q于‘正當化’的過程以及為了達到這一目的而運用的‘說理的技術’?!盵19](p71)各參與方的相互角力可以創造出符合各方利益的內生性合理秩序,解決既有外生性制度安排難以應對的棘手問題?!蹲罡呷嗣穹ㄔ宏P于審理人身損害賠償案件適用法律若干問題的解釋》第11條規定了“雇主嚴格責任制”:“雇員在從事雇傭活動中遭受人身損害,雇主應當承擔賠償責任,雇傭關系以外的第三人造成雇員人身損害的,賠償權利人可以請求第三人承擔賠償責任,也可以請求雇主承擔賠償責任?!北仨毘姓J的是,“雇主嚴格責任制”的過度適用,將給勞動市場的供給方帶來過高的運營成本,不利于商業活動的開展。面對技術進步不斷革新商業模式的現狀,有學者指出,不宜“一攬子”將互聯網平臺的勞務供給認定為勞務關系,勞動法的適用范圍應當根據技術的發展做動態調整,“避免勞動關系的泛化”。[20](p50)“陳情權”的適用,將有助于勞動者和平臺之間自行達至責任和風險分配的最優解,為未來《勞動法》的動態調整提供方法論上的啟示。

(二)平臺殺熟場景:“人工干預權”。

平臺殺熟,是指信息處理者通過對信息主體的大數據分析,在掌握其消費偏好、消費習慣和消費水平后,將同一商品或服務以差別性定價賣給不同的信息主體從而獲得更多消費者剩余的行為,嚴重影響市場秩序、侵害消費者權益以及社會整體利益。例如,同樣的一份外賣餐食,外賣平臺對同一區域的客戶收取不同的配送費或者服務費;網約車軟件對相同里程、相近交通狀況的行程收取不同的費用。在殺熟技巧越發精湛的今天,平臺殺熟演化出兩種基本表現形式,從差別定價逐漸向誘導消費轉換。其中,差別定價以三種方式實現:(1)根據信息主體所使用的設備差異進行差別定價;(2)根據信息主體消費時所處的不同場合進行差別定價;(3)根據信息主體的不同消費習慣和效率頻率進行差別定價。誘導消費主要有三種表現形式:(1)分析信息主體對價格的敏感程度,對“高凈值客戶”隱藏性價比更高的選項;(2)利用預測型和自主學習型算法,實現各搜索界面的協調一致,排除信息主體的多樣化選擇;(3)在用戶原有偏好的基礎上進行戰略性反復推送,激發用戶原本不存在的隱性偏好。

平臺殺熟的本質,其實是人為的錯誤算法決策,是平臺放任有利于自身的、帶有偏見的算法決策取代原有公平的、不區別對待的算法決策。在這個意義上,平臺殺熟和算法決策錯誤并無二致,二者可以以相同的矯正方式予以應對。矯正算法決策錯誤最直接的方法,是人工介入。實際上,《個人信息保護法(草案)》第四章的“更正權”“獲解釋權”以及“被遺忘權”都是人工介入的典范,當算法決策產生錯誤時,由自然人介入決策過程,或對不正確的原始信息予以更正、或對看似不合理的算法決策予以解釋、或刪除包含噪音的個人信息。但正如上文指出的那樣,“更正權”“獲解釋權”以及“被遺忘權”層面的人工介入,尚不足以完全糾正錯誤的算法決策,更不可能實現免受算法支配的法律效果。在平臺殺熟和算法決策有誤的場景中,“免受算法支配權”應當對應比“人工介入權”程度更高的“人工干預權”,即以人工干預的方式直接糾正不合理的結果,以“自然人所具備的一般理性和情感”對信息主體的相關信息進行審查并得出全新結論。

更高程度的人工介入體現在,由自然人親力親為,對錯誤的算法決策過程和結果的干預。以健康碼為例,政府部門允許個人在健康碼的結果與實際情況不符時,撥打12345熱線發起糾錯申請,經縣級防控指揮部核實確認后,以人工決策取代算法決策形成公允的判定結果。這是在法律尚無明確規定的情況下,以“行勝于言”的方式實現了“免受算法支配權”的精神內涵,這種以人為本的執法實踐,讓智治與自治、法治、德治一樣充滿溫度。回到平臺殺熟的場景,“人工干預權”的設置,并不意味著平臺必須以“自然人親力親為”的方式進行定價或者向消費者推薦商品或服務,也不是當消費者覺察到被殺熟之后由人工審核算法定價的合理性。從節約雙方成本的角度考慮,平臺應在預測型和自主學習型算法的使用上保持克制,并且主動建立“算法決策審核官”等職位,由自然人專家主動監測算法決策的各個環節,防止利潤最大化導向下算法決策的異化和“脫韁”,以事前的“主動人工干預”避免產生事后的“被動人工干預”成本。

(三)信息繭房場景:“遠離權”。

人類的相互操縱和強力干預,頗受外部競爭和權力分化的限制,但打著促進個人自主旗號的算法工具,已經在受眾的半推半就之間完全破壞了人類的自主性。這種破壞性集中體現在通過吸引注意力的方式來影響人們的行為并左右人們的偏好。有學者將監控和管理人們生活的算法決策系統比喻成“隱形鐵絲網”,它們包圍并限制了人們的自主空間,個體甚至根本意識不到它們在做什么。[21](p9)無處不在的傳感器系統、時時開啟的定位服務、360度無死角的監控攝像頭以及呈指數級增長的大數據,記錄并重塑了人們的數字生活,任何從中逃亡的嘗試,都將面臨被“推回正軌”的壓力。例如,脫離銀行的資信審查系統,信息主體將無法獲得貸款,甚至,在房屋租賃的平臺都無法通過審核。2020年以來,反壟斷法和反不正當競爭法已經在宏觀層面頻頻發力,對橫亙在政府和市場之間、憑借科技優勢介入社會運營的技術寡頭進行合理拆分,防止因“集個人信息之大成”而掌握“準公權力”的商業平臺、金融機構和社交媒體興風作浪。在微觀層面,信息主體也需要切實有力、操作性強的個體權利,以脫離算法決策所塑造的信息繭房,不被掌控話語權的商業巨頭們“帶節奏”。

美國學者特蘭最早提出了“注意力保護權”(the right to attention)的概念,主張賦予信息主體對抗算法決策捕捉和控制注意力的權利。[22](p1023)由于“注意力保護權”的概念過于模糊,實踐中人們將其解讀為“離線權”(the right to disconnect),意指信息處理主體應當賦予信息主體從網絡世界回歸現實生活留白、不受算法調度的被動權利。弗銳希曼和瑟琳格更進一步,提出了“遠離權(the right to be off)”的概念。他們指出,人類在21世紀保持自主意識的關鍵在于,個體隨時隨地都能享有在沒有任何算法工具強加于身的情況下生活的基本權利。[23](p96-102)實現“遠離權”的方式,是在“通知—同意機制”中,對信息主體可以“隨時離線”的權利予以特別提示。考慮到算法決策應用場景的千變萬化,千篇一律的權利預設方式將難以發揮其既定的效用,“遠離權”的內涵亟待進一步完善。

根據拉茲在20世紀80年代提出的四維自主理論,個體想要成為自己生活的主宰者,應當符合四個基本條件:(1)具有最低限度的理性來計劃擬實現的目標;(2)擁有足夠的選擇,不受單一手段的限制和制約;(3)在思維和心智上獨立,有能力應對來自外界的干擾、脅迫和操縱;(4)享有實現目標的精神和魄力。[24](p112)相應的,“遠離權”的構建可以從多個面向展開:(1)算法決策通常透過限制和約束個體的選擇,以達到直接或間接干預人類決策的目的,“遠離權”則應打破算法工具有限選擇的藩籬,禁止信息處理者利用技術手段隱藏、過濾、預選可供信息主體選擇的選項;(2)算法決策工具慣于通過反復推薦,來削弱個體自主決策的意志,以“放長線釣大魚”的手段,讓人們被迫接受一套“因反復而定型”的思維模式乃至價值觀。信息主體應當被允許請求信息處理者剔除一切可能擾亂其思維的推薦方式,包括但不限于重復推送、在關鍵位置進行醒目提醒等;(3)某些算法工具被塑造成具有脅迫性的輔助工具,如果個體不按照程序規定的方式行動,系統就會發出不利后果的嚴正警告。在更極端的情形中,算法工具之間甚至存在合謀的情況,例如,某些自動駕駛系統同保險費計算程序掛鉤,如果用戶不嚴格按照自動駕駛系統所“建議”的方式駕駛車輛,那么將可能面臨保費激增的后果。就此而論,“遠離權”應當包含禁止系統濫發警告的消極效力;(4)算法工具通過吞噬碎片時間的方式,逐漸消磨個體“集中力量辦大事”的心力:密集溝通與零散信息讓專心致志的思考愈發奢侈,疲于應付的必然結果就是好生忙碌卻智識匱乏,在不知不覺間讓算法接管一切。就像當今所有的網絡游戲都被要求引入“防沉溺系統”一樣,信息處理者應當主動在算法工具中置入長時間使用應用提醒,以及超長時間使用應用被迫離線等功能。

四、結語

“免受算法支配權”所揭示出來的重要命題是,人類與技術之間,需要保持相當的安全距離。算法操縱、平臺殺熟和信息繭房場景中“免受算法支配權”的內涵雖然不盡相同,但其背后的邏輯基點都是不同場景之間自然人保護的共性需求:其一,警惕本來應當是中立的智能應用,被用來掩飾未取得“多數人同意”的少數人集權。其二,避免“算法正確”取代“自然人正確”以及“信息處理者利益最大化”排斥“個人利益最大化”。其三,倡導一種符合自然人實際感受的自由與自主。只有在決定自身利益的關鍵事務上享有積極參與的權利,人類才有可能維持和延續在知識、經驗和道德上的卓越。監管套利、技術壁壘和應用迭代或將日益擴展信息采集的邊界、加大算法可解釋性的鴻溝、提升個體被網絡世界遺忘的門檻,但倘若能將免受算法支配的權利思維嵌入至算法規制的全流程,那便是以充分體現人民意愿的方式將“不斷增強人民群眾獲得感、幸福感、安全感”的價值追求一以貫之;[25](p15)如此個人信息保護,正所謂“良法善治”也。

猜你喜歡
主體信息
論自然人破產法的適用主體
南大法學(2021年3期)2021-08-13 09:22:32
從“我”到“仲肯”——阿來小說中敘述主體的轉變
阿來研究(2021年1期)2021-07-31 07:39:04
技術創新體系的5個主體
中國自行車(2018年9期)2018-10-13 06:17:10
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
懷舊風勁吹,80、90后成懷舊消費主體
金色年華(2016年13期)2016-02-28 01:43:27
論多元主體的生成
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
翻譯“主體間性”的辯證理解
外語學刊(2011年3期)2011-01-22 03:42:30
信息
建筑創作(2001年3期)2001-08-22 18:48:14
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 2024av在线无码中文最新| 国产精欧美一区二区三区| 亚洲Av综合日韩精品久久久| 在线观看国产黄色| 九色免费视频| 国产18在线播放| 狠狠久久综合伊人不卡| 亚洲人成网址| 在线视频亚洲色图| 亚洲视频在线青青| 性网站在线观看| 黄色三级网站免费| 热99re99首页精品亚洲五月天| 中文字幕调教一区二区视频| 视频二区中文无码| 欧美三級片黃色三級片黃色1| 天堂中文在线资源| 亚洲VA中文字幕| 欧美日韩国产成人高清视频| 人人91人人澡人人妻人人爽| 久久精品日日躁夜夜躁欧美| 一级福利视频| 美女啪啪无遮挡| 不卡无码网| 国产第二十一页| 永久免费无码日韩视频| 精品人妻系列无码专区久久| 亚洲欧美在线看片AI| 亚洲美女AV免费一区| 亚洲人成网站色7777| 日韩欧美91| 欧美精品成人| 91www在线观看| 久久永久免费人妻精品| 亚洲最大在线观看| 99热这里只有精品在线播放| 欧美另类图片视频无弹跳第一页| 天天综合网站| 狠狠色狠狠色综合久久第一次| 不卡视频国产| 亚洲乱强伦| 亚洲天堂成人在线观看| 亚洲欧美日韩久久精品| 亚洲无码视频一区二区三区| 97视频免费在线观看| 高清不卡毛片| 日韩无码黄色网站| 福利在线一区| 夜精品a一区二区三区| 午夜精品福利影院| 免费高清a毛片| 国产在线精品网址你懂的| 全色黄大色大片免费久久老太| 日韩一二三区视频精品| 免费不卡在线观看av| 国产丰满成熟女性性满足视频| 免费av一区二区三区在线| 国产欧美日韩视频怡春院| 一级黄色欧美| 亚洲第一视频网| 成年看免费观看视频拍拍| 91精品人妻一区二区| 日日拍夜夜嗷嗷叫国产| 青青热久麻豆精品视频在线观看| 色综合成人| 国产一区二区三区夜色| 狠狠亚洲婷婷综合色香| 亚洲永久免费网站| 亚洲第一精品福利| 热99re99首页精品亚洲五月天| 国产女主播一区| 久久久久亚洲av成人网人人软件| 国产成人精品免费视频大全五级| 国产Av无码精品色午夜| 区国产精品搜索视频| 亚洲三级视频在线观看| 日韩免费毛片| 欧美日本激情| 米奇精品一区二区三区| 亚洲第一页在线观看| 国产成人综合亚洲网址| 特级精品毛片免费观看|