999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法治理的正義尺度

2022-07-13 21:30:54馬長山
人民論壇·學術前沿 2022年10期

【摘要】算法治理是數字時代的一個核心問題,它反映著數字社會的生活規律和運行邏輯,已經超出了工商社會的治理機制與體系框架,其價值尺度也突破了物理空間的正義范圍,新型的數字正義則應運而生。因此,在算法治理過程中,應適時確立數字正義原則,框定數字正義領域,探索數字正義實現路徑,從而構建科技向善、以人為本的算法治理秩序,促進我國的數字法治建設。

【關鍵詞】算法治理? 數字正義? 敏捷治理? 數字法治

【中圖分類號】D90? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2022.10.006

在新興科技革命的推動下,人類開始邁進“萬物數字化、一切可計算”的新時代。算法不僅成為生產生活的重要組織者,還是社會秩序的重要建構者,但它所帶來的問題和風險也日漸凸顯。為此,世界主要國家都在積極探索構建算法治理體系,從而促進科技向善,推動數字化轉型和社會變革進步。然而,算法治理帶有顯著的技術性、風險性、迭代性,使其難以套用傳統的治理模式與機制,信息技術倫理也突破了物理空間的正義視域和尺度,這樣,確立與之相應的數字正義,就成為構建算法秩序的方向指引和價值支撐。

算法治理的正義原則

在當今數字社會,人類的一切活動都會生成數據、時刻都在交換信息,并通過數據分析、信息控制和建模計算來確保數字化生產生活的正常運行。正是基于這一全新的數字生態,多環信息圈開始在任何空間中彌散,[1]“不論是人的、動物的或是機械的,都是信息論的組成部分”。[2]因此,數據信息就在物理世界(世界1)、精神世界(世界2)之外,形成了一個獨立平行的數據世界(世界3)。[3]這個數據世界固然是物理世界和精神世界的數字化呈現,但又不是對它們的簡單映射,而是以信息中樞地位來實現對物理世界和精神世界的無界鏈接、分享重構和互動控制。其中,數據信息的分享利用是基礎,它并不會像面包那樣,你吃掉一半我就少了一半,恰恰是在不斷的流動分享、復制挖掘和賦值利用中才能生成更多數據,附加更多意義,創造更多價值;但同時,如果這種分享利用不受節制,那也必然對數字人格、數字財產、數字交易、乃至分享利用本身帶來嚴重威脅。相對于分享利用,算法的建模計算則是數字引擎,它既是一個數據信息處理系統,也是替代決策系統、透析評價系統,一方面,憑借算法可以創造出智能化、自動化的生產和服務,讓全社會都能夠分享數字化的發展福利;另一方面,算法也會形成多重穿透、讓隱藏事物可視化、以及誘導操縱的能力,從而帶來令人不安的數字化控制。由此看來,數據信息和算法的背后,蘊含著分享與控制的數字生活悖論。算法治理的核心就在于消解這一悖論,確立并遵循數字時代的正義原則。

自主選擇原則。隨著數字化轉型的不斷加速和智能化水平的不斷提高,人們在日常生活中必然會面臨越來越多的算法推薦和算法決策,進而享受智慧便捷的數字生活。但是,算法并不是無邊界的,用算法來處理人類特有的一些活動,植入太多的計算機邏輯,就“有可能使這些活動喪失最根本的人性”;[4]而算法在生活中的泛化替代和誤用濫用,也很容易演化成一種“要么接受、要么離開”的數字化強迫。因此,在算法決策之外保留必要的平行選項,維護人類的自主性、個人的選擇性,無疑是數字正義的根本要求。我國的相關法律、法規也有相應規定,主要包括:一是關鍵領域的自主保留。即在涉及個人尊嚴和基本生存的服務領域,政府或者經營者應當控制算法決策的范圍與功能,從而為公民(消費者)保留是否接受自動化決策的選擇空間,提供人類決策(人工服務)的通道。二是個性服務的便捷拒絕。即在政府或者經營者基于個人敏感信息、或者針對個人特征而進行算法決策的情況下,應尊重公民(消費者)的同意權和拒絕權,確保用戶有可以關閉這些算法的便捷渠道,并提供拒絕后的其他選項。三是通暢可靠的救濟保障。即當公民(消費者)對算法決策結果產生質疑、并不能接受該結果時,應當為公民(消費者)提供人類決策的救濟渠道。這樣,才能有效制約算法決策可能產生的數字控制傾向,更好地發揮算法決策的積極效能、釋放數字福利、分享智慧生活,因此,自主選擇是算法治理必須遵循的重要價值原則。

公開透明原則。算法推薦和算法決策之所以備受推崇,很重要的原因就在于它具有勝出人類決策的一些優勢,如基于大數據分析的科學性、沒有情感立場的客觀性、快速超能計算的高效率等。然而,算法并不是完美的,也不是萬能的,它并不能“解決”所有問題。更為重要的是,無論是在政務服務領域還是在商業交易領域,算法服務的提供方與接受方都在信息和技術上處于明顯的不對稱狀態,彼此之間也沒有“面對面”的對話互動。此時,算法推薦和算法決策就猶如“盲盒”一樣,“用戶們無法看清其中的規則,無法提出不同意見,也不能參與決策過程,只能接受最終的結果”,[5]從而形成了眾所周知的算法黑箱,其中難免會蘊含“不穩定、不公平和不勞而獲的因素”。[6]為破解這一難題,世界各國的法律和倫理規范都要求算法具有可解釋性、公開性、可責性。我國《個人信息保護法》第七條、《互聯網信息服務算法推薦管理規定》第四條、第十六條也規定:信息處理者應當公開個人信息處理規則,明示處理的目的、方式和范圍;提供算法推薦服務,應以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等。這樣才能大幅增強人們對算法服務的便利分享和理性監督,有效抑制算法誤用與算法濫用,從而為強化算法治理、促進其友好向善提供必要的價值基準。

公平合理原則。近代以來,在工商社會邏輯和啟蒙思想的基礎上,構建了以人格權、物權、債權等為核心的現代法律制度,形成了私權神圣、契約自由、責任歸己的正義價值觀,并在公法和私法領域確立起相應的公平合理原則。然而,隨著信息革命的到來,網絡化、數字化、智能化轉型顛覆了人類生活的慣常方式,“從開車到股票交易再到公司人員配置等一系列重大決策權,從人手中轉移到算法手中”。[7]現代法律的正義價值觀和公平合理原則正在面臨嚴峻挑戰,進而發生根本性重塑和時代轉型。

首先,維護交換平衡。在萬物互聯、數據說話的時代,每個人都既是信息生產者又是信息消費者,數據信息也因此在生產生活中占據中樞地位。[8]人們面對網約租車、刷臉支付、個性化推薦、智能投顧、智慧醫療等數字化服務時,都需要提供或分享必要的個人信息才能完成。也即在線生活和算法應用提供了智慧便捷服務,但同時,人們也必須把一些必要信息交給平臺和算法,從而形成互惠交換、合理利用的數字生態。此刻,就難以僵化地堅守個人隱私權利,也不能簡單搬用“物理時代”的正義原則,而應秉持開放包容的精神,一方面加強對個人敏感隱私信息的保護,另一方面強化個人一般信息的商業利用和公共利用,[9]從而以算法服務提供方和接受方的互惠交換與利益平衡為基點,確立起數據信息處理和算法規制的新型公平合理原則,實現數字正義,構建數字法治秩序。

其次,秉持正當合理。算法無疑是人類的設計之物,無論是AI編寫AI代碼,還是復雜的神經網絡算法,都是在人類的控制和教導下完成的。即便存在程序員也可能說不太清的算法黑箱,但算法也并沒有失控,仍在人類的掌控范圍內。事實上,從數據清洗標注、繪制知識圖譜、到算法建模、代碼編寫,都不可避免地嵌入了設計者、操作者的價值理念,都“吸收了設計師的社會觀念和社會目標,并試圖在未來重制它們”。[10]因此,如何限定算法的價值偏好,將其納入正當合理的規范框架內,無疑是算法治理的根本任務和重要使命。我國《互聯網信息服務算法推薦管理規定》明確要求,“提供算法推薦服務,應當遵守法律法規,尊重社會公德和倫理,遵守商業道德和職業道德,遵循公正公平、公開透明、科學合理和誠實信用的原則”。具體包括:算法要堅持主流價值導向,避免非法虛假信息傳播,不得利用算法實施屏蔽、操縱、誘導、歧視、不合理限制、不公平不公正對待、以及實施壟斷和不正當競爭等行為。這些都是確保科技向善、正當合理的基本規范和價值尺度,需要基于不同的應用場景、不同的權益屬性、不同的類別等級、不同的數字關系進行厘定和確認。

再次,遵循比例原則。如前所述,算法是一個數據信息處理系統,它必然以數據信息為基礎,直接關乎用戶、企業和政府等多方的數據信息權益;同時,算法又是一個決策系統,其決策結果也會對用戶、企業和政府等多方權益產生重要影響。這樣,算法治理就包含了私權利、私權力和公權力之間的相互關系和權益邊界,也就應遵循比例原則來加以權衡。我國《個人信息保護法》在涉及信息處理、合同訂立履行等方面的多個條款中,均有“不得過度”“影響最小”“最小范圍”“合理范圍”“所必需的范圍和限度”“所必要的最短時間”等規定,這些規定正是比例原則的基本要求,也是算法治理的重要支撐。與以往比例原則所不同的是,應遵循以下衡量基準:一是立足數據信息的分享與控制屬性;二是堅持算法服務于人、分享數字發展福利的主導方向;三是保護數字人格和數字生存發展等基本權利;四是對不對稱關系中處于弱勢地位的算法服務接受方提供必要的優先保護。

最后,避免誤用濫用。算法是一種數字技術應用,在很多領域、很多方面的計算能力和處理能力都超過人類,但并“不是所有可以計算的東西都重要,也不是所有重要的東西都可以被計算”,[11]它也會有自身的局限,如算法錯誤、算法黑箱、算法歧視、算法共謀、算法操控等,這些都會產生嚴重背離公平合理的不良后果。因此,避免算法誤用和濫用,是公平合理原則的底線要求,是維護算法治理秩序的重要保障。

數字人權原則。在數字時代,個人信息已經全方位覆蓋了從搖籃到墳墓的全部私人生活,“直至在計算機數據庫中形成一個‘人’。”[12]因此,在日常生活中,每個人都既是自然人也是數字人;而在數字政府的制度框架下,人們則是數字公民。其中,無論商業交易中的算法還是自動化行政中的算法,都有產生數字鴻溝、算法歧視、算法操控的可能,這就會給人們在數字社會的生存發展帶來嚴重障礙,從而出現數字人權問題。算法技術應用應堅持以人為本,以提高人類的數字生活能力和生活質量為標準,而不能異化為限制人、操控人的自動手段。聯合國教科文組織推出的《人工智能倫理問題建議書》就明確指出,人工智能這類技術極具侵入性,它們可能會侵犯人權和基本自由,且被廣泛使用。因此,應明確禁止使用人工智能系統進行社會評分和大規模監控,個體也應該有權訪問甚至刪除其個人數據記錄,各國應采取改善數據保護和保障個體對自身數據的了解和控制權的行動。[13]因此,維護和保障數字人權,就成為算法治理不可或缺的重要準則。

算法治理的正義領域

以往的正義觀念和理論,基本上都是圍繞身份、地位、財富、機會和條件的分配,以自由、平等和權利的形態來展開的。然而進入數字時代后,萬事萬物都會通過網絡化、數字化、智能化方式加以表達、鏈接、交互和流轉,數據信息與建模算法就擔負起重要的關系建構和秩序塑造的功能。此時,公平正義的領域和范圍就不再局限于物理方式的資源分配模式與機制,而是形成了數字方式的“分享/控制”模式與機制。它所產生的一個嚴重后果是,相當一部分自由、平等、權利、公正的內涵已被數字化掏空變現,只剩“外殼”尚在。例如,外賣騎手的勞動權利一直存在,但“逐低競爭”的算法派單機制卻讓他們形成了難以自控的嚴重“內卷”;商業交易中的合同權利依然如故,但大數據殺熟、算法歧視卻悄然“釜底抽薪”;同樣,老年人的各種權利都未改變,但數字鴻溝卻使他們失去了實現自己生活權利的能力。這表明,算法治理的重心是應對數字控制、實現數字正義。這里的數字控制,并不是以實物流轉方式和人為手段來直接分配資源,而是通過數據信息處理和算法控制來隱性地匹配資源與調動行為,于是就披上了技術的客觀外衣,建立了自動實現的執行機制。因此,抑制數字控制也就成為數字正義的主要領域。

對數據信息的控制。對數據信息的控制,是指通過數據信息收集、存儲、加工、傳輸、提供、公開、刪除等方式,實現對相對方的數字錨定。它既是掌控目標對象的前提,也是算法建模的基礎。眾所周知,隨著從商品經濟向數字經濟的迭代轉型,數據信息已成為關鍵的生產要素,算法也成為重要的生產力。為此,信息“與其說是旨在儲藏,不如說旨在流通”,[14]進而把數字經濟打造成一種“不求所有、但求所用”“可用不可見”的分享經濟樣態。由于數字時代的一切社會行為都“圍繞著生產與信息控制”,[15]因此,在大量數據分享利用的同時,對數據信息的控制就顯得十分關鍵。具言之,一方面,社會生活中個人的數據信息隨時會生產出來,也隨時會以提供、傳輸、抓取等方式被互聯網平臺、技術公司和政府機構所收集存儲和挖掘使用,從而形成了信息優勢方和信息弱勢方之間的明顯分野。另一方面,算法治理并不僅限于代碼編寫和計算過程本身,而是一個包括數據信息處理在內的“數據輸入—建模計算—結果輸出”的系統化形態。收集、存儲、使用、加工、傳輸、提供等數據信息處理過程,反映著信息處理者的不同價值觀和利益偏好,而消費者或公民往往對此難以察覺、也無策應對。可見,數據信息控制上的不公平、不合理,實質上是數據信息控制能力和數字行動能力上的鴻溝,從而引發更嚴重、更廣泛的社會不公。這就要求在算法治理中貫徹數字正義原則,設置合法、合理、安全的數據信息處理框架,強化消費者或公民的數據信息控制能力,從而將分享與控制置于數字正義尺度之中。

基于算法的控制。基于算法的控制,主要是指依托算法推薦或者算法服務,向相對方施加或明或暗的影響,從而干預誘導相對方思想和行為的控制方式,它屬于一種由外及內的間接干預策略。這種控制主要通過如下步驟來完成。首先,全景敞視。即通過大數據收集、分析而進行數據畫像。如果說在1993年一只狗匿名上網發表言論,人們并不知道它是一只狗的話;那么到了2013年,“新版的互聯網不僅僅知道你是一只狗,它還了解你的品種,想賣給你一碗上等的粗粒狗糧。”[16]這時,每個人在大數據和算法面前,都只是一個全景敞視的“透明個體”,大數據和算法形成了一個“沒人能夠逃離的電子牢籠”。[17]其次,算法投喂。數字時代的一個重要特征是,“誰掌控數據信息、處理數據信息,誰就擁有了控制他人行為和思想的能力。”[18]曾經的臉書新聞就設計了一種投喂算法,計算出用戶的個性特征喜好,然后通過“過濾泡”投其所好,定向推送信息。而在美國總統大選中,Facebook、Twitter、YouTube等平臺公司通過大量用戶信息分析,進行數據畫像和個性化推送,從而操縱選民的意識和行為,“這種影響不會觸發用戶的意識,而是一種潛意識,使它們成為你思想的一部分,還讓你覺得這是自己的主見。”[19]同樣,英國脫歐決策過程中,也顯示出一場“新型政治形態革命”——“未來操控政治的,將是數據,而不是你的大腦”。[20]最后,歸納偏置。有研究者指出,自動學習技術以及所有的人工智能技術幾乎都反映了其創立者的一種先驗偏置,他們在算法中給我們提供了一個預設性的、已經解釋了的世界。這樣,我們所看到的世界“恰好只是我們期望看見的或我們從訓練中看見的”。[21]這些帶有預設性的看法或者偏愛如果不受限制,將會“在更大程度上操控我們的生活”。[22]由上可見,基于算法的控制,會對人格尊嚴、自由選擇、平等參與、民主權利等產生深刻影響,這就需要按照數字正義原則,防范算法對人們的偏好誘導、思想控制和行為影響,從而維護數字人權,實現算法治理的正義目標。

通過算法的控制。通過算法的控制,主要是指通過算法決策來預測、分類、調配或者判定某個事項,進而對相對方的權益和生活產生重要影響的控制方式,它屬于一種自動執行的直接干預策略,主要包括以下幾種類型。一是預測評估。近年來,國內外一些金融、投資、警局等公私部門都在大量開發算法預測評估系統,例如,2004年9月至2007年4月,美國科羅拉多的公共福利系統開發自動化服務系統;2013年1月,美國南加州阿罕布拉市警察局運用“預測犯罪”系統(PredPol);其他國家也在開發金融風險評估系統、城市安全風險評估系統;等等。然而,這些對個人的評分和評估——就業、貸款資格、危險級別,其目的主要是目標篩選,這就很可能形成一種有意或者無意的算法偏見。[23]更為重要的是,它將導致一種被重新分類、評價、比較、甚至被看透的“控制革命”,[24]平等、自由、公正和民主原則都將遭遇重大挑戰和貶損危險。二是算法指令。例如,外賣騎手和網約車的算法派單、平臺的算法定價、算法成交單、智能合約等,它們都是由算法發出自動化指令,進而實現對人力物力資源的調配。在這里,算法系統已經由簡單工具變成了重要“決策者”和指令發布者,基于此,“依靠算法決定行動方向的人,可能會被導向固定的路線,就像演員只能照著劇本表演一樣”。[25]一旦存在明顯的價值偏好或者出現錯誤,就可能帶來嚴重的不良后果。三是算法裁決。2021年8月,俄羅斯在線支付服務公司Xsolla使用算法作出的“不敬業、效率低下”判斷,解雇了147名員工。無獨有偶,2019年美國亞馬遜內部的AI系統,就通過追蹤物流倉儲部門員工的工作效率,自動生成解雇的指令。[26]這些無疑都是缺少溫度、漠視人性的算法濫用。在我國,自動化判定、自動化行政、智能裁判的情況也不斷增多,如自動化招投標系統、自動化執法系統、自動化裁判系統(智能輔助裁判)等,這些系統都是通過算法決策,來對相應事項做出裁決,經由負責人員確認后生效。這些算法決策在效率性、客觀性、一致性等方面固然能夠超過人類,但它也存在著出現算法錯誤、算法偏見、算法歧視、算法黑箱、算法霸權等問題的可能,甚至會產生“數字決策系統鎖定”的社會風險。美國的算法實踐表明,算法裁決也可能會“將原有的歧視予以自動化,加劇了不平等”。[27]因此,需要按照自主選擇、公開透明、公平合理和數字人權原則,對通過算法的控制加以有效約束和規制,建立科技向善的算法治理秩序。

算法治理的正義路徑

算法治理是數字時代的全新課題,是一個融合技術、倫理和制度的高度復雜系統,其治理方式、治理策略和治理導向均已超出了傳統治理范圍。因此,需要構建新型的治理范式,踐行數字正義原則,立足數字正義領域,探索實現數字正義的新路徑、新策略。

確立敏捷治理的監管機制。敏捷治理是數字時代的新興治理理念,旨在形成快速靈活、包容平衡、共同參與、以人為本的治理模式和機制,從而應對新興技術挑戰、解決創新發展難題和推進構建智慧治理體系。2022年3月,中共中央辦公廳、國務院辦公廳印發的《關于加強科技倫理治理的意見》就明確要求敏捷治理、倫理先行,“加強科技倫理風險預警與跟蹤研判,及時動態調整治理方式和倫理規范,快速、靈活應對科技創新帶來的倫理挑戰。”為此,探索敏捷治理的算法監管機制,已經勢在必行。

首先,秉持數字法治立場。即擺脫傳統法治的慣性思維,從數字法治理念和立場出發,按照數據信息的基本屬性、算法治理的基本規律、數字權益的基本邏輯,來制定監管規則、設立監管程序、實施合理規制策略,既要為創新“踩油門”,又要為秩序“踩剎車”,其標準就是算法“以人為本”、遵循數字正義,如國家七部委要求以“算法取中”來優化外賣送餐的派單機制等,就是重要的嘗試和努力。

其次,探索精細敏捷的治理策略。包括基于算法服務和算法決策的相關重要程度、用戶規模、動員能力、干預強度等,依法建立精細化的分級分類監管機制;建立網信、電信、公安、市場監管等政府部門的快捷協同機制、安全評估和監督檢查機制;完善科技倫理審查和監管制度,建立及時高效的跟蹤、監測、預警科技倫理風險機制;建立靈活多樣、包容審慎的算法合規機制,實施及時有效的正向激勵監管;等等。

再次,強化共同參與合作。針對算法的敏捷治理,技術性、復雜性、系統性、風險性都非常高,僅憑政府力量是難以做好的,因此,需要動員社會力量廣泛參與,包括科技公司、網絡平臺、行業組織、技術人員、消費者、新聞媒體等,共同維護數字正義價值,創造遵規守法的算法治理環境。

確立責任明確的自律機制。算法治理在很大程度上依賴于技術規程和操作控制,因此,基于主體責任的算法自律機制就十分關鍵了。目前,世界各國都在積極探索算法治理的自治模式,如微軟、谷歌、IBM等科技公司制定了人工智能開發的倫理原則。我國企業在《新一代人工智能治理原則——發展負責任的人工智能》《新一代人工智能倫理規范》等政策規范的指引下,也正在積極行動,促進可信AI的發展應用。根據《互聯網信息服務算法推薦管理規定》和相應倫理規范的要求,我國算法治理的自律機制主要包括以下四個方面。

一是落實算法主體責任。算法服務或者算法決策提供者應建立健全算法機制機理審核、數據安全和個人信息保護等管理制度和技術措施,進行嚴密的自我規范;應綜合運用內容去重、打散干預等策略,優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性;建立完善的用戶自主選擇機制,充分尊重用戶的自主權、選擇權等。

二是建立風險評估預警機制。定期審核、評估、驗證算法機制機理、模型、數據和應用結果,發現問題及時整改修正。同時,可以借鑒美國推特2021年7月推出的“算法偏見賞金”,在社會上公開征求針對平臺“算法偏見”問題的舉措,以打造算法治理的“眾包模式”,[28]從而推進算法自律的機制創新。

三是積極研發倫理工具。通過科技研發,推進以技術規制技術的能力和水平,向市場需求方提供合適的風險評估工具和相應的算法修復服務,推動倫理服務的精細化和專業化發展。[29]

四是推進AI倫理行業約束。這是一種全球趨勢,聯合國教科文組織于2019年啟動撰寫全球AI倫理建議書,于2021年11月在第41屆聯合國教科文組織大會上通過了全球首份《人工智能倫理問題建議書》。2019年歐盟委員會高級AI專家組(AI HLEG)發布了《可信賴AI倫理指南》,各主要國家也在積極響應和推進算法治理。在我國,2019年6月,國家新一代人工智能治理專業委員會發布了《新一代人工智能治理原則——發展負責任的人工智能》;2019年5月,人工智能倫理與安全研究中心、新一代人工智能產業技術創新戰略聯盟和其他學術機構及產業組織共同發布《人工智能北京共識》;2019年8月,深圳人工智能行業協會與曠視科技、科大訊飛等數十家企業聯合發布《新一代人工智能行業自律公約》。此外,百度、騰訊等主要科技企業也提出了企業自身的AI倫理準則;曠視科技還在制定準則的基礎上,成立了人工智能道德委員會,[30]進而推動人工智能安全可靠、可控可信和可持續發展。通過這些機制,就可以建立健全行業標準、行業準則、自律管理制度和服務規范,從而更好地促進算法治理,維護新時代的數字正義。

建立健全有效的社會監督機制。在數字時代,算法應用改變著生產生活的一切,對每個人都會有切實的重要影響。但算法具有很強的技術性、隱形性、復雜性、自動性特征,又讓人們對其難以接近、難以洞察、難以把握。因此,亟需建立健全有效的社會監督機制。

其一,暢通社會監督渠道。《互聯網信息服務算法推薦管理規定》明確要求,算法推薦服務提供者應制定完善服務規范、依法提供服務并接受社會監督,設置便捷有效的用戶申訴和公眾投訴、舉報入口,明確處理流程和反饋時限,及時受理、處理并反饋處理結果。但這一規定要落到實處,尚需很多努力。而且,政府部門、行業組織等的監督渠道也有待暢通和拓展。

其二,激活監督能力。其實,我國的社會組織、基層組織、新聞媒體等并不少,但是并不都能發揮有效的監督作用。因此,激活它們的監督能力就至關重要。如2019年南京市建鄴區要求環衛工人佩戴智能手環“監工”,2020年蘇州推出“蘇城文明碼”等事件,受到社會的關注和質疑,當地政府最終在算法治理邊界的建議下回歸到審慎行政的策略上,社會監督起到了良好效果。

其三,強化數字能力。我們每個人都具有權利能力和行為能力,并藉此行使自己的權利、履行自己的義務。但進入數字時代后,每個人不僅要有權利能力和行為能力,還需要有掌握、運用、操作數字產品和在線處理事務的能力,這樣才能適應和參與數字生活。因此,面對算法的社會監督,就需要人們形成良好的數字素養和數字能力,更好地認識算法、體驗算法,并運用數字能力來監督算法,從而維護自身的合法權益。這無疑是推進算法治理,實現數字正義的廣泛力量。

確立公正可靠的司法保障機制。在法治社會,司法救濟是最后的權益保護和公平獲得通道,也是社會治理的根本支撐。因此,算法治理也不例外。換言之,在算法治理過程中,司法救濟無疑設置了一道維護數字正義的重要屏障。

由于算法推薦和算法決策帶有調配性和控制性,因此,算法治理中的司法救濟也會更為復雜,利益關系更加重要。其司法救濟方式主要包括:一是算法的司法審查機制,即一旦發生算法訴訟,司法機關應啟動司法程序上的算法審計,并根據算法審計結果來進行權益衡量和司法裁決;二是算法案件的公益訴訟機制,將涉及公共利益、弱勢群體權益的算法案件,納入公益訴訟來進行維權保護;三是重要領域、重要權益的重點保護,如對算法訴訟中消費者或數字公民的基本權益、反壟斷和反不正當競爭、老年人和未成年人的基本權利、關乎生存和發展的數字人權等,均需要重點保護。只有這樣,才能體現科技向善、以人為本的精神,也才能更好地實現數字正義原則,構建良好的算法治理秩序。

結語

事實表明,新興技術應用既具有創造性,也具有破壞性。為此,聯合國教科文組織發布的《人工智能倫理問題建議書》突破了“發展先行”抑或“治理先行”的兩難選擇,強調二者的協同共進。我國需要秉持包容審慎的治理策略,積極構建科技向善的算法治理制度。然而,科技向善的基準已不再是以物質分配為核心的“物理”正義;而是以信息分享/控制為核心的數字正義。這就需要基于數字生產生活方式和數字行為規律,有效探索并重建數字正義理念、數字正義原則、數字正義領域、數字正義程序等,從而為我國的數字法治建設提供核心動力,奠定堅實基礎。

(本文系國家社科基金重大項目“數字社會的法律治理體系與立法變革”的前期成果之一,項目編號:20&ZD177)

注釋

[1]參見[英]盧恰諾·弗洛里迪:《信息倫理學》,薛平譯,上海譯文出版社,2018年,第426頁。

[2][14][美]維納:《人有人的用處——控制論與社會》,陳步譯,北京大學出版社,2010年,第12、109頁。

[3]董春雨、薛永紅:《大數據哲學——從機器崛起到認識論方法的變革》,北京:中國社會科學出版社,2021年,第37頁。

[4][5][美]盧克·多梅爾:《算法時代:新經濟的新引擎》,胡小銳等譯,北京:中信出版社,2016年,第223、139~140頁。

[6][美]弗蘭克·帕斯奎爾:《黑箱社會——控制金錢和信息的數據法則》,趙亞男譯,北京:電子工業出版社,2015年,第294頁。

[7][美]克里斯托弗·斯坦納:《算法帝國》,李筱瑩譯,北京:人民郵電出版社,2017年,第197頁。

[8]參見馬長山:《數字法學的理論表達》,《中國法學》,2022年第3期。

[9]參見張新寶:《從隱私到個人信息:利益再衡量的理論與制度安排》,《中國法學》,2015年第3期。

[10][11]Deakin, S. and Markou, C. (ed.), Is Law Computable? Critical Perspectives on Law and Artificial Intelligence, Oxford: Hart Publishing Bloomsbury Publishing Plc, 2020, pp. 135, 104.

[12][英]約翰·帕克:《全民監控——大數據時代的安全與隱私困境》,關立深譯,北京:金城出版社,2015年,第14頁。

[13]《193個成員國簽署全球首份人工智能與倫理協議,應對隱私相關等問題 》,https://www.sohu.com/a/505874289_120076174,2021年4月29日訪問。

[15][荷蘭]約斯·德·穆爾:《賽博空間的奧德賽——走向虛擬本體論與人類學》,麥永雄譯,桂林:廣西師范大學出版社,2007年,第16頁。

[16][美]伊萊·帕里澤:《過濾泡——互聯網對我們的隱秘操縱》,方師師等譯,北京:中國人民大學出版社,2020年,第6頁。

[17][美]安德魯·基恩:《科技的狂歡》,趙旭譯,北京:中信出版集團,2018年,第177頁。

[18][19]《算法操控大選,數據左右美國》,https://new.qq.com/rain/a/20201015a025hs00,2021年9月28日訪問。

[20]《新型政治形態革命,用網絡操控你有多簡單?》,https://www.sohu.com/a/300329750_488672,2021年3月3日訪問;《英國首相背后的男人:策劃脫歐、贏下大選、改寫歷史》,https://ishare.ifeng.com/c/s/7sp1UqmIVAe,2021年3月3日訪問。

[21][美]George F. Luger:《人工智能——復雜問題求解的結構和策略》,郭茂祖等譯,北京:機械工業出版社,2017年,第483頁。

[22][美]凱西·奧尼爾:《算法霸權——數學殺傷性武器的威脅》,馬青玲譯,北京:中信出版集團,2018年,前言第V頁。

[23]參見[英]凱倫·楊等編:《馴服算法——數字歧視與算法規制》,林少偉等譯,上海人民出版社,2020年,第232頁。

[24][德]克里斯多夫·庫克里克:《微粒社會——數字化時代的社會模式》,黃昆等譯,北京:中信出版社,2018年,前言第VII~VIII頁。

[25][美]盧克·多梅爾:《算法時代:新經濟的新引擎》,第138、126、127頁。

[26]《被算法“監控”的打工人,這家公司150人被算法裁定為“不敬業”》,https://www.sohu.com/a/484291096_115128,2022年5月17日訪問。

[27][美]弗吉尼亞·尤班克斯:《自動不平等——高科技如何鎖定、管制和懲罰窮人》,李明倩譯,北京:商務印書館,2021年,第5、173~174頁。

[28]佘宗明:《人,是算法的尺度》,https://www.163.com/dy/article/H7AP8V3Q0521N4E0.html,2022年5月18日訪問。

[29]參見曹建峰、胡錦浩:《倫理即服務:科技倫理與可信AI的下一個浪潮》,https://36kr.com/p/1358610582701448,2022年2月5日訪問。

[30]孫明春:《人工智能技術發展中的倫理規范與行業自律》,https://finance.sina.com.cn/review/jcgc/2021-01-13/doc-ikftssan5687816.shtml,2022年5月18日訪問。

責 編/陳璐穎

馬長山,華東政法大學法律學院教授、博導,國家“萬人計劃”哲學社會科學領軍人才,教育部“長江學者”特聘教授,華東政法大學數字法治研究院院長,《華東政法大學學報》主編。研究方向為法學理論、數字法治、法社會學。主要著作有《邁向數字社會的法律》《國家、市民社會與法治》等。

主站蜘蛛池模板: 国产无码制服丝袜| 亚洲天堂网在线播放| 久久无码高潮喷水| 好紧好深好大乳无码中文字幕| 99久久精品久久久久久婷婷| 國產尤物AV尤物在線觀看| 亚洲精品日产精品乱码不卡| 精品1区2区3区| 鲁鲁鲁爽爽爽在线视频观看| 亚洲IV视频免费在线光看| av一区二区无码在线| 伊人久久大香线蕉综合影视| 亚洲天堂网在线视频| 伦精品一区二区三区视频| 亚洲成人在线免费| 色婷婷亚洲综合五月| 91精品国产麻豆国产自产在线| 四虎国产精品永久一区| 先锋资源久久| 丰满的熟女一区二区三区l| 九色视频一区| 欧美日韩成人在线观看| 热这里只有精品国产热门精品| 嫩草国产在线| 日韩成人午夜| 日本午夜影院| 亚洲69视频| 蜜桃视频一区二区三区| 黄色网在线| 黄色网址免费在线| 国产福利微拍精品一区二区| 少妇精品在线| 五月婷婷丁香综合| 日本高清在线看免费观看| jizz在线观看| 丁香五月亚洲综合在线| 无码免费视频| 亚洲第一网站男人都懂| 91色在线视频| AV熟女乱| 亚洲天堂在线免费| AV不卡无码免费一区二区三区| 一本大道香蕉久中文在线播放 | 国产97视频在线观看| 久久精品电影| 免费Aⅴ片在线观看蜜芽Tⅴ| 国产毛片片精品天天看视频| 精品综合久久久久久97超人| 狠狠色香婷婷久久亚洲精品| 国产91无码福利在线| 国产精品极品美女自在线| 在线国产欧美| 久久99久久无码毛片一区二区 | 色婷婷成人| 亚洲第一区精品日韩在线播放| 91久久国产热精品免费| 亚洲开心婷婷中文字幕| 国产91色在线| 久久五月视频| 久久网欧美| 精品一区二区久久久久网站| 性欧美精品xxxx| 99免费在线观看视频| 91九色视频网| 午夜限制老子影院888| 日韩精品成人在线| 亚洲精品福利视频| 亚洲欧洲综合| 久久永久精品免费视频| 亚洲免费毛片| 欧美在线三级| 欧美国产精品拍自| 日韩精品无码不卡无码| 91视频精品| 精品国产成人a在线观看| 久久久久无码精品国产免费| 国产午夜福利片在线观看| 美臀人妻中出中文字幕在线| av色爱 天堂网| 精品国产免费观看一区| 国产迷奸在线看| 亚洲成人黄色在线|