999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

智能社會中算法治理的法律控制研究

2023-03-22 23:44:48楊利華蘇澤祺
大理大學學報 2023年1期

楊利華,蘇澤祺

(中國政法大學民商經濟法學院,北京100088)

在當前人與人工智能依存的時代,智能算法的輔助決策乃至自主決策已深入影響到人們的生活,無人駕駛汽車、算法推送、算法過濾、算法評估等都是算法應用的典例。公權力機關運用算法履行公共職能,平臺企業運用算法提供精準服務,社會公眾則在享受算法福利的同時,也默許著算法的操控,由此就形成了算法治理的基本架構。在構建多元共治的大格局下,從政府部門到企業平臺、從傳統領域到新型行業,如何實現高效、準確的治理都是重要的議題。算法的功能恰恰適應了這一需要,極大地促進了治理能力的提升和創新。但在帶來便利的同時,算法治理也存在著風險與危機,算法黑箱的存在使得公眾難以對算法進行質疑與挑戰,算法在設計者主觀價值的影響下也突破了技術中立的基本預設,甚至帶來了算法偏見與歧視,造成新形式的不公平現象。這些風險并非算法設計者所期望,但依然是客觀存在的。

利用算法進行社會治理是科學技術發展催生的產物,也是人類社會治理模式的更新和發展。從風險預防的角度來看,算法治理的風險早已初露苗頭,有必要采取合理的措施予以應對。本文擬從算法這一基本技術著手,對算法治理的風險及其成因進行分析,在此基礎上探索算法治理法律控制的基本原則與可行進路。

一、算法治理的界定

(一)算法治理的基本內涵與原理

從算法出發來理解算法治理,首先需要對算法的概念予以明確。算法的本質是一種運算規則〔1〕,也有學者將其定義為“實現某個目標對一組數據進行處理的邏輯步驟”〔2〕。在技術層面,算法是對計算機這一載體形式與二進制運行機制的融合。隨著技術的演化和功能的拓展,傳統算法逐漸衍生出排序算法、傅里葉算法和哈希算法等現代算法。這些不同類型的算法在特定數據的排序、推送、加密、篩選和評估等方面得到廣泛應用〔3〕。算法的實施一般包括算法設計、數據輸入和算法執行三個環節,而在智能算法技術中,算法在制定完成后即不再需要人類的操控,可以對所在環境中的數據進行主動抓取、整理、運算和分析,基于分析結果再進行相應的反饋,這也是當前算法治理的技術基礎。

傳統的社會治理模式是單向度的,政府是唯一的公共服務提供者,并且壟斷著公共管理職能。但由于人類社會的高度復雜性與不確定性,這種治理模式已經難以適應社會發展需要,因此現代社會治理奉行多元共治的基本理念,其特點就在于兼容多元化治理主體與復合化治理手段,除了政府主導的社會治理外,非政府組織、私主體也在各自領域發揮著社會治理的功能,由此形成了社會治理網絡。與此同時,互聯網、大數據、智能算法等科學技術也推動了治理創新,算法治理就是在現代治理理念中孕育而生的。在技術層面,算法治理是指治理主體利用算法進行社會治理。隨著機器深度學習技術的逐漸成熟,人工智能通過神經網絡可以進行更高層次的演算和推理,算法模型也會隨著反復運用而不斷地自主提升和完善,使運算的準確性得到極大提高,因此算法在一定程度上獲得了自主決策的能力。例如政府部門利用算法進行風險預警、指揮調度、預測性執法,以及平臺利用算法進行侵權監測等都是應用這一技術的具體表現。在算法應用下社會治理的效能極大提升,治理成本也極大降低。從價值層面來看,算法治理則強調算法在治理中的主導地位。實際上,算法正在深刻地影響著人們的觀念和行為方式:一方面,算法技術的便捷高效使得人們對其產生了高度信任;另一方面,算法嵌入社會生活各個領域,不斷引導和規范著人們的日常交往活動。簡而言之,算法治理正在從技術和價值兩個層面影響著人們的社會生活。

(二)算法治理的應用場景

算法治理在實踐中的應用極為廣泛,難以全面列舉。常見的算法治理應用例如信息推送、內容過濾以及數據評估與預測。

信息推送是提供個性化信息服務的重要方式。隨著互聯網時代信息量的指數型增長,人們在享受海量信息的同時,也面臨著如何有效便捷地篩選和提取信息的問題,算法推送技術的出現迎合了這一現實需求。從計算機學的角度來看,傳統的推送算法主要包括基于內容的推薦算法和協同過濾的推薦算法。其中,前者是指根據用戶在網絡環境中留存的信息痕跡來構造用戶偏好,計算內容與用戶偏好的相似度,將相似度最高的內容推薦給用戶。后者則是通過分析與目標用戶相關的鄰居用戶的偏好來向目標用戶進行推薦〔4〕。隨著人工智能技術的發展成熟,推薦算法也有了新的提升,典型的表現為推薦算法與人工智能神經網絡相融合,利用深度學習技術評分計算,抑或直接構建多層神經網絡對評價進行預測,從而完成內容推薦〔5〕,也使得算法推薦的精準性得到極大提高。

算法過濾與算法推送的原理類似,但區別在于算法推送決定的是用戶可以看到什么,而算法過濾則是要屏蔽某類信息以防止用戶獲取特定信息,即決定了不能看到什么。實踐中,算法過濾的主要應用價值在于對上傳內容進行檢查監測,例如在公共秩序維護中,平臺預先將涉嫌違法犯罪、過于偏激、色情、暴力等違反社會公共利益的內容或關鍵詞設置為監測對象,利用算法對用戶上傳的內容進行評估,如果識別到存在上述不當內容或關鍵詞,則直接予以屏蔽或刪除。此外,算法過濾也可以有效防止侵權內容的傳播,即對含侵權內容的信息進行過濾,如實踐中已經廣泛應用的內容元數據索引、哈希算法識別和音視頻指紋識別等〔6〕。算法過濾技術目前已廣泛應用于網絡侵權監測,尤其是在版權保護方面。例如“百度文庫”開發了“反盜版DNA系統”,旨在阻止線上出現惡意文檔;“虎牙直播”使用人工智能識別用戶在直播中上傳圖片、文件里的侵權元素,極大地提升了審核效率。

除了上述應用外,利用算法進行數據評估與預測也極為普遍。大數據背景下,算法能夠在數據收集的基礎上,對現有數據進行深度分析、評估與預測,從而實現社會治理的目的。在宏觀層面,算法決策依據整體數據情況,如在智慧城市理念中,通過對特定時段的人流量、車流量、噪音、路面、天氣以及交通事故等數據的收集,利用算法進行數據建模,進而評估和預測具體時段的路況以及交通事故發生的概率,以便提前布置交通梳理和分流。在微觀層面上,算法可以對個體分散的數據進行整合,實現諸如網頁瀏覽、鏈接點擊、購物消費、支付記錄以及信用累積等原本以點為表現形式的數據之間的關聯,在算法建模中重新構建并形成“虛擬人格”的樣態,在此基礎上便可以對個體行為作出進一步預測。例如銀行可以通過算法評估與預測來對用戶的償付能力以及信用狀況等作出初步判斷,以決定是否與之建立信貸關系;法院利用算法對犯罪嫌疑人或者被告人的過往犯罪經歷和違法行為進行綜合分析,評估其人身危險性和再犯可能性,從而決定采用何種程度的量刑。可以說,算法技術下的數據評估和預測實現了宏觀和微觀層面上社會治理的創新,因此也有學者將其稱為“評分社會”〔7〕。

二、算法治理的風險及成因

由于算法的應用具有自發性,加之算法技術本身的特點以及功能實現的需要,在當前缺乏規范引導的情況下,算法治理在帶來便利的同時也產生了自身的風險隱患。

(一)算法治理的主要風險

1.形成算法黑箱

算法黑箱由算法不透明所導致,由算法黑箱所構成的系統其內在數據運行邏輯不為人知,也不能打開〔8〕。傳統算法決策中人類主體始終掌控著決定權,但隨著人工智能技術的發展,算法決策程序逐漸具有了相對自主性。有學者根據算法的輸入端、輸出端和中間隱層的自主性程序,將算法黑箱的形態劃分為初級形態、中間形態和高級形態〔9〕,這種黑箱形態的演變,反映了算法在一定程度上脫離了人類的控制。而由于算法黑箱的存在,社會公眾無從得知決策的公正性與準確性,也無法對決策結果提出質疑,只能被動予以接受,這也就導致算法決策失去了受監督的可能性。例如在2016年的“魏則西事件”中,百度公司利用算法系統對醫療廣告進行競價排名最終導致悲劇的發生,根源就在于算法運行的不透明導致信息不對稱,相關公眾難以對算法排名決策進行合理評估并做出選擇。

2.固化虛擬人格

算法通過對個人網上瀏覽痕跡的分析,進行整體的數據畫像,形成由個人的興趣、偏好、職業、信仰等特征組成的個人形象,由此構成了算法環境下個體的虛擬人格。由算法畫像所形成的虛擬人格可能與實際人格存在偏差,原因在于實際人格會因客觀環境以及個人現實經歷的改變而改變。虛擬人格的形成是基于算法對跨越時間維度數據的統合而形成的,短期偏好的改變并不能對虛擬人格產生實質性的影響,并且在網絡環境中個體的虛擬人格已經形成,算法據此進行專門的信息和服務推送,造成“信息繭房”和“回音室”效應,從而又會強化這一虛擬人格。但在此基礎上的算法治理會忽視這種偏差,從而在治理效能上與實際追求不符。

3.造成算法偏見

算法偏見又被稱為算法歧視,無論是算法自身的原因還是外部的人為因素都可能會使算法在運行過程中出現偏差,造成算法偏見。技術性錯誤所造成的算法偏見難以避免,但更為普遍的則是算法背后的價值偏見。在實踐中存在的大數據殺熟現象,便是對不同服務對象設置不同價格或者提供不同等級的服務以實現利益的最大化,那些被定義為具有較高消費能力或者獲利價值的用戶也會無形中接受更高價格的商品或服務。再如利用算法進行精準治理時,許多因素可能會被不恰當地關聯起來并形成標簽,像性別、種族、健康狀況、財富狀況以及家庭背景等都會被納入算法治理考量的范圍內。在這些事實因素的背后,就可能會關聯到其他的價值因素,典型的例如種族與犯罪率之間的關聯,美國的COMPAS風險評估系統在分析犯罪率時就對黑人造成了歧視〔10〕。

(二)算法治理的風險成因

作為一種治理手段,算法必須通過與外界建立各種關系來發揮作用,而在這一系列關聯之中算法風險就隨之產生。

首先,在算法設計者與算法之間存在著非中立價值的輸入。傳統技術中立論強調技術只是一種方法論上的工具和手段,主張技術本身不包括任何的價值手段〔11〕,但技術本身作為一種合乎目的的手段,其同時也是人的行為方式,這就決定了即使算法設計之初的動機是中立的,也會產生一定的價值偏見。原因在于,一方面算法設計者可能把個人的價值偏見寫進了程序,例如在過濾算法的應用中,平臺會對某些涉嫌暴力、色情以及其他違背社會公益的內容進行自動屏蔽,禁止其傳播,此時對于違背社會公益的標準就取決于算法制定者。其二,算法運行中獲取和利用的數據本身隱含了偏見,例如在“螞蟻金服訴朗動網絡科技不正當競爭案”中,朗動科技對其抓取到的螞蟻微貸原始數據進行分類整理,并發布于企查查平臺供用戶查詢,但由于數據選擇上存在一定偏差,其發布的實際信息也與數據主體的實際情況不符。法院認為該行為給螞蟻微貸公司帶來了商譽損害,并且影響了其市場競爭優勢,構成不正當競爭①參見浙江省杭州市中級人民法院(2020)浙01民終4847號民事判決書。。質言之,盡管算法技術的出現是為了便捷程序的執行或是為問題的解決提供新的程式,但到具體的應用場景中時,這一目的就可能與一系列次生目的所關聯,例如政治、商業等,從而附加更多的非工具價值,使算法不再中立。

其次,在治理主體與算法之間形成了算法權力。技術直接影響和控制了人的利益得失,從而具備了權力屬性〔12〕。現代社會算法能夠嵌入各個場景并發揮作用,如在平臺經濟中算法使平臺處于一種相對優勢的地位,使傳統模式中的平臺、服務提供者以及用戶之間的利益平衡關系發生了改變,而在公共服務中,算法則通過高效的數據收集和持續運行從各方面提升了公權力的施行能力〔13〕。總體而言,算法權力的運行具有兩種表現形式:第一種是算法可以直接獲取數據并對數據進行支配,這并不等同于算法直接享有對數據的權利,而是來源于數據權利人自身為了獲取一系列的便利,并自愿接受算法的調整所做出的權利讓渡。這樣一種模式類似于一種契約〔14〕,并且往往是通過默許予以推定。例如許多互聯網平臺或者app會在用戶首次使用時告知為了用戶能夠獲得更好的服務,需要獲取相關的權限,而用戶的明示同意或者對服務的接受都表明其允許平臺對其瀏覽記錄、痕跡以及相關個人信息的收集,這種對個人數據與信息自主性的讓渡構成了算法權力的基礎。第二種表現是算法可以輔助或直接進行公共管理,例如互聯網平臺在運用算法過濾等技術對平臺內容進行審查和監測時,其在這一特定場景下就擁有了網絡環境中的立法權、司法權和執法權等,這種權力的集合由于缺乏相應的監管因而極易導致濫用。

最后,在被治理主體與算法之間也存在技術鴻溝。算法技術本身具有專業性,對于擁有專業知識的算法設計者與實際應用者而言,其追求的是算法復雜性、隱秘性、準確性以及高效性等的不斷提升,以防備他人的破解與竊取,也更好地促進其治理利益的實現。尤其是在市場環境下,商業利益的攫取和爭奪會加劇技術層面的競爭,技術優化與升級將變得愈發迅捷,算法技術在這樣的環境下得到進一步的發展。與之相對,囿于專業知識所限,社會公眾對算法技術并不了解,更無法探究其中的原理,這種矛盾所導致的結果是算法操控者與社會公眾之間產生技術鴻溝,并且隨時間推移變得更加難以逾越。在傳統治理模式中,公眾監督可以限制權力的行使以防范權力濫用,從而推動社會治理良性化運行。公眾監督的基礎是知情權,算法技術鴻溝的出現則直接妨礙了公眾知情權的實現:第一,公眾無法獲得形式上的算法內容;第二,即便公眾獲取了計算機語言下的算法,但專業的局限也使其難以真正理解其中的內涵;第三,智能算法運行過程中的技術本身的自主性也在發揮著重要作用,形成算法黑箱,加劇了人類主體理解和操控的難度,而在知情權受到限制后,公眾參與權與選擇權也就無法得到保障。

綜上所述,算法治理的過程以算法技術為核心,各方主體則圍繞著算法形成了影響與被影響的關聯,上述三種關聯性,實際上揭示了算法治理法律風險產生之根源,而這也恰是法律控制所要解決的根本問題。

三、算法治理的法律控制進路

法律所具有的規范性、強制性與普遍性,是實現對算法治理合理有效控制的重要保障。這里的法律控制既包括了狹義的法律規范,也包括了行政管控,這也是算法控制的兩種主要手段。

(一)算法治理法律控制的主要模式

基于算法治理中存在的一系列問題,目前的法律控制路徑主要有兩種,一種是以公眾權利為中心的個體賦權模式,另一種是以行政管控為基礎的外部問責模式。

1.個體賦權模式

個體賦權模式的基本原理是通過賦予數據主體相應的權利,從而使其可以在算法治理中實現一定程度的自主。歐盟的《通用數據保護條例》(GDPR)即為這一模式的典范,根據《通用數據保護條例》規定,數據主體享有不受自動化處理約束的權利以及對自動化決策獲得解釋和對相關決定進行質疑的權利。除此之外,還包括知情權、訪問權、更正權等新型數據權利〔15〕。個體賦權模式的著力點并非直接對算法實施者予以管控,而是通過賦予個體對其數據控制和使用的權利來降低算法決策的影響。從價值取向來看,歐盟立法者并不排斥算法技術的應用,而是試圖調整算法治理中算法權力導致的權利義務不對等,以實現新的利益平衡。

實際上,我國近年來大力推行的個人信息和數據保護立法也充分體現了這一理念。例如《民法典》第一千零三十五條賦予了民事主體對個人信息所享有的一定程度的自決權①《民法典》第一千零三十五條規定,處理個人信息應當征得自然人或者其監護人同意,并且應當公開處理信息的規則、目的、方式和范圍。。但從可預期的控制效能來看,個體賦權模式存在著較大的不足:第一,由于技術鴻溝的存在,個體權利并不能充分行使,算法透明的本質是公開代碼、數據和決策樹等深層信息,其中包含有句法、表征、符號等技術語言〔16〕,對于一般公眾而言無法理解,更不可能進行有效的審查。而且,自主學習技術使得算法決策中的不可控因素增加,算法可以自主改變數據權重來適應不同的分析對象和運行環境。因此,即便是公開代碼和數據,也并不意味著可以直接獲得算法決策的結果〔17〕。第二,算法的公開將破壞以算法為中心的信任機制。由于算法黑箱的存在,被治理主體無法參與到決策當中,這也就形成了以算法為中心的治理機制,各主體能相對平等地受到算法決策的影響。隨著算法的公開,算法就具有了受到被治理者干擾和操控的可能性,從而直接影響到結果的公平性。第三,現代商業模式的靈活性可能導致個體賦權模式中的權利義務關系虛化,在現代商業模式中,平臺可以通過劃分服務等級、設定服務條件等方式來換取公眾的進一步消費與投入,服務對象可以自主決定是否提供個人數據或信息,而是否提供相應數據又決定了獲得的服務等級。由于公眾可以獲得必要的基礎性服務,在形式上公平原則并沒有被違背,但被動地差別對待則會驅使一些公眾追求更高等級的服務,從而放棄應用的權利,隨著服務層次的不斷上升,對于權利放棄的要求也將逐步提高。概言之,在這種模式下,個體權利在主動的“被放棄”,也恰恰反映了個體賦權模式的局限性,即完全遵從意思自治將無法克服市場自發性造成的弊病。

2.外部問責模式

不同于個體賦權模式下的意思自治,外部問責模式著重于通過行政手段直接施加管控。例如美國紐約曾經通過的對公用事業領域算法進行問責的法案,用于規制算法自主和輔助決策的情形,并明確設立自動決策工作組作為算法問責制的實施主體,其成員由相關專業人士以及受算法自動化決策影響的代表人士組成。此外,還有立法議案要求聯邦貿易委員會制定新規,明確自動決策系統對社會公共利益的影響〔18〕。

外部問責模式針對算法使用者施加一定的義務,如果沒有完成這些則需要承擔相應的責任。然而,對于一般公眾而言,參與到算法監控的難度是不言而喻的,因此算法監控的任務仍然需要由專業人士承擔,這就難免會引發新的算法信任危機。外部問責模式的另一個顯著特點是管控的色彩較為濃厚,強調運用公權力對算法主體進行規制,而這就可能造成一定的風險。在自治的環境下,算法實施者可以通過自主設置的用戶反饋機制來倒逼自主完善,并匹配算法運行的基本邏輯來開發出新的運行約束機制。但在外部問責模式下,公權力管控將會主動介入,并且極大地壓縮了行業自治和個體自律的空間,從運行成本來看無疑會增大規制成本,降低規制的效能。更需要警惕的是,在維護公共利益的過程中如果一味運用行政管制,勢必會影響到相關產業的創新與發展。并且從權力的運行邏輯來看,傳統行政管控中基于縱向層級結構信息壟斷的合法性,已經被算法治理中知識與信息的碎片化、分散化所消解〔19〕,行政權力的過分介入不僅會破壞這種已然形成的生態模式,還違背了多元共治的基本規律和要求。

(二)算法治理法律控制的基本原則

算法治理是由多要素組成的治理系統,其復雜性在于其中涉及的利益沖突,而無論是個人賦權模式還是外部歸責模式,都只是關注到系統中的某一個要素而忽略了其他要素。例如個人賦權模式側重于保護個體權利,而忽視了算法實施主體本身的利益保障;外部歸責模式只強調了從外部對算法實施主體予以管控,而忽視了算法治理的產業規律。因此,在探索算法治理的法律控制時應當兼顧多方利益,具體包括以下幾個方面。

第一,兼顧法律控制與產業發展。許多法律制度的產生都是為了符合特定產業和技術發展的要求,例如互聯網技術推動了平臺經濟的發展,催生了《美國千禧年數字版權法》以及避風港規則等一系列新領域的法律制度。這些法律規則的出現原本不是要遏制平臺經濟的發展,而是因為互聯網技術造成網絡侵權的大量出現,為了維護版權人的利益,促進互聯網產業的良性發展,需要有新的法律制度予以回應。算法技術從出現到如今成為社會治理的工具,是因為它在一定程度上能夠滿足社會發展的需求。因此,算法治理法律控制的目的并非妨礙和阻止算法功能的發揮,也并非否定算法治理的成果,而是對算法治理的風險予以管控,對算法治理下的非常態化損害予以降低和填補,從而更好地促進產業發展。

第二,兼顧權利保障與治理效能。在對算法治理進行法律控制時,公眾個體權利的保障是重要的著力點,具體可能會涉及隱私權、數據權、知情權、同意權和自主選擇權等,但有些權利在實現的過程中可能會影響到算法治理效能的實現,或者直接觸碰到算法治理的根基,例如個人賦權模式與外部問責模式都強調通過公開算法底層代碼和數據等信息來提高算法透明度。然而,在實踐中,算法已然成為了市場競爭的重要方面,其往往是由設計者或所有者投入巨大成本訓練而成,具有較高的商業價值,因此也往往被作為商業秘密予以保護。此時對算法的公開無疑會打破算法的受保護狀態,對所有者利益造成損害。并且由于保密狀態的算法對于算法治理效能的實現具有基礎性作用,過度的算法公開也必然會影響到治理效能的實現,因此也不應矯枉過正。

第三,兼顧行業自治與政府管控。算法的應用是行業治理的自發機制,因此也會存在自發性之下的盲目性與不穩定性,但這并非政府施加管控的依據,因為行業自治本身也具有一定的修復功能,而只有在行業自治失靈的情況下,政府才有必要從外部介入。從經濟學視角來看,負外部性指的是某行為在不能得到補償時卻為他人付出了額外的代價。企業應用算法進行治理在帶來了福利的同時,也對個體權利和公共利益造成了一定的負外部性損害,因此政府管控的合理范圍就應當是盡可能地減少這種負外部性或者是將負外部性內部化,只有在這個范圍內,政府的管控才具有正當性和合理性。

(三)算法治理法律控制的實現進路

1.構建算法設計規范機制

算法設計與開發是算法治理的源頭,通過設置相應的規范機制可以從源頭上預防算法風險的發生。一方面,應當建立算法設計的登記備案制。對于算法設計主體,應當設置相應的市場準入機制,要求算法設計主體符合一定的資格才能夠從事相關行業。資格備案制要求算法設計主體提供相應的資格證明,并由監管機構或者自律組織進行形式審查,審查通過后予以備案登記。對于已經備案登記的主體,如果在運行過程中出現信息的變更,則應當重新進行備案登記。此外,算法在設計完成后同樣應當予以備案并與設計主體信息相對應。不同于算法透明,算法備案僅要求向監管機構和自律組織公開〔20〕。監管機構和自律組織同樣負有保密義務。在算法實施中如果出現了相應的更新或修改,則需要重新備案登記;如果出現了算法損害投訴的情況,同樣由監管機構予以登記備案,達到一定程度時可以取消該主體的準入資格,責令做出整改并重新登記備案。

另一方面,為了防止算法在運行過程中出現欺騙和操縱,或者造成算法偏見,在算法設計之初就應當針對算法設置相應的評估標準,并要求算法設計者對算法進行前期測試。由于算法設計中可能會包含設計者的個人價值選擇,因此首先應當對算法設計進行規范,通過設定價值評估標準,要求算法設計符合一般道德規范,并嵌入相對公平的倫理價值,以避免造成算法越界應用和不當后果〔21〕。在算法運行過程中,則應當包括數據抓取測試、數據分析測試以及算法決策的準確性測試,要求算法在數據抓取時應當盡可能地避免偏見,對于數據的抓取應當具有一般性和隨機性、而非帶有特定指向的篩選。在數據分析時也應當避免偏見的介入,最大限度地保證分析過程和分析結果的公平性和公正性。此外,還要針對算法數據運算和決策的結果進行評估,要求算法決策的準確性達到一定的標準。保證算法決策的即時性,當基礎數據發生改變時算法決策也應當及時調整,避免出現決策滯后。

2.構建算法運行監督機制

算法運行是算法治理的主要環節,對算法運行予以監督可以及時實現糾偏和校正。為此,首先要引導建立行業自律機制。其正當性基礎在于,企業在獲取利益的同時,應當自主承擔相應的社會責任,這也是企業存在社會價值的體現。在當下算法廣泛應用的背景下,算法所造成的風險與危機已然對公共利益構成威脅,因此有必要將算法規制納入企業社會責任當中,引導企業建立起行業自律機制。一方面應當建立算法行業規范,算法治理通過加強工具理性降低了傳統治理模式中的不確定性因素,然而價值理性的缺失導致了算法偏離了社會治理中以人為本的基本理念。因此,應當通過建立行業規范,將公平、正義、安全等基本原則納入算法運行當中,引導相關主體對算法運行中的失范進行糾正。另一方面可以推動建立行業協會,其成員應當包括企業界、算法技術人員、審查人員、法律界以及相關利益代表,通過行業協會的建立加強行業內部的自我監督、自我審查和自我完善,從而推動產業和技術的良性發展。其次,可以推動建立算法運行的合規審查制度,要求運行在符合法律法規、行業守則和倫理規范的同時,還要符合企業自身的規章制度〔22〕。如今,由企業自主實施的合規治理已成為現代社會風險防范的重要方式,要求企業首先進行自我監管和自我完善,如果企業能夠建立良好的合規制度并且做到合規運營,就可以減輕或者免除相關責任。在“趙某某與浙江某網絡公司網絡服務合同糾紛案”中,原告認為被告提供的平臺檢索服務針對特定的商家或者品牌設定了算法歧視,導致其無法檢索到想要的產品,法院認為被告平臺在利用算法的同時,還提供了檢索反饋渠道等輔助工具,可以彌補算法技術的不足,因此不構成歧視①參見杭州互聯網法院(2020)浙0192民初2295號民事判決書。。在此種激勵機制下,企業將更有可能實現自我治理,從而防范風險。現代企業合規制度在算法治理中同樣可以發揮重要作用,由于算法的運行過程本身對于社會公眾具有不可知性,并且算法運行過程的全公開也存在相應的風險,因此通過社會公眾進行監督不具有可行性。同時,由于算法應用規模龐大,形式多樣,受眾廣泛,要求監管部門對算法運行進行全面監督成本過高,也難以實現預期監管的效果。鑒于此,推動建立企業合規審查制度就可以減輕監管負擔,有關部門通過出臺算法運行合規指南和合規指引來引導企業建立相關機制,包括算法制定監督、算法風險防控、算法結果復審以及算法錯誤糾偏等。

3.完善算法損害救濟機制

損害救濟具有事后性,主要起到兜底保障的作用,對于算法損害的救濟,主要應當從實體救濟和程序救濟兩個方面進行完善,具體可以從以下幾點著手。

第一,構建算法損害歸責原則。損害賠償是負外部性內化的重要途徑,在算法治理中受到損害的個體應當有權利獲得損害賠償。在歸責原則方面,算法損害應當采用無過錯責任原則并設置相應的法定免責事由,這是由算法的技術本質所決定的,也與無過錯責任的制度目的相符合。現代經濟和技術的發展催生了侵權法上的無過錯責任,并且可能隨著風險社會特征的不斷深化而擴大,正如有學者指出:“傳統以過錯責任為基礎建立的風險分配責任體系在許多領域都將不復存在。”〔23〕算法損害即在這樣的背景下而產生,在算法治理中,由于技術鴻溝的存在,一般公眾無法得知算法制定和實施的過程,因而也難以證明所謂的過錯。同時,在算法學習技術的應用下算法變得更加智能化,算法決策結果也更加不可預測,傳統的過錯責任已不存在適用余地。出于風險的現實性和應對必要性,理當將歸責原則確定為無過錯責任。與此同時,為了鼓勵算法技術的發展和應用,還應當設置相應的免責事由,如前述算法合規審查就可以作為減輕或者免除責任的情形。責任主體方面,在不存在免責事由的情形下,算法損害責任理應由開發和使用算法技術的自然人或法人承擔〔24〕。在整個算法治理中可能存在兩個責任主體,一個是算法設計開發者,另一個是算法使用者,在二者同一的情形下只有一個責任承擔者。在二者分離的情況下,則由于公眾直接面對的主體是算法使用者,因此無論是算法實施過程還是算法設計本身存在的問題,受害公眾都可以首先要求算法使用者承擔責任,最終責任則由算法使用者與算法設計開發者根據具體損害緣由另行分擔。

第二,推進算法損害集體與公益訴訟。互聯網環境下的個體權利具有分散性,無論是個體的專業知識、行動空間還是協商能力,都無法與強大的互聯網治理主體相抗衡。算法損害具有廣泛性,并且直接關涉重大公共利益。在這種情況下,應當改變傳統侵權損害下的個體救濟,轉為集體問責。我國《民事訴訟法》第五十四條規定了代表人訴訟制度,即在訴訟標的同一、當事人人數眾多且無法確定時,人民法院可以以公告形式通知權利人登記,并允許其推選代表人。代表人訴訟是解決群體爭議的重要途徑。在算法損害廣泛而分散的情形下,代表人訴訟制度不僅有利于損害事實的認定,還有利于節約司法資源,維護公共利益。此外,司法實踐中檢察機關也可以出于維護公共利益的需要提起公益訴訟,以保護相關公眾的合法權益。例如在“杭州市余杭區人民檢察院訴某短視頻平臺未成年人保護民事公益訴訟案”中,被告平臺未經兒童監護人同意的情況下利用算法進行信息收集和內容推送,嚴重侵害了社會公共利益,檢察機關就此提起民事公益訴訟①參見杭州互聯網法院(2020)浙0192民初10993號民事判決書。。由此可見以公益訴訟的方式化解個體訴訟的不足同樣也是一條可行路徑。

總之,隨著現代社會的智能化程度不斷提升,算法對人類的影響也將愈發深入,正如尤瓦爾·赫拉利的預言,人類將會進入到一個“算法社會”〔25〕。算法作為一種社會治理工具,在帶來福利的同時也帶來了風險,如果不能對其進行有效的防范,這些風險終將轉化為現實的損害。也應當看到,算法不是洪水猛獸,包括一般民事法律、知識產權法、行政法等法律控制所追求的不是對算法的作用進行完全限制,而是更好地運用算法實現社會治理的目標。正如本文所探討的,對于算法進行法律控制是必要的,但是對法律控制限度的考量同樣重要。算法治理是一個多要素系統,涉及各種價值沖突,因此應當做到權衡與兼顧,尤其是要避免法律控制妨礙產業發展和技術創新。基于這一理念探索的法律控制進路,也應當是將自發的算法治理引向規范的軌道,從而更好地實現公共利益。可以預見,隨著算法技術的完善和相關制度的落地,算法終將會成為社會福祉的一項重要來源。

主站蜘蛛池模板: 青青操视频在线| 国产福利在线免费观看| 亚洲AV永久无码精品古装片| 婷婷开心中文字幕| 国产最爽的乱婬视频国语对白| 日本国产精品| 四虎影视库国产精品一区| 91精品视频播放| 成人无码一区二区三区视频在线观看| 呦女亚洲一区精品| 国产免费羞羞视频| 国产精品久久久久久久久久98| 伊人蕉久影院| 在线国产你懂的| 好久久免费视频高清| 亚洲国产精品一区二区第一页免| 欧美色综合久久| 青青操国产视频| 好吊日免费视频| 国产在线拍偷自揄拍精品| 国内精品伊人久久久久7777人| 亚洲欧洲日韩久久狠狠爱| 伊人色综合久久天天| 一区二区理伦视频| 亚洲精品爱草草视频在线| 亚洲三级视频在线观看| 亚洲精品动漫| 91精品国产一区| 欧美国产日产一区二区| 中文字幕乱码中文乱码51精品| 91在线中文| 久久国产精品波多野结衣| 色悠久久综合| 日韩国产综合精选| 在线综合亚洲欧美网站| 99久久无色码中文字幕| 日本伊人色综合网| 亚洲国产成人久久精品软件| 精品国产成人av免费| 无码有码中文字幕| 五月激激激综合网色播免费| 五月婷婷伊人网| 毛片一区二区在线看| 国产亚洲精品资源在线26u| 在线精品视频成人网| 亚洲精品制服丝袜二区| 中文精品久久久久国产网址| 九色综合视频网| 人妻丰满熟妇啪啪| 欧美一级色视频| 全部免费毛片免费播放| 国产女人在线视频| 高清乱码精品福利在线视频| 狠狠色噜噜狠狠狠狠色综合久| 2021国产v亚洲v天堂无码| 亚洲午夜天堂| 91亚瑟视频| 国产女人水多毛片18| 激情成人综合网| 欧美一级夜夜爽| 久久精品国产在热久久2019| 手机永久AV在线播放| 欧美精品在线免费| 国产色网站| 自拍中文字幕| 国产高清在线精品一区二区三区| 97精品伊人久久大香线蕉| 久久综合激情网| 久久久久亚洲精品无码网站| 欧美色图第一页| 熟妇丰满人妻av无码区| 免费在线一区| 国产成人禁片在线观看| 欧美日韩资源| 国产AV毛片| 女人18一级毛片免费观看| 日韩欧美一区在线观看| 精品在线免费播放| 欧美另类第一页| 97国产精品视频自在拍| 久久久久国产精品熟女影院| 国模私拍一区二区|