999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

自動(dòng)化決策下的數(shù)據(jù)保護(hù)路徑探究

2021-11-15 03:01:50
互聯(lián)網(wǎng)天地 2021年10期
關(guān)鍵詞:系統(tǒng)

□ 文 陳 鵬

0 引言

隨著大數(shù)據(jù)與人工智能的運(yùn)用,自動(dòng)化決策既可以大幅提高決策效率,為消費(fèi)者或用戶提供更精準(zhǔn)的服務(wù),同時(shí)也帶來(lái)很多現(xiàn)實(shí)的挑戰(zhàn)。自動(dòng)化決策可能侵犯?jìng)€(gè)人的隱私。在Facebook組織用戶的新聞推送的算法測(cè)試中,數(shù)據(jù)科學(xué)家亞當(dāng)?卡拉默發(fā)現(xiàn)不同的微調(diào)會(huì)影響用戶的行為和情緒,進(jìn)而根據(jù)帶有情感訊息的個(gè)人信息的自動(dòng)化決策侵犯?jìng)€(gè)人的隱私。自動(dòng)化決策可能侵犯?jìng)€(gè)人信息權(quán)益。互聯(lián)網(wǎng)平臺(tái)通過(guò)大數(shù)據(jù)收集消費(fèi)者的個(gè)人信息,進(jìn)而通過(guò)自動(dòng)化決策推測(cè)出消費(fèi)者的消費(fèi)偏好,如果該過(guò)程未充分得到個(gè)人信息主體的授權(quán),則可能涉嫌侵害個(gè)人信息權(quán)益。算法的不透明性使得機(jī)器決策漸漸剝奪了人類的決策的自主性,與此同時(shí),建立在個(gè)人數(shù)據(jù)收集基礎(chǔ)上的自動(dòng)化決策威脅著個(gè)體的尊嚴(yán)與自由,也更容易固化算法帶來(lái)的歧視與偏見(jiàn)。算法不透明被廣泛承認(rèn)但又定義不同。近年來(lái)有學(xué)者認(rèn)為算法的自動(dòng)化決策應(yīng)當(dāng)具備可解釋性。數(shù)據(jù)主體有權(quán)了解自動(dòng)化決策的邏輯和原因,但現(xiàn)在及未來(lái)處理公民個(gè)人數(shù)據(jù)的服務(wù)型算法通常依賴機(jī)器學(xué)習(xí)。基于決策樹(shù)的機(jī)器學(xué)習(xí)方法理論上可以決定學(xué)習(xí)路徑,但存在著嚴(yán)重的約束,使得任何說(shuō)明都非常困難。因此,本文通過(guò)分析研判國(guó)內(nèi)外法律的相關(guān)內(nèi)容,對(duì)自動(dòng)化決策的數(shù)據(jù)保護(hù)問(wèn)題進(jìn)行探究。

1 自動(dòng)化決策的界定和可規(guī)制性

1.1 自動(dòng)化決策的界定

在分析自動(dòng)化決策的規(guī)制之前應(yīng)當(dāng)先對(duì)自動(dòng)化決策的類型進(jìn)行界定。算法是邏輯、數(shù)學(xué)運(yùn)算的序列。它們可以通過(guò)向計(jì)算機(jī)系統(tǒng)提供分析輸入數(shù)據(jù)的指令,使決策過(guò)程自動(dòng)化處理數(shù)據(jù)。這些指令、算法被認(rèn)為能夠識(shí)別大型數(shù)據(jù)集中有意義的關(guān)系和可能的模式,從而使過(guò)去完全由人類完成的決策達(dá)到機(jī)械化。對(duì)比我國(guó)《民法典》《個(gè)人信息保護(hù)法》和GDPR關(guān)于自動(dòng)化決策的定義,自動(dòng)化決策的前因是識(shí)別分析,決策很難不通過(guò)分析作出,但是也有一部分預(yù)測(cè)不直接來(lái)源于識(shí)別分析。因此,筆者認(rèn)為自動(dòng)化決策除了識(shí)別分析基礎(chǔ)上還應(yīng)囊括其他類型。另外,在實(shí)踐中除了由個(gè)人直接提供以及針對(duì)個(gè)人監(jiān)測(cè)后得到的數(shù)據(jù)之外,自動(dòng)化決策還常常以衍生或者推導(dǎo)出的數(shù)據(jù)為基礎(chǔ)。因此,自動(dòng)化決策的過(guò)程既應(yīng)包括人類的決策,也應(yīng)該包含機(jī)器的自動(dòng)判斷。

1.2 自動(dòng)化決策規(guī)制的必要性

1.2.1 對(duì)自動(dòng)化決策活動(dòng)的透明度和公平合理進(jìn)行規(guī)范,是對(duì)算法歧視等問(wèn)題的積極回應(yīng)。人們嘗試過(guò)使用開(kāi)放源代碼這樣的方式對(duì)抗“黑箱”,但效果并不盡如人意,而且開(kāi)源在很多領(lǐng)域并不現(xiàn)實(shí)。同樣,即使是要求算法具有可解釋性也不具有實(shí)際意義,目前神經(jīng)網(wǎng)絡(luò)根本沒(méi)有辦法被解釋。實(shí)踐中,算法的透明度具體的衡量標(biāo)準(zhǔn)和細(xì)則可以避免在具體實(shí)施過(guò)程中流于形式。自動(dòng)化決策的透明度和結(jié)果公平合理應(yīng)當(dāng)避免出現(xiàn)個(gè)人舉證不能的情況下無(wú)法行使算法解釋權(quán)。既要保證過(guò)程和程序的透明,也要保證結(jié)果的透明。把識(shí)別的過(guò)程和結(jié)果以及識(shí)別分析作相應(yīng)的區(qū)分,以避免過(guò)于主觀地作出判斷和結(jié)論。

1.2.2 不僅要對(duì)完全自動(dòng)化決策施加嚴(yán)格限制還要對(duì)非完全的自動(dòng)化決策做出規(guī)范。個(gè)人有不受完全基于自動(dòng)化決策的權(quán)利。該權(quán)利的行使取決于個(gè)人的自由意志和選擇。實(shí)踐表明,一項(xiàng)自動(dòng)化決策系統(tǒng)已經(jīng)被明確限定為輔助決策功能,個(gè)人行為中出于對(duì)機(jī)器邏輯的信任,或由于個(gè)人決策者缺乏時(shí)間、精力等原因,該系統(tǒng)實(shí)際上仍然傾向于完全自動(dòng)化運(yùn)行。即在系統(tǒng)運(yùn)行時(shí)存在實(shí)質(zhì)性人為控制,但若個(gè)人決策者存在明顯偏見(jiàn),也可能使得系統(tǒng)內(nèi)嵌間接的、無(wú)意的甚至不易察覺(jué)的歧視。另外,個(gè)人信息處理者在評(píng)估自動(dòng)化決策時(shí),應(yīng)當(dāng)考慮個(gè)人的意見(jiàn)并有義務(wù)對(duì)個(gè)人觀點(diǎn)作出回應(yīng)。實(shí)踐中,個(gè)人信息處理者有可能通過(guò)不回應(yīng)個(gè)人的意見(jiàn),而使個(gè)人的權(quán)利無(wú)效。但當(dāng)個(gè)人有權(quán)對(duì)決策提出異議并同時(shí)可以行使表達(dá)觀點(diǎn)的權(quán)利時(shí),那么對(duì)于此種情況下的自動(dòng)化決策結(jié)果的責(zé)任承擔(dān)又將出現(xiàn)不能明確的問(wèn)題。

2 自動(dòng)化決策傳統(tǒng)規(guī)制及其困境

透明度一直是有關(guān)自動(dòng)化決策問(wèn)責(zé)的焦點(diǎn)。

2.1 工具主義的偏差糾正

基于算法推理的決策可能是有偏見(jiàn)的、歧視性的和錯(cuò)誤的所以要對(duì)算法進(jìn)行規(guī)范。這一工具性的基本原理將監(jiān)管描述為糾正具體問(wèn)題的工具。程序員和及其企業(yè)做了一系列的決定,從使用什么數(shù)據(jù)集來(lái)訓(xùn)練算法,到如何定義算法的目標(biāo)輸出,再到算法產(chǎn)生誤報(bào)和誤報(bào)的可能性,算法既不中立,也不完美。例如,美國(guó)各地的法官在審前和量刑決定中都依賴于廣泛使用的累犯風(fēng)險(xiǎn)算法,要求算法預(yù)測(cè)再次被捕,并在一個(gè)人被捕而不是被定罪時(shí)確認(rèn)其準(zhǔn)確性,扭曲了算法的輸出,對(duì)其適用的個(gè)人造成重大后果。另一個(gè)被廣泛討論的算法偏差問(wèn)題的例子是有偏差數(shù)據(jù)集的使用,當(dāng)一個(gè)算法在有偏差的數(shù)據(jù)上訓(xùn)練時(shí),它的輸出也會(huì)有偏差。調(diào)節(jié)算法的工具性理論可以來(lái)糾正這些問(wèn)題。

2.2 自動(dòng)化決策的重大關(guān)切理由

一些要求規(guī)范自動(dòng)化決策的觀點(diǎn)側(cè)重于證明理由的需要,即證明無(wú)論是要求對(duì)決策作出解釋,還是對(duì)決策系統(tǒng)進(jìn)行監(jiān)督,自動(dòng)化決策均具有社會(huì)合法性。算法根據(jù)數(shù)據(jù)進(jìn)行關(guān)聯(lián)和預(yù)測(cè),受輸入的限制,又相對(duì)不受社會(huì)背景的限制規(guī)范。例如,一個(gè)算法可能會(huì)發(fā)現(xiàn)一個(gè)人衣服的價(jià)格和償還貸款的可能性之間存在著很強(qiáng)的相關(guān)性。然而,在通常情況下,我們可能會(huì)不希望銀行根據(jù)自己衣服的價(jià)格做出貸款決策。這也可能導(dǎo)致如性別、性取向、經(jīng)濟(jì)地位、種族或其他特征的不同影響。算法可以制定并遵循規(guī)則,它不一定具備修改或打破規(guī)則的能力。因此,規(guī)范自動(dòng)化決策要求對(duì)所使用的數(shù)據(jù)、模型和啟發(fā)式進(jìn)行透明化。這是為了確保決策不是基于非法或其他規(guī)范上不可接受的因素和推理做出的,并使個(gè)人能夠爭(zhēng)辯為什么適用于他們的系統(tǒng)推理可能是錯(cuò)誤或不公平的。

2.3 自動(dòng)化決策潛在地將個(gè)體客觀化

它將個(gè)體視為可替代的。第一,使用機(jī)器做出的決定侵犯了作為人這個(gè)整體的尊嚴(yán)。第二,創(chuàng)建個(gè)人檔案,存儲(chǔ)一個(gè)沒(méi)有輸入的版本,然后根據(jù)這個(gè)“數(shù)據(jù)”做出決定,如果個(gè)人缺乏訪問(wèn)、更正甚至刪除這些檔案中數(shù)據(jù)的能力,他們的尊嚴(yán)和自主權(quán)受到損害。第三,算法分析及其結(jié)果是限制用戶個(gè)人自主性的方式。這三點(diǎn)對(duì)實(shí)現(xiàn)個(gè)人數(shù)據(jù)保護(hù)權(quán)利是一樣的,即訪問(wèn)、更正、解釋、甚至刪除和爭(zhēng)議的權(quán)利。這三點(diǎn)基本原理顯然是相互聯(lián)系的。要求使用算法的程序員或企業(yè)披露決策啟發(fā)法,可以發(fā)現(xiàn)偏見(jiàn)和歧視。允許個(gè)人訪問(wèn)和糾正數(shù)字檔案中的錯(cuò)誤,也可以達(dá)到減少系統(tǒng)出錯(cuò)的工具性目的。

規(guī)制自動(dòng)化決策最大困難在于不同的理論有時(shí)會(huì)推動(dòng)不同的模型規(guī)則。聚焦工具性原因?qū)е戮唧w糾正問(wèn)題的監(jiān)管方法。關(guān)注尊嚴(yán)的原因會(huì)導(dǎo)致個(gè)人賦權(quán)的爭(zhēng)論。合理的理由可能導(dǎo)致對(duì)任何一種治理形式的爭(zhēng)論,或者兩者都有爭(zhēng)論。大多數(shù)拒絕個(gè)別或公開(kāi)透明形式做法,是因?yàn)榘阎攸c(diǎn)放在了糾正偏見(jiàn)和錯(cuò)誤,不太重視顯要或正當(dāng)?shù)睦碛桑@是錯(cuò)誤的。即使是只關(guān)心糾正錯(cuò)誤和消除偏見(jiàn),透明度和問(wèn)責(zé)制也發(fā)揮著重要作用。

3 自動(dòng)決策責(zé)任的透明度分類法

3.1 透明度對(duì)算法問(wèn)責(zé)的必要性

為了理解如何最好地利用透明度,我們不僅要知道透明度可以做什么,還要知道監(jiān)管的目標(biāo),即我們希望看到什么樣的體系。越來(lái)越多的研究人員利用法律規(guī)定透明度的要求使“黑箱”系統(tǒng)變得可解釋或以其他方式透明。例如歐盟GDPR以及美國(guó)公平信用報(bào)告法(FCRA)要求使用算法可解釋性技術(shù),或者可能在功能上禁止使用不可解釋的算法。但是僅僅關(guān)注技術(shù)修復(fù)卻忽視了一個(gè)日益增長(zhǎng)的共識(shí),即算法的可解釋性也意味著人類系統(tǒng)的可解釋性。算法深嵌社會(huì)系統(tǒng),自動(dòng)化決策反映了程序員在一開(kāi)始就做出設(shè)計(jì)選擇的價(jià)值觀、算法產(chǎn)生的背景和方法使用的技術(shù)。

認(rèn)識(shí)算法的模型、用戶和系統(tǒng)非常重要。我們不僅需要深入了解代碼或數(shù)據(jù)集,還需要深入了解構(gòu)建和實(shí)現(xiàn)算法的人類決策者的過(guò)程和輸出。算法不僅是抽象工具,而應(yīng)該在復(fù)雜的人類系統(tǒng)中研究算法嵌入式。技術(shù)系統(tǒng)是嵌入在更大的人類系統(tǒng)中的子系統(tǒng)和組織。將受監(jiān)管系統(tǒng)的定義擴(kuò)展到包括用戶和組織,會(huì)使算法決策更容易監(jiān)管。重點(diǎn)不應(yīng)該放在機(jī)器學(xué)習(xí)算法的運(yùn)行模式上,而是算法開(kāi)發(fā)的早期階段。因此,問(wèn)責(zé)制和透明度的一個(gè)目標(biāo)是算法本身,而另一個(gè)目標(biāo)是圍繞它的人類決策者或組織和企業(yè)。為了實(shí)現(xiàn)算法問(wèn)責(zé)的目標(biāo),使兩者都透明是必要的。即使是在這種框架下,哪些系統(tǒng)需要變得可見(jiàn)和負(fù)責(zé)是關(guān)鍵。

3.2 自動(dòng)決策責(zé)任的透明度分類法

從公開(kāi)披露到內(nèi)部監(jiān)督,幾乎所有領(lǐng)域關(guān)于算法問(wèn)責(zé)充斥著對(duì)各種形式和程度的透明度的呼吁。事實(shí)上,盡管透明度幾乎被拋到了算法問(wèn)責(zé)上,也很少考慮針對(duì)不同監(jiān)管目標(biāo)的不同透明度之間的相互作用。透明度有許多不同的類型,當(dāng)基于多種原因、針對(duì)多種系統(tǒng),就會(huì)出現(xiàn)復(fù)雜的差距和重疊。考慮到這一點(diǎn),這些問(wèn)題只能從整體的角度來(lái)看,采取以下方式考慮自動(dòng)化決策責(zé)任的透明度:既要有個(gè)體化的透明,也有系統(tǒng)化的透明。第一種透明目標(biāo)是算法和人類對(duì)其構(gòu)造的決定。第二種側(cè)重于使治理體系本身透明和負(fù)責(zé)。第一個(gè)目標(biāo)是讓人們看到算法決策背后的原理和偏見(jiàn)。第二個(gè)目標(biāo)是監(jiān)督并負(fù)責(zé)。GDPR在治理自動(dòng)化決策中廣泛使用協(xié)同治理。這導(dǎo)致了透明度對(duì)于算法問(wèn)責(zé)是必要的,因?yàn)樗鼘?duì)于有效的協(xié)同治理是必要的。要使協(xié)同治理發(fā)揮作用,就必須有外部的投入和監(jiān)督。因此,筆者認(rèn)為透明度的目標(biāo)應(yīng)當(dāng)有三點(diǎn):首先是技術(shù)。第二是圍繞人類系統(tǒng)的技術(shù)。第三是治理機(jī)制,旨在影響和改變技術(shù)和系統(tǒng)。當(dāng)我們討論算法透明性時(shí),我們不僅需要評(píng)估為什么我們需要透明性,還需要評(píng)估我們的目標(biāo)是什么系統(tǒng)。

個(gè)體化的透明度包括受自動(dòng)化決策影響的個(gè)體的信息流,如果問(wèn)責(zé)制度作為一個(gè)整體缺乏透明度的機(jī)制,那么GDPR所要求的解釋權(quán)可能必須做到雙重甚至三重工作。解釋必須同時(shí)向受決策影響的個(gè)人證明系統(tǒng)的合理性,作為對(duì)系統(tǒng)的更廣泛監(jiān)督,甚至作為一種對(duì)算法決策的個(gè)人治理負(fù)責(zé)的形式。個(gè)體化透明度不太可能有效地完成這三件事。相比之下,系統(tǒng)透明度最終服務(wù)于多個(gè)目的地,提供對(duì)算法和系統(tǒng)的可見(jiàn)性和監(jiān)督系統(tǒng),有助于解決有關(guān)算法的工具性問(wèn)題。這些透明度都是為了觀察受治理的對(duì)象、組織或過(guò)程。用算法糾正社會(huì)問(wèn)題的決策,不僅要觀察被治理的系統(tǒng),而且要關(guān)注那些負(fù)責(zé)實(shí)施甚至提出解決方案的企業(yè)和法律。在一個(gè)合作治理體系中,協(xié)同治理效果最好,例如,對(duì)企業(yè)如何界定歧視的含義的決定進(jìn)行監(jiān)督。一方面,這是一種系統(tǒng)性的問(wèn)責(zé)形式,旨在通過(guò)工具手段減少算法及其周圍系統(tǒng)的歧視性。另一方面,第三方透明度也起到了審查企業(yè)自由裁量權(quán)和確保企業(yè)決策不會(huì)偏離公眾太遠(yuǎn)的作用。同樣,外部審計(jì)或監(jiān)督可以用來(lái)糾正算法本身的問(wèn)題,也可以作為觀察和檢查的手段。在這些擬議的治理制度中,對(duì)透明度所服務(wù)多重目的的洞察才具有實(shí)際意義。如果不承認(rèn)透明度的真正局限性,那么關(guān)于透明度的任何討論都是不完整的。確定透明度的一些實(shí)質(zhì)性法律可能是什么樣的:監(jiān)管機(jī)構(gòu)既有信息強(qiáng)制能力,又有針對(duì)某些做法的實(shí)質(zhì)性執(zhí)法能力,例如征收巨額罰款的能力。個(gè)人既有權(quán)同意服從某一制度,也有權(quán)選擇退出該制度。它可能會(huì)被給予糾正權(quán)、抗辯權(quán)等,有不受基于特定類別敏感數(shù)據(jù)的決定的實(shí)質(zhì)性權(quán)利,或者被賦予一項(xiàng)不因特定的不可改變或受到其他保護(hù)的特征而受到歧視實(shí)質(zhì)性權(quán)利。因此,孤立地討論透明度的做法是有限的。但也可能是暫時(shí)有限,也許未來(lái)這些行業(yè)將形成更清晰的標(biāo)準(zhǔn),這樣我們就不必過(guò)于依賴協(xié)作監(jiān)管方法。但在此之前,透明度是監(jiān)管方法的一個(gè)重要組成部分。

4 結(jié)語(yǔ)

在新一代法律和技術(shù)爭(zhēng)端中,存在著更深層次、更具結(jié)構(gòu)性的關(guān)系。人工智能的真正潛力不在于我們向彼此透露的信息,而在于它們提出的有關(guān)技術(shù)、個(gè)人權(quán)利和數(shù)據(jù)相互作用的問(wèn)題。自動(dòng)化決策在商業(yè)和公共事業(yè)領(lǐng)域的嵌入式應(yīng)用蘊(yùn)含著巨大潛力的同時(shí)也對(duì)數(shù)據(jù)的治理模式進(jìn)行著沖擊。本文借助算法透明度這一基礎(chǔ)概念,深入剖析了其蘊(yùn)含的規(guī)范價(jià)值,創(chuàng)建合理的算法透明度并建立算法信任,根據(jù)透明度在自動(dòng)化決策規(guī)制構(gòu)建的重要性和必要性,提出了透明度分類的衡量標(biāo)準(zhǔn),為自動(dòng)化決策的數(shù)據(jù)保護(hù)和法律規(guī)制闡釋了合理透明度類型的機(jī)理。

猜你喜歡
系統(tǒng)
Smartflower POP 一體式光伏系統(tǒng)
WJ-700無(wú)人機(jī)系統(tǒng)
ZC系列無(wú)人機(jī)遙感系統(tǒng)
基于PowerPC+FPGA顯示系統(tǒng)
基于UG的發(fā)射箱自動(dòng)化虛擬裝配系統(tǒng)開(kāi)發(fā)
半沸制皂系統(tǒng)(下)
FAO系統(tǒng)特有功能分析及互聯(lián)互通探討
連通與提升系統(tǒng)的最后一塊拼圖 Audiolab 傲立 M-DAC mini
一德系統(tǒng) 德行天下
PLC在多段調(diào)速系統(tǒng)中的應(yīng)用
主站蜘蛛池模板: 欧美激情一区二区三区成人| 婷婷丁香在线观看| 亚洲AV电影不卡在线观看| 国产网友愉拍精品| 成人伊人色一区二区三区| 人妻中文字幕无码久久一区| 国产区精品高清在线观看| 69av在线| 国产人成网线在线播放va| 精品久久777| 99re在线免费视频| 成人综合久久综合| 日韩高清成人| 欧美亚洲国产精品久久蜜芽| 蜜芽一区二区国产精品| 国产精品永久久久久| 日韩在线2020专区| 免费在线色| 国产成a人片在线播放| 高h视频在线| 国产系列在线| 国产精品人莉莉成在线播放| 国产91小视频| 1024国产在线| 亚洲国产清纯| 国产成人高清亚洲一区久久| 最新国语自产精品视频在| 国产黑丝视频在线观看| 成人午夜天| 在线国产你懂的| 国产久草视频| 99久久国产综合精品女同| 亚洲国产欧美中日韩成人综合视频| 久久青草视频| 国产99在线观看| 性做久久久久久久免费看| 免费jjzz在在线播放国产| 国产午夜一级毛片| 女人18毛片水真多国产| 亚洲V日韩V无码一区二区| 国产成人福利在线视老湿机| 精品国产一二三区| 欧美一级高清视频在线播放| 国产精品毛片一区| 五月婷婷导航| 九色综合伊人久久富二代| 超清无码一区二区三区| 91最新精品视频发布页| 1024你懂的国产精品| 久久www视频| 国产精品自在在线午夜区app| 亚洲第一成年网| 欧美日韩中文国产va另类| 中日无码在线观看| 亚洲成人播放| 亚洲av中文无码乱人伦在线r| 欧美国产日韩一区二区三区精品影视| 国产激爽大片高清在线观看| 日韩123欧美字幕| 久久精品最新免费国产成人| 亚洲色欲色欲www网| 美女国产在线| 在线视频一区二区三区不卡| 999国内精品视频免费| 久久99国产综合精品女同| 国产手机在线ΑⅤ片无码观看| 日本午夜在线视频| 亚洲精品午夜天堂网页| 成人福利免费在线观看| 午夜啪啪网| 成人午夜网址| 国产在线拍偷自揄拍精品| 国产网站一区二区三区| 国产欧美日韩91| 高清大学生毛片一级| 免费欧美一级| 欧美乱妇高清无乱码免费| 成人精品视频一区二区在线| 久久无码免费束人妻| 无码网站免费观看| 欧美一区二区人人喊爽| 国产av色站网站|