999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

算法決策規(guī)制路徑探究

2021-01-02 16:04:18西安交通大學法學院余楠
區(qū)域治理 2021年2期
關鍵詞:模型

西安交通大學法學院 余楠

一、問題的提出

算法作為21世紀各大商業(yè)公司爭先研發(fā)的技術(shù),作為能夠代替人類頭腦進行決策的工具,當然存在著其特有的價值;另一方面,算法決策作為一項技術(shù)應用,是被算法設計者所研發(fā)出來的,算法設計者在設計過程中為了滿足商業(yè)公司的要求與利益,本身就帶著不理性與偏見,而算法本身的決策輸出過程也可能存在著偏差,這就導致人們對算法決策產(chǎn)生了疑慮,甚至是恐懼。然而完全杜絕算法決策參與我們的生活與工作是不太現(xiàn)實的,不少學者便提出了算法透明的觀點,但這一觀點的實施立馬遭到了擁有算法技術(shù)公司的反對,他們認為算法透明不僅侵害其商業(yè)秘密,而且由于算法具有極強的專業(yè)性,即使公開算法過程也很難向一般社會大眾解釋該套算法是如何運作的。通過何種路徑達到個人私權(quán)與企業(yè)的商業(yè)秘密的平衡也成了亟須解決的問題。

二、算法決策的妨害

首先,算法存在偏見。“通過對已有研究成果的總結(jié),導致算法偏見的原因主要包括兩個方面:一是與輸入數(shù)據(jù)相關的偏見;二是與算法相關的偏見?!蹦壳?,市場上廣泛使用的算法是學習型算法,該類算法需要通過輸入海量的數(shù)據(jù)來進行訓練,從而形成自身的算法決策邏輯。因此,一旦輸入數(shù)據(jù)存在偏見,就會導致算法決策結(jié)果存在偏見,即使算法是一項中立且客觀的技術(shù)。另一方面,算法自身也可能存在偏見。算法是由人類創(chuàng)造出來的,算法設計者在進行相關算法模型設計時就有可能帶有主觀偏見,這樣一來,算法偏見便形成了。

其次,算法會帶來價格歧視、大數(shù)據(jù)殺熟以及限制消費者瀏覽等問題。商家首先通過各種途徑獲知消費者個人信息,然后進行數(shù)據(jù)分析并建構(gòu)事件模型。這些事件模型包括時間(時間截和時間長度)、地點(用戶接觸點即網(wǎng)址)、內(nèi)容(每個網(wǎng)址中的內(nèi)容)以及事情(評論、點贊、購買等),海量的事件聚集在一起就形成了該用戶的畫像。最后,商家便會利用算法形成的畫像對消費者進行精準的廣告推送,以此來影響消費者的決策。于是,價格歧視、大數(shù)據(jù)殺熟的問題就產(chǎn)生了,同樣的產(chǎn)品和服務針對不同的客戶會有不同的價格,甚至會員客戶需要支付更高的價格來購買相同的產(chǎn)品和服務。同時,算法決策也剝奪了自我選擇的權(quán)利,使我們喪失了獲取那些我們不感興趣事物的機會。在生活中我們不難發(fā)現(xiàn),很多平臺軟件甚至比我們自己更了解我們,站在商家的立場上,他們認為算法既大大增加了顧客的黏性,為他們創(chuàng)造了利益,也大大節(jié)省顧客的時間,避免了許多曲折的經(jīng)歷。我們不能否認算法決策在這些方面顯示出的巨大優(yōu)越性,但未經(jīng)瀏覽者同意的算法決策植入是不是也在某種程度上損害了人們自由選擇的權(quán)利。

算法決策還可能導致歧視,從而損害信息被采集者的相關權(quán)利。美國威斯康辛州懲教署官員在為盧米斯制作量刑前調(diào)查報告時,采用了算法決策模型的分析結(jié)果,初審法院在量刑判決中也參考了該評估結(jié)果,并根據(jù)該評估結(jié)果對盧米斯做出了六年有期徒刑和五年社區(qū)監(jiān)督的處罰。盧米斯隨即便向初審法院提出了減輕刑罰的請求,并要求法院公開算法決策模型做出該評估結(jié)果的依據(jù)。盡管終審法院經(jīng)過審理后駁回了他的上訴理由,但依舊引起了許多學者對于該判決的反對。由此可見,隨著算法決策應用的不斷深入,它對我們相關權(quán)利的影響也就越來越大。今后,當企業(yè)、銀行、事業(yè)單位、行政機關都開始應用算法決策模型來處理相關問題和事件時,對于算法決策模型規(guī)制的需求就越發(fā)強烈。企業(yè)會運用算法決策模型進行招聘,銀行會依據(jù)算法決策模型進行放貸,行政機關會依據(jù)算法決策模型做出行政行為,一旦算法決策模型不能得到規(guī)制,我們的相關權(quán)利就可能會遭到損害。

三、算法決策的規(guī)制路徑

算法技術(shù)的運用就好比是汽車的應用,科技進步在帶來諸多便利和好處的同時,也存在著許多危及權(quán)利的風險。毫無疑問我們必須允許這樣的危險存在,就像汽車雖然存在著危及人類生命健康的危險,汽車技術(shù)依舊普遍使用那樣;但與規(guī)制汽車的應用不同,算法暫時還不需要設定一部像《道路交通安全法》那樣的法律來進行規(guī)制。因此,為了平衡好算法發(fā)展與個人私權(quán)之間的關系,我們可以從以下路徑對算法決策進行規(guī)制。

(1)建立算法決策模型備案機制。前面有提到不少學者提出了算法透明的觀點,立馬遭到了擁有算法技術(shù)公司的反對。從商業(yè)秘密的角度來看,將算法決策模型向公眾公開確實是一個不太現(xiàn)實的想法;甚至即使不考慮商業(yè)秘密,將算法模型予以公開,普通消費大眾也無法讀取其中有用的信息,在他們眼里算法決策模型只是一堆毫無意義的代碼。但是,我們可以借鑒專利申請注冊的經(jīng)驗,由專門機關和專業(yè)的人才為我們把控其中的風險。讓算法設計者和算法使用者在使用算法決策模型前到指定的機關進行審查備案,這樣就能在一定程度上杜絕一些算法決策可能造成的損害。同時,在算法技術(shù)公司的內(nèi)部也應當建立相應的算法決策模型審查部門,隨時隨地監(jiān)管算法決策模型可能存在的潛在危害。

(2)算法相對人有權(quán)要求算法使用者/設計者對收集的個人信息履行告知披露義務;對于錯誤的個人信息,算法相對人有權(quán)行使更正權(quán)。算法決策是以大數(shù)據(jù)為依托的,想要減少算法決策對個人私權(quán)的影響,首先得對算法決策收集的個人信息進行規(guī)范。這就要求算法使用者/設計者應當履行相應的告知以及披露義務,而知情權(quán)在我國現(xiàn)有法律框架內(nèi)早有規(guī)定。根據(jù)《民法典》第111條和1035條的規(guī)定,算法使用者/設計者在收集他人信息時應當循序合法的原則,向信息收集者說明使用信息的目的,并確保信息的安全?!峨娮由虅辗ā返诙臈l規(guī)定了用戶享有信息查詢、更正和刪除的權(quán)利,因此算法相對人在發(fā)現(xiàn)個人信息存在錯誤或者被未經(jīng)允許收集時,有權(quán)要求算法使用者/設計者對錯誤信息予以更正,對未經(jīng)允許收集的信息予以刪除。這就在一定程度上解決了算法決策模型在用戶畫像階段的信息準確性,從而也減少了算法決策模型中存在的偏見。

(3)算法相對人有權(quán)拒絕對自己產(chǎn)生重大影響的算法決策。“為了防止個人淪為自動決策算法的純粹客體,我國未來的《個人信息保護法》可以借鑒歐盟《通用數(shù)據(jù)保護條例》(以下簡稱條例)第22條的規(guī)定,賦予數(shù)據(jù)主體對算法結(jié)果的拒絕權(quán)。”前面兩種措施都是在事前對算法決策進行干預,以保證其最終輸出的結(jié)果盡量符合客觀事實,但允許算法相對人拒絕對自己產(chǎn)生重大影響的算法決策是一種事后防御權(quán)。事后防御權(quán)我們不難理解,難以理解的是什么叫做產(chǎn)生重大影響。不少學者對條例中所提到的重大影響作出了剖析,認為單純地以算法相對人的視角認定重大影響是不可取的,因為算法相對人在主觀上都會認為自己遭受了算法決策所帶來的重大不利影響?;蛟S可以借鑒民法合同訂立過程中一般理性人視角的經(jīng)驗,結(jié)合各方面事實綜合認定算法決策是否對算法相對人產(chǎn)生重大影響,由此賦予算法相對人算法決策拒絕權(quán)。

(4)算法相對人在相關權(quán)利受到損害時,可以尋求司法救濟。在實際生活中,當算法相對人發(fā)現(xiàn)算法決策結(jié)果對自己產(chǎn)生重大影響時,可以先與算法決策使用人或者算法決策設計者進行協(xié)商,要求算法決策使用者或設計者重新決策或者要求算法使用者說明做出算法決策結(jié)果的依據(jù),雙方達成合意的,可以按照“意思自治”原則解決雙方糾紛;協(xié)商不成的,雙方可以尋求司法救濟,借助法院等相關機構(gòu)的力量解決兩者之間的糾紛。司法救濟作為一種事后救濟,是保護算法相對人相關權(quán)利的最后一道屏障。

四、結(jié)語

法律的發(fā)展總是滯后于科技的進步,當一種新型事物出現(xiàn)時,必然會存在部分法律沒有規(guī)定的地方,對于新事物,我們永遠處在發(fā)現(xiàn)它、認識它以及規(guī)制它的這一發(fā)展過程中。就好比算法決策,大數(shù)據(jù)技術(shù)的發(fā)展為算法決策提供了支撐,漸漸地,商家開始運用算法為自身增加平臺用戶黏性以及經(jīng)濟收益,然后伴隨著算法決策的廣泛應用,法律問題開始突顯,越來越多的人開始意識到算法決策模型有可能會對我們的權(quán)利造成損害。算法偏見、算法歧視、大數(shù)據(jù)殺熟等字眼,頻頻出現(xiàn)在各種媒體和新聞界面里,到現(xiàn)在人人都處于算法決策中,但也擔憂和恐懼算法有可能給自身帶來的重大影響。不少學者也開始探尋規(guī)制算法的路徑,希望能找到平衡商業(yè)秘密和個人權(quán)利保護的方法,以更好地促進算法技術(shù)的發(fā)展和應用。本文通過對算法決策模型問題的描述,進而分析當前算法決策存在的妨害,最終給出了規(guī)制算法決策的路徑:首先得建立算法決策模型備案機制,在源頭上把握算法決策模型可能帶來的權(quán)利損害;其次使用算法決策模型的企業(yè)應當履行相應的披露義務,將相關數(shù)據(jù)的收集情況告知算法相對人,以便于算法相對人及時行使刪除權(quán)、更正權(quán)等權(quán)利;對于算法決策結(jié)果應當賦予算法相對人拒絕權(quán),但拒絕權(quán)不是算法相對人想拒絕就拒絕,算法相對人僅有拒絕對自己產(chǎn)生重大影響的算法決策。重大影響的標準不能以算法相對人的認知進行判斷,而是引用民法中一般理性人的假設理論對重大影響進行衡量;最后算法相對人在權(quán)利受到損害時,可以向司法機關尋求救濟。

總之,在法律的約束下,技術(shù)才能得到健康發(fā)展,因此,算法決策規(guī)制路徑的探索就顯得十分重要,我們需要不斷進行探索以更好地促進算法技術(shù)的發(fā)展。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數(shù)模型及應用
p150Glued在帕金森病模型中的表達及分布
函數(shù)模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 天堂在线视频精品| 色哟哟色院91精品网站| 亚洲人成网址| 国产成人AV综合久久| 天天躁日日躁狠狠躁中文字幕| 中文成人无码国产亚洲| 色婷婷成人网| 思思99思思久久最新精品| 在线播放精品一区二区啪视频| 91小视频在线播放| 毛片一级在线| 亚洲一级毛片免费观看| 99热这里只有精品久久免费| 欧美综合成人| 99精品这里只有精品高清视频| av无码久久精品| 亚洲日本中文字幕天堂网| 中文字幕亚洲综久久2021| 亚洲国产欧洲精品路线久久| 白浆免费视频国产精品视频| 国产亚洲日韩av在线| 免费观看三级毛片| 九九热精品在线视频| 国产成人综合网| 呦视频在线一区二区三区| 一区二区三区四区日韩| 欧美日韩一区二区在线免费观看| 91国内在线观看| 美女视频黄又黄又免费高清| 91在线视频福利| 奇米影视狠狠精品7777| 日韩精品欧美国产在线| 一级高清毛片免费a级高清毛片| 亚洲性日韩精品一区二区| 国产xxxxx免费视频| 久久久国产精品无码专区| 一级片一区| 久久一色本道亚洲| 毛片免费视频| AV在线天堂进入| 国产又黄又硬又粗| 久久久久国产一区二区| 中文字幕天无码久久精品视频免费 | 2021国产精品自产拍在线| 亚洲中文字幕国产av| 天天做天天爱天天爽综合区| 国产永久在线视频| 四虎成人精品在永久免费| 777午夜精品电影免费看| 日本三级欧美三级| 国产国产人免费视频成18| 欧美三级不卡在线观看视频| 国产丝袜啪啪| 在线不卡免费视频| 精品久久久久成人码免费动漫 | 日本a级免费| 久久人妻xunleige无码| 1024你懂的国产精品| 国产精品极品美女自在线网站| 色婷婷色丁香| 日韩欧美综合在线制服| 精品精品国产高清A毛片| 91亚洲精选| 亚洲精品国产成人7777| 免费无码AV片在线观看国产| 福利国产在线| 亚洲中文字幕av无码区| 99re这里只有国产中文精品国产精品 | 久久一色本道亚洲| 毛片久久网站小视频| 日本国产精品一区久久久| 欧美日韩在线成人| 日本国产在线| 国产精品福利一区二区久久| 久久综合五月婷婷| 久久精品亚洲热综合一区二区| 在线无码九区| 波多野结衣一级毛片| 午夜电影在线观看国产1区| 99精品热视频这里只有精品7| 日本在线国产| 国产一区二区三区在线观看视频|