李文靜,楊洪斌
“算法”這一名詞源于9 世紀(jì)波斯王國(guó)的一位數(shù)學(xué)家,它被當(dāng)作數(shù)字的運(yùn)算規(guī)則。有學(xué)者認(rèn)為算法在廣義上是一種解決所有領(lǐng)域問(wèn)題的操作步驟,是明確且具有目的性的。有的學(xué)者更傾向于狹義上的算法概念,認(rèn)為它是一種純粹性地解決問(wèn)題的科學(xué)技術(shù),主要應(yīng)用于解決數(shù)學(xué)難度或者是電腦程序問(wèn)題。還有學(xué)者認(rèn)為算法就是一套有公式的指令。其實(shí),算法并非簡(jiǎn)單意義上的數(shù)學(xué)算法,也不是僅指?jìng)€(gè)人決策的算法,而是兩者都是,是人機(jī)交相決策的算法。目前,算法深入到了人類(lèi)社會(huì)的各個(gè)方面,例如借助消費(fèi)者的個(gè)人信息和使用習(xí)慣等數(shù)據(jù),實(shí)現(xiàn)用戶(hù)需求和服務(wù)的快速精確匹配,又如司法系統(tǒng)應(yīng)用算法來(lái)提高案件判決的效率與公正性。但是,不當(dāng)應(yīng)用算法會(huì)造成社會(huì)危害,比如過(guò)度采集用戶(hù)信息侵犯?jìng)€(gè)人隱私、大數(shù)據(jù)殺熟、不當(dāng)操縱流量分配干預(yù)平臺(tái)商家經(jīng)營(yíng)等。
算法作為一項(xiàng)技術(shù),可以說(shuō)是科技日益發(fā)展的結(jié)果,其應(yīng)該是中性的,具有客觀(guān)性。但算法也有其自主性,其借助統(tǒng)計(jì)方法可推到出新命題或者新的規(guī)律。互聯(lián)網(wǎng)領(lǐng)域是算法應(yīng)用的重要場(chǎng)景之一。在信息技術(shù)方面,算法是人工智能的焦點(diǎn),是處理以及運(yùn)用大數(shù)據(jù)關(guān)鍵環(huán)節(jié)。算法運(yùn)用的結(jié)果會(huì)通過(guò)一定的途徑傳播給大眾網(wǎng)民,網(wǎng)民通過(guò)算法大數(shù)據(jù)的結(jié)果獲得信息,借助網(wǎng)絡(luò)平臺(tái)交流信息,這一過(guò)程會(huì)影響他們的知識(shí)、眼界、思維角度,也會(huì)影響他們對(duì)生活、社會(huì)、國(guó)家的看法。因?yàn)樗惴ㄊ怯凶约邯?dú)立的邏輯以及方式,并非完全具有客觀(guān)性,也可以是主觀(guān)的,這就是學(xué)者哈貝馬斯的觀(guān)點(diǎn)“算法也可以是一種意識(shí)形態(tài)”。
技術(shù)也需要不斷革新,回避壞的結(jié)果,實(shí)現(xiàn)自我完善。技術(shù)的不當(dāng)使用可能會(huì)破壞社會(huì)的穩(wěn)定和危害到個(gè)人的利益。算法作為一項(xiàng)先進(jìn)的科學(xué)技術(shù),一定的具有自主性,可能會(huì)引發(fā)風(fēng)險(xiǎn)。因此,需要對(duì)技術(shù)人員適當(dāng)強(qiáng)調(diào)風(fēng)險(xiǎn)和注意義務(wù)。技術(shù)人員應(yīng)及時(shí)根據(jù)不同的場(chǎng)景預(yù)估不同的風(fēng)險(xiǎn),從而更好地應(yīng)對(duì)不必要的危險(xiǎn)。
科技日新月異的發(fā)展,雖然會(huì)帶來(lái)一定的未知風(fēng)險(xiǎn),但其因?yàn)榫哂邢冗M(jìn)性,在推動(dòng)社會(huì)向前發(fā)展以及提高公民生活質(zhì)量上發(fā)揮著重要作用。所以,在面對(duì)法律規(guī)制與科技發(fā)展的關(guān)系問(wèn)題上,我們要找準(zhǔn)平衡點(diǎn),處理好兩者的關(guān)系。對(duì)此,立法機(jī)關(guān)應(yīng)完善、制度體系,維持社會(huì)穩(wěn)定。
目前,具有代表性的相關(guān)研究主要有:沈偉偉在《算法透明原則的迷思——算法規(guī)制理論的批判》提到,與事后規(guī)制相比,算法透明度原則作為一種事前規(guī)制方法,其效力存在天然缺陷[1]。就算法透明性原則在算法規(guī)制中的合理定位而言,它應(yīng)該處于非通用和輔助的位置。與本質(zhì)性強(qiáng)、以算法透明度為代表的事前規(guī)制相比,以實(shí)用主義為指導(dǎo)、以算法責(zé)任為代表的事后規(guī)制更為合適。譚九生、范曉韻的《算法“黑箱”的成因、風(fēng)險(xiǎn)及其治理》認(rèn)為,算法技術(shù)的復(fù)雜性、相關(guān)法律政策的缺乏、算法的局限性、公開(kāi)算法的力量不足以及算法安全性的維護(hù)不足等因素導(dǎo)致了算法“黑箱”[2]。要治理算法“黑箱”,關(guān)鍵是實(shí)現(xiàn)“有意義的算法透明度”,這可以遵循建立政府責(zé)任和義務(wù)體系的路徑,促進(jìn)科技公司的對(duì)外開(kāi)放,發(fā)揮社會(huì)組織監(jiān)督作用。鄧志宏、孫佳靈的《我國(guó)人工智能法律規(guī)制問(wèn)題初探》的主要觀(guān)點(diǎn)是:當(dāng)前人工智能法律規(guī)制的難點(diǎn)在于人工智能發(fā)展階段與法律規(guī)制范圍的差異;法律只能規(guī)范已經(jīng)發(fā)生的和社會(huì)上可以預(yù)見(jiàn)的風(fēng)險(xiǎn);算法知識(shí)的盲區(qū)和有限的立法技術(shù)使得人工智能系統(tǒng)規(guī)制的目標(biāo)難以實(shí)現(xiàn);法律規(guī)制應(yīng)更加關(guān)注人工智能應(yīng)用的特定領(lǐng)域,即遵循中國(guó)采用的分散立法的保護(hù)方式,合理借鑒國(guó)外的保護(hù)方式,結(jié)合具體行業(yè)進(jìn)行規(guī)制[3]。蘇宇在更深層次上討論了該算法的規(guī)則,并對(duì)其價(jià)值目標(biāo)和機(jī)構(gòu)設(shè)計(jì)進(jìn)行了分析。他認(rèn)為,任何規(guī)制活動(dòng)都應(yīng)在具有法律價(jià)值的特定目標(biāo)下進(jìn)行。因此,確定算法規(guī)制的價(jià)值目標(biāo)是解決法律規(guī)制這一重大問(wèn)題的關(guān)鍵。確定價(jià)值目標(biāo)的具體選擇應(yīng)由立法者決定,因此由行政和司法機(jī)構(gòu)在立法決定的框架內(nèi)通過(guò)法律程序加以解釋。趙學(xué)剛、馬羽男在《算法偏見(jiàn)的法律矯正研究》中指出,無(wú)論我們多么強(qiáng)調(diào)對(duì)算法的監(jiān)督,不扼殺創(chuàng)新和行業(yè)競(jìng)爭(zhēng)力都應(yīng)該是管理的底線(xiàn)。如果苛責(zé)太多,因噎廢食,我們將落后于時(shí)代。可以建立一個(gè)新的內(nèi)部和外部監(jiān)管機(jī)構(gòu)來(lái)監(jiān)管數(shù)據(jù)公司[4]。本文在借鑒上述研究的基礎(chǔ)上,將歐美等西方國(guó)家的相關(guān)立法制度與我國(guó)現(xiàn)行的算法法律規(guī)制相比較,分析了我國(guó)現(xiàn)行法律規(guī)制的不足之處,并提出了建立未來(lái)立法規(guī)制體系的可行性建議。本文的創(chuàng)新點(diǎn)主要有以下三個(gè)方面:一是在詳細(xì)梳理、分析相關(guān)的法律法規(guī)以及指導(dǎo)性文件基礎(chǔ)上,提出算法法律規(guī)制的路徑;二是擴(kuò)展了研究視點(diǎn),不局限于研究特定應(yīng)用場(chǎng)景下的法律規(guī)制和技術(shù)手段的完善;三是在研究?jī)?nèi)容上,較為全面地總結(jié)了算法的不透明性以及算法可能導(dǎo)致的算法歧視等法律問(wèn)題,并分析了這些問(wèn)題背后的真正原因,較為系統(tǒng)地闡述了規(guī)制算法的具體方式。
作為一種新興技術(shù),算法本身具有技術(shù)的難度和復(fù)雜性,算法的應(yīng)用過(guò)程還不為普通大眾知曉。這也是算法迅速發(fā)展壯大路上的絆腳石。
首先,算法透明化缺乏可操作性。算法透明,換種語(yǔ)言可以說(shuō)是算法公開(kāi)。算法公開(kāi)其實(shí)是對(duì)算法數(shù)據(jù)運(yùn)算的發(fā)布,還包括對(duì)數(shù)據(jù)代碼的公開(kāi)。算法的不透明性,本質(zhì)上是算法技術(shù)的復(fù)雜性造成的,并不是人們主觀(guān)故意使然[5]。不是學(xué)習(xí)專(zhuān)業(yè)代碼技術(shù)這類(lèi)人,即使算法公開(kāi)透明,也無(wú)法理解其內(nèi)容。算法究竟是如何運(yùn)轉(zhuǎn)的,即使是有一定專(zhuān)業(yè)技術(shù)知識(shí)的人也并不十分清楚。
其次,算法透明的實(shí)現(xiàn)面臨風(fēng)險(xiǎn)挑戰(zhàn)。假使算法的透明性部分實(shí)現(xiàn),算法具體向相關(guān)主體披露或解釋?zhuān)敲矗惴ǖ耐该餍钥赡苋匀淮嬖谑欠窨扇〉膯?wèn)題。例如,算法一旦實(shí)現(xiàn)其透明性,有的人就可能通過(guò)設(shè)置相應(yīng)的參數(shù)和制造數(shù)據(jù),利用計(jì)算類(lèi)方法達(dá)成自己相關(guān)意圖,進(jìn)而對(duì)其他人的正當(dāng)權(quán)益形成損害。算法的公開(kāi)還有可能導(dǎo)致算法的知識(shí)產(chǎn)權(quán)受到侵犯。從原理視角上分析,不管是基于勞動(dòng)價(jià)值論還是基于促進(jìn)投資的功利主義原則,將算法作為商業(yè)秘密來(lái)保護(hù)知識(shí)產(chǎn)權(quán)都是正當(dāng)?shù)模?]。人們會(huì)簡(jiǎn)單地將算法徹底公開(kāi)等同于算法正當(dāng),忽視了算法隱含的價(jià)值觀(guān)念以及對(duì)公共事務(wù)產(chǎn)生的影響。
再次,算法黑箱普遍存在。算法是一種典型的技術(shù)工具,應(yīng)該是客觀(guān)中立的,但由于其身特性和技術(shù)應(yīng)用不當(dāng),算法黑箱化現(xiàn)象比較普遍。算法黑箱的存在,在一定程度上會(huì)損害個(gè)人的合法權(quán)益,影響公眾對(duì)算法的認(rèn)知,造成政府法治現(xiàn)代化推進(jìn)的緩慢[7]。算法黑箱使得人們無(wú)法保護(hù)自己合法信息方面的相關(guān)利益,黑箱運(yùn)作是一個(gè)專(zhuān)門(mén)的場(chǎng)域,公眾不知道也看不到其中的規(guī)則,參與不到?jīng)Q策的流程,那么,風(fēng)險(xiǎn)的規(guī)避就無(wú)從談起,只有默默無(wú)奈接受最后的結(jié)果。算法可以說(shuō)不光是在預(yù)測(cè),更是在幫助、主導(dǎo)用戶(hù)的行為[8]。
作為一項(xiàng)技術(shù),算法是客觀(guān)中立的,所以大部分人認(rèn)為應(yīng)用算法技術(shù)得出的結(jié)果,也是客觀(guān)的,會(huì)有效避免人為操作可能造成的不公正問(wèn)題的發(fā)生。其實(shí)不然,在人工智能算法決策中,算法歧視和不公正現(xiàn)象并不鮮見(jiàn)。
所謂算法歧視,是指人們?cè)诓僮魅斯ぶ悄軙r(shí)采用的算法運(yùn)算導(dǎo)致不公平或者錯(cuò)誤結(jié)果出現(xiàn),造成用戶(hù)基本權(quán)利的損害。比較常見(jiàn)情形是價(jià)格歧視,大數(shù)據(jù)“殺熟”現(xiàn)象屢見(jiàn)不鮮。出現(xiàn)算法歧視的原因,一方面是算法編程人員或者使用人員的主觀(guān)偏見(jiàn)。設(shè)計(jì)者帶著自身的偏見(jiàn)與歧視,將其編入算法程序,自然算法決策出來(lái)的結(jié)果也是不公正的。除此之外,收集數(shù)據(jù)的過(guò)程可能也存在許多歧視機(jī)制。算法在不停更新學(xué)習(xí)自我完善的過(guò)程中也體現(xiàn)這種趨勢(shì)。大數(shù)據(jù)合集的不完備性依賴(lài)于人類(lèi)社會(huì)相關(guān)不確定性和復(fù)雜客觀(guān)事實(shí)[9]。有些歧視可能造成不了什么影響,可是假如算法歧視牽涉到個(gè)人或者企業(yè)的信用評(píng)估、犯罪風(fēng)險(xiǎn)預(yù)測(cè)等重要事情,算法決策相關(guān)結(jié)果可能會(huì)牽涉到貸款額度、刑罰輕重等問(wèn)題。這類(lèi)情況則需要引起我們足夠重視。
面對(duì)日益擴(kuò)張的信息鴻溝,用戶(hù)普遍缺乏足夠的能力和必要的知識(shí)對(duì)抗實(shí)力懸殊的數(shù)據(jù)掌控者,但又難以拒絕誘惑而不得不在魚(yú)或者是熊掌之間艱難抉擇。最終的結(jié)果很可能是為了獲取便利而逐漸舍棄對(duì)平等權(quán)的守護(hù)[10],這必然使得用戶(hù)識(shí)別算法歧視的閾值越來(lái)越高,長(zhǎng)此以往,用戶(hù)就會(huì)產(chǎn)生耐受心理,甚至對(duì)社會(huì)不公表現(xiàn)出“格式化”和麻木的心態(tài)。這種情形勢(shì)必會(huì)給平等權(quán)保護(hù)帶來(lái)可怕的后果。
為應(yīng)對(duì)大數(shù)據(jù)時(shí)代的潮流,維護(hù)社會(huì)穩(wěn)定,我國(guó)立法部門(mén)也對(duì)算法進(jìn)行了法律層面的規(guī)制。主要包括我國(guó)的《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》,此外,我國(guó)最新頒布的《民法典》中“人格權(quán)編”也對(duì)此有規(guī)定。但是,我國(guó)這些法律是偏回應(yīng)型的,更偏重對(duì)算法結(jié)果的規(guī)制。法律規(guī)范文件多而密集,反映出立法機(jī)關(guān)對(duì)這一問(wèn)題的高度重視,但是,從另一方面看,法律規(guī)范文件的紛雜也不是好現(xiàn)象,這可能引發(fā)數(shù)據(jù)主體的濫用風(fēng)險(xiǎn)。
《網(wǎng)絡(luò)安全法》對(duì)行政機(jī)關(guān)監(jiān)測(cè)網(wǎng)絡(luò)和維護(hù)網(wǎng)絡(luò)相關(guān)職責(zé)的規(guī)定,重點(diǎn)涉及網(wǎng)絡(luò)運(yùn)行與信息安全維護(hù)。單從文本上看似乎是科學(xué)合理和清晰的。可是我們對(duì)照實(shí)際情況會(huì)發(fā)現(xiàn)很多問(wèn)題。例如,該法第41 條規(guī)定:“網(wǎng)絡(luò)運(yùn)營(yíng)者收集、使用個(gè)人信息,應(yīng)當(dāng)遵循合法、正當(dāng)、必要的原則,公開(kāi)收集、使用規(guī)則,明示收集、使用信息的目的、方式和范圍,并經(jīng)被收集者同意。”但負(fù)責(zé)網(wǎng)絡(luò)運(yùn)營(yíng)的人怎么公開(kāi)以及明示信息,其公開(kāi)明示義務(wù)在何種程度上可以滿(mǎn)足信息被收集者相關(guān)了解范圍?網(wǎng)絡(luò)運(yùn)營(yíng)者實(shí)際上可以應(yīng)用算法自動(dòng)關(guān)聯(lián)技術(shù)規(guī)避這條規(guī)定,即這條規(guī)定沒(méi)有辦法阻止數(shù)據(jù)主體的個(gè)人信息被單方面收集。由于其自動(dòng)關(guān)聯(lián)性,該算法仍然可以繞過(guò)上述規(guī)則,在未經(jīng)用戶(hù)授權(quán)的情況下提取個(gè)人私密信息。
我國(guó)《民法典》制定了數(shù)據(jù)保護(hù)規(guī)則,意義重大。這主要體現(xiàn)在該法典第1035 到1039條。但是除了規(guī)定保護(hù)個(gè)人的隱私權(quán)益,規(guī)定對(duì)自身信息的查閱、刪除、更正等權(quán)利之外,該《民法典》中并沒(méi)有對(duì)一些類(lèi)似于“私密空間”“私密話(huà)語(yǔ)”進(jìn)行范圍界定[11],也并沒(méi)有認(rèn)可諸如限制處理權(quán)、數(shù)據(jù)可攜權(quán)。其規(guī)定個(gè)人信息處理的法律原因是個(gè)人同意,這沒(méi)有辦法打破強(qiáng)制束縛,沒(méi)有更多有針對(duì)性的權(quán)利,例如拒絕算法自動(dòng)處理數(shù)據(jù)的權(quán)利。
在頂層設(shè)計(jì)上,政府需要對(duì)算法公開(kāi)的相關(guān)內(nèi)容以及公開(kāi)的度,完善相關(guān)的法律法規(guī)。
這里的算法公開(kāi),應(yīng)該是根據(jù)不同的算法內(nèi)容區(qū)別處理,即不同的算法內(nèi)容,公開(kāi)程度是不一樣的。作為一般原則,算法都應(yīng)該采取一定的方式進(jìn)行公開(kāi)。開(kāi)放式算法在不侵犯知識(shí)產(chǎn)權(quán)的情況下,有關(guān)部門(mén)決策者需要借助算法進(jìn)行決策的,應(yīng)嘗試以普通人能夠理解的方式對(duì)算法進(jìn)行逐一解釋并予以公開(kāi)。在這種情況下,算法相關(guān)開(kāi)放性和透明性為法律討論供給一條良好途徑[12]。此外,可以就算法引發(fā)的危害進(jìn)行等級(jí)劃分,不一樣的等級(jí)采取不同的公開(kāi)方法。這種體系的構(gòu)建必須有個(gè)前提,即在算法中的任何一風(fēng)險(xiǎn)等級(jí),用戶(hù)都有權(quán)擁有最簡(jiǎn)單明了的基本操作方法,并告知用戶(hù)有對(duì)算法結(jié)果提出異議的權(quán)利,對(duì)于不理解的地方也享有要求對(duì)方解釋的權(quán)利。風(fēng)險(xiǎn)可以大致分為三個(gè)等級(jí):一級(jí)風(fēng)險(xiǎn)、二級(jí)風(fēng)險(xiǎn)和三級(jí)風(fēng)險(xiǎn),風(fēng)險(xiǎn)等級(jí)依次遞增。算法中的一級(jí)風(fēng)險(xiǎn)和二級(jí)風(fēng)險(xiǎn),可以設(shè)定恰當(dāng)?shù)墓_(kāi)范圍,同時(shí)把征得用戶(hù)同意的依賴(lài)程度降低。具體實(shí)施上,對(duì)于一級(jí)風(fēng)險(xiǎn)的算法數(shù)據(jù),技術(shù)公司在公開(kāi)的時(shí)候不用征得用戶(hù)的同意,減輕公司企業(yè)的壓力。具有二級(jí)風(fēng)險(xiǎn)的算法,應(yīng)當(dāng)讓用戶(hù)以顯著的方式意識(shí)到風(fēng)險(xiǎn)的后果,并采取積極主動(dòng)的措施,減少應(yīng)對(duì)風(fēng)險(xiǎn)的迫切需要。如果用戶(hù)不愿意做出一些措施去降低風(fēng)險(xiǎn),就應(yīng)該立即停止算法的運(yùn)作。高風(fēng)險(xiǎn)場(chǎng)景的算法應(yīng)重點(diǎn)公開(kāi),對(duì)于數(shù)據(jù)的收集分析要經(jīng)主體同意,告知其數(shù)據(jù)處理的情況以及涉及的邏輯信息與處理的重要性與后果。在面對(duì)第三等級(jí)算法風(fēng)險(xiǎn)時(shí),收集數(shù)據(jù)信息時(shí)需要征得主體同意,同時(shí)需要告訴他們處理相關(guān)數(shù)據(jù)的具體情形、收集這些數(shù)據(jù)的必要性以及需要面對(duì)的后果,這是需要重點(diǎn)公開(kāi)的方面。另外,我們還可以采取小規(guī)模披露的方式。所謂小規(guī)模披露是指算法可以向企業(yè)的決策者披露,也可以向企業(yè)的其他人員披露。在企業(yè)決策體系內(nèi)部設(shè)立算法專(zhuān)業(yè)法律委員會(huì),選舉產(chǎn)生部分專(zhuān)業(yè)委員,加強(qiáng)對(duì)算法的評(píng)審[13],通過(guò)這樣的方式去保證算法運(yùn)行的合理合法性。
為了能更好監(jiān)管算法,防止算法歧視,需要加強(qiáng)算法監(jiān)管。2022 年3 月1 日起施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,將算法推薦服務(wù)全面納入監(jiān)管。該文件規(guī)定,算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶(hù)提供不針對(duì)其個(gè)人特征的選項(xiàng),或者向用戶(hù)提供便捷的關(guān)閉算法推薦服務(wù)的選項(xiàng)。該規(guī)定涉及的個(gè)性化推薦如何更加規(guī)范,仍然面臨挑戰(zhàn)。但是,該規(guī)定的出臺(tái)促進(jìn)了互聯(lián)網(wǎng)平臺(tái)的算法技術(shù)進(jìn)步,有利于推進(jìn)相關(guān)行業(yè)的數(shù)字化轉(zhuǎn)型與平臺(tái)經(jīng)濟(jì)的健康發(fā)展。
算法監(jiān)管可以從兩個(gè)方面雙管齊下,其一是算法制定者的內(nèi)部監(jiān)管,即設(shè)立數(shù)據(jù)保護(hù)負(fù)責(zé)人團(tuán)隊(duì)。負(fù)責(zé)人需要擁有法律知識(shí)和技術(shù)知識(shí),是復(fù)合型人才。為了有效決定自動(dòng)決策算法,立法還需賦予數(shù)據(jù)維護(hù)負(fù)責(zé)人對(duì)自動(dòng)決策算法結(jié)果的抵制以及上訴權(quán)利。數(shù)據(jù)主體享有數(shù)據(jù)訪(fǎng)問(wèn)權(quán)、算法拒絕權(quán)以及申訴復(fù)議權(quán),在對(duì)自動(dòng)決策算法結(jié)果不滿(mǎn)意時(shí),可以行使上述權(quán)利。算法控制者應(yīng)當(dāng)定期檢測(cè)算法模型中的數(shù)據(jù)偏差,避免對(duì)服務(wù)對(duì)象產(chǎn)生歧視性影響,如果其未能履行此項(xiàng)義務(wù),算法控制者就應(yīng)該被問(wèn)責(zé)。其二是加強(qiáng)外部監(jiān)管。雖然這兩年,國(guó)家有成立政府的數(shù)據(jù)監(jiān)管局,但其職能更多體現(xiàn)在政務(wù)公開(kāi)層面。所以我們需要建立一個(gè)專(zhuān)門(mén)的算法監(jiān)督管理機(jī)構(gòu),來(lái)應(yīng)對(duì)算法歧視的泛濫。數(shù)據(jù)主體可以通過(guò)專(zhuān)門(mén)算法監(jiān)督機(jī)構(gòu)去找尋政府救濟(jì),更好地保障自身相關(guān)合法權(quán)益。因此,這類(lèi)監(jiān)督機(jī)構(gòu),首先要保持自身獨(dú)立性,可以借鑒監(jiān)察委相關(guān)設(shè)立模式。同時(shí)也要保證其財(cái)政獨(dú)立。對(duì)于哪些被算法監(jiān)督機(jī)構(gòu)監(jiān)管,即監(jiān)管相關(guān)對(duì)象必須明確。既可以是技術(shù)企業(yè),亦或以是算法本身,也可是算法使用者。更重要的是算法監(jiān)督機(jī)構(gòu)人員的構(gòu)成,必須要求是專(zhuān)業(yè)技術(shù)強(qiáng),法律意識(shí)充沛的人。監(jiān)管機(jī)構(gòu)要把風(fēng)險(xiǎn)預(yù)防作為目的,通過(guò)對(duì)數(shù)據(jù)進(jìn)行篩查、評(píng)估以及專(zhuān)業(yè)恢復(fù)等方式,加強(qiáng)對(duì)數(shù)據(jù)質(zhì)量的剖析。
細(xì)化立法條款,明確問(wèn)責(zé)機(jī)制是一項(xiàng)挑戰(zhàn)性強(qiáng)的工作,需要一個(gè)過(guò)程。但是,這項(xiàng)工作已迫在眉睫。
首先,對(duì)于已經(jīng)頒布的法律,有些內(nèi)容和法律概念應(yīng)予以細(xì)化。由于算法的設(shè)計(jì)、操作是放在網(wǎng)絡(luò)環(huán)境下進(jìn)行的,所以,《網(wǎng)絡(luò)安全法》的相關(guān)規(guī)定適用算法的規(guī)制。例如就該法的第22 條,網(wǎng)絡(luò)相關(guān)產(chǎn)品以及服務(wù)應(yīng)遵守國(guó)家標(biāo)準(zhǔn)強(qiáng)制性規(guī)定,那么,必須對(duì)惡意程序進(jìn)行限制性約束,網(wǎng)絡(luò)產(chǎn)品和服務(wù)符合不得設(shè)置惡意程序。法律禁止組織或個(gè)人使用算法侵犯他人權(quán)利或公共利益。但可以針對(duì)該法第41 條,對(duì)網(wǎng)絡(luò)經(jīng)營(yíng)者的公開(kāi)和明示義務(wù)作出規(guī)定,例如牽涉到公民個(gè)人利益的,在不侵犯其知識(shí)產(chǎn)權(quán)的情況才必須公開(kāi)。
其次,還需明確算法責(zé)任制度。在算法問(wèn)責(zé)主體上,可以將設(shè)計(jì)者、操作者或者第三方侵權(quán)人當(dāng)作問(wèn)責(zé)主體。如果算法內(nèi)部出現(xiàn)問(wèn)題,則將算法設(shè)計(jì)者當(dāng)作問(wèn)責(zé)主體。如果是使用過(guò)程中發(fā)生侵權(quán)事件,則追究算法操作人員相關(guān)責(zé)任。在歸責(zé)問(wèn)題上,過(guò)錯(cuò)推定原則具備正當(dāng)適用性。關(guān)于侵權(quán)因果關(guān)系的認(rèn)定問(wèn)題,由于算法與客觀(guān)損傷之間沒(méi)有直接的因果關(guān)系,需要綜合考慮算法模型、主觀(guān)意圖和損傷大小來(lái)確定[14]108。在算法侵權(quán)舉證責(zé)任分配相關(guān)問(wèn)題上,可以采取舉證責(zé)任倒置更加方便舉證以及質(zhì)證。因?yàn)榍謾?quán)主體一般都是擁有專(zhuān)業(yè)技術(shù)知識(shí)的人。算法侵權(quán)責(zé)任相關(guān)承擔(dān)方式應(yīng)包括賠禮道歉、經(jīng)濟(jì)賠償、積極消除算法影響等類(lèi)型。針對(duì)造成嚴(yán)重財(cái)產(chǎn)侵害的情形,可以建立懲罰性賠償制度。由于我國(guó)關(guān)于算法規(guī)制的法律過(guò)于分散與模糊,立法機(jī)關(guān)也可以借鑒國(guó)外的相關(guān)立法經(jīng)驗(yàn)制定符合我國(guó)國(guó)情的《算法責(zé)任法》,整合有關(guān)規(guī)制內(nèi)容。
數(shù)字技術(shù)發(fā)展也應(yīng)樹(shù)立以人為本的理念。算法規(guī)制的實(shí)現(xiàn)離不開(kāi)數(shù)字人權(quán)保護(hù)。數(shù)字人權(quán)的涵蓋面極為廣泛,數(shù)字技術(shù)的各個(gè)應(yīng)用場(chǎng)景中,都存在數(shù)字人權(quán)保護(hù)問(wèn)題。我國(guó)正在致力于構(gòu)建人類(lèi)命運(yùn)共同體,加強(qiáng)數(shù)字人權(quán)保護(hù)可以增強(qiáng)中國(guó)在科技立法和數(shù)據(jù)治理方面的國(guó)際發(fā)言權(quán)。算法的法律規(guī)制手段只能解決算法公正的短期目標(biāo)和中期目標(biāo),長(zhǎng)遠(yuǎn)來(lái)看,算法公正需要借助數(shù)字人權(quán)保護(hù)來(lái)實(shí)現(xiàn)。
眾所周知,前三代人權(quán)的內(nèi)容主要是公眾參與、生活標(biāo)準(zhǔn)和物理世界的公平發(fā)展,牽涉到實(shí)質(zhì)層面上的人、物和行為,是不涉及到數(shù)據(jù)信息的。現(xiàn)在,隨著數(shù)字時(shí)代的到來(lái),一切從個(gè)人隱私到公共生活和財(cái)富,從服裝、食品、住房和交通到公共安全,都在加速計(jì)算機(jī)化和數(shù)字化進(jìn)程。離線(xiàn)狀態(tài)下的純活動(dòng)較少。虛擬世界和現(xiàn)實(shí)世界的區(qū)別正在失去其原有的意義,所有人的數(shù)字生活將更加詳細(xì)。因此,所有人權(quán),包括生命和財(cái)產(chǎn)、工作和就業(yè)、社會(huì)保障、文化和教育,通過(guò)計(jì)算機(jī)化和數(shù)字化,如:隱私和個(gè)性、智能政府和公眾參與、保護(hù)虛擬財(cái)產(chǎn)、網(wǎng)上言論自由等,已經(jīng)被解構(gòu)和重建;或者迎接了數(shù)字分形、算法歧視、算法霸權(quán)、公司監(jiān)控等新的挑戰(zhàn)。在當(dāng)今,數(shù)字生活中由數(shù)據(jù)信息填滿(mǎn),不可或缺。它也成為新時(shí)代人權(quán)的新載體和日益重要的表達(dá),人權(quán)內(nèi)容或人權(quán)形式正在從前三代人權(quán)的物質(zhì)支持轉(zhuǎn)變?yōu)楫?dāng)前人權(quán)的數(shù)字支持,這構(gòu)成了第四代人權(quán)的發(fā)展動(dòng)力和基礎(chǔ)。
當(dāng)今數(shù)字時(shí)代,海量信息數(shù)據(jù)是人們身份、行為、關(guān)系的具體顯示和場(chǎng)景再現(xiàn),是人的數(shù)字屬性、數(shù)字定位和數(shù)字生態(tài)的必要資源,也是構(gòu)成人的資格的核心要素。算法的黑匣子,算法的霸權(quán)和算法的差別等問(wèn)題被強(qiáng)調(diào)和普及,人腦的決策也日益會(huì)被算法這類(lèi)自動(dòng)化決策所替代。目前,核心問(wèn)題不再是合同自由和產(chǎn)權(quán),而是數(shù)字人格,包括個(gè)人電子信息的知情權(quán)和個(gè)人電子信息不被非法披露、篡改和破壞都是個(gè)人人格權(quán)的重要內(nèi)容。因此識(shí)別數(shù)字人格是保護(hù)數(shù)字人權(quán)必然途徑。
首先,黑箱陰謀現(xiàn)象正在變得越來(lái)越嚴(yán)重。用戶(hù)最終選擇接受結(jié)果,是因?yàn)樗麄儫o(wú)法看到規(guī)則、表達(dá)不同意見(jiàn)和參與決策過(guò)程。因此,有的算法“不僅是預(yù)測(cè),而且有助于控制用戶(hù)行為”,這當(dāng)然會(huì)構(gòu)成各種“陰謀”的黑匣子,歧視、不公正、不當(dāng)利潤(rùn)甚至欺詐在所難免,人權(quán)保護(hù)自然面臨挑戰(zhàn)。其次,沒(méi)有監(jiān)測(cè)方向的擴(kuò)張。一些國(guó)家的貿(mào)易組織和政府經(jīng)常隨時(shí)以各種名義監(jiān)測(cè)和檢查個(gè)人數(shù)據(jù)信息。再次,數(shù)據(jù)控制的嚴(yán)重不對(duì)稱(chēng)非常突出。所有數(shù)據(jù)都是我們自己生成的,但所有權(quán)不屬于我們。個(gè)人背景的透明度越來(lái)越高,外人對(duì)各種信息的收集和了解甚至超過(guò)了自己,加之,一些新黑科技的應(yīng)用,網(wǎng)絡(luò)竊賊可能正利用你的腦電波竊取個(gè)人信息,因此,一般公眾很難知道他們有多少個(gè)人數(shù)據(jù)和信息被他人控制。這意味著日益增長(zhǎng)的“信息壟斷”和“信息鴻溝”可能危及個(gè)人隱私,自由平等和人的尊嚴(yán),損害數(shù)字時(shí)代的公平機(jī)會(huì)、社會(huì)教育、工作和社會(huì)保障等各項(xiàng)人權(quán)。
近年來(lái),種族、性別、身份、宗教和健康狀況等方面的算法歧視在不少領(lǐng)域都有發(fā)生。借助自動(dòng)信息處理,算法運(yùn)營(yíng)主體可以繞過(guò)反歧視限制,對(duì)特定群體進(jìn)行分組。因此,掌握算法的公司和政府機(jī)構(gòu)依靠一系列隱藏而強(qiáng)大的信息和精確的計(jì)算能力,通過(guò)虛擬空間實(shí)現(xiàn)遠(yuǎn)程存在,為所有特定對(duì)象提供其所需要的資源,并實(shí)現(xiàn)抽象和廣泛的自動(dòng)識(shí)別。其后果具有普遍性、長(zhǎng)期性和深遠(yuǎn)性,自現(xiàn)代化以來(lái)嚴(yán)重侵蝕了反歧視人權(quán)。事實(shí)上,信息隱私和算法歧視都不是簡(jiǎn)單的個(gè)人現(xiàn)象,其在一定程度上已經(jīng)演變?yōu)橐环N社會(huì)現(xiàn)象。在其他領(lǐng)域,民眾參與智能政府決策、網(wǎng)絡(luò)言論發(fā)聲、虛擬社會(huì)組織,平等和正義等權(quán)利的變化也很普遍。在這些場(chǎng)域,民眾的私人權(quán)益往往處于更為脆弱的地位,難以得到有效保護(hù)。
事實(shí)表明,自計(jì)算機(jī)問(wèn)世以來(lái),技術(shù)變革的主要問(wèn)題是權(quán)力的轉(zhuǎn)移,這導(dǎo)致人類(lèi)從工業(yè)社會(huì)向算法社會(huì)轉(zhuǎn)移。最初,算法社會(huì)的主要目標(biāo)是提高智能和人類(lèi)的自主性。這些自動(dòng)化系統(tǒng)已經(jīng)從簡(jiǎn)單的行政工具轉(zhuǎn)變?yōu)橹饕獩Q策者,收集了大量個(gè)人數(shù)據(jù),使政府和私營(yíng)公司能夠采用新的監(jiān)測(cè)、控制、歧視和操縱形式。人們自己去主導(dǎo)的時(shí)代,已經(jīng)被高效便捷的算法來(lái)主導(dǎo)。有學(xué)者預(yù)測(cè),人工智能可能會(huì)逐漸成為國(guó)家和國(guó)際經(jīng)濟(jì)的主導(dǎo)者,這一趨勢(shì)說(shuō)明經(jīng)濟(jì)自由和資本主義結(jié)束了。因此,加強(qiáng)個(gè)人自主權(quán),反對(duì)集權(quán)。
首先,將人權(quán)和道德的相關(guān)價(jià)值觀(guān)融入算法中。算法和價(jià)值選擇的優(yōu)缺點(diǎn)與互聯(lián)網(wǎng)公司可以獲得的用戶(hù)數(shù)量和流量有關(guān),也關(guān)系到互聯(lián)網(wǎng)公司的利益。只有通過(guò)完善規(guī)則和管理人性,我們才能充分享受科技的紅利。在數(shù)字技術(shù)驅(qū)動(dòng)的數(shù)字經(jīng)濟(jì)和數(shù)字社會(huì)背景下,研發(fā)公司的知識(shí)產(chǎn)權(quán)保護(hù)必須嚴(yán)格遵守尊重公民人權(quán)的原則,如隱私權(quán)、數(shù)據(jù)權(quán)和知識(shí)利益共享[14]117。科技發(fā)展的最終方向是人。互聯(lián)網(wǎng)公司開(kāi)發(fā)和應(yīng)用新技術(shù)的目標(biāo)應(yīng)該是最好地為人們服務(wù),在服務(wù)提供過(guò)程中獲利,不是為了利益而傷害人們。當(dāng)下,我們必須高度警惕推薦算法正在改變信息披露的邏輯和規(guī)則。要確保符合主流價(jià)值,以主流價(jià)值取向控制算法,大幅提升輿論導(dǎo)向能力,我們可以確保算法的識(shí)別和應(yīng)用不會(huì)偏離軌道,更好地服務(wù)于社會(huì)。我們不僅要注意從技術(shù)層面對(duì)數(shù)據(jù)和算法的區(qū)分,還要從價(jià)值層面對(duì)數(shù)據(jù)控制員進(jìn)行引導(dǎo),避免基于自然利潤(rùn)需求引入偏差數(shù)據(jù)和算法。
其次,促進(jìn)數(shù)據(jù)和信息自主的制度化進(jìn)程。對(duì)于數(shù)字人權(quán)這一概念具有重要影響意義的就是“信息自決”這一概念了,這一概念的提出對(duì)保護(hù)數(shù)據(jù)信息以及權(quán)利具有劃時(shí)代的意義。其意義主要體現(xiàn)在,個(gè)人數(shù)據(jù)不受?chē)?guó)家的無(wú)限收集、存儲(chǔ)、使用和傳輸。但它不是一項(xiàng)絕對(duì)的權(quán)利,實(shí)際上它受到一定程度的限制,與其他原則一樣,這影響著數(shù)字化的發(fā)展前景。我們應(yīng)找到平衡點(diǎn),并予以制度化,以更好地保障信息權(quán)益和數(shù)字人權(quán)。
再次,我們必須確立算法的倫理原則。算法歧視、算法控制和算法投喂等問(wèn)題的解決,僅靠法律的外部規(guī)制是不夠的,最基本、最頻繁的是決策算法的內(nèi)部自律。公正的實(shí)現(xiàn)需要借助算法的質(zhì)量監(jiān)控。因此,有必要將人權(quán)和法治的必要價(jià)值納入算法決策中,并定義算法自律的標(biāo)準(zhǔn),即:在國(guó)家立法、行業(yè)自律和社會(huì)評(píng)價(jià)中確立算法符合“良法”的倫理原則,以尊重人權(quán)價(jià)值,維護(hù)數(shù)字人權(quán),促進(jìn)社會(huì)公平正義。