□ 文 靳岳明 王曉萌
算法技術(shù)目前被廣泛應(yīng)用于醫(yī)療、衛(wèi)生、公共交通等領(lǐng)域,在提供便利的同時(shí)也產(chǎn)生了諸多風(fēng)險(xiǎn)。市場力量借助其技術(shù)優(yōu)勢、數(shù)據(jù)優(yōu)勢和資本優(yōu)勢,利用算法技術(shù)竊取用戶個(gè)人數(shù)據(jù)信息、對數(shù)據(jù)信息進(jìn)行篡改和偽造、通過定向的算法技術(shù)實(shí)行各類歧視等等,大有“通過算法控制社會”之勢。這是國家法律所不能容忍的,必須防范其對國家、社會和個(gè)人帶來的重大安全風(fēng)險(xiǎn),逐步將其從野蠻發(fā)展引向正軌方向。
目前各大購物軟件、搜索引擎統(tǒng)計(jì)推薦算法,搜集與處理了海量的用戶信息、瀏覽痕跡等個(gè)人隱私數(shù)據(jù),但算法并非全部基于合法途徑獲取用戶信息數(shù)據(jù)。2020年中央網(wǎng)信辦、工信部、公安部、市場監(jiān)管總局組成的App專項(xiàng)治理工作組發(fā)布通告,曝光了81款A(yù)pp違規(guī)搜集兒童信息、人臉識別信息,甚至使用“監(jiān)聽麥克風(fēng)”、“監(jiān)控個(gè)人輸入”等方式竊取用戶個(gè)人信息以獲取市場競爭優(yōu)勢,如果不同意App搜集個(gè)人信息的用戶使用協(xié)議,就無法使用App的霸王條款更成為了業(yè)界慣例。而目前算法App對于數(shù)據(jù)的加工處理缺乏相應(yīng)的技術(shù)和法律規(guī)范,以至于App泄露、販賣用戶個(gè)人數(shù)據(jù)的行為屢禁不止,危及公民人身和財(cái)產(chǎn)安全。根據(jù)《2018網(wǎng)絡(luò)黑灰產(chǎn)業(yè)治理研究報(bào)告》我國的網(wǎng)絡(luò)黑灰產(chǎn)業(yè)已達(dá)千億元規(guī)模,我國公安機(jī)關(guān)在2018-2020三年的“凈網(wǎng)”專項(xiàng)行動中,共偵破侵犯公民個(gè)人信息案件1.7萬余起,而這也許只是網(wǎng)絡(luò)黑灰產(chǎn)業(yè)犯罪數(shù)量的冰山一角。算法擅自搜集用戶隱私信息,不僅侵犯了用戶的隱私權(quán),更可能造成公民信息數(shù)據(jù)被泄露和濫用。
算法定向推薦機(jī)制存在歧視傾向,往往根據(jù)用戶個(gè)人興趣與偏好,有針對性地向用戶推送信息。2020年10月19日,浙江省消保委點(diǎn)名美團(tuán)、飛豬等網(wǎng)絡(luò)訂房平臺存在大數(shù)據(jù)“殺熟”情況。不僅酒店房間定價(jià)混亂,同樣的產(chǎn)品在同一平臺報(bào)價(jià)不同,而且針對新老用戶群體,酒店推送的優(yōu)惠信息也有區(qū)別。各大算法平臺根據(jù)用戶的個(gè)人喜好、消費(fèi)記錄等信息,有針對性地推薦捆綁產(chǎn)品、標(biāo)注不同價(jià)格,不僅侵犯了消費(fèi)者的合法權(quán)利,也利用算法機(jī)制對客戶的消費(fèi)習(xí)慣與方式進(jìn)行了控制。

AI換臉等新型算法逐漸浮現(xiàn),伴隨數(shù)據(jù)自身流動快、難辨別的特征,導(dǎo)致算法犯罪已經(jīng)逐漸成為社會信息安全的風(fēng)險(xiǎn)漏洞之一。用戶對于算法平臺搜集臉部特征等生物識別信息缺乏警惕性,不法分子可能利用算法技術(shù)竊取人臉數(shù)據(jù)等,將其應(yīng)用于色情片段、假新聞、詐騙活動之中。這種“深度偽造”行為,不僅造成公民個(gè)人身心財(cái)產(chǎn)的損害,還可能導(dǎo)致社會的動蕩與不穩(wěn)定。當(dāng)算法平臺通過特殊算法機(jī)制,偽造有影響力人物、事件的內(nèi)容,可能會在短時(shí)間內(nèi)引發(fā)社會動蕩。由于目前各大算法公司以商業(yè)秘密為由,拒絕算法的公開,也就意味著算法監(jiān)管的國家力量缺失,算法的失控可能會給社會造成極大安全隱患。
算法目前已經(jīng)逐漸融入公民生活,但由于缺乏監(jiān)管與責(zé)任機(jī)制,算法平臺仍普遍以“完全逐利”作為算法運(yùn)作的價(jià)值導(dǎo)向,存在侵害公民權(quán)益的風(fēng)險(xiǎn)與追責(zé)真空。同時(shí),人工智能算法廣泛應(yīng)用于交通執(zhí)法、犯罪預(yù)測、風(fēng)險(xiǎn)管理等多個(gè)公共領(lǐng)域,但如果算法決策的結(jié)果錯(cuò)誤,算法平臺是否需要承擔(dān)責(zé)任、公民是否有足夠的救濟(jì)路徑都存在立法真空。另外,對于算法公司搜集到的公民個(gè)人數(shù)據(jù)信息,是否有完善的儲存監(jiān)管機(jī)制,確保公民個(gè)人信息存儲和使用的準(zhǔn)確性,都有待國家通過算法監(jiān)管與責(zé)任機(jī)制進(jìn)一步規(guī)范算法的倫理導(dǎo)向與行為模式。
平臺之間的算法設(shè)計(jì)決策標(biāo)準(zhǔn)不同會導(dǎo)致算法運(yùn)行結(jié)果的錯(cuò)亂和失序,應(yīng)當(dāng)確定算法決策的國家標(biāo)準(zhǔn)和行業(yè)標(biāo)準(zhǔn),為平臺的算法設(shè)計(jì)和決策程序提供相對統(tǒng)一的參考和依據(jù)。同時(shí)應(yīng)規(guī)范算法采集個(gè)人信息的標(biāo)準(zhǔn),遵循收集范圍有限原則,嚴(yán)格限制App通過“前置協(xié)議”收集并使用超出經(jīng)營目標(biāo)和范圍的信息,不同類別App只能根據(jù)該類別標(biāo)準(zhǔn)規(guī)定的信息收集權(quán)限啟動運(yùn)行,并在用戶使用協(xié)議中予以明確。互聯(lián)網(wǎng)企業(yè)可以根據(jù)國家和行業(yè)標(biāo)準(zhǔn),在企業(yè)規(guī)章制度中制定細(xì)化的算法設(shè)計(jì)標(biāo)準(zhǔn),對算法決策運(yùn)行中的實(shí)際問題、突發(fā)狀況等采取更具針對性的規(guī)范措施。企業(yè)應(yīng)積極組織算法標(biāo)準(zhǔn)和技術(shù)倫理培訓(xùn),增強(qiáng)算法設(shè)計(jì)工作人員的科技倫理意識,引導(dǎo)其遵循算法技術(shù)應(yīng)用標(biāo)準(zhǔn)和倫理準(zhǔn)則。此外,建議實(shí)行算法標(biāo)準(zhǔn)適用報(bào)備機(jī)制,由互聯(lián)網(wǎng)企業(yè)向相關(guān)主管部門書面報(bào)告算法標(biāo)準(zhǔn)的適用情況,優(yōu)化算法決策程序,減少因決策結(jié)果明顯不合理造成的損害。企業(yè)應(yīng)積極組織算法標(biāo)準(zhǔn)和技術(shù)倫理培訓(xùn),增強(qiáng)算法設(shè)計(jì)工作人員的科技倫理意識,引導(dǎo)其遵循算法技術(shù)應(yīng)用標(biāo)準(zhǔn)和倫理準(zhǔn)則。

明確算法設(shè)計(jì)者、應(yīng)用者的責(zé)任,實(shí)施設(shè)計(jì)問責(zé)和應(yīng)用監(jiān)督的雙重規(guī)制方式。算法設(shè)計(jì)是算法應(yīng)用中不可或缺的重要環(huán)節(jié),但是決策結(jié)果的實(shí)施會更直接地作用于網(wǎng)絡(luò)平臺用戶和消費(fèi)者,因此需要側(cè)重于對算法應(yīng)用者的規(guī)制,規(guī)范其決策結(jié)果適用的對象、標(biāo)準(zhǔn)、范圍和限度,防止錯(cuò)誤決策的濫用。地方性法規(guī)和政府規(guī)章可以根據(jù)特定區(qū)域內(nèi)不同企業(yè)的經(jīng)營模式、算法決策的適用以及違法程度,在《行政處罰法》規(guī)定的處罰種類和幅度內(nèi),制定更為細(xì)化和可操作的處罰措施,例如罰款的區(qū)間范圍、行政拘留的期限、責(zé)令停產(chǎn)停業(yè)的適用情形等。相關(guān)主管部門應(yīng)定期開展執(zhí)法檢查工作,督促互聯(lián)網(wǎng)企業(yè)分析處理個(gè)人信息數(shù)據(jù)庫時(shí),采取加密保護(hù)措施防止信息泄露;為公共利益需要公開個(gè)人信息,對涉及個(gè)人隱私的部分應(yīng)作匿名化處理。數(shù)據(jù)存儲平臺應(yīng)及時(shí)更新數(shù)據(jù)信息,保證信息的準(zhǔn)確性,防止不法分子利用算法技術(shù)偽造、篡改數(shù)據(jù),侵犯公民權(quán)利和社會公共利益。
當(dāng)下我國更傾向于對算法運(yùn)行已產(chǎn)生的負(fù)面結(jié)果予以規(guī)制和處罰,但這種“事后”監(jiān)管方式會產(chǎn)生兩種極端化的負(fù)面影響:一是損害后果已經(jīng)發(fā)生且受害人難以尋求救濟(jì);二是互聯(lián)網(wǎng)企業(yè)違規(guī)成本低,對于算法決策程序的優(yōu)化將采取更加消極的態(tài)度。針對算法運(yùn)行可能產(chǎn)生的不利后果,建議網(wǎng)絡(luò)行政管理部門采取“事前審查”的方式,設(shè)立專門的算法監(jiān)管機(jī)構(gòu),邀請人工智能和法律領(lǐng)域的專家開展研討分析,及時(shí)對算法運(yùn)行的決策結(jié)果進(jìn)行判斷和預(yù)估,特別是在算法決策涉及公眾切身利益,或者可能產(chǎn)生嚴(yán)重社會危害風(fēng)險(xiǎn)的情況下,還應(yīng)當(dāng)予以重點(diǎn)監(jiān)測和關(guān)注。以算法歧視的審查方式為例,不僅要對含有明顯價(jià)格歧視、性別歧視和種族歧視等字段進(jìn)行篩查,還應(yīng)當(dāng)進(jìn)一步檢測數(shù)據(jù)庫中是否存在隱含的歧視信息。
算法歧視產(chǎn)生的根源在于算法自動化學(xué)習(xí)的基礎(chǔ)性數(shù)據(jù)本身存在偏見,而這些歧視性觀念往往產(chǎn)生于人類社會中既存的不平等和錯(cuò)誤認(rèn)知,例如亞馬遜公司在招聘時(shí)使用的算法篩選系統(tǒng)往往會給予男性應(yīng)聘者“特別優(yōu)待”。因此算法技術(shù)應(yīng)用主體在編寫算法程序指令時(shí),就應(yīng)當(dāng)將隱私保護(hù)、信息安全、決策透明等價(jià)值理念嵌入算法設(shè)計(jì)、發(fā)展和決策系統(tǒng),使得算法在初始數(shù)據(jù)的收集和處理階段就具有客觀性和公平性,保證算法在自主學(xué)習(xí)的過程中免受異化,才能作出公正合理的決策結(jié)果,從根本上解決算法歧視問題。

算法作為國家數(shù)字生態(tài)建設(shè)基礎(chǔ)性要素之一,廣泛應(yīng)用在深度學(xué)習(xí)、基因工程、搜索引擎和交通運(yùn)輸、食品加工、智能監(jiān)控等領(lǐng)域,關(guān)系著國家數(shù)據(jù)安全與社會安全穩(wěn)定。進(jìn)入人工智能時(shí)代,算法的自主學(xué)習(xí)功能使其超越了傳統(tǒng)的工具化范疇,在應(yīng)用過程中以更加隱晦的方式作出帶有偏向性和歧視性的推送,不僅侵害了公民基本權(quán)利,還嚴(yán)重挑戰(zhàn)了社會基本倫理道德準(zhǔn)則。防范算法技術(shù)濫用的重大風(fēng)險(xiǎn)業(yè)已成為算法治理研究領(lǐng)域的核心議題,基于此,法律、制度和倫理應(yīng)主動介入對算法技術(shù)的控制,實(shí)現(xiàn)算法應(yīng)用價(jià)值的最優(yōu)化。一方面應(yīng)加強(qiáng)人工智能算法知識的普及,讓社會群體客觀地認(rèn)知算法技術(shù),提高隱私保護(hù)意識,規(guī)避潛在安全風(fēng)險(xiǎn);另一方面,需要推動數(shù)據(jù)平臺企業(yè)、相關(guān)主管部門、社會群體公眾共同參與,建立算法技術(shù)應(yīng)用問責(zé)機(jī)制,實(shí)施算法決策影響性評估,加強(qiáng)算法源頭控制,從而防范、消除算法技術(shù)不當(dāng)應(yīng)用對公共秩序、勞動權(quán)益及公民隱私等領(lǐng)域造成的社會安全隱患。