張春夢
沈陽工業(yè)大學(xué)文法學(xué)院,遼寧 沈陽 110870
在40億年的歷史發(fā)展過程中,地球上任何一個生物都依照自然法則而演化,尤瓦爾.赫拉利將人類發(fā)展分為認(rèn)知革命、農(nóng)業(yè)革命和科技革命三個階段,自21世紀(jì)開始,自然法則逐步被算法所打破。從簡單的計算機(jī)操作提高生產(chǎn)力這種簡單的算法開始到人工智能自動駕駛,直至機(jī)器人“索菲亞”取得公民身份引發(fā)人工智能爭論的今天,從“弱人工智能”向“強(qiáng)人工智能”發(fā)展,以算法為基礎(chǔ)的人工智能已趨于成熟,同時也引發(fā)了經(jīng)濟(jì)、社會、法律等許多問題和自由人文主義被科技所取代的爭論中。尤瓦爾曾預(yù)言,未來的時代將會進(jìn)入由算法主導(dǎo)的時代,權(quán)威將從個人轉(zhuǎn)向由算法構(gòu)成的網(wǎng)絡(luò)。人類不會再認(rèn)為自己是自主的個體,不再依據(jù)自己的期望度日,而是習(xí)慣把人類整體看作一種生化機(jī)制的集合體,由電子算法網(wǎng)絡(luò)實時監(jiān)測和指揮。[1]如今,尤瓦爾的預(yù)言已逐步在見證未來。算法一直不斷刷新人類的理解和認(rèn)知,比如:有網(wǎng)友利用人工智能將《射雕英雄傳》楊冪和朱茵“換臉”的視頻被之上熱搜,這個火爆視頻的背后,未經(jīng)本人同意制作被“換臉”的行為,是否構(gòu)成侵權(quán)呢?是否會損害當(dāng)事人的名譽(yù)?[2]人工智能技術(shù)背后的侵權(quán)主體認(rèn)定問題一直未得到解決,這種人工智能技術(shù)的濫用侵權(quán)問題是值得探討的。目前,人工智能時代下的技術(shù)規(guī)范還未形成,且沒有健全的法律制約。本文通過研究人工智能時代下算法推薦的法律機(jī)制,促使算法的運行更加自由而穩(wěn)定的發(fā)展,完善相應(yīng)的法律規(guī)制。
人工智能與人最大的區(qū)別就是沒有延續(xù)和繁衍,沒有自由意志,但是不排除它有基于算法終端的獨立編碼而建立起來的智慧,也正是因為基于此衍生的智慧成為大多數(shù)人恐懼的根源。算法的本質(zhì)就是運算法則,起初,算法只是簡單的為了解決數(shù)學(xué)問題;而后來根據(jù)社會發(fā)展的需要,人們利用計算機(jī)的快速和多次重復(fù)將復(fù)雜計算過程簡單化,創(chuàng)造生產(chǎn)價值;如今,算法的自我學(xué)習(xí)能力與日俱增,可以不斷地從數(shù)據(jù)中挖掘信息和自動填補(bǔ)漏洞,對數(shù)據(jù)的理解和參數(shù)更加智能化。
算法學(xué)習(xí)會出現(xiàn)三類典型問題:無監(jiān)督學(xué)習(xí)、監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)問題。無監(jiān)督學(xué)習(xí)的輸入是沒有維度標(biāo)簽的歷史數(shù)據(jù),輸出的是聚類后的數(shù)據(jù),常見的就是用戶聚類,新聞聚類;監(jiān)督學(xué)習(xí)就將輸入帶維度標(biāo)簽的歷史數(shù)據(jù),要求的輸出就是依據(jù)模型做出的預(yù)測,常見的產(chǎn)應(yīng)用就是推薦和預(yù)測相關(guān)問題;最后強(qiáng)化學(xué)習(xí)就是輸入歷史的狀態(tài)、行為和對應(yīng)獎勵,從而輸出最佳動作。常見的像大眾點評推薦高分餐廳、無人機(jī)穩(wěn)定飛行等問題。但在算法、輸入、輸出及推送正是人工智能時代亟需解決的法律問題。
我們常見的無監(jiān)督學(xué)習(xí)的應(yīng)用是今日頭條,該產(chǎn)品是典型的新聞聚類的代表,基于數(shù)據(jù)挖掘推薦引擎的產(chǎn)品。據(jù)艾媒咨詢統(tǒng)計,今日頭條自2018年底月活躍用戶達(dá)1.65億人,頭條旗下的抖音月活躍人數(shù)用戶達(dá)2.3億人。[3]這些算法打開了移動互聯(lián)網(wǎng)的新入口,該產(chǎn)品已經(jīng)形成成熟的運營模式,利用算法分發(fā)的特性契合廣大用戶零碎化的閱讀時間,伴隨著產(chǎn)品的信息流和開屏廣告從而實現(xiàn)盈利,在資本市場中獨樹一幟。隨著這種技術(shù)的快速延伸到醫(yī)療、教育、文化等產(chǎn)業(yè),積累了大量的的數(shù)據(jù)集,在推動數(shù)據(jù)建設(shè)和大數(shù)據(jù)聚合的同時,數(shù)據(jù)安全保障和保護(hù)用戶隱私的技術(shù)、流程亟需更加規(guī)范。面對人工智能時代下的隱私迫切得到保障,個人信息安全問題已不在局限傳統(tǒng)的保護(hù)機(jī)制,隨著用戶的基本的信息輸入,到與之相匹配的內(nèi)容和行為足跡,根據(jù)信息論來講信息的不定性,最后由于量化到更加確定性的信息,再按照控制論接受了這些確定性信息的反饋,可以更加擴(kuò)大運行范圍。雖然信息的協(xié)同過濾已得到廣泛應(yīng)用,但算法編輯審核并不是很客觀,它只是分析用戶在比較感興趣的新聞停留的時間長短,導(dǎo)致自我極化,會變成承載信息的容器,而這種算法推薦機(jī)制更像是麻醉劑,被麻醉得人一直處于沉睡狀態(tài)。李普曼曾說,需要知道的世界和確實知道的世界,往往是十分矛盾的兩回事。他認(rèn)為,人們已經(jīng)習(xí)慣媒介提供給的世界,大量事實已被過濾掉,這是一種間接的感知,卻常被當(dāng)做真實世界而接受下來。[4]媒介只會通過輸入的信息直觀的反應(yīng)給個體,信息本身不并不匱乏,只是這種擬態(tài)環(huán)境使受眾的視角領(lǐng)域更為狹隘,同時,也會加強(qiáng)自己已有的觀點和補(bǔ)價值觀的信息,將其認(rèn)知滯留在與自己固有的觀點,排斥不一致或者是相抵觸的東西。
算法的推薦機(jī)制是僵化的,假如法律不加以規(guī)制,很可能有技術(shù)的濫用導(dǎo)致一些用戶的權(quán)利被侵害,但是算法推薦機(jī)制是個不容易解決的難題。算法是基于運算規(guī)則在推送信息,而且又不能按照《電子商務(wù)法》去制約,按照現(xiàn)行法又很難舉證,一旦發(fā)現(xiàn)權(quán)利受侵害很難得到救濟(jì)。雖然我國現(xiàn)行法已經(jīng)承認(rèn)了自然人的個人數(shù)據(jù)權(quán)利應(yīng)當(dāng)作為具有獨特的保護(hù)對象,但個人的數(shù)據(jù)一旦泄露或被利用,以及未通過統(tǒng)一被轉(zhuǎn)讓使其個人財產(chǎn)利益受損等,我國目前還沒有相應(yīng)的法律進(jìn)行統(tǒng)一規(guī)范。既要保證數(shù)據(jù)產(chǎn)業(yè)發(fā)展的同時,也要協(xié)調(diào)好對個人數(shù)據(jù)的保護(hù),從而合法的收集、存儲和利用。
在其它國家,歐盟委員會頒布《通用數(shù)據(jù)保護(hù)條例(草案)》(GDPR草案)對于數(shù)據(jù)的定義、保護(hù)都做出了細(xì)致的規(guī)定,明確對開發(fā)者責(zé)任明確規(guī)定,在世界范圍內(nèi)都起到了一定程度上的示范效應(yīng)。美國對企業(yè)收集個人數(shù)據(jù)的規(guī)制側(cè)重市場規(guī)范的路徑,更傾向于保護(hù)數(shù)據(jù)產(chǎn)業(yè)的自律機(jī)制,發(fā)生數(shù)據(jù)侵權(quán)時主要經(jīng)由聯(lián)邦貿(mào)易委員會進(jìn)行處理。德國則通過參與制定歐盟《一般數(shù)據(jù)保護(hù)條例》,致使《德國聯(lián)邦數(shù)據(jù)保護(hù)法》改革,以確保了數(shù)據(jù)監(jiān)管機(jī)關(guān)的獨立性。[5]其中明確規(guī)定了自動收集、處理和使用個人數(shù)據(jù)的公共機(jī)構(gòu)和個人組織需要書面任命一名數(shù)據(jù)保護(hù)官,要求該官員具備相關(guān)的專業(yè)知識及必要的責(zé)任意識。
我國對人工智能的開發(fā)和重視程度已經(jīng)在全球處于領(lǐng)先地位,但尚未出臺對人工智能的相關(guān)法律,互聯(lián)網(wǎng)大會上我國宣布已經(jīng)轉(zhuǎn)向工業(yè)數(shù)字化發(fā)展,同時這種算法技術(shù)僅僅靠行業(yè)自律是不牢靠的,尤其在這種大數(shù)據(jù)流轉(zhuǎn)、共享的安全性和規(guī)范性更加使算法決策提高,我國人工智能相關(guān)法律規(guī)定尚參考于《個人信息保護(hù)法(專家建議稿)》、《電子商務(wù)法》、《網(wǎng)絡(luò)安全法》等法律規(guī)范。并沒有對人工智能時代下的產(chǎn)品、開發(fā)者、生產(chǎn)者應(yīng)該履行的義務(wù)進(jìn)行完善,也沒有履行責(zé)任排除條件和相應(yīng)的注意義務(wù)。國務(wù)院雖然實行雙層監(jiān)管結(jié)構(gòu),建立公開透明的監(jiān)管系統(tǒng),從而抑制相關(guān)企業(yè),但當(dāng)企業(yè)利用算法技術(shù)手段侵害公民健康、財產(chǎn)、生命時,應(yīng)明確相關(guān)責(zé)任人的責(zé)任分配程度以及救濟(jì)程序等問題。我們在開放中不斷創(chuàng)新的同時也要著力于人工智能的安全保障。