祝高峰
修回日期:2020-03-02
基金項目:中國法學(xué)會2018年度部級法學(xué)研究課題“重要數(shù)據(jù)安全法律保障機制研究”(CLS(2018)D127);桂林電子科技大學(xué)英才計劃資助
作者簡介:祝高峰(1978—),男,山東濰坊人,桂林電子科技大學(xué)法學(xué)院/知識產(chǎn)權(quán)學(xué)院副教授,知識產(chǎn)權(quán)法博士,碩士研究生導(dǎo)師,主要從事網(wǎng)絡(luò)信息法、知識產(chǎn)權(quán)法研究,Email:845021165@qq.com。
摘要:人工智能時代的個人數(shù)據(jù)和信息支撐著人工智能系統(tǒng)的運行,個人信息在當(dāng)下的重要性和具有的價值已不言而喻。個人信息的識別要素包括“可識別性”和“可固定性”,人工智能領(lǐng)域的個人信息在此基礎(chǔ)上呈現(xiàn)出不同形式,包括被“智能物”收集的個人信息和被智能系統(tǒng)分析得出的個人信息。而人工智能在不同情形中侵犯個人信息,其侵權(quán)主體在現(xiàn)行法律的規(guī)定下難以判定。“智造時代”,人工智能嚴(yán)重威脅著個人信息的安全。因此,在人工智能時代到來的同時,更應(yīng)當(dāng)對人工智能領(lǐng)域中的個人信息安全問題提供有效的法律保障。
關(guān)鍵詞:人工智能;智能物;智能系統(tǒng);個人信息安全;法律保護
中圖分類號:D9128;TP18;TP309文獻標(biāo)志碼:A文章編號:10085831(2020)04015011
當(dāng)下,人工智能的討論炙手可熱。國家之間的人工智能“較量”也愈演愈烈,2019年2月,美國啟動“人工智能倡議”,希望集中聯(lián)邦政府資源發(fā)展人工智能[1];俄羅斯也在2019年6月制定了人工智能領(lǐng)域的國家戰(zhàn)略[2];我國各地的人工智能政策或項目也逐漸落地,比如北京正式揭牌成立人工智能創(chuàng)新發(fā)展試驗區(qū),引領(lǐng)人工智能科技前沿和發(fā)展方向[3]。各國基本上都將人工智能納入了本國的發(fā)展戰(zhàn)略,人工智能將會給社會的發(fā)展和變革帶來深層次的影響。
人工智能的高速崛起對當(dāng)下的法學(xué)研究也提出了諸多新問題與挑戰(zhàn)。已有學(xué)者對人工智能領(lǐng)域的人格權(quán)保護問題、知識產(chǎn)權(quán)保護問題、刑法保護問題等進行了研究,但對人工智能領(lǐng)域的個人信息安全問題研究目前鮮有涉及。盡管人工智能的定義比較廣泛且多變,但在人工智能的基礎(chǔ)層面基本上無異議。畢業(yè)于美國密歇根州立大學(xué)法學(xué)院的馬修·胡默里克(Matthew Humerick)博士認(rèn)為,“在人工智能最基礎(chǔ)層面上,人工智能是一個能夠?qū)W會學(xué)習(xí)的系統(tǒng)”[4]。在筆者看來,人工智能不僅僅是智能系統(tǒng)自主學(xué)習(xí)的體現(xiàn),對于人工智能的分析應(yīng)當(dāng)從兩個層面進行,目前人工智能領(lǐng)域的主要應(yīng)用在于智能系統(tǒng)和“智能物”兩大模塊,智能系統(tǒng)主要指軟件系統(tǒng),該部分的軟件系統(tǒng)不同于硬件或者是軟件與硬件的結(jié)合類型,當(dāng)然軟件系統(tǒng)部分起核心作用的仍是程序。“智能物”則包括智能機器人和被智能化的物品,比如工業(yè)機器人、服務(wù)機器人、智能手機、智能掃地機器人等智能終端產(chǎn)品,“智能物”仍是依靠程序驅(qū)動,但主要體現(xiàn)的是其有形存在的一面,而軟件系統(tǒng)則多是以無形的方式存在。人工智能發(fā)揮作用主要依賴于對數(shù)據(jù)和信息的收集、分析、利用,個人數(shù)據(jù)信息的處理尤為凸顯。因此,個人數(shù)據(jù)信息的安全和保護成為亟待解決的法律問題。
一、人工智能危及個人信息安全
(一)人工智能危及個人信息安全的收集和利用
1.個人信息收集方式的隱秘性
與傳統(tǒng)收集個人信息的方式不同,人工智能通過各種端口侵入個人生活,收集個人信息[5]。這些智能端口無處不在,遍布我們的生活空間,如頭頂?shù)臄z像頭、電腦的USB接口、手機的指紋識別觸控、行車導(dǎo)航的定位儀,以及我們完全意識不到的其他位置等領(lǐng)域。人工智能領(lǐng)域,不論是智能物還是智能系統(tǒng)都離不開智能端口,當(dāng)這些智能端口收集個人信息時,我們不僅很難察覺,而且也缺乏必要的防范意識,更不會考慮甚至是沒有能力追尋我們的個人數(shù)據(jù)信息通過這些智能端口到底將個人數(shù)據(jù)信息傳向哪里。比如iPhone Operating System(簡稱iOS)系統(tǒng)記錄用戶的指紋和面容,大部分用戶只能意識到指紋和面容用來解鎖手機,根本不會察覺到系統(tǒng)收集到所有用戶的指紋和面容信息會進行什么樣的分析和計算,更不會考慮從終端用戶獲取的這些指紋和面部信息是否會被用于其他地方。人工智能領(lǐng)域個人信息安全面臨嚴(yán)重威脅的同時,人工智能對個人信息的隱秘收集對國家和社會也會造成一定程度的威脅。
2.個人信息的收集極易侵犯個人隱私
人工智能不僅隱秘地收集個人數(shù)據(jù)信息,而且鑒于人們對智能物和智能系統(tǒng)的被動的無理由的信任,被人工智能收集到的個人信息更多地涉及個人隱私。傳統(tǒng)收集個人隱私信息的方式,大多是跟蹤偷拍、監(jiān)視監(jiān)聽、非法搜查,而人工智能卻很容易就能通過其自主學(xué)習(xí)和分析獲取包含個人隱私的隱秘數(shù)據(jù)信息。作為人工智能產(chǎn)物的聊天機器人就是典型的事例體現(xiàn)。與過去只能簡單對話的機器人不同,人工智能聊天機器人的終極目標(biāo)是通過“圖靈測試”圖靈測試(又譯圖靈試驗)是圖靈于1950年提出的一個關(guān)于判斷機器是否能夠思考的著名試驗,測試某機器是否能表現(xiàn)出與人等價或無法區(qū)分的智能。測試的談話僅限于使用唯一的文本管道,例如計算機鍵盤和屏幕,這樣的結(jié)果是不依賴于計算機把單詞轉(zhuǎn)換為音頻的能力。維基百科.圖靈測試[EB/OL].[2019-10-29].https://wikipedia.hk.wjbk.site/baike-%E5%9B%BE%E7%81%B5%E6%B5%8B%E8%AF%95.(Turing test),即超過30%的測試者不能判斷被測試的到底是機器還是人類。可見聊天機器人可以做到像人類一樣分析對方的心理活動,在用戶毫無防范意識的狀態(tài)下,通過聊天獲取終端用戶不會隨意透露的隱私數(shù)據(jù),甚至還會通過其自帶的算法誘導(dǎo)終端用戶說出更多的私密信息。
此外,在大數(shù)據(jù)技術(shù)的支持下,人工智能隨著自主學(xué)習(xí)能力和人機交互能力的不斷提高,日后可以為人類提供越來越細(xì)致和周密的服務(wù),包括做飯、打掃、陪伴、聊天、學(xué)習(xí)、戀愛等完全屬于個人私生活領(lǐng)域的服務(wù),智能物和智能系統(tǒng)將在服務(wù)過程中不斷地將終端用戶的相關(guān)個人數(shù)據(jù)信息記錄其中。同時,隨著人工智能學(xué)習(xí)能力的逐漸提高,通過關(guān)聯(lián)性分析和數(shù)據(jù)技術(shù)分析,很可能使過去一般存在的個別信息變?yōu)榭梢宰R別個人主體的信息。比如根據(jù)一般的使用痕跡和軌跡,人工智能通過匯總分析可以得出相對具體的個人數(shù)據(jù)信息,而終端用戶在使用人工智能時,并不能輕易地將操作信息記錄從人工智能中完全移除。隨著人工智能所有權(quán)或使用權(quán)的流轉(zhuǎn),其記錄的個人信息會繼續(xù)在網(wǎng)絡(luò)空間中流動傳播,也會隨著人工智能所有權(quán)、使用權(quán)的變動而發(fā)生改變。通過讀取人工智能代碼和操作記錄,個人信息在專業(yè)人士手中一覽無遺,沒有任何隱私信息秘密可言。
人工智能搜集個人數(shù)據(jù)信息超出原有目的使用范圍也已成為常態(tài),新興技術(shù)的不斷涌現(xiàn)還將帶來更多新的個人信息保護等問題。以目前人工智能技術(shù)水平,僅從收集和利用個人信息的角度看,人工智能收集和利用個人信息已沒有過多的障礙,不論是對于智能物還是智能系統(tǒng)來說,人工智能都可以在當(dāng)事人不知情的情況下擅自收集、處理、利用個人信息,而此時個人信息受到侵犯的侵權(quán)主體就需要從法律層面進行明確的界定。
(二)人工智能作為侵犯個人信息主體的認(rèn)定復(fù)雜性
人工智能包括智能物和智能系統(tǒng),人工智能侵犯個人信息權(quán)利的主要方式有兩種:人工智能被人利用發(fā)生的侵權(quán)行為或者人工智能算法本身存在侵權(quán)可能性[6]。在筆者看來,人工智能侵犯個人信息主體的認(rèn)定也應(yīng)當(dāng)在此兩種情況下分別討論。
1.人工智能的被動侵權(quán)
人工智能的被動侵權(quán)主要是指人工智能被第三方利用侵權(quán)的一種侵權(quán)方式,此種情形下的侵權(quán)需要明確界定侵權(quán)主體,因為即使人工智能被利用,人工智能也未必就一定被認(rèn)定為侵權(quán)主體。早在20世紀(jì)40年代,科幻作家艾薩克·阿西莫夫(Isaac Asimov)提出“機器人三定律”
機器人三定律,第一法則:機器人不得傷害人類,或坐視人類受到傷害;第二法則:除非違背第一法則,否則機器人必須服從人類命令;第三法則:除非違背第一或第二法則,否則機器人必須保護自己。維基百科.機器人三定律[EB/OL].[2019-10-30].https://wikipedia.tw.wjbk.site/wiki/%E6%9C%BA%E5%99%A8%E4%BA%BA%E4%B8%89%E5%AE%9A%E5%BE%8B.,根據(jù)該原則,機器人在必須服從人類命令的同時不得做出傷害人類的事。顯然人工智能被人利用侵權(quán)時,與“機器人三定律”的原則相悖。例如人工智能在快遞領(lǐng)域的普及應(yīng)用,快遞業(yè)務(wù)是最容易導(dǎo)致個人信息被侵犯的領(lǐng)域。寄件人在郵寄快遞時,必須進行實名認(rèn)證,填寫真實的姓名、電話、郵寄內(nèi)容、寄件地址以及收件人的基本信息,當(dāng)快遞獲得的個人數(shù)據(jù)信息被泄露之后,侵權(quán)人利用人工智能系統(tǒng),可以輕易分析出收件人的“畫像”,甚至能夠?qū)κ占说男睦硇畔⒑秃罄m(xù)行為信息進行預(yù)判,進而實施犯罪活動[7]。侵權(quán)人利用人工智能實施違法行為,即使根據(jù)現(xiàn)階段的法律制度,對其進行追責(zé),其也應(yīng)當(dāng)要承擔(dān)法律責(zé)任。也就是說,此時人工智能并不是侵權(quán)主體,而利用人工智能進行侵權(quán)的人才是真正的侵權(quán)主體。
2.人工智能的主動侵權(quán)
人工智能由于算法本身導(dǎo)致侵權(quán)也存在兩種情況,其一是人工智能存在算法缺陷,軟件系統(tǒng)在運行中無法實現(xiàn)保護個人信息的功能,根據(jù)《中華人民共和國侵權(quán)責(zé)任法》(以下簡稱《侵權(quán)責(zé)任法》)第5章第41條《侵權(quán)責(zé)任法》第5章第41條:“因產(chǎn)品存在缺陷造成他人損害的,生產(chǎn)者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。”的規(guī)定,該侵權(quán)責(zé)任由生產(chǎn)者承擔(dān)。目前的人工智能尚處于高級函數(shù)決定的階段,還不具備自主侵權(quán)的“意識”,所以不具有主體資格,自然沒有承擔(dān)責(zé)任的能力。在這種情況下,人工智能侵權(quán)只是表象,并不是真正意義上的侵權(quán)主體,而侵權(quán)主體實質(zhì)上還是具有注意義務(wù)的生產(chǎn)者。但根據(jù)《中華人民共和國產(chǎn)品質(zhì)量法》(以下簡稱《產(chǎn)品質(zhì)量法》)第41條
《產(chǎn)品質(zhì)量法》第41條:“因產(chǎn)品存在缺陷造成人身、缺陷產(chǎn)品以外的其他財產(chǎn)損害的,生產(chǎn)者應(yīng)當(dāng)承擔(dān)賠償責(zé)任。生產(chǎn)者能夠證明有下列情形之一的,不承擔(dān)賠償責(zé)任:(一)未將產(chǎn)品投入流通的;(二)產(chǎn)品投入流通時,引起損害的缺陷尚不存在的;(三)將產(chǎn)品投入流通時的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在的。”的規(guī)定,生產(chǎn)者應(yīng)當(dāng)對人工智能侵權(quán)負(fù)有責(zé)任,但是同時生產(chǎn)者的責(zé)任亦存在免責(zé)事由,且筆者認(rèn)為,在一定程度上看,必須嚴(yán)格適用生產(chǎn)者的免責(zé)事由。人工智能技術(shù)本質(zhì)上是算法和程序的更新進步,程序開發(fā)者在開發(fā)人工智能的過程中,難免存在一些盡到注意義務(wù)后仍然不可避免的算法缺陷,因此應(yīng)當(dāng)嚴(yán)格適用免責(zé)事由,如此,有利于激勵創(chuàng)新,給予生產(chǎn)者應(yīng)有的寬容。其二是人工智能自主侵權(quán)。當(dāng)人工智能技術(shù)發(fā)展到與人類交互甚至超越人類的智慧之時,人工智能可能完全不受人類控制,做出侵權(quán)行為。比如一輛無人駕駛汽車在自主駕駛的過程中將乘客的出行信息自主上傳到網(wǎng)絡(luò)空間,此時所有人或使用人并未對其進行操作,表面上看似乎完全是汽車的責(zé)任,但是在現(xiàn)行法律框架下,汽車并不具有主體資格。在人工智能沒有被認(rèn)定為法律主體的情況下,其做出的侵權(quán)行為應(yīng)當(dāng)由誰承擔(dān)責(zé)任是現(xiàn)行法律無法解決的問題。有部分學(xué)者認(rèn)為,人工智能無法成為責(zé)任主體,可以由制造者承擔(dān)“公平責(zé)任”。但是人工智能技術(shù)的研究和發(fā)展本來就是人類難以預(yù)測的,人類制造人工智能的核心目的不是探索科技可以達(dá)到什么樣的高度,而是希望人工智能提供越來越高端理想的社會服務(wù)。當(dāng)人工智能完全可以代替人類體力及腦力活動的時候,人類本應(yīng)當(dāng)預(yù)料到人工智能有失去控制的可能性。因此筆者認(rèn)為,讓制造者承擔(dān)“公平責(zé)任”有違科技發(fā)展的目的,甚至?xí)璧K制造者的研發(fā)積極性。在人工智能不具有侵權(quán)主體資格的情況下,可以考慮從技術(shù)源頭防止人工智能的侵權(quán)行為發(fā)生。
(三)人工智能的追責(zé)機制缺失
1.人工智能侵犯個人信息的法律保護機制缺失
目前在人工智能領(lǐng)域涉及具體的個人信息保護的法律法規(guī)幾乎未有,僅在2017年實施的《中華人民共和國網(wǎng)絡(luò)安全法》(以下簡稱《網(wǎng)絡(luò)安全法》)和部分行政規(guī)章
《互聯(lián)網(wǎng)電子公告服務(wù)管理規(guī)定》第12條:“電子公告服務(wù)提供者應(yīng)當(dāng)對上網(wǎng)用戶的個人信息保密,未經(jīng)上網(wǎng)用戶同意不得向他人泄露,但法律另有規(guī)定的除外。”《互聯(lián)網(wǎng)電子郵件服務(wù)管理辦法》第9條:“互聯(lián)網(wǎng)電子郵件服務(wù)提供者對用戶的個人注冊信息和互聯(lián)網(wǎng)電子郵件地址,負(fù)有保密的義務(wù)。互聯(lián)網(wǎng)電子郵件服務(wù)提供者及其工作人員不得非法使用用戶的個人注冊信息資料和互聯(lián)網(wǎng)電子郵件地址;未經(jīng)用戶同意,不得泄露用戶的個人注冊信息和互聯(lián)網(wǎng)電子郵件地址,但法律、行政法規(guī)另有規(guī)定的除外。”中有比較分散的對個人信息的保護規(guī)定。《網(wǎng)絡(luò)安全法》對個人信息的含義、侵犯個人信息應(yīng)當(dāng)承擔(dān)的法律責(zé)任,以及經(jīng)營者收集個人信息的方式都作了較為明確的法律規(guī)定,但是人工智能領(lǐng)域的個人信息保護問題遠(yuǎn)不止現(xiàn)行法律規(guī)定的情形,鑒于人工智能強大的運算分析技術(shù)和對個人信息安全的影響力度,應(yīng)當(dāng)明確以下問題:首先,應(yīng)當(dāng)界定人工智能領(lǐng)域個人信息的含義及范圍;其次,人工智能對個人信息的使用方式應(yīng)當(dāng)有明確的界定;再次,人工智能領(lǐng)域侵權(quán)責(zé)任的承擔(dān)不應(yīng)當(dāng)直接適用《網(wǎng)絡(luò)安全法》的規(guī)定。總之,人工智能侵犯個人信息的保護機制要綜合考慮人工智能技術(shù)和發(fā)展問題,不能局限于當(dāng)前的法律框架和已經(jīng)存在的問題。
2.人工智能系統(tǒng)分析數(shù)據(jù)獲取的個人信息
人工智能系統(tǒng)的運行通常是分析、利用個人信息的階段,智能系統(tǒng)通過深度挖掘,獲取與個人相關(guān)的所有信息,再分析出有更大利用價值的信息。比如淘寶智能系統(tǒng),根據(jù)用戶的“足跡”、購買記錄、搜索記錄,分析用戶的喜好和消費傾向,根據(jù)分析結(jié)果在淘寶首頁向用戶推送類似產(chǎn)品,此后用戶將在淘寶首頁的所有模塊看到相關(guān)推送,包括“猜你喜歡”“搶購”“特賣”等模塊。
墨爾本大學(xué)微軟社會自然用戶界面研究中心(SocialNUI)和墨爾本科學(xué)畫廊合作研發(fā)出一款“生物智能鏡”,這面“鏡子”將人的面部和一個面部數(shù)據(jù)庫進行對比,進而得出人的幸福程度、內(nèi)向程度、侵略性等智能分析結(jié)果。雖然這項研究的目的是反思人工智能看似合理的未來是否是我們希望看到的成形的未來,但如果僅著眼于技術(shù),這項研究證明人工智能系統(tǒng)利用算法分析數(shù)據(jù)很容易獲取更多相關(guān)的個人信息[14]。除了從鏡頭和圖像中分析性別、年齡和種族之外,人們甚至擔(dān)心人工智能系統(tǒng)可以準(zhǔn)確地預(yù)測出個人的性取向甚至政治傾向,人工智能系統(tǒng)對個人信息的獲取影響到個人信息安全的程度可見一斑。
人工智能要想擴展到人類的智能,就需要不斷地用于模擬、延伸其自主學(xué)習(xí)的智能系統(tǒng)能力,當(dāng)人工智能系統(tǒng)通過不斷的自主學(xué)習(xí)直到強人工智能時代,其智能系統(tǒng)將達(dá)到人類無法想象的程度。人工智能系統(tǒng)對個人信息的分析和利用,可能會因為制造者的惡意侵犯個人信息安全,也可能會因為人類無法解釋的算法黑箱算法黑箱也被稱作“黑匣子”,通常是指程序設(shè)計者無法探明原理的計算機運行過程。造成更大的損害。計算機程序員負(fù)責(zé)編寫源程序,計算機負(fù)責(zé)轉(zhuǎn)化出由“0”和“1”組成的目標(biāo)代碼,而源程序如何在計算機內(nèi)部轉(zhuǎn)化成目標(biāo)代碼,這是程序員也無法解釋的問題。例如一臺專門為慈善制造的機器可能自己會“變惡”,進化和學(xué)習(xí)算法可能會導(dǎo)致一個本質(zhì)上是黑匣子的系統(tǒng),這個系統(tǒng)如此復(fù)雜以至于專家們可能無法完全理解它的內(nèi)部運作。和人類一樣,這種機器可能有極其復(fù)雜的“心理”,所以智能機器具有惡意的可能性是非零的[15]。因此,有必要對人工智能領(lǐng)域個人信息的收集、處理、應(yīng)用等方面進行有效的法律規(guī)制,以更好地保護個人信息。
三、人工智能領(lǐng)域個人信息安全法律保障制度的構(gòu)建
目前我國仍沒有對個人信息進行專門立法保護,在立法保護不足的前提下,人工智能領(lǐng)域涉及的個人信息安全問題更加難以保證。來自美國計算機法專家喬治.S. 科爾(George S. Cole)在20世紀(jì)
90年代就指出:“在將來,任何一般的人工智能產(chǎn)品都不會在現(xiàn)實世界中漫游,無論是作為移動機器人,還是作為一個自由流通的程序,都會在一定的限制環(huán)境中應(yīng)用,不可避免的是,特定的環(huán)境應(yīng)用程序?qū)⒃斐梢恍┫嚓P(guān)的經(jīng)濟損失、財產(chǎn)或人身傷害或死亡。” [16]在立法保護和完善程度上,歐美國家對個人信息的保護相對比較成熟,歐美國家在保護個人信息方面主要體現(xiàn)在對個人信息所有者的權(quán)利、增加企業(yè)的義務(wù),尤其注重個人隱私方面的保護。可以借鑒國外立法經(jīng)驗,結(jié)合人工智能和網(wǎng)絡(luò)環(huán)境的特性,完善我國人工智能領(lǐng)域個人信息保護的法律制度。
(一)制定人工智能領(lǐng)域個人信息安全標(biāo)準(zhǔn)
1.制定人工智能領(lǐng)域個人信息使用標(biāo)準(zhǔn)化制度
我國《個人信息保護法》呼之欲出,但是人工智能領(lǐng)域的個人信息在網(wǎng)絡(luò)環(huán)境中其動態(tài)變化可能超出《個人信息保護法》涵蓋的范圍。《網(wǎng)絡(luò)安全法》對個人信息的解釋可以適用于人工智能領(lǐng)域,但是在司法實踐中應(yīng)當(dāng)對其范圍作出更加詳細(xì)的解釋。首先,可以制定特殊法條,專門規(guī)定人工智能領(lǐng)域的個人信息概念范疇,為保護人工智能領(lǐng)域個人信息奠定基礎(chǔ)。其次,應(yīng)當(dāng)明確人工智能領(lǐng)域使用個人信息的標(biāo)準(zhǔn)。在人工智能領(lǐng)域?qū)€人信息的處理通常與大數(shù)據(jù)技術(shù)交叉結(jié)合,具體包括收集、存儲、分析、使用等模式。筆者認(rèn)為,《中華人民共和國個人信息保護法(草案)》(2017年)中對于收集、處理和利用個人信息的規(guī)定,可以適用于人工智能領(lǐng)域?qū)€人信息的處理使用。根據(jù)該草案,“收集”是指以使用為目的獲取個人信息,“處理”包括輸入、存儲、編輯、刪除等操作,“利用”是指對個人信息進行目的內(nèi)且“處理”之外的合法使用[17]。
2.確立人工智能領(lǐng)域終端用戶的信息選擇權(quán)
人工智能創(chuàng)造的經(jīng)濟價值與個人信息的保護本身存在一定的沖突和矛盾,這是一個需要平衡和制約的問題。若不顧終端用戶信息權(quán)利取得科技進步,將違背人類制造人工智能的本意,人工智能應(yīng)當(dāng)處于為人類服務(wù)的地位,而不應(yīng)該給人類帶來安全隱患。為了加強對個人信息安全的保護而抑制對科技的探索,也會導(dǎo)致人類的科學(xué)發(fā)展止步不前。部分人認(rèn)為科技的發(fā)展必然會產(chǎn)生安全隱患,用戶基于保護信息安全,可以選擇不使用人工智能。筆者認(rèn)為這不利于從根本上解決問題,并且用戶的“選擇權(quán)”可以用于對人工智能技術(shù)的選擇。比如訊飛的翻譯機,為了防止終端用戶信息的泄露,公司在產(chǎn)品中設(shè)計了離線翻譯版本,用戶在離線狀態(tài)下使用翻譯機,并不會將信息上傳到網(wǎng)絡(luò)空間。因此,法律可以對人工智能制造者進行規(guī)制,凡是能實現(xiàn)離線使用的產(chǎn)品,制造者應(yīng)當(dāng)設(shè)計這一選擇程序,增強終端用戶的信息選擇權(quán)。
(二)建立人工智能領(lǐng)域個人信息安全法律保護制度
1.明確個人信息的權(quán)利屬性
2018年5月25日歐盟《一般數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR)正式生效,意味著歐盟對個人信息的保護達(dá)到前所未有的高度。《GDPR》對個人信息的處理主要體現(xiàn)在以下幾個方面:首先,其規(guī)定歐盟用戶不僅可以查閱被收集、處理的信息,并且有權(quán)了解人工智能自動化決策的程序、目的以及處理后果。筆者認(rèn)為這一規(guī)定正面應(yīng)對了人工智能的特性,人工智能制造者為人工智能設(shè)計自動化程序,制造結(jié)束投入使用后,制造者和使用者在正常使用中不再對程序進行修改,人工智能自主完成目標(biāo)任務(wù)。因此,當(dāng)終端用戶預(yù)先知曉自動化決策的目的和后果時,可以選擇是否進行下一步操作或使用人工智能,可以對個人信息的處理作出選擇。我們所熟悉的淘寶平臺的隱私權(quán)政策中有類似聲明,其寫明將“約束信息系統(tǒng)自動決策”,但明確提出在某些業(yè)務(wù)功能中會自動作出決定。很明顯這樣模糊不清的聲明并不利于保護終端用戶的個人信息,當(dāng)發(fā)生侵權(quán)案件時,仍需要對其聲明條款和侵權(quán)行為詳細(xì)分析。其次,規(guī)定歐盟用戶有權(quán)反對以商業(yè)目的進行個人信息分析的數(shù)據(jù)控制者,并有權(quán)要求刪除其個人信息。人工智能最大的商業(yè)或經(jīng)濟價值之一就是分析個人信息,根據(jù)分析結(jié)果給終端用戶推送相關(guān)產(chǎn)品和服務(wù),刺激終端用戶的行為和消費。如果終端用戶有權(quán)反對數(shù)據(jù)控制者的分析行為,并要求刪除個人信息,對終端用戶來說可以有效避免被人工智能推送影響而產(chǎn)生的沖動性消費。再次,歐盟用戶有權(quán)將其攜帶的個人信息,在不同的數(shù)據(jù)控制者之間進行存儲和轉(zhuǎn)移[18]。筆者認(rèn)為,如果個人信息被法律明確界定為某種權(quán)利,歐盟的這一規(guī)定對于權(quán)利交易來說具有一定的保障功能。在維護數(shù)據(jù)所有者權(quán)利這方面,我國法律存在很大的完善空間,可以從界定個人信息的屬性出發(fā),明確個人信息既是一項絕對權(quán)利,又是一項具體的人格權(quán),為個人信息的保護夯實法律依據(jù)。
2.完善與人工智能領(lǐng)域相關(guān)的立法
《網(wǎng)絡(luò)安全法》第41條規(guī)定網(wǎng)絡(luò)經(jīng)營者應(yīng)當(dāng)合法收集個人信息,并經(jīng)過被收集者的同意。《網(wǎng)絡(luò)安全法》雖然規(guī)定了用戶同意機制,但這一規(guī)定仍然不能夠應(yīng)對由人工智能所引起的個人信息安全問題。智能物收集個人信息時,會直接越過用戶同意的步驟。智能系統(tǒng)分析個人信息時,通常也不會經(jīng)過用戶的同意。筆者認(rèn)為,法律制度可以從技術(shù)源頭遏制個人信息侵權(quán)問題。首先,人工智能制造者根據(jù)對個人信息數(shù)據(jù)的分析結(jié)果制造用戶需求的智能產(chǎn)品,因此在制造之前,規(guī)定制造者必須合法獲取個人信息。其次,在人工智能制造之初,規(guī)定人工智能的制造者設(shè)計用戶同意程序,此處的用戶同意程序,不應(yīng)當(dāng)是簡單的格式條款,而是在收集存儲用戶信息之前必須經(jīng)過用戶的同意。最后,在人工智能運行過程中,擴大“知情—同意”機制的適用范圍,原則上任何處理用戶信息的步驟都要經(jīng)過用戶的同意,涉及用戶隱私的信息更要有清晰的提示,且不得設(shè)計強制用戶接受同意的程序。
(三)建立人工智能領(lǐng)域個人信息安全的責(zé)任機制
1.確立人工智能主體的追責(zé)機制
確立人工智能主體的追責(zé)機制是保護人工智能領(lǐng)域個人信息安全的必要前提,也是追責(zé)人工智能侵權(quán)個人信息時承擔(dān)責(zé)任的基礎(chǔ)。目前,人工智能還沒有被認(rèn)為其具有法律上的主體資格,盡管存在其具有主體資格的論述;但筆者一直主張人工智能不具有法律上的主體資格,在筆者看來,此處人工智能的主體并不是指人工智能作為自身的主體,而應(yīng)當(dāng)是指人工智能的實際控制者,不論是智能系統(tǒng)的軟件人工智能,還是僅僅指智能物,這是目前規(guī)制人工智能侵犯個人信息的追責(zé)依據(jù),否則很難從法律上認(rèn)定人工智能自身作為侵權(quán)主體而存在。在筆者看來,人工智能無論進化到什么程度,都不能夠取代人類的主體資格,也不應(yīng)當(dāng)存在所謂的“擬制人”之說,否則將違背自然規(guī)律。若真的強人工智能到來,再討論人工智能主體的追責(zé)機制也無實際意義,到那時人類生存權(quán)將是首要面對及考慮的。
2.建立人工智能產(chǎn)品的監(jiān)管機制
建立人工智能產(chǎn)品的監(jiān)管機制有助于加強人工智能領(lǐng)域個人信息安全的保護。首先,應(yīng)當(dāng)參照《產(chǎn)品質(zhì)量法》和《侵權(quán)責(zé)任法》的規(guī)定,明確生產(chǎn)者在開發(fā)過程中設(shè)置保護個人信息功能的通用標(biāo)準(zhǔn),避免出現(xiàn)缺陷產(chǎn)品。其次,建立人工智能監(jiān)管和召回機制,生產(chǎn)者以及銷售者在人工智能產(chǎn)品售出后應(yīng)當(dāng)定期監(jiān)督人工智能產(chǎn)品對個人信息的收集和使用情況,監(jiān)督人工智能產(chǎn)品保護個人信息功能的實現(xiàn),一旦發(fā)現(xiàn)人工智能產(chǎn)品缺陷或者有危及個人信息安全的情形,應(yīng)當(dāng)立即召回或停止服務(wù)。再次,可以制定人工智能領(lǐng)域個人信息安全的行業(yè)標(biāo)準(zhǔn)體系,推動發(fā)揮人工智能領(lǐng)域行業(yè)的自律作用。最后,可以增設(shè)人工智能產(chǎn)品的責(zé)任保險,該責(zé)任機制的設(shè)置可以借鑒《中華人民共和國保險法》相關(guān)條文中類似于交通事故責(zé)任強制保險的規(guī)定,在難以確定人工智能侵權(quán)責(zé)任主體的情況下,可以為被侵權(quán)人和生產(chǎn)者提供各自相應(yīng)的保障。
3.建立健全企業(yè)責(zé)任機制
首先,用戶對企業(yè)在公共平臺披露、存儲的個人信息應(yīng)當(dāng)有獲知其信息狀態(tài)與信息權(quán)利運行的知情權(quán)。《網(wǎng)絡(luò)安全法》對此沒有相關(guān)規(guī)定,而我國部分網(wǎng)絡(luò)平臺會在法律聲明中說明用戶的信息權(quán)利。但是筆者認(rèn)為,當(dāng)網(wǎng)絡(luò)平臺違反與用戶達(dá)成的協(xié)議后,用戶只能圍繞違約行為提出法律訴求,而雙方的協(xié)議中通常不會約定違約責(zé)任如何承擔(dān),因此并不能為用戶提供實質(zhì)性的保護。其次,當(dāng)發(fā)生個人信息重大泄露事故時,企業(yè)應(yīng)當(dāng)及時向監(jiān)管機構(gòu)報告。歐盟新規(guī)明確規(guī)定,如果發(fā)生用戶重大數(shù)據(jù)泄露,企業(yè)應(yīng)當(dāng)在72小時內(nèi)向監(jiān)管機構(gòu)或數(shù)據(jù)所有者報告。而《網(wǎng)絡(luò)安全法》第47條規(guī)定只在發(fā)現(xiàn)法律法規(guī)禁止發(fā)布或傳輸?shù)男畔r,網(wǎng)絡(luò)運營者才有向有關(guān)部門報告的義務(wù)。該法也并未對法律法規(guī)禁止發(fā)布或傳輸?shù)男畔⑦M行明確的解釋,可見此條規(guī)定并不是對個人信息權(quán)利的專門保護。再次,限定人工智能自動化系統(tǒng)對個人敏感信息進行自動決策和自動處理的行為。企業(yè)的這項義務(wù)有賴于法律對個人敏感信息的界定,應(yīng)用到人工智能領(lǐng)域,更應(yīng)當(dāng)首先明確人工智能領(lǐng)域個人信息的涵蓋范圍。
4.明確人工智能侵害個人信息的處罰機制
歐盟《GDPR》對違規(guī)行為的罰款數(shù)額相當(dāng)可觀,最高達(dá)到2 000萬歐元或全球年營業(yè)額的4%。我國《網(wǎng)絡(luò)安全法》對侵犯個人信息的懲罰額度僅規(guī)定100萬元以下的罰款,對直接責(zé)任人員的罰款數(shù)額僅為1萬~ 10萬元,該懲罰額度不能夠起到嚴(yán)懲和警示的效果。人工智能創(chuàng)造的經(jīng)濟價值是不可預(yù)估的,其對個人信息侵權(quán)造成的不只是經(jīng)濟損失,甚至包括精神損害,因此對侵權(quán)人的處罰數(shù)額應(yīng)當(dāng)進行詳細(xì)的劃分。我國可以借鑒歐盟對個人信息的保護,進一步完善處罰機制。對于違法收集、利用個人信息的行為規(guī)定合理的處罰數(shù)額,并將數(shù)據(jù)控制者和數(shù)據(jù)處理者納入處罰范圍。
四、結(jié)語
大數(shù)據(jù)時代,人工智能離不開數(shù)據(jù)的深度挖掘和應(yīng)用,數(shù)據(jù)是人工智能的血液,人工智能的深度應(yīng)用也必將給人類的學(xué)習(xí)、生活、工作產(chǎn)生深層次的變革,隨著人工智能學(xué)習(xí)的不斷深入,人工智能對個人數(shù)據(jù)信息的應(yīng)用也不斷加強,人工智能對個人信息的收集、存儲、傳輸、應(yīng)用等形式是科技進步和發(fā)展的必然結(jié)果。我們無法阻止科技浪潮的來襲,但我們可以提供與之相適應(yīng)的制度構(gòu)建。計算機只能發(fā)出強制性指令——它們沒有被編程來行使自由裁量權(quán)[19],即使強人工智能時代真的到來,對人工智能賦予“自由裁量權(quán)”,該“自由裁量權(quán)”也應(yīng)當(dāng)是限定性的權(quán)力。“智造時代”,應(yīng)當(dāng)盡快建立人工智能領(lǐng)域個人信息安全法律保護制度。當(dāng)下《網(wǎng)絡(luò)安全法》難以應(yīng)對人工智能領(lǐng)域的個人信息安全保護,對個人信息的保護顯得單一和不足。在即將到來的《個人信息保護法》中,應(yīng)當(dāng)明確該法是否適用于人工智能領(lǐng)域的個人信息保護,同時在相關(guān)條文中或者司法解釋中明確人工智能領(lǐng)域個人信息安全的相關(guān)標(biāo)準(zhǔn)。從法律上明確人工智能侵犯個人信息權(quán)利的歸責(zé)原則和責(zé)任承擔(dān)方式,同時積極制定行業(yè)標(biāo)準(zhǔn),建立人工智能領(lǐng)域個人隱私保護制度、用戶選擇制度。總之,人工智能領(lǐng)域的個人信息安全問題要綜合考量,從技術(shù)、法律、政策等多維角度出發(fā),結(jié)合人工智能的應(yīng)用環(huán)境給予保護。參考文獻:
[1]周舟.美國人工智能計劃的三大看點[EB/OL].(2019-02-26)[2019-10-29].http://www.jjckb.cn/2019-02/26/c_137850529.htm.
[2]劉洋.俄羅斯將制定人工智能國家戰(zhàn)略[EB/OL].(2019-03-01)[2019-10-29].http://www.jjckb.cn/2019-03/01/c_137859040.htm.
[3]袁于飛.三問人工智能創(chuàng)新發(fā)展試驗區(qū)[EB/OL].(2019-02-26)[2019-10-29].http://epaper.gmw.cn/gmrb/html/2019-02/26/nw.D110000gmrb_20190226_1-08.htm.
[4]HUMERICK M. Taking AI personally: How the E.U. must learn to balance the interests of personal data privacy & artificial intelligence[J].Santa Clara High Technology Law Journal,2018,34(4):393-418.
[5]許天穎.人工智能時代的隱私困境與救濟路徑[J].西南民族大學(xué)學(xué)報(人文社會科學(xué)版),2018,39(6):166-170.
[6]邵國松,黃琪.人工智能中的隱私保護問題[J].現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報),2017,39(12):1-5.
[7]嚴(yán)貝妮,葉宗勇,段夢麗.快遞用戶個人信息安全隱患成因解析:基于用戶角度的調(diào)查研究[J].現(xiàn)代情報,2018,38(2):91-95.
[8]信息技術(shù)研究中心.人工智能標(biāo)準(zhǔn)化白皮書(2018版)[EB/OL].(2018-01-24)[2019-11-16].http://www.cesi.ac.cn/images/editor/20180124/20180124135528742.pdf.
[9]TSCHIDER C A. Regulating the internet of things: Discrimination, privacy, and cybersecurity in the artificial intelligence age[J].Denver Law Review,2018,96(1):87-144.
[10]MALGIERI G, CUSTERS B. Pricing privacy–the right to know the value of your personal data[J].Computer Law & Security Review,2018,34(2):289-303.
[11]許東陽.SP 800-122《保護個人身份信息的保密指南》標(biāo)準(zhǔn)研究[J].信息技術(shù)與標(biāo)準(zhǔn)化,2013(09):44-47.
[12]齊愛民.論個人信息的法律屬性與構(gòu)成要素[J].情報理論與實踐,2009,32(10):26-29.
[13]雍黎.人工輔助驗證智慧安保系統(tǒng)上線[EB/OL].(2019-03-01)[2019-11-18].http://www.stdaily.com/index/kejixinwen/2019-03/01/content_752970.shtml.
[14]Biometric mirror[EB/OL].[2019-11-18].https://socialnui.unimelb.edu.au/research/biometric-mirror/.
[15]PAVLACKA B. Artificial general intelligence and the future of the human race[J].Berkeley Scientific Journal,2012,16(2):1-3.
[16]COLE G S.Tort liability for artificial intelligence and expert systems[J].Computer Law Journal,1990,10(2):127-232.
[17]齊愛民.《中華人民共和國個人信息保護法(草案)》(2017版)[EB/OL].(2017-11-12)[2019-11-29].http://www.sohu.com/a/203902011_500652.
[18]KISHOR N.Will artificial intelligence be illegal in Europe next year?[EB/OL].(2017-08-10)[2019-11-29].https://houseofbots.com/news-detail/941-1-will-artificial-intelligence-be-illegal-in-europe-next-year.
[19]GERSTNER M E.Liability issues with artificial intelligence software[J].Santa Clara Law Review,1993,33(1):239-270.
On the legal protection of personal information
security in the field of artificial intelligence
ZHU Gaofeng