鄒依凝
摘 要:黨的十九大報告提出要建設智慧社會,引發了我們對數字人權的思考。智慧社會下的人工智能除了滿足人們對美好發展的需要,也產生了諸如算法黑箱、算法歧視、隱私侵犯、數字溝泓等與人權問題緊密相關、亟待解決的問題。以此為切入點,立足智慧社會發展的客觀現實和人性訴求,從人工智能治理中數字人權的保護現狀、存在問題、促進發展幾個方面出發,在數字人權保護機制等方面進行深刻研究,進而為其發展提供法治化保障。
關鍵詞:智慧社會;人工智能;數字人權;法治保障
1 人工智能治理中數字人權的保護現狀
“智慧社會就是數字化、網絡化、智能化深度融合的社會”,在此時期智能互聯網也蓬勃發展,產生了諸如人工智能、云計算等新時代的產物,利用算法、代碼等技術,人們可以突破物理疆域的限制,跨越了 “虛擬,現實” 的兩重空間和人的 “生物,數字” 的雙重屬性,實現了數字身份及行為的遠程臨場。
1.1 虛擬—現實雙重空間的交互發展
如今數字社會的快速進步和人工智能技術的迅速發展,背后是一場信息革命,即從工業社會向信息社會的轉型,它以網絡技術的發展為依托,締造了一個超越空間的新型社會,促進了互聯網、大數據、人工智能的交融發展,引導人們進入了信息化和智慧化的生活。人們從現實的物理空間走進了虛擬的電子空間,網上交易、群聊通信、學習娛樂,人工智能的發展使人們通過網絡連接的方式就可以形成生活的方方面面,從而導致虛擬—現實雙重空間的交互發展的現狀。
1.2 生物—信息雙重屬性的疊加融合
隨著人工智能的迅猛發展,現實與虛擬的交互,國家和社會的混同,海量數據的相互交換,通過網絡中留下的一串串數字腳印,形成了每個人特有的“數據畫像”。這樣,人們就在天然的生物屬性之外,獲得了數字屬性,從“生物人類”邁向“數字人類”,塑造了數字時代中生物-信息的雙重人性。可以說,在智能互聯網時代,海量數據不斷融合,網絡個人信息涵蓋了從搖籃到墳墓的所有私人生活,就這樣,一個“數字人”正在漸漸涌現。在這種情況下,數字鴻溝、算法黑箱、算法歧視等問題在不斷發展,這實際上是復制和控制了通過數字渠道連續獲得的數字信息。人們的個人興趣、購買習慣等正在被一條條數據描繪著,源源不斷的匯入大數據分析中,從而構成一個具有雙重屬性的社會信息網絡。
1.3 算法權力的邊界模糊
在數字時代,有關公民的個人信息轉換成代碼數據儲存在網絡空間中,人們不得不置身于大數據的虛擬空間中,公民逐漸成為一整個信息共同體,而為了社會經濟的整體發展,相對的又不得不賦予平臺一些“準公權力”,如規則制定權、審查權、管理權和處分權等。因此,數據和信息成為重要的新型資產,而算法也從最初的“提煉自這個世界,來源于這個世界”,轉向“開始塑造這個世界”。而網絡服務提供者利用人工智能等技術手段對這些數據進行系統的整理分析,從而對這些相關個人或群體及其行為得出相應的推斷,比如一些商業群體就會通過對海量數據的分析得出個人的喜好、需要后對用戶投放精準推送并因此獲取巨大的商業利益。可以說,在“數據化+智能化”的“互聯網+”時代,正是由于嵌入了數字和人工智能的元素,傳統的權利和義務發生了根本的變化。
2 人工智能治理中數字人權保護存在的問題
2.1 算法崛起帶來法律挑戰
人工智能的發展,使得“信息”成了數字社會中的關鍵因素,信息化重組帶來的風險幾乎貫穿整個社會的演進發展,信息不再受到主權國家的絕對控制,而由條條信息數據的算法也越來越多的應用在決策和輔助場合。但是,算法黑箱、算法歧視等都暗含在算法的崛起之下。2018年的“Facebook丑聞”事件中,劍橋分析作為一家大數據分析公司,通過數據分析定義不同用戶,其中成為“可說服者”的用戶會成為平臺的重點分析對象,平臺會對其社交媒體活動信息做大數據分析,并以此計算出最容易讓他們轉變心意的廣告方式,進而進行準對性的廣告投放。平臺及網絡服務提供者正是運用算法來幫助甚至直接決定人們的決策權,這直接侵犯了人類決策的知情權。
2.2 “公共暴露”侵犯個人隱私
自20世紀初開始,從“對隱私權的侵犯已經不需要物理的、強制性侵入”,到“隱私的合理期待”(公共暴露),隱私權保障逐漸由住宅擴展到公共場所、從強調“場所”轉向關注“人”。在當今社會,人們頻繁的通過網絡數據的方式完成生活中的各種交互,大數據、云計算、人工智能等越來越多的滲透在日常生活中的方方面面。因此,人們逐漸陷入了海量數據的漩渦中,失去了對個人信息權力的掌控。另一方面,隨著大數據分析的發展,人們可以根據大數據的推薦選擇自己需要的產品,但是這其中卻摻雜了過多的第三方意愿。比如說,商家可以通過刷單、購買權重等方式提高自己在平臺中的搜索地位從而讓自己成為消費者的選擇,在這種不知不覺中,人們自以為的需求產品其實變成了根據大數據運算后結合商家利益的推薦產品,人們正在慢慢失去自己的自主選擇權。
與此同時,在當下的數字社會的發展中網絡空間也逐漸成了人們生活的“第二個空間”,通過網絡空間的技術架構,網絡犯罪實現了“全球脫域”而游走在世界各地。而隨著互聯網時代網民基本素質的整體提升和網絡技術門檻的逐漸降低,“公共暴露”的范圍逐漸擴大,這在某一方面來說使得新型網絡犯罪更多,犯罪者通過一些簡單的技術鏈接就可以獲取到人們的個人信息并進而將其用作犯罪的道具,致使新型網絡犯罪率逐年升高,進一步侵害個人隱私權。據2019年公安部數據顯示,全國最大訪客營銷案中的犯罪嫌疑人非法獲取和儲存公民個人相關信息約1000萬余條。面對上述新型網絡犯罪行為,如果可以提前設防,就可以防患于未然,保護公民個人信息和社會安全。
2.3 算法權力偏頗引發數字溝鴻
一般情況下,代碼提供者會根據法律及倫理道德等多方面結合的實際要求提供具有提前約束力的代碼規則供社會公共使用。此外,網絡服務提供者也會在用戶接入前提前設計相關用戶協議以約束網民個體、網絡組織等活動,以達到穩定網絡秩序的預期功效。在實際操控中,普遍的情況是,代碼設計者及網絡服務提供者擁有對代碼系統的絕對控制權,通過提前審查等方式管理網絡秩序,履行信息網絡安全管理的公法義務。但是,“內容過濾軟件則會限制用戶的自由瀏覽、溝通及表達。”代碼設計者和網絡服務提供者在實踐中為了降低成本、獲取更高利益、逃避監管責任等原因,其中立性越發偏失,比如,通過提升點擊率和知名度,可以擴展用戶份額以及增加廣告收入,這是服務商的主要經營方式,為此目的,利益驅使下的服務商不惜犧牲公民權利和公共利益。實際網絡生活中,不顧他人隱私權肆意炒作、利用網絡用戶個人注冊信息進行不當牟利等情況數不勝數。在大數據時代,掌握信息流不只是掌握現金流,更可能意味著一種“信息獨裁”。可以說,普通公眾基本上無法得知自己在多大程度上、哪一方面被掌控,信息不對稱的現象普遍而廣泛,形成了實實在在的“數字溝泓”。