李洋 胡震 曹航 王洪濤 謝欣
近年來,伴隨著網絡通信基礎設施的不斷完善,人工智能技術的應用空間和領域得到了極大的拓展,市場規模發生了明顯的擴大。在具體應用方面,人工智能技術已經滲透到制造業、城市、金融、醫療、政務、交通、零售、企業管理、教育等眾多領域。顯然,人工智能技術已經成為行業領域發展的重要技術條件。但是,隨著技術應用對信息需求的增多,人工智能技術應用中的信息尤其是私密信息保護逐漸成為突出性的問題。
(一)人工智能技術的概念及特點
關于人工智能技術的概念,2019年出版的《人工智能標準化白皮書》給出的定義為:利用數字計算機或者數字計算機控制的機器模擬、延伸和擴展人的智能,感知環境、獲取知識并使用知識獲得最佳結果的理論、方法、技術及應用系統。簡而言之,人工智能技術就是通過技術與機器的結合來延伸和擴展人的智能。
人工智能技術有兩個特點。其一,以大數據為基礎。即人工智能技術是人們在大數據環境下,為了更便捷地提取和使用數據,通過設置相應的算法,使機器能夠自動學習和模擬人的大腦的工作方式,滿足人們提出的各種要求。為了保證人工智能技術應用的準確性,就需要大量的數據來豐富和細化算法,以獲得更真實準確的智能化依據。其二,以自動化為方式。人工智能技術是集合各種算法來控制機器的技術類型,并且這種控制是持續迭代和加強的,即人工智能技術中的算法會根據持續性的學習得以發展和完善,從而實現算法的持續性更新,進而促使人工智能技術的應用效果不斷完善,而這些算法具有深度學習的特點,能夠通過自動化的學習來進行自我完善,從而促使人工智能技術的自動化迭代和更新。
(二)私密信息的概念
私密信息是個人或者組織的隱私性信息。對應到人工智能技術應用環境中而言,私密信息是在人工智能環境下,以數字化格式記錄的組織或者個人的隱私性信息。私密信息具有三方面的特點。第一,以數據為載體。人工智能技術應用過程中的私密信息多是以數字化的數據信息的形式存在的,并且其傳遞和使用也多是以數據形式體現。第二,數量巨大。人工智能技術應用中的私密信息涉及眾多的組織和個人,大量的技術應用主體以及每位應用主體擁有的多類型私密信息,使得私密信息的數量是龐大的。第三,動態變化。人工智能技術應用中的私密信息并不是一成不變的,而是會隨著技術的應用和擴展持續變化和更新,一些新產生的私密信息會覆蓋掉原來的私密信息。
雖然人工智能技術的應用,為行業發展提供了有力的技術支持,使相關行動的決策和實施變得更加方便快捷,但以數據為基礎的人工智能技術應用很大程度上提高了數據信息尤其是私密信息的集中度,加之技術應用本身存在的不確定性,很容易導致私密信息安全保護方面出現問題。綜合目前人工智能技術的應用情況來看,私密信息安全方面主要存在以下幾方面的問題。
(一)算法黑箱阻礙了私密信息的保護
算法黑箱是當前人工智能技術應用中普遍存在的問題,其是指由于技術本身的復雜性,以及人工智能技術開發與應用主體出于排他性的考慮,對算法進行刻意的設置,使用戶或者競爭對手不能清楚地掌握算法的真正目標和意圖。目前,人工智能技術應用中存在的算法黑箱問題主要有兩種表現。其一是算法歧視問題,即編寫或者設計算法的人員或者機構出于搜集私密信息的需要,在算法中設置特殊的算法模型,在人們不察覺的情況下自動識別這些特殊的私密信息,例如,部分算法會對地域、性別、年齡、收入、職位、人臉等私密信息進行特殊的算法設計,使算法可以重點篩選符合私密信息相關要求的內容。其二是算法透明度不夠,即目前沒有明確的算法公開制度,個人或者機構編寫的程序和算法不需要經過專門的機構進行審核、批準就可以直接應用到相關領域中,這使得那些出于自身競爭而進行非常規算法設計的主體有機會借助算法黑箱獲得有利的私密信息。
(二)去匿名化技術的應用增加了私密信息的曝光度
去匿名化技術是可以使匿名的信息還原成為完整信息的技術手段,其違背了私密信息匿名化的要求。所謂的匿名化是相關主體根據人工智能技術的應用,對海量數據信息進行收集,并將已經識別或者可以識別的私密信息進行隱匿后再行使用。在人工智能技術應用中,相關主體主要按照人工智能收集原始數據→人工智能匿名化處理數據→發布安全數據的流程進行信息的處理。但是,在實際的人工智能應用中,部分個人或者組織會出于獲取私密信息的需要,采取諸如鏈接技術攻擊、同質性攻擊、背景攻擊等帶有攻擊性的操作,使得本應匿名的私密信息失去了匿名的性質,導致私密信息被曝光。
(三)技術應用中的知情同意規則落實不明顯
雖然近年來我國不斷加強信息技術應用領域的信息收集知情同意規則,要求信息化平臺、系統開發主體和運營管理主體要在充分告知用戶私密信息獲取內容,并獲得用戶同意以后再進行私密信息的收集和使用,但仍然有部分主體淡化知情同意規則在技術應用中的重要性。以2020年為例,工信部當年共公布了7批400多款APP軟件存在私自收集用戶私密信息和泄露用戶私密信息的情。顯然,這說明私密信息的安全保護是信息技術應用領域的典型問題,也是加劇信息化平臺與用戶矛盾的重要方面。
人工智能技術的優勢和功能決定了其具有積極的應用空間和價值,而實際應用過程中的私密信息安全問題暴露了人工智能技術應用中的短板。因此,在實際的技術應用中,相關主體更多地應從技術和管理角度入手切實保護私密信息的安全,為人工智能技術的正確使用保駕護航。
(一)完善算法技術及其管理
算法,是人工智能技術應用的基礎和前提。個人或者機構有通過特殊算法設計獲得發展和競爭優勢的動機。因此,在私密信息保護方面,更多地要強化算法技術應用的規范性,避免一些不良主體借助算法黑箱私自搜集私密信息。
首先,加強算法透明度的管理。在市場化的環境下,政府部門應當從私密信息保護的角度出發加強算法透明度的管理和監督,確保人工智能技術應用中的算法設計與使用的規范化和透明化,最大限度降低算法黑箱的影響。其次,注重算法的反復測試檢驗。相關主體設計和使用算法的目的在于解決人工智能技術應用中出現的某一具體問題,但最終獲得的算法往往會引起新的問題或者安全隱患。
(二)優化匿名化技術
匿名化技術的應用是為了保證人工智能技術應用中的私密信息保護能力和效果。而在實際的技術應用中,人們出于獲取私密信息獲得有利競爭的考慮,存在去匿名化技術的動機。為確保私密信息的安全性,有必要對當前的匿名化技術進行相應的優化,確保私密信息保護的有效性。
(三)建立“動態—分層”信息授權機制
“動態—分層”信息授權機制是通過確立動態化的信息分層和授權措施來提高私密信息保護的規范性和有效性。在當前人工智能技術應用逐步向各行業領域縱深方面滲透的情況下,“動態—分層”信息授權機制逐漸成為私密信息保護的重要技術和管理方法。
在管理方面,政府相關部門應當結合人工智能技術應用場景和方式,明確“動態—分層”信息授權機制構建框架,使政府、企業、個人等多元主體在私密信息保護方面的權責更加明晰。在這其中,最為重要的是明確企業等人工智能技術開發與運營主體要重視“動態—分層”信息授權機制的構建與遵循,確保用戶私密信息的收集和使用的規范性和合法性。
綜上所述,伴隨著人工智能技術在包括政府政務服務、企業管理、教育等眾多行業領域的廣泛而深入應用,私密信息保護的問題愈加凸顯。在技術應用過程中,普遍存在的私密信息安全問題主要有算法黑箱阻礙了私密信息的保護、去匿名化技術的應用增加了私密信息的曝光度、技術應用中的知情同意規則落實不明顯等。基于此,有必要在完善算法技術及其管理的同時,優化匿名化技術,建立“動態—分層”信息授權機制,以確保人工智能技術應用中的私密信息保護的規范性和有效性。
作者單位:中國北方工業有限公司