龔建新 柳州城市職業學院
人工智能是用于開發、模擬、擴展人的智能的一種技術科學,是指通過計算機程序實現人類智能的技術。隨著人工智能的廣泛應用,對個人信息的采集也越來越精準化、隱蔽化,使得人們對于信息保護愈加擔憂。因此,有必要對人工智能給信息保護帶來的挑戰進行分析,并提出具體的措施,這對人工智能背景下的信息保護具有十分重要的現實意義。
隨著人工智能技術的廣泛運用,智能刷臉、數據采集等越來越先進,人工智能可以悄無聲息的收集個人的信息。不可否認的是,人工智能極大的便利了我們的生活,適當的信息采集有助于宏觀決策。例如,在新冠疫情暴發的背景下,大數據信息采集、健康碼、行程軌跡都為疫情防控提供了便利,是成功打贏防疫攻堅戰的基礎。但在這過程中隱私泄露、人肉搜索的問題屢見不鮮,適當的信息采集變成了過度采集。再如出于經濟利益的過度信息采集,以著名的Facebook隱私泄露事件為例,大量的用戶信息被泄露,形成惡劣影響。
人工智能作為一項新興技術,近年來發展迅速,導致相關法律并沒有跟上技術發展的腳步,使得許多關于人工智能信息采集方面都處于法律的灰色地帶,給許多不法分子犯隱私以可乘之機。在人工智能技術的輔助下,許多新產品、新業態、新模式應運而生,但沒有相關約束的法律,導致新技術新業態無序發展。就上海浦東新區來看,截至2020 年底,浦東人工智能企業約600 家,相關產業規模預計達910 多億元。而據中國信息通信研究院發布的數據顯示,2020 年,我國人工智能產業規模大約3100 億元人民幣,同比增長15%。由此,作為一個新行業,法律必須跟上行業的發展。
隨著人工智能應用的越來越廣泛,人們對新技術應用也逐漸形成依賴,從主觀上來看,用戶的信息保護意識并不強。一方面,刷臉付款、刷臉進小區等成為人們生活的常態,人們也因此習慣了處處“刷臉辦事”的生活方式。另一方面,在許多APP 內,都會有隱私須知,許多用戶因為須知太長,并沒有仔細閱讀,都會勾選同意的選項,導致用戶的許多信息被不同的APP 所追蹤。據中國互聯網絡信息中心發布的《2019 年中國網民信息安全狀況研究報告》,77.7%的被調查網民遭遇過信息安全事件,但在遭遇過信息泄露的網民中,高達47.5%的網民選擇置之不理。
人工智能技術發展迅速,在一定情況下各種從事人工智能的行業粗放式發展,缺乏專門的信息監管機構。一方面,缺乏專門的信息監管機構使得信息泄露問題沒有專門的機構去解決,各個監管部門沒有固定的負責人去處理信息泄露的問題,使得監管部門之間互相推諉責任。另一方面,各個監管機構之間的業務存在交叉,使得信息的保護變成一盤散沙,這樣不僅造成了資源的浪費,并且降低了監管機構的效率,讓一些犯罪分子收集信息有了可乘之機[1]。
針對部分企業運用人工智能等技術過度采集用戶信息的行為,相關單位應該明確個人信息采集的范圍,防止不法分子利用相關技術對個人信息進行過度采集。首先,應該對個人信息進行界定,隨著人工智能技術的不斷更新,過去對于個人信息范圍的劃定已經不適用于當下的發展,個人信息的表現形式越來越多,如網上的瀏覽記錄、人臉、指紋等,都應劃入個人信息的范圍之內。其次,個人信息采集的范圍屬于一個不確定性的概念,不同的監管主體對個人信息采集的概念都理解不同,往往不能對信息采集的邊界進行明確。最后,應該完善個人信息侵權的規則,對于過度收集個人信息的企業或者個人應進一步細化規定。人工智能技術作為一項新興技術,在受害人面臨信息泄露的問題時,往往舉證困難,并且許多法律都沒有關于個人隱私權的屬性問題,個人信息權與其他的權利不同,在當下的社會中,當用戶的個人信息被泄露時,維護個人的權利十分困難,在這種情況下相關部門應該對個人隱私侵權規則原則做出詳細的規定[2]。
針對人工智能技術法律缺位的問題,相關部門應該根據外部環境的變化,及時制定應對人工智能的法律,防止相關交易處于法律的灰色地帶中,同時也為用戶維權提供了法律依據。目前有關個人信息保護的法律有《消費者權益保護法》,但其中關于人工智能對于個人信息保護的條款并不完善。而今年頒布的《民法典》關于隱私權和個人信息保護增加了一些新的規定,對個人信息保護有重大的意義。《民法典》在《網絡安全法》的基礎上增加了一些新的條款。例如,在信息的界定上,拓寬了個人信息界定的范圍,電子郵件、健康信息、行蹤等都屬于個人信息的范疇,都不允許第三方進行違法收集和利用。《民法典》關于個人信息保護的規定彌補了新形勢下人工智能等技術下對于個人隱私保護的空白,使人們能夠在社會生活中運用法律的武器保護自己。新頒布的《民法典》是回應社會關切的表現,在保護個人信息方面取得了重大的進步。2021 年1 月6日,某市通報境外輸入病例時,將該病例的個人信息在互聯網上大面積傳播,利用大數據技術非法獲取該病例的隱私,被處拘留7日的處罰。《民法典》將“人格權”獨立成編,具有鮮明的時代特色,為個人信息的保護確立了基本原則。
在新時代下,要想加強對個人信息的保護,源頭還在于用戶自身,用戶必須從主觀上重視個人信息保護,加強用戶的信息保護意識。伴隨著大數據、算法等人工智能技術的應用,用戶應反思技術的“雙刃劍”性質。正如著名技術學派學者保羅萊文森所說;“技術是刀子的翻版”。用戶在享受算法、大數據等人工智能便利的同時,應該認識到技術與隱私的邊界。一方面,隨著個人信息保護的話題逐漸成為公眾討論的主流,再加上媒體的宣傳,用戶對APP 的使用也越來越“用腳投票”。對于尊重用戶隱私的軟件,用戶會愿意支付額外的費用,而對于隨意侵犯用戶隱私的軟件,則逐漸會被市場所淘汰。連續兩年以來,工信部推進了APP 利用算法等人工智能技術侵害用戶隱私等專項整治活動,目前已經對52 款APP進行了技術檢測,責令1571 款違規APP 進行整改,公開通報了500 款APP,對120 款整改不到位或拒不整改的APP 進行直接下架處理。未來要想進一步提升用戶的個人信息保護意識,還需要媒體與學校雙管齊下,將個人的信息保護變為全民必備的課程,提升人們的風險意識,并且讓更多的民眾會運用法律武器捍衛自身的權利,為人工智能技術套上枷鎖[3]。
針對部門權責不清、不能對個人隱私侵犯做出處罰的問題,相關單位應該建立統一的信息監管機構,使不同的部門都能處于統一制度下,建立統一的個人信息保護的標準,解決實際操作中互相推諉責任的問題。首先,建立專門的信息監管機構應該對監管機構的內部進行分層設置,同時將中央監管機構和地方監管機構分離開來,同時促進二者的配合,取長補短。中央監管機構主要用于頂層設計、宏觀調控。地方監管機構主要因地制宜,解決人民日常的因信息泄露問題,這樣對于個人信息的保護將會更加全面。其次,還要保證信息監管機構的獨立性,不受其他部門或者機構的干預,并且嚴格按照相關標準執行,確保各相關責任人都能各司其職。最后,在信息監管機構制度制定的過程中,可以制定公開的個人信息保護制度,并且對不同程度的個人信息泄露做出明確的規定,有差異化管理的意識,確保相關信息泄露問題發生時,能夠有章可循。由此可以看出,統一的信息監管機構能夠統一信息保護的標準,避免不同監管部門之間出現交叉地帶,不利于具體制度的執行。
綜上所述,隨著經濟的快速發展與科技水平的提高,人工智能技術應運而生,由此為人們的生活帶來了極大的便利,但也為個人信息的保護造成了一定的威脅。相關部門應該緊跟時代的變化,出臺相應的法律與制度,確保人工智能技術能夠在法律的范圍內運用,成為經濟發展與人民生活的有力工具。