邵羽 陸曉燕
人工智能時代,聲音作為人的生物學特征之一,其重要性與日俱增。一旦聲音被濫用或者被篡改,可能引發嚴重的后果。因此,人工智能時代對人聲音的保護具有現實緊迫性,應該將聲音權確立為一種獨立的人格權納入民法權利體系。基于人工智能侵權的特性,應為聲音權提供事前和事后的有效保護路徑,促進人工智能語音產業健康發展。
人工智能的界定
當前對人工智能的認定沒有統一的說法。邏輯學派認為,人工智能源自能夠拓展人腦功能和幫助人腦正確高效思考的數學邏輯,是被算法符號操縱的智能行為。仿生學派主張,人工智能類似于仿生學原理,機器內部相互連接的神經元之間的競爭合作影響著人工智能行為。控制論學派所持觀點是,人工智能源自以反饋為基礎的控制論,是編程和算法符號等運作的反饋結果,可將人工智能大概界定為一門研究、開發用于模擬和拓展人類行為的新興科技。人工智能是一個泛稱,具體可細化為機器人技術、語言識別、圖像識別、專家系統和自然語言處理等。本文主要是針對人工智能語音識別方面進行探討和分析。
聲音的精神價值和財產價值凸顯
名人的聲音被盜用在日常生活中最為可見,商家濫用名人效應,未經許可通過人工智能模仿聲音來進行音樂制作、電話推銷甚至是騷擾。惡意剪輯、合成權利人聲音并肆意傳播等現象頻發,嚴重損害了個人的人格尊嚴。更嚴重的是,如果人工智能學習了人類的語音密碼,可能會參與欺詐并直接損害權利人的財產。
例如通過對人類語音進行分析,破解銀行卡密碼或者家庭門密碼,人工智能可能將在潛移默化中控制自然人的個人財產和空間。通過模仿自然人的聲音并利用它向親戚和朋友借錢,這種類型的騙局也是因為自然人聲音權利的保護不到位而獲得成功。
司法實踐需求的回應
毋庸置疑,聲音權利是自然人的一種合法權益,但在司法實踐中,聲音權的救濟一般是通過引用一般人格權的相關法律規定或者與其他具體人格權相競爭來獲得保護的資格,沒有系統、完備的保護路徑。
在發生聲音侵權之后,侵權主體的認定是實踐中的一個疑難點。首先,人工智能的語音收集器、處理器和傳播用戶端可能不是同一個,聲音的利用和傳播往往是經過了三個以上的環節,在每個環節中的主體是否有權利用上一環節的聲音信息,以及是否同意授權許可給下一環節的主體都無法考證。其次,人工智能語音侵權主體的明確和侵權責任的分配愈加困難。即使我們處在強大的人工智能時代,人們也可以在法庭上與人工智能爭辯嗎?最后,當侵權發生后,很難消除損害的后果。
在人工智能時代,當自然人的語音信息遭到破壞并發布到網絡上時,刪除信息并支付經濟賠償并不能完全阻止損害,因為很難完全抹除網絡上殘留的數據和信息。人們可以用不同的方式存儲它,將其反復傳播給不同的用戶,并繼續傷害權利人。
一般人格權不能準確界定聲音權
一般人格權是指“民事主體享有的,概括人格平等、人格獨立、人格自由、人格尊嚴全部內容的一般人格利益,并由此產生和規定具體人格權的基本權利。”作為人生物學特征之一,人的聲音是一種特征性的識別符號,基于此產生的聲音權是一種標表型人格權。聲音權作為具體人格權保護的是特定的自然人聲音內容,而一般人格權的規定大多是兜底性的、概括性的。在人工智能時代,聲音權被侵犯的情形多樣,用一般人格權的內容對聲音權進行保護,不足以體現聲音權的特殊性,無法對聲音權進行針對性、充分和系統的保護。
現有具體人格權無法覆蓋聲音權
一方面,聲音權不能被肖像權完全概括。聲音權的權利對象是聲音權益,肖像權的權利對象是肖像權益,將兩者融合或將其一擴大以覆蓋另一項權利很容易導致法律邏輯混亂;另一方面,聲音權不應被隱私權所涵蓋。聲音權與隱私權密切相關,在許多外國法律中,聲音權通過隱私權相關內容被保護。如《加拿大魁北克省民法典》第36條規定,除了合理公開,使用他人的聲音均構成侵害隱私權。但我國的隱私權所涉及范圍沒有英美法寬泛,主要是指公民不愿向外公開的秘密,而自然人無法做到聲音不被外界知曉,因此我國隱私權無法涵蓋聲音權。
人工智能的發展推動聲音權的完善
科學技術對法律的發展具有推動作用,可以分為三個方面:
第一,科技的發展對法律不斷提出了新的問題,豐富與改變立法。人工智能語音產業的發展會催生侵權責任認定等一系列的法律問題,需要法律的規制。
第二,科學技術大大豐富了法律的內容。科學技術改變了人類的生活方式和社會組織,形成了許多新的社會關系,由此催生了許多新的社會規范。
第三,科學技術導致法律內容的更新。如人工智能的發展將導致法律明確聲音侵權責任是歸于人工智能所有者還是管理者。人工智能不僅改變社會,還對法律制度產生了巨大影響。人工智能語音技術的發展帶來了一系列難題,而明確對聲音權的民法保護就是當前的積極應對措施,這將為未來的司法實踐獲得主動權。
面對人工智能發展浪潮,法律規則在促進創新與監管中須找到平衡點,才能既最大發揮人工智能給人類帶來的福祉,又能維護自然人的合法權利。
人工智能侵權行為的特征
首先,人工智能侵權較強的自主性。人工智能工作時,會向內部的算法提供一定的數據,進而利于算法根據來自數據的學習結果創建規則,即機器學習模型。其次,人工智能侵權較低的預測性。由于人工智能具有學習和適應能力,因此人工智能會有以不可測的方法來工作的情形,無法被人類準確預測。最后,人工智能侵權較低的可解釋性。
侵權行為發生之后,與原被告雙方舉證質證、厘清侵權行為的因果關系、考慮免責事由等傳統的解決方案不同,人工智能一般會有一個能做出決策的黑匣子,而這黑匣子是人類無法完全控制的。而機器學習模型無法始終在計算和學習過程中進行解釋,即使算法是對外透明的,但根據算法產生的模型也不一定是透明的,因此設計人員無法完全理解它們,也無法完全理解人工智能如何做出決策。
事前預防:聲音數據控制權的平衡
大多情形下,用戶用手機進行語音交流或者將個人配音發布于互聯網上。用戶似乎在積極地管理他們的語音信息,實際上,當用戶在單擊“發送”后,服務商就掌握了全部聲音信息。一旦用戶語音信息被發布到互聯網上,用戶將失去對聲音的下一個演變控制。即使個人刪除了該信息,原始信息仍殘留于服務器中,并且用戶無法控制其他人以任何其他方式存儲和傳播該原始信息。為了避免這種情況,網絡服務商應當將控制權轉讓給用戶。
例如,用戶有權徹底刪除服務器上的所有個人聲音數據,或者他人使用服務器上的聲音信息之前必須經過用戶的許可。服務提供商也要接受行業法規監督,應將注意的事項和風險主動告知用戶,以此平衡聲音數據控制權,達到事前預防聲音受侵犯的目的。
事后救濟:明確人工智能致人損害的侵權責任主體
隨著人工智能語音技術的普及,由人工智能引起的侵權責任的識別將對當前的侵權法律制度構成越來越多的挑戰。當前,學術界的主流觀點是,不需賦予以人工智能為中心的合法地位,而是應當讓人工智能所有權享有者承擔無過錯責任。但是,人工智能的特殊性使某些侵權行為受算法掌控,因此人工智能所有權享有者是否應當承擔無過錯責任仍需要進一步的考量。
1.風險管理原則
風險管理原則指,當人工智能的某些行為具有危險并且可能危害他人的人身和財產安全時,風險管理者要承擔風險以確保他人安全。當風險管理者滿足對人工智能侵權的危險有所了解和必須具有管理風險的技術能力這兩個條件時,應承擔人工智能侵權責任。
2.危險釋放原則
根據風險釋放的原則,危險的發生是社會發展的必然結果,危險本身是被法律允許的,因此如果危險活動的產生具有意外性或偶然性,則發起危險的人不需承擔法律責任。但是,在活動過程中,如果有關人員疏忽大意,并且人工智能的使用不在合理和合法的范圍內,則從事危險活動的人員將承擔責任,并且必須承擔責任。
3.補償原則
根據補償原則,每個民事主體都有權利獲得自己“應得的東西”,而“應得的東西”既包括正面的利益,也包括負面的罰則。該原則在人工智能領域,即民事主體使用人工智能,在享人工智能帶來的收益等好處時,也應承擔因人工智能給他人帶來損失的風險。
[本文系基金項目:江蘇大學2020年大學生實踐創新訓練計劃項目(項目編號:202010299589X)的研究成果。]
(江蘇大學)
參考文獻:
[1]楊立新.人格權法專論[M].北京:高等教育出版社,2005.
[2]周永坤.法理學[M].北京:法律出版社,2016.
[3]楊立新,袁雪石.論聲音權的獨立及其民法保護[J].法商研究,2005(04):103-109.
[4]王利明.論人格權獨立成編的理由[J].法學評論, 2017 (6).
[5]李濤.論聲音權在人格權編中的確立[J].三峽大學學報(人文社會科學版),2019,41(03):92-96.
[6]王利明,楊立新.民法學(第3版),法律出版社,2011(01).
[7] 袁雪石譯.魁北克省民法典人格權部分節譯.載楊立新主編.民商法前沿(第2輯)[C]法律出版社,2004.262.