【摘要】人工智能時代,聲音的侵權現象不容忽視。數字化入侵使得聲音信息的收集更加隱蔽,而對聲音信息的利用與侵犯卻呈現多元狀態。人工智能時代聲音侵權的誘因需要從多方面進行考童,聲音作為一種無形資產,有其經濟價值,而相關法律對聲音權益的保護不足使得侵權行為有機可乘,同時個人對聲音的保護意識不強也使得聲音侵權行為加劇。基于此,需要通過平衡聲音的數據控制權,完善聲音人格立法權,增強個人聲音保護意識的方式,保護聲音權益不受侵犯,促進人工智能語音產業健康發展。
【關鍵詞】人工智能;個人信息;聲音侵權
尼葛洛龐帝在《數字化生存》中說到,“聲音渠道不僅傳遞信號,同時也傳遞了所有伴之而來的理解、深思、同情或寬容。我們會說,某人‘聽上去真誠實,這個論點‘聽起來不怎么可靠,或某件事‘聽起來不像那么回事。聲音中潛藏了能喚起感覺的信息。”[1]聲音在人類與外部世界互動的過程中是如此重要,隨著人工智能、語音識別技術的發展,智能語音成為一個重要的信息傳播平臺,同時各種聲音侵權行為也隨著而來。保護公民的獨立聲音權面臨著新一輪的挑戰。
一、人工智能時代聲音侵權多發的誘因
聲音是自然界物體通過振動而產生的聲波,自然人的聲音由胸腔中的氣體沖擊聲帶帶動振動,從而發出聲音。[2]每個人的聲音都不同,具有不同的音色、音調和響度,是人格的重要標識。人工智能機器可以輕而易舉地學習模仿自然人的聲音,語音技術越發達,人們通過對保存下來的聲音進行分析、模仿、合成,進行非法利用的侵權行為也越多,此類行為的誘因須從多個面向進行考量。
(一)聲音作為一種資產,經濟價值凸顯
聲音本就具有財產屬性,自然人可以通過授權他人使用自己的聲音,用來從中獲得收益。這種現象在明星中非常普遍,且大多情況下商家都是在權利人不知情的狀況下,利用名人效應,通過人工智能模仿他們的聲音進行音樂制作、發布單曲,利用他們的聲音進行電話推銷、電話騷擾等,利用名人明星來達到商業盈利目的。生活中經常出現未經過權利人許可,將權利人的音頻上傳到網絡上,進行合成、剪輯等方式來惡搞他人的聲音并且進行肆意傳播的現象,實質上侵犯了權利人的聲音權。即使是普通人,這種聲音侵權行為也越來越多。人工智能一旦掌握了人的聲音密碼,甚至會進行詐騙等,直接使權利人的財產遭到損害。人工智能可以通過分析銀行卡密碼和房門密碼來支配自然人的私有財產和個人空間,通過模仿自然人的聲音,利用語音來跟親朋好友借錢,因為語音的真實性,這種詐騙行為屢屢得逞。
(二)聲音作為一種權益,法律保護不足
聲音權與肖像權、隱私權、生命權等一樣,是自然人的一項合法權益。但對于人工智能時代聲音權的立法保護以及立法形式,業界及學界并沒有取得一致的意見,法律條款并不健全。在我國的司法實踐中,聲音權的保護也只能夠援引一般人格權對聲音利益予以救濟,或者與具體人格權競爭來保護聲音權益。[3]在聲音侵權行為發生以后,侵權的追責也將變得異常困難。首先,聲音信息的收集者、處理者和利用者通常不是同一類,聲音信息的買賣通常會經過多個環節,而且這些環節當事人是否知曉同意以及授權不得而知,聲音利用主體的合法性也無從考證。其次,聲音侵權的主體越來越難以認定,難以追責。若真的到了強人工智能時代,難道人還能和人工智能對薄公堂?最后,侵權行為一旦發生,其損害結果便很難逆轉。在人工智能時代,自然人的聲音信息一旦被侵犯,發布到網絡上,不是簡單的刪除信息,進行經濟賠償就能停止損害的,網絡上的數據信息很難進行徹底清除。人們可以通過各種方式保存下來,并且在不同的利用者之間反復傳播,不斷給權利人造成傷害。
(三)聲音作為人格特征,個人保護意識不強
在日常生活中人們對自己聲音的保護意識并不強。首先,人們很少能意識到聲音信息的重要性,對于聲音信息的特殊性和敏感性人們認知不夠。再加上人們總是有自我表露的心理需求,根據戈夫曼的擬劇理論,人們在網絡上根據自己的形象設計來進行自我展現。人們很愿意在網絡上發布自己的信息以及動態,這當然包括自己的聲音信息。比如,在網絡分享自己覺得唱的好聽的歌曲,自己對影視劇聲音的模仿等,但是人們意識不到在進行自我展示的同時,也可能使自己的聲音信息遭到泄露。其次,由于第三人效果人們對聲音侵權的風險感知不夠,每個人都知道有聲音侵權現象的發生,但又覺得這種事件只會發生在別人身上,并不會發生在自己身上,高估自己而低估他人。最后,因為人工智能收集聲音信息的隱蔽性,人們也很難察覺到自己正在遭受侵權行為。再加上現在網絡環境的擬態化,人們通過語音發送的信息在不知不覺中也會成為人工智能分析模仿的對象。
二、人工智能時代聲音侵權的補救方式
人工智能時代,在享受技術帶給我們的便利與利益之時,也應當時刻準備好應對其可能帶來的風險。人工智能時代語音技術越發達,聲音侵權的形勢就愈加嚴峻,聲音權的保護需要做好以下幾個方面:
(一)聲音數據控制權的平衡
很多時候,用戶個人在手機上發送語音、利用語音智能控制家電、將自己演唱的歌曲配音發送到網絡上,看似用戶主動地掌握著自己的聲音信息,實際上,當用戶點擊了“發送”按鈕之后,聲音信息的主動權就已經掌握在了服務商手里。當個人聲音信息發布到網絡上以后,本人就已經無法控制其的下一步發展,即使個人進行信息刪除,原始信息還是會保留在服務器中,用戶也無法控制他人進行錄音或用其他方式進行保存傳播。為了減少甚至避免這類情況的發生,就需要網絡服務商讓渡部分權利給用戶,比如用戶有要求刪除服務器中原始數據的權利,并且在用戶的聲音信息被使用前,必須征求用戶的同意;服務商在為用戶提供服務的同時,也應該保護用戶的聲音信息不受侵害,接受行業內的規范監督,主動告知用戶在使用時應該注意哪些事項,以及在聲音信息分享以后所帶來的風險,以此進行聲音數據控制的平衡,達到聲音信息保護不受侵犯的目的。
(二)聲音人格立法權的完善
對于人工智能時代的聲音權的立法保護問題,學界和業界都認識到其必要性,但是關于立法的形式,一直存有爭議,沒有得到一致的意見。一些學者認為可以將肖像利益和聲音利益放在一起進行保護,提出設立肖像聲音權。還有學者提出了形象權說,主要是保護自然人通過聲音獲得財產收益,著重保護聲音的財產利益。比如,利用聲音進行配音、發表歌曲等商業行為,主要保護的是聲音的版權。對于名人明星來說,由于他們的聲音很有辨識度,這種方式可能會起到作用,但對于普通人來說,執行起來難度較大,可行性不高。當前學界認可度較高的是獨立聲音權說,由楊立新教授提出。獨立聲音權是將聲音作為獨立的具體人格權在法律上確立起來,因為聲音本身就容易被人忽視,在我國,對聲音的保護援引一般人格權的方式已經不能夠適應當代的社會發展。聲音權保護的是音調、響度、音色等聲音特色和聲音的表現形式,是純粹的聲音本身,而不是聲音所闡述的內容。[4]應厘清聲音侵權的具體行為屬于哪類法律的保護范圍,是著作權,隱私權,還是其他權利,針對具體的侵權行為,應用恰當的法律來保護。完善關于聲音權作為一種獨立的人格權的立法,針對人工智能,我國還未出臺相關法律,應盡快完善相關法律建設,明確人工智能的法律地位、侵權責任等。
(三)聲音個人保護意識的加強
人工智能時代,只要我們將聲音信息暴露在公共空間,聲音信息泄露,聲音侵權現象難以避免。相對于聲音信息泄露,聲音侵權之后的各種技術以及法律規范的外在補救措施都顯得亡羊補牢。面對聲音信息泄露,聲音侵權現象還是要靠用戶自身的自我保護與自我控制。聲音作為一種人格權,要對其有著正確的認知和足夠的重視,不要等到自身在被侵權之后才去重視。個人在各種平臺分享自己聲音信息,在獲得服務便利的同時,也要考慮這樣做會不會給自己帶來風險,自己有沒有能力承擔這種風險,如果不想造成因聲音信息不當分享帶來的損失,就要事先有保護的措施,只有在源頭上減少聲音信息被他人利用的機會,才能更好地規避聲音侵權現象的產生以及帶來的問題。
結語
人工智能正在以人類無法想象的速度發展變化,實現了人類對美好生活的眾多想象,聲音的模仿和開發利用也越來越廣泛,聲音侵權的案件也不斷增多,將我們置于人工智能的挑戰之下。在科技瞬息變化的今天,我們要加強對聲音侵權的重視,增強自己的法律保護意識,完善聲音侵權的責任和救濟方式,規范人工智能的聲音信息采集和使用,在保護自然人聲音權益不受侵犯的同時,促進人工智能語音產業的良性、健康發展。
參考文獻:
[1][美]尼古拉·尼葛洛龐帝.數字化生存[M].胡泳,范海燕,譯.北京:電子工業出版社,2017.
[2]李濤.論聲音權在人格權編中的確立[J].三峽大學學報,2019(3):92-96.
[3]楊立新.人格權法專論[M].北京:高等教育出版社,2005.
[4]林愛珺,馬瑞萍.人工智能時代聲音立法權的前瞻性思考[J].青年記者,2019(12):72-73.
【作者簡介】武婷婷,安徽師范大學新聞與傳播學院碩士研究生;主要從事媒介倫理、媒介法規研究。