
在某火爆全網的AI配音軟件中,卡通虛擬人物“小璇”的聲音被打上了“純凈甜美、自然動聽”的特征標簽,深受“聲控”們的歡迎,軟件內下載量高達約32.6億次。然而,“小璇”的存在卻讓殷女士感到十分困擾。
殷女士是一名配音師,從業多年的她錄制過不少聲音作品。2023年5月,她收到了業內朋友發來的信息,稱在某短視頻軟件上看到了她配音的短劇,問她是否進行過授權。
隨后,殷女士打開短視頻App查看,發現某影視解說賬號中發布的聲音盡管被用AI技術處理過,但一聽就知道是自己的聲音。從2021年9月7日起到殷女士查看,該賬號一共發布了119部作品。
不僅如此,殷女士還發現自己的聲音在其他短視頻平臺也被廣泛傳播。她感到奇怪,自己從未授權過任何個人或公司將自己的聲音AI化,這些聲音是怎樣被生成的?
帶著疑問,殷女士仔細翻找了之前錄制的聲音作品,同時查找網上這些AI化聲音的來源。經過對比,她發現這些AI作品的聲音均來源于北京某智能科技公司運營的AI配音軟件中的虛擬人物“小璇”。在該軟件中,只要支付對應的標價,就可以買到AI化的殷女士的聲音。
除了“小璇”外,該AI配音軟件中還有大量音色不同的虛擬人物,這些聲音都被明碼標價售賣,付款后只要輸入文字就可以獲得。這些聲音不僅有年齡、性別作為區分,使用者還可以根據文字的不同內容調整聲音的語境和情緒,滿足多樣化的創作需求。比如輸入一段文字,可以用東北話、陜西話等18種方言進行朗讀,甚至還可以被一鍵譯成多種外語。
由于“小璇”十分受歡迎,該智能科技公司還在平臺主頁上展示了使用“小璇”的聲音制作的多部聲音作品。
“我以聲音播出為業,如果我的聲音可以在網上隨意被使用制作聲音作品,對我的職業生涯會產生不利影響?!币笈繉@樣的行為感到十分不滿。
其實,制作AI化聲音并不容易,需要一定量的原聲樣本,該智能科技公司是如何得到殷女士的聲音樣本的呢?殷女士找到律師經過一番調查后弄清了事情的來龍去脈。
原來,殷女士曾與北京某文化傳媒公司合作,錄制了兩部有聲讀物,而該傳媒公司將殷女士為其錄制的音頻提供給某軟件公司,允許該軟件公司以商業或非商業的用途使用、復制、修改數據用于其產品及服務。軟件公司將殷女士錄制的錄音制品作為素材進行AI化處理,生成了一款文本轉語音產品,并通過經銷商對外售出。最終AI配音軟件所在的北京某智能科技公司采購了這款產品,調取并生成了名為“小璇”的文本轉語音產品,并在軟件平臺上銷售,用戶在平臺購買套餐后輸入文字,就能得到該聲音產品。
為此,殷女士以被告行為侵害其聲音權為由,將該AI配音軟件的運營主體北京某智能科技公司等5名被告起訴到北京互聯網法院,要求相關公司停止侵權、五被告賠禮道歉及賠償自己經濟損失、精神損失共計60萬元。
“原告十分確定她沒有給予任何公司聲音AI化的聲音授權,并認為這種做法嚴重侵害了她的人格權益。”殷女士的訴訟代理人任相雨說。
2023年6月12日,北京互聯網法院正式受理該起訴訟案件。
庭審中,對于AI化的聲音是否受到法律保護成為爭議的焦點問題之一。被告之一某智能科技公司的訴訟代理人認為,本案中涉案聲音為AI化聲音,不具有與原告本身聲音人格的可識別性,與真人配音在技術上無法形成替代關系,社會公眾難以僅從該聲音識別為原告的聲音,因此原告主張構成對其人格權益中聲音權益的侵害依據不足。
常言說“未見其人,先聞其聲”,這也反映出通過聲音能夠聯想到一個人,標志性十分明晰。從2021年1月1日起,《中華人民共和國民法典》將人格權獨立成編,首次以立法形式將保護“聲音”寫入民法典。聲音權益是民法典新增加的標表型人格權,屬于人格權的一部分。
根據《中華人民共和國民法典》第1023條規定,對自然人聲音的保護,參照適用肖像權保護的有關規定。而民法典第1018條第二款規定,肖像是通過影像、雕塑、繪畫等方式在一定載體上所反映的特定自然人可以被識別的外部形象。肖像要義在于“可識別性”,即通過該視覺形象可識別其“主人”。
從法理上看,聲音權益受到保護的前提也是具有“可識別性”。北京互聯網法院認為,關于自然人聲音權益是否可以及于AI聲音,需要從自然人聲音是否具有可識別性以及AI聲音是否具有可識別性兩個維度把握。利用人工智能合成的聲音,如果能使一般社會公眾或者相關領域的公眾根據其音色、語調和發音風格,關聯到該自然人,可以認定為其具有可識別性。
經當庭勘驗,該AI聲音與原告的音色、語調、發音風格等具有高度一致性,能夠引起一般人產生與原告有關的思想或感情活動,能夠將該聲音聯系到原告本人,進而識別出原告的主體身份。
那么,將殷女士AI化的聲音生成聲音產品是否涉嫌侵權?殷女士表示,在與北京某文化傳媒公司簽訂合同的時候,她的確授權該文化傳媒公司使用自己錄制的有聲讀物,只是沒想到對方會用這樣的方式使用自己的聲音?!霸诤炗喓贤瑫r,最終聲音會放在哪些平臺,這些平臺將會如何使用聲音等內容并未明確。”殷女士說。
而被告某文化傳媒有限公司稱,他們付費邀請殷女士錄制了兩本有聲讀物,后來也與殷女士簽訂了合同,已獲得案涉聲音的授權,應該享有相關權益,他們不存在任何侵權的主觀過錯。
對此,任相雨說:“雖然殷女士錄制的有聲讀物的著作權歸某文化傳媒公司所有,但殷女士并沒有授權他們將聲音進行AI化處理,對于殷女士聲音作品的AI化是基于著作權的改編,實際上已經屬于侵犯人格權的范疇?!?/p>
法院經過審理后認為,聲音作為一種人格權益,具有人身專屬性,任何自然人的聲音均應受到法律的保護,對錄音制品享有著作權并不意味著擁有聲音權,未經許可擅自使用、許可他人使用錄音制品中的聲音,構成侵權。
那么,本案中被殷女士起訴的5名被告應該如何分擔責任?被告之一北京某智能科技公司稱只是采購了形式上合法的智能化產品,屬于正常采購,他們沒有過多的審核義務,也沒想到背后的聲音來源可能有問題。
該案承辦法官,北京互聯網法院黨組成員、副院長趙瑞罡認為:“某智能科技公司僅承擔停止侵權的責任即可。而提供有聲讀物的某文化傳媒公司和將殷女士聲音進行AI化處理的某軟件公司有過錯,應該對侵權的結果承擔責任。”
而在對賠償金額進行認定時,殷女士稱60萬元的損失賠償是經過計算的,并提交了“小璇”聲音產品的播放量界面,該界面顯示播放量約為32.6億次,而北京某智能科技公司稱“小璇”所在的平臺不是音視頻播放平臺,該播放量是手動輸入的預測數據,不是實際播放量,并提交了一份“小璇”聲音產品上線以來總體合成文章數的證明材料,材料顯示合成文章數為22700次。
北京互聯網法院認為,北京某智能科技公司提供的數據為單方內部數據,不足以采信。即便如北京某智能科技公司所述為其自行填寫,但其明知平臺公開的播放量數據會使得用戶認為該數據為真實播放量仍予以填寫,應自行承擔相應后果。因此,北京互聯網法院對殷女士提供的播放量證據予以采信。
2024年4月23日,北京互聯網法院綜合考量侵權情節,同類市場產品價值、產品播放量等因素,判決被告某智能科技公司、被告某軟件公司向原告賠禮道歉,被告某文化傳媒公司、被告某軟件公司向原告賠償經濟損失25萬元。
在接受采訪時,趙瑞罡告訴《方圓》記者:“本案是全國首例‘AI聲音侵權案’,該案對于理論界和實務界來說,都是新類型的案件?!?/p>
在案件辦理過程中,本案比較特殊的點在于被告承認是利用原告的聲音生成的AI聲音,在類似的案件中,如果被告不承認使用,原告的舉證難度就會相應加大,這也可能是目前類似案件進入法院審理流程相對較少的一個原因,不過隨著社會公眾對聲音權益的重視,類似的案件應該還會出現。
此案辦結后,任相雨又接觸到不少這類聲音侵權的案件。任相雨告訴《方圓》記者:“這類聲音侵權案件的情況需要具體問題具體分析。在其他案件中有些配音師和相關公司簽署過AI授權的協議,在這種情況下配音師屬于對AI化授權知情,公司也就不承擔侵權責任。”
北京互聯網法院的判決結果表明,自然人的聲音受法律保護,未經許可擅自使用構成侵權。趙瑞罡說:“本案裁判秉承著保護自然人聲音權益的理念,通過個人裁判明確告知相關主體收集、使用自然人聲音作為數據進行AI化處理,需明確權利界限,獲得自然人的合法授權。本案中,殷女士在與被告簽署配音協議時,主要圍繞著明確有聲讀物的著作權所屬,而忽略了個人聲音權益的價值,其他聲音從業者在與他人簽訂協議時,要格外注意協議中是否包括授權他人AI化使用本人聲音的內容;與此同時,對于涉及聲音行業的企業來說,需要注意獲得授權,需要有合法的來源。”
殷女士表示,如今她的生活已經回歸了正軌,本案也在聲音行業里被廣泛討論?!叭缃褚恍┯新曌x物、音響制品開始使用AI聲音,希望這起案例能提高聲音從業者的版權意識。”殷女士說。
一位聲音從業者向《方圓》記者表示:“了解到這起案件后,今后與公司簽訂聲音授權合同時都會明確聲音的所屬權益,盡量避免這類糾紛。如果今后自己身上也發生了聲音權益遭侵害的情況,將會積極固定證據,邀請專業人員進行取證、鑒定等?!?/p>
如今,隨著互聯網和人工智能不斷發展,AI技術在各領域廣泛應用,由AI技術引發的侵害人格權糾紛日漸增多,AI技術若被不當使用,將嚴重損害自然人權益,此案的判決將會啟發大眾對AI技術在聲音領域應用的思考。
對此,趙瑞罡表示:“本案涉及AI技術在聲音領域的應用問題。面對新技術、新類型案件時,要有正確的價值判斷,需要通過裁判為其劃定應用邊界,不僅要全面尊重和保護自然人權益,更要引導技術向善發展?!?/p>
然而,面對聲音權益可能被侵害的情況,應該如何引導大眾保護聲音權益?趙瑞罡說:“一是需要加大聲音權益的保護力度。聲音作為關乎自然人人格的重要人格權益,AI技術服務開發者在使用自然人聲音時應當負擔起到更高的注意義務?!渡墒饺斯ぶ悄芊展芾頃盒修k法》第7條明確生成式人工智能服務提供者應當依法開展預訓練、優化訓練等訓練數據處理活動,要求必須使用具有合法來源的數據和基礎模型;涉及個人信息的,應當取得個人同意或者符合法律、行政法規規定的其他情形。二是需要加強AI技術供應方監管,在處理新技術帶來的法律問題時,應當秉持引導技術向善發展的司法態度,引導AI技術供應方正確對待自然人聲音權益。于AI技術而言,一方面,需要提高技術的安全性,強化數據來源的合法性、正當性、透明性,加強數據加密、訪問控制等。AI技術供應方應當與自然人依法簽訂授權協議,取得授權許可。另一方面,要建立更完善的監管機制,推動制定與AI生成聲音相關的行業標準和規范,明確AI技術在聲音處理方面的限制和應用邊界,AI生成聲音技術供應方應當清晰展示其生成聲音的過程和來源?!?/p>
盡管隨著AI生成聲音的語音流暢度、擬人化的程度越來越高,AI生成聲音為短視頻創作者開展創作帶來了便利,為文化市場繁榮提供技術支持,但由于聲音(聲紋)信息與個人安全直接關聯,大數據工具也能夠通過聲音分辨人的情緒,收集聲音數據用于分析個人信息。例如,通過對聲音的分析可以獲取大量的個人信息、辨別個人情緒或者偏好,可以說,聲音與個人的人格尊嚴、個人人身安全有直接關聯度。
中國人民大學法學院教授、博士生導師石佳友表示:“隨著新技術的不斷發展,聲音權益的保護將受到其所帶來的更多挑戰,如何在聲音權益與其他權益交織的復雜情形下平衡聲音權益的利用與保護,還需要在實踐中不斷加強研究?!保ㄎ闹猩姘溉藛T、卡通虛擬人物均為化名)