
你是否曾想過,也許有一天,你要跟人工智能(AI)去爭搶自己的聲音?前不久,北京互聯網法院宣判了全國首例AI生成聲音人格權侵權案。此案中,配音師殷女士的聲音被AI處理生成了一款文本轉語音產品,該產品的下載量高達32.6億次,這給以“聲音”為業的她帶來了很大的影響。
幾乎同一時間,高齡老人鄭奶奶接到“孫子”的求救電話,說他因涉嫌強奸被公安機關抓獲了,需要交1萬元保釋金才能放出去。被嚇壞的鄭奶奶趕緊取錢交給“孫子”委托的朋友。鄭奶奶不知道的是,求救電話的另一頭并非她的孫子,熟悉的孫子聲音其實是犯罪團伙利用AI技術合成的。
境外詐騙團伙利用AI技術合成了山東人林小宇哥哥的臉和聲音,短短7秒的視頻通話,林小宇被騙走了30萬元。隨著AI技術的發展,利用AI生成聲音、圖像的現象日益常見,一些非法現象也隨之出現,有人未經他人授權使用AI技術盜換他們聲音進行商業牟利,也有人利用AI生成的聲音實施詐騙等犯罪行為。
作為新質生產力的代表,AI推廣應用是大勢所趨,也面臨著前所未有的機遇與挑戰。AI技術發展需要法律的保護、監督與規范,也需要制定技術研發的相關底線和紅線。對AI與個人信息、權利保護的關系,現行立法已有較充分規定,但在法律的有效落實方面尚需努力。司法機關對于利用AI從事違法犯罪活動的打擊愈加重視,檢察機關更是通過公益訴訟等方式加強對利用AI違法犯罪活動的預防和懲治,取得了一定效果。