電視臺在制作節目時,如果使用了人工智能技術,是不是也應該明確標示呢?
在電視技術創新上,2024年巴黎奧運會電視轉播應該說是人工智能普遍應用的一屆。除了類似美國NBC的人工智能數字人主播AI Michael,大部分人工智能應用,觀眾并不能直接感受或知悉。事實上,如果AI Michael沒在名字上直接標注人工智能標簽的話,觀眾仍然不會知道這個主持人是數字人。這帶來了一個有意思的話題——人工智能時代,電視臺應不應該在使用人工智能技術,特別是生成式人工智能技術時,將它“標示”出來。
在短視頻平臺,大量內容由人工智能生成,而且是用戶生成,平臺不得不在這些內容上標注“疑是人工智能生成”。對此,抖音曾發布關于人工智能生成內容的平臺規范暨行業倡議,以及《抖音關于人工智能生成內容標識的水印與元數據規范》。其中提到,創作者、主播、用戶、商家、廣告主等平臺生態參與者,在抖音應用生成式人工智能技術時,發布者應對人工智能生成內容進行顯著標示,幫助其他用戶區分虛擬與現實,特別是易混淆場景。此外,發布者需對人工智能生成內容產生的相應后果負責,無論內容是如何生成的;虛擬人需在平臺注冊,虛擬人技術使用者需實名認證。
那么,電視臺在制作節目時,如果使用了人工智能技術,是不是也應該明確標示呢?
目前的人工智能,包括生成式人工智能,以大模型為依托,像人類一樣“思考”“工作”,但很多時候,它的思維是錯誤的,甚至會帶有誤導性。這對于電視臺這樣的傳媒機構而言,無疑有著巨大風險。美國一家電視臺的法律顧問為了向電視臺員工證明這一風險,讓人工智能幫她寫了3份個人傳記,結果,居然有2份說她死于車禍。而人工智能撰寫個人傳記的口吻,以及寫法的“權威性”,又很容易讓人相信這是真的。該法律顧問以此實驗說明,當電視臺新聞部門大量使用生成式人工智能進行報道時,觀眾很難分辨其中真偽。這就不得不讓人警惕了。鑒于美國人工智能相關立法比較滯后,美國的電視臺呼吁有關單位在制作發布人工智能參與的節目時,要顯著標示。
本屆巴黎奧運會,人工智能也介入了電視節目策劃和鏡頭選擇,比如,觀眾更喜歡從哪個角度看籃球比賽中的投籃動作,轉播商就提供哪個角度。但這只是基于算法的一種簡單選擇,如此一來,觀眾的多元需求就會被忽視。這種情況下,節目制作方如果明確標示人工智能參與制作,觀眾應該更容易理解轉播時鏡頭選擇的動機。
在新聞報道中,目前人工智能介入的程度也比較深,許多新聞報道中的解釋性圖文動畫已經采用人工智能技術制作。比如,報道海底600米的生物分布情況,通常電視臺不會專門去拍600米深海的真實鏡頭,而是采用人工智能生成圖像;但是,此類內容如果不予以標示,觀眾大概率會認為這是600米深海的真實鏡頭。
生成式人工智能和其他新興技術具有成為創意產業中強大工具的潛力。然而,人工智能生成內容可能會扭曲或歪曲事實,缺乏背景信息,甚至創造令人信服但虛假的新聞。基于此,全球電視臺管理者都有共同傾向——“新聞要由真實人類創作”。在人工智能介入新聞創作這件事情上,爭議也比較大。因此,電視臺如果在新聞節目中使用人工智能,并進行明確標示,在某種層面也代表電視臺立場。
人工智能是技術發展的必然,電視臺應用人工智能也是大勢所趨,但在技術發展過程中,如何防止人工智能的濫用和人工智能誤導觀眾?除了明確人工智能標示,電視臺顯然需要做更多工作。美國各大電視臺都組建了“政策指導委員會”,定期召開會議,討論人工智能在電視臺應用發展中的新問題,給員工以明確指引。
近期,我國很多電視臺都陸續成立了“人工智能實驗室”,進行人工智能技術研發。在技術研發的同時,美國“政策指導委員會”的做法或值得我們借鑒,即建立由電視臺管理層組成的“人工智能政策指導委員會”,或由全國電視臺高層參與的“人工智能新聞政策指導委員會”等組織,有效指導人工智能技術在電視臺的應用及發展。