

摘要:ChatGPT、Sora等大模型的推出,標(biāo)志著生成式人工智能已成為AI研究領(lǐng)域的前沿?zé)狳c(diǎn)。AIGC在傳媒行業(yè)的應(yīng)用涵蓋內(nèi)容生成、信息推薦、信息審核等多個媒體傳播環(huán)節(jié)。文章在分析AIGC模型基礎(chǔ)網(wǎng)絡(luò)——包括Transformer模型、GAN模型、擴(kuò)散模型及混合專家模型——的基礎(chǔ)上,介紹了當(dāng)前具有典型代表性的若干系列大語言模型。進(jìn)一步結(jié)合傳媒行業(yè)的典型應(yīng)用場景,探討了AIGC在相關(guān)領(lǐng)域的應(yīng)用及其對傳媒行業(yè)的影響。最后,分析了AIGC給傳媒行業(yè)帶來的挑戰(zhàn),并展望了未來的發(fā)展方向。
關(guān)鍵詞:生成式人工智能;大語言模型;傳媒行業(yè);多模態(tài);機(jī)遇與挑戰(zhàn)
中圖分類號:TP399文獻(xiàn)標(biāo)識碼:A
文章編號:1009-3044(2025)15-0016-04
0引言
生成式人工智能(AIGC)是一種以生成新內(nèi)容為核心的人工智能技術(shù)[1],正逐漸改變內(nèi)容生產(chǎn)的方式。與專業(yè)生成內(nèi)容(PGC)和用戶生成內(nèi)容(UGC)相比,AIGC為媒體內(nèi)容生產(chǎn)提供了新的可能性,并與之互補(bǔ)[2-3]。大型預(yù)訓(xùn)練語言模型,特別是多模態(tài)學(xué)習(xí)與大型語言模型(LLM)的結(jié)合,推動了AIGC的快速發(fā)展[4-8]。AIGC技術(shù)已廣泛應(yīng)用于傳媒行業(yè)的各個環(huán)節(jié),深刻影響傳媒行業(yè)的多個方面[9]。文獻(xiàn)[10]以ChatGPT為切入點(diǎn),研究了生成式AI對傳媒行業(yè)的影響;文獻(xiàn)[11-12]則以Sora為切入點(diǎn),探討視頻類生成AI對新聞專業(yè)意識、新聞創(chuàng)作及新聞創(chuàng)新的影響。本文將深入分析AIGC技術(shù)基礎(chǔ),并探討其在傳媒行業(yè)的應(yīng)用、影響及未來發(fā)展趨勢。
1AIGC技術(shù)與大語言模型
其是深度學(xué)習(xí)算法的進(jìn)步AIGC技術(shù)的快速發(fā)展得益于人工智能算法。不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)構(gòu),尤成了深度學(xué)習(xí)算法的基礎(chǔ)。研究人員基于這些基礎(chǔ)模型架構(gòu),結(jié)合海量數(shù)據(jù)訓(xùn)練出多種預(yù)訓(xùn)練大語言模型,應(yīng)用領(lǐng)域的專家則根據(jù)具體需求進(jìn)行調(diào)整,構(gòu)建相應(yīng)的應(yīng)用服務(wù)。
如圖1所示,AIGC在傳媒行業(yè)的應(yīng)用涉及基礎(chǔ)模型架構(gòu)、大語言模型、應(yīng)用服務(wù)及模型應(yīng)用等多個層次。AIGC的基礎(chǔ)模型架構(gòu)包括CNN、RNN、GAN、Transformer架構(gòu)和擴(kuò)散模型等,以及綜合這些模型的MoE架構(gòu)。大語言模型層以基礎(chǔ)模型為基礎(chǔ),通過通用數(shù)據(jù)訓(xùn)練,具備解決通用應(yīng)用領(lǐng)域問題的能力。但針對具體應(yīng)用領(lǐng)域問題,需要通過領(lǐng)域微調(diào)或指令微調(diào)滿足特定需求,同時提供相應(yīng)的領(lǐng)域功能服務(wù)。領(lǐng)域應(yīng)用則綜合多種功能服務(wù)以滿足客戶的終端需求。
1.1AIGC的基礎(chǔ)網(wǎng)絡(luò)架構(gòu)
型包括AIGCTransformer基礎(chǔ)網(wǎng)絡(luò)架構(gòu)種類繁多、擴(kuò)散模型、生成對抗網(wǎng)絡(luò)等,典型的生成式模。
Transformer[13]架構(gòu)由谷歌于2017年提出,該模型通過引入自注意力和交叉注意力機(jī)制,實(shí)現(xiàn)了在無監(jiān)督環(huán)境下的自學(xué)習(xí),重點(diǎn)學(xué)習(xí)輸入序列內(nèi)部、輸入序列與輸出序列之間以及輸出序列內(nèi)部token間的相關(guān)性,并通過多頭注意力機(jī)制準(zhǔn)確捕捉單詞間的多重關(guān)系和細(xì)微差別。
DiffusionModel[14]是一種基于熵增原理的生成模型,分為正向擴(kuò)散過程和反向逆擴(kuò)散過程。正向擴(kuò)散過程是向圖像逐步添加噪聲的過程,即從無到有,直到生成純噪聲圖像;反向逆擴(kuò)散過程則通過學(xué)習(xí)如何從噪聲圖像恢復(fù)到原始圖像。
生成對抗網(wǎng)絡(luò)(GAN)[15]是一種基于生成器與判別器之間對抗博弈進(jìn)行訓(xùn)練的深度學(xué)習(xí)模型,由IanGoodfellow于2014年提出。生成器負(fù)責(zé)生成新的數(shù)據(jù)樣本以欺騙判別器,判別器則負(fù)責(zé)區(qū)分樣本是來自訓(xùn)練數(shù)據(jù)還是生成器產(chǎn)生。
MOE[16](MixtureofExperts,混合專家架構(gòu))實(shí)現(xiàn)了對多個專家系統(tǒng)的稀疏連接。大型語言模型通過添加MOE層,結(jié)合多個專家模型的結(jié)果,以提升模型性能。MOE層由多個專家模型和一個門控(gate)網(wǎng)絡(luò)組成。
各種生成架構(gòu)各具優(yōu)缺點(diǎn),詳見表1。
1.2預(yù)訓(xùn)練大語言模型
預(yù)訓(xùn)練大語言模型是基于一種或多種網(wǎng)絡(luò)架構(gòu),利用海量數(shù)據(jù)集經(jīng)過預(yù)訓(xùn)練而獲得的具備內(nèi)容生成能力的模型。此類模型通常以對話形式生成用戶所需內(nèi)容,適用于多種任務(wù)。各大語言模型比較如表2所示。在傳媒領(lǐng)域,應(yīng)用較為廣泛的主要模型包括以下幾種。
1)GPT系列。由OpenAI推出的生成式語言模型系列,目前影響力最大,包含多個版本:GPT-1、GPT-2、GPT-3及GPT-4等。
2)LLaMA系列。MetaAI公司發(fā)布的系列大型語言模型。2023年7月發(fā)布了開源版Llama2,2024年4月19日推出了MetaLlama3系列。
3)Gemini。GoogleDeepMind于2023年12月6日發(fā)布的多模態(tài)大模型,能同時接受文本、圖像、音頻、視頻和代碼五種類型輸入,具備理解并生成主流編程語言(如Python、Java、C++)高質(zhì)量代碼的能力,并配備全面的安全性評估機(jī)制。
4)Sora。由OpenAI開發(fā)的基于文本描述生成視頻的語言模型。Sora利用GPT的文本生成能力,將用戶簡短提示轉(zhuǎn)化成更詳細(xì)的標(biāo)題,指導(dǎo)視頻生成過程,實(shí)現(xiàn)對用戶指示的精確跟隨,產(chǎn)出高質(zhì)量視頻內(nèi)容。
5)文心,核心技術(shù)為創(chuàng)新的知識增強(qiáng)技術(shù)(ERNIE)。百度自主研發(fā)的產(chǎn)業(yè)級知識增。文心經(jīng)歷了從單模態(tài)到跨模態(tài)、從通用基礎(chǔ)大模型到跨領(lǐng)域、跨行業(yè)的持續(xù)創(chuàng)新突破。
6)GLM大模型。由清華大學(xué)KEG實(shí)驗(yàn)室推出的預(yù)訓(xùn)練模型,融合了BERT和GPT的優(yōu)勢,采用基于自回歸的空白填充策略改進(jìn)GPT模型,兼具多種預(yù)訓(xùn)練方式的優(yōu)點(diǎn)。
2AIGC與傳媒行業(yè)
2.1AIGC在傳媒行業(yè)中的應(yīng)用
AIGC的應(yīng)用涉及傳媒行業(yè)的各個方面,可以輔助進(jìn)行主題策劃、內(nèi)容采寫等;可以與數(shù)字虛擬人技術(shù)、智能語音合成技術(shù)組合,形成人機(jī)自然交互的應(yīng)用;可以與AIGC的繪圖、視頻、編劇等技術(shù)結(jié)合,形成內(nèi)容創(chuàng)作的新方法;也可以根據(jù)用戶交互記錄,完成內(nèi)容推薦;還可以根據(jù)相關(guān)的法律法規(guī)對內(nèi)容進(jìn)行安全性審核。AIGC在傳媒行業(yè)的不同子領(lǐng)域中均得到了廣泛應(yīng)用。
2.1.1AIGC在新聞媒體中的應(yīng)用
在新聞媒體中,AIGC通過由用戶給定特殊的提示詞來形成特定的新聞視角,根據(jù)預(yù)設(shè)的新聞模板和實(shí)時的網(wǎng)絡(luò)數(shù)據(jù)自動生成新聞稿件。AIGC的圖像生成能力及多模態(tài)下的文本轉(zhuǎn)圖像技術(shù)可以自動地為新聞稿件配上相關(guān)插圖,從而豐富整個新聞內(nèi)容。此外,AIGC能夠基于數(shù)據(jù)分析自動生成社交媒體內(nèi)容,包括發(fā)帖和互動回復(fù),從而實(shí)時響應(yīng)用戶需求,提高用戶參與度。AIGC還可以為視頻內(nèi)容實(shí)時生成字幕,并提供多語言翻譯,使得跨語言傳播更便捷。
上海廣播電視臺的智媒魔方Scube是較早的AIGC應(yīng)用,集成了多模態(tài)素材識別,支持自動生成稿件、視頻自動剪輯等AI能力。在2024年全國兩會報道中,該系統(tǒng)所提供的現(xiàn)場實(shí)況內(nèi)容整理、新媒體端內(nèi)容制作播出、新聞稿件生成、現(xiàn)場實(shí)況內(nèi)容翻譯、指定視頻片段提取、視頻字幕生成等全套新聞制播服務(wù)能力,節(jié)約了新聞報道的前后期團(tuán)隊搜集處理素材所需的時間和制作成本。中國移動北京公司與人民日報合作建設(shè)的“AIGC編輯部”于2024年兩會前夕上線,也為快速的兩會報道提供支持。
AIGC技術(shù)在新聞內(nèi)容審核方面同樣發(fā)揮著重要作用。例如,通過語音識別和語義理解技術(shù),AIGC技術(shù)可以檢測和識別多模態(tài)內(nèi)容中的敏感信息和暴力內(nèi)容,從而對違規(guī)的文本、圖片以及視頻進(jìn)行標(biāo)記和刪除。人民日報社的AIGC-X是我國首個AIGC內(nèi)容檢測工具,具備檢測AI技術(shù)生成的假新聞、內(nèi)容抄襲以及垃圾郵件的能力。騰訊云的AI審核系統(tǒng)被廣泛應(yīng)用于騰訊旗下的新聞媒體及其他內(nèi)容平臺。
2.1.2AIGC在影視制作中的應(yīng)用
從影視工業(yè)化的視角來看,AIGC確實(shí)能夠憑借強(qiáng)大的內(nèi)容生產(chǎn)效率為影視工業(yè)帶來“質(zhì)變級”的降本增效。在劇本創(chuàng)作和故事生成階段,AIGC主要運(yùn)用其文本生成功能,生成具有一定參考價值的劇本段落甚至完整劇本,特別是在情節(jié)演進(jìn)和角色對話生成方面為創(chuàng)作者提供一定便利。據(jù)報道,漫威在制作《洛基》第二季時,利用AIGC工具輔助編劇團(tuán)隊進(jìn)行創(chuàng)意啟發(fā)。在內(nèi)容創(chuàng)作階段,AIGC可以完成從劇本到分鏡的自動拆解與生成,從而縮短劇集的籌備周期。《三星堆:未來啟示錄》是由博納影業(yè)聯(lián)合抖音出品的短劇,該短劇是通過借助即夢AI平臺,利用其文生圖、文生視頻、圖生視頻等功能創(chuàng)作完成的。在角色生成階段,AIGC可以根據(jù)數(shù)據(jù)和大量訓(xùn)練,依據(jù)給定的文本描述、圖片和視頻等智能地生成包括角色動作、場景布置和特效效果等的畫面。在《指環(huán)王》系列重制過程中,特效團(tuán)隊利用AIGC來輔助生成一些宏大場景的特效草圖。比如對于剛鐸城的戰(zhàn)爭場景,AIGC根據(jù)已有的建筑模型、地形數(shù)據(jù)和戰(zhàn)爭元素(如士兵、攻城器械等),生成了特效場景的初步框架。
AIGC還可以幫助簡化電影和視頻游戲的音軌制作過程。它會利用AI生成算法,在用戶的提示下,幫助用戶創(chuàng)作各種音樂流派的音樂。在電影《星際穿越》的配樂制作過程中,AIGC幫助作曲家確定音樂風(fēng)格。制作團(tuán)隊將電影的主題、場景特點(diǎn)等信息輸入AIGC,AIGC會生成一些音樂風(fēng)格建議,如在穿越蟲洞時應(yīng)該使用宏大、帶有科幻感的管弦樂風(fēng)格,在主角回憶家人時可以采用抒情、帶有弦樂和鋼琴交織的風(fēng)格。這些建議為作曲家漢斯·季默提供了靈感,幫助他更好地把握音樂與電影情節(jié)的契合度,創(chuàng)作出令人震撼的配樂。
2.1.3AIGC在廣播電視中的應(yīng)用
近兩年,虛擬主播成為廣電領(lǐng)域的熱門話題。AIGC技術(shù)通過對大量人類主播的視頻和音頻數(shù)據(jù)進(jìn)行標(biāo)注、分析與學(xué)習(xí),生成具有相同音色語音及流暢動作的虛擬主播,展現(xiàn)可替代真人主播的信息傳達(dá)效果。虛擬主播可以隨時隨地出現(xiàn)在直播、電視節(jié)目等各種媒體中,不受時間和空間限制,為人們提供有趣、實(shí)用、便捷的新型媒體形象。較為成熟的虛擬主播包括中央廣播電視總臺的“小小撒”和“AI王冠”,北京廣播電視臺的“時間小妮”、東方衛(wèi)視的“申雅”、浙江衛(wèi)視的“谷小雨”等。虛擬人主播能夠?qū)崟r進(jìn)行新聞播報和信息傳遞,24小時不間斷工作,在重大新聞事件和緊急報道中發(fā)揮重要作用。
奈飛(Netflix)等流媒體平臺廣泛收集用戶的觀看歷史、評分、瀏覽行為等數(shù)據(jù),并應(yīng)用AIGC技術(shù)進(jìn)行個性化推薦。喜馬拉雅等音頻廣播平臺同樣通過分析用戶收聽的廣播節(jié)目類型(如歷史故事、有聲小說等)、收聽時長、收聽時間段等數(shù)據(jù),利用AIGC技術(shù)進(jìn)行廣播節(jié)目推薦。
2.2AIGC對傳媒行業(yè)的影響
2.2.1AIGC顛覆產(chǎn)品創(chuàng)新基本模式
就內(nèi)容生產(chǎn)方式而言,AIGC是繼PGC(專業(yè)生產(chǎn)內(nèi)容)、UGC(用戶生產(chǎn)內(nèi)容)和PUGC(專業(yè)用戶生產(chǎn)內(nèi)容)之后的一種全新方式。AIGC在提示詞指導(dǎo)下,融合上下文語義理解,能生成更加符合人類需求甚至更具創(chuàng)意的內(nèi)容。人工智能正在將軟件從信息檢索、集成與呈現(xiàn)的工具,轉(zhuǎn)變?yōu)閮?nèi)容的合作創(chuàng)造者甚至獨(dú)立創(chuàng)造者,形成信息整合、知識生產(chǎn)和內(nèi)容創(chuàng)作的新模式。AIGC使非專業(yè)創(chuàng)作者或缺乏特定技能的人員也能進(jìn)行內(nèi)容創(chuàng)作。如B站部分UP主利用AIGC生成視頻腳本、創(chuàng)意點(diǎn)子,甚至輔助制作特效,使更多人有機(jī)會參與內(nèi)容創(chuàng)作。
相關(guān)內(nèi)容并進(jìn)行作答AIGC可以基于相關(guān)主題,加速將不同時空的信息堆疊,即時連接、搜索、整合,通過構(gòu)筑新的上下文關(guān)系呈現(xiàn)在新的時空中,打破傳統(tǒng)新聞生產(chǎn)的線性模式,改變新聞的中心化生產(chǎn)方式。AIGC還可幫助內(nèi)容生產(chǎn)者快速收集和整理信息,例如通過分析和篩選大量新聞源,提供有價值的線索和選題,大幅提升媒體生產(chǎn)效率。
2.2.2AIGC升級信息獲取主要方式
以關(guān)鍵詞為基礎(chǔ)的搜索引擎長期以來是用戶獲取信息的主要手段。以ChatGPT為代表的生成式大模型徹底顛覆了這一信息獲取方式。生成式大模型將大量知識存儲于參數(shù)化模型中,能夠直接根據(jù)用戶的問題或提示詞生成答案,更便捷地滿足用戶信息需求,但因返回信息為模型生成,可能存在虛假、陳舊或錯誤信息。
基于AIGC技術(shù)的即時互動功能,用戶可與AI進(jìn)行對話,實(shí)時獲取所需信息。這種互動式信息獲取方式不僅提升了信息獲取速度,還增強(qiáng)了用戶與信息的互動性。精準(zhǔn)推送相關(guān)內(nèi)容AIGC技術(shù)還可以通過深度挖掘用戶行為數(shù)據(jù)。媒體平臺通過AI算法將用戶的,瀏覽歷史、閱讀習(xí)慣、點(diǎn)贊評論等行為數(shù)據(jù)與興趣偏好相關(guān)聯(lián),從而推薦最符合用戶需求的內(nèi)容。
2.2.3AIGC重構(gòu)傳媒業(yè)底層運(yùn)行邏輯
傳媒內(nèi)容生產(chǎn)中“人”的主體性被弱化,人與技術(shù)形成共生關(guān)系,對人的能動性提出更高要求。人需主動在人機(jī)連接和交互過程中強(qiáng)化對技術(shù)的控制。AIGC的發(fā)展促使媒體內(nèi)容價值需要重新評估。其能夠快速挖掘、分析和整合海量數(shù)據(jù)和信息,提取有價值的內(nèi)容與知識,為傳媒行業(yè)提供更豐富的素材和更深入的見解。例如,財經(jīng)媒體可利用AIGC分析大量財經(jīng)數(shù)據(jù)和市場信息,生成專業(yè)的財經(jīng)報道與投資建議。AIGC通過學(xué)習(xí)和模仿大量優(yōu)秀作品,生成高質(zhì)量內(nèi)容,同時融入創(chuàng)新元素,推動內(nèi)容創(chuàng)新和發(fā)展。
媒體內(nèi)容生成在與人交互過程中,依據(jù)人需求和反饋即時完成并實(shí)時播報,不受其他主體限制,直接面向個體用戶進(jìn)行信息傳播。該過程取消中介環(huán)節(jié),大大縮短傳統(tǒng)媒體傳播層級,將信息傳播從中心輻射式、圈層式轉(zhuǎn)變?yōu)槎喙?jié)點(diǎn)網(wǎng)絡(luò)式傳播,實(shí)現(xiàn)去中心化傳播。
傳播AIGC,因此媒體的真實(shí)性和可靠性尤為重要使人人可參與媒體生產(chǎn),并通過社交網(wǎng)絡(luò)。媒體從業(yè)人員將從傳統(tǒng)內(nèi)容生產(chǎn)者逐步轉(zhuǎn)變?yōu)椤皟?nèi)容審核者”,以保證媒體內(nèi)容的準(zhǔn)確性和質(zhì)量。
2.2.4AIGC改變了傳媒從業(yè)人員需求
AIGC技術(shù)應(yīng)用推動傳媒行業(yè)對技術(shù)人才需求大幅增加,為從業(yè)人員職業(yè)發(fā)展提供更多可能性和選擇。在AIGC時代,傳媒行業(yè)需要既懂傳媒業(yè)務(wù)又懂技術(shù)的復(fù)合型人才。傳媒從業(yè)人員需了解AIGC算法和模型,結(jié)合傳統(tǒng)傳媒業(yè)務(wù)支持,借助AIGC拓展創(chuàng)作領(lǐng)域,從而完成整個傳媒業(yè)務(wù)。
另一方面,隨著AIGC技術(shù)普及與應(yīng)用,傳媒行業(yè)競爭愈發(fā)激烈。因AIGC使用成本持續(xù)降低,傳媒行業(yè)底層重復(fù)性工作將逐步由AIGC替代,人員必須不斷學(xué)習(xí)并掌握新技術(shù)和知識,以適應(yīng)行業(yè)快速變化。能快速適應(yīng)AIGC技術(shù)變革、不斷創(chuàng)新突破的人員將脫穎而出,獲得更多職業(yè)發(fā)展機(jī)會和更高薪酬待遇。
3AIGC帶來的挑戰(zhàn)
AIGC本身是一把“雙刃劍”。在生成大量高質(zhì)量內(nèi)容的同時,也帶來了大量虛假信息。大量研究正試圖通過LLM的自我糾錯機(jī)制來解決大模型的“幻覺”。但迄今為止,大模型仍無法保證其生成內(nèi)容的正確性與真實(shí)性。另外,AIGC技術(shù)的普及可能導(dǎo)致內(nèi)容生產(chǎn)門檻降低,市場上內(nèi)容數(shù)量激增,但質(zhì)量參差不齊,容易出現(xiàn)內(nèi)容同質(zhì)化現(xiàn)象。這將加劇市場競爭,影響內(nèi)容的傳播效果和商業(yè)價值。而技術(shù)自身的局限與使用者的私利訴求產(chǎn)生“合謀”,可能污染輿論生態(tài),對個體認(rèn)知和社會輿論造成負(fù)面影響。
LLM背后是越來越多的數(shù)據(jù)為模型預(yù)訓(xùn)練提供支持。人工智能模型對數(shù)據(jù)的日益依賴,導(dǎo)致人們擔(dān)憂:未來幾代計算機(jī)科學(xué)家將耗盡數(shù)據(jù),無法進(jìn)一步擴(kuò)大和改進(jìn)系統(tǒng)。同時,AIGC模型訓(xùn)練數(shù)據(jù)中存在的偏見可能導(dǎo)致模型生成帶有偏見和歧視的內(nèi)容。
此外,類似ChatGPT之類的聊天機(jī)器人在與人交互過程中收集大量隱私數(shù)據(jù),AIGC在利用這些數(shù)據(jù)為用戶提供精準(zhǔn)推送的同時,也可能用這些數(shù)據(jù)“綁架”用戶需求。如何保證數(shù)據(jù)安全,防止數(shù)據(jù)濫用,是AIGC面臨的另一個重要問題。現(xiàn)有法律法規(guī)可能無法完全適應(yīng)AIGC技術(shù)發(fā)展,導(dǎo)致在內(nèi)容生成、版權(quán)保護(hù)、數(shù)據(jù)隱私等方面存在法律空白或模糊地帶。這需要政府和相關(guān)部門加快立法進(jìn)程,完善相關(guān)法律法規(guī)。
最后,模型開發(fā)人員很少公布其人工智能系統(tǒng)的能源開銷,導(dǎo)致研究人員對此過于樂觀估計。實(shí)際上,大模型的訓(xùn)練和使用都需要消耗大量能源,而且不論從哪個角度看,AIGC中大模型訓(xùn)練造成的能源開銷邊際效應(yīng)已越來越小。
4結(jié)束語
面對洶涌而來的AIGC技術(shù),我們需要理解并掌握技術(shù)本身,學(xué)會更好地駕馭和利用AIGC服務(wù)傳媒行業(yè),同時盡量避免AIGC帶來的各種不利影響。LLM與Agent、RAG等相關(guān)技術(shù)的集成,將有助于解決復(fù)雜問題和領(lǐng)域特有的實(shí)時更新內(nèi)容,成為未來該領(lǐng)域的重點(diǎn)發(fā)展方向之一。
生成式人工智能正在不斷影響并改變我們的生活,傳媒行業(yè)所關(guān)注的媒體生產(chǎn)、傳播、審核以及評估等諸多環(huán)節(jié)受到的影響尤為顯著,AIGC正從根本上改變傳媒行業(yè)的底層邏輯。AIGC媒體應(yīng)用標(biāo)準(zhǔn)聯(lián)盟等組織將推動AIGC應(yīng)用標(biāo)準(zhǔn)的制定與推廣,確保AIGC技術(shù)在傳媒行業(yè)的廣泛應(yīng)用和規(guī)范化發(fā)展。
隨著AIGC技術(shù)的應(yīng)用,數(shù)據(jù)安全問題將更加突出。行業(yè)將加強(qiáng)對數(shù)據(jù)安全的保護(hù),防止數(shù)據(jù)泄露和濫用,維護(hù)社會穩(wěn)定和公共安全。數(shù)據(jù)將成為傳媒新質(zhì)生產(chǎn)力的核心要素,政策將推動數(shù)據(jù)資產(chǎn)化與產(chǎn)品化進(jìn)程,拓展數(shù)字文化消費(fèi)與應(yīng)用場景,為傳媒產(chǎn)業(yè)升級注入新動能。
參考文獻(xiàn):
[1]WUJY,GANWS,CHENZF,etal.AI-generatedcontent(AIGC):asurvey[EB/OL].[2024-05-30].https://arxiv.org/abs/2304.06632v1.
[2]TUZZ,WANGYL,BIRKBECKN,etal.UGC-VQA:bench?markingblindvideoqualityassessmentforusergeneratedcon?tent[J].IEEETransactionsonImageProcessing,2021(30):4449-4464.
[3]SUNW,MINXK,LUW,etal.AdeeplearningbasedNo referencequalityassessmentmodelforUGCvideos[C]//Pro?ceedingsofthe30thACMInternationalConferenceonMulti?media.Lisboa,Portugal:ACM,2022:856-865.
[4]HEYQ,LIUZY,CHENJY,etal.LLMsmeetmultimodalgenerationandediting:asurvey[EB/OL].[2024-05-30].https://arxiv.org/abs/2405.19334v2.
[5]ZHANGCS,ZHANGCN,ZHANGMC,etal.Text-to-imagediffusionmodelsingenerativeAI:asurvey[EB/OL].[2024-05-30].https://arxiv.org/abs/2303.07909v3.
[6]CROITORUFA,HONDRUV,IONESCURT,etal.Diffusionmodelsinvision:asurvey[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2023,45(9):10850-10869.
[7]SHIZF,PENGSD,XUYH,etal.Deepgenerativemodelson3Drepresentations:asurvey[EB/OL].[2024-05-30].https://arxiv.org/abs/2210.15663v3.
[8]ZHANGCS,ZHANGCN,ZHENGS,etal.Asurveyonaudiodiffusionmodels:texttospeechsynthesisandenhancementingenerativeAI[EB/OL].[2024-05-30].https://arxiv.org/abs/2303.13336v2.
[9]MASLEJN,F(xiàn)ATTORINIL,PERRAULTR,etal.TheAIIndex2024AnnualReport[R].Stanford,CA:AIIndexSteeringCom?mittee,InstituteforHuman-CenteredAI,StanfordUniversity,2024.
[10]張銳,劉靖晗.以ChatGPT看生成式人工智能對傳媒業(yè)的影響[J].聲屏世界,2023(10):5-8.
[11]陳力丹,榮雪燕.從ChatGPT到Sora:生成式AI浪潮下強(qiáng)化新聞專業(yè)意識的再思考[J].新聞愛好者,2024(4):4-8.
[12]陳昌鳳.生成式人工智能與新聞傳播:實(shí)務(wù)賦能、理念挑戰(zhàn)與角色重塑[J].新聞界,2023(6):4-12.
[13]VASWANIA,SHAZEERN,PARMARN,etal.Attentionisallyouneed[J].AdvancesinNeuralInformationProcessingSystems,2017(30):5998-6008.
[14]HOJ,JAINA,ABBEELP.Denoisingdiffusionprobabilisticmodels[J].AdvancesinNeuralInformationProcessingSys?tems,2020(33):6840-6851.
[15]GOODFELLOWIJ,POUGET-ABADIEJ,MIRZAM,etal.Generativeadversarialnetworks[EB/OL].[2024-05-30].https://arxiv.org/abs/1406.2661v1.
[16]SHAZEERN,MIRHOSEINIA,MAZIARZK,etal.Outra?geouslylargeneuralnetworks:thesparsely-gatedmixture-of expertslayer[EB/OL].[2024-05-30].https://arxiv.org/abs/1701.06538v1.
【通聯(lián)編輯:唐一東】