摘" 要:隨著AI技術的迅猛發展,視頻生成大模型開始走入大眾視野。然而,其廣泛應用也帶來了全新的問題,包括技術、倫理、法律等重大挑戰。為應對其風險,各相關方需持續改進技術、推進倫理與社會責任建設、強化法律與政策監管、構建行業生態和風險預警體系。
關鍵詞:視頻生成大模型" " "人工智能" " "潛在風險" " "發展策略
2024年7月,黨的二十屆三中全會審議通過的《決定》提出“完善生成式人工智能發展和管理機制”。2025年3月,李強總理在政府工作報告中強調,持續推進“人工智能+”行動,支持大模型廣泛應用。當前,生成式人工智能(Generative AI)的應用邊界正在飛速拓寬。在生成文字、圖片的基礎上,視頻生成大模型也成為業內外關注的熱點。該技術被認為將顛覆視頻內容制作的現有格局和創作方式。在影視制作、廣告、社交媒體、教育等行業,視頻生成大模型正加速迭代,顯著提升了內容創作的效率和質量。
然而,視頻生成技術的應用也伴隨潛在的社會風險與倫理挑戰,對社會信任體系、法律法規、倫理道德的沖擊絕對不容忽視。習近平總書記在2019年9月國家網絡安全宣傳周上做出重要指示:“要堅持促進發展和依法管理相統一,既大力培育人工智能、物聯網、下一代通信網絡等新技術新應用,又積極利用法律法規和標準規范引導新技術應用。”深入分析視頻生成大模型的發展現狀、潛在風險及應對策略,不僅具有現實意義,也蘊含經濟和社會價值。
一、視頻生成大模型的發展現狀
視頻生成大模型依托深度學習技術,能夠實現高質量視頻內容的自動化生成。這類模型通過對海量視頻數據的學習和分析,能夠根據用戶提供的文本、圖像或其他形式的輸入信息,輸出符合特定需求的視頻內容。
近年來,視頻生成產業呈現出迅猛發展的態勢。2024年2月15日,OpenAI正式對外發布了Sora視頻生成模型。在演示案例中,Sora展示了對現實世界的高度仿真能力。憑借優秀的演示效果,Sora迅速吸引了業內外的廣泛關注。其他國際企業也紛紛推出了各自的產品,如Veo、Runway、Meta Movie Gen等。不可否認,國際企業在技術路徑和應用場景上進行了大量的有益探索。然而,由于文化背景、語境理解和用戶需求的差異,國外視頻模型尚難以滿足國內用戶的多樣化需求。
在此背景下,眾多國內企業迅速跟進,積極投身視頻生成大模型這一熱門賽道。2024年4月,生數科技與清華大學聯合發布Vidu模型,拉開了國產視頻大模型的序幕。字節跳動推出的“即夢AI”,在傳統視頻生成功能的基礎上,創新性地融入了故事模式,為用戶帶來了全新的體驗。快手推出的“可靈”,主打對物理世界的高精度模擬,進一步提升了生成內容的真實感。阿里的“尋光”、百度的UniVG及騰訊的混元模型也已經成為業內的重要力量。除了這些科技巨之外,國內的創業公司也來勢洶洶。例如,智譜AI推出的CogVideoX,已向用戶開放了“清影”視頻生成功能。從聊天機器人到智能體再到視頻生成,智譜華章實現了與OpenAI產品群的全面對標。
當下,視頻生成大模型在商業領域及非商業領域均取得一定進展。在商業端,視頻生成技術已然被廣泛應用于綜藝、影視制作中。以綜藝節目《歌手2024》為例,片頭視頻借助AI視頻生成技術,營造出了具有視覺沖擊力的呈現效果。在非商業端,視頻生成大模型極大地豐富了社交媒體及視頻平臺上的內容生態。例如,AI生成的《甄嬛傳》二創視頻不僅具有較高的傳播度,還激發了更多網友的創作熱情。
AI視頻生成產業目前正處于快速發展的階段。國內外企業在技術探索和應用落地方面齊頭并進。無論是商業變現,還是非商業化的創意表達,視頻生成技術都在不斷拓展邊界,逐步改變大眾的內容創作方式。2025年3月,國家網信辦發布《人工智能生成合成內容標識辦法》,提出對AI生成內容的詳細標識要求。該辦法能更好地幫助用戶辨別AI生成的視頻。這為我國視頻生成技術健康發展奠定了堅實的政策基礎。
二、視頻生成大模型的風險分析
(一)技術風險
數據質量會直接影響生成視頻內容的準確度與價值導向。此類模型都依賴巨量的訓練數據。而這些數據并非是完美的、無偏的。例如,某些族群或文化的內容占比過高或過低,均會導致生成結果帶有偏見。這種情況并非杞人憂天,而是已有現實案例加以印證。2016年3月,微軟公司推出的聊天機器人Tay就因訓練數據中包含偏見內容,在上線不到24小時內便“發表”了具有種族主義傾向的言論,被迫下線。此事件警示我們:數據質量不佳影響的不僅是使用體驗,還可能對社會公序良俗帶來沖擊。
資源消耗過大的問題也日益凸顯。以ChatGPT為例,每天運營需消耗超過50萬度電力,其用電量相當于1.7萬個美國家庭一天的用電量。而視頻生成大模型在算力消耗上更是有過之而無不及。這不僅對生態環境構成潛在威脅,還限制了中小企業和學術機構的參與。視頻大模型開發可能導致巨量的碳排放。若缺乏節能型算法的加持,AI視頻生成技術的長期發展將難以解決資源有限與環境友好的矛盾。
(二)倫理與社會風險
深度偽造技術濫用是最為突出的倫理風險之一。視頻生成技術能以高度逼真的方式模擬人類的面部表情、聲音語調甚至說話習慣。這導致該技術可能被用于侵犯隱私、誹謗、欺詐等不良用途。例如,2024年9月發生的“三只羊錄音門”事件經過警方調查發現,廣泛流傳的音視頻其實是犯罪嫌疑人王某某通過AI技術偽造的。這一事件引發了公眾對個人隱私和信息安全的深度擔憂。
AI生成視頻衍生出的虛假信息問題則可能加劇社會的不穩定。目前,視頻生成門檻正不斷降低。大量未經驗證的內容可能涌入社交或視頻平臺。公眾對影像真實性的判斷將變得愈發困難,甚至官方發布的權威信息也可能受到網民質疑。例如,2025年3月5日,新疆阿克蘇地區發生4.5級地震。震后僅3小時,某短視頻平臺便出現了由AI技術拼接的房屋坍塌圖像,并配以方言配音的“災民呼救”視頻。經核實,該視頻為造謠者利用AI拼接網絡舊圖,并添加與此次地震無關的音視頻,發布虛假信息以誤導公眾。此類虛假信息的傳播不僅容易引發公眾恐慌,也給社會治理帶來巨大挑戰。
(三)法律與監管風險
在眾多法律問題中,版權與知識產權的爭議最為突出。AI根據用戶提示詞(Prompt)生成的視頻是否屬于原創作品?其訓練階段是否侵犯了他人享有版權的素材?生成內容中涉及現實人物時,肖像權該如何界定?這些問題至今仍缺乏統一明確的法律解釋。特別是當相關內容被用于商業時,收益歸屬的問題會變得更加尖銳,甚至可能引發大量法律糾紛。
隱私保護的問題也日益嚴峻。AI目前已能夠生成極具欺騙性的虛假影像。這可能誘發身份偽造、惡意造謠、勒索等犯罪行為,潛藏著巨大的社會隱患。2024年6月20日,北京互聯網法院一審宣判了北京市首例“AI換臉”軟件侵權案件。該案例說明這項技術很可能正演變為侵犯隱私而牟利的工具。
監管層面的挑戰同樣不容小覷。目前,AI技術發展的步伐已遠超監管體系的響應速度。這使得傳統監管難以及時應對新的風險。而AI視頻生成具有天然的跨境屬性,影響范圍可能突破國界。一個國家某個企業或個人生成的深度偽造視頻,可能在另一國家引發一系列負面影響。跨國傳播的特征迫使各國在監管合作上必須達成更高層次的協同。全球監管合作的難度前所未有。
三、視頻生成大模型的風險應對與發展策略
(一)持續提升技術水平
企業在AI模型開發中應格外重視數據采集的多樣性。數據集的多樣化程度會直接影響模型的公平性。具體來說,企業應盡可能避免過度依賴單一或較小規模的數據源。以國內AI數據提供商海天瑞聲為例,該公司已能實現在全球進行多場景圖像、視頻采集,很大程度解決“數據孤島”難題。然而,僅擁有高質量、多樣化的數據集尚不足以完全解決AI公平性問題。企業研發部門還需對數據實施嚴格的質量把關,剔除可能導致偏見的樣本,從而在源頭上減少生成內容中的不公平問題。
開發節能型算法是另一個重要方向。隨著人工智能的爆發性增長,其對生態環境的壓力激增。“綠色AI”不是一句口號,而是未來的大趨勢。近期國產DeepSeek R1大模型的巨大成功,一定程度上就基于優秀節能的算法設計。DeepSeek的算法優化策略大大降低了訓練成本和能耗。由此可見,持續優化算法能效比,降低算力消耗,才是視頻生成產業行穩致遠、健康發展的重要保證。
(二)加強倫理與社會責任建設
強化開發者的倫理意識。在研發中,開發者不僅要在技術上考慮“能不能做”,也要從倫理角度思考“應不應該做”。技術團隊需始終堅持“技術向善”的原則,將社會責任納入技術開發的全生命周期。通過制定嚴格的倫理準則與行為守則,確保在技術創新的同時盡可能降低倫理風險。
建立健全內容生成與審核機制。為了防止AI視頻生成技術被濫用,企業必須在模型生成環節引入內容審核機制。例如,開發者可通過嵌入式算法在視頻生成過程中實時監測生成結果的合規性,并對可能引發爭議的內容進行自動過濾。然而,單純的機器算法仍不能完全識別視頻中的隱含內容。視頻平臺還需建立多層次的人工審核體系,確保生成結果符合社會價值觀與道德準則。
提升公眾對AI生成視頻的認知。普通網民(特別是中老年、青少年群體)對生成視頻的辨別能力相對有限。這為虛假信息傳播、詐騙勒索等違法犯罪行為提供了可乘之機。主流媒體、平臺公司有責任將AI科普納入公共教育體系,以提升公眾對AI生成視頻的認知。此舉既能降低新型違法犯罪的發生率,更能營造有利于視頻生成產業發展的輿論氛圍。
(三)強化法律、政策監管
AI技術的發展速度已遠超傳統法律法規的反應速度。制定視頻生成的專門法和行業標準勢在必行。特別是在涉及隱私權、肖像權、知識產權等方面,傳統條款均已不再適用。對于AI生成視頻,應實行強制標識制度,確保用戶擁有人工智能時代的“知情權”。
加強國際合作,推動全球監管體系的建立。由于視頻生成技術具有跨國界的特點,任何單一國家的監管都無法應對跨境生成內容帶來的復雜風險。我國需以更加開放的姿態參與國際合作,推動共建全球統一的監管機制。這不僅關乎國家的技術主權,也是全球數字治理的共同責任。我國在這一領域應更加有為,既要參與規則制定,也要輸出“中國標準”和“中國模式”。
(四)完善行業生態系統
AI視頻生成產業的健康發展離不開一個開放、合作的行業生態共同體。在技術發展日新月異的今天,行業內卷、惡性競爭不具備可持續性。推動建設AI視頻生態、實現共榮共贏已成為業內共識。
著力推動開放合作與技術共享。AI視頻生成技術的研發成本高昂。單一企業或機構都難以獨立承擔所有開發任務。只有通過建立開放的合作平臺,促進企業、高校、研究機構資源共享與技術交流,才能進一步加速行業技術的整體進步。龍頭企業應發揮引領作用,可具體采用“大企業提需求,小企業揭榜”的模式。
支持更多中小企業參與行業生態建設。目前,AI視頻大模型的研發仍由少數科技巨頭主導。而中小企業由于資金、技術限制,往往容易處于弱勢地位。但深度求索、月之暗面、智譜華章等企業的成功恰恰說明中小微企業在AI領域完全具備單點突破、后來居上的可能。下一步,各級政府和行業協會可通過政策扶持、資金資助等方式,更大力度幫助中小企業參與構建均衡的行業生態。
(五)建立風險評估與預警體系
建立全面的風險評估框架。相關監管機構應深入評估視頻生成技術在新聞傳播、教育、娛樂、廣告等不同應用場景中的潛在影響。基于不同風險,監管方可出臺分級分類的應對方案。
完善實時監測與預警機制。監管機構及企業完全可以依托人工智能本身識別算法的優勢,以AI監測AI,實現自動化、全天候的管理。例如,視頻平臺可通過模式識別算法檢測生成內容是否涉及敏感信息或違禁內容。一旦發現異常,系統應立即觸發預警機制,向平臺方、內容上傳者及其他用戶發送警示信息,并視情況采取視頻下架、賬戶限制等措施。
參考文獻:
[1]王紹源,楊東航.文生視頻大模型Sora賦能醫療衛生的倫理探討[J].中國醫學倫理學,2025(02):195-200.
[2]羅霄,趙伯祚.2024生成式AI圖像模型年報[J].藝術學研究,2025(01):145-156.
[3]黃玥,黃澤森.從Sora看生成式AI虛假信息引發的網絡輿情風險及應對治理策略[J].廣東公安科技,2024,32(04):12-14.
(作者單位:中共內江市委黨校)
責任編輯:康偉