董淑芬
2024年新年伊始,OpenAI繼前兩年推出圖像生成系統DALL-E和聊天機器人ChatGPT之后,又推出了文字生成視頻模型Sora。Sora一問世就引發了全球范圍的廣泛關注和持續熱議,很多人將Sora視為AI領域的一個里程碑事件。比起“Sora實現了多少科技突破”這樣的高大上話題,公眾的關注更為生活化,主要集中在Sora可能會從哪些方面影響我們的生活方式,以及我們究竟應該如何面對Sora上?
作為一種具有廣泛市場價值的新興科技產品,Sora可能會對既有視頻制作相關市場產生沖擊
Sora可以根據文本指令、靜態圖像或者現成視頻,生成一個包含多個角色、特定運動和場景細節的60秒精美視頻,這會對現有視頻制作相關市場造成三個方面的影響。第一,Sora有可能導致部分相關從業人員失業。設計視頻方案,尋找視頻素材,制作精美視頻,原本需要大量的專業技術人員,如演員、導演、創意工作者和剪輯工作者等,現在完全可以交由Sora模型完成,這意味著部分就業機會的減少。第二,Sora有可能導致大量同類產品貶值。Sora已經被公認為行業內的最佳視頻創作工具,能夠像三體人打原始人那樣,吊打當前市面上最強的Pika和Runway?Gen-2等同類產品。作為庫存視頻生成公司代表的Adobe股價在Sora問世當天就下跌超過7%,更有人預測Sora可能搶走一部分抖音、快手旗下剪映、快影等工具的用戶。第三,Sora有可能促進整個視頻行業升級。Sora可以被不同的個體和行業使用,因而可能全面進入電影、教育、游戲、醫療保健和機器人等相關領域,但過低的技術門檻可能會導致Sora被過度使用,從而產生大量同質化嚴重且創意性不高的Sora視頻,這意味著未來的視頻內容生態將會更加豐富而復雜。
從總體上看,Sora既給視頻制作市場帶來了一次重大機遇,也帶來了一些嚴峻挑戰。無論是研發視頻制作技術還是使用視頻制作技術的行業和人員,都需要緊跟知識和技術的發展步伐,研發新產品,使用新技術,做視頻制作發展的引航員。同時,政府部門、行業協會也應該制定進一步合理規范視頻制作行業的相關政策和制度。
作為一種旨在理解和模擬真實世界的世界模型,Sora可能會對現有人類能力價值觀念產生沖擊
Sora的本質功能是理解和模擬真實的物理世界,幫助人類直接獲得自己想要的文字知識和視頻世界,這有可能深刻改變人類的能力價值觀。在現代世界里,知識和技術向來都被視為最重要的人類財富。而ChatGPT的問世,意味著知識的搜集和生成并不需要人類親自動手;Sora的出現,則意味著關于世界的視頻制作也不需要人類親自動手。借助ChatGPT和Sora模型,人類可以輕易獲得關于世界的知識和視頻。這就意味著,知識的生產和技術的掌握不再有從前那么重要了。擁有知識的多少,掌握技術的高低,也可能不再成為人生發展高度的決定因素。與此同時,提問能力的價值反而會相應提升,會不會找問題,能不能提問題,開始成為人工智能時代具有決定意義的重要能力。問題引領答案,人類的提問觸發了ChatGPT和Sora的答案生成。因此,問題的價值可能高于答案的價值,提問能力的價值可能高于答題能力的價值。
問題與答案的價值反轉,提問能力與答題能力的價值反轉,要求我們重新設計與之相關的社會制度。比如在教育制度上,我們應該減少以知識理解和知識記憶為核心的知識灌輸教育,相應增加以追問能力和思考能力為核心的能力提升教育。在法律制度上,我們應該在以知識生成作為知識產權標準的基礎上,增加知識提問在知識產權標準中的比重。在人力資源管理制度上,我們應該更重視員工產生創意的能力,而不僅僅是其知識儲備。
作為一種可以全面應用的新興科技工具,Sora可能會給各個生活領域帶來一些風險
一旦防范不當或不力,Sora有可能妨礙甚至破壞我們的幸福生活。全面應用Sora可能會產生三類主要風險:第一類是技術風險。Sora的技術本意是要理解和模擬真實的物理世界,但圖靈獎得主、“世界模型”的支持者楊立昆(Yann?LeCun)認為,Sora并不能真正理解物理世界,因而在模擬真實世界時會存在一些“幻覺問題”,如投籃時籃球在下落過程中爆炸、從沙子里挖出來的椅子直接飄起來等。這意味著Sora模型可能存在技術崩潰問題。第二類是倫理風險。訓練過程中的大數據投喂,可能存在隱私侵權或知識侵權問題;大量生成的視頻內容,可能存在種族主義、性別歧視和極端仇恨問題;被不同個體任意使用,還有可能存在深度偽造、以假亂真問題。第三類是安全風險。從個人安全看,有人可能會利用Sora制作虛假視頻以實施詐騙;從國家安全看,有些國家可能會利用Sora開展意識形態滲透工作和間諜工作。而OpenAI首席執行官薩姆·奧特曼最近承認,AI行業正面臨能源危機,Sora同樣可能帶來能源供應不足的風險。
Sora可能帶來嚴重風險,這就要求我們在面對新興科技時應該持謹慎態度,穩步發展。技術發展至上主義者要求不顧一切地全力發展科技,這很可能導致科技反噬人類的異化局面。AI技術不同于傳統科技,一旦其風險變成現實,人類可能就真的回天無力了。只有及早看清可能存在的嚴重風險,做好周密有效的應對措施,我們才能合理發展和應用Sora等新興科學技術。唯其如此,才能既充分享受Sora帶來的科技紅利,又有效規避可能存在的潛在危害。
作為一種具備高級智能能力的生成式人工智能,Sora可能會對人類身份認同產生相應沖擊
以ChatGPT和Sora為代表的生成式人工智能,能夠根據指令生成令人稱奇的有意義的文本和視頻圖像,這表明它們具有非常高級的生成智能。僅就功能而言,它們已經在一定程度上超越了、至少不亞于一般意義上的人類生成智能。一旦將ChatGPT和Sora模型與具有其他智能功能的智能體結合起來,就有可能實現通用人工智能(AGI),即“達到或者超過人類智能水平的人工智能”。正是在這個意義上,有專家稱Sora讓AGI的實現速度從10年縮減到了1年。面對日益接近甚至有可能超越人類智能的人工智能技術,信息哲學專家弗洛里迪認為,這是繼哥白尼日心說、生物進化論和潛意識理論之后的第四次革命,將會對人類獨特且優越的身份認同感產生重大沖擊。
對此,人類將不得不再一次轉向自身,追問兩個問題:第一,如果智能不構成人類的獨特優勢,那么人類引以為傲的、人之為人的特性到底是什么?第二,無論是否出現智能能力完全碾壓人類的超級智能,未來的人工智能體與人類究竟會是一種什么樣的關系?無論答案是什么,這兩個問題都會在一定程度上動搖人類現有的身份認同感,迫使人類重新思考自我的身份認同根基。
面對Sora對人格尊嚴和人類存亡的沖擊,人類或許應該更為警醒:如果高級智能不再是人類的專利,如果未來的人工智能可能戰勝人類智能,當下的我們究竟應該怎么辦?認為“超級智能終將統治人類”,確實顯得有點聳人聽聞;認為“人工智能永遠趕不上人類智能”,也同樣顯得有點盲目自大。在這個問題上,我們或許應該站在人類存在的意義和物種存亡的高度,看清楚我們在歷史發展重要關頭的責任、使命和擔當,引領人工智能技術走上真正的向善發展道路。
(作者單位:南京市社會科學院、江蘇省揚子江創新型城市研究院) 責任編輯:張念