近來,人工智能領域又迎來重磅產品。OpenAI公司發布的人工智能模型Sora,可根據文字生成逼真的AI視頻,引發了全世界的關注和討論。
Sora是一款文生視頻模型,生成的視頻精度、仿真度極高,足以“以假亂真”。在Sora生成的視頻中,有清澈靈動的眼眸,有活潑可愛的萌寵,有神秘莫測的海底世界,有熙熙攘攘的夏日街區,有充滿科技感的現代都市……由于Sora生成的視頻過于“好看”,業界內外無比驚嘆,對它好評如潮。盡管目前Sora生成的視頻時間不長,短期內無法對影視工業等行業造成影響,但足以沖擊短視頻行業、新聞行業等。

Sora最令人震撼的并非制作出了“好看”的視頻,而是制作出了逼真的、符合人們認知常識的內容。這意味著它能深入學習和了解很多元素之間的互動關系。比如,在Sora生成的視頻里,有一只貓去撓床上的主人,主人一翻身,枕頭就被壓皺了——關鍵就在枕頭。如果是用計算機特效制作枕頭的褶皺,絕對是一個噩夢——要用什么函數才能描述枕頭的褶皺?這種逼真的效果很難呈現。事實上,ChatGPT的問世,解決了機器和人之間相互理解和交互的問題,因為它理解了語言——語言是人類獨有的,理解人類語言意味著非常大的進步。Sora則比理解人類語言又進步了一個層次。
這一觀點在OpenAI公司對Sora的定義中也得到了證實。OpenAI公司并未將其作為單純的文生視頻模型,而是視作“世界模擬器”,這意味著Sora還能夠不斷“進化”去理解世界、理解事物因果關系,在未來能夠生成更長的視頻,以及具備構建物理世界通用模擬器的能力。
但是,文生視頻模型作為一項新興技術,存在一定的潛在風險。首先,它可能被濫用,比如生成假新聞或者誤導性內容,對社會秩序構成威脅。其次,由于它生成的視頻可能與現實世界難以區分,可能導致公眾對真實性的認知產生混淆。最后,它的決策過程不透明,可能會導致責任歸屬問題,當生成的視頻出現問題時,難以確定責任方。要想規避這些風險,還需要科技、法律、監管等各方面共同努力,最終實現“科技向善”的目的。