



【摘" "要】隨著人工智能技術的發展,生成式人工智能正逐步重塑媒體行業格局。本文通過對生成式人工智能基礎技術的思考,發現現有生成式人工智能存在“時間缺失”、“事實缺失”和“道德缺失”等問題。本文旨在通過對技術哲學的思考,結合對未來媒介生態的展望,提出一種基于生成式人工智能的具有“數據真實”“語義真實”“價值真實”的媒介生態。
【關鍵詞】生成式人工智能;技術哲學;媒介生態
生成式人工智能(Generative Artificial Intelligence,簡稱GAI)的核心能力在于創造新的內容,而不僅僅是對已知模式的重復應用。它的原理基于深度學習,通過分析大量的數據學習數據的分布和模式,然后利用這些學習到的模式生成新的數據。從新聞寫作到視頻制作,從社交媒體到個性化推薦,生成式人工智能的應用已經無處不在,它以驚人的速度生成海量信息,改變著我們的媒介生態。
一、生成式人工智能的基礎技術思考
傳統的文本生成模式通常需要大量腦力與體力支持,而隨著生成式人工智能技術的飛速發展,點擊“一鍵生成”似乎成為唯一的動作。智能生成的內容從只能生成文字到可生成圖片和視頻,“人工智能替代敘事”或將成為可能。為更好地研究生成式人工智能,本文先從技術哲學的角度對其基礎技術應用進行探討。
(一)技術驅動:生成式人工智能的基礎模型
因人工智能生成模型具有可通約性,這里主要以視頻文本的智能生成模型作為案例。目前視覺文本的智能生成模型大部分以GAN生成對抗網絡、VAE變分自編碼器、Transformer自注意力機制、CNN卷積神經網絡為主。
1.GAN生成對抗網絡
生成對抗網絡(Generative Adversarial Networks,GAN)的核心思想是利用兩個神經網絡進行對抗學習,一個是生成器(Generator),一個是判別器(Discriminator)。生成器的任務是生成類似于真實數據的樣本,判別器的任務是判斷輸入的樣本是真實的還是生成的。兩個網絡相互競爭,最終達到一個平衡點,使得生成器能夠生成高質量的樣本,判別器難以區分真假。
2.VAE變分自編碼器
VAE(Variational Auto-Encoder)是一種從變分和貝葉斯理論出發,在自編碼器上進行修改得到的生成模型,它的編碼器有兩個,并且其編碼器并不直接生成隱變量,而是生成了隱變量Z的兩個參數μ和σ。VAE的目標是假設一個隱變量Z的分布,構建一個從Z到目標數據X的模型,即構建X=g(Z),使得出的目標數據與真實數據的概率分布相近。
3.CNN卷積神經網絡
卷積神經網絡(Convolutional Neural Networks,CNN)通過分層的方式對輸入進行學習和預測,能夠有效地提取出輸入內容的特征,適用于處理圖像、語音、自然語言處理等多種任務。同時還可以通過循環神經網絡(Recurrent Neural Networks,簡稱RNN)進行時間建模。RNN是一種能夠處理序列數據的神經網絡,它可以捕捉到視頻序列中的時間依賴關系。通過將CNN和RNN結合,可以對視頻序列進行建模和預測。
4.Transformer自注意力機制
Transformer自注意力機制(Self-Attention)是Transformer模型的核心組成部分,主要的序列轉導模型是基于復雜的循環或卷積神經網絡,其中包括一個編碼器和一個解碼器,性能最好的模型還通過一種注意機制將編碼器和解碼器連接起來。[1]目前市面上已經出現的Sora視頻生成軟件,其主要運用的是Transformer模型。Sora的誕生,標志著在大數據的滋養下,基礎語言模型已經具備了實際應用的能力。或如喻國明老師所說,Sora并不是單純的視頻生成模型,也不只是視頻行業顛覆者,而是“世界的模擬器”——它打開了一條通往模擬現實可感的物理世界的有效路徑。自此,生成式人工智能可以擬合出無限豐富的符合真實物理定律的數字孿生世界,走進人類社會未來發展的場景。[2]
(二)技術哲學:生成式人工智能的內容探究
技術哲學認為,技術的本質是人類為了滿足自身需求而創造的工具和手段。在生成式人工智能的應用中,技術不僅僅是工具和手段,更是一種對人類思維方式和創造力的拓展,媒體內容也不再僅僅是對現實世界的反映和描述,而是可以通過算法和數據生成全新的、與現實世界無關的內容。這種內容既可以是虛構、想象的,也可以是真實、客觀的,但它們都是基于算法和數據的計算和生成,因此具有一種獨特的“技術真實性”。但這種“技術真實性”既不同于傳統的“事實真實性”,也不同于“價值真實性”,它并不是對現實世界的客觀反映,具有一種相對性和主觀性。
1.“時間缺失”:生成內容的結構探究
對于生成式人工智能而言,時間被簡化為代碼序列,因此其產出的內容在時間結構上顯得缺乏深度和層次。相較之下,現實世界是由過去、現在和未來三個時間維度交織而成的復雜系統,正如史鐵生所描述的那樣:“我站在今天這個時點上,回首過去,展望未來,過去和未來在這個瞬間相互交織,使得過去和未來都彌漫著現在的氣息。”這種三重時間維度賦予了現實世界的各種事件豐富的結構和內涵。
生成式人工智能僅僅擁有客觀時間觀念,缺乏主觀時間和內在時間意識,這是技術的局限,因此難以獨立地展現事件的全貌和事件間的復雜關系,更難以構建出引人入勝的情節。正如斯蒂格勒認為技術的時間性本質不再是連續、承繼和演進性的“生生不息”,而是充滿裂隙、斷層和接續性的“向死而生”。[3]
2.“事實缺失”:生成內容的語境探究
生成式人工智能所生成的內容,常常游走于真實與虛構的邊緣。這種特性使得其生成的內容具有一種獨特的魅力,既能夠呈現出與現實世界截然不同的景象,又能夠保持與現實世界某種程度的聯系。具體地講,生成式人工智能是建立在數據、算力和算法基礎上實現對于包括人在內的世界的認知和理解的,進而它是基于這種理解實現內容生成與制作的智能系統。[4]
(1)敘事語境的缺失
菲爾斯基指出,在文本與語境的二分法中,語境往往被人們看作是一只箱子或容器,緊緊地將單個的文本包裹于內,而這個箱子則被賦予了一系列的屬性:經濟結構、政治思想、文化心態等,并對包裹于其中的文本發號施令、指定游戲規則,箱子中的文本則只能表示服從。[5]對媒體來說,生成式人工智能在無敘事語境的狀態下進行內容生產,更像是打開“潘多拉的魔盒”。在海德格爾看來,技術絕不僅是工具,更是本體論層面人和物的關系體現。他將技術視為真理的發生方式,也即解蔽(去蔽)。解蔽是海德格爾技術觀的出發點,他認為傳統技術是認識論發展和進步的體現,誰建造一個房子或一只船,或鍛造一個銀盤,他就在各個方面揭示著那種待產出的作品。[6]當敘事語境喪失,技術則成為建造“盒子”的主體,產出的作品將無法控制。
(2)敘事符號的失真
生成式人工智能的生產本身就伴隨著敘事符號的重新建構,這種生產活動不單單是對符號的重新解構,亦是文本內語境研究的主要線索。但在生成式人工智能的語言模型中,人工智能無法對符號進行語境化的建構,亦無法找尋其本真的敘事意義,所以在符號解構后人工智能對敘事符號的使用存在失真現象。符號在解構后也成了 “無本源的”,這為符號的解讀提供了另一種開放性,卻也給媒體生產內容帶來不確定性,對事件輿論導向的可控性也大幅降低。
3.“道德缺失”:生成內容的情感探究
(1)“先天的偏見”——對情感的無差別復制
生成式人工智能在訓練過程中,會不可避免地接觸到大量的已有數據。這些數據可能來源于各種渠道,包括社交媒體、新聞報道、學術研究等。這些數據源本身就可能帶有某種偏見,例如對特定群體的刻板印象、對某些話題的過度關注等。當生成式人工智能從這些數據中學習時,它可能會無意識地復制這些情感偏見,甚至在某些情況下強化它們,使生成式人工智能帶有了創造性偏見。
(2)“后天的失控”——對價值的無差別建構
以Sora為例,在生成式人工智能的內容生成過程中,由于缺乏人類的道德判斷和價值引導,其對于價值的建構可能變得無差別和混亂。生成式人工智能可能無法準確理解和區分不同文化、社會和個體之間的價值觀差異。這種價值觀的無差別處理可能引發文化沖突和誤解,甚至無意中冒犯某些群體或個體。這種無差別的價值建構可能導致一些倫理和道德上的困境,甚至對社會產生負面影響。
二、基于生成式人工智能的媒介生態暢想
在媒介生態中,生成式人工智能的應用將使得媒體內容更加豐富和多元,但同時也面臨著一些挑戰和問題。以ChatGPT等為代表的生成式人工智能平臺在極大程度上改變了新聞生產、活動策劃等工作,憑借其內容生成的高效性、高普遍性觸及個體、組織、社會的實踐邊界,根據個體提示的工程能力差異決定內容優劣。生成式人工智能平臺通過聚合網絡節點信息,促進傳播生態降本增效,挖掘用戶所處的場景價值,構建“人-內容-物”的價值連接。[7]但同時,也因為“時間缺失”“事實缺失”和“道德缺失”使得生成式人工智能的內容存在較多問題。
(一)“可解釋性”:基于數據真實打造媒介世界
數據是生成式人工智能的基礎,而數據的真實性則是決定生成內容質量的關鍵因素。在媒介生態中,我們需要建立嚴格的數據采集、處理和使用機制,確保所使用的數據真實可靠、來源清晰。同時,我們也需要加強對數據質量的監控和評估,及時發現和糾正數據中存在的問題和偏差。
李宏毅教授提出一個觀點:深度神經網絡常被視作黑盒,因此不易獲得信任。反觀我們周遭,眾多生成式人工智能如人腦般存在,盡管我們對人腦的運作機制了解有限,但仍會信賴他人所作決策。但對于同為黑盒的深度神經網絡,為何我們難以建立信任?從用戶角度探討,他們對生成式人工智能的內部運作機制、所使用的數據、構建的用戶畫像以及運作原理等細節知之甚少。算法本身又以其高度技術復雜性、專業性、隱匿性將自身與用戶隔絕開,這就意味著除了少數算法研發人員外,其余人員無法了解算法的設計初衷與目的。[8]這種信息的不透明性,導致用戶在面對人工智能生成的內容時,往往首先產生懷疑而非信任。
(二)“魯棒性”:基于語義真實打造鏡像世界
“魯棒性”在計算機科學中,指的是系統在面臨干擾或異常輸入時,依然能夠維持其穩定性與準確性的能力。在生成式人工智能的語境中,“魯棒性”可以理解為算法在面對多樣化的場景、語境及用戶需求時,仍能產出高質量、符合內容語義真實的能力。在媒介生態中,語義真實是指生成式人工智能所產出的內容,必須能夠精準地映射出現實世界中的語義信息和語境內涵。
當我們談論生成式人工智能的“魯棒性”時,我們實際上是在強調其在不同語境和場景下的穩定性和準確性。一個具有強大“魯棒性”的生成式人工智能系統,是能夠應對各種復雜的環境變化和用戶需求,始終保持高質量的內容輸出的。這種能力對于構建鏡像世界至關重要,因為它確保了虛擬空間中的“影子”能夠真實、準確地反映現實世界的各種細節和特征。
(三)“公平性”:基于價值真實打造受眾世界
價值真實是指生成式人工智能所創造的內容符合社會價值觀、道德規范和法律法規,真正為受眾帶來有價值的信息和體驗。眾所周知,生成式人工智能的底層邏輯是數據學習,也就是我們給AI足夠多的數據,AI能給我們擬合出一個非常理想的決策邊界,但在這個過程中模型可能會學習到一些具有偏見的內容,從而輸出違反倫理道德的決策,這種決策的形成對任何群體都是一種價值觀的打擊。在媒介生態中,這種偏見極端且致命,它的出現也意味著現實價值的被打破。
為確保其輸出的內容不受任何偏見或歧視的影響,首先,我們需要建立嚴格的數據收集和處理機制,確保所使用的數據不帶有任何偏見或歧視。這包括對數據進行預處理,去除可能存在的歧視性特征,以及在模型訓練過程中使用平衡的數據集。其次,關注模型的設計和優化。在模型的設計階段,應充分考慮各種可能的社會和文化因素。在模型優化階段,采用一些技術手段來減少模型的偏見,例如使用對抗性訓練、引入正則化項等方法。最后,建立透明的評估機制,對生成式人工智能的輸出進行公正、客觀地評價。這包括對生成內容的準確性、公正性和價值性進行評估,以及對算法本身的公正性和透明度進行評估。通過這些評估機制,及時發現并糾正生成式人工智能在價值觀方面存在的問題。
三、結語
無論是數據真實、語義真實還是價值真實,都是生成式人工智能在內容生成和傳播過程中必須堅守的底線。可解釋性、魯棒性和公平性則是生成式人工智能必需貫徹的原則。可解釋性保障數據的真實,建立用戶信任;魯棒性則以應對各種復雜的環境變化來解決用戶需求;公平性確保生成式人工智能所輸出的內容不受任何偏見或歧視的影響,以真實的價值來維護社會的公平與正義。在數字化時代,媒介生態的健康發展對于社會的穩定與進步具有重要意義。生成式人工智能作為未來媒介生態的重要組成部分,其發展和應用必須遵循可解釋性、魯棒性和公平性的原則,才能真正實現媒介生態的健康發展。
注釋:
[1]VaswaniA,ShazeerN,ParmarN,etal(2017).Attentionisallyouneed[J].Advancesinneuralinformationprocessingsystems,2017,
30.
[2][4]喻國明.Sora作為場景媒介:AI演進的強大升維與傳播革命[J].青年記者,2024(04):47-51.
[3]王慶節.技術與時間:從海德格爾到斯蒂格勒[J].哲學分析,2022,13(05):142-150+199.
[5]和磊,王杰.“語境”考論[J].廣州大學學報(社會科學版),2024,23(03):47-56.
[6]吳志遠,杜駿飛.海德格爾技術哲學對新媒介研究的現實意義[J].當代傳播,2016(06):78-80.
[7]喻國明,李釩.內容范式的革命:生成式AI浪潮下內容生產的生態級演進[J].新聞界,2023(07):23-30
[8]喻國明,李釩.生成式AI浪潮下平臺型媒體的規則重構、價值邏輯與生態劇變[J].蘇州大學學報(哲學社會科學版),2024,45(01):167-175.
參考文獻:
[1]喻國明,李釩.Chat GPT浪潮與智能互聯時代的全新開啟[J].教育傳媒研究,2023(03):47-52.
[2]李澤西,黃進.生成式人工智能與國家安全治理:發展趨勢、潛在風險與應對思路[J].四川行政學院學報,2024(05):42-50.
[3]胡泳.AI視頻的興起:Sora類生成式平臺的可能性與風險[J].傳媒觀察,2024(04):5-19.
(作者:賈倩,西北民族大學新聞傳播學院副教授,研究方向:影視傳媒;王寶國,西北民族大學新聞傳播學院 2023 級廣播電視專碩研究生;房欣悅,西北民族大學新聞傳播學院 2023 級廣播電視專碩研究生)
責編:梅興慧