【摘 要】以人類知識生產模式為參照,探討當下生成式AI在知識生產中的優勢及局限性。研究發現目前生成式AI的知識生產具備多模態、全數據和結構化特征,但也存在數據偏見、平庸的專業主義等問題。為了優化生成式AI的知識生產能力,需在數據規范實踐、AI監管創新、AI開發和使用等方面進行改進,以促進“知識共創,人機共生”理想智能協作圖景的實現。
【關 鍵 詞】人工智能;生成式AI;傳播內容;人機關系;智能協作
【作者單位】喻國明,北京師范大學新聞傳播學院,北京師范大學傳播創新與未來媒體實驗平臺;林昱彤,北京師范大學新聞傳播學院,北京師范大學傳播創新與未來媒體實驗平臺;李昀玥,北京師范大學新聞傳播學院,北京師范大學傳播創新與未來媒體實驗平臺。
【中圖分類號】G253 【文獻標識碼】A 【DOI】10.16491/j.cnki.cn45-1216/g2.2024.14.004
一、生成式AI是傳播領域的新型內容質生產力
“人類會被AI替代嗎?”隨著近年來人工智能技術在應用層面井噴式的更新迭代,被AI替代的職業性危機已成為眾多行業不得不思考的未來風險,亦深化至日常生活中人們對自身能力反省式的“捫心自問”。OpenAI公司的現任CTO (首席技術官)Mira Murati在采訪中直言,隨著AI技術的發展,一些創意性的工作可能會消失。這樣的情況已經發生,比如,國外科技媒體的老板Miller用ChatGPT取代了60名員工,因為AI完全能夠撰寫和編輯文章[1]。
這一職業替代性危機的出現離不開生成式AI這一人工智能技術類型的普及化應用。與先前只能識別或分類現有內容的第一代、第二代判別式AI不同,以ChatGPT為代表的生成式AI開辟了“知識的生產”這一機器智能新方向,知識生產能力彰顯了生成式AI和傳統AI的本質不同[2]。
這一生成新知識的能力激發了人類對AI能力的重視和隱憂,人們對先前判別式AI的使用感知更多是輔助性、工具性的,并不會將其視為獨立的知識生產主體。而生成式AI的出現打破了這一安全線,在2024年宣布的第170回芥川文學獎中,作家九段理江透露自己的獲獎作品《東京都同情塔》是由AI輔助完成的,作品里有5%的文字直接摘錄于生成式AI,這成為AI具備知識生產能力的又一次有力證明[3]。
在寫作之外,生成式AI憑借多模態的內容生成特點,在不同領域的知識生產都有亮眼表現,催生了針對用戶側的垂類產品。比如,語言大模型ChatGPT、Claude、智譜清言、文心一言,文生圖領域的stable diffusion、 mid-journey,視頻生成領域的Sora,音樂生成領域的Suno,編程領域的CodeGeeX等。各垂類生成式AI大模型通過數據的學習訓練,掌握特定領域的知識生產特點,在知識生產過程中以“新常人”的身份與人類共存[4]。
如果只是在技術邏輯的框架下理解生成式AI,我們可能會局限于人機之間的能力比較,從而忽略這項技術更深層次的社會意義和影響。我們必須看到,生成式AI釋放的巨大潛力并非單純來自其對判別式AI技術原理的革新,更重要的是其作為新型內容生產力給整個內容生產和分發系統帶來了根本性變革。因此,這項技術的社會意義本質在于,它是一種能夠實現人類傳播理性要素與非理性要素交織的新型內容生產力。
生成式AI作為一種新型內容生產力,主要體現在它從“新”和“型”兩個層面對傳統生產力進行了革新。
所謂“新”,指生成式AI不同于傳統(全部是由人來完成)的內容生產力,其實現了內容領域的關鍵性技術突破。回顧歷史,我們可以觀察到內容產業經歷了三個不同的生產力時代,正如羅雪爾所闡述的,勞動生產力時代、資本生產力時代以及科技生產力時代[5]。在勞動生產力時代,內容的創造和傳播主要依靠個體的手工勞作,依靠民間那些“講故事的人”和“采風者”來記錄、分享。隨著印刷技術興起,內容產業進入了以資本為主的生產力時代,專業的新聞機構和企業成為產業的主導者,內容渠道等資本的積累和集中也推動了現代大眾傳播的發展。進入現代社會,科技生產力成為推動經濟和社會進步的主要動力,高科技和高效率的人工智能技術給內容產業帶來了新的生產力。例如,生成式AI的出現使得高質量的人機協同內容創造成為可能,該技術將內容生產與分發剝離成體力勞動與腦力勞動兩個維度,將重復性的編輯和校對任務交給了機器,將需要人類創造力(包括觀察能力、思維能力、想象能力等)的任務交還給人類,從而最大限度地發揮人類的智慧。與傳統以人為主的內容生產方式相比,生成式AI開啟了人機協作的新可能,也促使內容創作者從側重體力和技能的角色轉變為更加注重知識和創新導向的角色。
所謂“型”,強調的是生成式AI能通過關鍵性技術的突破,與現有的勞動者、勞動資料和勞動對象結合,孕育出一種新型的、更為強勁的創新驅動力。生成式AI給內容產業帶來創新驅動力,源于它能夠促成以機器智能為代表的傳播理性要素和以人類智能為代表的傳播非理性要素的交織融合,推動內容業態整體演化、升級。具體來說,傳統的判別式AI依賴人類輸入簡單的線性計算模型來執行任務,它需要先從訓練數據中提取解決問題的模型,再應用這一模型識別新的對象,遵循從基礎模型到微觀對象的對應邏輯[6]。一旦構建了問題解決的基礎模型,便脫離了人類的直接介入——除非采用新數據重新訓練其基礎模型。因此,判別式AI主要是基于技術計算邏輯建立的,只有清晰指示的理性要素能被機器捕捉并集成融入模型。生成式AI則采取不同的路徑,它在人類逐步向機器描述微觀對象特征的過程中進行自我調整,最終形成能完成任務的計算模型,這是從微觀對象到基礎模型的邏輯。生成式AI的操作必須建立在與人類的持續互動、“標注”、“微調”之上,人們可以通過指令的精細化不斷影響技術模型。在這個過程中,人類關系、情感等非理性要素會在人機交互過程中被卷入計算模型中,傳統被認為無法被機器識別的、模糊的關系和情感因素都會在人類的標注反饋與機器的適應學習中被技術所內化,并表現在其生成內容中。因此,我們可以在ChatGPT生成的文本中感受到“情商”與“情感張力”。從該角度來說,生成式AI是一種融合了人類非理性邏輯與機器理性邏輯的新型內容生產力,它不僅拓展了人類的理性思維,還延伸了人類的情感聯系。依托概率計算的技術邏輯和用戶反饋中的人類情感邏輯,生成式AI使得所有傳播的理性與非理性要素在海量數據和強大算力的支持下自然“涌現”,實現了內容生產力從量變到質變的躍升。
現在,AI不再僅僅是知識生產的輔助工具,在人類的引導下,它們還具備成為知識生產獨立主體的條件。生成式AI的加入沖擊和重構了人類原有的知識生產方式,促使知識生產模式進階到以人機協同為特征的“知識生產模式IV”,其在知識生產傳播格局中的角色和功能兼具現實關照與學術討論的價值[7]。本研究將以人類知識生產模式為參照,總結當下生成式AI作為新質生產力在知識生產領域的優勢與局限,嘗試探討人類如何在人機共創的知識生產新模式中發揮主觀能動性,規制、引導生成式AI成為優化知識生產效率、豐富知識圖譜版圖的共創者,推進知識加速進程。
二、生成式AI知識生產的“能”與“不能”
1.多模態:生成式AI知識生產的“類人化實踐”
多模態的內容生成是生成式AI區別于判別式AI的辨別性特征,也是其進行“類人”甚至“勝人”知識生產的技術基礎。多模態AI大模型可以把文本、圖像、聲音、視頻等各種感知模態結合起來,以更全面、綜合的方式理解和生成信息,最終完成更豐富的任務和應用[8]。在多模態AI系統中,各種類型的數據通常被轉換成一種共同的表現形式,以便模型能夠有效地處理和整合信息。例如,文本可以轉換為詞向量,圖像可以轉換為像素或特征向量,聲音可以轉換為聲譜圖等。通過數據轉換處理后,數據以新形式被輸入共享模型中,該模型模仿先前訓練數據的知識整合方式將新數據進行整合,最終目標是執行各種知識生產任務,如文本到圖像的生成、圖像描述生成、語音識別和視頻理解等。
這種多模態的信息處理方式和人類大腦高度相似,生成式AI模仿學習人類在大腦中理解多種形態信息并進行互相轉換的能力,如繪圖AI軟件Mid-journey需要具備圖像與文本信息轉換的能力,視頻AI軟件Sora需要具備視頻與文本信息轉換的能力,GPT-4這類大型多模態預訓練模型則需要同時具有文本、圖像、聲音等多種模態內容的處理和互轉能力。2024年5月新上線的GPT-4o版本更是在多模態信息的速度和靈活性上展現出更高水準。在GPT-4o的官方發布會上,演示者在視頻通話中讓 ChatGPT 猜測自己的情緒,當他露出笑臉后,ChatGPT 立即用語音回復:“你看起來很開心,笑容燦爛,還有點激動。”
這一涉及實時視頻的多模態信息轉換過程要比以往的圖文信息互轉更加困難,英偉達首席 AI 科學家Jim Fan認為當前實時語音助手(如 Siri)面臨的困境是很難創造出沉浸式的使用體驗,這是由于用戶在和 AI 對話時需要經歷三個信息轉化階段。其一,語音識別(ASR):將用戶輸入的音頻轉換為文本;其二,大模型內部文本處理:根據輸入文本形成用以回答的輸出文本;其三,語音合成(TTS):將輸出文本轉換為音頻輸出。在之前的實時語音AI中,這一復雜的異模態信息轉化過程耗時較久,如以往版本的ChatGPT由于依賴三個模型獨立工作,語音模式平均延遲時間為 2.8 秒(GPT-3.5)和 5.4 秒 (GPT-4),這一延遲會影響用戶與AI交互時的“類人”體驗,讓用戶脫離沉浸式對話環境。而最新的GPT-4o 的音頻輸入響應時間最短為232毫秒,平均響應時間為320毫秒[9]。這是由于GPT-4o 實現了在單一模型中完成多模態信息的轉換,無須分多個模型“流水線式”地進行信息轉換,生成式AI在多模態信息互轉的質量和效率上得到了質的提升,這將為其進一步接近“類人”的知識生產方式和能力提供技術基礎。
2.全數據:不只是“全面”而已
在數據輸入層面,生成式AI具有全數據的特征。AI業界認為,算法、算力與數據是支撐大模型發展的三大基石[8]。生成式AI之所以具備知識生產能力,甚至給人以“超越人類”的危機感,是由于其訓練數據量遠超人腦的信息載量。更全面、更高質量的數據是生成式AI自我更新迭代、提高實現知識生產能力的基礎,在訓練過程中使用大量、多樣化和全面的數據集以提高模型的泛化能力和性能,體現了生成式AI訓練過程的“全數據策略”。
“全數據”首先是字面意義上的“全”,即生成式AI的訓練數據量要足夠大。訓練數據量直接決定大模型能否準確理解用戶輸入信息、生成合理回應,數據量的增加可使模型接觸更多的訓練樣本和語言背景,幫助模型學習更多的語言規則、結構和常見表達方式。在實際應用中,只有數據足夠大的模型才能更加準確地理解用戶的意圖,并生成更具邏輯和連貫性的回應。當一個生成式AI模型的架構固定時,增加訓練數據量可以直接提高模型的性能,使模型更好地捕捉到不同語境下的細微差別和上下文的相關性,從而提升模型的表現力和生成能力。阿里研究院分析總結了GPT模型的訓練數據變化:GPT-1是由4.8G未過濾原始數據訓練,GPT-2是由經人類過濾后的40G數據訓練,GPT-3是由從45T原始數據中過濾的570G 數據訓練,GPT-4則是在該基礎上又加入了高質量的人類標注[8]。數據量的增加是GPT系列AI模型性能提高的根本原因之一。
以GPT-3為例,它使用的45TB訓練數據集包括數十億的單詞和數萬億的字符,涵蓋了各種領域的數據,如570GB的數據來自互聯網的大規模文本數據庫。其訓練數據集包括三個部分:一是Web數據,OpenAI團隊采集了大量的互聯網文本數據,包括網頁、論壇帖子、新聞文章等;二是對話數據,包括電影對話、電視劇劇本、推特對話等,涵蓋了各種語言風格和領域的對話情境;三是書籍和文學作品,包括小說、散文、詩歌等,使其具備豐富的語言模式和文化背景。海量語料庫使得生成式AI的知識儲備量超越了任何單一人類所能達到的淵博程度,使其生產的知識具有顯著的全面性、互聯性和跨領域的特點。由于訓練數據涵蓋廣泛的主題和領域,大模型在回答用戶問題時可以調用對應的背景信息和相關知識,整合來自不同領域的信息,提供全面、多角度、跨領域的答案。
但“全數據”不僅需要數據量大而全,還需要考慮數據的質量、多樣性和公平性等問題。計算機和大數據領域有個概念Garbage in,Garbage out,從字面上看,意思是如果輸入垃圾數據,則將輸出垃圾數據,即輸出質量是由輸入質量決定的[10]。盡管生成式AI普遍通過海量數據訓練,具備強大的知識生產能力,但其數據來源和處理過程仍帶有不可避免的選擇性偏見,數據規模大并不保障其多樣性和公平性,這種數據片面性是目前生成式AI在全數據時代仍需突破的局限。
當用于訓練大模型的數據中包含了人類社會固有的偏見(如種族歧視、性別歧視)時,這些偏見會在模型訓練、信息處理和知識生產的整個流程中被留存和放大。彭博社展開的研究顯示,文生圖大模型Stable Diffusion往往在高績效職業的圖像中低估女性,而在低薪工人和罪犯的圖像中高估深色皮膚的人,體現出模型內含的性別歧視和種族歧視[11]。這可能與數據來源密切相關,當某些語言和文化背景的數據相對較少時,AI模型對這些文化背景的知識則可能欠缺或存在偏見。如ChatGPT等國外模型以英語數據為主要訓練數據,那么在英語世界中占據主要地位的意識形態和偏見更容易被保留。此外,數據標注過程中也可能產生偏見,標注者的個人理解會影響標注質量,從而影響模型的學習效果。
對比完全由人工規則控制的傳統人類專家系統來說,大語言模型的訓練數據集就像一個“黑箱”。這意味著人類首次面臨一個難以完全理解和解釋的知識生產過程,知識生成的代碼來源和算法依據無法做到全部有跡可循,代碼中細微的邏輯錯誤或步驟冗余也難以精確識別。由此生成的復雜知識難以驗證其真實準確性,也難以細致全面地進行過程監管。從用戶端來看,大語言模型在前臺輸出的信息看似合理且具有高度的連貫性,其數據的片面性則隱蔽于后臺,人們容易廣泛接受大模型生產的知識,而忽視其潛在的偏見和錯誤。當用戶將機器生成的知識進行再傳播時,這些有錯誤或雜質的內容會再次進入數據庫,其包含的錯誤或者偏見信息會被不斷放大,這是當下生成式AI在數據層需要進一步解決的難題。
3.結構化:“平庸的專業主義”
在知識輸出層面,生成式AI生成的內容具有結構化的特性,這也是其生成知識給人以專業感的原因之一。在海量數據的基礎上,生成式AI大模型采用了基于變分推理和貝葉斯優化的復雜算法,以實現對數據的高度抽象和概括,不僅能夠處理結構化和非結構化的數據,還能在多維度和多層次上進行數據的解析和解釋[12]。因此,生成式AI具備理解上下文、開展多輪對話的能力,能夠進行語義理解和推理,從而根據用戶的需求生成具備連貫性和邏輯性的知識。
基于此,生成式大模型生產的知識并不是對人類知識的簡單復現,而是知識的重新組合,能夠在人類知識的基礎上進行擴展和創新。借鑒圖書館學的文獻分階視角,知識可以分為兩階:一階知識生產指原創性知識,包括探索、發現和創造出新知識的廣義的科學研究活動;二階知識生產指對一階知識進行整理和加工,如將其系統化、體系化、通俗化等以利于傳播[13]。生成式AI的知識生產則創造了“三階知識”這一概念,即以一階和二階知識為基礎,進行模仿、預測和推論,通過再消化、再組織、xJkB/kB7b5Ek1UJ2IHUtQu5VU12I0HBH+m8j/KYVwiA=再利用形成新的知識。這一過程不是簡單的重復,而是通過復雜的算法和模型,結合上下文和邏輯進行深度分析后實現的。生成式AI創造的三階知識經過了數據上的計算和結構上的整合,因此具備較穩定的知識質量和較規范的知識格式,具有較強的專業性,可以為人類知識創造提供高效率的工具和啟發性內容。然而,生成式AI的知識生產內容以現有的數據和模式為基礎,生成的知識具備組合性而不具有創造性。相比一階知識生產的“原創之新”,其生產的三階知識只能算得上“表述之新”,即只能實現“有中生有”,而無法完成“從無到有”的創造。
從生成式AI的知識學習方式來看,其能力源自對人類的學習模仿,而人類的知識和思維中有相當一部分是難以作為數據被人工智能學習的。邁克爾·波蘭尼最先在哲學領域提出知識類型的劃分,將人類知識分為顯性知識和隱性知識。顯性知識是指可以被明確表達、記錄和傳播的知識。這類知識通常以文字、圖表、公式等形式存在,易于共享和傳遞,可以作為結構化的數據被人工智能學習。隱性知識是指難以明確表達和傳遞的知識,這類知識通常包含個人的經驗、洞察力、直覺和技能,往往依賴于個人的實踐和理解。隱性知識難以通過語言或文字完全傳達,更無法被量化或編碼成結構化信息,其傳遞往往依靠社會化過程,需要通過長期的觀察、模仿和實踐來掌握。因此,人工智能難以掌握人類社會的隱性知識,而創意、靈感、直覺等促進人類知識創新的知識往往是隱性的。從根本上看,人工智能的邏輯是“向數據學習”,而人類能從更廣泛的感官體驗如觸覺、味覺、嗅覺以及視覺和聽覺中學習,可以自己去感知和識別信息,與他人交流和探究信息,其根本知識來源是實踐[14]。人工智能在知識輸入方面的局限進一步限制了其知識輸出的創造性。
從生成式AI的知識生產方式來看,大語言模型對人類語言和知識的模仿生成,并不是以語言語法的方式,更不是以理解意義的方式,而是以統計的方式。可以說,人工智能生產的知識是“計算的知識”,復制和組合是人工智能的知識生產方式。德國哲學家本雅明將藝術作品的獨特存在感和不可復制的特質描述為“靈暈”,這種特質使得藝術作品具有一種遙遠的、神秘的魅力。與此相對,“痕跡”指的是某種事物或事件在現實中留下的具體標記或跡象。他認為,隨著攝影和電影等機械復制技術的發展,藝術作品的“靈暈”逐漸消失,因為復制品無法再現原作的獨特存在感。以此而論,ChatGPT不可能產生“靈暈”,只能生成“痕跡”[15]。 OpenAI公司的現任CTO (首席技術官)Mira Murati在長文Lauguage&Coding Creativity中提到:語言應用的細微差別,或者說作家的“聲音”,是人類無數創造力的獨特印記之一,這正是人類藝術創作特有的、暫時不會被AI代替的“靈暈”[1]。
人類的知識生產是創造性思維與對現實深刻、復雜的理解的結合。創造性思維往往是非線性的,是許多看似不相關的想法和概念的突然聯想組合。而人工智能的結構性計算阻礙了這種“靈光乍現”的創造性瞬間的出現,AI對現實世界的理解基于數據的表面層次,缺乏對現實世界的理解和洞察,這使得目前其對知識的結構化呈現只能停留在“平庸的專業主義”階段。
三、保持“專業性”:生成式AI的數據規范實踐和監管創新
打破生成式AI在當下知識生產中的局限,提高其知識生產的效率和質量以實現知識加速,需要在保持其“專業性”的同時打破“平庸化”的知識輸出現狀。保持“專業性”要求生成式AI在數據訓練上發力,從數據的質量、多樣性和公平性著手進一步實現真正的“全數據”。
1.始于數據:全流程的數據規范實踐
要想盡可能地削弱訓練數據質量導致的數據偏見,以更全面多樣的數據輸入提高生成式AI生產知識的專業性,需在數據的收集、管理和訓練上作出優化。
在數據收集與管理方面,首先,應確保多樣化的數據來源,收集來自不同的文化、地域、性別、年齡和社會經濟背景的數據,以捕捉廣泛的視角和經驗,并通過重采樣、合成數據等方法,確保數據集中于不同群體的代表性。其次,應完善數據庫管理機制,日常的數據庫管理應注明數據收集的方式和數據選擇的動機,從而使數據來源透明化,確保數據的多樣性和代表性。在此基礎上,進一步注明數據包含的價值觀和服務的行動目標,這有助于在數據使用過程中保持一致性和方向性,避免因價值觀偏差導致模型輸出偏見。最后,應開展定期審查和數據內容的更新,識別并移除重復、錯誤或有害的數據。在模型生產知識進入公共知識流通系統后,建立完備的反饋機制,允許用戶報告和糾正偏見數據,進一步完善數據庫管理,確保數據的公平性和準確性。
在數據訓練方面,推動訓練數據的專業化。通用大模型的知識生產痛點與其在專業性、泛化性和經濟性三方面難以兼得有關,這是一個有所取舍的利益天秤。專業性需要針對特定領域數據進行訓練,泛化性則需要多樣化的大規模訓練數據集,同一個生成式AI模型很難兼顧兩方面,做到既“博學多才”又“門門精通”。專業化和多樣化的數據收集都需要消耗大量算力和成本,因此,在數據訓練中要考慮經濟性因素。當前通用類大語言模型大多在專業性和泛化性中選擇了后者,在涉及具體領域的專業性問題時呈現知之甚淺的缺陷。本文認為,一條可行的路徑是運用更專精的數據進行訓練,而不是一味地追求大模型之“大”。應在現有大模型的基礎上,為特定領域定制開發更具有針對性的訓練數據集,并為“小而專”的語言模型所使用,使其在特定領域能夠生成更具有深度和洞見的知識。
2.“剛柔并濟”:發揮第三方監管的作用
除了企業自身在訓練數據時采取的常規化規范,對生成式AI的第三方監管也有利于更加客觀地優化數據的公正性。
在柔性監管方面,監管沙盒是一種針對技術創新的柔性監管制度,既有利于企業技術創新實踐應用,也有利于更早地發現前沿技術引發的合規風險。計算機安全領域的沙盒(sandbox)是一種隔離環境,用于運行和測試可疑代碼或應用程序,以防它們對主系統或網絡造成任何潛在的危害。歐盟《人工智能法案》第六章“支持創新的措施”,明確了建立AI監管沙盒的相關要求。歐盟成員國的西班牙、法國,非歐盟成員國的挪威、英國、瑞士,已在籌劃或開展AI監管沙盒的試點。目前,我國已在金融科技和汽車安全等領域試行該制度,北京于近期開展AI監管沙盒試點。
針對大模型的知識生產痛點,企業可以在沙盒環境中進行模型的公正性測試,通過詳細的數據分析和模型測試識別出數據集中可能存在的偏見。例如,通過對比不同群體的模型輸出結果,發現并修正不公平的表現。監管機構應要求企業在AI沙盒中進行透明性測試和報告,確保模型決策過程的可解釋性。沙盒環境提供了一個持續監控和反饋的機制,企業可以根據實時數據和反饋不斷改進模型,監管機構也可以通過定期審查和實時監控,確保模型的性能和公平性保持在高水平。
在硬性監管方面,制定行業標準和法律法規仍然是規制和監管人工智能發展的重要途徑。一方面,行業協會等主體應制定行業標準和行為規范,明確大模型開發者的數據可查義務、解釋性義務和惡意操縱責任,要求其做到數據來源可查、數據內容可查、數據處理可查,并對數據內容、數據特征選擇以及權重進行說明[16]。另一方面,政府應出臺或修改現有法律,明確數據偏見帶來的問題如何歸責,并對數據開發過程的透明性和可解釋性作出強制規定,采取配套監管措施和對應的懲罰方式。由于我國尚處于弱人工智能時代,刑法和民事法中目前未對此類相關問題作出回應,能直接應用于數據問題的規制條文仍然是空白。隨著人工智能技術的發展成熟,人工智能越來越多地參與到知識生產與流通中,相關法律也應不斷完善、與時俱進。
四、突破“平庸性”:生成式AI知識生產的創造性進路
相對于人類專家生產的知識,學界對于生成式AI所生產知識的評價是“穩定的平庸”。這是由于其知識生成邏輯是一種數據訓練出來的概率性“接龍”,越接近多數人知識邏輯的內容就越可能成為生成式AI對某一問題的答案,也就是說,生成式AI的知識生產趨近于一個公眾平均值。這種邏輯的優勢是得到的知識不會過度偏離公眾認知,具有正確度上的穩定性,但副作用是像海德格爾所說的與“常人”一樣缺乏鋒芒、個性和本真性[17]。要想弱化生成式AI作為“新常人”的平庸性特質,獲得高于平均值的、帶有一定創造性的知識內容,AI開發者和使用者都有可為之處。
1.AI開發層面:調整采樣溫度,大小模型協同
在生成式AI的開發過程中,模型的參數設置會影響AI輸出的內容,其中“采樣溫度”是直接影響AI知識生產創造性的一個參數。在自然語言處理(NLP)和機器學習模型中,“采樣溫度”是指在生成文本或進行其他形式的預測時,用于控制模型輸出多樣性和不確定性的一個參數。這個概念源自機器學習中的“溫度軟化”(temperature softening)或“溫度調節”(temperature tuning)。它是在使用概率模型進行預測時應用的一個超參數,通過調整模型輸出的概率分布,從而影響模型選擇的多樣性。當采樣溫度較低時(接近于0),模型會傾向于根據訓練數據選擇概率最高的輸出,即更接近上文提到的“穩定的平庸”輸出,這會使得輸出更加確定,但可能缺乏多樣性。當采樣溫度較高時(接近于無窮大),模型的輸出會更加隨機,概率分布更加平坦,從而增加輸出的多樣性,但輸出的質量就難以保證穩定。
在實際應用中,AI開發者可以根據模型用途來調整采樣溫度,以便在生成文本的確定性和多樣性之間找到合適的平衡點。例如,在生成創意內容或進行探索性任務時,可能會使用較高的采樣溫度;在需要準確性和一致性的場景中,則可能會使用較低的采樣溫度。這一采樣溫度調節功能現已在部分生成式AI產品中開發給用戶使用,如基于國內大語言對話智譜清言的AI產品清言智能體于2024年5月開放了“溫度調控”功能,用戶在創建自己的AI智能體時可以在0到1之間設置模型的采樣溫度以調節模型生成內容時的創造性高低,這顯示了用戶在AI知識生產時的主觀能動性在不斷提升。
上文提到模型的泛化性可以增強其知識生產的全領域特性,卻往往以犧牲某一領域的深化程度為代價。要想增強AI生成知識的創造性,跳出平庸困境,前提是具備某一領域的專業化能力,這要求在數據輸入階段就明確大模型的領域定位,并給予針對性的訓練數據。實現這一目標的方法之一是對通用大模型參數進行“瘦身”,開發針對特定場景、私域數據、部署邊緣而訓練的小模型[18]。針對特定場景、知識類型構建的小模型更有可能成為某一領域的“行家”,輸出更接近這一領域人類專家的知識形態,并借助模型數據的迭代邏輯不斷提升在該領域的知識生產能力。創造更貼合場景、更精專領域的小模型,促進大小模型協同發展,是在開發層面突破AI知識生產平庸困境的一個方法。
2.AI使用層面:優化提示詞寫作,提高AI素養
在生成式AI加入知識生產后的智能傳播時代,傳統的媒介素養框架已難以概括人類使用AI、與AI交互時需要的所有能力,因此,在媒介素養的基礎上誕生了AI素養的新概念。作為新興的素養概念,AI素養的內涵和外延仍在討論和明確的階段,并未像媒介素養一樣在學界形成較為統一的框架。目前,學界更多將 AI 素養納入更廣泛的信息素養或數字素養的討論范疇中,在先前素養強調的獲取、評估和使用信息的能力之外,進一步強調對AI技術的深入理解和應用,以及對AI可能帶來的社會、倫理和法律問題的關注和思考[19]。總的來看,學界對AI素養的定義仍包括知識、技能和價值觀這幾個方面。
在優化AI的知識生產水平上,主要涉及的是使用者在技能層面的AI素養能力,在眾多AI使用技能中,最直接影響生成式AI輸出內容質量的是Prompt的撰寫。Prompt是在自然語言處理(NLP)和生成性預訓練變換器(GPT)等語言模型中,用戶或開發者輸入的文本,它是模型生成響應、回答或文本的起點和依據。寫Prompt的目的是引導模型產生符合用戶意圖的輸出,Prompt的質量會直接決定生成式AI能否給出使用者理想的答案,這就好比新聞采訪中記者的提問質量會直接影響受訪者的回答。一段清晰的Prompt一般包含任務背景、身份定義、輸出格式等必要組成部分,需滿足層級分明、任務明確和上下文不矛盾等邏輯特征,可以根據任務需要和模型功能上傳相應的多模態材料,如文本、圖片、音頻作為AI在原本數據庫之外的語料補充。AI使用者要想在生成式AI運用中發揮主觀能動性,得到更優質的AIGC知識內容,需要提高自身的Prompt寫作能力以及對AI回答的追問能力,通過AI素養的提升來優化人機知識共創效果。
五、結語
隨著大模型在訓練數據數量、模型運算能力層面的飛快迭代更新,各垂類的生成式AI不斷涌現出具有更高知識生產能力的應用產品。以人機協同為特征的“知識生產模式IV”已經到來,與AI共生是必將到來的人類社會新的媒介化狀態。在這一媒介化狀態下,理想的知識生產狀態是實現協作智能(Collaborative Intelligence),即將人和計算機各自擁有的技能互補,其目的不在于讓計算機替代人類,而在于實現人類的目標[20]。正如Mira Muratiz在Lauguage&Coding Creativity一文中主要探討的問題:人類應該如何與這些越來越“聰明”的AI相處?這是我們必須思考面對的問題[1]。
為了實現“知識共創,人機共生”的理想智能協作圖景,人類需進一步解決目前生成式AI存在的數據質量問題和平庸性困境,通過數據規范實踐和監管創新來優化生成式AI知識生產的專業性,在AI開發和使用層面發力以突破其知識生產的平庸性,以期迎來更高效、高質的AI知識生產時代。
|參考文獻|
[1]一夜淘汰700人!ChatGPT之母:AI自動化取代人類,創意性工作可能消失[EB/OL].(2024-06-23)[2024-07-16]. https://mp.weixin.qq.com/s/ykOg_ZGWeokElc52_Wq08A.
[2]肖峰. 生成式人工智能與知識生產新形態:關于三階知識生產的探析[J]. 社會科學文摘,2024(4):8-10.
[3]用人工智能助力寫作 日本女作家獲獎惹爭議[EB/OL].(2024-02-25)[2024-07-16]. https://baijiahao.baidu.com/s?id=1790041176047938566&wfr=spider&for=pc.
[4]喻國明,蘇芳,蔣宇樓. 解析生成式AI下的“涌現”現象:“新常人”傳播格局下的知識生產邏輯[J]. 新聞界,2023 (10):4-11.
sclFFMzz1kz4Y7T9W66/4EseFBnjddVFslhzezIIY6I=[5]威廉·羅雪爾. 歷史方法的國民經濟學講義大綱[M]. 朱紹文,譯. 北京:商務印書館,1986.
[6]吳偉成,周俊生,曲維光. 基于統計學習模型的句法分析方法綜述[J]. 中文信息學報,2013(3):9-19.
[7]杜華,孫艷超. 生成式人工智能浪潮下知識觀的再審視:兼論兩個經典知識之問的當代回應[J]. 現代教育技術, 2024(1):96-106.
[8]大模型訓練數據白皮書[R/OL]. (2013-05-28)[2024-07-16]. http://www.aliresearch.com/ch/MJvIfy.
[9]免費GPT-4o來襲,音頻視覺文本實現「大一統」[EB/OL].(2024-05-14)[2024-07-16].
https://mp.weixin.qq.com/s/fuZIhKk9WATMsiMY
mcwmrA.
[10]許向東,王怡溪. 智能傳播中算法偏見的成因、影響與對策[J]. 國際新聞界,2020(10):69-85.
[11]Humans are biased, generative AI is even worse[EB/OL].[2024-07-16]. https://www.bloomberg.com/graphics/2023-generative-ai-bias/?utm_campaign=The%20Batch&utm_source=hs_email&utm_medium=email&_hsenc=p2ANqtz-8bRCu1UlRe_k6NCNJbH5u25AwMSbebM_3oQ5Lv7M9VLTdjqB6QT5B61_RNHvry6_ey-sOG.
[12]米加寧,董昌其. 大模型時代:知識的生成式“涌現”[J]. 學海,2024(1):81-96+214-215.
[13]肖峰. 生成式人工智能與知識生產新形態:關于三階知識生產的探析[J]. 社會科學文摘,2024(4):8-10.
[14]陳昌鳳,張夢. 由數據決定?AIGC的價值觀和倫理問題[J]. 新聞與寫作,2023 (4):15-23.
[15]黃旦. 作為人類文明進程動因的媒介:從ChatGPT說開去[J]. 新聞記者,2023 (6): 3-10.
[16]劉友華. 算法偏見及其規制路徑研究[J]. 法學雜志,2019(6):55-66.
[17]劉海龍,連曉東. 新常人統治的來臨:
ChatGPT與傳播研究[J]. 新聞記者,2023(6):11-20.
[18]喻國明,金麗萍,卞中明. 小有小的用處:大模型傳播生態下的小模型:概念定義、技術構造與價值角色[J]. 新聞記者,2024(1):3-17.
[19]蔡迎春,張靜蓓,虞晨琳,等. 數智時代的人工智能素養:內涵、框架與實施路徑[J/OL]. 中國圖書館學報(2024-02-20). http://kns.cnki.net/kcms/detail/11.2746.G2.20240219.1413.002.html.
[20]EPSTEIN, S. L. Wanted: collaborative intelligence[J]. Artificial Intelligence, 2015(221):36-45.