王仕勇 張成琳
【內容摘要】ChatGPT技術的崛起給知識生產領域帶來了顛覆性變革,其憑借優異的自然語言處理技術和算法讓知識生產進一步走向智能化、自主化、高質化、仿真化和個性化,未來有望在與知識生產密切相關的教育培訓、新聞媒體和學術研究等領域充當重要角色。但ChatGPT在參與知識生產的過程中,也面臨著真實性和可靠性待評估、學術倫理和知識產權遭遇沖擊,以及人類生產知識的潛能和自主性面臨消解等嚴峻挑戰。由此,本文認為我們需要牢牢把握知識生產以人為本的原則,重新思考強人工智能時代下的人機協作與融合方式。
【關鍵詞】ChatGPT;知識生產;人工智能;深度學習;學術倫理;知識產權
近年來,人工智能(AI)在參與知識生產領域的應用呈現出多種方式,涉及多個領域,例如自然語言處理、計算機視覺、機器學習,等等,但總體智能化水平較低、自主性較差,難以擺脫弱人工智能的標簽。2022年11月30日,美國人工智能公司OpenAI公司推出了聊天機器人ChatGPT,這款引領自然語言處理技術革命的機器人迅速在全球范圍內引發現象級關注,一周內其用戶數量就突破百萬。作為一款基于深度學習技術的自然語言處理工具,ChatGPT具有自動生成、摘要和翻譯等多種任務的能力,廣泛應用于文本自動生成、自然語言處理和知識管理等領域。①ChatGPT的迅猛發展被譽為“AI時代的二次復興”②,意味著人類告別弱人工智能時代。③
一、ChatGPT參與知識生產的技術路徑
人類知識形態經歷了從經驗形態到分科的原理形態知識,再從原理形態發展到在信息技術平臺上形成的差異化或交疊形態的知識。④計算機的廣泛應用不僅實現了知識的大規模組合,而且促進了知識層面之間的協作和互動,顛覆了傳統的知識生產方式。首先接受變革的就是作為知識載體的語言。隨著計算機技術的進一步發展,人們希望計算機能夠像人類一樣處理自然語言,NLP (Natural Language Processing, 自然語言處理)技術應運而生。作為一種機器學習技術,NLP致力于研究計算機如何理解、分析和生成自然語言。ChatGPT(Generative Pre-trained Transformer)便是一種基于自然語言處理的模型。它依托LLM(Large Language Model, 大型語言模型),通過創新性地利用 transformer 模型和自注意力機制(Self-Attention Mechanism)等技術,同時使用RLHF(Reinforcement Learning with Hindsight Feedback,人類反饋強化學習)進行訓練 ,實現了更加自然化的對話交互,讓知識生產更加智能化、自主化、高質化、仿真化和個性化。
(一)依托大型語言模型(LLM)的智能化生成和自主化學習
ChatGPT采用預訓練(Pre-training)和微調(Fine-tuning)的兩階段訓練方式進行模型訓練,而LLM便是其進行預訓練的基礎。LLM指采用大規模預訓練的深度學習語言模型,通常由數十億或數百億的參數組成,因此需要在大規模數據集上進行預訓練。ChatGPT的模型參數多達1750億,不僅包括一些公開語料庫,還包含OpenAI自己爬取的超過萬億單詞的人類語言數據。⑤在海量數據的基礎上,ChatGPT通過MLM(Masked Language Model,掩碼語言模型)和NSP(Next Sentence Prediction,下一句預測)實現預訓練。MLM可以將輸入文本中的某些單詞隨機替換成掩碼字符,并通過模型對這些單詞進行預測,NSP可以讓模型預測兩句話之間是否有邏輯關系,從而使模型能夠對語言結構和語義進行建模,進而模仿訓練文本,智能化生成各種語言表達,包括對話、文章、摘要和翻譯等。
依托LLM的ChatGPT還能自主發現語言模式和規律,自主調整模型參數,自主適應各種任務和場景,從而實現高效的自主化學習。具體而言,在預訓練階段,ChatGPT依托LLM對大規模語料進行無監督學習,學習語言的基本規律和語義結構。LLM可以幫助ChatGPT自主地發現語言中的隱含模式和規律,從而更好地理解和生成自然語言。在微調階段,ChatGPT在依托LLM的基礎上,根據用戶輸入的數據進行有監督學習,自主地調整模型參數,自主學習和適應各種特定任務和場景。例如,ChatGPT可以利用LLM對話的歷史信息,在對話生成任務中自主調整模型的生成策略和語言表達方式,從而更好地滿足人類更加高效、精準和個性化的知識生成需求。
(二)基于transformer模型的高質量知識表示和推理
知識表示與推理(Knowledge representation and reasoning,KR2)是人工智能領域的一項重要研究課題,是計算機有效處理知識和信息的基礎,也是人工智能“弄懂”自然語言并輸出高質量知識的關鍵。人類用自然語言對知識進行表示,但這種表示方法并不能被機器接受,于是發展出了能夠將文本信息轉化為計算機理解形式的知識表示方法。ChatGPT采用的是向量表示法,即將每一個知識和概念等表示成一個多維向量,便于計算機理解和處理,而其獲取向量的技術支撐便是transformer 編碼器-解碼器模型。transformer模型是一種基于注意力機制的深度神經網絡模型。多層的 transformer 模型構成分層結構,每一層都包含多頭自注意力機制和前饋神經網絡,能夠更好地捕捉上下文信息和對多層處理輸入文本,并將文本轉化為富含語義信息的向量表示,用于后續的知識推理任務中。transformer 模型的核心組成部分自注意力機制,能夠在不同層次、不同位置上自適應地聚焦不同的語義信息,幫助模型理解文本知識和推理規則。它可以將已有知識與先驗語言知識有效結合,推理出新的結論和概念,以此讓ChatGPT更好地理解復雜的語言推理任務,實現多輪對話和常識推理。有學者比較了ChatGPT和GPT-3.5 (textdavinci-003)在不同任務上的零樣本學習性能,研究發現,ChatGPT的確在許多有利于推理能力的任務上有良好表現。⑥
(三)利用人類反饋強化學習 (RLHF) 實現知識生產的仿真化和個性化
預訓練階段的自監督學習算法并不能完全讓ChatGPT實現高度仿真和個性化交互,在進行對話生成任務時,ChatGPT還需要使用其他算法來進行微調和訓練,其中之一就是RLHF。⑦RLHF的主要步驟為:使用監督學習訓練語言模型、根據人類偏好收集比較數據并訓練獎勵模型,以及使用強化學習針對獎勵模型優化語言模型。⑧在RLHF算法中,ChatGPT 通過強化學習框架與環境進行交互,并在每一輪交互中生成回復,該回復會發送給人類評估者,人類評估者將其與期望回復進行比較后,給出獎勵值,以此代表ChatGPT生成回復的質量。在獎勵值的反饋下,ChatGPT會自主調整回復策略,逐漸學習人類語言的風格、情感、語氣和語境等,最終生成高仿真性的對話文本。有學者就ChatGPT對教育的影響與ChatGPT進行互動研究 ,發現ChatGPT有很強的交互性,能夠與人類就廣泛的主題進行非常自然化的對話。⑨此外,RLHF算法還可以利用CER (Counterfactual Experience Replay,反事實經驗回放技術),使ChatGPT更好地適應不同用戶的需求。通過運用該技術,ChatGPT會生成多個不同的回復,并根據用戶的反饋來選擇最優回復作為訓練數據,以此了解不同用戶的不同偏好和需求,從而實現知識的個性化生產。
二、ChatGPT技術應用于知識生產領域的角色展望
ChatGPT技術應用場景非常廣泛,包括聊天機器人、智能客服、語音識別、文本摘要、機器翻譯和內容生成等,未來將在知識生產領域充當重要角色。
(一)教育培訓領域的虛擬助教
ChatGPT給教育界帶來了重大變革,其強大的知識集成和生成能力能夠極大提升教師教學能力和學生學習效率。首先,ChatGPT可以作為教育輔導工具,幫助教師實現個性化教育和自主化評估。ChatGPT除了能夠幫助教師獲取最新且全面的教學資源和工具外,還能夠協助教師監測學生的學習進展。例如,ChatGPT可以通過分析學生提交的作業和回答,自動評估學生的學習水平和理解程度,自動調整教學內容和難度,實現智能化因材施教。其次,對于學生來說,ChatGPT可以作為一種智能對話輔導工具,提供在線答疑、課程安排、學習計劃、學習資源推薦等服務。對話本身也是一種教學實踐,傳統的師生對話多發生于課堂,受到教學環境和人際交往等諸多限制,而ChatGPT具有高度擬人化的知識生成能力,能夠為學生構造仿真化的對話環境。在與ChatGPT的對話中,學生能自主探索知識與答案,這不僅突破了教師設定問題的局限性,更激發了學生的學習潛能和探索問題的積極性,有利于培養學生自主獲取知識的能力。有學者指出,ChatGPT 和其他生成式 AI 技術已經在突破教育界限,并將在現有教育實踐中引發重大范式轉變。⑩
(二)新聞媒體領域的全能記者
融媒體時代要求記者具備多種技能,ChatGPT的智能化生成和個性化交互等優勢讓它有望成為媒體領域的機器全能記者。在新聞報道方面,ChatGPT可以通過大批量分析和處理數據及信息,發現新聞線索,并自動生成新聞報道,包括新聞標題、正文和圖片等內容,大大提升了新聞報道的時效性和準確性。同時,還可以提取文章的關鍵信息,生成文章摘要,幫助受眾快速了解文章內容。在與受眾互動方面,與傳統的人工智能相比,ChatGPT能夠更好地考慮上下文和語境信息,對受眾的指令、瀏覽記錄和搜索行為等有更準確的理解,從而真正發現受眾的興趣和需求,提供多樣化、精準化的媒體內容推薦。此外,ChatGPT還能夠通過與受眾的個性化交互和對話方式,及時跟進受眾的反饋和建議。有學者就新聞和媒體等相關知識與ChatGPT進行了問答交流,稱贊其擁有的新聞和媒體知識水平和范圍“令人印象深刻”,并能很好地協助人類記者提高媒體工作效率和質量。
(三)學術研究領域的智能專家
ChatGPT對學術界的影響無疑是巨大的,它能夠幫助研究人員快速檢索文獻和資料、分析數據和交流研究結果,甚至能夠生成論文提綱和設計方案等。目前已有研究者開始使用ChatGPT來總結文獻、撰寫和改進論文。例如,有研究者嘗試使用ChatGPT 撰寫一篇有關教育方向的學術論文,整個過程總共用了2-3個小時,結果表明,ChatGPT 在幫助研究人員撰寫論文方面表現優秀,能夠做到語句連貫、準確(部分)、信息豐富且系統性強。還有研究者在ChatGPT的協助下創建了一篇文獻綜述文章,并利用ChatGPT對檢索到的論文摘要進行轉述,同時通過與ChatGPT的互動得到了相關問題的滿意回答,展現了ChatGPT在學術研究領域加速知識匯編和知識生成的巨大潛力。ChatGPT后期可能將應用到設計實驗、撰寫手稿、協助同行評審和稿件錄用。
三、ChatGPT參與知識生產面臨的挑戰
雖然ChatGPT在知識生產領域具有無限的潛力,但其面臨的學術倫理、知識產權、人類生產知識的自主權等方面的挑戰需要高度重視。
(一)知識生成的真實性和可靠性亟待評估和驗證
多項研究證實,ChatGPT雖然能極大提升知識生產效率,但其存在生成錯誤內容、編造文獻等諸多局限性。Van Dis 等人向ChatGPT提出了一系列需要深入了解文獻的問題,但ChatGPT卻通過偽造數據和事實,編造了一個讓人看起來信服的回應。另一位研究者在應用ChatGPT 生成論文參考文獻時發現,ChatGPT 不僅向他提供了一篇不存在的虛構文章,還煞有介事地提供了該文章的詳細信息以及一個非功能性 URL。這種“一本正經的胡說八道”在ChatGPT參與學術的實踐中屢見不鮮,非常容易誤導研究人員和審稿人。如何對ChatGPT生成知識的真實性和可靠性進行評估和驗證,是未來推行ChatGPT技術參與知識生產的重大挑戰。
(二)學術倫理和知識產權遭遇重大沖擊
ChatGPT的知識生產能力極度依賴海量數據、復雜的算法和流程,這使得其參與知識生產的透明度較低,用戶很難追溯相關數據來源和理解內容生成流程,容易引發學術侵權、學術剽竊等學術不端行為以及知識產權糾紛。在目前公開發表的論文中,部分研究者開始將ChatGPT列為“合著者”。如Pavlik在《與 ChatGPT 合作:考慮生成人工智能對新聞和媒體教育的影響》一文中,明確表示該論文由人類新聞和媒體研究教授與ChatGPT合著。隨著ChatGPT參與學術論文寫作的案例增多,一些學術期刊社公開發表聲明,明確禁止或嚴格限制使用ChatGPT進行學術論文撰寫。與此同時,教育界也掀起了一股“反ChatGPT”新潮,不少學校宣布禁止學生使用ChatGPT完成作業。然而,如何鑒別ChatGPT是否參與了知識生產,目前還存在技術壁壘,學術倫理和知識產權仍面臨巨大挑戰。
(三)人類生產知識的潛能和自主權面臨消解危機
對ChatGPT技術的極端崇拜和過度依賴,會在一定程度上打擊人類從事知識生產的積極性和主動性,扼殺人類的創造性。由于ChatGPT能夠應對復雜場景并在極短時間生成高質量知識,知識生產者很容易被自動化生成的知識所折服,放棄主動思考和批判,長此以往可能會喪失知識生產的創造潛能。同時, ChatGPT算法有較強的自主性和深度學習能力,雖然現在還存在“胡說八道”的缺陷,但隨著技術迭代和數據更新,未來ChatGPT是否會擁有自主意識依然值得重視。有學者在談及人工智能的負面效應指出,人工智能的異化會使其擺脫人類控制,甚至人工智能可能會獲得自主意識,最終將會導致人工智能取代人類甚至人類被奴役的結果。
四、結語
“機器是延伸自我的一種工具”,但自我不能被機器取代。如何平衡人工智能和人的智能之間的關系,實現人機協作與融合,將是人工智能時代下知識生產領域亟待解決的一大難題。ChatGPT技術的崛起雖然極大提升了知識生產的效率和質量,給知識生產領域帶來了顛覆性變革,但我們始終要把握的原則是,知識生產的本質是以人為本,“類人化”的機器始終不能取代人類的創造價值和意義。因此,人類在追尋用機器分擔勞動的同時,不僅要對機器產生的各種倫理問題進行反思,更要時刻警惕知識生產的自主權和批判思維不被消解。
參考文獻:
①Open AI: ChatGPT: Optimizing Language Modelsfor Dialogue,https://openai.com/blog/chatgpt/.
②⑤朱光輝、王喜文:《ChatGPT的運行模式、關鍵技術及未來圖景》,《新疆師范大學學報(哲學社會科學版)》2023年第4期。
③令小雄、王鼎民、袁健:《ChatGPT 爆火后關于科技倫理及學術倫理的冷思考》,《新疆師范大學學報(哲學社會科學版)》2023年第4期。
④韓震:《知識形態演進的歷史邏輯》,《中國社會科學》2021年第6期。
⑥Qin C, Zhang A,Zhang Z,et al. Is ChatGPT a General-Purpose Natural Language Processing Task Solver?. ArXiv. /abs/2302.06476,2023.
⑦Christiano P F, Leike J, Brown T, et al. Deep reinforcement learning from human preferences[J]. Advances in neural information processing systems, 2017,30.
⑧Ouyang L, Wu J, Jiang X, et al. Training language models to follow instructions with human feedback[J/OL]. ArXiv. /abs/2203.02155,2022.
⑨⑩Baidoo-Anu D, Owusu Ansah L. Education in the Era of Generative Artificial Intelligence (AI): Understanding the Potential Benefits of ChatGPT in Promoting Teaching and Learning. SSRN Electronic Journal,2023.
Pavlik J V. Collaborating With ChatGPT: Considering the Implications of Generative Artificial Intelligence for Journalism and Media Education [J]. Journalism & Mass Communication Educator,2023,78(1): 84-93.
Zhai X. ChatGPT User Experience: Implications for Education [J/OL]. SSRN Electronic Journal,2022.
Ayd?n ?, Karaarslan E. OpenAI ChatGPT Generated Literature Review: Digital Twin in Healthcare [J/OL]. SSRN Electronic Journal,2022.
Van Dis E A M, Bollen J, Zuidema W, et al. ChatGPT: Five priorities for Research [J]. Nature,2023,614(7947): 224-226.
Qadir J. Engineering Education in the Era of ChatGPT: Promise and Pitfalls of Generative AI for Education. TechRxiv,2022.
薛峰:《人工智能對勞動的挑戰與馬克思勞動理論的回應》,《勞動哲學研究》2021年第2期。
劉偉:《智能傳播時代的人機融合思考》,《人民論壇》2018年第24期。
Davenport T H, Prusak L. Working knowledge: How organizations manage what they know[M]. Harvard Business Press,1998.
(作者王仕勇系廣西大學新聞與傳播學院院長、教授;張成琳系馬來西亞國立大學人文與社會科學學院博士研究生)
【責任編輯:韓勇】