999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式大語言模型能有效實現對話式教學嗎

2025-04-03 00:00:00顏士剛胡修磊李文光
現代遠程教育研究 2025年2期
關鍵詞:人工智能

摘要:生成式大語言模型從形式上實現了人與機器的自然對話,使古老的對話式教學成為現實可能,因此其自問世以來便受到教育界廣為推崇。為了更好地了解生成式大語言模型在對話式教學應用中的適用性,有必要從其工作原理出發探索其在教育應用中的固有困難,以尋求其賦能對話式教學的適切路徑。作為一種基于大規模語料庫訓練而具有自然語言對話能力的人工神經網絡應用,生成式大語言模型本質上是一種基于數據處理的“聊天機器人”,本身存在缺乏理解能力、知識立場不堅定、語言僅是生成而非創造、難以滿足個別化學習需求等固有困難。因此,無論從知識傳授還是情感培養方面看,生成式大語言模型自身均因受到特定價值取向影響、缺乏策略性引導、難以做到因材施教而無法達成對話式教學的理想效果。即便如此,生成式大語言模型仍能為對話式教學提供適宜的應用場景,如為客觀性知識類教學問題提供高效信息咨詢服務,基于海量大數據為語言教學提供精準模擬和糾錯服務,以及針對常規教學活動提供一般性的參考框架、范式或提綱等。

關鍵詞:人工智能;生成式大語言模型;對話式教學;個別化教學

中圖分類號:G434 " 文獻標識碼:A " "文章編號:1009-5195(2025)02-0052-11 "doi10.3969/j.issn.1009-5195.2025.02.006

基金項目:2021年度深圳市教育科學 “十四五”規劃課題“慕課教學中批判性思維能力培養的理論與實踐研究”(ybzz21002)。

作者簡介:顏士剛,博士,教授,博士生導師,天津師范大學教育學部(天津 300387);胡修磊,碩士研究生,天津師范大學教育學部(天津 300387);李文光(通信作者),博士,副教授,深圳大學教育學部(廣東深圳 518060)。

以ChatGPT為代表的生成式大語言模型自問世以來,就引發了教育教學領域的廣泛關注。中國、美國及歐盟國家紛紛出臺一系列針對生成式人工智能教育應用的相關政策性文件,以規范其良性發展,如美國高等教育信息化協會(EDUCAUSE)發布的《2024年人工智能圖景研究》指出“高等教育界仍在就人工智能應如何以及不應如何用于學習和工作尋找共識”(Robert,2024)。鑒于其強大的對話功能,有研究者堅持認為,雖然生成式大語言模型并非專為教學研發,但其功能卻極具教學價值(張志禎等,2023),能夠通過海量的數據資源訓練,對人的提問給出合理回答。甚至有學者認為,生成式大語言模型可以使具有悠久歷史的對話式教學逐漸回歸(焦建利,2023)。實際上,對話是一種教學關系,它以參與者持續的話語投入為特征,且將互動與反思貫穿整個過程(Burbules,2001)。師生對話不僅能更好地促進知識建構,還可以實現情感交流,增進師生情誼,進而促進學生良好價值觀的形成。假如生成式大語言模型真能有效實現對話式教學,確為教育之幸、師生之福。現在來看,“對話”的形式已能實現,且已有研究結合大語言模型的功能進行二次開發,設計出相應的會話機器人,但從實際運用的角度審視,模型在本質上是否契合對話式教學的內在要求,仍是值得深入探討的問題。有鑒于此,本文擬從生成式大語言模型的基本工作原理出發,探討將其應用于教育領域中的困難和優勢,再結合對話式教學的實際需求,討論其能否有效實現對話式教學。為表述方便,本文所提及的模型與大語言模型均指生成式大語言模型。

一、生成式大語言模型的工作原理、能力局 限性及教育應用探討

聯合國教科文組織(UNESCO)在《教育和研究中的生成式人工智能指南》中將生成式人工智能界定為一種“根據人類思維符號表征系統自動生成內容的人工智能技術”(Holmes et al.,2023)。隨著OpenAI公司發布的ChatGPT引起廣泛關注和影響,國內一些科技公司也積極致力于研發類似模型,如文心一言、星火認知大模型、AI機器人豆包等,并在不斷進行優化與提升。這些應用均以深度學習技術為核心,旨在實現多樣化的語言交互功能。為了實現該功能,它們都需要構建相應的語言模型,以使機器能夠判斷和生成符合語法規則的回答。

1.生成式大語言模型的工作原理

基于文本處理的大語言模型技術的實現,需要在深度學習過程中構建人工神經網絡,具體包括輸入層、隱藏層和輸出層。輸入層負責接收原始數據;隱藏層中包含多個節點(也稱“神經元”),每個節點對應一個非線性變換,通過學習和調整相應的參數來捕捉數據中的復雜特征;輸出層則輸出相應的預測內容。在模型的學習訓練過程中,除了對已有的無標注數據(如來源于書籍、期刊雜志、互聯網等大量內容)進行學習之外,還需學習相應的標注數據。標注數據是指在原始數據之上附加特定標簽或注釋所形成的數據。通過學習標注數據,可以提高模型在情感、語義、實體識別等方面的判斷能力,進而增強模型的準確性與精度。在訓練過程中,模型首先對訓練數據進行前向傳播計算,得到預測結果,并計算該結果與真實數據之間的誤差;隨后將誤差反向傳播回深度學習神經網絡中的每個神經元,并計算每個神經元對誤差的貢獻,以更新神經元之間的連接權重,進而使模型的預測結果更加接近于標注數據。上述過程不斷迭代,直到模型收斂并得到滿意的預測結果為止。ChatGPT作為基于Transformer的人工智能應用,其主體架構遵從“語料體系+預訓練+微調”的基本模式(錢力等,2023)。實踐中,各種大語言模型的訓練往往會更加復雜,并且需要用到大規模語料庫來訓練和優化模型的參數。

大語言模型與人的“對話”通常會經歷如圖1所示的步驟。當輸入端輸入一個文本形式的問題時,模型會接收這些文本,進行編碼并將其轉化為計算機語言,經過語義推斷,嘗試“理解”輸入文本的含義并作出回答。在整個“對話”過程中,模型能夠綜合之前的對話歷史,更好地理解人的需求,從而生成更連貫和符合上下文的回答。由此可見,大語言模型基于輸入文本的要求、上下文信息以及訓練得到的知識,能夠生成比較合適的回答并呈現出來,該回答可能是一個句子、段落或者更長的文本,一般均符合自然語言表達的規范和習慣。

對話和交流是人與人之間最為重要的基本行為方式(沈書生等,2023)。很多初次使用大語言模型的人均感到無比震撼,主要原因在于,與傳統聊天機器人相比,二者在技術實現和功能表現上有著本質區別。前些年,由智能手機廠商開發的語音助手(如小愛、小藝等),均屬于傳統聊天機器人,其按照固定的程序運行(見圖2),必須通過預設相應的對話內容才能實現與人交互。在接收到信息后,機器會對這些信息進行簡單的意圖識別,然后按照程序既定的規則匹配固定的回復內容,進而實現與人的交互。假如程序中沒有預設相應的交互內容,那么交互過程就會顯得不連貫,甚至無法作出回復。與傳統聊天機器人不同,生成式大語言模型能夠基于算法和模型數據生成回答,并具有類似人類推理的能力,可以聯系上下文進行解答,讓人感覺置身于真實的問題情境中。在功能拓展方面,如GPT-4o、Sora等大語言模型還具備文生圖、文生視頻的功能,這讓傳統聊天機器人在機制上難以企及,進而加深了人們對大語言模型的好奇,也引發了對其推理能力的思考。

2.生成式大語言模型的能力局限性

近期,英國前沿人工智能工作組與紐約大學等機構在一項針對大語言模型邏輯推理能力的研究中發現,包括GPT-4在內的大語言模型均存在一種“逆轉詛咒”,即經過訓練的大語言模型學會了“A是B”,但是并不能順利推廣到“B是A”(Berglund et al.,2023)。類似地,當人類知道“劉邦是漢朝的開國皇帝”這一事實后,能正確回答“漢朝的開國皇帝是劉邦”,然而該研究則表明大語言模型無法以這種方式進行泛化推理。

該研究主要包括兩個實驗。實驗一是通過一系列對合成數據的微調來測試大語言模型的泛化能力。大語言模型學習的數據集均為虛構信息。實驗結果表明,在進行精確匹配時,若提問形式與訓練數據的形式一致,則大語言模型回答的準確率很高;但是當提問形式與訓練數據的形式不一致時,則模型完全無法泛化,準確率趨于0。該實驗表明,當提問形式的順序顛倒時,模型無法提高其正確率。實驗二是對真實世界的名人及其父母的客觀事實進行測試,形式為“A的父母是B”和“B的孩子是A”。實驗人員收集了1000位名人的名單,通過OpenAI的API訪問并查詢GPT-4,以獲得其父母的名字。結果表明,GPT-4能夠識別出這些名人父母的概率為79%;在提供相應的子女—父母配對情況下,當實驗人員反向詢問GPT-4來識別父母的子女時,GPT-4的正確率只有33%。但是,當研究人員采用來自LLaMa-1系列未經微調的基本模型(Touvron et al.,2023)進行評估測試后發現,所有模型在識別父母方面都比識別子女要好得多。此外,研究人員還嘗試用“影響函數”“事實回憶機制”“大語言模型中的知識編輯”“語言模型語句中的不一致性”“人類的前向記憶和后向記憶”等來解釋這一實驗結果,但都難以證明大語言模型有從正向泛化到反向的能力。這意味著預訓練模型若沒有在兩個方向上都接受過訓練,那么它就不會泛化到這兩個方向。

以上研究從側面證明,模型的生成過程并未涉及推理和邏輯思維,在機器學習過程中,模型并不能真正理解語句的含義及其背后的語境,因此大語言模型并不具備等同于人類的推理能力,其與人類的“對話”能力建基于機器學習與訓練數據,即通過對海量文本序列的學習,模型可以預測下一個單詞或語句的概率,進而生成看似合理的回答。由此可見,生成式大語言模型實質上是一種基于文本數據處理的“聊天機器人”,相較于傳統聊天機器人,它們能夠根據人類提出的聊天內容和要求作出更適當的回答,進而實現與人類的交互。

針對生成式大語言模型在實際應用中表現出來的一些問題,如模型生成的回答內容不精準、邏輯推理能力較差等,各科技公司積極推出了各種升級和優化策略。一方面,借助追問補充機制,讓模型主動補充更多關于問題的細節,再結合更為詳盡的對話歷史,以使回答內容更為精準。另一方面,從資源供給的視角,為模型配備更為詳盡且專業的數據資源,并針對模型的某種能力展開強化訓練,促使該能力得以提升。以OpenAI發布的推理能力更為突出的GPT-o1模型為例,目前官方雖暫未公布其內部運作的詳細信息,但根據其表現可以推測,該模型增加了推理過程數據的訓練集,尤為強調模型在邏輯推理過程中的強化學習,使其在一定程度上能夠模擬人類的思維過程。然而,盡管模型經過優化提升后部分能力有所進步,但其底層邏輯并未改變,仍是基于數據處理的深度學習技術,這種通過數據驅動來不斷優化自身性能表現的做法,與真正意義上的人類思維和認知方式仍存在本質差異。

人類思維是在長期的生物進化過程中逐漸形成的,其形成過程涉及大腦復雜的神經生理機制以及長期的社會文化經驗積累。正是在不斷地接收和處理外界信息的過程中,人腦才逐漸構建起了豐富多樣的認知模式和思維路徑,而這些模式和路徑顯然受到情感、價值觀以及社會文化背景的影響,因而也使得人類思維具有高度的主觀性和內化能力。而生成式大語言模型所具備的“思維”則是建基于大量數據的訓練以及算法之上。它僅僅是對數據中的語言模式和統計規律進行學習和模仿,并沒有自身的感知系統去直接體驗世界,也缺乏自我意識去反思和調整自身的思維過程,因而導致模型缺失內在情感與自我意識。另外,由于生成式大語言模型的思維模式依據所習得的模式和算法展開,呈現出相對固定的特性,因而也缺乏人類思維所具備的靈活性和創造性。總之,模型的知識獲取源于訓練數據,具有有限性且對數據信息存在依賴,其性能相對固化,對解決不同情境下問題的適應能力欠佳。正是這種人機思維本質上存在的客觀差異性,將導致模型難以直接適用于當下的教育情境中。

3.生成式大語言模型的教育應用探討

在教育領域,很多學者認為人機協同是發展趨勢,并衍生出人機協同認知(郝祥軍等,2022)、人機協同教育(方海光等,2022)等一系列相關的理論研究。協同認知來源于系統科學中的“協同理論”,該理論強調結構永遠處于形成、消失、競爭、協作或者組成更大結構的過程中,協同會經歷無序狀態、近平衡、遠平衡、漲落和有序狀態的迭代(李海峰等,2023)。這意味著通過人機協同可以實現人機互惠(郝祥軍等,2023),達到真正意義上的“學生更具智慧、機器更加智能”(王一巖等,2024)。

然而,生成式大語言模型在實際教育應用中的表現果真如此嗎?有學者認為,心智未成熟的個體過度依賴生成式大語言模型可能會存在“智慧退化”的風險(李政濤,2023),讓學生的思維訓練和創造力發展空間受限(鐘秉林等,2023)。也有學者通過人—機對話交互實驗發現,在面對寫作任務時,大部分學生傾向于依賴人工智能生成的文本內容直接替代自己的思考,這種“拿來主義”既不利于知識和思維的發展,而且助長了人的惰性(汪婧等,2024)。此外,由于大語言模型本身缺乏推理能力,其互動和反饋通常基于已有信息,而不具備自主動態調整和深度理解的能力,這種局限性導致其難以真正實現協同。由此可見,以上所謂的人機協同認知和協同教育,實質上是一種對技術樂觀的暢想,當下還不具有實現的可能性。

雖然僅通過人機對話難以實現協同認知,但是通過設計提示語可以有效引導大語言模型產生預期響應。有學者提出了一種結構化提示語設計模板,該模板包括角色名稱、角色簡歷、角色規則、工作流程以及初始化等部分(趙曉偉等,2024)。在設定好角色信息后,大語言模型能夠根據預設的問題和個體提供的主題生成高質量的回答。例如,當利用提示語將模型設定為項目化學習課程設計專家時,它能通過角色扮演向用戶詢問相關學科主題和學情信息等,從而自動生成相應的項目化學習教案。相比之下,若不使用提示語而直接提問,即便提供的信息與使用提示語時完全一致,大語言模型生成的回答質量以及內容詳盡程度也會顯著低于前一種情況。因此,利用結構化提示語模板為生成式大語言模型設定規則和屬性,并以特定的語法結構表達指令的方式,則能夠更加清晰地引導其執行特定任務。這種方法在教學實踐中具有一定的借鑒價值,可以為生成式大語言模型在賦能學習方面提供支持。除此之外,也有學者基于大語言模型的交互能力進行二次開發,通過調用大語言模型的API接口,并與其他會話軟件相結合,構建了人機協作系統。在此過程中,模型能夠依據設定的參數,模擬教師或專家的身份展開會話及評價。例如,有學者通過對ChatGPT、文心一言進行二次開發,設計了“孔子大語言模型會話機器人”和“智能蘇格拉底教學機器人”(李海峰等,2024a;2024b),并將教學方法、教學模式與大語言模型加以融合運用,其研究發現,模型的二次開發的確能化解人機會話形式單一的問題,而且比直接使用模型更具優勢,然而大語言模型在提升學生的學習績效、批判思維能力、內在動機等方面仍存在一定不足。

總之,盡管生成式大語言模型在與人類的交互層面呈現出一定的優越性,但在教育應用中,其與人類之間對話的差異在很大程度上限制了它在教育領域的有效適配與深度應用。

二、生成式大語言模型在教育應用中的固有 困難

1.不能夠真正理解問題,只能給出“理想解”

深度學習的機制實際上是對人類從數據中發現規律能力的膚淺模仿(徐英瑾,2021),其雖然參考了人類的神經元網絡結構,但與人類大腦的復雜結構相比,仍相去甚遠。人類與機器在面對問題時存在巨大的認知差異:人類的認知是人腦通過感覺、知覺、記憶、思維、想象等形式反映客觀對象的性質及對象間關系的過程;而機器則是基于人類預先設定的邏輯或規則,嚴格按照既定規則進行運算、判斷、執行相應指令,缺乏像人類一樣依據主觀感受去調整認知的能力,其行為和判斷結果基本是在預設框架內輸出,相對較為機械和模式化。

如前文所述,人工智能神經元網絡是在各種可能的映射情況之間進行反復迭代,將輸出結果與人類預先給出的數據進行比對,若比對成功,系統則會保存各神經元之間的連接權重并在此基礎之上繼續學習,由此不斷強化其根據新的輸入數據作出合理推斷的能力。這種機器學習的方式實質上是一個復雜的語言信息重組的過程,即通過大量的數據和算法模型訓練,機器可以學習到輸入與輸出信息之間的關聯規律,但其并不具備人類對意義的主觀內化能力,因此,以這種方式解決問題的過程并不能稱之為“理解”問題,而只能稱之為在各種可能的輸出結果之間選擇“理想解”。

例如,當人們向ChatGPT提問“快遞三天才到,為什么不提前三天發出”這種邏輯問題時,ChatGPT會從“商家和倉庫提前發貨會導致庫存管理混亂”以及“影響快遞服務運送的各種因素”等角度一本正經地進行分析與回答。對于一般人而言,他們能在主觀上理解并意識到“商家發出快遞”的必要前提是“顧客購買商品”,顯然ChatGPT并沒有理解、意識到這一點。可以說ChatGPT并不具備感知力,而只是一個具有強大的文本生成能力的模型(宋萑等,2023)。它一本正經回答問題的原因在于其并沒有真正意義上的推理能力,已學習的數據語料中也沒有針對這類問題的相應解答,因此只能按照自身規則對回復的文本進行概率分析和預測,這就解釋了為什么大語言模型會給出“看似合理卻非常荒謬的回答”(王佑鎂,2023)。

2.僅能依賴訓練數據,知識立場不堅定

從其工作原理可知,生成式大語言模型非常依賴訓練數據,它回答問題的準確性和合理性受預訓練時的數據集以及能搜索到的網絡學術資源的影響與限制(肖峰,2023)。大語言模型借助海量的高質量語料體系進行預訓練,進而使機器能夠學習人類的文字表達和語言邏輯,這個過程中所使用的訓練數據在一定程度上決定了機器的認知范圍。縱使現在大語言模型與搜索引擎相結合,能夠對檢索到的網絡資源進行學習,但也不可避免地會遭遇諸多問題。一方面,網絡中存在大量無用或低質量的數據,這些數據混入學習資源中,難免會干擾模型對正確知識的掌握,從而降低其輸出內容的質量與準確性。另一方面,在涉及專業性較強的知識及研究領域時,大多數學者的學術觀點和思想并非能通過網絡免費檢索到,因此生成式人工智能在回答專業性較強的問題時就很難達到專業水準。此外,縱使模型與訓練所使用的數據再龐大,用于預訓練的數據集中也不會存在未來還未發生的數據信息,因而更做不到對尚未發生的未來事件的數據進行處理。

在明確了大語言模型的“知識”來源后,本研究嘗試通過質疑其答案合理性的方式檢測其知識立場是否堅定,案例見圖3。

由此可見,ChatGPT并不具備堅定的知識立場,缺乏對知識內容的正確性檢測,也不會對提問者的內容產生質疑。人類思維是人類實踐活動的意識映射(李芒等,2023),表現在個體思考、分析和判斷時的獨立性和主觀性。而機器思維并不具備“自我”概念,其是基于數據和程序算法進行決策的,無法像人類一樣按照一定的邏輯進行問題分析。因此,大語言模型并不具備堅定的知識立場,其回復內容僅僅是根據輸入信息進行一系列復雜演算的結果,缺乏對問題的深入理解,容易產生錯誤或者誤導。若在大語言模型的訓練數據中包含針對同一個問題的不同觀點和立場,則可能會出現回答相同問題得到不同結果的情形,而究竟會生成哪一種結果則取決于模型所接觸到的數據和權重分配。總之,大語言模型解決問題的內在機制決定了其在連續回答相同問題時可能會表現出不一致性,且在特定的話題或領域中,大語言模型確也無法提供準確且一致的知識立場。

3.僅是語言的生成而非創造

何為創造?《漢語大辭典》中對創造的解釋為:想出新方法、建立新理論、做出新的成績或東西。大語言模型所謂的“生成性”是指基于大數據的語言生成性,而缺乏與人相比的創造能力及相應意義上的生成性(張絨,2023)。大語言模型的生成能力雖然可以產生看似有創意的文本,但其本質仍然是基于已有數據的模仿和組合。模型通過統計和分析大量的現有文本數據,按照概率進行組合和生成新的文本,這種方式并不等同于人類的創造過程。人類的創造是建立在對世界的感知、思考和情感之上的,而不具備“自我”概念的模型顯然缺乏這些主觀意識和情感因素,且也沒有內在的動機或目標。因此,大語言模型所生成的內容并不是出于自發的創作欲望,而是受到指令、預設規則和數據等影響而被動作出的回答。

盡管大語言模型可以生成一些看似具有創造性的作品,但這種“創造力”更多是基于對已有模式的模仿和延伸,而非真正的創造性表達,其創造能力仍受限于缺乏主觀意識和情感體驗的特性,這種語言生成的能力在某種程度上更像是一種“生產力”的體現。由于對“創造”和“生產”概念的模糊認識,導致人們誤以為生成式大語言模型具備一定的創造能力。模型的語言生成局限在有限的訓練數據范圍之內,其提供的回答往往是直接生成的,與人類解決問題的過程相比,模型生成回答的過程缺少對問題本身的批判性思考。而在解決實際問題的過程中,人們往往需要考慮諸多主客觀因素的影響,才能達到解決問題的目的。可以說,盡管生成式大語言模型建立在豐富的知識積累基礎之上,但其作為交互工具并不具備人類所擁有的創造力,學習者在使用大語言模型時很可能會忽視對其所生成信息的辨別,甚至會由于過度依賴模型的回答而無法進行獨立思考和判斷。

4.不能真正解決個別化教學的問題

個別化教學的核心在于精準滿足學生的需求和興趣,以助力其實現最優化發展(牟智佳,2017)。學生的學習過程受到眾多因素的影響,既包括學習資源、學習環境等外在因素,也涵蓋學習動機、學習策略、思維習慣與認知風格等內在因素。從人工智能在教育領域的應用現狀來看,人們期望借助人工智能技術對學生進行多元分析,進而結合學習者的學習薄弱點進行路徑規劃和資源推薦,借此來實現學生的個別化學習。然而,這種將個別化學習簡單等同于“學情分析”“資源推薦”和“學習路徑規劃”的認識偏差,實際上是將學習的本質簡化為學生對學習資源的選擇、瀏覽和加工,很顯然這種盲目相信數據和忽視學生主體性的觀念是站不住腳的。

以“學習成績下降怎么辦”為例,ChatGPT的回答包含了對該問題的分析和“確定原因”“制定規劃”“尋求幫助”等6個建議,并對每個建議進行了解釋說明,最后再回歸問題對提問者進行勸導:“記住,學習成績的提高是一個漸進的過程,需要持續的努力和耐心,相信自己,相信你能夠克服困難并取得好成績。”同樣的問題,在“文心一言”和“訊飛星火”中得到的答案與ChatGPT相似。“文心一言”從學習方法、學習態度、尋求幫助三個方面進行闡述,并給出總結和激勵。“訊飛星火”則給出10條更為詳細的建議,比如分析原因、設定目標等,最后同樣給出總結和勸導。但是向真實的教師去詢問相同的問題時,教師會結合對該學生既往學習和心理情況的了解,有針對性地通過詢問“最近遇到了什么特別的事情”或者“學習中遇到什么困難”等具體情況與學生進行更深層次的對話,進而嘗試幫助學生走出困境或者克服困難,而非單純地羅列解決該問題的一般方法。目前雖然一些模型在技術上有了進步,例如能夠主動詢問關于問題的更多細節,但其本質上仍然是基于數據訓練和算法運行的簡單結果,缺乏真實教師敏銳的洞察力和對學生個體差異的深度理解,難以像真實教師那樣通過長期的互動、觀察和情感交流深入了解學生的個性、心理狀態以及不斷變化的學習需求。

由此不難看出,大語言模型的回答看似合理且有邏輯,但實際上仍缺少針對性,難以滿足學習者深層次、復雜的現實需求。即便通過分析對話歷史數據以及詢問補充更多相關細節,大語言模型也難以真正實現對學習者的全面了解。筆者認為,大語言模型能夠為學生推薦必要的學習資源,規劃學習路徑并提供一般性指導,但是對于個別化的學習需求,模型給予的幫助并不理想。未來大語言模型或許可以通過不斷改進技術,如加強對學生情感和認知狀態的識別、提高與學生互動的深度等方式,來更好地滿足個別化學習的需求。但就目前而言,生成式大語言模型仍難以有針對性地解決學生的個別化學習問題。

三、對話式教學與大語言模型人機交互的適 用性考證

教學活動在本質上是對話式的(張天寶,2005),但對話式教學中的“對話”并不等同于生活中人與人之間的溝通交流,而是指通過對話能夠使師生之間進行雙向的知識、思想以及精神世界的能量轉換,進而促進個體的自我發展。可見,對話式教學必然強調學生主體意識的喚醒和批判性思維的生成(王海碩,2020),它對教師的專業化水平有更高的要求,也確能有效促進學生的成長(李森等,2004)。

在實踐層面,師生之間的對話并不僅僅為了知識的傳授,還有師生情誼的養成和精神的傳承,這就要求對話過程應該是相互合作、彼此互動、共同學習的過程。教師需要通過有效對話了解學生,并結合學生的不同特點,采用一定的教學策略來提供針對性的指導。換言之,在進行對話式教學時,對話雙方要做到民主平等,對話過程要有一定的策略性,且要做到因材施教。結合大語言模型在教育應用中的固有困難,筆者發現與對話式教學的要求相比,其在教學領域的適用性仍需考證。

1.人機交互過程并非民主平等,而是隱含著某種價值取向

師生之間的對話是建立在師生平等關系基礎之上的(徐潔,2000),對話不是形式,也不是目的,更不是手段,而是師生共同解決問題的過程(張紫屏,2015)。民主平等意味著師生之間權利和義務的相近,只有在雙方身份地位平等的理想狀態下,師生才能共同圍繞某個主題進行討論,進而解決問題甚至產生新的認識和理解,不斷實現主體間的雙向建構。這種雙向建構不應受某種特定價值取向的影響,但在基于大語言模型的人機交互中卻并非如此。

大語言模型對問題的回答,一般蘊含著某種潛在的價值取向,如經濟上的商業利益訴求、倫理道德層面的某種取向,甚至是意識形態上的政治傾向。導致這種價值取向的來源主要有兩個方面:其一是數據偏差。如果數據本身存在偏差或錯誤,而模型本身并不具備人類的道德判斷力和價值觀,其必然無法區分什么是正確的、公正的、合理的。其二是開發者和管理者有意為之。出于自身商業利益或其他價值取向的考量,開發者和管理者會對某些問題的回答進行干預和調整,如限制對某些敏感問題的回答,或在某些話題中優先設置更具傾向性的答案,以實現其利益最大化。當然,師生對話也會蘊含某種價值取向,但是這種價值取向是建立在“為國育才”“尊師愛生”等雙向建構基礎之上的,既是合理的,也是必須堅持的。而大語言模型所蘊含的價值傾向,顯然并非如此。

另外,由于大語言模型沒有“自我”概念,沒有堅定的知識立場,缺乏人類所擁有的意志和選擇的權利,因此它只能被動接收輸入的指令或問題,依據自身的規則生成相應的回答,而并不能選擇是否回答問題和回答問題的方式,也不能理解對話語境中的情感并作出合理回應。例如,在一個涉及情感支持的對話情境中,大語言模型只能機械地給出一些通用的語句,而無法像人類教師那樣根據學生的情緒變化給予真正有針對性和情感共鳴的回應。因此,模型與人之間的對話是單向的,它只是被動地回答問題,而且這種回答還可能帶有某種價值取向,根本無法實現對問題的討論,更不可能提出有挑戰性的觀點并進行辯論。顯然,建立在民主平等意義上的雙向互動,在模型和人之間是不可能的。

2.人機“對話”缺乏策略性,難以引導學生進行深入思考

教師在與學生的對話過程中扮演著關鍵角色,他們需要采取一定的策略引導學生進行深入思考并提出問題,從而逐步培養學生的創新思維,提高其解決問題和應對挑戰的能力。已有研究表明,批判性思維對于培養學生的創造性具有積極的促進作用(黃朝陽,2010)。但是大語言模型與人交互的過程卻難以具備策略性,無法有效促使學生打破固有的思維模式。大語言模型雖然可以為學生提供豐富的已有信息和觀點,但它本身并不具備創造力,如果學生在與模型的互動中缺乏自己獨特的思考和判斷,就可能導致過于依賴模型進而喪失其主體性。換言之,大語言模型輸出的內容類似自動化的“內容預制菜”,表面上實現了知識建構和技能獲得,但實際上卻存在“反智”風險(苗逢春,2023)。

從教學實踐的角度看,大語言模型并不具備人類所擁有的推理能力,人機交互的過程缺乏策略性。具體表現在,模型的回答只局限于問題表面,不能提供詳盡的解釋,也不能有效引導學生進行深入思考。例如,當我們提問:“氣候變化對環境會有哪些影響?”模型給出的回答較為簡單——“氣候變化會導致海平面上升、極端天氣事件增加等。”但是在真實的課堂教學中,教師通常會利用大量信息對氣候變化的復雜性、對人類社會和生態系統的影響等方面進行更深層次的解釋和說明,以引導學生深入思考。這一過程有助于激發學生保護環境的潛意識,從而為培養學生的批判性和創造性思維奠定基礎。顯然大語言模型的回答缺乏一定的深度和策略性,無法引導學生進行深入思考和進一步探究,也難以提高學生的問題解決能力。此外,大語言模型很難做到理論聯系實踐,學生僅能接受模型提供的已有信息,難以從零開始構建新觀點、新概念或新作品。

3.大語言模型難以真正做到因材施教

因材施教對于對話式教學而言至關重要。對話式教學要求針對學生的個性特點和需求,采取不同的途徑、措施和方法(梁秋英等,2009),來制定或調整教學計劃,以便為學生提供針對性的反饋和指導。

相較于大語言模型,教師通過師生對話能夠為學生提供個別化指導和反饋,以幫助他們克服困難、挖掘潛力。孔子倡導因材施教,面對弟子們的相同問題,他能夠針對不同弟子的性格特點進行教導,甚至給出截然不同的回答。例如,子路問:“聽到什么就行動起來嗎?”孔子說:“有父親和兄長在世,怎么能聽到什么就行動起來呢!”而面對冉有同樣的提問,孔子卻說:“聽到什么就行動起來。”這是由于孔子對兩位弟子的性格特點非常了解,前者平時好勇過人,所以讓他謙退,后者日常做事縮手縮腳,所以鼓勵他勇進。而大語言模型僅僅基于輸入的文本進行內容生成,只能提供一般性的回答,難以根據學生的具體情況進行個別化指導,以及解決個別化問題。再例如,當一個學生提出關于“如何解一元二次方程”的問題時,模型只會給出一個標準的解題方法,并不能根據學生的疑點和學習風格提供個性化的解釋,實際上學生可能需要更多的步驟示范、提示或者練習來幫助其掌握解方程的方法。因此,大語言模型僅能通過回答問題的形式為學生提供一些通用性的解釋和反饋,而并不能根據學生的現實情況進行因材施教。

四、生成式大語言模型在對話式教學中能做 什么

同師生對話相比,大語言模型與學生的交互雖然達不到真正意義上的“對話”,但教學實踐卻無法回避技術對其產生的影響(鄭燕林等,2023)。結合大語言模型所具備的強大的語言生成能力,其仍然能夠從以下三個方面支持對話式教學的開展。

1.為客觀性知識類教學問題提供高效信息咨詢服務

盡管模型并不能理解問題,但是機器學習具有基于計算機的強大算力而表現出來的高效性,這是人類學習過程中很難具有的特點。模型通過預訓練積累了豐富的客觀性知識,這使其具備了大量的知識儲備。因此,在針對客觀性知識較強的教學問題時,大語言模型具備獨特的優勢。利用大語言模型可以提高知識獲取的效率和便捷性,與傳統的知識信息搜索方式相比,大語言模型可以輕松回答學生提出的各類知識性問題,并且準確性有較大提高(周洪宇等,2023)。傳統的信息搜索方式通常需要用戶輸入關鍵詞或提出問題,然后系統會返回相應的搜索結果,這種方式雖然能夠提供很多信息,但是需要用戶自行整理有用信息,費時且費力。而大語言模型可以根據輸入的問題生成相應的回答,并以更加自然的方式進行交流,知識獲取更加高效便捷。而且大語言模型還可以根據學生的需求拓展延伸相應的知識。例如,學生在學習古詩《鋤禾》時想要了解作者李紳的生平,在閱讀文章時看到某個學術概念想要進一步了解其含義,在觀察到丁達爾現象時希望了解其中的科學原理……面對諸如此類的情境,大語言模型所提供的回答在很大程度上能夠較好地滿足學生的需求,即便這些回答的準確性和合理性稍差,也不會對最終的學習效果產生很壞的影響。

2.基于海量大數據為語言教學提供精準模擬和糾錯服務

語言作為人類交流的重要媒介,其學習與表達具有內在的規律性。每種語言都擁有獨特的語法規則和句法結構,構成了語言的基本框架,為信息傳遞提供了必要的準則和約束。當前的人工智能主要是通過模擬人類智能的外在表現來實現智能模擬的機器智能(顏士剛等,2022),大語言模型作為自然語言處理工具,其學習過程不僅僅是簡單地對文本進行編碼和解碼,還能通過捕捉和學習文本數據中的語法規則、詞匯使用和句子結構等特征,實現對文本語言的有效建模。雖然大語言模型并未能真正理解語法規則的內在機制,但可從海量的文本數據中學習語言的表達規范,并根據指令精準模擬人類的表達習慣和寫作手法,如模仿詩人作詩、模仿某位作家的寫作風格撰寫文章等。大語言模型對文本語言內在結構和表達方式的掌握,使其能夠提供精準模擬和糾錯等高質量的語言服務。

例如,在二語習得過程中,學生可以為大語言模型設定特殊身份(如一位外國友人),然后通過人機交互模擬兩人的對話,以便在一個低壓力的環境中練習語言表達,進而提升語言交流能力。當學生出現不同程度的語法錯誤時,模型可以為其提供多方面的幫助和支持。第一,進行語法糾錯。基于學習到的語法規則和句子結構,大語言模型能夠識別輸入文本中的語法錯誤,例如主謂不一致、冠詞使用錯誤等,并給出正確的語法建議或進行糾錯修改,如此學生便能從模型的反饋中快速掌握正確的語法規范,從而提高語句表達的準確性和規范性。第二,優化詞匯選擇。根據上下文的語境,模型能夠提供合適的詞匯選擇建議,不僅可以增強語句的表達力,而且能有效擴展學生的詞匯知識庫,還有助于提高學生正確使用詞匯的意識和語言技能。第三,優化語句結構。在接收到輸入文本后,大語言模型能夠結合語言學習的規范,對語句結構進行優化,使其更加清晰流暢,從而幫助學生不斷提升語言學習的效果。

3.針對常規教學活動提供一般性的參考框架、范式或提綱

雖然大語言模型對解決具體問題的幫助并不明顯,但它具有為教育實踐領域提供多樣的模式化內容框架的潛力卻有目共睹。這意味著教師可以依據特定的教學需求,利用大語言模型生成一般性的框架、范式或提綱,以支持教學活動的設計和實施。這里的“一般性”是指模型生成的內容具有適用于其他廣泛情境的普遍性和通用性。換言之,這些框架、范式或提綱并非針對特定的情境和問題,而是適用于各種教學實踐領域的一般模式。

例如,在進行對話式教學過程中,當教師需要設計一個教學評價框架來評估教學效果時,他們可以向ChatGPT發送指令:“請提供一個關于對話式教學的教學評價框架。”收到ChatGPT的回復內容為“從教學設計評價要素、教學實施評價要素、學習效果評價要素三個方面展開”,并提示教學設計評價要素包括“對話目標明確性、問題設計質量、資源準備”,教學實施評價要素包括“教師引導能力、學生參與度、互動質量”,學習效果評價要素包括“知識掌握程度、思維能力提高、學習態度和價值觀”。雖然模型所生成的框架較為全面,且對每個要素都進行了解釋說明,但是這些內容并不能直接拿來應用于教學。教師需要根據現實情況進行針對性的修改完善,才能對教學起到及時診斷和調整優化的作用(白雪梅等,2024)。在此過程中,教師需要認識到評價的目的并非是簡單檢測學生的學習情況,而是為了促進學生的發展與提升教學質量。

同樣當教師要求大語言模型提供一個關于歐姆定律的教學案例時,它提供的教學案例雖然包含了教學目標和教學活動等較為全面的內容,但也不難發現其教學目標描述的行為動詞、實驗細節和評價方案等內容并不能直接應用于教學實際,仍需要進行系統修改。因此,大語言模型可以提供一般性的范式、框架或提綱,便于教師在教學實踐中參考使用,但這一過程還需教師結合專業知識、學情以及教學經驗進行必要調整。

五、結語

生成式大語言模型雖然擁有與人交互的能力,形式上能夠實現人機“對話”,但其本質仍然是一種基于大數據處理的“聊天機器人”,難以僅通過人機交互真正實現教學的目的,也達不到對話式教學中師生對話的理想效果。即便如此,當下大語言模型依舊可以憑借其強大的語言生成能力為教學提供更多支持。前文列舉的三個方面,均源于對模型工作原理的分析,是其工作原理和“邏輯能力”能夠支持的服務范疇,雖然未必涵蓋它所能提供的全部服務,但卻是最為真實和有效的。總之,大語言模型在教育中的推廣和應用,應充分考量其優勢與局限性,恰當且審慎地應用,杜絕虛妄的夸大和脫離實際的暢想,這或許是一條打破一百多年來教育技術實踐“無奈循環”的有效途徑。

參考文獻:

[1]白雪梅,郭日發(2024).生成式人工智能何以賦能學習、能力與評價?[J].現代教育技術,34(1):55-63.

[2]方海光,孔新梅,李海蕓等(2022).人工智能時代的人機協同教育理論研究[J].現代教育技術,32(7):5-13.

[3]郝祥軍,顧小清,張天琦等(2022).人機協同學習:實踐模式與發展路向[J].開放教育研究,28(4):31-41.

[4]郝祥軍,張天琦,顧小清(2023).智能時代的人機協同學習:形態、本質與發展[J].中國電化教育,(10):26-35.

[5]黃朝陽(2010).加強批判性思維教育 培養創新型人才[J].教育研究,31(5):69-74.

[6]焦建利(2023).ChatGPT:學校教育的朋友還是敵人?[J].現代教育技術,33(4):5-15.

[7]李海峰,王煒(2023).人機協同深度探究性教學模式——以基于ChatGPT和QQ開發的人機協同探究性學習系統為例[J].開放教育研究,29(6):69-81.

[8]李海峰,李廣鑫,湯允鳳(2024a).智能群體多維感知機器人支持的人機協同研學教學模式——以“孔子”大語言模型會話機器人的研發與教學為例[J].現代遠距離教育,(4):48-59.

[9]李海峰,王煒,李廣鑫等(2024b).智能助產術教學法——以“智能蘇格拉底會話機器人”教學實踐為例[J].開放教育研究,30(2):89-99.

[10]李芒,楊宇軒(2023).人非機器:對計算思維本質的認識[J].開放教育研究,29(2):55-60.

[11]李森,吉標(2004).師生對話的特點及意義[J].西南師范大學學報(人文社會科學版),(3):88-91.

[12]李政濤(2023).ChatGPT/生成式人工智能對基礎教育之“基礎”的顛覆與重置[J].華東師范大學學報(教育科學版),41(7):47-55.

[13]梁秋英,孫剛成(2009).孔子因材施教的理論基礎及啟示[J].教育研究,30(11):87-91.

[14]苗逢春(2023).生成式人工智能技術原理及其教育適用性考證[J].現代教育技術,33(11):5-18.

[15]牟智佳(2017).“人工智能+”時代的個性化學習理論重思與開解[J].遠程教育雜志,35(3):22-30.

[16]錢力,劉熠,張智雄等(2023).ChatGPT的技術基礎分析[J].數據分析與知識發現,7(3):6-15.

[17]沈書生,祝智庭(2023).ChatGPT類產品:內在機制及其對學習評價的影響[J].中國遠程教育,43(4):8-15.

[18]宋萑,林敏(2023).ChatGPT/生成式人工智能時代下教師的工作變革:機遇、挑戰與應對[J].華東師范大學學報(教育科學版),41(7):78-90.

[19]汪靖,陳恬妮,楊玉芹(2024).思維與調節的融合共創:生成式人工智能支持的人智交互過程與模式研究[J].中國電化教育,(8):45-55.

[20]王海碩(2020).對話教學及其內涵式建構[J].教學與管理,(24):1-3.

[21]王一巖,劉淇,鄭永和(2024).人機協同學習:實踐邏輯與典型模式[J].開放教育研究,30(1):65-72.

[22]王佑鎂(2023).奇點確認:ChatGPT時代教育的沖擊與挑戰[J].中小學信息技術教育,(4):1.

[23]肖峰(2023).生成式人工智能介入知識生產的功用探析——借助ChatGPT和“文心一言”探究數字勞動的體驗[J].重慶郵電大學學報(社會科學版),35(4):1-10.

[24]徐潔(2000).民主、平等、對話:21世紀師生關系的理性構想[J].教育理論與實踐,(12):12-17.

[25]徐英瑾(2021).人工智能哲學十五講[M].北京:北京大學出版社:52-53.

[26]顏士剛,王麗蕊,周紫婷(2022).論情感教育視角下人工智能機器人的德育困難[J].現代教育技術,32(4):5-12.

[27]張絨(2023).生成式人工智能技術對教育領域的影響——關于ChatGPT的專訪[J].電化教育研究,44(2):5-14.

[28]張天寶(2005).試論教育對話及其基本特征[J].北京大學教育評論,(3):102-106.

[29]張志禎,張玲玲,米天伊等(2023).大型語言模型會催生學校結構性變革嗎?——基于ChatGPT的前瞻性分析[J].中國遠程教育,43(4):32-41.

[30]張紫屏(2015).師生互動教學的困境與出路[J].教育發展研究,35(6):44-52.

[31]趙曉偉,戴嶺,沈書生等(2024).促進高意識學習的教育提示語設計[J].開放教育研究,30(1):44-54.

[32]鄭燕林,任維武(2023).實踐觀視域下ChatGPT教學應用的路徑選擇[J].現代遠距離教育,(2):3-10.

[33]鐘秉林,尚俊杰,王建華等(2023).ChatGPT對教育的挑戰(筆談)[J].重慶高教研究,11(3):3-25.

[34]周洪宇,李宇陽(2023).ChatGPT對教育生態的沖擊及應對策略[J].新疆師范大學學報(哲學社會科學版),44(4):102-112.

[35]Berglund, L., Tong, M., amp; Kaufmann, M. et al. (2023). The Reversal Curse: LLMs Trained on “A Is B” Fail to Learn “B Is A”[EB/OL]. [2024-01-11]. https://doi.org/10.48550/arXiv.

2309.12288.

[36]Burbules, N. C. (2001). Theory and Research on Teaching as Dialogue[M]// Richardson, V. (Ed.). Handbook of Research on Teaching (4th Edition). Washington, DC: American Educational Research Association:1102-1121.

[37]Holmes, W., amp; Miao, F. (2023). Guidance for Generative AI in Education and Research[EB/OL]. [2024-01-15]. https://unesdoc.unesco.org/ark:/48223/pf0000386693.

[38]Robert, J. (2024). EDUCAUSE AI Landscape Study[EB/OL]. [2024-12-10]. https://www.educause.edu/ecar/research-publications/

2024/2024-educause-ai-landscape-study/introduction-and-

key-findings.

[39]Touvron, H., Lavril, T., amp; Izacard, G. et al. (2023). LLaMA: Open and Efficient Foundation Language Models[EB/OL]. [2024-01-18]. https://doi.org/10.48550/arXiv.2302.13971.

收稿日期 2024-10-20 責任編輯 劉選

Can Generative Large Language Models Effectively Implement Dialogic Teaching

YAN Shigang, HU Xiulei, LI Wenguang

Abstract: Generative large language models have, in form, enabled natural conversation between humans and machines, making it a realistic possibility for the ancient dialogic teaching method. Therefore, since their advent, they have been widely praised in the education field. In order to better understand the applicability of generative large language models in the dialogic teaching, it is necessary to explore the inherent difficulties in the application to education based on their working principles, so as to find appropriate paths to empower dialogic teaching. As an application of artificial neural networks with the ability of natural language conversation based on the training of large-scale corpora, generative large language models are essentially “chatbots” based on data processing. They have inherent difficulties such as a lack of comprehension ability, an unsteady knowledge stance, the fact that language is merely generated rather than created, and the difficulty in meeting individualized learning needs. Therefore, whether from the perspective of knowledge imparting or emotional cultivation, generative large language models themselves cannot achieve the ideal effects of dialogic teaching due to being influenced by specific value orientations, lacking strategic guidance, and being unable to teach students in accordance with their aptitudes. Even so, they can still provide suitable application scenarios for dialogic teaching. For example, they can provide efficient information consultation services for teaching problems related to objective knowledge, offer accurate simulation and error correction services for language teaching based on massive amounts of big data, and provide general reference frameworks, paradigms, or outlines for regular teaching activities.

Keywords:Artificial Intelligence; Generative Large Language Model; Dialogic Teaching; Individualized Teaching

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 嫩草国产在线| 69国产精品视频免费| 国产区在线观看视频| 无码中字出轨中文人妻中文中| 亚洲第一综合天堂另类专| 88av在线播放| 欧美福利在线观看| 国产成人一区免费观看| 91在线一9|永久视频在线| 精品久久久久久成人AV| a在线观看免费| vvvv98国产成人综合青青| 在线一级毛片| 成人无码一区二区三区视频在线观看| 国产午夜不卡| 国产成人高清在线精品| 久久永久精品免费视频| 九色91在线视频| 无码福利视频| 国产福利免费视频| 伊人色在线视频| 在线视频一区二区三区不卡| 国产乱人伦精品一区二区| 精品国产成人a在线观看| 国产精品欧美激情| 啪啪啪亚洲无码| 国产成人无码AV在线播放动漫| 国产91无码福利在线| 一区二区理伦视频| 91精品专区国产盗摄| 四虎永久在线精品影院| 免费人成视网站在线不卡| 一级全免费视频播放| 国产香蕉国产精品偷在线观看| 日韩欧美中文字幕在线精品| av无码久久精品| 亚洲无码高清一区| 97精品久久久大香线焦| 日韩欧美中文| 国产亚洲精品自在久久不卡| 香蕉eeww99国产在线观看| 国产精品中文免费福利| 欧美激情视频一区| 国产成人盗摄精品| 在线看片中文字幕| 亚洲精品第五页| 日韩欧美综合在线制服| 999国内精品视频免费| 精品色综合| 99视频有精品视频免费观看| 熟女日韩精品2区| 噜噜噜久久| 波多野结衣亚洲一区| 国产精品成人不卡在线观看| 成人精品免费视频| 国产在线91在线电影| 99久久亚洲精品影院| 亚洲有码在线播放| a免费毛片在线播放| 色哟哟国产成人精品| 精品国产成人三级在线观看| 精品一区二区三区无码视频无码| 一区二区自拍| 国产又大又粗又猛又爽的视频| 手机永久AV在线播放| 人妻中文字幕无码久久一区| 欧美色图第一页| 怡春院欧美一区二区三区免费| 国产av色站网站| 亚洲一级毛片免费观看| 亚洲第一香蕉视频| 日本成人精品视频| 69免费在线视频| 国产成人1024精品| 欧美一级特黄aaaaaa在线看片| 久久亚洲国产一区二区| 麻豆国产在线不卡一区二区| 亚洲色图欧美视频| 精品亚洲国产成人AV| 国产99欧美精品久久精品久久| 精品一区二区三区自慰喷水| 全午夜免费一级毛片|