摘要:當前,隨著以ChatGPT為代表的生成式人工智能技術的興起,教學活動正從傳統的“師-生”二元主體結構轉變為“師-生-機”三元結構。在此背景下,作為新主體的AI代理應該秉持怎樣的設計原則,才能夠實現不輸于傳統“師-生”互動的有效教學?“人-人”教學中的有效教學策略又能否遷移到“人-機”教學的場景中?為回答上述問題,文章回顧了教學代理的相關研究,圍繞兩個方面展開研究:一是保證情感互動。在媒介層面,提升機器的社會臨場感,使其能夠通過擬人化的聲音、表情和行為與學習者進行情感化互動;在社交層面,重視社交規范的作用,重新構建機器和學習者之間的互動規則,促進有效的教學交互。二是保證信息有效性。針對大模型的“幻覺”問題,提出結合領域知識庫和技術護欄機制來提升信息的準確性;關注人機信任的平衡,避免過度信任和算法厭惡,培養學習者的批判性思維和數字素養。文章通過這一系列討論,旨在提出構建適用于“人-機”教學場景的設計原則,為人工智能教育應用的開發設計和教學實踐創新提供參考。
關鍵詞:生成式人工智能;教學理論;臨場感;算法信任;社交規范
【中圖分類號】G40-057 【文獻標識碼】A 【論文編號】1009—8097(2025)02—0006—10 【DOI】10.3969/j.issn.1009-8097.2025.02.001
一研究背景
當前,生成式人工智能催生了人們對新的人工智能教育應用的期待,尤其是在大模型展現出近似人類的對話交流能力、思考分析能力和任務處理能力后,“人機協同”這一概念逐漸走進現實[1][2]。有學者斷言在不遠的將來,人工智能將以教學活動協作者的角色進入教學實踐,課堂活動的主體結構也會從傳統的“師-生”二元結構向“師-生-機”三元結構轉變[3]。這樣的轉變是否會重構我們對教育活動的理解,是否會導致新的教學理論出現,還需要進一步分析研究。回答這一問題涉及大量系統性的工作,包括對人工智能能力的深度理解,以及對新教學場景中應用模式、應用效果的深度考察。同時,技術發展日新月異,新的教學理論和模式的構建也需要隨技術的發展進行動態更新。
以往教育技術教學應用的理論與實踐主要研究如何利用計算機、平板電腦等工具提升教學效果[4]。在這些技術輔助教學的場景中,教學活動的基本樣態由“師-生”二元的教育活動者組成,而技術僅作為工具出現在教學活動中,被動地執行師生的意圖與決策,是師生教與學活動的組成部分。例如,個人電腦、電子大屏與黑板、課桌等物質技術并不具有本質的區別,它們都是教學活動者所處環境中的要素,能幫助教學活動者完成其意圖[5]。然而,新近出現的生成式人工智能在一定程度上表現出自主性,有望超越工具之藩籬,擁有教學活動者的特點。這種自主性即根據環境自動執行恰當的行動以完成目標的能力[6],具體表現為AI能夠依據環境進行判斷和決策,并根據反饋進一步優化決策和調整行為。具有自主性的人工智能出現在教學環境中,可能是課堂中的第二位老師,也可能是學習者的伴讀,“師-生-機”三元結構論由此而來。但僅由此就斷言現有的教學理論與“師-生-機”新型課堂主體關系不匹配尚為時過早,因為各種形式的雙師教學實踐早已有之,同伴教學也已經形成了多種模式。換句話說,不同的教學環境決定了某類教學模式會占主流,當機器在一定程度上超越了工具的角色,開始成為具備自主參與教學活動能力的主體時,當教師有意識地希望AI在教學活動中與學習者有更多的互動交流并提供學習支持時,一對一教學法就開始回歸了[7]。
早在20世紀70年代,教育技術的研究者就已經對機器如何扮演人這一問題進行了探討,其中具有代表性的探討來自20世紀90年代對教學代理的研究[8]。教學代理(Pedagogical Agent)是多媒體學習環境中的一類擬人動畫形象,能扮演不同的教學角色,與學習者進行交互,為學習者提供學習支持,如微軟Windows的卡通書簽形態助手。在人工智能技術仍未充分發展的那個時代,研究者基于媒介理論和教育心理學理論,發展出了一套系統的關于“機器如何扮演教學活動者”的理論。其中,Baylor等[9][10][11]和Ryu等[12]在2000年~2005年期間開展了一系列研究,發現一個能夠有效扮演教學活動者角色的教學代理需要滿足以下兩個條件:①保證情感互動,即教學代理需要提供情感化、類似人類的互動,也就是教學代理應當在媒介層面表現得“像人一樣”。②保證信息有效性,即教學代理應該具有淵博的知識,能夠提供可靠的學習信息。在當前階段,機器的教學身份從教學工具轉向教學助手的過程并沒有完全完成,但是這種發展趨勢已經非常明顯,有必要基于過去的研究發現,為一對一AI教學助手的實現提供設計原則。
二保證情感互動:機器類人
相較于人工智能,人類教師具有難以替代的情感能力,這被認為是教師不會被人工智能替代的原因之一。但現有研究和生活經驗也證實,人類會將自己的情感投射于其他生物并對其行為進行擬人化解釋,從而讓非人類的生物“通人性”,那么已經可以用自然語言對話并展示思維過程的AI助理還需要怎么做,才能夠獲得師生類人化的對待呢?本節將從社會臨場感和社交規范兩個維度綜述現有研究帶來的啟發。選擇這兩個維度展開討論,是基于它們在人機情感互動中的核心作用和互補性。其中,社會臨場感關注AI如何通過增強存在感和互動真實感來促進情感連接,為擬人化提供基礎條件;社交規范則著眼于如何通過建立合理的互動規則和角色定位來引導交互行為,為擬人化提供行為框架。這兩個維度分別解決了“如何在場”和“如何互動”的問題,共同構建起促進人工智能獲得類人化對待的完整互動體系。
1 媒介層面的機器類人——社會臨場感的作用
建立類人的教學代理,首先需要關注教學活動者與教學代理之間的情感互動。情感互動的核心在于機器在多大程度上能夠“像人一樣”,做到媒介交互意義上的“機器類人”[13]。“機器類人”不僅依賴于人類的心理傾向,更涉及復雜的社會、技術與文化互動,而“擬人化”或“人格化”對象的心理動因源于人類深層次的認知與社交需求,即通過賦予無生命物體或非人類主體以人類的特征、動機、意圖和情感狀態,來增強互動體驗與社會聯結感[14]。當媒介通過模仿人類的溝通行為展示出足夠的社會臨場感時,人們自然會對其產生類人化的社交反應,仿佛是在與另一個人進行互動[15]。對此,有研究表明當計算機在特定情境中觸發了人際交往的社會腳本時,人類會無意識地將其視為具有社會屬性的主體,并根據人際交往規則進行回應[16][17][18]。在教育心理學研究中,社會臨場感(Social Presence)理論為如何實現“機器類人”提供了重要的理論支撐,其含義是個體在通過媒介進行交流時,能感知到另一方作為“真實的人”存在的程度[19][20]。教育心理學的研究已證實,學習者在學習環境中感知到類似教師或同伴的存在時,往往表現出更高的學習動機或學習成就[21]。
因此,為了讓機器能夠勝任教學活動者的角色,首先需要保證其在媒介交互層面上能夠讓人類產生“像人”的感受,而實現這一點的關鍵在于提升其所表現出的臨場感。那么,如何提升機器所傳遞的社會臨場感呢?研究證明,傳遞有效的社會線索(Social Cues)是實現這一目標的關鍵,多媒體學習環境中的教學代理所傳達出的社會線索(如聲音、情緒、表情等)能激發學習者社會交往的圖式[22]。也就是說,當學習者通過社會線索感知到社會交流發生時,他就會將系統中的教學代理當作一個真人來進行交流。這種通過社會線索激活主體社交圖式的根據在于:為了降低信息處理的負荷,人們更喜歡用一些啟發式的規則(Heuristics)對信息來源進行歸類,并采用最相似的模式來處理它[23]。因此,當學習者在多媒體學習環境中發現類人交互的線索時,會將這一類信息歸為正常的人類社交信息加以處理,社會性的反應取向會變得特別明顯[24]。
Schilbach等[25]基于磁共振成像的研究也支持這一觀點,其研究表明,給被試觀看具有面部表情的虛擬人物會激活與“人-人”交互相同的腦區。在社交圖示被激活之后,學習者就會對計算機傳達出的信息進行更深層次的加工,這也就為有意義的學習的發生提供了條件[26][27]。Naas等[28]認為,計算機與人呈現出越多的相似特征,就越有可能激發人類的社會性反應。然而后續研究指出,社會線索的數量增加并不一定意味著能夠更大程度地激活學習者的社交圖示,盡管學習者可能會受到環境中絕大多數社會線索的影響[29],但部分線索的缺失并不會對其產生顯著影響。因此,如何選擇合適的社會線索加以呈現成為一個重要問題,這也表明在某些情景中,為了提升媒介的社會臨場感,社會線索的“質量”可能比“數量”更為關鍵。
因此,為了對已有的“人-人”教學理論進行優化,使其中的機器能夠更好地扮演真實的人類教學活動者,提升其表現出的社會臨場感,一個可行的策略是讓機器傳遞更多有效且高質量的社會線索。例如,可以更多地使用擬人的聲音而非電子合成音[30],以及采用具有手勢、面部表情的教學代理形象[31][32]。而在缺乏擬人形象的場景中(如純文本交互),可以考慮在文本中加入表情符號等策略來彌補[33]。
2 社交層面的機器類人——社交規范的作用
前文討論了如何在媒介層面保證“機器類人”,但設想這樣一種未來情境:通過人工智能技術,構建了一個在媒介層面與人類教師極為相似的教學代理——這個代理基于虛擬現實與多模態人工智能技術,能夠呈現與真人教師幾乎一樣的形象、聲音、表情、手勢——學習者是否會像面對真人教師一樣,與其進行教學互動?也許會,也許不會。目前已經發現一些中小學生在與大模型的對話過程中會對其辱罵叱責。也就是說,當學習者知道自己是在與機器對話的時候,可能不會遵循尊師重道這類傳統原則,而對機器教師的教學指令表現出拒不服從等越軌行為。
人類社會能夠有序組織和發展,離不開“社會規范”(Social Norms),即人類作為高度社會化的物種,在交互行為中逐漸發展出的一套復雜的潛在行為準則。在傳統人際教學中,隱含的社會規范無形中引導著教師與學習者之間、學習者與學習者之間的教學互動。從功能主義的視角來看,社會規范在很大程度上促進了群體效益的最大化,并通過抑制個體利己行為來實現更高效的協同互動[34],這保證了一般意義上的教學互動的有效進行。例如,在傳統的課堂講授中,教師天然處于話語權的主導地位,學習者則大多遵從教師的指導并信任其權威觀點[35]。相比之下,在學習者之間的合作學習中,話語權通常在參與對話的學習者之間流動,從而使每位學習者得到積極參與和表達的機會。盡管社會規范在以對話和交互為核心的教學模式中發揮著至關重要的作用,但這一概念在傳統的“人-人”教學法研究中往往被忽視,更多以隱性前提的形式存在。隨著人機教學模式的興起,社會規范這一隱性前提逐漸成為一個亟待深入探討的核心議題。
在“人-機”互動場景中,人工智能并不具備固定的社交身份,其定位在某種程度上處于“人類”與“工具”之間的模糊邊界,因此不能認為學習者會遵從與教師的社會互動模式,如同樣地遵從人工智能的教學指令,或者認真評估人工智能給出的反饋。在人機互動的背景下,如何在教學過程中重塑教學活動者與機器之間互動的社交規范,成為保證情感互動,加速“人-人”教學法向“人-機”教學法轉型的又一關鍵。
(1)“師-生”關系中的社交規范
在課堂教學這一具備高度結構化的場域中,社交規范深刻影響著師生互動及教學效果,研究表明個體在此類明確的社會關系中往往會表現出對社交規范的高度遵從[36]。在經典的教學情境下,教師憑借其權威性的社會身份,能夠有效掌控教學進程,然而這種權威也可能無意間阻礙學習的發生。一項在菲律賓開展的研究指出,學習者在與教師互動時往往由于敬畏教師的權威身份而不愿主動溝通,這種權威性社交規范削弱了教學中的雙向互動,并可能導致學習者感到沮喪和挫敗[37]。因此,傳統教學中的社交規范不僅影響了教師與學習者的互動流暢性,也在一定程度上壓抑了學習者的創造性與批判性思維。由于害怕違反與教師互動的規范,學習者往往選擇遵從而非質疑或探究,進而放棄自主的學習策略或對知識的深度理解[38]。在“人-機”互動教學場景中,這種傳統的社交規范是否仍然適用呢?或者,人工智能能否通過類人化交互方式,打破傳統師生關系中的權威性障礙,從而激發學習者更主動地學習參與?一項研究通過比較學習者在寫作任務中與大模型(如GPT-4)對話和與人類教師對話的差異發現,學習者在與大模型的互動中能夠更直接、無障礙地表達疑問和學習需求[39]。這一結果表明在“人-機”教學的場景下,傳統教學中基于教師身份與權威的社交規范可能會被弱化,從而為學習者提供更大的表達自由和自我引導的空間,這為我們重新思考人機教學中的社交規范提供了新的視角。將“人-人”教學模式遷移到“人-機”教學中,既面臨挑戰也迎來機遇:挑戰在于,傳統教學中的社交規范在師生互動中發揮著重要的隱性作用,是維持課堂秩序、促進知識傳遞的關鍵機制,如果這些隱性規范在人工智能主導的教學中不再具備約束力,教學過程可能會失去原有的結構性。而當人工智能作為教學主體時,其社交身份介于工具與教育者之間,如何幫助學習者建立有效的互動規則成為一個關鍵問題,這一問題也引發了關于人機互動中的社會角色定位與交互秩序等一系列新的教學設計考量——人工智能的設計應通過類人化行為、個性化反饋以及多模態互動的方式,幫助學習者自然適應新的交互規則,并在此過程中找到類似傳統課堂的認知安全感。盡管這一過程面臨挑戰,但人工智能引入教育也帶來了諸多機遇,尤其是在打破傳統師生關系的權威性方面。正如前述研究所示,學習者在與大模型互動時,能夠更直接地表達疑惑并尋求個性化幫助,這表明傳統教學中的社交障礙在新型人機互動中可能不再是顯著問題。此外,社交規范的消解使學習者更有可能挑戰既有的知識框架,提出具有創造性和批判性的見解,這種開放的互動環境有助于深化學習者自主學習,促使他們主動探索復雜問題,并構建更具個體化的認知結構。因此,未來的人機教學設計需進一步探索如何在社交規范的存在與創新自由之間實現平衡,如何在教學場景中選擇性地消解不必要的權威性規范,同時保留教學結構中的必要秩序,將成為未來人機協同教學設計的重要方向。
(2)“生-生”關系中的社交規范
在現代教育理論中,協作學習和探究學習等以“生-生”互動為核心的教學模式被廣泛研究并應用于多種教育場景[40]。與傳統的“師-生”互動不同,“生-生”互動通常不存在明確的身份和權力不對等,相較于教師在師生關系中的權威,學習者之間的交互更具動態性和復雜性。同時,“生-生”關系中的社交規范往往隨著具體的教學任務和小組成員的個體特質而具有生成性與情境性,這些規范影響了小組內的角色分工、信息共享以及知識建構的過程。例如,在協作學習中,學習者通常根據群體中的社會身份、任務貢獻的預期大小等因素,迅速形成臨時性的社交規范[41],其規定了小組成員的分工,包括確定誰作為意見領袖、誰負責整合信息、誰是主要的執行者等。在這一過程中,群體中的知識共享、任務協商、角色分工等行為都遵循一定的潛在規范,是協作學習能夠成功的關鍵。Kynigos等[42]的研究表明,協作學習中的有效溝通、知識貢獻和相互支持等行為,是促成小組產出的必要條件。這些潛在的社交規范并非單純出于任務完成的需要,往往還涉及學習者之間的信任建立、情感支持與社會認同,其動態解釋了為什么某些協作學習理論強調社交規范對于有效知識建構的前提性作用[43]。通過“生-生”互動,學習者不僅能夠從知識的傳播中受益,還通過解釋、爭論和協商的過程深化了對知識的理解,這些活動是協作學習成功的基礎,而其得以順利進行的背后,是潛移默化的社交規范在發揮作用。
當大模型參與到學習者的協作學習中時,能否形成類似于人類群體中的社交規范成為關鍵問題。傳統的“生-生”互動通過解釋、辯論和協商來構建知識[44],并依賴清晰表達和相互尊重的社會規范。然而,由于大模型不具備明確的人類身份,學習者可能將其視為單純的知識提供者而非合作伙伴,這會導致其對模型的過度依賴和“元認知懶惰”[45]。此外,大模型在提供答案時,往往缺乏同伴互動中“挑戰性反饋”的特質,這可能進一步加劇學習者的被動學習傾向,導致學習成果的淺層化。有研究表明,協作學習的成功不僅依賴于知識的簡單傳遞,還需要成員之間的社會互動過程和關系建構[46]。因此,大模型的設計與應用應盡可能模擬這些人類間的互動特質,通過類人化的媒介形式和情感交互等設計來激發學習者的社會性反應,從而維持和增強協作學習中的社交規范。未來教育技術的設計需要進一步探索如何在大模型參與的學習中維持或重塑協作學習的社交規范,推動人機協同學習模式的發展,促進更為動態的知識建構與社會互動。在這種模式下,社交規范不僅是人類學習者之間的隱性準則,也應成為人機交互中的顯性設計原則。
三保證信息有效性:人機信任
承前所述,要使機器有效扮演教學活動者角色,完成從“人-人”互動到“人-機”互動的轉型,除了保證情感互動,信息有效性也是其中的關鍵。若“情感互動”是教學場景中激發學習動機和認知投入的關鍵要素,那么“信息有效性”就是教育活動得以展開的功能性前提,后者不僅涉及信息生成本身的準確性,還依賴于人機信任機制的合理建構與動態維系。
1 內稟缺陷:模型幻覺的優化路徑
使機器扮演好一個真實教學活動者角色的功能性前提是,機器能夠提供有效的教學信息,執行符合邏輯的教學活動。例如,機器扮演的教師應當在講授中盡可能給出正確的答案,而機器扮演的學習者應當能夠模仿人類學習者當下階段的認知狀態,與同伴進行有意義的互動。盡管生成式人工智能技術在自然語言處理和推理能力方面已趨成熟,但大模型的“幻覺”問題仍然是其作為教育工具的重要隱患。在生成文本的過程中,大模型可能產生不準確、具有誤導性甚至完全虛構的信息,這些信息極易對學習者的認知發展和知識建構造成負面影響。這種不可預測的“幻覺”現象嚴重削弱了師生對人工智能工具的信任基礎,從而制約了其在教學場景中的深度應用。錯誤信息的傳播還可能導致學習者形成扭曲的知識體系,從而影響其后續學習決策及成果,構成影響教育質量與效果的重大隱患。
為了應對大模型幻覺引發的深層挑戰,除了大模型自身性能水平的提升、微調等手段的使用,技術開發者和教育工作者還應著重提升大模型在教育應用中的穩健性,這可以通過利用領域知識庫整合[47]、教育護欄機制制定[48]、垂直領域大模型構建[49]等措施防范錯誤輸出來實現。其中,領域知識庫整合能夠提升模型的語義理解與推理能力,使其在進行多模態信息處理時具備更高的可靠性和準確性。領域知識庫不僅能夠作為知識的補充層,為AI提供更為精準的背景信息;還可以通過對領域特定的事實性知識進行自動驗證,有效防范錯誤信息的輸出,從而更為精準地應對復雜的教育任務,減少模型幻覺的發生概率。同時,領域知識庫的引入應與技術護欄機制協同運作,以多維度的防護策略保障生成內容的準確性與安全性。當前大模型技術中的護欄機制涵蓋話題限定護欄、對話安全護欄、攻擊防御護欄等多個層次,這些護欄可以通過限定對話的主題范圍、過濾不當內容、防御惡意操縱等手段,有效防止大模型輸出偏離教育目標的無關信息。除此之外,為了更好地適應多樣化與專業化的教育場景,未來教育技術的發展可能朝向垂直領域的大模型設計。這些定制化的模型將具備更強的學科特異性,滿足特定領域內的精細化需求。例如,STEM教育中的定制化AI模型可提供更精確的數理邏輯與科學推理支持,而在人文學科與社會科學中,AI可通過知識的生成與反思性反饋,推動深層次的理論建構。
2 人機信任:信任失衡的優化路徑
除了從技術底層保障人工智能輸出的教學信息的有效性,教學活動者對這些信息準確性的主觀判斷也至關重要。信任作為人際互動的重要基礎,當其對象轉移到類人化的機器上時常常走向兩極:一方面,過度信任可能導致學習者對智能系統產生依賴,削弱其自主批判思維的能力;另一方面,缺乏信任會引發學習者對算法系統的懷疑和抵制,從而妨礙技術工具在教育中的有效應用,最終導致學習效果的下降。
(1)過度信任
過度信任人工智能系統的風險在于,學習者會忽視其輸出的潛在局限性與錯誤,這在情感支持領域尤為明顯,教育系統中的情感AI工具常被賦予過高的心理咨詢與決策功能,導致學習者形成依賴。這種現象可以視為技術魅惑效應的具體化表現[50],學習者被技術的外在表現和能力所迷惑,失去了對其內部運作機制的質疑和警惕。伊麗莎效應(Eliza Effect)是這一問題的另一體現[51],得名于Joseph Weizenbaum于1964年開發的ELIZA程序。該程序通過簡單的模式匹配規則模擬人類對話,用戶對這些顯現出智能跡象的程序常常產生過度的人性化投射,認為其具有與人類相似的認知能力。這一效應揭示了用戶對技術能力的高預期與技術實際表現之間的錯位而導致的過度信任,這種錯覺不僅影響用戶的行為決策,還加劇了其對技術的依賴,在教育領域尤為明顯。
為了應對這一挑戰,構建信任的優化路徑需從系統透明性、用戶教育與情感智能三方面入手:首先,提高系統的透明性和可解釋性,可以幫助學習者理解AI的決策過程與局限性,從而降低過度信任的風險。其次,教育工作者應培養學習者的批判性思維能力與數字素養,鼓勵其對AI生成的內容進行批判性的思考。最后,情感智能的培養對于建立健康的信任關系也至關重要,學習者需要學會在依賴技術的同時,保持對人機互動的獨立思考和情感判斷。
(2)算法厭惡
與過度信任相反,算法厭惡(Algorithm Aversion)指個體在面對智能系統時的懷疑與抵觸,即使算法性能優于人類,他們仍傾向于信任人類決策[52]。算法厭惡被認為是一種在大量場景中廣泛存在的效應[53],如在醫療場景中,盡管AI診斷的準確性在統計結果上超過了人類醫生,但病人更傾向于信任人類醫生的診斷[54]。在教育領域這一現象則可能表現為:盡管智能系統提供了精準性分析和個性化反饋,學習者仍持懷疑態度。造成算法厭惡的原因頗為復雜,不僅來自于學習者對算法本身的陌生感,更深層次的原因在于智能系統的決策過程往往缺乏足夠的透明度,使用者難以獲得必要的控制感和參與感[55]。
針對算法厭惡這一現象也存在部分交互解決方案,而優化算法信任解決方案的重點在于提升透明性、增強控制感和改進交互設計:首先,可以考慮利用解釋性AI技術,讓學習者理解算法的運行邏輯,以減輕算法厭惡[56]。研究表明,用戶了解算法細節后,信任度顯著提升[57]。其次,可以考慮提供部分控制權,允許學習者微調結果,增強參與感,形成協同信任的互動模式[58]。研究表明,當個體理解算法決策過程或參與修改時,算法厭惡顯著減少,通過賦予學習者微小的算法控制權,能顯著提升其對算法的信任感[59][60]。最后,在交互層面,可以考慮采用擬人化交互代理增加社會臨場感,提升對AI的情感認同。研究顯示,符合人類社交規范的交互設計能提高建議接受度[61]。
此外,對教學大模型的不信任并非全然負面,它能激發批判性思維,促進對模型輸出內容的深度反思與驗證。從人機協同角度來看,這種不信任構建了動態反饋機制,推動了智能系統與學習者的辯證發展——學習者的反饋為模型優化提供數據,而智能系統通過持續修正,可以為學習者提供更精準、個性化的教學服務。
四結語
本研究圍繞一種預演性的“加速轉型”思路展開探討,即如何讓人工智能扮演教學中人類活動者的角色,使已有的蘇格拉底對話、協作學習等“人-人”教學理論和模式經過合理調整后,能夠應用到“人-機”教學場景中。本研究從情感互動與信息有效性兩個角度出發,梳理了機器扮演教學活動者時需要重點關注的兩大問題:在情感互動層面,首要是提升機器作為教學活動者時所傳遞的臨場感,從而實現“機器類人”;其次,由于機器本身并不具備社會身份,需要通過設計重建其與學習者交互過程中的社交規范,以滿足一般的教學法背后的隱性假設。在信息有效性層面,首先要克服大模型的幻覺問題,這是確保教學信息有效的功能性前提;其次,需要優化人機信任機制,使學習者既不過度依賴,也不過于厭惡大模型輸出的信息和觀點。
事實上,本研究討論的關于機器扮演人類活動者的關鍵問題主要分為兩類:一類是可以通過合理的人機交互設計加以彌補或優化的問題,包括臨場感問題和算法信任問題;另一類問題則受當下技術條件和社會文化環境的限制,即社交規范和模型幻覺的問題,它們很難通過交互設計進行優化,并且在一定程度上會影響到那些可以被遷移到“師-生-機”場景中的“人-人”教學法的實施。例如,大模型幻覺作為一種生成式人工智能技術底層的缺陷,極難通過交互設計完全克服,而這些無法由簡單的交互設計克服的問題,可能正是未來有價值的研究方向。展望未來,“師-生-機”三元結構下的教學模式正在逐步成型,其核心在于確保學習者在與AI教學代理的互動中保持高水平的認知參與和思維在場,通過主動、批判性的對話實現知識建構和認知深化,從而達成真正的自我超越與智慧成長。
————————
參考文獻
[1]郝祥軍,顧小清,張天琦,等.人機協同學習:實踐模式與發展路向[J].開放教育研究,2022,(4):31-41.
[2]王一巖,劉淇,鄭永和.人機協同學習:實踐邏輯與典型模式[J].開放教育研究,2024,(1):65-72.
[3]柯清超,米橋偉,鮑婷婷.生成式人工智能在基礎教育領域的應用:機遇、風險與對策[J].現代教育技術,2024,(9):5-13.
[4]Teixeira P N, Shin J C. The international encyclopedia of higher education systems and institutions[M]. Dordrecht: Springer Netherlands, 2020:233.
[5]Cole M, John-Steiner V, Scribner S, et al. Mind in society: The development of higher psychological processes[M]. Cambridge, MA: Harvard University Press, 1978:141.
[6]Russell S, Norvig P. Artificial intelligence: A modern approach (3rd ed.)[M]. Upper Saddle River, NJ: Pearson, 2010:935-937.
[7]Lo C K. What is the impact of ChatGPT on education? A rapid review of the literature[J]. Education Sciences, 2023,(4):410.
[8]Johnson W L, Lester J C. Pedagogical agents: Back to the future[J]. AI Magazine, 2018,(2):33-44.
[9]Baylor A L. Investigating multiple pedagogical perspectives through MIMIC (Multiple Intelligent Mentors Instructing Collaboratively)[OL]. lt;https://conferences.inf.ed.ac.uk/aied2001/baylor.pdfgt;
[10]Baylor A L, Kim Y. Simulating instructional roles through pedagogical agents[J]. International Journal of Artificial Intelligence in Education, 2005,(2):95-115.
[11]Baylor A L, Ryu J. The effects of image and animation in enhancing pedagogical agent persona[J]. Journal of Educational Computing Research, 2003,(4):373-394.
[12]Ryu J, Baylor A L. The psychometric structure of pedagogical agent persona[J]. Technology Instruction Cognition and Learning, 2005,(4):291.
[13]Epley N, Waytz A, Cacioppo J T. On seeing human: A three-factor theory of anthropomorphism[J]. Psychological Review, 2007,(4):864.
[14]Reeves B, Nass C. The media equation: How people treat computers, television, and new media like real people[M]. Cambridge, UK:Cambridge University Press, 1996:28.
[15]Nass C, Moon Y. Machines and mindlessness: Social responses to computers[J]. Journal of Social Issues, 2000,(1):81-103.
[16]Westerman D, Edwards A P, Edwards C, et al. I-It, I-Thou, I-Robot: The perceived humanness of AI in human-machine communication[J]. Communication Studies, 2020,(3):393-408.
[17]Xu K, Chen X, Huang L. Deep mind in social responses to technologies: A new approach to explaining the computers are social actors phenomena[J]. Computers in Human Behavior, 2022,134:107321.
[18][19]Gunawardena C N. Social presence theory and implications for interaction and collaborative learning in computer conferences[J]. International Journal of Educational Telecommunications, 1995,(2):147-166.
[20]Lowenthal P R. The evolution and influence of social presence theory on online learning[A]. Online Education and Adult Learning: New Frontiers for Teaching Practices[C]. Hershey, PA: IGI Global, 2009:124-134.
[21]Richardson J C. Examining social presence in online courses in relation to students’ perceived learning and satisfaction[D]. New York: State University of New York at Albany, 2001:6.
[22]Mayer R E, Sobko K, Mautone P D. Social cues in multimedia learning: Role of speaker’s voice[J]. Journal of Educational Psychology, 2003,(2):419.
[23]Shah A K, Oppenheimer D M. Heuristics made easy: An effort-reduction framework[J]. Psychological Bulletin, 2008,(2):207.
[24]Nass C, Steuer J, Tauber E, et al. Anthropomorphism, agency, and ethopoeia[R]. Stanford, CA: Department of Communication, Stanford University, 1993:111-112.
[25]Schilbach L, Wohlschlaeger A M, Kraemer N C, et al. Being with virtual others: Neural correlates of social interaction[J]. Neuropsychologia, 2006,(5):718-730.
[26][30]Atkinson R K, Mayer R E, Merrill M M. Fostering social agency in multimedia learning: Examining the impact of an animated agent’s voice[J]. Contemporary Educational Psychology, 2005,(1):117-139.
[27]Mayer R E, DaPra C S. An embodiment effect in computer-based learning with animated pedagogical agents[J]. Journal of Experimental Psychology: Applied, 2012,(3):239.
[28]Nass C, Moon Y. Machines and mindlessness: Social responses to computers[J]. Journal of Social Issues, 2000,(1):81-103.
[29]Bangerter A, Louwerse M M. Focusing attention with deictic gestures and linguistic expressions[A]. Proceedings of the Annual Meeting of the Cognitive Science Society[C]. California: California Digital Library, 2005:1331-1336.
[31]Hostetter A B. When do gestures communicate? A meta-analysis[J]. Psychological Bulletin, 2011,(2):297-315.
[32]王福興,李文靜,謝和平,等.多媒體學習中教學代理有利于學習嗎?——一項元分析研究[J].心理科學進展,2017,(1):12-28.
[33]Andel S A, de Vreede T, Spector P E, et al. Do social features help in video-centric online learning platforms? A social presence perspective[J]. Computers in Human Behavior, 2020,113:106505.
[34]Rusbult C E, Van Lange P A M. Interdependence, interaction, and relationships[J]. Annual Review of Psychology, 2003,(1):351-375.
[35][37]Aruta J J B R, Barretto I D E, Shin Y, et al. The experience of power in teacher-student relationships in collectivistic context[J]. Psychological Studies, 2019,64:316-331.
[36][38]van Kleef G A, Gelfand M J, Jetten J. The dynamic nature of social norms: New perspectives on norm development, impact, violation, and enforcement[J]. Journal of Experimental Social Psychology, 2019,84:103814.
[39]Shen Y, Tang L, Le H, et al.Aligning and comparing values of ChatGPT and human as learning facilitators: A value-sensitive design approach[OL]. lt;https://doi.org/10.1111/bjet.13562gt;
[40]Bruffee K A. Collaborative learning and the “conversation of mankind”[J]. College English, 1984,(7):635-652.
[41]Chen C M, You Z L. Community detection with opinion leaders’ identification for promoting collaborative problem-based learning performance[J]. British Journal of Educational Technology, 2019,(4):1846-1864.
[42][43]Kynigos C, Theodossopoulou V. Synthesizing personal, interactionist and social norms perspectives to analyze collaborative learning in the classroom in the context of a computer-based innovation program[J]. The Journal of Classroom Interaction, 2001,(36): 63-73.
[44][45]Yoon J, Brice L. Water project: Computer-supported collaborative e-learning model for integrating science and social studies[J]. Contemporary Educational Technology, 2011,(3):250-263.
[46]Dillenbourg P. A multidisciplinary viewpoint on European research on collaborative learning - Europaeische forschung zu “collaborative learning” in multidisziplinaerer perspektive[J]. Kognitionswissenschaft, 2000,(1):50-53.
[47]Marino K, Chen X, Parikh D, et al. KRISP: Integrating implicit and symbolic knowledge for open-domain knowledge-based VQA[J]. arXiv preprint arXiv:2012.11014, 2020.
[48]Biswas A, Talukdar W. Guardrails for trust, safety, and ethical development and deployment of Large Language Models (LLM)[J]. Journal of Science amp; Technology, 2023,4:55-82.
[49]Chen Z, Liu C, Duan H. A three-phases-LORA finetuned hybrid LLM integrated with strong prior module in the education context[A]. International Conference on Artificial Neural Networks[C]. Switzerland: Springer Nature, 2024:235-250.
[50]Alfano M, Carter J, Cheong M. Technological seduction and self-radicalization[J]. Journal of the American Philosophical Association, 2018,4:298-322.
[51]Cristea I A, Sucala M, David D. Can you tell the difference: Comparing face-to-face versus computer-based interventions: The “Eliza” effect in psychotherapy[J]. Journal of Cognitive amp; Behavioral Psychotherapies, 2013,(2):291-298.
[52][55]Dietvorst B J, Simmons J P, Massey C. Algorithm aversion: People erroneously avoid algorithms after seeing them err[J]. Journal of Experimental Psychology: General, 2015,(1):114-126.
[53][56]Jussupow E, Benbasat I, Heinzl A. Why are we averse towards algorithms? A comprehensive literature review on algorithm aversion[A]. Proceedings of the 28th European Conference on Information Systems (ECIS)[C]. Marrakech, 2020:1-16.
[54]Longoni C, Bonezzi A, Morewedge C. Resistance to medical artificial intelligence is an attribute in a compensatory decision process: Response to Pezzo and Beckstead[J]. Journal of Consumer Research, 2020,15:446-448.
[57]Palmeira M, Spassova G. Consumer reactions to professionals who use decision aids[J]. European Journal of Marketing, 2015,(3/4):302-326.
[58][59]Dietvorst B J, Simmons J P, Massey C. Overcoming algorithm aversion: People will use imperfect algorithms if they can (even slightly) modify them[J]. Management Science, 2018,(3):1155-1170.
[60]Hasan M, Islam A K M N, Ahmed S I, et al. What influences algorithmic decision-making? A systematic literature review on algorithm aversion[J]. Technological Forecasting amp; Social Change, 2022,175:121390.
[61]MacGeorge E L, Guntzviller L M, Hanasono L K, et al. Testing advice response theory in interactions with friends[J]. Communication Research, 2016,(2):211-231.
Pedagogical Transformation: Constructing Teaching Principles in the Era of Human-AI Symbiosis
LE Hui-Xiao1" SONG Xiao-Wei1"" YU Qing-Qing2"" WANG Qiong1[Corresponding Author]
(1. Graduate School of Education, Peking University, Beijing, China 100871;
2. Center for Excellent Teaching and Learning, Peking University, Beijing, China 100871)
Abstract: With the emergence of generative artificial intelligence technologies exemplified by ChatGPT, the fundamental structure of educational activities is transitioning from the traditional binary “teacher-student” framework to a ternary “teacher-student-machine” structure. What design principles should AI agents, as new actors in this structure, follow to establish effective teaching interactions that are comparable to traditional teacher-student dynamics? What differences between humans and machines pose unprecedented challenges when translating existing human-to-human teaching theories and models to human-machine teaching scenarios? This paper addresses two critical issues: First, ensuring emotional interaction - at the media level, enhancing the machine’s social presence to enable emotional engagement with learners through humanized voice, expressions, and behaviors; at the social level, emphasizing the role of social norms and reconstructing interaction protocols between machines and learners to promote effective teaching interactions. Second, ensuring information validity - addressing the “hallucination” issue of large language models by proposing the integration of domain knowledge bases and technical guardrail mechanisms to improve information accuracy; focusing on the balance of human-machine trust to avoid both over-reliance and algorithm aversion while fostering learners’ critical thinking and digital literacy. This paper aims to propose design principles for future human-machine teaching scenarios through these discussions.
Keywords: generative artificial intelligence; pedagogy; social presence; algorithm trust; social norms