[摘 要] 教學決策具備較強的道德屬性,強調向善性和利他性。隨著生成式人工智能被應用于教學,其強大的學習、理解和生成能力使之承擔起大量非程序化決策任務。這也引發了關鍵問題:生成式人工智能是否具備支持教學決策的基本能力?未來的教育會受到什么樣的影響?文章通過回顧社會學、心理學、教育學、機器道德領域的既往研究,發現生成式人工智能的介入推動了教學決策從經驗主義向人機協作模式的轉變,同時揭示出其自主性提升過程中伴隨著道德敏感性的不穩定。這可能引發人機間的誤會、欺騙、責任推卸等風險,并潛移默化地改變教育場景中的道德圖景。為應對這些挑戰,文章提出注入具備情境適應性的機器美德、構建教學決策專用的提示詞與智能體以及推動前瞻性社會實驗等策略,以促進道德機器在教育領域的建設。
[關鍵詞] 生成式人工智能; 教學決策; 道德機器; 智能教育; 人機協同
[中圖分類號] G434 [文獻標志碼] A
[作者簡介] 沈苑(1996—),女,江蘇蘇州人。助理研究員,博士,主要從事人工智能教學應用倫理研究。E-mail:shenyuan676@163.com。汪瓊為通信作者,E-mail: wangqiong@pku.edu.cn。
一、 引 言
教學是一種復雜的認知活動。教師在教學中需要針對影響學習的潛在因素不斷作出決策。決策質量直接影響到教學活動效果[1]。過去教師多依賴于個人經驗作出教學決策,近年來隨著生成式人工智能(Generative Artificial Intelligence,下文簡稱GAI)的可及性增加,不少教師已經開始嘗試人機協同決策。自2022年起,OpenAI陸續發布大語言模型ChatGPT、可定制的GPTs、文生視頻大模型Sora。大模型作為GAI的典型應用,在執行生成任務、模擬人類對話、高質量連貫響應、多模態數據理解、微調控制和定制等方面具有明顯優勢[2],為制定教學決策提供了全新的機會,同時也帶來了風險與挑戰。
教學決策的根本目標是促進學生的健康成長與全面發展,具備顯著的向善性和利他性。因此,要制定出合理、有效的教學決策,不僅需要遵循教育規律、尋求教育效果,還需要審慎考慮特定決策在價值層面的道德屬性。研究表明,機器的自主性越強,潛在的倫理風險就越大,需要考慮的各種倫理條件就越復雜[3]。美國技術倫理專家溫德爾·瓦拉赫(Wendell Wallach)和認知科學哲學家科林·艾倫(Colin Allen)將具有高度自主性(Agency)和道德敏感性(Moral Sensitivity)的機器稱為“道德機器”(Moral Machine)[4]。從自主性來看,現有的大模型能夠根據輸入自動生成文字、語音、圖片、視頻,至少已經達到了“半自主系統”水平。這也相應地引發一系列關鍵問題:GAI是否具備支持教學決策的道德敏感性?GAI支持教學決策會如何影響教育?如何開發出具備道德決策能力的GAI工具?雖然GAI的發展速度和方向難以預測,但也有必要在理論認識和實踐路徑上作出前瞻性分析,積極預防和應對可能的風險和挑戰。
本研究綜合社會學、心理學、教育學領域有關人類決策的既往研究,在回溯教學決策模式發展歷程的基礎上,分析GAI支持教學決策的形態與特征,進而對其支持教學決策為教育帶來的風險或困境作出研判。根據機器道德領域的理論與實踐成果,提出教育領域專用的生成式智能決策支持工具的優化思路,以期為未來的教學決策研究與生成式智能教育產品的研發提供參考與借鑒,促進道德機器在教育領域的建設。
二、 教學決策的模式變革:從個人經驗走向
人機協作
“決策”的特征在于決策者會對比衡量多個可選項的后果并作出最終選擇。教師在日常工作中會制定大量的教學決策,以妥善處理教學實踐中涌現出的各種dda4b68dac8728d2d942721892e4728b教學問題。雙系統理論指出,人類的決策方式由基于直覺的啟發式系統(Heuristic System)和基于理性的分析系統(Analytic System)輪流作用、彼此影響[5]。啟發式系統涉及自動且相對輕松的信息處理過程,允許人們在無意識的情況下獲取認知的感覺。而分析系統讓人們能夠有意識地處理信息,參與到帶有目的性的分析之中。隨著教育數據的持續積累和智能技術的不斷發展,教學決策的模式也隨之發生變化,從基于個人經驗的啟發式決策向數據驅動下的循證決策和GAI支持下的人機協同決策的方向發展。
(一)基于個人經驗的啟發式決策
教育心理學家弗蘭克·帕賈瑞斯(Frank Pajares)指出,教師的信念體系是課堂實踐的基礎[6]。教師會帶著自己對教學的態度、價值、期望、設想等一系列從他們在學生時代就逐步積累下來的經驗進入課堂。在遇到問題時,教師習慣去識別出與過去經驗相似的線索并作出概率推斷,從而形成決策[7]。研究表明,即便基于經驗的啟發式決策可能與最佳決策之間存在著巨大的偏差,教師依舊傾向于相信自己能夠準確理解當下場景,對于自己的決策抱有信心[5,7]。
然而,依賴啟發式系統制定教學決策在倫理層面存在著明顯問題。一方面,啟發式系統容易受到刻板印象的干擾,直接影響到決策效果。由直覺主導的決策質量很大程度上取決于教師是否具備充足的經驗,及其對于教學的態度和意識。如果教師在缺少搜集相關信息的情況下過分依賴有限的個人經驗,就容易忽視學生的個體差異,制定出不公平或有偏差的策略。另一方面,啟發式系統的加工速度較快,占用很少的心理資源,相應地導致教師只意識到加工結果卻意識不到加工過程[8],導致決策過程淪為簡單、隨意的處理,可能對學生造成情感傷害。
(二)數據驅動下的循證決策
隨著教育大數據規模的快速增長,教學中的各項因素轉變為可計算的對象,使數據驅動下的循證決策成為可能。教師可以通過采集分析學生學習過程中的各種數據,并針對性地實施差異化的教學方法,為教學動作創建出仔細校準過的“路線圖”,在彰顯學生優勢的同時,彌補他們的不足,以促進更優質的學習。基于理性的分析系統在此過程中起到主導作用。有研究者開發了一個知識驅動下的教育決策支持系統,能夠從現有的學生學分系統中提取可操作的“知識”。例如,教師在決定哪些不合格的同學可以獲得補考的機會時,該系統可以通過分析學生當前的學習狀態并預測未來趨勢,輔助教師作出決定[9]。還有研究者開發了一個用于大學招生的決策系統。該系統存儲了大量學生入學前的數據,提前預測學習過程中有失敗風險的學生[10]。
與此同時,數據驅動教學決策在實踐中也面臨諸多質疑。許多教師缺乏正確采集、解讀和運用數據的能力。研究發現,當教師將學習數據作為激勵學生的工具時,學生反而更抵觸。“成績差的學生知道他們自己成績差,他們不需要每天被反復提醒這件事”[11]。研究還發現,教師花費大量時間處理數據,致使學習成績落后的學生缺乏足夠的講解和答疑,可能加劇教育資源分配的不公平[11]。而且,分析系統的加工速度慢,占用較多的心理資源,其理性特征與教學實踐的靈活性和情境性沖突[12]。多項研究證明,在分析系統和啟發式系統存在競爭關系時,后者往往會獲勝,造成非理性偏差[5,7]。此外,多位研究者指出,過度依賴客觀數據、給學生“貼標簽”等做法消解了教育本身的人文關懷[11,13]。
(三)GAI支持下的人機協同決策
與基于規則的傳統人工智能不同,GAI是建立在大數據基礎上更加靈活的人工智能技術,其能力超越了對數據的分類和預測,可以通過深度學習、強化學習等算法實現自主學習、自主適應、自主決策等智能化行為,并創作出新穎的文字、圖像或其他媒體產物以回應提示工程。這一技術突破推動AI從“工具”轉變為教師的“合作伙伴”。在未來,教師向GAI尋求行動建議很可能會成為一種常態[14]。赫伯特·西蒙(Herbert Simon)區分了“程序化決策”與“非程序化決策”,指出前者是可以通過一套例行程序來處理的常規化例行決策,而后者是需要更多信息來對決策對象進行建模的復雜決策[15]。在教師的日常決策中,既有程序化決策(如記錄考勤、批改作業),也有依賴教師自身經驗和素養來執行的非程序化決策(如調節作業量、應對突發事件、引導小組討論、與家長交流學生表現)。從西蒙的決策理論來看,教師在日常工作中所能掌握的信息、知識與能力有限,所能夠考慮的方案也是有限的,因此,難以作出效用最大化的非程序化決策[16]。但是GAI的出現改變了這一情況。GAI具備強大的數據處理能力、靈活的推理能力以及一定程度的創新能力,能夠幫助教師快速生成多種問題解決思路、獲取大量原來無法直接得到的信息和數據分析結果,從而提高教師作出高質量非程序化決策的可能性。比如,可汗學院在ChatGPT-4的基礎上推出了智能助教“Khanmigo”。教師可以通過與它對話,快速設計具有趣味性的課程導入和課后提問、開發課堂匯報的評分標準、制定整個學期的課程大綱、創建考查學生思維能力的測試題等[17]。除此之外,教師還可以創建自己或他人的數字分身,將原本工作中的部分非程序化任務交給GAI處理,同時在人機對話中持續補充背景信息、描述個人經驗并優化提問,直到獲得滿意的答案為止。
瓦拉赫和艾倫指出,技術的發展是伴隨著日益增強的自主性和道德敏感性交叉作用而進行的[4]。隨著GAI自主性的持續提升,其道德敏感性表現出不穩定性。研究發現,ChatGPT對于同一道德問題(是否可以通過犧牲一個人拯救五個人?)給出了相互矛盾的建議,揭示出其道德立場的“搖擺”特征[18]。盡管OpenAI公開了他們針對ChatGPT生成有害內容所采取的措施(如引入領域專家進行紅隊測試、使用強化學習和人類反饋來微調模型行為),但也聲明ChatGPT仍然可能受到對抗性攻擊,導致生成不符合道德的內容[19]。進一步的研究顯示,不同的大語言模型具有特定的道德傾向,如ChatGPT呈現出嚴格遵守道德原則的絕對主義傾向,而谷歌大模型Bard則呈現出強調靈活性的情境主義傾向[20]。上述道德敏感性的不穩定情況為GAI在教育決策中的應用帶來了巨大的挑戰。
三、 GAI支持教學決策的實踐困境
在機器持續增長的自主性和不穩定的道德敏感性的共同作用下,GAI支持教學決策可能面臨著諸多困境,包括因人機自主權博弈而產生的誤會、欺騙、責任推卸以及長期而言的道德圖景變化。
(一)意圖投射下的誤會與欺騙
多項研究表明,人類會自然地將人格化的屬性賦予他們認為有生命的事物,給機器“植入”它們本不具有的官能。1944年,弗里茨·海德(Fritz Heider)和瑪麗安·齊美爾(Mery-Ann Simmel)進行了一項經典的心理學實驗,要求被試者觀看一段三角形和方形在屏幕上移動的短片并描述自己看到的內容。結果顯示, 97%的被試者在沒有任何提示的情況下,使用擬人化語言描述了這些幾何圖形的行動,如“恐懼”“追趕”“躲避”,甚至為它們編織出了完整的故事[21]。社會學家雪利·特克爾(Sherry Turkl)在一項實驗中發現,療養院中的老年人對一種海豹形態的機器人玩偶Paro產生了深厚的情感依戀[22]。美國巴蒂亞·弗里德曼(Batya Friedman)教授主導的一項調查中發現,83%的大學生認為計算機具備自主性,79%的大學生認為計算機具備制定決策的能力,45%的大學生認為計算機具有意圖[23]。
上述將意圖和情感投射于機器的傾向在GAI的實踐中被進一步增強。GAI的訓練數據中包含大量表達情感、個性、觀點、幻想的多模態信息,使其反饋在內容和形式上都非常接近人類表達。此外,GAI的定制化功能(如用戶自定義對話風格、語音語調、虛擬形象)、對于邏輯細節的處理(如保留有關之前對話的記憶、從先前內容中推斷信息、保持話題的相關性和連貫性),以及所流露出的“人性”特征(如以打字方式呈現反饋、對同一問題給出不同回答、用“我認為”“我反對”論述觀點)等特征,都容易導致師生對其行為原理及能力界限產生誤解。
在人機協作制定教學決策的過程中,也許教師并不會將GAI視為真正的人類,但他們可能會在潛意識里相信機器具備感知和思維,從而以對待人的方式對待機器。這種方式容易引發人機之間的誤會或欺騙。市面上的通用大模型并非專為教育領域開發,而是由互聯網上海量無標注的數據訓練而成,在學科知識的準確性上存在不足。它們提供的回答可能包含師生難以察覺的錯誤或偏見,造成“幻覺”問題。而且這些錯誤很容易被GAI的快速響應所掩蓋,可能被誤以為真。一些追求自適應的人機交互應用還會使這些虛假信息又重新進入到語料庫之中,在信息閉環中被進一步加固。這種誤會與欺騙阻礙了師生對GAI局限性的客觀認識,可能引發他們的自卑感和能力上的退化。經驗豐富的教師通常積累了大量隨機的、臨場的、內隱的知識,能夠根據學生的個性差異靈活安排教學活動,并迅速處理突發問題。然而,GAI的介入可能導致教師忽視自身主體性,甚至放棄自己相較于機器的真正優勢,如靈活性、自發性、對意外的反應能力以及學習新技能的能力[24]。
(二)過度信任背后的責任推卸
個體的道德決策是通過多種心理系統之間復雜交互作用形成的[25] 。GAI的出現雖然簡化了這一內在的斗爭和思考,但也將教師應當承擔的責任轉移到了機器上。弗里德曼等人指出,決策支持工具常常會引發導向人類決策者放棄道德責任的“滑坡謬誤”—— 隨著人們對機器信任度的增加,質疑其建議變得越來越困難,最終可能導致機器接管決策過程,并被默認應承擔相關的道德責任[23]。多項心理學實驗都證明了自動化偏見(Automation Bias)的存在,即人類傾向于支持自動決策系統提供的建議,并忽略與之矛盾的其他信息[26-27]。即便是人類處于觀察者角色但能夠干預決策時,他們依舊很可能會不假思索地將GAI的回答當作標準答案。腦神經科學的相關研究也佐證了人的大腦習慣于以節省能量的模式工作[28]。
GAI的出現很大程度上降低了教師作出認知努力去尋求所有相關信息的可能性,使得教師更容易倉促評估當前情況,進而導致責任推卸和問責困難。當GAI的快速響應取代教師制定教學決策的思維過程,很可能會削弱教師的決策動機與能力,抑制人類智慧的涌現。教師可能過分依賴系統建議,而忽視自身的專業判斷,以及人際互動和育人責任的重要性。或者,當教師在操作GAI時遇到困難,可能會將誤用或濫用的后果歸咎于技術工具的局限性,而忽視了自身技術熟練度與教學能力的不足。
教育決策強調“過程導向”,要求教師在復雜的判斷過程中收集信息、分析、形成多個方案、選定最終解決方案。這個過程不僅深化了教師對教學決策的理解,還促進了教師問題解決能力的發展,豐富了教師的實踐性知識。然而,GAI往往是 “結果導向”型的技術,專注于生成內容的豐富性、流暢性和準確性,與教育決策的過程導向原則產生沖突,導致人機協作中的決策問責面臨困難。當人(如技術研發者、教師、學生、家長)、智能工具(如ChatGPT)、混合體(如基于GAI平臺協作的教師)通過道德中立的局部交互,導致某些負載道德責任的行為時,責任的歸屬會變得格外模糊。盡管“分布式道德責任”這一概念由來已久[29],且相關組織也已規定由直接和間接影響系統開發和使用的每個主體共同承擔責任[30]。但像GAI這類基于深度學習的系統,其內部運作對于非技術專家來說往往是不透明的。因此,GAI在教育決策中的責任分配仍然是一個具有挑戰性的問題。
(三)道德圖景的變化與長期作用
從長期來看,借助GAI支持教學決策將會對教育領域的道德格局產生深遠影響。在漫長的道德探索過程中,人類尚未就如何判斷對錯、好壞達成廣泛共識。隨著新興技術的發展,一些傳統的道德價值觀念更是從底層被顛覆或重塑,社會道德圖景隨之變化。雖然技術是人類根據自身的需要而創造的,但其設計特征和使用情境會反過來激發人類特定的思維、行為和價值模式。正如弓箭的發明開辟了在安全距離內殺敵的可能性,輪子的發明促進了貿易與文明,互聯網消除了信息傳播的邊界,改變了知識分享和版權觀念。同樣,GAI如今能夠承擔傳統教學中許多難以自動化的任務,重新定義教學決策的制定與執行方式,開辟新的道德可能性。例如,ChatGPT的出現引發了對學術不端判定標準的反思。目前備受爭議的行為在未來可能會被接受并成為常態。教師大批量地生成錄播課、GAI和學生共同完成作業、學生學習過程中的心理狀態受到持續監測、人才培養的兩極化發展等可能會成為新道德標準的一部分,重塑我們對教育倫理的理解。此外,當GAI延伸至私人領域,甚至開始與人類發展出親密關系,從而引發的道德問題將會具有更多“私人裁量權”,加劇道德的模糊性[31]。
對于人類而言,道德行為通常是對社會環境的實時適應,是為了迎合持續變化的需求、價值、期待的嘗試。隨著道德圖景的不斷重塑,未來支持教學決策的GAI需要具備一定的自主探索道德目標的能力,在遵循道德原則的同時參與到教學決策的道德考量中去。例如,隨著教師對GAI的信任逐步建立,他們可能會更加依賴工具,逐漸允許GAI獨立承擔更多教學決策任務。這要求GAI實時考量教師是否出現過度信任的情況,并且適當校準信任程度。考慮到道德圖景的動態性,有研究者提出道德機器應該具備“塑造”道德目標的能力[4]。具體來說,GAI應當在現有人工智能倫理范疇下(如歐盟所提出的“預防傷害”“尊重人類自主”“公平”“可解釋”原則),適時、恰當地擴展自己的任務范圍,以形成更高效的人機協同決策機制[32]。
四、 建設生成式智能教學決策支持工具的
關鍵進路
設計工具的過程實際上是在塑造具有倫理意義的人類存在方式。這要求人們在技術的設計階段就開始思考:這項技術在最終應用場景下會賦予人們怎樣的行動機會、又會產生何種影響。為應對GAI用于教學決策的短期風險和長期隱憂,可以通過發展機器美德、構建專用智能代理、開展具備前瞻性實驗等方式來促進道德機器在教育領域的建設,實現GAI支持教學決策質量、效率與倫理之間的動態平衡。
(一)注入具備情景適應性的機器美德
教學本身是對各類困境的處理,涉及大量基于當下情景的即時決策。當GAI在具體的教學情境中需要作出自主行為選擇時,它必須具備一定的道德決策能力。具備道德的機器并不是自然而然就出現的,而是需要人類以合適的方式將道德“注入”其中。什么是合適的方式呢?瓦拉赫和艾倫發現,自上而下的道德內置方法無法應對具體行為情境的復雜性,而自下而上的自主學習方法又難以確保機器學習結果的道德性。因此,只有將兩種方法相結合,才能創造出既服從人類道德法則、又具有一定道德自主能力的道德機器[4]。
要實現情景適應性的機器美德,需要對大量既往的教學決策案例進行表征、分析與比較。布魯斯·麥克拉倫(Bruce McLaren)所開發的工程道德決策系統SIROCCO (System for Intelligent Retrieval of Operationalized Cases and Codes)提供了一個可借鑒的方案。該系統通過分析包含500個以上職業道德決策案例的數據庫,檢索相關的前例和線索,同時揭示工程倫理原則在實際情境下的操作化特征[33]。此外,瓦拉赫和艾倫提出,可以將啟發式算法(Heuristic Algorithm)的思路應用到道德設計中,開發“道德啟發式”(Heuristics in Ethical Applications),即對行動的即刻后果進行排序,并考慮這些后果所帶來的道德次要后果的可能性[4]。
在機器道德領域已有實踐的基礎上,開發支持教學決策的GAI可以考慮整合上述兩種表征案例的方式。理想情況下,這種系統能夠在遇到教學中的道德困境時,自動檢索歷史上類似的案例,識別其中的關鍵相似點和不同點,具體闡述支持或反對某一決策的理由。它可以基于最相似的案例形成決策優先級序列,并通過這些案例闡釋相關倫理原則的機器認知模式。通過這種方式,GAI不僅能在教學決策中提供切實可行的建議,還能幫助教師深入理解和應用倫理原則,為教學實踐提供更精準的決策支持。
(二)構建教學決策專用的提示詞與智能體
雖然GAI的出現減輕了教師在數據分析方面的負擔,但同時也對教師理解機器原理、區別機器能力以及與機器有效溝通提出了更高要求。一些研究者擔憂,智能技術可能導致人們重復以往的行為模式,讓人們大量的活動變得例程化,甚至將人馴化成不斷重復過去決策的“機器”,阻礙創新探索[34]。從這個角度來看,如果教師不了解GAI的能力、局限以及正確使用它的方式,他們不僅可能失去工作的樂趣,更可能失去生活的“自由”。 與傳統的互聯網信息服務不同,GAI的輸出是由算法與用戶共同完成的,輸出質量在很大程度上取決于用戶提供信息的豐富性——“誰控制了問題,誰就控制了答案;誰控制了答案,誰就控制了現實”[35]。因此,開發教學決策專用的提示詞規范就顯得尤為重要。
OpenAI發布的“用人工智能教學”(Teaching with AI)官方指南中,提供了四段教師可直接使用的提示詞,可用于制定教學計劃、創建有效的解釋、模擬教學過程和創建智能助教等多種場景[36]。這些提示詞具備下列特征:(1)清楚規定ChatGPT的角色與行動特征,如“你是一位樂觀、善于鼓勵學生的導師,要通過解釋和提問來幫助學生理解概念”;(2)明確列出ChatGPT在對話中要遵循的邏輯,如“首先自我介紹,然后詢問教師的教學以及學生年級水平,并等待教師回復”;(3)遵循教育規律,強調引導而非直接回答,如 “不要立即提供答案,而是提出引導性問題”“嘗試以問題結束回答,以鼓勵持續思考”;(4)積極解決教師的潛在誤解,如“詢問教師是否想改變或添加內容到解釋中”;(5)確保對話由發起者主導,以讓人舒適的節奏推進,如“一次只問一個問題”“在教師作出回應之前不要繼續發言”。
在引導教師有效使用提示詞與GAI進行互動的同時,技術研發者有必要基于大模型進一步開發專用于教學決策的智能代理(Agent)[37]。教師與GAI對話時,需要深入理解所探討的問題,篩選和組織相關信息,形成針對性問題,并通過多輪對話不斷細化和補充信息。然而,考慮到教師在問題識別、信息分析和提示詞撰寫等方面存在顯著差異,為教師提供更加用戶友好的定制化工具至關重要。智能代理,或智能體,是在大語言模型基礎上經過微調的工具,能夠在特定領域中提供更高效且更具針對性的支持。
在構建專用于教學決策的智能代理時,有一系列關鍵要素需予以關注。首先,應根據不同學段的育人目標和認知規律,明確定義和強調一系列正確的教學決策涉及的關鍵價值,如透明度、公平性、尊重學生的個體差異、學術自由與誠信、終身學習、批判性思維、知識傳播等[24]。其次,鑒于GAI的介入可能引發或加劇某些價值沖突,特別是在主體性和責任歸屬方面的人機競爭,因此,在提示詞設計中,必須明確設定GAI的目標、邊界和語氣,確保教師始終保持決策的主體地位。最后,為了提高決策過程的透明度和可解釋性,智能代理應在提供決策建議的同時提供相應的原則依據和支持證據,或者在提出多種決策方案時進行潛在風險分析。這些措施將幫助教師在充分了解各種因素的基礎上,作出更加適宜的決策。
(三)開展前瞻性實驗研究以檢驗假設
物質、生命和心靈之謎定義了科學的三大挑戰。隨著物理學和生命科學的發展,前兩者已經不再神秘,但在心靈領域關于人類智慧的爭論卻不斷延續。本研究所關注的GAI支持教學決策的風險大多是基于各領域研究成果的推理與研判,未來亟須開展更多具有前瞻性和學理性的科學實驗來驗證現有的一系列假設。考慮到GAI正在持續發展,其對教育的影響研究必然是伴隨技術演變的長期工作。在此背景下,兩類研究顯得尤為重要:一是在實驗室環境中進行的細致、具體的學理性實驗研究,以探究GAI對教育決策的影響;二是在自然環境中進行的規模化、常態化使用后的社會影響研究,以評估GAI在真實教育場景中的作用與效果。參考醫療領域,雖然關于AI能否決定病人生死的爭議早在20世紀就已經出現,但是迄今為止尚未有證據表明機器能在人類不參與的情況下作出如此重大的決定。相應地,GAI支持教學決策真的會導致機器的過度控制嗎?教師的自主性與能動性又真的會被削弱嗎?教育場景中的道德圖景究竟會如何變化?這些問題仍然需要更多可靠的證據來回答。
此外,關于GAI支持教學決策的討論也在啟發著我們向更深層次的人類心理進行探索。諸多技術哲學家嘗試從人類習慣的角度去分析智能技術給人類生活帶來的巨大變化。AI的出現打破了人們機械、重復的習慣,同時也激發了人類對于“習慣”的矛盾心理。一方面,人們希望機器有朝一日能將他們從日常工作中解放出來。另一方面,人們又相信“重復的樂趣中有某種超然的東西”,重復性的體力勞動為沉思留下了空間[38]。這種矛盾的態度精準地跨越了現代思想中某些二元對立——主動和被動、自由和必然、頭腦和身體——引起了關于自由和自主性的問題。教師每天所處理的程序化和非程序化任務將會如何被GAI分擔?這種人機協作將如何改變教師的生活與心態,造就新的習慣?此外,這種變化又將如何影響學生的發展與成長?這些問題已經超越了單純的教育議題,要求我們跳出教育的范疇,進行更為廣泛的社會性分析與長期的實驗研究,才能更為準確地預測和理解這些潛在的深遠影響。
五、 結 束 語
以GAI為代表的新一代人工智能技術正在深刻影響著教學決策的制定、執行與評估。在此過程中,教師與智能系統可以發揮各自的核心優勢,形成互補,推動決策在人機協同模式下變得更高效、更優質。從目前來看,應用GAI輔助教學決策仍面臨諸多風險和挑戰,亟須技術研發者、教育實踐者和科學研究者通力合作,深入探索智能技術在優化教學決策流程與效果的最佳實踐方案,推動人類智慧與機器智能的協同增長。
[參考文獻]
[1] HUNTER M. Teaching is decision making[J]. Educational leadership, 1979,37(1):62-67.
[2] 劉邦奇,聶小林,王士進,等. 生成式人工智能與未來教育形態重塑:技術框架、能力特征及應用趨勢[J]. 電化教育研究,2024,45(1):13-20.
[3] 北京大學國家機器人標準化總體組. 中國機器人倫理標準化前瞻[M]. 北京:北京大學出版社,2019:67-78.
[4] WALLACH W, ALLEN C. Moral machines: teaching robots right from wrong[M]. New York:Oxford University Press, 2008:10-250.
[5] KAHNEMAN D, FREDERICK S. A model of heuristic judgment[M]//The Cambridge handbook of thinking and reasoning. New York: Cambridge University Press, 2005: 267-293.
[6] PAJARES M F. Teachers' beliefs and educational research: cleaning up a messy construct[J]. Review of educational research, 1992, 62(3):307-332.
[7] VANLOMMEL K, VAN GASSE R, VANHOOF J, et al. Teachers' decision-making: data based or intuition driven?[J]. International journal of educational research, 2017,83:75-83.
[8] 孫彥,李紓,殷曉莉. 決策與推理的雙系統——啟發式系統和分析系統[J]. 心理科學進展,2007(5):721-726.
[9] VOT N C, NGUYEN H P. A knowledge-driven educational decision support system[C]//2012 IEEE RIVF International Conference on Computing & Communication Technologies, Research, Innovation, and Vision for the Future. Ho Chi Minh City:Vietnam. IEEE,2012:1-6.
[10] DEWANTORO G, ARDISA N. A decision support system for undergraduate students admissions using educational data mining[C]//2020 7th International Conference on Information Technology, Computer, and Electrical Engineering (ICITACEE). September 24-25,2020,Semarang,Indonesia. IEEE,2020:105-109.
[11] NEUMAN S B. Code red: the danger of data-driven instruction[J]. Educational leadership, 2016,74(3):24-29.
[12] 宋乃慶, 楊豫暉. 教師教學決策的主要問題及其思考[J]. 教育研究,2010,31(9):85-89.
[13] SCHMIDT W H, MCKNIGHT C. Inequality for all: the challenge of unequal opportunity in American schools[M]. New York: Teachers College Press, 2012:5-8.
[14] 劉明,郭爍,吳忠明,等. 生成式人工智能重塑高等教育形態:內容、案例與路徑[J]. 電化教育研究,2024,45(6):57-65.
[15] SIMON H A. The new science of management decision[M]. New York: Harper & Brothers, 1960:5-7.
[16] SIMON H A. Bounded rationality[M]//EATWELL J, MILGATE M, NEWMAN P. Utility and probability. London: Palgrave Macmillan UK, 1990:15-18.
[17] KHAN ACADEMY. Meet Khanmigo Khan Academy's AI-powered teaching assistant & tutor[EB/OL]. [2024-02-20]. https://khanmigo.ai/.
[18] KR?譈GEL S, OSTERMAIER A, UHL M. ChatGPT's inconsistent moral advice influences users' judgment[J]. Scientific reports, 2023,13(1):4569.
[19] OPENAI. GPT-4 System card[R/OL]. [2024-03-10]. https://cdn.openai.com/papers/gpt-4-system-card.pdf.
[20] MCGRATH Q P. Unveiling the ethical positions of conversational AIs: a study on OpenAI's ChatGPT and Google's Bard[J]. AI and ethics,2024:1-16.
[21] HEIDER F, SIMMEL M. An experimental study of apparent behavior[J]. The American journal of psychology,1944,57(2):243-259.
[22] TURKLE S, TAGGART W, KIDD C D, et al. Relational artifacts with children and elders: the complexities of cybercompanionship[J]. Connection science, 2006,18(4):347-361.
[23] FRIEDMAN B. "It's the computer's fault": reasoning about computers as moral agents[C]// Conference on Human Factors in Computing Systems. Denver, Colorado, United States: ACM Press, 1995:226-227.
[24] STRIKE K, SOLTIS J F. The ethics of teaching [M]. New York: Teachers College Press, 2015:40-45.
[25] 王鵬,方平,姜媛. 道德直覺背景下的道德決策:影響因素探究[J]. 心理科學進展,2011,19(4):573-579.
[26] BRUNER J, TAGIURI R. The perception of people[M]//ARONSON E, LINDZEY G. Handbook of social psychology: special fields and applications. New York: Random House, 1985: 634-654.
[27] LYELL D, COIERA E. Automation bias and verification complexity: a systematic review[J]. Journal of the American medical informatics association, 2017,24(2):423-431.
[28] 菅原道仁. 超級大腦的七個習慣[M]. 吳夢怡,譯. 北京:中國友誼出版公司,2019:61-64.
[29] FLORIDI L. Faultless responsibility: on the nature and allocation of moral responsibility for distributed moral actions[J]. Philosophical transactions of the royal society: mathematical, physical and engineering sciences, 2016,374(2083):20160112.
[30] OECD. Advancing accountability in AI: governing and managing risks throughout the lifecycle for trustworthy AI[EB/OL]. [2024-02-23]. https://www.oecd.org/sti/advancing-accountability-in-ai-2448f04b-en.htm.
[31] 韓旭至. 生成式人工智能治理的邏輯更新與路徑優化——以人機關系為視角[J]. 行政法學研究,2023(6):30-42.
[32] AI HLEG. Ethics guidelines for trustworthy AI[EB/OL]. (2018-12-17)[2022-04-08]. https://ec.europa.eu/futurium/en/ai-alliance-consultation.
[33] MCLAREN B M. Extensionally defining principles and cases in ethics: an AI model[J]. Artificial intelligence,2003,150(1/2):145-181.
[34] ROOSE K. Future proof: 9 rules for humans in the age of automation[M]. New York: Random House, 2021:108-112.
[35] FLORIDI L. AI as agency without intelligence: on ChatGPT, large language models, and other generative models[J]. Philosophy & technology, 2023,36(1):1-7.
[36] OPENAI. Teaching with AI[EB/OL]. [2024-03-03]. https://openai.com/blog/teaching-with-ai.
[37] 鐘柏昌. 為生成式人工智能教育應用確立規范[EB/OL]. [2024-08-24]. http://paper.jyb.cn/zgjyb/html/2023-09/22/node_3.htm.
[38] ARENDT H. The human condition[M]. Chicago: University of Chicago Press, 2013:96-101.
Practical Dilemmas and Key Approaches of Generative Artificial Intelligence in Supporting Teaching Decision-making
SHEN Yuan1, WANG Qiong2
(1.Research Center for Data Hub and Security, Zhejiang Lab, Hangzhou Zhejiang 311121;
2.Graduate School of Education, Peking University, Beijing 100871)
[Abstract] Teaching decision-making possesses strong moral attributes, emphasizing goodness and altruism. As generative artificial intelligence is applied to teaching, its powerful learning, understanding and generating capabilities enable it to undertake numerous non-programmed decision-making tasks. This also raises key questions: does generative artificial intelligence have the basic ability to support teaching decision-making? How will the future of education be affected? By reviewing existing research in sociology, psychology, pedagogy, and machine ethics, this paper finds that generative artificial intelligence has propelled teaching decision-making from an empirical approach to a collaborative human-machine model, while revealing that the enhancement of its autonomy is accompanied by the instability of moral sensitivity. This may lead to misunderstandings, deception, and shirking of responsibility between humans and machines, and subtly change the moral landscape in educational settings. To address these challenges, this paper proposes strategies such as embedding context-adaptive machine virtues, developing teaching decision-specific prompts and agents, and promoting forward-looking social experiments to foster the construction of moral machines in education.
[Keywords] Generative Artificial Intelligence; Teaching Decision-making; Moral Machine; Intelligent Education; Human-Machine Collaboration
DOI:10.13811/j.cnki.eer.2024.11.013
基金項目:國家社會科學基金2023年度教育學重大項目“新一代人工智能對教育的影響研究”(項目編號:VGA230012)