新一代人工智能技術不斷發展,給社會發展帶來了廣泛的影響,成為了教育創新發展的助推劑,催生了眾多教育場景的創新。由于技術安全失控、觀念應用失當、風險防范不足,人工智能應用中的倫理問題越發受到關注。義務教育具有基礎性、公益性和普及性的特點,受教育對象均未成年,人工智能在該階段教育應用中出現的倫理失衡現象,更需高度重視。
一、人工智能在中小學教育應用中的倫理失衡現象
1.教育數據風險:教育隱私保護失當。
人工智能技術是以數據處理為基礎,數據倫理風險也存在于整個數據生命周期中。中小學生屬于未成年人,其教育數據具有三個基本特征(多層級、多維度和長跨度),且其認知能力與辨別能力還不成熟,缺乏個人隱私保護意識,容易受到潛在風險的影響。如有些人工智能應用軟件在未征求用戶授權、未明確列出嵌入的第三方軟件開發工具包(SDK)的情況下,以不正當方式搜集幾童個人信息。此外,在中小學日常教育管理中,人校門禁系統以面部識別的方式采集師生肖像,課堂分析系統對師生在課堂上的面部表情、肢體動作等進行數據采集,這些都暗藏侵犯個人隱私、用戶信息泄露等風險。
2.機器算法風險:教育科學性保障缺失。
人工智能算法是推動人工智能技術發展的關鍵要素,但也存在算法偏見的問題。因為人類主觀偏見、數據挖掘中的數據偏見都具有隱蔽性和復雜性,所以在應用人工智能時易出現人工智能幻覺(AIhalluci-nation)的情形。基礎教育階段的教學內容是學習者獲取知識、發展能力的直接來源。科學準確的教學內容不僅是教育質量提升的基石,是學習者全面發展的保障。人工智能通過神經網絡模型預訓練,能理解使用者輸入的內容,創造出新的復雜內容。雖然這些模型可生成表達流暢、語法規范的文本,但由于受訓練數據規模、數據偏差和模型可解釋性等因素的影響,有時會輸出與真實世界知識相矛盾的錯誤事實。例如,由人工智能生成的內容:“恐龍是哺乳動物,它們和現代的哺乳動物一樣,具有胎生、哺乳的特征。”這明顯是錯誤的。可能是由于人工智能在訓練數據時未正確區分恐龍與哺乳動物的分類特征,或者對古生物和現代生物的演化關系理解有誤,生成了錯誤的物種分類內容。這種生成內容會擾亂學習者對生物分類和進化的正確認知,教學資源的可靠性和可用性大打折扣,如不加以約束,會嚴重影響學習者的學習質量。
3.教育應用風險:主體責任價值不當。
(1)人工智能教師責任擔當的偏差。
“師者,所以傳道授業解惑也”,人工智能在知識傳播的效率、個性化學習支持及提供即時反饋等方面具有優勢,但相比人類教師,它也有不足之處。
在“傳道”方面,人工智能能夠快速從海量數據中提取信息,整合多種文化和歷史背景下的道德觀念、價值理念,模擬各種場景,幫助學習者深入理解抽象的道德觀念和行為準則。但難以像人類一樣,基于自身的情感體驗和價值判斷,深刻地理解和傳遞某些復雜的道德情感和價值觀,甚至由于其訓練數據來源于人類社會的信息,可能包含一些偏見或不正確的價值觀,若不加以甄別和引導,可能會對學習者產生誤導。
在“授業”方面,人工智能能夠根據不同學習者的學習進度、興趣愛好,快速生成個性化的學習材料、練習題等,滿足其學習需求。但有時難以像人類教師一樣,根據具體的教學情境、學生的即時反應和課堂氛圍靈活調整教學策略和方法。
在“解惑”方面,人工智能可以為學生提供即時的解答和幫助,不受時間和空間的限制,提高了效率。但也存在無法像人類教師一樣,通過長期的觀察和交流,了解學生的學習背景、知識基礎、思維特點等個體差異,引導其解決問題。
(2)學生的學習主體缺失。
中小學生承擔著掌握系統的現代科學文化知識,養成高尚審美情趣和良好思想品德的基本任務。但在部分中小學,人工智能應用過度導致學生依賴智能生成的現成答案,缺乏自主思考、探索和解決問題的過程,影響學生創造力、問題解決能力和批判性思維的發展。學生原本的“主動覓食”被精準投遞的“喂養式”學習替代,長此以往,容易導致學生停留在淺表學習,認知能力和思維能力的發展也將受到嚴重影響。
(3)教育人文關懷弱化。
人工智能通過對教育過程中的海量數據進行智能分析,形成可量化的模型指標,進而達成優化教學流程、促進教育變革的目的。如基于復雜的結構算法分析學生的答卷,能發現學生的知識薄弱點,從而幫助教師有針對性地開展補救。然而,在基礎教育階段,教師更需要關注學生的情感需求,要通過顯性和隱性的師生互動與人為干預,促進學生全面發展。如無法實現教師和學生之間有效的情感交流和互動,只關注“外在”可視化分析,忽視個體“內在”的情感價值,教育將失去其應有的人文溫度。
4.技術本體風險:系統生態重塑存在隱患。
教育系統包括教育者、學習者、教育資源和教育內容等要素。這些要素相互關聯,共同構成一個動態的系統。當下,人工智能正以教育變革系統中的強力劑形態重塑教育生態。教育系統勢必會經歷一個“不穩定一漸趨穩定一穩定”的過程,在初期會存在技術黑箱帶來的教育隱私數據泄漏、由于算法偏見導致信息繭房、由于技術差異帶來的區域(校際)數字鴻溝、由于人機協同帶來的師生關系弱化、由于依賴技術造成的共情能力下降、由于數字體驗衍生出的情感遮蔽等問題。如不重視這些問題并加以解決,將影響到新的教育生態系統的重塑。
二、人工智能在中小學教育應用中倫理失衡歸因
1.技術與教育發展中“術”與“道”的博弈。
技術發展與教育發展本身存在著價值導向的差異和目標指向的矛盾,其過程與結果的關注點也不同。人工智能作為新興技術,其本質為“術”,即手段和方法的創新與應用。技術不斷優化算法、拓展參數,以滿足用戶需求為目標,力求在多領域展開應用,其關注點在于成果的產出速度和數量。而教育發展強調“道”,即價值引領和育人目標。特別是基礎教育,以人的全面發展為導向,旨在培養學生能夠適應終身發展和社會發展需要的必備品格和關鍵能力,關注學生的成長過程與體驗,注重學生在學習中的價值判斷、思維生長和實踐能力的提升。
因此,技術的短期利益追求與教育的長遠目標具有本質上的差異和矛盾,在人工智能賦能教育發展中,容易造成因“技術依賴”而忽視教育育人本質、因“技術歧視”而忽視教育發展的公平性等問題,需要教育者理性對待。
2.科技與人文思維范式對立統一。
人工智能是科技研究的產物,其興起和發展無不凸顯著科技思維范式,多遵循實證主義、還原論路徑,追求客觀、精確、量化的認知方式。通過對學生學習數據的分析,智能教學系統可為學生制訂個性化的學習計劃。而教育兼具科學與人文屬性,教育的人文關懷強調從整體性、直覺性思維出發,重在培養學生的道德品質、社會責任感和人文素養,既關注學生獲取知識的情況,也關注其個性、情感和價值觀念的發展。
因此,在科技與人文思維范式對立統一的哲學思辨指導下,既要發揮以求真、精確、量化為核心的科技思維范式,為實施大規模精準教育提供決策參考,又要發揮教育中注重價值、意義、情感的人文思維范式。在依托技術數據建模的基礎上,要注重學生的日常行為、與同學的互動及在課堂上的細微表情等,全面了解學生的內心世界和學習需求,以達到“真”與“美”的和諧統一。
3.技術的高速迭代與政策制定延后性的矛盾。
根據摩爾定律,信息技術的發展呈現數量級增長,人工智能技術更是高速迭代。而政策制定有其程序性和謹慎性,以確保政策的科學性、合法性和公正性,這導致政策制定的周期較長,難以與技術的快速迭代同步。政策滯后可能導致技術濫用、倫理風險失控及監管空白等問題。這就需要變革傳統教育治理和技術倫理治理范式,跳出傳統靜態管理模式,轉向兼具動態性、靈活性與互動性的治理框架,以適應技術的非線性演進和跨領域滲透。
三、人工智能在教育應用中倫理失衡的應對策略
筆者認為,需構建“道德一制度一應用”三位一體的動態實施框架,從價值觀引領、制度規約、實踐反饋三個維度,以宏觀、中觀、微觀相結合的方式來應對人工智能在教育應用中的倫理失衡困局。
1.建立人工智能道德規約。
倫理是人類在長期社會運行中形成的、用以判斷善惡的共同價值基準。人工智能開發方、使用者和資本投入方應共同遵守人工智能道德規約,即將“倫理先行”的理念貫穿于人工智能的開發、設計和使用全過程。
作為人工智能開發方,在人工智能教育產品的技術研發、測試、實踐和評估階段均要符合倫理規范。一是要秉持技術向善原則。要將人工智能的開發目標定位為增進學生發展福祉、促進教育高質量發展。二是要注重教育公平。確保開發的產品能夠惠及不同性別、家庭背景的學生,適配學生的學習需求,避免加劇教育不平等。三是要關注數據隱私。在進行技術開發與優化時,嚴格遵循隱私保護原則。模型要使用符合道德規范且透明的、可解釋的、符合隱私法規的數據進行訓練,防止隱私泄露對學生造成潛在傷害。
作為人工智能的使用者,如教育管理者、教師和學生,應建立合法合規使用人工智能的道德準則。一方面,要在教育教學中積極擁抱人工智能,賦能教育改革和教學創新;另一方面,要建立數據信息安全意識和風險防范意識,要遵循技術使用規范,避免消極依賴,積極做好監督與反饋。
作為資本投入方,應將教育情懷和社會責任擔當意識納入投資決策框架,避免單純追求經濟利益而忽視教育的社會價值。在市場競爭中要遵循公平、公正、公開的原則。資本投人方還應保持對投人成效的跟蹤與監控,持續關注人工智能教育技術在實際應用中的效果與影響,一旦發現問題,及時改進和調整,確保資本助力人工智能教育應用向著有益方向發展。
2.完善人工智能在教育應用中的政策規范。
一是建立健全法規體制。世界各國十分重視人工智能應用中的倫理風險,紛紛制定標準、政策、法規等來對人工智能的開發與使用進行規范。截至2024年年底,超過50個國家、國際組織相繼發布了人工智能倫理治理文件,并提出了隱私保護與安全穩健、透明可視與算法公正、問責監督、可持續發展和以人為本的教育人工智能倫理原則。2022年,《關于加強科技倫理治理的意見》提出了制定和完善科技倫理規范和標準。2023年的《生成式人工智能服務管理暫行辦法》,成為促進人工智能健康發展和規范應用的專門性法規。《新一代人工智能倫理規范》為教育領域及其他行業提供了應用人工智能的倫理指導。2025年5月,教育部基礎教育教學指導委員會發布的《中小學生成式人工智能使用指南》對中小學教育中的人工智能使用邊界作出原則性的規范。但教育應用中的人工智能技術標準、治理標準與風險等級相匹配的規制措施等還有待教育權威部門進一步研究與出臺。
二是政策出臺堅持“倫理先行”。制定人工智能在教育應用中的政策要關注數據隱私與安全,建立數據安全保障體系,建立智能與傳統方式相結合的評估體系,避免算法偏見影響了教育評估與教育決策。
三是構建多部門協同的工作機制。根據《中小學人工智能通識教育指南(2025年版)》要求,各地要加快建立“政府統籌規劃、學校主體實施、家庭協同配合、產業深度聯動”的協同育人機制。教育主管部門可通過開展城鄉區域聯動,深化校際共享,推動校企合作等形式統籌各方資源,保障教育的普惠性與公平性。同時,要建立多方參與的風險控制及協同治理機制,促進政府部門、技術開發方、具體使用者等的溝通與協作,降低技術應用風險。
3.加強人工智能應用的倫理教育和素養培育。
(1)對教師的人工智能自主開發行為進行倫理約束。
當前,人工智能的應用程序普遍具有開放性,部分中小學教師會利用人工智能應用程序、編程接口、開源模型、插件進行個性化智能體的開發、知識庫的創建,以促進教學創新。但這一過程增加了失控的風險,必須在源頭進行有關人工智能應用的倫理教育與約束,要對開發者進行倫理意識滲透,要利用技術手段評估開發者的操作規范性,保障開源開發內容符合社會道德準則與公共利益。
(2)在人工智能賦能教學實踐中規避風險。
首先,要具備隱私保護和數據安全意識。教師要在遵守道德底線和社會規范的前提下合理使用人工智能工具,要具備識別虛假信息的能力、建立維護個人隱私和信息安全的意識,不可隨意上傳具有個人隱私的數據和信息。
其次,對人工智能生成的內容始終保持批判思維與質疑能力。人工智能可能因訓練數據的局限性或時效性,生成錯誤的內容,進而產生幻覺。這需要教師自身掌握并引導學生學會對生成的關鍵信息進行事實核查,驗證其真實性與準確性。同時,在涉及性別、種族、文化等敏感話題時,要審視其是否存在刻板印象或不公正的傾向。
再次,數智結合形成人機協同教育范式。教師要正確認識自身在教學中的關鍵地位,合理利用技術賦能教學創新,不可過度依賴人工智能推理生成的內容,以免形成思維的鈍化,削弱自身教育實踐智慧。教師應發揮“數字化”工具和“人類智慧”兩個優勢,注重人機互動的平衡性和互補性,形成人機協同教育范式,促進智能教育生態發展。
最后,保持教育的育人本質和人文關懷。人工智能雖可實現教學的個性化、精準化與高效化,但也需要銘記教育的本質與初心是育人。在關注學生的必備品格和關鍵能力的基礎上,還須關注師生間的情感交流、思想碰撞,防止因缺乏社會人際互動造成情感淡漠,人際關系消沉。
(3)加強有關人工智能的教育倫理監督與反饋。
人工智能教育產品開發方可簽訂“事故責任狀”,對開發的算法及程序進行法律層面的約定,違反即負法律責任;教育行政部門可采用監督預警機制,一旦出現違背教育倫理的敏感事件,通過監督機制進行及時處理;學校可建立技術倫理委員會,對人校的人工智能教育產品實行“白名單”審核制。對于數據和信息安全,秉承“誰主管誰負責,誰發布誰負責”原則,承擔相應責任;教師和學生在使用產品時對發現具有風險的事件進行如實反饋,形成“預警案例庫”,供更多師生參考借鑒;家長作為第三方加強監管效能,對學生使用人工智能教育產品進行過程性審核與監督,對發現的風險事件及時記錄并反饋給校方。總之,社會各界要形成合力,利用監督和反饋機制對人工智能教育產品應用的合理性、有效性進行監管,以維護教育人工智能的公正性和透明度。
(作者單位:沈陽師范大學責任編輯:王振輝)