[摘 要]在“人工智能+教育”時代,大規模個性化學習成為可能,但同時也有一定的潛在風險,究其原因,其與倫理規范、監管機制、人工智能教育素養、教育資源充分性、技術自身的局限及教育的特殊性有關。為了促進“人工智能+教育”的深度融合、助力大規模個性化學習,應該制定人工智能教育倫理規范、構建人工智能教育治理體系、探索人機協同教育新模式、突破人工智能技術自身的局限、豐富教育資源庫,以此提高師生的人工智能教育素養。
[關鍵詞]人工智能;大規模個性化學習;潛在風險;對策
[中圖分類號]G649.1 [文獻標識碼]A [文章編號]1008-7656(2023)02-0005-06
近年來,隨著互聯網、大數據、圖形處理、語音識別等技術的發展,人工智能迎來了發展的新浪潮,對社會生活及產業結構產生了深遠的影響。2015年,聯合國教科文組織(UNESCO)發布了《反思教育:向“全球共同利益”的理念轉變》的報告,強調在人工智能的影響下,人類已經從“互聯網+”進入到“人工智能+”的新時代[1]37。2019年,《中國教育現代化2035》指出,人工智能將對教師的“教”和學生的“學”產生很大的作用力,教育所追求的個性化學習在人工智能的支持下有了新的突破[2]。人工智能技術的高速發展,讓學習不再受限于固定的時空,突破了傳統教學的局限,為大規模個性化學習提供了可能,但同時也產生了數據倫理、數字鴻溝等潛在風險,人工智能教育風險治理迫在眉睫。因此,本研究從教師的視角切入,在梳理相關文獻的基礎上,結合人工智能教育實踐,進一步分析人工智能助力大規模個性化學習的潛在風險,探究風險根源,并提出了相應對策,以期為“人工智能+教育”的深度融合提供借鑒。
一、人工智能助力下的大規模個性化學習
1956年,學者布魯姆提出了個性化學習的理念。隨著時代發展,學者們延續和發展了這一觀點。丁念金認為,個性化學習是基于學生的個性,指向學生的個性化充分發展,在學習目標、學習內容、學習方式、學習進程等方面都追求個性化的學習[3]。鄭云翔認為,個性化學習是根據學習者的個性特點和發展潛能,采取靈活、適合的方式充分滿足學習者個體需求的學習[4]。雖然,學者們對個性化學習的定義各有不同,但也有共同之處,即個性化學習以學習者為中心,強調在學習目標、內容、方式、進程等方面的差異,同時也強調了教育教學的靈活性和適合性。傳統教學中,一名教師同時指導多名學生,難以實現個性化教學,而人工智能的發展為個性化學習提供了可能。
人工智能是研究如何模擬以及延伸人類智能的計算機科學分支[5]。人工智能可以模擬人類思維,完成一些需要借助人類智能才能完成的工作。人工智能進入教育領域,形成了新的教育形態。利用知識圖譜和深度學習技術收集學習者的相關數據,完成自動化輔導和答疑。此外,語音識別和圖像識別實現了規模化的自動批改和個性反饋[6]。智能導師能夠根據學習者的興趣、習慣和需求為其推送適合的學習資源,制定個性化的學習方案[7]。自適應學習技術通過分析學習過程行為及數據,動態調整課程內容以進一步適應學習者需求,實現教學的自動干預[8]。人工智能技術從個性化學習方案制定、個性化學習資源推送、實時批改與個性化反饋等方面,為大規模個性化學習的實現提供了可能。人工智能助力下的大規模個性化學習就是借助互聯網、大數據、人工智能等現代信息技術,根據學習者的個性特征為其提供包括定制化培養方案、個性化教學方法、個性化學習路徑等個性化學習服務的“人工智能+教育”形態[9]。大規模個性化學習將成為“人工智能+教育”時代的發展趨勢。
二、人工智能助力大規模個性化學習的潛在風險
人工智能與教育的融合給教育帶來了新的機遇,推動教與學的變革,為大規模個性化學習的實現提供了可能。但是,人工智能在助力大規模個性化學習的同時也有潛在風險,如存在數據倫理風險、算法風險、過度依賴風險、社會風險、身心發展風險、背離教學本意風險等,這些需要引起研究者的重視。
(一)數據倫理風險
人工智能助力大規模個性化學習需要以大數據作為基礎,學習者在學習過程中產生的行為、態度、結果等將被人工智能系統采集、儲存和使用。在此過程中受隱私邊界不清、服務器安全措施不完善、商業利益驅使等因素影響,出現數據的泄露、侵權、利用甚至被盜用的現象[10]。首先,在數據的采集上,用戶隱私邊界不清,例如,某些人工智能教育產品“強制”采集用戶信息,如果用戶不同意就不能使用該產品。其次,在數據存儲過程中,由于不完善的數據管理機制所導致的數據泄露、數據歸屬等使得數據倫理問題產生。最后,在數據使用過程中,人工智能系統依據采集的數據進行分析得出的結果,如果帶有偏差,或未考慮學習者的接受力,反而會加重學習者的負擔。
(二)算法風險
算法是為實現某個任務而構造的簡單指令集[11] 。隨著人工智能的快速發展,“一切皆可計算”的“算法崇拜”在教育領域蔓延。人工智能可以根據學習者的知識儲備量、前期行為數據、學習風格等,為學習者制定個性化的學習方案,推送個性化的學習資源,進行個性化的學習反饋。同時,人工智能教育帶來的算法風險也要引起警惕。首先,算法“黑箱”隱藏未知風險。由于技術的復雜性,算法猶如一個未知的“黑箱”,我們不清楚算法的規則,也不知道算法的目的和意圖,更談不上對算法進行評判和監督。在這種情況下,將人工智能教育產品運用于教育,會產生難以預測的潛在風險。其次,算法的大規模運用容易導致教育同質化。面對不同背景、不同知識儲備、不同學情的學習者,“固化”算法的規模化使用,將產生流水線式操作,導致學習者同質化增長,學習者的個性化會減弱。
(三)過度依賴風險
人工智能技術運用于教育領域,可以動態地捕捉學習者的行為軌跡、風格偏好以及需求等,據于此向學習者推送個性化的學習方案和學習路徑。AI助教、智能測評等系統減輕了一線教師的工作負擔,也能給以學習者一對一的指導。但是,教育者和學習者如果過度依賴人工智能,就會面臨較大的風險。一方面,如果教育者過度依賴人工智能,將一切教學行為寄托于人工智能,認為人工智能可以完全代替教師,從而忽視教學設計和對學生的指導,會使教師教育教學能力下降。與此同時,教師減少對學生的人文關懷也不利于學習者的成長。另一方面,如果學習者過度依賴人工智能,直接接受人工智能呈現的學習資源,失去學習的思辨過程,個人思辨能力會逐漸缺乏,也會阻礙學生的發展[12]。同時,人工智能形成的“過濾氣泡”會導致學習者接收到的信息被局限于某個范圍之內,造成認知和意識形態上的分化與隔離[13]。
(四)社會風險
人工智能應用于教育領域突破了傳統教育中班級授課制的局限性,讓每個人可以接受個性化輔導。但是,人工智能的運用也可能加劇教育的不公平。人工智能教育能為欠發達地區提供了優質的教育資源,但是人工智能在使用上更偏向經濟基礎良好、知識儲備優良的群體。因此,人工智能在教育領域的使用不但沒有削弱已有的教育不公平問題,反而強化了。另一方面,人工智能中原有的算法不完善可能會加強社會歧視。如果人工智能算法的數據是有偏差的,那么這些算法產生的結果可能會使得偏差延續甚至擴大,例如,有的公司利用機器學習工具對求職者進行評估,由于這個工具系統偏向男性求職者,導致女性求職者評分和雇傭率較低[14]。這就會導致一些用人單位在招聘時會形成性別歧視。
(五)身心發展風險
教育是在一定的社會背景下發生的促使個體的社會化和社會的個性化的實踐活動。教師在交流中所展現出來的關懷,是對學生很好的教育。教育不僅要考慮學習者的認知發展,還要給予學習者人文關懷,從情感上關愛學生、尊重學生,顧及學習者的身心健康[15]。然而,在進行人工智能教育時會存在影響身心健康發展的潛在風險。一是學習者如果對人工智能過度依賴,會導致學習者思辨能力逐漸減弱。二是人工智能如果推送錯誤的或同質化的學習資源,不僅會影響學習者的學習效果,還會影響學習者思維發展。三是學習者長期與人工智能、數據接觸,缺少社會性交流,學習者的社會性發展會受阻礙。四是人工智能教育打破了時間和地域的限制,學習者可以隨時隨地利用人工智能教育產品進行學習。然而,學習者在使用人工智能教育產品時,久坐或久站,運動量減少,不利于身心健康,長期看電子屏幕對學習者的視力也有損害。
(六)背離教育本意風險
將人工智能引進教育領域,其最初的目的是為了提高學習者的學習效率,更好地實現教育的育人功能。然而,在人工智能教育實踐中卻出現了背離教育本意的現象。一是有的人工智能技術運用失范,影響學習者身心健康發展。教育者和學習者對人工智能的過度依賴,阻礙學習者思維發展和社會性發展,影響學習者的能力發展。二是數據“偏差”增加學習者負擔。人工智能的數據決策以采集到的數據為依托進行計算,如果數據樣本不全或算法隱含偏差,那么人工智能作出的決策不但不能減輕學習者的負擔,反而會增加學習者的負擔。三是教育的特殊性要求教育具有公平性,人工智能的不完善性會加劇教育的不公平性。由于人工智能設計的不完善,忽視了在生理和心理上存在障礙的特殊群體,加之人工智能教育產品的使用更偏向經濟基礎、知識儲備更具優勢的群體,這些都在無形中加劇了教育的不公平性。
三、人工智能助力大規模個性化學習潛在風險的原因分析
人工智能為個性化學習提供了諸多便利,但也帶來了潛在的風險。只有透過現象看本質,才能“對癥下藥”,實現風險善治。通過分析,我們發現倫理規范、監管機制、技術本身的局限性、人工智能素養等都是不可忽視的因素。
(一)倫理規范方面
倫理是指人與人相處的各種道德行為準則。人工智能教育倫理是指人工智能教育產品在開發、應用等過程中所應遵循的道理及準則。人工智能教育倫理本質上是一種規范,是人們參與人工智能教育活動時的行為依據與指南。在現實教育環境中,一方面,人工智能教育倫理在頂層設計層面缺乏精準的規范;另一方面,人工智能發展迅速,倫理規范更新較慢,從而造成了人工智能教育倫理規范的缺失。部分人工智能教育產品研發者對技術給教育帶來的潛在風險考慮不夠充分,有的企業為追求利潤而擴大采集、使用學習者數據,教育者使用人工智能教育技術不夠規范,從而造成了一系列的倫理問題。
(二)監管機制方面
在人工智能運用于教育領域的過程中,人與人工智能技術的關系、人與人之間的關系是否得以規范,不僅需要倫理規范的引領,更需要監管機制的構建與實施。審核機制的不完善導致人工智能教育產品進入市場缺乏監管,產品設計是否符合教育規律、教育內容是否合規、學習資源是否匹配,這些問題都難以得到有效規范。未經審核的產品直接進入市場,影響了學習者的學習質量,也浪費了學習者的時間,更有甚者還會產生不良的社會影響。當前,在人工智能教育領域缺少相關法律制度,機制的不健全也是人工智能教育出現治理失序現象的關鍵原因。缺少相應的審核機制和問責機制,人工智能教育的運用便會缺乏根本性的約束和規范,學習者的合法權益難以得到有效保障。
(三)技術本身方面
人工智能技術的局限也是導致產生潛在風險的一個重要原因。首先,人工智能教育以大數據作為支撐,通過算法模型支持教育活動,這種算法受到標注數據和先驗知識的影響,缺少了靈活變動性,影響了學習者的學習效果。其次,人工智能在語音識別方面有了新的突破,能識別語言間復雜的語義關聯,但這不足以完成對語言的深度理解。在教育過程中,學習者不僅需要理解字面意思,還需要理解言外之意,以及隱藏在語言中的情感,這需要更復雜的知識支持。自然語言識別不完整或不準確,就難以給予學習者精準的學習反饋,還可能誤導學習者或加重學習者的負擔。最后,算法“黑箱”使我們難以得知算法的目的、規則、條件等,這些都會導致潛在風險的出現。
(四)教育資源方面
人工智能助力大規模個性化學習的環節之一是根據學習者的學習情況推送個性化的學習資源,包含題庫、教學視頻、知識點解析等。在現有的人工智能教育產品中,出現了題庫數量不足、教學視頻單一、知識點解析不充分等問題。例如,在“XX平臺”中搜索部編版小學語文五年級現代文閱讀試題,其中“填空題”只有8道題可選,“問答題”只有5道題可選。在“XX同步學”中搜索部編版小學語文三年級現代文閱讀“重點段落理解與分析”,只有10篇閱讀文章可選。單一學習資源的推送與提供,不僅難以幫助學生攻克知識難點,反而會減弱學生的學習興趣,限制學生學習思維的發展。
(五)人工智能教育素養方面
“人工智能+教育”時代,無論是產品設計者,還是教育者、學習者,都應該具備一定的人工智能教育素養:對人工智能技術具備基本的認知能力,了解人工智能的技術本質和發展邏輯,及其對社會和教育的作用和影響,具備人工智能技術的理性認知和合理應用,理解人工智能技術的應用邊界[16]。但是,在人工智能教育實踐中,部分教育者和學習者的人工智能教育素養不足,過度依賴人工智能技術,缺少對人工智能技術的理性認識,導致在教與學中沒有充分發揮主觀能動性,進而難以作出適當的教育決策。
(六)教育自身的特殊性
教育是培養人的活動,人是發展變化的,這就導致了教育的模糊性與不確定性。教育是什么、什么是最好的教育、學習者們應該學習什么、怎么去學習,這些都沒有標準的答案,需要在實際教育教學情景中靈活應對。而人工智能依靠的算法則是固定的、公式化的。人工智能依據算法模型進行計算,根據得出的數據為學習者制定學習方案、推送學習資源,這看似個性化學習,卻不契合教育的規律。兩者之間的矛盾,也會影響學習者的學習興趣、知識獲得與思維發展。
四、人工智能助力大規模個性化學習潛在風險的應對措施
隨著人工智能技術與教育的深度融合,大規模個性化學習成為發展趨勢,與此同時帶來的潛在風險也逐步呈現。采取有效方法治理人工智能助力大規模個性化學習的潛在風險已迫在眉睫。上述分析發現,導致風險的因素來自各個方面,包括政府、學校、教師及人工智能教育產品研發人員,因此,采用多元主體參與的方式共治將有助于風險治理。
(一)制定人工智能教育倫理規范
人工智能教育倫理規范是對人工智能教育運用行為的約束,目的是為了有效提高學習者的學習效率,促進學習者健康發展。制定人工智能教育倫理規范,讓人工智能教育參與者有規可依、有章可循,從而減少人工智能教育運用中產生的倫理失范問題。人工智能教育產品研發者應遵守人工智能教育倫理規范、遵循教育規律,合理設計教育產品。企業應堅守人工智能教育倫理規范,合理使用學習者數據,維護學習者的權益。教育者應遵循人工智能教育倫理規范,合理運用人工智能技術優化教育教學。因此,需要加強人工智能教育倫理規范頂層設計,在遵循人工智能、大數據等技術一般標準規范的前提下,結合教育規律與教育實際,制定人工智能教育的倫理規范細則,使人工智能教育倫理規范具有可實施性和可操作性。
(二)構建人工智能教育治理體系
面對市場上多樣的人工智能教育產品以及出現的人工智能教育問題,原有的教育治理體系面臨著挑戰。因此,需要構建人工智能教育治理新體系。一是完善人工智能教育相關法律法規,從立法層面確保人工智能教育有序開展。二是健全人工智能教育審核機制,對進入市場的人工智能教育產品進行審核,篩除不合法規、不合教育規律的產品。三是完善人工智能教育問責機制,明確責任主體,強化人工智能教育產品研發及運用的責任意識。四是健全人工智能教育預警機制,依托大數據分析,對超越數據指標的學習行為發出預警,防范風險于未然。
(三)突破人工智能技術瓶頸
當前,人工智能技術在教育領域中的運用還存在著局限,亟待加強人工智能的相關研究,突破人工智能技術瓶頸。一是深化“強化學習”研究,使人工智能學習不受標注數據和先驗知識的影響,能根據學習者的學情變化更新模型參數,使得人工智能與環境的交互性更強,提供更靈活的學習策略。二是技術研發人員需要在自然語言處理領域深入研究,突破現有的技術瓶頸,使得人工智能對自然語言的理解可以從字面意思層面拓展到言外之意,深化人工智能對自然語言的理解,提高人工智能與學習者互動的效率。三是加強算法的透明性和可解釋性,使大眾能了解算法的規則、目的、條件等,從而對算法形成客觀的認識。同時,建立決策可優化機制,允許學習者預覽、更改決策,改變算法的“固化”。
(四)豐富教育資源庫
教育資源是人工智能助力個性化學習的基礎,豐富的教育資源為學習者進行個性化學習提供了資源保障。教育界可以從以下三個方面來豐富教育資源庫。一要開發不同種類教育資源,使得教育資源種類齊全,數量充分。擁有充足的學習資源,針對不同學情的學習者推送不同學習資源的重要保障。二要豐富教育資源的形式。例如,在識字時,同一個字可以有不同的學習方法(聯系生活實際法、想象法、猜謎法等),且呈現不同的教學風格。在推送教育資源時可以根據學習者學習風格推薦不同的學習資源,提高學習的效率。三要嚴格把關教育資源的質量,篩除質量低劣的學習資源。質量是教育生命線,提高了教育質量,才能真正實現人工智能助力大規模個性化學習的效果。
(五)探索人機協同教育新模式
教育是動態的、變化的,過度依賴人工智能會阻礙學生個性的發展。然而,不可否認,人工智能在實現一對一教學、推送個性化作業、減輕教師負擔等方面提供了便利,這也是教育所急需的。所以,探索人機協同教育新模式是“人工智能+教育”時代必然的趨勢。教師和機器協同合作,相互配合、補充,實現人工智能教育的優化。例如,教育者根據教育教學的需要選用合適的人工智能教育技術,學習者借助人工智能技術實現個性化的課程學習,并借助人工智能技術彌補課堂學習的不足,拓展知識與能力。教師分析學習者的學習數據,發現決策偏差,或對智能推送的不利于學習者學習的計劃及時進行干預,保證人工智能教育符合學習者需求,從而促進學習者的發展。在整個過程中,教育者借助人工智能技術實現教育的育人功能。
(六)提高人工智能教育者素養水平
當人工智能融入教育,如果教育者不了解人工智能的原理和特征,可能會盲目依賴人工智能,會影響教育質量。學校應該開展人工智能教育素養培訓,幫助師生了解人工智能的原理及運用模式,在使用人工智能教育產品時要有獨立思考和自主判斷能力。教育者在運用人工智能技術展開教育教學時,要充分發揮主觀能動性,結合教育規律,作出符合學習者需求的教育決策。學習者利用人工智能進行學習時,要辯證地看待人工智能,不能盲目輕信。
五、結語
從古代的“因材施教”,到現代的“個性化學習”,教育界在不斷地探求個性化學習。在“人工智能+”時代,人工智能技術的蓬勃發展為大規模個性化學習的實現提供了可能。但是,也要清醒地認識到,當前正處于人工智能教育發展的初期,在理論與實踐層面,人工智能教育還存在一些潛在的風險,需要采取相關的應對措施。在實際教學情境中,教育者與學習者要正確認識與運用人工智能,銘記教育初衷,砥礪前行。
[參考文獻]
[1]聯合國教科文組織.反思教育:向“全球共同利益”的理念轉變[R].2015.
[2]劉和海,戴濛濛.“互聯網+”時代個性化學習實踐路徑:從“因材施教”走向“可因材施教”[J].中國電化教育,2019(7):46-53.
[3]丁念金.基于個性化學習的課堂轉變[J].課程·教材·教法,2013(8):42-46.
[4]鄭云翔.信息技術環境下大學生個性化學習的研究[J].中國電化教育,2014(7):126-132.
[5]冷靜,付楚昕,路曉旭.人工智能時代的個性化學習——訪國際著名在線學習領域專家邁克·沙普爾斯教授[J].中國電化教育,2021(6):69-74.
[6]閆志明,唐夏夏,秦璇,等.教育人工智能(EAI)的內涵、關鍵技術與應用趨勢——美國《為人工智能的未來做好準備》和《國家人工智能研發戰略規劃》報告解析[J].遠程教育雜志,2017(1):26-35.
[7]郭炯,郝建江.人工智能環境下的學習發生機制[J].現代遠程教育研究,2019(5):32-38.
[8]牟智佳.“人工智能+”時代的個性化學習理論重思與開解[J].遠程教育雜志,2017(3):22-30.
[9]楊彥軍,羅吳淑婷,童慧.基于“人性結構”理論的AI助教系統模型研究[J].中國電化教育,2019(11):12-20.
[10]趙磊磊,陳祥梅.數智時代教育大數據風險:表征樣態與化解路向[J].貴州師范大學學報(社會科學版),2022(2):72-82.
[11]西普塞.計算理論導引[M].第3版.段磊,唐常杰,等譯.北京:機械工業出版社,2015:114.
[12]趙磊磊,姜蓓佳,李凱.教育人工智能倫理的困境及治理路徑[J].當代教育科學,2020(5):3-7.
[13]沈苑,汪瓊.人工智能教育應用的偏見風險分析與治理[J].電化教育研究,2021(8):12-18.
[14]王嵐,王凱.教育中的人工智能:應用、風險與治理研究[J].黑龍江高教研究,2020(6):45-49.
[15]蔣立兵.現代教學技術應用的倫理訴求及理性回歸[J].中國教育學刊,2016(10):84-89.
[16]郭炯,郝建江.智能時代的教師角色定位及素養框架[J].中國電化教育,2021(6):121-127.
[作者簡介]黃景文,廣西大學成果與合作處副處長,研究員,博士,研究方向:教育信息化;肖彩彩,廣西民族大學碩士研究生,研究方向:教育管理。
[責任編輯 韋志巧]
[基金項目]廣西教育科學“十四五”規劃2021年度重點課題“以構建智慧教育生態的教育智能化水平提升研究”(編號:2021ZJY1711)
[收稿日期] 2023-02-23