李曉娜 雷娜
摘要:近年來,人工智能在教育領域的發展取得了重大突破,其中多模態數據融合與智能教育相結合的應用愈加廣泛,其可能引發的倫理風險也備受社會關注。本文詳細闡述了多模態數據融合下智能教育的發展現狀,深入剖析了智能教育可能引發的倫理問題,最后提出解決現有倫理困境的政策措施,以期推動智能教育向善發展,更好地服務于人類和社會。
關鍵詞:智能教育;教育倫理;多模態數據融合;科技倫理
中圖分類號:G434? 文獻標識碼:A? 論文編號:1674-2117(2023)08-0091-04
引言
在新時代背景下,人們更加關注利用智能前沿技術對傳統教育進行改革,注重信息技術與教育教學融合發展,為學生和教師提供個性化服務。智能教育的快速發展,改善了教育教學環境,推動了新的教學形式轉變,但也引發了一系列智能教育倫理問題,如智能教育的強大數據分析能力,可能會造成個人信息泄漏、教育主體功能的禁錮等。因此,正確認識智能教育倫理問題并規避其風險成為當今社會發展的重要議題。所以,本文通過分析多模態數據融合下的智能教育發展現狀及背后的倫理問題,提出了智能教育倫理問題的應對策略,以期能為未來智能教育健康有序發展提供參考依據。
多模態數據融合下智能教育發展現狀
當前,人工智能技術已經進入了一個嶄新時代,其在教育、出行、經濟、醫療健康等諸多領域不斷發展突破。人工智能教育的主要思路是通過算法,利用互聯網、大數據信息通過計算機實現學生的個性化學習、自主學習和教師的輔助管理學習功能。[1]事物的存在方式是多樣的,也是多模態的,需要通過聲音、文字、圖像等多種形式呈現給社會大眾[2],人工智能的學習也是多模態的,其核心主要是運用科學技術方法來模擬與人類相似的對文本、語言和圖像的認知。在智能教育領域中,多模態數據類型有很多種,前人研究中比較典型的數據分類有:Di Mitri et al(2018)[3]等人提出的運動和生理模態的行為數據和情境數據;穆肅(2021)[1]等將其分為數字空間數據、物理空間數據、生理體系數據、心理測量數據和環境場景數據這五類;而鄭永和(2022)[2]則將其分為外在行為表征數據、內在神經生理信息數據、人機交互數據和學習情境數據。在智能教育領域,多模態數據融合就是將學生外在行為特征、內在心理神經特征、外在環境氛圍和人機交互數據融合整理,從而描述學生的學習狀態和效果,這樣不僅可以提升數據分析的準確性,還能夠提高對教育對象的精準刻畫能力,及對教學效果精準測評,進而提出相應改進措施與方案,探索研究出更深程度的教學規律,提供更加適合用戶的服務。多模態數據融合下的智能教育運用大數據和互聯網技術,全程跟蹤學生學習狀態,從多面、多維度、多視角將現有數據進行整合研究,進而對信息進行全面分析,構建起更有效率、更加契合學生心理行為的新型教育教學體系。[4]隨著人工智能在教育領域的發展,多模態數據融合將成為促進智能教育發展的重要力量和智能教育的重要發展方向。
多模態數據融合下智能教育倫理問題
1.智能教育算法可能出現錯誤或偏差
人工智能是將算法與數據處理合為一體的科學技術,算法是智能教育技術發展不可或缺的部分。由于人工智能產品內部算法運作模式與狀態具有復雜性與隱蔽性,一旦智能系統出現錯誤或偏差,很難找出其根本原因,這將導致人們對人工智能技術的擔憂和不信任。[5]智能教育也是依據智能系統發展起來的,同樣有著類似的問題。同時,智能教育主要根據所記錄到的學習者的數據信息以及固定的評價標準和方法對學習者的學習狀態做出相應判斷和決策[1],這不可避免地會產生偏差,如數據信息的不確定性和判斷標準的偏見,這樣根據智能技術產生的用戶畫像來推薦學習內容和方法,不僅容易造成對學生性別、年齡和性格等方面的偏見,還會限制學習者的創新性及其對多樣性內容的需求。
2.智能教育模式缺乏師生情感互動
智能教育是以智能系統為平臺搭建的數字化虛擬環境,遠程交流、線上互動成為新的交流和溝通方式,人與人之間的情感交流通過機器相互連接,可能導致學生之間、師生之間情感的缺失。同時。智能教育強調收集數據信息完成分析,發現教育規律,制訂教育計劃,但在此過程中收集到的數據往往不全面,如學習者和教師之間的情感數據信息無法測量[6],從而容易忽視師生情緒狀態和感受情況,將溝通與交流、人文關懷屏蔽。此外,智能技術與教育過程結合除了改變人與人之間的關系,還有可能會引起人與機器之間關系的改變,如對科學技術的濫用可能會帶來學習者主動性缺失和教學者的主觀能動性減少的問題。[7]
3.智能教育主體地位弱化
從本質上來說,教育實際上是人與人之間的社會實踐活動,也是主體間的交互過程。無論是學生還是教師,都是教育教學過程的獨立個體和主體,他們有獨立思考的能力,也有自主選擇的權利。在傳統教學過程中,多媒體、教材等事物只是作為師生教育學習過程中的輔助工具,教師利用工具來進行更完整的教學活動。隨著智能教育系統的發展和成熟,智能教育應用不再僅僅作為教學工具,它還可以扮演教師、學生、朋友的角色,這將會影響教育主體的地位,從而帶來倫理風險。一方面,在以往的教育教學活動中,課上的教學活動、課下作業的批改任務和制訂教育教學計劃都是由教師自主和協作完成,教師是教育教學過程中的主要角色。但是人工智能技術在教育領域的發展減輕了教師的負擔,它可以幫助教師在教學活動中進行決策、判斷和反饋,若過度依賴于人工智能技術,會造成教師的權威地位消減,弱化教師的職能。另一方面,如果學生個體過度依賴于人工智能,可能會減少學習的自主性,降低學生主動探索新知的能力和創造力。[8]
4.智能教育信息安全難以保障
互聯網技術和人工智能的快速發展使人們的生活已經離不開網絡,線上教育越來越普遍化,尤其是2019年新冠疫情暴發,使得在線教育的發展越來越壯大,在線教育用戶呈直線上升。據統計,截至2020年3月份,中國的在線用戶達到了4.20億,在線教育App設備數量達到4.30億臺。[9]這就意味著用戶資料每天都在被收集和提供給智能教育平臺,如用戶個人身份信息、學習時長、設備使用情況等,這些數據信息在網絡上會越來越龐大,若網絡防御技術不夠成熟,一旦黑客入侵將會造成巨大的數據泄露,給公民隱私帶來威脅,對人們的生產生活帶來不利影響,甚至有可能被不法分子利用,對用戶造成金錢或心理上的傷害。[7]
5.智能教育倫理監管制度缺失
近年來,智能教育相關政策的制定和完善日益引起人們的重視,2016年國家出臺《“互聯網+”人工智能三年行動實施方案》,2019年教育部發布《北京促進人工智能與教育融合發展行動計劃》。但目前國內智能教育倫理規制法律體系尚未健全,關于智能教育技術的責任界定及監管問題尚待解決,一旦在智能教育過程中出現倫理問題,責任界定無具體法律依據可以參考,教育主體的安全和利益可能會受到傷害,甚至會帶來極大的社會負面影響。例如,在智能技術的催生下,依據數據和算法技術很容易獲得資源,數字教材發展迅速,這可能帶來盜版、抄襲等侵權問題。然而由人工智能所導致的知識侵權問題和責任分擔問題缺少相關法律條文約束,導致對相關人員利益的保護并不全面。同時,智能教育監督管理體系不夠健全,政府部門、技術人員的監督不夠嚴謹。
應對策略
1.建立“以人為中心”的智能教育體系
首先,要樹立“以人為中心”的算法設計理念。“以人為中心”的智能教育算法體系更加強調以人類自身的需求為導向,在算法設計之初,依據用戶的行為習慣和用戶的反饋等信息來改進算法,優化和升級系統,以推動用戶的個性化發展和滿足用戶多方面需求,同時要提高人工智能教育算法的可理解性和透明性,避免算法濫用和誤用。技術開發人員要與教育人員和學生個體保持緊密聯系,及時溝通并了解用戶反饋,不斷總結并修正目前所產生的問題,創造出更符合道德倫理要求的智能教育技術。其次,要保障智能教育中人的主體地位。進一步普及智能教育知識,使教師和學生對智能教育有客觀、正確的理解和認知,以理性的態度面對智能教育技術的發展。樹立以教師的教和學生的學為主、智能教育工具為輔的理念,呈現給學生更加豐富和有趣的課堂。教師要加強與學生的之間溝通,積極關注學生的學習狀態,注重對學生的人文關懷,既要通過智能教育大數據認識教育規律,也應注重收集學生個體“小數據”,發現和挖掘學生個性化特點,實現因材施教。
2.健全智能教育信息安全管理機制
在信息爆炸和人工智能快速發展的時代,數據信息是智能技術發展的基石,保障每個用戶的數據信息安全是當今人工智能教育發展的關鍵問題之一。在多模態數據融合背景下,需要完善相應信息安全管理機制,全方位、多角度保障用戶信息數據安全,確保智能教育系統在被用戶使用過程中的可靠性和安全性。首先,政府部門應完善關于智能教育數據安全保護的法律法規,對教育數據的采集、分析、使用、共享和決策等進行有效規制,明令禁止隱私泄露、數據濫用等違規行為,保障消費者權益。其次,智能教育企業應不斷完善智能教育數據保護措施并嚴格執行,自覺保護用戶隱私,不惡意傳播和使用用戶數據。再次,學校要加強師生信息素養的培育以及信息安全教育培訓,引導師生科學、合理地獲取及篩選教育信息資源,加深對信息倫理風險等問題的理解與思考,進一步增強師生信息分辨能力和信息安全意識,提高其信息安全防護技能。同時,應暢通信息反饋渠道,引導師生及時反饋智能教育資源使用中遇到的倫理問題,不斷改進智能教育應用成效。
3.建立智能教育倫理問題監管體系
完善的監管體系是促進智能教育良性健康發展的重要支撐。第一,各地區教育主管部門及相關部門應當建立聯席會議制度,根據當地智能教育發展實際制訂相應管理措施,加強對學校、各教育機構和培訓單位智能教育倫理問題的審查,嚴厲打擊智能教育發展中出現的違法違規行為,保障學生在相對安全可靠的環境中學習成長。第二,強化企業對智能教育系統設計中的風險評估。企業可組建區域技術管理小組,在智能教育系統開發設計與運行過程中強化倫理審查,并制訂好相應風險應急處理措施,盡可能降低智能教育倫理風險。第三,學校、各教育機構和培訓單位應該按照監管要求明確,選派技術骨干力量組建智能教育倫理問題監管團隊,全面分析、排查、預警和化解本單位本部門智能教育系統面臨的潛在風險和危害。第四,強化教師在智能教育過程中的監督作用。教師應根據學生“最近發展區”對教育資源進行鑒別和篩選,防止學生過度依賴人工智能提供的學習資源,偏離全面發展目標。
4.完善智能教育倫理問題問責機制
在智能教育應用中,任何一個環節出現問題都應及時找到導致事故發生的原因和責任方,盡力規避智能教育倫理風險,因此必須不斷完善智能教育倫理問題問責機制。首先,政府部門應制定強有力的法律法規政策,明確智能教育系統開發和運用過程中所涉及的各項利益相關者如系統開發技術人員、開發商、用戶等的責任和義務,明確智能教育開發和應用過程中的風險責任,并進一步完善問責程序與問責方式,以確保可以對智能教育行為決策后果進行問責,任何非法開發、濫用技術的行為都要受到相應法律制裁。其次,合理明確的問責機制需要遵循公平、公正、透明的原則,即需要構建一套智能教育系統數據記錄方案,確保智能教育系統工作流程透明化,以便于遇到問題能明確責任主體。另外,對算法決策過程、教師利用智能教育工具進行教學的過程和學生學習期間的行為軌跡,也應當有完整的記錄保存方案,從而為可能發生的教育倫理問題問責提供準確全面的資料和參考依據。
參考文獻:
[1]穆肅,崔萌,黃曉地.全景透視多模態學習分析的數據整合方法[J].現代遠程教育研究,2021,33(01):26-37+48.
[2]鄭永和,王一巖.教育與信息科技交叉研究:現狀、問題與趨勢[J].中國電化教育,2021(07):97-106.
[3]Di Mitri,D.,Schneider, J., & Specht, M. et al. From Signals to Knowledge: A Conceptual Model for Multimodal Learning Analytics[J].Journal of Computer Assisted Learning,2018,34(04):338-349.
[4]楊彥軍,徐剛,童慧.智能學習環境中基于多模態數據的深度學習監測研究[J].電化教育研究,2022,43(06):68-76.
[5]王一巖,王楊春曉,鄭永和.多模態學習分析:“多模態”驅動的智能教育研究新趨向[J].中國電化教育,2021(03):88-96.
[6]戎翔.多模態數據融合的研究[D].南京:南京郵電大學,2012.
[7]梁冠宇.人工智能應用于教育的倫理風險與規避[D].太原:山西大學, 2021.
[8]孫增芹,潘宇.人工智能倫理困境的突破——基于法律運行的視角[C]//.《上海法學研究》集刊2022年第11卷——2022世界人工智能大會法治青年論壇文集,2022:161-168.
[9]于英姿,胡凡剛.隱憂與消解:智能技術之于教育的倫理省思[J].遠程教育雜志,2020,38(03):55-64.
作者簡介:李曉娜(1998—),女,河北邢臺人,河北地質大學經濟學院在讀碩士研究生,主要研究方向為大數據分析;雷娜(1982—),女,河北石家莊人,博士,河北地質大學經濟學院副教授,碩士生導師,主要研究方向為區域經濟與技術創新。
基金項目:河北省省級科技計劃軟科學研究專項資助,“河北省科技倫理治理體系建設研究”(225576186D)。