摘 要: 教育人工智能在賦能教學的過程中引發(fā)了諸多倫理問題。基于海德格爾的技術(shù)分析框架,從“質(zhì)料因”“形式因”“目的因”“動力因”深入剖析教育人工智能引發(fā)的四個典型倫理問題,即數(shù)據(jù)隱私與安全、算法偏見與公平、技術(shù)目的與價值和責任歸屬與分配。據(jù)此,提出要構(gòu)建全面的數(shù)據(jù)安全體系,增強算法的透明度與解釋力,確保技術(shù)應(yīng)用的人文價值,以及設(shè)立綜合的責任治理框架的應(yīng)對之策。海德格爾技術(shù)哲學為探索教育人工智能的倫理問題提供了新視角,針對這些問題提出的策略為技術(shù)創(chuàng)新與倫理考量、技術(shù)發(fā)展與人類和諧共生的推進提供了借鑒。
關(guān)鍵詞: 教育人工智能;教育倫理;海德格爾;技術(shù)哲學;數(shù)據(jù)隱私
中圖分類號: B82-057
文獻標志碼: A
文章編號: 1673-3851 (2024) 12-0686-07
Ethical issues and countermeasures in artificial intelligence in education:
A perspective from Heidegger′s philosophy of technology
Abstract: "As artificial intelligence in education empowers teaching, it simultaneously raises a multitude of ethical issues. Drawing on Heidegger′s framework for technological analysis through the lenses of \"material cause\", \"formal cause\", \"final cause\", and \"efficient cause\", this study delves into four typical ethical issues sparked by artificial intelligence in education: data privacy and security, algorithmic bias and fairness, the purpose and value of technology, and the attribution and distribution of responsibilities. Based on this analysis, we propose strategies including establishing a comprehensive data security system, enhancing the transparency and interpretability of algorithms, ensuring the humanistic value of technological applications, and setting up an integrated responsibility governance framework. Heidegger′s philosophy of technology offers a new perspective for exploring the ethical issues of artificial intelligence in education. The strategies presented for addressing the above-mentioned issues provide insights for advancing technological innovation and ethical considerations, as well as for promoting the harmonious coexistence of technology development and humanity.
Key words: artificial intelligence in education; ethics; Heidegger; philosophy of technology; educational ethics; data privacy
自2016年AlphaGo戰(zhàn)勝人類圍棋高手起,人工智能不僅引發(fā)了公眾的廣泛關(guān)注,也成了學術(shù)界關(guān)注的焦點。隨著技術(shù)的持續(xù)快速發(fā)展和相關(guān)政策的推進,人工智能在教育領(lǐng)域的應(yīng)用逐步擴展,促進了教育人工智能的發(fā)展。所謂教育人工智能,即“教育中的人工智能”或“人工智能的教育應(yīng)用”,指的是通過使用人工智能和認知科學技術(shù)來提供個性化的學習體驗,旨在模擬熟悉人類導師的適應(yīng)性教學,以強化學習和教學過程[1]。教育人工智能作為一種工具或手段在促進學生個性化學習、提升教師教學效率、實現(xiàn)數(shù)據(jù)精準采集等方面顯示出了巨大潛力[2]。然而,教育人工智能在發(fā)揮實踐優(yōu)勢的同時也引起了人們對相關(guān)倫理問題的審視和反思。隨著人工智能深度嵌入大學教學場域,人工智能技術(shù)導致教學有限理性行為、傳統(tǒng)教學優(yōu)勢消解、教學公平遭遇新挑戰(zhàn)、隱私侵犯等一系列典型倫理問題開始凸顯[3]。當教育人工智能的開發(fā)及應(yīng)用違背教育人工智能倫理原則,會產(chǎn)生相應(yīng)的教育人工智能倫理風險,例如侵犯用戶隱私、商業(yè)與教育公共利益沖突、缺少規(guī)范化問責機制、降低用戶獨立性、用戶技能發(fā)展滯后于技術(shù)發(fā)展[4]。從技術(shù)倫理的視角上看,教育人工智能影響了人的發(fā)展的完整性,削弱了人的發(fā)展的公平性,忽視了人的發(fā)展的生成性[5]。
盡管學界已關(guān)注到教育人工智能面臨的倫理風險和挑戰(zhàn),但對其進行技術(shù)哲學的探討較少。正如陳昌曙先生所言:“應(yīng)從哲學的觀點考察技術(shù)。”[6]哲學不僅追求對世界的理解,更致力于對世界的改造——這是其不可推卸的責任。因此,對技術(shù)進行哲學反思變得格外重要。將技術(shù)哲學提升至第一哲學高度的是德國哲學家馬丁·海德格爾[7],他被美國技術(shù)哲學家唐·伊德譽為當代技術(shù)哲學的先驅(qū)[8]。海德格爾通過對技術(shù)的追問,深刻分析了技術(shù)對人類生存的影響,揭示了現(xiàn)代技術(shù)本質(zhì)的危險,并提出了在技術(shù)時代中救贖人類生存的道路。鑒于教育人工智能屬于技術(shù)的范疇,它也不可避免地面臨著技術(shù)本質(zhì)所固有的風險,這些風險迫使我們必須正視并應(yīng)對相應(yīng)的倫理挑戰(zhàn)。本文從海德格爾技術(shù)哲學視角出發(fā),深入探討人工智能在教育應(yīng)用中的倫理問題,揭示其作為現(xiàn)代技術(shù)的本質(zhì),并提出相應(yīng)的治理策略。本文旨在為教育人工智能倫理的理論與實踐發(fā)展提供一定的參考。
一、教育人工智能中的倫理問題
在追求真理的方法論中,笛卡爾強調(diào)按次序進行思考的重要性:從最簡單、最容易認識的對象開始,一點一點逐步上升,直到認識最復(fù)雜的對象;就連那些本來沒有先后關(guān)系的東西,也給它們設(shè)定一個次序[9]。這一方法為我們分析教育人工智能所涉及的倫理問題提供了一定的指導。通過將復(fù)雜的教育人工智能技術(shù)拆解為更基礎(chǔ)、更易于理解的元素,可以更系統(tǒng)、更深入地洞察教育人工智能及其所引發(fā)的倫理問題。同樣地,海德格爾指出,深入理解技術(shù)的本質(zhì)不僅要探究其作為工具的性質(zhì),而是要追溯這些工具性事物的根源,即其因果性[10]926。所以他便從亞里士多德的“四因說”開始進行追問。亞里士多德認為導致一個事物出現(xiàn)的東西就可以被稱為該事物的原因。事物由“質(zhì)料因”“形式因”“目的因”和“動力因”共同配合、相互作用、成其所是。海德格爾認為“被看作手段的技術(shù)是什么,這要在我們把工具性的東西追溯到四重因果時方可揭示出來”[10]927。例如,在銀盤的制作過程中,銀作為“質(zhì)料因”,提供了銀盤存在的物質(zhì)基礎(chǔ);盤的形狀,即“形式因”,賦予了銀材料特定的外觀和結(jié)構(gòu);銀盤用于祭祀的目的,即“目的因”,定義了銀盤的使用意圖和價值;而銀匠的技術(shù)和努力,“動力因”,則是將質(zhì)料、形式與目的綜合起來,實現(xiàn)銀盤制作的實際動力。從銀盤的產(chǎn)生過程可以看到,四種原因以各自不同的方式共同“招致”事物,使事物進入“在場”之中而實現(xiàn)“產(chǎn)出”。這種產(chǎn)出便是事物由一種“遮蔽”狀態(tài)到“無蔽”狀態(tài)的展示轉(zhuǎn)變過程。海德格爾通過這一框架,從最初探究工具性入手,經(jīng)過對手段與目的的考察,以及因果分析,深入到“招致”與“產(chǎn)出”之間的聯(lián)系,最終指向了“產(chǎn)出”的概念——標志著從“遮蔽”到“解蔽”的過程。因此,追問技術(shù)的本質(zhì)最終到達了“解蔽”,技術(shù)并不僅僅是一種手段,“技術(shù)乃是一種解蔽方式”[10]931。
以上理解是建立在古希臘的語境下,是適合于古代技術(shù)的,當用這一框架來分析現(xiàn)代技術(shù)特別是教育人工智能時,我們不禁提出疑問:這一“解蔽”的理解是否同樣適用于與古代技術(shù)截然不同的現(xiàn)代技術(shù)呢?誠然,現(xiàn)代技術(shù)也代表一種“解蔽”,但“在現(xiàn)代技術(shù)中起支配作用的解蔽乃是一種促逼”[10]932。海德格爾以農(nóng)業(yè)耕作為例,指出古時的耕作不僅僅是種植作物,更意味著對大地的關(guān)心與照料,實現(xiàn)了人與大自然的和諧共存。農(nóng)民在播種時,實際上是在與生命力量合作,共同守護種子的成長。然而,在現(xiàn)代技術(shù)的影響下,耕作已被納入“擺置”體系之中,被轉(zhuǎn)變?yōu)樽非笮屎彤a(chǎn)量的資源,需求驅(qū)動下的耕作變成了機械化的食物產(chǎn)業(yè)。這種轉(zhuǎn)變雖然提高了產(chǎn)量和效率,滿足了某些即時需求,但這種“解蔽”的過程也導致了新的“遮蔽”,比如食物品質(zhì)的下降和自然環(huán)境的惡化。由此可見,現(xiàn)代技術(shù)不再僅僅關(guān)注于“照料”和“關(guān)懷”,而是轉(zhuǎn)向了“挑釁”和“強迫”,正如海德格爾所描述的這是一種“促逼”意義上的“擺置”。這種本質(zhì)上的轉(zhuǎn)變反映在教育人工智能上就是其所引發(fā)的一系列倫理問題,它們不再是偶然或外在的,而是根植于現(xiàn)代技術(shù)“促逼”的內(nèi)在本質(zhì)。因此,可以按照海德格爾的追問路徑,借助亞里士多德的“四因說”,并在此基礎(chǔ)上遵循笛卡爾的方法論,將教育人工智能拆解為更基礎(chǔ)、更易于理解的元素,以此來分析教育人工智能及其引發(fā)的倫理問題。
(一)“質(zhì)料因”:數(shù)據(jù)隱私與安全問題
“質(zhì)料因”指的是構(gòu)成某物的基本物質(zhì)或成分,如同銀盤是由銀這種材料制成的。在人工智能時代,數(shù)據(jù)是智能的基礎(chǔ)。特別是在教育人工智能領(lǐng)域,教育數(shù)據(jù)更是作為該領(lǐng)域的生產(chǎn)要素與基礎(chǔ)戰(zhàn)略性資源。如同銀匠用銀制作銀盤,教育人工智能使用數(shù)據(jù)作為構(gòu)建學習模型的基礎(chǔ)材料。理想情況下,這些數(shù)據(jù)的妥善利用可以大幅度提高教育服務(wù)的質(zhì)量,促進個性化學習和發(fā)展。然而,在現(xiàn)實中,教育數(shù)據(jù)存在數(shù)量和質(zhì)量上的“短板”,限制了教育人工智能價值的充分發(fā)揮[11]。同時,這也引發(fā)了數(shù)據(jù)隱私和安全方面的重大挑戰(zhàn)。
正如銀匠在處理銀器時須確保其保持純凈與安全,教育數(shù)據(jù)的收集與使用同樣需嚴格遵循個體隱私保護和數(shù)據(jù)安全的原則。為此,數(shù)據(jù)的來源及其處理過程應(yīng)保持完全透明,保障數(shù)據(jù)主體的權(quán)利不受侵犯。但在具體實施中,一些學校采用眼球追蹤、人臉識別和電子頭環(huán)等技術(shù)進行課堂監(jiān)控[12]。這些技術(shù)的引入,本意是為了提高教學效率和豐富學習體驗,卻不可避免地侵犯了學生的隱私權(quán),仿佛將師生置于福柯式的“全景監(jiān)獄”中。這種做法不僅對學生的全面成長構(gòu)成了潛在的威脅,而且削弱了公眾對教育機構(gòu)的信任。此外,大部分教育人工智能產(chǎn)品要求獲取用戶個人隱私信息,使用者若不開放權(quán)限則無法使用該項服務(wù)[13]。這種強制性的數(shù)據(jù)收集,實際上是一種對個人隱私權(quán)的剝奪,迫使用戶為了體驗更精準、個性化的服務(wù)而犧牲隱私權(quán)。它進一步引發(fā)了對數(shù)據(jù)主體“數(shù)據(jù)遺忘權(quán)”的深刻質(zhì)疑,即數(shù)據(jù)擁有者有權(quán)要求刪除未經(jīng)許可搜集的數(shù)據(jù)。但在基礎(chǔ)模型開發(fā)過程中,一旦使用了用戶數(shù)據(jù)進行訓練,就技術(shù)上是無法撤銷或“反學習”這些信息。這意味著,模型一旦訓練完成,就不能完全刪除那些從用戶數(shù)據(jù)中學到的信息,包括反映用戶觀點、語言和文化特征的內(nèi)容[14]。此外,全球在人工智能治理方面存在制度缺失和滯后,這進一步加劇了數(shù)據(jù)隱私和安全的問題。截至2023年7月,全球僅有137個國家制定并頒布了數(shù)據(jù)隱私保護法律框架,而近三分之一的國家尚未擁有基本的數(shù)據(jù)隱私保護法[15]。數(shù)據(jù)保護法律框架的缺失或不完善,使得數(shù)據(jù)侵權(quán)、濫用和盜用現(xiàn)象屢見不鮮。進一步地,隨著隱私侵犯經(jīng)歷的增加,用戶對隱私保護的倦怠感增加,即使認識到隱私風險,也可能不會采取足夠的保護措施。
(二)“形式因”:算法偏見與公平問題
“形式因”指的是物質(zhì)被賦予的具體形態(tài),如銀被塑造成銀盤的具體形狀。在教育人工智能的領(lǐng)域中,“形式因”則體現(xiàn)為算法的設(shè)計和結(jié)構(gòu),它決定了教育人工智能系統(tǒng)如何處理信息、作出決策以及與用戶互動。算法是指根據(jù)預(yù)定目標,通過一系列機器學習和訓練步驟,模擬人類思維過程和行為模式的計算過程[16]。然而,當算法在處理和分發(fā)信息的過程中失去了客觀中立性,傳遞了有偏見或與現(xiàn)實不符的信息時,就出現(xiàn)了所謂的算法偏見問題,破壞算法公平[17]。
在教育人工智能產(chǎn)品的設(shè)計和開發(fā)過程中,偏見往往不經(jīng)意間被引入,主要是因為以技術(shù)團隊為主導的開發(fā)過程中存在短板。這些團隊雖然在技術(shù)層面頗具專長,卻可能缺乏對教育理論的深入理解,未能充分考慮到特定受眾群體的需求,對數(shù)據(jù)收集缺乏全面性。而人工智能系統(tǒng)本身不具備判斷力,這些早期的偏見在后續(xù)的機器學習過程中會被不斷強化,從而使算法決策過程中的偏見問題更加嚴重。尤其是人工智能的深度學習技術(shù),由于其固有的復(fù)雜性、不透明性和隱蔽性,常被比喻為一個“黑箱”過程。在這個過程中,算法以一種人類難以理解的方式處理數(shù)據(jù),特別是當算法從用戶的互動中學習時,這個問題變得更加明顯。算法無法區(qū)分應(yīng)該保留或舍棄的數(shù)據(jù),僅僅是將所有用戶的數(shù)據(jù)用于學習和決策,這就導致了基于用戶反饋的偏見性決策不僅被進一步加強,而且還形成了一種惡性循環(huán),使得先前的偏見在算法中得到鞏固并加強化。微軟于2016年開發(fā)的Tay聊天機器人就是一個例證。它本意是在Twitter上與千禧一代進行交流,但由于接收到過激的用戶反饋,24小時后就開始發(fā)表種族滅絕等不當言論,最終不得不被停用[18]。
(三)“目的因”:技術(shù)目的與價值問題
“目的因”是銀盤作為祭器的使用目的,指出銀盤存在的最終意義。同樣地,教育人工智能的設(shè)計初衷是優(yōu)化教育流程并推動教育創(chuàng)新,旨在促進教育的根本目的即人的自由而全面發(fā)展的實現(xiàn)。因此,教育人工智能的發(fā)展目的不應(yīng)僅僅局限于技術(shù)進步本身,而更重要的是以人為本,需關(guān)注人、尊重人、彰顯人的主體性。然而,在實際應(yīng)用過程中,教育人工智能的過度使用可能會逐漸削弱教育技術(shù)的人文精神,對學生的情感交流和認知發(fā)展產(chǎn)生不利影響。
一方面,隨著教育人工智能在學生生活中的廣泛應(yīng)用,特別是因其便捷性、技術(shù)吸引力以及能夠滿足學生自尊的需求,學生越來越傾向于向這些智能系統(tǒng)尋求幫助。這一趨勢帶來的積極體驗不僅加深了學生對技術(shù)的依賴,同時也而且在一定程度上減少了學生與教師及同伴間的面對面情感交流。情感交流是加深師生和同學之間緊密聯(lián)系的重要途徑,有助于培養(yǎng)學生的社交技能和情感認知。但教育人工智能由于缺乏人類的情感特質(zhì),往往無法準確把握學生的情緒狀態(tài),其模擬出的情感反饋通常缺少真實性和針對性,這可能導致學生感到自己的情感需求被忽略或誤解。因此,教育人工智能在目前的狀態(tài)下還不能與學生進行真正的情感互動,也難以形成積極的情感互動循環(huán),無法充分發(fā)揮情感交流在促進學生個人成長方面的潛力[19]。另一方面,教育人工智能作為輔助學習工具在一定程度上減輕了學生的認知負擔,使得他們的認知廣度得到了拓展。這種技術(shù)可以通過提供即時信息幫助學生更高效地處理和吸收新知識。然而,這種便利同時也引發(fā)了所謂的“認知外包”現(xiàn)象。“認知外包”,即學生將部分思維活動和認知任務(wù)轉(zhuǎn)移給外部智能設(shè)備或組織,旨在完成特定的學習任務(wù)或達成某些學術(shù)目標[20]。有調(diào)查顯示,高達89%的美國大學生使用ChatGPT來完成作業(yè),53%依賴它撰寫論文,而48%的學生通過它來應(yīng)對考試[21]。這種“認知外包”的學習模式,雖然看似提升了學習效率,實際上卻導致學生的批判性思維能力下降和知識體系趨向淺薄、碎片化。這不僅削弱了學生在人機協(xié)作中的認知地位,還可能使他們被邊緣化,乃至變成工具的奴隸,最終形成“單向度的人”。
(四)“動力因”:責任歸屬與分配問題
“動力因”即銀匠的制作活動,是將銀材料變成銀盤的直接原因。在教育人工智能領(lǐng)域,“動力因”代表著推動技術(shù)發(fā)展的各種力量,包括開發(fā)者、提供商、教育機構(gòu)、教師、學生及其家長等多方利益相關(guān)者及其所承擔的責任。這些動力因素共同作用,推動著教育人工智能技術(shù)的發(fā)展和應(yīng)用,但同時也引發(fā)了責任歸屬與分配的倫理問題。
首先,法律政策的滯后成為責任歸屬與分配問題的一個主要原因。現(xiàn)行法律框架通常基于傳統(tǒng)技術(shù)和教育模式而建立,其認為技術(shù)產(chǎn)品本身是中立的,不直接承擔責任。相應(yīng)的責任可能由教師、學校或產(chǎn)品制造商承擔。特別是,當教育技術(shù)產(chǎn)品不達標或者有缺陷時,根據(jù)《侵權(quán)責任法》和《產(chǎn)品質(zhì)量法》,制造商需要承擔相應(yīng)的責任[22]。但這一體系難以適應(yīng)快速發(fā)展人工智能技術(shù),導致在教育人工智能引起的問題中,現(xiàn)有法律難以提供明確的責任歸屬指引,從而使責任歸屬與分配陷入困境。其次,責任主體的多元化和技術(shù)應(yīng)用的復(fù)雜性顯著增加了責任歸屬與分配的難度。整個人工智能教育過程涉及開發(fā)者、提供商、教育機構(gòu)、教師、學生及其家長等多方利益相關(guān)者,每個參與者在教育人工智能系統(tǒng)的生命周期中承擔不同的角色和責任。而教育人工智能的應(yīng)用包括數(shù)據(jù)采集、算法設(shè)計、模型訓練和決策實施一系列復(fù)雜過程,每個環(huán)節(jié)都可能影響最終的教育效果。因此,問題的出現(xiàn)往往難以追溯到具體的責任環(huán)節(jié),責任鏈條的漫長和技術(shù)流程的復(fù)雜性使確定責任歸屬變得異常困難,教育人工智能可能因此陷入“道德空場”的困境。
追問至此,可以得出教育人工智能出現(xiàn)的四個原因:“質(zhì)料因”是指構(gòu)建教育人工智能的基礎(chǔ)數(shù)據(jù);“形式因”涉及教育人工智能的算法設(shè)計和結(jié)構(gòu);“目的因”是教育人工智能旨在促進教育目標的實現(xiàn);“動力因”包括開發(fā)者、提供商、教育機構(gòu)、教師、學生及其家長等多方利益相關(guān)者及其所承擔的責任。在“動力因”的決定力量之下,四因結(jié)合起來,把教育人工智能帶入“場”中,實現(xiàn)“解蔽”,例如教學效率的提高、教學形式的多樣化以及教學資源的多元化等。但在“解蔽”的同時,也伴隨著“遮蔽”的產(chǎn)生,即每個原因所帶來的倫理問題,這樣的“解蔽”可以被視為一種“促逼著的解蔽”。即教育人工智能在“解蔽”的同時,也“擺置”著其開發(fā)和應(yīng)用生命周期中的每個環(huán)節(jié)及參與者,把他們作為“持存物”置于整個過程之中。海德格爾將這種現(xiàn)象稱為“座架”,即將個體聚集起來,使之按照技術(shù)的需求被重新定義和定位。因此,“促逼著的座架”不僅“遮蔽”了原有的“解蔽”方式和“解蔽”過程本身,還“遮蔽”著“無蔽狀態(tài)”即真理的顯現(xiàn)。“座架之統(tǒng)治地位咄咄逼人。”[10]946但并不是技術(shù)本身帶來了危險,技術(shù)并無任何魔法般的力量。相反,真正神秘的是技術(shù)的本質(zhì)。正是作為“解蔽之命運”的技術(shù)本質(zhì),才是真正的“危險”所在。因此,說到底,“座架占統(tǒng)治地位之處,便有最高意義上的危險”[10]946。
二、教育人工智能倫理問題的應(yīng)對之策
誠如上文所敘,但“哪里有危險,哪里也生救渡”[10]946。“‘救’乃是:把……收取入本質(zhì)之中,以便由此才首先把本質(zhì)帶向其真正的顯現(xiàn)。”[10]946毋寧說,恰恰是技術(shù)之本質(zhì)孕育了“救渡”的可能性。“救渡”的光輝似乎已經(jīng)閃現(xiàn),人們該如何去實現(xiàn)自我“救渡”?這就要求我們不僅停留在教育人工智能表面的利弊權(quán)衡,而是深入到教育人工智能構(gòu)成的每一個環(huán)節(jié)——從它的質(zhì)料、形式、目的到動力因素,全面審視和反思,實現(xiàn)從技術(shù)的“座架”向人類福祉的“救渡”。這不僅是對教育人工智能現(xiàn)有倫理挑戰(zhàn)的回應(yīng),也是對未來技術(shù)發(fā)展方向的引導。
(一)構(gòu)建全面的數(shù)據(jù)安全體系
數(shù)據(jù)作為構(gòu)建教育人工智能模型的“質(zhì)料因”,也是隱私和安全挑戰(zhàn)的源頭。隱私權(quán)不僅是人的基本權(quán)利,更是尊嚴不可或缺的組成部分,同時也是人的自主權(quán)的基礎(chǔ)[23]。因此,構(gòu)建一個全面的數(shù)據(jù)安全體系不僅是應(yīng)對這些隱私與安全問題的基礎(chǔ),也是確保教育人工智能能夠在保護個人權(quán)利的前提下健康發(fā)展的關(guān)鍵。首先,實現(xiàn)數(shù)據(jù)采集的最小化和透明化是保障隱私的基礎(chǔ)。在教育人工智能數(shù)據(jù)采集過程中,應(yīng)明確告知師生數(shù)據(jù)的采集目的、范圍以及使用方式,并確保獲得他們的明確同意。同時,僅收集實現(xiàn)既定目標所必需的數(shù)據(jù),避免不必要數(shù)據(jù)的過度采集,有助于降低隱私泄露的潛在風險。其次,在傳輸和存儲時采用端到端的強加密技術(shù),以及對需要處理和分析的數(shù)據(jù)實施匿名化或偽匿名化處理,確保師生的個人信息在任何環(huán)節(jié)都不被泄露。此外,還需要對教育人工智能系統(tǒng)進行持續(xù)的安全審計和監(jiān)控。一方面,通過記錄和監(jiān)控所有數(shù)據(jù)訪問和處理活動,可以及時發(fā)現(xiàn)未授權(quán)訪問或不當數(shù)據(jù)處理行為。另一方面,定期進行系統(tǒng)的安全審計和漏洞掃描,有助于檢測并修復(fù)系統(tǒng)中的潛在安全漏洞,加強對教育數(shù)據(jù)的整體保護。最后,當這些數(shù)據(jù)不再被需要時,應(yīng)嚴格依照數(shù)據(jù)銷毀政策進行徹底且安全地銷毀,保護師生的“個人信息權(quán)”。
(二)增強算法的透明度與解釋力
算法作為教育人工智能中決策和行為的“形式因”,一旦其失去客觀中立性,引起的偏見問題會損害自身的公平性,并降低公眾對教育人工智能系統(tǒng)的信任。因此,通過確保數(shù)據(jù)處理的正確性、安全性和可控性,以及保持算法的公開透明和監(jiān)管有序來增強算法的透明度和解釋力尤為關(guān)鍵[24]。首先,提高數(shù)據(jù)集的多樣性和全面性,與多元組織合作,在合法的前提下從具有不同背景的個體中收集數(shù)據(jù)。此外,定期更新數(shù)據(jù)集,確保算法訓練能覆蓋各類社會群體并保持時效性和相關(guān)性,減少數(shù)據(jù)偏差帶來的算法偏見風險。其次,公開算法的決策邏輯,詳細闡述算法的設(shè)計意圖、工作原理以及預(yù)期對教育環(huán)境的積極影響。進一步地,增進公眾對算法工作機制的理解,有助于建立對教育人工智能應(yīng)用的信任。最后,定期對算法進行偏見和公平性的審查。建立由多學科背景專家組成的內(nèi)部算法審查小組,由他們負責定期評估算法的偏見和公平性,實行算法審計流程,開發(fā)或引入算法公平性評估工具,對算法輸出定期評估以及在算法的修改、更新過程中重新審查,自動分析算法決策的偏差程度,確保算法決策與既定的公平標準相符。
(三)確保技術(shù)應(yīng)用的人文價值
最好的教育技術(shù)旨在解放人類生命,使其擺脫困境和迷霧。借用海德格爾的術(shù)語,這種技術(shù)是使人“解弊”的技術(shù);信息技術(shù)打破了教育主客體之間的時空壁壘,教育者可借助信息技術(shù)大規(guī)模、有針對性和精準性地開展教育工作[25]。教育人工智能的設(shè)計宗旨,作為其“目的因”,原本也秉承著這一理念,但在開發(fā)和應(yīng)用過程中,有時卻偏離了這一初衷,忽略了其應(yīng)有的人文關(guān)切。因此,確保技術(shù)的應(yīng)用符合人文價值,是實現(xiàn)教育目標,促進師生和諧互動以及學生自由而全面發(fā)展的重要途徑。在這個過程中,技術(shù)開發(fā)者扮演著至關(guān)重要的角色。他們在設(shè)計教育人工智能時,必須把以人為本的原則放在首位,確保技術(shù)的介入能夠促進學生自由而全面地發(fā)展。這意味著開發(fā)者不僅要追求技術(shù)的創(chuàng)新,還需與教育工作者緊密合作,確保提出的技術(shù)方案能夠真正滿足教育的需求,并促進學生的主動學習過程,而不是簡單地替代它。此外,情感智能算法的開發(fā)同樣不可忽視。通過應(yīng)用自然語言處理和機器學習、面部識別和算法檢測等先進技術(shù),開發(fā)出能夠精細識別并響應(yīng)學生情感狀態(tài)的系統(tǒng),通過分析師生交流中的語言、文本內(nèi)容和面部表情,提升對師生交流中語言和語調(diào)所蘊含情感的辨識能力[26]。同時,教師對于人工智能技術(shù)在教育中的應(yīng)用也承擔著重要責任。首先,他們需掌握人工智能的基礎(chǔ)知識與基本原理,提升自身專業(yè)知識以便能熟練地將這些技術(shù)融入教學中。其次,教師應(yīng)明確人工智能在教育中的角色,深刻理解其帶來的機遇與挑戰(zhàn),并確保人工智能的使用目的是促進教育目標的實現(xiàn)。更重要的是,教師應(yīng)指導學生正確地利用教育人工智能工具,培養(yǎng)學生的批判性思維,使他們能夠鑒別信息的真?zhèn)危苊鈱θ斯ぶ悄艿倪^度依賴。
(四)設(shè)立綜合的責任治理框架
教育人工智能的各方利益相關(guān)者及其承擔的責任是推動該技術(shù)發(fā)展的“動力因”,但這同時也引發(fā)了責任歸屬與分配的倫理問題。教育人工智能風險治理不僅需要倫理的浸潤,也依賴于責任的明確歸屬與承擔,其中責任不只體現(xiàn)為外部的規(guī)范制度,也蘊含內(nèi)在的道德追求[27]。因此,應(yīng)構(gòu)建一個以政府為核心、同時涵蓋學校、家庭、企業(yè)及社會等多方參與的“一核多元”責任治理框架[28]。“一核”強調(diào)政府在教育人工智能倫理治理體系中的主導地位,確立以政府部門為核心的監(jiān)督和指導模式。中國電子技術(shù)標準化研究院發(fā)布的《人工智能倫理治理標準化指南(2023版)》要求在人工智能生命周期的各階段,特別是面對技術(shù)型、應(yīng)用型及混合型的倫理風險時,政府扮演關(guān)鍵角色,以保障倫理標準的實施和風險的有效管理。“多元”則突出教育人工智能倫理治理需要學校、家庭、企業(yè)及社會等多方利益相關(guān)者的廣泛參與。這與《中國教育現(xiàn)代化2035》所倡導的“全社會共同參與的教育治理新格局”相一致,表明治理是一個涉及多方合作和貢獻的綜合過程。在這一責任架構(gòu)下,政府的職責不僅局限于監(jiān)管和指導,還包括對人工智能在教育領(lǐng)域應(yīng)用趨勢的前瞻性預(yù)判,并據(jù)此調(diào)整相關(guān)組織機構(gòu)和政策。企業(yè)應(yīng)主動參與倫理治理,擔負起開發(fā)可信賴教育人工智能系統(tǒng)的責任,確保算法透明、公正;教育工作者需關(guān)注技術(shù)使用的合理性,確保其符合教學目標和倫理標準;而學生與家長則應(yīng)了解如何安全、有效地使用技術(shù)資源。
三、結(jié) 語
本文從海德格爾技術(shù)哲學視角出發(fā),分析了教育人工智能的本質(zhì),并據(jù)此探討了教育人工智能帶來的諸多倫理問題。為了應(yīng)對教育人工智能所帶來的倫理風險,首先,構(gòu)建全面的數(shù)據(jù)安全體系,防止數(shù)據(jù)泄露,以保障個人隱私權(quán)益;其次,增強算法的透明度與解釋力,避免偏見和不公正的決策,以維護用戶對教育人工智能系統(tǒng)的信任;再次,確保技術(shù)應(yīng)用的人文價值,促進學生全面發(fā)展,以發(fā)揮技術(shù)支持教育目標實現(xiàn)的作用;最后,設(shè)立綜合的責任治理框架,明確利益相關(guān)者在教育人工智能應(yīng)用中的權(quán)利、責任和義務(wù),以促進“負責任的教育人工智能生態(tài)系統(tǒng)”的建立。由于教育人工智能的應(yīng)用尚處于探索階段、理論研究尚待深入、實際應(yīng)用案例相對有限,當前研究尚未能全面闡述教育人工智能所帶來的倫理問題。隨著技術(shù)的快速演進和教育實踐的不斷變革,新的倫理問題和挑戰(zhàn)會不斷出現(xiàn)。因此,未來應(yīng)結(jié)合具體案例,從多角度審視教育人工智能倫理問題,為連接抽象的倫理價值與具體的教育人工智能應(yīng)用之間建立實質(zhì)性的橋梁。這不僅有助于在迅速變化的教育環(huán)境中進行更有深度的技術(shù)倫理探討,還能指導研究人員將倫理考量融入教育人工智能技術(shù)之中,從而在技術(shù)與人之間實現(xiàn)一種和諧共生的關(guān)系。
參考文獻:
[1]Benedict B. Artificial intelligence as an effective classroom assistant[J].IEEE Intelligent Systems,2016,31(6): 76-81.
[2]王佑鎂,王旦,梁煒怡,等.敏捷治理:教育人工智能倫理治理新模式[J].電化教育研究,2023,44(7):21-28.
[3]張杰.人工智能時代大學教學倫理困境及其治理[J].重慶郵電大學學報(社會科學版),2021,33(6):89-96.
[4]趙磊磊,姜蓓佳,李凱.教育人工智能倫理的困境及治理路徑[J].當代教育科學,2020(5):3-7.
[5]陳倩倩,張立新.教育人工智能的倫理審思:現(xiàn)象剖析與愿景構(gòu)建:基于“人機協(xié)同”的分析視角[J].遠程教育雜志,2023,41(3):104-112.
[6]陳昌曙.技術(shù)哲學引論[M].北京:科學出版社,1999:20.
[7]王小偉.有關(guān)海德格爾技術(shù)哲學的三種意見[J].自然辯證法研究,2021,37(11):56-61.
[8]Ihde D. Postphenomenology and Technoscience[M]. Albany: Suny Press, 2009:32.
[9]笛卡爾.談?wù)劮椒ǎ跰].王太慶,譯.北京:商務(wù)印書館,2009:16.
[10]海德格爾.海德格爾選集[M].孫周興,選編.上海:上海三聯(lián)書店,1996.
[11]楊現(xiàn)民,張昊,郭利明,等.教育人工智能的發(fā)展難題與突破路徑[J].現(xiàn)代遠程教育研究,2018(3):30-38.
[12]夏立新,楊宗凱,黃榮懷,等.教育數(shù)字化與新時代教育變革:筆談[J].華中師范大學學報(人文社會科學版), 2023,62(5):1-22.
[13]陳祥梅,寧本濤.人工智能教育焦慮:成因與化解[J].當代教育科學,2022(9):23-29.
[14]Zhang D, Finckenberg-Broman P, Hoang T, et al. Right to be forgotten in the era of large language models: Implications, challenges, and solutions[EB/OL]. (2023-09-22)[2024-04-02]. https:∥arxiv.org/abs/2307.03941v3.
[15]UNCTAD(United Nations Conference on Trade and Development). Data protection and privacy legislation worldwide[EB/OL].(2023-07-18)[2024-04-02].https:∥unctad.org/page/data-protection-and-privacy-legisla-tion-worldwide.
[16]馮永剛,趙丹丹.人工智能教育的算法風險與善治[J].國家教育行政學院學報,2022(7):88-95.
[17]郭小平,秦藝軒.解構(gòu)智能傳播的數(shù)據(jù)神話:算法偏見的成因與風險治理路徑[J].現(xiàn)代傳播(中國傳媒大學學報),2019,41(9):19-24.
[18]倪琴,劉志,郝煜佳,等.智能教育場景下的算法歧視:潛在風險、成因剖析與治理策略[J].中國電化教育,2022(12):93-100.
[19]顏士剛,王麗蕊,周紫婷.論情感教育視角下人工智能機器人的德育困難[J].現(xiàn)代教育技術(shù),2022,32(4): 5-12.
[20]余勝泉,汪凡淙.人工智能教育應(yīng)用的認知外包陷阱及其跨越[J].電化教育研究,2023,44(12):5-13.
[21]Liebrenz M, Schleifer R, Buadze A, Bhugra D, Smith Aet al. Generating scholarly content with ChatGPT: Ethical challenges for medical publishing[J]. The Lancet Digital Health, 2023, 5(3): 105-106.
[22]蘇明,陳·巴特爾.人工智能教育倫理的多維審視:基于馬克思技術(shù)批判和人的全面發(fā)展理論[J].西南民族大學學報(人文社科社會科學版),2019,40(11):223-228.
[23]苗逢春.數(shù)字文明變局中的教育數(shù)字化轉(zhuǎn)型[J].電化教育研究,2023,44(2):47-63.
[24]陰祖寶,容中逵.人工智能時代教育研究的算法邏輯、可能風險及規(guī)制策略[J].電化教育研究,2023,44(3):50-55.
[25]溫曉年,譚秋浩.信息技術(shù)嵌入思想政治教育的價值限度[J].重慶郵電大學學報(社會科學版),2022,34(4):102-108.
[26]闞兵,馬志穎.人工智能時代情感教育的價值、困局與建構(gòu)[J].電化教育研究,2023,44(12):35-41.
[27]趙磊磊,吳小凡,趙可云.責任倫理:教育人工智能風險治理的時代訴求[J].電化教育研究,2022,43(6):32-38.
[28]白鈞溢.教育人工智能倫理治理:現(xiàn)實挑戰(zhàn)與實現(xiàn)路徑[J].重慶高教研究,2024,12(2):37-47.