許向東
(揚州大學 新聞與傳媒學院,江蘇 揚州 225009)
人工智能技術在教育行業中的應用場景十分廣泛,可為個性化學習、自適應評估、智能輔導和虛擬現實教學等提供技術支撐[1]。學生可以采取個性化、交互式的高效學習方式,教師可獲得準確、實時和科學的學生教學和管理支持。誠然,人工智能技術為教育領域帶來了積極影響,但也引發了新的倫理危機,如削弱教師地位、侵犯學生自由、加深教育不公等,對教育正向價值的壓制、對教育育人價值的僭越、教育對人工智能的依附等問題愈發凸顯[2]。
近年來,生成式人工智能以勢不可擋的姿態進入大眾生活,其對教育領域也產生了深刻影響。據調查顯示,89%的美國大學生使用ChatGPT 完成作業,53%的學生用其寫論文,48%的學生使用其完成測試,有些人還獲得了極高分數,除非極其專業的檢測,一般教師無法察覺學生是否使用過ChatGPT,這種現象引發了學術誠信危機[3]。科學技術是把雙刃劍,在為教育領域帶來巨大發展可能性的同時又需要在依托現實的倫理困境中進行超越現實的審視,這種審視對于教育主管部門建立合理的人工智能教育應用倫理制度和法律法規至關重要。因此,本文對人工智能技術應用于教育領域存在的倫理問題進行深入剖析,并提出針對性規避路徑,助力人工智能技術在教育領域的合理化應用。
在綜合視角下,人工智能教育應用的倫理問題涉及政策視域、學術視域和現實視域3 個方面。從政策視域來看,雖然已有一些政策文件對人工智能教育應用的倫理問題進行了討論,如《北京共識》和《人工智能與教育制定者指南》,但大多數文件仍停留在框架層面,缺乏具體措施;學術視域下的研究思考了如何劃分人工智能教育應用的倫理問題,并關注教師取代、隱私泄露、算法偏見等具體問題;現實視域下的研究敦促政策制定者與相關研究者給予的指導意見不能脫離現實,需具備實踐價值。
Holmes 等[4]悲觀地認為世界各地幾乎沒有開展任何研究,沒有商定任何準則,沒有制定任何政策,也沒有頒布任何法規來解決人工智能在教育領域的應用所帶來的具體倫理問題。值得慶幸的是,政策制定者們已經認識到這些問題的嚴峻性,在人工智能應用于教育行業已經產生以及可能產生的倫理問題上進行了廣泛討論。例如,《北京共識——人工智能與教育》[5]文件中提出有關人工智能教育應用的倫理問題,包括人工智能應用程序偏見、數據獲取與數據隱私保護、人權與性別平等、數字鴻溝導致的教育不公和包容性問題。為解決以上問題,該共識指出應促進人工智能教育應用的公平性與包容性,應用人工智能促進性別平等,確保教育數據和算法使用合乎倫理、透明且可審核;《人工智能與教育:政策制定者指南》[6]是基于《北京共識》提出的具體思考,其指出要以合乎倫理、包容和公平的方式將人工智能用于教育領域,表達了對數據所有權、知情同意權、隱私權和人權方面的擔憂,同時提出6 個倫理問題;國務院發布的《新一代人工智能發展規劃》[7]明確提出到2025 年初步建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力;教育部印發的《教育信息化2.0 行動計劃》[8]提出網絡扶智工程攻堅行動,旨在實現“互聯網+”條件下的區域教育資源均衡配置,縮小區域、城鄉、校際差距,緩解教育數字鴻溝問題,實現公平而有質量的教育。
總體來說,目前大多數政策性文件僅對人工智能教育應用倫理問題的解決方案進行了框架設計,多關注宏觀層面的大問題。少數文件雖然關注到了具體的倫理問題,但也只分析了其潛在影響,未能給出相應的規避路徑。
學術界從不同角度探討了人工智能教育應用的倫理問題。例如,鄧國民等[9]從角色層面、技術層面和社會層面對人工智能教育應用的倫理問題進行了思考,其中角色層面根據利益關系劃分為系統創建者、教師、學生和監測員,分別闡述了其存在的倫理問題和應承擔的倫理責任;技術層面提出了自動化決策倫理問責、算法倫理和數據倫理等技術倫理問題;社會層面提出了人工智能可能會轉變就業市場、改變人際關系和引發新的社會不公平等倫理問題;吳河江等[10]認為人工智能帶來的教育倫理風險可分為兩類:一是一般性倫理風險,即所有人工智能應用都要面對的倫理風險,主要為數據倫理與算法倫理風險;二是特殊性倫理風險,即人工智能在教育領域面對的特有倫理風險,主要為教師職業道德與角色扮演、智能化師生間倫理關系等。文獻[9]的分層方法體現了遞進關系,但未強調因果關系;文獻[10]的分類方法體現了并列關系,但未考慮兩者的交集。
在人機共存的智能時代,智能技術幫助教師承擔的工作越來越多也越來越核心[11],關于人類教師是否會被取代一直是人工智能教育領域的熱點話題。對此,劉云杉[12]認為教學是一種生成性活動,不可能完全被預設,教師具備的教學機智與教學藝術才是教學的魅力所在,而這是人工智能技術尚不具備的。
隨著ChatGPT 應用場景的不斷拓展,虛假知識泛濫、技術異化風險和學術不端行為等問題愈發凸顯暴露。首先,因語料庫不同,學生使用中文進行提問獲得的回答準確率偏低,ChatGPT 可能會編造虛假的內容,這會對那些辨別能力不足的學生造成認知干擾;其次,一個好的論文通常代表作者進行了大量研究,具備優秀的學術素養,但ChatGPT 使論文寫作難度大大降低,使論文學術水平與作者學術素養不匹配;最后,ChatGPT 助長了學術不端風氣,學生使用它寫作業、寫畢業論文和寫代碼等,無需進行獨立思考。為抵制AI 生成文本濫用行為,普林斯頓大學開發了GPTZero 軟件以確定文本是否由ChatGPT 創作。
除了ChatGPT,還有一項應用的出現引發了諸多爭議。浙江一小學引進了一款監控頭環[13],用于監測學生是否處于注意力集中狀態,并能實時打分上傳至教師的電腦中。大眾對該頭環提出很多質疑:孩子的隱私能否得到保障?頭環收集的數據能否真正反映孩子的注意力情況?佩戴頭環導致的人格壓抑與心理障礙如何解決?如果孩子將注意力的提高歸功于頭環,長此以往師生關系是否會割裂?目前,教育部門已經責令學校暫停使用該頭環。
除了上述兩種典型代表,現實中還有大量人工智能教育應用存在潛在的倫理風險。因此,學校、教育機構和科技公司在使用或開發智能教育應用時應進行全面的倫理風險評估,以人為本地實現教育質量提高。而教育監管部門不能放松警惕,將新的智能技術設備引入課堂教學時應有明確的規范,且應為“人工智能+教育”制定應有的操作底線。
人工智能教育應用倫理問題的準確界定是對其進行正確研究的前提。當前學術界具有明顯的泛倫理化研究特征[14],即將一些技術本身和人本身的問題歸納到倫理問題范疇,如有人認為部分教師學習人工智能技術困難、人工智能技術發展過快等是倫理問題。筆者認為人工智能應用于教育中所引發的問題必須具備倫理性才能被稱為倫理問題,即強調技術應用過程中對人的影響。
算法桎梏主要體現在以下兩個方面:①算法黑箱。深度學習是人工智能算法的核心,其通過建立多層次神經網絡處理和分析數據。盡管深度學習在教育領域取得了令人矚目的成果,但人類目前仍無法完全理解其在分析教育數據時采用的邏輯,即算法黑箱。算法的準確性、有效性無從考究,根據算法評估學生的知識基礎、學習效率等指標的公平性值得商榷;②算法偏見。人工智能本身不存在偏見問題,但開發者設計的算法和使用的數據存在偏見問題。人被量化、標簽化的現象普遍存在,用數據描述人的特性、用算法評價學習結果有將教育標準片面化、教育過程流水線化的嫌疑[15]。學生的個性發展具有獨特性和創造性,情緒具有不穩定性,如何設計算法才能準確全面地反映其綜合情況將是人工智能技術應用于教育領域的一大難題。
數字鴻溝一方面表現為發達地區與貧困地區教育資源不均衡。近年來較為熱門的雙師課堂教學模式原本意在促進教育公平,使師資力量薄弱的地區獲得優質教師資源,但本地教師缺乏信息化教學經驗,無法有效提升信息化教學水平,反而會使課堂教學質量和效率下降[16],因此對于人工智能教學設施普及率不高和人工智能技術人才稀缺的貧困地區而言,反倒是加劇了教育不公;另一方面表現為人工智能技術對少數群體和弱勢群體的包容性問題。面向殘疾人和老年人的人工智能教育應用匱乏是世界范圍內一直存在的現實困境。
ChatGPT 可以幫助學生完成課程資源搜索、論文大綱生成和家庭作業等,然而部分學生無法明確數據使用邊界,將論文或科研數據上傳至ChatGPT 數據庫中[17],極易導致數據泄露,引發知識產權糾紛。在未獲得許可或授權的情況下,用戶數據信息被過度采集和二次開發利用是 嚴重侵犯隱私權的行為[18]。例如,2022 年超星學習通被爆出數據庫信息泄露,其中包含學校/組織名、姓名、手機號、學號/工號、性別、郵箱、密碼等用戶個人隱私,泄露數據高達1.727 3 億條,且這些數據在境外平臺被公開售賣。雖然超星學習通官方緊急辟謠,否認用戶信息被泄露,但大量用戶表示收到大量騷擾電話和境外詐騙電話,對方甚至能準確報出自己的姓名和身份證號,此事引發了網民對于教育數據泄露的深刻擔憂。事實上,自2019 年12 月起工信部便開始發布《關于侵害用戶權益行為的 APP 通報》,其中違規收集或使用個人信息、欺騙誤導強迫用戶、強制頻繁過度索取權限成為教育類 APP 中出現頻率最高的問題[19]。即使是敏感性低的數據,當其關聯起來時也能產生一組具有高度意義的數據鏈,這種現象稱為身份重新標識[20]。教育數據所有權歸屬不當將會直接導致數據安全問題,如果別有用心的人獲取到這些數據并加以分析,很容易就能人肉到數據生產者的各種信息,由此引發的連鎖效應將是難以預估的。
教育是一種知識傳遞活動,也是一種情感實踐活動。當人工智能技術應用于教育時,其是否應該擁有情感識別和情感表達功能(自我意識)以滿足教師或學生的情感需求這一議題值得深入探討。在未來,人工智能技術可能會賦予機器人情感功能,它們的角色可能是家人、老師、寵物和伴侶等,人們無需通過社交即可獲得情緒價值,這將會導致人與機器之間的情感鏈接增強,而人與人之間的情感鏈接削弱。同樣的,人工智能技術應用于教育領域時可能會造成情感遮蔽現象,即教師和學生的情緒、感受被技術屏蔽[2]。課堂教學活動是師生情感交互的重要環節,一旦這種交互被人工智能技術阻斷,教育的人文關懷與情感傳遞將無法得到充分體現。
技術異化是對育人觀的顛覆。教學過程中如果教師和學生過于依賴人工智能技術,使其地位從輔助教學轉變為主導教學,將會導致教育目標偏移。我國一直倡導主導與主體相結合的課堂教學結構,人工智能技術的盲目應用將會解構這種課堂教學結構。德國哲學家馬克斯韋伯認為價值理性與工具理性是人類行為不可分割的兩個方面,二者在本質上是合一的,價值理性解決主體做什么的問題,而工具理性解決如何做的問題[21]。人工智能教育應用長期以來存在著工具理性僭越價值理性的詬病,表面上其是教育教學的輔助工具,但實際上教育行業卻對其盲目崇拜,一味追尋工具的高效使用,從而忽略了使用者身心的全面發展,直接導致人機—人人交互的情感危機。
此處主要針對應用開發者,因為他們在開發和維護人工智能教育應用方面具有最大權限。應用開發者的職業素養失守可能源于對利潤的追求,如果開發者將商業利益置于倫理責任之上,他們可能會放松對人工智能教育應用的倫理審查與測試,導致質量和安全性問題,例如過度索取權限、超范圍收集個人信息、私自共享給第三方、強制用戶使用定向推送功能、未向用戶明示申請的全部隱私權限等。此外,缺乏相關部門監督和規范化管理也是導致應用開發者職業素養失守的原因之一。
人工智能技術的快速發展使得監管機構和法律制度難以及時跟進,開發者和使用者缺乏必要的約束和規范可能濫用技術或產生不當行為。此外,人工智能教育應用涉及不同國家之間的數據流動和不同法律體系的碰撞,缺乏全球性倫理規約和監管機制的現狀增加了倫理問題監管的復雜性和挑戰性。
通過將人的全面發展放在首位、注重教育公平和學生需求、制定科技向善的價值取向,以及建立健全的法律保障和監管框架可以最大程度地規避人工智能教育應用中可能出現的倫理困境,為監管部門、教育者、學生和相關從業者提供明確的行為準則和規范,確保人工智能技術的應用目的與教育的最終目標相一致。本文提出的人工智能教育應用倫理困境規避路徑如圖1所示。

Fig.1 Path for avoiding ethical dilemma in the application of artificial intelligence education圖1 人工智能教育應用倫理困境規避路徑
教育是以人的發展為中心,關注人發展的未來性、生命性和社會性,這是構建教育倫理的基本價值觀念和基本原則[22]。人工智能技術在教育中的應用應以學生需求和利益為中心,促進其認知、情感、社交和創造力發展,因此需要對其進行密切審視,以確保其服務于人的發展目標。目前有些學校在教室中布置了智能監控,可以實時捕捉學生的行為數據,判別其是否處于學習、發呆、打鬧等狀態。這樣做雖然對學生的不良行為有良好的糾正效果,但也存在侵入性和去人性化的嫌疑,會使學生產生焦慮情緒與排斥心理,教師與學生之間也會出現信任危機。一旦在技術的應用過程中忽略了人本位思想,勢必發生關系錯位與人性壓制現象。
踐行以人為本的原則應關注學生的個體差異和多樣性,通過個性化學習路徑和教學策略滿足個體需求,促進學生全面發展。教師在教育中扮演著不可替代的角色,即使有人工智能技術的輔助,也需擔負主導責任。此外,教師和開發者還需接受倫理培訓,提高對倫理問題的認識和敏感度,以便其在使用人工智能應用時作出科學合理的決策。
在人工智能教育生態系統中,相關利益者需要有科技向善的價值取向。開發者者應深入了解不同用戶的能力、需求和文化差異,避免設計出可能造成傷害或歧視的產品,致力于促進教育公平;教師要充分考慮和避免人工智能應用可能對學生產生的負面影響,如過度依賴和上癮、社交以及情感發展匱乏等;學生在使用教育應用時應遵守相關準則和道德規范,誠實地提交真實和準確的信息,不應利用系統漏洞或其他不當手段提供虛假數據,同時了解技術的正確用途,避免濫用和錯用;監管人員需監督系統運營中產生教育數據的用途,保障數據安全。教育領域中的科技向善歸根結底是技術手段與教育價值的內在統一,技術應用的目的需與教育的最終追求相吻合[23]。
道德和法律都是社會規范的重要組成部分。與道德不同的是,法律是由國家制定并強制實施的行為規范,當人們不能在道德層面約束自己時,法律便可發揮作用。目前,大眾的人工智能倫理意識薄弱,類似利用AI 換臉侵犯個人隱私權的事件非常普遍,根源在于倫理規約缺失與相關法律法規匱乏。在教育行業中,學生是最易受到傷害的群體,其數據被濫用的現象普遍存在,法律保障是學生利益的最后防線。首先,政府應制定嚴格的數據保護法規,確保個人數據在人工智能教育應用中合法、合規和安全地被使用;其次,政府應建立獨立的監管機構或委員會,負責監管人工智能教育應用的倫理行為及其合規性;再次,政府應加強對人工智能教育應用違法行為的法律責任和追究機制,明確開發者和教育機構在數據使用、隱私保護和倫理規范方面的責任,違反規定者應承擔相應的法律后果;最后,政府應加強國際合作與經驗分享,積極參與國際標準制定,確保人工智能教育應用的倫理規范具有普適性。
人工智能技術在教育領域的應用越來越廣泛,發揮的作用也越來越不可替代,我們要密切關注每一個環節可能出現的倫理問題,并及時采取措施解決這些問題,確保人工智能教育應用的合理性、公平性和可持續性。通過堅持人本位思想、倡導科技向善的價值觀和建立健全的法律保障可以為人工智能教育應用創造一個適宜的發展環境,實現技術與教育的有機結合,為學生的全面發展和個體潛能的實現提供更好的支持,推動教育領域的創新與進步。然而,人工智能合乎倫理的應用仍然是一條漫長的道路,需要監管部門、教育從業者和學生等各方的持續共同努力。