摘要:爆火出圈的ChatGPT為AIGC的發(fā)展帶來了重大突破,也使教育領域從普適走向個性、從單一走向多樣、從零散走向整合,人工智能賦能教育進入新階段,隨之也面臨AIGC帶來的一系列倫理風險,引起教育工作者的高度關注,需要從風險性監(jiān)管視角來處理AIGC教育應用的倫理風險。該文首先從“人-技術”交互角度歸納AIGC教育應用四類倫理風險:算法相關倫理風險、數(shù)據(jù)相關倫理風險、技術相關倫理風險和應用相關倫理風險。其次以風險性監(jiān)管流程為基礎制定AIGC教育應用倫理風險的治理框架,依據(jù)治理框架對四類倫理風險按照“歸納-運行-分級”的順序?qū)嵭斜O(jiān)管:在總結(jié)倫理風險已有的治理依據(jù)后構(gòu)建“5W1H”監(jiān)管模型,對倫理風險進行編碼后實現(xiàn)高、中、低三類分級。以此系統(tǒng)化的監(jiān)管流程為應對AIGC教育應用倫理風險提供借鑒,對AIGC時代賦能教育的倫理使用指南提供指向性的引領,推動教育領域這場持久變革的健康化發(fā)展。
關鍵詞:AIGC教育應用;倫理風險;風險性監(jiān)管
中圖分類號:G434 文獻標識碼:A
本文系全國教育科學規(guī)劃2021年度國家一般課題“教育領域人工智能應用的倫理風險與防范對策研究”(課題編號:BCA210086)研究成果。
在2022年百度世界年度論壇中,百度創(chuàng)始人兼CEO李彥宏提出了生成式AI的新概念:AIGC(AI Generated Content),并指出在未來十年內(nèi),“AIGC”將顛覆所有當前的內(nèi)容制作模式。隨著生成式AI的發(fā)展趨勢朝著多模態(tài)化演進,我國已進入教育4.0時期,正為教育領域帶來新一輪的科技和產(chǎn)業(yè)革命[1]。正如,近期爆火出圈的ChatGPT為AIGC的發(fā)展帶來了重大突破,不僅革新了數(shù)字文化創(chuàng)作的生產(chǎn)范式,也改變了教育主體與人工智能之間的交互模式[2]。在技術的不斷突破和創(chuàng)新方法的推動下,GPT-4隨之問世,開啟“軟件工程3.0”新時代,谷歌的工程主管甚至表示:程序員的職業(yè)生涯將在三年內(nèi)被AIGC所終結(jié)[3]。由此,AIGC的發(fā)展速度讓教育工作者們又興奮又恐懼,驚嘆于AIGC能為教育主體提供自動生成學習成果、提供無所不能的需求、打造更為安全且有創(chuàng)意的學習環(huán)境,又擔心教育主體在AIGC營造的美好前景中丟失自我,忽視其存在的一系列倫理問題[4]。在AIGC的新機遇下,教育領域應給予豐富的AIGC產(chǎn)業(yè)產(chǎn)品和應用場景,在加快融合關鍵技術的同時鼓勵健康發(fā)展AIGC教育應用,在AIGC教育應用倫理風險出現(xiàn)之前便開始實行監(jiān)管,從而更好地推動AIGC教育應用的良序循環(huán),在全球化的科技變革教育之際,實現(xiàn)AIGC在教育領域的合規(guī)布局。那么,在AIGC教育應用倫理風險發(fā)生之前,又該如何實施監(jiān)管呢?本文嘗試從風險性監(jiān)管視角詳細探究。
在AIGC為教育帶來應用潛力的同時,也可能存在一定的問題與風險。本研究從AIGC教育應用中“人-技術”交互的維度,分析AIGC教育應用的倫理風險圖譜,主要分為四類:算法相關倫理風險、數(shù)據(jù)相關倫理風險、技術相關倫理風險與應用相關倫理風險,將其劃分為一級維度,如下頁圖1所示。在二級維度中,算法相關倫理風險分為算法偏見與歧視、算法不透明、算法不可問責與算法濫用;數(shù)據(jù)相關倫理風險分為泄露隱私、數(shù)據(jù)缺失與錯誤、數(shù)據(jù)誤用與數(shù)據(jù)濫用;技術相關倫理風險分為技術依賴與技術“拜物教”;應用相關倫理風險分為AI生成內(nèi)容濫用、重構(gòu)師生關系、喪失自主權(quán)與無追責機制。新興技術都會經(jīng)歷從野蠻生長到安全合規(guī)的過程,AIGC亦不可避免[5]。在教育領域AIGC的快速應用與實踐下,需要追求道德化的教育、真實化的教育、特殊化的教育與有溫度的教育,推動AIGC教育應用的健康發(fā)展。

(一)算法相關倫理風險,應塑造道德化教育
生成式AI是一種新穎的數(shù)字技術,可以為學生快速地創(chuàng)建具有新意且逼真的視覺和動畫內(nèi)容,然而仍有可能為學生創(chuàng)作生成不準確、不真實與偏見性的內(nèi)容[6]。在AIGC教育應用算法相關的倫理風險中,算法技術存在著刻板印象,例如性別、種族和地域偏見,都有可能對學生造成持續(xù)性的風險侵害。其次,教育主體并不能對AIGC中算法模型進行透徹地了解,存在著一定的模糊性,在經(jīng)濟和資本的操控下,教育領域想要使AIGC的算法具有可解釋性是一件困難的事情,忽視了教育主體的知情權(quán)。再者,如果出現(xiàn)AIGC應用下算法相關的教育事故,目前并不能厘清事故的責任關系,將責任具體至個人。最終,算法模型很有可能被應用于教育領域中不當之處,導致學生權(quán)利受到威脅。
(二)數(shù)據(jù)相關倫理風險,應構(gòu)建真實化教育
數(shù)據(jù)相關的倫理風險在人工智能賦能教育應用中就已是常見,AIGC教育應用中并不例外。其存在個人數(shù)據(jù)風險和群體數(shù)據(jù)風險之分,AIGC教育應用時并未界定數(shù)據(jù)隱私的邊界,學生自我隱私有可能遭到泄露,缺乏精準地數(shù)據(jù)保護措施。其次,AIGC教育應用時會發(fā)生生成數(shù)據(jù)不完整和不準確的情況,由此引發(fā)數(shù)據(jù)的缺失與錯誤。再次,如果AIGC將采納的學生有關數(shù)據(jù)應用于其他地方,或者是對其不當處理,則將違背教育初衷,數(shù)據(jù)很可能存在著欺騙性,并未對輸出數(shù)據(jù)形成事實檢查,未提供有質(zhì)量的來源保障。
(三)技術相關倫理風險,應追求特殊化教育
此“特殊化”非日常所理解之意,將教育領域看作AIGC應用的特殊領域,而是指在AIGC的積極推廣下,教育需保持自身特殊化的清醒意識,不能過渡依賴技術,AIGC技術的強大力量并不能使教育忘記以人為本的初衷,堅持立德樹人的根本宗旨[7][8]。因此,在AIGC教育應用下,教育主體不可盲目信奉AIGC帶來的都是好處,正如算法偏見與歧視、數(shù)據(jù)隱私泄露等仍需警惕。此外,AIGC熱潮下學生使用過程中可能會感受到自我行為受到技術的支配,過分依賴技術實現(xiàn)自我價值,過渡崇拜技術生成的創(chuàng)意性成果,這都是教育管理者、教師、家長需要三方協(xié)調(diào)共同解決的風險,否則將會增長學生惰性以及降低思考問題的能力。
(四)應用相關倫理風險,應做有溫度的教育
AIGC教育應用中除特定的算法、數(shù)據(jù)與技術相關的倫理風險,本研究將其他易出現(xiàn)的倫理風險歸納為應用相關倫理風險。首先,學生通過AIGC生成自我所需的內(nèi)容,卻有可能出現(xiàn)擴大數(shù)字鴻溝現(xiàn)象,尤其是不發(fā)達地區(qū)的學生,也有可能使教師的教學重心偏移,破壞學生的價值觀,過分肯定AIGC生成內(nèi)容的價值,從而破壞教育公平性。其次,在AIGC教育應用下,師生關系是否會遭到破壞是一直值得關注的問題,教育主體對其看法一分為二,有些學者認為教師有可能讓渡自主權(quán),給予學生過量的自主學習時間,造成自我地位消解,使學生情感遮蔽,進而出現(xiàn)師生情感異化的風險[9]。再次,教育領域大力倡導個性化學習情境下,學生很有可能喪失自主權(quán),一言一行受到技術的監(jiān)視與監(jiān)管,并沒有準確劃分“人-技術”的邊界,對學生造成網(wǎng)絡欺凌,突出顯示其道德立場,使學生的學習認知與行為受到限制[10]。最后,如果發(fā)生有關AIGC應用的教育事故,并無完備的事故問責機制,目前對其監(jiān)管僅是零散狀態(tài),教師與教育管理者沒有及時的處理措施,造成事故原因無法追溯,更有可能發(fā)生無法將真實性的建議傳至有關部門,發(fā)生惡性循環(huán)。
(一) 風險性監(jiān)管
風險性監(jiān)管是一種基于風險的安全管理技術和方法體系,其以風險管理理論為基本理論,為風險進行分級,要求以風險分級水平,實施科學化的安全監(jiān)管。其強調(diào)“治理不應當以消除所有潛在的損害或更加廣泛的不利后果為目標”,關注點應當為潛在的不利后果發(fā)生的概率以及影響。具體包括四個特征:(1)風險提供了監(jiān)管的對象;(2)風險成為了監(jiān)管的正當依據(jù);(3)風險存在架構(gòu)并塑造合理的監(jiān)管組織和程序;(4)風險塑造了責任間的關系。風險性監(jiān)管力求做到監(jiān)管最科學、最有效、最合理,實現(xiàn)事故風險的最小化。
風險性監(jiān)管方法在教育應用有很多。例如,澳大利亞職業(yè)教育與培訓機構(gòu)出臺《風險監(jiān)管框架》構(gòu)筑了五位一體與銜接貫通的風險監(jiān)管模式[11]。李樹旺立足于體育實踐,精準識別與評估體育的課堂風險,從“高度優(yōu)先-日常監(jiān)控-定期評估-做好準備”四種風險防控層級實現(xiàn)體育課堂風險的監(jiān)管[12]。馮磊通過基于風險監(jiān)管的注冊制詳細闡述英格蘭高等教育治理的新框架,為我國高等教育普及化和現(xiàn)代化發(fā)展提供有益借鑒[13]。與此同時,其被應用于治理在教育領域的倫理風險也很廣泛。例如,趙磊磊提出在面對智慧校園智能升級帶來的倫理威脅時,需關注風險防范與問責,創(chuàng)設智能校園的倫理風險監(jiān)管體系,并提出恰當?shù)拇胧14]。劉成認為應對人臉識別帶來的倫理風險不僅要從應對型治理向預見性與敏捷治理轉(zhuǎn)變,更需通過風險監(jiān)管與技術創(chuàng)新疊加發(fā)力,提高人臉識別的信息利用率[15]。
(二)基于風險性監(jiān)管的治理框架
由于AIGC技術的獨特性與新穎性,倫理風險的特殊性與難控性,本文依據(jù)風險性監(jiān)管的應用流程制定了AIGC教育應用倫理風險的三層七步治理框架,分別為“歸納-運行-分級”三層治理,包括明確的治理目標、了解已有治理依據(jù)、構(gòu)建監(jiān)管模型并編碼、實現(xiàn)風險分級、制定分級監(jiān)管對策、實施基于風險水平的監(jiān)管措施與實現(xiàn)風險可接受狀態(tài)或達到治理目標七個步驟,如圖2所示。在歸納層,根據(jù)發(fā)現(xiàn)的AIGC教育應用倫理風險的治理目標總結(jié)不同國家頒布的權(quán)威性法案或其他具有權(quán)威性和代表性的相關措施;在運行層,構(gòu)建針對AIGC教育應用倫理風險的監(jiān)管模型,結(jié)合倫理風險的治理依據(jù)進行詳細的編碼,從而得出倫理風險的不同編碼情況;在分級層,根據(jù)編碼情況,實現(xiàn)倫理風險的級別劃分,制定分級監(jiān)管對策和實施基于風險水平的監(jiān)管措施,最終達到實現(xiàn)風險可接受狀態(tài)或達到治理目標。

基于此,針對前文所述的四類AIGC教育應用倫理,將從“歸納-運行-分級”的順序?qū)IGC教育應用場景的倫理風險進行詳細地劃定,以監(jiān)管視角來衡量其效能,爭取在AIGC教育應用倫理風險發(fā)生之前找尋最合理可行原則,降低教育事故的風險發(fā)生率。
在明晰AIGC教育應用的倫理風險后,通過對AIGC教育應用倫理風險相關的治理機制與法案等進行統(tǒng)計與歸納,得出了歐盟、美國、英國、聯(lián)合國教科文組織四個具有代表性的國家和組織與我國本土的治理依據(jù),如表1所示。從整體上看,目前每類倫理風險都能有相應治理的參考之處,關于算法偏見與歧視和算法不透明的涉及個數(shù)最多,均為10個,關于數(shù)據(jù)缺失與錯誤、技術依賴和重構(gòu)師生關系的涉及個數(shù)最少,均為1個。

共歸納總結(jié)出21個倫理風險的治理依據(jù):(1)《數(shù)字服務法(Digital Services Act)》(歐盟)、(2)《算法正義和在線平臺透明度法案(Algorithmic Justice and Internet Platform Transparency Act)》(美國)、(3)《人工智能倫理建議書(Recommendation on the Ethics of Artificial Intelligence)》(聯(lián)合國教科文組織)、(4)《新一代人工智能倫理規(guī)范》、(5)《可信賴的人工智能道德準則(Ethics Guidelines For Trustworthy AI)》(歐盟)、(6)《AI法案(The Artificial Intelligence Act)》(歐盟)、(7)《AI白皮書(White Paper On Artificial Intelligence)》、(8)《算法問責法案(Algorithmic Accountability Act)》(美國)、(9)《中華人民共和國個人信息保護法》、(10)《關于加強互聯(lián)網(wǎng)信息服務算法綜合治理的指導意見》、(11)《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》、(12)《國家人工智能研究與發(fā)展戰(zhàn)略計劃(The National Artificial Intelligence Research and Development Strategic Plan)》(美國)、(13)《人工智能應用監(jiān)管指南(Guidance for Regulation of Artificial Intelligence Applications)》(美國)、(14)《通用數(shù)據(jù)保護條例(General Data Protection Regulation, GDPR)》、(15)《民法典》、(16)《數(shù)據(jù)出境安全評估辦法》、(17)《人工智能深度合成圖像系統(tǒng)技術規(guī)范》、(18)《信息安全技術機器學習算法安全評估規(guī)范(征求意見稿)》、(19)《國家人工智能戰(zhàn)略(National AI Strategy)》(英國)、(20)《中華人民共和國數(shù)據(jù)安全法》、(21)《生成式人工智能服務管理辦法》(征求意見稿),在表格中用編號(1)—(21)來表示。
具體來說,算法相關的倫理風險下,在算法偏見與歧視中,《數(shù)字服務法》規(guī)定大型的在線平臺有義務采取一定的措施,確保它們所使用的算法系統(tǒng)設計不會在平臺用戶之間造成歧視;《可信賴的人工智能道德準則》《AI法案》《AI白皮書》《人工智能應用監(jiān)管指南》中提到人工智能需遵守非歧視性與公平性原則,在教育領域亦是如此;在算法不透明中,《算法正義和在線平臺透明度法案》中指出在線平臺對算法使用和處理記錄存在保留的義務,在線平臺應當保留5年以備審查,《中華人民共和國個人信息保護法》提出保證信息處理的透明度和結(jié)果公平公正;在算法不可問責中,《算法正義和在線平臺透明度法案》提及在線平臺的算法審核業(yè)務,應當設立在線平臺的立法、調(diào)查和執(zhí)行權(quán),《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》認為算法推薦服務的提供者不得利用算法推薦服務形式危害國家安全和社會公共利益、擾亂社會秩序、侵犯他人合法權(quán)益等活動;在算法濫用中,《關于加強互聯(lián)網(wǎng)信息服務算法綜合治理的指導意見》明確指出需防范算法濫用的風險。
數(shù)據(jù)相關的倫理風險下,在泄露隱私中,《通用數(shù)據(jù)保護條例》認為個人敏感數(shù)據(jù)必須經(jīng)過個人同意后才能使用,數(shù)據(jù)主體具有知情權(quán)、訪問權(quán)、更正權(quán)和刪除權(quán)等,《AI法案》中提及不能通過暴露特定人群的年齡、身體或心理殘疾等來扭曲人的行為,導致受到身體或心理的傷害,這對學生來說十分重要;在數(shù)據(jù)誤用與濫用中,《中華人民共和國個人信息保護法》提出需要遵循告知、同意的原則后才能使用數(shù)據(jù),并且個人處理者應當對其個人信息處理活動負責,《可信賴的人工智能道德準則》發(fā)出必須確保人工智能技術不會被惡意使用的要求來約束數(shù)據(jù)的誤用與濫用情況,《生成式人工智能服務管理辦法》(征求意見稿)表示用于生成式人工智能產(chǎn)品的預訓練、優(yōu)化訓練數(shù)據(jù)應能保證數(shù)據(jù)的真實性、準確性、客觀性和多樣性,并且不含有侵犯知識產(chǎn)權(quán)的內(nèi)容。
技術相關的倫理風險下,《新一代人工智能倫理規(guī)范》中發(fā)出必須堅持“以人為本”的準則,更好地接受倫理培訓,加強人工智能應用質(zhì)量的監(jiān)控;《國家人工智能研究與發(fā)展戰(zhàn)略計劃》提出仍需持續(xù)性認識國家對人工智能研發(fā)勞動力的需求,不能一味崇拜技術。
應用相關的倫理風險下,在AI生成內(nèi)容濫用中,《人工智能倫理建議書》描述既需向所有國家的公眾提供充分的人工智能素養(yǎng)教育,避免出現(xiàn)數(shù)字鴻溝現(xiàn)象,也需要促進人工智能的多樣性和公平性,從而促進教育公平,《國家人工智能戰(zhàn)略》中指出使用人工智能時應堅持多樣性和包容性,不可濫用;在重構(gòu)師生關系中,《人工智能倫理建議書》堅持以人為本,提出應提前了解人工智能對人權(quán)和權(quán)利獲取的影響;在喪失自主權(quán)中,《可信賴的人工智能道德準則》也明確指出需堅持人的自主性原則;在無追責機制中,《AI白皮書》中認為需要明確的安全條款來應對這些風險,《國家人工智能戰(zhàn)略》中提出短期、中期和長期的人工智能管理戰(zhàn)略。
(一)構(gòu)建監(jiān)管模型的依據(jù)
風險性監(jiān)管視角下,構(gòu)建AIGC教育應用倫理風險的“5W1H”模型,以此模型展現(xiàn)AIGC倫理風險的監(jiān)管運行規(guī)律,如圖3所示。其中“5W1H”包括:(1)Why-AIGC教育應用倫理風險監(jiān)管的理論基礎,保障科學性運行,具體包括其本質(zhì)是什么、規(guī)律是什么與依據(jù)是什么,編碼為A,前文所述AIGC教育應用倫理風險現(xiàn)有的治理依據(jù)則為理論基礎。(2)Who-AIGC教育應用倫理風險監(jiān)管的主體,保障合理性運行,具體包括讓誰監(jiān)管、誰來監(jiān)管、監(jiān)管的主體是誰,編碼為B。(3)What-AIGC教育應用倫理風險監(jiān)管的內(nèi)容,保障系統(tǒng)性運行,具體包括監(jiān)管的客體是什么,編碼為C。(4)Where-AIGC教育應用倫理風險監(jiān)管的對象,保障針對性運行,具體包括監(jiān)管點是什么,編碼為D。(5)When-AIGC教育應用倫理風險監(jiān)管的時機,保障及時性運行,具體包括監(jiān)管對象的體系和類型,編碼為E。(6)How toAIGC教育應用倫理風險的監(jiān)管方法,保障有效性運行,具體包括如何實施監(jiān)管,監(jiān)管的策略和方法,編碼為F。

(二)監(jiān)管模型的可供選擇項
在“5W1H”模型中,本文在每個維度中為四類AIGC教育應用倫理風險提供了可供選擇的項。其中,Why包括較多依據(jù)、中等依據(jù)、較少依據(jù)三種類型,編碼為A1、A2、A3;Who包括國家、學校、教師、學生、家長、企業(yè)、社會公眾七種類型,編碼為B1、B2、B3、B4、B5、B6、B7;What包括點(全員監(jiān)管)、線(全過程監(jiān)管)、面(全面監(jiān)管)三種類型,編碼為C1、C2、C3;Where包括頒布權(quán)威性機制或法案、學校主體通力合作、提升學校主體的倫理素養(yǎng)、學校管理者實行監(jiān)督、教師具備敏銳的觀察與發(fā)現(xiàn)能力、學生具備勇于提出質(zhì)疑之處的意識、家長實行真實監(jiān)督與匯報、企業(yè)具備倫理素養(yǎng)與自我約束力、社會公眾加快輔助解決的速度九種類型,編碼為D1、D2、D3、D4、D5、D6、D7、D8、D9;When包括及時、適時、實時、隨時六種類型,編碼為E1、E2、E3、E4;How to包括控制倫理風險、轉(zhuǎn)移倫理風險、降低倫理風險、消除倫理風險、預防倫理風險、規(guī)避倫理風險六種類型,編碼為F1、F2、F3、F4、F5、F6。
(三)AIGC教育應用倫理風險的運行模式
在AIGC教育應用的四類倫理風險中,本文根據(jù)上文編碼,將其進行詳細的劃分界定,共計14項,如表2所示。第一,在Why-理論基礎中,所有項均為1項,將已有7—10個治理依據(jù)劃分為A1,將已有4—6個治理依據(jù)劃分為A2,將已有1—3個治理依據(jù)劃分為A3,算法偏見與歧視、算法不透明的治理依據(jù)數(shù)量最多為10個;第二,在Who-監(jiān)管主體中,算法偏見與歧視和技術依賴的編碼數(shù)最多,為7個,算法不透明和數(shù)據(jù)缺失與錯誤的編碼數(shù)最少,為2個;第三,在What-監(jiān)管內(nèi)容中,算法偏見與歧視的編碼數(shù)最多,為3個,算法濫用、數(shù)據(jù)缺失與錯誤、技術“拜物教”、喪失自主權(quán)編碼數(shù)最少,為1個;第四,在Where-監(jiān)管對象中,無追責機制的編碼數(shù)最多,為9個,算法濫用的編碼數(shù)最少,為4個;第四,在When-監(jiān)管時機中,算法不透明、算法濫用、泄露隱私的編碼數(shù)最多,為3個,其余均為兩個編碼數(shù);第五,在How to-監(jiān)管方式中,泄露隱私的編碼數(shù)最多,為5個,數(shù)據(jù)誤用、數(shù)據(jù)濫用、技術“拜物教”、技術依賴等8項的編碼數(shù)均最少,為3個。
本文將根據(jù)14項AIGC教育應用倫理風險在“5W1H”模型中每類監(jiān)管的編碼數(shù)進行等級的劃分。在Why中,編碼為A1記為多,編碼為A3記為少;在Who中,編碼數(shù)為4—7記為多,編碼數(shù)為1—3記為少;在What中,編碼數(shù)為2—3記為多,編碼數(shù)為1記為少;在Where中,編碼數(shù)為5—9記為多,編碼數(shù)為1—4記為少;在When中,編碼數(shù)為3—4記為多,編碼數(shù)為2記為少;在How to中,編碼數(shù)為4—6記為多,編碼數(shù)為1—3記為少。從14項倫理風險的橫向劃分來看,如下頁圖4所示。最終根據(jù)每類監(jiān)管為“多”與“少”的次數(shù)將其進行AIGC教育應用倫理風險的分級。
在定級中,將六類監(jiān)管中出現(xiàn)“多”的次數(shù)為4—6次的定級為高倫理風險,也稱為不可接受風險;出現(xiàn)“少”的次數(shù)為4—6次的定級為低倫理風險,也稱為有限接受風險;其余倫理風險定級為中倫理風險,也稱為有限接受風險;由此歸納得出14項AIGC教育應用倫理風險的定級劃分圖譜,它們具有不同的監(jiān)管內(nèi)容、級別、方式、狀態(tài)和策略,如下頁表3所示。例如,算法歧視與偏見、算法透明、算法不可問責、泄露隱私與數(shù)據(jù)濫用五種倫理風險需要高級別監(jiān)管(一級預警),強力的監(jiān)管方式,強制終止和全面檢查的狀態(tài)以及采用否決策略;算法濫用、數(shù)據(jù)誤用、數(shù)據(jù)濫用、技術依賴等七種倫理風險需要中等級別監(jiān)管(二級預警),較強的監(jiān)管方式,高頻率檢查的監(jiān)管狀態(tài)以及采用警告的監(jiān)管策略;喪失自主權(quán)、技術“拜物教”、數(shù)據(jù)缺失與錯誤需要一般級別監(jiān)管(三級預警),中等的監(jiān)管方式,局部限制與有限檢查的監(jiān)管狀態(tài)以及采用關注的監(jiān)管策略。通過制定分級監(jiān)管對策和實施基于風險水平的監(jiān)管措施,最終才能達到對AIGC教育應用的每類倫理風險的有效治理。

在教育領域,AIGC將催生全新的體系和帶來無窮無盡的潛在應用。學生可以利用生成式AI創(chuàng)建令人興奮的新成果,從而更好地創(chuàng)造出引人入勝的互動學習體驗,促進學生的成長。盡管AIGC在改進教育實踐方面具有強大的潛力,但也可能帶來一些潛在的挑戰(zhàn),例如學習材料中摻雜的算法偏見、虛假或不準確的信息、濫用生成作品獲得利益等。本文從風險性監(jiān)管這一獨特視角,爭取在倫理風險發(fā)生之前對其進行有效評估:剖析了AIGC帶來的四類倫理風險,基于風險性監(jiān)管制定了三層七步的治理框架,分別包括歸納、運行與分級三層。在歸納中,總結(jié)目前對AIGC教育應用倫理風險的已有治理依據(jù);在運行中,構(gòu)建AIGC教育應用倫理風險的“5W1H”監(jiān)管模型并進行編碼;在分級中,實施對四類倫理風險的高、中、低級別劃分,從而以不同的解決措施對其處理。通過結(jié)構(gòu)化的監(jiān)管流程,為面對未來生成式AI在教育領域引發(fā)的倫理風險,提供實質(zhì)性與持續(xù)性幫助。


參考文獻:
[1] 王文禮,龍顯芝.推進教育4.0建設:實現(xiàn)以人為本的復蘇[J].開放教育研究,2023,29(2):36-45.
[2] 王佑鎂,王旦等.“阿拉丁神燈”還是“潘多拉魔盒”:ChatGPT教育應用的潛能與風險[J].現(xiàn)代遠程教育研究,2023,35(2):48-56.
[3] 何哲,曾潤喜等.ChatGPT等新一代人工智能技術的社會影響及其治理[J].電子政務,2023,244(4):2-24.
[4] 楊欣.基于生成式人工智能的教育轉(zhuǎn)型圖景——ChatGPT究竟對教育意味著什么[J].中國電化教育,2023,(5):1-8+14.
[5] 黃正艷,鄭原斌等.安全合規(guī)多標準管理體系融合與實踐[J].信息技術與標準化,2022,(5):199-205+212.
[6] Dwivedi Y K,Kshetri N,et al.“So what if ChatGPT wrote it ” Multidisciplinary perspectives on opportunities, challenges and implications of generative conversational AI for research, practice and policy [J].International Journal of Information Management,2023,71:102642.
[7] 王鑒,姜紀壘.中國共產(chǎn)黨立德樹人教育思想的百年歷程與基本經(jīng)驗[J].教育研究,2021,42(7):16-26.
[8] 楊欣.基于生成式人工智能的教育轉(zhuǎn)型圖景——ChatGPT究竟對教育意味著什么[J].中國電化教育,2023,(5):1-8+14.
[9] 吳軍其,吳飛燕等.ChatGPT賦能教師專業(yè)發(fā)展:機遇、挑戰(zhàn)和路徑[J].中國電化教育,2023,(5):15-23+33.
[10] 馮建軍.我們?nèi)绾慰创鼵hatGPT對教育的挑戰(zhàn)[J].中國電化教育,2023,(7):1-6+13.
[11] 鄭偉,張嘉禹.澳大利亞職業(yè)教育與培訓機構(gòu)的風險防控與監(jiān)管——基于《風險監(jiān)管框架》的分析[J].現(xiàn)代教育論叢,2022,248(6):75-83+111-112.
[12] 李樹旺,李京律,梁媛等.高校體育課堂風險識別與評估研究[J].沈陽體育學院學報,2021,40(6):25-33.
[13] 馮磊.基于風險監(jiān)管的注冊制——英格蘭高等教育治理新框架的構(gòu)成與特征[J].外國教育研究,2021,48(10):69-84.
[14] 趙磊磊,蔣馨培等.困境與路徑:人工智能時代學校教育競爭力發(fā)展研究[J].杭州師范大學學報(社會科學版),2022,44(5):70-77.
[15] 劉成,張麗.“刷臉”治理的應用場景與風險防范[J].學術交流,2021,328 (7):151-162.
作者簡介:
王佑鎂:教授,博士,研究方向為智慧教育、人工智能教育、數(shù)字閱讀。
王旦:在讀碩士,研究方向為人工智能教育。
王海潔:在讀碩士,研究方向為人工智能教育。
柳晨晨:副教授,博士,研究方向為人工智能教育、數(shù)字化學習。
Research on Risk Governance of AIGC Educational Application Ethics Based on Risk Regulation
Wang Youmei, Wang Dan, Wang Haijie, Liu Chenchen
(Research Center for Big Data and Smart Education, Wenzhou University, Wenzhou 325035, Zhejiang)
Abstract: ChatGPT, which bursts out of the circle, has brought a major breakthrough in the development of AIGC, and also made the field of education move from universal to individuality, from single to diversity, from fragmentation to integration, and AIenabled education enter a new stage, and then also face a series of ethical risks brought by AIGC, which arouses great concern among educators and requires a risky regulatory perspective to deal with the ethical application of AIGC education. Risks. Firstly, the four types of ethical risks of AIGC educational applications are summarized from the perspective of “human-technology” interaction: algorithm-related ethical risks, data-related ethical risks, technology-related ethical risks and application-related ethical risks. Secondly, we formulate a governance framework for ethical risks of AIGC educational applications based on the risk-based regulatory process, and implement the regulation of the four types of ethical risks in the order of “generalization-operation-grading” based on the governance framework: after summarizing the existing governance basis for ethical risks, we construct the “5W1H” regulatory model is constructed after summarizing the existing ethical risk management basis, and the ethical risks are coded and graded into three categories: high, medium and low. This systematic regulatory process provides a reference for addressing the ethical risks of AIGC educational applications, and provides guidance for the ethical use of empowered education in the AIGC era to promote the healthy development of this lasting change in education.
Keywords: AIGC educational applications; ethical risk; risk-based riskiness regulation
責任編輯:趙云建