
摘" "要:全球范圍內,生成式人工智能在教育領域的運用正日益受到關注。通過深入探討生成式人工智能在教育領域的應用及其治理策略,旨在揭示其在國外的進展和未來發展趨勢,并針對發現的應用問題提出解決方案。當前,生成式人工智能在輸出內容可信度、信息來源多樣性、數字偏見、師生主體地位受到挑戰等方面面臨諸多倫理風險困境。通過分析國外教育領域生成式人工智能應用及治理案例,發現內容可信度和內容使用權是教育應用治理的重要考量,教育主體性和教育行業價值是教育應用治理的核心要義,使用指南和監管政策是教育應用治理的守門防線。其主要治理舉措包括賦予算法“真善”的價值導向,構建頂層政策引領導向,實施有道德的主體責任研究導向,并針對我國教育領域人工智能發展實際情況,構建“善用、善本、善防、善長”四個維度的智能向善治理策略,實現教育領域生成式人工智能應用的可持續發展。
關鍵詞:生成式人工智能;智能向善;治理;教育;應用
中圖分類號:G434" " " " "文獻標志碼:A" " " " "文章編號:1673-8454(2024)10-0054-09
DOI:10.3969/j.issn.1673-8454.2024.10.005
作者簡介:柳晨晨,溫州大學教育學院副教授、碩士生導師,博士(浙江溫州325035);李運嬌,溫州大學教育學院碩士研究生(浙江溫州325035);王佑鎂,溫州大學大數據與智慧教育研究中心教授、博士生導師,博士(浙江溫州325035)
基金項目:教育部教育管理信息中心國外教育研究2024年度委托課題“生成式人工智能對教育的影響、應對研究及數據庫建設”(編號:MOE-CIEM-20230032)
一、問題的提出
人工智能在經歷生成算法、預訓練模型、多模態等技術的累積融合和迭代后,逐漸突破傳統分析型人工智能范疇,迎來生成式人工智能的加速發展。2024年2月,OpenAI發布首款文生視頻大模型Sora,這是繼ChatGPT等大語言模型突破文本內容創作之后,人工智能技術首次解決現有文生視頻工具難以解決的連貫性問題[1],再次提高了生成式人工智能在理解和創造人類感知內容方面的能力上限,給社會各層面帶來極大的沖擊力、想象力和震撼力。在教育領域,生成式人工智能能夠扮演不同的角色,幫助學生理解問題并及時反饋,生成個性化的內容,在不斷提高教育教學效率的同時,也引發了新一輪的技術恐懼和倫理憂思。面對生成式人工智能的發展浪潮,迫切需要明晰生成式人工智能信息生成的機制與內容的準確度,維護以人為本的教育主體性與教育的核心價值,為教育領域生成式人工智能應用提供一個全面的監管框架,并就人工智能技術的適當應用達成進一步共識。本研究通過分析國外教育領域生成式人工智能應用及其治理案例,梳理其關鍵議題和主要舉措,對我國教育領域生成式人工智能應用治理提出相關建議,以期提升我國教育領域生成式人工智能的安全發展水平,實現智能向善。
二、國外生成式人工智能
教育應用治理的關鍵議題
(一)內容可信度和內容使用權是教育應用治理的重要考量
從目前技術迭代情況來看,生成式人工智能正在獲得生成語言的能力,也使區分生成的大量語句與人類書寫的文本變得越來越困難。當人工智能生成內容(AIGC)逐漸逼近甚至超越人類創建的內容時,自然的人智交互體驗為用戶提供了便捷高效的信息服務,但也引發了不容忽視的可信度問題[2]。AIGC在為教育提供便捷的家校社聯系、多語種的流暢交互等技術紅利的同時,也面臨資源質量良莠不齊、算法設計與人的認知發展弱關聯等挑戰[3]。算法“失算”容易導致偏頗性內容的生成,在英國的一項受訪調查中發現,經常有報告稱生成式人工智能工具產生不準確的內容、有偏見的結果、美國化拼寫等問題。許多代表強調需要因此審查和糾正產出。這項調查還測試了多個生成式人工智能平臺的評分性能,受訪者指出沒有一個平臺足夠準確[4]。
一些科學家已經在使用聊天機器人作為研究助手來整理想法,對他們的工作提供反饋,幫助編寫代碼,并審查文獻。然而,許多圖像生成式人工智能系統和一些代碼生成式人工智能系統被指控侵犯知識產權。相關人員指出,GPT可能會違反歐盟《通用數據保護條例》第十七條的內容,該條例確立了被遺忘權。被遺忘權強調數據主體對其個人數據的充分控制權,賦予個人要求刪除已過時的、不必要的、不(再)相關的個人數據的權利[5]。AIGC中如若包含個人信息則屬于對個人信息的處理,應當遵守《中華人民共和國民法典》《中華人民共和國個人信息保護法》等法律法規,如果違反相關規則,未經個人同意處理個人信息,就會侵害他人的個人信息權益[6]。GPT模型是經過大量開源數據訓練而來的,無法從模型中刪除某人的數據或該數據的結果,由此導致的內容使用權問題值得商榷。可以看出,由于用戶訪問生成式人工智能工具不存在時間控制和權限限制,其信息權益和內容可信度需要進行規范。
(二)教育主體性和教育行業價值是教育應用治理的核心要義
人機交互失范易造成教育主體性受威脅。2023年5月,美國教育部教育技術辦公室發布《人工智能與教學的未來:見解與建議》報告,指出生成式人工智能未來對教育和研究可能產生的影響。
首先是教育模式的轉變,要謹防教育主體性失范風險。為破解智能時代技術帶來的主體性危機,應以“培養人”為意向,堅守教育的價值指向,使技術意向性與教育目的性相統一[7]。此外,還需強化教師對生成式人工智能進行判斷和控制的責任。也就是說,人必須處于核心地位。在這一過程中,除教師外,家長、學生、政策制定者、教育管理者等也應參與其中。
其次是研究效率的提高,要關注原創數據泄露危機。通過生成式人工智能工具進行編輯以及提供個性化的反饋,能夠幫助研究者發展寫作技能。然而,在寫作過程中使用生成式人工智能生成文本和編輯,也引起了人們對作品歸屬、學術誠信、剽竊以及未能提升判斷力和寫作技能的關注。用戶完全可以要求ChatGPT將一段已有文本進行改寫,或綜合分析多篇文章以概括主要觀點并重新表述,從而達到剽竊的目的[8]。寫作中的創造性和原創性是關鍵的學習成果,在寫作過程中依賴生成式人工智能可能會威脅到這些成果。所以,應鼓勵有指導地使用生成式人工智能。
最后是教育行業價值的凝練,必須要與生成式人工智能模型結合。盡管數字技術具有變革教育的潛力,但在實際推進過程中還存在著一些挑戰,如果使用不當,反而有損教育教學的目的。總而言之,教育工作者不能把工作完全委托給人工智能,而要從教育目標出發,準確評估人工智能模型的適應性、有用性及潛在風險。
(三)使用指南和監管政策是教育應用治理的守門防線
公開可用的生成式人工智能工具正在迅速涌現,迭代版本的發布速度超過了國家監管框架的適應速度。生成式人工智能強勁的發展勢頭,引發了公眾對其開發和使用中風險的關注,也加強了對控制和監管機制的呼吁。盡管大多數學者對教育中生成式人工智能的使用持普遍樂觀態度,但幾乎所有部門或組織都報告了一些對潛在風險的擔憂,這些擔憂通常具有高度的一致性。大多數國家或地區缺乏關于生成式人工智能的國家層面的法規,用戶的數據隱私得不到很好的保護,教育機構在很大程度上沒有準備好對這些工具進行驗證和監察。
從國外的行動措施來看,德國正在努力加強政府各部門之間的戰略協調,并制定相關程序[9]。英國在政府各部門開展工作,評估現有緩解措施中的差距規模和程度,并嘗試采取進一步措施。美國規定人工智能活動的相關原則,制定聯邦部門和教育機構必須遵循的具體政策,不斷加強人工智能治理,以保護公民的權利和安全[10]。美國國家標準與技術研究院(NIST)于 2023年1月發布《人工智能風險管理框架》(AI RMF 1.0),并于2023年6月成立生成式人工智能公共工作組。究其原因,主要是生成式人工智能發展速度迅猛,其監管與使用準則相對滯后,造成使用與管理之間存在結構性不匹配。
三、國外生成式人工智能
教育應用治理的主要舉措
在探討生成式人工智能在教育領域的應用治理之前,我們必須先理解其關鍵議題。本研究深入分析了生成式人工智能教育應用的核心問題,包括內容質量的保障、教育主體性的維護以及監管政策的完善。通過對這些問題的細致梳理,本研究旨在為構建有效的治理策略奠定基礎,并確保生成式人工智能技術能夠在教育領域內得到合理、安全和有益的應用。
(一)賦予算法“真善”的價值導向,降低虛假信息影響
生成式人工智能工具正在改變著教學內容的生成和提供方式。一方面,需限制低齡段學習者使用生成式人工智能工具,并提高適用年齡段使用工具的信息辨別能力和數字素養。當前生成式人工智能主要依靠用戶輸入的Prompt去生成內容,語言和邏輯直接決定著輸出的內容質量。這表明,一個嚴謹且豐富的課程體系對學生仍至關重要。要培養ChatGPT所不擅長的,特別是人類獨有的思維方式,即培養人的思維能力和解決問題的綜合能力。未來人類與生成式人工智能對話生成的內容可能成為知識生產的主要來源之一,從而進一步改變基于人類創建和驗證的資源、教科書和課程的教育內容。然而,人工智能生成的權威性低甚至虛假的文本容易誤導那些沒有足夠的先驗知識來識別不準確之處或有效質疑它的年輕學習者。學習者對未經驗證內容的參與是否應該被認定為學習是需要界定的。這需要教育者理清內容的構成,將AIGC作為輔助而不是主要角色,科學合理地進行有效學習和教學。
另一方面,開發者需提高訓練模型的可解釋性和透明度。顧名思義,透明度要求的作用機制是通過提升人們對人工智能的認知,使之獲得監督和防范人工智能風險的能力[11]。通過將倫理原則直接編碼進算法中,開發者可以確保生成式人工智能的輸出不僅準確,而且符合社會價值觀。例如,IBM的Watson系統在提供醫療咨詢時,其算法被設計為優先考慮患者的隱私和安全[12]。缺乏解釋如何生成輸出的方法往往會將用戶鎖定在由生成式人工智能系統設計的參數定義的邏輯中。這些參數可能反映了特定的文化或商業價值觀和規范,隱式地生成偏頗性內容。這是由于算法具有不透明性,其作為一個黑盒子運行,因此難以知道產生特定內容的原因。
盡管人們普遍寄希望于通過算法公開來打開算法黑箱,實現算法透明。但單純的算法公開不僅面臨著商業秘密泄露的詰難,也無法真正對算法決策作出解釋[13]。機構和教育工作者應重新思考教學設計,以便生成式人工智能工具能夠更好地應用于教育領域。同時,建立生成式人工智能應用的使用標準,為研究人員、教師和學習者提供有關生成式人工智能工具的指導和培訓,以確保他們了解數據標簽和算法中的偏見等道德問題,并遵守有關數據隱私保護和知識產權的法律規定。
(二)構建政策引領導向,制定技術使用標準
制定生成式人工智能技術教育應用的使用標準,加強教育治理的規范性。可從國家戰略規劃出發,制定國家級人工智能戰略,明確教育領域的發展目標與路徑。同時建立和完善法律法規,確保生成式人工智能的使用符合教育倫理和數據保護標準。配合教育政策的整合,將人工智能教育應用納入國家教育政策和課程標準。
一方面,教師、學習者和研究人員能夠協同設計生成式人工智能安全且有效的使用策略。生成式人工智能模型已經證明其在擴展研究大綱、豐富數據探索和文獻綜述方面的潛力,但需要新的研究來定義潛在領域的能力,以證明其在多維度的有效性和準確性。這個過程還需要一個強有力的試點和評估過程,以審查不同用途的長期影響。
另一方面,使用者需要加強自身的規范意識,遵守使用指南,明確使用標準。研究人員、教師和學習者應該意識到,用生成式人工智能創建的圖像或代碼可能侵犯他人的知識產權,他們在互聯網上創建并分享的圖像、聲音或代碼可能會被其他生成式人工智能利用。在使用AIGC技術時,必須明確自身角色定位,對使用范圍進行倫理規范,防止AIGC技術被濫用,確保AIGC技術本身遵守社會倫理規范、符合社會價值觀[14]。研究人員、教師和學習者需要了解數據所有者的權利,并檢查他們使用的生成式人工智能工具是否違反任何現有規定。
(三)遵循政策規范導向,明晰生成式人工智能實踐準則
生成式人工智能工具的出現,正迅速改變著科學、藝術和文學作品的創作、傳播和消費方式。因此,確定生成作品的所有權和原創性十分必要。康奈爾大學出臺相關規定,學生或員工所擁有的原創研究或內容不應上傳到生成式人工智能工具上[15]。因為它們可能成為全球認證工具所使用的培訓數據的一部分。這些數據包括學生作業、項目或研究小組產生的數據、包含個人身份信息的數據、來自研究伙伴或公司的可能包含專有信息的數據、受版權保護的數據等。未經版權所有者許可,未經授權復制、分發或使用受版權保護的作品侵犯了其專有權,有可能會導致相應的法律后果。
可見,在教育研究中明確生成式人工智能應遵循的實踐準則變得越來越重要。除此之外,研究人員和教師還需要學習生成式人工智能方面的專業知識。應堅決維護教師的育人主體性,無論是備課、授課、課后輔導、作業評價等教學過程,還是學生思政教育、三觀引導等育人過程,教師如果過度依賴AIGC,將逐步喪失育人的主體地位[16]。教育領域引入生成式人工智能應用需要考慮多種復雜的因素,研究人員和教師必須接受高質量的培訓,政府機構必須就生成式人工智能的適當使用提供詳細、規范的指導。
(四)落實主體責任導向,完善使用與監督機制
確立以倫理為基礎的準則,指導生成式人工智能在教育中的研究與應用,確保技術的發展與人類價值觀、社會倫理相協調。采取跨國和跨學科的方法,以便有效和道德地使用生成式人工智能進行教育和研究。對于上述問題,只有通過利用一系列專業知識并匯集多個利益相關方,才能及時確定關鍵問題并有效地解決這些問題,以最大限度地減少負面影響。制定負責任的人工智能準則和監管框架需要多主體協同發力。
一是與人工智能供應商、教育工作者、研究人員、家長和學生的代表合作,規劃課程框架和整體調整評估方法,以便充分利用生成式人工智能的潛力,降低風險。二是帶動跨國和跨學科的專業知識,包括教育工作者、研究人員、學習科學家、人工智能工程師以及其他利益相關方,研究生成式人工智能對未來學習和知識生產、研究和版權、課程和評估,以及人際協作和社會動態的長期影響。三是建立風險評估機制,對生成式人工智能應用的潛在倫理風險進行識別、評估和緩解,確保教育創新在安全軌道上進行。提供及時的建議,為法規和政策的迭代更新提供信息。同時建立反饋機制,收集生成式人工智能應用的用戶體驗和效果數據,不斷優化和改進技術應用,確保其符合教育的道德要求。
四、對我國教育領域生成式人工智能
應用治理的啟示
在審視了生成式人工智能在教育領域應用的關鍵議題后,我們轉向探討具體的治理策略,如圖1所示。這些策略旨在確保生成式人工智能技術能夠在教育中發揮其最大潛力,同時避免潛在的風險和不利影響。本文提出一系列針對性措施,包括算法價值觀的賦予、頂層政策的構建、使用方針的政策規范等,以期為生成式人工智能在教育中的善用、善本、善防、善長提供全面而深入的指導。通過這些舉措,期望能夠促進生成式人工智能技術的健康發展,并為教育領域帶來積極變革。
(一)“智能向善”之善用:負責任地使用生成式人工智能
2023年5月,中共中央政治局召開會議,提出“要重視通用人工智能發展,營造創新生態,重視防范風險”[17]。這為統籌安全與發展,推動生成式人工智能生態健康生長提供了科學依據。展望未來,人工智能治理的完善需要持續推進精準敏捷監管[18],邁向負責任的人工智能。2023年4月,日本在高崎市舉辦了七國集團(G7)數字與技術部長會議。該會議盤點了生成式人工智能帶來的機遇和挑戰。2023年6月,日本向七國集團成員發放了一份調查問卷,問卷主要為受訪者提供生成式人工智能相關的機會選擇和風險排名。其優先在七國集團領導人的聲明、經合組織發布的人工智能原則和可能的政策行動中選擇。調查問卷基于經合組織的數據,旨在評估七國集團成員現有和計劃中的政策倡議,介紹了生成式人工智能的進展。其中,負責任地使用生成式人工智能技術被廣泛認為是政策中最緊迫的優先事項[19]。加拿大根據擬議的《人工智能和數據法案》(AIDA),為私營部門負責任地設計、開發和使用人工智能系統(包括生成式人工智能系統)制定了一個基于風險的監管框架[20]。法國正在分析生成式人工智能的現有立法,如《通用數據保護條例》(GDPR)帶來的新挑戰,并指出只有在人工智能系統有效治理和負責任使用的條件下,公眾才會使用和信任這些技術[21]。
我國也應在合理開發生成式人工智能工具的同時,提供指導、支持和指南方針,以接納新技術帶來的新機會。首先,應制定全面的倫理指導原則。確保生成式人工智能在教育領域的應用符合道德標準和社會價值觀。這些原則應涵蓋數據隱私、知識產權保護、內容真實性驗證等方面。其次,在學術與實踐領域,研究者提出并構建了負責任創新(RRI)框架,其理念是在科學和技術創新過程中社會行動者和創新者彼此負責,同步考量倫理規范、價值導向與社會責任[22]。因此,在教育實踐過程中,我們可以通過專業培訓和繼續教育,提升教師在生成式人工智能應用方面的專業能力,使其能夠高效地利用生成式人工智能工具輔助教學,并能夠指導學生正確使用生成式人工智能,進行負責任的創新活動。最后,通過在課程中融入數字素養教育,教育學生如何辨別真偽信息,如何評估AIGC的可靠性,以及如何安全、負責任地使用生成式人工智能工具。
(二)“智能向善”之善本:厘清本源機制并適當管理生成式人工智能
生成式人工智能帶來的顛覆性創新,影響了廣大缺乏經驗的用戶和開發人員。然而,該技術的廣泛應用領域、生成式人工智能系統之間日益增加的交互,以及快速的技術發展給社會帶來高度的不確定性和不可預測性[23]。這是因為生成式人工智能系統是通過推斷數據中的模式和聯系來“訓練”的,而程序員通常不容易識別這些模式和聯系。這種機制會使生成式人工智能系統執行開發人員沒有預料到的新任務或推理形式的能力——這是一個強大的能力來源,但也是有意設計甚至完全理解模型能力的障礙。開發人員的知識和意圖與系統功能之間的這種差距可能會使結果責任分配變得更加復雜,所以應盡量減少黑盒效應帶來的數據不透明性。
因此,遵循透明性和可問責性是生成式人工智能教育應用中的基本原則。透明性應包括數據的透明性,涉及數據集、數據來源和數據處理方法[24]。此外,還應披露知識產權和版權信息的使用情況。生成式人工智能的運行需要海量數據,生成式人工智能服務提供者可能會未經同意處理大量個人信息[25]。問責是所有關鍵利益相關者的共同責任,問責標準及相關信息的制定和公示意義重大。首先,推動建立透明的算法審計機制,定期對生成式人工智能算法進行審查,確保其公正性和無偏見性。其次,鼓勵生成式人工智能技術開發者提供開源代碼和透明度報告,以便教育工作者和研究人員能夠更好地理解算法工作原理和潛在的偏見。最后,開發一個多維度的評估體系,對生成式人工智能生成的內容進行質量評估,包括準確性、可靠性、多樣性、創新性等指標。
(三)“智能向善”之善防:防止虛假信息濫用并使用監管手段,提高數字素養
生成式人工智能模型在幾乎沒有資源或專業知識的情況下大規模創建合成內容,擁有“深度偽造”的能力。受訪者曾表示對人工智能生成的內容大規模影響人類行為、表達、情感的能力,以及反映或宣傳錯誤信息的內容表示擔憂。還有受訪者表示,不正確或捏造的內容容易被呈現為事實,即“自信錯誤”或“幻覺”輸出。這表明,數字素養水平低可能會進一步加速錯誤信息的傳播并加劇其影響,提高使用者的數字素養、開發內容真實性評估工具成為重要議題。建議以預防生成式人工智能工具誤用為目標,增強科研誠信意識和信息意識,推進學術誠信治理,確保科研和教學活動有序開展。
(四)“智能向善”之善長:揚長避短,合作共贏
新一輪人工智能革命加速了教育全球化進程,能否在激烈碰撞的意識形態紛爭中樹立國家話語權,關乎旗幟、關乎道路、關乎國家政治安全以及人心向背[26]。政府需要開展國際合作,在各個部門部署和使用這些技術,確保人工智能以共同利益為導向。生成式人工智能的快速發展為新興國家和發展中國家創造了新的機會,促進更多本地人工智能創新的國際合作,應側重于推廣具有代表性的數據集、人工智能技術、負責任的人工智能政策框架和適當的數據保護。由于生成式人工智能是在可能存在偏見的現有數據上訓練的,也會導致全球兩極分化加劇,因此呼吁各利益相關者參與人工智能治理,政府需要對這項技術的快速變化作出更積極的反應,包括與各種利益相關者接觸,以了解這些技術對社會不同部分和不同部門的影響。因此,國際協調和合作對于確保這些技術的可信度和管理是十分必要的。作為政策指導參與生成式人工智能工具監管的一種可能方式,可考慮發揮政策引領職能,探索構建智能向善的生成式人工智能治理方略,基于各國報告和指南,持續追蹤生成式人工智能教育應用影響,為決策部門研判政策實施效果提供數據支持。
五、結論
人工智能技術融入教育教學全過程已是大勢所趨,如何回應當前生成式人工智能在教育領域應用的時代需求,如何消除數智化發展帶來的教育應用風險,已成為一個重要而緊迫的議題。數字教育是增強未來學習和引領變革的關鍵,教育工作者應該支持所有的技術,以提高我們下一代的教育水平[27]。
本研究通過對國外教育領域生成式人工智能應用及治理案例的分析研究,發現內容可信度和內容使用權是教育應用治理的重要考量,教育主體性和教育行業價值是教育應用治理的核心要義,使用指南和監管政策是教育應用治理的守門防線。在治理層面,呼吁賦予算法“真善”的價值導向,構建頂層的政策引領導向,實施有道德的主體責任研究導向,以便有效和道德地使用生成式人工智能進行教育和研究。同時,針對我國人工智能教育發展的實際情況,建議從智能向善之“善用、善本、善防、善長”四個維度,實現教育領域生成式人工智能應用的可持續發展。但在后續研究中,還需要高度重視教育人工智能倫理研究和技術倫理制度規范制定,需要完善新一代人工智能倫理風險的監控與預警機制,以確保人工智能技術安全、高效地運行,從而推動教育事業持續健康、智能向善地發展。
參考文獻:
[1]陸道坤,陳吉鈺.Sora:學校教育的“拯救者”還是“終結者”[J].新疆師范大學學報(哲學社會科學版),2024,45(6):112-127,2.
[2]宋士杰,趙宇翔,朱慶華.從ELIZA到ChatGPT:人智交互體驗中的AI生成內容(AIGC)可信度評價[J].情報資料工作,2023,44(4):35-42.
[3]童莉莉,曾佳,底穎.AIGC視域下數字教育產品的四維風險矩陣與治理框架[J].現代遠程教育研究,2024,36(2):12-19.
[4]Department for Education. Generative AI in education call for evidence: summary of responses[R]. England: DEPED, 2023.
[5]洪丹娜.大數據時代被遺忘權的合法性證成[J].華南理工大學學報(社會科學版),2021,23(1):73-83.
[6]李銘軒,文繼榮.AIGC時代網絡信息內容的法律治理——以大語言模型為例[J].北京理工大學學報(社會科學版),2023,25(6):83-92.
[7]蘇慧麗,張敬威.機器的“人化”與人的“機器化”:智能時代教育的主體性危機與破解[J].現代遠程教育研究,2024,36(1):12-20,28.
[8]匡文波,姜澤瑋.ChatGPT在編輯出版中的應用、風險與規制[J].中國編輯,2024(1):72-77.
[9]Bundesministerium für Bildung und Forschung. Aktionsplan Künstliche Intelligenz[R]. Germany: BMBF, 2023.
[10]OFFICE of Education Technology. Artificial Intelligence and the future of teaching and learning[R]. America: OET, 2023.
[11]劉文杰.何以透明,以何透明:人工智能法透明度規則之構建[J].比較法研究,2024(2):120-134.
[12]尤晉澤,林巖.大數據時代認知醫療的數據安全倫理透視——以IBM Watson Health為例[J].醫學與哲學(A),2018,39(3):28-31.
[13]楊志航.算法透明實現的另一種可能:可解釋人工智能[J/OL].行政法學研究,2024(3):154-163[2024-03-22].http://kns.cnki.net/kcms/detail/11.3110.D.20240314.1621.018.html.
[14]陳建兵,王明.負責任的人工智能:技術倫理危機下AIGC的治理基點[J].西安交通大學學報(社會科學版),2024,44(1):111-120.
[15]高觀點篤者.康奈爾大學發布教育和教學中使用生成式人工智能的報告[EB/OL].(2023-08-19)[2024-06-29].http://www.360doc.com/content/23/0819/14/43535834_1093074609.shtml.
[16]楊濱.生成式人工智能賦能教師使命踐履:問題風險、實踐策略與發展進路[J].教育文匯,2024(1):8-11,47.
[17]孫辰朔,林志杰.推動人工智能創新與治理協同發展[EB/OL].(2023-05-15)[2024-09-07].https://baijiahao.baidu.com/s?id=1765907755435630758amp;wfr=spideramp;for=pc.
[18]曹建峰.邁向負責任AI:中國AI治理趨勢與展望[J].上海師范大學學報(哲學社會科學版),2023,52(4):5-15.
[19]OECD. G7 Hiroshima Process on Generative Artificial Intelligence(AI)[EB/OL]. (2023-09-07)[2024-09-07]. https://www.oecd.org/en/publications/g7-hiroshima-process-on-generative-artificial-intelligence-ai_bf3c0c60-en.html.
[20]Innovation, Science and Economic Development Canada. The Artificial Intelligence and Data Act (AIDA)-Companion document[EB/OL].(2023-03-13)[2024-06-29]. http://www.oclc.org/about/cooperation.en.html.
[21]CNIL. Artificial intelligence: The CNIL opens a consultation on the creation of datasets for AI[EB/OL].(2023-10-16)[2024-09-13]. https://www.cnil.fr/en/closed-artificial-intelligence-cnil-opens-consultation-creation-datasets-ai.
[22]李娜,陳君.負責任創新框架下的人工智能倫理問題研究[J].科技管理研究,2020,40(6):258-264.
[23]劉軍,雷亮,鐘昌振,等.生成式人工智能的教育應用監管路線圖——UNESCO《教育和研究領域生成式人工智能使用指南》解讀與啟示[J].中國教育信息化,2024,30(8):13-28.
[24]牟智佳,馮西雅,蘇福根,等.大數據賦能數字教育監測評估:理念、模式與路徑[J].中國教育信息化,2024,30(6):54-61.
[25]胡宏濤.論生成式人工智能服務提供者的個人信息合理使用[J].江蘇社會科學,2024(2):185-192.
[26]包崇慶,柏路.人工智能時代主流意識形態話語權建設的多維審視[J].傳媒,2023(13):93-96.
[27]Bailey C .先進的教育技術:機遇、風險與責任[J].中國高教研究,2024(3):17-21.
Intelligence for Good: Governance Strategies for Generative AI Applications
in Education Abroad
Chenchen LIU1, Yunjiao LI1, Youmei WANG2
(1.Big Data and Smart Education Research Center,Wenzhou University,Wenzhou 325035,Zhejiang;
2.Research Center for Big Data and Smart Education, Wenzhou University, Wenzhou 325035, Zhejiang)
Abstract: The application of generative artificial intelligence in the field of education is receiving increasing attention globally. By delving into the application and governance strategies of generative artificial intelligence in the field of education, the aim is to reveal its progress and future development trends both domestically and internationally, and propose solutions to the identified application problems. Currently, generative artificial intelligence faces many ethical risks and dilemmas in terms of output content credibility, diversity of information sources, digital bias, and challenges the subject status of teachers and students. By analyzing the application and governance cases of generative artificial intelligence in the field of education abroad, it is found that content credibility and content usage rights are important considerations for educational application governance. Educational subjectivity and the value of the education industry are the core essence of educational application governance, and usage guidelines and regulatory policies are the defense line for educational application governance. Its main governance measures include endowing algorithms with the value orientation of “truth and goodness”, constructing top-level policy guidance, implementing ethical subject responsibility research guidance, and building intelligent governance strategies in four dimensions of “good use, good foundation, good prevention, and good growth” based on the actual development of artificial intelligence in China’s education field, to achieve sustainable development of generative artificial intelligence applications in the education field.
Keywords: Generative AI; Goodness for AI; Governance; Education; Application
編輯:李曉萍" "校對:王天鵬