
摘要:人工智能在賦能教育的同時,也顯著提升了教育立法的難度。相比于教育單行法,作為教育領域“根本法”的教育法典將能夠對人工智能教育應用展開最為周延科學的規范,助益人工智能教育應用的健康發展。作為體系型法典,教育法典必然采用“總分架構”。教育法典中人工智能立法可通過總則的“在線教育”“法律責任”以及分則的相關編章進行體系化編纂。首先,教育立法的核心及編纂主線是保障公民的受教育權,故教育法典分則相關編章需分別為政府及學校設定人工智能教育資源普惠性的促進義務,使教育主體能平等享有人工智能的教育紅利。其次,針對人工智能教育應用可能引發的風險,教育法典可在總則“在線教育”章,一方面引入技術性正當程序,設定算法和數據的透明義務和審計義務,以及教育標準事務不得自動化決策義務等,明確教師使用人工智能的行為規范與專業操守;另一方面,依托敏捷治理手段,構筑多元主體參與的事前監測預警平臺、事中快速響應的因應機制、事后動態完善的持續發展機制,應對人工智能教育應用未知風險。最后,為了確保義務條款得以順利實施,教育法典可在總則“法律責任”章通過引致性條款與具體責任條款的妥適選用,構筑健全的人工智能教育應用法律責任機制。
關鍵詞:教育法典;人工智能教育立法;編纂路徑;技術性正當程序;敏捷治理
中圖分類號:G40-011.8 文獻標識碼:A 文章編號:1009-5195(2024)05-0061-12 doi10.3969/j.issn.1009-5195.2024.05.007
基金項目:2022年度國家社會科學基金教育學一般課題“我國教育法典編纂的框架體系研究”(BAA220169)。
作者簡介:劉旭東,博士,副教授,江蘇師范大學法學院(江蘇徐州 221116);特邀研究員,南京師范大學中國法治現代化研究院(江蘇南京 210097)。
一、問題的提出
當前,人工智能重塑社會結構與治理形態的功用愈發顯著,特別是以ChatGPT為代表的生成式人工智能實現了人工智能從感知世界到創造世界的歷史性躍遷,標志著人工智能技術應用的重大范式轉變(龍衛球,2020)。人類社會已然進入人工智能時代。人工智能正廣泛以知識生產者與教育決策者的姿態深度嵌入教育系統,在顯著影響教育理念與教育方式的同時,未來也有可能徹底改變當前的教育實踐(楊九詮,2024)。但是,人工智能在賦能教育的同時,也帶來了教育公平與教育安全等挑戰。習近平總書記指出:“要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德?!保ㄐ氯A社,2018)人工智能在教育領域引發的機遇與挑戰需要獲得法治的回應。
通過立法對人工智能教育應用展開系統規劃,是推動中國式教育現代化的重要實踐路徑。《中華人民共和國民法典》(以下簡稱《民法典》)的頒布標志著我國進入法典化時代,在這一背景下,實現“教育法法典化”(Codification of Education Law)的呼聲愈加強烈。現階段,編纂教育法典已被納入全國人大常委會的立法工作計劃,相關前期準備工作已經開啟。可以預見,相比于教育單行法,作為教育領域“根本法”的教育法典將能夠對人工智能教育應用展開最為周延科學的規范,助益人工智能教育應用的健康發展。目前,學術界專門探討人工智能教育立法的成果相對較少,既有成果的措施建議仍較為碎片化,沒有從教育法典“總分架構”的視角出發提出系統化的立法對策,亦未就如何規制算法與數據這兩項人工智能的技術基礎作出研判。基于此,本文將依托技術性正當程序和敏捷治理的經驗范式,嘗試提出教育法典中人工智能教育立法的體系化路徑,為促進教育法典的科學編纂及人工智能在教育中的規范應用貢獻學理智識。
二、人工智能教育應用的規范意涵與風險研判
人工智能教育應用在為教育活動帶來全新技術便利、顯著提升教育質效的同時,也帶來了多方面的嚴峻挑戰。如何鞏固人工智能教育應用的成果,并應對其風險與挑戰,成為了教育法典中人工智能立法的核心關切。
1.人工智能教育應用的規范意涵
人工智能是用于模擬、延伸和擴展人類智能的人工技術產物。人工智能教育應用是指人工智能技術在教育領域的適用活動,主要體現為學生、教師、研究者等教育主體對這一技術的運用。規范人工智能教育應用,首先必須捋清其在教育活動中的應用情況。具體來看,人工智能教育應用主要呈現出如下實踐理路。
第一,賦能學習,為學生提供智能化的自適應學習系統(戴嶺等,2023)。人工智能基于強大的數據收集、分析與輸出能力,可以根據學生的學習能力、興趣志向等特質自動調整學習內容,為學生提供更符合個人能力與發展走向的“私人定制”式學習產品,如科大訊飛的“暢言智慧校園”;亦可根據學生的能力與需求為其提供個性化輔導與反饋,為學生課程作業自動評分,如北京詞網科技有限公司的“批改網”。由此,教育范式實現了從被動性、標準性向主動性、多樣性的轉型,實現了從“供給驅動”向“需求驅動”的躍遷(祝智庭等,2022)。
第二,賦能教學,為教師提供綜合性的教學輔助。當前,教師已然可以通過人工智能優化課程設計與課堂教學方案,使其更符合學生的學習狀況與發展走向。人工智能可將教師從重復性且技術含量不高的事務中解放出來,使教師可以將更多的精力投入到提升教學技能、擴容教學知識、培養學生健全人格等更重要的事務上。人工智能亦可協助教師處理繁雜且機械的行政工作,如令中小學教師苦不堪言的各類表格填寫、活動策劃等,都可交由人工智能完成,如日本東京理科大學設計的“Saya教師”即可完成此類工作。
第三,賦能科研,為研究者提供強大的科研輔助。一則,在知識獲取階段提供“自動生成式”信息源,研究者僅需發出指令,無需進行精準的關鍵詞輸入等工作,即可獲得豐富且分類的目標知識。二則,在研究設計階段打通不同學科之間的專業壁壘與工具限制,為研究者提供多維視角的思路設計。三則,在創作階段實現深度參與及輔助。例如,針對理工科研究者,人工智能可通過定性、定量或系統分析為其呈現各類研究數據的分析結果(劉寶存等,2023);針對文科研究者,人工智能可通過海量文本數據的預訓練,深度參與研究者學術論文的創作,甚至為其提供特定語言風格的文字段落,并對學術論文提出修改意見。
第四,賦能管理,有效實現學校行政管理的自動化。教師管理方面,人工智能可通過強大的數據分析與篩選能力,助益學校更精準地遴選符合本校要求的師資,并根據數據分析對教師展開個性化培訓;亦可在后續教師管理進程中,形成全面動態的評價體系,輔助學校在教學評估、績效考核、聘期考核、職稱評聘等方面展開智能化管理(余南平等,2023)。學生管理方面,人工智能在課程規劃、考勤管理、心理評估、貸款管理等事務上可為學校提供更加精準科學的數據,避免學校誤判。行政管理方面,人工智能可以破除各部門、各系統之間的信息壁壘,實現學校教育管理信息的匯總整合,達成業務處理的協同化、高效化,即實現所謂的“一張表管理”。校園管理方面,智能化的校園核查及安保系統亦可從源頭降低安全隱患,從整體上提升學校的安全系數。
人工智能技術的基礎是算法與數據(賈開等,2017),算法是人工智能開展計算須遵循的規則,起著“引擎”的作用;數據則是人工智能生成相關內容的資料基礎,起著“燃料”的作用?;谌斯ぶ悄艿慕逃a品都是在數據“喂養”的基礎上根據特定算法而生成的??梢钥吹?,人工智能技術需要海量的數據進行訓練,而海量數據被高效便捷地獲取、存儲、處理及傳輸靠的正是數字技術。數字技術通過將現實物理世界數字化的方式為人工智能技術的發展奠定基礎。可見,人工智能技術包含了數字技術與算法技術,而實踐中的教育風險問題是由數字技術和算法技術共同引發的,故教育法典應將人工智能技術作為規制對象,以此確保教育法典在風險規制方面的涵攝能力。
2.人工智能教育應用的風險研判
人工智能教育應用的風險可以從教育公平備受挑戰、教育安全遭遇威脅、教育倫理發生偏差以及教育立法難度陡升四個方面予以審視。這也就意味著,教育法典對人工智能應用展開規范時,既需要在內容方面保障教育公平與教育安全,維系教育倫理,也需要在技術方面克服人工智能引發的立法難題。
(1)人工智能教育應用帶來教育公平新挑戰
一方面,人工智能時代的教育數字鴻溝存在擴大化的趨勢。表面上,人工智能在普及教育資源、縮小教育差距進而確保教育公平方面具備顯著優勢,但人工智能是基于算法與數據的革命,實踐中,數字化基礎雄厚的地區可借助人工智能助益其區域教育的發展,而數字能力薄弱的地區,尤其是廣大農村地區,因數字建設能力的低下導致本地教育主體無法享受人工智能帶來的教育紅利。這進一步擴大了地區間的教育數字鴻溝,阻礙了教育機會平等權的實現。
另一方面,人工智能隱而不彰的技術偏見亦會加劇教育不公平。作為人工智能技術基礎之一的算法難免會受到設計者特定價值觀的左右,教育領域的各類數據樣本亦存在參差不齊的問題,由算法偏見與數據偏見疊加而成的技術偏見將導致人工智能教育產品在群體、性別、職業等方面表現出一定的偏見與歧視,影響教育的公正。舉例而言,若某一行業中男性從業者居多,則人工智能可能會認為該行業不適合女性參與,進而拒絕向女性學習者推薦該行業相關的教育資源,從而加劇該行業的性別歧視或失衡。
(2)人工智能教育應用加劇教育安全威脅
首先,人工智能可能侵犯教育主體的隱私權。人工智能需要不斷獲取新的數據從而提高其智能性,而海量數據的獲取難免帶來教育主體隱私權被侵犯的結果。當前諸多校園已普及化的人臉識別設備、監控設備,無不在時刻記錄著教育主體的生物信息等數據。以ChatGPT為例,教育主體在與其開展互動時,極有可能在不經意間將個人信息尤其是敏感信息泄露給ChatGPT,從而使上述信息成為ChatGPT語料庫的組成部分,進而在與其他主體展開對話時泄露這些信息(李世瑾等,2021)。
其次,人工智能生成的信息未必準確,可能誤導學生并對其世界觀產生負面影響,管理者也有可能據此作出錯誤的教育決策,最終影響教育安全。這是因為人工智能生成信息的質量取決于其使用數據之優劣。一方面,若語料庫中存有主流觀點,則人工智能大概率會給出符合主流觀點的回答,但少數觀點未必就是錯的。另一方面,若語料庫中的觀點本就存有重大分歧,則人工智能給出的答案可能是隨機的。此外,實踐中教育數據的品質參差不齊,但人工智能算法會對其“照單全收”,導致人工智能生成的信息往往存在事實性錯誤、概念混用等問題,尤其是面對前沿領域和高深知識時,人工智能給出的答案通常并不可靠(周洪宇等,2023)。
最后,人工智能亦有導致學術不端泛濫的風險。學術創作是一種凝結了研究者精神活動的專業創造性過程,但在人工智能超強算力輔助下,研究者僅需輸入基本的數據,無需親自參與理解、構思與創作,人工智能即可給出完整的“科研成品”。研究者很有可能直接將此類成品據為己有,從而構成剽竊、抄襲等學術不端。事實上,實踐中已然出現了大量此類情況。這顯然敗壞了學術風氣,背離了科學研究嚴謹誠信的原則,導致學術成果的真實性與價值貢獻難以評估,使得學術研究偏往了錯誤方向,嚴重損及了學術系統的健康發展。
(3)人工智能教育應用引發教育倫理偏差
一方面,人工智能教育應用內含促使教育主體自我意識逐步封閉的風險。隨著人工智能為教育帶來的便利與日俱增,教師與學生對技術的依賴也顯著增強(申靈靈等,2022)。對學生及研究者而言,他們可以十分輕松地通過人工智能獲取答案,這種吹糠見米的顯功之效誘使教育主體愈發依賴人工智能(雷磊,2023)。由此,教育主體必將喪失反思與創新能力,最終成為人工智能的附庸。對教師而言,試圖通過人工智能將特定的教學、管理方式一勞永逸地應用下去,本就是不切實際的自負。這種方式既忽視了受教育者的個體差異、自由發展以及教育現實的復雜性與創造性,也可能導致教師在技術反噬下逐步失去與時俱進、教育革新的意識與能力。
另一方面,人工智能亦可能導致教育主體的道德情感逐步鈍化。人工智能無法產生自我意識,無法開展情感價值的人文教育(趙磊磊等,2022),不具備道德是非感,無法獨立且邏輯地作出道德判斷,更不會主動啟迪教育主體開展道德反思。長此以往,依賴于人工智能的教育主體將失去道德判斷的自覺與能力,成為“道德無感”(Morally Indifferent)者。
(4)人工智能技術應用提升教育法典編纂難度
與傳統人工智能更新迭代較慢相異,當前生成式人工智能已然開啟了快速更新的“敏捷迭代”模式。從迭代歷程來看,GPT-1僅用了不到5年時間就迭代到了GPT-3.5(代表為眾所周知的ChatGPT),GPT-3.5更是在發布3個月后便迭代到了GPT-4,迭代速度遠非傳統人工智能可比。GPT-3.5因而也成為了生成式人工智能快速迭代升級的分水嶺。自此以后,人工智能的迭代周期不再以年為單位,而是以季度、月為單位,甚至未來還有可能以天為單位。這不可避免地導致因技術迭代而產生的風險亦愈加頻繁化且具有高度不確定性。
人工智能教育應用風險的高度不確定性,無疑為教育法典的編纂帶來了巨大挑戰。實踐中,法律的正式出臺往往要經歷漫長的審議程序,如在我國全國人大常委會的立法程序中,一部法律至少要經過3次上會審議,通常需要3~5年的時間方能獲得通過。同時,法律出臺以后還必須盡可能保持穩定,以此維護立法權威。故相較于社會的快速發展,法律天然地具有滯后性。具體到教育法典的編纂問題上,時下人工智能應用帶來的風險更加變動不居且難以預測,教育法典的編修速度很有可能落后于人工智能的迭代發展速度,導致教育法典甫一出臺便有可能面臨無法應對大量全新風險的被動局面,從而嚴重影響法典的實效性。譬如,ChatGPT的出現就導致歐盟《人工智能法案》在即將出臺之際不得不暫緩發布,并針對ChatGPT帶來的新技術與新風險作出相應的內容調整。因此,如何確保教育法典通過宏觀擘畫與微觀規定并舉的方式來應對變動不居的技術風險,是人工智能時代教育法典編纂的核心挑戰。
三、教育法典中人工智能立法的編章布局
教育法典采用“體系型法典”的體例結構,并通過總則與分則的配合共同維系法典的體系性。鑒于人工智能教育應用的廣泛性,教育法典中人工智能立法也需要從總則與分則兩方面共同應對,在防范人工智能教育應用風險的同時,促進人工智能教育資源的公平、合理應用。
1.教育法典“體系型法典”的體例結構
根據體例結構的不同,法典可分為匯編型法典與體系型法典。所謂匯編型法典,是指對原有的單行法不做任何改變,而直接通過“復制粘貼”的方式將它們匯編成冊并冠以法典之名,其目的主要在于方便人們查閱(朱明哲,2021)。美國《教育法典》即為該種類型的法典。與之相異,體系型法典遵循“綜合、科學、系統”(Synthetic, Scientific,Systematic,SSS)的立法模式(米健,2013),強調立法者通過刪繁就簡、查漏補缺的方式對原有單行法加以系統整合,從而形成一部邏輯統一、結構完整的體系化法典??梢?,體系型法典是原有單行法的邏輯化“重述”而非簡單拼湊(劉兆興,2008)。我國《民法典》即為體系型法典,該法典對原有的《中華人民共和國侵權責任法》《中華人民共和國婚姻法》等民事單行法展開了系統化重述,如刪除了公證遺囑效力優先的規定,新增了“離婚冷靜期”等多項內容。國際上,法國與俄羅斯的教育法典為典型的體系型法典。當前,學術界的主流觀點是我國教育法典應為體系型法典。體系型法典體例結構的合理性或必要性源于我國教育立法的如下三項現狀。
其一,立法碎片化。立法碎片化意指同一法律制度的相關規定散落在不同的立法文件中。譬如,除了《中華人民共和國教師法》(以下簡稱《教師法》)第八章“法律責任”外,《教師資格條例》《中小學教育懲戒規則(試行)》《幼兒園教師違反職業道德行為處理辦法》《中小學教師違反職業道德行為處理辦法》《教育部關于高校教師師德失范行為處理的指導意見》等規范性法律文件中亦對教師法律責任從不同方面展開了規定,這種立法的碎片化亟須由體系型教育法典統一展開整飭。
其二,立法重復化。立法重復化是指不同立法文件對同一法律制度反復展開規定,如《中華人民共和國教育法》(以下簡稱《教育法》)與《中華人民共和國義務教育法》(以下簡稱《義務教育法》)同時都對政府的教育經費保障職責作出了規定。此外,立法重復化還包括立法矛盾現象(童云峰等,2021),如《教師法》《義務教育法》關于教師待遇問題就作出了不同規定,前者主張參照國家公務員工資水平,后者則主張參照地方公務員工資水平。立法重復化浪費了立法資源,損及了立法權威,這亦需體系型教育法典予以統籌克服,促進立法的集約化發展。
其三,立法原則化。立法原則化意味著本應為法律規則的立法條款因缺乏具體的行為模式、法律后果等法律規則的必備要素,而喪失了基本的可操作性。如《教育法》第46條規定相關部門應當為受教育者的身心健康成長創造良好的社會環境,但該條卻并未規定具體的實施路徑,以及上述主體未履行義務時應當承擔的責任,因而無法為受教育者的權利維護提供明確的救濟渠道。事實上,我國教育立法中立法原則化的現象較為普遍。這仍然需要體系型教育法典對相關條款展開系統整合,優化其邏輯結構,提升相關條款的可操作性。
2.“總分架構”下人工智能立法的編章安排
對于體系型法典而言,體系化是其生命所在(王利明,2020),否則將與匯編型法典無異。而為了維系體系化,體系型法典往往會選擇“總分架構”,即通過“提取公因式”的方式將法典中的共通性內容匯合為法典的總則,其他內容則根據一定標準和邏輯分類編排為分則。其中,總則在確保法典的體系性上起著綱舉目張的作用。其一,總則集中彰顯了法典的指導思想、基本價值,并對分則起到統轄作用,從而鞏固了法典的體系性與邏輯性(任海濤,2021)。其二,由于分則共通性的內容規定在了總則中,故分則展開相關規定時,即可省略該類內容,法典的簡約性由此得到了保障(王萬華,2021)。譬如,《中華人民共和國刑法》(以下簡稱《刑法》)分則各罪名都涉及“對人效力”“空間效力”等假定條件,《刑法》總則對此展開了專門規定,分則各條款即無需再次展開列舉,分則由此更為簡約。其三,通常而言,法典分則較為具體細致,而總則因一般性條款較多而呈現出相對原則化的特質,這確保了總則的開放性與回應性,使得總則可以較為方便地將新興問題納入其規制范疇,避免了法典的頻繁修改。
根據人工智能教育應用的發展趨勢,并參考我國教育立法的體例安排與內容設置,未來教育法典總則可設置“教育基本原則”“教育法律主體”“教育權利與義務”“教育類別”“教育與社會”“在線教育”“法律責任”七章,分則則分為“學前教育編”“義務教育編”“高級中等教育編”“高等教育編”“職業教育編”“終身教育編”“民辦教育編”“學位編”“教師編”“國家考試編”“教育對外交流與合作編”等編章。就教育法典中人工智能立法的編章安排而言,由于人工智能立法涉及不同教育類型與教育階段的人工智能使用問題,同時人工智能教育應用本身也具備一定的通用性內容,故人工智能教育應用應當獲得教育法典總則與分則的同時規范。
一方面,教育法典總則“在線教育”“法律責任”等章節應規范人工智能教育應用的通用性問題,尤其應規定人工智能教育應用風險的防范措施。以“在線教育”章為例,由于人工智能的技術基礎是算法與數據,無論何種教育類型或教育階段的人工智能教育應用風險問題,多數情況下,其背后都是由特定的算法與數據所引發,故算法與數據構成了人工智能教育應用風險法律防治的核心客體,這是人工智能立法相較于傳統立法最為鮮明的特質。而這亦表明,人工智能教育應用風險具有鮮明的共性表征,這就需要總則“在線教育”章對數據與算法問題展開統一規范,盡可能從源頭規避人工智能教育應用的技術偏見、隱私侵犯、信息不準確以及學術不端等風險。同時,為了應對人工智能教育應用風險高度不確定性給教育法典穩定性維護帶來的巨大挑戰,教育法典總則“在線教育”章對算法與數據的規范可以是相對原則性與框架式的,具體的規范細節可以交由中央政策、法律解釋、法規規章等文件予以專門規定。因為上述文件頒布周期短、靈活性大,可以有效因應人工智能教育應用風險變動不居的現實挑戰,同時實現教育立法體系的穩定性與靈活性。另一方面,在人工智能時代,不同教育類型與教育階段都對人工智能教育資源的普惠性有著切實需求,但不同教育類型與教育階段的需求重點并不一致,故教育法典分則應根據實際情況制定與各編章相適配的人工智能教育資源普惠性的促進義務。
總之,當前人工智能應用貫穿于教育活動的全過程,試圖通過教育法典某一個編章對其展開有效應對的思路缺乏可操作性。教育法典中的人工智能立法終究需要由總則與分則共同展開規范。換言之,教育法典中人工智能立法的體系化無法憑借單一編章展開規定的方式予以實現,而是需要依靠總則與分則相關規制措施間的邏輯關聯予以動態維系。
四、教育法典中人工智能立法的內容部署
作為一把“雙刃劍”,人工智能在賦能教育的同時,也為教育活動及立法帶來了顯著挑戰。由此,在通過原則化與具體化條款的有效搭配確保法典穩定性的基礎上,教育法典中人工智能立法的體系化可采用如圖1所示的編纂路徑:教育法典分則各編章依托義務條款,分別為相關主體規定人工智能教育資源普惠性的促進義務;教育法典總則“在線教育”章為相關主體設定人工智能教育應用已知風險和未知風險的防治義務;教育法典總則“法律責任”章則為上述義務條款設定對應的責任條款,避免義務條款的“空轉”。
圖1 教育法典中人工智能立法的體系化編纂路徑
1.分則相關編章:人工智能教育資源普惠性的實現
教育立法的核心及編纂主線是保障公民的受教育權,教育法典概莫能外(魯幽等,2021)。受教育權的首要屬性是公平(龔向和,2021)。人工智能為教育實踐帶來了積極的教育變革,故教育法典首先需要通過實現人工智能教育資源的普惠性,來鞏固此類積極變革,令全體教育主體能平等享有人工智能的教育紅利。事實上,上文指出的人工智能教育應用風險中的教育數字鴻溝擴大化,也需要借助人工智能教育資源普惠性的實現來克服。2017年國務院印發的《國家教育事業發展“十三五”規劃》即提出,“支持各級各類學校建設智慧校園,綜合利用互聯網、大數據、人工智能和虛擬現實技術探索未來教育教學新模式”(中華人民共和國中央人民政府,2017a)。同年,國務院在其印發的《新一代人工智能發展規劃》中提出了“開源開放”的原則,“倡導開源共享理念,促進產學研用各創新主體共創共享”(中華人民共和國中央人民政府,2017b)。2018年教育部發布的《教育信息化2.0行動計劃》亦提出“推動人工智能在教學、管理等方面的全流程應用,利用智能技術加快推動人才培養模式、教學方法改革,探索泛在、靈活、智能的教育教學新環境建設與應用模式”(中華人民共和國教育部,2018)。針對人工智能教育資源的普惠性,教育法典分則可作出如下針對性義務規定。
第一,“學前教育編”應規定教育行政部門建設學前教育階段人工智能管理平臺的義務,推動該階段人工智能教育資源的普及。重點應關注四方面的立法議題:其一,通過管理平臺動態呈現幼兒的在園狀態,在安全事故發生時及時展開處理;其二,通過管理平臺對幼兒的體溫、睡眠數據等信息展開實時觀測,分析幼兒的健康狀況;其三,教師及時通過管理平臺發布相關訊息,家長及管理者則可以跟蹤并反饋,踐行家校共育理念;其四,通過虛擬現實技術、智能語音機器人技術等,為幼兒提供模擬化、多樣化的游戲學習場景,促使教育方式更符合兒童心理特征。
第二,“義務教育編”應基于義務教育的性質為教育行政部門設定明確且強制性的人工智能教育設施公平配置義務?!傲x務教育編”立法重點有二:一是促使學生更好地了解人工智能的基本原理與應用方式,培養學生利用人工智能自主學習的能力,進而培育其創新與實踐技能,為后續教育階段的發展奠定技術基礎。二是確保上述教育資源的公平配置,尤其要為經濟困難或偏遠地區的學生提供保質保量的人工智能教育資源,實現義務教育階段教育資源分配的實質平等。高中教育由于不屬于義務教育階段,故“高級中等教育編”的重點應在于第一項。當然,該編可設置高中階段人工智能應用的最低標準,并督促政府對相關學校予以監督。
第三,鑒于高校在人工智能教育資源的獲取與運用方面本就擁有較大優勢,“高等教育編”及“學位編”的重點應在于提升人工智能教育資源的質量與針對性。譬如,通過人工智能構建共享包容的辦學模式,推動教育資源的互聯互通,實現教育資源的跨國共享,促進形成國際高等教育辦學的新生態。再如,推動建立透明可靠的學習過程和學習成果認證,在確保學習成果真實的基礎上,實現學習資歷的互通、互認。又如,運用區塊鏈技術頒發電子學位證書,借助區塊鏈技術難以篡改、全程追溯的特質,有效化解傳統學位證書遺失不予補發、容易被造假的缺陷。
第四,“職業教育編”的重點在于通過人工智能技術的運用推動產教融合,優化職業教育專業布局,提高職業教育專業設置與市場需求的匹配度,規避“結構性失業”或“技術性失業”,促進職業教育與產業發展之間的雙向互動。“終身教育編”的重點在于依托人工智能技術整合社區、城鄉、企業的集成化教育資源,突破時空限制實現教育資源的方便可及,為全體公民的終身學習提供更高品質的服務?!懊褶k教育編”則應綜合吸收上述規定,實現民辦教育各階段人工智能教育資源的普及化。
第五,“教師編”應設置督促教育行政部門加強對教師開展人工智能技術培訓與研修的義務條款,從而使教師適應上述各編帶來的教育方式的變革。同時,該編還應普及教師管理的智能化,如通過區塊鏈技術實現教師檔案管理的電子化,進而提升學校管理的效益。此外,教育法典總則“教育與社會”章還可以鼓勵全社會在人工智能教育資源方面對各類教育活動給予協助。2023年國家互聯網信息辦公室起草完成的《生成式人工智能服務管理暫行辦法》第5條第2款就規定:“支持行業組織、企業、教育和科研機構、公共文化機構、有關專業機構等在生成式人工智能技術創新、數據資源建設、轉化應用、風險防范等方面開展協作。”
2.總則“在線教育”章:人工智能教育應用風險的應對
(1)已知風險的應對
誠如上文所述,人工智能的教育應用對教育公平與教育安全構成了挑戰,進而引發了人類主體性自我消解的倫理隱憂,這是總則“在線教育”章需要集中應對的兩類已知風險。
一方面,算法與數據的運作失范引發了教育公平與教育安全的問題,由此損及了教育主體的尊嚴和權利。在現代公法制度中,正當程序是維護人的尊嚴和權利的關鍵保障,但由于人工智能的運行往往缺乏(事實上也很難具備)事前告知、聽取意見、說明理由等程序要素,故傳統正當程序在瞬間作出決定的人工智能自動化決策場景中遭遇了“滑鐵盧”(劉東亮,2020)。此時,技術性正當程序(Technological Due Process)就為促進算法和數據的規范運用提供了適配切入點。技術性正當程序能夠深入到人工智能的技術環節,規范數據的收集和算法的設計、開發與應用(Reidenberg,1998),從而確保教育主體在人工智能自動化決策過程中享有充分的正當程序之保障,避免“代碼即法律”(Code Is Law)(勞倫斯·萊斯格,2018)或“代碼專橫”等現象。技術性正當程序針對自動化決策提出了三方面的要求:首先,自動化決策系統必須以透明性為導向,保障公眾的知情權;其次,自動化決策系統應保存“審計軌跡”,以此方便行政機關的監督審查;最后,自動化決策系統的應用應區分“規則”與“標準”,規則的適用可以由系統自動作出,但由于標準適用的主觀性較強,故系統不得自動適用標準作出決定,而僅能作為輔助功能而存在(蘇宇,2023)。由此,教育法典總則“在線教育”章應構建以算法、數據合規為核心的義務體系。
其一,設定算法透明度義務。算法透明度義務的履行是算法規制的核心議題(安晉城,2023),其意在指引人工智能服務提供者完整公開其算法或確保算法易于公眾理解,從而在源頭實現算法合規,避免算法歧視、侵犯教育主體隱私權或滋生學術不端。算法公開與算法解釋是算法透明度義務的兩項支柱內容。一方面,人工智能服務提供者應公開算法源代碼,提升算法從設計到應用環節的透明度,解決一般性算法“黑箱”問題。這對于維護教育主體的知情權至關重要。另一方面,諸多算法即便公開,作為非專業人士的教育主體也很難理解其源代碼的運作邏輯,因此需要引入算法解釋。即人工智能服務提供者需要以可理解的方式向教育主體解釋算法機制,從而盡早發現并排除由算法“黑箱”引起的歧視或隱私窺探等風險。總則“在線教育”章可通過第三方認證的方式倒逼人工智能服務提供者履行算法解釋義務。
與算法透明度義務相關的立法議題還有學位論文創作中人工智能使用者履行透明度義務的問題。由于人工智能參與學位論文的創作過程極為隱蔽,故使用者履行透明度義務就為技術性正當程序所格外重視(Citron,2008)。透明度義務履行意指學位申請人公開其在論文寫作中使用人工智能的具體情況,從而區分本人與人工智能的學術貢獻,并由專業人員判斷是否構成學術不端。透明度義務的履行意味著學位申請人完成了可信性驗證程序,學位論文因此獲得了初步的程序正當性。當然,除學位論文外,任何教育階段任何類型的學術成果的創作皆應履行上述義務(只不過高等教育階段更為顯著),故透明度義務之履行仍應由總則“在線教育”章規定更為妥適?!霸诰€教育”章應規定人工智能使用者在學術成果創作進程中須主動履行透明度義務,未履行該義務的,可直接判定為學術不端。當然,透明度義務在本質上對學術自由構成了一定限制,故透明度義務的具體履行標準問題,如究竟應采用“魚缸透明度”(Fishbowl Transparency)還是“合理透明度”(Reasoned Transparency)標準等,應由教育法典授權學術共同體來制定(程睿,2023)。至于人工智能作品的著作權歸屬問題,則應通過著作權法予以解決,這不在本文的探討范疇內。
其二,確立數據透明度義務。數據透明度義務包含確保數據合規和保障數據質量兩方面要求?!渡墒饺斯ぶ悄芊展芾頃盒修k法》就體現了這兩項要求:第7條第1項要求人工智能服務提供者應“使用具有合法來源的數據和基礎模型”,第4項要求“采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性”。在確保數據合規方面,總則“在線教育”章應制定數據審理清單,明確個人數據、重要數據的范圍,為人工智能服務提供者在數據收集、存儲及使用過程中確立合法性指引,避免對教育主體隱私的侵犯。在保障數據質量方面,應鼓勵相關行業制定適配的數據質量標準,并在數據質量出現問題時賦予數據主體以修正權,確保數據的無偏見性及準確性;同時,在內容生成環節,還應要求人工智能服務提供者履行可識別水印或有效警示信息的添加義務(張凌寒,2023),從而給予教育主體以充分的選擇權。
其三,確立算法與數據的審計義務。人類的偏私性不可避免地會導致人類將自身的偏見導入到算法設計或數據選取上,資本的逐利性也進一步催生了上述可能。因此,算法與數據的合規不能僅依賴人工智能服務提供者自身的努力,還需引入審計制度進行兜底保障。算法與數據的審計制度重在由行政部門牽頭,從他方的角度對人工智能服務提供者的算法與數據展開合規性審查。在審計主體方面,總則“在線教育”章可明確由行政部門或社會團體履行這一義務。在審計方式上,應更多地引入專門審計方法。如有學者指出,可通過代碼審計法應對算法偏見,通過眾包審計法應對隱私權侵犯問題;通過抓取審計法來驗證算法與數據的真實性與完整性問題(張欣等,2022)。實際上,這亦說明了人工智能教育應用風險已突破傳統教育問題的范疇,呈現出教育與科技交疊的狀態,故教育法典的編纂也不應僅是教育學、法學專家的“自留地”,而是需要科技界人士鼎力相助方能完成的任務。
其四,設立教育標準事務不得自動化決策義務,其對應的權利即為教育主體的人工智能教育自動化決策拒絕權。人工智能教育自動化決策可用于作文評分等標準事務,以及學籍管理等規則事務。上文指出,標準問題見仁見智,這離不開教育共同體的主觀判斷,而人工智能不具備自主意識,故其無法妥適完成這一任務。以作文評分為例,人工智能評分可以避免因字跡不工整而導致的不合理低分問題,但亦有學生擔心其難以對包含人類情感的作文給出合理評分。因此,教育法典應設定教育標準事務不得自動化決策義務。盡管《中華人民共和國個人信息保護法》第14、17、44條對上述內容有所規定,但相關條款關于教育主體的知情渠道和決定方式等事項的表述過于籠統,故該法及教育法典總則“在線教育”章還需作出進一步規定。
此外,人類主體性的自我消解這一倫理隱憂,也必須回歸教育的本質方能獲得徹底的化解。因為,無論人工智能的自動化決策能力多么強大,至少在看得見的未來,人工智能都不可能產生反思的能力與情感交流的功能。而真正的教育,絕不僅僅是知識的灌輸,而是促進人與人之間心靈溝通的情感培育活動。它的目的是培養人的道德情操,形塑人的價值觀念,慰藉人的心靈,充盈人的靈魂,讓人變得更加情感充沛,而不是淪為技術的附庸或傀儡。是以,愈是在人工智能時代,教育就愈需要返璞歸真,彰顯人文關懷。
據此,教育法典總則“在線教育”章應規定教育行政部門須出臺規范,明確教師在人工智能使用進程中的行為規范與專業操守,促使其有效培育學生正確積極的價值觀。相關規范可要求教師堅持育人為本的價值導向,培育學生的道德感、同理心和健全的人格,促進學生的全面自由發展;激發學生的批判意識與創新精神,避免其浸染于對“技治主義”的狂熱崇拜;堅持人與人之間現實的實踐交往,促使教師與學生擺脫對虛擬空間的沉溺,融入真切的社會生活,感受真摯的人類情感。當然,教育法典不可能也不宜對上述具體的操作規范展開規定,其僅需以概括化的條款賦予教育行政部門以相應義務即可,以此維系教育法典本身的統攝性與穩定性。
(2)未知風險的應對
人工智能教育應用的另一重大風險即是其引發的教育風險的高度不確定性。《新一代人工智能發展規劃》提出要“加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發展”,但由于人工智能迭代發展速度遠高于法律出臺速度等原因,傳統立法治理路徑在面對層出不窮的新風險時難免捉襟見肘。此時,“敏捷治理”(Agile Governance)就為應對這一困境提供了解決之道。
敏捷治理的概念于2018年世界經濟論壇白皮書中提出,2019年國家新一代人工智能治理專業委員會發布的《新一代人工智能治理原則——發展負責任的人工智能》(以下簡稱《人工智能治理原則》)中再次提出了這一原則。敏捷治理內含三項實踐優勢:其一,治理主體多元化。敏捷治理強調多元主體的合作互動、反饋評估,重視決策參與的平等性(趙靜等,2021)。其二,治理手段多樣化。敏捷治理強調運用一切可運用的手段展開風險規制,規避傳統治理手段的僵化。其三,治理范式全程化。傳統治理方式屬于被動響應式治理,是問題爆發后的事后處理,而敏捷治理則強調事前、事中與事后的全程治理,注重通過動態靈活的方式克服傳統治理手段滯后性的不足(高進等,2024)??傊⒎ú⒎且粍谟酪葜?,相關教育主體必須通過隨機應變的動態治理模式,在出現新風險且立法難以跟進的情境中實現“兵來將擋水來土掩”。教育法典總則“在線教育”章應引入敏捷治理模式,初步搭建集眾多主體為一體的治理平臺。當然,出于維護教育法典統攝性與穩定性的考量,具體細致的敏捷治理操作細節則應交由其他規范性法律文件乃至靈活度更大的行業章程予以完成,教育法典對此無需具體展開規定。
首先,構筑多元主體參與的事前監測預警平臺。教育行政部門應構筑包含各類教育主體以及相關社會組織在內的算法監測平臺,利用平臺的大數據優勢實現對教育人工智能的全天候監測與感知預警,及時發現并彌補相關算法漏洞。譬如,針對醫療、環境、科技等專業性極強的問題,若人工智能無法獲得足夠客觀的數據進行預訓練,則其將難以為學生提供專業化、精準化回答。對此,政府及相關專業的教育主體應通過平臺共享信息,為人工智能預訓練階段提供扎實的數據信息,從源頭提升數據的應用質效。
其次,形成事中快速響應的因應機制。快速響應是敏捷治理相較于傳統治理方式的核心優勢。這一方面要求教育行政部門利用上述平臺的信息收集及跟蹤優勢,及時推演或發現算法漏洞,并迅速與相關教育主體展開協作,規避由此發生的隱私權侵犯等風險。另一方面,這亦要求人工智能服務提供者構建全過程反饋機制。人工智能基于反饋機制而產生的各項風險,亦應通過后續的使用反饋來實現“以彼之道還施彼身”。申言之,教育主體不應被動等待算法漏洞的解決,而應結合自身專業特長并通過反饋機制及時反映算法歧視、隱私權侵犯等問題。在此基礎上,人工智能服務提供者應迅速通過自動化工作流程歸納梳理反饋信息,形成有價值的改進意見并展開系統修補,動態完善人工智能的算法,同時將處理結果反饋給相關教育主體。
最后,構建事后動態完善的持續發展機制。人工智能服務提供者應在總結風險的基礎上,于事后更新迭代其算法技術,不斷動態完善其算法體系。同時,對于相對成熟的風險應對方法,相關部門可逐步將其納入法律法規中。由此觀之,敏捷治理并非是與立法規制畛域分明的對立概念,敏捷治理本身就包含了事后的立法規制,只是其更強調治理方式的全程性。
3.總則“法律責任”章:人工智能教育應用法律責任機制的建構
法律責任條款是確保上述義務條款得以順利實施的制度性機制,《人工智能治理原則》即要求“建立人工智能問責機制,明確研發者、使用者和受用者等的責任”。法律責任的意義在于,作為教育司法的規范依據(程雁雷,2021),其為教育法典義務條款進入司法程序,即維護教育法典的可訴性(Justiciability),并進而為促進義務之履行、維護當事人權益提供了規范渠道。而在現代法治社會,司法是維護公平正義的最后一道防線(董儲超,2023),責任條款的缺失將導致義務主體即便違反義務也無法被苛以責任,權利主體由此也就喪失了司法保障這一最有力度的兜底性權利救濟機制。
教育法典的法律責任有其獨特的編纂理路,這源于教育法“領域法”(Field of Law)的屬性。傳統部門法所調整的法律關系的主體、客體以及設置的法律責任皆是單一屬性的,與之相異,教育法所包含的上述內容都是多元化的。梳理既有教育立法可知,教育法律關系主體既包括地位平等的主體,亦包括地位不平等的主體;教育法律關系客體則同時含納了民事、行政以及刑事法律行為;教育法律責任亦囊括了民事、行政以及刑事法律責任。由此可見,教育法是橫跨不同部門法的交叉法律領域,屬于典型的領域法,故教育法典必然是領域型法典。
領域型法典的屬性意味著教育法典法律責任條款有著固有的編纂理路(劉旭東,2023)。一方面,應運用引致性條款規定民事與刑事法律責任。作為典型的部門型法典,《民法典》《刑法》已然對民事與刑事法律責任的具體行為模式展開了細致規定,教育法典再次展開規定即屬重復立法;同時,二者所規定的對象也具備較為鮮明的v2dRsui1uZWKIPri52dliHGVdUCQihMeLKxKnxSXNeU=專屬性、閉合性特質,教育法典也不宜進行“染指”,否則即有可能造成《民法典》《刑法》的“解法典化”(Decodification)。另一方面,教育行政法律責任應通過引致性條款與具體責任條款展開靈活規定。根據責任主體與責任性質的不同,教育行政法律責任分為如下四種:行政部門承擔的行政責任、公職人員承擔的行政處分責任、其他主體承擔的治安管理處罰責任、其他主體承擔的行政處罰責任。其中,行政處分責任和治安管理處罰責任已經得到了《中華人民共和國公職人員政務處分法》《中華人民共和國治安管理處罰法》詳盡的、閉合性的規定,故教育法典亦無需展開重復立法。而行政部門承擔的行政責任、其他主體承擔的行政處罰責任則需要完整進入教育法典,因為教育領域的這兩類責任具有鮮明的領域屬性,包括《中華人民共和國行政處罰法》等非教育立法對此都沒有展開規定,它們僅出現于我國教育立法中,故此類責任應完整進入教育法典。
由此,教育法典總則“法律責任”章關于人工智能法律責任的編纂理路也就較為清晰了。一方面,通過引致性條款援引《民法典》《刑法》的相關責任規定。時下,《民法典》《刑法》關于人工智能教育法律責任的規定尚存立法空白,但正如上文指出,民事、刑事法律責任空白的填補顯然不應由教育法典予以完成,這一工作只能依托《民法典》《刑法》的自我修補。當然,在立法修補完成前,司法機關可率先出臺司法解釋,從而為相關教育實踐提供法律責任方面的規范依據。另一方面,人工智能教育法律義務主體主要分為人工智能服務提供者、教育主體以及教育行政機關(包括其工作人員),關于這三類主體的行政處分和治安管理處罰責任僅需通過引致性條款規定即可,而這三類主體承擔的行政部門責任或行政處罰責任則應當完整保留。不過目前我國各教育單行法也尚未制定這兩類責任,故教育法典總則“法律責任”章對此需進行補足:其一,規定人工智能服務提供者沒有履行算法透明度義務、數據透明度義務時應承擔的教育行政處罰責任;其二,規定教育主體在科研過程中沒有履行透明度義務時應承擔的學術責任;其三,規定教育行政機關沒有履行人工智能教育資源普惠性促進義務、算法和數據審計義務,怠于出臺教師人工智能使用的行為規范,以及怠于構建敏捷治理平臺時應承擔的教育行政責任。至于責任的具體種類,則顯然應由立法者予以細致規劃。
五、余論:人工智能時代受教育權概念的 意涵更新
上文指出,保障受教育權是教育法典的核心任務。人工智能時代的教育立法仍然要繼續重申并進一步深描公民受教育權保障的根本立法宗旨。人工智能教育資源普惠性的促進義務以及人工智能教育應用風險的防治義務,無不體現了這一理念。然而,在人工智能時代,受教育權的內涵與外延都進一步發生著變化,這種變化主要源自人工智能時代人們學習方式的變革。由上文可知,人工智能教育應用導致人們的學習方式開始從被動型向主動型演進,人們的學習階段也不再局限于特定教育階段,而是呈現出鮮明的終身性特質。但是,作為一項基本權利,受教育權在我國立法文本中實際上被限定在了義務教育階段,這一概念很難將公民終其一生所可能享有的教育權利涵攝在內,這在人工智能時代尤為明顯。因此,教育法典如若仍采用狹義的受教育權概念,必然無法因應人工智能時代公民學習的自主性、終身性訴求,進而難以描摹并實現公民在教育領域的基本權利。在這一背景下,教育法典總則“教育權利與義務”章可明確擴大受教育權的概念外延,抑或采用全新的“學習權”概念(尹力,2010),使得這一權利的外延突破義務教育階段的束縛,促進人工智能時代公民教育權利的系統整合。由此,上文的諸項措施方能得以真正落實,進而實現在鞏固人工智能教育應用成果的同時,維系教育公平與教育安全,守護人類主體性的目標。
參考文獻:
[1][美]勞倫斯·萊斯格(2018).代碼2.0:網絡空間中的法律[M].李旭,沈偉偉.北京:清華大學出版社:6.
[2]安晉城(2023).算法透明層次論[J].法學研究,45(2):52-66.
[3]程睿(2023).ChatGPT介入學術論文創作透明度義務的履行[J].中國高教研究,(11):62-69.
[4]程雁雷(2021).論教育法律責任的基本范疇[J].東方法學,(1):179-188.
[5]戴嶺,胡姣,祝智庭(2023).ChatGPT賦能教育數字化轉型的新方略[J].開放教育研究,29(4):41-48.
[6]董儲超(2023).學位論文同行評閱的法理檢視:功能指向與模式選擇[J].大學教育科學,(6):32-42.
[7]高進,劉聰(2024).算法歧視的敏捷治理——以D短視頻平臺為例[J].西安交通大學學報(社會科學版),44(1):1-17.
[8]龔向和(2021).論新時代公平優質受教育權[J].教育研究,42(8):48-58.
[9]賈開,蔣余浩(2017).人工智能治理的三個基本問題:技術邏輯、風險挑戰與公共政策選擇[J].中國行政管理,(10):40-45.
[10]雷磊(2023).ChatGPT對法律人主體性的挑戰[J].法學,(9):3-15.
[11]李世瑾,胡藝齡,顧小清(2021).如何走出人工智能教育風險的困局:現象、成因及應對[J].電化教育研究,42(7):19-25.
[12]劉寶存,茍鳴瀚(2023).ChatGPT等新一代人工智能工具對教育科研的影響及對策[J].蘇州大學學報(教育科學版),11(3):54-62.
[13]劉東亮(2020).技術性正當程序:人工智能時代程序法和算法的雙重變奏[J].比較法研究,(5):64-79.
[14]劉旭東(2023).領域型教育法典中法律責任的規范構造研究[J].中國高教研究,(12):32-39.
[15]劉兆興(2008).比較法視野下的法典編纂與解法典化[J].環球法律評論,(1):48-56.
[16]龍衛球(2020).科技法迭代視角下的人工智能立法[J].法商研究,37(1):57-72.
[17]魯幽,馬雷軍(2021).我國教育法法典化的路徑、體例和內容——2021年中國教育科學論壇教育法法典化分論壇綜述[J].湖南師范大學教育科學學報,20(6):116-120.
[18]米?。?013).比較法學導論[M].北京:商務印書館:241.
[19]任海濤(2021).教育法典總則編的體系構造[J].東方法學,(6):123-140.
[20]申靈靈,盧鋒,張金帥(2022).超越莫拉維克悖論:人工智能教育的身心發展隱憂與應對[J].現代遠程教育研究,34(5):56-62.
[21]蘇宇(2023).數字時代的技術性正當程序:理論檢視與制度構建[J].法學研究,45(1):91-107.
[22]童云峰,歐陽本祺(2021).我國教育法法典化之提倡[J].國家教育行政學院學報,(3):26-34.
[23]王利明(2020).體系創新:中國民法典的特色與貢獻[J].比較法研究,(4):1.
[24]王萬華(2021).我國行政法法典編纂的程序主義進路選擇[J].中國法學,(4):103-122.
[25]新華社(2018).習近平:加強領導做好規劃明確任務夯實基礎推動我國新一代人工智能健康發展[EB/OL].[2023-12-20].https://www.rmzxb.com.cn/c/2018-10-31/2205658.shtml.
[26]楊九詮(2024).想象的困境:生成式人工智能世代的價值教育[J].中國遠程教育,44(2):12-23.
[27]尹力(2010).學習權保障:學習型社會教育法律與政策的價值基礎[J].北京師范大學學報(社會科學版),(3):70-78.
[28]余南平,張翌然(2023).ChatGPT/生成式人工智能對教育的影響:大國博弈新邊疆[J].華東師范大學學報(教育科學版),41(7):15-25.
[29]張凌寒(2023).深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J].法律科學(西北政法大學學報),41(3):38-51.
[30]張欣,宋雨鑫(2022).算法審計的制度邏輯和本土化構建[J].鄭州大學學報(哲學社會科學版),55(6):33-42.
[31]趙靜,薛瀾,吳冠生(2021).敏捷思維引領城市治理轉型:對多城市治理實踐的分析[J].中國行政管理,(8):49-54.
[32]趙磊磊,吳小凡,趙可云(2022).責任倫理:教育人工智能風險治理的時代訴求[J].電化教育研究,43(6):32-38.
[33]中華人民共和國教育部(2018).教育部關于印發《教育信息化2.0行動計劃》的通知[EB/OL].[2023-12-20].http://www.moe.gov.cn/srcsite/A16/s3342/201804/t20180425_334188.tml.
[34]中華人民共和國中央人民政府(2017a).國務院關于印發國家教育事業發展“十三五”規劃的通知[EB/OL].[2023-12-20].https://www.gov.cn/zhengce/zhengceku/2017-01/19/content_5161341.htm.
[35]中華人民共和國中央人民政府(2017b).國 務 院 關 于 印 發新一代人工智能發展規劃的通知[EB/OL].[2023-12-20].https://www.gov.cn/gongbao/content/2017/content_5216427.htm.
[36]周洪宇,李宇陽(2023).生成式人工智能技術ChatGPT與教育治理現代化——兼論數字化時代的教育治理轉型[J].華東師范大學學報(教育科學版),41(7):36-46.
[37]朱明哲(2021).法典化模式選擇的法理辨析[J].法制與社會發展,27(1):89-112.
[38]祝智庭,胡姣(2022).教育數字化轉型的本質探析與研究展望[J].中國電化教育,(4):1-8,25.
[39]Citron, D. K. (2008). Technological Due Process[J]. Washington University Law Review, 85(6):1249-1313.
[40]Reidenberg, J. (1998). Lex Informatica: The Formulation of Information Policy Rules Through Technology[J]. Texas Law Review, 76(3):553-594.
收稿日期 2024-02-26 責任編輯 汪燕
Legislation of Artificial Intelligence in Education:
A Systematic Compilation Path Based on the Education Code
LIU Xudong
Abstract: Artificial intelligence not only empowers education, but also increases the difficulty of education legislation. Compared to the slip laws in education, the Education Code, as the fundamental law of education, will be able to regulate the application of artificial intelligence in education in the most appropriate way, achieving the healthy development of educational applications of artificial intelligence. As a systematic legal code, the Education Code must have general provisions and specific provisions. The Education Code can be systematically compiled through the general provisions of “online education” and “legal liability”, as well as the relevant chapters of specific provisions. Firstly, the main line of compiling and the essence of education legislation is to safeguard citizens’ right to education. Therefore, the relevant chapters of the Education Code need to establish the obligation for the government and schools to popularize artificial intelligence educational resources, so that educational subjects can equally enjoy the educational dividends of artificial intelligence. Secondly, in response to potential risks, the Education Code can introduce a general chapter on “online education”, which on the one hand introduces technical due process, establishes transparency and audit obligations for algorithms and data, and prohibits automated decision-making in educational standard affairs, to clarify the behavioral norms for teachers using artificial intelligence; and on the other hand, based on agile governance, builds a pre-detection and early warning platform, a response mechanism for rapid response during the event, and a sustainable development mechanism for dynamic improvement after the event, to address unknown risks in the educational application of artificial intelligence. Finally, in order to ensure the smooth implementation of the obligation clauses, the Education Code can establish a sound legal liability mechanism for the application of artificial intelligence in education through the reasonable use of causative clauses and specific liability clauses in the“legal liability”chapter of the general provisions.
Keywords: Education Code; Legislation of Artificial Intelligence in Education; Compilation Path; Technical Due Process; Agile Governance