摘要:生成式人工智能的出現(xiàn),再次引起了技術(shù)之于教育的“不良免疫”反應(yīng)。生成式人工智能的本質(zhì)只不過是一個(gè)具有“高級(jí)復(fù)制”功能的大規(guī)模語言模型,并不具備人類的自我意識(shí)和創(chuàng)造力。因而,生成式人工智能之于中小學(xué)教育應(yīng)用或存在因缺乏人類道德導(dǎo)致價(jià)值觀隱患、基于不良數(shù)據(jù)生成錯(cuò)誤內(nèi)容、缺乏面向基礎(chǔ)教育應(yīng)用的針對(duì)性政策方針以及由此導(dǎo)致的教育應(yīng)用亂象叢生的“技術(shù)拜物主義”傾向問題。相較于生成式人工智能帶來的眾多風(fēng)險(xiǎn)的“排斥”,更應(yīng)通過制定和明確中小學(xué)生成式人工智能教育應(yīng)用的發(fā)展方向和目標(biāo)政策,以此生發(fā)出可以被接納的“抗體”。日本文部科學(xué)省于2023年7月發(fā)布了世界首份《中小學(xué)生成式人工智能教育應(yīng)用指南》,為生成式人工智能在中小學(xué)教育應(yīng)用指明了行動(dòng)方向,并立足生成式人工智能的本質(zhì)內(nèi)涵和應(yīng)用理念對(duì)其在中小學(xué)教育應(yīng)用進(jìn)行了全景刻畫,明確提出生成式人工智能之于中小學(xué)教育應(yīng)用的重要舉措和核心關(guān)切。基于此,我們應(yīng)從價(jià)值觀、素養(yǎng)觀、應(yīng)用觀和政策觀四個(gè)層面構(gòu)建我國中小學(xué)生成式人工智能教育應(yīng)用政策制定的路向,其過程更需重視由技術(shù)應(yīng)用可能引發(fā)的道德價(jià)值觀重塑,并持續(xù)關(guān)注中小學(xué)師生的智能信息素養(yǎng)培育,進(jìn)一步明確生成式人工智能教育應(yīng)用的邊界,盡可能采取以證據(jù)導(dǎo)向的“試點(diǎn)—推廣”為主的教育應(yīng)用普及模式。
關(guān)鍵詞:生成式人工智能;中小學(xué);日本;政策;行動(dòng)路徑
中圖分類號(hào):G434 文獻(xiàn)標(biāo)識(shí)碼:A
隨著科學(xué)技術(shù)進(jìn)步和經(jīng)濟(jì)社會(huì)的飛速發(fā)展,我國中小學(xué)智能設(shè)備的普及率正在穩(wěn)步提高,截止2020年底,我國中小學(xué)(含教學(xué)場(chǎng)所)互聯(lián)網(wǎng)普及率已達(dá)到100%,82.9%的未成年人擁有自己的智能設(shè)備,其中高中生擁有個(gè)人專屬智能電子設(shè)備的比例高達(dá)77.4%,初中生、小學(xué)生也達(dá)到64.6%和50.7%[1],這為在中小學(xué)應(yīng)用生成式人工智能促進(jìn)學(xué)習(xí)提供了無限的可能性。然而,當(dāng)下生成式人工智能之于中小學(xué)的教育應(yīng)用仍處于探索和發(fā)展階段,尚且存在著技術(shù)的局限性、應(yīng)用水平低、隱私保護(hù)和公平性等核心教育關(guān)切問題。生成式人工智能作為更接近類人的“奇點(diǎn)”式技術(shù)突破,能夠通過與人類對(duì)話“生成”問題解決方案,但同時(shí)也存在傳遞錯(cuò)誤信息和偏見歧視的可能。對(duì)于中小學(xué)生這一群體來說,他們通常對(duì)新事物充滿濃厚興趣和使用熱情,并且價(jià)值觀、道德觀尚未完全形成。因此,他們更容易受到對(duì)話內(nèi)容的影響,進(jìn)而或可能形成錯(cuò)誤的價(jià)值觀和行為傾向。為了將生成式人工智能教育應(yīng)用推向更深層次,引導(dǎo)中小學(xué)生形成正確的價(jià)值觀和道德觀,制定面向中小學(xué)的生成式人工智能教育應(yīng)用政策顯得尤為重要。日本文部科學(xué)省于2023年7月發(fā)布了世界上首份《中小學(xué)生成式人工智能教育應(yīng)用指南》,提出了促進(jìn)生成式人工智能教育應(yīng)用的具體措施,這為我國制定面向中小學(xué)的生成式人工智能教育政策提供了可參考的行動(dòng)方案。
生成式人工智能的出現(xiàn)引發(fā)了教育的“不良免疫”反應(yīng),相較于其帶來的眾多風(fēng)險(xiǎn)的“排斥”,更應(yīng)通過制定明確中小學(xué)生成式人工智能教育應(yīng)用的發(fā)展方向和目標(biāo)政策,以此生發(fā)出可以被接納的“抗體”,這不僅利于規(guī)范和引導(dǎo)相關(guān)教育機(jī)構(gòu)和企業(yè)在教育領(lǐng)域的應(yīng)用行為,也對(duì)于保護(hù)學(xué)生權(quán)益、促進(jìn)教育公平包容、協(xié)同教師專業(yè)發(fā)展以及推動(dòng)教育研究和創(chuàng)新發(fā)展具有重要意義。
(一)價(jià)值維度:生成式人工智能缺乏人類道德導(dǎo)致價(jià)值觀隱患
生成式人工智能并不具備人類智能,沒有人類特有的思維和理解力,其本質(zhì)只是一個(gè)具有“高級(jí)復(fù)制”功能的工具,而不是一個(gè)生動(dòng)的、具有創(chuàng)造力和自我意識(shí)的人。它的“生成”依賴于人類已有的知識(shí)基礎(chǔ),本質(zhì)是對(duì)已有知識(shí)的組合排列,不能實(shí)現(xiàn)創(chuàng)造性和原創(chuàng)性。盡管生成式人工智能可以模仿人類的基本思維過程并擁有一定的學(xué)習(xí)能力,但它本質(zhì)仍然是機(jī)器,智能水平相對(duì)簡單和初步。因而,生成式人工智能無法具備人類的基本道德判斷能力,無法理解倫理和道德準(zhǔn)則,從而可能產(chǎn)生潛在的倫理和道德問題。換句話說,當(dāng)機(jī)器的算法價(jià)值與人類價(jià)值產(chǎn)生矛盾沖突時(shí),人類很容易受到算法價(jià)值的影響做出錯(cuò)誤判斷或做出違反法律倫理的行為。生成式人工智能作為智能社會(huì)人體的延伸,其性質(zhì)的好壞取決于使用它的人,其本身并無“原罪”,但因其工具特征產(chǎn)生的罪惡依然需要由人承擔(dān),所以,面對(duì)技術(shù)帶給人類的潛在風(fēng)險(xiǎn),確保生成式人工智能具備良好的道德導(dǎo)向和價(jià)值觀,引導(dǎo)人們正視生成式人工智能優(yōu)缺點(diǎn)的價(jià)值觀教育刻不容緩,亟需變革。
(二)素養(yǎng)維度:生成式人工智能生成錯(cuò)誤內(nèi)容呼喚正確素養(yǎng)觀
盡管生成式人工智能的“生成”過程與人類的思維過程極為相似,但它的“生成”是在人類已有的概念和判斷基礎(chǔ)上構(gòu)建的,是對(duì)已有知識(shí)的特征性篩選、統(tǒng)計(jì)和邏輯演算。可以說,生成式人工智能實(shí)現(xiàn)的是一種“高級(jí)復(fù)制”,與人類的“創(chuàng)造創(chuàng)生”存在本質(zhì)差異。然而,大多數(shù)人都沉浸在對(duì)生成式人工智能強(qiáng)大生成能力的驚嘆中,而將原本應(yīng)由自己展現(xiàn)創(chuàng)造力和個(gè)性化的任務(wù)交給了機(jī)器,在不知不覺中失去了“生成什么”的控制權(quán)。生成式人工智能具有類人屬性,對(duì)于人類提出的問題可以給予“生成”響應(yīng),但始終是缺乏人類智慧的人工物,因此,如果我們沒有意識(shí)到提供的對(duì)話數(shù)據(jù)或語料庫本身存在錯(cuò)誤,生成式人工智能就很難將錯(cuò)誤內(nèi)容轉(zhuǎn)化為正確回答,導(dǎo)致基于錯(cuò)誤材料生成的回答很可能也是錯(cuò)誤的。換句話說,由于生成式人工智能主要依賴于大量數(shù)據(jù)來生成回答或內(nèi)容,如果這些數(shù)據(jù)存在偏見、誤導(dǎo)性或具有爭議性,那么生成的結(jié)果也可能會(huì)帶有相同的問題,對(duì)學(xué)生產(chǎn)生負(fù)面影響。這將導(dǎo)致生成式人工智能帶來的潛在風(fēng)險(xiǎn)更大,遮蔽性更強(qiáng),而人類卻難以自知。此外,技術(shù)的更新迭代,意味著技術(shù)帶來風(fēng)險(xiǎn)的內(nèi)隱性和技術(shù)的權(quán)威性也越強(qiáng),尤其對(duì)于缺乏智能信息素養(yǎng)的學(xué)生來說,他們對(duì)生成式人工智能持有濃厚的興趣和熱情,但是欠缺對(duì)生成式人工智能本質(zhì)、優(yōu)缺點(diǎn)的認(rèn)識(shí)和應(yīng)用能力。因而,培育學(xué)生科學(xué)正確的智能信息素養(yǎng),引導(dǎo)學(xué)生在快速高效利用生成式人工智能的同時(shí),加深學(xué)生對(duì)生成式人工智能本質(zhì)、優(yōu)缺點(diǎn)的全面認(rèn)識(shí),促使學(xué)習(xí)者在利用生成式人工智能時(shí)遵守相應(yīng)的道德規(guī)范與法律準(zhǔn)則迫在眉睫。
(三)應(yīng)用維度:生成式人工智能在中小學(xué)教育應(yīng)用的現(xiàn)實(shí)困境
由于缺乏針對(duì)性的政策指導(dǎo),生成式人工智能之于中小學(xué)教育應(yīng)用存在一些亂象和問題。人們對(duì)于生成式人工智能教育應(yīng)用的態(tài)度存在兩個(gè)極端,一是生成式人工智能算法的工作原理往往是復(fù)雜的,學(xué)生和教師可能難以理解其決策過程,缺乏透明性和可解釋性使得人們難以信任和接受生成式人工智能的教育應(yīng)用;二是當(dāng)下人們對(duì)新技術(shù)的追捧往往過于狂熱,對(duì)技術(shù)邏輯充分信任與堅(jiān)定遵循,導(dǎo)致“技術(shù)拜物主義”這一意識(shí)形態(tài)日益盛行。人們誤認(rèn)為生成式人工智能的“高級(jí)復(fù)制”等價(jià)于人類的“創(chuàng)造創(chuàng)生”,誤認(rèn)為物主導(dǎo)的教育本質(zhì)仍是創(chuàng)造,教育就朝著物異化人的方向發(fā)展,最終導(dǎo)致教育中的“人”被遮蔽。此外,生成式人工智能教育應(yīng)用通常需要收集學(xué)生的個(gè)人信息以提供個(gè)性化的教學(xué)內(nèi)容和反饋,但這可能導(dǎo)致個(gè)人隱私泄露的風(fēng)險(xiǎn),特別是當(dāng)數(shù)據(jù)被濫用或泄露時(shí),可能對(duì)學(xué)生造成損害。生成式人工智能教育應(yīng)用也改變了傳統(tǒng)教學(xué)中教師的角色和責(zé)任,教師不僅需要掌握技術(shù)操作和數(shù)據(jù)分析的能力,還需要調(diào)整教學(xué)方式,更好地引導(dǎo)學(xué)生使用生成式人工智能進(jìn)行學(xué)習(xí)。更為重要的是,目前生成式人工智能教育應(yīng)用的重點(diǎn)仍然集中在習(xí)題生成、自動(dòng)解題和輔助批閱等淺層領(lǐng)域,盡管在這些方面取得了一定進(jìn)展,但對(duì)于更深入利用生成式人工智能對(duì)學(xué)習(xí)者的學(xué)習(xí)過程和學(xué)習(xí)行為進(jìn)行追蹤分析,以支持和完善學(xué)習(xí)者的作品創(chuàng)作、審美鑒賞和表達(dá),以及幫助教師備課和教學(xué)等關(guān)鍵環(huán)節(jié)的整合還存在不足之處。
(四)政策維度:中小學(xué)缺乏生成式人工智能教育應(yīng)用政策方針
2016年斯坦福大學(xué)發(fā)布的《人工智能和2030年的生活》報(bào)告指出,未來依靠簡單重復(fù)勞動(dòng)的職業(yè)將會(huì)逐漸被智能機(jī)器所取代,綜合復(fù)雜的工作需要具備人工智能素養(yǎng)的人與機(jī)器協(xié)作完成[2]。由此可以看出,利用人工智能已經(jīng)成為未來社會(huì)發(fā)展的必然趨勢(shì),促進(jìn)人工智能人才培養(yǎng)是應(yīng)用人工智能促進(jìn)教育變革的應(yīng)有之義。2017年,國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》明確指出,要加速推進(jìn)以人工智能為核心的人才培養(yǎng)模式和教學(xué)方式的改革,建立以智能學(xué)習(xí)和互動(dòng)學(xué)習(xí)為核心的新型教學(xué)模式。2021年,中央網(wǎng)絡(luò)安全和信息化委員會(huì)發(fā)布的《“十四五”國家信息化規(guī)劃》明確指出,要推動(dòng)信息技術(shù)、人工智能技術(shù)與教育教學(xué)相結(jié)合,促進(jìn)教育教學(xué)改革。隨著生成式人工智能技術(shù)的出現(xiàn)與發(fā)展,2023年7月,我國出臺(tái)了《生成式人工智能服務(wù)管理暫行辦法》,該辦法規(guī)定了生成式人工智能服務(wù)的管理要求和責(zé)任,以及生成式人工智能服務(wù)消費(fèi)者的權(quán)利和義務(wù),是對(duì)生成式人工智能發(fā)展、應(yīng)用、治理、服務(wù)、監(jiān)督、權(quán)益等的宏觀規(guī)范。但是,關(guān)于生成式人工智能在中小學(xué)教育教學(xué)、管理治理上的具體應(yīng)用,明確生成式人工智能在中小學(xué)的服務(wù)規(guī)范,落實(shí)監(jiān)督檢查和法律責(zé)任,依然缺乏政策指導(dǎo)。因此,制定面向我國中小學(xué)的生成式人工智能教育應(yīng)用的管理辦法,進(jìn)一步規(guī)范生成式人工智能技術(shù)在教育教學(xué)、管理評(píng)價(jià)等環(huán)節(jié)的應(yīng)用和范疇顯得尤為必要。
關(guān)于在中小學(xué)是否應(yīng)該使用以及如何使用生成式人工智能的討論多種多樣。為了幫助中小學(xué)教育工作者判斷目前生成式人工智能是否適合使用,日本文部科學(xué)省編制了《中小學(xué)生成式人工智能教育應(yīng)用指南》作為參考資料。該《指南》除提出具體的中小學(xué)生成式人工智能教育應(yīng)用措施和使用時(shí)機(jī),還希望通過實(shí)施“試點(diǎn)—推廣”的教育普及模式來不斷積累實(shí)踐經(jīng)驗(yàn),并以此持續(xù)往復(fù)修訂相關(guān)政策。
(一)生成式人工智能之于中小學(xué)教育應(yīng)用原點(diǎn)
1.同一性、預(yù)設(shè)性是生成式人工智能的本質(zhì)內(nèi)涵
ChatGPT、BingChat和Bard等生成式人工智能的核心是大型語言模型(Large Language Models,簡稱LLMs),大型語言模型的訓(xùn)練需要向其提供大量的文本數(shù)據(jù),模型利用這些數(shù)據(jù)來學(xué)習(xí)人類語言的結(jié)構(gòu)、語法和語義,從而預(yù)測(cè)句子中的下一個(gè)單詞,并生成“統(tǒng)計(jì)學(xué)上看似合理的回應(yīng)”。換句話說,生成式人工智能的“生成”不是針對(duì)個(gè)體本質(zhì)的設(shè)定,而是針對(duì)全體對(duì)象共同本質(zhì)的設(shè)定,它試圖去除個(gè)體的差異,在二元或多元對(duì)立中確立一個(gè)中心,將這個(gè)中心看作復(fù)雜人類群體的本質(zhì)特征,因而生成式人工智能的本質(zhì)是同一的。此外,從過程哲學(xué)來看,生成式人工智能的世界觀認(rèn)為“過程”是可以被預(yù)設(shè)的,對(duì)于機(jī)器來說,這意味著一切事物都可以被計(jì)算和預(yù)測(cè),都可以把復(fù)雜的對(duì)象歸結(jié)為簡單的整齊劃一。也就是說,雖然與生成式人工智能交互的是具體的人,但生成式人工智能“眼中”的人卻不是具體的人,而是可以被量化的具有共性的人類群體。因此,生成式人工智能的“生成”本質(zhì)是確定的、同一的、預(yù)設(shè)的,而人的“生成”是不確定的,不可預(yù)測(cè)的、充滿創(chuàng)造力的。生成式人工智能將群體產(chǎn)生的共有語料進(jìn)行高級(jí)組合排序,而后用于具體的人,所以它存在天然的應(yīng)用性裂痕,即忽視了共性和個(gè)性之間的差異鴻溝,以力求整齊劃一的方式可能會(huì)使教育結(jié)果邁入與預(yù)期相反的方向。對(duì)于教育活動(dòng)本質(zhì)而言,教育活動(dòng)的開展往往不是將原料通過流水線加工成產(chǎn)品,不是解決同一性問題,而是完善和發(fā)展獨(dú)特的、個(gè)體的、具體的人,解決差異性問題。
2.完善優(yōu)化是生成式人工智能教育應(yīng)用的核心理念
生成式人工智能在教育中的應(yīng)用不是替代人類,而是幫助人類更好地完成相應(yīng)的任務(wù)。學(xué)習(xí)者不能簡單地將生成式人工智能生成的內(nèi)容當(dāng)作自己的學(xué)習(xí)成果,而是需要在自身已經(jīng)“完成”的基礎(chǔ)上利用生成式人工智能進(jìn)行“完善”。為了對(duì)生成內(nèi)容進(jìn)行批判性思考和修改,學(xué)習(xí)者必須具備判斷真?zhèn)蔚哪芰Α⒁欢ǖ膶W(xué)科知識(shí)以及對(duì)自身問題的認(rèn)識(shí)。此外,學(xué)習(xí)者還需充分了解生成式人工智能的性質(zhì)和優(yōu)缺點(diǎn),認(rèn)識(shí)到它沒有自我意識(shí)或個(gè)性,僅僅是人類發(fā)明的工具。在教育中,重要的是培養(yǎng)學(xué)生的自主決策和思考能力,而不是將一切都依賴于生成式人工智能。目前的生成式人工智能仍處于輔助教與學(xué)的客體地位,還沒有智能到足以代替教與學(xué)過程中的主體的地步,既然如此,作為教育主體的教師和學(xué)生就需要以主體之身份去考究如何全面而充分地利用人工智能這個(gè)客體為我們服務(wù),而非是對(duì)客體產(chǎn)生路徑式依賴,反而遏制了主體的創(chuàng)造力和主觀能動(dòng)性,使主體在企圖解脫自身過程中又深深陷入技術(shù)的馴化之中。因此,學(xué)校課程應(yīng)將“利用信息的能力”視為學(xué)生的基本素養(yǎng),強(qiáng)調(diào)學(xué)生在學(xué)習(xí)和日常生活中應(yīng)批判性地使用生成式人工智能相關(guān)產(chǎn)品。教師需要充分了解學(xué)生的實(shí)際情況和發(fā)展階段,并根據(jù)其發(fā)展階段和實(shí)際情況評(píng)估教育活動(dòng)的可行性。在應(yīng)用生成式人工智能的學(xué)習(xí)活動(dòng)中,教師應(yīng)判斷其是否能有效地實(shí)現(xiàn)教育目標(biāo)。如果學(xué)生無法理解人工智能的性質(zhì)、無法實(shí)現(xiàn)學(xué)習(xí)目標(biāo)、妨礙正確評(píng)價(jià)或引導(dǎo)不當(dāng)行為等情況,則不應(yīng)使用該技術(shù)。為了做出正確的判斷,教師也必須具備一定的智能信息素養(yǎng)。
(二)生成式人工智能之于中小學(xué)教育應(yīng)用舉措
1.強(qiáng)化學(xué)生“信息應(yīng)用能力”的培養(yǎng)
學(xué)校在考慮實(shí)現(xiàn)生成式人工智能教育應(yīng)用日常化時(shí),需要重視生成式人工智能的未來普及,并進(jìn)一步培養(yǎng)學(xué)生包括信息道德在內(nèi)的信息應(yīng)用能力。信息應(yīng)用能力是指為了某種需要或特定目的,將獲取、處理的信息應(yīng)用于實(shí)踐,以實(shí)現(xiàn)預(yù)定目標(biāo),使信息價(jià)值得以實(shí)現(xiàn)的能力。信息道德是指構(gòu)成在信息社會(huì)中開展適當(dāng)活動(dòng)的基礎(chǔ)思維方式和態(tài)度,了解使用計(jì)算機(jī)和其他信息設(shè)備與人類健康生活等之間的關(guān)系。考慮到生成式人工智能的逐漸普及,在進(jìn)一步促進(jìn)智能終端日常使用的前提下,根據(jù)學(xué)生的發(fā)展階段,在家長和監(jiān)護(hù)人的理解和配合下,應(yīng)該加強(qiáng)各種學(xué)習(xí)活動(dòng)進(jìn)而強(qiáng)化信息道德教育[3]。這些學(xué)習(xí)活動(dòng)主要包括:(1)讓學(xué)生思考信息傳播對(duì)他人和社會(huì)影響的學(xué)習(xí)活動(dòng);(2)讓學(xué)生思考在網(wǎng)絡(luò)上遵守規(guī)則和禮貌的意義的學(xué)習(xí)活動(dòng);(3)讓學(xué)生思考自己和他人有信息知情權(quán)的學(xué)習(xí)活動(dòng);(4)讓學(xué)生思考信息可能是錯(cuò)誤或危險(xiǎn)的學(xué)習(xí)活動(dòng);(5)讓學(xué)生思考有害健康的行為的學(xué)習(xí)活動(dòng);(6)讓學(xué)生了解信息和信息技術(shù)特性的學(xué)習(xí)活動(dòng)。作為這些活動(dòng)的一部分,教師需要有意識(shí)地傳授驗(yàn)證信息真實(shí)性的方法。此外,教師還可以將生成式人工智能生成的含有錯(cuò)誤信息的答案作為教材,讓學(xué)生了解其性質(zhì)、優(yōu)缺點(diǎn)等,或者設(shè)計(jì)不允許機(jī)器學(xué)習(xí)或獲取個(gè)人相關(guān)信息的教學(xué)內(nèi)容。這些學(xué)習(xí)活動(dòng)的開展有利于培養(yǎng)學(xué)生的信息應(yīng)用意識(shí)和信息道德,促進(jìn)學(xué)生信息應(yīng)用能力的發(fā)展。
2.明確技術(shù)應(yīng)用正確與否的判斷標(biāo)準(zhǔn)
判斷是否以及何時(shí)使用生成式人工智能是生成式人工智能教育應(yīng)用的基本前提。人們往往容易忽視這一點(diǎn),并在不合適的時(shí)機(jī)應(yīng)用技術(shù)。對(duì)于大多數(shù)學(xué)生而言,其尚未充分發(fā)展信息應(yīng)用能力,也處在對(duì)信息道德能力風(fēng)險(xiǎn)把控十分不確定的階段,自由使用生成式人工智能往往是不適宜的。當(dāng)學(xué)生對(duì)生成式人工智能的性質(zhì)及優(yōu)缺點(diǎn)缺乏足夠了解時(shí),其往往會(huì)過度依賴技術(shù)生成的內(nèi)容。此外,涉及創(chuàng)作詩歌和文章、音樂和美術(shù)表現(xiàn)與鑒賞,或需要直接獲取內(nèi)心真實(shí)感受的情境中,讓學(xué)生們過早地依賴生成式人工智能可能并不是一個(gè)很好的選擇。這些場(chǎng)景更期望學(xué)生發(fā)揮感性和創(chuàng)造性,尋求自己原初的真實(shí)感受和觀點(diǎn),過早依賴生成式人工智能可能會(huì)導(dǎo)致學(xué)生失去審美能力。對(duì)于教師而言,在需要根據(jù)準(zhǔn)確知識(shí)和學(xué)習(xí)表現(xiàn)評(píng)價(jià)學(xué)生學(xué)習(xí)效果的環(huán)節(jié)中,應(yīng)用生成式人工智能代替教師的評(píng)價(jià)作用是不適宜的,教師不能僅憑生成式人工智能的評(píng)價(jià)和輸出結(jié)果對(duì)學(xué)生學(xué)習(xí)效果進(jìn)行簡單定性。在定期考試或短期測(cè)試過程中,了解學(xué)生基礎(chǔ)知識(shí)掌握情況時(shí),也不應(yīng)讓學(xué)生使用生成式人工智能,因?yàn)檫@不符合掌握或評(píng)估學(xué)生知識(shí)學(xué)習(xí)的真實(shí)進(jìn)展。
在課程與教學(xué)的過程中,存在許多適合生成式人工智能教育應(yīng)用的時(shí)機(jī)。作為信息道德教育的一部分,教師可以將包括生成式人工智能產(chǎn)生的錯(cuò)誤在內(nèi)的答案作為教材或案例,使學(xué)生認(rèn)識(shí)到生成式人工智能的本質(zhì)和局限性。教師還可以讓學(xué)生自己獨(dú)立思考和討論關(guān)于生成式人工智能社會(huì)爭論的相關(guān)材料,了解生成式人工智能可能帶來的風(fēng)險(xiǎn)。學(xué)生也可以將生成式人工智能作為輔助工具來支持學(xué)習(xí)。例如,在小組開展頭腦風(fēng)暴、探究問題的中間階段,經(jīng)過討論和總結(jié)后,可以利用生成式人工智能查找遺漏的觀點(diǎn),以深化討論。此外,作為外語對(duì)話的伙伴,生成式人工智能還可以提高學(xué)生英語的自然表達(dá)能力,并根據(jù)每個(gè)學(xué)生的興趣愛好制作單詞表和例句表,用于外語學(xué)習(xí)。學(xué)生還可以利用生成式人工智能來修改自己的文章,完善自己的創(chuàng)作產(chǎn)品。需要注意的是,生成式人工智能在教學(xué)和學(xué)習(xí)過程中的作用并非替代,而是完善。生成式人工智能應(yīng)在人們已經(jīng)開始并能夠自行完成的任務(wù)基礎(chǔ)上發(fā)揮作用。它應(yīng)作為學(xué)習(xí)過程中的輔助工具,幫助學(xué)生更好地實(shí)現(xiàn)學(xué)習(xí)目標(biāo),并促進(jìn)他們的創(chuàng)造力和思考能力的良好發(fā)展。
在論文寫作、項(xiàng)目報(bào)告或參加相關(guān)競(jìng)賽時(shí),也需要限定生成式人工智能的使用范圍。學(xué)生不應(yīng)將生成式人工智能的生成內(nèi)容原封不動(dòng)地應(yīng)用或提交于禁止使用生成式人工智能的競(jìng)賽作品和學(xué)習(xí)交流報(bào)告中。為避免學(xué)生不當(dāng)使用生成式人工智能,有必要告知學(xué)生家長或監(jiān)護(hù)人并獲得他們的理解。在此基礎(chǔ)上,相關(guān)競(jìng)賽可以設(shè)置評(píng)價(jià)報(bào)告的附加內(nèi)容,如描述是否基于個(gè)人親身經(jīng)歷,是否基于學(xué)習(xí)活動(dòng)依據(jù),以及事實(shí)關(guān)系是否準(zhǔn)確等以檢查學(xué)生是否使用了生成式人工智能,而不僅僅是簡單地發(fā)布報(bào)告或作業(yè)。如果一些競(jìng)賽允許學(xué)生使用生成式人工智能完善作品或報(bào)告,學(xué)生也可利用生成式人工智能來補(bǔ)充自己創(chuàng)作的報(bào)告草稿中缺乏的觀點(diǎn)。在這種情況下,可以對(duì)學(xué)生提交的資料進(jìn)行真實(shí)性檢查,并將學(xué)生與生成式人工智能交流的過程作為最終成果的參考資料附在其后,并在必要的審查過程中可以立即展示參考文獻(xiàn)和參考資料。
3.面向部分學(xué)校的先行試點(diǎn)推進(jìn)
對(duì)于能夠采取措施應(yīng)對(duì)生成式人工智能引發(fā)擔(dān)憂和風(fēng)險(xiǎn)的學(xué)校,應(yīng)首先獲得家長或監(jiān)護(hù)人的理解,并確保利用技術(shù)的過程透明,從而推進(jìn)先進(jìn)舉措和經(jīng)驗(yàn)積累。例如,在了解生成式人工智能基本使用階段的同時(shí),可以逐步提高生成式人工智能的應(yīng)用水平,并將開發(fā)人工智能作為信息應(yīng)用能力的一部分用于學(xué)習(xí)。在學(xué)習(xí)生成式人工智能的階段,使用者應(yīng)了解生成式人工智能的原理、便利性、風(fēng)險(xiǎn)和注意點(diǎn)。在學(xué)習(xí)使用方法的階段,使用者應(yīng)掌握與生成式人工智能的對(duì)話技巧,以獲得更好的答案和事實(shí)檢查方法,學(xué)習(xí)者也有必要充分認(rèn)識(shí)到答案可能包含錯(cuò)誤,而且反饋結(jié)果“僅供參考”,并且,學(xué)習(xí)者應(yīng)有自己做出最終決定的基本態(tài)度[4]。在各學(xué)科學(xué)習(xí)中積極應(yīng)用生成式人工智能的完善階段,使用者能夠利用生成式人工智能,發(fā)現(xiàn)問題并設(shè)定課題,形成獨(dú)立思考,并將不同思考進(jìn)行整理、比較和深化。在日常使用階段,使用者需要能夠像使用檢索引擎一樣使用生成式人工智能。在上述四個(gè)階段中,希望學(xué)生能夠正視對(duì)生成式人工智能使用的擔(dān)憂,以進(jìn)一步提高生成式人工智能的創(chuàng)造力而不是削弱它。此外,在學(xué)生使用生成式人工智能時(shí),有必要確認(rèn)是否收取使用費(fèi),并在選擇生成式人工智能工具時(shí)充分考慮家庭的經(jīng)濟(jì)負(fù)擔(dān)。
4.面向全體學(xué)校的校務(wù)支持示范
毫無疑問,生成式人工智能只是一種輔助教學(xué)的技術(shù)工具,最終的決策與確定使用時(shí)機(jī)和范圍還是需要教育工作者自己來完成。學(xué)校應(yīng)該注重保護(hù)個(gè)人信息,并將生成式人工智能的應(yīng)用納入到工作方式的改革中,以提高工作效率和質(zhì)量。教師們應(yīng)該熟悉生成式人工智能技術(shù),了解其便利性、風(fēng)險(xiǎn)性以及使用技巧,并培養(yǎng)自身應(yīng)對(duì)未來教育活動(dòng)所需的素養(yǎng)。在工作中,教師們可以將生成式人工智能的回答作為“草稿”進(jìn)行利用,但仍然需要經(jīng)過自我檢查、推敲和最終完成才能形成最終版本。生成式人工智能主要從以下三個(gè)方面支持學(xué)校工作:(1)支持教師的教學(xué)工作,幫助教師準(zhǔn)備教學(xué)材料、練習(xí)題和測(cè)試題,并通過人工智能作為模擬伙伴來進(jìn)行備課;(2)支持學(xué)校活動(dòng)和社團(tuán)活動(dòng),生成式人工智能可以為實(shí)地調(diào)研等課外活動(dòng)準(zhǔn)備行程,為運(yùn)動(dòng)會(huì)比賽制定方案,并估算社團(tuán)比賽和調(diào)研的經(jīng)費(fèi)支出;(3)支持學(xué)校管理相關(guān)工作,生成式人工智能可以生成相關(guān)研究報(bào)告模板、致辭、儀式發(fā)言等文稿框架,調(diào)整課時(shí)安排,為教師準(zhǔn)備研修或培訓(xùn)資料,自動(dòng)記錄會(huì)議材料,以及撰寫網(wǎng)站宣傳材料等。
(三)生成式人工智能之于中小學(xué)教育應(yīng)用關(guān)切
1.算法透明性和信任性的擔(dān)憂
生成式人工智能的“算法黑箱”效應(yīng)會(huì)導(dǎo)致人們無法理解或解釋算法的內(nèi)部運(yùn)行機(jī)制和決策過程[5]。這意味著算法對(duì)外部用戶來說是不透明的,用戶無法了解算法是如何使用輸入數(shù)據(jù)進(jìn)行處理,以及如何生成輸出結(jié)果。算法的決策過程缺乏可解釋性,使得人們難以理解和評(píng)估其公正性、準(zhǔn)確性和偏見等方面。雖然這種不透明性部分源于保護(hù)知識(shí)產(chǎn)權(quán)和防止惡意用戶利用系統(tǒng)[6],但算法有時(shí)做出有偏見、歧視性和欺騙性的決定,使得這種不透明性受到了人們的質(zhì)疑[7],因?yàn)槠淇赡苁且?guī)避監(jiān)管、操縱消費(fèi)者的一種新形式。此外,人們還面臨著由算法復(fù)雜層級(jí)關(guān)系引起的不透明性問題。盡管我們可以通過簡化算法的運(yùn)算邏輯來試圖理解它,但實(shí)際上,這種簡化并沒有太大作用,人類面臨的更大挑戰(zhàn)是如何理解由大量簡單模塊協(xié)同工作后產(chǎn)生的結(jié)果[8]。換句話說,由算法復(fù)雜層級(jí)關(guān)系引起的不透明性問題不僅與對(duì)代碼進(jìn)行閱讀和理解有關(guān),還與代碼的行數(shù)、工程團(tuán)隊(duì)規(guī)模以及模塊之間的相互聯(lián)系有關(guān)。
隨著生成式人工智能的廣泛應(yīng)用,隱私保護(hù)已經(jīng)成為一個(gè)公認(rèn)的嚴(yán)重倫理問題[9]。缺乏倫理道德和正確價(jià)值觀的生成式人工智可能會(huì)扭曲真相,最終導(dǎo)致公眾對(duì)生成式人工智能技術(shù)失去信任和支持[10]。目前,生成式人工智能的性能在很大程度上依賴于訓(xùn)練數(shù)據(jù)。通常情況下,訓(xùn)練人工智能模型,尤其是深度學(xué)習(xí)模型,需要大量的數(shù)據(jù),其中可能包含個(gè)人隱私和敏感信息。如果這些個(gè)人信息泄露或被濫用和篡改,將對(duì)用戶產(chǎn)生嚴(yán)重的影響。此外,算法一旦出現(xiàn)漏洞或錯(cuò)誤,將直接傷害人類,造成嚴(yán)重后果[11],這是人們對(duì)算法不信任的另一個(gè)原因。如在醫(yī)療和自動(dòng)駕駛領(lǐng)域,若算法出現(xiàn)錯(cuò)誤,則人身安全會(huì)受到巨大威脅。算法的黑箱特性使得生成式人工智能的決策過程難以理解,因而算法的可解釋性也是人工智能的一個(gè)基本倫理問題[12]。換句話說,算法的結(jié)果對(duì)我們來說通常是不可預(yù)測(cè)的,即使我們很好地設(shè)計(jì)了一個(gè)人工智能模型,我們也無法預(yù)見或預(yù)測(cè)算法的決策及其將產(chǎn)生的后果,這就導(dǎo)致了人工智能的算法決策風(fēng)險(xiǎn)。
2.缺乏信息素養(yǎng)導(dǎo)致教育信息安全隱患
在生成式人工智能教育應(yīng)用的過程中,對(duì)技術(shù)的不當(dāng)使用或缺乏相應(yīng)的信息素養(yǎng)和信息道德,可能會(huì)導(dǎo)致教育信息安全隱患。教育機(jī)構(gòu)和學(xué)校擁有大量學(xué)生和教職工的個(gè)人信息,包括姓名、地址、電話號(hào)碼等,這些數(shù)據(jù)容易成為黑客的目標(biāo)。如果這些信息泄露,可能導(dǎo)致身份盜用、欺詐或其它不良后果。在現(xiàn)代教育中,學(xué)生使用電子設(shè)備和在線平臺(tái)進(jìn)行學(xué)習(xí)、交流和評(píng)估。這些系統(tǒng)可能收集大量學(xué)生的個(gè)人信息,如學(xué)習(xí)記錄、瀏覽痕跡等,很多違法犯罪分子經(jīng)常利用技術(shù)漏洞來獲取這些信息,并濫用或?qū)⑵湫孤督o未授權(quán)的第三方。此外,教育機(jī)構(gòu)和學(xué)校的網(wǎng)絡(luò)系統(tǒng)也可能面臨各種形式的網(wǎng)絡(luò)攻擊,如惡意軟件感染、勒索軟件攻擊、分布式拒絕服務(wù)攻擊等,這些攻擊可能導(dǎo)致學(xué)校的網(wǎng)絡(luò)癱瘓、數(shù)據(jù)丟失或被竊取。更嚴(yán)重的是,教育領(lǐng)域可能存在學(xué)歷證書和成績?cè)旒賳栴}。黑客或不法分子可能利用技術(shù)手段篡改學(xué)生的成績或?qū)W歷證書,從而獲得不當(dāng)利益或提高自己的競(jìng)爭力。此外,師生也可能因缺乏一定的信息素養(yǎng)和正確價(jià)值觀,只能看到生成式人工智能帶給教育教學(xué)的便捷性和益處,往往忽視了其具有的缺陷和帶來的風(fēng)險(xiǎn)。在缺乏這種意識(shí)的情況下,人們對(duì)生成式人工智能的應(yīng)用往往缺乏警惕性,容易造成各種教育信息安全隱患。
3.機(jī)器拼接復(fù)制引發(fā)教育知識(shí)產(chǎn)權(quán)爭議
生成式人工智能在教育領(lǐng)域的廣泛應(yīng)用引發(fā)了人們對(duì)教育法律法規(guī)中知識(shí)產(chǎn)權(quán)保護(hù)和侵權(quán)責(zé)任認(rèn)定等問題的討論。由于生成式人工智能的生成過程是基于現(xiàn)有的概念、知識(shí)和判斷進(jìn)行排列組合,是一種高級(jí)復(fù)制,并沒有人類特有的創(chuàng)造性和原創(chuàng)性,無法在實(shí)踐中產(chǎn)生獨(dú)特的內(nèi)容和智慧的領(lǐng)悟,與人類的生成有本質(zhì)上的差異,這可能會(huì)涉及侵犯原始材料所有者的權(quán)利。因此,作為一種創(chuàng)造性的活動(dòng),在開發(fā)生成式人工智能教育應(yīng)用時(shí),需要遵守知識(shí)產(chǎn)權(quán)相關(guān)規(guī)定,確保合法使用原創(chuàng)的算法和程序等資源[13]。以ChatGPT為例,其生成的答案通常是對(duì)現(xiàn)有文字的拼貼,我們只能獲取最終答案,而無法了解這些答案的來源和引用出處,這引發(fā)了知識(shí)產(chǎn)權(quán)和版權(quán)保護(hù)等問題。目前,對(duì)于生成式人工智能生成物的版權(quán)歸屬問題,法律界尚無明確的法規(guī)或定義。生成物的創(chuàng)造過程涉及人工智能系統(tǒng)的算法、數(shù)據(jù)和模型等多個(gè)元素,難以確定單一的創(chuàng)作者或版權(quán)歸屬者。這引發(fā)了學(xué)術(shù)和法律上的爭議,包括生成物是否被視為作品,如何判斷生成物的獨(dú)創(chuàng)性,以及生成物的版權(quán)歸屬者是誰等問題。此外,對(duì)于生成式人工智能生成物的專利性認(rèn)定也存在困難。由于算法和數(shù)據(jù)的多樣性,生成物在某些領(lǐng)域甚至可能超出人類的認(rèn)知,具備新穎性和創(chuàng)造性。然而,在專利法的要求下,是否滿足生成物的實(shí)用性標(biāo)準(zhǔn)仍存在較大爭議。因此,將生成物視為作品或通過專利來保護(hù)生成物的知識(shí)產(chǎn)權(quán)在法律上仍然面臨挑戰(zhàn)和爭議。對(duì)于這些問題,學(xué)術(shù)界和法律界需要進(jìn)一步探討和制定相關(guān)的法規(guī)和政策。
針對(duì)當(dāng)前我國中小學(xué)生成式人工智能教育應(yīng)用政策制定的必要性以及對(duì)日本《中小學(xué)生成式人工智能教育應(yīng)用指南》的分析,研究從價(jià)值觀、素養(yǎng)觀、應(yīng)用觀和政策觀四個(gè)方面提出了面向中小學(xué)生成式人工智能教育應(yīng)用政策的制定策略,旨在為我國生成式人工智能未來在中小學(xué)教育應(yīng)用提供政策參考與實(shí)踐證據(jù)。
(一)價(jià)值觀:重視技術(shù)應(yīng)用導(dǎo)致的道德價(jià)值觀問題
生成式人工智能的迅速發(fā)展引發(fā)了關(guān)于人類與機(jī)器價(jià)值觀一致性問題的爭議,即我們?nèi)绾螞Q定在生成式人工智能中編碼哪些原則或目標(biāo),以及誰有權(quán)做出這些決定。生成式人工智能價(jià)值觀一致性的意義是確保強(qiáng)大的生成式人工智能與人類價(jià)值保持一致,使其按照人類的價(jià)值觀和道德準(zhǔn)則服務(wù)人類。事實(shí)上,隨著計(jì)算機(jī)系統(tǒng)擁有更強(qiáng)的自主性和“人類評(píng)估系統(tǒng)行為是否道德的能力正在逐漸減弱”,向生成式人工智能灌輸?shù)赖聝r(jià)值觀的任務(wù)變得越來越重要[14]。關(guān)于價(jià)值觀一致性的問題包含兩個(gè)方面,一方面是技術(shù)性的,重點(diǎn)是如何將價(jià)值觀或原則編碼到人工智能產(chǎn)品中,以便它們可靠地做它們應(yīng)該做的事情;另一方面是規(guī)范性,即我們應(yīng)該在人工智能中編碼什么樣的價(jià)值觀或原則。確保生成式人工智能系統(tǒng)與人類的價(jià)值觀保持一致并非易事。生成式人工智能系統(tǒng)的決策可能受到算法設(shè)計(jì)、數(shù)據(jù)輸入和訓(xùn)練過程等方面的影響,這些因素都可能引入偏見和不公平。因此,需要制定合適的準(zhǔn)則和規(guī)范,以保證生成式人工智能系統(tǒng)在決策和行為上尊重人類的價(jià)值觀[15]。關(guān)于如何確定生成式人工智能應(yīng)該遵循哪種價(jià)值觀,需要廣泛的社會(huì)參與和多方的協(xié)商,各個(gè)利益相關(guān)者包括政府、學(xué)術(shù)界、產(chǎn)業(yè)界以及公眾都應(yīng)該積極參與到生成式人工智能倫理的討論和決策中,共同制定適用于人工智能系統(tǒng)的價(jià)值導(dǎo)向和原則。
生成式人工智能技術(shù)的突飛猛進(jìn)與教育應(yīng)用,對(duì)未成年人的信息道德素養(yǎng)和價(jià)值觀產(chǎn)生了持續(xù)沖擊,由此引發(fā)了各類“道德危機(jī)”和價(jià)值觀培育問題[16]。生成式人工智能并不是生動(dòng)的、活潑的,具有創(chuàng)造力和自我意識(shí)的人,缺乏人類的道德感和法律底線。因而,生成式人工智能在與中小學(xué)學(xué)生進(jìn)行交互的過程中若受到人為的、惡意的不良誘導(dǎo),也會(huì)輸出不好的、違反倫理道德和法律法規(guī)的信息。人貫穿教育過程的始末,人的價(jià)值觀應(yīng)由人類定義,而不能交由算法或機(jī)器操縱。教育的本質(zhì)在于培養(yǎng)人,教育的意義在于培養(yǎng)人類的思想、知識(shí)和技能,使人擁有正確的價(jià)值觀和道德觀,可以更好地認(rèn)識(shí)自己和改造世界。因此,在中小學(xué)應(yīng)用生成式人工智能時(shí),必須將價(jià)值觀取向從算法轉(zhuǎn)向人類,將人類價(jià)值觀置于教育目標(biāo)的核心位置。學(xué)校應(yīng)充分開展使學(xué)生認(rèn)識(shí)到生成式人工智能存在缺陷的學(xué)習(xí)活動(dòng),要重視學(xué)生信息道德和價(jià)值觀的培育,幫助學(xué)生樹立正確的道德觀、價(jià)值觀和法治觀,有效提升學(xué)生的信息道德意識(shí),統(tǒng)籌兼顧生成式人工智能應(yīng)用和個(gè)人隱私保護(hù),促使學(xué)生不受到錯(cuò)誤價(jià)值觀的影響。同時(shí),選擇智能算法應(yīng)用和確定價(jià)值取向必須由人類自主決策,而非被動(dòng)地基于個(gè)人偏好或外部干預(yù)。我們應(yīng)推動(dòng)智能算法實(shí)現(xiàn)“技術(shù)向善”,讓其始終受到人類價(jià)值觀的引導(dǎo)和控制,最終目標(biāo)是以社會(huì)主義核心價(jià)值觀為基礎(chǔ),實(shí)現(xiàn)技術(shù)的去魅和去權(quán),重視個(gè)體真實(shí)需求,恢復(fù)人的本質(zhì)和價(jià)值,從而實(shí)現(xiàn)人全面而自由的發(fā)展。
(二)素養(yǎng)觀:關(guān)注中小學(xué)師生智能信息素養(yǎng)的培育
智能信息素養(yǎng)是中小學(xué)教育的一個(gè)重要目標(biāo),它是對(duì)學(xué)生應(yīng)用智能信息工具、智能信息能力和智能信息資源,進(jìn)行問題求解、思維發(fā)展和應(yīng)用創(chuàng)新的高階能力的培養(yǎng)[17],是人工智能時(shí)代對(duì)學(xué)生發(fā)展的要求。智能信息素養(yǎng)對(duì)學(xué)生在當(dāng)前社會(huì)中取得成功意義重大[18],智能信息素養(yǎng)的提高可以幫助學(xué)習(xí)者更好地獲取、利用、評(píng)價(jià)信息和智能工具,從而提高學(xué)習(xí)效率和學(xué)習(xí)成果,也可以幫助學(xué)習(xí)者有效地與同伴交流并實(shí)現(xiàn)學(xué)術(shù)目標(biāo)[19],同時(shí),智能信息素養(yǎng)還可以幫助學(xué)習(xí)者更好地適應(yīng)社會(huì)發(fā)展和變化,提高社會(huì)競(jìng)爭力。此外,智能信息素養(yǎng)也包含價(jià)值觀層面的智能信息道德,智能信息道德是智能社會(huì)最基本的倫理道德,是以互聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能等為代表的現(xiàn)代智能化社會(huì)健康有序發(fā)展的重要保障,更是個(gè)體在智能社會(huì)中生存的必備素養(yǎng)[20]。良好的智能信息道德不僅可以保障中小學(xué)生合理、安全參與信息活動(dòng),更是國家安全及社會(huì)穩(wěn)定的構(gòu)成要件。因此,未來我國需變革教學(xué)模式、教學(xué)方法,高度重視中小學(xué)階段學(xué)生智能信息素養(yǎng)的培育。
教師在幫助學(xué)生培養(yǎng)智能信息素養(yǎng)方面發(fā)揮著重要作用[21],如果沒有教師正確引導(dǎo),學(xué)生不太可能發(fā)展更好的智能信息素養(yǎng)[22]。因此,許多國家和國際組織,如國際教育技術(shù)協(xié)會(huì)和歐盟,都將培養(yǎng)學(xué)生智能信息素養(yǎng)視為教師重要的智能信息素養(yǎng)組成部分。教師的智能信息素養(yǎng)具有多層次性,不同層面的因素,如個(gè)人因素和學(xué)校層面的因素,都可能影響教師的智能信息素養(yǎng)[23]。教師個(gè)人對(duì)智能技術(shù)的利用、自我效能感和態(tài)度可能會(huì)影響教師智能信息素養(yǎng)。學(xué)校的特點(diǎn)(如教學(xué)資源)也可能會(huì)通過影響教學(xué)經(jīng)驗(yàn)進(jìn)而影響教師的智能信息素養(yǎng)。因此,未來需要進(jìn)一步關(guān)注教師智能信息素養(yǎng)的培養(yǎng),并為相關(guān)各方提供實(shí)用的指導(dǎo),以確定學(xué)校資源的優(yōu)先次序,提高教師培養(yǎng)學(xué)生智能信息素養(yǎng)的能力。此外,教師智能信息素養(yǎng)發(fā)展也要求教師發(fā)生角色轉(zhuǎn)變,要由傳統(tǒng)教學(xué)中的“權(quán)威者”轉(zhuǎn)變?yōu)檩o導(dǎo)者、幫助者、引導(dǎo)者。生成式人工智能為教師提供了更多的教學(xué)工具、資源和個(gè)性化教學(xué)支持,提升了教學(xué)效果和教學(xué)質(zhì)量,促進(jìn)了教育的創(chuàng)新和發(fā)展。然而,教師在應(yīng)用生成式人工智能時(shí)也需要保持對(duì)技術(shù)的深刻理解,結(jié)合自身專業(yè)知識(shí)和經(jīng)驗(yàn),發(fā)揮教師的判斷和指導(dǎo)作用。換句話說,生成式人工智能促進(jìn)教師角色轉(zhuǎn)變,其發(fā)展方向不是取代人類,而是與人類互補(bǔ)、增強(qiáng)人類的能力。教師要積極應(yīng)對(duì)生成式人工智能帶來的沖擊與改革創(chuàng)新,努力提升自身能力,實(shí)現(xiàn)從“教書匠”到“學(xué)習(xí)興趣激發(fā)者”“能力培養(yǎng)者”“心靈溝通者”“行為示范者”“教育研究者”的角色轉(zhuǎn)變。
(三)應(yīng)用觀:明確中小學(xué)生成式人工智能教育應(yīng)用的邊界
生成式人工智能在中小學(xué)教育應(yīng)用可以分為兩個(gè)方面,一是確定生成式人工智能在教學(xué)過程中的使用范圍和時(shí)機(jī),二是探討如何有效地運(yùn)用生成式人工智能進(jìn)行教育教學(xué)。第一個(gè)方面需確立生成式人工智能應(yīng)用的標(biāo)準(zhǔn)和時(shí)機(jī)。目前,我國中小學(xué)對(duì)生成式人工智能教育應(yīng)用的探索還處于初級(jí)階段,缺乏明確的理論指導(dǎo)和政策規(guī)范,對(duì)于在哪些環(huán)節(jié)可以使用生成式人工智能、在哪些環(huán)節(jié)不能使用以及何時(shí)使用仍然存在疑問。只有在適當(dāng)?shù)慕虒W(xué)環(huán)節(jié)和階段,生成式人工智能才能發(fā)揮巨大的作用,如若隨意使用,可能會(huì)適得其反。因此,未來應(yīng)從法律角度明確生成式人工智能在教育教學(xué)中的具體應(yīng)用節(jié)點(diǎn)和時(shí)機(jī),以促進(jìn)生成式人工智能在教師教學(xué)和學(xué)生學(xué)習(xí)中發(fā)揮應(yīng)有的作用;第二個(gè)方面要求促進(jìn)生成式人工智能與教育教學(xué)深度融合。生成式人工智能具備啟發(fā)內(nèi)容生成能力、對(duì)話情境理解能力、序列任務(wù)執(zhí)行能力和程序語言解析能力等核心能力,其在教師教學(xué)、學(xué)習(xí)過程、教育評(píng)價(jià)、學(xué)業(yè)輔導(dǎo)等方面存在巨大的教育應(yīng)用潛力。然而,當(dāng)下生成式人工智能教育應(yīng)用的主要范疇依然集中在習(xí)題生成、自動(dòng)解題、輔助批閱等淺層應(yīng)用,關(guān)于利用生成式人工智能對(duì)學(xué)習(xí)者學(xué)習(xí)過程和學(xué)習(xí)行為進(jìn)行過程追蹤分析,對(duì)于支撐和完善學(xué)習(xí)者作品創(chuàng)作、審美鑒賞與表達(dá),幫助教師備課和教學(xué)等重要環(huán)節(jié)的融合依然不夠。歸根到底,當(dāng)前生成式人工智能的教育應(yīng)用依然是技術(shù)視角,以技術(shù)應(yīng)用為根本目的,忽視了技術(shù)應(yīng)服務(wù)教育教學(xué)的使用初心。未來教師要充分利用生成式人工智能技術(shù)的優(yōu)勢(shì),促進(jìn)學(xué)生深度學(xué)習(xí),把學(xué)生對(duì)知識(shí)的掌握運(yùn)用、能力培養(yǎng)、情感體驗(yàn)的提升作為課堂教學(xué)的核心和主要目標(biāo)。學(xué)生要將生成式人工智能當(dāng)作認(rèn)知工具、協(xié)作交流工具、情感體驗(yàn)與內(nèi)化工具,幫助自己由知識(shí)灌輸?shù)膶?duì)象和外部刺激的被動(dòng)接受者轉(zhuǎn)變?yōu)樾畔⒓庸さ闹黧w、知識(shí)意義的主動(dòng)建構(gòu)者和情感體驗(yàn)與內(nèi)化的主體。
(四)政策觀:采取證據(jù)導(dǎo)向的“試點(diǎn)—推廣”教育應(yīng)用普及模式
教育是一個(gè)復(fù)雜的生態(tài)系統(tǒng),教育政策的敲定落實(shí)需要慎重考慮教育的方方面面。基于證據(jù)的“試點(diǎn)—推廣”教育普及模式是一種經(jīng)過實(shí)證研究、驗(yàn)證和評(píng)估的教育改革和創(chuàng)新模式。在這個(gè)模式下,針對(duì)中小學(xué)教育領(lǐng)域,首先通過小范圍生成式人工智能教育應(yīng)用試點(diǎn)項(xiàng)目來測(cè)試教育改革的可行性、有效性和影響力,確保其基于充分的研究證據(jù)和理論支持[24]。試點(diǎn)項(xiàng)目會(huì)收集生成式人工智能教育應(yīng)用的相關(guān)數(shù)據(jù)和反饋意見,進(jìn)行評(píng)估和分析。如果試點(diǎn)項(xiàng)目取得成功并顯示出積極的效果,便會(huì)進(jìn)入推廣階段,將其應(yīng)用到更大范圍的教育實(shí)踐中。在推廣階段,經(jīng)過精心規(guī)劃和策劃,將成功的試點(diǎn)項(xiàng)目擴(kuò)大應(yīng)用到更多學(xué)校、教師和學(xué)生群體中。同時(shí),為了確保推廣的可持續(xù)性和有效性,還需建立相應(yīng)的支持體系、培訓(xùn)機(jī)制和監(jiān)測(cè)評(píng)估機(jī)制,以持續(xù)跟蹤和改進(jìn)教育創(chuàng)新的實(shí)施效果。基于證據(jù)的“試點(diǎn)—推廣”教育普及模式強(qiáng)調(diào)對(duì)生成式人工智能引發(fā)的教育改革和創(chuàng)新的科學(xué)性和實(shí)效性的關(guān)注,能夠?qū)?shí)證研究和理論與實(shí)踐緊密結(jié)合起來,促使教育改革更有效地推廣和普及,對(duì)于提升教育質(zhì)量和教育公平性具有重要意義。因而,制定面向我國中小學(xué)的生成式人工智能教育應(yīng)用政策時(shí),可以考慮使用證據(jù)導(dǎo)向的“試點(diǎn)—推廣”教育普及模式,利用科學(xué)有效的證據(jù)來指導(dǎo)教育政策和實(shí)踐的制定,以確保教育資源的合理分配,并提供有針對(duì)性的支持和干預(yù)措施,提高生成式人工智能在中小學(xué)應(yīng)用的效果與質(zhì)量。
生成式人工智能在中小學(xué)教育中的應(yīng)用具有巨大潛力,但也不可避免地引起了技術(shù)之于教育的各種風(fēng)險(xiǎn)問題。歸根到底,生成式人工智能的“生成”本質(zhì)更接近于技術(shù)的高級(jí)迭代拼接,其并不是具有自我意識(shí)和創(chuàng)造力的生動(dòng)活潑的人。生成式人工智能的“生成”意味著高度的工具理性,具有預(yù)設(shè)性、本質(zhì)性和同一性等重要特征,因而導(dǎo)致了生成式人工智能在中小學(xué)教育應(yīng)用面臨著隱私和數(shù)據(jù)安全、倫理道德、公平與包容性、技術(shù)與教育融合、教師轉(zhuǎn)型和能力提升,以及法律和監(jiān)管等關(guān)鍵挑戰(zhàn)。當(dāng)然,生成式人工智能也并不非“洪水猛獸”,通過深刻認(rèn)識(shí)生成式人工智能的本質(zhì)特征、技術(shù)特點(diǎn)、應(yīng)用場(chǎng)景以及其對(duì)中小學(xué)教育的可能影響,制定明確中小學(xué)生成式人工智能教育應(yīng)用的發(fā)展方向和目標(biāo)政策,以此生發(fā)出可被接納的“抗體”,可以推動(dòng)生成式人工智能在中小學(xué)教育中的可持續(xù)發(fā)展和創(chuàng)新應(yīng)用,并為學(xué)生提供更優(yōu)質(zhì)的教育體驗(yàn),為培育適應(yīng)面向智能時(shí)代的全面發(fā)展的人提供創(chuàng)新路徑。
參考文獻(xiàn):
[1] 新華社.2020年我國未成年網(wǎng)民規(guī)模達(dá)1.83億[EB/OL].https:// news.cctv.com/2021/07/20/ARTIS9P1ZBRJ62MycJi0Bup3210720. shtml,2021-07-20.
[2] Stone P,Brooks R,et al.Artificial intelligence and life in 2030:the one hundred year study on artificial intelligence [EB/OL]. https://arxiv.org/ abs/2211.06318,2022-10-31.
[3] 中村純,岡部成玄等.情報(bào)倫理教育 [J].メディア教育研究,2010,6(2):S33 -S43.
[4] 玉田和恵.人工知能による社會(huì)情報(bào)システムとどう向き合うか~ 個(gè)人情報(bào)保護(hù)法と教育データの利活用を題材として~ [J].江戸川大學(xué)の情報(bào)教育と環(huán)境,2023,20:45-50.
[5] Lipton Z C.The mythos of model interpretability:In machine learning, the concept of interpretability is both important and slippery [J]. Queue,2018,16(3):31-57.
[6] Burrell J.How the machine ‘thinks’:Understanding opacity in machine learning algorithms [J].Big data society,2016,3(1):1-12.
[7] Sandvig C,Hamilton K,et al.Auditing algorithms: Research methods for detecting discrimination on internet platforms [J].Data and discrimination:converting critical concerns into productive inquiry,2014,22 (2014):4349-4357.
[8] 董春雨.從機(jī)器認(rèn)識(shí)的不透明性看人工智能的本質(zhì)及其限度[J].中國社會(huì)科學(xué),2023,(5):148-166+207-208.
[9] Stahl B C,Wright D.Ethics and privacy in AI and big data: Implementing responsible research and innovation [J].IEEE Security Privacy,2018,16(3):26-33.
[10] Siau K,Wang W.Artificial intelligence (AI) ethics:ethics of AI and ethical AI [J].Journal of Database Management (JDM),2020,31(2):74-87.
[11] Pereira A,Thomas C.Challenges of machine learning applied to safety-critical cyber-physical systems [J].Machine Learning and Knowledge Extraction,2020,2(4):579-602.
[12] McDermid J A,Jia Y,et al.Artificial intelligence explainability:the technical and ethical dimensions [J].Philosophical Transactions of the Royal Society A,2021,379(2207):1-18.
[13] 白鈞溢,于偉.超越“共識(shí)”:教育人工智能倫理原則構(gòu)建的發(fā)展方向[J].中國電化教育,2023,(6):9-17.
[14] Allen F,Qian J,Qian M.Law,finance,and economic growth in China [J]. Journal of financial economics,2005,77(1):57-116.
[15] 孫立會(huì),王曉倩.人工智能之于教育的未來圖景:機(jī)器行為學(xué)視角[J].中國電化教育,2022,(4):48-55+70.
[16] 方佳誠,張文蘭.日本中小學(xué)信息道德教育:歷程、挑戰(zhàn)與啟示[J].外國教育研究,2023,50(3):19-36.
[17] 鐘志賢.面向終身學(xué)習(xí):信息素養(yǎng)的內(nèi)涵、演進(jìn)與標(biāo)準(zhǔn)[J].中國遠(yuǎn)程教育,2013,(8):21-29+95.
[18] Fosnacht K.Information literacy’s influence on undergraduates’ learning and development: Results from a large multi-institutional study [J]. College Research Libraries, 2017,81(2):1-28.
[19] Aydin M. Does the digital divide matter Factors and conditions that promote ICT literacy [J].Telematics and Informatics,2021,58:1-30.
[20] 魏軼娜,祝新宇.面向智能時(shí)代的中小學(xué)生信息道德教育研究——基于教材分析的視角[J].中國德育,2022,(13):32-36.
[21] Weber H,Hillmert S, Rott K J.Can digital information literacy among undergraduates be improved Evidence from an experimental study [J]. Teaching in Higher Education,2018,23(8):909-926.
[22] Claro M,Salinas á,et al.Teaching in a Digital Environment (TIDE):Defining and measuring teachers’ capacity to develop students’ digital information and communication skills [J].Computers Education,2018,121:162-174.
[23] Lorenz R,Endberg M,et al.Predictors of fostering students’ computer and information literacy-analysis based on a representative sample of secondary school teachers in Germany [J].Education and Information Technologies,2019,24:911-928.
[24] 孫立會(huì),劉思遠(yuǎn)等.面向2035的中國教育信息化發(fā)展圖景——基于《中國教育現(xiàn)代化2035》的描繪[J].中國電化教育,2019,(8):1-8+43.
作者簡介:
孫立會(huì):副教授,博士生導(dǎo)師,研究方向?yàn)槿斯ぶ悄芙逃龖?yīng)用。
周亮:在讀博士,研究方向?yàn)槿斯ぶ悄芙逃龖?yīng)用。
Pathways to Generative AI Education Policy Development for Elementary and Secondary Schools
—Analysis based on “Japan’s Interim Guidelines for the Utilization of Generative AI at the Elementary and Secondary Education Levels”
Sun Lihui, Zhou liang
(School of Education, Minzu University of China, Beijing 100081)
Abstract: The emergence of Generative Artificial Intelligence (AI) has once again triggered an “adverse immune” reaction to technology in education. The essence of generative artificial intelligence is nothing more than a large-scale language model with the function of “advanced replication”, which does not have human self-awareness and creativity. Therefore, the application of generative AI in primary and secondary education may have the problem of “technology fetishism” due to the lack of human morality, the generation of erroneous content based on bad data, the lack of targeted policy guidelines for the application of basic education, and the resulting chaotic application of education. Instead of “rejecting” the many risks posed by generative AI, it is more important to formulate and clarify the development direction and target policies for generative AI educational applications in primary and secondary schools in order to generate “antibodies” that can be accepted. The Ministry of Education, Culture, Sports, Science and Technology (MEXT) of Japan released the world’s first “Guidelines for Generative Artificial Intelligence Educational Applications in Elementary and Middle Schools” in July 2023, which points out the direction of action for the application of generative AI in elementary and middle schools, and provides a panoramic portrayal of the application of generative AI in elementary and middle schools based on the essence of generative AI and the concept of its application, and clearly puts forward the important initiatives and core concerns of generative AI in elementary and middle school education applications. The core concerns of the application of generative AI in primary and secondary education are clearly presented. Based on this, we should construct a roadmap for the development of policies on the educational application of generative AI in primary and secondary schools in China from the four levels of values, literacy, application, and policy, and pay more attention to the reshaping of ethical values that may be triggered by the application of the technology in the process, as well as continue to pay attention to the cultivation of the intelligent information literacy of primary and secondary school teachers and students, further clarifying the boundaries of the educational application of generative AI, and adopting the evidence-oriented “pilot-propagation” approach as much as possible. As far as possible, it should adopt an evidence-based “pilot-promotion” model of popularizing educational applications.
Keywords: generative Artificial Intelligence; elementary and secondary schools; Japan; policy; path of action
責(zé)任編輯:趙云建