胡小勇 黃婕 林梓柔 黃漫婷







摘要:人工智能在賦能教育高速發展的同時,也面臨著嚴峻的倫理挑戰。厘清教育人工智能倫理的內涵框架,刻畫當代大學生倫理認知的現狀,進而提煉可行的風險規避策略,成為重要的研究問題。基于對國家政策和國內外文獻的研讀,運用德爾菲法經兩輪修訂和完善,最終確定的教育人工智能倫理內涵框架包括“人機協同與自立自主”“學生福祉與發展”“公平與持續發展”“安全與可控可信”4個一級維度和12個二級維度。以此為基礎編制問卷并進行調查分析的結果表明,大學生對教育人工智能倫理的認知存在不均衡現象,在“公平與持續發展”“安全與可控可信”兩個維度上得分較低,且學歷層次、年級以及對人工智能的了解程度等均對大學生的教育人工智能倫理認知產生了顯著影響。當前教育人工智能倫理建設存在缺乏精準的規范與指引、人文關懷與價值引領缺位、技術自身存在局限、學習資源建設粗放等難題,未來可采取樹立以立德樹人為核心價值導向的教育人工智能倫理建設原則、編制教育人工智能倫理規范指南、提升教師智能教育素養水平、以智能技術反向賦能倫理建設,以及建設公益性學習資源等策略來規避風險。唯有將倫理規范嵌入到教育人工智能全生命周期,才能更好地構建新型智能教育生態。
關鍵詞:教育人工智能;倫理內涵;倫理認知;倫理風險;德爾菲法
中圖分類號:G434 ? 文獻標識碼:A ? ?文章編號:1009-5195(2022)02-0021-09 ?doi10.3969/j.issn.1009-5195.2022.02.003
基金項目:2019年度國家社科基金重大項目“人工智能促進未來教育發展研究”(19ZDA364);2022年廣東省科技創新戰略專項資金(“攀登計劃”專項資金)“面向大學生的教育人工智能倫理內涵與風險規避對策研究”(pdjh2022b0146)。
作者簡介:胡小勇,博士,教授,博士生導師,華南師范大學教育人工智能研究院,華南師范大學教育信息技術學院(廣東廣州 510631);黃婕,碩士研究生,華南師范大學教育信息技術學院(廣東廣州 510631);林梓柔(通訊作者),博士研究生,華東師范大學教育信息技術學系(上海 200062);黃漫婷,碩士研究生,華南師范大學教育信息技術學院(廣東廣州 510631)。
一、引言
如果人工智能變得太聰明,做出超出人類思維能力的決策怎么辦?美國前國務卿亨利·基辛格(Henry Kissinger)在《啟蒙如何終結》中提出警告,“技術革命的秩序動蕩不安,我們最終將處于依據算法和數據驅動、不受倫理道德規范的機器世界”(Kissinger,2018)。伴隨人工智能在教育領域中的規模化應用,諸如教育隱私數據泄露、算法歧視與不透明、教育主體情感交流危機等倫理風險已經引起世界各國關注。美國與英國分別頒布《為人工智能的未來做好準備》和《人工智能:未來決策制定的機遇與影響》政策文件,為人工智能的發展和應用提供了路徑指引。我國也陸續出臺了《新一代人工智能治理原則——發展負責任的人工智能》和《新一代人工智能倫理規范》(以下簡稱《倫理規范》)等政策文件,對人工智能發展和應用中的倫理問題進行了規范指引。為推動人工智能在教育領域的健康發展,聯合國教科文組織(UNESCO)亦研制了《教育中的人工智能:可持續發展的機遇與挑戰》和《北京共識——人工智能與教育》(以下簡稱《北京共識》)等報告,呼吁和引領人工智能教育應用的健康且可持續發展。
在此背景下,國內已有學者對教育人工智能的倫理內涵與特征(趙磊磊等,2021)、倫理原則(鄧國民等,2020)、倫理風險規避的有效路徑(于英姿等,2020)等進行了有益研討。這些研究偏向于宏觀的思辨探討,尚未有研究聚焦可操作、量化的教育人工智能倫理內涵分析和實踐調研。大學生處于更加自由、彈性和泛在化的學習環境中,既是使用人工智能的重要群體,亦是重要的利益相關者,他們在與人工智能協同共處的過程中更容易出現隱私泄露、信息繭房、價值沖擊等倫理風險。因此,本研究力圖構建針對大學生的教育人工智能倫理內涵框架,并開展大規模調研以探究大學生對教育人工智能倫理認知的現狀。
二、當前教育人工智能倫理研究的焦點
當前學界對教育人工智能倫理的研究主要聚焦在倫理內涵、倫理原則、倫理風險規避三大方面。
1.倫理內涵:探究教育活動中的人機倫理關系
何為倫理?倫理是指人與人相處應遵循的道德準則,它包括客觀的倫理關系及其外在規約(李建華,2020)。目前,人工智能引發的倫理風險已受到各國政府、組織和學者的關注,并引發了其對人與技術間倫理關系的進一步審視。例如,中國發布的《倫理規范》(中華人民共和國科學技術部,2021)和美國發布的《合乎倫理的人工智能框架》(Hogenhout,2021)均強調人工智能要為人類帶來福祉,促進兩者和諧美好。
教育人工智能作為教育領域的人工智能技術及系統,遵循人工智能的發展理念和以人為本的教育理念,關注人與機器的協作與交互,旨在賦能教育發展與變革(徐曄,2018;郝祥軍等,2019)。面向新型人機關系的構建,《北京共識》強調教育人工智能要以人為本,考慮其對人和教育的多重影響,形成系統戰略(中華人民共和國教育部,2019)。杜靜等(2019)指出人機如何和諧共處是教育人工智能倫理建構的關鍵。劉三女牙等(2021)也指出,教育主體與教育人工智能之間的關系是教育人工智能倫理研究的重要內容。綜上而言,厘清人工智能與人的關系,構建倫理框架、規范及原則為教育主體帶來福祉(Siau et al.,2020),促進兩者協同共生,是教育人工智能倫理內涵研究的核心。
2.倫理原則:尊重和體現學生主體的發展需求
已有研究探討了人工智能倫理原則,要求從有益、安全、可釋、公平、穩健等方面打造合乎倫理的人工智能(Hogenhout,2021),做到透明可釋、公平公正、科技向善、責任擔當、保護隱私等(Jobin et al.,2019;AI HLEG,2019),充分體現了作為主體的人的發展需求。
除了遵循上述一般性的倫理原則,教育人工智能亦需遵循教育規律,尤其要考慮教育主體中學生的發展需求。對教育主體而言,教育人工智能應以算法、關系、情感、資源為視角(趙磊磊等,2021),以仁愛為出發點,確保教育公平公正,且能最大程度地支持教育決策(鄧國民等,2020)。針對學習者,李曉巖等(2021)還提出形塑自我原則,包含良善、誠信與節制。綜上,學生作為人工智能的使用者和受用者,應秉持善用、恰用的準則,并有權力管控隱私數據(沈苑等,2019)、享受學習樂趣(Aiken et al.,2000)、依據技術做出決策(Nichols et al.,2018),從而享有更加公平且高質量的教育,促進自身健康、全面和個性化發展。因此,教育人工智能倫理原則須以人工智能倫理原則為基礎,彰顯公平、包容與數據算法使用合乎倫理的理念,尊重和凸顯學生的發展需求。
3.倫理風險規避:技術設計與教育價值的雙向規約
教育人工智能的倫理問題百般復雜,但主要來源于兩個方面。一是技術設計與開發方面,算法易導致學生發展路徑固化并帶來偏見(Tuomi,2018),數據過度采集易加劇學生隱私數據泄露的風險(李世瑾等,2021)。二是教育實踐方面,人工智能的應用可能導致教育不公平問題,以及師生關系、學生與技術的關系發生異化(吳河江等,2020)。針對上述問題,一方面要明確技術開發理念,遵循教育價值引導下的技術規范和科學標準(馮銳等,2020),不斷優化算法。另一方面,學生應成為倫理的積極實踐者(羅生全等,2020),對可能出現的風險持有清晰的認知,端正態度,掌握知識,遵循規范,合理運用技術,接受他人監督(李曉巖等,2021)。學校層面應開設人工智能課程,從意識態度、知識理解、應用實踐等方面滲透倫理教育(Burton et al.,2017)。但倫理風險規避不是一蹴而就的,仍面臨嚴峻的挑戰與考驗。例如,面對復雜的教育場景,宏觀的人工智能倫理規范雖為教育人工智能提供了前瞻性認識指導,但仍未形成公認的規范準則(沈苑等,2019),其深入應用過程仍存在困難。另外,人工智能風險分析研究尚不深入,難以提供預警防范;以及人工智能課程資源有限,亦為倫理原則實踐增加了難度(楊現民等,2018)。
綜上所述,如何從學生的倫理認知角度破題析因、找尋對策,是支撐教育人工智能與學生協同共處,促進學生全面發展的關鍵。因此,研究基于綜述分析,構建了面向大學生的教育人工智能倫理內涵框架,通過調研了解大學生對教育人工智能倫理認知的現狀,并從自上而下和自下而上相結合的視角提出了倫理風險規避對策,以期為教育人工智能助力構建新型智能教育生態提供指導建議。
三、研究設計與實施
研究設計與實施分為三個階段,如圖1所示。在倫理內涵框架制定階段,依據政策和文獻研究,經過專家咨詢及多輪迭代制定并修改倫理內涵框架。在倫理認知現狀問卷設計階段,針對大學生群體制定問卷并開展預調研。在調研正式實施階段,以問卷調查為主、以訪談為輔探究大學生對教育人工智能倫理的認知現狀。在此基礎上,研究還剖析了倫理建設難點問題,并提出相應的對策建議。
1.倫理內涵框架制定
研究以教育人工智能倫理內涵為出發點,遵循人工智能倫理規范與要求,結合教育發展特征和學生發展需求,主要參考《合乎倫理的人工智能框架》,初步構建了教育人工智能倫理內涵框架。例如,借鑒《合乎倫理的人工智能框架》中的“有益”“公平”“數據”“安全可釋”而改編為本研究的“發展助力”“多元包容”“數據管理”“安全可靠”4個維度,同時基于智能依賴、價值沖擊等倫理風險及形塑自我原則,提出“自主維護”維度。最終,面向大學生的教育人工智能倫理內涵框架由自主維護、發展助力、多元包容、數據管理和安全可靠5個維度構成,并將其進一步細分為17個子維度,包括自主思考、自我肯定、自我約束、學習提升、健康保障、人際交往、情感引導、尊重差異、多元豐富、反饋說明、環境友好、數據授權、數據知情、數據保護、穩健可靠、風險抵御、透明可釋。
為確保框架的科學合理性,研究采用德爾菲法,邀請16名專家開展了兩輪咨詢,以變異系數高于0.25為維度篩選標準來修改和完善框架。
在第一輪咨詢中,專家對各維度設置表示肯定,但認為維度命名與描述仍需優化。(1)“自主維護”:維度命名容易與“技術系統維護”相混淆;(2)“發展助力”:可刪除“身體健康”,并將關于學習發展的內容納入其中;(3)“多元包容”:“環境友好”與“節省資源”表述欠佳;(4)“數據管理”與“安全可靠”:合并兩個維度的內容。結合專家建議,研究將“環境友好”改為“可持續發展”,將“自主維護”改為“自立自主”,合并“數據管理”與“安全可靠”,并修訂部分維度的描述。
在第二輪咨詢中,專家對各維度的平均分、標準差和變異系數分別在8.19~9.38(滿分為10分)、0.86~2.01、0.09~0.23的范圍內,表明專家意見分歧大幅減少,倫理內涵框架構建的科學性獲得較高認同。同時,專家建議將“反饋解惑”刪除,維度命名還應體現《倫理規范》的要求。通過進一步優化維度名稱及其表述,研究最終提出了涵蓋“人機協同與自立自主、學生福祉與發展、公平與持續發展、安全與可控可信”4個一級維度以及12個二級維度的倫理內涵框架(如表1)。
2.調研對象
研究選取大學生為調研對象,主要基于兩點考慮:一是大學生是使用智能技術的主要群體,他們對教育人工智能的倫理認知比中小學生更為深刻,且學習生活更具彈性也相對自由,但其尚未形成良好的自我管理能力(張敏等,2021),缺乏來自外界的規約,面臨較為嚴峻的倫理風險。二是高校人工智能倫理教育推進緩慢(任安波等,2020),因此亟需全面了解大學生群體的倫理認知現狀,以為高校倫理教育改革提供證據。
3.調研設計與實施
根據已確定的面向大學生的教育人工智能倫理內涵框架,編制調查問卷。問卷包括導語、基本信息及認知現狀調研主體三部分。其中,認知現狀調研共有23道題,題項均采用李克特5點量表。要求大學生根據實際情況作答,數值越高,表示符合程度越高。該問卷主體部分的信效度良好(Cronbach’s α=0.912,KMO=0.944,Sig.=0.000),達到了施測的要求。問卷以在線形式隨機發放,共回收3474份。在清洗數據時,刪除以下樣本:(1)問卷填寫對象不是大學生;(2)填寫時間過短;(3)有效性檢驗題未通過;(4)題項標準分|Z|>=3。最終,研究得到有效問卷2519份,有效率為72.5%。回收的有效問卷中,本專科生有2274名,研究生有245名。
四、數據結果分析
1.大學生對教育人工智能倫理認知的畫像
從圖2可知,整體而言,大學生對教育人工智能倫理認知的總維度得分均值為3.73分,尚未達到“比較滿意”的程度。各一級維度得分均值均高于3分,但彼此之間存在差距。其中“公平與持續發展”和“安全與可控可信”得分相對較低。由此可見,教育人工智能在設計、開發、應用中的公平性、普惠性、安全性與可靠性還有待改善。
從“人機協同與自立自主”的二級維度得分可知(見圖3),大學生能堅守道德底線和法律底線,有意識地成為一名誠信的技術使用者,與教育人工智能實現基本的協同,不會輕易否認自身價值。但他們對教育人工智能的依賴性較強,使得思考的獨立性和自主性有所降低,維度均值僅為3.53分。對數據的進一步分析表明,近40%的大學生可能由于課業壓力大、管理能力不強等原因而面臨這方面的倫理風險。
從“學生福祉與發展”的二級維度得分可知(見圖3),教育人工智能能夠基本滿足大學生的個性化學習需求,固化成長路徑的現象并不嚴重。溝通能力是智能時代大學生協同合作的重要能力。但大學生的人際交往和情感交流能力在一定程度上被削弱。統計得出,43%的大學生容易忽視了與他人的正常交往;35%的大學生正面臨情感交流危機。
從“公平與持續發展”的二級維度得分可知(見圖3),教育人工智能的公平性和包容性相對較弱,未能兼顧所有大學生的發展需求,對弱勢群體和特殊群體的關照不到位。同時,該維度下的“可持續發展”得分也相對更低(得分為3.50分),表明大學生不太關注教育人工智能可能帶來的環境影響,其可持續性有待加強。
從“安全與可控可信”的二級維度得分可知(見圖3),教育人工智能的安全性、可靠性、可釋性有待提高,尤其對隱私數據的保護亟待加強。“隱私保護”維度得分僅為3.37分,為所有二級維度最低得分。結合問卷與訪談分析可知,約55%的大學生正在經受這一倫理風險,這表明教育人工智能技術還存在缺陷,不足以提供強大的隱私安全保障。
2.不同大學生群體對教育人工智能倫理認知差異分析
以單因素方差分析的方式對不同學歷和不同年級學生在各維度上的得分進行了差異檢驗,結果顯示,不同學歷的大學生在“人機協同與自立自主”“安全與可控可信”兩個維度上均存在顯著差異(Sig.=0.002)。
具體而言,在“人機協同與自立自主”維度,博士生的得分遠比本科和碩士生的得分要高,兩者之間的差異均達到顯著水平(見表2)。可能的原因在于,博士生在與教育人工智能協同共處的過程中表現出更強的自我管理能力,其思考的獨立性和自主性也較強。同時,本科各年級在該維度上的得分由高到低依次為大一、大二、大四、大三;除大三與大四之間外,其余各年級之間均表現出顯著差異(Sig.<0.01)。結合訪談得知,大一新生相較于大三和大四的學生,也表現出更好的自我管理和獨立思考能力,這可能與其剛步入大學有教師的正確引導有關。
在“安全與可控可信”維度,除博士生與本碩生以外,其余學歷之間均存在顯著差異,按照得分由高到低依次為專科生、本科生、碩士生與博士生(見表3)。由此可見,隨著學歷的不斷提升,大學生的安全防范意識更為強烈,更能清楚認識到人工智能在與人類共處過程中可能存在的安全隱患,因而也能更好地應對教育人工智能倫理風險。
3.大學生對人工智能的了解程度對其教育人工智能倫理認知的影響分析
由圖4可知,除去對人工智能“完全不了解”的情況,隨著對人工智能了解程度的增加(從“比較不了解”到“完全了解”),大學生對教育人工智能倫理認知的得分均值在不斷增加。這進一步表明,對人工智能更為了解的大學生其對倫理風險的關注度更高,能更為清晰地認識到風險產生的原因和類型,也更能有效協調彼此的關系。
五、教育人工智能倫理建設的四大難題
既然大學生對教育人工智能倫理認知的現狀 不容樂觀,那么就有必要分析當前教育人工智能倫理建設存在的難題,以便針對性地提出其倫理建設路徑。通過文獻梳理和調研剖析發現,目前教育人工智能倫理建設主要面臨四大難題。
1.教育人工智能倫理建設缺乏精準的規范與指引
當前研發者、使用者和管理者在研發、應用、管理人工智能的過程中,對技術給社會帶來的潛在影響的考慮還不夠充分(新華社,2019)。對于智能教育企業而言,一方面,研發者缺乏必要的教育知識與經驗,可能會無意間創造出阻礙人類發展的技術結構(顏士剛,2015),進而帶來教育數據過度收集和算法偏見等問題。另一方面,部分企業出于逐利目的而存在惡意收集、使用學生隱私數據的行為,從而對學生的安全造成威脅。此外,由于學校管理者和教師考慮欠佳,在引進、管理與使用技術的過程中,還可能會造成數據管理不當、學生過于依賴人工智能技術等問題。歸根到底,造成這些問題的主要原因在于當前教育人工智能倫理建設在頂層設計層面缺乏精準的規范與指引。
2.教育人工智能技術自身局限不利于倫理規約建立
教育人工智能在數據、技術和安全方面的特性限制了其倫理建設與規約。其一,教育人工智能以海量數據為支撐,以此構建算法模型支持教育活動的開展。但在教育體系中,數據來源散亂,數據形式復雜,數據質量不高(楊現民等,2018),算法模型有所欠缺,難以兼顧所有學生的發展需求。其二,包容性不高,存在技術操作繁復、智能產品設備要求高與快速迭代等情況,為弱勢群體、特殊群體、邊緣群體帶來困擾,甚至使其排斥、厭惡智能產品,可能會加劇教育的不公平。其三,技術安全保障不到位。當前,教育人工智能的安全風險保障主要采用被動應急的措施,暫未能做到預警防范,技術安全保障措施亟待加強。
3.教師對學生的人文關懷與價值引領有所缺位
教師對學生的影響深遠。因此,教師在引導和指導學生養成良好的技術使用習慣、提高學生智能教育素養、促進學生與人工智能的人機協同發展等方面占據重要地位。調研結果表明,當前大學生思考的獨立性和自主性有所降低,人際交往與情感交流受到沖擊,與教師、同伴之間的交流質量有所降低。固然由于自尊心強、技術心流、便捷性等因素,學生更愿意直接求助于教育人工智能,但當教師在學生人際交往、情感交流中缺少主動性時,也可能會進一步加劇師生之間的“冷漠”。同時,教師對智能技術操作的不嫻熟和對倫理風險的忽視,也可能導致其在教學過程中缺乏對學生的針對性指導和引導。
4.教育人工智能學習資源建設粗放
我國一直在鼓勵大中小學開設人工智能相關課程,走好人工智能普及之路。但調研發現,部分大學生對教育人工智能倫理問題的關注度不高,且有近80%的大學生未接觸過人工智能相關課程。大學生對人工智能倫理問題的忽視,乃至其思考獨立性和自主性下降、人際交往和情感交流弱化等問題,某種程度上也源于高校人工智能教育及倫理教育的缺失。可能的原因有二:一是部分高校缺乏人工智能學習資源建設的支持服務,不足以開展常態化的課程和活動;二是不同群體特征的大學生對教育人工智能倫理認知現狀存在顯著差異,由于缺乏前期調研工作的支撐,因而資源建設存在針對性不強、質量參差不齊的情況。
六、教育人工智能倫理建設的五條路徑
立足于當前大學生對教育人工智能倫理認知的現狀,以及教育人工智能倫理建設存在的難題,筆者提出如下倫理建設路徑。
1.正確規約以立德樹人為核心導向的教育人工智能倫理
立德樹人是教育的根本任務。教育人工智能的“價值取向”會對學生產生深刻影響,而技術的價值是由技術設計者和創造者共同賦能的(祝智庭,2018)。為此,應加快落實面向設計者和創造者的倫理教育,要求其踐行倫理規范與準則,從系統設計的根源上規避和減少倫理風險的產生。同時,技術設計者、創造者應與教育工作者保持緊密合作,結合教育需求,不斷升級改良合乎教育倫理價值的技術,使其做到可控、可靠、可信賴,從而實現技術理性標準與人的價值取向相一致(于英姿等,2020)。唯有夯實智能教育的發展基礎,才能實現教育“立德樹人、全面育人、公平普惠”的目標。
2.合理編制教育人工智能倫理規范指南
當前部分企業過度收集和利用學生隱私數據、學生利用智能工具作弊等新聞事件時有發生,已引起國家和社會的廣泛關注。教育是一個復雜的系統,與技術的研發、使用、管理環環相扣,每一環節都至關重要,需要更為精準細致的倫理規范作為指導和支撐。因此,面對教育人工智能應用過程中凸顯出來的倫理失范問題,應在現有的人工智能倫理規范體系下,編制教育人工智能倫理規范指南,并圍繞倫理規范指南,出臺相應的法律法規、責任清單和問責機制,為研發者、使用者、受用者和管理者四大主體提供正確的行動引領,明確技術與人的權力邊界,規范各類主體的行為。
3.提高教師智能教育素養水平并發揮其示范引領作用
技術在教育中的價值彰顯不在于技術本身,而在于其教學實踐應用。教師在運用各類智能技術開展實踐教學的過程中,需要充分發揮其主觀能動性,做出合乎教育效益、倫理規范和技術效能的教學安排與決策。為此,提升教師的智能教育素養水平成為規避倫理風險的必然選擇。一方面,智能教育要求教師秉持人本主義的教育人工智能應用理念與原則,明確倫理與安全規范(胡小勇等,2021),不斷向深度高效的“人機協同”目標靠攏。另一方面,教師在課程教學、教書育人過程中應自覺融入人文與技術相結合的倫理原則和規范,引導學生合理合法地使用技術,正確處理、看待自身與教育人工智能的協同關系。
4.探索智能技術賦能的倫理風險精準預警機制
科技向善,一切技術都應以某種善為目標。當前因技術異化而導致教育生態失衡問題日益嚴重,因此應當充分發揮人的主觀能動性,積極提出應對舉措并付諸行動。為加強技術安全保障,企業可與國家相關部門、高校合作,充分利用智能技術賦能倫理建設,細分倫理挑戰風險類型,針對不同的風險類型制定解決預案,開發合乎倫理的風險預警系統,以此持續監測教育人工智能倫理風險情況。一旦發現異樣,及時給執法部門、教育部門、學校、教師、學生、家長等發送預警信息,從而實現精準施策。但當前的風險預測分析等技術研究主要基于大數據的應用,集中在金融、公共信息安全等領域,而涉及教育領域的智能技術風險分析的研究很少。因此,國家相關部門和高校專家學者應重視該領域的研究,不斷加快發展其風險監測技術。
5.建設公益性教育人工智能學習資源并鼓勵公眾學習參與
我國教育部前部長陳寶生(2019)在國際人工智能與教育大會上曾強調,要讓人工智能新技術、新知識、新變化從教學中進入大中小學生頭腦,從職業培訓中培養教師實施智能教育的能力,更要從全民科普活動中推進全民智能教育。調研表明,大學生的教育人工智能倫理認知現狀與其人工智能知識水平相關。因此,當前應由國家相關部門牽頭,以高校為主導力量,探索建設一批公益性教育人工智能學習資源,助力提升全民智能教育素養。倫理教育更是學習資源建設的重要一環,需要不同領域(如哲學、教育學、生態學、計算機科學等)的專家學者協同設計和實施,以助力倫理原則與規范的普及和實踐。
毋庸諱言,對學生的現在負責,就是對社會的未來發展負責。學校作為教育的重要場所,在倫理風險規避上有著不可推卸的責任。為此,可結合不同階段的學生特性進行施策,具體而言,中小學可將教育人工智能倫理教育融入信息技術課程和校本課程中,舉辦趣味活動激發學生學習的熱情。高校可針對不同學歷和不同年級學生的需求,將倫理教育融入計算機等必修課程或所開設的通識教育課程中,通過組織主題講座、企業學習參觀、創意話劇表演等活動,不斷提高大學生對倫理問題的關注度與認知度,進而促進其形成正確的技術思考與行為習慣。
七、結語
人工智能時代機遇叢生,也充滿挑戰。著名物理學家霍金曾表示:“人工智能發展到極致時,我們將面臨著人類歷史上的最好或者最壞的事情。”(British Broadcasting Corporation,2014)教育人工智能為教育事業的發展作出了積極的貢獻,但也給人類帶來了嚴峻且迫切的挑戰。如何最大程度地規避教育人工智能的倫理風險,穩步推進教育高質量發展,是值得深入探討的問題。針對當前倫理風險頻發及調研工作缺失的情況,本研究面向大學生開展了教育人工智能倫理認知現狀調研,剖析了教育人工智能倫理建設的難點問題,并提出了具有前瞻性和針對性的政策建議。未來研究團隊將繼續面向中小學生深入開展調研,以更系統地探索其教育人工智能倫理認知現狀及倫理建設難題,從而提出更全面的對策建議。但無論如何,人類都應充分發揮其主觀能動性,直面可能產生的倫理風險并將倫理規范嵌入教育人工智能的全生命周期中,不斷夯實智能教育發展和智慧社會建設的根基。
參考文獻:
[1]陳寶生(2019).走好智能時代中國教育發展道路[J].中國教育網絡,(6):20-21.
[2]鄧國民,李梅(2020).教育人工智能倫理問題與倫理原則探討[J].電化教育研究,41(6):39-45.
[3]杜靜,黃榮懷,李政璇等(2019).智能教育時代下人工智能倫理的內涵與建構原則[J].電化教育研究,40(7):21-29.
[4]馮銳,孫佳晶,孫發勤(2020).人工智能在教育應用中的倫理風險與理性抉擇[J].遠程教育雜志,38(3):47-54.
[5]郝祥軍,王帆,祁晨詩(2019).教育人工智能的發展態勢與未來發展機制[J].現代教育技術,29(2):12-18.
[6]胡小勇,徐歡云(2021).面向K-12教師的智能教育素養框架構建[J].開放教育研究,27(4):59-70.
[7]李建華(2020).倫理與道德的互釋及其側向[J].武漢大學學報(哲學社會科學版),73(3):59-70.
[8]李世瑾,胡藝齡,顧小清(2021).如何走出人工智能教育風險的困局:現象、成因及應對[J].電化教育研究,42(7):19-25.
[9]李曉巖,張家年,王丹(2021).人工智能教育應用倫理研究論綱[J].開放教育研究,27(3):29-36.
[10]劉三女牙,劉盛英杰,孫建文等(2021).智能教育發展中的若干關鍵問題[J].中國遠程教育,(4):1-7,76.
[11]羅生全,王素月(2020).人工智能背景下的大學教學倫理重建[J].大學教育科學,(5):96-102.
[12]任安波,葉斌(2020).我國人工智能倫理教育的缺失及對策[J].科學與社會,10(3):14-21.
[13]沈苑,汪瓊(2019).人工智能在教育中應用的倫理考量——從教育視角解讀歐盟《可信賴的人工智能倫理準則》[J].北京大學教育評論,17(4):18-34,184.
[14]吳河江,涂艷國,譚轢紗(2020).人工智能時代的教育風險及其規避[J].現代教育技術,30(4):18-24.
[15]新華社(2019).發展負責任的人工智能:我國新一代人工智能治理原則發布[EB/OL].[2021-07-03].http://www.gov.cn/xinwen/2019-06/17/content_5401006.htm.
[16]徐曄(2018).從“人工智能教育”走向“教育人工智能”的路徑探究[J].中國電化教育,(12):81-87.
[17]顏士剛(2015).教育技術哲學[M].北京:中國社會科學出版社:170.
[18]楊現民,張昊,郭利明等(2018).教育人工智能的發展難題與突破路徑[J].現代遠程教育研究,(3):30-38.
[19]于英姿,胡凡剛(2020).隱憂與消解:智能技術之于教育的倫理省思[J].遠程教育雜志,38(3):55-64.
[20]張敏,王朋嬌,孟祥宇(2021).智能時代大學生如何破解“信息繭房”?——基于信息素養培養的視角[J].現代教育技術,31(1):19-25.
[21]趙磊磊,張黎,代蕊華(2021).教育人工智能倫理:基本向度與風險消解[J].現代遠距離教育,(5):73-80.
[22]中華人民共和國教育部(2019).聯合國教科文組織正式發布國際人工智能與教育大會成果文件《北京共識——人工智能與教育》[EB/OL].[2021-07-03].http://www.moe.gov.cn/jyb_xwfb/gzdt_gzdt/s5987/201908/t20190828_396185.html.
[23]中華人民共和國科學技術部(2021).《新一代人工智能倫理規范》發布[EB/OL].[2021-10-12].http://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.
[24]祝智庭(2018).教育從不單純根據技術需求來變革[EB/OL].[2021-11-02].http://nic.upc.edu.cn/2018/0613/c7404a
155602/pagem.htm.
[25]AI HLEG (2019). Ethics Guidelines for Trustworthy AI[EB/OL]. [2021-07-03]. https://op.europa.eu/en/publication-
detail/-/publication/3988569-0434-11ea-8c1f-01aa75ed71a1.
[26]Aiken, R. M., & Epstein, R. G. (2000). Ethical Guidelines for AI in Education: Starting a Conversation[J]. International Journal of Artificial Intelligence in Education, 11:163-176.
[27]British Broadcasting Corporation (2014). Stephen Hawking Warns Artificial Intelligence Could End Mankind[EB/OL]. [2021-10-18]. https://www.bbc.com/news/technology-30290540.
[28]Burton, E., Goldsmith, J., & Koenig, S. et al. (2017). Ethical Considerations in Artificial Intelligence Courses[J]. AI Magazine, 38(2):22-34.
[29]Hogenhout, L. (2021). A Framework for Ethical AI at the United Nations[EB/OL]. [2021-07-03]. https://unite.un.org/sites/unite.un.org/files/unite_paper_-_ethical_ai_at_the_un.pdf.
[30]Jobin, A., Ienca, M., & Vayena, E. (2019). The Global Landscape of AI Ethics Guidelines[J]. Nature Machine Intelligence, 1:389-399.
[31]Kissinger, H. A. (2018). How the Enlightenment Ends[EB/OL]. [2021-07-08]. https://www.henryakissinger.com/articles/how-the-enlightenment-ends/.
[32]Nichols, M., & Holmes, W. (2018). Don’t Do Evil: Implementing Artificial Intelligence in Universities[C]// Proceedings of the European Distance and E-Learning Network (EDEN) ?Conference:110-118.
[33]Siau, K., & Wang, W. (2020). Artificial Intelligence (AI) Ethics: Ethics of AI and Ethical AI[J]. Journal of Database Management, 31(2):74-87.
[34]Tuomi, I. (2018). The Impact of Artificial Intelligence on Learning, Teaching, and Education[R]// Cabrera, M., Vuorikari, R., & Punie, Y. (Eds.). Policies ?for ?the ?Future. Luxembourg: Publications Office of the European Union.
收稿日期 2021-10-12 責任編輯 劉選
Research on Ethics of Educational Artificial Intelligence: Connotation Framework,
Cognitive Status and Risk Avoidance
HU Xiaoyong, HUANG Jie, LIN Zirou, HUANG Manting
Abstract: While the artificial intelligence enables education to develop rapidly, it is also facing urgent ethical challenges. Therefore, it is important to clarify the connotation of ethics of educational artificial intelligence (EAI), describe the status of college students’ ethical cognition and refine feasible strategies of risk avoidance. Based on the research into government policies and literature, after two rounds of revision and improvement by Delphi, an ethical connotation framework of EAI was constructed. It consists of four first-level dimensions including “man-machine coordination and independence”“well-being and development of students”“fairness and sustainable development”“safety and reliability” dimensions and twelve second-level dimensions. The questionnaire survey on the basis of this framework shows that college students’ ethical cognition of EAI is unbalanced, and they get low scores in the dimensions of “fairness and sustainable development” and “safety and reliability”. And the educational background, the grade and the understanding of AI all have a significant influence on college students’ ethical cognition of EAI. Currently, the construction of EAI ethics is confronted with difficulties such as the lack of precise norms and guidance, the absence of humanistic care and value guidance, limitations of technology and extensive construction of learning resources. In the future, strategies should be adopted to avoid ethical risks, such as standardizing the ethic of EAI correctly, developing ethical guidelines for EAI, improving intelligent education literacy for teachers, making intelligent technology support ethical construction and developing non-profit learning resources and so on. Only by embedding ethical standards into the whole lifecycle of EAI can we construct new intelligent education ecology.
Keywords: Educational Artificial Intelligence; Ethical Connotation; Ethical Cognition; Ethical Risk; Delphi Method