李曉巖 張家年 王 丹
(1.淮北師范大學 教育學院,安徽淮北 235000;2.淮北師范大學 體育學院,安徽淮北,235000)
進入21世紀后,伴隨著人工智能技術的巨大發(fā)展,“互聯網+”教育逐步升級為“人工智能+”教育,尤其是近十年來,人工智能教育應用成為國際教育領域關注的熱點。2019年3月聯合國教科文組織(UNESCO,2019)發(fā)布的《教育中的人工智能:可持續(xù)發(fā)展的挑戰(zhàn)與機遇》,既是對人工智能教育應用前期研究和實踐的總結,也是未來各國人工智能教育應用發(fā)展方向的指南。習總書記指出,要高度重視人工智能對教育的深刻影響,積極推動人工智能和教育深度融合,促進教育變革創(chuàng)新(新華網,2019)。雖然人工智能目前并未對教育系統產生整體性、顛覆性的影響,但小范圍的應用個案,如2019年BrainCo公司生產的“賦思頭環(huán)”在某小學的應用,已引起人們對人工智能教育應用的倫理擔憂。
人工智能教育應用倫理屬于教育倫理學的研究范疇。其研究過程應從“人”的角度出發(fā),規(guī)約人在應用人工智能過程中的行為,而非關注人工智能的利害,是本研究的出發(fā)點和立場。需注意的是,與普遍意義上的教育倫理研究主體間的道德關系不同,人工智能教育應用倫理研究的是教育主體與具有一定主體屬性的人工智能間的道德關系。人工智能同時具有人和物的兩種屬性:一方面人工智能沒有自我意識,還是人造物;另一方面,它們又具有部分人的屬性和能力,尤其是算法上,甚至比人類更強(何懷宏,2018)。因而,將人工智能與教育主體并列,而不是主客體二元對立,充分考慮人工智能的復雜性,有助于把握人工智能教育應用的本質。
本文主要圍繞三方面展開:一是人工智能教育應用的倫理旨趣,即研究“人”與“人工智能”間的道德關系,目的是解決教育主體應用人工智能的倫理意圖問題;二是人工智能教育應用的倫理原則,即研究“人”與“人工智能”間道德關系的依據,是教育主體應用人工智能達到教育目的過程中應遵循的道德規(guī)范;三是人工智能教育應用的倫理實踐,即研究“人”與“人工智能”間道德關系的結果,主要探索教育主體應用人工智能為達到教育目的而開展的道德活動或表現出的道德行為。
人工智能教育應用的倫理旨趣是人工智能教育應用倫理理論體系的核心,是評價人工智能教育應用善惡的準繩,是確定人工智能教育應用倫理原則和倫理認知與行為規(guī)范的依據。研究倫理旨趣就是研究人工智能教育應用的道德價值,是確立其價值體系、明確其價值目標的過程。
課題組在前期研究中已界定了人工智能教育應用的內涵,即在教育理念的引領下,將人工智能技術融入教育系統或教育過程中,支持或幫助實現教育目的,促進問題解決,優(yōu)化教育過程和推動教育的創(chuàng)新發(fā)展(李福華等,2020)。可見,人工智能教育應用倫理旨趣在于“助”。
“助”凸顯了人的主體地位,彰顯了人工智能的價值追求,也體現了教育的本質。雖然人工智能與人可能形成“教師—機器人—學生”的新型交互結構(蘇明等,2019),但二者不是平等關系。德國著名教育家卡爾·雅思貝爾斯(1991)曾言:“教育是人的靈魂的教育,而非理智知識和認識的堆積。”人工智能雖然具有人的部分屬性,但并不具有人的意識。教育始于“人”,終于“人”,這決定了人工智能只能是在效率、效益、效果上助力這一過程。
研究人工智能對教育之“助”,首先要回答兩個問題,即助什么和如何助。第一個問題解決人工智能所“助”的內容。人工智能教育應用依據作用的領域可分為助學、助教、助管;第二個問題解決人工智能所“助”的方式手段。人工智能應用依據作用的層次可分為促進、優(yōu)化、創(chuàng)新。由此,人工智能對不同教育對象提供不同層次的助力,形成其完整的倫理旨趣(見圖1)。

圖1 人工智能教育應用的倫理旨趣
在橫向上,人工智能對教育之“助”是由點到面的(見圖1)。
首先,“助”個性化學習,即指人工智能助力受教育者學習。學習是個體行為相對持久的變化,是學習者改變原有觀念的過程,因此學習者個體具象為一個個點,在作用范圍上可視為人工智能在教育領域“點”的應用。目前已有較多應用的自適應學習系統、自適應學習平臺以及智適應學習平臺等,主要通過學習分析、模式識別等技術,動態(tài)記錄學習者的學習過程和學習狀態(tài),診斷并分析學習中的“漏洞”,給出解決方案,提供自動化反饋,提高學習績效;智能學伴主要通過與學習者交流、互動和溝通的虛擬伙伴,幫助和引導學習者學習,記錄學習進度、成長經歷等(張攀峰等,2014),為學習者提供個性化學習服務。它通過智能傳感技術和動態(tài)模型收集記錄學習者的學習、情感及生理數據,感知學習者的學習狀態(tài)和情緒變化,調整學習方案、給予學習者人文關懷。
其次,“助”精準化教學,即指人工智能助力教師教學過程。在現存教育制度下,班級授課和小組教學仍是主要教學組織形式,由此人工智能助力教師教學的作用范圍已由學生個體的“點”擴大到教師引領的班級和小組學生群體的“線”。云班課、雨課堂、慕課堂等智慧教學工具或平臺,貫穿于教學前的預習、教學中的互動討論以及教學后的測試,在學習分析技術、語義識別技術以及模式識別技術的支持下,充分調動學生的學習積極性,實施精準教學,提高教學效率。自動化短文評價系統、自動化口語評測系統、ICT技能與程序作業(yè)的自動化測評系統以及科大訊飛開發(fā)的智能測試系統等,依賴自然語言處理技術與機器學習等技術(張坤穎等,2019),提供及時反饋,為教學決策提供更真實可靠的依據。
最后,“助”智慧化管理,即指人工智能助力教育教學管理過程。管理不僅是對教師和學生的管理,還包括對學校層面所有教育教學活動的管理,因而其作用范圍再次擴大到學校的“面”。智慧校園是人工智能管理應用的典型代表,它通過模式識別技術、自然語言處理、機器學習以及大數據技術實現對教師與學生活動的動態(tài)管理、精準管理,也為更好地服務教師和學生提供決策依據。高校學生普遍使用的一卡通管理已涉及到圖書管理系統、打印復印系統、繳費管理系統、身份識別系統、課堂管理系統以及基于這些數據的師生行為軌跡分析和消費特征分析(田麗等,2015)。
首先是促進,即人工智能的應用旨在解決目前由教育制度不完備、教育資源不均衡、優(yōu)質師資不充足等因素引起的教育問題。可以說,在“促進”層面,人工智能應用圍繞教育教學問題解決展開,是人工智能“使能”教育的表現。“使能”教學理念在班級授課制下很難得到實現,而人工智能通過學習分析和大數據技術構建高維學習者分析模型,可以診斷學習者的知識結構、認知特征、學習風格等,在一定程度上實現因材施教。
其次是優(yōu)化,即在原有基礎上應用人工智能優(yōu)化教育教學,提高效率。“優(yōu)化”主要通過日常教育教學達到預期,但應用人工智能可以更快、更好地達到目標,是人工智能“增能”教育的表現。某公司開發(fā)的AI助教(北極星,2020)利用人工智能深度學習算法,精準定位學習者的知識掌握程度,形成“學情畫像”,教師可以準確把握學習者特征,從而設計針對性的教學;在教學過程中,AI助教提供海量優(yōu)質教育資源,可以實現“智能組卷閱卷、課件制作、協同教研、資源共享、學情監(jiān)測”等,自動生成多維度考試數據統計報告和考情分析報告,幫助教師提升教學績效;在管理中,AI助教從多維度對教學行為數據進行挖掘與分析,為學校教育教學管理提供決策依據,幫助家長了解學情,配合學校教學。
最后是創(chuàng)新,即伴隨人工智能應用而產生和形成的新的教育教學和管理模式,是人工智能“賦能”教育的表現。人工智能作為“類人體”的存在,進入學校和課堂后,使教育從“批量灌溉”到“精準投放”、從“固定教材”到“生成內容”、從“流程繁復”到“過程消減”、從“總結評價”到“形成評價”(于英姿等,2020)。這使教育教學和管理必須做出改革,構建新的模式。聯合國教科文組織研究報告提出的“雙師課堂”便可看作是其創(chuàng)新成果之一(Pedro et al.,2019)。所謂“雙師課堂”是一種由人工智能教育機器人承擔教師的部分教學任務, 并提供個性化學習服務的新型課堂模式(汪時沖等,2019)。人工智能承擔部分教學任務后,教師的角色和職能、師生關系等必然進行調整,為新模式的構建提供了空間。
倫理學是從善惡角度規(guī)約行為的。研究倫理原則就是明確何種行為是善的,何種行為是惡的。人工智能教育應用的倫理原則探討教育主體應用人工智能達到教育目的的過程中應遵循的道德規(guī)范,規(guī)約不道德行為。不同的教育主體因應用人工智能的目的不同需要遵循不同的倫理原則。教育主體包括教育管理者、教師和學習者。
權力規(guī)約原則主要針對作為權力主體的教育管理者,要求他們在應用人工智能的過程中要明確其權力范圍,保護被管理者的權益和尊嚴,主要體現在教育管理者在教育數據的收集、處理、利用過程中,除大多數學者強調的數據隱私保護原則外,還包括數據收集的尊重原則、數據處理的理解原則和數據利用的邊界原則。
1.尊重原則。人工智能數據能力收集有限,收集哪些數據,應用主體具有一定的決定權。教育管理者應用人工智能收集相關數據時,應在尊重原則的基礎上實施其決定權;教師和學生等數據被收集者有權利知道個人哪些數據被收集了、何時收集的以及收集的數據將做何用;非必要數據應給予教師和學生等主體一定的選擇權,由他們決定這些數據是否被允許收集,以及在何種范圍內使用。尊重原則是教育管理者應用人工智能時要遵循的首要原則,是對其權力進行規(guī)約的道德力量,也是以人為本管理理念的體現。
2.理解原則。在2020年第三屆世界頂尖科學家論壇上,斯發(fā)基斯(Sifakis,2020)談到人與人工智能之間關系時強調,人類應充分理解機器傳達的信息。這種理解即指要掌握這些數據的產生機制及其背后的理論機理。由此教育管理者才能進行正確的分析,并在DIKW模型(Data-to-Information-to-Knowledge-to-Wisdom Model)的引導下,得出指導性和決策性結論,減少片面臆斷。當人工智能顯示學生注意力不集中時,教育管理者要清楚人工智能判斷學生注意力的機制(通過面部、脈搏抑或腦電等)。若通過面部識別進行判斷,要了解人工智能對注意力不集中時的面部判別標準(眼神或者表情等),真正理解人工智能所謂的注意力不集中指的是什么,在此基礎上,結合課堂情境和教師教學才能得出準確的結論。
3.邊界原則。獲得數據后如何利用數據與教育管理者應用人工智能的目的直接相關。作為權力主體,教育管理者有權決定何時、何地、如何利用數據,或者說教育管理者對數據有絕對的使用權。因而,有必要對其數據利用權力設置邊界,使其在既定范圍使用,防止濫用。一方面,數據利用的邊界應在“理”而不在“管”,不能單純用數據“管”(監(jiān)管)教師、學生乃至學校,而是以此了解需求、“理”清問題,以更好地服務師生、促進學校發(fā)展為目的;另一方面,數據利用的邊界應在“發(fā)展”而不在“評價”,不能以數據分析的結果作為評價教師、學生乃至學校的證據,而是以此為基礎提出改進策略,促進教師、學生、學校的發(fā)展。教育管理者通過面部識別、情緒識別等技術收集課堂教學數據,對其分析,發(fā)現課堂紀律較差,不能以此判定教師教學能力低,教學考核不合格,而應以此為基礎,與教師討論改善課堂教學的方法,促進師生的共同成長。由此,課堂數據的收集才不會受到教師的心理抵制,更真實自然地表現自我,使人工智能獲得更真實、有效的數據。
和諧共生原則主要針對教師而言。人工智能這一類人體的教育介入必然影響師生的課堂關系。這一倫理原則主要體現在教師如何平衡和協調教師—學生—人工智能三者的課堂關系,確保和諧相處,共存共生,各行其是而不逾矩,更高效地達到預期教學目標。
1. 人本原則,即學生中心原則,這是教師應用人工智能開展課堂教學要遵循的基本原則,也是處理教師—學生—人工智能三者關系的首要原則。澳大利亞學者塞爾溫(Selwyn,2016)教授曾指出:“危險在于把數據和編碼看成提供指導和支持的權威而非相對依據。教育如此復雜,遠非可以僅被簡化為數據分析和算法。”教師利用人工智能獲取的學生學習相關數據,只能是教學設計、實施與評價的參考。一方面,人工智能本身獲取的數據有限,不可能全方位獲取學生的所有信息;另一方面,學生作為完整的個體,其自身所呈現出來的特征也遠非數據所能涵蓋。因此,教師應用人工智能進行教學時,不能只見“數據”不見“人”,而要從數據中看到一個(群)正在發(fā)展中的人因何、為何呈現這樣的數據,要看到數據背后活躍的思維和靈動的氣息。學生是學習的主體,教師要在這一過程中將焦點放在學生身上,通過數據了解和發(fā)掘其潛能,更好地促進其素養(yǎng)的提升,而非冰冷的數據本身。
2. 適度原則,是指教師要適度應用人工智能進行教學,包括適時和適量。所謂適時,指教師要選擇恰當的時機應用人工智能,不能隨意使用,否則將成為學生發(fā)展的障礙。扎瓦克奇-里克特(Zawacki-Richter et al.,2019)等學者對2007-2018年間發(fā)表的人工智能在高等教育領域的應用研究發(fā)現,目前研究與教學理論聯系不緊密,提出要超越工具,重新關注學習和教學法。孔子曰:“不憤不啟,不悱不發(fā)。”人工智能的應用要遵循教育教學規(guī)律和原則,根據學生的發(fā)展需求,把握時機恰當使用。所謂適量,即指教師控制使用人工智能的頻率,不能為了使用而使用,忽視教學目標的達成。人工智能通過“學習者畫像”可以幫助教師更好地了解學生的知識基礎和學習能力,為教學目標的確定提供依據。教學目標的確定除受課程標準等因素影響外,學習者的非智力因素同樣重要,而這些是人工智能難以精準畫像的。更重要的是,在學習者大腦發(fā)育的關鍵期過度使用認知技術,有可能帶來不可逆轉的嚴重后果,對發(fā)展更高級的認知技能和創(chuàng)新能力非常不利(Tuomi,2018)。
3. 關懷原則,是指教師應用人工智能進行教學的過程中要給予學生足夠的關注和關懷,它是處理教師—學生—人工智能關系的潤滑劑和催化劑。美國學者諾丁斯(2011)提出:關懷倫理的最基本思想是對每一個個體的需要予以恰當的反應,目的是建立并維護關心關系。一方面,教師要真正“看到”學生,透過人工智能和現實課堂,看到學生的需求,并給予恰當的反應。教師通過人工智能的數據發(fā)現某學生未能掌握相關內容,處于迷茫狀態(tài),則需要走到學生身邊,詳細詢問情況,指導其學習,并通過鼓勵的眼神、手勢等給予學生情感投入和行為支持。另一方面,作為完整的個體,學生的發(fā)展不僅在于認知和思維的發(fā)展,還有社會性交往、情感、態(tài)度和價值觀等,而目前這些方面人工智能還取代不了教師(唐漢衛(wèi),2018)。人類具有多元智能,人工智能可以超越其中理性化的智能,卻難以超越人化的情感,人工智能更多是“智”而不是情(劉悅笛,2018)。教師需要在教學過程中消弭學生與機器交互的冰冷感,以人格魅力影響學生,以實際行為關懷學生,促進學生健康發(fā)展。
形塑自我原則是針對學習者而言的。作為被教育者,學習者是一類特殊的主體。顧建軍(2020)曾指出學生的主體性主要體現在對教師的主體性作用、屬性、功能進行主體性選擇,對教師主體性作用信息的破譯與轉化,以及對教師主體作用的借鑒、創(chuàng)造與超越。可見,學習者主體性的體現依賴于教師主體作用的發(fā)揮。但人工智能加入課堂后,作為類主體,其主體作用發(fā)揮有限。利用人工智能進行學習時,學習者占據主動地位,可以充分發(fā)揮主觀能動性。但學習者是正在發(fā)展中的群體,其認知、情感、行為處于形成過程中,因而其應用人工智能旨在形塑自我,促進自身發(fā)展,須秉持以下倫理原則:
1. 良善原則,即指學習者在利用人工智能進行學習時需要心存良善,將人工智能作為“人”以待之。2016年微軟聊天機器人Tay上線不久便學會了辱罵用戶、發(fā)布帶有種族歧視和性別歧視的言論,微軟為此緊急下線調整(新浪,2016)。學習者在與人工智能交互過程中,自然語言處理技術和深度學習技術使人工智能習得了學習者語言表達模式。學習者尤其是未成年人,其道德水平尚在發(fā)展中,容易在好奇心驅使下使人工智能習得不良語言表達。因而,學習者在與人工智能交互中,要將人工智能作為共同學習的“伙伴”,積極、平等地與其交互,使其真正成為學習助手。
2. 誠信原則,即指學習者恰當應用人工智能進行學習,不剽竊、復制人工智能的“成果”,堅持誠信為本。目前人工智能在許多專門領域已經持平甚至超越人類,即便是在一些曾被認為是人類所獨有的領域,如作詩、繪畫、唱歌等。當學習者將家庭作業(yè)交由人工智能完成時,教師是否能夠清晰準確地判斷該作業(yè)的真實性?互聯網時代的剽竊行為尚可通過查重等手段加以監(jiān)察,若由人工智能生成的呢?教師如何得知該作業(yè)是由學生而非人工智能完成的?解決這一問題,需要教師正確引導,使學習者本著對自己負責的態(tài)度,誠信為學,認真完成作業(yè)。這既是學生的本職要求,也是學生了解自己和提升自身學習能力的主要途徑。
3. 節(jié)制原則,即指學習者要適度節(jié)制應用人工智能,以免過度依賴乃至上癮。一方面,人工智能的類人性,易使學習者產生交往客體主體化,不利于其認知、情感的發(fā)展。另一方面,學習者應節(jié)制應用人工智能是由于其自制力差、心智發(fā)展尚不健全,容易在應用人工智能過程中迷失自己,甚至沉迷于與人工智能的交互。互聯網時代的網絡成癮便是最好的例證。對于更智能、更個性化的人工智能,學習者將更缺乏抵抗力。
倫理學是一門實踐哲學,不僅涉及純粹理性的認知和實踐理性的認知,還涉及借助意志使認知走向生活的實踐活動(李志祥,2020)。人工智能教育應用倫理只有轉化為個體的德性、行為,轉化為社會的制度,才能發(fā)揮作用,實現其意義。其倫理實踐具體過程為:首先是教育主體需要“由外而內”形成倫理認知,然后在認知基礎上“由內而外”表現出一定的倫理行為,最后是對倫理行為進行規(guī)約而形成倫理制度,倫理制度又成為教育主體倫理認知的主要內容。可以說,倫理實踐由個體走向社會,又由社會反作用于個體,二者互利共生,相互促進。
人工智能教育應用倫理要在實踐中落地,融入日常教育教學活動,首先需要教育主體形成倫理認知,即教育主體要對人工智能教育應用過程中出現的倫理問題、要達到的倫理目標、應該遵循的倫理規(guī)范以及涉及的倫理關系有清晰的認識和把握。倫理認知是一個“由外而內”的過程,其中“外”主要指位于教育主體之外的、客觀存在的行為規(guī)范,這些規(guī)范可以是成文的、顯性的,如倫理規(guī)章等,也可以是不成文的、隱性的,如某些約定俗成的規(guī)約。目前人工智能教育應用尚處于初級階段,相關倫理規(guī)范并不健全,教育主體在這一過程中只能以其他教育倫理為參照,這從另一側面折射了人工智能教育應用倫理研究的必要性和緊迫性。“內”是教育主體將外部行為規(guī)范內化的過程,主要包括兩個層面:一是教育主體要意識到并了解應該遵循怎樣的倫理規(guī)范,明晰人工智能教育應用倫理規(guī)范的重要性和必要性,尤其是人工智能作為教育系統的新生物,對其倫理規(guī)范有清醒的認識非常必要;二是教育主體要從內心接受和認同這些倫理規(guī)范,并融入到已有的認知體系中,主動遵循這些倫理規(guī)范。
人工智能教育應用倫理形成于教育主體應用人工智能進行教育教學活動的過程中,即在這一過程中表現出的倫理行為,是教育主體倫理認知的體現,也是遵循既定行為規(guī)范的結果。倫理行為是一個“由內而外”的過程,是內在的倫理認知在理性和意志的協助下,在特定的應用情境中激發(fā)出具體行為的過程。人工智能教育應用的倫理行為主要體現在:一是主動性,即教育主體應用人工智能進行教育教學時,能自覺、主動地遵循倫理規(guī)范,按倫理制度辦事;二是情境性,即在面對特定的倫理困境時,教育主體能夠依據倫理規(guī)范提出公平、正義的解決方案;三是一致性,即教育主體能夠堅持這些倫理規(guī)范的合道德性,在面臨任何教育情境時都能夠始終如一地遵循倫理規(guī)范。
教育主體在應用人工智能過程中呈現的倫理行為需要倫理制度的規(guī)約,尤其是正式的、成文的倫理制度。這一方面便于教育主體省察自己的行為是否合道德;另一方面便于他人對教育主體表現出的倫理行為進行審查,判斷其行為是否遵循倫理規(guī)范,對不符合的行為給予一定的懲罰。人工智能教育應用倫理制度在現實生活中可以有兩種表現方式:一種是制度倫理化,即指在現有的教育制度中加入人工智能教育應用倫理的相關行為規(guī)范,與其他教育制度融為一體。這可以看作是人工智能教育應用初級階段的表現方式,因為人工智能教育應用倫理相關研究和實踐尚不成熟,在原有教育制度的基礎上增補行為規(guī)范更易被教育主體接受。另一種是倫理制度化,即以制度的形式對人工智能教育應用倫理實踐過程進行規(guī)約,更具針對性和約束力。這是人工智能教育應用發(fā)展到較高階段的表現形式。但目前,我國人工智能教育應用還未形成系統的、體系化的倫理規(guī)范,人工智能教育應用倫理制度化還有很長的路要走。人工智能教育應用倫理制度化,才是人工智能教育應用倫理真正進入實踐,成為教育主體日常教育教學活動的準則和規(guī)約。
人工智能教育應用倫理的諸多研究存在界限不清、主體不明的問題。原因之一在于沒有明確人工智能教育應用倫理的研究范疇。
人工智能教育應用倫理研究的目的是讓人與人工智能和諧共處。對于這一研究也因對“人”和“人工智能”當事雙方不同的側重而形成兩種不同的研究范疇。一種研究范疇是對人工智能進行倫理規(guī)約,屬于技術倫理(或工程倫理)范疇,即在人工智能的設計、開發(fā)和應用中,以人工智能自身為出發(fā)點和落腳點提出倫理要求。另一種研究范疇是對人進行倫理規(guī)約,即對人工智能應用領域的主體提出倫理要求。真正讓人與人工智能和諧相處、共存共生,僅某一研究范疇是不夠的,需要“兩條腿”走路,人和人工智能都需要進行倫理規(guī)約。但在具體實踐和研究中,二者各有側重。歸屬為技術倫理的第一種研究范疇應由人工智能的設計者、開發(fā)者完成,而第二種研究范疇——人工智能在教育領域的應用應由教育主體完成,因為教師缺乏對人工智能本身進行倫理規(guī)約的專業(yè)知識和專業(yè)能力,只能在運用人工智能過程中對其自身行為等進行倫理規(guī)約。
自歐盟發(fā)布《可信賴的人工智能倫理原則》后,人工智能教育應用倫理研究進入新的發(fā)展階段。2019年5月國際人工智能與教育會議發(fā)布的成果文件《北京共識——人工智能與教育》,明確提出要促進教育人工智能應用的公平與包容、促進性別平等、確保教育數據和算法使用合乎倫理、透明且可審核等行動舉措(聯合國教科文組織,2019)。此后諸多學者就此展開研究。沈苑等(2019)學者基于歐盟提出的倫理框架分析了人工智能教育應用面臨的倫理困境及采取的措施,如倫理嵌入設計、包容性測試等技術手段和多層責任分配制度、完善認證系統的非技術手段等;杜靜等(2019)結合人工智能在教育領域的應用現狀和倫理關鍵要素,提出人工智能教育應用需遵循問責原則、隱私原則、平等原則、透明原則、不傷害原則、非獨立原則、預警原則與穩(wěn)定原則等;鄧國民等(2020)萃取一般的人工智能倫理原則和教育倫理原則的核心交集,提出福祉、是非善惡、公平正義、人權和尊嚴、自由自治以及責任和問責等教育人工智能倫理原則。這些研究表明,目前人工智能教育應用倫理研究中技術倫理和教育倫理兩個范疇并未各行其是,而是雜糅交錯,導致倫理主體不明,在倫理實踐層面很難落實,有必要將二者區(qū)分開來。教育界學者專注于教育倫理范疇的研究,不僅有利于促進人工智能在教育領域發(fā)揮應有的價值,而且也有利于教育領域在人工智能加持下更高效地達到教育目的。
人工智能究其本質仍是一種工具、一類技術,在教育領域的應用不可能改變教育的本質和目的。雖然人工智能作為類人體,具有一定的主體性,但其主體性的發(fā)揮以及如何發(fā)揮仍取決于教育主體,在倫理維度亦是如此。教育主體在人工智能教育應用過程中有決定權,占主動地位,如何讓“人”與“人工智能”和諧共處同樣取決于教育主體的合道德行為。
總之,人工智能教育應用的倫理研究明顯滯后于人工智能的發(fā)展和應用。本文主要從教育主體出發(fā),在教育倫理范疇內對人工智能教育應用倫理在“知善”和“求真”兩個層面進行了探析,未來研究還將進一步探索人工智能教育應用倫理目標層面上的“臻美”——培養(yǎng)全面發(fā)展的人。期待更多學科的跨界學者能夠在這一范疇內,結合教育教學理論,深入系統地探討教育主體在應用人工智能過程中需要遵循的倫理規(guī)范,為人工智能教育應用倫理制度的建立建言獻策。
[注釋]
①人工智能教育應用是一個多維學科的復雜融合的領域,其主體還包括人工智能教育應用系統的開發(fā)者(包括設計)、運營者等,屬于第一個研究范疇——技術倫理或工程倫理的研究,本文在此沒有涉及。