999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能驅動教育變革的倫理風險及其解蔽之路

2024-06-27 00:00:00郭顥江楠江宏劉忠驊鄧輝映
中國電化教育 2024年4期
關鍵詞:人工智能

摘要: 人工智能驅動教育變革給教育帶來雙重影響,使教育中的機會與風險共存。盡管人工智能技術給教育帶來強大優勢,能夠增強教育主體的能力、記錄完整的教育信息、推動人的個性發展、以及提高教育效率。但隨著技術向度的增強與工具理性思維的介入,這一過程也面臨不同維度的倫理風險。人工智能驅動教育變革的倫理風險主要表現為主體風險、安全風險、算法風險和技術濫用四方面。解蔽人工智能裹挾下的四重風險,推動人工智能技術在教育變革中的價值實現,需回歸以人為本的價值理念,強化教育主體地位;建立依法規約的倫理體系,加強信息安全管理;遵循算法使用的倫理準則,促進個體生命發展;內化德性為先的倫理意識,健全技術變革邊界。

關鍵詞:人工智能;教育變革;倫理風險;解蔽

中圖分類號:G434 文獻標識碼:A

本文系2021年重慶市教育委員會人文社會科學研究項目“中小學生在線學習質量測評研究”(項目編號:21SKGH269)、2023年重慶市教育委員會科學技術項目“基于區域教育大數據的中小學生學業水平增值評價研究”(項目編號:KJQN202301614)研究成果。

① 江宏為本文通訊作者。

人工智能作為具有“頭雁”效應的變革性技術產物,越來越成為助推教育常進常新的強大引擎,它不斷驅動著教育領域的深層發展與創新。伴隨人工智能技術的發展與迭代,其能在教育領域的變革性應用也在一定程度上影響及改變了原有的教育生態和教育秩序,特別是在教育理論、教育結構、教育價值、教育文化與教育主體等諸多方面產生了系列沖擊。由此,也引發了多維度的倫理風險,此類問題的思索與回應“將是決定人工智能在教育上乃至在未來社會能夠走多遠的關鍵”[1]。基于此,闡述人工智能驅動教育變革的表征,系統而全面地審思人工智能驅動教育變革的倫理風險,深度透析倫理風險問題生發的具體表現,進而追尋倫理風險的解蔽之路,為破解當前人工智能教育困境、推動人工智能有效助力教育變革提供理論支持。

一、闡述:人工智能驅動教育變革的表現解讀

若要明晰人工智能驅動教育變革的倫理風險,則應厘清當前人工智能驅動教育變革的表現及其特點。具體如下:

(一)人工智能驅動教育變革的表征

人工智能在教育中的應用既有風險又有機遇,其對教育主體、教育效率等方面的不同程度的影響必將驅動教育系統的深層變革。

第一,在教育主體方面,人工智能可強化教育主體的能力。作為一種技術力量,人工智能在教育系統中的深度融入使其不斷內化為教育主體內在的一部分,越來越構成人的存在本身。隨著以ChatGPT為主的生成式人工智能的出現,它們與傳統技術工具的結合能夠讓其更加“聰明”,進而在某種意義上成為教育主體的“個人助理”[2]。

第二,在教育過程方面,人工智能可記錄完整的教育信息。在課堂場域下,人工智能能夠為教育主體提供互聯互通的教育環境,通過多種方式對教育主體的相關數據進行抓取與采集,如情感數據信息、體質數據信息、課堂表現數據信息等等,進而實現對教育過程的實時監控。

第三,在教育價值方面,人工智能可推動人的個性發展。人工智能技術與教育的深度融合,為教育提供了更多個性化的教育資源,極大豐富了教育主體的教學體驗。通過智能化的指令輸出,師生即可獲得多元化的適配資源,這為人的個性發展提供了更自由和廣闊的空間。

第四,在教育效率方面,人工智能可有效提高教育效率。在ChatGPT的技術背景下,學生作為主體投入學習活動的質量是尤為重要的,它能夠在學生與人工智能有效協作的基礎上,“最大化自己的學習體驗和產出,而不是把精力浪費在低效、簡單、機械的任務上”[3]。

(二)人工智能驅動教育變革的倫理特點

人工智能驅動教育的變革的過程既要遵循人工智能技術本身的發展訴求,又要回歸教育以人為本的價值本質,這種倫理特性決定了其內在的特殊性。

第一,實現教師“育人”與“效率”的統一。教育作為育人的事業,任何的技術融入都必須遵循育人為本的價值指向。人工智能進入教育領域,能夠為教師的育人工作“減負增效”,但并不意味著教師的教育主權就完全“讓渡”給人工智能,在注重教師工作“效率”的同時,仍要堅守育人為本的教育本質。也就是說,人工智能驅動下的教育變革,必然是“育人”與“效率”的統一,必然是工具理性與價值理性合一的過程,這決定了效率與人的發展相統一理應成為人工智能驅動教育變革的倫理目標,即借助教師與人工智能的有效協同實現更高效、更高質量的教育教學,同時始終堅守教育的人本立場,把“人”置于教育變革的軸心位置,從容應對人工智能可能引發的倫理風險。

第二,實現學生“全面發展”與“個性發展”的統一。一般而言,“人的全面發展表現為素質的提高與個性的自由發展”[4],全面發展也可視作個性的全面發展,而個性的發展,也是全面發展的個性,它體現了人發展過程中的獨特性[5]。可見,學生的全面發展與個性發展密不可分,是學生發展“統一性”與“獨特性”的結合。一方面,作為一種技術手段,它在教育變革中的驅動作用越明顯,教育系統對于學生全面發展的倫理要求就越高,而應用人工智能的能力也會越來越成為學生適應教育變革、實現全面發展的重要素養要求,在此意義上,人工智能將拓展學生全面發展的維度和范疇,幫助學生為實現更完整、更全面、更自由的發展而不懈付諸努力。另一方面,人工智能拓展了學生的學習空間,為每個學生提供了更為多樣化、個性化的學習資源,便于學生將更充裕的時間用于實現個性自由發展和個體潛能的挖掘,在提升學習體驗的同時,也可以促進學生更好、更全面地發展。

二、審思:人工智能驅動教育變革的倫理風險

“倫理”一詞屬于哲學范疇,其起源最早可追溯至《禮記·樂記》,其中言“樂者,通倫理也”,此中的“倫”即人倫,意指人在親族中的血緣輩分關系,而后經過簡化,“倫”轉義為人與人之間的關系。“理”則是處理事務時所遵循的原則及標準。倫理為“人和人相處應當遵守的標準與規范”[6]。在西方倫理學中,蘇格拉底、黑格爾等西方哲學家為追求自然規律,基于人“向善”的本能,主張人應該追求一種美好的、向善的生活。所謂“善”的生活即物質生活與精神生活內外協和的生活,這種對美好生活所產生的“向善”意向即倫理[7]。人類社會步入現代化之后,隨著社會環境的日益復雜化,倫理的內涵也越來越豐富和多元。綜合而言,倫理是人類在與他人、與社會產生交互的過程中,為平衡社會整體利益與個體利益,而產生的處理人與社會、自然、他者關系的價值標準、道德準則和一系列的行為體系[8]。

基于此,可認為倫理風險是“在人與人、人與社會、人與自然、人與自身的倫理關系方面由于正面或負面影響可能產生不確定事件或條件,尤指其產生的不確定的倫理負效應,諸如倫理關系失調、社會失序、機制失控、人們行為失范、心理失衡等等”[9]。在教育領域中,人工智能驅動教育變革的倫理風險與其表征和特點密切相關,當人工智能在教育中發揮作用時,就不可避免地引起人與技術之間的負面不確定事件或條件。當人工智能技術的工具理性超越教育活動的價值理性時,相應的倫理風險便產生了。因此,人工智能驅動教育變革的倫理風險即是人工智能技術在教育中應用時,所引起的教育主體與人工智能之間產生的不利影響。這種不利影響可能來自于技術本身,也可能來自于使用技術的主體自身,它會造成教育主體與人工智能技術之間的關系失調,阻礙人工智能驅動教育變革的進程。

三、遮蔽:人工智能驅動教育變革的倫理風險問題

倫理風險遮蔽了人工智能驅動教育深層變革的本體價值,唯有對其倫理風險樣態進行全面系統地梳理和認知,才能從根本上為解蔽人工智能教育應用困境、規范人工智能教育發展培根固基。基于人工智能驅動教育變革的表征,發現人工智能在強化教育主體能力、記錄完整教育信息、推動人的個性發展、提高教育效率等方面具有有利影響。但隨著人工智能在教育領域的深度應用,也隨之帶來相應的主體風險、安全風險、算法風險和技術濫用風險四個方面。

(一)主體消退:限制教育主體

人工智能時代的教育是一種“主體—技術—主體”的交往過程,其實質是師生利用人工智能技術達成教育目標的主體間交往活動。作為一種主體間的交互實踐,人工智能驅動教育變革的過程需要充分關照作為個體“人”的師生的全面發展。當前,人工智能盡管能夠將師生從繁雜的任務重解放出來,但它也在一定程度上會帶來對人自身的替代,使人作為主體在教育中的價值逐漸衰退,導致人工智能“非人”的技術特性逐漸僭越,進而造成師生教育主體在教育場域中的權利嬗變與“自我”消退。

其一,限制教師主體的教育教學主權。貝爾納·斯蒂格勒(Bernard Stiegler)認為愛比米修斯在給世間各種生物分配屬性時,忘記給予人類一種天生的屬性,因他的這一“遺忘”導致人類在生物種系中存在天生的“原始性缺陷”。為了彌補人類的這種“缺陷”,不得不借助于外部的義肢裝備實現存在,以此彌補自身的天生缺陷[10]。因此,人們發明了技術這一東西,使其成為人類的外部義肢。教師作為人類也不例外,其因自身的天然“缺陷”,使其在教育活動中需借助一定的技術彌補不足。在人工智能驅動教育變革的過程中,教師這種天然的“缺陷”往往令其自身淪為技術性的存在,即人工智能技術進入教育后,則成為教師在教育活動中的“代具”,雖然在一定程度上彌補了教師能力的部分缺失,卻也使自身構成了人的“存在本身”,從而“逐步替代教師的工作,使教師面臨生存性壓力”[11]。教師的部分職能被人工智能所替代,知識權威被逐級消減,同時,人工智能的高效、便捷也會造成教師的技術依賴,可能造成教師附庸在技術之下,使教師的部分工作“將被人工智能代替,這些人失去了工具的意義,在社會上成了一種無用的存在,淪為‘無用階層’”[12]。

其二,限制學生的學習主體性。人工智能技術的迅速迭代使學生在人工智能驅動教育變革的過程中,面臨著被物化和被奴役的風險。當智能技術以新的教育者的角色形態出現在教育場域時,學生與人工智能之間的交互逐漸頻繁,長期以往容易造成“智能”依賴。目前,不少學生把已有智能產品中的“小愛、小智”等智能系統視作戲玩的對象,倘若“有兩臺分別以學界泰斗N先生和H先生命名的教育人工智能系統,能夠進行深度學習,具有自我進化機制,加之真人語音”[13],學生該如何擺置?當學生借助這種人工智能系統學習時,內心始終具有一種戲玩的心態,并不會認真思考其傳授的知識內容,且與冷冰冰的機器進行交流,并不能讓學生產生情感上的慰藉,長期以往則會形成游戲心理,可能會戲玩“上癮”或沉溺其中。這種智能技術主導下的技術陷阱令學生的生物屬性和作為“人”的主體地位逐漸被超越,學生學習的主動性和獨立思考的能力被削弱,情感表征以及價值觀被遮蔽甚至割裂,學生最終被迫成為“類機器”的存在,這實質上是對教育育人本質的僭越。

(二)安全風險:暴露信息隱私

人工智能自身所存在的技術缺陷不僅會異化教育主體的角色地位,也會引發一系列的安全風險。在其驅動教育變革的實踐中,教育主體的個人信息與自身隱私包括行程軌跡、學業表現、家庭住址等,被無限放大且隨時隨處可被收集和獲取,個人隱私暴露與信息不安全成為人工智能教育發展中重要的倫理風險問題。

一方面,教育中的隱私邊界逐漸模糊化。在教育活動中,人工智能技術往往與其它智能技術相結合,從而引起教育隱私邊界的模糊。如人工智能與大數據技術結合,就會形成基于大數據驅動的智能化教育代理。這種智能化教育代理過于頻繁的數據挖掘使人在教育空間中的存在越來越透明化,教育教學活動過程中所產生的成績、表情、情感、行為、狀態等方面的個體數據可以輕易被識別。近年來,很多學校嘗試為學生穿戴智能設備、智能校服,在社會上引發了強烈熱議。在可穿戴設備的使用中,由于敏感數據的收集、存儲和獲取目前尚缺乏全面系統的監管,且很多智能設備往往由人工智能技術開發商自主進行,因而社會外界許多人認為這嚴重侵犯了學生的隱私。

另一方面,教育中的隱私安全逐漸弱化。形式各異的數據技術全面而詳細地記錄著教育場域中教育用戶的大量隱私信息,這些信息存在著被泄露、篡改或盜取的可能,用戶個體的數據安全難以得到有效保障。雖然當前人工智能的數據收集技術已非常強大,但由于收集標準不統一、相關數據規范匱乏,加之教育用戶個體的服務器安全措施缺位、安全漏洞較多,給部分非法入侵者提供了機遇,加劇用戶信息泄露的可能性,學生作為未成熟的群體用戶,其隱私信息的泄露“影響學生的人身安全和言論自由,并且泄露的靜態信息會形成固化標簽,有礙于用發展的眼光看待學生的成長和變化”[14],嚴重威脅了學生的數據安全,也影響了人工智能驅動教育變革的實踐過程。

(三)算法促逼:異化個性發展

前已述及,人工智能驅動教育變革的重要特點之一即是實現人的“全面發展”與“個性發展”的統一。在某種程度上,“全面發展”體現學生發展的統一性,“個性發展”凸顯學生發展的獨特性。盡管人工智能在一定程度上對學生的發展發揮積極影響,但人工智能在教育中搜集學生發展的個人信息、為學生匹配相應的資源等作用均具有獨特的個體性特點,以此通過為學生提供合適的方式促進學生個體的個性化發展。這無疑使學生受到了人工智能的算法促逼,使其在算法促逼的技術風險下逐漸按照人工智能所設定的“發展方向”前行,從而異化了自身的個性發展,影響其發展的全面性。

首先,人工智能作為一種算法支撐的“技術范式”,對教育具有強大的自反性力量,這種力量構成了對人精神和思維的宰制,異化了人的發展。隨著人工智能技術的不斷發展,算法的持續優化,使其積極地獲得自我的自由和自覺[15]。也就是說,人工智能作為人本質力量的表現和延伸,人工智能在教育中的變革性應用越廣泛,它對于人的替代性就越深入,其“類人”屬性也就越來越強烈,就會越來越成為人的身體乃至生命的一部分。而技術構成人的“存在”本身容易造成人對技術的沉溺,如基于智能算法推送所形成的智能教育設備依賴,消耗了人的大量時間和學習精力,令人陷入學習偏好模式之中而難以對其他事物產生興趣,這種學習偏好模式會使學生按照算法所推薦的方式進行學習,從而導致學生忽視自身真正需求,淪為依賴算法學習的機器。伴隨教育元宇宙熱潮的興起,數字分身、虛擬交往等逐漸進入到教育之中,“虛擬無害、虛擬自愿、虛擬可辨”等原則盡管是從源頭考慮避免人工智能技術對人的算法控制,但也從側面反映出技術對人精神和思維的控制,虛擬交往成癮、虛實不分等問題則始終存在,久而久之則會使人的發展產生異化。

其次,人工智能的算法計算具有高度量化和簡約性的程序特點,這種特性會造成人的個性缺失,也容易導致學生的同質化發展。當前,人工智能被廣泛應用于師生之間的行為數據計算,即通過計算,采用“程序化”的方式設定教學過程,灌輸給學生“程序化”的知識。人工智能能夠“依憑其強大的‘算法’,可以準確地了解到人有哪些方面的需求,能夠完美地呈現給人想要的和尚未意識到自己想要的一切”[16]。這導致對教育過程和教育主體的過分簡化,從而消解了人對教育產生的“神秘感”,使教育失去了本真價值和豐富內蘊。學生只是按照固定的程序學習,降低了獨立思考、復雜問題解決的能力和發展高階思維的權限。同時,算法的規模化使用也進一步加劇了教育的“程序化”,使人工智能原本的個性化學習追求變成懸置,學生之間的同質化愈加明顯。可見,程序化的教與學方式會使教師和學生被人工智能技術的算法規則舒服,從而使教育活動猶如“‘普羅克拉斯提斯之床’,逐漸淪為標準化的程序操作,進入智能技術為其打造的程序世界,走向被智能技術‘圈養’的道路,從而落入尤瓦爾·赫拉利(Yuval Noah Harari)所說的‘神人’設計的圈套”[17]。

最后,人工智能在驅動教育變革的過程中,存在技術導致的偏向和歧視。在教育實踐中,由于算法計算的類型和程序較為單一和模式化,這就導致人工智能技術所表征的教育主體的教育行為數據可能并非全是“原始”數據,也可能是已經過技術解釋的信息。偏向性的行為數據采集有時難以反映出教育主體真實的教育教學狀態,反而會固化教育主體的行為選擇,制約主體能力的發展。

(四)技術濫用:迷失教育目的

教育作為一項育人善業,對教育目的即“要培養什么樣的人”的理性追問是其應有之義。在人工智能時代,知識傳授不再是教育奉行的圭臬,增強教育中“人”的關懷是教育目的的應然價值取向,“教育中的技術更應依托于教育場域,它必須合乎教育的價值和規律,才能在教育中持續發揮效用”[18]。但現實中,人工智能技術的濫用所導致的教育目的偏離與迷失已成為影響育人實效的主要倫理風險之一。

人工智能技術是對當下教育本質的主觀映射,從“技術負載價值”的角度而言,這一技術在與教育相遇之初,就體現了人的主觀目的。基于算法和數據驅動的人工智能技術雖在一定程度上滿足了學生的技術需要,但對于技術桎梏的過度依賴造成了教育活動中的價值負載,使得教師不論在哪個環節、不管需不需要使用技術,都盲目地使用人工智能技術,導致原本“個性化教學”的教育目標越來越流于形式,以流程化的方式培育“數據化”的人無形中越來越成為人工智能變革教育的隱性目標。這背離了人的自由全面發展的根本旨歸,致使人的心靈、精神以及情感等人文價值被排斥在教育目的之外,促逼教師將人的發展“交給技術制造去處理”[19],從而導致教育目的在技術濫用中的迷失。

此外,人工智能技術在教育中的濫用將教育活動私人化,學生在情感匱乏的網絡空間中孤獨地認知而難以得到情感的浸潤。通過數據分析,人工智能為學生打上一個個“人格標簽”,其與教育的融合在一定程度上忽視了人在精神、情感等層面的價值實現,造成教育目的偏離了以人為本的價值軌道,教學過程變成追逐技術效率的過程,學校成為了訓練知識技能的、技術化的“育人工廠”,甚至學校中的教育無法看到“人”的存在,為人工智能驅動教育變革帶來了巨大挑戰。

四、解蔽:人工智能驅動教育變革倫理風險的規避路徑

人工智能驅動教育變革的倫理風險所引發的問題不會僅停留在技術層面,而是將會引發教育中價值導向等層面的危機,甚至可能會給教育帶來難以估量的消極影響。同時,教育的復雜性和特殊性也決定了正確應對人工智能驅動教育變革倫理風險的必要性和緊迫性。從價值理念、倫理體系、倫理準則、倫理意識四層面審思和透析人工智能驅動教育變革的倫理風險背后的種種機理、解蔽技術驅動教育變革的實踐路向,是助推“人工智能+教育”理性蛻變的基礎和前提。

(一)回歸以人為本的價值理念,強化教育主體地位

明確的價值理念導向是技術變革教育的意識前提與行動先導。人工智能對教育變革的本質性影響就在于傳統教育思維模式與價值認知的轉變,技術倒逼教育創新的這一過程如何處理好“人”與技術之間的關系事關人工智能變革教育發展的全局。從教育的本質而言,教育是“為人”的教育,充分消除“技術理性對教育的宰制,化解由技術理性和價值理性之間的錯位而導致的人之‘缺失’”[20],促進人更自由而全面地發展是技術變革教育應然的價值指向。人工智能時代,“使人成為他自己”,令人活得更有意義、自由和尊嚴,理應成為重要的教育理念轉向[21]。當前人工智能應用根本性的倫理風險就在于,技術裹挾下的工具理性對價值理性的僭越導致的主體性倫理問題,破解這一風險則需要反思傳統的技術思維,以一種全新的價值觀念重新審思人工智能在教育應用中的應然之態。在人工智能驅動教育變革的過程中,要堅持育人為本、技術為用的根本價值導向,審慎把握人工智能技術植入的“度”,避免技術壁壘、技術僭越所帶來的主體消退風險。唯有合理把握智能技術與教育結合過程中的價值平衡,進一步強化教育主體地位,才能令技術存在合乎教育育人的價值和規律,最終實現人工智能技術與育人之唯的耦合。

一是要凸顯人本價值,推動人工智能技術輸入從“外部植入”轉向“內部生發”。“技術從外部侵入教育是危機,從內部生發則是契機”[22]。以智能技術倒逼教育創新既不足以支撐其在教育場域中的效用發揮,也不符合育人為本的價值追求,因而,人工智能技術在教育中的變革性運用不應采取被動適應和盲目迎合的態度。無論是教育目標的制定還是教學理念的構建,都應該遵循以人為本的價值指向,深刻嵌入教育主體的個體生命需求,令教育積極主動選擇“自在”的技術,避免因技術僭越、機器主導人的意識而被動適應“自由”的技術。

二是要張揚價值理性,推進人工智能技術輸出從“追求數據效率”轉向“育人效應”。人工智能技術在教育中的變革性應用能夠幫助教育主體在短時間內完成更多任務、實現高效率教學。這一作用是人工智能在技術輸出上應當實現的重要“效率”標準,但不應再是唯一的價值標準,提升教育主體作為“人”的生命質量才應該成為其深層次的技術邏輯。在人工智能技術的輸出中,對于技術的考量應在致力教育問題解決的同時,超越智能技術作為器具的功用性理解,將教育主體“人”的生命發展置于一切教育活動開展的核心目標,以人的意識的回歸、個體潛能的開發和生命質量提升作為自身發展的最終評價指標,以此讓“教育活動的邏輯真正回到人自身,使教學主體真正地完全體現和發揮自身的主體性”[23],從而實現“器物之美”與“成人之美”的相統一,切實提高技術為賦能教育變革的深層“效益”。

(二)建立依法規約的倫理體系,加強信息安全管理

邁克·波蘭尼認為:“人類知道的遠比其能表達出來的更多”[24]。人類長期思考所表達出來的只不過是冰山一角,更何況是人工智能為基礎的技術呢。這就需要在人工智能驅動教育變革時,建立依法規約的倫理體系,通過倫理體系強化人工智能驅動教育變革的安全性。為此,應在順應育人為本價值理念的前提基礎上,綜合考慮人工智能驅動教育變革的實踐需要,加強對人工智能技術應用的信息安全管理。倫理體系的構建不是一蹴而就的,需要至上而下層層推進。作為具有較強技術性的系統工程,人工智能倫理體系的構建應從以下三方面著手。

首先,構建人工智能變革教育的安全準則。需要在人工智能技術應用于教育領域時,提前干預人工智能應用開發框架,將信息安全規約嵌入相關產品和應用之中。通常來說,人的個人信息一旦被曝光或者侵害,就很難再通過種種事后手段進行解救或者彌補。因此就要預先令人工智能技術的開發商與其他相關利益主體建立人工智能技術委員會,讓信息安全的準則要求為其所知并主動作為根本性的原則要求來對待。在設計、開發和應用人工智能教育產品的各個環節都需要切實嵌入信息安全的算法準則和細項要求。如2018年歐盟的《一般數據保護條例》(GDPR)中就對信息的主體者、保護者和處理者等的信息權利和責任進行了界定,并規定了相應的倫理紅線和原則[25]。

其次,構建人工智能變革教育的信息安全預警機制。具有主動識別性的信息安全機制的建立有助于及時發掘人工智能技術應用中的信息安全隱患,有效規避教育主體、教育管理者的信息泄露風險。學校等育人場所應與人工智能技術的開發應用商達成信息安全預防的強烈共識,并建立透明化的信息安全協議。同時,還可建立負責檢測信息數據隱私風險的專員管理制度,設立信息安全管理的專業職位,對信息安全管理人員的個人數據素養包括數據保護意識、信息安全法律素養等進行專項培訓與指導,確保信息安全的有效管理。

最后,完善人工智能變革教育應用的安全督查程序。國家層面應嚴格審批人工智能在教育中的應用是否具有清晰的信息安全倫理規范,在此過程中對人工智能賦能教育變革的利益取向予以嚴格把控,確保信息安全倫理規范不被利益所趨害。教育管理者需明確自身責任,為人工智能變革教育營造良好的內部環境。師生作為課堂學習的主體,需要自覺轉變自身角色,恪守好信息安全倫理規范并及時防范可能的風險。由此建立自上而下的信息安全倫理執行和貫徹體系,為人工智能變革教育提供系統、全面的安全保障。

(三)遵循算法使用的倫理準則,促進個體生命發展

人工智能技術的迭代更新速度日益加快,算法所帶來的教育倫理風險也會面臨放大或擴充的困境,秉承個體生命發展至上的倫理準則是解蔽當前人工智能技術算法陷阱的重中之重。遵循好算法使用的這一倫理準則,建立合乎個體生命發展與生命意義實現的算法倫理、促逼算法從善,能夠有效保持人工智能算法技術在教育領域中的審慎使用,規避算法引發的種種教育風險,最大程度發揮人工智能算法技術對教育的優質功效。

一方面,形成相應的技術規范和倫理標準,積極尋求算法使用與社會倫理規范的契合。為此,要優化算法設計,以生命至上的倫理導向引領人工智能在教育中的深入應用。在此過程中,不僅要堅持算法倫理先于算法技術的原則,在創制和使用人工智能技術及機器時,需要設定好確定性的算法使用的倫理準則,避免技術僭越導致的包括算法黑箱、算法歧視等損害個體生命發展的風險;還要堅持個體先于算法的原則,確保人工智能算法技術應用中人的主體性,構建以人為中心的智能技術算法倫理,以精神、情感等多方面的自由發展作為人工智能算法設計的基本原則。嚴厲禁止算法程序當中的傷人漏洞,堅決不允許人工智能技術損害教育中“人”的個體生命發展,以此發揮好人工智能對教育變革的深層驅動作用。

另一方面,減少算法偏見,堅守好教育的生命立場,將關注個體生命發展融入算法設計和使用的全過程。無論是何種算法技術,都需要對龐大的網絡信息進行標簽劃分和甄別挑選后才予以推送,如果算法技術單純以用戶的個體喜好為依據,會導致算法“推薦池”陷入數據偏好的陷阱之中。在使用算法時,既要關注和推送個體感興趣的信息,也要提高對個體生命發展有重要價值的信息推送權重比例,從而關注個體生命的發展,促進個體生命在教育活動中的豐盈,使個體發展與人工智能變革教育充分融合,進而平衡人工智能變革教育活動過程中的工具理性與價值理性立場。

(四)內化德性為先的倫理意識,健全技術變革邊界

德性即教育者所擁有和踐行自主追求教育實踐內在利益的個體品質和精神動能,表現為對教育中真、善、美的向往[26]。人工智能變革教育的倫理風險既要依賴公共理性推進技術在教育實踐中的“善法”和“善治”,也需要運用教育者的個體德性之善促進人工智能技術在教育實踐中的“善用”和“善為”,唯有如此,才能從根本上健全技術變革的邊界,發揮人工智能變革教育的最大效用。

一方面,教育者應理性把握技術尺度,將此轉化為自身向善的教學倫理和個體德性,推動技術變革的邊界從“游離”走向“明晰”。人工智能技術運用的尺度應以教育對象的生命尺度為邊界,教育對象的個體生命尺度即是技術運用的尺度,一旦游離于生命與個體的邊界之外,則會造成技術的異化和作為人的主體價值的迷失。法國技術哲學家雅克思·埃呂爾(Jacques Ellul)指出:人在技術的使用過程中,可形成以“界限”為邊界的倫理力量,這種倫理力量在一定程度上可限制自身使用技術的過程,即通過“界限”的倫理力量選擇是否要使用技術。可見,人工智能技術推動教育變革時,教育者就應當以“界限”作為生命的邊界和尺度,使其成為人工智能技術變革教育的根本性倫理準則,從而推動教育者主動擁抱那些能夠真實拓展個體生命空間、豐實個體精神世界以及能夠真正彰顯教育育人本質的“正向”技術,抵制以犧牲個體生命發展和教育實踐內在利益為代價的“負向”技術運用,以此通過適度、適當地利用人工智能技術促進教育發展。

另一方面,教育者在技術運用的過程中應自覺體認,推動技術與教育規律的耦合性。教育者作為人工智能變革教育的重要主體,自身必須自覺意識到人工智能技術對教育變革的重要性和必然性,不斷提高自身對于人工智能技術的身份認同和價值認同。同時,在運用人工智能技術輔助開展教育活動時,提升自身的技術敏感性,不斷基于教育發展的規律來把握和調整技術運用的形式、手段、程度和邊界,避免因盲目從眾追逐技術大潮而令技術脫節于教育實踐內在利益需要。

隨著人工智能在教育中應用的深化,“負責任的人工智能”應用已成為學界的基本共識[27]。而主體風險、安全風險、算法風險和技術濫用的四重風險揭示了人工智能在“負責任”道路上的任重道遠,以人本理念、倫理體系、倫理規則和倫理意識解蔽四重風險,有利于推動人工智能驅動教育變革的進路。實際上,伴隨著人工智能的發展,生成式人工智能的出現對其驅動教育變革的倫理向度可能產生了新的困境,而解決技術對教育變革帶來的影響最終還要回歸到技術本身,緊跟技術發展和迭代思考其驅動教育變革的倫理風險,才能更好地讓技術為人類服務,為教育服務,避免技術自身對服務對象的僭越。

參考文獻:

[1] 唐漢衛.人工智能時代教育將如何存在[J].教育研究,2018,(11):18-24.

[2] 厲曉婷,王傳領.人工智能時代用戶媒介素養的養成:機遇、挑戰及應對策略[J].中國編輯,2023,(9):1-5.

[3] 李會春.ChatGPT技術熱潮下教育變革的挑戰和對策[J].復旦教育論壇,2023,(2):13-23.

[4] 朱旭東,李秀云.論兒童全面發展概念的多學科內涵建構[J].華東師范大學學報(教育科學版),2022,(2):1-16.

[5] 扈中平.“人的全面發展”內涵新析[J].教育研究,2005,(5):3-8.

[6] 顏士剛,王麗蕊.從“雙重變奏”到“良性互動”:教育領域技術倫理沖突的本質與調適[J].現代遠程教育研究,2022,(6):24-33.

[7] 周輔成.西方倫理學名著選輯(上卷)[M].北京:商務印書館,1964.193.

[8] 蔣潔.風險視域下人工智能倫理的主旨和原則[J].信息通信技術與政策,2019,(6):13-16.

[9][16] 陳愛華.高技術的倫理風險及其應對[J].倫理學研究,2006,(4):95-99.

[10][21] [法]斯蒂格勒.裴程譯.技術與實踐:第1卷[M].南京:譯林出版社,2000.

[11] 陳濤,韓茜.教育場域中技術焦慮的形成機理及治理路向——基于馬克思“人與機器”思想的時代闡釋[J].重慶高教研究,2023,(1):46-60.

[12] 于澤元,那明明.人工智能時代教育目的的轉向[J].中國電化教育,2022, (1):66-72.

[13] 李子運.人工智能賦能教育的倫理思考[J].中國電化教育,2021,(11):39-45.

[14] 李青,李瑩瑩.大數據時代學習者隱私保護問題及策略[J].中國遠程教育,2018,(1):29-36.

[15] [美]巴特拉.閭佳譯.我們最后的發明[M].北京:電子工業出版社,2016.15.

[17] 張家軍,閆君子.“道”“器”融合:教師減負的技術旨歸與實現路徑[J].中國電化教育,2022,(12):18-73+83.

[18] 孫田琳子,沈書生.論人工智能的教育尺度——來自德雷福斯的現象學反思[J].中國電化教育,2019,(11):60-65+90.

[19] [德]馬丁·海德格爾.孫周興譯.海德格爾選集(上)[M].上海:上海三聯書店,1999.135.

[20] 董云川,韋玲.人工智能促進高等教育發展的倫理糾偏[J].重慶高教研究,2021,(2):51-58.

[22] 朱德全,許麗麗.技術與生命之維的耦合:未來教育旨歸[J].中國電化教育,2019,(9):1-6.

[23] 王天平.教學活動論[M].北京:人民教育出版社,2019.115.

[24] Polanyi,M.The Tacit Dimension [M].Chicago:University of Chicago Press,2009.15.

[25] EU.General data protection regulation [EB/OL].https://gdpr-info. eu/,2018-05-25.

[26] 宋曄.教師德性的理性思考[J].教育研究,2005,(8):48-52.

[27] 何祎金.生成式人工智能技術治理的三重困境與應對[J].北京工業大學學報(社會科學版),2024,(1):12-20.

作者簡介:

郭顥:副研究員,碩士,研究方向為基礎教育信息化。

江楠:講師,碩士,研究方向為教育信息化、教育測量與評價。

江宏:研究員,學士,研究生導師,考試與評價研究中心主任,研究方向為人工智能、考試與評價、課程與教學論。

劉忠驊:正高級教師,學士,研究生導師,研究方向為人工智能、教育測量與評價。

鄧輝映:中學高級教師,學士,研究方向為基礎教育。

The Ethical Risks of AI-Driver Educational Reform and the Ways to De-risk Them

Guo Hao1, Jiang Nan2, Jiang Hong3, Liu Zhonghua4, Deng Huiying3

1.Heilongjiang Institute of Teacher Development, Harbin 150080, Heilongjiang 2.Chongqing University of Education, Chongqing 400065 3.Chongqing Academy of Education Science, Chongqing 400015 4.Chongqing NO.8 Secondary School, Chongqing 400030

Abstract: Artificial Intelligence-driven education reform brings double impact on education, making opportunities and risks coexist in education. Although artificial intelligence technology brings strong advantages to education, with the enhancement of technological dimension and the intervention of instrumental rational thinking, this process also faces different dimensions of ethical risks. The ethical risks of AIdriven educational reform are mainly manifested in four aspects: subject risk, security risk, algorithm risk and technology abuse. To solve the four risks of artificial intelligence and promote the value realization of artificial intelligence technology in education reform, it is necessary to return to the people-oriented value concept and strengthen the subject position of education. Establish an ethical system according to law and strengthen information security management; Follow the ethical guidelines used by the algorithm to promote the development of individual life; Internalize the ethical consciousness of virtue first and perfect the boundary of technological change.

Keywords: Artificial Intelligence; educational reform; ethical risk; De-risk.

責任編輯:李雅瑄

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 91精品免费久久久| 国产欧美专区在线观看| 亚洲欧美日韩天堂| 亚洲国产成人综合精品2020| 丁香婷婷激情网| 欧美第九页| 亚洲最大在线观看| 久久人搡人人玩人妻精品| 久久亚洲AⅤ无码精品午夜麻豆| 91精选国产大片| 亚洲a级在线观看| 婷婷综合在线观看丁香| 亚洲无码精品在线播放| 国产在线观看一区精品| 日韩精品免费在线视频| 久久久久九九精品影院| 日韩黄色精品| 欧美在线天堂| 亚洲Av激情网五月天| 久久精品视频一| 一本大道香蕉高清久久| 亚洲国产欧美国产综合久久| 婷婷激情五月网| 亚洲国产成人无码AV在线影院L| 亚瑟天堂久久一区二区影院| 美女无遮挡拍拍拍免费视频| 国产免费久久精品99re丫丫一| 久久综合九色综合97网| 无码aaa视频| 欧美国产在线看| 亚洲天堂网在线播放| 国产在线视频二区| 玖玖免费视频在线观看| 国产成人三级在线观看视频| 久久亚洲美女精品国产精品| 无码有码中文字幕| 国产黄在线免费观看| 日韩欧美国产三级| 91精品免费久久久| 男女精品视频| 无码AV日韩一二三区| 午夜福利视频一区| 国产成人h在线观看网站站| 亚洲视频在线观看免费视频| 国产麻豆永久视频| 欧美97色| 国产成人久久综合777777麻豆| 久久久久久国产精品mv| 国产精品美女网站| 国产成人精品一区二区三在线观看| 91色在线观看| a亚洲视频| 国产91久久久久久| 99国产精品免费观看视频| 国产美女无遮挡免费视频| 夜夜拍夜夜爽| 夜精品a一区二区三区| 香蕉在线视频网站| 99在线观看国产| 亚洲人成人无码www| 久久99这里精品8国产| 91在线国内在线播放老师| 91人人妻人人做人人爽男同| 国产精品久久久久婷婷五月| 四虎永久免费在线| 国产真实乱了在线播放| 亚洲精品视频网| 亚洲一级无毛片无码在线免费视频| 无码人妻热线精品视频| 国产欧美日韩资源在线观看| 色婷婷狠狠干| 91欧美亚洲国产五月天| 无码啪啪精品天堂浪潮av| 香蕉eeww99国产精选播放| 日韩欧美国产精品| 亚洲一区毛片| 欧美日韩亚洲国产主播第一区| 女人18毛片一级毛片在线 | 国产在线第二页| 在线99视频| 中国美女**毛片录像在线| 免费在线看黄网址|