999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能之于教育決策的主體性信任危機及其規避

2023-05-30 17:18:01孫立會
電化教育研究 2023年3期
關鍵詞:人工智能

[摘 ? 要] 人工智能為教學注入新生力量的同時也引發了諸多反思。算法偏見、隱私侵犯及情感忽視觸發了智能教育中人機信任危機,進而導致決策自主權虛置。人工智能教學決策中應凸顯“人”之主體性,建立由教師信心主導的決策模式能幫助教師掙脫技術中心的拜物主義泥沼,實現決策獨立場,并釋放錯誤歸因的心理枷鎖,堅守教學主體責任,同時發揮教學的感通性,降低智能情感依賴。班杜拉三元交互決定論為教師決策效能的影響要素解構提供了分析框架,教師智能認知誤區和職業危機感主導了信心機制的建立,自身行為的成敗及替代經驗連接著教學的信心與行為。人—機—智能情境因素各主體的能量轉移影響著系統的和諧交互。由此,從技術主體、關系維系與機制保障三層面設計教學決策中“人”之主體性的實現路徑,建立解釋與理解雙向發展的智能教育體系,著力塑造人—機—情境協同共生的智能教學互信生態,并不斷完善智能決策倫理的法律法規制度建設,重啟人工智能教育信任機制。

[關鍵詞] 人工智能; 教學決策; 信任危機; 主體自信

[中圖分類號] G434 ? ? ? ? ? ?[文獻標志碼] A

[作者簡介] 孫立會(1985—),男,吉林白城人。副教授,博士,主要從事人工智能教育研究。E-mail:sunlh777@163.com。

一、引 ? 言

人工智能的發展歷經數次搖曳與停擺,但眾多研究者對圖靈預設的機器智能的追求從未停滯。2016年,AlphaGo擊敗李世石重啟了人工智能熱潮。現今,人工智能所涵蓋的深度神經網絡、自主計算、機器感知等關鍵算法使得機器具有了超強的“類人”智能性,由此也引發了人類對人工智能應用中人的價值理性與機器的工具性之間主體地位的深刻反思,其根本則是人工智能與人之主體之間的“信任”問題。伴隨智能教學應用的普及,智能教學決策中的信任危機也受到研究者們普遍關注,如何在智能教學中精準決策、規避風險,以發揮人工智能技術在教育應用中的最佳教學效果成為技術研發者和教學實施者們的一致追求。目前研究多將智能教學應用中的各類問題歸咎于數據算法,以至于不斷追求突破技術限度,包裝美化智能機器決策可信度“外衣”,卻普遍忽視了“人”在教學決策中的決定性作用,尤其是教學主體“人”在決策中獨立于智能機器之外的自我信心這一心理過程要素的作用。因此,探索教師在智能教學決策中自信心形成的心理機制是未來人工智能教學應用發展的核心議題。

二、問題導向:人工智能教育應用中

信任危機的觸發

人工智能賦能教學的同時,也引發了對其應用后果的深刻反思。正如斯蒂芬·威廉·霍金(Stephen William Hawking)所言:創造人工智能的成功將是人類歷史上最大的事件。不幸的是,也可能是最后一次,除非我們學會如何規避風險。人與人工智能間的交互效果由“信任”介導,應用過程中出現的算法問題卻觸發了教學決策的信任危機。

(一)技術危機:算法偏見導致教學決策失衡

人工智能以數據、算力和算法為三大基本要素,算法是系統運行的核心遵循。算法如今以多種形式影響著人類生活的方方面面,并在教學實踐中實現了廣泛應用,如輟學預警系統、作業自動化評分系統、招生數據采集系統等。伴隨人工智能技術在教育中應用的不斷深入,系統中由于算法偏見導致教學決策失衡的問題引發了普遍重視。算法偏見是指在算法開發和應用中,開發設計人員將自身和社會偏見集成到數據采集和處理過程中,進而產生了對特定群體的歧視和偏見性的預測或推論[1]。教育人工智能系統的算法偏見設計體現種族、國別和性別偏見等諸多方面。有研究表明,畢業預測模型算法面對不同種族學生的預測效果存在差異,該模型對白人學生的誤報率較低,而對拉丁裔學生的誤報率較高[2];自動化評分系統相較于教師人工評分更具高效性,但卻被發現其對白人和非裔美國學生的評分更加準確[3];性別引發的偏見同樣存在于人工智能教學系統中,如有研究報告了用于預測學生課程通過率的算法系統對男生的預測效果較差[4]。無論互聯網絡時代的“信息繭房”還是當今智能浸潤時代的“過濾泡”,無不體現算法對人認識真實完整世界的認知“窄化”,算法需求取向的智能推送是對“人”之主體性價值選擇權的嚴重挑戰。智能系統的算法發展如何,其都是數據結果的計算、排除和呈現方式的上位規劃,更是技術構建者價值觀的客觀反映,“人”在與智能系統算法交互中的“任其發展”與“自我放棄”造成了算法偏見,也由此成為觸發人工智能教育系統決策信任危機的動因之一。

(二)倫理危機:隱私侵犯引發道德決策風險

個性化學習、自動化評估及監督管理系統為教育教學帶來科學性和便利性的同時,也引發了人工智能教學應用的倫理和道德省思。智能教學系統將師生置于馬克·波斯特(Mark Poster)所說的“超級全景監獄”之下[5],一切的學習和教學行為活動數據都變得開放透明而無所遁形。教育數據的開放共享是打破信息孤島、數據壟斷等問題壁壘,助推精準決策的基礎要素,但數據開放隨之帶來的便是個人信息過度暴露造成的隱私侵犯等問題。學生和教師隱私保護問題是目前圍繞中小學人工智能教學應用的倫理隱患之一。目前,智慧校園建設中的人臉識別技術服務于宿舍、圖書館和課堂出勤等日常教學生活管理,精準記錄學生的學習時長和活動時間;更有智慧課堂行為管理系統分析學生學習行為(閱讀、舉手、書寫、起立等)以及情緒狀態(高興、傷心、憤怒)以判斷和分析學生的學習模式[6]。這些數據使用得當可以便利教學,但如若未能得到有效的管理和規范的準則約束便會造成對學生隱私的侵犯,而學校普遍默認學習數據使用的知情同意權,并且也多忽視考慮教學監控和跟蹤中學生表現失真和不安情緒等問題。由此看來,隱私侵犯問題的實質是人工智能過度“入侵”學習者個人空間而使其產生擔心領域“失守”的心理狀態,而這種“想使用但又怕受到傷害”的心理勢必會埋下人與人工智能之間“懷疑的種子”,造成智能教學決策的信任危機。

(三)情感危機:情感交互忽視造成認知決策偏差

人工智能教育應用以其對教學與管理中數據的全面挖掘和客觀分析而被視為科學教學決策的保障,但“冰冷”的數字和機器是否能代表教學本質委實需要長期的實踐考量,人工智能在教學中的應用多表現為幫助師生完成“功能性”的任務,而忽視了師生“情感”領域的信息,尤其對智能環境中師生間情感交互問題的關注。情緒和情感是人對客觀外界事物態度的主觀體驗和相應的行為反應,表明了主體需要與客觀外界事物間的關系,由個體主觀體驗、面部、姿態和語調表情等外部表現及呼吸、心跳、血液循環和皮膚電反應等生理喚醒作為其具象化體現。智能教學機器遵循上述原則設計算法通過捕捉學習者生理和行為信息以解釋學習者實時的情感體驗。如利用神經網絡模型捕捉學生面部生理表情以分析學生課堂中的情緒反應,并與教師相應時段的教學內容相聯系以對教學效果作出研判與改進[7]。近來興起的情感計算研究則試圖創建一種能感知、識別和理解人的情感,并能針對人的情感作出智能、靈敏、友好反應的計算系統[8]。單向度的情感識別和分析缺乏對教學主體交互的關注,情緒可以被捕捉,但情感卻難以被計算。或許這正如“莫拉維克悖論”所喻:對人工智能系統而言,高級推理需要的計算量反而少于低級無意識認知。教學活動作為一種鮮活的生命體驗盡顯無意識的“細節之美”,師生互動中所表現出的關懷、尊重、信任、同理和共情等真實的情感流露是否能通過系統“計算”出來目前還未十分明確,這也導致了人機教學決策中的信任危機。

三、視角轉向:智能教學決策中“人”之主體

自信的建立何以必要

機器“智能化”精度的不斷升級同時也助推教學中人向“機械化”執行者的角色轉變。究其根本,人工智能教學決策中信任危機的產生源于人對人工智能的信任和人工智能可信度的錯位匹配。人對人工智能的信任隨著智能體在教學決策中的功能性表現而動態改變,從而使教師產生對智能輔助決策的信任程度的預判,并受此影響可能產生錯誤歸因的惡性循環。智能教育應用的“虛幻”迷局中,教師與機器的交互關系是其本質所在,信任作為一個中觀概念,一個方向連接“人”的微觀心理活動,另一個方向連接宏觀智能環境,使得教學決策的責任左右搖擺,而要發揮人工智能教學的優勢則必須將責任天平擺向“人”,人要學會在“糾纏”的人機關系中獨善其身,發揮人之獨立體信心之源的決策,以此彰顯教學決策中教師“人之為人”的必要性和價值所在。

(一)從場依賴到場獨立:掙脫拜“物”主義的泥沼

化解人工智能教學決策危機,教師應當實現從智能體依賴型決策到依靠主體信心決策方式的轉向,即對教學效果的預判不應由智能機器的工具理性決定,而教師需要具備的是:無論智能機器預測效果的好壞,都能有信心、有能力從人的“價值理性”的向善維度把控教學全局,作出精準的抉擇與判斷。正如赫爾曼·威特金(Herman A.Witkin)所提出對“場獨立”和“場依存”兩類認知方式的區分。場依存型傾向于以外界參照作為內部信息加工依據,場獨立型學習者的內部信息加工較少受外界參照物的影響。同樣,“場依存”的教學決策者在智能教育情境中普遍存在。人類模擬復制人的思考方式而創造了人工智能,而在應用中卻深陷于其影響“無法自拔”,在自身不自知的情況下認知和思維方式受到“鉗制”,以至于形成拜“物”主義傾向。教師在智能環境中的教學決策判斷亦是如此,研究顯示,教師對人工智能的信任會隨著智能機器的性能動態演變,即人工智能系統表現好,教師對其信任無變化,但如若其表現不好,則對其信任程度急劇下降,并其信任程度會隨著智能機器的表現下降而持續下降[9],這種“以物悲喜”的信任決策心理機制將會嚴重制約教師自身的教學判斷。由此看來,掙脫智能機器之“物”的治理泥沼,以教師自身信心為目標,建立場獨立性教學決策機制勢在必行。

(二)從責任外推到責任歸位:釋放錯誤歸因的心理枷鎖

技術輔助課堂教學的責任歸屬問題從未像人工智能在教學中的應用這般飽受熱議,試想傳統的信息技術輔助課堂教學,教師幾乎不會將課堂中的教學問題歸咎于教學課件和媒體資源,但這種責任歸因方式對于人工智能教學應用則不再成立。面對教學智能體,教師似乎更加容易心安理得地將教學責任外推。安德烈亞斯·馬蒂亞斯(Andreas Matthias)指出,這可能是因為人工智能系統的使用者無法預測其運行后果,甚至無法干涉其運行[10]。誠然,人工智能系統的“類人”設計原則以及訓練數據的分布不同使得其行為更具自主性和不可解釋性,更有研究者聲稱人工智能系統的自主性已足以達到將其視為與人類同等程度的道德主體[11],但這種放棄自身責任主體地位的想法無疑是可怕的,更加容易使教師在決策中迷失自我,產生不當責任歸因進而影響后續的教學動機與行為。如研究表明,教師如接受人工智能的建議得到積極反饋,則教師對人工智能的信任增強,自信心沒有變化;拒絕人工智能得到積極反饋,則對人工智能信任下降,自信心提升,但教師對人工智能的信任程度并不會影響教師接受或拒絕人工智能的決定,真正具有決定意義的則是教師在決策中自身的信心[9]。借用伯納德·韋納(B.Weiner)歸因理論中的“三維度模型”,人工智能教學決策中教師主體自信心作為內部可控不穩定性因素更加有利于教師教學決策。

(三)從情感依賴到情感獨立:厚植“人之為人”的感通性

教師的個人情感是建立對人工智能信任的原初認知,目前大多關于人工智能信任的研究集中于從認知方式入手提高使用者的信任程度,而對情感因素在信任決策中的作用機理少有探討。人類對類人機器的依戀問題是影響人機交互系統中信任建立的關鍵。情感心理學認為,人在責任和壓力環境下會本能產生“轉嫁”心理,使得人們更可能將自主和智能特性“投射”于機器之上,在其內心建立依戀紐帶,進而產生“同行安全感”和“責任共擔感”,以緩解和減輕教學焦慮[12]。人對人工智能的過度情感依賴問題是以智能機器行為導向決策的主要表現形式,同時過度的情感依賴容易導致“討好型人格”的形成。于全景式的教學監控之下,師生難免產生迎合心態,粉飾自身行為以符合既定算法標準,甚至養成“表演型人格”[13],使得教師在教學決策中“迷失”自我。人工智能研究和發展即使再進一步深入,其根本原則依舊是數據、算法上的擇優,而非情感、道德的選擇,人機交互中人得以凸顯出來的依舊是人的心性特點[14]。因此,亟須建立以教師主體自信導向的決策心理機制,實現從人對智能體情感依賴到情感獨立的轉向,發揮“人之為人”的感通性,在教學決策中以教師個人信心為中心連接和互動,以體現人工智能輔助教學中人的“切身參與性”和“實踐主體性”。

四、要素解構:智能教學決策中

“人”之主體自信發生機制

智能教學環境中,教師信心主導的獨立教學決策在行為上體現為教師個體對其是否有能力完成某一行為所進行的判斷,同樣也是個體自我效能的一種表現。自我效能現象作為班杜拉社會學習理論中三元交互決定論的經典內容,正是社會學習理論對人的主體因素及作用機制的有效彰顯與對人性及因果決定模型的理智把握。三元交互決定論中對環境、行為與人的主體因素對自我效能的影響為我們提供了剖析智能教學決策中人之主體自信發生機制的解構框架。

(一)個人主體因素的主導:認知誤區和職業危機感

影響智能教學中教師決策信心之“人”的主體因素指教師在使用智能技術輔助教學的過程中的個體認知及情感的內部心理變化,而教師對人工智能的認知和情感體驗對其把握教學節奏,實現精準教學預判具有決定性作用。教師對課堂教學中智能系統科學理性認知是其決策自信的基本前提,目前部分教師對人工智能及教學應用存在認知誤區,影響了其是否接受利用人工智能系統開展教學,這種認知誤區主要表現在對人工智能的概念和功能層面的誤解。人工智能的表層意蘊為其披上了“類人智力”的外衣,并使其擁有了“超級計算”的屬性,這同時也在心理為其樹立了“強大且神秘”的形象,從而可能會致使教師產生“過度崇拜”的盲目信任或“恐懼擔憂”的拒絕使用兩類極端反應。人工智能教育應用并沒有如此高端神秘,作為教學資源、輔助管理、批改作業、智能答疑等功能性程序系統,早已滲透至學習的各個層面。因此,排除教學者對人工智能的認知障礙是教師信心建立的基本前提,但無論人工智能發展程度幾何,使用者應警惕的永遠是其智能的“靈魂”,而非機器的“外殼”。

教師于智能環境中的情感狀態也制約其決策自信心的建立[15]。人工智能技術“先入為主”、高效精準的特征使教師在與之交互中也不斷萌生對自身教學地位的隱憂,從而產生未來被人工智能所取代的職業危機感。危機感產生于教師內心“失蹤”的安全感,安全感的缺位恰是教師自身不自信的重要表現。究其根本,筆者認為,此境遇是人工智能教育應用場景中教師主體的“錯位比較”造成,以人的“有限性”去對抗人工智能的“無限性”,從而放棄了教育中對人主動權的“自守”。如與人類教學執行者相比,人工智能系統的快速存儲和海量資源傳遞以及重復機械性教學行為操作和“不知疲倦”的監督管理等功能確實具有不可比擬的優越性。但教師于教育語境中觸及心靈善美的追逐與求真探索的深切體驗之“道”的地位是目前智能應用之“器”難以企及的,即從教師心靈層面生發的對教學對象的影響是其永不湮滅、恒久不斷的使命所在。由此看來,即使生理意義上的人存在被徹底還原的可能,但哲學意義上人類的心靈不可能被徹底還原,秉承著人工智能的教學應用應當只是“代具”而非“代替”[16],在教學中“借力”而非“依賴”人工智能是自我決策信心建立的心理基礎。

(二)行為效果因素的連接:自身行為的成敗及替代經驗

三元交互決定論中的行為因素指的是個體在環境因素和主體人因素的作用下進行的活動,分為實際行為和潛在行為。實際行為一般指個體親身參與的活動及產生的延遲影響效應;潛在行為可理解為個體心理及學習的行為準備及受先驗邏輯和榜樣示范作用主導的心理傾向,將其投射到影響智能環境中教師決策信心的影響因素可分為教師主體與人工智能交互活動的成敗經驗及觀察榜樣行為的替代性經驗。教師個體在人機交互教學中個人活動行為的成敗經驗這一效能信息源對其自身決策信心建立的影響最大。換言之,成功經驗會提升效能期望,反復的失敗經驗則會降低個體的效能期望。由是,教師與人工智能教學系統的交互積極性“初體驗”十分重要。與此同時,教師對人工智能教學失敗經驗的正確歸因也是決策信心建立的有效保障。積極的歸因方式應將成功歸因于教師內部因素,增加教師智能教學中的自我價值認同;同時善于將失敗歸于外因,減少責任負擔感,達到信心自我保護機制建立的目的。

榜樣行為的替代經驗也是影響教師決策信心建立的因素之一。人行為的效能期望大多來源于觀察他人的替代性經驗,即教師觀摩和借鑒示范者的成功經驗,以幫助建立成功把控人工智能教學及獨立決策的信心,而這一行為結果與教師群體間的經驗交流方式密切相關。教師在“經驗遷移”的過程中需審慎的關鍵環節即注意將自身真實的教學情境與榜樣示范的問題模式及情境框架進行遷移比較。同時,替代性經驗幫助決策時還應充分考量兩方面因素的干擾效應:一則是“易得性心理偏差”的干預,即人們總是傾向于作出容易的決定而非有價值的決定,這與該經驗相關的認知提取的難易程度相關,如教師在教學觀摩中的感官體驗與參與程度決定了其是否會認同并復制這一教學行為,同時觀摩活動與自身的聯系程度及熟悉程度也會影響教師對人工智能的選擇和使用;二則應防范的是觀察替代性經驗的成功與否而非切身體驗可能會使教師對人工智能教學應用產生“先入為主”的心理體驗,教師可能從內心分化出抵觸和排斥人工智能的意志情感,并主觀弱化與人工智能之間的連接,使得教師和人工智能產生非教育性疏離感,從而使教師產生對技術教學應用的消極心理體驗和被無用感、無價值感等低落心境所支配的被動技術應用行為[17],這同樣會限制教師主體決策自信的發生與建立。因此,替代性經驗的觀察學習應謹記個體并非從經驗行為中學習,而是通過對經驗的反思性建設而學習。

(三)智能環境因素關系轉移:人、機、環境三者交互能量的“此消彼長”

三元交互決定論指出,人同時是環境的產物和營造者[18]。主體人作為環境的營造者,通過自身的選擇定義環境,并通過自身的行為來改變環境。行為、人和環境因素相互連接并相互作用以產生影響,“交互”體現了事物之間的相互作用,而“決定”則表現為“事物間交互影響的產物”。由此,筆者認為在智能教育情境中,“環境”應當被看作是一種人機與周圍環境“關系”的具體體現,這種關系則由教學生態中三者之間的交互活動所決定,不同情境的交互體現了三者關系網絡中能量的“轉化和遷移”。教師如何有效地適應和處理不同人工智能教學情境關系網絡中各主體間能量的“此消彼長”是其決策信心發生和建立的關鍵,即教師主體在智能教學環境中應找準自身定位,處理好與學生和人工智能兩類“環境”之間的關系。技術“入駐”教育引發了教學的主體性功能之“辯”,而智能技術因其“智化”特征,在處理其關系中還應審慎考量倫理責任之“思”。教師與智能技術的關系處理是其主體決策自信建立的邏輯起點。人工智能教育環境中,教師只有堅守本心,杜絕教學自主決策權的“放逐”與“讓渡”,才是規避風險有效決策的肯綮之所在。

師生關系問題同樣也是影響教師決策自信建立的主要因素之一。智能教學環境中阻礙教師決策自信機制建立的師生關系問題呈現出“松散和緊密”兩極分化的狀態。“緊密”一面表現為過度“讓渡”,即智能的加入使教師角色可有可無。如學生通過人工智能自適應學習系統開展自主學習,并基于對自身知識儲備、學習風格和認知發展的反饋及時調整自身狀態,并且智能系統也通過“學習”實現對資源更加精準的匹配與推薦。此學習形式從目標確定、內容選取及學習評價過程全程都無需教師參與,教師教學耳濡目染的言行示范和潛移默化的支持教導退出了教學舞臺,從而造成了教學中師生的“角色失位”[19];“緊密”的另一面則表現為過度“控制”,智能語言、圖像和行為識別能夠采集并分辨學生的各類學習狀態,這意味著學生學習的一言一行與變化發展都在教師的嚴密掌控之下,使師生演化為絕對的“施控者”和“受控者”,使教學中師生交互的分寸和界限逐漸模糊,更甚者弱化了教育教學的價值。因此,教師在智能教學中有效決策和信心建立的“環境”保障是良好師生關系的建立與維系,這種良好關系建立的前提應重點關注教學中師生的情感交流與表達,挖掘教學中師生間有“溫度”的互動關系,加強師生主體間的對話交流,以營造和諧共生的師生關系環境。

五、信任重啟:智能教學決策“人”之主體

自信建設機制

智能教學環境需要培育以自身信心為主導的優秀決策者,堅守教學的教育性為基本準繩,凸顯決策中“人”的主體性作用:應從技術共生的視角切入,建立“解釋與理解”雙向發展的智能技術體系,并考量人、機、環境三者和諧互生的關系網絡,不斷完善智能決策機制的外部建制保障,實現頂層規劃與整體布局,重啟人機交互中的信任機制。

(一)技術共生:建立“解釋與理解”雙向發展的智能教育體系

智能教學環境中突出人之主體自信在決策中的重要作用,建立由教師主導的決策信心機制的首要前提是建立人工智能的“主動解釋”和人類教師“主動理解”雙向發展的教學體系。不可否認,智能體作為教師的首要互動對象,其數據基礎和算法程序的不斷精細化發展,對加強人機信任程度,實現更加精準的教學決策有著重要意義。技術開發者應不斷推動并追求可解釋性人工智能的發展。已有研究表明,信任與人工智能的可解釋性呈現積極的正相關,算法的透明度所反映的基本操作規則和內部邏輯在信任機制的建立中至關重要[20]。可解釋性關系建立的訴求與人工智能的算法“黑箱”效應對應,人工智能應用系統的最大難題即系統使用者甚至程序開發者都難以對系統輸入和輸出數據中間內部算法的工作機制有著絕對精準的把握,尤其對于無監督學習無法提供訓練數據,機器通過聚類發現數據中心的相似群自行“學習”,從而使得其輸出結果更具不確定性。多數教學工作者更是對人工智能的原理處于“一無所知”的狀態,此過程中產生的問題很容易被歸咎為算法的不透明性及機器數據自我訓練的未知性。可解釋性人工智能的目標便是使系統的預測和行為更易被理解,其在因果關系推理層面的突破成為破除人工智能算法“黑箱”壁壘的關鍵。智能系統模型大多基于相關關系展開決策分析,而沒有揭示對象屬性間的因果機理,因此,積極推動發展基于反事實推理的因果表征學習關系可能是人工智能技術發展的破局之作。

人工智能“可解釋性”的發展也意味著其“可理解性”的增強,人機關系的建立表現為機器向人靠攏,由“智”趨向“人”的一側。教師也應向人工智能“主動奔赴”,積極加強對人工智能技術的學習和理解,形成人機雙向接近的互動生態,以此建立對主體人決策信心的保障支持。研究顯示,支持智能技術的可靠性和使用者的能力是人與人工智能信任發展的兩個重要維度,其中,人對智能系統的理解成了制約兩者對人工智能信任影響關系的最強干預因素[21]。課堂教學中用不用人工智能已然成為一個“假命題”,而如何在教學中更好地應用人工智能才是一個真問題。并非“逃避”人工智能就能不受其影響,教師應做的是積極做好心理與行為建設,避免陷入技術應用的心理窘境和慌亂無措感支配的被動應用中。教師在行動層面應主動了解并學習人工智能教學相關專業知識,積極參與人工智能科普教育類與專題培訓類活動,在親身實踐和與優秀教師教學交流切磋中提升教師使用人工智能的獲得感和成就感,明晰教學中人與人工智能的責任邊界。

(二)關系互生:打造人、機、情境協同共生的智能教學互信生態

教師信心為主導的教學決策模式表現為教師對教學整體的把控有信心時接受人工智能的建議,而在沒有信心時則選擇拒絕人工智能系統的建議,這種“心無外物”的決策方式是人之為人的“獨立姿態”的集中反應,這種獨立和強大并不是遠離外物的“傲慢與孤僻”,而是與其周圍事物的“適應與和解”,即能夠適恰地處理與各主體之間的關系。人、機和問題情境構成了智能教育生態網絡,建立并發揮由教學主體信心主導的決策效能的關鍵在于營造教師、人工智能及教學問題情境三者和諧共生的“互信生態”,建立并打造互信共同體。定義角色以實現責任共擔,教師應在不同的教學情境中對人工智能的角色進行心理設定,以保障其在智能教學中調整并維持最適交互狀態。人工智能的角色定義一般可劃分為三種類型,從親密程度排列依次為敵人、工具和伙伴,通過不同情境中人工智能所“扮演”的角色歸于這三類中的某一類而展開分析或批判,教師不應將某一教學情境中的人工智能角色定義為固定的某一類別,教師應學會在不同的活動行為中做到適時地“轉換”,應以對“敵人”的戒備狀態審慎人工智能教學應用的風險和危機,以“工具”輔助視角助力教學有效開展,并以“伙伴”合作心態正視教學中人與人工智能的關系,以夯實教學各環節中的責任主體地位。

互通有無以實現價值共享。實現人工智能與教學主體的利益共聯,其程序設計應將教師和學生的利益置于首位,并保持與人類相近的價值觀。如研究者指出,機器若想獲取人類的信任,必須通過反復“溝通”了解人類的價值取向(意圖和信念),并不斷向人類解釋其每一步決策的意圖,而實現這一“雙向溝通”的關鍵是建立心智模型以建模人類意圖,簡而言之,即將人類意圖解釋為機器能夠理解的形式,以加強機器自身建設而增強人機互信。機器“揣摩”人類心智減少人機之間的認知思維差異以加強互信的實現目前還尚有難度。筆者認為可轉換角度,從文化的土壤中挖掘人機物互通的交流方式,以人工智能時代萬物主體和諧共生的方式為其注入靈魂。中華文化歷來崇尚“天人合一”的一統思想和“中庸為德”的無為之道,而反對“絕對”和“分裂”的兩極化思想,引鑒中華文化中“一”之精髓以審度人工智能教學系統生態中各主體的關系互生,以整體觀、系統觀、和諧觀和大局觀映照“人”于人工智能參與的大系統整體[22],發揮教學中人之主體性,敬畏技術,敬畏自然,努力建構互信生態。

(三)創生共建:完善智能決策倫理的法律法規和制度建設

智能教學環境中教師信心主導的決策機制充分釋放了“人”的自由意志,這一信任機制的建立同時也需外部建制的完善。人工智能在六十多年的發展中幾經沉浮,由此演化出了強弱人工智能的分說。教育領域甚至各領域中多由弱人工智能主導,即利用人工程序系統解決特定教育問題,但強人工智能的實現一直是研發者和應用者的終極目標。強人工智能的技術邏輯是能夠自主學習推理解決問題且具備自我意識的智能體,關于人工智能的倫理審思和法律權利的探討也由此發軔。2021年,科技部頒發了《新一代人工智能倫理規范》,提出應充分考慮當前社會各界人工智能的隱私、偏見、啟示和公平等倫理問題,并提倡善用,防止濫用,促進人工智能的健康發展。雖取得一定進步,但更加完善的社會建制尚待不斷探索。

與此同時,面向強人工智能自主意識的發展目標的責任和權利主體之爭也甚囂塵上。人工智能的注入“擾亂”了原有的法理體系,亟需法律體系內部的整體反思與全面整飭,在人工智能相關法律的制定中應及早扼斷法律層面對人工智能應用的完全人格、責任主體性的傾注趨勢,堅守以“人”為主體性的價值審判立場。教育教學與司法審判同樣都表現為人性、道德和人的組織性交織的活動特性。教學主體在教學內容、學情分析、學習評價等活動中也應持有絕對的自主決策權,教師絕不應將其自主權“讓渡”給人工智能。應謹記:人工智能未來無論發展如何,其工具性屬性不會改變,教育過程中人的主體性決策是永恒不可替代的意志行為。

[參考文獻]

[1] BAKER R S, HAWN A. Algorithmic bias in education[J]. International journal of artificial intelligence in education, 2022, 32: 1052-1092.

[2] 李世瑾,胡藝齡,顧小清. 如何走出人工智能教育風險的困局:現象、成因及應對[J]. 電化教育研究, 2021(7):19-25.

[3] BRIDGEMAN B, TRAPANI C, ATTALI Y. Comparison of human and machine scoring of essays: differences by gender, ethnicity, and country[J]. Applied measurement in education, 2012, 25(1): 27-40

[4] HU Q, RANGWALA H. Towards fair educational data mining: a case study on detecting at-risk students[C]//Proceedings of The 13th International Conference on Educational Data Mining, Jul 10-13, 2020. Morocco: EDM, 431-437.

[5] 馬克·波斯特.信息方式[M]. 范靜嘩,譯.北京:商務印書館,2000:17.

[6] AKGUN S, GREENHOW C. Artificial intelligence in education: addressing ethical challenges in K-12 settings[J]. AI and ethics, 2022, 2: 431-440.

[7] 孫立會,王曉倩. 人工智能之于教育的未來圖景:機器行為學視角[J]. 中國電化教育,2022(4):48-70.

[8] 徐振國.教育智能體的發展歷程、應用現狀與未來展望[J].電化教育研究,2021,42(11):20-33.

[9] CHONG L, ZHANG G, GOUCHER-LAMBER K, et al. Human confidence in artificial intelligence and in themselves: the evolution and impact of confidence on adoption of AI advice[J]. Computers in human behavior, 2021,127:1-10.

[10] MATTHIAS A. The responsibility gap: ascribing responsibility for the actions of learning automata[J]. Ethic sand information technology, 2004, 6(3): 175-183.

[11] 劉博韜, 金香花. 人工智能的責任鴻溝——基于歸因過程的分析[J].道德與文明,2021(6):115-131.

[12] GILLATH O, AI T, BRANICKY M, et al. ?Attachment and trust in artificial intelligence[J]. Computers in human behavior,2021,115:1-10.

[13] 馮銳, 孫佳晶 孫發勤. 人工智能在教育應用中的倫理風險與理性抉擇[J].遠程教育雜志,2020,38(3):47-54.

[14] 諶衡. 從“人禽之辨”到“人機之辨”——人工智能時代教育的成“人”屬性[J].全球教育展望, 2021,50(10):35-46.

[15] 劉清堂,李小娟,謝魁,等. 多模態學習分析實證研究的發展與展望[J]. 電化教育研究, 2022,43(1):71-78.

[16] 張務農.人工智能時代教學主體的辨識與倫理反思[J].教育研究, 2022,43(1),81-90.

[17] 李芒, 申靜潔.論教師教學的信息技術疏離感[J].中國電化教育, 2020(5):62-68.

[18] BANDURA A, CERVONE D. Differential engagement in self-reactive influencesin cognitively-based motivation[J]. Organizational behavior and human decision processes, 1986, 38(1):92-113.

[19] 趙磊磊,陳祥梅,杜心月.人工智能時代師生關系構建:現實挑戰與應然轉向[J].教育理論與實踐,2021,41(31):36-41.

[20] COECKLBERGH M. Artifcial intelligence, responsibility attribution, and a relational justification of explain ability[J]. Science and engineering ethics,2020,26:2051-2068.

[21] BALFE N, SHARPLES S, WILSON J. Understanding is key: an analysis of factors pertaining to trust in a real-world automation system[J]. Hum factors, 2018, 60(4):477-495.

[22] 王萍萍.人工智能時代機器人的倫理關懷探析——以《老子》“善”論為視角[J].自然辯證法研究,2021,37(5):54-59.

Artificial Intelligence in Educational Decision-making Subjectivity Trust Crisis and Its Avoidance

SUN Lihui

(School of Education, Minzu University of China, Beijing 100081)

[Abstract] While artificial intelligence (AI) has brought new energy into teaching and learning, it has also caused a lot of rethinking. Algorithm bias, privacy invasion and emotional neglect have triggered man-machine trust crisis in intelligent education, which leads to a lack of decision-making autonomy. The subjectivity of "human" should be highlighted in the decision-making of artificial intelligence teaching. The establishment of a decision-making model dominated by teachers' confidence can help teachers break away from the quagmire of technology-centered materialism, realize the independent field of decision-making, release the psychological shackles of false attribution, so as to uphold the main responsibility of teaching subject. At the same time, it gives play to the perceptual nature of teaching and learning, and reduces the emotional dependence of intelligence. Bandura's triadic interactive determinism provides an analytical framework for deconstructing the factors influencing the effectiveness of teachers' decision making. Teachers' intelligent cognitive misconceptions and professional crisis dominate the establishment of confidence mechanism, and the success or failure of their own behaviors and alternative experience connect the confidence and behavior in teaching. The energy transfer of each subject of man-machine-intelligence contextual factors affects the harmonious interaction of the system. Therefore, the realization path of "human" subjectivity in teaching decision-making is designed from three levels of technical subject, relationship maintenance and mechanism guarantee, an intelligent education system with two-way development of interpretation and understanding is established, and a mutual trust ecology of intelligent teaching and learning in which human-computer-context coexist is shaped. Meanwhile, the legal and institutional construction of the ethics of intelligent decision-making is continuously improved, and the trust mechanism of artificial intelligence education is restarted.

[Keywords] Artificial Intelligence; Teaching Decision-making; Trust Crisis; Subject Confidence

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 久久国产精品麻豆系列| 亚洲午夜综合网| 真人免费一级毛片一区二区| yjizz视频最新网站在线| 日韩精品久久无码中文字幕色欲| 欧美日韩精品一区二区在线线 | 在线免费不卡视频| 丰满的少妇人妻无码区| 国产成人av大片在线播放| 成人午夜网址| 国产69囗曝护士吞精在线视频| 综合社区亚洲熟妇p| 无码中文字幕精品推荐| 国产欧美在线观看一区| 国产美女人喷水在线观看| 人人91人人澡人人妻人人爽| 国产精品成人啪精品视频| 日本高清免费不卡视频| 大香伊人久久| 一区二区三区四区在线| 亚洲激情99| 亚洲一区黄色| 亚洲精品手机在线| 亚洲综合九九| 伊人中文网| 成人国产小视频| 免费在线成人网| 伊人久久大香线蕉综合影视| 久久香蕉国产线看观看亚洲片| 国产一级视频在线观看网站| 九色视频线上播放| 国产成人乱码一区二区三区在线| 91青青草视频在线观看的| 午夜啪啪福利| 亚洲有码在线播放| 亚洲第一黄色网| 国产白浆一区二区三区视频在线| 国产微拍一区| 国产一级做美女做受视频| 亚洲成人在线网| 欧美第一页在线| 国产成人无码Av在线播放无广告| 亚洲精品日产AⅤ| 久草性视频| 久久综合九色综合97网| 天天色天天综合网| www精品久久| 亚洲综合二区| 在线不卡免费视频| 青草精品视频| 五月六月伊人狠狠丁香网| 99久久这里只精品麻豆| 欧美国产综合色视频| 男女性午夜福利网站| 香蕉久久国产精品免| 毛片最新网址| 亚洲综合婷婷激情| 国产亚洲精品自在线| a色毛片免费视频| a级高清毛片| 在线观看av永久| 亚洲国产天堂在线观看| 无码国产伊人| 欧美精品影院| 亚洲精品波多野结衣| 在线欧美国产| a级毛片免费在线观看| 波多野结衣在线se| 男人的天堂久久精品激情| 无码国内精品人妻少妇蜜桃视频| 狠狠色丁婷婷综合久久| 亚洲天堂日韩在线| 亚洲精品第一页不卡| 日韩精品视频久久| 美女扒开下面流白浆在线试听| 天天色天天操综合网| 欧美69视频在线| 人妻一区二区三区无码精品一区| 国产精品第一区| 久久久久国产精品嫩草影院| 日韩不卡高清视频| 无码免费试看|