摘要:人工智能以其“數據表征世界、算法實現認知、機械完成行動”的類人特性,不僅推動了教育評價改革,促進了教育評價的精準化、智慧化、個性化,還引發了教育評價主體性讓渡的問題。基于此,文章首先從人工智能的主體地位和人的主體地位兩個角度,梳理了人工智能教育評價主體性讓渡的現狀。隨后,文章揭示了人工智能時代教育評價主體性讓渡的風險,主要表現為教育評價功能的扭曲、教育評價人文價值的消解、教育評價的主體性失序等。最后,文章從堅守主體地位、定義邊界限度、調解平衡關系等方面,提出了人工智能時代教育評價主體性讓渡風險的規避之道,以期進一步優化人工智能在教育評價領域的應用,并促進其更好地推動教育事業高質量發展。
關鍵詞:人工智能;教育評價;主體性讓渡;風險規避
【中圖分類號】G40-057 【文獻標識碼】A 【論文編號】1009—8097(2023)05—0034—07 【DOI】10.3969/j.issn.1009-8097.2023.05.004
隨著新一輪科技革命的到來,計算機科學的重要分支——人工智能以其研究人類智能實質的前沿性、模擬人類智能邏輯的應用性、延伸人類智能邊界的挑戰性等顛覆性優勢得到了快速發展,并在社會生活各個領域發揮了重要作用,很多國家紛紛將人工智能發展列入國家發展戰略,這預示著全球開始邁入人工智能時代[1]。教育評價是教育實踐的重要組成部分,是教育活動的“指揮棒”,對于教育活動具有導向性作用。目前,人工智能已被應用于能力評估、人格評估、課程風險評估、學習過程評估等方面,不僅提高了評價的精度和效率,還助推教育評價朝著實時評價、全面評價等方向發展。隨著人工智能的應用范圍越來越廣、融合程度越來越深,原有的教育評價生態發生了深刻變化。從評價主體來看,人機協同逐漸成為新的評價主體。新主體的出現,雖然提升了教育評價的科學性與客觀性,但也使人在教育評價中的主體性受到挑戰,表現為人的主體性向技術讓渡[2]。這種主體性的讓渡有可能帶來意料之外的結果,如出現個人主體性被無意識侵害或社會權利結構漂移的現象[3]。因此,本研究嘗試梳理人工智能時代教育評價主體性讓渡的現狀,并審慎思考其帶來的風險,以積極尋求規避之道。
一 人工智能時代教育評價主體性讓渡的現狀
人的主體性是人之為人的關鍵,主要包含兩層含義:一是主體因其自主決定,所以為主體;二是主體在與其他事物的關系中處于主導地位[4]。縱觀西方主體哲學的發展歷程,關于主體性的論述經歷了兩次轉向,即從“理性人”向“非理性人”的轉向和從“人”向“后人類”的轉向[5]。
第二次轉向由技術發展所引發,人工智能的出現更是加劇了“人”的主體與“技術人”的主體之爭,導致人的主體性向技術讓渡——教育評價領域也正面臨此問題。
1 人工智能的主體地位突顯:由輔助評價轉向適度自主
1971年,美國學者Gronlund[6]將“教育評價”定義為在記述教育活動量(或質)的基礎上進行價值判斷的活動,由此可知教育評價包括兩個過程:一是對教育活動量(或質)的記述,二是對以上內容的價值判斷。人工智能因其強大的計算能力、海量的數據獲取能力、高效率的數據分析能力以及衍生出來的語言識別、圖像識別、自然語言處理、專家系統等功能,可實現評價的規模化、公平化、個性化、實時化,大大提升了工作的效率,但這僅作為一種輔助技術,幫助人完成教育評價中教育活動量(或質)的記述工作,尚未涉及價值判斷。
隨著人工智能技術的發展,知識表現、智能感知、自動決策等更加高階的功能得以實現,這些功能向教育評價注入了更多的智慧元素[7]。在評價目標方面,可建立多模態數據融合的評價目標,以實現評價目標設置的科學性、系統性;在評價標準方面,可依托海量數據和算法模型,對評價指標的選擇、權重設置等進行自動驗證和篩選,提升評價指標的公正性、合理性;在評價方法方面,可突破傳統的紙筆測試,推動發展性評價、增值性評價。不管是評價目標與評價標準的優化,還是評價方法的創新,都不單單是數據收集與處理的結果,而是經過“篩選、分析、決策”的“類人思考”。這樣一來,人工智能不只是參與教育評價中教育活動量(或質)記述的過程,還參與教育評價的“價值判斷”過程——雖然這僅僅是人工智能計算的結果,不具有感性的價值取向,但也意味著人工智能主體性的進一步增強。同時,機器學習技術更是推動了教育評價的改革[8],具有“學習”能力的人工智能可通過適度的自主判斷給出評測結果——雖然測評系統的設計和訓練都由人預先設計,但展示出的效果已經替代了人的作用,呈現出“類人”特性。
2 人的主體地位弱化:由主導評價轉向數字依賴
目前,教育評價主體主要包括教育決策者、教育活動主體、教育評價信息使用者等,他們依據各自的評價標準對教育活動做出價值判斷,雖然評價結果帶有部分主觀性,但人類豐富、敏感的感知系統是價值判斷的基礎。不同于人類,依靠大數據、強算力的人工智能雖然助推了排名、評定、比較等以量化為表征的教育評價方式的日益普及,但也引發了數字依賴的問題,導致量化指標越來越多。我們不得不警惕:長此以往,會不會所有的教育評價項目都必須通過人工智能的量化處理才能開展?若果真如此,那么人類在教育評價中的主導性將會失去,下一步的決定將受制于人工智能,這在外在行動上表現為行動的不自由,是不能“自主決定”的外化。此外,對客觀性的追求使得數據分析、不帶主觀色彩的評價被過度鼓吹、追捧,甚至人的主體性亦被視為“污染變量”[9]。
基于以上分析,人工智能時代教育評價中人的主體性不僅會遭受失去“自主決定”的威脅,更會面臨失去“主導性”的挑戰——這種變化看似是理論上的探索,但教育評價中人的主體性向技術讓渡的確正在發生。目前,教育相關領域紛紛發出了“捍衛人的主體性被視為現代教育的核心使命”之吶喊,教育的人文主義價值亟需被重建,教育的本質和發展規律不應被忽視。
二 人工智能時代教育評價主體性讓渡的風險
雖然人工智能突破了“人”的諸多生理性限度,促使教育評價走向高效、科學、智慧,但因此產生的教育評價主體性讓渡問題也引發了一些潛在風險,主要表現為教育評價功能的扭曲、教育評價人文價值的消解和教育評價的主體性失序。
1 教育評價功能的扭曲
從信息技術的本質去理解,人工智能是一種“數據表征世界、算法實現認知、機械完成行動”的高階自動化技術[10]。因此,對于教育評價,人工智能同樣將其作為一種數據驅動的算法應用,并將評價指標、數據、結果不斷編碼化、算法化。隨著人工智能主體性的提升,“人—機”組成的新的評價主體會因其數據、算法背后的復雜認知,而陷入數據偏見、排名陷阱、數字鴻溝的算法風險[11],這些風險造成了教育評價功能的扭曲。
①數據偏見:是指數據的采集者和算法的設計者可能存在一些他們自己意識不到的偏見,這些偏見會影響他們對數據采集的重點,并隱蔽地藏在代碼中,最終產生有偏見的結果[12]。算法風險帶來的數據偏見會影響教育評價的公平性,從而加劇教育評價體系的內部歧視,并消解教育評價的多元化特質。究其原因,在于不透明和無法解釋的算法僅僅只對評價對象進行標記、篩選,而沒有關注實際的教育質量。
②排名陷阱:是指當基于某種算法的排名系統成為標準時,人們就會不自覺地陷入“自動鞏固”的陷阱,即無論此排名系統是否正確或是否存在局限,人們都會以此為標準,并據此調整自己的行為向此標準靠攏,結果進一步強化了其合理性。例如,“大學排行榜”以高層次人才數量、獎勵數量、論文數量、經費數量作為大學排名的標準,使得各高校投入大量的精力進行激烈競爭,乃至忽視了高等教育本初的任務。
③數字鴻溝:是指由于信息的不對稱,導致社會不同階層出現差距、分化,是馬太效應的一種表現。在人工智能時代,信息治理權已成為技術精英的專屬。技術壟斷、人群偏差和信息繭房加大了教育評價的“數字鴻溝”,導致由算法驅動的教育評價結果只是反映了部分技術精英的意見,而非客觀性、專業性、科學性的評價結果。
由上可知,人工智能因其算法的復雜性、數據的非透明性存在“算法黑箱”問題,使得教育評價存在功能異化扭曲的風險,影響了“診斷、改進、引導、激勵”等教育評價功能的發揮。
2 教育評價人文價值的消解
隨著人機協同應用于教育評價的范圍越來越廣,人工智能參與的幅度越來越大,甚至有些評價交由人工智能單獨進行。對此,我們需要認真思考兩個問題:①人工智能能否進行價值判斷?②人工智能給出的評價結果代表了什么?
“評價與認知存在根本區別,評價是評價者對一定事實與自己的價值關系的認識。而當這種事實并不在與評價者相聯系的價值關系中被考察時,對它的認識則是認知。”[13]換句話說,認知是對客觀事實的認識,而評價是對價值事實的認識——價值事實是主客體之間價值關系運動所形成的一種客觀的、不依賴于評價者主觀意識的存在狀態。在認知層面,人工智能具有較大優勢,其展示出來的高速運算、海量存儲、復雜分析等特點,是人以器官、神經作為認知基礎所難以企及的。然而,評價是具有復雜內涵主體的價值取向和心理活動的過程,是經驗、理性、感性等因素綜合作用的結果,這是人工智能所不擅長的。雖然人工智能可以通過算法邏輯、依據評價標準得出評價結果,但其背后的“好與壞、善與惡”等價值衡量卻無法傳遞出來。因此,人工智能可以進行教育評價,但評價結果傳遞不了感性的價值判斷。
缺少感性的價值判斷意味著什么?又會給教育帶來什么?“所謂教育,是人對人的主體間靈肉交流的活動。”[14]教育的目的除了傳遞知識、技能、方法,更重要的是培養人的道德品質和人生價值,其實現就涉及價值判斷的問題。在高效算法的驅動下,人工智能將工具理性作為唯一標準,一切與人和人性有關的尊嚴、價值、感性都被擱置——“破五位”便是很好的例子。將“唯分數、唯升學、唯文憑、唯論文、唯帽子”作為評價人的“物化”指標,雖然有利于人工智能優勢的發揮,但長此以往,教育評價中的人文價值將面臨被消解的風險,同時也會出現人類被“物化”的隱患。因此,“破五維”的背后就是要以人的發展為核心,扭轉不科學的教育評價導向,克服短視行為、功利化傾向,樹立科學的教育發展理念。
3 教育評價的主體性失序
人工智能的出現不同于以往的技術革命,其模糊了現實世界、虛擬世界和生物社會世界的界限[15],這種“類人”特性確實彌補了人類某些方面的不足,但也加快了人的主體性向技術的讓渡。從人工智能的發展勢頭來看,這種讓渡將愈演愈烈,且不只是“量”的增加,更是“質”的突破。人工智能利用其算法優勢向人類提供高效的智能輔助解決方案,人類在滿足于高效解決方案所帶來便捷性的同時,也會因逐漸適應、習慣了這種方式,而對人工智能的依賴性越來越強,甚至會不自覺地按照人工智能的邏輯進行活動。久而久之,人類的主體性將會逐漸被削弱,人機之間的界限也會越來越模糊。放眼未來,如果具有獨立思考能力的強人工智能成為現實,那么可以預見:“智能機器在社會與教育生活中扮演著不可或缺的角色,成為社會的一個有機組成部分和具有獨立判斷、自主行動的行為主體。”[16]到那時,如何處理人類與人工智能之間的關系將面臨新的挑戰,人類主體性讓渡的問題也會更加凸顯。
反觀當下,雖然我們并沒有失去對人工智能的控制,但不得不承認:我們并未全面掌握人工智能的發展規律,人類實際控制人工智能的能力還很弱。對于教育評價,注入人工智能元素的評價目標、評價標準、評價方法正按照自己的邏輯在“思考”,并且朝著更加復雜化、隱蔽化的方向迭代,這不得不讓我們擔憂。因此,若不及時警惕人的主體性向技術讓渡的風險,教育評價走向主體性失序的那一天也許就離我們不遠了。
三 人工智能時代教育評價主體性讓渡風險的規避
2020年,中共中央、國務院印發《深化新時代教育評價改革總體方案》,提出要創新評價工具,利用人工智能、大數據等現代信息技術,探索全過程的縱向評價和德智體美勞全要素的橫向評價[17],這是國家對人工智能在教育評價改革中的定位。面對人工智能時代教育評價主體性讓渡的風險,我們不能簡單地拒絕人工智能的應用,而要從堅守主體地位、定義邊界限度、調解平衡關系等方面入手來規避風險。
1 堅守人在教育評價中的主體地位
厘清人與人工智能的關系,可從主體性的分類研究進行討論。不同于近代哲學認為人的主體性等同于“認知主體”或“思維主體”,現當代西方哲學認為主體性有“認識主體”和“價值主體”之分[18]、“認知主體”或“思維主體”并非人的主體性的全部。其中,“認識主體”強調探索和認識世界,表征“我能認識什么”;而“價值主體”彰顯認識事物的自由性和目的性,表征“我應該認識什么”。人工智能將數字驅動作為底層邏輯,是將所有事物“物化”,從“客體”的角度、以直觀的方式理解事物,并沒有從主觀角度認識和理解世界,只能等同于“認識主體”。從這個角度來看,人工智能在價值判斷方面并沒有太多可作為的空間。
馬克思曾說:“已經生成的社會,創造著具有人的本質的這種全部豐富性的人,創造著具有豐富的、全面而深刻的感覺的人作為這個社會的恒久的現實。”[19]具有豐富的、全面而深刻的感覺的人是價值判斷的基礎,人是真正的“價值主體”。教育評價既是教育活動,也是價值判斷活動——教育活動具有人文特性,而價值判斷以人作為“價值主體”,兩者都要求人處于教育評價的主體地位。因此,人工智能時代要堅守人在教育評價中的主體地位:①在現有的人機協同評價系統中注重人的主體地位。在人機協同過程中,人工智能應承擔輔助角色,為人類開展教育評價做好預處理、預判斷,協助人類完成機械性、復雜性的工作;同時,人工智能應處于人類的可控范圍內,確保人類一旦察覺人工智能存在越級行為就可以及時處理或中止。②在開展智慧評價研發時應重視人的主體地位。我們不能僅從算法的角度一味追求效率,更要重視人的價值和主體地位,避免出現教育評價中既沒有“教育”也不見“人”的情形[20]。
2 定義人工智能使用的邊界或限度
確立人在教育評價中的主體地位后,我們還要考慮另一個重要問題:人工智能使用的邊界或限度是什么?本研究認為,應通過回歸教育本體及其本質屬性、回歸教育評價本質,來定義人工智能的邊界或限度,其介入的最佳平衡點是“代具”(即輔助人類生存的身外之物)而不是“代替”。
教育本體屬于教育哲學范疇。以馬克思主義本體論為視角,教育本體是培養人的社會實踐,是促進人的體力和智力充分、自由、和諧、全面發展的社會實踐。與其他社會實踐相比,其差別體現在教育的本質屬性上。教育最根本、普遍的本質屬性是立德樹人[21],這體現了教育的人文特性。人工智能與教育評價的深度融合,應按照教育本體及其本質屬性定義人工智能的邊界,將促進人的發展作為首要目標,避免人工智能的盲目發展,并隨時警惕人工智能應用過程中的商業逐利、技術倫理、信息安全等問題,否則可能會出現人工智能背離教育本質的現象。
西方的教育評價理論發展較早,已形成較為成熟的理論體系,其中Guba等[22]提出的“四代理論”較有影響力,分別為:測量、描述、判斷、建構。整體而言,前三代教育評價理論在實踐中暴露出存在管理主義傾向、忽略價值的多元性、過分強調調查的科學方式等問題;而第四代教育評價理論更側重評價標準的發散性、評價方法的定性分析,認為評價的本質就是對被評事物賦予價值,更加關注教育評價的激勵、改進作用。因此,應從回歸教育評價本質的角度定義人工智能在教育評價中的使用限度。例如,大學生綜合測評的目的是讓大學生更清楚地了解個人情況或更好地引導其實現德智體美勞全面發展,而不是注重排名、分類、評獎、表彰等。
3 技術調解平衡人機博弈關系
如前文所述,人工智能有時會因其“算法黑箱”而偏離預設的軌道,甚至會掙脫人類的控制,陷入主體性失序的境地,這就需要平衡好人機博弈的關系,避免在沖突失衡的“零和博弈”與雙方共贏的“正和博弈”之間左右搖擺。技術調解理論是當代技術倫理學的新思潮,強調通過建構有效的人機交互關系,化解人與技術的矛盾[23]。在技術調解的作用下,人類與人工智能可實現雙方共贏的“正和博弈”。
一方面,應注重人機協同的提升。Verbeek的“道德物化”思想發展了技術調劑理論,認為技術與主體實則是道德共同體中的一種共生關系,一旦擁有一致的行動目標,雙方利益都會有所擴充,將形成雙方共贏的“正和博弈”局面[24]。因此,要實現人工智能與教育評價的“正和博弈”,就需要人與人工智能建立一種相互規約、相互牽制的共生關系,既發揮人工智能的智能性,又發揮人的自主性。例如,設計評價系統時,既要重視人工智能的高效性、智慧性,又要喚起人的自主性,避免人對人工智能過度依賴。
另一方面,應注重技術的源頭調解。“道德物化”思想還認為,應重視技術人工物的內嵌價值,通過在源頭進行技術調解,從根本上引導技術向善發展。例如,目前很多網頁瀏覽軟件設有“青少年模式”,這可從源頭上屏蔽掉很多不適合青少年瀏覽的內容;再如,很多教育類軟件設有“觀看時長提醒”,這種自發式預警提示可預防青少年用眼過度。目前,只關注分數、排名的教育評價“薄數據”功利性傾向嚴重,應從人工智能的源頭進行調整,將“薄數據”轉變為重視主觀解釋、視角差異的教育評價“厚數據”,如此才能讓人工智能真正賦能教育評價。
四 結語
基于人工智能時代教育評價主體性讓渡的現狀與風險分析,我們對人工智能的應用既要積極樂觀,也要加以警惕,應將人工智能置于人類的可控范圍內,以持續發揮技術的正向作用。與此同時,深入探索人工智能技術的主體性也是規避人工智能時代教育評價主體性讓渡風險的重要議題。從主體哲學的角度來看,不管是Merleau-Ponty[25]提出的“肉身主體性”(即認為凡是能夠對外部世界進行感知并實施行動的生命體都可以是在世存在的主體,包括有機體、無機體、虛擬身體等),還是Foucault[26]提出的“知識主體”(即認為現代主體是由知識主體占據主導地位,從不同角度闡釋人工智能技術具有主體性的可能性),都為進一步探索人工智能時代教育評價主體性讓渡風險的規避之道提供了新思路。但是,教育評價是一項具有人文特性的價值判斷活動,對主體性的討論不僅應從“認知主體”的角度進行思考,還應從“價值主體”的角度進行研究,因而教育評價視域下人工智能技術的主體性更加復雜。后續研究將從現象學和技術哲學出發,以主體性詮釋為切入點,進一步明晰人與人工智能的關系,推進人工智能在教育評價領域的應用更科學、更高效。
參考文獻
[1]趙智興,段鑫星.人工智能時代高等教育人才培養模式的變革:依據、困境與路徑[J].西南民族大學學報(人文社科版),2019,(2):213-219.
[2][5]張務農.人工智能時代教學主體的辨識與倫理反思[J].教育研究,2022,(1):81-90.
[3]李子運.人工智能賦能教育的倫理思考[J].中國電化教育,2021,(11):39-45.
[4]陸幸福.人工智能時代的主體性之憂:法理學如何回應[J].比較法研究,2022,(1):27-38.
[6]Gronlund N E. Measurement and Evaluation in Teaching[M]. New York: The Macmillan Compang, 1971:25.
[7]胡欽太,伍文燕,馮廣,等.人工智能時代高等教育教學評價的關鍵技術與實踐[J].開放教育研究,2021,(5):15-23.
[8]袁莉,曹夢瑩,(英)約翰·加德納,等.人工智能教育評估應用的潛力和局限[J].開放教育研究,2021,(5):4-14.
[9][18]靖東閣.后人類時代教育研究的主體性重塑、風險及其規避[J].電化教育研究,2022,(6):11-17.
[10]涂良川,喬良.人工智能“高階自動化”的主體可能性——兼論人工智能奇點論的存在論追問[J].現代哲學,2021,(6):32-40.
[11]楊欣.教育評價改革的算法追問[J].華東師范大學學報(教育科學版),2022,(1):19-29.
[12]周濤.數據的偏見[J].金融博覽,2017,(5):22-23.
[13]李德順.價值論[M].北京:中國人民大學出版社,2007:431.
[14](德)卡爾·雅斯貝爾斯著.鄒進譯.什么是教育[M].北京:生活·讀書·新知三聯書店,1991:3.
[15]丁玉峰.技術邏輯失序擴張下“智能”的宰制與“人”的復歸——基于安德魯·芬伯格技術民主思想的批判性審思[J].理論導刊,2022,(6):95-100、108.
[16]劉復興.論教育與機器的關系[J].教育研究,2019,(11):28-38.
[17]人民網.中共中央國務院印發深化新時代教育評價改革總體方案[OL].
lt;http://sx.people.com.cn/n2/2020/1014/c352664-34347574.htmlgt;
[19](德)卡爾·馬克思,弗里德里希·恩格斯著.中共中央馬克思恩格斯列寧斯大林著作編譯局譯.馬克思恩格斯文集(第一卷)[M].北京:人民出版社,2009:191-192.
[20][21]石中英.回歸教育本體——當前我國教育評價體系改革芻議[J].教育研究,2020,(9):4-15.
[22](美)埃貢·G·古貝,伊馮娜·S·林肯著.秦霖,蔣燕玲譯.第四代評估[M].北京:中國人民大學出版社,2008:2.
[23]孫田琳子.人工智能教育中“人-技術”關系博弈與建構——從反向馴化到技術調解[J].開放教育研究,2021,(6):37-43.
[24]李日容,張進.維貝克“道德物化”思想的后現象學根基[J].科學技術哲學研究,2018,(5):83-88.
[25](法)莫里斯·梅洛-龐蒂著.姜志輝譯.知覺現象學[M].北京:商務印書館,2001:256.
[26](法)米歇爾·福柯著.謝強,馬月譯.知識考古學[M].北京:生活·讀書·新知三聯書店,1998:21.
Abstract: Due to its human-like characteristics of “data representing the world, algorithm realizing cognition, and mechanical accomplishing action”, artificial intelligence not only drives the reform of educational evaluation, promotes the precision, wisdom and individuation of educational evaluation, but also causes the subjectivity transfer problem of educational evaluation. Based on this, the paper firstly combed the current situation of the subjectivity transfer of evaluation of artificial intelligence education from two perspectives of the subjective statuses of artificial intelligence and human. Then, this paper revealed the risk of subjectivity transfer of educational evaluation in the artificial intelligence era, which was mainly manifested as the distortion of educational evaluation function, the dissolution of humanistic value of educational evaluation, and the disorder of the subjectivity of educational evaluation. Finally, the paths to avoid the risk of the subjectivity transfer of educational evaluation in the artificial intelligence era were proposed from the aspects of sticking to the subjective status, defining the boundary limitation and mediating the balance relationship, expecting to further optimize the application of artificial intelligence in the educational evaluation field, and facilitate its better promotion of high-quality development of educational enterprise.
Keywords: artificial intelligence; educational evaluation; subjectivity transfer; risk aversion
*基金項目:本文受山東省教育科學“十三五”規劃2019年度重大招標課題“山東省高等學校分類管理與評價研究”(項目編號:VZ2019003)資助。
作者簡介:袁玉龍,山東農業大學講師,曲阜師范大學在讀博士,研究方向為高等教育管理和教育評價,郵箱為yuanyl@sdau.edu.cn。
收稿日期:2022年11月22日
編輯:小米