999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

機器的“人化”與人的“機器化”:智能時代教育的主體性危機與破解

2024-04-29 00:00:00蘇慧麗張敬威
現代遠程教育研究 2024年1期

摘要:伴隨著智能技術尤其是GPT等生成式人工智能的飛速發展,人與技術在教育領域的互構不斷增強。一方面,技術的快速迭代發展促使機器不斷“人化”,甚至作為行動主體參與到教育當中,不僅重新構建了“人—技術—世界”的關系,而且導致技術在教育中的角色逐漸從“教學工具”向“教育行動者”轉變,并通過 “技術凝視主體”的方式對學生進行引導與塑造。另一方面,技術在教育中的深度介入導致人的“機器化”加劇,體現為:被技術嵌入的教育主體從“自然人”向“賽博格”轉變,人類認識形式從身體感知向機器感知轉變,人的主體價值被智能技術劃界與規定。為破解智能時代技術帶來的主體性危機,應以“培養人”為意向堅守教育的價值指向,使技術意向性與教育目的性相統一;以“否定性”為奇點透視教育主體的人機之別,著力培養學生的反思與批判能力;以“創變”為核心培養學生的新型創造力,使學生在具身認知與機器感知下形成創變能力;以“善智”為目標構建教育中的人機互動,使教育技術在高效應用的同時能被有效規范。

關鍵詞:智能教育;機器的“人化”;人的“機器化”;主體性;生成式人工智能

中圖分類號:G434" "文獻標識碼:A" " 文章編號:1009-5195(2024)01-0012-10" doi10.3969/j.issn.1009-5195.2024.01.002

基金項目:2023年度教育部人文社會科學研究青年基金項目“基于循證決策的拔尖創新人才早期培養的政策體系構建研究”(23YJC880096)。

作者簡介:蘇慧麗,博士,講師,東北師范大學教育學部(吉林長春 130024);張敬威,博士,副教授,東北師范大學教育學部(吉林長春 130024)。

智能時代生物技術、數字技術與智能技術的發展正在改變著作為碳基生物的人與作為硅基“生物”的智能機器的演化規律與演化節奏。一方面,人工智能的飛速發展尤其是生成式人工智能的快速迭代使機器不斷“人化”,甚至作為行動主體參與到教育當中;另一方面,技術在教育中的深度介入導致人的“機器化”加劇,表現為教育主體向“賽博格”(Cyborg)①轉化、機器感知對身體感知的替代、技術功能對人的勞動價值進行劃界。人工智能正在迎來其發展的“奇點”,面對技術與人的主體形態變化,教育作為“培養人”的活動,必須重新思考“人是什么”“人向何處去”等問題,重新構建未來教育主體與智能體之間的關聯,應對智能時代教育的主體性危機。

一、機器的“人化”:教育中技術“激進的 無定”

2022年11月,OpenAI發布了名為ChatGPT的智能聊天工具。作為生成式人工智能的典型應用,ChatGPT的出現標志著人工智能的發展正逐漸走向通用智能的新階段(Law,2022)。2023年3月升級的GPT-4不僅在語言交互上的能力大大提升,其在數學、編程、視覺、醫學、法律、心理學等多樣化和高難度的任務中的表現也極為出色。可以預見,隨著GPT的升級,它的應用領域將不斷擴展。技術哲學家唐·伊德(Don Ihde)將技術看作一種人與世界的居間中介,根據人、技術與世界三者間的關系將其分為四種類型:具身的技術、詮釋學的技術、它異關系的技術與背景關系的技術(Ihde,1990,pp.97-99)。作為它異關系的技術,人工智能愈加凸顯的“擬人性”與“他者性”特征決定了其在教育實踐中將從“教育工具”向“行動者”的角色轉化,并以技術凝視主體的形式對教育中的參與者進行觀念與行為上的塑造與引導,導致教育主體在與技術交互中陷入被動。

1.生成式人工智能的“擬人性”與“他者性”

技術的“擬人性”能夠引發人們的溝通欲望與情感互動,而GPT等生成式人工智能具有更強的“擬人性”與“準生機”,在一定程度上與人的互動呈現出更強的“他者性”②特征。相比于書籍、視頻等對象,生成式人工智能的反饋更具有生機、不確定性與互動性;而相比于真實的人類“他者”,人工智能又具有更強的服從性與定制性,能夠根據使用者的需求予以個性化應答。因此,眾多使用者會將人工智能擬人化,甚至在互動中投注大量情感。但一旦技術失效,或是不滿足使用者的意向偏好,這種準喜愛(Quasi-Love)可能轉化為一種準憎恨(Quasi-Hate)(Ihde,1990,p.106),從而令使用者感到受挫甚至憤怒。總的來說,生成式人工智能以一種更強的、更具存在感的實體形象出現,作為一種“他者”滿足了人對不同形式他者的多重交往與情感需求。

GPT等語言類人工智能具備多重居間功能,甚至可以被看作是多種居間技術的整合者與使用者,以此重新構建了“人—技術—世界”的關系。以往在人、技術與世界的居間關系中,人是決定技術功能的腳本撰寫者,是居間關系中的整合者與使用者,決定了技術的應用場景與使用方式。但生成式人工智能在一定程度上替代了人的這一工作。GPT從本質上來說是技術對人類經驗的轉化與呈現,它的語料庫來自網絡、書籍、論文、報告、公開數據集等。它一方面作為一種“他者”與人發生關系,其與人互動的傳感形式具有具身的功能,其內容的呈現體現了一種詮釋學的功能,引導人通過技術認識世界。同時,當GPT在網絡環境中廣泛應用時,通過諸多的擬人的“在場”形式呈現出一種“不在場”的背景功能。因此,GPT等生成式人工智能會根據其需要整合并構筑具身的技術、詮釋學的技術與背景關系的技術的居間功能,以一種隱蔽的形式引導人們對世界的認知,產生諸如一些研究者詬病的數據偏見或信息繭房現象。另一方面,GPT也可以作為“他者”進入人的生活世界,使人類形成通過其認識世界的慣習。如此,技術在人與世界的關系形式由“人—技術—世界”的關系徹底轉化為了“人→技術—(—世界)”的關系,人們認識的世界是技術構建與呈現的世界,技術成為人、技術與世界居間關系中的主導者。

2.人工智能從“教學工具”向“教育行動者”轉化

人工智能愈加凸顯的“擬人性”與“他者性”特征決定了其在教育實踐應用中的角色必然從“教育工具”向“教育行動者”轉化。在教育中,最初使用的技術多體現為具身的技術與詮釋學的技術。具身的技術主要指借助技術把實踐具身化。使用這種技術時,“我們以一種特殊的方式將技術融入我們的經驗之中,以此借助技術在感知中延伸我們的知覺”(Ihde,1990,p.72)。如在教育中使用較為廣泛的顯微鏡、望遠鏡等光學技術便是對學生視覺的延伸。具身的技術強調其“透明性”,即在掌握這種技術后人與技術融為一體,技術“抽身而去”,從而形成“(我—人工物)—世界”的關系。詮釋學的技術主要指技術情境中特殊的解釋活動,這類技術被看作是解讀的對象(Ihde,1990,p.80)。在教育中存在大量詮釋學的技術,如書本、PPT、圖片等承載可解釋信息的技術。

數字化環境下,教學技術的它異關系與背景關系愈加凸顯。它異關系的技術將技術作為“準他者”,聚焦于人與技術的互動。在教育中,計算機輔助教學、智能技術與數字資源的使用是它異關系的技術的代表,數字素養與技能也成為數字社會學生應具備的核心素養。背景關系的技術指作為技術環境的技術(Ihde,1990,p.108)。在教育中,一種背景關系的技術形式體現為智慧教室中技術環境的塑造,另一種形式則表現為通過技術將人與外界環境隔離開來,如網絡社群構建起的文化場域,包括學習社區、興趣社群等,從而構建起相對封閉的“網絡蠶繭”。背景關系的技術雖以“不在場”的方式存在,但它會對教育主體產生更加微妙的間接影響,并且牽連的范圍更廣,影響更加持久。

隨著智能技術尤其是人工智能在教育中的使用,技術居間的功能更趨向于多種技術意向的統合。伊德認為四類技術能夠形成一個連續統,一端與人相聯結,如具身的技術對人知覺的延伸,一端與世界相聯結,如詮釋學的技術對世界的解釋。但他并未預見,隨著它異關系的技術的發展,四種技術功能不再單純按功能進行分工,而是一起服務、統合于它異關系的技術之下。人工智能作為它異關系的技術在教育中以“他者”存在并與教育主體產生互動。在互動過程中,它根據需求不斷調動具身的技術、詮釋學的技術來放大知覺,傳遞與解釋內容,并創造背景構筑網絡場域。它在教育中不僅是某種工具,而且作為其他技術的“使用者”在網絡中互動、操演,作為“行動者”與教育主體交互共同完成教育活動。在智能化時代,教育的形態呈現網絡狀結構。按照布魯諾·拉圖爾(Bruno Latour)“行動者—網絡”理論,在教育網絡中,存在人類與非人類的教育者,尤其是GPT等使用“自然語言”的生成式人工智能,雖不具有意識,但卻是能動的“行動者”。“在教—學實踐中,不僅僅是人在學習,所有非人類也在學習,并通過這種實踐不斷更新自身”(吳冠軍,2019)。

3.數字技術對教育主體的“凝視”與“控制”

人工智能作為它異關系的技術,其“他者性”決定了它在與人類的交互過程中呈現出了類人的“凝視”作用。凝視指行為者對某種對象長時間聚精會神地觀看,其主體可以是個體的人,也可以是抽象算法;凝視的對象可以是個體或物體,也可以是某種行為(張憲麗,2022)。斯拉沃熱·齊澤克(Slavoj ?i?ek)認為,凝視具有“交互被動性”(Interpassivity)③,“主體之凝視總是——已經被銘寫進被感知的對象之中,在一個‘盲點’之假象之下,而這個盲點是‘在對象之中并多出對象自身的東西’,是對象自身將凝視回返到主體的點。” (?i?ek,2006)隨著人工智能尤其是其感知智能的發展,數字世界逐漸構筑起一個廣泛的凝視空間,并以“凝視”的方式影響甚至塑造著技術使用者。

數字時代技術的凝視以兩種形式發揮作用。米歇爾·福柯(Michel Foucault)將凝視視為一種權力機制(米歇爾·福柯,1997,p.9)。在這種機制下,個體處于一種集體的、匿名的凝視中,由于被看見,人們不得不處于權力的壓迫之下(米歇爾·福柯,1997,p.157)。數字技術跟蹤、儲存生物信息與情感數據的能力使這種凝視的壓迫感愈加強烈,甚至走向監視。如個別教師、家長對學生網絡瀏覽記錄的查閱,多模態技術對學生聽課時表情、語言的識別、記錄與分析等,其本質是監視與控制權力通過技術的發揮與施展。技術使這一凝視更加隱蔽化、放大化與微觀化,學生可能在技術的“眈眈相向”下產生緊張、焦慮甚至羞恥等情緒,即保羅·維利里奧(Paul Virilio)所說的“冷恐慌”(保羅·維利里奧,2014)。技術凝視背后不僅是個別教育者微觀權力的施展,算法與資本在更大的范圍影響著被凝視的對象。資本通過對算法的掌握決定何為“熱點”,引導著輿論風向,甚至塑造著網絡世界的價值標準,從而使教育主體趨從于算法所塑造的“應該成為什么樣的人”的價值標準,進而影響教育目標指向與學生的培養路徑。

技術凝視另一種形式體現為雅克·拉康(Jacques Lacan)所提出的凝視下的欲望及其滿足。拉康認為,凝視并非感知到某只眼睛在注視自身,而是自身在他者領域中想象的一種凝視(Lacan,1981)。主體欲望存在于想象界、象征界與實在界三個世界。想象界的主體以“小他者”為鏡像對自我進行定位,如嬰兒以父母的模樣或父母的期許來“完形”自我。在象征界,主體在社會群體中以“大他者”為牽引定位自我的發展欲求。實在界則反映了主體在希望進入象征界并實現其目標過程中的實際限制(張憲麗,2022)。數字時代創設了一個與現實世界平行的虛擬世界,教育主體在權力的壓迫與欲望的推動之下,急切地進入其中意圖構造自己的想象界,并在與人、人工智能互動社群中將自己塑造為“我自以為我是的那個人,我希望人家以為我是那個人”(羅蘭·巴特,2003)。在虛擬空間所構造的想象界與象征界中,自我塑造的欲望能夠在技術凝視下被簡單地滿足,但在實在界中,多數個體很難達到“大他者”的目標,從而不斷進行自我消耗,無法抵達外在和他者,無法進入世界,只能緬懷于自身之中,最終可能導致主體的自我瓦解、空虛與倦怠(韓炳哲,2019a)。而數字技術背后擁有資本與權力的他者則通過凝視來主導主體的欲望,從主體不斷追逐數字象征界與實在界的落差中攫取利益。

技術凝視的背后是資本的權力控制,教育主體在凝視短視頻、圖文信息所塑造的“成功教育”“優秀孩子”“人生贏家”等形象時,他們實際已被資本所操控的算法所凝視與塑造,從而陷入無止境的自我消耗與焦慮之中。同時,人工智能等它異關系的技術本身的“擬人性”導致了教育主體的“交互被動性”。我們在使用人工智能技術時,不僅被動地接受其傳遞的信息,我們的被動接受或享受亦被對象本身所替代,即對象并不是被動的,它變成了主動的,我們卻變成了被動的(李西祥,2020)。

二、人的“機器化”:智能時代教育主體的 嬗變

隨著生物技術、數字技術與智能技術的發展,教育主體通過物理層面的人機融合,或是體外的“外腦”聯結等方式變革了其生命形式,即從“自然人”轉向“賽博格”。從主體生命形態上看,“自然人”向“賽博格”的轉變在教育角色上可能導致人與機器的工具性倒置以及價值標準的機器化傾向。從主體的認識方式上看,人工智能的進一步發展導致機器感知對身體感知的侵蝕,從而可能使教育主體產生過度的技術依賴與思維惰性,成為被技術規訓與監測的對象。從主體的存在價值上看,教育主體是否會在未來成為“無用階級”,將很大程度上受智能技術的發展前景所影響,人的價值與教育的價值很大程度上被機器界定。

1.技術嵌入的教育主體:從“自然人”轉向“賽博格”

傳統教育將擁有自我意識的人作為教育的唯一主體,而啟蒙時代以來的教育其最終目的在于培養具有理性精神的“大寫的人”。現代教育的要素、結構、知識體系都建立在這種理性規范下“大寫的人”的基礎之上,人在教育中是絕對的權威與目的,其他非人要素均是主體人的工具與手段。然而,智能時代的到來顛覆了人類在教育中的權威性與至高無上的中心地位。例如,當GPT等生成式人工智能作為一種可外接的具有豐富資料儲備與強大功能的“外腦”應用于教學時,其在知識儲備、反應速度與個性化支持上均超越了真實環境下的教師,也超越了自然人的“本腦”。而隨著技術的發展,這種“外腦”可能以更加內在、透明的形式而存在,如以芯片的方式植入學習者的身體內部,與人腦進行連接與交互,使信息能夠在不同的物質機體(硅基機體和碳基機體)中不變地流動,“智力”變成了一種正式的符號操作性,而不是人類生活世界的設定(邁文·伯德,2004)。在這種情況下,教育中的人被“機器化”了,且這種“機器化”是人的進化意志所主動追求的。由此,受教育者的生命形態將被重新定義,他不再是自然人,而是具有“賽博格”特征的人與機器的融合。

人工智能對學生思考、計劃、猜測、表達等能力的替代可能導致教學中人與機器角色的倒置,從而產生主客體角色互換的危機。傳統的教學過程與結果也將隨之受到沖擊,其可能被機器化為嵌入和執行社會技術關系的物質符號組合,成為轉移各種有機體、技術、自然和文本材料之間連接和相互作用的過程(Gough,2004)。在“外腦”的技術演化之下,人的“本腦”可能會淪為可有可無的“外腦”,而傳統教育的對象——自然人,也可能淪為人工智能所替代的存在。此外,文化是人類的“操作系統”,教育所傳遞的人類文化是基于語言產生的。人工智能已經破解了語言,并開始創造文化。那么在未來的教學實踐中,非人類實體創造的文化可能作為教學內容進入課堂,這意味著人工智能可能通過教育傳遞其創造的文化,以此改變人類思考、感受和行動的方式(三聯生活周刊,2023)。

從人的價值上看,人工智能對人的模擬與超越也造成了人的自我認同焦慮。一方面人被物化,另一方面人類所創造的產品在質量上又超過了物化的人,由此產生了“創造者與創造物的顛倒”。人的有限性、不完美性相較于機器的可完善性與再生性,使被物化的人產生了一種“普羅米修斯的羞愧”④。人被自己所創造的機器的優越性與權威所震懾,人的眼光變成了機器的眼光,人的標準變成了機器的標準,人的感情也被機器化了(京特·安德斯,2010)。人工智能提供了一種有組織的系統,在這一系統中機器人等可以自動地、自覺地處理事物,從而使人無須再探索、創造、思考和感覺了(克里斯·哈布爾斯·格雷,2004)。當通用人工智能代替人類的智能與體能進入人類生活與工作領域,大量的人可能變為“無用階級”。當教育中的人感知到自己在知識儲備、學習能力上都無法與機器匹敵時,難免對于教育的價值與意義產生懷疑,甚至質疑自我的主體存在價值。

2.人類認識形式的機器化:機器感知對身體感知的侵蝕

智能技術的發展使人的感知形式從身體感知、工具感知逐漸進化到機器感知。人類最初對世界的認識是基于身體感知的,我們認識的世界實際上是依賴于我們身體感知建立起來的周圍世界。隨著技術的發展,具身的技術作為人的延伸,提供了轉換事物的新視野與新知覺,從而將傳統意義上的身體感知拓展為工具感知。代具性的工具感知能夠彌補人類的認知缺陷,但并未取代人的身體感知。“當作為工具的技術延伸到一定程度時,作為人類的代具性的外在器官,反過來制約著人的存在,成為對人的思想行為的規訓與縲紲。”(藍江,2023)原本由身體與世界交互形成的感知集置,經由智能技術進一步中介化,從而用機器感知代替傳統的身體感知與工具感知。由此,人類的感知被“機器化”了。“智能機器試圖繞過不知情的、容易出錯的、不合作的和其他不受指揮的主體,直接進入身體數據的(所謂的)客觀領域。”(Lyon,2007)

機器感知形式在教育中的過度使用可能導致教育主體成為“外—主體”(Extro—Subject)⑤,從而使教育主體產生技術依賴與思維惰性,成為被技術規訓與監測的對象。一方面,隨著在線教育逐漸普及,遠程在場的教育形式將逐漸擠壓真實的課堂發生。當前的在線教育已可以通過腦機接口等技術使個體身體的感知轉移到一些機械上,如轉移到傳感器、感覺器或其他探測器上,以此填補遠距離觸覺的缺席(Kim,2016)。因此,智能時代的教育活動可以不再是現實世界的“具體在場”,而是一種“謹慎的遠距離在場”。這種技術所帶來的便捷可能導致主體的行為惰性,使現實中身體的動態行動、感受變為視聽的靜態運載,即將運動與位移的能力轉交給探測器,讓它們即時地向主體報告一種遙遠的真實性,從而損害個體本身所具有的對于真實事物的理解能力。另一方面,機器感知進一步發展的結果是自主地形成一套規范,目的不是讓主體的生活和工作變得便利,而是對主體的身體進行規訓,讓主體更適合機器感知和監測形成的規范系統(藍江,2023)。如使用計步APP來測算學生的體育鍛煉強度,使用智能作業筆監控學生的作業完成情況,使用多模態技術捕捉學生的微表情、語言與動作,判定學生聽課的專注性等。原本由人類主體支配的機器系統反過來監測人類行為。在算法權力監控下,為滿足其標準,主體自愿地限制著身體對于某種動作、某些沖動的影響范圍,由此人便從可動的(Mobile)人,變為自動的(Automobile)人,并最終變為機械的(Motile)人(保羅·維利里奧,2003)。這一形態下,人作為教育主體可能會成為認知上“殘缺的支配者”,喪失身體的自然運動機能,被技術攝取其直接、即時干預認識活動的能力。

3.機器對人類勞動價值的規定:技術對“人”的劃界

人工智能的發展與普及在不斷擠壓人類的勞動市場,它們不僅僅能夠取代簡單重復的體力工作,GPT等生成式人工智能的發展開始威脅到一些具有創新性、技能要求較高的工作種類,如翻譯人員、詩人、詞作者、作家、數學家、會計師、審計師及記者等。相比人類,GPT-4能夠在10秒內制作出一個網站,60秒內制作出一個簡單游戲,并且在多項基準考試測試中,如美國律師資格證考試(Uniform Bar" Examination,UBE)、法學院入學考試(Law School Admission Test,LSAT)等測試中獲得優秀的成績。這對教育,尤其是以灌輸知識為主的教育體制帶來了很大挑戰,“培養什么人”成為教育必須重新思考的問題。教育必須將人工智能等技術的發展納入價值標準制定與目標定位設計中,以此對“何謂有用的人”“何謂有價值的知識”等問題作出具有前瞻性的回應。

技術樂觀主義者認為,人工智能的發展為人的自由全面發展提供了機遇。人工智能作為一種重要生產力能夠創新生產方式,提高生產效率,從而把一部分勞動者從重復的、有害的、繁重的工作中解放出來,使人類擁有更多可支配時間從事“自由自覺的勞動”,如互聯網中的各種性質的非營利、分享性的、以終身學習為基礎的創造性勞動(陳高華等,2022)。但多數的研究者對這一問題感到焦慮與警惕。在未來,技術可能對人進行劃界。即掌握需要高水平教育和培訓的抽象智力技能成為勞動力的關鍵屬性,不具備這種技能的人類在未來將被淘汰,成為“無用階級”。正如美國機器學家漢斯·莫拉維克(Hans Moravec)《心智后代》一書中的觀點,當機器擁有足夠知識,能夠不依靠人類而進行自我維護、復制和自我改進時,人類就會失去進化的權力,并將被人類所制造的“心智后代”(機器)所取代(Moravec,1988,pp.1-4)。智能技術對勞動力的替代本質上是對人的價值的劃界——難以被機器替代的勞動是有價值的勞動,區別于機器的人是有價值的人。基于此,教育一方面需積極關注人工智能的發展動向,引導教育主體對GPT等人工智能的“善用”;另一方面要積極探尋人機之別,為教育主體構建獨特的勞動價值與存在價值。

三、基于“人的立場”:破解主體性危機的 教育變革之徑

隨著智能技術的發展,可以預見,機器的“人化”與人的“機器化”問題將愈加凸顯。面對智能技術帶來的主體性危機,教育變革的基本立場與原則應是促進人的生命發展,因此,必須基于人的立場探求未來教育的變革之徑。只有基于人的立場,教育才可能在智能化世界中發揮其應有的育人價值,作為教育主體的人才能夠在與智能技術互構的行動網絡中實現自由與全面的發展。

1.以“培養人”為意向堅守教育的價值指向

智能時代的教育需基于對人類本質的認識,堅守“培養人”的價值意向。盡管人工智能等非人類主體正在作為“行動者”進入教育場域,與人類共同組成教育的數字共同體,但教育的目的仍需指向人的培養,促進人的未來發展而非人工智能的改進。

教育需堅守“培養人”這一核心意向,關注人的智慧發展與文明傳承。聯合國教科文組織在《反思教育:向“全球共同利益”的理念轉變?》一書中明確指出“維護和增強個人在其他人和自然面前的尊嚴、能力和福祉,應是二十一世紀教育的根本宗旨。”(聯合國教科文組織,2017)就教育的本質來說,教育是人類所獨有的遺傳形式和交往方式,是人類自身的再生產和再創造。盡管生物技術與數字技術看似以更加快速的手段實現了人的再生產與知識的傳遞,但生物技術對人類的增強影響了人的多樣性與可能性,技術對“過程性”的跨越壓縮了人類文明與經驗的厚度。正是通過持續的自然演化與后天習得所形成的人性才決定了人之為人,也正因為人性的緊密相連,才使人以群的形式站在一處,始成人類。未來的教育既要重視人類智慧的培養與發展,又要關注人作為類存在,其文明的傳承與建構。前者是實現后者的途徑與基礎。因此,“人的記憶力、讀寫算這些基礎性能力不應因智能工具的發展而受到冷落,不能因智能工具運用降低人的視力、弱化人的體魄,不能讓計算思維代替人的文化想象力,不能因為智慧課堂的普及減少人類生活中的自然風光、文化符號、詩歌和吟唱。”(張務農等,2020)

確保技術意向性服從于教育意向性是應用教育技術的前提。GPT等生成式人工智能可以在提出要求后瞬間提供對應的結果,它是跨越過程性直接指向結果的,但教育的意向性是盡可能還原過程來發展學生的認知與智慧。因此,教育中對GPT技術的使用應指向過程性,應以教育的“過程性”為核心意向建立教育技術使用意向的考察標準與倫理原則。首先,要善用人工智能形成教育的“行動者—網絡”,將人工智能作為互動對象以提升人的學習能力,如通過與GPT之間的語言互動反饋來提升學生的語言表達、寫作與推理能力,為學生提供有針對性的學習材料與智能學伴。其次,需明確規定技術的居間功能與限度,如某一技術是應作為具身的技術來延伸學習者知覺,或是作為詮釋學的技術來解釋學習內容,應根據不同教育目的明確技術的居間形式,避免技術使用的意向含混(蘇慧麗,2021)。最后,需建立對意向性的倫理考察機制,針對技術使用中存在的數據偏見、信息繭房與權力凝視等問題進行考察,避免技術對學生造成不良的意向引導。

2.以“否定性”為奇點透視教育主體的人機之別

人與機器相區別的關鍵問題在于人工智能是否能夠代替人類的勞動與思考。人工智能在眾多領域超越了人類,人類的存在價值體現為何?人工智能不可跨越的“奇點”是回答這一問題的關鍵點,也是人類教育發展的核心指向。

以“否定詞”為表征的反思是人類意識革命的起點(趙汀陽,2016),也是人與機器相區別的重要標志。人工智能的發展雖已能夠進行自我復制、自我維護與自我反饋,但其自我意識尚未產生,其本質仍是數學與邏輯組成的符號運算體系。“任何智能的危險性都不在其能力,而在其意識”(趙汀陽,2022,p.42)。自我意識的神級功能一在于能夠能動地使一切事物變為思想對象,二在于能夠對意識自身進行反思,這兩個功能是人類理性、知識和創造力的基礎(趙汀陽,2022,p.43)。相較于人工智能,人類思維的真正特異性在于否定性,有了否定,才能發展出疑問、懷疑、分析、對峙、排除、選擇、解釋、創造等功能。這是“動物邏輯”與“機器邏輯”辦不到的,因此,教育的關鍵在于培養主體的否定性與超理性的反思能力。

對學生否定能力與批判能力的培養是應對技術凝視與同質化暴力的有效方式,也是構建教育數字世界道德準則的前提條件。首先,面對數字世界中想象界與象征界的技術凝視,以及技術凝視背后資本所操控的權力機制,教育者需幫助學生跳脫出數字世界的隱性監控與規訓,在真實世界這一“實在界”中為學生提供身份認同與存在價值。如在教育中提供面對面教學所獨有的真實交往與情感互動,并為學生在真實世界達成其“理想形象”提供教育支持,使學生基于真實世界的視角對技術凝視背后的權力控制進行否定與解構。第二,技術世界所構造的信息繭房可能造成同質化的暴力,即使用者生活在對同一觀點與價值標準表現遷就與認同的網絡社群中,而難以接受具有“否定性”的他者意見。教育的重要目標是喚醒與培養人的否定性,即“能對獲準作用于我們身上的知識和權力進行永恒挑釁”(莫偉民,1996)。因此,教育者可以利用數字技術構建情境變式,促使學生在教育中構建對真理相對性的認識,形成否定的認識方式(蘇慧麗等,2019);或組建具有異質性的學習共同體與網絡社群,以他者的否定性介入對抗同者的肯定性暴力(韓炳哲,2019b)。

3.以“創變”為核心培養學生的新型創造力

智能技術的發展不僅以自動化的形式替代了人們的重復性勞動,GPT等生成式人工智能的出現意味著一些看似具有創造性的工作也可能被取代。那么,人工智能是否能夠真的替代人的勞動與思考呢?教育在未來又應培養具備何種能力的人?

人工智能的創造是基于組合與聯想的運算,而人類的創造性在于提出新問題,改變舊思路,重新建立規則與方法。因此,人的創造性特征在于“創變”,即“創造”與“變通”,這也是教育應培養的學生的新型創造力的核心。首先,人類認識的具身性是培養“創變性”的前提。人類的創造是基于身體感知的。莫拉維克悖論(Moravec’s Paradox)指出,“讓計算機在某些任務上表現出成人的智力水平是件很容易的事情,如智力測試或玩跳棋,但是讓其獲得哪怕是一歲兒童的某些能力,如感知和運動,卻是極其困難甚至是不可能的事情”(Moravec,1988,p.15)。人類的創造活動依賴于生命機體,借助于知識、經驗、知覺等理性或非理性邏輯與外部情境發生作用從而產生意識和認知,甚至內化為本能反應,是一種“具身”的自然認知系統(申靈靈等,2022)。教學應引導學生以具身的方式進入周圍世界,通過身體的連貫性圖式感知世界的統一體,從而形成對世界的整體把握與深度認知,并實現外在感知世界與學生內在精神世界的統一。這是創變性培養的前提。例如,在小學寫作教學中,原本教學要求學生根據示例撰寫有關貝加爾湖的說明文,而教師根據教學經驗,將作業修改為參照樣文的寫作方法,游覽學校附近的湖泊并撰寫作文。這便是基于身體感知對周圍世界的“上手”式教學,實現了身體感知與方法創變的統一。

未來教育必然是人機深度融合的教育。智能技術在教育中的應用要求教育者基于機器感知的認知新形態培養學生的技術交互能力、信息批判能力與創變能力。機器感知形態的普及意味著學生更多地通過數據信息中介,感知被技術化的世界。因此,在智能時代,首先應培養學生的技術交互能力。在教學實踐中,應積極培養與引導學生利用它異關系的技術的互動、分析與創造功能,來替代重復性、機械性工作,如應用GPT等人工智能收集材料、統計分析數據等,以提升學習的效率。其次,應培養學生對機器提供的數據信息具有警惕的意識與篩選的能力,例如在與人工智能互動的過程中引導學生審視、分析與評判人工智能的創造結果,同時規避基于算法監測的評價方式與評價標準,擺脫算法邏輯對學生創造性思想的縲紲,以培養智能技術的主導者、創造者而非技術的附庸。最后,利用技術引導學生在不同的虛擬世界進行規則的重新發現與探索。從媒介發展的視角,現在乃至未來的學生都屬于電子游戲世代⑥。數字技術通過電子游戲等方式構建無數個在現實世界中被視為不可能的虛擬世界,玩家通過“寧芙化”身體⑦,在多元的虛擬異托邦中感知和體驗不同于肉身感知的經歷,并不斷探索、發現不同世界的規律與規則(藍江,2021)。這一看似玩樂的游戲化體驗,實則為主體構建創變的極致性條件,可能實現具有開創性的新規則建立與新規律的發現。因此,教育可借鑒電子游戲對虛擬世界的構筑經驗,通過數字技術為學生構筑無限的“可能世界”⑧,在不同世界與無數的情境變式中發現、探索新規律,建立新規則,使學生具有充分的“創變能力”,從容面對未來具有不確定性與無限可能的新世界。

4.以“善智”為目標構建教育中的人機互動

人工智能的價值目標應是“善智”,即“好”的人工智能,其落腳點應是為了全人類的福祉(高奇琦,2019)。技術樂觀主義者對技術一直給予褒義的解釋,認為技術在本質上是中性的,服務于善的目的便會產生善的后果。但現實卻是,技術有多大能力服務于善,便有多大能力服務于惡的目的,產生惡的后果,這便是技術在后果層面的“善惡對價法則”(李河,2020)。生物技術所進行的人體增強、基因干預可能使人性陷入一種不確定的危險之中,人工智能等技術的發展也可能造成數字鴻溝、算法偏見等價值問題。

在教育中應增添有關技術哲學的教學,促使學生對技術的“善用”。智能時代教育需增添一項新的重要工作,即關于技術文化觀的教育,引導學生對技術的價值屬性、功能意向進行批判性認識,將技術哲學方面的教學融入德育與智能技術的應用與教學當中,以塑造學生正確的技術價值觀,做到對智能技術的“善用”。

教育管理部門、學校與教師需積極構建多層面的教育技術使用倫理規范,保證技術使用的透明與公正。首先,應保證技術使用時,算法輸入與運行的透明。算法透明是眾多國際人工智能政策條例中的重要原則之一。在教育領域,需要求技術供應商以明確與通俗的語言說明算法使用的目的、倫理標準、參數、采集信息的范圍、運行規則等,保證對算法不當的追責與監督(王旦等,2021)。其次,保障技術使用與算法編輯的公正公平等。教育管理部門需關注現已出現的技術格差與資本控制所造成的數字鴻溝與算法歧視問題,在事前以政策法規的方式建立詳細的倫理規定與處罰機制,在事中建立有效的監督管理機制與風險評估機制,在事后對違反政策條例的教育倫理僭越、師生利益侵害行為進行追責與處罰,為技術劃定倫理紅線。最后,建立系統的技術輔助使用與監管平臺。針對教育弱勢群體、技術應用存在障礙的師生提供有針對性的技術應用指導與倫理監督,在促進智能算法高效使用的同時,維護教育倫理的正當性。

注釋:

① 賽博格就是后人類,或者可稱為“電子人”。它是一種控制論的生物,是機器和生物的混合體,是社會現實的產物,也是虛構的產物。參見:Haraway, D. (1991). A Cyborg Manifesto: Science, Technology, and Socialist-Feminism in the Late Twentieth Century[M]// Haraway, D. (1991). Simians, Cyborgs, and Women: The Reinvention of Nature. New York: Routledge:149.

② 伊德早期提出的它異關系的技術,如計算機、ATM機等的他者性是一種準他者性,它比單純的對象性要強,但比在動物和人那里找到的他者性要弱,其主要承載單一技術功能,如詮釋學功能、具身的功能等。而當前人工智能在大數據、自適應等多種技術加持下,成為具備具身、詮釋甚至背景功能的綜合擬人對象,可以與人進行多維互動,從而使這種它異關系從準他者性發展為了他者性。

③ 是與現象學以及哈貝馬斯語境中的“交互主動性”(Interactivity,或譯作“互動性”)相對的一個概念。參見:[斯洛文尼亞]斯拉熱沃·齊澤克(2006).幻想的瘟疫[M].胡雨譚,葉肖.南京:江蘇人民出版社:138.

④ 京特·安德斯(Gunther Anders)提出“普羅米修斯的羞愧”這一隱喻,描述人如何在他所制造的機器面前感到驚嘆以及自愧不如。參見:[德]京特·安德斯(2010).過時的人(第一卷)[M].范捷平.上海:上海譯文出版社:1-6.

⑤ 外—主體指經過數據外溢的主體形態,它依然是主體,因為它仍然與我們的意識和無意識行為密切相關,仍然是被我們生產出來的,但是這個主體已經從內部的主體結構中逃逸,成為一個外在并制約著我們行為的主體。一旦形成了外在的數據,我們便失去了從內部完全控制我們行為的可能性。參見:藍江(2021).外主體的誕生———數字時代下主體形態的流變[J].求索,(3):37-45.

⑥ 電子游戲世代的基本特征是在電子游戲的動作和經歷中進行對世界和自我的建構。參見:藍江(2021).寧芙化身體與異托邦:電子游戲世代的存在哲學[J].文藝研究,(8):92-102.

⑦ 寧芙(Ninfe)是古希臘神話中無魂的水妖,它可進一步用來隱喻電子游戲中的虛體,通過手柄、鼠標、觸屏的觸摸,玩家將“靈魂”注入了寧芙化的身體,讓它們可以像人一樣去感知世界、行動思考。參見:[意]吉奧喬·阿甘本(2016).寧芙[M].藍江.重慶:重慶大學出版社:序xxxvi-xxxvii.

⑧ 采用電子游戲進行教學已經較為普遍,如有部分教師將《塞爾達傳說》這一游戲應用于地理、物理、化學、外語等多個學科的教學中,并獲得了良好的教學效果。但當前我國大多教學實踐中對電子游戲的應用多采取教師演示講解的方式,還未實現使學生與教師通過寧芙化的身體,在開放的虛擬世界中,探索規律、塑造世界。

參考文獻:

[1][澳]邁文·伯德(2004).遠距傳物、電子人和后人類的意識形態[M]//曹榮湘.后人類文化.上海:上海三聯書店:121.

[2][德]韓炳哲(2019a).倦怠社會[M].王一力.北京:中信出版社:74.

[3][德]韓炳哲(2019b).他者的消失[M].吳瓊.北京:中信出版社:1-3.

[4][德]京特·安德斯(2010).過時的人(第一卷)[M].范捷平.上海:上海譯文出版社:序14.

[5][法]保羅·維利里奧(2003).解放的速度[M].陸元昶.南京:江蘇人民出版社:23.

[6][法]保羅·維利里奧(2014).無邊的藝術[M].張新木,李露露.南京:南京大學出版社:5.

[7][法]羅蘭·巴特(2003).明室[M].趙克非.北京:文化藝術出版社:19-20.

[8][法]米歇爾·福柯(1997).權力的眼睛——福柯訪談錄[M].嚴鋒.上海:上海人民出版社.

[9][美]克里斯·哈布爾斯·格雷(2004).后人類的可能性[M]//曹榮湘.后人類文化.上海:上海三聯書店:13.

[10]陳高華,趙文鈺(2022).人工智能與人的未來:一條馬克思的路徑[J].江漢論壇,(4):59-65.

[11]高奇琦(2019).全球善智與全球合智:人工智能全球治理的未來[J].世界經濟與政治,(7):24-48,155-156.

[12]藍江(2021).寧芙化身體與異托邦:電子游戲世代的存在哲學[J].文藝研究,(8):92-102.

[13]藍江(2023).從身體感知到機器感知——數字化時代下感知形式的嬗變[J].西北師大學報(社會科學版),60(3):13-20.

[14]李河(2020).從“代理”到“替代”的技術與正在“過時”的人類?[J].中國社會科學,(10):116-140,207.

[15]李西祥(2020).論齊澤克的視差辯證法——康德、黑格爾與拉康的視差解讀[J].南京大學學報(哲學·人文科學·社會科學),57(4):16-26.

[16]聯合國教科文組織(2017).反思教育:向“全球共同利益”的理念轉變?[M].聯合國教科文組織中文科.北京:教育科學出版社:36.

[17]莫偉民(1996).主體的命運[M].上海:上海三聯書店:165.

[18]三聯生活周刊(2023).我們和ChatGPT一起專訪了《人類簡史》作者尤瓦拉·赫拉利[EB/OL].[2023-04-20].https://www.lifeweek.com.cn/h5/article/detail.do?artId=195923.

[19]申靈靈,盧鋒,張金帥(2022).超越莫拉維克悖論:人工智能教育的身心發展隱憂與應對[J].現代遠程教育研究,34(5):56-62.

[20]蘇慧麗(2021).教育中技術意向性的異化與清源[J].科學技術哲學研究,38(5):121-128.

[21]蘇慧麗,于偉(2019).否定性——兒童批判性思維培養的前提問題[J].教育學報,15(4):26-34.

[22]王旦,張熙,侯浩翔(2021).智能時代的教育倫理風險及應然向度[J].教育研究與實驗,(4):34-39,96.

[23]吳冠軍(2019).后人類狀況與中國教育實踐:教育終結抑或終身教育?——人工智能時代的教育哲學思考[J].華東師范大學學報(教育科學版),37(1):1-15,164.

[24]張務農,賈保先(2020).“人”與“非人”——智慧課堂中人的主體性考察[J].電化教育研究,41(1):122-128.

[25]張憲麗(2022).數字世界中的共有凝視:從福柯和拉康出發的思考[J].學習與探索,(12):50-59.

[26]趙汀陽(2016).第一個哲學詞匯[J].哲學研究,(10):101-109,129.

[27]趙汀陽(2022).人工智能的神話或悲歌[M].北京:商務印書館.

[28]Gough, N. (2004). Rhizomantically Becoming-Cyborg: Performing Posthuman Pedagogies[J]. Educational Philosophy and Theory, (36):253-265.

[29]Ihde, D. (1990). Technology and the Lifeworld[M]. Bloomington: Indiana University Press.

[30]Kim, S. M. (2016). I Will Be a Data from Myself: Digital Self-Tracking Technology and the Data Subject[J]. Culture amp; Technology, (87):57-84.

[31]Lacan, J. (1981). The Four Fundamental Concepts of Psychoanalysis[M]. London: Routledge:82.

[32]Law, M. (2022). From ELIZA to ChatGPT: The Evolution of Chatbots Technology[EB/OL]. [2023-05-27]. https://

technologymagazine.com/articles/chatgpt-the-evolution-of-

chatbots-technology.

[33]Lyon, D. (2007). Surveillance, Power and Everyday Life[M]. Oxford: Oxford University Press:449.

[34]Moravec, H. (1988). Mind Children[M]. Cambridge, MA: Harvard University Press.

[35]?i?ek, S. (2006). The Parallax View[M]. Cambridge, Mass:The MIT Press:17.

收稿日期 2023-06-25 責任編輯 汪燕

The “Humanization” of Machines and the “Mechanization” of Humans:

Subjectivity Crisis and Solutions in the Intelligent Era Education

SU Huili, ZHANG Jingwei

Abstract: With the rapid development of intelligent technologies, especially generative artificial intelligence like GPT, the mutual shaping of humans and technology in the field of education continues to strengthen. On one hand, the swift iteration of technology prompts machines to increasingly become “humanized” and even participate as active agents in education. It not only redefines the relationship between “human-technology-world”, but also shifts the role of technology in education from a mere “teaching tool” to an “educational actor”, guiding and shaping students through the lens of a “technological gaze”. On the other hand, the deep integration of technology in education intensifies the “mechanization” of humans. This is manifested as follows. The educational subject embedded with technology transforms from a “natural person” to a “cyborg”, human cognitive forms shift from bodily perception to machine perception, and human subjectivity and value are delineated and regulated by intelligent technology. To resolve the subjectivity crisis brought about by the intelligent era, it is crucial to uphold the value orientation of education with the intention of “cultivating humans”, ensuring the alignment of technological intent with educational purpose, take a “negation” perspective as a singularity to scrutinize the distinction between human and machine in educational subjects, focusing on cultivating students’ reflective and critical abilities, make “innovation and adaptability” as the core to nurture students’ novel creativity, enabling them to develop transformative capabilities under embodied cognition and machine perception; and establish human-machine interaction in education with the goal of “ethical artificial intelligence”, allowing educational technology to be effectively regulated while being efficiently applied.

Keywords: Intelligent Education; “Humanization” of Machines; “Mechanization” of Humans; Subjectivity; Generative Artificial Intelligence

主站蜘蛛池模板: 国产精品视频猛进猛出| 午夜精品福利影院| 免费观看成人久久网免费观看| 欧美三級片黃色三級片黃色1| 国产 在线视频无码| 青青网在线国产| 亚洲狠狠婷婷综合久久久久| 国产97视频在线| 91最新精品视频发布页| 一级黄色网站在线免费看| 无码啪啪精品天堂浪潮av| 中日无码在线观看| 被公侵犯人妻少妇一区二区三区| 人妖无码第一页| 免费看美女自慰的网站| 97国产精品视频自在拍| 国产香蕉一区二区在线网站| 国产精品v欧美| 国产第一色| 日本一区二区三区精品视频| 国产呦精品一区二区三区网站| aⅴ免费在线观看| 91原创视频在线| 久久婷婷国产综合尤物精品| 国产一二三区在线| 国产精品微拍| 毛片久久网站小视频| 亚洲成人动漫在线观看 | 亚洲有无码中文网| 99国产精品国产高清一区二区| 99在线视频网站| 四虎精品国产AV二区| 亚洲欧美日韩中文字幕在线| 久爱午夜精品免费视频| 国产高清在线精品一区二区三区| 欧美伊人色综合久久天天| 国产午夜一级淫片| 亚洲国产成人久久77| 91精品国产一区自在线拍| 国产精品久久国产精麻豆99网站| 久久这里只精品国产99热8| 老汉色老汉首页a亚洲| 9丨情侣偷在线精品国产| 国产欧美亚洲精品第3页在线| 97狠狠操| 国产在线啪| 91九色最新地址| 亚洲精品天堂自在久久77| 72种姿势欧美久久久久大黄蕉| 她的性爱视频| 夜夜高潮夜夜爽国产伦精品| 欧美人与牲动交a欧美精品| 日本不卡在线播放| 亚洲中文无码h在线观看| 午夜视频在线观看区二区| 欧美三级日韩三级| 91美女视频在线| 男女性色大片免费网站| 成年av福利永久免费观看| 久久超级碰| 欧美另类图片视频无弹跳第一页| 国产成人无码久久久久毛片| 伊人91在线| 午夜精品久久久久久久99热下载 | 亚洲天堂成人在线观看| а∨天堂一区中文字幕| 亚洲伦理一区二区| 色男人的天堂久久综合| 久久久久亚洲av成人网人人软件| 国产浮力第一页永久地址 | 天堂网亚洲系列亚洲系列| 久久大香香蕉国产免费网站| 免费看a级毛片| 九九九精品成人免费视频7| 精品伊人久久久久7777人| 亚洲中文字幕国产av| 国产精品香蕉| 国产一区免费在线观看| 免费看av在线网站网址| 国产精品白浆无码流出在线看| 亚洲精品第一页不卡| 日韩一区精品视频一区二区|