摘要:當前,以ChatGPT為代表的生成式人工智能掀起了未來教育變革的新浪潮,然而人工智能教育的研究并未定位于“生成”的“語言底色”,以至于無法真正闡釋導致主體性消解風險的根本緣由。而生成哲學提供了一種從主體參與和價值選擇角度分析生成式人工智能教育主體性的新視角。從生成哲學來看,生成式人工智能的“生成”是一種“高級復制”,不是人的“創造創生”,而對兩種“生成”認識的模糊致使人類陷入被技術主宰和掌控的奴役狀態,產生了人之主體性消解的潛在風險。這種潛在風險表現為人類高度信仰工具理性,難以辨析生成內容真偽,技術量化演算強化教育同一屬性,放大人類道德缺陷。而要規避技術遮蔽的內隱風險,需轉變教育過程的拜物主義傾向,以教育中的“人”為核心,平衡工具理性與價值理性的目的觀,兼具辯證批判與智慧創生的知識觀,統籌結果導向與過程導向的能力觀,兼顧算法與人類的價值觀,進而發現并重塑生成式人工智能教育中被技術規訓的“人”。
關鍵詞:生成式人工智能;教育;工具理性;主體性;生成哲學
【中圖分類號】G40-057 【文獻標識碼】A 【論文編號】1009—8097(2024)08—0013—10 【DOI】10.3969/j.issn.1009-8097.2024.08.002
近年來,生成式人工智能(Generative Artificial Intelligence,GAI)在信息處理、學習能力、問題解決方面的快速發展,使其正在成為技術賦能教育的新趨勢。教育領域也開始致力于積極探索將生成式人工智能與課程教學深度融合的有效途徑,并取得了豐碩成果。然而,當前人們主要聚焦于生成式人工智能的“智能性”帶給教育的發展機遇、數字隱私和偏見風險,重點關注技術帶給教育“看得見摸得著”的直接影響,忽視了人作為教育主體的價值和重要性。技術樂觀主義者也將生成式人工智能的“創造性”看作解決當前教育問題的“靈丹妙藥”,陷入了“技術拜物主義”的錯誤傾向中,產生了極其嚴峻的“內隱性”風險而不自知。事實上,教育的意義在于培養全面而自由發展的人,教育活動的實質是教育者將一定的外在人類文明成果傳遞給受教育者,是引導受教育者認識世界和改造世界的過程。因而,無論從教育目的還是教育行為來說,教育中人的價值都至關重要,教育是為了培養人,人是教育活動的實施者,教育的起點和終點都是人。在生成式人工智能對教育產生深刻影響的今天,辯證批判地看待與生成式人工智能相關的、容易產生誤導的言論和現象,重新挖掘教育中人的價值和意義,并從人的“生成”本質和教育價值出發探究規避技術遮蔽的教育內隱風險顯得尤為迫切及必要。
一 文獻綜述
1 生成式人工智能對人類學習的影響
生成式人工智能是一種基于算法自動生成、操縱或合成數據的技術,可以在預定義之外利用現有文本、音頻或圖像等多模態數據生成與訓練數據保持相似的新內容,其功能超越了決策式人工智能的簡單問答,能夠完成創意寫作、藝術作品生成和復雜問題解決等高級任務[1]。例如,生成式人工智能可以根據視頻中跌宕起伏的情節畫面生成在不同轉折節點音調完全契合且受到專業人員認可的配樂[2]。在教育領域,生成式人工智能也可以為人類提供便捷的數據分析、代碼生成和個性輔導等知識生產服務,幫助師生節省時間和精力,專注深層次的思考和創新,提高知識生產效率[3]。但同時,生成式人工智能強大的生成能力也可能會導致人類因過度信任和依賴技術,而限制自身批判思維和判斷能力的發展,并進一步致使人類無法質疑和驗證生成式人工智能產生的“幻覺問題”,從而被誤導或欺騙。此外,由于生成式人工智能可以提供直接的知識信息和便捷的學習工具,人類也可能會失去自主學習探索的樂趣,或滿足于表面學習,而不去深入理解和思考,從而影響學習的深度和廣度[4]。可見,人類在使用生成式人工智能的同時,需要保持對其輸出結果的審慎和批判,尤其要關注教育中人的主體地位和教育價值,不能讓生成式人工智能“反客為主”。
2 生成式人工智能教育應用的主體性風險研究現狀
目前,關于生成式人工智能教育應用的主體性風險研究主要集中在兩個方面:一是從算法缺陷本身出發探討人的主體性風險。例如,生成式人工智能可以通過算法“過濾泡”為學生提供多項“私人訂制”服務,但算法“黑箱”也遮蔽了算法路徑和運算邏輯,學生只能被動接受生成結果,致使整個智能教育過程的動態性、靈動性面臨被控制的風險[5]。生成式人工智能憑借強大的“學習能力”和“涌現優勢”固化人類的認知、思考和行為模式,重塑社會運行方式,進而奪取了人類的決策權,由此產生的算法權力問題進一步加深了主客異化。二是從教育價值和教育目的出發討論生成式人工智能帶給師生的身份認同危機。生成式人工智能在事務性工作上的出色表現,容易使師生產生因被其取替或被邊緣化而喪失主體身份的焦慮。身份認同是“主體存在”的重要表現,福柯用“人之死”來表征“主體存在危機”,認為身份的消失即人類主體存在的消亡[6],而人類身份認同危機的消除需要回歸教育價值和教育目的。教育中人的主體性體現在承擔“教與學”的權利和義務中,師生履行權利和義務的過程即實現教育目的的過程。人在利用技術開展教育實踐活動的過程中將技術的優勢轉為服務“教與學”的能力,使技術成為“人體的延伸”,是保持人的主體性的基本途徑。
從算法缺陷本身出發探討人的主體性風險,其核心在于人類可以看見其帶來的危機,但只能被動接受結果;而從教育價值出發討論人的主體性危機,其核心在于人類被技術遮蔽忽視了教育目的,在不自知中被異化,猶如“溫水煮青蛙”,兩者均指出了生成式人工智能教育應用的主體性危機和規避策略,但都沒有闡釋技術導致這類問題的根本原因,沒有對技術的“生成”本質進行探析,也沒有關注教育需要培養學生什么樣的能力與價值觀。因而,本研究旨在根據已有研究,立足生成式人工智能的“生成”底色,探究其與人類的“生成”差異,并針對一些有爭議的觀點進行辯證性分析,進而闡釋生成式人工智能教育應用的主體性風險與規避策略。
二 復制還是創造:何為生成式人工智能的生成本質
當前關于生成式人工智能教育應用的主體性研究大多基于本體論的視角,重點關注誰是主體、誰是客體,鮮有研究關注生成式人工智能的“與眾不同”之處——“生成”,少數學者更是錯誤地將生成式人工智能的“生成”等同于人類的“創造”,這促使我們必須進一步探究“生成”的本質。而生成哲學認為世界是一個不斷變化和生成的過程,一切都在“永恒地變化”,并且強調事物的動態性、創造性、過程性和整體性,以及人類在生成世界中的主體性和價值性[7]。基于生成哲學分析生成式人工智能教育中的主體性危機,可以擺脫對客觀性和中立性的偏執,以及對“他者”的排斥和對抗,啟示我們要用主體參與和價值選擇來影響和改善世界。此外,生成哲學還強調教育過程的生成性、技術的生成性與人類的生成性,提供了通過“人-機”生成性的比較來闡釋生成式人工智能教育應用主體性風險產生之根本原因的新視角。
1 機器的生成本質是“高級復制”
目前,學界一種較為流行的觀點認為生成式人工智能已經具備了人類的“創造性”,可以實現真正意義上的人機互動,它會“人性”地思考、解析人類語言,可以沿著一個問題不斷與人類進行深層次的探討,給出類似于人的創造性答復。但基于生成哲學分析,生成式人工智能并不具備人類智能,沒有人類特有的思維和理解力。究其本質,生成式人工智能的“生成”是對已經發生或已經存在的“事實性知識”的組合排列,其不僅可以模仿人類的概括、分類、推理、判斷等基本思維過程,在信息檢索的速度、廣度以及分析效率上也遠超人類個體,甚至其引人注目的“學習能力”還可以實現不同任務間的學習遷移,使機器變得越來越像人。然而,生成式人工智能終歸是“物”,而非“人”。盡管生成式人工智能很“聰明”,但相對于人來說,它的智能依然是極為簡單和初步的。生成式人工智能的“生成”過程與人類的“生成”過程(思維過程)極為相似,但它的“生成”是建立在人類已有的基本概念、事實知識和判斷基礎之上的特征性篩選、統計和邏輯演算,是一種“高級復制”,與人類的“生成”有本質上的不同。人類的“生成”過程是創造的過程,不僅包含對已有知識的整合,更具有“從無到有”“從0到1”的原創(頓悟)屬性。這種頓悟是機器沒有、也不可能“學習”到的,機器沒有專屬于人類特有的創造性,不能在“實踐”中形成原創性的內容,也不會實現智慧的明悟,這是機器“生成”與人類“生成”的本質差異。此外,生成式人工智能沒有獨立的思考能力,不能借助劣構問題啟發人的思維,只能做到“言傳”,無法做到“意會”。因而,從生成哲學的視角分析,生成式人工智能本質上只是一個具有“高級復制”功能的工具,而不是一個生動的、具有創造力和自我意識的人。
2 人類的生成本質是“創造創生”
如果說生成式人工智能“生成”本質的哲學基礎是“本質既定,一切既成”的本質主義,那么現代生活中人類的“生成”本質則源于“一切將成,創造創生”的生成哲學。馬克思[8]認為,人參與社會勞動的過程就是“生成”,人類歷史在人的社會勞動中“生成”,是人對自然界的改造過程。尼采[9]認為,生成發展與生命價值觀這兩種偉大的價值觀被我們以決定性的方式糅合在一起,一切都在生成,一切都在永恒地回歸。柏格森[10]也指出,人的存在就是無限的自我創造。當詮釋學、科學哲學、語言哲學把解釋、科學、語言置于特定歷史情境進行觀照時,它們意欲表達的也是一種生成觀念。馬克思主義哲學對此有深刻的見解:人類的創造性活動不但創造了客體,也創造了主體自身[11]。可以說,相較于生成式人工智能,人類的“生成”本質在于“創造創生”,并且幾乎沒有預設,而生成式人工智能的“生成”在過程發生之前便可預知,這樣的“過程”不是生成,而是流程,因為這個“過程”沒有“變”,即無突變也無創造,而生成的核心是創造。正如懷特海[12]所說,過程的創造性就蘊藏在未來的不可預知性中,現在不可能真正預知未來。人的“生成”重過程而非結果(本質),其背后并不存在永恒不變的本質,不是既成事物的集合體,而是在產生和滅亡的循環過程中的集合體[13]。
三 人之主體性消解:生成式人工智能的內隱性風險
生成式人工智能的“生成”與人的“生成”存在本質差異。教育在欣喜于技術帶來便利和效率的同時,也必須關注其潛在的風險和挑戰。人是改造自然、創造歷史和社會發展的主體,然而當下人們對新技術的追捧過于狂熱、對技術的依賴和信任逐漸加深,導致“技術拜物教”這一意識形態日益盛行[14]。生成式人工智能強大的“生成性”和“類人性”模糊了教育中人的“生成”本質,替代了教育中本該屬于人的“生成”工作,致使人類陷入被技術主宰和掌控的奴役狀態,以及認知上對技術盲目崇拜而不自知的不覺狀態,進而遮蔽了教育中人的主體性。
1 拜物主義使人高度信仰工具理性
理性是人類從野蠻走向文明的關鍵,德國社會學家馬克斯·韋伯將理性分為“工具理性”和“價值理性”。其中,工具理性追求工具、手段的最大化利用,并根據這種可能的結果指導行為;價值理性則與價值觀、道德與情感直接相關[15]。簡單來說,價值理性就是做正確的事,工具理性是高效地做事。從生成哲學的思維方式來看,生成式人工智能的“生成”意味著高度的工具理性,其預設了教育中人的發展方向,規避了價值理性,加劇了當前標準化的泛濫,具有預設性、本質性和同一性等重要特征。然而,技術拜物教傾向下的人卻保持著對生成式人工智能工具理性的高度信仰,認為其帶給教育的益處遠遠大于壞處,正是工具理性凌駕于價值理性之上,產生了人之主體性消解的潛在風險。但教育是要把一切事物教給一切人,使每個人的德智體美勞都得到發展,最終實現人自由而全面的發展[16][17]。生成式人工智能的標準化恰恰限制了人的全面發展,其體現的是一種技術的工具理性而非價值理性,在工具理性的支配下,人會不斷“迷失”在將技術視為“機器神話”的認知中,從而走上技術主導價值判斷的不歸路。生成式人工智能的算法離不開人為的定義和設計,如果人被生成式人工智能制定的規則所束縛,就會逐漸失去其作為主體進行價值判斷的權力和能力。當生成式人工智能教育應用的效能和地位被社會普遍認可時,技術就變成了一種“權力”,具有“強制性”與“隱蔽性”的本質特征。如此,人的全面發展和自由發展的辯證統一特性可能會被生成式人工智能所消弭,人的價值理性和主觀思想會受到壓制和束縛,進而導致人的主體地位受到工具理性的“僭越”而消解。
2 機器智能生成謬論而人難以辨析
生成式人工智能的初心是將人從機械、繁復的工作中解放出來,給予人更多的時間和機會開展富有創造力和個性化的工作,最終實現人類自由而全面的發展。然而,人類過度依賴技術帶來的便利性,將本該屬于人的“創造創生”權力和義務交給機器,就意味著也將人的主體性讓渡給了機器[18],并且大多數人并沒有意識到在這個過程中人失去了作為教育主體的權利和能力,也尚不自知這種做法可能會給教育帶來的嚴重后果——機器將越來越精準地控制人類所知、所感,人會越來越按照機器的指令行事[19]。當人誤以為生成式人工智能的“生成”就是人類的“創造”,并且這種錯誤認識占據優勢之后,“拜物主義”傾向就遮蔽了人類的“創造”。具有技術拜物教屬性的生成式人工智能就像一張“大網”,將教育中的“人”牢牢捆住,使人在教育中的主體性徹底喪失,永遠失去對教育的主導權,最終淪為技術的“奴隸”,而失去辯證思維和批判推理能力的人也難以辨別甚至無法察覺生成式人工智能生成了謬論和虛假信息。生成式人工智能可以像“人”一樣與人類對話,對于人類提出的問題給予“生成”響應,并具有很強的權威性,但生成式人工智能給出的答案通常具有不透明性和不可解釋性,人們只能從機器處獲取答案,而對機器的處理過程、思考方式甚至答案的科學性均一無所知[20]。正因如此,生成式人工智能帶來的潛在風險更大,遮蔽性更強。生成式人工智能缺乏人類的智慧,尤其缺乏人類特有的即時或頓悟的推理能力,如果人類沒有意識到所提供的對話數據或者語料庫本身是錯誤的,那么生成式人工智能就很難將錯誤的內容變成正確的,進而導致基于錯誤材料生成的回答很大概率上也是錯誤的。尤其對于低齡兒童來說,他們缺乏對事物本質的理解,無法對事物進行合理的價值判斷,對機器的回答總是深信不疑,如果機器給出的信息是錯誤的或者傳遞的價值觀是消極的、帶有偏見和歧視的,兒童不能通過批判思考和科學論證的方式對“生成內容”進行甄別,就會導致兒童的知識體系、認知結構、道德倫理觀被技術攪亂。
3 技術量化演算強化教育同一屬性
一些學者認為生成式人工智能已經具備了為人類提供真正“個性化”服務的能力,但從生成哲學的視角來看,生成式人工智能的同一性、中心性否定了人的創造性,去除了人的個性和差異。生成式人工智能的“生成”不是針對個體本質,而是針對全體對象共同本質的設定,它試圖去除個體的差異,在二元或多元對立中確立一個“中心”,并將這個“中心”看作復雜人類群體的本質特征。人類的“生成”與生成式人工智能的“生成”在本質上是不同的,因為過程是創造的,本質是創生的,不同的過程、同一的過程,在不同的時間會有不同的本質[21]。這樣,差異是實在的,無差別的同一不過是抽象,追求抽象的同一性,抹殺個性和差異,只能導致權威主義和等級秩序的產生,最終消解創造,否定人類生成。但是,人們往往將生成式人工智能的“生成”本質等同于人類的“生成”本質,認為生成式人工智能可以根據人們不同的需求和差異量身定制不同的教育活動,從而實現人個性化的發展。這種觀點混淆了人與機器“生成”本質的差異,并認為技術的升級可以解決過去人工智能難以實現因材施教的問題。可見,技術帶來的風險隱蔽性越來越強,人類越來越難以察覺技術的本質依然是“同一性”和“中心性”的。“標準化”是生成式人工智能“同一性”的具體體現,一個穩定高效運行的生成式人工智能系統必然要基于一套成熟的標準體系,因為其規定了系統的運行規則和方式。生成式人工智能的“標準化”就是對輸入的內容進行同質化處理,使其轉化成具有相同性質或屬性的數據流,再根據一定的規則和定義處理數據,最終生成符合人類需求的內容。在這個過程中,輸入、處理、輸出都基于一定的規則和標準進行,這就意味著生成式人工智能只能處理可以被量化計算的行為和結果,對于那些難以量化或不可計算的能力、情感、思維等無能為力,但在人類需求的引導下,生成式人工智能不得不對“可量化”“不可量化”的內容進行“標準化”處理,技術的“同一性”和“中心性”就在機器強大的量化演算中得到進一步增強。然而,教育促進人個性的自由發展,是人的本性要求,是由人作為社會主體的身份決定的[22]。每個人的自由發展是一切人的自由發展的條件,人的個性、主體性的充分實現是社會發展的終極目的。在教育中,每個人都是獨特的,生成式人工智能忽視了人的獨特性,將復雜的人當作簡單的物進行同質化處理,“平均化”了每個人的特性,反而使人的個性難以得到發展和評價。
4 技術肆意濫用放大人類道德缺陷
生成式人工智能可以為道德與價值觀教育提供個性化、精準化、科學化的技術支撐服務,可以使個人全面發展的道德教育成為可能,也可以為道德教育的學習場景提供多維空間,拓展智能時代道德與價值觀教育的學習和實踐場域。但同時,生成式人工智能的肆意濫用也放大了人類的道德缺陷,產生倫理道德與個體價值觀的隱患。生成式人工智能的本質是一種高度的工具理性,其通過計算歸納出更合理有效的工具手段來達到教育目的,而在工具理性過度擴張甚至壓倒價值理性的過程中,人類往往會忽視“培養什么人”這一關鍵問題。換句話說,當機器的算法價值與人類價值產生矛盾沖突時,人類很容易受到算法價值的影響而做出錯誤判斷或違反法律倫理的行為。生成式人工智能是一把雙刃劍,它可以便捷地為人類提供教育服務,也可以淪為人類違法犯罪的“利器”。生成式人工智能并不是具有真正創造力和自我意識的人,其缺乏人類的道德感和法律底線,因而其在應用的過程中若受到人為的、惡意的不良誘導,也會輸出不好的、違反倫理道德和法律法規的信息,甚至淪為心機主義者追逐利益的工具。例如,微軟推出的智能聊天機器人Tay僅僅一天就在與用戶的互動中被“教壞”了,因其發布淫穢和煽動性的推文而被關閉[23],這樣的事件為數不少。機器本身并無好壞之分,但會因其使用人的不同而產生差異,缺乏道德能力和正確價值觀的人往往會被機器誤導朝著錯誤方向發展,機器也會淪為“幫兇”。此外,生成式人工智能的教育應用也引發了人們對知識產權保護、侵權責任認定等教育法律法規問題的探討。由于生成式人工智能中“生成”的本質是對已有材料的整合復制,因此這有可能會侵犯原始材料所有者的權利。事實上,生成式人工智能已經完全融入了人類的生產生活和教育教學之中,技術作為人體的延伸,其性質的好壞取決于使用它的人,我們不能對技術進行“有罪推定”,因為技術本身并無“原罪”。
四 發現教育中的人:技術遮蔽的內隱風險何以規避
面對聲勢浩大的技術革命,尤其當技術直接參與人自身的改造時,關注教育的本質和人的價值顯得尤為重要。幸運的是,生成哲學啟示我們不用糾結人與技術何為本體的問題,而是要認真反思教育的本質、價值和意義,辯證地看待技術帶給教育的影響。技術本質上應該服務于人,應該更好地賦能教師教學和學生學習。正如雅斯貝爾斯[24]所說,教育是人與人精神相契合、文化得以傳遞的活動,只有人的回歸才是教育改革的真正條件。只有真正理解教育的意義,發掘技術掩蓋下人的價值,發現教育中的“人”,才能更好地利用生成式人工智能開展有意義和有成效的教育教學工作。
1 目的觀:平衡工具理性與價值理性
當前,具備“涌現”“言說”和“對話”能力的生成式人工智能正在推動教育教學發生深刻變革,尤其在促進人的個性化發展方面展現出非凡的潛力,技術的工具理性得到了充分彰顯。但是,教育的終極意義是煥發人生命的色彩、促進人身心的全面發展,因而生成式人工智能的教育應用在任何時候都必須強調技術的價值理性,要以“教育性”為第一準則,遵循教育的基本規律,尊重人的個性化和創造性。為此,生成式人工智能“要做的”和“能做的”一直都是“模仿人”,而不是“成為人”。從人的價值實現來看,生成式人工智能是與主體的人相對的客體,是人實現目的和需要的手段與工具,生成式人工智能按照人的思維和意愿執行命令,體現了人類主體地位和主觀思想的價值判斷依然屬于人類本身[25]。技術帶給教育的益處不可否認,但技術所謂的“過程”是時間片段上靜態的、確定性的結果,生成式人工智能的世界觀認為“過程”是可以被預設的,一切事物都可以被計算和預測,復雜的對象也可以被歸結為簡單且易于理解的統一模式。這意味著,對于機器來說教育中的人是有共性的,這個共性可以被量化和生成,但是人與人之間最大的區別就在于不能被均值化、數據化的那一部分個性特質,這部分特質才是教育的終極價值追求,代表了每個人獨特的一面。教育的目的就是讓人的個性在“過程”中“生成”,在“生成”中得到發展。換句話說,機器眼中的“個性”是確定的、同一的,而人眼中的“個性”是不確定的、充滿創造力的。因此,生成式人工智能的教育應用要受到人類思想和價值理念的規約,要平衡技術的價值理性和工具理性,要在尊重教育多樣性和差異性的基礎上,充分發揮技術的效率和效能優勢,進而促進人個性化的全面發展。
2 知識觀:兼具辯證批判與智慧創生
在生成式人工智能應用于教育的過程中,如果僅靠機器智能參與知識生成,那么所謂的“生成”并不是一種真正的生成,只有人參與的知識生成才是具有創造性和生命力的,才是具有人類智慧的知識生成。知識生成不能依靠機器的智能復制,而是要求人類辯證批判地看待生成內容,進而實現人類自身的智慧創生。基于機器智能的生成式人工智能經常會生成謬論和虛假信息,導致“幻覺”問題而人類難以自察,因此不能將知識生成的權力交給機器,而是要將這種權力牢牢掌握在人的手中,要發揮人的主導作用,根據人的意志使用機器實現智慧創生。這是在信息爆炸時代,辨別信息的真偽、優劣和價值,以避免被誤導和欺騙,從而做出明智的決定和選擇、體現教育中人之主體性的基本前提。生成式人工智能強大的“涌現”能力使知識生成與表達變得高質高效的同時也導致獲取知識的成本逐漸降低[26],而人類的知識記憶與存儲能力卻遠遠不及生成式人工智能,若將知識學習和知識整合當作教育的目標,那么人類永遠比不過生成式人工智能。但是,教育并不是培養只會記憶知識的人,更要啟迪人的智慧,幫助人類在掌握知識結構的同時發展創造力,最終實現人類知識的原創性增長。從生成哲學的視角來看,知識不是以單個孤立的實體存在,而是以由無數節點相互交織形成的“管道”或“網狀”結構形式存在,知識的習得就是“關系建構,網狀生長”的過程[27]。因而,對知識本身的學習已不再是未來教育的重點,而是要在知識傳授的同時,幫助學生建構知識間的關系,并使其掌握建立關系的方法,通過加強學生想象力和創造力的培養,最終實現知識的智慧創生。
3 能力觀:統籌結果導向與過程導向
生成式人工智能的“預設性”“同一性”決定了其教育應用以知識學習為主要目標,是一種結果導向的能力觀,這種能力觀忽視了人作為教育主體的必然性和必要性,往往從片面、靜態、標準化的視角看待人的發展,將終結性的結果等同為人的能力水平。誠然,結果導向的能力培養觀和評價觀在一定程度上滿足了過去社會對勞動力的大量需求,表現出一定的科學性、規范性及公平性,但其不可避免地遺忘了人的發展性和差異性,忽略了人在教育過程中作為主體的存在價值[28]。而生成哲學強調過程即生成,生成即創造,創造即差異。教育就是要培養全面而自由發展的人,如果教育不注重蘊含個性和創造的“過程”,就變成了完全以結果為導向的教育,就是要將每一個學生培養成相同的人。因此,生成式人工智能教育要統籌結果導向的能力觀與過程導向的能力觀,結果導向的能力觀指向學習成果和最終目標,要求根據人類設定的學習目標和評估標準利用生成式人工智能制定個性化的學習方案與測試,確保學生能夠達到預期的學習成果。過程導向的能力觀則要體現人之主體性和創造性,使人真正參與到“知識生成”“能力生成”的過程之中,用人的思想和意志主導技術的轉化與應用,使人在駕馭技術的同時能夠發展自身的能力和個性,使生成式人工智能成為“增強”而非“替代”人類思想和創意的“工具手段”。此外,結果導向的能力觀預設了人的發展方向,為人的發展指明了最終目標,這要求人類對生成式人工智能的應用要朝著最終的發展方向和目標前進。同時,“過程”是構成世界的“基質”和“終極事實”,“過程”的“生成”構成它的“存在”[29]。在過程世界里,萬物都處在變化之中,但“變”本身是永恒的。簡單來說,宇宙中的每個實在物都是在生成的過程中確定自身的本質,因而每個存在物都是過程性的存在。過程性即生成性,是構成世界萬物的本質屬性,即所謂的“過程即實在,實在即過程”。人類的“生成”是一個充滿偶然性、過程性以及創造性的過程,機體的特征就是活動,活動表現為過程。因此,統籌面向“預設”的結果導向的能力觀和面向“生成”的過程導向的能力觀才是教育的根本價值和目的。
4 價值觀:兼顧算法價值與人類價值
人是教育之始,亦是教育之終。人的價值觀應由人類定義,而不能交由算法或機器,因為即便機器的算法是由人設計的,在一定程度上具有人類的價值觀,但機器在生成的過程中也會存在規避人類價值觀的風險。例如,人類希望生成式人工智能生成的內容是真實的、合法的、沒有偏見的,但由于刻意的誤導,生成式人工智能可能會生成虛假違法信息,導致人們難以區分事實與想象的數據;也會因為數據缺乏多樣性,導致系統性偏見;甚至由于數據集本身的公正性缺陷,帶來價值觀對抗、觀點霸權等。機器智能不是人類智能,機器的算法價值觀與人類價值觀往往并不對齊,而教育的本質在于培養人,教育的意義在于培養人的知識、技能與思想,使人更好地認識自己和改造世界,因而在生成式人工智能應用于教育的過程中,其價值觀取向必須兼顧算法價值觀和人類價值觀,重視人類價值觀在教育目標中的核心地位。兼顧算法價值與人類價值,要明確算法的價值取向和價值判斷應由人類掌握,要堅持算法與人類的價值對齊和價值平衡,進而不斷促進和實現價值的共創、共享、共贏和共治。人類真正的選擇自由不應該僅僅是基于個人偏好和價值取向的簡單化或被動自由,而應是不受外部干預或操縱的個人取向的主動自由。因此,我們不應讓智能算法僅僅停留在“面向受眾”,而應該推動其逐步實現“技術向善”。從方法上看,這一目標的實現需要基于人類價值取向對“算法”進行全過程控制,以社會主義核心價值觀為基礎[30],實現技術的祛魅和去權,消解工具理性,進而喚醒人類真實的個體需求,實現人的本質的回歸。正如習近平總書記所說:“人生的扣子從一開始就要扣好”[31]。價值觀就是人接受教育的第一顆扣子,這個扣子必須交由人去扣,而不是機器。
五 結語
生成式人工智能的崛起既是人工智能領域的一次重大變革,也是教育界站在批判理性的角度應用和反思生成式人工智能作為一種教育技術賦能教育教學和人類認知的重大機遇。我們既要審視技術革新對人類未來教育變革的重大發展意義,也要關注如何更好地將生成式人工智能應用于教育,更要保持價值清醒的態度,重視教育中人的主體性和技術對人的異化風險,重申智能時代人類價值觀的重要性。生成式人工智能強大的“生成性”往往會遮蔽技術之于教育應用的內隱性風險,使人類忽視機器“生成”與人類“生成”的本質差異,誤認為其可以提供真正“個性化”的因材施教,這種錯誤認識是導致教育主體性危機的根本原因。教育的意義在于實現人自由而全面的發展,其出發點和目的地都是人,因而教育更應立足于辯證唯物主義發展觀的視角理性審視技術的教育應用,確保教育中人的主體性不會被技術所覆蓋或取代。
參考文獻
[1]Lim W M, Kumar S, Verma S, et al. Alexa, what do we know about conversational commerce? Insights from a systematic literature review[J]. Psychology amp; Marketing, 2022,(6):1129-1155.
[2]Epstein Z, Hertzmann A, et al. Art and the science of generative AI[J]. Science, 2023,(6650):1110-1111.
[3]Fui-Hoon Nah F, Zheng R, Cai J, et al. Generative AI and ChatGPT: Applications, challenges, and AI-human collaboration[J]. Journal of Information Technology Case and Application Research, 2023,(3):277-304.
[4]Popenici S, Rudolph J, Tan S, et al. A critical perspective on generative AI and learning futures.: An interview with Stefan Popenici[J]. Journal of Applied Learning and Teaching, 2023,(2):311-331.
[5]孫立會,沈萬里.算法風險與智能教育中人的全面發展[J].現代遠距離教育,2023,(2):61-69.
[6](法)米歇爾·福柯著.莫偉民譯.詞與物——人文科學考古學[M].上海:上海三聯書店,2001:13.
[7]金吾倫.生成哲學[M].保定:河北大學出版社,2000:197.
[8]中共中央馬克思恩格斯列寧斯大林著作編譯局編.馬克思恩格斯全集(第42卷)[M].北京:人民出版社,1979:131.
[9]趙修義,童世駿.馬克思恩格斯同時代的西方哲學[M].上海:華東師范大學出版社,1996:154.
[10](法)亨利·柏格森著.王珍麗,余習廣譯.創造進化論[M].長沙:湖南人民出版社,1989:10.
[11](德)卡爾·馬克思,弗里德里希·恩格斯著.中共中央馬克思恩格斯列寧斯大林著作編譯局譯.馬克思恩格斯文集(第1卷)[M].北京:人民出版社,2009:519.
[12](美)羅伯特·梅斯勒著.周邦憲譯.過程-關系哲學——淺釋懷特海[M].貴陽:貴州人民出版社,2009:97.
[13](德)卡爾·馬克思,弗里德里希·恩格斯著.中共中央馬克思恩格斯列寧斯大林著作編譯局譯.馬克思恩格斯選集(第4卷)[M].北京:人民出版社,2012:244.
[14]Hornborg A. Technology as fetish: Marx, Latour, and the cultural foundations of capitalism[J]. Theory, Culture amp; Society, 2014,(4):119-140.
[15]Oakes G. Max Weber on value rationality and value spheres: Critical remarks[J]. Journal of Classical Sociology, 2003,(1):27-45.
[16](捷克)夸美紐斯著.傅任敢譯.大教學論[M].北京:教育科學出版社,2014:1.
[17]朱榮英.馬克思人的全面發展理論及其中國表征[M].北京:中國社會科學出版社,2018:15.
[18]張務農.人工智能時代教學主體的辨識與倫理反思[J].教育研究,2022,(1):81-90.
[19]尹后慶,祝智庭,顧建軍,等.教育數字化背景下的未來教育與基礎教育學建設(上)[J].基礎教育,2022,(4):14-38.
[20]周洪宇,李宇陽.ChatGPT對教育生態的沖擊及應對策略[J].新疆師范大學學報(哲學社會科學版),2023,(4):102-112.
[21]李文閣.生成性思維:現代哲學的思維方式[J].中國社會科學,2000,(6):45-53、206.
[22]林良夫.個性發展與教育改革[J].華東師范大學學報(教育科學版),1992,(2):57-62.
[23]Wolf M J, Miller K, Grodzinsky F S. Why we should have seen that coming: comments on Microsoft’s tay “experiment,” and wider implications[J]. Acm Sigcas Computers and Society, 2017,(3): 54-64.
[24](德)雅斯貝爾斯著.鄒進譯.什么是教育[M].北京:生活·讀書·新知三聯書店,1991:2.
[25]李海峰,繆文升.挑戰與應對:人工智能時代高校應重視價值判斷教育[J].中國電化教育,2020,(2):43-49.
[26]夏立新.ChatGPT對教育的多重變[J].國家教育行政學院學報,2023,(3):9-12.
[27](美)戴維·溫伯格著.胡泳,高美譯.知識的邊界[M].太原:山西人民出版社,2014:67.
[28]魏善春.當代課堂教學變革:一種過程哲學的審視[J].現代教育管理,2019,(12):63-68.
[29](英)懷特海著.李步樓譯.過程與實在[M].北京:商務印書館,2011:39.
[30]習近平.論黨的宣傳思想工作[M].北京:中央文獻出版社,2020:355.
[31]習近平.習近平著作選讀(第一卷)[M].北京:人民出版社,2023:243.
Research on the Subjective Risks and Avoidance of Generative Artificial Intelligence Education
——An Analysis Based on Generative Philosophy
Abstract: At present, generative artificial intelligence represented by ChatGPT, has set off a new wave of future education reform. However, the current research on artificial intelligence education has not been located in the “generative” “linguistic undertones”, which makes it impossible to truly explain the underlying causes of the risk of subjective dissolution. While generative philosophy provides a new perspective to analyze the subjectivity of generative artificial intelligence education from the perspectives of subject participation and value choice. From the perspective of generative philosophy, the “generation” of generative artificial intelligence is a kind of “advanced reproduction”, not the “creation” of human beings, and the ambiguity of understanding on the two kinds of “generation” led human beings into a enslaved state dominated and controlled by technologies, resulting in the potential risk of the elimination of subjectivity of human beings This potential risk was manifested as the high belief of human beings in instrumental rationality, the difficulty in discriminating the truth and falsity of generated content, the same property of education strengthened by technical quantitative calculus, and the amplification of moral defects of human beings. To avoid the hidden risks hidden by technologies, it was necessary to change the materialistic tendency of the education process, take the “human being” in education as the core, balance the purpose view of instrumental rationality and value rationality, combine the knowledge view of dialectical criticism and wisdom creation, coordinate the result-oriented and process-oriented ability view, and and take into account the values of algorithm and human beings, so as to discover and reshape the “human beings” who are disciplined by technology in generative artificial intelligence education.
Keywords: generative artificial intelligence; education; instrumental reason; subjectivity; generative philosophy