周剛

近年來,以互聯網、大數據、人工智能為核心的數字技術迅速發展,特別是2022年以來,以ChatGPT為代表的生成式人工智能技術取得重大突破。生成式人工智能是指基于機器深度學習自主生成具有一定邏輯性的文本、圖像、視頻等內容的模型及其相關智能技術。生成式人工智能一經推出,就對包括教育在內的眾多行業產生重塑性影響。思想政治教育是高等教育的重要組成部分,伴隨著高等教育數字化轉型的不斷深入,人工智能技術與思想政治教育融合日益緊密,其潛在的倫理風險如倫理準則失衡、道德標準失守等隨之逐漸凸顯,并可能削弱思想政治教育實效。因此,具有前瞻性地審視生成式人工智能嵌入思想政治教育的倫理風險表現樣態,探究倫理風險生成邏輯及其治理路徑,對于推動思想政治教育數字化轉型具有重要意義。
一、生成式人工智能嵌入思想政治教育
倫理風險的多重樣態
生成式人工智能技術在通過優化育人過程、挖掘育人要素、拓寬育人空間深度嵌入思想政治教育的同時,其潛在倫理風險日益凸顯。這種倫理風險既源于人工智能的一般性倫理風險,也具有思想政治教育的顯著意識形態屬性,主要呈現出倫理關系失衡、倫理行為失當、倫理規范失控等風險樣態。
倫理關系失衡,師生主體地位消解及自我認知失調。生成式人工智能在融入思想政治教育的過程中,打破了原有學校教育中師生之間的強相關結構,有可能降低教師在課堂上的主導地位,影響師生之間的互動程度,削弱師生的主體地位,并可能導致學生自我認知的失衡。
其一,生成式人工智能的融入淡化了師生之間的聯系,消解著教師的主體地位。一方面,以ChatGPT為代表的生成式人工智能能夠理解和生成人類語言,利用其內置算法和模型,基于問題生成相應的答案,形成“人—機器—人”的虛擬交互關系。受教育者可以通過ChatGPT直接獲取題目答案,批改課程作業,教師的信息主導優勢和地位被不斷消解。另一方面,隨著生成式人工智能技術的發展,受教育者越來越依賴數字交往平臺,師生之間交往進一步弱化,阻礙了師生之間的情感交流,教師主體地位被進一步弱化。加之部分教育者數字化素養偏弱,在教學過程中運用生成式人工智能技術難度較大,有可能加劇教育領域的“數字鴻溝”。
其二,生成式人工智能的潛在“畫像”功能,導致受教育者自我認知失衡。大數據驅動的生成式人工智能契合了思想政治教育的多樣化特征,能夠根據學生需求提供個性化、定制化學習內容,不斷提升思想政治教育的精準性。生成式人工智能在提供信息方面的確帶來了便利,但長期的“信息投喂”也可能導致受教育者陷入“信息繭房”困境。人工智能算法往往會根據用戶喜好和瀏覽習慣,推送相似或重復信息,使得用戶接觸到的信息范圍變得狹窄,難以獲得更為豐富和全面的內容。對于受教育者而言,長期接觸這類偏窄的信息,可能會導致其思維固化,難以形成全面、客觀的自我認知。
倫理行為失當,造成數字技術過度依賴與算法偏見加劇。大數據和算法推薦是生成式人工智能的核心技術,但其在豐富思想政治教育形式、創新思政教學方法的同時,也存在過度依賴數字技術、算法權力異化等倫理風險。虛擬智能教育空間更多以數字技術作為主要支撐,其倫理判斷以量化形式表征,難以模擬并理解師生關系和道德觀念,學生難以從冰冷的數據中感受到人文關懷。
其一,過度依賴生成式人工智能技術,會弱化受教育者的批判思維和創新能力。一方面,隨著生成式人工智能技術的快速發展,其對信息數據進行加工、篩選和復合能力顯著增強,極大地方便了人們的學習和生活,同時也容易使受教育者陷入算法的“舒適圈”,進而產生對技術的盲目崇拜,過分依賴機器生成的信息弱化了人們對信息的篩選和加工能力。另一方面,當個體與ChatGPT等生成式人工智能進行交流時,其對話內容和形式與“人類交互”高度相似,致使個體產生認知的舒適性,缺乏對真實世界的直接接觸和感悟,容易引發對現實情況的誤判。以撰寫文獻綜述為例,使用ChatGPT可以較快獲得相關文獻并生成文獻綜述,但并不能替代研究者的學術素養訓練,過度依賴這種工具將導致研究者喪失學術研究應有的深入思考能力。
其二,算法偏見可能沖擊自由、公平等價值觀念,撕裂網絡主流意識形態價值認同,進而影響社會公平。一方面,以ChatGPT為代表的生成式人工智能在預訓練過程中需要龐大的數據支撐,這些數據本身就可能帶有對特定群體的社會偏見,進而加深刻板印象,從而加劇社會不平等。聯合國教科文組織發布的相關研究成果顯示,開源大語言模型傾向于將工程師、教師、醫生等更多元、地位更高的工作分配給男性,而經常將女性與傳統意義上被低估或被“污名化”的角色掛鉤,從而引發性別歧視。[1]隨著生成式人工智能應用越來越普遍,其生成內容中極小的性別偏見,也可能顯著加劇現實世界中的不平等。另一方面,生成式人工智能在人機交換過程中不斷獲取用戶信息,并通過自我學習提高技術的準確度。一旦使用者提問本身帶有惡意或者偏見,經過長期訓練便可能造成錯誤輸出。另外,技術研發人員的個人偏好和主觀情緒,也可能造成算法偏見并引起倫理問題。
倫理規范失控,可能導致隱私數據泄露與倫理責任主體缺失。生成式人工智能技術的快速發展,加之其在思想政治教育應用過程中的相關法律道德規范不健全或執行不力,可能引發倫理規范失控風險,主要包括隱私數據泄露和倫理責任主體缺失。
其一,教育信息采集和使用不當,可能造成隱私數據泄露。生成式人工智能在應用于思想政治教育實踐的過程中,需要通過電腦、監控系統、可穿戴設備等智能設備采集大量教育者和受教育者的數據信息,全方面、全過程地了解師生的上課動態和行程軌跡,從而輔助教師調整教學方式,進行有效的智能測評和學情分析,為學生提供定制化教育資源和個性化教育形式。大數據的采集使師生信息數據高度透明化,其中不可避免地包含師生的生物外貌特征、心理缺陷、婚戀交友等隱私信息。如果師生數據保護意識不強,相關數據一旦被不法分子使用,將會造成不可估量的倫理風險。
其二,生成式人工智能的自我決策和自我學習功能,可能對傳統倫理責任主體造成沖擊。傳統的責任倫理判斷依賴決策行為與行動結果之間的因果邏輯關系,可以明確追溯到主體責任。而以ChatGPT為代表的生成式人工智能,依據數據和算法驅動的自主決策,其決策模型屬于“算法黑箱”而缺乏透明度,難以對具體決策進行審查、干預和判斷。如果人工智能技術在嵌入思想政治教育過程中出現決策失誤,很難追究具體決策問題的技術主體責任到底來自技術研發者、數據提供者還是機器操作者。同時,思想政治教育承載著明確的政治立場和意識形態屬性,它要求教育者具備深刻的判斷力和敏銳的鑒別力,以引導學生形成正確的價值觀和政治觀念。然而,生成式人工智能設備盡管在某些領域展現出強大的能力,但不具備理解人類復雜思想的能力,在思想政治方面的判斷力、鑒別力等方面存在先天缺陷,容易造成誤判等風險。
二、生成式人工智能嵌入思想政治教育
倫理風險的生成機理
生成式人工智能嵌入思想政治教育,具體表現為以大數據為基礎、智能算法為核心的全面嵌入思想政治教育實踐各要素、全場域的過程。然而,這一進程不可避免地伴隨著一系列倫理風險,其風險涉及范圍廣泛,從研發、設計到具體應用,都可能對人與人、人與社會的和諧共生帶來潛在風險。這些倫理風險繼承了生成式人工智能領域普遍存在的倫理問題,彰顯了思想政治教育的獨特性,是內生性機理、功能性機理和實踐性機理共同作用的結果。
內生性機理:算法技術的局限性與思想政治教育的實效性相矛盾。科學技術像一把“雙刃劍”,既能夠推動思想政治教育快速發展,有時也會“表現為異己的、敵對的和統治的權力”[2],并制約思想政治教育的實際效用。隨著生成式人工智能的快速發展,大數據的算法優勢逐漸彰顯,在彌補人類思維不足的同時,其自身也存在一定局限性?!八惴ê谙洹?、機器自主學習等技術性根源容易導致“算法歧視”,不可避免地帶來一系列倫理風險。
一方面,算法數據的依賴性與思想政治教育的時效性相違背。在生成式人工智能融入思想政治教育的實踐活動中,算法技術扮演著核心角色,其高度依賴數據樣本卻帶來了不少倫理風險。首先,生成式人工智能算法模型更多依賴以往數據建立,而數據本身往往帶有偏見且容易過時。基于這些數據來分析現實問題,與思想政治教育“因時而新”的需求相悖[3]。此外,一旦數據缺損或算法代碼出錯,不僅無法保證算法模型的穩定性,還可能導致誤判,進而嚴重影響用戶“畫像”、信息推送等功能,引發倫理風險問題。此外,在借助生成式人工智能賦能思想政治教育時,教育對象思維的轉化、頓悟等心理轉變無法通過數據進行預測分析,即生成式人工智能只能通過算法分析思想政治教育量的變化而無法達到質變。
另一方面,算法模型的固定性與思想政治教育的針對性相沖突。思想政治教育的目標是促進個體自由而全面的發展,由于每個教育對象的個性特征和成長環境不盡相同,需要根據個體實際情況進行因材施教。生成式人工智能在融入思想政治教育后,將教育對象、教育過程等不同環節進行精細化處理,轉化為一個個冰冷的數據符號,依托固定的算法模型為教育對象提供個性化學習資源,引導受教育者按照預設的模式進行學習。這種統一固定的算法推薦模式,可能固化學生的創新思維,導致學生失去獨立思考的能力,本質上不利于學生個性化發展,影響思想政治教育的針對性。
功能性機理:技術應用的工具性與思想政治教育的價值性相沖突。功能性風險是由于生成式人工智能的技術理性擴展而引發的倫理風險,它涉及智能技術在思想政治教育過程中可能帶來的各種道德困境和倫理挑戰。德國社會學家馬克斯·韋伯將技術理性劃分為工具理性和價值理性兩方面。工具理性追求的是目標的達成和效率的最大化,它在賦能思想政治教育過程中,關注的是如何更有效地利用數字工具和手段來達到預期效果。價值理性強調的是行為的動機和意義,而非僅僅是行為的結果或實用性。[4]在實際應用中,價值理性要求我們在追求技術發展的同時,也要關注倫理道德和行為準則。
一方面,生成式人工智能快速發展引起工具理性過度膨脹。生成式人工智能為思想政治教育注入了新的活力,能夠精準地捕捉教育對象的學習狀態,準確評估其學業水平,并模擬真實的教育場景為思想政治教育提供無限的創新空間,推動教育的數字化和現代化進程。然而,生成式人工智能技術的日益完善雖然極大地豐富了教育功能,但也導致教育對象過度沉浸于數字技術營造的智能教育空間,并對數字技術產生過度依賴,進而削弱了教育對象的學習能力和判斷能力。同時,這種過度依賴使得教育對象難以洞察思想政治教育背后所蘊含的深刻價值和意義。因此,隨著生成式人工智能的“技術霸權”逐漸顯現,其工具理性不斷侵蝕價值理性,使得思想政治話語權被數字所支配。
另一方面,思想政治教育的價值理性的統攝作用得不到充分發揮。思想政治教育具備強烈的意識形態屬性,它致力于引導人們堅定“聽黨話、跟黨走”的信念,肩負著培養合格的社會主義建設者和接班人的崇高使命。然而,與生成式人工智能的工具理性相比,兩者之間存在一定的張力,使得思想政治教育價值理性的發揮受到一定限制。教育對象在數字技術的誘惑下,過度依賴數字技術工具理性,導致人與人之間的情感交流逐漸淡化,高階思維判斷能力的發展受到嚴重阻礙。這種現狀不僅與思想政治教育“以人為本”的初衷背道而馳,更可能引發一系列倫理風險,對社會發展造成不良影響。因此,需要重新審視人工智能技術的工具理性與思想政治教育的價值理性之間的關系,確保兩者在思想政治教育過程中得到充分體現和最大限度的平衡。
實踐性機理邏輯:技術發展的不確定性與風險認知的有限性相制約。生成式人工智能在融入思想政治教育實踐的過程中,倫理風險的產生既源自客觀條件,也受到主觀因素影響。在客觀層面,數字技術的“算法黑箱”,為倫理風險的滋生提供了土壤。而在主觀層面,由于教育主體、教育對象、研發人員等對潛在倫理風險的認知不足,以及相關配套機制的欠缺,使得上述主體對倫理風險的判斷能力受到限制。由于思想認識的局限和技術發展的不確定性,相關主體對倫理風險的識別能力和應對能力仍顯薄弱,無疑成為倫理風險生成的主觀因素。
一方面,生成式人工智能技術發展的不確定性,給倫理風險預測帶來極大的挑戰。生成式人工智能的三大核心要素——大數據、算法和算力,共同構成了復雜而精妙的運作體系。其中,算法模型作為關鍵的一環,具備一定的自主性,能夠自主決策和自主學習。只要基礎數據足夠豐富,算法模型便能不斷地修改和創建,實現持續的自我優化。然而,在深度學習的過程中,新數據的不斷產生和反饋使得算法模型持續優化,這種自我迭代的能力使得生成式人工智能技術的輸出結果變得難以準確預測。更為復雜的是,算法模型通常以代碼的形式呈現,這使得人們的情感因素和意圖難以被算法所捕捉和表達。因此,難以判斷生成式人工智能技術背后的邏輯意圖和責任主體,從而形成了所謂的“算法黑箱”。這種“黑箱”性質不僅增加了技術應用的復雜性和不確定性,而且加大了倫理風險的發生概率。[5]因此,在推進生成式人工智能技術的發展過程中,需要充分考慮到其不確定性所帶來的倫理風險,并采取相應措施進行防范和應對。
另一方面,當前應用主體對生成式人工智能融入思想政治教育的風險認知尚顯不足。隨著生成式人工智能技術的優勢逐漸顯現,越來越多的思想政治教育工作者積極投身于教育數字化浪潮,極大地推動了思想政治教育現代化進程。然而,由于生成式人工智能涉及大數據、機器學習、神經網絡等多學科交叉知識,其深度和廣度往往超出了傳統思想政治教育工作者的認知范疇。當前,生成式人工智能融入思想政治教育的實踐尚處于探索初期,面臨著技術開發、數據共享等方面的法律法規尚不完善、倫理規范和指引相對匱乏的挑戰。[6]由于缺乏相應的倫理風險防范機制與配套措施,有效預防倫理風險的發生變得尤為困難。同時,技術開發人員往往追求數字技術功能實現和效果優化,在設計算法模型時容易忽視對道德規范、技術倫理的整體考量,進而導致對生成式人工智能融入思想政治教育過程中可能產生的倫理風險認知不足。
三、生成式人工智能嵌入思想政治教育
倫理風險的治理路徑
生成式人工智能技術有效提升了思想政治教育實效性,但隨著技術的不斷演進,其潛在的倫理風險也逐漸凸顯。針對潛在的倫理問題,需要以科學的態度和人文關懷,共同探索出一條符合倫理原則和教育使命的治理路徑,確保生成式人工智能真正促進思想政治教育實現數字化轉型和高質量發展。
建立價值引領機制,突出以人為本價值導向。技術價值應與人的全面發展價值相一致,在規避技術倫理風險時,需要優先考慮價值取向,遵循思想政治教育規律,順應學生認知規律,引領教育對象跳脫出“算法偏見”“信息繭房”“技術黑箱”等困境,擺脫技術依賴,重新構建多樣化的主體世界。首先,突出以人為本的價值導向。在思想政治教育領域,培養德才兼備的人才是核心,數字技術只是一種服務工具。在路徑上,要始終堅持以人的全面發展為中心。教育者不僅要利用生成式人工智能提高教育效率,更應該關注教育對象的情感需求,主動與教育對象溝通,堅守師生角色倫理,恪守規范,學以致用。推動技術本位向以人為本轉變,引領生成式人工智能技術持續向好發展。另外,要辯證看待數字技術工具理性與價值理性之間的關系。思想政治教育是有溫度的教育,應做到以理服人、以情動人。研發主體應將馬克思主義道德倫理觀念融合到算法設計、研發和應用全過程,讓“算法推薦池”引領道德倫理充盈于人工智能平臺。教育者應用馬克思主義世界觀和方法論來評判生成式人工智能嵌入思想政治教育的利與弊,從而不斷優化算法嵌入思想政治教育的倫理取向。
強化素養培育機制,提升倫理風險應對能力。在思想政治教育領域,生成式人工智能產生倫理風險的有效防范,與技術主體(如算法設計人員)、應用主體(如教師和學生)的數字素養密切相關。如果技術主體缺乏對風險的認識和責任感,在算法設計和研發階段就無法有效評估倫理風險,從而可能埋下潛在的風險隱患。應用主體數字素養不足,缺乏獨立思考能力,容易被未經干預的算法侵擾,從而導致信息封閉、信息傳播偏好、價值失衡等問題。首先,強化研發主體數字意識。廣泛開展人工智能基礎知識、數據素養和算法素養培訓,將技術應用與人文、倫理、社會等領域相融合,以提升技術主體、應用主體的人工智能適應能力、勝任力和創造力為關鍵。其次,加強對智能思政技術主體的教育引導。推動應用主體與技術主體就人工智能倫理展開討論交流,強調對技術主體的價值理性引導和責任意識培養,促使其自覺接受思想政治教育和相關學科知識培訓,提升專業素養,加強算法研發和設計的道德自律性。其次,提升應用主體數字能力。技術倫理風險不僅在技術研發設計環節產生,也存在于應用過程。對于教師而言,應實施教師智能技術應用能力提升計劃,加強教育培訓,引導教師遵守人工智能倫理原則和規范,確保教學安排和決策符合教育效益、倫理規范和技術效能。對學生而言,則需要加強人工智能倫理知識普及教育,通過融入課程教學和組織專題講座等方式,提高學生的人工智能基本原理理解能力,培養其信息辨別能力,引導其抵制有害行為,樹立正確的科技觀、倫理觀和網絡行為習慣。
完善倫理約束機制,提高倫理風險防控水平。健全倫理約束機制是規避技術異化的有效手段,是促進生成式人工智能技術賦能思想政治教育的前提。首先,做好頂層設計,健全法律法規。通過法律法規化解技術倫理風險,將倫理風險防控納入法治體系。加強對算法的審查和監督,對生成式人工智能企業和算法設計人員進行資格審查和風險評估,建立相應的約束機制,防止爆發潛在的倫理風險。同時,對隱私數據泄露、虛假信息傳播等建立保障機制,提高教育對象的網絡素養,排除倫理風險漏洞。其次,強化全程監管,完善預警系統。技術研發主體和應用主體都應充分發揮生成式人工智能技術在倫理建設方面的優勢,通過建立倫理風險監測、監督和審查機制,提升技術的安全透明度。針對不同風險類型建立倫理風險預警機制,一旦發現潛在倫理風險,立即向執法部門和師生發送預警信息,實現預警精準化。最后,壓實主體責任,建立問責機制。完善算法問責機制,明確責任主體,理清技術研發者、制造者和應用者的責任,保障生成式人工智能技術的合理合法使用。同時,圍繞倫理風險防控目標和內容,搭建目標清晰、結構合理的評價體系,對生成式人工智能嵌入思想政治教育的倫理風險進行客觀、公正的評價,確保倫理風險防控取得實際效果,不斷提升思想政治教育實效。
參考文獻:
[1]徐永春.聯合國報告:生成式人工智能加劇性別偏見[N].新華每日電訊,2024-03-09.
[2]馬克思恩格斯文集:第8卷[M].北京:人民出版社,2009:358.
[3]任鳳琴,董子涵.風險與超越:生成式人工智能賦能思想政治教育的倫理分析[J].重慶郵電大學學報(社會科學版),2023(6):80-89.
[4]米華全.智能思政倫理風險的生成邏輯、表現形式及防控機制[J].中國電化教育,2023(2):111-117.
[5]王婧怡.數字時代算法技術異化的倫理困境與治理路徑[J].自然辯證法研究,2023(10):128-131.
[6]馮子軒.生成式人工智能應用的倫理立場與治理之道:以ChatGPT為例[J].華東政法大學學報,2024(1):61-71.
(作者系常州大學黨委常委、副校長)
責任編輯:劉志剛