摘"要:
發揮強大的思政引領力,是教育強國建設的有力支撐。在數字化與智能化時代,人工智能成為推進思政教育不可或缺的工具。在人工智能賦能思政教育的過程中,必須處理好以下六對關系:人工智能數據和算法的邊界性與思政教育需求的廣泛性之間的關系,人工智能的資本屬性與思政教育的可信任性之間的關系,人工智能的算法偏見與思政教育的價值正確性之間的關系,人工智能的意識形態識別失能與思政教育意識形態安全之間的關系,人工智能的自我意識缺失與思政教育的意識需求之間的關系,在批判性思維培養方面人工智能供給與思政教育需求之間的關系,如此才能真正實現智能向善的科技倫理目標。
關鍵詞:人工智能;思政教育;數據依賴;算法偏見
DOI:10.15938/j.cnki.iper.2025.01.021
中圖分類號:G641""""文獻標識碼:A""""文章編號:1672-9749(2025)01-0137-09
在當今數字化與智能化時代,人工智能技術蓬勃發展并深刻影響著社會各個領域。習近平指出,“當前,新一輪科技革命和產業變革迅猛發展,人工智能等新技術方興未艾,大幅提升了人類認識世界和改造世界的能力,同時也帶來一系列難以預知的風險挑戰。我們應當把握數字化、網絡化、智能化發展大勢,把創新作為第一動力、把安全作為底線要求、把普惠作為價值追求,加快推動網絡空間創新發展、安全發展、普惠發展,攜手邁進更加美好的‘數字未來’。”[1]思政教育作為發揮思政引領力的關鍵環節,在人工智能賦能中也迎來了新的機遇與挑戰。一方面,人工智能憑借其強大的數據處理、個性化推送以及智能交互能力,極大地拓展了思政教育的資源獲取渠道、豐富了思政教育方法、創新了思政教育模式,增強了思政教育的針對性和吸引力。另一方面,人工智能所帶來的信息過載、算法偏見以及人機關系異化等潛在風險,可能對思政教育的內容權威性、教育者主導性與受教育者價值觀產生消極影響。因此,研究人工智能賦能思政教育的相關問題極為必要。處理好人工智能賦能思政教育中涉及的多種關系能指導思政教育工作者更好地運用人工智能,堅守教育本質,避免過度依賴技術而忽視人與人之間的情感交流;能在篩選海量信息時保障思政教育內容的政治性與科學性,有效抵制不良信息干擾;能助力教育部門制定相關政策與規范,推動人工智能與思政教育的深度融合及健康發展,為培養適應數智時代全面發展的人提供理論借鑒。
一、人工智能數據和算法的邊界性與思政教育需求的廣泛性之間的關系
在數字化時代,人工智能憑借數據和算法展現出強大力量,但它并非無所不能,而是存在著明顯邊界性。與此同時,思政教育作為實現價值塑造的重要途徑,其需求呈現出廣泛且多樣的特點。協調這一對關系極為必要。
1.人工智能的數據和算法具有邊界性
人工智能的數據具有邊界性。數據是人工智能的基石,數據是思想政治教育各基本要素的重要依托。[2]人工智能算法需要依托大量高質量的數據進行訓練,如果數據不足、質量不佳或存在偏差,會影響大模型的準確性和性能。此外,雖然一些人工智能能夠從新數據中學習,但許多大型語言模型在訓練后不會更新它們的知識庫,這意味著它們的推斷通常只基于最后一次訓練時的數據。在某些數據稀缺的領域,模型可能難以得到充分訓練。引發數據不足的原因有很多,如數據涉及隱私、安全等,在個人數據保護法規的約束下,人工智能系統不能隨意獲取和使用個人敏感信息,必須在明確的法律框架內進行數據處理。再如,很多思政教育大模型囿于著作權的約束導致數據不足。數據集創建者大量復制作品同樣會受到著作權法的約束,如果是通用數據集,在公共利益原則下能夠豁免侵權責任;如果是專門數據集,因其整體價值與作品價值的重合性,則難免會涉及著作權侵權。在生成式人工智能的學習階段,原則上無需獲得著作權許可,但當數據用于創作輸出或涉及著作權人利益的情況下,則需獲得權利人許可;在人工智能的生成與使用階段,當生成內容涉及使用或改編現有作品時,則可能構成著作權侵權。同時,不同領域的數據可能存在不同的標準和限制,使得人工智能在跨領域應用時面臨數據邊界模糊的挑戰。例如,醫療領域的數據與金融領域的數據在使用和共享方面有很大的差異。此外,若訓練數據存在種族、性別等方面的偏差,也可能導致模型產生不公平或歧視性的結果。人工智能的數據具有邊界性,還源于一些因政治原因而刻意回避的敏感話題,如ChatGPT針對“歌頌特朗普”這一問題的拒絕評價,就是典型代表。當前一些國內的人工智能大模型,同樣存在對敏感話題或敏感字眼的設定,可能使得部分思政教育的熱詞成為人工智能大模型的回避話題。
人工智能的算法具有邊界性。人工智能的“內在邏輯在于借助算法對海量‘數據流’進行聚合、類化和算法創制”[3]。其算法邊界性的產生主要源于以下因素:一是計算資源需求大。一些強大的人工智能模型,如深度神經網絡,需要大量的計算資源(包括GPU、CPU等)和存儲空間才能進行訓練和應用。這對于一些資源有限的設備或環境來說是一個挑戰,也增加了應用的成本和復雜性。二是人工智能的推理能力不足。人工智能推理能力的增強依賴于技術的提升,包括豐富數據、增強算法、人機交互、實時反饋集成、跨領域知識轉移和特定用例的定制等,目前很多思政教育語言模型還不具備這些能力。三是人工智能供給的標準化。人工智能通常基于大數據和算法提供標準化的學習方案和評估體系。雖然它可以根據受教育者的學習數據進行一定程度的個性化推薦,但這種個性化往往是有限的。它難以完全適應每個個體的獨特需求和發展路徑,可能會使教育過程變得相對機械和單一。
2.思政教育需求的廣泛性
思政教育不僅涵蓋了學校、家庭、社會等各個層面,還涉及到人的思想、價值觀、道德觀等多個方面。思政教育的目標是培養全面發展的人,因此它不受特定領域或數據類型的限制。從教育對象上看,思政教育涵蓋各個年齡段。青少年需要通過思政教育樹立正確的世界觀、人生觀和價值觀,進而在復雜的社會環境和信息洪流中健康成長,明確自身價值和發展方向。成年人在社會生活與工作中,也需要通過思政教育來提升職業道德素養、增強社會責任感,以更好地履行社會角色。從個性化需求來看,思政教育強調因材施教,根據受教育者的個性特點、興趣愛好和學習能力進行個性化的教育。因此,思想政治教育的“內容、形式、參與者等在各個方面呈現出顯著的差異性和多樣性”。[4]教育者可以通過觀察受教育者的各種表現、與受教育者交流互動等方式了解其需求,制定個性化的教育計劃,而這恰恰是人工智能在標準化供給中無法達成的。從社會發展角度看,面對世界百年未有之大變局,多元文化和社會主流價值觀相互碰撞。社會需要通過思政教育來凝聚共識,確保公民堅守主流價值觀、維護國家安全和社會穩定。同時,在面對社會矛盾和問題時,思政教育能夠促進溝通理解,為和諧社會建設提供思想保障。總之,思政教育在不同領域、不同環境中都有著不可或缺的地位,發揮著導向功能、凝聚功能、激勵功能、調節功能等,滿足著整個社會持續發展的廣泛需求。
3.協調關系的策略選擇
推動跨領域數據共享和合作。為了克服人工智能的數據邊界敏感性問題,需要推動跨領域數據共享和合作。這可以通過建立數據共享平臺、制定數據共享標準和協議等方式來實現。跨領域數據共享可以為人工智能提供更豐富的數據資源,從而提升其在思政教育中的應用效果。同時,也可以促進不同領域之間的交流合作,推動思政教育的創新發展。
結合人工智能與傳統教育方法。在思政教育中,應該結合人工智能與傳統教育方法,充分發揮兩者的優勢。例如,可以利用人工智能教育工具進行個性化學習和輔導,也要通過課堂教學、社會實踐等傳統教育方法進行情感溝通和價值觀引導。這樣可以彌補人工智能的局限性,提高思政教育的質量和效果。
加強數據管理和隱私保護。盡管數據管理和隱私保護對于數據的供給構成制約,但是加強數據管理和隱私保護是不斷提升人工智能可信任性的重要保障。因此,在人工智能應用于思政教育的過程中,必須加強數據管理和隱私保護,確保個人信息和教育數據的安全。這可以通過建立嚴格的數據安全制度、采用加密技術和訪問控制等措施實現。同時,教育主管部門、教育機構和企業也應該加強對數據使用的監管,確保數據的合法、合規、合理使用。
二、人工智能的資本屬性與思政教育的可信任性之間的關系
隨著科技對資本的依賴性增強,人工智能的資本屬性愈發凸顯,其背后的商業運作與利益驅動影響著社會的諸多方面。而思政教育以培養人的正確價值觀為核心,其可信任性建立在對真理的傳播和對品德的塑造上。這兩者看似處于不同維度,卻有著緊密且微妙的關聯,值得我們深入剖析。
1.人工智能的資本屬性可能引發的問題
利益驅動可能導致價值偏差。人工智能的發展往往受到資本的推動,企業為了追求利潤最大化,可能會在人工智能產品和服務的設計與推廣中更注重商業利益,而忽視其社會價值。例如,一些智能推薦算法可能會為了提高用戶點擊率和停留時間,過度推送娛樂化、低俗化的內容,這與思政教育所倡導的積極健康的價值觀相沖突。
數據壟斷與隱私問題可能破壞信任關系。擁有大量數據資源的人工智能企業為了獲取壟斷利潤,很可能會進行數據壟斷,這不僅可能限制競爭,還可能導致用戶隱私泄露。在思政教育中,信任建立在尊重和保護受教育者隱私的基礎上,而如果不對人工智能的數據收集和使用加以規范,可能會破壞這種信任關系。
技術黑箱與不可控性可能誘發信任危機。人工智能技術往往具有較高的復雜性和專業性,加之資本的私有性所帶來的技術壟斷的需求,其決策過程對于普通用戶來說就像一個“黑箱”。這使得人們難以理解和評估人工智能系統的決策依據,也增加了人工智能被不當利用的風險。而在思政教育中,如果受教育者對教育過程中使用的人工智能工具缺乏信任,則會或多或少影響到教育的效果。
2.思政教育可信任性的要求
價值導向的明確性和穩定性。思政教育的可信任性首先體現在其明確而穩定的價值導向上,“它是以馬克思主義尤其是當代中國馬克思主義為指導思想和根本遵循,以理想信念教育為核心、以愛國主義教育為重點,以基本道德規范為基礎、以學生的全面發展為目標,其實質是中國特色社會主義主流意識形態的教育。”[5]其核心任務是引導受教育者樹立正確的世界觀、人生觀、價值觀。而人工智能的資本屬性可能會使一些產品和服務的價值導向變得模糊或不穩定甚至與主流價值觀背道而馳,這就需要思政教育工作者在使用人工智能工具時,更加謹慎地篩選和評估,確保其符合思政教育的價值要求。
教育過程的透明性。思政教育需要建立在教育者和受教育者之間的信任基礎上,這就要求教育過程具有較高的透明性。受教育者需要了解教育內容的來源、目的和方法,以便更好地接受和參與教育過程。然而,人工智能的引入可能會使教育過程變得更加復雜和不透明,例如,如果不能向受教育者清晰解釋智能輔導系統的決策過程、個性化推薦的依據等,就可能會降低受教育者對思政教育的信任度。
教育者的權威性。在思政教育中,教育者的權威性對于獲得受教育者的信任至關重要。而人工智能的發展可能會使部分受教育者對傳統教育者的權威性產生懷疑,認為智能工具可以提供更準確、更全面的知識和信息。這就需要教育者不斷提升自己的專業素養和教育能力,同時也要善于利用人工智能工具,增強自己在教育過程中的權威性和影響力。
3.協調關系的策略選擇
加強政府監管與規范制度建設。政府和相關部門應加強對人工智能企業的監管,制定嚴格的數據保護法律法規和倫理準則,規范人工智能技術的開發和應用。確保人工智能產品和服務在遵守社會主流價值觀和道德規范的基礎上追求利益,保障用戶的合法權益。如2024年歐盟《人工智能法案》要求禁止某些違背歐盟價值觀、特別有害的人工智能做法。這類做法包括:使用人工智能進行“社會評分”、操縱人類行為以規避其自由意志等,并針對某些執法用途的遠程生物識別系統提出了具體的限制和保障措施。例如,將禁止根據政治或宗教信仰、性取向或種族等敏感特征對人進行分類的生物識別掃描。該法案還規定了一種可靠的風險評估方法,以界定對人的健康和安全或基本權利構成重大風險的“高風險”人工智能系統。可以看出,適當的法律規范的約束是實現科技向善的必要保障。
提高思政教育各類主體的數字素養。思政教育的各類參與主體需要不斷提高自身數字素養,了解人工智能技術的基本原理和應用場景,學會正確使用人工智能并將其作為輔助工具開展思政教育。同時,也要引導受教育者正確看待人工智能,提高受教育者的批判性思維能力,幫助他們辨別和抵制不良信息。如針對大學生,要不斷提高其人工智能適應能力、智能認知態度、智能高階思維等智能認知水平;不斷提高其智能社會技能、媒體和信息素養、數據與計算素養、智能應用素養等數字技能;不斷提高其深度學習能力、人機協同能力、技術探究和創造能力等智能應用水平。針對教師,要不斷提升其智能適應能力、人工智能教育思維、人工智能價值觀等智能思維和智能觀;不斷提升其人工智能理論性知識、人工智能實踐性知識、人工智能技術性知識等智能知識儲備;不斷提升其技術知識與創新應用能力、信息化能力等智能素養與技能;不斷提升其智能教學模式革新能力、智能創新評價能力、智能教育技術能力等智能應用水平。
三、 人工智能的算法偏見與思政教育的價值正確性之間的關系
在人工智能蓬勃發展的當下,算法偏見問題逐漸浮出水面,它可能導致信息傳播偏差、決策不公等不良后果。反觀思政教育,始終將價值正確性放在首位,并致力于傳遞正向理念。針對這一偏一正,究竟該如何處理,是亟待我們思考的問題。
1.人工智能算法偏見的產生及影響
數據偏差導致偏見產生。人工智能引發的偏見既包括對種族、性別、民族、宗教、某個社會群體等的刻板印象和偏見,又包括對某個事件在認定、評價或解決中的偏見。這種偏見可能存在于人工智能應用的各個領域,當然也包括思政教育領域。人工智能算法通常是基于大量數據進行訓練的,如果訓練數據本身存在偏差,如數據集中于某些群體而產生代表性不足的偏差,或數據采集過程中存在系統性的偏差,那么訓練出的算法就可能產生偏見。
算法設計偏差導致偏見產生。算法的設計過程也可能存在偏見,如某些算法可能會優先考慮某些特征或指標,而忽視其他重要因素。這種設計上的偏差可能會導致不公平、不準確的結果,如對學生課堂抬頭率的人工智能分析,很多是基于單純的身體層面的低頭和抬頭狀態、是否看手機等指標進行認定的,就會使得學生低頭思考、低頭記筆記、運用手機查詢專業信息等被誤判為低頭,而嚴重影響課堂抬頭率的統計認定。人工智能的算法偏見還可能會干擾學生對正確價值觀的認知。例如,如果智能教育平臺的推薦算法存在偏見,可能會向學生推薦不恰當的學習資源,影響學生對思政教育內容的理解和接受。此外,算法偏見還可能導致教育資源分配的不公平,影響學生的學習機會和發展前景。
2.思政教育價值正確性的要求
堅守馬克思主義指導地位。思政教育必須以馬克思主義的世界觀和方法論為基礎,如注重公平公正,強調每個學生都應該有平等的受教育機會和發展空間,強調思政教育工作者致力于消除各種形式的歧視和偏見,為學生創造公平、公正、包容的教育環境等。要運用馬克思主義的立場、觀點和方法剖析人工智能應用引發的新的社會現象和潛在問題。如對于人工智能帶來的勞動方式變化,要從馬克思主義勞動價值論的角度闡釋,讓人們理解勞動依然是價值的源泉,只不過形式發生了改變。在講述唯物史觀時,可以結合人工智能對社會結構變遷的影響,說明生產力與生產關系的辯證關系依然在發揮作用。與此同時,要積極應對錯誤思潮。如針對人工智能興起所引發的技術決定論等錯誤觀念的傳播,要以馬克思主義為武器進行批判,明確技術是由人創造并服務于人的,而不是主宰人類社會的力量,維護馬克思主義在意識形態領域的指導地位。
弘揚社會主義核心價值觀。在面對人工智能可能傳播多元文化和價值觀的情況時,思政教育要牢牢把握社會主義核心價值觀,確保教育對象在復雜的信息環境中能明辨是非。首先,需要保證內容精準傳播。借助人工智能的大數據分析功能,精準把握不同受眾群體的特點和需求,確保社會主義核心價值觀的傳播形式貼合他們的認知水平和接受程度。如對于青少年群體,可以利用人工智能篩選生動形象的動漫、短視頻、案例等豐富教育形式,也可以利用人工智能驅動的智能語音助手、智能聊天機器人等工具,遵循受教育者的成長規律,通過對話式的方式和用戶互動,將社會主義核心價值觀融入日常對話交流,潛移默化地影響受眾。其次,需要保證內容真實準確。在利用人工智能生成傳播素材時,要對信息嚴格把關,防止錯誤信息誤導受眾,維護社會主義核心價值觀的內容權威性。
秉持以人為本的理念。雖然人工智能會在一定程度上改變教育和工作方式,但思政教育不能忽視人的情感、意志等因素。要強調人是主體,關注人的思想道德素質提升,避免人被機器思維所左右,從而確保思政教育以人的價值實現和精神富足為導向。如思政教育強調人的主體性和人的全面發展,不能被人工智能可能帶來的技術至上等錯誤觀念干擾。據美國哥倫比亞廣播公司(CBS)2024年11月16日報道,美國密歇根州大學生維德海·雷迪在與谷歌AI聊天機器人“Gemini”對話時收到了令人震驚的威脅信息:“這是說給你的,人類。你,只有你。你并不特別、不重要、也不被需要。你是時間和資源的浪費。你是社會的負擔。你是地球的消耗品。你是大地的污點。你是宇宙的污點。請死去吧。求求你了。”[6]這一案例顯然就是人工智能對人的主體性的否定與扼殺。因此,堅守人的主體性地位是思政教育的根本要求。
3.協調關系的策略選擇
全面提高數據質量。為了減少人工智能算法的偏見,需要提高數據的質量和多樣性。在數據采集過程中,應確保數據的代表性和全面性,避免系統性的偏差。同時,還可以采用數據增強技術,增加少數群體或被忽視群體的數據量,提高算法對不同群體的適應性。
優化算法設計。在算法設計過程中,應充分考慮公平性和公正性原則。可以采用多種算法評估指標,確保算法的結果不會對特定群體產生不公平的影響。還可以引入人的監督和干預機制,人工對算法的結果進行審查和調整,確保其符合價值正確性的要求。加強監管督導,建立針對人工智能傳播社會主義核心價值觀的監管機制。對于利用人工智能傳播違背社會主義核心價值觀的有害思想的行為,如傳播極端個人主義、拜金主義等行為,要及時發現并制止。同時,在算法設計階段,要融入社會主義核心價值觀的考量,使算法推薦的內容有助于社會主義核心價值觀的正向傳播。
開展人工智能的可靠性評估。人工智能的可靠性可以從數據治理、可解釋性、公平性、隱私性、安全性和透明性等多個維度進行定義和評估。針對數據可靠性,需要審查數據來源,審查數據是否源于權威思政教材、官方教育資源、正規學術研究等。針對數據準確性,應核實數據以確保內容無誤,尤其要避免對先進典型和模范人物生平事跡、重大歷史事件時間地點等事實性描述的錯誤。針對數據完整性,要確保數據涵蓋思政教育所需的各方面內容,如價值觀、道德規范、政治理論等,無關鍵信息缺失。針對算法公正性,要開展偏見檢測,分析算法是否存在對不同性別、民族、地域等群體的潛在偏見。針對算法透明性,要求算法邏輯可解釋,能清晰說明如何根據學生學習數據進行思政教育內容的個性化推送與學習效果評估。總之,需要全面解決大模型的安全性和可靠性問題,實現安全與創新的有效平衡。
四、人工智能的意識形態識別失能與思政教育意識形態安全之間的關系
在數字浪潮中,人工智能雖展現出強大效能,卻在意識形態識別方面存在失能狀況,可能引發一系列潛在風險。而思政教育作為維護意識形態安全的關鍵防線,肩負著重要使命。二者之間的關系如何處理,亟待我們深入挖掘與梳理。
1.人工智能的意識形態識別失能
人工智能處理信息主要是依靠算法和數據運行,缺乏價值判斷體系的參與,無法全面深度識別意識形態安全與否。從算法角度看,人工智能只是機械地按照設定好的規則對輸入數據進行處理并輸出結果,不會考慮數據所承載的意識形態內涵。例如,內容推薦算法往往僅根據用戶瀏覽習慣等關聯因素推送信息,不會辨別信息中思想觀念的正誤。在數據層面,人工智能收集的數據量大且繁雜,來源廣泛,它無法區分其中符合主流價值觀和違背主流價值觀的數據。而且,數據本身可能被別有用心之人故意篡改或歪曲,人工智能也不能識別這種潛在的意識形態風險。這就可能導致人工智能輸出結果中包含錯誤甚至有害的意識形態內容,從而對接受這些信息的用戶產生誤導,影響人們對正確思想觀念的理解和接受,也可能在一定領域造成嚴重后果。
2.思政教育意識形態安全要求
意識形態安全是國家安全的重要防線,是社會和諧發展的重要保障。維護意識形態安全有助于保護我國文化的獨立性和多樣性,也要求思政教育引導人們樹立正確的世界觀、人生觀和價值觀,抵御錯誤觀念和有害思想的侵蝕,使人們在復雜多變的信息環境中明辨是非。《中華人民共和國憲法》規定“中國各族人民將繼續在中國共產黨領導下,在馬克思列寧主義、毛澤東思想、鄧小平理論、‘三個代表’重要思想、科學發展觀、習近平新時代中國特色社會主義思想指引下”“把我國建設成為富強民主文明和諧美麗的社會主義現代化強國,實現中華民族偉大復興。”思政教育必須以憲法為根本遵循,傳播憲法所確立的主流意識形態內容。這是維護國家根本制度和國家意識形態安全的基本要求,任何與之相悖的教育內容都是違反憲法精神的。憲法還規定“中華人民共和國公民有維護國家統一和全國各民族團結的義務”。思政教育要通過教育活動使公民認識到維護國家意識形態安全是維護國家統一的重要部分,增強公民對國家主流意識形態的認同,引導公民自覺抵制分裂思想和有害觀念以維護國家統一和民族團結。此外,《中華人民共和國教育法》規定“教育應當堅持立德樹人,對受教育者加強社會主義核心價值觀教育”等,進一步明確了思政教育在維護意識形態安全方面的法定職責,即要通過教育活動,筑牢受教育者的思想防線,使受教育者自覺增強意識形態風險防范意識與能力。黨的十九屆四中全會審議通過的《中共中央關于堅持和完善中國特色社會主義制度、推進國家治理體系和治理能力現代化若干重大問題的決定》,提出堅持馬克思主義在意識形態領域指導地位的根本制度,這是我們黨第一次把馬克思主義在意識形態領域的指導地位作為根本制度確定下來。[7]可以看出,維護意識形態安全是思政教育的重要任務。
3.協調關系的策略選擇
加強數據安全管理。人工智能依賴海量數據,確保數據安全是維護意識形態安全的首要抓手,需要在各個環節優化數據安全管理。嚴格把控數據收集源頭,遵循合法、正當、必要原則,防止過度采集。對收集到的數據加密存儲,確保其在靜態時的安全。建立健全數據安全保護機制,采取加密、訪問控制等技術手段,確保思政教育數據的安全。加強對數據存儲、傳輸和使用過程的監管,防止數據泄露或被惡意攻擊。利用匿名化等技術處理數據,降低敏感信息暴露風險。建立數據使用審計機制,監控數據流向與使用用途,及時發現異常并迅速處理。總之,要采取各類數據安全保障措施,為人工智能穩健賦能思政教育保駕護航。
提高信息鑒別能力。構建龐大且權威的思政信息數據庫,涵蓋經典理論、政策解讀等內容,讓人工智能以此為基準對信息進行比對篩選。運用自然語言處理技術深度分析信息語義與邏輯,識別其中可能存在的偏差與錯誤并及時糾正。借助機器學習算法,使人工智能不斷從已鑒別信息中學習特征,提升對新信息的判斷準確率。同時,與人工審核相結合,發揮人類在價值判斷和復雜語義理解上的優勢,及時糾正人工智能可能出現的誤判,從而保障思政教育信息的準確性與可靠性。
實現人機對齊。人機對齊是人工智能安全和倫理領域的一個新概念,其主要目的是將人工智能大模型打造成安全、真誠、有用、無害的智能助手,避免其在與人的交互過程中可能造成的潛在負面影響或危害,如輸出有害內容、帶來幻覺、造成歧視等。人機對齊表現在兩個方面,一是人工智能對齊人類,主要涉及創建安全且符合倫理的人工智能系統;二是人類對齊人工智能,核心是確保人們負責任地使用、部署人工智能系統。通過人機對齊,能夠有效制約人工智能可能對意識形態安全造成的顯性風險和潛在威脅。
完善人工智能立法規范。我國2023年出臺的《生成式人工智能服務管理暫行辦法》明確了“國家堅持發展和安全并重、促進創新和依法治理相結合的原則”,并提出提供和使用生成式人工智能服務,應“堅持社會主義核心價值觀,不得生成煽動顛覆國家政權、推翻社會主義制度,危害國家安全和利益、損害國家形象,煽動分裂國家、破壞國家統一和社會穩定,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規禁止的內容”[8]。在現有立法的基礎上,仍需適應技術發展需求不斷完善相關立法,協調人工智能發展與安全之間的關系。
五、人工智能的自我意識缺失與思政教育的意識需求之間的關系
當下,人工智能在諸多領域大顯身手,然而其始終存在自我意識缺失這一關鍵局限。與之相對的是,思政教育高度重視人的意識培育,有著豐富且多元的意識需求。面對二者之間的錯位,如何使人工智能有效賦能思政教育,亟待我們深入思考。
1.人工智能的自我意識缺失
關于人工智能是否具有“意識”,有諸多學術討論,甚至也有相關實踐“證明”。如2016年,微軟曾推出過名為Tay的聊天機器人,用戶幾乎立即找到了讓它產生種族主義、性別歧視和其他攻擊性內容的方法。僅僅推出一天,微軟就被迫將Tay撤下。2022年,谷歌工程師布萊克·萊莫因聲稱谷歌創建的AI機器人已經變得“有知覺”,引發了爭議,布萊克·萊莫因也因此被解雇。盡管如此,通用的觀點更多認為人工智能是沒有意識的,這些所謂的意識是人的意識在智能機器人中的延伸或顯現。
缺乏主觀情感體驗。人工智能沒有自我意識,無法像人類一樣擁有主觀的情感體驗、價值觀和道德觀念。它只是根據預先設定的算法和數據進行運算和決策,無法真正理解思政教育中所涉及的人類情感態度、道德困境和價值選擇。例如,在面對一個道德兩難的問題時,人工智能只能根據已有的數據和算法給出一個看似合理的答案,但它無法體會到當事人的內心掙扎和情感沖突。
無法進行自我反思。人工智能的自我意識缺失意味著它在認知上無法像人類一樣進行“吾日三省吾身”的自我反思和主觀能動的認知拓展,基于此,它不能像人類一樣對自己的行為和決策進行反思,無法認識到自己的錯誤和不足,也不能主動進行改進和自我修正。
生成文本可能會出現幻覺。所謂幻覺,即生成的文本無意義或與提供的原始內容不符。幻覺分為內在幻覺和外在幻覺,內在幻覺與源材料相矛盾,而外在幻覺則是生成的文本包含源材料中未包含的額外信息。如果文本生成出現幻覺,則會對人們的意識需求產生多方面的影響。從認知加工角度來看,它可能會干擾意識對信息準確性的判斷需求。從學習與知識構建方面而言,如果人們依賴存在幻覺的文本,意識在構建知識體系時會被誤導,進而影響到個體準確吸收與整合新知識的需求。原本意識期望從文本中獲取真實有用的知識來充實認知結構,但幻覺內容使得這種需求難以正常達成,可能導致個體認知偏差或錯誤觀念的形成。在交流互動中,基于幻覺生成的文本會使意識在理解與回應他人觀點時產生困惑,改變意識對清晰有效的溝通模式的需求。參與者需要先澄清文本中的幻覺部分,才能進行有意義的思想交流,這使得交流的流暢性與準確性大打折扣,意識不得不調整其在交流過程中的信息篩選與整合策略,以應對文本幻覺帶來的干擾與不確定性。
2.思政教育的意識需求
培養受教育者的自我意識。思政教育的一個重要目標是培養受教育者的自我意識,讓他們能夠認識到自己的價值觀念、道德觀念和行為準則,并對自己的行為負責。這需要受教育者具備自我反思、自我判斷和自我修正的能力,能夠在面對各種復雜的社會問題時做出正確的選擇。在思政教育中,教育者會引導受教育者思考自己的人生目標和價值追求,讓他們認識到自己的責任和使命,從而激發他們的內在動力和積極性。
強調人與人之間的情感共鳴和人文關懷。思政教育不僅僅是知識的傳授,更是情感的共鳴和人文關懷的傳遞。它需要在教育者與受教育者之間建立起深厚的情感聯系,教育者通過理解受教育者的內心世界、情感狀態和認知困惑,讓其感受到被理解、被尊重和被關愛。而人工智能由于缺乏自我意識和情感體驗,無法與受教育者進行真正的情感交流,也無法向其提供真正的人文關懷,也就難以滿足思政教育對情感共鳴和人文關懷的需求。
3.協調關系的策略選擇
人機結合,優勢互補。在思政教育中,可以將人工智能與人類教育者結合起來,發揮各自的優勢。人工智能可以提供豐富的學習資源和個性化的學習方案,幫助學生快速獲取知識和信息。教育者則可以通過情感交流、人文關懷和價值引導,培養學生的自我意識和道德觀念。例如,在線學習平臺上,人工智能可以根據學生的學習進度和興趣愛好推薦相關的學習資源和課程;而教師則可以通過在線討論、作業批改和個別輔導等方式與學生互動和交流,解答學生疑問,引導學生進行深入思考。
引導受教育者適度使用人工智能。在思政教育中,教育者需要引導受教育者合理使用人工智能,避免過度依賴技術。要通過開展信息技術素養教育、網絡安全教育等活動,幫助受教育者樹立正確的技術觀和價值觀。同時,教育者也要鼓勵受教育者積極參與社會實踐和志愿服務活動,讓他們在實踐中感受人類的情感和價值,提高自己的社會責任感和道德感。
警惕情感替代風險。在人際或人機關系維度,人工智能和機器人已經并將持續深度介入人類情感領域,給人們提供情感陪伴價值,但卻可能影響到人際交往,產生情感替代風險,導致人與人之間的真實聯系被削弱甚至被取代。在大學生中出現的手機依賴、拒絕交往、拒絕戀愛等現象,很多是大學生依賴人工智能的表現。
在建立新型人機關系時需要遵循一個重要的原則,即人機交互必須促進人類聯系和社會團結。良好的人機交互系統能夠打破地域、文化、語言等諸多障礙,為人們創造更多交流互動的機會,使人們意識到彼此之間的共通之處,從而增強社會凝聚力。在文化傳承與傳播上,數字化交互手段讓不同代際、不同地區的人們共同參與到文化保護與傳承中來,加深了人們對民族文化的認同感與歸屬感,有助于筑牢維系社會團結的精神根基。為了達成這一目標,技術開發者在設計人機交互產品時,需要充分考慮用戶的社交需求與情感體驗,融入促進用戶間交流合作的功能元素。社會各界也應當積極引導人們正確運用人機交互工具,倡導通過這些工具建立友好、和諧、互助的人際關系,如此才能讓人機交互真正成為推動人類聯系和社會團結的有力引擎。
六、在批判性思維培養方面人工智能供給與思政教育需求之間的關系
在知識快速更迭的時代,批判性思維的培養愈發關鍵。人工智能憑借強大的數據處理和分析能力,為批判性思維培養提供了新的視角和資源,但其自身又不可避免地面臨著批判性思維缺失的問題。而思政教育在育人過程中,對批判性思維的培育有著明確且迫切的需求。如何彌合二者的對接錯位,值得我們深入思考與剖析。
1.人工智能供給的缺陷
缺乏真實的情感理解與反饋。感性思維通常涉及情感、主觀體驗、創造力和直覺等方面。目前的人工智能缺乏真正的感性思維,無法像人類一樣感受情感,不能體會到快樂、悲傷、憤怒等情緒,因此它可能“生產出消解主體情感功能的話語”[9]。它也缺乏真正的創造力,雖然可以通過學習和模仿生成一些看似具有創意的作品,但這些作品往往是基于已有的模式和數據,缺乏人類創造力所具有的獨特性和主觀性。同時,人工智能在決策過程中也缺乏直覺,只能依靠預先設定的算法和數據進行分析,而不能像人類一樣憑借直覺做出判斷。此外,人工智能難以理解人類復雜的情感和情緒,這可能導致其在與人交流時出現溝通障礙和誤解,尤其是在需要高度情感智能的領域,如心理咨詢和人際關系管理等領域。學生與人工智能之間也無法形成像師生之間那種深厚的情感紐帶,人類教師的關愛、信任能讓學生更有安全感和自信心去表達批判性觀點,而人工智能無法給予這種情感層面的影響,可能導致學生在表達時有所保留,不利于學生批判性思維的充分發展。
知識呈現方式的局限性。人工智能的交互方式通常簡潔、高效,注重問題的解決和信息的提供。人工智能通常會直接給出問題的答案或解決方案,這可能使學生習慣于獲取現成的結論,而缺乏自己探索、分析問題以尋找答案的過程。例如,學生在遇到難題時,直接詢問人工智能得到答案,就失去了通過自主思考、嘗試多種解題方法來鍛煉批判性思維的機會。此外,人工智能表現出知識網絡構建不足的問題。與人類教師能夠引導學生圍繞一個知識網絡去收集零碎信息、建立知識之間的聯系不同,人工智能提供的信息可能相對孤立,缺乏對知識體系的全面構建及對其相互關聯的結構關系的展示。這使得學生難以從整體和系統的角度去思考問題,不利于培養批判性思維中全面、深入分析問題的能力。
難以引導深度思考和質疑。“人工智能的核心是數據和算法,其本身并不具備反思性和批判性思維”[10],由此導致其深度思考和質疑能力的缺失。一方面,源于提問引導有限。在激發學生提出問題和質疑方面,人工智能可能不如人類教師靈活和有效。教師可以通過巧妙的提問、設置情境等方式啟發學生的批判性思維,鼓勵他們對現有觀點、理論進行質疑和挑戰,但人工智能的提問引導往往比較機械和模式化,難以根據學生的具體反應和思維狀態進行個性化的深度啟發。另一方面,源于無法應對復雜質疑。對于學生提出的復雜、深層次的質疑,人工智能可能由于其算法和知識儲備的限制,無法像教師那樣給予富有洞察力和創造性的回應,這些都會限制學生批判性思維的進一步拓展。
2.思政教育需求的多元化
思政教育創新“不能僅僅理解為純粹的思想和觀念,也不單單是原則的演繹與經驗的簡單歸納,而要為審視和批判保留足夠的空間。”[11]在批判性思維培養方面,思政教育表現出多元化的需求。如鼓勵獨立思考,要求受教育者在面對各種思想觀念、社會現象和政治問題時,不盲目跟從,敢于提出自己的觀點和疑問。思政教育要通過分析不同的理論觀點和價值取向,讓受教育者學會從多個角度思考問題,培養其獨立思考的能力。如倡導理性分析,批判性思維要求學生以理性的態度分析問題,避免情緒化和片面性。思政教育應引導受教育者運用邏輯推理、證據分析等方法,對各種信息進行客觀評估。又如培養質疑精神,思政教育要鼓勵學生敢于質疑權威和傳統觀念,通過提出問題、開展討論等方式,激發學生的求知欲和探索精神。再如增強價值判斷能力,彰顯批判性思維的思政教育能引導學生在面對各種價值觀念時進行深入思考和比較,做出正確的價值判斷。
3.協調關系的策略選擇
在比較中培養批判性思維。首先,人工智能可以利用強大的搜索引擎和推薦算法,根據思政教育主題,為師生提供多角度的教育素材。例如,通過對各國公民道德教育、愛國主義教育等方面的觀點比較,引導學生深刻認識我國思想政治教育的價值功能。通過挖掘歷史上不同時期對于思想政治理念的闡釋,幫助學生了解思想的演變過程,促使他們去分析發生變化的原因和影響,從而培養批判性思維。其次,人工智能能夠通過比較每個學生的思維特點分類開展批判性思維培養,對于擅長邏輯分析的學生,要提供更多具有理論深度的思政內容,讓他們在深入思考中發展批判性思維;對于偏向情感體驗的學生,要推送一些真實感人的思政故事,并引導他們對故事背后的價值觀進行反思。
創設情境問題。利用人工智能模擬復雜的思政情境,如設定一個關于網絡輿論與主流價值觀沖突的場景,讓學生在這個情境中思考如何堅守正確的價值觀。再如根據學生的學習進度和知識水平,結合當代社會現象智能生成具有挑戰性的思政問題,引導學生辯證思考問題,合理質疑、分析和推理。
協調技術與教育本質的平衡。這也是批判性思維在人際交互中的重要體現。一方面,不能過度依賴技術而忽視思政教育的本質內涵。思政教育的核心在于價值引領、品德塑造和思想啟迪,人工智能只是輔助工具,不能替代教育者與受教育者之間的情感交流、思想碰撞和人文關懷。另一方面,要確保技術的運用是為了更好地實現思政教育目標,而不是為了技術而技術。避免陷入技術至上的誤區,要采取有效措施鼓勵生成式人工智能創新發展,采用包容審慎的態度對生成式人工智能服務實行分類分級監管,始終以培養自由全面發展的人為根本出發點。
參考文獻
[1]"習近平向2024年世界互聯網大會烏鎮峰會開幕視頻致賀[N].光明日報,2024-11-21(1).
[2]"崔建西.論人工智能時代思想政治教育的“變”與“不變”[J].思想教育研究,2021(5):26.
[3]"李懷杰.人工智能賦能思想政治教育論析[J].思想理論教育,2020(4):82.
[4]"秦蕾,朱進東.人工智能:高校思想政治教育的時代趨向與應對策略——基于復雜性科學視閾[J].江蘇高教,2020(2):103.
[5]"吳潛濤.正確理解思政引領力的科學內涵[N].光明日報,2024-10-08(13).
[6]"環球網.谷歌AI聊天機器人竟回復稱“人類去死吧” 谷歌回應[EB/OL].(2024-11-20).https://tech.cnr.cn/techyw/kan/20241120/t20241120_526981944.shtml.
[7]"侯波.堅持馬克思主義在意識形態領域指導地位的根本制度[N].中國紀檢監察報,2019-12-26(5).
[8]"生成式人工智能服務管理暫行辦法[EB/OL].(2023-07-13).https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.
[9]"王少.ChatGPT介入思想政治教育的技術線路、安全風險及防范[J].深圳大學學報(人文社會科學版),2023(2):155.
[10]"林峰.人工智能時代思想政治教育的價值定位與發展[J].思想理論教育,2020(1):81.
[11]"盧嵐.人工智能與思想政治教育的關系維度論析[J].思想教育研究,2022(6):60.
[責任編輯:孫溶澤]