摘 要:生成式人工智能作為智能技術迭代演進的最新產物,憑借自然語言理解能力和文本生成能力為高校思政課數字化發展賦予了新的可能與空間。然而,生成式人工智能在賦能高校思政課的實踐中容易衍生出主體性失落、教師話語權旁落、意識形態安全和信息安全等多重風險,究其原因主要是教育主體的智能素養不足、算法“黑箱”和算法歧視、管理制度和問責機制缺失等因素而導致。為了有效規避和應對生成式人工智能賦能高校思政課的風險,實現高校思政課高質量發展,需要從高校、教育主體、教學話語范式、智能檢測監控技術、管理制度和問責機制等方面共同發力。
關鍵詞:生成式人工智能;高校思政課;風險;規避
DOI:10.15938/j.cnki.iper.2024.03.014
中圖分類號:G641
文獻標識碼:A
文章編號:1672-9749(2024)03-0094-07
習近平總書記在黨的二十大報告中強調,“推進教育數字化,建設全民終身學習的學習型社會、學習型大國。”[1]數字技術融入高校思想政治理論課(以下簡稱“高校思政課”),是契合智能化、數字化時代社會發展新形勢的應然要求,也是推進高校思政課數字化建設、有效落實立德樹人根本任務的應有之義。2022年,美國OpenAI公司開發的生成式人工智能——ChatGPT作為數字技術迭代演進的最新產物,掀起了全球生成式人工智能的熱潮,之后百度、阿里云等公司也相繼開發和發布了文心一言、通義千問等生成式人工智能產品。相較于傳統人工智能僅對數字敏感,生成式人工智能對于文字的敏感度更高,它具有強智能化和強擴展性:強智能化主要表現為生成式人工智能可以在人機對話中實時生成用戶需要的信息、解答用戶的問題;強擴展性主要體現為生成式人工智能可以通過不斷增加大規模預訓練數據和模型層數來提升性能以解決更多問題。[2]生成式人工智能自身卓越的自然語言理解和文本生成能力,有望成為高校思政課數字化建設、高質量發展的新動力。
ChatGPT等生成式人工智能一經推出,學者們就敏銳地意識到它在教育領域的影響,并從不同視域對此問題進行了深入探討。戴嶺[3]、馮雨奐[4]、黃榮懷[5]等人聚焦整個教育領域,從應用價值、潛在風險、治理路徑等維度分析了ChatGPT對教育領域的影響。相較于從整個教育領域進行探究,一些學者立足于思想政治教育這一視角,研究了ChatGPT等生成式人工智能賦能思想政治教育的學理基礎、價值意義和風險挑戰。一是在學理基礎上,黃欣榮等人[6]剖析了ChatGPT賦能思想政治教育的哲學基礎;二是在價值意義上,燕連福[7]、高雪梅[8]等人從教育者、教育內容、教育方式、教育模式等多個層面出發,深入探索了ChatGPT等生成式人工智能賦能思想政治教育的價值意義;三是在風險挑戰上,任鳳琴[9]、常宴會[10]、崔聰[11]等人從倫理風險、意識形態安全風險、教育主體式微等方面進行了闡述。綜上可見,當前學者圍繞價值、風險、路徑等維度對生成式人工智能在思想政治教育方面的影響展開了深入探索,但是關于生成式人工智能在高校思政課的研究還存有很多有待研究的領域。基于此,本文圍繞風險樣態、風險生成因素、風險規避路徑等視域探討生成式人工智能對高校思政課的影響及應對,闡述風險的表現、風險生成的主客體緣由以及規避風險的具體路徑。
一、生成式人工智能賦能高校思政課的風險樣態
高校思政課是向大學生傳播主流意識形態的主渠道、主陣地,生成式人工智能雖然可能成為高校思政課創新發展的新引擎,但是實踐中也易成為一種異己的力量,衍生出主體性失落、話語權旁落、意識形態安全和信息安全等多重風險。
1.主體性失落風險
生成式人工智能嵌入高校思政課雖然能夠促進思政課數字化建設和高質量發展,但是也隱匿著技術引誘、異化教育者和教育對象的可能性,引發主體性失落、迷失的風險,正如馬克思指出,科學技術有時也“表現為異己的、敵對的和統治的權力”[12]。
一方面,生成式人工智能的高效率特質不僅會誘發高校思政課教師對自身價值和地位的恐慌,也會導致高校思政課教師形成技術至上的觀念,放棄自身在思政課教學中的能動性。生成式人工智能可以依據高校思政課教師的教學要求,形成邏輯清晰、指向鮮明的教學方案,為教師提供教學啟發,輔助教師備課。[13]譬如,當高校思政課教師在文心一言系統中輸入“圍繞新時代大學生人生價值觀的養成設計一個教學方案”時,系統會在幾十秒內快速生成一個基礎方案,從教學目標、教學內容、教學方法、教學安排和教學評估等方面提供邏輯合理、內容適切的教學方案。正因如此,生成式人工智能的高效率特質會引發部分高校思政課教師對智能技術的恐懼,擔憂自身被淘汰而不斷否定自身的價值與地位。此外,生成式人工智能也容易造成部分高校思政課教師對智能技術的膜拜,喪失對其進行理性審思和批判的能力。高校思政課教師可能不再根據大學生的學習習慣、需求來設計教學方案,而只是一味服從生成式人工智能提供的教學方案。久而久之,高校思政課教師的專業敏感度和人文感知技能會逐漸被生成式人工智能湮沒,教師在高校思政課教育中的作用逐漸被弱化,教師日益淪為思政課教學的“旁觀者”和非核心參與者,思政課教學的主導權也逐漸讓位于生成式人工智能,教師的主體性會被無情地消解,成為生成式人工智能的“附庸”。
另一方面,生成式人工智能的語言理解和文本生成能力可能會抑制大學生主體性的發展,并阻礙大學生政治素養和思想道德水平的提升。以生成式人工智能文心一言為例,文心一言低門檻的網絡化使用使得大學生只需要在聊天框中輸入需求,文心一言就會憑借自身出色的語言理解和文本生成能力,在幾十秒內快速回復大學生的需求,提供令人信服的答案。相比于高校專業課程側重于培養大學生的專業知識和技能,高校思政課更加注重對大學生的政治引導、價值引領和品德塑造。為此,高校思政課平時和期末的考核大多都以撰寫課程論文為主,主要是讓學生圍繞人生價值、政治歷史、形勢政策等方面發表自己的感悟,并撰寫相關的論文,以此方便思政課教師考察大學生的政治覺悟和思想水平。因此,相比于專業課程中的實驗操作等環節無法讓文心一言代以實施,文心一言可以在短時間內幫助大學生快速完成思政課課程作業和課程論文。由此,大學生一旦過度依賴文心一言等生成式人工智能,就可能會滋長惰性,滿足于生成式人工智能提供的現有答案,長此以往會逐漸失去個人對政治歷史、人生價值和時代發展方面的認知力、判斷力和洞察力,這無疑會給大學生政治素養和思想道德素養的提升帶來挑戰。
2.話語權旁落風險
思政課教學話語是高校思政課教師向大學生傳遞思想觀念、政治理論的載體,事關高校思政課教學的質量,更關系到思政課立德樹人目標的實現效果。生成式人工智能在賦能高校思政課、重構思政課教學生態的過程中,思政課教師的話語權也不可避免地遇到重大風險和挑戰:話語主導權被削弱、話語認同度降低和影響力減弱。
一方面,生成式人工智能帶來的海量教育資源沖擊了教育者的信息資源優勢,削弱了高校思政課教師的話語主導權。傳統高校思政課教學環境下,教育資源主要依托紙質資料,高校思政課教師在信息資源的擁有上具有絕對優勢,其話語權威更易得到大學生的認可。生成式人工智能實現了海量思政教育資源的共享與傳播,大學生可以自主通過文心一言、通義千問等生成式人工智能獲取教育資源。由此,大學生從信息的被動接受者轉化為了信息的主動選擇者,信息不對稱的局面被打破,教育者不再擁有信息優先權的絕對優勢,這在一定程度上削弱了高校思政課教師的教學地位,弱化了高校思政課教師的話語主導權。
另一方面,生成式人工智能的個性對話系統更加契合大學生的話語偏好,以致高校思政課教師的話語認同度降低,影響力削弱。以生成式人工智能通義千問為例,通義千問可以與大學生進行多輪對話,大學生只需要在聊天對話框中輸入自身的需求,通義千問就可以在幾十秒之內快速生成大學生所需要的信息,如果大學生對此解答不滿意,大學生在聊天框中可以繼續輸入自身的需求,通義千問會繼續修改完善。[14]通義千問的個性化對話系統能夠精準理解大學生的需求,在對話中實時解答大學生的困惑,迎合了大學生個性化、互動式的話語偏好,更易獲得大學生的青睞。然而,當前部分高校思政課教師還存在數字化思政育人意識不夠、數字化思政技能本領不足的現象,存在與文心一言、通義千問等生成式人工智能零和思維,往往固守教材嚴肅、深邃的文本語言,以及“灌輸式”“一言堂”的話語表述形式。高校思政課教師話語內容缺乏親和力和趣味性,話語形式缺乏互動性,思政課教學話語無法滿足新時代大學生群體對趣味性語言和對話式話語形式的偏好,教育者和教育對象之間的話語間距被拉大,致使高校思政課教師的話語認同度降低,話語影響力削弱。
3.意識形態安全風險
生成式人工智能作為具備語言處理能力的技術,它所提供的文本內容主要源自已有的數據庫,倘若數據庫中的信息有誤,那么生成式人工智能生成的信息極易存在欺騙性和誤導性元素。因此,如果生成式人工智能輸出的教學內容與主流意識形態相背離,高校思政課教師又沒有及時發現和匡正,那么生成式人工智能賦能的高校思政課不僅違背了高校思政課政治性、學理性、價值性的屬性,而且也難以發揮高校思政課的政治引導、價值引領和品德塑造等功能。同時,生成式人工智能輸出的具有意識形態偏見的教學內容極有可能誤導大學生的思維和思想,削弱我國主流價值觀對于大學生的吸引力,誘發大學生對主流意識形態的情感疏離,最終導致大學生的價值判斷日趨模糊,出現價值觀錯位。
4.信息安全風險
生成式人工智能賦能高校思政課以教育者和教育對象大量的信息數據為支撐,這就意味著教育者和教育對象要將某些個人隱私有意識地“泄露”給生成式人工智能。[15]因為只有掌握大量的信息數據,生成式人工智能方能通過對這些數據的分析和預測,及時有效捕捉教育主體的需求與動態,以此促進高校思政課的個性化、精準化教學。然而,生成式人工智能在信息的獲取、使用方面存在“黑箱”。[16]生成式人工智能在存儲、分析信息數據的過程中,教育主體的隱私數據難以保證不被二次利用,這很有可能造成教育者和教育對象的隱私泄露等信息安全風險。
二、生成式人工智能賦能高校思政課的風險生成因素
生成式人工智能嵌入高校思政課形成的風險是多重因素綜合作用的結果,既有教育主體智能素養不足的內在因素,又有算法“黑箱”與算法歧視、管理制度和問責機制缺失等外在因素。
1.教育主體智能素養不足:風險防范意識和能力薄弱
生成式人工智能賦能高校思政課引發的風險與教育主體的智能知識、能力和倫理意識等智能素養緊密相關,教育主體智能素養的不足導致他們的風險防范意識和能力薄弱。
一方面,高校思政課教師智能素養不足。一是智能知識薄弱,風險識別不足。高校思政課教師大多來自人文社會科學專業,專業背景主要集中在法學、哲學、政治學、歷史學等領域,缺乏人工智能相關的知識背景,如計算機科學、機器學習、人工智能倫理等,以致難以深入了解生成式人工智能的原理、應用及其對高校思政課的復雜影響,無法有效識別生成式人工智能賦能高校思政課的潛在風險。二是智能技術應用能力不足,風險應對不力。一些高校思政課教師雖然聽說過通義千問、文心一言等生成式人工智能,并且部分思政課教師甚至已經接觸和使用過這些技術。然而,一些高校思政課教師在利用生成式人工智能創新、改進思政課教學方式時,應用能力不佳、操作不熟練、風險防控能力不高,在遇到技術故障、信息數據泄露等風險時無法有效應對。三是智能倫理意識淡薄,風險規避意識和責任意識不強。部分高校思政課教師在利用生成式人工智能輔助思政課教學的過程中,缺乏倫理考量,對智能技術賦能高校思政課可能引發的倫理問題,如數據隱私、算法公正性等,缺乏敏感度和警惕性。另外,部分高校思政課教師對于生成式人工智能在思政課教學中引發的風險,采取消極應對的態度,并未意識到自身對于防范化解風險的責任和義務。
另一方面,大學生的智能素養不足。高校思政課的教學對象是全體大學生,教育對象專業的不同導致大學生的智能素養也呈現出差異化,除了理工科大學生的智能素養較強,而很多大學生并未學習過生成式人工智能相關的課程,智能知識儲備匱乏,智能風險規避意識和應對能力不足。大學生難以理解生成式人工智能背后的運作邏輯和推送機制,在借助生成式人工智能搜集思政課學習資料、尋求相關問題解答時,無法以批判性思維識別、處理生成式人工智能提供的信息,難以有效辨識智能技術生成的信息的真偽性,無法有效評估智能技術潛藏的風險。如個人隱私被侵犯,自身的自主性、能動性和創造性被算法禁錮和宰制等問題。
2.技術規則和指令的非透明性:算法歧視和算法“黑箱”
算法作為生成式人工智能清晰明確的規則與指令,是生成式人工智能應用和運轉的根基。然而,算法歧視和算法“黑箱”的存在,使得生成式人工智能應用于高校思政課時,往往會導致意識形態安全風險、教學評價結果缺乏公正性以及教育主體的主動性被削弱等一系列問題。
一方面,算法歧視的存在可能導致生成式人工智能推送的信息具有偏見和誤導性,進而引發意識形態安全風險。算法作為一種規則和指令,本身不具備價值取向,它的運行機制屬于偏見進,則偏見出(Bias In,Bias Out)[17]的規律,也即倘若輸入的數據具有偏見,那么輸出的結果也必然富有歧視性。為此,算法或明或暗地嵌入了設計主體的價值觀和意圖,設計主體若存在道德失范,往往會將主觀的偏見植入算法,使得生成式人工智能推送的信息具有偏見和歧視性,這極易誤導大學生的思想觀念,從而引發意識形態安全風險。
另一方面,算法“黑箱”的存在可能導致高校思政課教學評價結果的不公正、教育主體的主動性和積極性受到抑制等風險。算法“黑箱”主要是指算法給出答案的過程就像是某種“技術黑箱”,生成式人工智能算法的運行、決策過程缺乏透明性和可解釋性,普通人無法準確理解。[18]將生成式人工智能應用于高校思政課時,尤其是在評價思政課的教學效果方面,算法主要基于大量歷史數據進行評價,如大學生的學習行為數據、思政課教師的教學內容等。然而,大學生的情感態度、思政課教師的人格魅力等難以通過簡單的數據來進行衡量和評估,因此算法評價可能存在誤解和偏差。此外,高校思政課教師通常難以審查算法的運行和決策過程,以致高校思政課教學評價結果可能會出現不公正、不準確的情況,從而在一定程度上會削弱教育主體的主動性和積極性。
3.制度機制的空場:管理制度和問責機制缺乏
制度和機制是約束高校思政課教師、大學生和高校智慧思政教學平臺管理服務人員行為的重要規范,對于促進生成式人工智能與高校思政課的深度融合和創新發展至關重要。當前,生成式人工智能嵌入高校思政課還處于初探階段,一些高校尚未建立一套系統完善的管理制度和問責機制,以致難以為高校思政課數字化建設保駕護航。
一方面,管理制度的缺失是導致生成式人工智能引發主體性迷失的重要緣由。當前,濫用生成式人工智能引發的學術誠信、主體性迷失等引起了一些高校的恐慌,但是一些高校針對生成式人工智能融入高校思政課尚未建立一套系統、高效的管理制度,尚未明確管理流程和管理規范,對于思政課教師、大學生使用生成式人工智能的范圍也還沒有明確的規定。同時,一些高校并未設立專門的管理部門和安排專職人員來監管生成式人工智能在高校思政課中的應用。
另一方面,問責機制的匱乏是導致生成式人工智能產生信息風險的重要緣由。當前,一些高校對于生成式人工智能融入思政課,尚未建立權責明確、懲戒合理的問責機制,因而對信息安全難以形成強有力的保障。然而,生成式人工智能在賦能高校思政課的過程中,在借助大數據挖掘大學生在學習平臺上的瀏覽痕跡時,會儲存大量關于大學生學習特點和思想動態方面的個人信息數據。數據的存儲、分析、流通和分享往往涉及高校思政課教師、高校智慧思政教學平臺管理服務人員等不同的責任主體,問責機制的匱乏,使得相關主體的責任和義務缺乏明確的規定,主體間的責任邊界不夠明晰,責任范圍和懲戒措施不明確,以致難以對個體行為進行有效的約束,無法有效規避信息安全風險。
三、生成式人工智能賦能高校思政課的風險規避路徑
生成式人工智能切實成為高校思政課創新發展的新引擎,規避生成式人工智能應用于高校思政課的風險,需要從高校、教育主體、教學話語范式、智能檢測監控技術、管理制度和問責機制等方面共同發力。
1.實施智能素養提升工程,提高教育主體的智能素養和風險防范意識與能力
為了提高教育主體的智能素養,增強教育主體防范、化解生成式人工智能賦能高校思政課風險的意識與能力,需要從高校、教育主體兩個層面共同發力。
一方面,高校要定期開展合理高效的智能素養培訓,提高思政課教師和大學生識別、規避相關風險的意識與能力。一是定期開展智能知識培訓。高校可以充分利用人工智能專業教師資源優勢,邀請人工智能專業相關教師定期為思政課教師、大學生開展智能知識培訓課程或者智能知識相關專題講座,幫助他們了解生成式人工智能技術的原理和背后的算法運行機制,以及它在思政課教學、學習中的具體應用和潛在風險。二是加強智能技術應用能力培訓。高校可以通過內部選拔、外部招聘等形式建立一支智能技術團隊,定期為思政課教師、大學生開展相關智能技術應用培訓,幫助他們掌握生成式人工智能應用于高校思政課教學、學習的基本操作技能、風險應對方法。三是強化智能倫理教育。高校要定期開展智能風險防范意識和責任意識教育,引導思政課教師、大學生正確對待生成式人工智能,既要主動接納,發揮智能技術在教學、學習中的優勢,又要明確生成式人工智能在思政課教學、思政課學習領域的應用范圍,警惕算法“黑箱”和算法歧視可能引發的風險,強化他們的風險防范意識和責任意識。四是培養批判性思維和問題意識。高校在培訓中可以設置相關專題或者引入生成式人工智能應用的相關案例,引導思政課教師、大學生辯證審視生成式人工智能,審慎把握生成式人工智能的使用界限,鼓勵他們提出相關質疑,避免盲目崇拜智能技術,以免在思政課教學和學習過程中喪失自身的主動性和能動性。
另一方面,教育主體要強化主體自覺,主動提升自身的智能素養,強化規避風險的責任意識與能力。一是教育主體要積極閱讀智能技術相關的專業書籍、主動參加智能技術相關講座和培訓課程,學習、提高生成式人工智能應用于高校思政課學習和教學的方式方法以及風險的識別與規避能力。二是高校思政課教師要堅持智能技術為高校思政課鑄魂育人所用的價值導向,理性處理好教學內容和教學工具的關系。高校思政課教師在教育實踐中要自覺遵循智能技術應用的倫理規范,明確生成式人工智能在思政課教學中的適用范圍,根據課程內容和大學生成才規律來選配智能技術,努力規避生成式人工智能賦能高校思政課的潛在風險,避免過度沉迷生成式人工智能而喪失自身在思政課教學中的主導權,防止高校思政課被工具理性主宰導致空洞化、娛樂化和形式化。三是大學生要著力提升理性思辨意識與行為自控能力。大學生需要強化運用馬克思主義科學方法審思生成式人工智能的本質與運行機制的能力,自覺反思生成式人工智能背后的算法運行機制,辨識生成式人工智能推送的信息的可信度,明辨信息背后的意識形態屬性,堅定馬克思主義立場,防止被不良意識形態侵蝕和誘導。同時,大學生也要強化自我約束,自覺將生成式人工智能作為學習的輔助工具,避免盲目崇拜和過度依賴技術,避免自身被技術禁錮,從而有效規避主體性失落風險。
2.落實立德樹人根本任務,強化情感教育
在進行高校思政課教學中,高校思政課教師要堅持立德樹人導向,改變“投喂式”“說教灌輸式”的教學方式,強化情感教育。生成式人工智能雖然能夠豐富高校思政課的教學資源、拓寬高校思政課的教學時空,但是它缺乏情感力,無法替代高校思政課教師的情感教化工作。為此,高校思政課教師在教學中要增強情感投入,強化與大學生的心靈溝通與情感互動,增強自身在思政課教學中的主動性和能動性,避免主體性被生成式人工智能消解,防止自身在思政課教學中的主導權被生成式人工智能取代。
一方面,高校思政課教師可以開展師生面對面談話交流活動,在交流中給予學生情感關懷,增強大學生對教師的信任感和認同感,這有助于思政課教師及時了解學生的思想動態、價值取向、學習需求,以便及時為學生解疑釋惑和開展針對性的教學工作,實現思政課立德樹人的價值旨歸。
另一方面,高校思政課教師要注意挖掘教材中的情感因素。例如,在愛國主義教育中,高校思政課教師可以選取我國科學家群體胸懷祖國、至誠報國的相關案例進行教學,講述王淦昌、郭永懷、鄧稼先等科學家為研制“兩彈一星”披荊斬棘、隱姓埋名、以身許國的故事,借助生動、形象的故事傳遞我國科學家們的愛國主義精神。以情動人,引導大學生繼承和發揚我國科學家們心系祖國、愛黨報國的崇高品質,激勵大學生樹立愛國情、強國志,自覺投身中國式現代化建設中去。
3.轉換教學話語范式,把牢高校思政課教學的話語主導權
高校思政課教師作為高校思政課教學的話語主體,話語主體的能力對于落實好高校思政課立德樹人的根本任務發揮著關鍵作用。為了有效應對高校思政課教師話語主導權被削弱、話語認同度降低和影響力減弱的風險,高校思政課教師要主動接納并使用生成式人工智能,利用生成式人工智能轉換思政課教學話語范式,把牢思政課教學的話語主導權。
高校思政課教師自身要在講政治、堅持馬克思主義話語的基礎上,需要根據時代語境和受眾喜好調整、創新高校思政課教學話語。高校思政課教師要敢于跳出學科界限,樹立智能化、數字化意識,積極借助生成式人工智能了解網絡熱詞和大學生的話語偏好,以適當的網絡話語更新思政課教學話語體系,摒棄呆板乏味的教學語言。譬如,高校思政課教師可以在文心一言或者通義千問等生成式人工智能系統中輸入“當代大學生流行的網絡語言”等問題,及時了解“凡爾賽”“脆皮大學生”“躺平”“內卷”等網絡語言,并在思政課教學中恰到好處地加以運用,以此彌合教育者與教育對象之間的話語鴻溝,增強高校思政課的“溫度”,提升大學生對思政課的接受度和認同感。
4.加快研發智能檢測監控技術,用主流價值引領技術
高校要聯合技術專家、思政課教師、人工智能企業協同研發針對生成式人工智能的相關智能檢測監控技術,借助技術及時有效監控生成式人工智能輸出的文本信息的真偽性、意識形態屬性,實時有效地監測、屏蔽和刪除具有意識形態偏見的信息內容,防止虛假有害信息擴散。在研發過程中,高校思政課教師要做好“把關人”,構建數字技術專家和高校思政課教師之間的共同體,強化對數字技術專家的價值引領和思想品德教育,確保數字技術專家遵循倫理規范、主流價值來確立算法運算規則,研發契合主流意識形態的智能檢測監控技術。
5.夯實制度機制保障,構建管理制度和問責機制
“沒有規矩不成方圓”,對于生成式人工智能賦能高校思政課可能引發的風險,高校不能一刀切地“一禁了之”,而是要客觀理性地對待,建立生成式人工智能賦能高校思政課的相關管理制度和問責機制,從制度機制上規范生成式人工智能的使用。
一方面,建立科學高效的管理制度。在遵循國家信息服務管理、網絡安全法以及相關法律法規的基礎上,高校要積極組織法律人士、技術專家著力建立科學高效的管理制度。高校可以制定生成式人工智能賦能高校思政課應遵循的倫理道德規范,明確生成式人工智能融入高校思政課的適用范圍和準入程度,明確各個監管環節的管理規范和管理人員,以便對生成式人工智能嵌入高校思政課進行全過程、全流程的監管。
另一方面,建立精準追責和懲罰懲戒相結合的責任問責機制。為了切實保護大學生、高校思政課教師的隱私安全,規避數據泄露、濫用造成的信息安全風險,高校要著力建立相關問責機制,以加強信息安全防護。高校要明確生成式人工智能嵌入高校思政課中各主體應該承擔的責任范圍,建立長久可溯源的數據檔案,保證數據采集、管理和分析階段的公開透明性,以便快速辨明責任主體,為問責提供依據。[19]一旦出現信息泄露的風險,高校要及時判定相關責任人,在明確緣由的基礎上,及時對相關人員進行問責并嚴格落實各種形式的利益懲罰措施,通過精準追責和懲罰懲戒的雙效發力來規避信息安全風險。
生成式人工智能作為人工智能更新迭代的最新產物,將其運用到高校思政課是推進教育數字化轉型的重要舉措,也是提高高校思政課時代感、推進高校思政課數字化發展的重要助力。生成式人工智能作為一種智能工具,其本身并不具有價值取向,它在運用過程中引發的風險本質上是人類自身問題的映射。為此,高校思政課需要直面這一技術,既要主動接納擁抱,把握歷史契機,又要植根馬克思主義基本立場,規范其使用,發揮其對高校思政課的正向賦能作用。
參考文獻
[1] 習近平.高舉中國特色社會主義偉大旗幟 為全面建設社會主義現代化國家而團結奮斗——在中國共產黨第二十次全國代表大會上的報告[M].北京:人民出版社,2022:34.
[2] 王延川,趙靖.生成式人工智能誘發意識形態風險的邏輯機理及其應對策略[J].河南師范大學學報(哲學社會科學版),2023(4):1.
[3] 戴嶺,胡姣,祝智庭.ChatGPT賦能教育數字化轉型的新方略[J].開放教育研究,2023(4):41-42.
[4][18] 馮雨奐.ChatGPT在教育領域的應用價值、潛在倫理風險與治理路徑[J].思想理論教育,2023(4):28-30,29.
[5][16] 黃榮懷.人工智能正加速教育變革:現實挑戰與應對舉措[J].中國教育學刊,2023(6):30-32,28.
[6] 黃欣榮,劉亮.ChatGPT賦能思想政治教育:技術路徑與可能問題[J].江西財經大學學報,2023(6):105-106.
[7] 燕連福,秦浦峰.生成式人工智能賦能思想政治教育的價值、問題與對策[J].廣西社會科學,2023(9):201-203.
[8] 高雪梅.ChatGPT賦能大學生思想政治教育模式創新的挑戰及其超越[J].貴州社會科學,2023(11):106-108.
[9][15] 任鳳琴,董子涵.風險與超越:生成式人工智能賦能思政教育的倫理分析[J].重慶郵電大學學報(社會科學版),2023(6):81-83,82.
[10] 常宴會.ChatGPT對思想政治教育的潛在挑戰及其應對[J].青年學報,2023(3):24.
[11] 崔聰.類ChatGPT技術賦能思想政治教育:圖景、風險與實現[J].青年學報,2023(3):29-30.
[12] 馬克思恩格斯文集(第八卷)[M].北京:人民出版社,2009:358.
[13] 盧宇,余京蕾,陳鵬鶴,李沐云.生成式人工智能的教育應用與展望——以ChatGPT系統為例[J].中國遠程教育,2023(4):27.
[14] 于浩,張文蘭.ChatGPT技術下教育面臨的挑戰和機遇[J].中國醫學教育技術,2023(3):262.
[17] Editorial.More Accountability for Big-Data Algorithms[J].Nature,2016(7621):449.
[19] 張譽元,張海.數據生命周期視閾下教育數據倫理問題及規約之徑[J].中國電化教育,2022(10):124.
[責任編輯:邢煒真]