趙巖
摘 要:近年來,我國經濟高速發展,國內形勢隨著國際形勢的變化而變化,現有的哲學教育經受著嚴峻的考驗,已不能滿足任何社會在哲學領域的需要。在發展的過程中,哲學教育由于缺乏人文主義而陷入困境。哲學教育要代代相傳,適應時代發展的需要,就必須立足于人,貼近現實生活,教學與實踐相結合,完成教育改革。
關鍵詞:以人為本;哲學教育;價值取向研究
引言
在人工智能的發展中,必須處理人機與人際關系的關系,公共行政與社會行政的關系,人工智能設計與人工智能倫理的關系,人類倫理與人工智能的關系。人工智能和人工智能定律。人工智能的發展很可能會出現倫理困境,具體表現在人工智能倫理引發的倫理主體問題、公共行政問題、社會發展問題、人工智能發展瓶頸問題上。教育領域等等。
1哲學教育價值的困境
1.1教育價值目標產生偏差
大學作為向學生傳授人文知識、形成人文價值觀的精神搖籃,始終肩負著鍛煉身體的使命,努力成為適應社會、易于管理的群體。而如今,許多大學在教育理念上逐漸轉向工具理性和價值理性,這將不可避免地導致學生以人為本的思想缺失。漸漸地,高校的文科教育被實用技術所取代,很多學生不接受哲學相關課程,這也導致哲學社會科學被邊緣化?,F代哲學以人為主體,以世界為研究對象,其目的是教一般人管理和處理人與世界的關系?,F代哲學教育不應該是單純的知識和科學,更不應該是單純的思想教育,因為科學是對學生人文精神的啟蒙,是分析判斷能力的發展,是批判性思維能力的啟蒙。如果我們現代哲學的教育目標只是簡單地定位為知識的傳遞,那么即使其中包含了更多的概念、原則和規律,最終也可以擺脫許多難以實現的僵化教條。因此,在堅持現代哲學教育以人為本的同時,實現教育目標從以知識為準則向關注每個學生的轉變,以促進學生的最大發展作為一個基本的起點和一個形成的終點。很明顯,目前國內哲學教育的價值目標已經有些偏離原來的目標。
1.2哲學教育針對性發生弱化
高校哲學教育面對的是那些在改革開放條件下游泳、積極主動、對事物有自己獨到見解的大學生。而哲學教育的關鍵恰恰是培養學生思維的創造性,注重學生學科的發展和創新??梢姡軐W教育是學生素質和思想道德發展的重要途徑,而哲學教育的關鍵恰恰是著眼于學生的思想和生活現實,提高學生的全面素質。反過來,現實高校的哲學教育弱化了對現實生活的關注,忽視了學生在教育過程中的個人主動性和創造性方法,輕視了對隨著時間的不斷變化而出現的新情況、新現象的研究。哲學教育導向的弱化,使學生感到哲學只是空洞的,與現實世界嚴重脫軌。
2以人為本的哲學教育價值取向研究
2.1推動當前哲學教育進行風險點排查
第一,從人本理念角度對哲學教育教育目標進行審視,不難發現其教育目標的定位存在一定的偏移,當代哲學教育并不具備準確的核心概念定位,這也導致其教學效果并不理想。其中最主要的問題在于哲學教育既想針對原有自然生命體不規則運動的問題展開審視,又想對人類長期活動所造成的環境影響進行研究,這使其教育目標呈現個體向群體、外延項本質的變化。第二,對哲學教育內容進行分析,其具有明顯的相對性與存異性。現在是信息時代,信息技術的發展與普及為教育主體提供了豐富的信息獲取渠道,信息主體能夠接觸的信息量是十分巨大的,信息孤島現象已經不復存在。而在充分的案例與因由的參考下,教育主體會以日常習慣的思考方式,結合通過常用的信息平臺所掌握的信息對哲學教育成效進行判斷與思考,這是哲學教育的批判性被著重凸顯,也弱化了哲學教育的現實功能。第三,哲學教育的自然學科屬性增強,社會學科屬性減弱,逐漸呈現出將演變為自然學科附屬學科的發展態勢。這是因為哲學內容中理性色彩過重,并且逐漸體現出工具傾向,導致其時代影響力不斷被減弱。在很多高校中哲學教育的科學體諒正在不斷的縮減,這將會對學生的價值觀造成嚴重的影響,當學生世界和社會認知發生偏差時,若不能通過哲學教育對其進行糾正,將會使其更加偏激。從歷史及發展角度分析,若長期缺乏有效的哲學教育將會使人類變得短視,從全局態勢出發哲學教育的缺位將會使人類減少對本質與發展問題的辯證思考。
2.2堅持多主體參與原則,構建人工智能倫理安全風險防范體系
人工智能在帶給人類更多福祉的同時,也可能產生安全風險。因此,政府相關職能部門要鼓勵人工智能產品的研究開發者、設計制造者、部署應用者和用戶等共同參與,構建多主體參與的人工智能倫理安全風險防范體系,科學應對人工智能可能造成的失控性、社會性、侵權性、歧視性、責任性風險。1.建立人工智能倫理的政府審查制度。政府在人工智能倫理治理中扮演引導者、監督者的角色。政府可以成立專門的人工智能倫理審查委員會,對人工智能產品進行倫理評估。人工智能倫理審查委員會可以由政府職能部門負責人、知名大學教授、企業高管等組成。2.研究開發者在進行倫理設計時要有前瞻性的風險防范意識、合作意識,可以吸收設計制造者、部署應用者和潛在用戶等參與人工智能產品的倫理設計,對人工智能產品進行客觀、公正、全面的倫理安全風險分析,在設計中要避免研究開發可能被惡意利用的人工智能產品,從而預防對人工智能的誤用、濫用;同時,在倫理設計中要把人的基本權利放在首位,盡量避免人的人身權、隱私權、財產權受到侵害。
結語
人工智能的倫理治理是一種前瞻性倫理治理。面對人工智能迅速發展帶來的風險和挑戰,前瞻性倫理治理要求尊重人工智能的發展規律,動員全體社會成員參與人工智能的開發與應用的全過程。人工智能倫理治理的關鍵在發揮人的作用。政府的監管和公眾的參與是科學家進行“負責任創新”的重要保障。人工智能發展引發的公共安全、責任劃界、科技異化、人權保障、教育保障等問題還有待進一步探討。人工智能倫理的治理原則、治理框架、研究范式、實踐轉化等還有待進一步深入研究。
參考文獻:
[1]張衛.人工智能倫理的兩種進路及其關系[J].云南社會科學,2021(5):21-185.
[2]朱琳,周沐融,楊千騰.“革新”與“交融”:基于規范及準則的人工智能倫理生態圈的構建[J].電子政務,2021(7):80-90.
[3]趙志耘,徐峰,高芳,等.關于人工智能倫理風險的若干認識[J].中國軟科學,2021(6):1-12.
[4]王東,張振.人工智能倫理風險的鏡像、透視及其規避[J].倫理學研究,2021(1):109-115.
3843501186516