張海濤 周桃順
摘 要: 人工智能技術的資本主義應用,既造成了人機邊界的模糊、算法偏見的盛行、價值鴻溝的擴大和權責歸屬的爭議等問題,又造成了人的主體性困境,即技術物化對人能力的“殖民化”和對人本質的異化,工具理性對人理性完整性的解構,以及主體信息的去隱私化抑或透明化。從馬克思主義異化論視域來剖析人工智能引發“人文困境”的根源,可以從兩方面入手:一,從演化到進化的視角,揭示人們對人工智能這一新事物認識的矛盾;二,通過對技術理性“合理化”的批判和數字資本剝削本性的揭露,闡明人的種種異化歸根結底擺脫不了資本主義的束縛和羈絆。總之,意欲消解人工智能引發的“人文困境”,既要堅持技術理性與價值理性的統一,構建完備的倫理準則和道德規范,又要發揮人的主觀能動性,堅持技術向善和技術求真。在人同智能技術的共處中,自覺塑造自我主體地位,發揮人的主觀能動性,牢牢將人工智能掌握在無產階級和人民群眾手中。
關鍵詞: 人工智能;主體性;異化;技術理性;馬克思主義
中圖分類號: B03;TP18 文獻標志碼: A 文章編號: 1673-3851(2023) 02-0096-07
The "Humanistic Dilemma" and reflection of artificial intelligence from the perspective of Marxist theory of alienation
ZHANG? Haitao, ZHOU? Taoshun
(School of Marxism, Xi′an Shiyou University, Xi′an 710065, China)
Abstract: ?The capitalist application of artificial intelligence technology has not only caused problems such as the blurring of human-machine boundaries, the prevalence of algorithmic bias, the expansion of the value gap and the controversy over the ownership of rights and responsibilities, but also caused the dilemma of human subjectivity, that is, the "colonization" of human ability and the alienation of human essence by technological materialization, the deconstruction of human rationality by instrumental rationality, and the de-privacy or transparency of subject information. To analyze the root cause of artificial intelligence from the perspective of Marxist alienation theory, we can start from two aspects: First, from the perspective of evolvement to evolution, the contradiction of people′s understanding of artificial intelligence as a new thing can be revealed; second, through the criticism of the "rationalization" of technological rationality and the exposure of the exploitative nature of digital capital, it is clarified that the alienation of human beings cannot be freed from the shackles of capitalism in the final analysis. In short, to dissolve the "humanistic dilemma" caused by artificial intelligence, we should not only adhere to the unity of technical rationality and value rationality and build a complete ethical code and moral norm, but also give play to people′s subjective initiative and adhere to technology for good and technology to seek truth. In the coexistence of people and intelligent technology, we should consciously shape the status of self-subjectivity, give play to the subjective initiative of people, and firmly grasp artificial intelligence in the hands of the proletariat and the masses of the people.
Key words: artificial intelligence; subjectivity; alienation; technical rationality; Marxism
作為人類第四次科技革命的標志性產物,人工智能技術正在以顛覆性、革命性、指數級飛躍式發展,在大數據處理、生物醫藥、智能機器人、無人駕駛等領域[1]取得令人嘆為觀止的成就,解構和重塑著人們的生產生活。人工智能在給人類帶來智慧生活的同時,也帶來了現代性智能危機,引發了諸多“人文困境”。這種困境是圍繞核心的人這一主體引發的多方面危機,不僅表現在交往行為中人的話語權、隱私權被剝奪,消費生活中人的主導性喪失,技術異化致使人的道德淪喪,而且人的情感和理性也被瓦解,使得主體性的人深陷于算法設計的虛擬演繹和桎梏偏見之中。尤其是當下人工智能“超越論”和“本體論”的興起,更強調人工智能的功效,忽視了把現實的人作為主體尺度去評價這種功效,人反而被奴役和物化。
目前,學界大多數學者從認識論、價值論和本體論的視角探討人工智能同人的關系問題,并取得了豐碩的成果。例如,歐陽英[2]認識到,人工智能是人腦的智能異化物,會造成人腦同自己腦力勞動、智力成果和類本質的異化。孫偉平[3]指出,人工智能對社會發揮著積極的效應,同時必然會挑戰既有的人的價值,引起人們的擔憂。余乃忠[4]則認為,機器在剝奪了人的勞動權和隱私權的同時,在思想根基上動搖了人類對自身的信念,等等。大多數學者從人工智能外在的社會和科技、內在的認識論和本體論的角度,聚焦于人工智能的起源、發展及人工智能同人的智能相比較層面的研究,很少有學者從人的主體性異化角度對人工智能展開系統研究。本文在馬克思主義異化論視域下分析人工智能引發的人的主體性危機,探討和揭示這種人文危機的根源,并提出治理危機的理路與方法,旨在通過對資本邏輯的批判,解蔽人被智能體異化的事實,構建科學合理的倫理機制,促進人機和諧發展,降低人的物化程度。
一、人工智能發展導致人的主體性缺失
人工智能作為技術進步呈現的新形式,依然沒有離開馬克思對于技術異化的批判。馬克思在談及科學技術對人的異化時,提到統攝生產的技術不斷凸顯為“有智慧的生命”,而人的生命存在和意義被削弱,化為“愚鈍的物質力量”[5]580。人們出于物質利益和感官享樂的需要進行無限度的技術實踐活動,致使工具理性與人文價值割裂,造成了人的主體性意義被忽略,而對最終價值標準的放棄,使得人工智能技術存在的“隱憂”逐漸顯現。
(一)物的人格化對人本質的異化
人工智能技術作為人的對象性社會知識的展開力量,是人的物化本質確證的基本依據。技術誕生伊始,人類由最初直接意義上的生存活動,很快被卷入社會分工生產之中,機器和資本的結合使得機器具有了資本的屬性。在資本主義生產條件下,人工智能技術是生產剩余價值的關鍵手段,在某種程度上加劇了資本家對工人的剝削。高強度的工作使工人感到疲憊,找不到勞動帶給他的自由和富裕,反而“我們看到,(機器)卻引起了饑餓和過度的疲勞”[6]776。主體的人和客體的機器不但沒能統一,反而走向對立面,客體的機器轉變為外在的力量控制、奴役和驅使著主體,使得主體不斷被物化和外化。異化的技術日趨自主化,它侵入社會生活的各個部分,使人類日益在技術的淫威之下無所作為[7]。人的價值世界和意義世界受到無情的擠壓,人自由自在的追求受到巨大的威脅。
人工智能正在實質性地改變著“人”。通過產品功能實現特定虛擬主體的表達,設計者按照人的智能和功能模型,仿制和打造出具有高度自主性和可感知性的智能機器,并賦予它自我設定的某種身份和角色。試想未來強人工智能時代,智能機器雖不具備客觀存在的實體生命,但在外形上似人,聲音上動聽如人,行為和智能水平都和自己一樣,令“自己不朽”,甚至可以“編輯人”“控制人”如此種種。人和智能機器的生命界限在哪里,究竟如何定義“人”和人的本質,如何處理人機關系的價值準則,都要重新認識。2016年,歐盟委員會鑒于人工智能特殊的擬人格性,賦予其勞動權、著作權等相關權利和義務;2017年,機器人Sophia(索菲亞)成為沙特阿拉伯歷史上首位獲得公民身份的機器人。如果獲得公民身份的機器人出現破壞公序良俗、傷害他人、觸犯法律等問題,該如何判定責任主體呢,這都需要重新認識。人工智能雖然不具有完整的社會歷史性和主觀能動性,但是會造成人實質性的削弱,對于屬人的責任與義務、道德與倫理等價值理性的判定構成挑戰。
(二)技術物化對人能力的“殖民化”
人工智能技術是對人的眼睛、皮膚,特別是大腦器官的延伸,使人的結構不斷完善和能力獲得躍遷式發展,促進了人的生命意志的拓展。然而,“科技讓生活的時空被壓縮,它承載了人類太多的欲望,它讓人類對周遭的現實鈍化麻木而沉浸在虛空的幻想的世界”[8]。智能技術的不斷迭代升級,致使作為謀生手段的勞動也被機器取代,去技能化使得工人的勞動變成毫無內容的抽象勞動,會加劇社會失業風險。尤其是簡單、重復、機械的工作,不需要太多情感交流的工作,以及不需要太多人類靈感、智慧做出綜合判斷的工作[9]。像從事體力勞動的工人、公司普通的職員、評估工作的評估師等等,面臨可取代的趨勢和風險。Kuhn[10]指出,科學的學習是通過教科書為基礎的嚴格訓練實現的,目的在于讓學生掌握一套通用的科學知識體系,是一種匯聚的思維方式或創造性的思維模式,而非發散性的。人工智能教育產品的廣泛應用,雖然告別了死記硬背的非創造性學習,但是技術的排他性使人的基本技能退化,以至于人們出現提筆忘字、不會找“度娘”的困境和焦慮。技術的進步不是塑造和發展人的技能,而是使人淪為“多余的人”。
此外,人對智能產品的依賴過度,容易產生惰性。人工智能虛擬技術的發展,模糊了虛擬和現實的界限,每個人都可以通過冰冷的技術系統同各種終端打交道,淡化了真實世界人與人之間的交流和對話,使得一些人認為虛擬的世界才是真實的、可信的。長期沉浸在這種虛擬感官的演繹下,人感性器官的社會性會逐漸退化,人的天賦秉性、主動意識和自覺擔當會消失于無形[8],呈現出異化和畸形的樣態,人成為“單向度的人”,社會也成為“單向度的社會”。人工智能引發了閱讀方式的變革,拓寬了閱讀場景,豐富了閱讀體驗,使得碎片化閱讀成為學習和休閑的重要方式。誠然,碎片化閱讀往往給人以服從和暗示的作用,容易讓人產生心理依賴和精神焦慮。用戶每天要從數億級的信息中篩選出符合興趣,思想深刻的高質量信息。眼花繚亂的訊息令人身心疲憊,對閱讀產生厭惡和抵觸,導致人的創造性、想象力和審美力的退化以及自身感性經驗積累的貧乏。碎片化的信息支離破碎使人無法專注,消解了人的求知欲望和熱情,阻礙了人對自由的真實追求。
(三)工具理性對理性完整性的解構
所謂的工具理性,就是通過實踐的途徑確證工具(手段)的有效性,其核心是對效益的最大化追求。工具理性的膨脹致使理性由最初人的解放工具退化為統治人和自然的工具。
在工具理性的支配下人工智能技術發生異化,導致人的理性判斷力和情感被解構。一方面,在當前新媒體話語公共空間下,各種話語權滌蕩博弈,魚龍混雜的信息不斷被價值化,使得群體的價值觀和自我的價值觀被迫分離,自我的價值的實現被削弱和同質化。在混雜的信息辨識上,主體的自我愈來愈急功近利,看重結果而忽視過程,造成問題辨識的錯位,思考的方法簡單狹隘。此外,科技利己主義者的偽善造成了審丑文化的盛行,人們對于何為真善美的判斷標準逐漸喪失,畸形、怪誕和喪,從來都不是文化的主流,卻無形中讓很多人欣然接受。另一方面,人工智能技術的應用,使得人們的真情實感反而被異化了,“虛假的需要”取代了“真實的需要”,資本家蓄意營造出消費和幸福等同起來的假象,暗示只有不斷消費才能獲得幸福和快樂,而提倡節儉和忍耐是反人性的[11]。致使人失去了對于“物”原有尺度的把握,傳統美德也不再從情感上被需要。
此外,人的認知偏差導致人理性完整的消解。工具理性造成技術主義的極端,對人自身的崇拜轉化為對技術的崇拜,人淪為現代機器的附庸,人的精神價值被解構和物化。技術的無限增殖刺激著資本家貪婪的欲望,致使工具理性割裂了人與自然的生命聯系。人們盲目地開采和攫取地球資源,使得有限的資源和無限的技術進步之間矛盾的張裂,打破了人與自然之間脆弱的平衡,導致了20世紀以來肆虐全球的生態破壞、環境污染、核輻射等問題,直接危害著人類的生命和健康。
(四)主體信息的去隱私化抑或透明化
人工智能技術高度依賴豐富的計算資源和海量的數據,學習的過程仍然是個“黑盒子”,由此引發信息主體自主權不足、個人信息權利邊界模糊、信息隱私被侵害、信息霸權等問題。隱私權作為人的一項基本權利,在智能時代用戶的一切信息都可被記錄、可追蹤,呈現出主體信息的去隱私化抑或透明化。各種數據采集設備和系統無時無刻地獲取著個體詳細的信息。當用戶使用智能產品,系統會根據用戶的興趣愛好,全面掌握用戶的身份信息、行為習慣、消費心理等,精準把控用戶的動態,及時推送相關服務。這不僅導致處理私人事情的自由和時間被干預,而且還會泄露用戶的秘密,例如生理缺陷、征信失信、既往病史等。
根據墨菲定律,凡是可能出錯的事總會出錯。人工智能技術的算法程度越高,意味著構建數據算法的邏輯越復雜,從而出錯的概率就越大。智能產品之所以能夠進行復雜的判斷和抉擇,其核心是依賴海量的數據資源進行精密的智能運算,但在這種算法的邏輯語析下,會導致用戶信息的透明化和泄露,使得私人的領域被打開,個人的隱私隨時有被公之于眾的風險。2020年1月,全球最大的視頻會議應用Zoom被爆1.5萬用戶視頻被泄露;2020年6月,加拿大寫作博客平臺Wattpad數據庫被入侵,導致2.68億條用戶敏感信息泄露;2020年10月,美國VoIP服務供應商Broadvoice泄露超過3.5億條客戶隱私記錄,等等。這些問題的出現,一方面源于系統存在的漏洞,將掌握的個人信息泄露出去;另一方面,不法分子的利欲熏心,利用系統漏洞或黑客技術非法獲取用戶隱私以牟利。
二、人工智能“人文困境”根源的科學揭示
人工智能技術作為科技創新的產物,在資本邏輯統攝下帶來了諸多的智能危機,使人的主體性遭受到不確定的風險和挑戰。不管是當前流行的技術悲觀主義的“終結論”,還是樂觀主義的“人本論”,二者爭論的交鋒都暢談在未來人工智能是否具有“人屬性”的喧囂,卻忽視了從現實的基本問題中去揭示和闡發人工智能技術的本質和“人文困境”產生的根源,以此回應現實的困頓和需要。
(一)從演化到進化的突圍
縱觀人類發展的歷史,無論人類的文明演進史,還是科技發展史,歸根結底是人類能力不斷外化的歷史。馬克思在《資本論》中提到,各種技術的發明本質上是人類自己器官的延伸,也就是用外物來強化自己的功能[12]。人的手腳等器官是最原始的勞動工具,有著諸多的天然局限性,為了克服先天的局限,人類不斷尋求外物來彌補局限。于是機器的發明,大大節省了體力和提升了效率,克服了人體能的局限。然而,以往技術的出現僅僅替代人的肢體,而人工智能技術則試圖取代人的大腦。人工智技術能夠精通連人類一直引以為傲的琴棋書畫,甚至可以模擬人的表情,同人們風趣幽默地交流,徹底顛覆了人們的認知。可以說,以往人類生物意義上適應環境的變化,只能稱之為演化,而人工智能時代人的發展才算得上真正意義上的進化。
人們對于發展著的新事物,往往難以把握其發展方向或難以預料其發展結果,難免會產生抵觸的情緒和懷疑的態度。雖然智能技術不會像霍金的“替代論”、赫拉利的“無用階級論”以及庫茨韋爾的“奇點論”等為代表的悲觀主義者們宣揚的那樣——人工智能未來終將進化到超越人類智能,成為人類的終結者。然而,由于他們的憂慮和恐懼源于把人的價值實現限定在資本主義制度及其觀念框架內,因此他們對于人工智能這一新事物的認識明顯不足。人類社會的發展是一個選擇和創構的過程,是一個新技術持續廣泛延展和強化人能力和智力的過程。從某種意義上說,技術的進步是人特有的進步方式,技術是人本質力量的昭示。技術異化這一歷史事實必須從歷史的合理性和暫時性上加以理解。一方面對技術過度的依賴,使人遺忘自身的存在,甚至喪失人性的坐標和尺度,要警惕技術的隱性風險。另一方面,通過技術更好地反觀自身,利用技術不斷創造自由而全面發展的條件。
(二)從技術理性到技術異化的“合理化”
技術理性的本質是理性統治人的過程。技術理性由著名學者哈貝馬斯[13]提出,他認為技術規則是一種合乎目的和理性的實踐性活動,把人的勞動或理性活動也視為工具的活動。霍克海默也認為技術理性會帶來物化,技術不僅僅是統治社會的工具,更是統治人的工具,表現為技術理性同化了勞動者的革命意識和斗爭精神、同化了文學藝術的多元化以及同化了社會的意識形態[14]。隨著人力支配自然能力的增長,社會對人的支配也愈發嚴重。短視頻、網絡游戲等娛樂形式不斷入侵著人們的閑暇時間,太多的感官刺激造成了人們精神的貧乏與情感的空虛,人們的精力被分散,人的感覺、語言和思維不斷被物化和異化。
技術理性只問事實、不講價值的實用功效觀是技術理性的深層思想根源。技術在資本主義私有制下打上異化的烙印,在技術理性的統治下,人的異化成為合理的“存在”,個人為了實現眼前的物質利益而喧囂塵上,甚至枉顧道德和倫理觀的約束。技術的異化也促成了人本身及人與人關系的異化,馬克思指出:“勞動所生產的對象,即勞動產品,作為一種異己的存在物,作為不依賴于生產者的力量,同勞動相對立。”[6]51機器的生產改變了人類勞動自身的基礎秩序,人淪為資本增值的工具,技術不再是征服和改造自然的工具,而成了支配和奴役人的外在力量以及資產階級統治合理性的辯護工具。同樣,人工智能技術在資本邏輯控制的社會下,人的種種異化歸根結底擺脫不了資本的束縛和羈絆。
(三)從資本的重技走向資本的“尚藝”
技術的異化是在工業大生產中誕生的。馬克思、恩格斯認為機器的資本主義運用是造成勞動者困境的根源。19世紀的工業革命是機器對人肢體的肢解,人的體力勞動過程被拆分成了若干個獨立的動作,人成為機器的附庸,機器及其整個生產過程成了剝削和排斥勞動者的異化力量。人工智能時代是智能技術對人大腦的解構,機器善于把控人的情緒和心理,模擬人的語言和智能。資本的剝削手段也從傳統暴力范式轉向個性協作,剝削的手段越來越隱蔽和巧妙了。智能革命催生出了數字平臺經濟的興起。平臺資本家建立全球數字工廠,用戶的智能設備即機器,資本家提供的交互平臺即工廠,用戶扮演著工人和消費者的角色,用戶使用網絡產生的數據過程即為工人的勞動過程。本該網絡數據歸用戶個人所有,實則被利益驅使的平臺資本家無償占有。用戶(被剝削者)沉浸在資本家所營造出的個性化多樣性消費的行為和思想形式的快樂幻想之中,陷入一種心理上的“心甘情愿”和主動接受“剝削”的狀態。
數字經濟利潤邏輯統攝下的智能化資本的突出特征是:人的精神被物化,人的自由意志被束縛,人的心智和能力被資本吞噬,人的主體性和獨立性被消解淪為新型異化的工具。相應的新型勞資關系亦呈現隱匿化,使得剝削行為無形化,憑借用戶感官很難察覺,造就了一種更加隱蔽和無感化的剝削,實質上是資本家剝削的手段更高明,相比傳統的剝削程度有過之而不及。這正如馬克思所指出的,只要資本統攝勞動的私有制還未消亡,“物的世界的增值同人的世界的貶值成正比”[15]的現象就不會消失,勞動價值論這一批判武器就不會過時。
三、人工智能“人文困境”的人文反思
人工智能也存在克林格里奇困境(Collingridge′s dilemma),即每一項技術創新都必然給社會帶來二重性矛盾。但人是科技的掌控者,有著天使和魔鬼的區別,當人的價值觀天平傾向于自私自利,把自我和他人的關系對立和割裂開來,就會導致技術產生負面影響。因此,人工智能作為科技創新的產物,要保持技術理性,趨利避害,構建完備的倫理準則和道德規范,將這推動社會變革和歷史進步的力量,掌握在無產階級和人民群眾的手中。誠如馬克思所言:“科學是歷史有力的杠桿,是最高意義上的革命力量。”[16]
(一)堅持工具理性與價值理性的統一
理性世界打造的現代工業化社會的“鐵籠”,使人喪失了完整性和豐富性,工業規律支配的世界,成就了人,也異化了人。工具理性給人類社會帶來了工業化繁榮和巨大財富,也使人們逐漸產生了重工具性和功效性的普遍拜物的行為和心態。價值理性在工具理性的膨脹和僭越下日益衰落,造成的后果就是人性的貧乏和人的物化,究其根源就在于技術手段的目的化[17]。愛因斯坦曾告誡人類:“關心人的本身,應當始終成為一切技術上奮斗的目標。”[18]他也意識到了工具理性支配下人被物化的問題,始終強調要重視人的主體性和人本性的復歸,只有工具理性和價值理性二者獲得相對平衡的時候才能緩解這種矛盾。黑格爾也曾說過“熟知”并非“真知”。人類所追求的東西一旦缺乏理性和價值關懷,就會變成一種盲目的、危險的東西,會造成難以預料的后果。當前人工智能技術時代,工具理性的蔓延雖然給社會帶來了豐碩的成果,但社會缺失的卻是責任與義務的承擔、道德與倫理的價值關懷。馬克思也指出,在利己的需要統治下,“外化的人、外化了的自然界,變成可讓渡的、可出售的、屈從于利己需要的、聽任買賣的對象”[6]54。人們把需要理解為資本家主觀的欲求,忽視了勞動者主體的價值本真,導致異化的人遺忘對自身生命意義和價值的追問與觀照。因此,必須要從價值尺度和人的主體性去呼喚價值理性的復歸。
重構價值理性的本質是重建人文精神。人文精神的內核則是強調人的主體性,注重人同自身、人與人和人與自然關系的調和。人工智能負效應的顯現就在于發展著的現代科技缺少人文精神的注入。工具理性片面強調人的自身利益,在資本增值效用的驅使下,人文精神難免失語和缺位。這就要求人類從工具理性的“經濟人”轉向價值理性的“倫理人”,把人的價值實現從資本主義制度及其觀念框架中解放出來。消除人工智能技術的異化,必須堅持人文精神的正確指引,沖破西方社會將個性自由視為人的解放的觀念。因此,既要防止個性自由成為人異化的通道,又要堅持真善美的價值原則和遵循人與自然和諧發展的準則,實現人與技術的協同進步和共同提升。
(二)堅持科技倫理與道德規范相結合
人工智能技術造成了人機邊界的模糊、算法的偏見、價值觀的錯位等問題,帶來了一系列的科技倫理風險和道德沖突。這就需要構建科學合理的倫理機制和道德準則,保障人工智能技術的良性發展。首先,優化人工智能的倫理設計,注重前瞻研判人工智能帶來的倫理挑戰。從人道主義的角度設定人工智能的權限,具體而言,就是將人的主體倫理價值觀(例如,法律、道德、人文關懷等規范和價值信念)嵌入人工智能倫理系統中去,明確和完善人工智能的倫理道德權限與責任,使人工智能產品成為具有自主倫理選擇和道德規范的智能體。
其次,制定人工智能行業道德規范,建立科技人員自律制度。責任是人工智能研發和應用過程中基本的倫理原則。人工智能作為被研發的產品,其生成過程隱藏著復雜的人際關系網。智能產品是否安全可靠、高效和人性化,離不開研發人員的所思所想和所作所為,研發人員在很大程度上決定著產品對個人和社會造成的影響。為避免人工智能體帶來的負面效應,人工智能研發人員必須具備高度的倫理價值觀和道德修養,本著對人類負責和服務的態度,主動承擔起尊重和維護生命的道德責任和使命,克服技術盲動和技術濫用造成的倫理問題。
最后,人工智能技術的發展是多源聚集的結果,離不開社科、人文、自然等學科的交叉融合。人工智能的自反性治理不足以為倫理構建提供原則基礎,因此,技術倫理治理的跨學科研究尤為必要。人工智能的倫理道德構建需要借鑒一系列學科的基本理論和方法,更需要各學科研究人員的通力合作。此外,還需要擴大人工智能治理的公眾參與度,廣泛聽取不同領域、不同行業、不同地區專家和公眾的意見,建立科學的預警監管機制,劃出人工智能技術不可逾越的紅線,最大限度地防范人工智能發展帶來的倫理沖突,實現人工智能可持續發展和服務于人類的根本目的。
(三)科技向善是人類解放的必由之路
科技向善是指科技要合乎某種善的觀念和行為,以人的主體性需要為價值尺度。向善是科技倫理尺度和標準的根本依據之一。亞里士多德[19]也曾言“一切技術,一切研究以及一切實踐和選擇,都應以某種善為目標”。但是人工智能的資本主義應用,造成了技術和人的異化以及由此帶來的偏見、貧富差距、環境污染等“惡”的問題。要想破除人工智能異化帶來的困境,就要求人類必須樹立人本主義技術觀和遵循向善的價值原則。
首先,分配正義是科技向善的內容。智能時代以數據為核心的資源分布不均衡,加上功利主義分配原則忽視個體的基本權利,僅把個體當成牟利的工具,致使分配不公正和數字鴻溝不斷加劇。人們已經意識到數字鴻溝背后遮蔽的是科技的濫用,損害著人們的基本權利,侵蝕了社會治理系統的公正性,加劇著社會的偏見和貧富差距,威脅著人類的生存和發展。因此克服數字化生產力造成的困境,就要堅持科技向善的正義分配原則,不斷開放和共享技術成果,彌合數字鴻溝,真正讓科技造福于人類。
其次,共同價值是科技向善的手段。技術的發展使全人類面臨著普遍的價值沖突、環境污染、核威脅等不確定因素和風險。尤其是人工智能技術武器的研發和運用,給世界安全和穩定埋下了嚴重的隱患。避免技術趨“惡”,就要倡導世界各國共守人類價值之“善”意,共建人類命運共同體之“善”舉,遵循人工智能技術向善的價值原則,實現人工智能向善的發展。
最后,人的解放是科技向善的目的。馬克思和恩格斯從唯物史觀出發,把技術看成人類認識與改造世界的中介和橋梁,并指出,技術可以通過改變資本主義的生產方式緩和階級矛盾,卻改變不了資本主義被社會主義取代的歷史必然性。技術的進步使人更加自由、獨立,給人創造了更多的發展空間。但技術擴張卻重構著人的身體感知,消解了人的主體性,致使人的生理身體被物化為技術中的身體。要使科技真正造福于人類,就要降低其負面影響,就必須堅持以人為中心,兼顧身心的需要,促進人自由而全面的發展。此外,智能經濟、智能革命愈深入發展愈要求整個社會接受科學社會主義原則,智能社會、智能共同體的廣泛共建愈趨同于對社會主義的認可。未來人工智能技術的社會主義應用必將使人工智能技術的本真意義得以彰顯,使人獲得真正意義上的解放。
四、結 語
正如馬克思所言:“在我們這個時代,每一件事物好像都包含有自己的反面。”[5]606人工智能的負效應造成了人的主體性缺失、判斷力衰退、生存價值迷失等困境,使人的身心受到無情的摧殘和異化。走出人工智能異化的夢魘,首先要認清人工智能技術的資本主義應用這一異化根源;其次,要求人工智能的創造者堅持工具理性和價值理性的統一,制定完善的道德倫理規則與法律制度;最后,要在同人工智能產品的交互中,積極發揮人的主觀能動性,自覺塑造人的主體地位,降低異化程度。
人工智能技術視域下人的主體性問題研究依然是一個宏大的時代課題。對于未來不斷加劇的人工智能異化現象,如何應對異化風險,拓展異化理論新視野,重構和諧共生的人機關系等問題,仍值得深入研究。相信我們定能不斷突破對智能技術和人本身認知的局限,創造出以人為本、人機共生的新型文明社會。
參考文獻:
[1]黎常,金楊華.科技倫理視角下的人工智能研究[J].科研管理,2021,42(8):9-16.
[2]歐陽英.從馬克思的異化理論看人工智能的意義[J].世界哲學,2019(2):5-12.
[3]孫偉平.關于人工智能的價值反思[J].哲學研究,2017(10):120-126.
[4]余乃忠.積極的“異化”:人工智能時代的“人的本質力量”[J].南京社會科學,2018(5):53-57.
[5]中共中央馬克思恩格斯列寧斯大林著作編譯局.馬克思恩格斯文集:第2卷[M].北京:人民出版社,2009.
[6]中共中央馬克思恩格斯列寧斯大林著作編譯局.馬克思恩格斯文集:第1卷[M].北京:人民出版社,2009.
[7]黃欣榮.現代西方技術哲學[M].南昌:江西人民出版社,2011:133.
[8]趙青新.抵制科技的“平庸之惡”[N].中國證券報,2015-12-19(2).
[9]黃欣榮.人工智能對人類勞動的挑戰及其應對[J].理論探索,2008(5):15-21.
[10]Kuhn T. The Essential Tension[M]. Universily of Utah Press, 1959:162-174.
[11]任劍濤.人工智能與“人的政治”重生[J].探索,2020(5):52-65.
[12]劉則淵.馬克思和卡普:工程學傳統技術哲學比較[J].哲學研究,2002(2):21-27.
[13]哈貝馬斯.作為“意識形態”的技術與科學[M].李黎,郭官義,譯.上海:學林出版社,1999:49.
[14]賈凱芳.霍克海默的技術理性批判理論及對當代中國的啟示[J].佳木斯職業學院學報,2019(12):24-25.
[15]中共中央馬克思恩格斯列寧斯大林著作編譯局.馬克思恩格斯選集:第1卷[M].北京:人民出版社,2012:51.
[16]中共中央馬克思恩格斯列寧斯大林著作編譯局.馬克思恩格斯全集:第19卷[M].北京:人民出版社,2006:372.
[17]王立新.休閑異化的技術審視[M].大連:東北財經大學出版社,2017:158.
[18]愛因斯坦.愛因斯坦文集:第3卷[M].徐良英,李寶恒,趙中立,編譯.北京:商務印書館,2009:89.
[19]亞里士多德.尼各馬克倫理學[M].廖申白,譯注.北京:商務印書館,2003:74.
(責任編輯:雷彩虹)
收稿日期:2022-05-24網絡出版日期:2022-11-11
基金項目:陜西省社科基金項目(2022A013);陜西省哲學社會科學重大理論與現實問題研究項目(20022ND0204);西安石油大學研究生創新與實踐能力培養計劃資助項目(YCS21213265)
作者簡介:張海濤(1982- ),男,山東泰安人,教授,博士,主要從事馬克思主義基本原理、國外馬克思主義方面的研究。