人工智能(AI)技術的廣泛應用在促進社會進步的同時,負面效應凸顯。例如,機器人應用導致失業現象、網絡應用導致網癮現象,AI應用導致貧富差距現象、AI算法導致歧視現象、大數據的應用導致隱私泄露、人類精神生活退化現象,等等,這些都是隨著AI技術的應用帶來的社會問題。AI的應用本來是為了造福人類、解放人類,幫助人類獲得自由的,卻導致人類依賴機器,受機器控制,產生異化現象。
“異化”一詞來源于拉丁語alienatio,原意是讓渡、疏遠、脫離等。最早在神學中使用,用來表示信徒疏遠上帝。后來逐漸應用到政治學領域和社會學領域。馬克思在批判和吸收黑格爾的異化思想、費爾巴哈的人本主義異化理論的基礎上建立起勞動異化理論。馬克思吸收和超越了黑格爾的“異化”與勞動之間的辯證關系,他結合資本主義大生產,揭示出異化的本質是勞動異化,從而形成了勞動異化思想。
馬克思認為,異化是人類在發展過程中創造的物質的或精神的東西,它成為異己的存在力量,并反過來控制、奴役人類自身。在馬克思看來,異化包含兩層含義:一是勞動異化必須從主體出發產生客體,二是客體與主體相對立并成為異己的統治主體的力量。馬克思主要從勞動產品(勞動結果)與勞動者相異化、生產活動(勞動過程)與勞動者相異化、勞動者與他的類本質相異化以及人與人相異化四個方面闡釋了他的勞動異化理論。下面我們就從上述四個方面來分析馬克思勞動異化理論的具體表現。
馬克思勞動異化理論的第一個部分——勞動結果同勞動者相異化指的是物的異化,馬克思異化理論的后三個部分指的是人的異化。在馬克思勞動異化理論中,不管是勞動結果、勞動過程還是人的類本質異化都是人的“自我異化”,馬克思勞動異化理論由人的自我異化和人與人的異化兩個層面構成。馬克思把勞動異化的根源歸為私有制和機器化大生產,生產資料資本家占有,勞動者失去生產資料,機器化大生產的生產方式導致了勞動異化的出現。人類創造出機器本來是為了使人的生產和生活變得更美好,但機器卻成為了“它者”,成為了異己的力量,人類被機器控制,受機器約束。在步入AI時代的今天,AI技術讓機器取代人的勞動成為可能,如果模擬出人類智能,機器甚至將取代人的主體性地位。如果這些可能變為現實,那么人類將失去自由意志,失去幸福,AI的“利維坦”將使人類生活變成“敵托邦”。
AI是繼蒸汽機發明、電氣技術、網絡技術應用之后的第四次工業革命。蒸汽機技術的應用實現了物質的自由移動,電氣技術的應用實現了能量的自由轉換,網絡技術的應用實現了信息的自由傳遞,AI技術的發展與前三次工業革命具有同樣的顛覆性作用,它的應用促進了社會進步和人類發展,但也帶來一些意想不到的后果:越來越遠離人類的控制,也就是AI技術的異化。
AI算法是AI算法設計者的勞動產品,然而在現實中,由于研發設計AI算法的生產資料即資本并不掌握在算法設計者的手中,AI算法設計者不占有AI算法,算法設計者也沒有隨意修改或支配算法的權利,算法設計者能夠擁有的只有算法的部分使用權。算法設計者創造了AI算法,但是算法的所有權、支配權、使用權都不屬于算法設計者。AI算法與算法設計者相疏離。算法設計者設計的算法越完美,AI產品就越智能,在生活中的應用就越廣泛,就越背離它的創造者,并成為設計者的敵對力量。
隨著AI機器被廣泛地應用到人類生活的各種場景中,人的技能對生產的影響越來越小,相較于傳統的機器生產,AI機器加深了勞動異化的廣度和深度。
首先是機器取代人的危機。AI機器因其技術優勢(決策速度快、準確率高、不受環境影響等)正在人類的生產和生活中被廣泛應用。工業機器人因其高效、自動化、智能化的特點正在取代生產線上從事簡單重復性勞動的工人,便捷、快速的移動支付正在取代銀行雇員,醫療機器人正在取代醫生的診斷和治療工作,家政機器人已經登堂入室取代家政人員的工作,無人機正在取代從事危險、繁重以及瑣碎的低智能工作的“蜘蛛人”、分揀工,等等。勞動作為人的最基本的能力和權利,卻面臨著被機器剝奪的危險。人類正在逐步喪失部分勞動能力和勞動機會。
其次是機器控制人的危機。AI技術控制人的現象已悄然出現。各種智能手機和智能APP猶如“技術多巴胺”控制了部分網民的生活,AI技術像鴉片一樣讓人類癡迷,深陷其中不能自拔,“技術成癮”正在控制部分人的行為、情緒、心理、社交等。AI控制人的精神世界,讓人沉溺、上癮,大量侵占人的休閑時間,使人的精神在泛娛樂化、泛消費主義化的大眾文化中日益被物化和匱乏化,人類的精神的自由豐富性被消解。
AI機器加深了人的自我異化危機,無論是AI取代人的勞動還是控制人的心理和行為,都使人處在一種受支配的和不自由的生產關系中,在這種生產關系中,勞動是被動的、外在的,不屬于勞動者自己,并反過來控制人類自身的力量。
AI技術發展正在潛移默化地改變著人的認知方式、思維方式和生活方式,以及人類的自由勞動,人類對自然界的改造、人類精神世界的拓展以及人類能力的提升的無限可能性正在被AI技術消解和取代,面臨著主體被異化的危機。人的類本質同人相異化,智能時代的人的類本質同人的異化主要表現在以下三個方面:
首先,AI技術導致人的精神危機。隨著AI技術對于人類生活和生產的全面介入導致人的精神異化。人們獲取信息咨詢的主要渠道是通過AI算法,基于大數據的AI算法可以提供個性化服務,一方面能夠高效便捷地幫助人篩選出最優信息,滿足其個性化需要的偏好。另一方面個性化算法也容易使“信息繭房(Information Cocoons)”效應擴大,信息繭房使人囿于封閉窄化的信息環境中,加深人思想認知的片面化和單一化,使人的主體性喪失,人的自由意志被物化,人成為單向度的人。
其次,AI機器導致人的能力危機。AI機器超強計算能力、數據處理能力、邏輯分析能力和完美的記憶能力等,在節省了使用者的時間,提升勞動者效率的同時,又極大助長了勞動者的惰性,將本來屬于人的能力轉移給了機器,人只需簡單的操作就能獲取想要的結果,機器替代人做判斷、分析和決策,機器取代人類成為理性判斷和分析決策的主體,人類的學習、記憶、分析、歸納、思辨等能力逐漸被機器做取代。
再次,AI算法剝奪了人類尊嚴。人臉識別、步態識別技術能夠快速地捕捉識別人位置和信息,使人無處藏身;醫療數據、人類基因編碼讓人的身體信息赤裸裸地展示,人類正穿著“皇帝的新裝”集體裸奔,AI可以跟據人的大腦波動圖來分析和解讀人的想法和行為,人最引以為傲的理性思維能力在機器面前一覽無遺,人的尊嚴自由在智能機器面前喪失殆盡。
在AI環境下人與人的關系也發生了異化,人的交往逐漸被置于智能機器的控制下,人成為透明人。
首先,交往危機表現在交往的透明性。AI算法使得每個個體成為透明人,人類交往也變得透明,無隱私可言。家庭住址、旅游地點、收入以及其他個人的隱私等在AI時代不是隱私,AI時代的交往根據不同的利益關系形成不同的小團體,形成“網絡巴爾干(Cyber-balkanization)”維護本群體利益,過濾和抵制非本群體利益,有可能導致AI時代的群體極化行為。
其次,交往危機表現在交往的虛擬性。AI機器還正在使人喪失“現實性”。傳統意義上集中在一起的、有機的、統一性的勞動模式被消解,離群索居的“宅”生活、工作模式可能性得以彰顯。勞動者成為了機器控制下的孤立個體。
再次,交往危機表現在交往的疏離性。網絡的便捷性使人的工作時間無限地擠壓人的自由支配時間,網絡全面地支配和控制人的自由時間,使人陷入社交恐懼之中,加深了人與人間的疏離。
AI的基礎是數據、算法和算力。數據主義者認為全人類是單一的數據處理系統,一切皆數據,《未來簡史》的作者尤瓦爾·赫拉利(Y.N.Harari)認為“數據主義”盛行導致“人文主義”的崩塌,數據已經滲透到人類的生產、生活的方方面面,大數據已經撼動了世界的方方面面,從商業科技到醫療、政府、教育、經濟、人文以及社會的其他各個領域。萬物皆數據,數據經過分析和挖掘成為推動社會發展特別是經濟發展的新動力,整個社會的生產方式、經營方式、治理方式、思維方式等發生根本性改變。首先,生產數據化?;诖髷祿寗拥膫€性化算法系統被廣泛地應用到了經濟生活的各個領域,改變了企業傳統的生產、銷售模式。數據分析挖掘系統能使企業從繁雜的數據資源中洞察到消費者的真實需求,幫助企業進行有效的質量管理提升、服務改進和精準化營銷,以促進消費,提升盈利空間。大數據已經成為企業提升自身競爭力的核心要素,“數字化經濟”正在對經濟進行模式轉型。大數據在提升政府政策決策的科學性、執行的透明性、實施的有效性方面發揮了優勢作用,對完善政府權力監督,實現政府信息共享和透明提供了極大助力?!皵底只卫怼闭诔蔀檎蜕鐣墓沧R。其次,社會數據化,數字化技術的發展,整個社會正在成為以數據為支撐和鏈接的共同體。數據化社會使智能算法系統在更廣泛的領域發揮重要的作用,數據挖掘、數據洞察經由智能算法滲入到社會生活的各個場景中。數據成為可以不斷創造財富的資源,甚至成為控制社會的權力,數據搜集者通過互聯網技術等收集、積累并占有大量的數據,形成數據壟斷,用數據來獲取最大化的商業價值和利潤。大數據不但創造了經濟財富,還可以通過個性化推送干擾到國家選舉,大數據是人們獲得新的認知、創造新的價值的源泉;大數據還是改變市場、組織機構,以及政府與公眾關系的方法。不但如此,大數據的發展改變了人類的認知,之前人類通過揭示自然界的因果關系來尋找宇宙奧秘,現在人類通過大數據相關來找到事物間的關聯。數據主義以其前所未有的優勢在改變著人類關系、人與自然的關系,剝奪了人類的生存空間和自由交流,限制了人類精神的解放,導致了“技術霸權”和數據異化現象出現,數據異化必然會導致以數據為驅動的AI的異化。
人工智能主要思路是模仿人的智能和模仿人的智能控制下的行為。AI機器在行為、認知、交互等方面都表現出了明顯的類似于人的判斷力和創造性,而能動的認識和改造世界正是人的主體性之所在。智能機器的存在形式逐漸轉化成了具有主體生命結構和本質力量的某些因素,而擁有了主體的功能和屬性,表現出了明顯的主體化趨勢。機器一旦產生出和人類一樣甚至超出人類的有自主意識的思維,那么人作為主體的地位將受到嚴重的挑戰。
算法是AI的核心。算法決定了機器的性質和功能。當前,整個自然和人類社會的很多方面都被納入到了基于大數據的智能算法的控制之下,算法正在逐漸成為人類社會生活的主導性力量,“一切皆算法”“算法崇拜”等正在成為主流的認知。從微觀層面的個人生活到中觀層面的社會經濟運行再到宏觀層面的國家戰略,無不滲透著基于大數據的智能算法的痕跡,整個社會和自然界被置于智能算法的框架之下,算法高效、精準的分析挖掘數據的預測、判斷和決策能力正在重塑著人們的思維方式、行為方式和生存方式,也在重塑著整個社會的運行模式和治理模式,算法權力化成為必然。
開發AI機器的資本和技術掌握在少數人手中,資本雇傭具有算法設計能力的人為其工作,算法設計能力可以通過學習獲得,但必須要有非常強悍的數學和計算機知識,這使一些優秀的算法設計者可以優先占有更多的社會資源,將自己的智能轉化為資本,成為AI行業社會分工的上層。然而,因為算法設計的門框又非常高,大部分普通人可能終身都難以了解其運行原理,處于被動的被算法控制、操縱的社會生產生活中,“算法鴻溝”不斷加深。
算法的權利實際掌握在數據或者科技寡頭手中,并形成行業壟斷,割裂了其他企業或者資本進入該行業的途徑和機會。算法設計者可以通過對算法設計模型的選擇,引導和控制個人和群體的行為,甚至重塑他們對世界的認知,以達到最有利于自身利益的目的。算法權利因其算法霸權影響范圍日益廣泛,因算法設計者或主導者的偏好、利益訴求及“算法黑箱”而導致的算法歧視、算法不公平和算法濫用必然導致AI異化。
導致AI異化的原因是復雜的和多方面的,但其源頭在于技術理性和價值理性的背離。工具理性強調的是人類通過理性的計算而自由選擇手段的合理性和有效性,而不管目的是否恰當,工具理性只關注效率、功用、計算和手段,法蘭克福學派學者批評了馬克斯·韋伯的工具理性,工具理性導致技術理性霸權,消解了人生存的價值基礎。工具理性和技術理性成為理性的化身,知識即技術,技術的本質是工具,人類可以憑借技術依靠理性來征服和控制自然,并最終達到人類的自由和完善。馬爾庫塞認為技術理性正在轉化為技術拜物教,把科學技術作為意識形態控制人類。必須用批判理性代替技術理性。價值理性注重行為本身的價值,而非注重行為手段和結果。在價值理性中,人是終極目的,價值理性凸顯人存在的意義。隨著AI的發展,價值理性日趨缺失。技術在創造巨大的物質財富的同時,并沒有如人們所期待的那樣帶來人類的全面解放,反而使人類陷入了深刻的異化危機之中。AI機器作為人所創造的技術人造物,智能化程度越高、功用越強大,在失控的情況下對人類造成的破壞可能就越大,這種破壞反映在人身上就是使人自身異化為非人。
技術因其內在規律的不可知性,人類理性認識的有限性以及技術風險的不可預測性導致技術后果的不確定性,技術理性難以把握。1980年,科林格里奇(David Collingridge)在《技術的社會控制》中提出科林格里奇困境(Collingridge dilemma)來表明技術對人類的控制,由于技術發展不可知性導致技術失去控制,致使AI異化的本質呈現了出自身的復雜性和獨特性。
綜上所述,人工智能異化是馬克思主義異化的當代表現,我們試圖深入挖掘人工智能異化內涵的基礎是挖掘人工智能的本質,從而規范人工智能的發展。