999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能時代的社會公正風險:何種社會?哪些風險?

2023-06-10 23:41:25李猛
治理研究 2023年3期
關鍵詞:人工智能

作者簡介:李猛,政治學博士,北京外國語大學國際關系學院副教授。

基金項目:國家社科基金重大項目“人工智能倫理風險防范研究”(編號:20&ZD041)。

摘要:人工智能導致的社會風險根源于人工智能社會的不公正。為了更加全面認知人工智能的社會公正風險,需要結合馬克思主義分析人工智能時代的社會形態(tài):從“生產公正”角度看,人工智能社會是深度自動化生產的社會,這可能導致勞動向下聚集、勞動能力弱化、勞動“分體化”等生產公正風險;從“分配公正”角度看,人工智能社會是物質極大豐富但個體性、空間性、時間性分配嚴重不均的社會;從“認知公正”角度看,人工智能社會是虛擬與現實結合的社會,可能導致理性認知剝奪、自控能力剝奪、自主選擇剝奪的認知公正風險;從“發(fā)展公正”角度看,人工智能與人類社會之間的矛盾與張力,可能導致能量爭奪、權責失衡和消極反抗等發(fā)展公正問題,進而弱化社會追求公正的動力。導致人工智能社會公正風險的根本原因在于世界資源有限性與人類和人工智能需求無限性之間的矛盾、核心誘因在于人類社會固有的不公正問題、最大障礙在于現有治理手段難以直接作用于人工智能領域的責任主體。對此,需要合理劃定人工智能發(fā)展的能耗標準和比例、著力解決傳統(tǒng)社會中的不公正問題、以人的發(fā)展為目的穿透人工智能的“責任黑箱”。

關鍵詞:人工智能;生產公正;分配公正;認知公正;發(fā)展公正

中圖分類號:TP18;D616 文獻標志碼:A 文章編號:1007-9092(2023)03-0118-012

一、引言

人工智能對社會的改變不僅在于其為人類提供了更加強有力的工具,而且在于其深刻改變了人類社會的基本結構:在人類活動的物理空間(Physical Space)和社會空間(Social Space)二元空間之外,真正地構建了“第三元”的賽博空間(Cyberspace)。①三元空間結構的形成改變了之前的人與人、人與自然簡單關系,促成了人與人、人與自然、人與人工智能、人工智能與人工智能、人工智能與自然等更多維度的復雜關系。人工智能時代給人類帶來無限發(fā)展可能性的同時,也必然會重塑傳統(tǒng)的社會秩序。

對于人工智能可能導致的社會風險,相關研究有以下幾種主流觀點:一是“失業(yè)陷阱”。人工智能大規(guī)模的應用必然會取代大量的傳統(tǒng)制造業(yè)和服務業(yè)的工作崗位,只有少量最需要人文關懷能力、創(chuàng)造力或者管理能力的崗位才能保留下來。這種局面使得“所有的一切均對資本極為有利……勞動者的處境非常糟糕”大衛(wèi)·巴恩西澤、丹尼爾·巴恩西澤:《人工智能的另一面:AI時代的社會挑戰(zhàn)與解決方案》,郝英好譯,電子工業(yè)出版社2020年版,第52頁。。二是“無隱私社會”。特定主體可以利用人工智能輕松地觀察、記錄、分析甚至是操控人類的私人或者公共行為,這可能使人類徹底失去隱私和自主的權利。Stahl B.C. and David W.,“Ethics and Privacy in AI and Big Data: Implementing Responsible Research and Innovation”,IEEE Security & Privacy, vol.16,no.3(2018),pp.26-33.三是“算法黑箱”。人工智能與傳統(tǒng)的具有“價值透明”的工具不同,其存在、運行和應用的全過程都存在著“黑箱”:復雜算法編寫過程的“解釋黑箱”、深度學習過程不可避免的“技術黑箱”和利益相關者使用人工智能時的“組織黑箱”。浮婷:《算法“黑箱”與算法責任機制研究》,中國社會科學院研究生院2020年博士學位論文,第25-55頁。四是“魯棒性鴻溝”。現有人工智能還主要應用于具有較高容錯能力、規(guī)則明確的具體問題領域,當人工智能拓展到無人駕駛、醫(yī)療診斷、老人照顧、利益分配甚至是政府決策等與人類生命或根本利益密切相關的領域時,魯棒性的問題就變得極其重要。貿然將人工智能廣泛應用到人類社會必然會帶來更多不可預見的問題與風險。歐內斯特·戴維斯、蓋瑞·馬庫斯:《如何創(chuàng)造可信的AI》,龍志勇譯,浙江教育出版社2020年版,第23-25頁。

歷次工業(yè)革命的進程表明,任何革命性技術變革都會帶來正反兩方面的效果。只有對新技術的風險進行充分預判,才能更好地引導和推動新技術向著造福人類的方向發(fā)展。雖然學者們從多個角度對于人工智能的社會風險進行了深入剖析,但大多數討論都是從技術角度出發(fā)的,這導致對于風險的研判呈現碎片化。相關研究成果中不同風險之間的技術和邏輯關系并不清晰,難以透視人工智能社會產生風險問題的深層次機理。在非技術性角度,相關論述中頻率出現較高的詞匯是“平等”“公平”“公正”等,如分析人工智能的社會風險時認為“(人工智能)反過來又加大了世界的不公正……它對社會結構的打擊也是毀滅性的”Stephen H.,“This Is the Most Dangerous Time for Our Planet”,December 1, 2016, https://www.theguardian.com/commentisfree/2016/dec/01/stephen-hawking-dangerous-time-planet-inequality.。人工智能的社會風險不僅僅是技術導致的,而是與社會結構共振而產生的,人工智能加劇了社會不公正并進而誘發(fā)了一系列社會風險。因此,探究人工智能的社會風險,首先需要探究人工智能會塑造何種社會?這種社會又如何產生社會公正風險?社會公正風險如何與技術風險疊加?這正是本文要研究的核心問題。

圍繞上述問題,本文進行了以下研究設計。關于理論框架,由于人工智能社會極其復雜且處于動態(tài)發(fā)展過程中,分析該問題需要運用能夠被歷史證明的具有跨時空分析能力的理論框架,在所有的理論體系中,馬克思主義無疑是最具歷史生命力和未來預見力的范式,“從世界社會主義500年的大視野來看,我們依然處在馬克思主義所指明的歷史時代”習近平:《堅持用馬克思主義及其中國化創(chuàng)新理論武裝全黨》,《求是》,2021年第22期。。本研究將運用馬克思主義辯證唯物主義和歷史唯物主義基本原理,探討人工智能對人類社會的塑造以及潛在的社會公正風險。關于核心概念,為了更深入分析人工智能導致的社會公正風險,本文在使用馬克思主義“剝削”概念的同時,引入維托里奧·布法切描述社會非正義時使用的“剝奪”(包括分配不均、排他性和去權力化)概念,維托里奧·布法切:《社會非正義》,洪燕妮譯,江蘇人民出版社2020年版,第12頁。以此來探討人工智能社會可能導致的經濟剝削、分配不公、利益排斥、認知障礙以及受害者無力改變現狀等多重社會公正風險。關于論證結構,為了探討人類、自然、人工智能之間的多維關系,本文從四個角度對人工智能社會公正問題進行討論:在改造自然過程中由人類與人工智能關系而產生的“生產公正”問題、在成果分配過程中人類與人工智能關系而產生的“分配公正”問題、在社會認知過程中人類與人工智能之間關系構成的“認知公正”問題、在發(fā)展過程中人類社會和虛擬社會之間關系構成的“發(fā)展公正”問題。關于論證策略,由于人工智能技術專業(yè)性強且復雜多變,相關社會公正風險涉及人類生活的方方面面,很難用單一的實證方法和單一渠道的實證資料予以證明,而單純使用規(guī)范性研究方法又難以避免論證的空泛與說服力的匱乏,因此本文在對相關問題進行規(guī)范性論證的基礎上,盡可能地應用最新的案例、數據以及各個領域權威性實證研究成果予以佐證。

二、生產公正風險:深度自動生產的社會與“勞動排斥”

社會生產的公正性問題是馬克思主義公正理論的起點和最大特點。由生產力和生產關系構成的社會生產方式是決定社會形態(tài)的根本性因素,也決定著公正的內容和實質。在社會生產過程中,從事實踐活動的勞動者無疑居于主體與核心地位。“一個很明顯的而以前完全被人忽略的事實,即人們首先必須吃、喝、住、穿,就是說首先必須勞動,然后才能爭取統(tǒng)治,從事政治、宗教和哲學等等。”《馬克思恩格斯文集》第3卷,人民出版社2009年版,第459頁。勞動作為人類的本質活動,不僅塑造人本身,而且構成社會基本矛盾的核心節(jié)點,決定著社會基本形態(tài)的中心要素。各種錯綜復雜的社會矛盾和社會風險都可以從勞動的數量、結構和類型中找到答案。

在人工智能大規(guī)模應用之前的傳統(tǒng)社會,人是勞動的主體。雖然人類創(chuàng)造和使用先進工具并極大提升了社會生產力,但這些工具仍然屬于勞動資料的范疇,并不具有人類所獨有的能動性和創(chuàng)造性。然而,人工智能具有很強的自主決策能力,一定程度上具備勞動主體和勞動資料雙重屬性。換言之,人工智能不僅僅是工具,而且是勞動者,甚至在很多領域是超越人類的“超級”勞動者。以人工智能發(fā)展水平走在前列的美國為例,從事人工智能相關工作的人員約占全部就業(yè)人口的07%,但是被人工智能直接取代的勞動者數量占全部勞動人口的15%,按照這種趨勢未來高達50%的工作量會被人工智能和機器代替。James M. et al., “Jobs Lost, Jobs Gained: What the Future of Work will Mean for Jobs, Skills, and Wages”, November 28, 2017, https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages.人工智能深度運用的勞動場域不需要太多的人類勞動者就可以創(chuàng)造較高的生產價值。甚至,某種程度上人工智能可以“自主”地拓展新的勞動對象和勞動領域,而不需要人類勞動者的參與。除對勞動者工作機會的剝奪外,人工智能社會的生產公正風險更多表現為對于中高端工作的結構性替代,使勞動者的工作機會向下聚集,并進一步導致勞動能力的弱化和剝削的固化。

第一個層次的社會生產公正風險是“勞動機會向下聚集”。與傳統(tǒng)機器“向下”替代人工,但仍然創(chuàng)造較多制造、管理、協(xié)調等高技術崗位不同,人工智能對勞動者就業(yè)選擇的替代是“向上”的。除了少數“金字塔”頂端的開創(chuàng)性工作,“中端的工作因為自動化和外包不斷流失,而高端工作的增長趨勢也加速放緩”David R.,“How Technology is Destroying Jobs”,MIT Technology Review,vol.16,no.4(2013),pp.28-35.。世界經濟論壇發(fā)布的《未來就業(yè)報告(The Future of Jobs Report)》顯示,從2018年到2022年,機器的工作時長占比在多個工作領域都有了明顯增長,在搜尋與接收工作相關信息方面占比超過50%,信息與數據處理領域的機器工作占比已經達到62%。即使在人類勞動者占據獨特優(yōu)勢的復雜技術性勞動、溝通交流、推理決策等領域,人工智能和機器的工作時長占比都增長了10%左右。Centre for the New Economy and Society, The Future of Jobs Report 2018, New York:World Economic Forum Press, 2018, p.11.這種“向上”替代趨勢使許多創(chuàng)意創(chuàng)新類行業(yè)感受到極大威脅,尤其是ChatGPT和Midjourney等最新人工智能工具的開發(fā)和使用,極大加快了人類工作“向下聚集”的趨勢,比如從事對語音、語義、圖像等數據進行標注以協(xié)助人工智能進行訓練的工作。

工作機會的“向下”聚集,會引發(fā)第二層次的社會生產公正風險,即“勞動能力弱化”。勞動創(chuàng)造了人本身,靈巧的肢體、復雜的語言以及創(chuàng)造性的意識都是在復雜勞動過程中逐步發(fā)展演化的。當人類的勞動被局限在簡單、重復的輔助性勞動之中時,人類勞動就失去了挑戰(zhàn)新領域、鍛煉新技能、發(fā)展新能力的機會。而在人工智能廣泛應用的社會之中,可以預見大多數人類勞動者是處于“輔助”地位的。勞動的“目的”不是為了自身的發(fā)展,而是為了人工智能的發(fā)展和演化“投喂”數據。這是歷史上從未大規(guī)模出現過的現象,這可能會從根本上削弱人的主體性和全面性。“個人的全面性不是想象的或設想的全面性,而是他的現實聯系和觀念聯系的全面性。”《馬克思恩格斯文集》第8卷,人民出版社2009年版,第172頁。無法主動、全面地聯系現實,只能塑造出片面的和異化的勞動者,只能制造出永遠處于從屬地位和以“剝削”為合理秩序的勞動者。

前兩個風險的疊加易引發(fā)第三層社會生產公正風險,即“勞動分體化”。人工智能時代除了勞動機會和勞動結構的劇烈變化,勞動方式也發(fā)生重大變化。傳統(tǒng)工業(yè)社會的大規(guī)模的、真實的、由人類控制的勞動協(xié)作變得“虛無縹緲”,生產協(xié)作開始被平臺和算法接管。人類的勞動出現“分體化”(Dividuum)的趨勢。Raunig G., Dividuum: Machinic Capitalism and Molecular Revolution, Cambridge:MIT Press,2016,pp.11-24.與“碎片化”或者“原子化”的概念不同,“分體化”指的是勞動具有分散性和流動性雙重特征。人類的勞動不需要有固定的職業(yè)、固定的場所、固定的關系,分散的個體可以在不同職業(yè)和場域中“自由”流動。表面上看,將勞動者從封閉的空間和協(xié)作關系中“解構”是人類自由的極大拓展,但從深層次講,勞動的“分體化”使得背后掌控的資本不僅不用負擔傳統(tǒng)勞動所需要支付的社會保障、辦公場所、組織建設、員工培訓等費用,而且可以利用工作機會減少和向下聚集的態(tài)勢,通過競賽算法和激勵算法使勞動者為了獲得少量的勞動機會和“超額”的勞動報酬而進行“探底競爭”。勞動者的工作時長不斷增加,而勞動者的勞動技能和組織能力則會不斷削弱,而最終的后果就是對于勞動價值更加徹底的壓榨和剝削。

三、分配公正風險:物質極大豐富的社會與“分配不均”

分配公正問題是公正理論的核心議題。馬克思主義分配理論明確指出,生產方式的變革和生產關系的調整決定著分配公正的內容和實質。從學術史看,歷次生產力的重大變革都帶來了分配公正問題討論的高峰。和歷次產業(yè)革命一樣,人工智能的普及和應用必然會極大提升社會的生產效率和生產力水平。大部分學者都認可未來的社會將是一個物質總量極大豐富的社會。但與人工智能社會快速的生產力調整相比,生產資料所有關系、產品的分配關系等生產關系構成要素卻呈現出滯后的發(fā)展趨勢。這導致未來社會的物質雖然極大豐富,但是產品的占有和分配卻可能呈現出更加不公正的態(tài)勢。“數量稀缺的高技能人才正日益為特殊利益階層帶來利益,尤其是資本所有者和控制者,大多數群體則被排除在人工智能/機器人技術所產生的經濟利益和財富之外。”大衛(wèi)·巴恩西澤、丹尼爾·巴恩西澤:《人工智能的另一面:AI時代的社會挑戰(zhàn)與解決方案》,郝英好譯,電子工業(yè)出版社2020年版,第10頁。并且,經濟成果的“分配不均”還不能完全概括人工智能社會在社會分配方面的公正風險。與傳統(tǒng)社會中的土地、廠房、機器和設備等物質形態(tài)的生產資料相比,互聯網數據、圖文、人的動作、圖書館的書籍、大自然的變化等所有可以數據化的事物都是人工智能社會重要的生產資料,而這些生產資料的歸屬權和收益權并沒有明確的規(guī)定。在觀念和制度的真空中蘊藏巨大的利益,這就導致人工智能時代存在諸多隱性的“分配不均”風險。

第一類社會分配公正風險是“個體性分配不均”。在人工智能時代,人類個體作為生產者、生產資料占有者、消費者的身份邊界日益模糊,三重身份的重疊制造了大量的模糊地帶,這為新類型的剝削創(chuàng)造了巨大空間。首先,“個體分配不均”表現為對數字生產者的剝削。因低廉的生產成本和海量的受眾,數字雇員創(chuàng)造的數字類產品剩余價值遠超傳統(tǒng)工業(yè)時代勞動者的勞動剩余價值,其受到剝削的程度也遠高于傳統(tǒng)資本主義社會。雖然數字生產者表面上享有超過社會平均工資的薪資水平,但是較高的薪資和激烈的競爭也使得勞動者更加難以意識到剝削的存在。以數字類工作最為集中的美國硅谷為例,雖然2021年全美貧富差距縮小了約3%,但硅谷地區(qū)的貧富差距卻擴大了5%;硅谷8位富豪的財富超過了硅谷底層50%家庭財富的總和。Joint Venture Silicon Valley, Silicon Valley Index 2022, San Jose: Silicon Valley Institute for Regional Studies,2022,pp.8-32.其次,“個體性分配不均”表現為對數據資料所有者的剝削。理論上,每個人都對自己生產的數據擁有所有權。但在現實中,許多互聯網平臺和人工智能公司占有并使用了這些生產資料卻沒有對所有者付費。作為數據所有者的個人往往也沒有意識和能力主張數據的所有權。莫里齊奧·費拉里斯(Maurizio Ferraris)分析了其中的原因:“現在我們不知道該如何使用這些文檔,如果沒有大型互聯網公司的話,這些文檔根本不會被收集起來。但是,如果沒有我們,這些文檔確實也不會存在。”莫里齊奧·費拉里斯:《文檔媒介資本》,沈天乙譯,《國外理論動態(tài)》,2020年第1期。正是這種對于個體生產資料占有權的剝奪和無償占有使得數字資本獲得遠超傳統(tǒng)工業(yè)資本和金融資本的高額利潤。最后,“個體性分配不均”表現為對數據消費者的剝削。信息時代的壟斷效應使得互聯網平臺往往以寡頭的形式存在,消費者長期使用固定的互聯網平臺,使個人信息、社交網絡、交易行為、工作交流、休閑娛樂等更多的數據被平臺無償使用,最終形成精確的用戶畫像。個體產生的數據在被轉化之后又以高于市場的價格售賣給消費者。

第二類社會分配公正風險是“空間性分配不均”。表面上看,人工智能時代的特征是“去中心化”,但是現實中的算法、算力和算據都是高度集中的。以人工智能發(fā)展所必需的數據中心為例,美國以2701家處于絕對領先的地位,超過了之后8個國家的總和;世界上80%以上的數據中心位于G7國家;數據中心相對獨立的發(fā)展中國家只有中國與俄羅斯。Petroc T., “Number of Data Centers Worldwide 2022”,February 10,2023, https://www.statista.com/statistics/1228433/data-centers-worldwide-by-country/.當今世界的人工智能往往聚集在個別發(fā)達國家、個別城市和個別大型科技公司,而其他絕大部分空間都會被排除在人工智能發(fā)展的紅利之外。少數人工智能“高地”所依賴的數據、使用的能源以及需要的人才是大多數地區(qū)的分散主體創(chuàng)造的,這就形成了算法、算力、算據高度集中與數據、能源、人才的相對分散之間的空間性矛盾,并可能制造巨大的社會不公正風險。首先,是數據的“空間性分配不均”。正如生產數據的個體并不享有數據的所有權和收益權,生產數據的絕大多數空間亦不能從中獲得稅收或者財政收入。數據資源的價值被持續(xù)性“掠奪”必然會限制人工智能相對落后區(qū)域的發(fā)展?jié)摿桶l(fā)展機會。其次,是能源的“空間性分配不均”。人工智能的運算和散熱需要巨大的外部能量來維持。雖然區(qū)域之間的能量是以市場價格進行交易的,但是作為初級產品的能源和作為高級產品的人工智能服務之間必然形成巨大的“剪刀差”。尤其是在可再生能源無法在能源結構中占據核心地位的當下,能源的開發(fā)和使用不可避免產生相應的污染物。能源交易價格中往往不包含環(huán)境治理所需要的巨大成本,這些有害物質更多是聚集在人工智能不發(fā)達的空間,這也將進一步導致災害、疾病、死亡的不公平性空間聚集。最后,是人才的“空間性分配不均”。人才是人工智能社會最重要的戰(zhàn)略資源。人才的培養(yǎng)是一個長期的過程,成本往往是由人口流出地承擔,人口流入地并不會對這部分支出付費。此種局面長期發(fā)展下去就會導致人工智能落后區(qū)域不僅人才不斷流失,而且無法可持續(xù)地培養(yǎng)本區(qū)域發(fā)展所需要的人才。一旦上述空間不均衡的態(tài)勢固化,就會使破壞性力量在劣勢空間聚集,不僅“摧毀了先前的制度框架和力量(甚至挑戰(zhàn)了傳統(tǒng)的國家主權形式),而且摧毀了勞動分工、社會關系、福利供給、技術混合、生活方式和思考方式、再生產活動、土地歸屬和情感習性”大衛(wèi)·哈維:《新自由主義簡史》,王欽譯,上海譯文出版社2010 年版,第3頁。。

第三類社會分配公正風險是“時間性分配不均”。人工智能的快速發(fā)展是在低成本甚至零成本的前提下,盡可能壓榨有限的時間資源。與其他資源的相對無限性而言,對人類而言所擁有時間資源的約束是剛性的。從個體角度看,人工智能對于時間的壓榨是具有隱蔽性和成癮性的。根據We Are Social和Hootsuite合作發(fā)布的2022年全球數字報告,We are social & hootsuite,“DIGITAL 2022:

ANOTHER YEAR OF BUMPER GROWTH”,January 26,2022, https://wearesocial.com/us/blog/2022/01/digital-2022-another-year-of-bumper-growth-2/.互聯網用戶每日平均使用時長為6小時58分,其中視頻瀏覽3小時20分,社交媒體使用時間2小時27分。上述數據每年都在增長。個體時間大量消耗在網絡數據平臺,這種無意識的時間貢獻不利于個體的發(fā)展乃至群體的進步。從人類歷史長河來看,人工智能的快速發(fā)展離不開其對人類文明積累的大量數據財富的無償使用。比如,谷歌翻譯系統(tǒng)為了訓練人工智能,它會尋找人類歷史上已經翻譯的各種書籍和文件,而谷歌公司并沒有對這些歷史性資源支付費用。人工智能對人類歷史資源的無限度開發(fā)產生的所有利益更多是被人工智能平臺所占據,這對于歷史資源的創(chuàng)造主體而言顯然是不公正的。最終對歷史時間的掠奪和對當前時間的壓榨不斷促成對未來社會發(fā)展分配的不公正。

四、認知公正風險:虛擬與現實結合的社會與“認知剝奪”

作為人類主體性的基礎,理性認知一直與公正問題密切關聯。“認知活動是人類社會生活的重要內容,人類社會的發(fā)展以及實踐活動的進行很大程度上依靠知識的創(chuàng)造、傳遞與積累。”白惠仁、高宇航:《認知非正義的概念邊界》,《自然辯證法研究》,2022年第5期。而“認知不公正(Epistemic Injustice)”是指在某種認知壓迫下,特定群體被排斥在認知活動之外,成為認知弱勢群體,甚至認知身份被剝奪。Fricker M., Epistemic Injustice: Power and the Ethics of Knowing, Oxford: Oxford University Press,2007,p.4.在傳統(tǒng)社會,認知不公正的演化是緩慢的、間接的,往往經由長時間差異化的教育、文化、群體認知、社會交往等形成。人工智能的發(fā)展加速了認知不公正的發(fā)展。當前,人們的認知越來越依賴互聯網絡,廣泛進行數字化的“虛擬”生產、生活和社會交往。傳統(tǒng)真實的、完整的、親密的認知模式被數字技術解構與重構,虛擬的、碎片的、疏離的數字化認知開始成為人類認知的組成部分。虛擬化的加速發(fā)展打破了人類認知中的理性和自主性,人與環(huán)境的失調導致新型社會不公正的滋生。

其一,“理性認知剝奪”的社會認知公正風險。在人工智能技術的幫助下,海量的文字、圖片、視頻被制造出來,人們可以以一種“低耗能”的新的數字化的腦回路掃描、搜索、快速滾動、上下滑動等方式快速地瀏覽信息。這種替代性的閱讀方式正在與傳統(tǒng)深度閱讀過程中的腦回路展開競爭,人類越來越習慣于碎片化、直覺化、即時化的思考和認知方式,尤其是成長發(fā)育期的青少年。脫離現實社交的網絡虛擬社交通過基于用戶喜好的算法為青少年大量“投喂”不受自己控制的虛擬社交關系,使其在極端快樂和沮喪的情緒中不斷切換,并導致焦慮、抑郁、孤獨、注意力缺陷、多動障礙等癥狀,極大傷害青少年的理性思考和正確認知。Dubicka B., Martin J. and Firth J.,“Screen Time, Social Media and Developing Brains: A Cause for Good or Corrupting Young Minds?”, Child and Adolescent Mental Health, vol.24,no.3(2019), pp.203-204. 如果不加以科學合理的規(guī)制,長此以往,深度和理性的思考將屬于少數人,越來越多的人會淪為認知弱勢群體。

其二,“自控能力剝奪”的社會認知公正風險。對人類認知最直接、破壞力最強的剝奪形式是“成癮”。有研究發(fā)現基于人工智能創(chuàng)造的電子產品具有類似毒品的效果,Berthon P., Pitt L. and Campbell C.,“Addictive Devices: A Public Policy Analysis of Sources and Solutions to Digital Addiction”,Journal of Public Policy & Marketing, vol.38,no.4 (2019),pp.451-468.如很多軟件中設置的“向下滑動”功能與拉動老虎機杠桿的動作十分類似,其模擬了老虎機上的間歇性獎勵模式,而以老虎機為代表的賭博是《精神疾病診斷與統(tǒng)計手冊(第五版)》(DSM-5)目前唯一確認到的行為成癮。當前,虛擬現實(VR)和增強現實(AR)等技術的發(fā)展,為完全虛擬的“元宇宙”的發(fā)展創(chuàng)造了技術基礎。人工智能技術與“元宇宙”技術相結合,可以利用快速反饋、未知驚喜、視覺占據等方式向特定主體定向“投喂”其希望接受的信息,以此對大腦神經進行不間斷的刺激,構建多巴胺回路的反饋機制,使人們享受體內激素帶來的愉悅而無法自控。當人類視覺、聽覺、味覺、觸覺等感官都被電子設備占據,任何現實世界中無法實現的夢想都可以在虛擬世界輕易滿足時,很少有人能夠自我控制,抗拒這種精心針對人類認知設計的“毒品”。尤其是當人工智能技術帶來上文述及的大規(guī)模失業(yè)問題時,成癮性問題將會更加難以控制。

其三,“自主選擇剝奪”的社會認知公正風險。人工智能可以基于大數據分析在特定情境下做出最優(yōu)決策。這種人工智能技術下的決策選擇在很多領域和場景中削弱了人類基于傳統(tǒng)經驗或范式形成的自主選擇權。更有甚者,不當的人工智能技術可以編造虛假信息,并通過虛假引用和反復引用等方式嵌入到人類的認知體系,進而干擾人類的自主選擇。有研究指出,以ChatGPT為代表的大型通用語言模型在法律、政策、財經甚至醫(yī)療等專業(yè)領域的回答中大量編造并不存在的參考文獻,并提供拼接的虛假信息。Thorp H. H., “ChatGPT is Fun, But Not an Author”, Science, vol.379, no.6630 (2023), p.313.這些形真實假的信息對于非專業(yè)人士而言很難辨認,并有很大概率被當成正確信息嵌入至人類認知中。“自主選擇權剝奪”的影響也會進一步蔓延至事關公共利益的政治選擇,如著名的“劍橋分析”丑聞。Hu M., “Cambridge Analyticas Black Box”, Big Data & Society, ?vol.7, no.2(2020),pp.1-6. 另外,“自主選擇權剝奪”還表現為占據“公共理性”。《自然·通信》雜志發(fā)表的一篇基于跨越數十年的多領域的縱向數據集表明:針對公眾認知,特定主體可以利用人工智能技術在短時間內制造大量的特定內容,通過無差別覆蓋的方式填滿公眾的認知過程,導致單個主題的社會關注時間持續(xù)縮短。Lorenz-Spreen P. et al., “Accelerating Dynamics of Collective Attention”, Nature communications, vol.10, no.1(2019), pp.1-9.在這種人工塑造的加速節(jié)奏中,公眾無法選擇議題,也無法就任何重要公共議題進行長時間、有效的討論。占社會大多數的公眾作為一個整體被排斥在認知活動之外,公共理性也因此被消解。

五、發(fā)展公正風險:矛盾主體虛化的社會與“公正停滯”

傳統(tǒng)的發(fā)展公正問題默認探討的場域是在人類社會內部個體或者群體圍繞某種“資源”的平等或者公平問題展開。人工智能的發(fā)展使得“獨立”于人類現實社會的“虛擬社會”加速形成,從結構上改變了公正探討的場域。人類社會希望依靠“虛擬社會”提升生產效率和拓展生存方式;而人工智能社會需要來自現實社會的能源、數據和其他資源。在當前有限能源的約束下,虛擬社會對于能源以及由此衍生出的其他資源的占用,必然會擠占現實社會發(fā)展所需要的資源。尤其是當虛擬社會無法兌現對于現實社會的發(fā)展承諾時,兩者之間的“發(fā)展公正”風險便成為人類必須直面的問題。

首先,是人工智能與人類社會“能量爭奪”導致的發(fā)展不公正風險。迄今為止人類文明所有的發(fā)展都基于對能量的開發(fā)和利用。瓦茨拉夫·斯米爾:《能量與文明》,李竹譯,九州出版社2021年版,第2頁。從采集植物和狩獵動物獲得能量的原始社會,到種植作物和利用畜力獲得能量的農業(yè)革命,再到大規(guī)模開采利用化石燃料獲得能量的工業(yè)革命,人類文明的每一次飛躍都與能量開發(fā)規(guī)模與效率的大幅提升密切相關。在可控核聚變還難以實現的背景下,以人工智能為代表的新工業(yè)革命并沒有實現能量利用方式的革命性發(fā)展。由太陽能量長期貯存而形成的化石能源和太陽能量斷續(xù)收集而形成的“新能源”仍然是人工智能社會的主要能量來源。而人工智能是典型的能量密集型的產業(yè),其訓練、推理、存儲、演化以及附屬的物聯網和其他硬件的運行均需要消耗巨大的能量。由于現階段的人工智能主要建立在不斷增加變量的“暴力計算”基礎之上,加之計算機硬件逐漸逼近摩爾定律的極限,人工智能的能耗在未來可能會呈現出幾何級增長,而人類社會能量的總量又不會在短時間內大幅增加。這種矛盾化的發(fā)展局面可能導致人工智能與人類社會競爭能源的情況:人工智能的發(fā)展速度越快,其所占有的能量比例就越高,而人類現實社會占用的比例就越少。人工智能與人類社會“能量爭奪”又會傳導至人類社會內部,激化本來就已經存在的發(fā)達國家和發(fā)展中國家、城市與鄉(xiāng)村、富人與窮人以及不同行業(yè)之間的能量分配不公正問題。

其次,是人工智能與人類社會“權責失衡”導致的發(fā)展不公正風險。雖然不同文明在不同歷史階段闡釋和實踐的權責體系并不相同,但是人類文明的基本共識是:如果特定社會主體享有的權利大于其承擔的責任,那么這種社會類型則被認為是不公正的和需要進行改造的。張賢明:《政治責任的邏輯與實現》,《政治學研究》,2003年第4期。在傳統(tǒng)的人類社會,權責體系中的漏洞和缺陷往往是具象的、可感知的,因此對其批判和改造亦有明確的訴求和目標。隨著人工智能社會的加速形成,傳統(tǒng)的權責體系開始被解構。在人工智能社會,權責體系是虛擬的、流動的,難以被清晰地感知、量化和判定,不僅人工智能的擁有者、操控者、使用者等身份很難清晰地界定,而且人工智能本身是否應該以及如何承擔主體責任也是棘手難題。人工智能在占有大量資源的同時難以讓其承擔與之對等的責任,甚至被作為免除責任或者推諉責任的工具。例如,針對人工智能領域的侵權、傷害和其他責任案件頻發(fā),歐盟計劃于2023年3月底通過《人工智能法案》。從現在的情況看,這一法案的出臺仍然遙遙無期。注:截至2023年4月22日,該法案仍未出臺。當下對于人工智能的定義就有50多種,更遑論“高風險” 的定義、合規(guī)責任的分擔、監(jiān)督權力的分配、實施機構的設置等一系列無法調和的難題。金玲:《全球首部人工智能立法:創(chuàng)新和規(guī)范之間的艱難平衡》,《人民論壇》,2022年第4期。何況,即使通過了對于人工智能的立法,這些法律也無法真正穿透虛擬與現實之間的模糊但又難以逾越的界限。

最后,是人類社會對人工智能的“消極反抗”導致的發(fā)展不公正風險。面對社會不公正問題,除了漸進的改良和改革,革命是實現社會公正的決定性環(huán)節(jié),“是被壓迫者和被剝削者的盛大節(jié)日”《列寧選集》第1卷,人民出版社2012年版,第616頁。。根據馬克思主義基本理論,革命的發(fā)生需要具備三個重要條件:一是生存困境;二是人民群眾的革命覺悟;三是革命組織和革命理論。《列寧選集》第4卷,人民出版社2012年版,第193頁。人工智能社會在很大程度上削弱了革命發(fā)生的所有條件:人工智能社會是高度不平等但相對富裕的社會,大部分人不會面臨傳統(tǒng)社會因為饑餓或者寒冷導致的生存困境;人工智能作為虛擬與現實結合的社會,大量沉迷于虛擬世界的民眾并沒有堅定的革命意識和犧牲精神;責任主體虛擬化的社會使得社會性批判和改革缺乏有效的目標和工具。當然,沒有革命并不意味著沒有反抗,人工智能社會已經呈現出“消極化”的趨勢,其最典型的方式就是“躺平”。大量的群體出現不工作、不消費、不納稅、不遠行、不交往、不生育、不沖突、不抗爭等消極行為,如日本的“低欲望社會”、美國的“歸巢族”(Boomerang Kids)、英國的“尼特族”(NEET,Not in Education,Employment or Training)。這種消極現象在全球范圍內迅速蔓延,這一群體在歐盟15-29歲人群中平均占比超過13%,而意大利的比例則高達231%。Eurostat,“Statistics on Young People Neither in Employment Nor in Education or Training”,May 26, 2022,https://ec.europa.eu/eurostat/statistics-explained/index.php?title=Statistics_on_young_people_neither_in_employment_nor_in_education_or_training.人工智能帶來的很可能是一個“無革命”的社會,不公正的社會關系難以被摧毀,這可能是人工智能社會存在的最大公正風險。

六、結論與討論

人工智能導致的“失業(yè)陷阱”“無隱私社會”“算法黑箱”“魯棒性鴻溝”等社會風險都根源于人工智能社會的不公正。概括來看,未來人工智能的社會公正風險可能主要包括:從“生產公正”角度看,勞動者從歷史的主體地位退化為從屬地位并永久固化。從“分配公正”角度看,人工智能社會物質產品總量會更加豐富,但分配差距很可能達到歷史的頂點。從“認知公正”角度看,人工智能社會的虛擬空間深刻嵌入物理空間,可能會使大部分群體被排除在理性認知之外。從“發(fā)展公正”角度看,人工智能社會可能會過度汲取人類社會資源而不承擔相應責任,并進一步導致人類社會追求公正的動力逐步弱化。通過初窺人工智能社會公正風險的一角,可以發(fā)現其癥結所在,并為風險防范提供了基本思路。

其一,導致人工智能社會“公正風險”的核心矛盾在于當今世界資源有限性與人類和人工智能需求無限性之間的矛盾。客觀而言,與約一萬年前的農業(yè)革命以及二百多年前的工業(yè)革命相比,以人工智能技術為代表的“第四次工業(yè)革命”并沒有實現能源利用、生產方式和生存場域的實質性拓展。在資源總量有限性的約束下,很可能導致文中提及的人工智能與人類爭奪勞動機會、生產成果、認知資源和發(fā)展機會等的“公正風險”。因此,化解人工智能社會公正風險的關鍵在于以下幾點:首先,大力推進在能量探測、開發(fā)、收集、存儲、轉換等領域的人工智能技術,增加能源的總量和能源的使用效率,提升人工智能時代能源約束的上限;其次,主動利用人工智能技術拓展人類生產和生活的場域,比如對荒漠、海洋、太空等空間的大規(guī)模開發(fā)和利用,通過外向型發(fā)展避免人工智能社會的“內卷”;再次,將能效作為人工智能技術發(fā)展的重要約束,避免單方面追求模型規(guī)模和精度導致的能量過度消耗;最后,在通過人工智能技術降低人類社會能耗的同時,合理劃定人工智能消耗能量占全部能量的比重,保證人類社會發(fā)展所需要的基本能量。

其二,激發(fā)人工智能社會“公正風險”的核心誘因在于人類社會本身固有的社會不公正問題。在強人工智能尚未出現的當下,弱人工智能的工具性大于其自主性。人工智能導致的社會公正風險更多是對現有社會公正問題的映射和放大。因此,化解人工智能社會“公正風險”的關鍵在于解決傳統(tǒng)社會中的不公正問題,尤其要解決在生產資料占有、生產成果分配、認知能力發(fā)展等方面在時間、空間和數量上的不公正。具體而言:從生產公正角度看,應該利用人工智能的發(fā)展成果不斷提升勞動者的素質和能力,使勞動者能夠主動駕馭人工智能技術,實現人工智能與人類勞動者的共同成長;從分配公正角度看,應該明確人類個體和集體產生數據的生產資料屬性,使行為數據、情感數據、歷史數據、空間數據等參與到分配過程之中,通過數據“轉移支付”的方式對于人工智能社會的弱勢主體和空間進行補償;從認知公正角度看,應該通過教育方式提升個體的理性認知水平,同時加強對人工智能技術在宣傳、傳播、科研、娛樂等領域應用的監(jiān)管,及時化解人工智能對于理性認知的破壞隱患,及時清理虛假和錯誤的信息,及時制止部分主體利用人工智能技術誤導公共認知的不法行為;從發(fā)展公正角度看,應該強化人工智能的公共屬性,推動不同類別人工智能成為其發(fā)揮作用領域的公共產品,避免復雜利益結構導致的權責失衡。

其三,降低人工智能社會“公正風險”的核心障礙在于現有治理手段難以直接作用于人工智能領域的責任主體。人工智能技術與傳統(tǒng)技術的區(qū)別在于,其運行過程中存在難以穿透的算法黑箱、過程黑箱和決策黑箱。受益者可以躲在人工智能技術的黑箱中,以“技術中立”“技術責任”的名義在享有超額收益的同時規(guī)避應當承擔的公共責任和法律責任。其實,相對于人工智能不斷利用算法增加變量的邏輯,人類獨有的能力是對紛繁復雜關系的簡化。穿透人工智能的責任黑箱,一方面需要應用最新的技術手段,另一方面更應該回到人類社會的主體和發(fā)展目的,即人的發(fā)展。人工智能社會的公正需要尊重人的主體地位,以人民的各項權利界定人工智能及其開發(fā)者和應用者的責任,以人的全面發(fā)展劃定人工智能發(fā)展的邊界,以人的全面自由解放確立人工智能技術的發(fā)展方向。

(責任編輯:游 姣)

猜你喜歡
人工智能
我校新增“人工智能”本科專業(yè)
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業(yè)
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統(tǒng)自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 国产亚洲精品无码专| 色爽网免费视频| 麻豆国产原创视频在线播放 | 在线国产欧美| 97在线免费| 波多野结衣中文字幕一区二区| 亚洲精品动漫| 久久国产精品国产自线拍| 中文字幕不卡免费高清视频| 怡春院欧美一区二区三区免费| 国产高潮流白浆视频| 亚洲浓毛av| 亚洲欧美在线看片AI| 91蝌蚪视频在线观看| 无码又爽又刺激的高潮视频| 国产香蕉在线视频| 久久人人妻人人爽人人卡片av| 亚洲美女久久| 国产精品无码影视久久久久久久| 国产熟睡乱子伦视频网站| 一区二区偷拍美女撒尿视频| 热九九精品| 亚洲aaa视频| 精品福利一区二区免费视频| 毛片手机在线看| 国产欧美视频在线观看| 丰满的熟女一区二区三区l| 午夜高清国产拍精品| 国产男女免费完整版视频| 澳门av无码| 波多野结衣一区二区三区四区视频| 亚洲精品久综合蜜| 中文字幕亚洲无线码一区女同| 亚洲成人免费看| 色综合天天操| 特黄日韩免费一区二区三区| A级毛片无码久久精品免费| 玖玖精品视频在线观看| 国产精品尤物铁牛tv| 无码啪啪精品天堂浪潮av| 免费看一级毛片波多结衣| 精品91在线| 欧美自拍另类欧美综合图区| 欧美激情伊人| h网址在线观看| 日韩精品无码免费一区二区三区 | 亚洲精品无码高潮喷水A| 毛片网站在线播放| 久久久久青草线综合超碰| 日韩国产 在线| 丁香婷婷激情网| 精品国产中文一级毛片在线看| 亚洲国产日韩视频观看| 99视频免费观看| 久久久久久久蜜桃| 91原创视频在线| 在线观看国产精品日本不卡网| 成人免费午间影院在线观看| 亚洲中久无码永久在线观看软件| 久久亚洲日本不卡一区二区| 国产一区二区色淫影院| 凹凸精品免费精品视频| 欧美亚洲国产精品久久蜜芽| 欧美精品成人| 欧美无遮挡国产欧美另类| 国产精品美女网站| 国产美女91呻吟求| 精品久久久无码专区中文字幕| 99精品福利视频| 亚洲性一区| 欧日韩在线不卡视频| 不卡无码h在线观看| 国产一区在线观看无码| 91视频日本| 少妇极品熟妇人妻专区视频| 青青青国产视频手机| 精品视频第一页| 亚洲精品第一在线观看视频| 成·人免费午夜无码视频在线观看| 精品成人免费自拍视频| 亚洲日韩精品伊甸| 日本在线免费网站|