楊雙彪
摘 要:人工智能作為以算法為核心、模擬人類活動的智能機器,它的迅速發展在推動社會進步、促進人類解放的同時,也引發了一系列的倫理風險挑戰,即人的主體性消解、人的意志遭受侵犯和責任歸屬認定困境。對此,規避人工智能所帶來的倫理風險,必須遵循馬克思主義科技觀引導、提高社會科技倫理水平、構建人工智能監督體系、健全人工智能法律規范,從而確保人工智能為人類服務、最大限度地促進人的自由全面發展。
關鍵詞:人工智能;倫理風險;馬克思主義科技觀
中圖分類號:B82-057文獻標識碼:A 文章編號:1009 — 2234(2023)06 — 0052 — 05
近年來,人工智能得到迅速發展,特別是自動駕駛、AI繪畫等產品的廣泛應用,無不說明人工智能時代已經到來。但人工智能在解構傳統倫理關系的過程中,也帶來了新的倫理矛盾,在這樣的情況下,如何使人工智能達到技術進步與倫理治理的平衡,成為當今社會所不可回避的重大課題。基于此,本文主要聚焦人工智能當前面臨的倫理困境,在描繪人工智能時代鏡像的基礎上、探討人工智能倫理困境的多維表現、進而提出解決倫理困境的規避進路。
一、人工智能倫理困境的時代鏡像
以算法為核心的人工智能通過對人類思維過程的模擬,在推理、判斷等方面表現的越來越類人化,甚至在某些領域已經超越人類。人工智能的發展促進了生產力的提高,給予人類更多自由時間,有效促進了人類的自由全面發展。但在實踐活動中越來越相對獨立的人工智能,對人類主體性地位也提出了嚴峻挑戰。
(一)智能機器的類人摹效
人工智能是以互聯網信息技術為基礎,以基于具有強大數據采集分析能力的算法為核心,以對人類思維過程的模仿和超越為目標的現代科學技術。通過對其智能化水平的劃分,主要分為“弱人工智能”和“強人工智能”。目前我們普遍使用的人工智能都是“弱人工智能”,即僅讓機器擁有某種智能行為。而“強人工智能”,則是指能夠通過深度學習,產生脫離程序具有獨立意志的智能機器,此時的人工智能已經超出機器的界限,其行為不再是人類意志的延伸,而是能夠自主做出決策并實施的“類人”。需要指出的是,無論是“弱人工智能”還是“強人工智能”,都能夠在一定意義上發起具體的社會實踐活動[1],并在實踐過程中根據需要做出調整。從這個意義上說,人工智能與人類社會中傳統的機器已經截然不同。
特別是隨著大數據算力的提升和深度學習算法的改進,人工智能展現出了與人類高度相近的認知能
力、邏輯能力甚至情感能力。具體來說,人工智能不僅可以分析數據、協助人類進行決策,還能夠進行藝術創作這種人類獨有的實踐活動,事實上,人工智能顯然對傳統的機器概念進行了消解。馬克思認為,生產形式在機器出現后的最大改變就是人類不再參與特定的生產過程,而只是“站在機器旁邊”監督機器的運行,把人類對商品的生產過程轉化為對機器的操作過程。而人工智能通過復雜的數據網絡模擬人的行為模式和思維方式,使機器也擁有“類人”的智能,在生產過程中不僅增加了勞動者的剩余勞動時間,還在一定程度上取代了人類勞動,將人從重復、繁重的體力勞動和腦力勞動中解放出來,促進人的自由全面發展。但需要指出的是,新技術的發展大多具有復雜性和不確定性,人工智能在推動社會進步的同時,也不可避免地引發了各種不良后果,如何確保人工智能向善發展,成為當前擺在人類面前的重要課題。
(二)科技發展視域下人的解放
“人”是馬克思一切思想批判的核心問題,實現人的自由全面發展也是馬克思主義的根本追求。科學技術作為一種革命性的力量,每一次的技術進步都會促進人的解放和社會的發展,而人工智能在生產生活中的廣泛應用,使人的自由全面發展有了現實可能性。首先,人工智能使人的勞動由異化轉向自由自覺。勞動是人的存在方式,也是人的基本權利,但在很多時候勞動也是一種沉重的負擔,甚至勞動者的艱辛勞動不僅得不到財富,反而會加深勞動者自身的貧窮,這就是勞動的異化。馬克思認為“‘勞動,按其本質來說,是非自由的、非人的、非社會的。”[2]因此“只要肉體的強制或其他強制已停止,人們就會像逃避瘟疫一樣逃避勞動。”[3]但是隨著人工智能代替人類從事體力和腦力勞動,人類逐漸擺脫勞動的束縛,有更多的時間自由自覺地從事更能體現人類價值的其它活動。
其次,人工智能推動社會生產力的提高。正如馬克思所言,“手推磨產生的是封建主的社會,蒸汽磨產生的是工業資本家的社會”[4]142。人工智能自誕生以來就通過變革生產方式、降低生產成本和提高勞動生產率等方式,促使生產力落后的傳統企業改造升級,促進社會生產力的普遍提高。人工智能在發展生產力的過程中與生產資料相結合,提高社會生產效率從而顯著增加了勞動者的自由支配時間。人工智能與勞動對象相結合,變革了以往嚴格繁重的生產模式,可以面對生產過程中各類變化隨時調整,有效提高勞動生產率水平特別是勞動者的安全水平。最后,人工智能創造出更多的自由時間。勞動實踐活動在人工智能時代變得更加自動化和智能化,以往重復且繁重的工作被大量的智能機器所取代,使社會能夠在更短的時間內生產出更多的物質財富,有效縮短了人們生產必要物質資料的時間,在此基礎上,人類所能夠支配的自由時間大大增加,從而使人們擁有更多的時間和機會去實現人的全面發展。[5]
(三)實踐向度的主體性思考
人工智能以互聯網大數據為載體并通過復雜算法的運算,獲得了人所特有的一些基本特征,在推理、思考等方面表現得越來越像人,傳統的人機界限不斷被模糊化,特別是人形機器人的不斷突破,對“人”的概念提出了嚴峻挑戰。在這個意義上,主體還是不是人類的專屬,或者說人工智能是否可以在哲學層面被認為與人類等同的“主體”,成為當前對人類主體性哲學思考的當務之急。
馬克思認為“同活動對象的客體相反,主體是活動的承擔者和執行者”。[12]在馬克思看來,現實的實踐活動是確立主體性的根本原則,[1]人類正是通過實踐活動奠定了全部社會生活和人類歷史的基礎。在實踐中,人將自己的活動與意識相分離,使意識不僅成為自身的一部分,還可以審視自身的活動。也就是說,意識作為人主體性的重要特征,不僅能夠直觀反映人的實踐活動,還具有相對獨立性,可以審視甚至規劃人的實踐活動。從而引出馬克思對主體的另一規定性,即主體能夠進行主觀能動的創造性活動,主體所從事的實踐活動并不只是依靠本能,而是擁有明確的目的性和計劃性,并且主體能夠根據實踐的需要制作和使用工具,這也是人之為人的本質特征。
隨著人工智能技術的突飛猛進和廣泛應用,越來越多的智能系統從事著各種勞動任務,我們甚至可以說,這些人工智能系統就是為了代替人類勞動而產生的。特別是隨著近些年計算機算法和深度學習技術的突破,人工智能不僅能夠根據人類編制的算法進行生產勞動,還可以根據需要“制造和使用生產工具”,盡管當前的人工智能制造和使用生產工具還比較初級,主要還是通過受人驅使的方式進行數據的采集和程序的編寫。在這樣的情況下,勞動實踐還是不是人的專屬活動,就值得我們進一步反思和追問了。但是明確的是,人的唯一主體地位正被人工智能所挑戰,為此必須重新思考人與人工智能之間的人機關系,確保人的本質的復歸。
二、人工智能倫理困境的多維透視
馬克思曾指出:“在我們這個時代,每一種事物好像都包含有自己的反面,……技術的勝利,似乎是以道德的敗壞為代價換來的。”[6]人工智能的發展不僅是科技產業的重大革命,還引起了社會倫理的深刻變革,帶來了一系列人工智能倫理困境,如人的主體性消解、決策自主權的喪失、倫理責任歸屬等各種問題。
(一)人的主體性消解困境
人的主體性主要體現在兩個方面,一方面是在自然世界中的主體性,人類能動地改造自然的實踐過程是其主體性的關鍵因素。另一方面就是社會生活中的主體性,人類社會是人們在長期的生活實踐中演變來的,人無疑是社會生活的主體。然而人的這種主體地位受到了人工智能的嚴峻挑戰,特別是隨著人工智能逐漸成為人類社會不可或缺的一部分,人類主體性也遭到了不斷地異化。馬克思在《1844年經濟學哲學手稿》中完整提出了異化命題,即異化主要為原本由人所創造的、對象化的客體,本應該服務作為主體的人,但這種客體反而控制了作為主體的人,這種主客體關系的顛倒就是異化。[1]恩格斯就曾以英國紡織工人為例,仔細描繪了機器如何將原本鄉村中精神健全的農民,轉化為紡織工廠里愚鈍和癡呆的工人。遵循同樣的邏輯,原本為人類所創造用以服務自身的人工智能,現在卻反過來成為控制人類的手段和工具。
首先,人工智能會導致人類主體能動性的削弱。人類主體能動性就是人類區別于其它物種的獨特屬性和專有能力,如認知能力、審美能力。但原本獨屬人類的領域不斷被人工智能所侵占,人工智能可以寫詩、繪畫、甚至給予他人情感慰藉,導致人類主體性的能力被極大地消解。其次,人工智能導致人類社會交往的虛擬化。人工智能與互聯網的深度融合,使得人與人之間現實的社會交往逐漸被基于網絡的虛擬社交所取代,但這種虛擬的社會交往實質就是人類交往的異化,同時也是對人社會屬性的背離。最后,人工智能使人類異化為“智能機器的附庸”。馬爾庫塞在《單向度的人》中指出,現代社會的畸形發展,使科技人員創造的工具和裝置不僅沒有使人們更好地解放和自由,反而成為奴役人們的工具和手段。[7]在高度智能的機器面前,普通人只會喪失作為主體的個性化特征,逐漸地淪為龐大且復雜的智能機器中不起眼的零部件。
(二)決策自主權喪失困境
人工智能技術的發展也會引發決策自主權的喪失。媒體為了增加瀏覽量,往往利用大數據算法來分析用戶的興趣偏好,并根據所刻畫的用戶畫像進行精準化的信息推送。個性化的算法推薦導致用戶的信息域被智能遮蔽和過濾,使人的思維只能在算法規制的“信息繭房”中進行活動,這不可避免地影響個體的價值取向,嚴重削弱了人類對信息的甄別能力。在此意義上,人工智能算法雖然提高了民眾獲取信息的準確性,但是卻剝奪了民眾選擇數據的自主權。最典型的例子就是2016年美國大選的“劍橋分析事件”,有證據表明在美國總統大選期間,特朗普團隊利用人工智能針對性地向選民推送片面甚至虛假信息。人工智能對人的決策施加影響不僅存在于政治領域,在日常的網絡瀏覽中亦會如此,算法會根據人們平常瀏覽或搜索的數據推薦相應的信息。這些固然會高效快捷地將感興趣的信息展現在人們面前,但也讓人們喪失對其它信息的敏感度和感知力,甚至影響其對現實世界的認知。
另一方面,人工智能所具有的信息搜集和數據分析能力是人類難以匹敵的,基于此,人們往往利用人工智能對數據進行處理分析,并在此基礎上做出“最優解”的決策,如醫生通過醫療系統給病人的治療方案救助病人,金融公司通過智能系統確定投資方向和比重等等。這種對人工智能產生的過度依賴,不僅嚴重削弱了人類對問題的主動探索能力,還消解了人類在解決問題中對自身能力的培養。人的自由全面發展受到嚴重阻礙,如醫生在對醫療系統形成依賴后,就會逐步喪失某些依靠長期實踐經驗積累的醫療技能。在這樣的背景下,人類對人工智能的過度依賴的后果,只會“使物質力量具有理智生命,而人的生命則化為愚鈍的物質力量”。[6]這無非是說,隨著人工智能越來越多地介入人類的選擇決策過程,人類的行為選擇也逐漸失去自我思考,在此意義上,人工智能將可能成為“永遠的獨裁者”。
(三)倫理責任歸屬困境
通常情況下,一項新技術的發展往往具有復雜性和不確定性,在應用過程中會出現難以避免的消極影響,正因如此,正確處理因技術發展引發的責任問題就顯得尤為重要。而人工智能的發展使傳統的科技倫理規范失效,正如威爾伯斯所說:“在日益科技化的現代社會中,人工智能技術的廣泛應用使得道德責任的歸屬復雜化。”[8]無人駕駛是當前人工智能最典型的應用領域之一。無人駕駛相比人類更加專注且不易疲勞,大幅減少了因司機駕駛過錯導致的交通事故,特別是對于沒有駕駛能力的特殊人群來說,無人駕駛無異于是對生活軌跡的重建。但需要指出的是,無人駕駛背后隱藏著一個巨大的責任倫理困境,即顛覆了傳統駕駛那種以司機過錯為基礎的責任規范體系,因為無人駕駛導致的交通事故中,既不存在司機主觀上的故意,也不存在司機因疲勞駕駛等造成的無意過錯,道德和法律的責任分配此時變得更加復雜和難以確定。
事實上,相關法律的滯后也是人工智能責任判定困難的重要原因。馬克思曾指出,責任是建立在自由意志基礎之上的,只有人才是承擔責任的主體,因此在傳統的法律判定主要基于人的行為進行責任劃分,如果發生機器傷害人的事件,則主要由機器的所有者或制造商承擔相應責任。但隨著人工智能技術的發展,人工智能也在一定程度上擁有了自己的判斷決策能力,人類很難決定智能機器的具體行為。在這樣的背景下,出現人工智能導致的事故該如何分配責任,迄今為止都沒有一個統一的法律規定。通常我們對責任歸屬的判定,主要依據法律條文中的相關規定。但人工智能的發展速度遠遠超過相關法律條文的制定速度,致使當前人工智能領域面臨責任分配困難的法律難題,只能將人工智能失控歸咎于產品缺陷,讓人工智能及其產品的設計者承擔相應責任。而長期的責任分配失衡,勢必會挫傷人工智能研發人員的積極性,最終限制人工智能的發展。
三、人工智能倫理困境的規避進路
人工智能所引發的倫理困境是技術發展中的必然產物,對此既不能因噎廢食放棄人工智能發展,也不能對所產生的倫理問題視若無睹。而是應該探究當前所產生倫理困境的真實動因,在馬克思主義科技觀的指導下,構建多方協同治理體系,推動人工智能朝著為人類服務的方向穩步前進。
(一)遵循馬克思主義科技觀
馬克思主義科技觀是馬克思主義關于科學技術的系統性的觀點和方法,我國發展人工智能,必須堅持馬克思主義科技觀的基本立場和基本原則。馬克思主義認為,“科學技術是人的創造物,是人類認識世界、改造世界的手段和工具,”[9]科學技術還是推動社會變革和時代進步的關鍵因素。但是需要指出的是,科學技術具有二重性,一味強調科技對社會發展的推動作用并不客觀,科技在給人類帶來巨大收益的同時也會帶來難以預料的風險。正是基于這樣的認識,發展人工智能必須要始終堅持人類主體性地位,任何科學技術,都只是基于人類需求創造出來的客體,如果將主客體位置顛倒,不僅會阻礙人類對科技的正確認識和運用,還會誤導人類對科技負面影響根源的把握。
馬克思主義強調認識來源于實踐,但人工智能所擁有的知識并不是實踐的產物,它的“智能”來源于人類自身。人類通過發揮自身的能動性,將人工智能的能力轉化為人類自己的能力,從而促進人類自身實踐能力的提升。科技的發展就是為了給人類爭取更多的自由時間,最終實現人類的解放,是以對于科技的研發永遠不會停滯下來,但對于發展科技引發的一系列倫理問題,必須始終堅持馬克思主義科技觀的指導,堅持以人為本的理念。人是審視人工智能發展的價值尺度,實現人的解放也是人工智能發展的根本追求,為此人工智能技術的研發要始終強調人在社會發展中的主體地位。
(二)提高社會科技倫理水平
科技的發展固然能夠方便人類的生活,但也有可能給人類帶來災難性的后果。愛因斯坦就曾認為“怎樣用它,究竟是給人類帶來幸福還是災難,全取決于人自己,而不是取決于工具”。[10]將人工智能發展所帶來的倫理問題一味歸咎于科技本身,是有失偏頗且不客觀的,事實上,當今人工智能各種倫理問題的產生,很大程度就是因為科研工作者道德責任感缺失。事實確實如此,如果科研工作者的道德理念淡漠,那么此前發生的基因編輯這種倫理悲劇很容易在人工智能領域重演。通過對科研工作者進行正確的道德約束,可以有效避免技術異化對人類產生的不利影響,確保人工智能研究始終朝著為“人”服務的方向前進。
提高公眾的知識素養也是解決人工智能倫理問題的重要途徑。庫茲韋爾將人們對待新技術的態度分為三個階段,首先,人們會驚嘆新技術為人類所帶來的便利;其次,人們了解到隱藏在新技術背后的弊端,并對此產生恐懼;最后,研究出一條科學的發展道路,實現科技為人類服務的初衷。近年來人工智能威脅論甚囂塵上,特別是部分媒體夸大其詞地報道,更是使民眾對其產生懼怕心理。基于此,提高民眾相關的知識素養顯然已成一項必要工作,這需要政府運用多元化手段,培養民眾對人工智能技術的科學認知。讓民眾了解到人工智能并不會威脅人類安全,反而會對人類的發展做出重大貢獻,從而有效緩解人類所產生的恐懼心理,推動人工智能得到健康發展。
(三)構建人工智能監督體系
當前人工智能發展過程中所產生的一些倫理問題,其主要原因就是缺乏有效監管。基于此,根據當前人工智能發展實際,建立起一整套切實可行的監管體系,成為當今時代的首要任務,而制定一個多方位、全流程的監督系統,首先需要確保政府在人工智能監管體系的主導地位。政府需要設立各級各層的人工智能監管機構,加大對人工智能技術的監管,從算法邏輯、專業機構的檢測報告等方面保障人工智能技術的安全可控性,確保即使有意外發生也有切實可行的應急舉措。還要定期對人工智能相關企業進行倫理審查,防止人工智能技術被不法分子因追求私利危害人類,對于有可能危害人類尊嚴權利的相關問題,一旦發現要立即整改并嚴懲不法分子。
此外,通過民眾監督更有利于有效發現人工智能的風險。民眾是人工智能最廣泛的使用者,在這種情況下,賦予民眾對人工智能監督的權力,更有利于讓民眾在使用人工智能過程中,及時發現風險并將風險扼殺在初始階段,確保人工智能及其產品符合倫理法規要求。最后,來自人工智能研發者的監督也十分必要。科技本身無法與其研發者分裂開來,科研工作者在開發人工智能及其產品時,有責任也有義務在設計研發階段,確保“人工智能算法的可解釋性、可驗證性和可預測性”。[11]不僅如此,科研人員還要在人工智能產品使用階段全程監管,一旦發現問題及時干預,確保研究始終堅持為人類服務。
(四)健全人工智能法律規范
人工智能發展過程中出現的各種倫理困境,僅靠道德感化是遠遠不夠的,因為倫理道德只是借助說服教育等軟性手段,并沒有相應的強制力,在這樣的情況下,法律無疑是化解當前人工智能倫理問題的有效措施。法律通過國家強制性手段,最大可能地限制人工智能發展過程中出現的無序性,有效降低因人工智能倫理問題給社會帶來的危害。基于這樣的認識,首先要著眼于人工智能的法律主體關系,充分論證法律上的“主體”概念,并在確定人工智能法律主體地位的基礎上,厘清人工智能在無人駕駛、醫療機器等應用過程中的權利、義務和責任歸屬,對于有可能出現的倫理事故,劃分好開發者、使用者及智能機器的法律責任。
此外,還要加強法律對數據信息和算法的治理。嚴格保護用戶的個人信息,防止不法分子因利益對個人信息的收集、傳播與濫用,同時還要建立健全關于人工智能的法律問責機制,對于在應用過程中出現的侵害個人隱私、制造算法偏見的法律主體,必須根據實際情況和法律標準進行嚴厲打擊。最后,要規范人工智能的生產使用原則,采用法律手段對智能機器的生產制造加以限制。在研發生產階段,將設計規范寫入法律條款之中,明確開發人員的法律責任,在智能產品的使用過程中也要進行實時監控,避免使用者超越法律的界限。總之,通過對人工智能進行全方位的法律規范,能夠減少科技濫用對人類造成的傷害,最大限度地解決當前倫理困境。
〔參 考 文 獻〕
[1]婁延強.人工智能的倫理困境與正解[J].道德與文明,2022(01):131-139.
[2]中共中央編譯局.馬克思恩格斯全集:第42卷[M].北京:人民出版社,1979:254-255.
[3]馬克思.1844年經濟學哲學手稿[M].北京:人民出版社,2000:55.
[4]中共中央編譯局.馬克思恩格斯選集:第1卷[M].北京:人民出版社,1995.
[5]孫閃閃.人工智能時代人的發展的新機遇與新挑戰[J].沈陽工業大學學報(社會科學版),2018,
11(06):571-576.
[6]中共中央編譯局.馬克思恩格斯全集:第2卷[M].北京:人民出版社,1985:79.
[7][美]馬爾庫塞.單向度的人:發達工業社會意識形態研究[M].劉繼,譯.上海:上海譯文出版社,1989:112.
[8]Katinka Waelbers. Technological Delegation: Responsibility for the Unintended,Science and Engineering Ethics,2009,15(01).
[9]李桂花.科技的人化[M].長春:吉林人民出版社,2004.
[10][德]愛因斯坦.愛因斯坦文集(第3卷)[M].許良英,等,譯.北京:商務印書館,2010:78.
[11]郭銳.人工智能的倫理和治理[M].北京:法律出版社,2020.
[12][德]阿·科辛.馬克思列寧主義哲學詞典[M].郭官義,等,譯.北京:東方出版社,1911:483.
〔責任編輯:侯慶海〕