999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人類中心主義視角下人工智能道德風險防控與治理

2022-11-21 08:38:43計海慶
長沙大學學報 2022年4期
關鍵詞:人工智能人類

計海慶

(上海社會科學院哲學研究所,上海 200235)

人類中心主義,又被稱為“人類中心論”,主張將人類利益置于首要地位,強調人類利益是所有物種行為的價值尺度。關于人類中心主義的界定很多,綜而觀之,主要是指以人類的利益、價值作為評判事物、行為的尺度和標準。古希臘哲學家普羅塔哥拉提出的“人是萬物的尺度”,可以說是最早的人類中心主義思想,可見人類中心主義思想由來已久。艾薩克·阿西莫夫(Isaac Asimov)的機器人三大定律是人類中心主義思想體現在機器人領域的典型代表,其實質性內涵為:在人機發生沖突時,機器人應該為人類的利益作出犧牲;只有在保護人類和服從人類的前提條件之下,它才能去盡可能保護自己;它不可能為了保護自己而傷害人類。

學界對人類中心主義和非人類中心主義一直存在探討與爭論。在生態倫理領域,關于非人類中心主義的呼聲較高;在人工智能倫理領域,關于人類中心主義的呼聲則較高。簡小烜所撰寫的《人工智能道德風險的防控與治理》一書對人工智能道德風險的防控與治理進行了較為系統、深入的探討,該書告訴我們,為何在人工智能倫理領域,關于人類中心主義的呼聲會更高。該書主要從以下四個方面體現了作者所持有的人類中心主義視角與立場。

一 強調道德風險是對人類利益和責任的損害

漢斯·尤納斯(Hans Jonas)于 1979 年指出:在科學技術迅速發展的今天,技術性質已發生改變,不再是人類為了達到某個目的而使用的工具,具有自身的發展目的,是一種“獨立的力量”[1]5;在技術的影響下,行為者、行為與行為后果,已經發生改變,不再是近距離性質的;技術革命帶來的負面影響是世界性的,并具有長遠性,不再局限于某一個地方,也不再局限于當下。鑒于技術的新特性以及傳統倫理學的歷史局限性,他提出“未來倫理”“整體性倫理”,強調人類對現在和將來的責任,并以長遠性和整體性為道德原則,以盡可能減少或消除人類社會、技術等發展過程中的風險因素。毋庸置疑,尤納斯的責任倫理是持人類中心主義立場的。

《人工智能道德風險的防控與治理》一書對人類利益和責任的強調是非常明顯的。該書指出,人工智能所導致的道德風險就是其從各個方面對人類利益、福祉造成的損害。就目前而言,人工智能技術帶來的隱私泄露、算法歧視、數字鴻溝等風險層出不窮,而隨著人工智能對人類就業的負面影響,大量重復性工作將被人工智能所取代,這也將影響到部分人社會價值的實現。從未來性而言,如人類與人工智能的結合,即人機融合智能,能夠改造人類自身生理結構中存在的缺陷,兼具人和機的優勢,這雖然提高了人類的身體素質,但對人類的自由意志、尊嚴、地位等都是一種打擊或侵犯,影響到人類自主性的實現,在某種程度上消解或減弱了人類的主體性和道德地位。

整體而言,該書較為深入地討論了人工智能對人類主體地位、道德責任、隱私權、安全等帶來的負面影響和風險,探討了人工智能算法所導致的歧視與不公等風險問題,同時也深刻指出了造成道德風險的主要因素:人工智能體自主性的增強、技術世界工具理性和價值理性的沖突、人類責任的彌散和逃避、相關倫理規制的缺乏、法律法規的滯后與缺失、監管體系的不完善、技術自身的局限性等。該書基于人類中心主義視角的探討比較深入和系統。

該書還重點探討了人工智能在道德責任領域帶來的風險。由于人工智能體已具有一定的自主性,在人機交互中,人類對它的決策行為只具有一定程度的控制性,人工智能體對自身的行為也不具有完全控制性,那么,按照傳統道德責任理論,由人工智能體行為帶來的損害結果,人類無法為之負責,人工智能體更無法為之負責,這就產生了道德責任困境。面對此責任困境,一部分學者主張應該采用非人類中心主義視角進行研究,提出將人工智能體界定為道德責任主體,以使其承擔責任。然而人工智能體沒有意識、情感,感受不到情緒,更認識不到被批評或被表揚的意義所在,問責對它沒有意義。作者清醒意識到此點,也指出這種觀點其實造成了“人工智能體在理論上具有道德主體地位,在現實中卻又不能承擔道德責任”[2]57的悖論,因此并不贊成由人工智能體承擔責任,而是主張由人類來承擔責任,人類才是永遠的被追責者。人的因素在科學技術活動中是首要的,任何非人的元素都不可能脫離人而獨立發揮作用[3]。人,創造了人工智能;人與機的交互,亦來源于人,人是第一位的責任主體。

作者還指出,責任困境甚至導致了人類責任的彌散,人們經常把責任推給人工智能體,比如人們經常抱怨的“導航把我帶錯了地方”。為解決這些問題,作者提出構建前瞻性責任倫理,否則負責任創新和人工智能向善無從談起。道德責任問題本身是人工智能倫理領域的一個前沿問題,作者站在人類利益視角進行討論,但同時也毫不留情地指出人類自身存在的問題——對責任的逃避,強調人類并不能因為人工智能體的自主性而忽視自身責任。這既是對人類未來的考慮,也是基于人類整體的考慮,是對尤納斯責任倫理的繼承與創新?!盀榱吮荛_整體上最大的惡,為了追求善,人類應當履行實質責任。只有這樣,才能確保人類的福祉和未來?!保?]

二 認為人工智能體的道德地位應低于人類

關于人工智能體道德地位的探討很多。傳統理論認為,自由意志、自我意識是基本前提,人工智能體并不具備,不能成為道德主體,不具備道德地位,更不能承擔道德責任。實用理論則傾向于摒棄非凡的自我意識和自由意志,而從人工智能體的自主性和意向性等類人屬性出發(實體論),或者從人機之間的關系出發(關系論),深入論證人工智能體能夠成為道德主體,從而具備道德地位,能夠承擔道德責任[5]。《人工智能道德風險的防控與治理》一書則摒棄了極端的二值邏輯(要么主張把人工智能體作為工具來對待,要么主張把人工智能體當作自然人來對待),并將傳統理論與實用理論相結合來進行研究。作者首先分析了人工智能體的道德能動性,如理性、自主性、意向性,論證其是人工道德能動者;接著分析了人工智能體特殊的人格性、物的屬性和不完整的社會性,認為其在本質上有別于人類,它是二階道德能動者,人類是一階道德能動者;最后得出結論——作為人機交互系統中的二階道德能動者,人工智能體具有非完全道德主體的道德地位,其道德地位低于人類。

從現實情況而言,在大多數人的心中,人類的地位高于動植物以及人工智能體的地位,這毋庸置疑。而一階道德能動者和二階道德能動者的區分并不僅僅是對應著道德責任的完全和非完全。至關重要的是,這種區分還意味著人工智能體對人類而言處于從屬地位,其擬主體性由人類賦予,說到底它是人類的創造物和服務者。因此,人工智能體基于其擬主體性所實現的道德決策也必然只能是致力于實現人所能作出的最好決策,它的決策要為人所規定、約束、修正甚至是否決[6]。

布魯諾·拉圖爾(Bruno Latour)的行動者網絡理論(ANT)有著明顯的去人類中心化的特性。這種特性首先就表現在他將人類與非人的身份和地位并置。按照拉圖爾的說法,行動者網絡沒有所謂的中心,也沒有主客體的對立,每個節點都是一個主體、一個可以行動的行動者,彼此之間是相互影響的主體間性關系;非人的行動者通過有資格的“代言人”(agent)來獲得主體的地位、資格和權利,以至可以共同營造一個相互協調的行動之網[7]18。這可以看出,拉圖爾對非人行動者賦予與人一樣的道德主體的地位,試圖消除人類社會與自然之間的二分法,這與奧爾多·利奧波德(Aldo Leopold)土地倫理學的非人類中心主張一致。利奧波德的土地倫理提出“土地共同體”的概念,認為人、土壤、空氣、水、動植物等構成了土地共同體,而人和土壤、空氣、水等一樣,都是共同體中的平等一員[8]157,這在某種程度上也消除了人類的中心地位,消除了人與自然的對立。

在試圖消除二元論的學者中,有人非常贊同拉圖爾的對稱性原則。廣義對稱性原則在一定程度上實現了科學研究一直訴求的公正性、客觀性,這也是人類社會向往已久的生存原則;其實踐中所主張的科學研究的主客體身份的模糊性恰恰印證了人類社會訴求的人與人、人與物之間的平等性[9]。二元論是一種“強不對稱性”態度,拉圖爾卻又走向另一種極端,即“強對稱性”,強調人類與非人類的完全對稱。但是,將人與非人置于完全對等的道德地位,既不符合現實情況,也存在理論弊端。有學者就指出:“當從表象轉向實物,從符號轉向具體的現實,從作為文本的世界到作為物體的世界,非人元素的能動性作用便不再明晰。在這些轉換的過程中,人與非人元素在能動性上的等同事實上并未如拉圖爾所愿,成為一個確定的本體論條件。”[10]

如果說ANT 在理論上消解了人類與非人類的主客體之分,那么目前的人工智能技術正在從實踐上實現這種消解。在當今技術社會,人與物一樣被符號化、數字化、信息化,只是一個符號、一組數字、一組圖像,人的尊嚴、自由、精神和隱私被技術排擠,人之為人的主體性、主觀能動性正在被技術消解,人正在成為海德格爾所說的技術座架下的“無靈”之物,一部分人越來越具有“機器性”“機械性”。這引起了學術界的高度重視和深入研究。這再次從社會實踐角度證明,人與非人元素在網絡中、在人機交互系統中的身份和地位具有對等性確實是不可思議的。

科學技術活動,包括人工智能體的研發,都是為人類福祉和利益而開展的。將人工智能體置于與人類平等的地位,確實是去人類中心化了,但這明顯違背我們的初衷。而且,將人工智能體賦予與人類一樣的道德主體地位,這會加大人工智能體給人類帶來的道德風險。一旦某一天它們具有真正的生命,具有如人類一樣的意識、意志與自由,那它們要的可能遠非平等。也許它們要做的第一件事,就是讓人類成為它們的服務者,也許是工具,也許是寵物,也許什么都不是,因為它們不需要人類這種弱者了。無論如何,至少從理論上,人類應該防止這種可能性。

所以,拉圖爾的“強對稱性”原則應該被打破。皮克林就表示:我們要追隨行動者網絡理論的精神和方法,但不能完全照搬[11]?!度斯ぶ悄艿赖嘛L險的防控與治理》一書亦認可此觀點,因此采用了弱人類中心主義態度。人類中心主義有強弱之分,強人類中心主義只強調人類的利益和福祉,弱人類中心主義在強調人類福祉的同時,也會顧及非人元素的利益與福祉,主張尊重自然、動植物、人工智能體等?;谌跞祟愔行闹髁x態度,作者承認人工智能體具有一定的道德地位,但未將這種地位絕對化;認可其在人機交互系統中的重要作用,但不將它與人類的能動性等同。人工智能體確實已不同于純粹的工具,我們應認識到其在人機交互系統中的重要社會作用,承認其具備一定的道德地位,這種主張一方面切合實際,在理論上也未給予人工智能體以凌駕于人類之上的可能性,另一方面則有利于人類的生存與發展。從奇點論視角來看,人類中心主義主張也許可以避免未來人類的滅亡。

總而言之,我們應該認識到物的能動性和擬主體性,重視物的作用與價值,重視人類責任和實現人機和諧相處。對服務于人類利益的人工智能體,我們應持尊重的態度,不管它有無意識與情感。但同時,我們應該深刻地認識到人的主體性地位正在遭到技術無情的消解,我們應采取措施預防和消減道德風險,更不能自降地位和身份。這是《人工智能道德風險的防控與治理》一書將人工智能體界定為“二階道德能動者”以及認為其具備“非完全道德主體”地位的重要原因,也體現了人類中心主義在人工智能倫理研究中的重要地位之所在。

三 呼吁有限道德能動者的倫理設計

人工智能體原本便是為了人類的發展與繁榮而被研發與應用的,這意味著,它需要全力服務于人類,也需要遵守人類的道德規范與行為準則,這便有了對人工智能體的倫理道德設計。在人工道德能動者的倫理設計方面,作者分析了目前常見的三種進路,即自上而下、自下而上,以及混合進路;同時也指出還面臨諸多挑戰,如人工道德能動者實現難、道德認知和選擇難、計算機算力局限等。但人工智能體的道德設計在設計目標方面一直未形成統一的意見,學者們對設計成完全道德主體還是一般的道德行為體也都意見不一,而在具體的設計中,確實面臨很多難以解決的具體問題。如,如何將個人利己行為和為他人負責行為之間的博弈進行編碼,是基于康德的義務論還是基于邊沁的功利論?它們各有優點,又各有缺點,我們很難找到一個完備的推理與判斷的系統模型。同時,道德設計還涉及情感、情緒、經驗等方面,產生的信息復雜而量大,目前的計算機算力尚難以滿足這一要求。

《人工智能道德風險的防控與治理》一書的態度很明確:人工智能體道德設計要實現的不是完全道德主體,而是有限道德能動者。作者認為,將人工智能體設計成完全道德主體,正如將它的道德地位置于與人類平等的地位,均會增加道德風險。有朝一日,萬一人工智能體具備了意識、意志和欲望,那么它所要的可能遠非平等[2]82。作者還指出,因為完全道德主體具有情感、意識、意志和欲望,一旦脫離人類的控制,人類文明很可能終結于這個“完全道德主體”,這不是大家所希望看到的。因此,作者不但反對賦予人工智能體與人類一樣的道德地位,而且認為在人工智能倫理領域,采用非人類中心主義的觀點和視角是不適宜的。人工智能倫理不同于生態倫理,人工智能體也不同于自然中的植物與動物,它已經具有一定的智能和擬人性,甚至“超人”的能力。“智能”意味著與人一樣的自主性與創造性,如果再賦予它意識、情感,也許某一天,它會讓人類成為它的服務者。非人類中心主義適合于生態倫理,但不一定適合于人工智能倫理。生態系統中的動物、植物、土壤、空氣、水等,不同于人機交互系統中的人工智能體,它們不存在可以超越人、控制人的可能性,但人工智能體可能存在。利奧波德的土地倫理不存在給予生態系統中的動植物以統治人類的機會,但非人類中心主義的人工智能倫理則很有可能給予人工智能體以此機會。

所以,作者指出,人機交互領域必須堅持“以人為本”的原則與底線,所有人工智能體的研發必須以人類福祉為中心。確實,在人工智能倫理領域,非人類中心主義會大大提升非人元素的“物格”的地位,而造成人的“人格”的貶損。如前所述,目前的人工智能已經在某種程度上帶來人類的物化、機器化,“它在以其強大的智能技術范式重筑社會基礎設施、重塑人們的社會生產方式和生活方式的過程中,正在‘分裂’出自己的對立面,甚至發展成為一種新的外在的異己力量”[12]。人類的創造性和能動性已經受到一定程度的損傷,信息繭房、依賴機器決策等便是例證。無論如何,在研發設計方面,我們不能賦予人工智能體與人類一樣的角色,這意味著不能給予它控制、主宰人類命運的機會,哪怕一點點機會也不能給予。我們并非不可以采用拉圖爾的行動者網絡理論,而是應對它有所超越。

人類應該擁有一個欣欣向榮的未來,而不是一個被人工智能體統治的世界,人工智能體應只為人類福祉而研發。該書在結語部分亦做了強調:我們所設計的人工智能體,應將保護人類權益作為第一準則,要尊重人類道德價值觀,且一定是安全和“向善”的[2]160。從中可見作者立場的堅定、態度的謹慎與負責任,這也秉承了《新一代人工智能治理原則》(2019)中的原則與要求。

四 提倡基于人類福祉而研發與利用

無論是《新一代人工智能治理原則》,還是《新一代人工智能倫理規范》(2021),都指出人工智能的研發是為了增加人類福祉?!蛾P于加強科技倫理治理的意見》(2022)中,第一條倫理原則就是“增進人類福祉”[13]?!度斯ぶ悄艿赖嘛L險的防控與治理》一書一直秉持這一思想。該書指出,加強人工智能道德風險的防控和治理是一項系統工程,涉及研發、制造、使用等各個環節,應從倫理規約、制度建設、文化培育等維度著手,多管齊下。在科技研發環節,重在完善人工智能從業機構與倫理道德研究、教育、監督機構之間的長期溝通交流機制,不斷提高科技從業人員的倫理道德水平,引導研發人員增強風險防控意識,完善人工智能倫理審查機制,建立有效監管體系。在研發初始環節,應預測和評估人工智能產品可能引發的道德風險,并將人類社會的倫理規范和道德要求植入人工智能體體內,使其成為有限道德能動者,從設計源頭進行防控;同時完善多主體道德責任制度,尤其重視前瞻性道德責任制度,以實現預防原則的約束作用。在應用環節,同樣需要繃緊倫理道德風險防控這根弦,應構建“負責任創新”框架,尋求風險的最大化規避,完善和普及與人工智能相關的法律法規,引導社會公眾以正確的價值觀念看待和運用人工智能技術,并推動全社會共同參與人工智能倫理治理;要防止人工智能被非法利用進而危害社會,確??萍佳邪l活動始終在倫理道德的軌道上平穩運行。這些措施與制度都是從人類利益和福祉出發的,作者從始至終都堅持著人類中心主義立場與態度。

在這個因人工智能技術帶來巨大經濟效益和社會進步動力的時代,我們應正確分析和理性看待人工智能所帶來的道德風險問題,全面認識技術的兩面性,通過實踐與理論的結合,采取各種手段和方法進行風險的防控和治理,趨利避害,讓人工智能積極 “向善”,從而實現它的安全與可控。這對人類社會的發展、文明的進步以及個人幸福指數的提升都有著重要而實際的意義。歸根結底,我們的理論或應用研究,應服務于人類的權益和福祉。如果人類本身都受到了威脅,不能生存,談論人工智能的福祉沒有任何現實意義。

正如邁克斯·泰格馬克在《生命3.0:人工智能時代人類的進化與重生》中所說,隨著人工智能自主性的增強,極好的可能性和巨大的風險同時存在[14]XXXIII。因此,基于人類中心主義立場,對人工智能導致的道德風險的防治便意味著:在時間上,要求我們不僅對當下利益負責,更要對未來影響負責,并強調對人類整體負責;在空間上,要求我們不但對人負責,還要對人工智能負責;在責任主體方面,不僅對現在的人類負責,更要對未來的人類負責。

五 結語

隨著土地倫理理論、動物權利理論等的相繼出現,非人類中心主義理論越來越受到學者們的重視,但人類社會其實并不存在一種真正意義上的非人類主義理論。首先,我們無法真正站在人工智能體的立場去思考和行為,“子非魚,焉知魚之樂”。斯克魯頓反對非人類中心主義,認為一個合理的動物倫理觀應該建立在以人類為中心的等級制上[15]109。其次,非人類中心主義在某種意義上就是人類中心主義,它們殊途同歸,最終仍是為了人類的福祉和利益。避免傷害自然的唯一理由是為了避免傷害人類自身[16]4。利奧波德的土地倫理,也是基于這樣一種考慮:如果我們破壞了生態系統,也就破壞了人類賴以生存的環境和系統;要實現人和自然的和諧共存,就應該確認植物、動物、水和土壤在一種自然狀態中持續存在的權利[8]。這其實仍然是以人類為中心的一種考慮。正如人與人之間的關系,如果一個個體過于注重自身利益而完全無視甚至損害他人的利益,他自身的個體利益最后可能也無法保證。

另外,非人類中心主義理論也有著自身的困境。利奧波德的土地倫理美譽度很高,被認為“開創了生態整體主義以及非人類中心主義環境倫理學”[17],但在“義務論方面,它沒有將人類價值放于優先位置,導致當出現多種義務時難于抉擇的困境”[17]?;蛟S我們要盡力打破人類中心主義與非人類中心主義之間的二元對立,為實現全人類長期福祉的最大化的政策提供強有力的倫理辯護?;诖?,彼得·溫茨(Peter Wenz)提出了環境協同論,認為從長遠角度看,非人類中心主義和多元人類中心主義的思考是相互強化的[18],主張我們應該把人類中心主義和非人類中心主義視為協同論的兩個方面。而站在協同治理的視角看,人類中心主義和非人類中心主義可以是倫理治理(“一體”)中的“兩面”。如果我們擁有一個適當的精致人類中心主義,那么在實踐中人類中心主義與非人類中心主義將走向趨同[19]。

猜你喜歡
人工智能人類
我校新增“人工智能”本科專業
顫抖吧,人類
哈哈畫報(2022年4期)2022-04-19 11:11:50
人類能否一覺到未來?
人類會成長起來嗎?
英語文摘(2021年2期)2021-07-22 07:56:54
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
主站蜘蛛池模板: 欧美成人精品欧美一级乱黄| 欧美国产综合色视频| 真实国产乱子伦视频| 亚洲无码高清免费视频亚洲| 国产成+人+综合+亚洲欧美| 精品一区二区三区中文字幕| 日本亚洲欧美在线| 日本在线欧美在线| 69av免费视频| 日韩欧美国产另类| 国产第一福利影院| 99无码中文字幕视频| 国产福利一区二区在线观看| 国产av无码日韩av无码网站| 亚洲精品男人天堂| 婷婷五月在线| 国产一在线观看| 亚洲视频四区| 在线无码九区| 亚洲精品久综合蜜| 亚洲精品老司机| 91精品国产丝袜| 亚洲V日韩V无码一区二区| 国产精品一区二区在线播放| 久久久黄色片| 国产人成午夜免费看| 91福利免费| 91免费在线看| 欧美黄色a| 久久视精品| 人与鲁专区| 亚洲天堂日韩在线| 国产电话自拍伊人| 午夜福利网址| 午夜视频www| 动漫精品啪啪一区二区三区| 人妻精品久久无码区| 91破解版在线亚洲| 97国产在线视频| 伊人久综合| 久久熟女AV| 亚洲欧美人成人让影院| 欧美色香蕉| 国产精品美女网站| 午夜啪啪福利| 欧美一区二区三区国产精品| 19国产精品麻豆免费观看| 91亚洲视频下载| 亚洲女同一区二区| 亚洲日韩精品伊甸| 国产成本人片免费a∨短片| 国产精品成人免费综合| 亚洲女同欧美在线| 免费高清a毛片| 欧美日韩一区二区在线播放 | 久久狠狠色噜噜狠狠狠狠97视色| 亚洲va视频| 国产网友愉拍精品| 91区国产福利在线观看午夜| 国产精品视频系列专区| 一级毛片在线免费看| 亚洲精品色AV无码看| 欧美日韩国产在线播放| 国产三级视频网站| 天堂亚洲网| 免费A∨中文乱码专区| 中文天堂在线视频| 国产精品吹潮在线观看中文| 国产精品99在线观看| 99视频在线免费| 国产成人综合亚洲欧洲色就色| 久久久久青草线综合超碰| 午夜无码一区二区三区在线app| 国产成人在线无码免费视频| 91丨九色丨首页在线播放| 国产麻豆永久视频| 91九色视频网| av在线人妻熟妇| 激情综合网激情综合| 精品免费在线视频| 国产理论一区| 亚洲精品视频在线观看视频|