999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能倫理研究中的“關系轉向”

2022-10-31 15:43:10周麗昀
哲學分析 2022年2期
關鍵詞:主體人工智能人類

周麗昀

當前,人工智能技術的發展與應用對人的發展和人類社會帶來了巨大挑戰。人工智能不僅具有工具性價值,而且對我們理解很多問題也有前提性的形而上的意義。人工智能哲學是對人工智能思想的思想,人工智能倫理的研究目標似乎不應是解決人工智能相關的具體倫理問題,而是要改變和創新提出問題的方式。在展開進一步的討論之前,對人工智能倫理研究進行回溯是必要的:當前的研究主要探討了哪些問題,有哪些共識和困難,又該如何展開?這需要對人工智能倫理研究本身進行哲學式的前提反思和理論批 判。

一、 當前人工智能倫理研究中的主要議題

人工智能倫理是科技倫理的一部分。從狹義層面來說,人工智能倫理指的是人工智能自身的倫理問題,從廣義的層面來說,指的是人工智能的應用引發的一些倫理問題。當前,無論是政府、企業還是學界,都提出了很多關于人工智能倫理的說法。厘清相關討論的路徑、焦點和挑戰,才能為進一步的理論和實踐探索掃清障礙?;跉v史和邏輯相一致的原則,我們不妨借助本體論、認識論、方法論和價值論的理論框架,來廓清人工智能倫理研究的主要面 貌。

(一) 本體論層面:人與機器

1956 年,約翰·麥卡錫(John McCarthy)第一次創造了“人工智能”一詞,之后相關討論從未停止。人工智能的發展大概經過了三個重要的階段:第一階段是通過機器模擬人類智力的水平來提高生產力;第二階段是實現機器的全智能化,并逐步替代人類的參與;第三階段是智能機器可以創造機器,虛擬分身大量普及,使每一個人具有增強智能,“‘增強智能’是人類智能和機器智能的結合”,這可能會產生超級智能,重構人與機器共存和協同的社會秩序。隨著人工智能的推進,人是什么、機器是什么必然會成為繞不開的追問。人之為人的根據是什么?機器是否具有意識和自主性?對這些問題的回答,都將在很大程度上決定是否可以構建真正的人工智 能。

對人的理解主要有本質主義和非本質主義兩種:本質主義以二元論為基礎,這種思路保證了人在理解變動不居的世界時對自身完整性、獨立性以及精神價值的確證,是近代科學得以成型的思想基礎。但非本質主義也一直如影隨形,從斯賓諾莎的泛神論到謝林和黑格爾的大全思想,從胡塞爾的生活世界到梅洛—龐蒂的知覺場——總有哲人試圖彌合二元論帶來的身心分離,消解本質主義帶來的思想禁錮。可以說,對人的本質主義和非本質主義的理解構成了一項跨越數千年的辯證運動,并最終在20 世紀通過科學技術這種現實形式凸顯出來。人有無永恒的本質以及技術對人而言意味著什么等問題也在這樣的背景下得以揭 示。

人與技術的相互依存由來已久,但是在人工智能以及基因工程技術飛速發展之前,人和機器的區分并不是問題。隨著技術的發展,尤其是知識和技術內化到人的身體中,成為身體的一部分,人和機器的界限就變得模糊起來。那么,是什么使得“我”跟其他人或者物區分開?是什么構成了我們的身份認同?關于這個問題,可以借鑒著名的“忒修斯之船”這一思想實驗:博物館里有一艘船,有些部分開始腐爛,壞掉的部分被逐一替換,直到所有的部分都被替換掉,那么,這還是同一艘船嗎?從什么時候起,我們就認為被替換的船不是原來的船了?另外,假如將被換掉的部分重新拼成一艘船,那我們該認為哪一艘才是原來的船?“忒修斯之船”對部分與整體的關系或者同一性問題進行了質疑。人工智能目前的發展還不足以完全替代人,但是,機器接管到什么程度,機器就不是機器,人就不是人了呢?如何區分哪是人工智能(AI),哪是我(I)?

另外,如果人通過智能機器來控制機器,又會發生什么呢?有一個與之相似的帕菲特思想實驗:假定將來會有一個傳送機,這個遠程運輸裝置就會在你毫無痛苦的情況下,把你的細胞進行拆解并掃描,并把相關數據傳送到火星,在那里用相關設備接收數據,再組建成一樣的人,那么火星上的人會是另一個自己嗎?“帕菲特讓我們想象兩種不同類型的傳送機。一種在掃描他的同時摧毀他,另一種則不摧毀他。它們都利用掃描到的信息創造出了他的復制品?!边@種“二重身”似乎只是想象,但是放在人與機器的關系上,這個問題的討論就顯得很有必要了。假如我們是機器,我們能造一臺同樣的機器嗎?如果我們真的造出來,它會有自己的思維和意志嗎?兩者具有人格同一性嗎?未來的智能機器只是存在于這個世界上,還是在體驗這個世界?它是否既具有自知又能夠反思這種自 知?

在人機關系與身份認同方面,如果我們想去追究人機的區分,應該怎么去理解呢?研究者經常拿人工智能和人類智能作比較,認為人工智能來自于機器對思維的模擬,而人類智能卻大不相同。從本體論上看,人是碳基的,機器是硅基的;從自我意識的角度,我們可以體驗這個世界,而機器卻只能測量它。而人之所以能體驗,是因為人有身體,可以感知意義。人的思維是與身體結合在一起的,并且被牢牢固定在身體內,而機器智能卻可以完全脫離身體存在,并且還可以同時在多個地點進行復制。除了身體,環境也成為延展認知和思維的一部分,這些環境是由人、機器以及一些倫理規則和制度等共同構成的。1991 年,人類學家唐納德·布朗(Donald brown)在《人類共性》一書中指出:“人類的共性包括文化、社會、語言、行為和心靈的特征,沒有已知的例外。”基于關系主義的視角,似乎可以理解,機器人的意義不在于機器人本身的表現,也不在于人類的想象,而在于具體的人機關系及其運行環境。往往使許多機器的應用得以實現的不是更加先進的人工智能技術,而是結構化程度更高的環境,真正能夠完成一些機器智能的目標是人和結構化環境互相作用的結 果。

(二) 認識論層面:人的機器化與機器的人化

馬克思曾說,人的本質是一切社會關系的總和。當今時代,人與機器的聯結越來越緊密,以致出現了人的機器化和機器的人化。人的機器化是指人的認識訴諸理性、邏輯性以及確定性追求,通過計算和邏輯,使人類達到機器思維的準確性和可控性。隨著身體的技術化,技術可以對人的身體進行替代、延伸甚至是重組,我們的身體不只是自然生產的,還可能是技術制造出來的,人有機器化的趨勢,這對傳統的人的本質理解構成挑戰。機器的人化是指機器智能越來越多地在認知、記憶等層面突飛猛進,機器越來越具有一些類人的屬性。人工智能將來是否會具有意識,是否會具有類人或者超人思維?這對我們傳統的關于物質和意識關系的理解帶來沖 擊。

意識和自主性是理解人工智能與人類智能的鑰匙。許多觀察者認為,意識是一種表現形式,是能夠理解自己的思想并對其進行解釋的能力。梅洛—龐蒂認為,意識是主觀體驗,是第一人稱的知覺,沒有體驗就不會有意識,身體的感知能力是意識的先決條件。皮埃羅·斯加魯菲(Piero Scaruffi)曾對圖靈測試的意義提出質疑。他說,“身體因素是我質疑圖靈測試意義的原因所在。”他設計了一個測試(他稱為“斯加魯菲測試”,Scaruffi Test),同時給機器人和人各一個足球,然后看哪一組運球的能力更高,他指出,雖然智能機器人可以靈巧地攔截足球,然后用絕對精準的腳法射門,但卻無法像梅西一樣帶球越過防守隊員。在圖靈測試中,身體因素被排除在外,這一定程度上也摒棄了人類的基本特 征。

而提到機器的思維和意識,不能不提美國哲學家希拉里·普特南(Hilary Putnam)設計的“缸中之腦”思想實驗。在斯加魯菲看來,“缸中之腦”并不能代表真正的人,體驗才是意識的前提。庫茲韋爾在《如何創造思維》一書中明確提出了機器意識的問題,他認為意識是復雜物理系統的有限特性,可以在計算機中復制,一臺成功模擬人腦復雜性的計算機也將擁有與人類相同的涌現意識。并且,他通過“弱涌現”和“強涌現”來解釋機器各部分之間的相互作用。庫茲韋爾認為,當機器“說出”他們的感受和感知經驗,而我們相信他們所說的是真的,他們就相當于有意識的人了。庫茲韋爾將意識理解為“思考自己的思想的能力”,我們能夠通過測試來評估這種能力,但是庫茲韋爾也指出,“在討論意識時,人們很容易陷入對意識的可觀察性和可衡量性這一問題的思考中,而這種方法忽略了意識的本質”。

(三) 方法論層面:機器倫理與機器人倫理

人工智能倫理的研究伴隨著人工智能的發展。伴隨狹義人工智能(主要被設計用于執行特定的任務,如駕駛汽車、護理老人等)和通用人工智能(能夠完成人類可以完成的任何任務)的發展,目前的人工智能倫理研究主要聚焦兩類問題:一個問題是我們是否可以將機器道德化,使得機器可以自主地做人類認為正確的事;另一個問題涉及人工智能對人類的影響,如我們能否控制人工智能,使其更好地為人類服務?有學者提出把機器人倫理學分為兩個分支學科,分別是“機器倫理學”(Machine Ethics)和“機器人倫理學”(Robot Ethics)。其中,機器倫理學的一些討論建立在這樣的預設基礎上:機器在某種意義上可以成為對其行為負責的道德主體,或“自主的道德主體”?!皺C器倫理學”主要關注機器如何對人類表現出符合倫理道德的行為。機器倫理是“有道德的機器”的倫理,是機器作為道德主體的倫理,而不僅僅是人類將機器作為客體使用的倫理?!霸擃I域的一個核心張力是創建人工主體的主體與人工主體本身之間的關系,以及誰對使用這些系統的行為和后果負責、受罰和承擔義務。”“機器人倫理學”主要關注人類如何在設計和使用階段與這些機器交互,包括機器運作過程中的倫理問題及人類因為機器人的介入而產生的倫理問題,如軍事機器人、社交機器人、醫療機器人、性愛機器人等等所帶來的一些道德風險和挑戰?!皺C器人倫理學的關鍵問題在于人們對機器人的感覺與信念問題”,關乎人們如何識別和對待機器人(將其視作機器還是動物)及其涉及的一系列心理、行為和方法。迄今為止,這一領域主要由哲學家和社會理論家主 導。

簡而言之,“機器人倫理學”與“機器倫理學”都試圖為人機關系提供道德支持。機器倫理主要是關于人工智能是不是可以成為一種道德主體,而機器人倫理主要是關于如何善用人工智能進行負責任的創新和應用。某種程度上,“機器人倫理”主要是回應“機器倫理”在面對機器高度智能化、人機交互不斷深度化與廣泛化時所提出的問題。而通用人工智能(AGI)的倫理問題既包括機器倫理,也包括機器人倫理?!癆GI 提出了兩個截然不同的倫理挑戰:第一個是如何打造一個行為合乎倫理的人工智能……第二個倫理挑戰是如何在倫理層面使用它?!钡谝粋€層面涉及到機器倫理,第二個層面涉及機器人倫 理。

在以上這些討論中,蘊含兩個核心問題:(1)道德是有邏輯的嗎?人工智能是否可能具有意識和自主性?這將是一個事關機器倫理能否編碼,能否創造具有道德的機器人的核心問題。(2)機器可以成為道德主體嗎?人工智能如果能夠像人類一樣進行學習、接受信息并作出判斷和決策,我們能否將其視為平等的人呢?意識和自主性常常被視作道德主體的必要能力,盡管這對于智能機器人的創造來說仍是前途未卜的,可是依然有很多人開始從理論上探討人工智能倫理設計的可能性。溫德爾·沃勒克(Wendell Wallach)和科林·艾倫(Colin Allen)提出了機器人倫理設計的三種進路,分別是自上而下的進路,自下而上的進路以及混合的進路。荷蘭學者馬克·科爾伯格(Mark Coeckelbergh)則從人與機器人互動關系的角度來考察機器人倫理,認為可以從人與動物的關系擴展到人機關系,更加關注機器人在不同時間、不同環境下對人類的表現,以此來推動機器的設計和研究。杜嚴勇指出,“可以更具體地把人與機器人的關系分為四種:觀察關系、干預關系、互動關系和建議關系”。還有學者提出了“價值敏感設計”,在實踐中考慮到技術設計過程中的所有利益相關者,把機器人的使用語境與設計語境緊密聯系起來。這些研究中已經有了“關系轉向”的跡象,只是還沒有清晰和明確地表達出 來。

(四) 價值論層面:人機關系與人類未來

概括起來,關于人工智能對人類的作用,有三種主要的觀點,即樂觀主義、悲觀主義和現實主 義。

樂觀主義的觀點認為,人工智能的發展并非壞事,人類將受益于人工智能。比如庫茲韋爾指出在不久的將來,人工智能將可能通過物理手段制造出媲美人腦的非生物型智能機器,并且可能會超過人腦,人類與機器會結合成為全新的物種。他反復強調了加速循環規則,認為信息科技的發展會導致存儲能力、計算能力、芯片規模等暴漲,從而引起指數規模的變化。“我的核心論點,也就是我所稱的加速回報定律,是信息科技中的基本理論,它遵循可預見的指數級增長規律,反對傳統的認為‘你無法預知未來’的觀念?!彼J為正是通過這樣的技術,我們才有能力解決人類所面臨的重大挑 戰。

悲觀主義的觀點認為,隨著人工智能的發展,可能會出現奇點,進而人工智能會控制和操縱人類,使人成為機器的附庸。有些學者認為超級人工智能系統只是一個理性的終極理想,機器無法取代人類,“人類希望通過邏輯工具來建立冷靜客觀的知識體系,這個知識體系不應該有任何主觀的知識和情緒夾雜在其中,但問題是一旦有了的體系,并且這樣的體系可以自動去包羅萬象而形成所謂的人工智能的時候,人本身的作用就不大了。”而哥德爾不完備定理展示了即使數學系統的理性也會受到限制,科學也無法發現所有真理,認知總是會有邊界的。況且,人之所以為人,除了那些理性的部分之外,還有一些感性的部分是無法被理性取代的,而這些感性的、直覺的、情感的、體驗的部分才使得人成為人,并與機器區別 開。

現實主義的觀點認為,人工智能的發展有大量的機遇,要善用人工智能更好地為人類服務。在這方面,又有兩種觀點:一種觀點認為,我們不怕人工智能發展太快,怕的是越界,要充分思考人工智能和人之間的界限是什么?一種觀點是人工智能應該進行倫理,法律和社會的參與。其中,社會和法律主要是現實層面的舉措,體現的是與人工智能發展的實然關系,而倫理層面更多具有前瞻性,體現的是與人工智能發展的應然關 系。

二、 人工智能倫理研究中的困境

如今,人工智能已經在挑戰我們數千年來進行道德推理和道德判斷的方式。我們應該如何以哲學的方式進行人工智能倫理研究?需要注意的是,哲學家和倫理學家并不擅長預測技術的出現,所以,哲學和倫理學研究更多地不是解決人工智能產生的特定技術和倫理問題,而是澄清問題的前提,并進行批判性反思,進而調整提問問題的方式。一直以來,在規范倫理學領域,義務論、功利主義、美德倫理學等理論和立場的膠著一直存在,對一些一般的道德選擇我們尚且無法達到共識,在人工智能領域這么復雜的充滿挑戰的技術實踐中,一致性、統一性的道德訴求能成功嗎?實際上,人工智能倫理的規范路徑研究面臨一些困難,概言之,主要有概念的模糊性、認知的有限性、情境的復雜性與道德選擇的不確定 性。

(一) 概念的模糊性

人工智能倫理的研究涉及很多不同的范式,因此出現很多術語的歧義和爭論也就不足為奇了,其中也包括主體和主體性、智能體、自主性和意識等關鍵概念。對這些概念的梳理可能并不能從根本上消除歧義,但可以看出,當今關于這些概念爭論的焦點和根源在哪 里。

在傳統哲學中,一般認為只有人才是主體,人的意識和活動才具有主體性?!爸黧w性”一詞一般用來指主體作出決策、執行行動并對行動負責的能力。這個概念意味著主體必須是具有理性的認知、思考和行動能力的,并能根據復雜的環境變化自主地采取相應的行動且為之負責。在人工智能哲學中,擁有意識和自主性的通用人工智能的設想對主體和主體性等概念提出挑 戰。

自20 世紀80 年代以來,“智能體”成為現代人工智能的核心主題,智能體與主體的關聯變得緊密起來。在人工智能的背景下,主體(agent)具有行為實體的特征,只要能有效控制并進行一些操作活動就可以是主體。但是從哲學的觀點看,這些行為主體的意圖是從外部發出的,這意味著人工智能自身不會自主決定并開啟行動,也不具備自我理解和反思能力。另外,從對行為后果的態度看,哲學中的主體與人工智能、經濟學和心理學中的主體也有顯著差異,前者可以對自己的行為有預期,并要對自己的行為負責,而后者則不具備這種能力。機器或機器人如果具有自主道德意識并能為自身行為負責,那固然是可以稱之為“道德主體”,但即便自動駕駛汽車的責任歸屬討論得熱火朝天,也依然很少有人認為,自動駕駛汽車本身應該承擔什么責任后果。這意味著,主體與自主性在人工智能領域還遠未成為共 識。

(二) 認知的有限性

隨著人工智能不斷發展,相應成果的科學解釋也面臨挑戰。盡管人工智能可能會產生大量的數據科學知識,但是卻并沒有因此增加對身心關系等問題的本質理解,甚至,認知危機還會演變為道德危機。在人工智能和大數據時代,數據增長的速度和幅度以及數據處理的程度都遠超原來最優秀的科學家的計算能力,這些對我們傳統的科學知識和因果關系提出挑戰。大數據思維關注事物的相關關系以及不確定性,也使得我們對原有的科學理解方式產生質疑。雖然計算機在某些能力上已經超過了我們,但是,我們對機器的功能卻無法充分解釋或理解。對在此科學基礎上發展起來的人工智能倫理,則更需要謹 慎。

認知的有限性源于機器學習與人類思維的有限性與脆弱性,并可能帶來一些倫理問題。這些有限性表現在以下幾個方面:(1)機器學習會造成信息冗余,引發道德風險。機器學習在數據采集和數據挖掘的過程中,會造成個人信息遺漏,從而侵犯個人隱私權。比如,面部識別技術可能會大大提高分辨人群的效率,但是可能也會帶來數據歧視的風險。機器學習還會產生垃圾數據、錯誤數據以及信息冗余,造成模式識別的“過度匹配”或者“不適配”的問題。(2)合乎道德的機器設計存在很大爭議。當前的機器學習系統更多是弱人工智能,沒有自我意識。雖然“機器倫理”致力于解決“道德編碼”和“道德嵌入”的問題,從而設計出行為合乎道德的機器,但是難點在于,很難知道是否以及何時應用了這些道德原則。(3)人類自身無法克服的脆弱性也造成認知的局限和對自身的傷害。比如,利用生成性對抗網絡,可以從現有數據集中生成新類型的數據,制作逼真的視頻。這些所謂的“深度偽造”(如AI 換臉)很可能會發展到我們很難辨別真偽的地步,由此帶來的新型犯罪會給當前的倫理和法律體系帶來嚴峻挑戰。另外,機器人的自動化將在不久的將來取代人類勞動力的很大一部分。我們應該如何對待未來的超級人工智能,如何確保人工智能不會對我們不利,這些問題都值得進一步探 討。

(三) 情境的復雜性

無論使用何種規范性框架來模擬機器的道德判斷,其前提都要取決于道德決策所依據的道德規范,但是,道德規范的原則和路徑從來不是統一的范式,而是與長期的社會和文化傳統有關。理論上的規范性與實踐情境中的差異性導致了道德判斷和選擇的復雜性,倫理原則的相對性與實踐的有效性之間,也一直存在一種張力。這也使得倫理學家提供的道德困境解決方案可能不但不會被人工智能專家接受,甚至也會被公眾拒絕,畢竟對一些人來說是有價值的道德選擇,對另外一些人可能是無效 的。

在人工智能技術的具體實踐和應用中,因為道德情境的復雜性,也使得人工智能的倫理設計變得復雜。宏觀地講,經常會出現過于高估或者低估人工智能的情況。高估人工智能風險可能有兩個向度的表現:一方面認為人工智能可能會威脅到人類生存,另一方面,又認為人工智能可以用來拯救人類于危亡之中。由埃隆·馬斯克創建的Neuralink 公司,目標就是在我們的頭骨中植入芯片,以提高我們的認知能力和記憶力,從而“拯救人類”對抗人工智能。然而,從倫理學的角度看,如果這些技術可行,那么這些技術的擁有者就有可能將他們想要的信息附加在大腦中,并因此控制大腦的思維。這到底是對人類生存的威脅還是拯救?另外,還有些人出于“善意”的目的,想通過人類增強技術延長人的壽命,但是這也會導致出現“數字分身”或者“智能增強”后的新物種。如此一來,技術進步的加速定律將不可逆轉地改變知識生產的體制,并創造出誰都控制不了的技術物,對于這樣的結局,人類顯然沒有做好充足的準 備。

而低估人工智能的風險,主要是認為人工智能威脅論是一種不切實際的夸大,人工智能充其量只是機器模擬,不可能具有意識和情感,不能跟人相提并論。問題是,一般的技術物尚且具有結構意向和功能意向,起到類似主體的調節作用,何況經過深度學習后能產生新類型的智能機器呢?比如在護理機器人和性機器人中,即便用戶理智上知道這是機器人,但是從情感上,依然“愿意”把它當作真實的“伙伴”或者“家人”,或者寧愿選擇機器人而不是人作為伴侶,更多地依賴于自己的體驗和感受而不是思維來決策,這又該如何面對機器人的道德主體性呢?推而廣之,對機器人地位和作用的界定不在機器本身,而在人與機器的關系之中,這又會對我們的道德和法律體系以及社會秩序帶來怎樣的挑戰 呢?

這些問題構成了關于人工智能的責任鴻溝。人工智能并未真的達到主體需要的關鍵能力,但是,人類還是把一些任務外包給了機器人(諸如駕駛汽車、陪護病人等)。在這些情境中,誰應該對某事負責卻并不清晰。另外,除了不同類型的責任鴻溝之外,機器人和人工智能還可能導致人們所謂的“義務鴻溝”。不管機器再智能化、自動化,義務通常還是歸因于人類主體,機器人本身沒有義務。比如人類在駕駛汽車時造成傷害或者事故會受到處罰,但是,汽車本身卻不會因此受罰。能動性和自主性是理性主體的屬性,想象一下,假如存在一種哲學意義上真正具有自主性的軍事武器,它會自行選擇目標,那不僅對平民來說是一場噩夢,對軍事人員來說也難以接受,因為他們也需要能夠完全控制和信任的武器系統。在人工智能中,使用道德主體這樣的概念并不意味著機器具有責任和義務,所以將機器道德化只能是一個半截子工 程。

(四) 道德選擇的不確定性

科幻作家艾薩克·阿西莫夫提出了著名的機器人三定律,其他學者也建議,我們應該確保超級人工智能的價值觀和目標與人類的一致。但是實際操作中,機器應該具有什么樣的道德?如何將機器道德化?這些難題不僅僅是實踐難題,也是理論難題。義務論、功利主義和美德倫理學等倫理理論一直存在著分歧,這意味著將這些理論直接編程到機器中并不可 行。

讓—弗朗索瓦·邦內豐(Jean-Fran?ois Bonnefon)、阿齊姆·謝里夫(Azim Shariff)等學者認為,即使倫理學家贊成應該用哪種道德原則指導道德算法,但如果外行強烈反對他們并決定不使用該算法,則對他們的工作也不會產生什么影響。安德里亞·洛雷吉亞(Andrea Loreggia)、尼古拉斯·馬蒂(Nicholas Mattei)等學者從計算機科學的角度介紹了如何構建具有道德行為的智能系統。斯蒂芬·沃爾夫拉姆(Stephen Wolfram)致力于從計算機科學角度闡述如何構建合乎道德的人工智能,定義了人工智能要遵循的道德規范,以在人類目標和計算能力之間架起一座橋 梁。

毫無疑問,在機器中引入人類價值觀是很有誘惑力的,這意味著讓機器按照人類的道德行為的標準來行動。然而,由于機器并不理解人類的意圖,只能根據外部指令來行動,從這一點上看,機器延續了人類道德選擇的情境性、復雜性和不確定性,且是在有限的范圍內行動,不能對自己的行為負責,也無法反思行動的意義,所以并不能構成真正的自主 性。

三、“關系轉向”視角及其展開邏輯

從前面的論證可以看出,人機關系是機器倫理和機器人倫理的核心問題。當前的討論方式總體還是偏實在論的,且都離不開人類中心主義的立場。雖然有時機器被賦予了道德主體的地位,卻還是回到為人類服務的“客體”的立場,尚未得到平等的對待和尊重。對這些問題的提問方式進行前提反思,打破慣性思維和傳統,才是哲學討論的題中應有之 義。

從哲學和倫理學的視角看,結合人工智能的發展,我們需要一種新的方法論,那就是人工智能的“關系轉向”:這種路徑更多是現象學的、經驗主義的視角,它基于身體主體而不是我思主體來看待人和機器的本質,從情境化視角來看待人工智能和大數據的知識生產以及倫理學和認識論,從開放的理性和復雜的范式出發進行負責任創新,從人機共存和人類命運共同體的關系來看待人工智能的發展。關系轉向在哲學上并非新生事物,但是將其應用于人工智能倫理研究,或許能通過改變提問問題的方式,進而推動相關研究。在此基礎上,不難發現,人工智能倫理中的“關系轉向”是一種可能的競爭性策略,重要的不是通過控制和約束為人工智能的發展制定統一的倫理規則,而是重新認識到,人工智能倫理問題是人與機器、人與技術、人與人以及人與社會的共同創造。我們需要反轉我們的認識和理解,把人工智能當成伙伴,在關系思維中謀劃更好的人類未 來。

(一) 從身體主體看待人與機器的本質

在人工智能的討論中,一個非常重要的問題是人與機器的界限。機器是否/應該具有主體性,或者是人工智能體是否/應該具有主體地位,對馬克思主義哲學關于主體和客體的認識帶來非常嚴峻的挑戰。在馬克思主義哲學看來,主體是從事認識和實踐的人,客體就是被人所認識和實踐的對象。但是隨著科技發展及科技哲學的展開,技術現象學的觀點越來越被廣為接受:人是通過技術棲居于世的,尤其人工智能的發展又將技術在人與世界之間的積極的調節作用推至前臺,甚至通過技術內化于人與世界,由“人—技術—世界”過渡為“技術化的人—技術化的世 界”。

在人工智能高度發展的時代,如何更好地理解主體和客體需要一些新的探討。按照拉圖爾的“行動者網絡理論”,只要對一個事物的發展起決定性作用的因素都可以成為行動者(actor),這個行動者可以是人,也可以是物,是多元主體(multisubject)。按照荷蘭技術哲學家維貝克的觀點,技術物可能會在某些情況下成為一種道德主體,起到類似主體的作用,也叫作技術的居間調節作用。唐娜·哈拉維描繪了“賽博格”這樣一種人、機器和動物的混合體,也有人把這個叫作后人類形象。隨著第四次科技革命的興起,技術改變的是人類自身,當今的主體更多是一種技術化的主體,是身體主體,這是與我思主體相對而言的。我思主體是建立在主客二元對立的背景下的,身體與心靈是兩個不同的實體;而身體主體是建立在“涉身自我”的基礎上的,“身體已經不僅僅是傳統的生物學意義上的事實,不僅僅是一副由生理組織構成的血肉之軀,而是呈現出確定性與不確定性、穩定性與流動性、普遍性與差異性的統一”。這樣一種主體是現象學意義上的身體,是一種知覺的主體、體驗的主體,也是一種多元開放的主體。身體主體是涉身的,我們對人性的理解都是建立在對身體的整體知覺之上的,體驗恰恰是人與機器的本質區 別。

從身體主體這一視角出發,會發現技術和人是相互構成的,機器人和人工智能并非是外在于我們的存在,而是關系之中的產物,它是主體還是客體,取決于我們與機器之間的關聯。關于人機關系,“工具論”認為技術是為用戶服務的“工具”。但也有學者指出,計算機系統是由從事社會實踐和追求意義的人們生產和使用的,“無論未來的計算機系統如何獨立、自動和交互,它們都將(直接或間接)是人類行為、人類社會制度和人類決策的產物”。康德曾指出,每個人的人性都是目的本身,而不僅僅是手段。當我們談論人類時,我們是指作為人類的整體,不僅有人類的思想,而且有人類的身體?!叭祟悺敝傅氖恰拔覀儶毺氐纳眢w、大腦、思想以及生物和文化特征?!边@并不意味著人類不可以被機器改變,而是指機器人和人工智能可以幫助人類變得更好。若是人類將機器人作為主體,那么需要考慮的不僅僅是如何讓機器的行為更加合乎人類道德,而是人類對機器人本身是否給予了必要的尊重。相互性原則可以從人倫關系推廣到人機關系,對機器人的尊重也就是對人類的尊 重。

(二) 從情境化知識看待人工智能的倫理地位

在人工智能和大數據的疊加效應下,相關關系取代了因果關系成為理解知識的前提與依據。哈拉維曾經提出“情境化知識”的概念,用來表示知識的強客觀性。“情境化知識”意味著“局部的視角”和“負責的科學”,意味著我們為了更好地了解事物之間的有機聯系,要認識到每一個視角、立場、觀點的局限與價值,并進行負責的有理有據地批判。針對機器是否具有道德地位的問題,現象學的關系思維給出了一種可選擇的方案,那就是要基于不同的道德立場看待問題的方式,向他人開放并能夠容納他人的道德差異。在存在論看來,人類的本質是與生存境況相關聯的,是“在世之中”的存在,而構成“生活世界”的因素,可以是人(包括他人)、動物、環境、組織和技術物(如人工智能)。由此出發看待人工智能的道德地位就轉移了問題的焦點,變成:人工智能的道德地位到底是源于其內在屬性,還是社會建構?相應的,問題就從“是不是”這樣一個本體論的事實層面的討論,變成“該不該”這樣一個倫理學的價值層面的討論?!叭斯ぶ悄苣艹蔀橐粋€道德主體嗎?”這樣一個本體論問題就轉換成“人工智能應該是一個道德主體嗎?”這樣一個倫理學問題。而“該不該”這樣一個應然層面的問題不是根據事物是什么來決定的,而是取決于事物在實際社會情境中與人的關聯。在這種情況下,社會關系的實踐特性優先于個體或物質實體的表象特征。這種視角的變化會帶來許多重要的創新,也會影響人工智能倫理和道德哲學的發 展。

從情境化的視角看,人與機器之間的關系是交互的。目前的人工智能倫理都默認了這一前提:不管采取什么樣的倫理理論,都是為了通過調整機器人或者人工智能,使他們更好地滿足人的需求,也就是說,通常是以人類為中心去思考人與機器的關系的。如果機器人有朝一日能夠體驗痛苦和其他情感狀態,那么建立這樣的系統是否合乎道德?對此,斯文·尼霍爾姆(Sven Nyholm)指出了另外一個路徑,就是人類也可以朝著更好地適應機器的方向發展?!皬牡赖碌慕嵌葋砜矗淹獗砗托袨槎枷袢祟惖臋C器人視為有尊嚴的機器人,而不僅僅是工具或儀器,這可能是一個好主意?!比祟愔鲃舆m應機器或機器人并不是本末倒置,或者將人置于不人的境地,而是在關系中生存的智慧。比如,在自動駕駛汽車達到很高的水平的時候,帶有人工智能的汽車可能會變得比人類駕駛員更安全、更高效。人與機器的互動方式有個互相適應的過程,他還論證了我們需要適應機器人的條件:“ (1)對受影響的人類有一些明確的和可識別的好處(例如,人類更安全,我們的自然環境得到保護);(2)我們適應機器人的方式是非接觸的和/或無創的(例如,我們不需要將大腦刺激技術運用到我們的大腦中,但我們可以使用許多非侵入性技術手段);(3)我們嘗試使自己適應機器人和人工智能的方式僅在特定的領域(例如,交通領域),并且不會蔓延到生活的太多其他領域;(4)我們適應機器人的方式總體是可逆的?!?/p>

在關系視域中,關系思維比實體思維更加根本。對人工智能這樣一個特殊類型的物來說,“關系優先于實體”可以說是人工智能倫理的關系轉向。不僅人與機器的交互方式需要思考,即便對同一個人工智能體,從關系的角度看,理解也是不一樣的,“道德地位的決定和授予不是基于主觀或內在的屬性,而是基于客觀可觀察的外在關系?!笨瓶瞬褚策M行過類似的表述,“‘道德考慮’不再被視為實體的‘內在’考慮,相反,它被視為‘外在’考慮:它被歸為社會關系和社會環境中的實體?!币虼?,人/事物的意義并不在于它有一個固定不變的本質,而是在于某人或某物對我們來說意味著什么以及我們在這個關系中的決定、行動和回應。繼科克伯格之后,安妮·格德斯(Anne Gerdes)將類似“關系優先于相關事物”的表述稱為倫理學中的“關系轉向”。以護理機器人為例。對一個與護理機器人建立了深刻的情感鏈接的用戶或者主人來說,護理機器人絕對不僅是工具,更是一個交流的對象或者感情的承載,這對他/她來說無疑就是具有道德地位的,可以視為道德主體;而對一個工程師或者機器人生產和銷售企業來說,護理機器人就是物,是一個產品或者一個商品,那護理機器人對他們來說就不具有道德主體的地位。拋開特定的情境去討論人工智能是不是具有意識和情感,是不是道德主體是沒有意義的。因此,不必非要爭辯出一個一致性的、統一性的答案,就像當今的數碼藝術,對于技術人員可能就是技術物,對于藝術家來說則是藝術品。將它看作是什么,既與物有關(是這個數碼藝術品而不是那個),更與主體和世界的關聯有關(是技術物還是藝術品),甚至某種程度上,后者更加具有優先 性。

(三) 從開放的理性看負責任創新

技術的發展與科學、文化與社會等因素密切相關。從技術的產生來看,技術與社會因素共同構成一種無縫之網。從技術的功能來說,技術并不是價值中立的,而是價值負載的。就技術的本質而言,技術可以是工具,也可以是目的。另外,技術與人相互構成,按照斯蒂格勒的觀點,技術是良藥也是毒藥,我們發明了技術,技術又反過來構成人本 身。

技術與非技術因素的交織決定了我們必須采取開放的理性,才能更好地面對和適應新技術的發展和演化。開放的理性具有以下兩重含義:首先,開放的理性有能力包容不同的建議和批評,承認批評是理性生活的前提。其次,開放的理性還意味著,為了解決問題而提出的建議亦須合乎理性,必須負責。負責意味著不管從哪種立場出發,都要審慎地對待人工智能的發展。倫理學應該為科學家提供倫理反思的工具,幫助科學家更全面地了解科技產品的社會影響,更清楚地認識到自己的社會責任??萍紓惱硌芯坎皇且拗瓶茖W家的學術研究,而是為科技發展提供倫理支持和規約,使科學家和工程師研發出更安全、更人性的科技產品。同時,要促進科學文化與人文文化的融通,使得負責任創新成為科技創新的重要組成部 分。

從關系出發對機器人進行倫理設計,意味著要考慮到人類道德情境的多樣性、機器人技術創新的復雜性及人工智能應用領域的廣泛性等。未來社會是一個各個學科相互協作的社會,計算機科學、認知科學與技術哲學都需要深入探索負責任創新的理論和實踐。人工智能是極具綜合性、復雜性和前沿性的科學技術,需要幾乎所有的理工與人文社會科學學科進行交叉研究,也需要政府、行業等各個領域的人進行對話和協作。近年來產業界開始豐富“倫理嵌入設計”的路徑,根據特定情境下的人機關系,對倫理設計的理念與路徑進行動態調整與評估反饋,推動負責任創 新。

(四) 人機共存與人類命運共同體

第四次科技革命對人類自身帶來嚴峻挑戰。在人類世時代,機器人將成為我們生存的一部分,自然與文化、技術與生物學之間的界限將被重新界定。類人機器人與我們在工業自動化中熟悉的機器人不同。工業機器人完全由人類控制,但類人機器人被釋放到人們的日常生活中時會發生什么,人文和社會科學領域的相關洞察和分析還非常有限?!叭祟惿鐣袡C器人生產和實施過程中潛在的人—機交互以及主客體關系的復雜協商的分析,是通過廣泛的切入點與人類存在集合在一起,并將社會機器人作為我們的新伙伴展開的?!币虼耍覀兠媾R一個選擇,要么我們什么都不做,面臨一些生存風險,要么通過一些技術或者道德的手段改善人類,以便有更好的未 來。

人類已經被置于各種不確定性和風險當中,如何更好地促進人的解放和人的全面自由發展,需要我們更加全面、系統、深入地反思人和技術的關系。海德格爾提出,面對技術的風險,希望用藝術的沉思來作為救贖;馬克思主義希望人能夠擺脫對物的依賴和對人的依賴,實現人的全面而自由的發展。當今時代,被技術武裝和塑造的人類是人、機器和動物的混合體。人和機器之間不是非此即彼的封閉的關系,而是相互統一、相互塑造的。機器永遠不能夠取代人類,但可以是身體主體的延伸和擴展。我們不應該在人工智能倫理中采取“一刀切”的方法。我們的目標既不是讓機器成為自由的道德主體,也不是讓機器按照人類制定的道德規則行事。相反,人工智能存在的意義在于幫助人類變得更加明智,更加意識到自己行為的后果,從而在行動時更加負責。因此,我們需要從人類命運共同體這個角度去思考人的發展與解放的問題。人類命運共同體不只是人和人的關系,也不只是國與國的關系,它還包括人與機器、人與技術的關系。只有人和機器、人和技術和諧共處,我們才能贏得一個更加美好的人類未 來。

猜你喜歡
主體人工智能人類
人類能否一覺到未來?
論自然人破產法的適用主體
南大法學(2021年3期)2021-08-13 09:22:32
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
關于遺產保護主體的思考
人類正在消滅自然
奧秘(2015年2期)2015-09-10 07:22:44
主站蜘蛛池模板: 四虎永久免费在线| 免费看a级毛片| 亚洲天堂网在线播放| 国产网友愉拍精品| 一级毛片免费观看不卡视频| 精品伊人久久久大香线蕉欧美| 2020精品极品国产色在线观看| 亚洲A∨无码精品午夜在线观看| 黄色网址手机国内免费在线观看| 国产流白浆视频| 亚洲国产精品无码久久一线| 婷婷久久综合九色综合88| 色悠久久综合| 免费啪啪网址| 欧美日韩午夜| 亚洲视屏在线观看| 精品91自产拍在线| 在线国产毛片手机小视频| 国产精品成人第一区| 国产美女91呻吟求| 国产综合日韩另类一区二区| 激情影院内射美女| 九色在线视频导航91| 中文字幕免费视频| 久久久久国产一级毛片高清板| 国产女人18水真多毛片18精品| 国产小视频a在线观看| 婷婷色婷婷| 久青草免费在线视频| 欧美五月婷婷| Aⅴ无码专区在线观看| 在线观看av永久| 亚洲午夜天堂| 国产高潮视频在线观看| 亚洲第一黄片大全| 欧美午夜网| 日本免费a视频| 澳门av无码| 婷婷色丁香综合激情| 亚洲国产天堂久久九九九| 黄色网页在线观看| 成人一级黄色毛片| 91成人在线观看视频| 色屁屁一区二区三区视频国产| 国产成人一区二区| 高清无码不卡视频| 亚洲日本中文字幕天堂网| 制服丝袜无码每日更新| 日韩国产综合精选| 一级黄色网站在线免费看| 国产三级精品三级在线观看| 中文字幕va| 欧美精品成人一区二区视频一| 免费国产在线精品一区 | 国产成人精品第一区二区| 亚洲色欲色欲www网| 亚洲成人在线免费| 日韩精品亚洲人旧成在线| 2021国产精品自产拍在线观看 | 日本午夜在线视频| 久久亚洲AⅤ无码精品午夜麻豆| 九色免费视频| 国产JIZzJIzz视频全部免费| 国产91麻豆免费观看| 久久久久久尹人网香蕉 | 色网站在线免费观看| 69视频国产| 日韩麻豆小视频| 色哟哟国产精品| 久久精品国产电影| 日本少妇又色又爽又高潮| 毛片免费高清免费| 欧美成人综合视频| 美女无遮挡被啪啪到高潮免费| 57pao国产成视频免费播放| 呦系列视频一区二区三区| 国产一级在线播放| 高清无码不卡视频| 亚洲综合色婷婷| 亚洲日韩在线满18点击进入| 在线日韩日本国产亚洲| 青青草a国产免费观看|