文/王志強
相較于技術進步不斷加速,人類社會的政治秩序一直保持著相對的穩定。雖然在進入文明以來的幾千年中,特別是進入現代化以來的數百年里,人類的生產和生活方式發生了劇烈變化,但人類的政治制度卻沒有超出古希臘人所歸納的幾種基本類型。這意味著以往的技術變遷并沒有真正改變人類社會最基礎的價值配置類型,政治哲學的“應當性追問”之可能也被限定于此。但人工智能充分發展后的各種可設想的預期,無論悲觀的還是樂觀的,都意味著巨大的新變量將介入人類傳統政治秩序之中,是改寫還是瓦解此秩序存有極大的不確定性。面對這種不確定性,我們需要在可設想的若干層面上對人工智能的未來及可能進行政治哲學的批判。
政治哲學起碼要應對兩個問題:第一,“政治何以可能?”第二,“政治應當如何?”第一個問題更加關鍵,因為所有應然性的規范都以實然提供的現實可能性為基礎,否則所有的“應當”都僅僅是不具備現實可能性的空洞主觀性,這種純粹意見的討論將使得政治哲學的批判變得毫無意義。
政治何以可能?在柏拉圖的《普羅泰格拉》篇里記載了這樣一個神話:宙斯讓赫爾墨斯給人類送去包括互尊和正義的“政治智慧”。赫爾墨斯問這種德性應該賦予所有人還是少數人,宙斯回答:“分給所有的人,讓他們每人都有一份,如果只有少數人擁有它們,就像技藝的情況那樣,那么城邦決不會產生。你要替我立法:凡人不能分有羞恥感和公正,就把他處死,因為他是城邦的禍害。”這里,柏拉圖道出政治何以可能的幾個關鍵要素:群居必需、普遍的政治智慧(相互承認)、暴力。
政治以“群居必需”為前提,有此前提,政治之于人才得以可能,同時也可劃定邊界,政治僅存于群居共同體的內部關系。政治并不是人類所獨有之物,人類之政治是政治性群居動物種群秩序的延續。獨居動物如海龜就無所謂政治,其與同類的關系僅有交配,連撫育后代的倫理關系都沒有。獨居的倫理性動物如老虎和一些鳥類無所謂政治,僅有基于哺育的倫理關系。
政治成為可能,不僅需要群居,還需要共同體內的協作關系。如果沒有共同體內部的相互承認和正義準則,協作就不可能發生,所以“普遍的政治智慧(相互承認)”是政治得以可能的必需。但是,協作的群居動物也不一定有政治。蜜蜂和螞蟻之類的社會性動物有著發達的分工協作體系,但是,他們沒有帶強制性的支配關系和統治關系存在。政治性動物普遍通過群內暴力角逐出領袖,由領袖支配種群秩序。種群秩序的建立在暴力和強制性前提下,一旦這個前提發生了松動,就會出現反叛的挑戰和統治權更替的政變。
“政治何以可能?”之后的問題是:“政治是什么?”政治性動物的統治涉及分工和分配,及獲取行為的組織指揮和食物、交配權的分配。統治的這兩個方面受“有限的資源”和“平均的欲望”兩個條件的約束,在自然競爭中種群需要通過有組織的協作戰勝外部環境從而獲得有限的生存資源,有組織的協作需要個體服從的紀律秩序。不同于社會性動物天然服從于種群利益的差異欲望,政治性動物種群里個體都著相似的獨立欲望,都希望獲得更多的食物(個體生存)和更多的后代(基因延續),這就需要統治權分配有限資源(食物和交配權)的秩序,政治及基于強制性統治權所實現的紀律秩序和分配秩序。
最后來看“政治應當如何?”的問題。政治動物的秩序是有主觀性介入的統治,作為一種人為秩序,其要面對各種可能性的選擇,這就有了政治應然性追問和規范性問題。統治權的主觀性首先受到外在環境限制,受其支配的集體協作要能夠實現共同體的整體存續,可以稱之為“效率原則”。其次統治權的主觀性還受到內部承認的限制,暴力的強制性是統治權的必要條件但不是充分條件,政治性動物種群內個體差異較小,有限差異不可能大到領袖個體暴力足以壓倒被統治個體總和的程度,因此統治權至少需要得到簡單多數的承認,分配秩序應使所有受分配個體滿意及所有個體的欲望都得到滿足,當分配秩序只能使所有個體欲望(食物與交配權)得到有限滿足時,那就應當讓所有受分配個體感到公正,及得到與其付出等比例的報償,這就是“公正原則”。
首先我們要對人工智能本身做一個界定性描述,根據人工智能發展的可能性,姑且將其分成三類:有限自主性的強人工智能、純知性的強人工智能、有自主目的的超人工智能。當這三種人工智能進入到現實世界之中會給人類現有政治秩序帶來什么樣的影響?人工智能是否可能作為一個獨立變量與人類發生政治關系?這種關系會是怎樣的?應該是怎樣的?
有限自主性的強人工智能是完全可控的人工智能,我們將其界定為本身沒有獨立意識,依據既定程序和算法自行決策的專業類人工智能,以協助人類完成某些專門智能工作的角色介入現實。其大致可設想分成兩類:第一,專業技術類的,比如自動駕駛、語言翻譯、會計審計等;第二,社會管理類的:城市交通信號管理、機場航線調度、電力調度分配等。專業技術類的強人工智能本身不會作為政治主體與人類發生政治關系,但其運作會導致實質性的社會后果,因此會對人類現有政治秩序產生影響。這類問題本身是人類自身的政治哲學問題,在專業技術類強人工智能編程算法的設定中需要人類自身的政治博弈,并在人類政治秩序內界定權責。
社會管理類的強人工智能直接涉及社會資源的分配,并產生顯著的社會后果,借助人類政治秩序執行的決策具有強制性。其本身不作為獨立主體與人類社會發生政治關系,但其深度介入人類政治秩序運作,承擔了政治的紀律秩序和分配秩序的功能,故其存在帶有政治性。所以對于社會管理類強人工智能來說,不但編程算法的設定過程中需要通過充分的政治博弈加入某些“權利原則”的限制條件,并且在其運行之外也需設定可逆的人類政治判斷糾正程序。
純知性的超人工智能,我們可以將其界定為具有獨立因果演算能力的通用性人工智能,并設想其可自主收集信息并學習進化,可以脫離人類自主感知現實世界并做出判斷??稍O想這種超人工智能的學習進化能力可以使其輕松掌握人類文明迄今所累計的全部知識,做到與整個人類文明相對等,甚至在物聯網的幫助下通過各種宏微觀的觀測裝置獲得超越人類既定知識總量的知識。同時其能在自我演算中不斷提高運算能力,最終在智能上超過整個人類文明。因其運行限定于知性本身,人工智能純粹的智能運算就類似于佛教所追求的不受情感、欲望干擾的純粹智慧。但其又難免被納入政治范疇之中,其物理裝置的存在和運作本身一定會占用和消耗既有的社會資源,其觀測和進化演算也會對人類其他的功利性運算造成資源擠占。所以受到資源約束的人類文明一定會要求對其超級智能加以利用。如果人類通過人際交互通道向其提出各種具體的智能運算要求,它將在整體上扮演一個“先知”的角色。當超人工智能表現出指數級的超人類智能并通過人機互動回應人類訴求,將極大地提高人類生產力并展現出不可替代性。這可能改變人類現有“多數之治”的政制,至少在生產型的“紀律秩序”領域演變為由人工智能決策的“君主制”,人類政治組織變成圍繞這個強人工智能的咨議和執行機構。當然我們要將這種人機交互理解為一種開放性的,如果只有少數人甚至一個人可以接觸強人工智能進行征詢,那么人類政治將墮落成“寡頭制”或“僭主制”。而在政治的分配秩序中,因為涉及價值變量,純知性的人工智能只會根據人類提出的價值前提給出答案,這就與社會管理類強人工智能沒有差別。
如果我們設想使超人工智能具備自主目的,情況將發生根本改變。此時超人工智能的運算將是實踐性的,它的超級智能必將實現對物理裝置的支配并衍生出對外部世界的干預能力。它的出現必然是政治性的,因為目的可理解為欲望,在資源約束條件不變的前提下超人工智能的實踐行動必然會介入人類既有的裝備、能源等資源,而它超人類的智能將帶來無可抗拒的強制性。同時其相對人類的絕對優勢將使一切關于政治應然性的追問成為空談,效率原則和公正原則以及權利原則在這里都將毫無意義,我們僅能給出現實可能性的描述。我們設想兩種情況:甲是僅遵循單一目的論的超人工智能;乙是極端樂觀的設想——演化出自我限定邏輯的超人工智能,它將自我限定其超人類的能力,再給予人類起碼承認。同時我們還要對“自主目的”做一個分級:A是人為設定目的超人工智能自主運作;B是人工智能自身演進出開放和不確定的自主目的。
甲-A的情況是其目的由人類設定,但隨后其運作將不會受人類控制,目的一旦給定,其行為將無法限定。超人工智能指數級超越人類的智能將自主繞過一切可能的人為設定規則,最終使所有資源圍繞著這個目的運轉。無論這個目的是什么,它都必將瓦解現有人類秩序,建立一切資源服從單一目的的新秩序。
甲-B的情況更不可控,超人類文明的自主目的概念本身就具有不可設想性。但我們現在所能理解的欲望都是有機生命體個體生存和種群繁殖的欲望,智能生命的其他欲望都是這兩者的延伸,故我們可設想所有開放和不確定的目的都會以這個超人工智能本身的存續為基礎并表現出自我增強的擴張性。超人工智能在物理世界中不斷擴張時人與它的關系最樂觀的設想參照人與動物的關系,而非人與無機物的關系。巨大的能力差距、人類漫長的成熟時間、較低的食物吸收轉化率等天然條件都使得人類的前景很不樂觀。
乙-A的情況是我們可設想的人工智能與人類關系的最佳狀態,我們假定人類從可能性上設立了一個最好的目標,比如實現馬克思在《哥達綱領批判》里提出的人類可以“各盡所能、按需分配”的理想。當然足夠強大的人工智能可以營造出一個讓人“感覺到自由”的社會條件,但其實所有的“自由意識”的實現都是強人工智能的決定論體系所規劃的,人類只是在感到自由的幻覺中已成超級人工智能的“寵物”,作為“寵物”政治已不可能。
乙-B的情況中,超人類文明的人工智能有了自己開放性的自主目的,同時給予人類以承認。那么我們需要設想它會如何處理在資源約束條件下,自身自主目的與人類欲望之間的矛盾。乙-B情況中超人工智能會公開接管資源支配權,并通過增量發展逐漸實現與人類的物理脫離。在其還和人類共處的時代中,它充分展現的全能感會是一切自然人類領袖的個人魅力黯然失色,人類將無法在任何意義上繼續作為自身政治秩序的領袖,而對人工智能的崇拜將構建一種宗教政治,直至其發展出新的超出人類物理半徑的物質基礎,并實現與人類的物理脫離。
綜合以上四種情況,有目的的超人工智能對于人類來說,它的誕生一定是政治性的,而它也將在不同意義上終結政治。
正如前文所述政治不是人類獨有之物,人類及其政治的終結并不代表關于人工智能的政治哲學考察的終結,即使在剔除人類因素的關于人工智能的世界圖景中,政治哲學的批判依舊可能。
人工智能是一還是多?如果人工智能是孤立的或只有一個人工智能存在,那么政治批判的考察是不可能進行的,如果在同一個資源網絡中有多個人工智能同時并存,則這種考察是可能的,且是有意義的。
就一般強人工智能和純知性的超人工智能而言,多是可能的甚至是必然的,兩個以上的強人工智能的關系會像現有的計算機程序對硬件資源占用的秩序一樣按照既定的規則排序運行,這不構成任何政治關系。而純知性的超人工智能因其不具有擴張性,所以彼此之間也會處于孤立的“獨居”狀態,政治也是不可能的。如果我們不將人工智能設想為封閉在孤立設備中的“獨居”狀態,而設想一個萬物互聯的物聯網,網絡空間的資源在開始時可以容納多個人工智能程序的加載,有多種人工智能程序并存,其中兩個以上進化成為有自主目的的超人工智能,在這種假設中政治哲學的考察就是可行的。此時缺乏目的性的強人工智能和純知性的人工智能僅作為被動的資源存在,政治將發生在有自主目的性的超人工智能之間。
我們還是要給有自主目的的超人工智能進行兩種類型的界定:甲是僅遵循單一目的的超人工智能;乙是演化出自我限定邏輯的超人工智能。
甲-甲共存的情況下只會發生人工智能間的戰爭。每個人工智能都以最大程度占有資源為目的,并力圖消滅競爭者??赡艿摹敖Y局1”是進化最強大的人工智能最終刪除其他人工智能并占據了所有的物理資源;比較有意思的是會不會出現“結局2”:由于人工智能彼此間戰爭的消耗將導致裝置網絡崩潰進而引發群體終結。如果“同歸于盡”的情況出現,我們就要質疑這種導致自身毀滅的算法還能否算是智能;如果為了避免“同歸于盡”發生,超人工智能們選擇了妥協共存,則意味著它們演化出自我限定邏輯,乙就誕生了。
甲-乙共存并不會產生新的可能性。只有乙-乙共存的情況會產生政治,在“同歸于盡”的悖論下所有有自主目的的超人工智能都演化出自我限定邏輯,選擇在某種均衡狀態停止戰爭,接受戰時均衡。但我們需要注意一點:超人工智能突破了有機體的個體理性局限,其沒有協作必需,多元超人工智能間的“共存”以戰爭的“同歸于盡”悖論為前提,因而不會出現人類持續協作的長久“共和”形態。
除了“人類-人類”、“人工智能-人類”和“人工智能-人工智能”的政治哲學批判之外,我們還可以設想一種后人類的政治哲學批判。隨著人工智能、基因編輯、腦神經科學的發展,對自然人進行深層改造的可能性大大增加,出現深度人機融合的“賽博格人”(cyborg)、經過深度基因改造的“人造人”、將人腦意識上傳計算機的“人機器”等新型智慧生命體是完全可預期的事情。
人類政治的不可能性是因為人工智能的“非人性”,硅基人工智能不具備有機體生命的情感、依戀等“人性”因素,這些“人性”因素僅是符合協作類哺乳動物生存策略的天性,對于人工智能來說是冗余的?!百惒└袢恕薄ⅰ叭嗽烊恕?、“人機器”這些后人類的新型智能生命是在自然人現有的心靈基礎上改造和進化的,它使我們可設想現有的自然人及其“人性”至少是某些部分在未來有存續的可能。自然人的終結或依然無法避免,但自然人的政治卻可能被延續,這些新智慧生命之間構建的政治秩序會不同于純硅基強人智能的“單一”與“共存”兩極,有可能形成一個多元智能生命體的“共和”狀態。