摘要:人工智能的立法挑戰兼具“功利”與“道義”雙重屬性,這要求立法超越近代以來的“科技—經濟”立法范式,而轉型至“在功利與道義之間”,并以此引領和保障人工智能立法的科學性。其中,道義論約束設定了基本門檻,人工智能活動只有在經過道義論檢驗之后才能轉向功利性考量,否則就將是否定性評價。具體而言,立法必須注重人工智能在“安全問題”、“權利問題”以及“人性問題”三領域構成的道義論挑戰,并以此為基礎在人工智能的研究和開發、運用和轉化階段進行鼓勵、支持和引導的立法選擇,同時輔以事前、事中與事后評估的管理和監督。在具體問題的抉擇上,立法科學性要求立法者必須充分發揮好“在功利與道義之間”的立法技藝,最終實現功利與道義的雙贏。
關鍵詞:人工智能;科學立法;道義論;功利主義
收稿日期:2020-03-15
基金項目:國家社科基金后期資助項目“人權話語的中國表達與體系建構”(20FFXB042);重慶市哲學社會科學重大規劃項目“權利的制度之維”(2021ZDZJ04)
作者簡介:王榮余,西南政法大學哲學系,博士,主要從事法哲學、制度法理論和科技倫理研究,E-mail:vincentry0322@yeah.net。
一、問題的提出:人工智能立法的范式轉型
隨著信息技術和生物科技的迭代發展,“第四次工業革命”正逐步成為一個被廣泛接受的事實。其中,信息技術經由“世界互聯網化”和“大數據”兩個階段的發展而開始轉向以機器學習和算法等技術為基礎的“人工智能時代”。2016年3月,智能機器人AlphaGo以4∶ 1的戰績擊敗世界圍棋冠軍李世石,這預示著“人工智能進入突破階段”,2016年成為人工智能的元年〔1〕。自此以后,人工智能(Artificial Intelligence,AI)的討論總是籠罩著一種潛在的憂慮,霍金、比爾·蓋茨等人便表達了這樣的不安。中國法學界關于人工智能法律責任問題的討論更是直接性地表達出“規制”意味,而對于其中較為棘手的人工智能體的法律主體地位問題也是要么忙于肯定要么忙于否定。何以如此?其原因就在于與一般的科技實踐引發的風險不同,人工智能這一事物本身便具有特殊性,主要表現在自身潛在擁有的“認識能力”和“控制能力”使其有可能會超越科技與人之間傳統的“手段—目的”或“客體—主體”關系框架。這即是說,在人工智能時代,作為地球主宰的“人”可能會淪為人工智能的“對象”,學界當前所討論的“大數據殺熟”以及“算法權力”等議題便是一個重要的表征。無論是對人們的外在行為還是內在尊嚴,這都是我們無法忍受的。更根本的是,如果這一挑戰成真的話,那問題就不再是“智能機器人能否具有法律主體地位”等問題,而是“我們是不是人”以及“我們憑什么是人”〔2〕。當代哲學前沿關于神經生物學、意向性以及自由意志等問題的討論便涉及對諸如此類問題的嘗試性解答〔3〕。此類評論并非危言聳聽,雷·庫茲韋爾就認為,在2045年前后會出現人工智能的一個“奇點”,而跨過這個點人工智能就將會超越人類的智慧〔4〕。即便“奇點”何時來臨尚無共識,但人工智能時代的步步逼近卻是一個不爭的事實,而隨著“強人工智能”或“智慧人工智能”的到來和挑戰,如何通過法律手段更好地應對這一潛在的“實質性危機”,這是我們當前應予進行討論的課題。
法律的功能在于“以各種各樣的方式,導引、計劃和控制人們的生活”〔5〕,而“立法”則是處理人工智能及其與人之間關系的首要環節。由于人工智能可能引發的實質性挑戰與固有科技立法思維之間存在較大的出入,既有范式便面臨著轉型的現實需要?,F行“科技法”,包括《中華人民共和國科學技術進步法》以及《中華人民共和國促進科技成果轉化法》在內的諸法律,都受到了近代以來科技立法中“技術—經濟”范式的影響。該立法范式的一個主要表現在于,以鼓勵、刺激科技的經濟實用價值為目標,而對科技引發的社會問題則只是附帶性地提及〔6〕。更明確地講,它比較側重科技經濟主義這一維度,旗幟鮮明地以效率為導向。這不僅輕視了人工智能科技可能引發的前所未有的“價值關切”,更導致了技術的自主化滋生,即技術在這種自主性結構中為所欲為,進而發展為失去人的控制的主體化僭越〔6〕。這種后果恰恰是法律試圖極力避免的情形。對于立法者而言,這都內在地要求他們進行立法西南交通大學學報(社會科學版)第23卷第2期王榮余在“功利”與“道義”之間:中國人工智能立法的科學性探析范式的轉型,即轉向“在功利與道義之間”的新范式,這是為保障人工智能立法科學性而對立法者提出的新要求。
2017年7月,國務院頒布的《新一代人工智能發展規劃》(以下簡稱《規劃》)提出了“三步走”的戰略布局,明確在部分領域初步建成人工智能倫理規范和政策法規的第一步戰略要求。在“從規劃到立法”的這一時期內,尋求立法的科學性繼而進行科學立法將是立法者的關鍵任務,而如何保障立法的科學性更是關鍵中的關鍵。然而,當前關于人工智能立法的既有討論主要集中于部門法領域,但由于人工智能所引發之挑戰的根本性和實質性,部門法學者基于法律教義學所提供的說明性理論實際上就將變得有限〔7〕。這意味著,關于人工智能立法科學性的一般性討論必須轉入一般法理學層面來進行,并以此為基礎提供一種規范性路徑,也正是在這個意義上,我們需要借助規范倫理學的資源,尤其是功利論和道義論。具體而言,就中國的具體語境來看,人工智能領域的立法遵從什么樣的原則來體現科學性?立法活動如何合理地處理人工智能所涉及的倫理風險與經濟發展問題,以及應如何展現道義論約束和功利論刺激?這是本文試圖通過新立法范式進行回答并試圖從哲學和法學層面展開論證的問題,但在此之前,本文將首先考察一個在當下學界討論不充分的論題,并以立法思維進行重新審視。
二、一個不充分的討論:人工智能體的法律主體地位
人工智能體法律主體地位的相關討論旨在回答兩個基本問題,一是能否賦予其法律主體地位,二是相應的理由說明。就后者而言,既有討論主要圍繞“法人擬制”與“人畜關系”展開,但這對立法又意味著什么呢?
對于物理層面上的“人”,我們可以從多個方面予以審視,如生物學、人類學、哲學、社會學,法學只是其中的視角之一。一般而言,一個對象要成為法律意義上的“人”,必須滿足“事實”與“規范”兩方面的條件:前者要求它必須是具備意志能力的客體,這是法律賦予其法律主體資格的不充分的邏輯前提;后者則要求該客體擁有享受權利和履行義務的法律資格,這最終將取決于立法層面的考量。因而,非生物意義上的“人”完全有機會成為“法律意義上的人”,而生物意義上的“人”也完全可能無法成為法律意義上的人,如古代的奴隸〔8〕。這在很大程度上可以解釋為什么“法人”能夠具備法律主體資格——盡管它肯定不是生物意義上的人,就規范層面而言,這一認定是完全可能的,只不過必須注意的是,規范層面的認定必須有事實層面的支持。由于法人的意志能力實際上能夠通過“法律擬制”的立法技術與自然人相聯結來予以克服,從而基于“實體屏蔽”“清算保護”等便利考量,“法人”就完全可以成為“法律上的人”。這實際上是在提醒我們,最終承擔法律責任的仍是生物意義上的人,在“揭開公司的面紗”時,提供實質性責任保證的不是法人而是生物意義上有血有肉的自然人。當然,基于同樣的理由,以“人畜關系”展開的說明同樣否定諸如大猩猩等靈長類動物的法律主體資格。因為動物不具有對于“應當如何”的規范認知能力——即便一些動物可能具備規律性地進行學習的能力,但正如有學者所說的那樣,或許正是由于缺乏那1%的規范認知能力,使得它們永遠無法成為真正的人〔9〕。
此類關于人工智能體法律主體地位的否定性論證是有說服力的,至少它強調了“事實”維度的不可能性,遵從了“從事實到規范”的路徑。但或許正是如此,它輕視乃至忽略了法律自身的性質,即法律是一種制度性事實〔10〕。法律的這種性質使得“法律主體”具有了他者不曾擁有的規范意味。就此而言,即便能夠證明人工智能體在事實層面最終無法具有“規范性認知”,但這仍然無法排除人工智能體可以通過訴諸“法人”那樣的立法技術而被賦予法律主體資格的可能性。法律語言具有一種“構成性規則”意義上的宣告式言語行為的能力,當它進行“X在C中算作Y”的表達時,它就賦予了C以Y的地位功能。比如說,當法律以宣告式語言表達“這張紙算作一張一百元的人民幣”時,它就賦予了這張紙(C)以一百元人民幣(Y)的功能地位,這張紙也就不再是純粹的一張紙,而成為法定貨幣。法律作為一種制度性事實,也即是一套構成性規則體系,這種體系有創立其他制度性事實的可能,這即是“語言向世界”的適應指向〔11〕。這要求我們法律人更加地關注法律自身的性質與邏輯,而不要過多地糾纏在純粹事實的繁雜表象之中。更何況,人工智能是否具有規范性能力在目前看來仍是一個未知的事實,我們沒有必要先入為主地進行否定性預設。因此,人工智能體能否被賦予主體資格,這首先不是一個事實問題,而是一個“是否應當賦予其法律主體資格”的規范性問題。這與賦予法人的法律主體資格之歷史是完全一致的,只有在考慮了是否應當賦予法人以主體地位之后,我們才會進一步技術化地處理其中的事實承擔問題?!坝梢幏兜绞聦崱倍皇恰坝墒聦嵉揭幏丁备鹾戏伤季S,立法思維尤其如此,其中,尤為重要的是法律如何為人們在人工智能問題上設定行動理由,因而是一個關乎實踐理性的問題。
立法者不是人工智能的理論專家,但這根本不妨礙法律為該領域設定行動理由的實踐權威〔12〕。從規范上講,人工智能諸問題肇始于立法,而立法的背后則涉及立法者“應當如何進行選擇”的規范倫理學問題。面對人工智能這一情勢,借鑒規范倫理學的研究成就,“在功利與道義之間”則為如何行動和選擇提供了指引,下文將對此分別做出哲學和法學層面的論證,這種外部論證對包括法律主體地位在內的人工智能立法的討論具有重要的方法論意義。
三、“功利”與“道義”:人工智能立法科學性的哲學論證
人工智能立法的科學性至少蘊含著法律條文具備明確性、公開、不溯及既往且能為人所遵守等程序法治的基本原則〔13〕,但由于人工智能問題具有前文所說的那種特殊性,這使得相關立法在遵循基本的法治考量因素之下還必須更明確地認識到其中所涉及的兩個關鍵性問題:其一是人工智能所可能引發的道德倫理問題,即道義維度;其二是人工智能及其立法與科技發展或經濟進步之間的共變關系,即功利維度。如果近代科技立法中的“技術—經濟”思維本質上是一種經濟目的導向從而側重功利進路的話,那么未來人工智能的科學立法則必須明確地參考道義維度,二者共同構成人工智能立法轉型的新方向,繼而成為其新的思維框架。
(一)功利論的內在要求
功利論是規范倫理學中目的論的典型代表,在當代具有各種不同的形式和分支,后果主義便是其中最為重要的一種。后果主義理論由兩方面內容構成:(1)根本的價值;(2)達致這一價值的適當進路〔14〕。前者是特定的價值理論,它認為價值內在地包涵于事物/事態之中,實現這種價值就必定能夠促使這一事物/事態的實現;后者是特定的正確選擇理論,它認為,如果一個行動促進了更好的可能事物/事態的實現(比較意義上的),那這一行動的正確性便得到了辯護〔15〕。標準后果主義(standard consequentialism)的理論形態據此向我們承諾了這樣一件事情:通過評價事物/事態對其價值的促進,我們便獲得了最終的辯護根據,不管這是道德辯護、法律辯護還是其他類型的辯護事項,它都能夠得到適用。根據“一般形式的客觀的整全后果主義”的觀點,對象的意向、品格特征、動機等或行為的道德屬性都可以依據客觀后果主義的標準來進行評價〔14〕,這使得后果主義的理論承諾會更加地具有吸引力。
在此理論路徑之下,三方面的特質型塑著后果主義。首先,它所指的價值內在地具有整體利益的傾向,即功利主義所說的“最大多數人的最大幸?!薄?6〕。比如,就賦予人工智能體主體資格的立法動議而言,它必須首先證明賦予其主體資格比不賦予其資格能夠帶來整體上的更大利益。德國工程與機器人協會(VDMA)也正是以此為指引論證說,立法者不應通過頒布規制措施來阻礙工業4.0的可能發展,因為人工智能會給人更多的益處而非不利〔17〕。在此判斷下,便隱含著人工智能法律主體的證成語境,美國的《人工智能未來法案2017》(Future of Artificial Intelligence Act of 2017)亦是作了如此判斷。其次,它將行為所獲得的效果作為評價的標準,因而結果本身只是手段而不是目的,它是朝向未來的可欲手段。在這個意義上,“判斷道德意義上的正當、不正當或盡義務等基本的或最終的標準是非道德價值,這種非道德價值是作為行為的結果而存在的。最終的直接或間接的要求必須是產生大量的善,更確切地說,是產生的善超過惡。因此,在任何有效的選擇中,一個行為是正當的,當且僅當它或它的指導準則能夠促成或趨向于促成的善至少超過惡;反之則是不正當的”〔18〕。最后,它認為“善”優先于“正當”。在道德評價過程中,“正當”表現為康德式的“絕對命令”,即“要只按照你同時認為也能成為普遍規律的準則去行動”〔19〕。與之不同,“善”則凸顯為它的誘人的可欲性,在此之下并無絕對的命令或義務,而只有相對義務。善優先于正當便是要求著眼于最大利益。
功利或后果是一個帶有評價性質的規范性概念,備受指責之處主要在于,它所承諾的“功利價值”如何辨識以及客觀性評價基礎如何還原。極端的功利主義不利于社會基本善的形成,更不適合人工智能這一情勢的特殊性,因而要完整地進行評價,我們還必須引入“道義論”。
(二)道義論的內在要求
一般而言,“道義論約束”往往是通過一些否定性的方式來予以陳述和表達的道德理由,是對實踐活動所提出的禁為性理由。因而,道義論從根本上關注的是開展這類行動的不可允許性問題〔20〕。道義論與功利論極為不同。首先,道義論以觀念形態的義務和應當為出發點,“要求個人應當按照某種主觀上既定的原則或主觀上認定屬于某種現象本身固有的正當性去行動,從而將人們的義務和責任主觀化、普遍化和絕對化,并以此來限制和規范個體”〔21〕。其次,道德義務本身便是目的,是“為義務而義務”,從而對道德自身所蘊含的尊嚴以及人格中的人性等基本價值予以肯認,因此,道義論所提出的義務是“絕對的和無條件的”。這即是說,在進行選擇的時候,我們一開始便受到限制而不是隨心所欲的。如果賦予人工智能體以法律主體資格會對作為目的本身的人/人類之尊嚴造成貶損,那道德律令就將禁止我們這樣做。最后,道義論預設了“正當優先于善”。按照這一形式標準,行動的理由和根據不在于任何功利性的價值,相反,事物本身便能確定何種欲求是正當的。盡管學界對于“正當”存在不同的解釋,但卻能夠就以下觀點取得基本共識,即“一個行為是否正確,是由它所固有的某些特點來確定的,或者是由與它相關的某個規則來確定的”〔22〕。
在道義論理論中,當前最具說服力的一種進路表現為“犧牲者中心”〔23〕。它認為,作為共同體中的每一個人,都有可能被他者或共同體傷害,即都可能成為潛在的犧牲者(victim),與此同時,我們每一個人都擁有優先于共同體本身的資格(status),這種資格使得我們有很強的理由避免成為他者或共同體本身的可能犧牲者。就人工智能法律主體這一事情而言,不管人工智能能否被授予法律主體資格,只要每一個個體本身的資格得到了保障,那這種設置就通過了合法性的檢驗,如果人工智能法律主體的制度設計危及或者是必定使每一個個體成為潛在的犧牲者,那它就不具備道德合法性。與之相關的另一種道義論理論即契約主義的道義理論認為,“資格”概念的設置并不存在實質意義上的必要性,因為在契約簽訂過程中,共同體中的每一個人只要具有“自由且平等”這個事實便足以對每一個主體施加保護。相應地,能否被授予主體資格從而擁有一項權利只需取決于它能不能滿足共同體成員所設置的假設性契約條件。因此,人工智能體能否被授予法律主體資格,這必須取決于由理性的共同體成員所設置的條件要求:滿足其要求則被授予法律主體資格,不滿足其要求則不能被授予法律主體資格??梢园l現,“犧牲者中心”和“契約主義”的道義理論在人工智能體能否成為法律主體的道路上設置了“防御性”的條件;與通過“預防原則”應對科技風險不同,它所提供的方案具有根本性;與后果主義所訴諸的實質利益不同,它所捍衛的是形式性基本原則。這一方案不僅適用于人工智能法律主體資格問題,而且適用于關于人工智能的整個議題。
(三)一個綜合評價
由此,在人工智能立法科學性問題上,人們就擁有了功利論和道義論這兩套可供選擇的辯護方案,雖然它們各自在一些關鍵問題上針鋒相對,但這并不意味著只能非此即彼地進行選擇,相反,我們可以而且應當對其予以綜合考察,并將其靈活地運用于人工智能立法科學性的辯護議題上。這就好比說,人工智能的立法者必須左手握著道義論的“利劍”,右手握著后果主義的“天平”,在此二者之間來回地細致權衡和拿捏,并以此來保障人工智能立法問題的科學性。仍然以人工智能體法律主體地位立法問題為例,它內在地要求:
首先,人工智能立法必須全面權衡基于功利主義的整體利益的進取型要求與基于道義論的個人資格的防御性要求之間的關系。如果人工智能法律主體地位與個人資格的道義論要求根本沖突,那就必須捍衛“人類中心主義”;如果不相沖突,那就應當基于功利成本進一步考慮是否賦予其主體資格。其次,在手段與目的關系問題上必須保證“人是目的”這一基礎性的道義論原則。雖然“從一個角度看,我們創造的機器人貌似只是機器而已,而從另一個角度看,它們似乎是復雜而具有適應性的實體,甚至對我們在道德關心的問題有著或多或少的敏感性”〔24〕。人工智能體雖然不一定就只能作為一種工具存在,但由于“人是目的”這一絕對命令的存在,不管賦予還是不賦予其法律主體地位都不得逾越這一底線,一旦觸碰便是無效的,與之相關的是,在人機倫理關系中,立法者不僅要考量智能機器人的“外部進攻”,同時還應考量作為主體的人本身在主體問題上可能出現的“消極抵抗”。人工智能時代會引發一種危險,作為人類的我們不再將自我視為目的本身,而是視作為人所利用的裝置和被人利用的工具,從而僅僅只是像計算機那樣思考問題〔25〕。最后,在正當與善的優先性權衡上,正當是根本,善是長遠發展的指引。人工智能時代是大勢所趨,如果人工智能法律主體地位更符合長遠發展的要求,至少就可以考慮賦予其主體資格,但這并不意味著丟棄其內在的正當性要求。
四、人工智能立法中的“道義”與“功利”
通過辯證看待功利論和道義論這兩種規范倫理學進路并予以綜合審視,我們獲得了達致人工智能科學立法的一套辯護工具。在這里,二者在人工智能立法問題上絕非相互對立,而是可以相互補充,而且綜合出的這套辯護工具也并不囿于某一思想家的學說或某一學派的主張,而是以實事求是的姿態對其予以客觀評價,具有切實的可行性。此外,我們還以“人工智能法律主體地位”這一當下為學界廣泛關注的論題為例進行了針對性的解讀和說明,但法律主體地位問題畢竟只是人工智能立法的面向之一,因此我們還需要進一步考察如何將這一套辯護工具適用到人工智能立法中去。
(一)人工智能立法科學性的“道義”考量
有學者將新的立法思維歸結為“技術—社會+經濟”,相較于既往的“技術—經濟”范式,它更加強調人工智能引發的“強社會面向”,從而“展現了前所未有的社會規范需求性”〔6〕。實際上,“社會維度”在實際操作層面難以和“經濟維度”進行有效的區分,這不僅是因為經濟系統本身就是社會中一個重要的子系統,更在于不管經濟維度還是社會維度都可以被納入功利論范疇中進行討論,新舊范式之間就無法進行有效區分,從而無法揭示人工智能帶來的根本性挑戰。相反,在尊重道德法則的行為必然性意義上,只有“道義”維度的考量或許才能直接揭示和呈現出由人工智能引發的法律挑戰的特殊性。通過對這種挑戰進行由外到內的處理,相關道義論挑戰可以類型化為以下三個方面:
1.安全問題
安全問題包括人工智能技術本身所帶來的挑戰,如由于“黑箱(black box)”系統的存在,輸入環節是透明的,輸出也得到了理解,但兩者之間發生的事情,連程序設計者在內的人都無法確切地理解自己設計出來的人工智能的具體決策過程和決策邏輯〔26〕,從而致使技術本身可能就是不安全的。再者,當自動駕駛汽車脫離制造商控制而進入流通領域后,由于新的數據輸入導致其行為和決策超出預先設置的規則,從而可能會打破原先設定的規則〔27〕。此類安全來自技術本身的“不確定性”維度,這使得我們“無法提前預估可能遇到的全部問題,也不可能絕對排除隨機生成的穩定性故障,因而帶來不同于傳統技術運用所制造的新型風險”〔28〕。對于此類不確定和不可知的現實問題,歐盟提出的立法動議首先便強調要確定人工智能領域的倫理準則,這既包括具有全局性的倫理框架設計,也包括諸如“一鍵關閉”這樣的具體考量,可以說,人工智能技術本身的安全性問題將是立法者在進行立法設計時繞不開的首要問題之一。
與此同時,“安全問題”也包括由于技術濫用所帶來的極大風險,其中廣為人所憂慮的一個便是“人工智能武器”。倫理學界早已對此問題及其未來情勢表達過憂慮,這種武器及其濫用“很可能成為人類自作自受的掘墓人”〔29〕。技術濫用導致的危險與技術不確定性導致的危險具有本質區別,立法無法規制技術本身的不確定,但卻完全有能力規制使用或濫用人工智能的人的行為,從后者尋求突破將最為可行。在國際范圍內,以“公約”的形式限制使用或禁止人工智能技術的濫用將是一個發展趨勢。就國內來看,對于智能科技自身所存在的安全問題,“合理的對策就是為了保障技術進步而適度容忍風險,并立足于現有法律的基本體系,將風險進行成本最低的分配”〔28〕。
2.權利問題
“權利問題”關涉人的地位和資格,因為權利是現代人生存和生活的基本方式〔30〕。人工智能引發的相關新興(型)權利問題正在對現有權利義務體系提出挑戰,如人工智能生成內容的權利定性、自動駕駛汽車引發的相關責任認定等。在既有的權利意識形態中,“X有做φ的權利”或“X有關于φ的權利”表述中的“X”被默認為是生物學意義上的人或以它為基礎,既有權利體系的哲學基礎在于“人的主體性”,甚至可以說“當代權利理論的發展過程正是主體性通過權利概念和法學話語的表征過程”〔31〕。人工智能所可能擁有的“認識能力”與“控制能力”,即人工智能所可能涌現的自主性與主體性問題會通過挑戰現有權利體系對主體性哲學基礎構成威脅,從而最終威脅到“人”本身這一權利的道義論根基。隨著人工智能的深入研究和推進,法學界終將面臨“人工智能能否擁有權利”以及“憑什么能擁有權利”這類法理學問題(實際上法理學界已經在開始處理這一問題了)。
如果這種挑戰因其具有基礎性以致目前還無法進入立法視野的話,那伴隨著“算法權力”“算法規訓”“算法歧視”等帶來的權利挑戰則無疑具有十足的現實性。人工智能的本質是算法,由于算法的控制者與作為數據主體的個人之間存在信息不對稱,因此算法不斷增強的權力態勢會對個人權利形成霸權壓制,如對數據所有權以及數據隱私權的侵犯和歧視,它使得“個人越來越透明,而權力行使者卻變得越來越隱秘”〔32〕。如無算法治理的介入,人的權利將遭受全面打擊。面對此情勢,歐洲議會發布的《關于歐洲合作智能交通系統戰略協作、連接和自動移動性的決議》便指出:“必須使用戶確信他們的個人數據并非商品,用戶能夠有效控制數據的使用方式和目的”〔1〕。的確,算法的法律規則只不過是人工智能立法的方面之一,但算法對權利的挑戰卻已揭示出這一情勢的根本性,因而有必要以算法正義的立法理念為導引捍衛表征人之自主性的權利的道義之維。
3.人性問題
阿西莫夫提出了“機器人三定律”,即“不得傷害人類,必須服從于人類,必須保護自己的生存”〔33〕。這三條規制機器人的定律預設了智能機器人已經具備自我意識和自由意志的能力,這或許是過往立法實踐較少明確予以考量的問題,但卻是法哲學一直在面對和捍衛的一個命題,即“人是目的”。然而,人工智能的深入研究卻揭示了另一番景象。在技術研究層面,這一問題表現在“深度學習”和“神經網絡”所隱含的一個基本假設,即智能及其思想意識本身均源于大腦的復雜性〔34〕,也即是“神經元決定了思想”〔35〕。在具體研究中,它通過“虛擬神經元”進行人腦模擬并在此基礎上構建“人工大腦”?;趯θ酥竽X的心智模擬,AI程序就能夠實現“像”人類一樣地進行認知和思考,達到甚至超過人的智能水平。在當代哲學前沿理論中,強人工智能與人的心靈皆被理解為一種“計算機功能主義”。該理論認為,“整個系統工作的方式就是大腦是一個數字化的計算機,而被我們稱為‘心靈’的東西則是一個數字化的計算機程序,或是一個程序序列”,即“心靈狀態乃是腦的計算狀態。腦是一個計算機,而心靈是一個程序或程序序列”〔3〕。前沿量子力學對人之生命的解釋以及存在非碳基生命的理論可能性,諸如此類的研究嘗試和推進與哲學層面的理論辯護間接性地強化了人工智能的主體性地位,同時也在很大程度上弱化了人之地位的道義論基礎,于是,問題就逐漸地變為“人工智能是不是人?如果它不具備人的地位,那么我們為什么因為擁有同樣的或類似的智能能力而被叫作人?”〔36〕正如趙萬一教授所言,“法學應當重新思考人”〔37〕,尤其是法律的人性基礎問題。
在極端目的論支持者看來,上述三類議題都可以在功利范疇中進行討論和解決。然而,不管是安全問題、權利問題還是人性問題實際上都無法簡單地適用最大多數人的最大幸福這一判準,因為它在很大程度上挑戰甚至會超越既有法律體系賴以存在的基礎,比如說,既有科技立法的對象本身是可控的,但人工智能技術愈加顯示其不可控的黑箱效應。因此,有必要首先將此類問題置于道義論約束中予以審視,而不能仍停留于功利思維層面。就立法設計而言,“安全問題”中的技術濫用與“權利問題”中的算法利維坦現象是立法必須予以明確回應的,而理論界則需要在技術的不確定性、權利的主體性挑戰以及人性問題上展開進一步的研究,并在此基礎上為未來的立法回應提供理論層面的支撐,結合功利取向進行相應立法。
(二)人工智能立法科學性的功利考量
人工智能之所以具有廣泛的熱度和關注度,不僅因為它會引發上述道義層面的挑戰,更在于它具有豐厚的功利價值,即創新驅動和經濟發展這一目的指向,可以說,誰率先占領了人工智能這一廣闊領域,誰就贏得了第四次工業革命的主導權。人工智能技術作為重要的生產力要素,對于推動經濟和社會發展發揮著無可替代的關鍵作用。《規劃》將人工智能定位在“國際競爭的新焦點”“經濟發展的新引擎”“社會建設的新機遇”的國家戰略高度,黨的十九大報告更是提出“推動互聯網、大數據、人工智能和實體經濟深度融合”的目標要求??梢灶A見,隨著人工智能尤其是通用人工智能的發展,自動駕駛、遠程醫療等新領域正在逐步變為現實,這都使得人工智能成為未來國家實力和國際競爭的一個關鍵所在。因此,“如何在確保人工智能技術不至于觸及法律底線和引發倫理道德問題的前提下,最大程度地發揮其促進生產力發展、促進社會進步的功能,就必然成為亟待解答的時代課題”〔38〕。這一時代課題要求立法科學性進行與之相適應的制度跟進,要求人工智能的發展能夠有益于最廣大人民的根本利益,這是立法科學性的功利考量。具體而言,在經由道義論約束的檢驗之后,人工智能立法應當在以下三個階段進行權衡設計,以此來保證其科學性:
1.研究和開發階段
在人工智能的研究和開發階段,法律和政策的積極或消極態度將對其產生關鍵性的影響?,F實中,不同的國家和地區對人工智能也是采取了不同的應對思路。德國工程和機器人行業協會(VDMA)指出,人工智能目前給人類帶來的好處要遠遠勝于其弊端,立法者不應該倉促出臺規制措施來阻礙其發展,更沒有必要制定詳細的法律規則。美國的《人工智能未來法案2017》更是旗幟鮮明地主張要大力發展人工智能,如建立有利環境、優先發展人工智能、支持和推動其發展應用等。與之相反,歐盟議會則主張通過制定民事規范來限制機器人的生產。中國在《規劃》中進行了“發展為主、控制潛在風險為輔”的戰略布局,就此而言,相關人工智能立法的基本取向應當是支持、賦權和引導并營造有利的法律環境,以便響應“以提升新一代人工智能科技創新能力為主攻方向”的政策號召。
科技發展有其自身的規律,立法者只有在此客觀基礎上進行審視而不是基于主觀臆想,這樣才能符合科學立法中的功利考量。在鼓勵人工智能發展的前提下,立法者應當突出人工智能發展的重點方向和關鍵領域并進行具體而有針對性的立法,這意味著,目前尚不具備足夠成熟的條件針對人工智能進行體系化的立法,因而有必要為技術發展留下足夠廣闊的想象力空間〔39〕,這是體現當下立法科學性的內在要求。與之相關,在弱人工智能時期或通用人工智能階段,立法者應當就具體領域進行相應的立法設計以便回應系列現實問題。比如說,在自動駕駛汽車立法問題上,既有法律體系和立法思路具有重要參考價值,而不需要完全重新開始,而是可以選擇諸如通過修改交通肇事罪、危險駕駛罪或增設人工智能重大安全事故罪等方式來進行局部性、針對性立法〔40〕。與此同時,還可以通過立法解釋、法律修改、條文增設等法律技術手段將諸多涉及人工智能問題的分散性內容有序地納入既有法律體系之中,以便于維持法律體系的穩定性、保障立法的科學性,同時也能為將來人工智能立法提供一個緩沖。在更為細致的問題上,由政府制定標準,省市進行試點,并在此基礎上通過總結經驗來凝練法律條文,這也不失為一條可行的進路,且也符合中國當下的相關實踐,如北京、深圳等地對自動駕駛汽車就進行了這種意義上的立法嘗試。
2.運用和轉化階段
如果說人工智能的研究和開發階段,立法者可以通過支持或抑制來進行“門檻把關”的話,那法律在人工智能運用和轉化階段所要處理和回應的則會相對比較復雜。在宏觀層面,雖然人工智能的研究和開發能力是國家軟實力的重要組成部分,但作為一門技術的人工智能只有通過轉化為現實的生產能力時才能真正發揮實效,因此,如何加快人工智能與經濟、社會、國防等領域的深度融合,這是立法者在進行立法設計時應予考慮的問題。人工智能與經濟的深度融合有助于經濟的轉型升級,發展智能經濟,從而提升國家的綜合經濟實力和生產力;人工智能與社會的深度融合有助于優化社會資源,建設智能社會,進一步加快國家治理體系和治理能力的現代化;人工智能與國防領域的深度融合有助于維護國家安全,提升應對國際風險挑戰的國家競爭力。《規劃》指出的“發展智能經濟,建設智能社會,維護國家安全”是人工智能立法在運用和轉化階段的法理依據和基本的功利考量。在促進人工智能良性轉化的同時,立法者也應考慮到人工智能在向現實轉化時所帶來的危機和挑戰,這構成了功利的背面。由于人工智能在向現實轉化時所帶來的危機和挑戰相對比較復雜和多樣,這會使得立法回應同樣變得更為復雜,這也是立法者實踐智慧得以展現的契機。
在經濟層面,通用人工智能的大量應用可能會導致大量失業問題,而現有的勞動方面的法律并無相應規定。此外,掌握人工智能先進技術的大企業會使傳統制造業以及其他與互聯網不具直接相關性的行業明顯處于劣勢,中小企業同樣會面臨邊際效應不斷遞減的情況,強者會越強,弱者會越弱。在社會和國家安全層面,人工智能對社會治理所構成的危害源于“算法”的非中立性和偏私性,“它毫不遮掩地服務于設計者植入其中的目的”〔41〕。通過人工智能進行的社會治理很容易使得法律的行使和社會的監管被牽著鼻子走,從而使得人被算法所統治,并導致社會治理的異化和國家安全存在本身之“目的因”的消退。如果說發展智能經濟、智能社會和智能國家安全的最大功利在于最廣大人民的根本利益的話,那么人工智能在轉化階段的立法就必須回到最大幸福的承載者,即人本身,并以“以人為本”為底線防止人工智能對人造成的異化,進而推動人工智能的可持續發展和智能化成果的共享。
3.評估階段
由于“人工智能”這一事物本身的特殊性,立法者有必要在“評估”問題上對人工智能進行設計,以管理和監督人工智能的可行性和安全性。評估是當前法律認知的重要途徑,人工智能評估更應是法治評估的組成部分。法律層面的人工智能評估不同于技術評估,更不是對人工智能相關法律的評估,它主要是對“人工智能”這一對象及其活動的風險評估。具體而言,評估包括事前評估、事中評估以及事后評估,所評估的內容可分為安全性、經濟性和倫理性三個方面。首先,在事前評估階段,根本性地侵犯倫理性的人工智能應當在事前評估階段就給予否定性評價,就像對基因編輯技術的處理一樣,對于安全性不確定而經濟效益巨大的人工智能應基于功利的考慮進行相對寬松的評估環境設置。其次,對人工智能在現實社會中運用情況的事中評價,立法設計應主要集中在安全性和倫理性方面,如不安全使用的頻率、已造成的倫理風險等內容,并以此使人工智能技術在安全的前提下創造更大的功利價值。最后,事后評估應是綜合評估,立法設計應在功利導向、安全為基、道義為輔的框架下進行全面審視,并將信息反饋到新一輪的人工智能規劃中。應該說,法律層面的人工智能評估從縱向上涵括了人工智能的整個階段,同時也有能力從橫向上對人工智能的整個內容進行評估化處理,因而同時可以兼顧倫理風險和經濟發展問題。
由于當前的人工智能立法要響應“發展為主、控制潛在風險為輔”的戰略布局,因此類似“人工智能法”之類的綜合性法律之制定肯定是不現實的(此前已作考察,故不贅述),但卻可以以“評估”為基本思路頒布或擬定“人工智能評估法”性質的法律或部門規章,以便于實現對人工智能全過程的法律管理和監督,這一路徑既能夠實現發展的功利需求,也能夠容納道義論限制的內容。這意味著,在通過道義論約束針對性地應對人工智能引發的法律挑戰的特殊性之后,既有立法范式和思維在可見的一段時期內仍大有可為。
五、在“功利”與“道義”之間尋求立法的科學性
人工智能兼具功利與道義的雙重屬性。作為一種日新月異的科技,它“具有為行業和社會創造巨大效益的潛能,因此有必要積極推動其發展”〔1〕。對此,最有效的法律方式就是進行支持、鼓勵和賦權式立法。但其潛在的道義論挑戰又使得立法者不得不保持一種“遠慮”,因為它可能會使得“人類在世界存在系統中失去了地位,人類不再重要,歷史將失去意義,人類文明將成為遺跡,未來也不再屬于人類,人類文明數千年的創世紀將被終結而開始人工智能的‘創世紀’”〔29〕。此類“遠慮”初看起來似乎有些危言聳聽,但也并非空穴來風,實際上這種遠慮正是立法者憑借其實踐智慧應予以重點關注的主要內容所在。道義論論辯所提供的“絕對義務”或“絕對命令”會因為人工智能實質性挑戰的變現而消解功利價值的正當性,從而轉入捍衛人類中心主義的道路,但是,在弱人工智能階段,法律無疑會因其功利價值的刺激而予以鼓勵,而實質性挑戰的“潛在可能性”又不得不使立法者必須對其予以特殊對待。一方面,法律應當設置一些基本性的門檻檢驗以捍衛法律的安全、權利和人性基礎,在未通過其檢驗時,無論功利價值如何巨大的人工智能都不能獲得成立;另一方面,如果通過了道義論的門檻檢驗,那么人工智能發展就可以基于功利要求尋求獲得肯定性支持。在具體問題的抉擇以及具體條文的設計上,立法科學性要求立法者必須充分發揮好“在功利與道義之間”的立法技藝,從而實現功利與道義的雙贏。
參考文獻:
〔1〕龍衛球.科技法迭代視角下的人工智能立法〔J〕.法商研究,2020,(1):59,65,65.
〔2〕John Cheney-Lippold. We Are Date: Algorithms and the Making of Our Digital Selves〔M〕. New York: New York University Press, 2017:244-268.
〔3〕約翰·塞爾.心靈導論〔M〕.徐英瑾,譯.上海:上海人民出版社,2019:108-193,64.
〔4〕夏妍娜,趙勝.中國制造2025:產業互聯網開啟新工業革命〔M〕.北京:機械工業出版社,2016:146.
〔5〕H. L. A. Hart. The Concept of Law〔M〕. Oxford: Clarendon Press, 1994: 40.
〔6〕龍衛球.人工智能立法的“技術-社會+經濟”范式〔J〕.武漢大學學報(哲學社會科學版),2020,(1):68,69,72.
〔7〕王榮余.“機器人也是人”的法理拷問〔J〕.社會科學動態,2019,(11):18-23.
〔8〕凱爾森.法與國家的一般理論〔M〕.沈宗靈,譯.北京:中國大百科全書出版社,1996:107.
〔9〕馮潔.人工智能體法律主體地位的法理反思〔J〕.東方法學,2019,(4):43-54.
〔10〕王榮余.重訪法律制度主義:新舊之別與異同之辨〔J〕.學術月刊,2020,(9):114.
〔11〕約翰·塞爾.人類文明的結構:社會世界的構造〔M〕.文學評,盈俐,譯.北京:中國人民大學出版社,2014:44-64.
〔12〕 Joseph Raz. The Authority of Law: Essays on Law and Morality〔M〕. Oxford: Oxford University Press, 1979:10.
〔13〕 Lon L. Fuller. The Morality of Law〔M〕. New Haven: Yale University Press, 1969: 46-91.
〔14〕德萊夫.后果主義〔M〕.余露,譯.北京:華夏出版社,2016:2,179-180.
〔15〕張曦.后果主義與道德約束〔J〕.倫理學研究,2014,(4):15.
〔16〕杰里米·邊沁.政府片論〔M〕.沈叔平,譯.北京:商務印書館,1995:92.
〔17〕潘銘方.人工智能:從規劃邁向立法〔J〕.電子知識產權,2018,(4):85.
〔18〕弗蘭克納.倫理學〔M〕.關鍵,譯.北京:三聯書店,1987:28.
〔19〕康德.道德形而上學原理〔M〕.苗力田,譯.上海:上海人民出版社,2018:72.
〔20〕張曦.“道義論約束”與“行動者中心”進路〔J〕.哲學動態,2014,(3):64.
〔21〕方毅.功利論與道義論的對立及其超越〔J〕.學術交流,2008,(8):21.
〔22〕徐向東.自我、他人與道德:道德哲學導論〔M〕.北京:商務印書館,2016:357.
〔23〕張曦.理解道義論:“犧牲者中心”進路與人的道德地位〔J〕.道德與文明,2014,(1):41-48.
〔24〕溫德爾·艾倫.道德機器〔M〕.王小紅,等,譯.北京:北京大學出版社,2017:188.
〔25〕馬長山.人工智能的社會風險及其法律規制〔J〕.法律科學,2018,(6):49.
〔26〕詹姆斯·巴拉特.我們最后的發明:人工智能與人類時代的終結〔M〕.閭佳,譯.北京:電子工業出版社,2016:239.
〔27〕司曉,曹建峰.論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點〔J〕.法律科學,2017,(5):169-170.
〔28〕李晟.人工智能的立法回應:挑戰與對策〔J〕.地方立法研究,2019,(5):65,68.
〔29〕趙汀陽.人工智能“革命”的“近憂”與“遠慮”:一種倫理學和存在論的分析〔J〕.哲學動態,2018,(4):8,10.
〔30〕汪太賢.權利泛化與現代人的權利生存〔J〕.法學研究,2014,(1):7-9.
〔31〕黃濤.主體性時代的權利理論〔J〕.法制與社會發展,2019,(1):52.
〔32〕鄭戈.在鼓勵創新與保護人權之間:法律如何回應大數據技術革新的挑戰〔J〕.探索與爭鳴,2016,(7):79.
〔33〕 Isaac Asimov. Runaround〔M〕. New York: Doubleday, 1950: 40.
〔34〕皮埃羅·斯加魯菲.人工智能的本質:人工智能與機器人領域的64個大問題〔M〕.任莉,譯.北京:人民郵電大學出版社,2017:23.
〔35〕喬治·扎卡達基斯.人類的終極命運:從舊石器到人工智能的未來〔M〕.陳朝,譯.北京:中信出版社,2017:276.
〔36〕陳景輝.人工智能的法律挑戰:應該從哪里開始?〔J〕.比較法研究,2018,(5):144.
〔37〕約翰·韋弗.機器人也是人:人工智能時代的法律〔M〕.鄭志峰,譯.臺北:元照出版公司,2018:中文序言.
〔38〕武雪健.人工智能立法的海外狀況及難點分析〔J〕.互聯網經濟,2019,(4):49.
〔39〕鄭戈.如何為人工智能立法〔J〕.檢察風云,2018,(7):17.
〔40〕李振林.人工智能刑事立法圖景〔J〕.華南師范大學學報(社會科學版),2018,(6):130-133.
〔41〕鄭戈.人工智能與法律的未來〔J〕.探索與爭鳴,2017,(10):81.
Between Deontology and Utilitarianism:
The Scientificity of Chinas Artificial Intelligence Legislation
WANG Rongyu
Abstract: The challenges coming from Artificial Intelligence technology have the features of both Deontology and Utilitarianism, which requires that the lawmakers on Artificial Intelligence should go beyond the modern Techno-Economism pattern and turn to a new pattern which stands “between Deontology and Utilitarianism”, so as to guide and safeguard a scientific legislation of AI. The constrains of Deontology set the basic requirement that AI should be tested by Deontology firstly and then turned into utilitarian considerations, otherwise it will not work. Specifically, Artificial Intelligence legislation should focus on the Deontology challenges coming from the issues of Security, Right and Humanity, and then make a legislation choice to encourage, to support and to guide during all the stages of researches, exploitations and applications. In addition, it should be managed and supervised supported by the AI evaluation before, in and after. At the matter of special issues, scientific Artificial Intelligence legislation requires legislators to make a balance legislation between Deontology and Utilitarianism so as to acquire win-win results.
Key words: Artificial Intelligence; scientific legislation; Deontology; Utilitarianism
(責任編輯:陳艷艷)
保留英文單位