馬俊驥
人類社會發展至今,數字化時代的革命性意義愈發顯現。數字化以前所未有的速度、深度、廣度進入我們的日常生活,并深刻影響著我們所有的生活領域,以社會關系為調整對象的法律,亦面臨數字化時代的挑戰,[1]人工智能不僅將引發技術和社會領域的改變,而且將使法律面臨巨大挑戰。Vgl.Sven Hetmank/Anne Lauber-R?nsberg,Künstliche Intelligenz -Herausforderungen für das Immaterialgüterrecht,GRUR 2018,S.574.人工智能逐漸介入法律生活所產生的問題[2]例如,機器人法律資格的民事主體問題、人工智能生成作品的著作權問題、智能系統致人損害的侵權法問題、人類隱私保護的人格權問題、智能駕駛系統的交通法問題、機器“工人群體”的勞動法問題。參見吳漢東:《人工智能時代的制度安排與法律規制》,載《法律科學(西北政法大學學報)》2017 年第5 期,第130-133 頁。需要在法律上予以回應。既有法律本身具有適應能力(Anpassungsf?higkeit),[3]Vgl.Josef Mehrings,Vertragsabschlu? im Internet -Eine neue Herausforderung für das “alte” BGB,MMR 1998,S.30.許多由人工智能引發的法律問題可以通過對現行法進行解釋加以解決。但是,如何解釋適用現行法以適應人工智能時代的要求,仍有許多問題需要澄清。如果通過現行法的解釋適用無法有效應對人工智能帶來的新變化,那么,對既有法律制度的調整或者進行新的立法則有其必要。
不同于以計算、推理和定理證明為代表的第一代人工智能和以專家系統為代表的第二代人工智能,新一代人工智能在信息感知、信息處理、判斷決策等方面已經有了讓人自嘆不如的出色表現。[4]參見黃欣榮:《新一代人工智能研究的回顧與展望》,載《新疆師范大學學報(哲學社會科學版)》2019年第4 期,第70-80 頁。隨著技術的發展,未來的人工智能或許能夠獨立于人類預先設置的條件自主地作出決定,甚至合同談判以及合同簽訂亦可能由人工智能接管。[5]Vgl.Justin Grapentin,Die Erosion der Vertragsgestaltungsmacht durch das Internet und den einsatz künstlicher Intelligent,NJW 2019,S.181 ff.屆時,法律行為中的表示越來越多地通過軟件實體發出和接收,機器與機器的表示(Machine-to-Machine(M2M)-Erkl?rungen)可以決定合同的締結和撤銷。[6]Vgl.Christiane Wendehorst,Die Digitalisierung und das BGB,NJW 2016,S.2609.雖然從人工智能的發展現狀來看,上述情形仍然帶有科幻色彩,但是,留心觀察即可發現,這些情形在現實生活中已經有了預兆。如果表示行為由人工智能自主作出,如何確定其法律效果歸屬以及現行法關于意思表示、代理等相關規定是否仍可適用則成為問題。
即便尚不具備完全或高度的自主性,人工智能亦可介入締約過程并對合同法律關系產生重大影響。例如,在一檔新聞節目中新聞播音員談到,一個小女孩與亞馬遜公司的語音助手Alexa 交流并通過該語音助手無意間訂購了一個價值170 美元的玩具屋和幾千克丹麥黃油餅干。新聞播音員對這一事實的描述,導致在使用Alexa 并收聽新聞廣播的家庭里,他們的Alexa 也試圖訂購玩具屋。[7]Vgl.Louisa Specht/Sophie Herold,Roboter als Vertragspartner? Gedanken zu Vertragsabschlüssen unter Ein beziehung automatisiert und autonom agierender Systeme,MMR 2018,S.40 ff.在此情形下,表示行為并非由智能助理軟件完全自主作出,客觀上存在由人類發出的指令:“Alexa,請給我訂購一個玩具屋。”[8]在新聞節目中,新聞播音員說“我喜歡這個小女孩,當她說‘Alexa,給我訂購一個玩具屋’”,新聞播音員的這句話被很多家庭中使用的Alexa 聽到,這些Alexa 都試圖訂購玩具屋。Vgl.Thomas Kaltschmidt,Amazon Ec ho:Nachrichtensprecher l?st Massenbestellung aus,URL:https://www.heise.de/newsticker/meldung/Amazon-Echo-Nach richtensprecher-loest-Massenbestellung-aus-3591039.html.(abgerufen am 8.Januar 2017)如果出賣人收到該訂購信息,并按照訂購信息送貨上門,這個合同是有效的嗎?假如小女孩并不是通過智能助理軟件而是親自購買這些貨物,新聞播音員的描述并未被智能助理軟件識別為指令而發出訂購貨物的表示,那么,現行法中關于行為能力或者意思表示的規定可以用于處理相關問題。[9]小女孩的行為,因其欠缺相應的行為能力而歸于無效或效力未定。雖然表示意識和法效意思并非意思表示的必要組成部分(Vgl.Hans Brox/Wolf-Dietrich Walker,Allgemeiner Teil des BGB,Verlag Franz 2015,S.44 f.),但是,除非滿足特定條件,否則欠缺表示意識和法效意思一般情形下仍會導致意思表示的不成立。但是,在智能助理軟件介入的情況下,適用此類規定則未必適當。因為,智能助理軟件并非只是傳達小女孩或新聞播音員的意思表示,而是帶有一定的自主性,即:小女孩或新聞播音員只是提到訂購玩具屋,并未指定出賣人、價格、型號等具體信息。并且,在智能助理軟件向出賣人發出訂購表示的時間點,客觀上不存在人類作出的意思表示,出賣人亦無法識別出其背后是一個小女孩或是屬于新聞播音員那樣無意識的情形。如此,智能助理軟件客觀上作出的表示行為之法律效果應由誰來承受?是小女孩或新聞播音員還是智能助理軟件的所有人?甚至將其視為智能助理軟件自己的意思表示,進而承認機器人[10]機器人是一種物理機器,它必須應對物理世界的動態(dynamics)、不確定性(uncertainties)和復雜性(c omplexity)。感知(perception)、推理(reasoning)、行動(action)、學習(learning)以及與其他系統的交互能力(interaction capabilities)通常集成于機器人系統的控制體系結構,人工智能在其中扮演重要角色。See High-Level E xpert Group on Artificial Intelligence,A definition of AI:Main capabilities and scientific disciplines,p.4,Europea n Commission (Apr.8,2019),https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-ca pabilities-and-scientific-disciplines.可以成為合同當事人?抑或否定該表示行為的效力而由合同相對方承擔此種交易風險?
近年來,隨著人工智能的迅速發展,國家對于這一領域高度重視,[11]2017 年7 月8 日,國務院印發《新一代人工智能發展規劃》,要求制定促進人工智能發展的法律法規和倫理規范,開展與人工智能應用相關的民事與刑事責任確認、隱私和產權保護、信息安全利用等法律問題研究,明確人工智能法律主體以及相關權利、義務和責任等。關于人工智能的理論研究漸成熱點。目前,國內有關人工智能法律問題的研究,主要集中在人工智能的法律主體地位、產品侵權責任、生成物著作權保護以及刑事責任承擔等幾個方面,從合同法角度對人工智能進行討論仍然處于初始階段,對于人工智能介入締約過程作出表示行為的效力以及人工智能可否作為合同主體等問題缺乏專門研究。本文旨在探討如下問題:在人工智能介入締約過程的情況下,客觀上由人工智能作出的表示行為之法律效果歸屬,這一問題因涉及合同主體的確定、意思表示的解釋等方面而具有重要性。
以工具(包括機器)替代或強化人類的某種能力,貫穿于人類社會發展的整個歷程。與工業化時代的機器只是取代“人的一部分體力勞動”不同,人工智能“旨在取代人的一部分腦力勞動”,[12]鄭戈:《人工智能與法律的未來》,載《探索與爭鳴》2017 年第10 期,第79 頁。因而具有與以往人類制造的產品不同的本質特征。
盡管人工智能的術語早在20 世紀50 年代即已提出,[13]通常認為,“人工智能”這一術語誕生于1955 年8 月31 日由J.麥卡錫(J.McCarthy)、M.L.明斯基(M.L.Minsky)、N.羅切斯特(N.Rochester)和C.E.香農(C.E.Shannon)簽署的“人工智能達特茅斯夏季研究項目動議”,See A Proposal for The Dartmouth Summer Research Project on Artificial Intelligence,Formal Reasoning Group(Apr.3,1996),www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html.但是,關于“何為人工智能”這一最基本的概念性問題至今依然難以形成統一認識。[14]參見梅立潤:《國內社會科學范疇中人工智能研究的學術版圖》,載《內蒙古社會科學(漢文版)》2019年第3 期,第208 頁。這主要是因為,自人工智能的概念誕生以來,人工智能已經發展成為跨學科的研究對象,對于人工智能的解釋總是適應于技術的可能性,[15]Vgl.Bitkom/DFKI,Künstliche Intelligenz,2017,S.29.人工智能的各種定義更多是反映不同學科的研究視角。因而,如何定義人工智能并不重要,關鍵是把握人工智能的本質特征。
有的學者認為,自主性與學習能力是人工智能的兩項核心特征。[16]參見馮玨:《自動駕駛汽車致損的民事侵權責任》,載《中國法學》2018 年第6 期,第111 頁。但是,相較而言更為本質的是人工智能的自主性。誠然,學習能力是人工智能區別于傳統機器的顯著特征,使人工智能不再依賴于僵硬且事先在程序代碼中確定的行為指示,即可為完全未知且不可預見的事情制定解決方案,[17]Vgl.Justin Grapentin,Die Erosion der Vertragsgestaltungsmacht durch das Internet und den einsatz künstlicher Intelligent,NJW 2019,S.181 ff..但是,學習能力是為了實現人工智能的自主性,是讓人工智能可以自主完成任務的方法。諸如機器學習、神經網絡、深度學習、決策樹以及許多其他學習技術的運用,[18]See High-Level Expert Group on Artificial Intelligence,A definition of AI:Main capabilities and scientifi c disciplines,p.3-4 (https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-capabilities-a nd-scientific-disciplines).使人工智能可以借助豐富而大量的數據自己學習以獲得想要的結果。由此,深度學習是實現人工智能自主性的技術手段,學習能力是人工智能自主性的重要體現,自主性是人工智能軟件區別于傳統軟件的標志。[19]由獨立自主學習和決策所產生的“自主(Autonomie)”是AI 的核心(Kern)。Vgl.Heinz-Uwe Dettling/Stefan Krüger,Erste Schritte im Recht der Künstlichen Intelligenz-Entwurf der ?Ethik-Leitlinien für eine vertrauenswürdige KI”,MMR 2019,S.211 f.
然而,人工智能的自主性與人類的自主性并不相同。“自主”是一個哲學概念,原本是指人類為自己立法并為自己制定、思考和選擇所遵循的規范、規則和法律的能力,具有自我意識、自我認知和自我決定的典型特征。[20]Vgl.Europ?ische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien,Erkl?rung zu künstlicher Intelligenz,Robotik und ?autonomen” Systemen,Brüssel,9.M?rz 2018,S.10.在此意義上,將“自主”的概念用于人工智能并不恰當。即使高度發展、具有適應能力甚至擁有類似于人類的“智能”,人工智能與人類終究存在本質區別。不過,機器的自主性問題已被廣泛討論,“自主”這一概念的適用范圍顯然已經不再局限于人類。但是,與人類的“自主”承載倫理價值不同,機器的“自主”通常被用來描述最高程度的自動化和最大限度地不依賴于人類。由此,人工智能的“自主”并不涉及倫理意義上人類尊嚴的價值,而是強調“作出決定并在外部世界不依賴于外部控制或影響地實施這些決定的能力”。[21]Vgl.Georg Borges,Rechtliche Rahmenbedingungen für autonome Systeme,NJW 2018,S.977 f.
與人類的“自主”不同,人工智能的“自主”是一種技術上的實現,這一點集中體現于人工智能的自主學習機制。例如,旨在讓人工智能實現自主學習的人工神經網絡,受到人類大腦的啟發而具有一個中間存在許多加權鏈接(weighted connections)的小型處理單元(類似于我們的神經元)組成的網絡,[22]See High-Level Expert Group on Artificial Intelligence,A definition of AI:Main capabilities and scientifi c disciplines,p.1,European Commission (Apr.8,2019),https://ec.europa.eu/digital-single-market/en/news/definition-a rtificial-intelligence-main-capabilities-and-scientific-disciplines.新一代學習算法通過這種神經網絡結構被“喂食”或“訓練”并可以包含數字、文本、圖像、口頭或者其他信息,自動識別模型,進行信息分類,以這種方式“學習”并在此基礎上再進行選擇,即決定。[23]Vgl.Heinz-Uwe Dettling/Stefan Krüger,Digitalisierung,Algorithmisierung und Künstliche Intelligenz im Pharmarecht,PharmR 2018,S.513 f.由此,人工智能作出決定的過程乃是通過技術手段實現,與人類對事物的認知、判斷、決定過程存在本質區別。
基于人工智能的自主性之技術本質,其自主性程度取決于相關技術的發展水平,強人工智能的自主性程度高于弱人工智能。[24]機器可以像它們是智能的那樣行動的看法,被稱為“弱人工智能假設(schwache KI -Hypothese)”,機器除了像它們是智能的那樣行動還真正地思考(并且不是簡單地模仿思考)的看法,被稱為“強人工智能假設(starke KI -Hypothese)”。Vgl.Fritz-Ulli Pieper,Wenn Maschinen Vertr?ge schlie?en:Willenserkl?rungen beim Einsatz von Künstlicher Intelligenz,GRUR-Prax 2019,S.298.通常認為,人工智能“就是讓計算機完成人類心智能做的各種事情”。[25][英]瑪格麗特·博登:《AI:人工智能的本質與未來》,孫詩惠譯,中國人民大學出版社2017 年版,第1頁。然而,這一目標的實現不可能一蹴而就。與技術的發展水平相應,機器的自主性經歷了從無到有、從弱到強的發展過程。作為其中一個發展階段,人工智能的自主性亦存在由技術水平導致的差異。
根據自主性程度,可以將人工智能劃分為不同階段。但是,不同自主性程度的界分本身需要依據一定標準,以便認定人工智能的自主性之高低。對此,學者在進行討論時普遍區分自動系統和自主系統,[26]由于人工智能這一概念本身具有模糊性,自動系統和自主系統均可歸入人工智能,人工智能和機器學習是讓系統實現自動化或自主化的技術基礎。Vgl.Jürgen Taeger,Die Entwicklung des IT-Rechts im Jahr 2016,NJW 2016,3764(3765).本文以為,部分自動系統并未顯示出自主化而主要屬于自動化,與人工智能具有的自主性特征并不相符,不宜納入人工智能范疇。區分標準即系統所需人類預先設置的程度。具言之,自動系統根據人類預先設定的條件可預見地行動,自主系統基于一種自我學習算法作出決定而無需具體的預先設置。根據人類預先設定的條件之抽象程度,自動系統又可分為部分自動系統和完全自動系統:部分自動系統在到達預先設定的時間或符合預先設定的具體條件時,觸發程序并作出表示;完全自動系統無需設定具體條件,而是按照非常抽象的預先設定行為。[27]Vgl.Louisa Specht/Sophie Herold,Roboter als Vertragspartner? Gedanken zu Vertragsabschlüssen unter Einbeziehung automatisiert und autonom agierender Systeme,MMR 2018,S.40 ff.
由此,機器的自主性程度之區分,核心在于人類對系統運行的干預和控制,可以考慮系統運行對人類預先設置的依賴程度(具體指令、抽象指令抑或無需人類指令)。然而,正如學者所言,在完全自動化的合同簽訂和自主的合同簽訂之間存在不易分清的過渡。[28]Vgl.Malte Grützmacher/J?rn Heckmann,Autonome Systeme und KI -vom vollautomatisierten zum autonomen Vertragsschluss? -Die Grenzen der Willenserkl?rung,CR 2019,S.553 f.即使在自主系統內部,仍可根據不同的自主程度(表現為人類在多大程度上不再參與決策)作出進一步區分。[29]Vgl.Reichwald/Pfisterer,Autonomie und Intelligenz im Internet der Dinge,CR 2016,S.208 ff.從整體發展趨勢來看,人工智能的自主性越來越強,與之相應的則是人類作用的逐漸減弱,人與機器關系的這種動態變化,引發人與機器的法律地位問題,進而影響權利義務關系的配置。
眾所周知,締結契約是意思表示達成一致的結果,人工智能通過影響意思表示介入締約過程,這種影響在意思表示的兩個組成部分(即內心意思與表示行為)[30]Vgl.Werner Flume,Allgeneiner Teil des Bürgerlichen Rechts,Bd.2.Das Rechtsgesch?ft,1992,S.45 f.均有體現。從表示行為方面來看,人工智能介入締約過程外在表現為意思表示與人類的分離,即意思表示并非由人類作出而是通過特定設備表達。然而,這種現象并非新生事物,通過特定設備作出意思表示在日常生活中比較普遍,例如自動售貨機、自助打印機等皆屬于意思表示與人類相互分離的范疇。由此,自主性的差異在表示行為層面表現得并不明顯,雖然強人工智能和弱人工智能的自主性存在差異,但是可能同樣表現為通過特定設備作出表示行為。自主性的差異更多體現在表示內容層面,即人工智能對于形成特定表示內容的參與作用不同。人工系統作為意思表示的媒介,經歷了由單純的工具向自動化再向自主化的發展過程,在意思形成過程中發揮的作用越來越大。與之相應的,則是人類施加的影響被逐漸削弱。
在締約過程中,部分自動系統、完全自動系統和自主系統具有不同的自主性,主要體現為表示內容的形成對于人類預先設置的依賴程度,即意思表示的內容完全由人類確定抑或某些要素可由系統自主產生。例如,當冰箱里的牛奶消耗殆盡并滿足了相應設置的條件,冰箱會啟動訂購程序。如果這些設置中包含訂購的種類、數量、價格以及出賣人等具體信息,那么,冰箱實際上只是在一步一步地執行人類預先設置的具體條件,觸發特定條件時冰箱應該作出什么反應完全是在設置中預先規定。在這種情況下,冰箱并未作出任何自主決定,真正決定訂購環節各要素的是人類。[31]在此情形下,由人類承擔意思表示的法律效果更容易被接受,因為人類能夠預見到指令執行所產生的效果,并且往往追求這種結果的實現。由于是人類設定了具體條件,有的觀點將人類視為意思表示的發起者(initiator)。Vgl.Nink,Rechtliche Rahmenbedingungen von Serviceorientierten Architekturen mit Web Services,G?ttingen 2010,60.但是,如果冰箱并沒有這些預先設置的具體條件,而只存在抽象條件(例如,當冰箱里沒有牛奶了),在滿足此類抽象條件后,冰箱的后續操作基于算法的控制,通過算法的運作自己決定以何種價格、向哪一個出賣人訂購等具體事項,那么這種冰箱就屬于完全自動系統。如果發展到自主系統階段,冰箱不再需要人類對于某一特定事項預先設置條件而只需要人類提供概括的技術框架,冰箱可以自主決定是否需要補充食物并根據使用人的生活習慣進行自主選擇并向自己選定的出賣人發出訂購信息。可見,差異化的自主性意味著,人工智能在不同程度上替代人類作出意思表示,對意思表示的內容產生不同程度的影響。
一項客觀上由人工智能作出的表示行為,人類與人工智能在意思形成過程中各自發揮的作用,決定該項表示行為的法律效果歸屬。如果特定設備表達的內容最終可以溯及于人類的意思,法律效果歸屬于人類則具有正當性。[32]參見[德]迪特爾·梅迪庫斯:《德國民法總論》,邵建東譯,法律出版社2000 年版,第199 頁。但是,隨著人工智能自主性的不斷增強,意思表示的內容可以越來越多地由人工智能決定,人工智能對外作出的表示內容是否仍然可以追溯到人的意思成為問題。[33]由于系統的自主性和智能不斷增強,將意思表示歸責于系統背后的人類這種方式在未來是否合理存在疑問。Vgl.Fritz-Ulli Pieper,Wenn Maschinen Vertr?ge schlie?en:Willenserkl?rungen beim Einsatz von Künstlicher Intelligenz,GRUR-Prax 2019,S.298 ff.
在機器自動作出表示行為的情況下,自動系統反映出人與機器的不同分工。雖然人類通過預先設置對表示行為的作出施加影響,但是在自動系統作出表示行為的時間點,客觀上沒有任何人類作出意思表示。但是,自動系統只具有部分自主性,尚不能完全脫離人類預先指令的控制,其作出表示行為的過程仍然存在明顯的人類作用。這一事實,成為確定自動系統作出表示行為之法律效果歸屬的關鍵因素。
1.解決問題的方法
由于自動系統仍然依賴人類的預先設置,首先需要考慮的是將自動系統作出的表示行為之法律效果歸屬于人類。在現有法律制度框架內,主要存在如下可能的解釋路徑:
(1)代理規則的適用
有的觀點主張適用代理規則,將自動系統視為使用人的代理人。但是,在迄今為止的法律規范體系項下,這種觀點并無充分的說服力。首先,自動系統不具有權利能力和必要的行為能力,不具備作為代理人的法律資格。[34]代理人應當具備權利能力且至少具有限制行為能力。Vgl.MüKoBGB/Schubert,8.Aufl.,2018,BGB § 164 Rn.109.其次,代理人是自己作出意思表示,[35]代理人自己作出意思表示是代理人與使者的本質區別。Vgl.HK-BGB/Heinrich D?rner,10.Aufl.,2019,BGB § 164 Rn.4.而自動系統并非作出自己的意思表示。通說認為,意思表示包括客觀構成要件(表示行為)和主觀構成要件(行為意思、表示意識、交易意思)。[36]參見[德]本德·呂特斯、阿斯特麗德·施塔德勒:《德國民法總論》,于鑫淼、張姝譯,法律出版社2017年版,第152-158 頁。雖然客觀上由自動系統作出表示行為,但是行為意思、表示意識、交易意思并非完全由自動系統產生,這些主觀構成要件要素更多來源于人類,自動系統無法形成真正的內心意思,談不上自動系統作出自己的意思表示。只不過隨著自主性的增強,這種來源于人類的要素不斷減少。當系統作出表示行為不再需要人類提供構成“意思”的要素,系統將會獲得完全的自主性,屆時基于算法形成的“意思”是否可以在法律上等同于人類的內心意思,是自主系統將會面臨的問題。
正因如此,有的觀點主張類推適用代理規則。[37]Vgl.Oliver Ke?ler,Intelligente Roboter -neue Technologien im Einsatz,MMR 2017,S.589 ff.然而,類推適用代理規則亦有不妥,集中體現為無權代理的責任承擔問題。在代理法律關系中,出于保護交易的利益考量,代理人應當承擔欠缺代理權的風險,即代理人在無權代理的情形下需要承擔相應責任。[38]《中華人民共和國民法典》第171 條第3 款亦規定,行為人無權代理實施的行為未被追認的,善意相對人有權請求行為人履行債務或者就其受到的損害請求行為人賠償。對于沒有權利能力的自動系統而言,無法適用有關無權代理責任的規定。因為自動系統既不是權利的享有者亦非責任的承擔者,它本身不能對錯誤的表示承擔責任。由于自動系統無法自己承擔責任,類推適用代理規則對合同相對人極為不利。在自動系統欠缺代理權的情況下,作為被代理人的使用人無需承受自動系統所為意思表示的法律后果,[39]除非構成表見代理。但是,表見代理之構成需要滿足特定要件,例如某人多次或者在很長一段時間內擔任代理人等可以使他人相信其有代理權的“權利外觀”。Vgl.MüKoBGB/Schubert,8.Aufl.,2018,BGB § 167 Rn.111.而自動系統本身亦無法對此承擔責任,最終只能由合同相對人自己承受不利后果。此外,使用人可能惡意主張自動系統欠缺代理權,從而利用自動系統無法承擔責任的特點損害合同相對人的合法權益。為了避免由此產生的不公平,可以考慮排除或者限制無權代理的適用,即自動系統所為的意思表示均視為有權代理、限制無權代理的成立或放寬表見代理之構成,從而將法律效果歸屬于使用人。但是,這種做法的合理性不無疑問,自動系統適用代理規則將產生諸多相對于一般情形的例外,對既有代理規范體系形成沖擊。主張適用或類推適用代理規則,卻僅利用法律效果歸屬于被代理人的規則,而代理規則的其他內容卻并不適用,無異于對適用代理規則之合理性的自我否定。所以,在既有法律制度下,對自動系統作出的表示行為,適用或類推適用代理規則均難以獲致令人滿意的解釋。
(2)使者規則的適用
在自動系統不能作為代理人的情況下,轉而適用使者規則亦是一種解決思路。因為,使者“只是以他人意思表示的傳達人身份出現”,[40][德]迪特爾·梅迪庫斯:《德國民法總論》,邵建東譯,法律出版社2001 年版,第673 頁。對于意思表示的內容沒有施加影響,[41]Vgl.Riehm,Von Drohnen,Google-Cars und Software-Agenten-Rechtliche Herausforderungen autonomer Systeme,ITRB 2014,S.113.只是對于已經作出的意思表示的接收方式產生影響,符合自動系統并非作出自己的意思表示這一特征。因而,傳達是事實行為而非法律行為,不要求使者具有行為能力。[42]Vgl.MüKoBGB/Schubert,8.Aufl.,2018,BGB § 164 Rn.71.但是,使者只是沒有變更地傳達一個他人既已作出的意思表示,以致于表示人也可以向接收人發送一封載有其表示內容的信件以代替傳達人,[43]Vgl.Hans Brox/Wolf-Dietrich Walker,Allgemeiner Teil des BGB,2015,S.225.這一點又與自動系統作出表示行為的特征不符。申言之,使者所傳達的是一個業已存在的具體意思表示,而自動系統并不是僅僅傳達其使用人的意思表示,而是對意思表示內容的確定產生影響。
對于部分自動系統而言,雖然其在特定時間執行預先設置的具體條件,但是,人類只是預先設置了具體條件而已,相當于確定了組成意思表示內容的各個“意思”要素,尚不存在一個具體、完整的意思表示,與使者傳達他人已經形成的意思表示在結構上不同,這些要素結合產生具有法律意義的意思表示是在系統內部完成。至于完全自動系統,人類只是設定了抽象指令,系統可以自己確定意思表示的某些具體內容(例如,智能助理軟件收到人類指令之后基于算法而向某個出賣人發出訂購的表示),決定意思表示內容的各個“意思”要素并非全部來源于人類。雖然完全自動系統并未排除人類的控制,但是對于意思表示的內容所施加的影響客觀存在。可見,自動系統對于意思表示而言,顯然不是一封信可以代替,與使者的特征不相符合。因此,將使者規則適用于自動系統,亦缺乏說服力。
(3)面向不特定人的意思表示
還有一種觀點認為,自動系統作出表示行為與自動售貨機面向不特定人的意思表示具有相似性。[44]Vgl.Müller-Hengstenberg/Stefan Kirn,Intelligente (Software-)Agenten:Eine neue Herausforderung unseres Rechtssystems -Rechtliche Konsequenzen der “Verselbstst?ndigung” technischer Systeme,MMR 2014,S.307 f.誠然,在自動售貨機發出意思表示之時,客觀上沒有人類的直接參與。但是,自動售貨機的法律構造與自動系統存在差別。自動售貨機作為一種輔助訂約的手段,對意思表示的參與僅僅是改變了表示行為的方式。與自動系統相比,自動售貨機具有更加明顯的工具屬性。從法律關系的角度來看,可以將自動售貨機視為意思表示的表達工具,只是將所有人或使用人預先設定并儲存在其中的“意思”表示于外。[45]類似于純粹的電子訂購工具(elektronische Bestellhilfen)。Vgl.Dienst/Falke (o.Fu?n.7),14.Teil,Rn.11.因此,自動售貨機提供貨物或服務應當被視為其所有人或使用人的意思表示。與之不同,自動系統并非只是單純的工具,而是具有更多的自主性,可以對意思表示內容的形成施加影響。與自動售貨機儲存所有人或使用人的具體意思表示不同,自動系統往往沒有人類預先確定具體的產品種類和數量,因而事先不存在足夠確定的意思表示。[46]Vgl.Patrick C.Leyens/Henning B?ttcher,Anf?ngerhausarbeit -Zivilrecht:Computergenerierte Willenserkl? rungen,Anfechtbarkeit und Erkl?rungsrisiken -Der smarte Kühlschrank,JuS 2019,S.133 ff.此外,自動系統與自動售貨機的不同之處還表現在,自動系統作出表示行為并非面向不特定人,往往是向具體、特定的合同相對人作出表示行為。這種面向特定人作出的表示行為,更容易受到表示受領人的信賴。對于法律效果歸屬的確定而言,受領人的信賴保護亦屬重要考量因素。鑒于自動系統與自動售貨機的差異性,這種將自動系統類比自動售貨機的方案亦無法解決問題。
上述幾種方案具有共同目的,將自動系統作出的表示行為之法律效果歸屬于使用人。但是,這些方案存在以下不足:(1)類推適用現行法中的某項具體制度,具體制度的適用需要滿足特定要件且適用范圍有限,難以與自動系統的特點契合,類推適用將產生大量的法律解釋問題(例如,自動系統沒有權利能力卻可以作為代理人的正當性)。(2)對于自動系統的特殊性缺乏充分認識,通過技術手段實現的自主性,在自動系統階段表現出既不同于人類以往制造的工具亦不同于人類“自主”的特征,簡單地將自動系統視為“人”或“工具”難言適當,而既有制度恰是建立在這種主體和客體明確區分的基礎上,并沒有充分考慮機器自主性的特殊之處,類推適用現有制度難免產生問題。(3)雖然自動系統在很多方面具有不同于傳統機器的特點,但是,“自主性”才是影響表示行為法律效果歸屬的核心要素。上述方案過于注重表示行為的法律效果歸屬于使用人,關注點在于現有制度中是否存在可以實現這種結果的制度安排,自動系統的自主性對法律效果歸屬的影響未獲應有重視。
2.計算機表示理論
本文認為,應當從自主性角度出發確定表示行為的法律效果歸屬。正如前文所述,機器的自主性從無到有、從弱到強。在機器不具有自主性的時代,機器充其量作為人類意思表示的表達工具,意思表示的法律效果由人類承擔并無任何問題。機器逐漸具有自主性的事實導致在意思表示過程中人類與機器所起作用的改變,原本由人類承受意思表示法律效果的制度安排出現問題。隨著機器自主性的實現,在意思表示形成和發出的過程中出現了人類與機器的分工。并且,機器的自主性越強,其在意思表示中的參與度越高,與之相應,人類所發揮的作用越小。在這種情況下,意思表示是由人類作出還是由機器作出則產生疑問。由于人類在意思表示中作用減弱,將意思表示的法律效果歸屬于人類變得并非理所當然。如果未來機器能夠代替人類作出意思表示,問題將會更加突出。
既然自主性是影響表示行為法律效果歸屬的核心要素,那么,如何通過自主性確定法律效果歸屬?一種方法是,劃分不同程度的自主性并分別適用不同的規則。然而,機器的自主性是漸進發展的。雖然人工智能的自主性存在差異,但是,差異化的自主性很難依據某一標準進行精確區分。因此,在區分不同程度的自主性基礎上分別確定表示行為之法律效果歸屬的實現難度很大。根據自主性確定法律效果歸屬,應當注意如下方面:第一,系統的自主性對應著人類對系統的干預和控制,二者呈現一種負相關關系。第二,自主性的差異并非一定導致不同的法律效果歸屬規則,系統的自主性在某個區間內可以適用相同規則,因為在此區間內存在相對穩定的因素,即人類對系統作出表示行為的干預和控制。因此,本文主張在自主性問題上進行視角轉換,從人類的干預和控制角度確定表示行為的法律效果歸屬,自動系統和自主系統的大致劃分實際也是以是否存在人類干預和控制為標準。在自動系統階段,尚不能脫離人類的干預和控制。在此情況下,德國法上的計算機表示(Computererkl?rung)理論可資借鑒,因為這一理論實質上即是從人類干預和控制的角度分析將表示行為的法律效果歸屬于人類的正當性。
計算機表示通常被理解為,計算機基于程序自動生成且隨后通過電子方式傳輸給接收者的表示行為。[47]Vgl.JOSEF MEHRINGS,Vertragsabschlu? im Internet -Eine neue Herausforderung für das “alte” BGB,MMR 1998,S.30 f.與傳統的意思表示相比,計算機表示的特殊性在于,在表示行為生成和傳輸的時間點上均不存在人類行為的積極參與。根據迄今為止關于意思表示的法教義學,此類計算機表示仍被歸于自主性系統的使用人。[48]Vgl.Reinhard Singer,Staudinger/Singer (2017) Vorbem zu §§ 116-144 Rn.57.申言之,計算機表示理論的前提是自主性系統不具備法律主體資格,通過對意思表示進行解釋的方法將表示行為的法律效果歸屬于自主性系統的使用人。雖然在表示行為作出的時間點上欠缺行為意思、表示意識和法效意思,但是系統的投入使用是基于使用人的意思。在這里,表示行為的法律效果歸屬于系統的使用人,要求系統的使用人存在“概括的既已存在的意思”(generell vorhandene Wille)和“一般的表示意識”(allgemeine Erkl?rungsbewusstsein)。[49]Vgl.Spindler/Schuster,Recht der elektronischen Medien,4.Auflage,2019,Vorbemerkung zu §§116 ff.Rn.6.簡言之,使用人使用計算機系統的目的是為了讓該系統在特定情況下啟動相應程序并完成一系列操作,這種主觀意思在使用計算機系統之初即已存在或者按照通常理解可以推知,其中就包含接受計算機系統完成相應操作后之法律效果的意思。如果使用人已經做好準備接受計算機系統執行操作后的法律效果,那么,計算機操作所引起的對其有利抑或不利的后果,均由使用人承受則具有合理性。所以,按照計算機表示理論,系統運行后相應預設的完成即已足夠,計算機產生的表示可以作為使用人自己的意思表示而歸責于使用人。
據上所述,計算機表示理論適用于在特定時間執行人類預先設置之具體條件的部分自動系統當無疑問,此類系統作出的表示行為之法律效果應當由其使用人承擔。問題是,計算機表示理論是否適用于完全自動系統?根據前述計算機表示理論的內容,決定意思表示法律效果歸屬的關鍵在于人類對計算機系統的控制,即從系統的使用到執行操作均可追溯到人類的概括意思。即使表示行為的作出并非基于使用人具體的行為意思、表示意識和法效意思,計算機系統亦是在使用人概括的行為意思及表示意識基礎上工作。所以,必要的人類參與對于一個計算機表示是否可以被視為意思表示至關重要,是將意思表示的法律效果歸屬于系統使用人的基礎。本文認為,由于完全自動系統并未完全脫離人類預先設置,人類在此類系統作出決定并執行的過程中仍然起到重要作用,因而計算機表示理論仍可用以解釋完全自動系統作出表示行為的相關問題。因此,根據計算機表示理論,自動系統作出的表示行為之法律效果原則上歸屬于使用人。并且,由于使用人的概括意思具有較大解釋空間,計算機表示理論能夠廣泛適用于因機器自主性而產生的表示行為之法律效果歸屬問題。
3.使用人的概括意思
計算機表示理論要求使用人具有概括意思,表明使用人對于計算機系統作出表示行為存在控制或者至少存在控制可能。對于計算機表示而言,一項意思表示的存在是必需的,即系統客觀作出的表示行為可能基于一項包含表示意識在內的人類意思。[50]Vgl.Dennis-Kenji Kipker/Piet Birreck/Mario Niew?hner/Timm Schnorr,Rechtliche und technische Rahmen bedingungen der ?Smart Contracts“ -Eine zivilrechtliche Betrachtung,MMR 2020,S.509 f.由此,使用人對于計算機系統在某些情況下可能作出表示行為在一定程度上可以預見。根據計算機表示理論確定表示行為的法律效果歸屬,關鍵在于認定由計算機系統作出的表示行為是否可以溯及到一項人類的概括意思。
如前所述,人類對于自動系統可以施加干預和控制。但是,可以施加干預和控制的主體并不限于所有人,還包括處于控制地位的其他主體。由此,可以形成概括意思的主體應理解為實際使用人,包括所有人以及所有人以外的其他第三人。在第三人介入的情況下,計算機表示理論的適用具有特殊性。以本文前述Alexa 訂購貨物的情形為例,Alexa 作出的表示行為一般情況下可以歸屬于所有人,因為購買和使用Alexa 是基于所有人的概括意思,Alexa 作出的表示行為可以溯及至所有人的概括意思。然而,如果Alexa 接受第三人的指令作出表示行為,并且所有人對此并未參與或者并不知情,情況則大有不同。此時,不能以存在使用Alexa 的概括意思為由將法律效果歸屬于所有人,因為所有人的概括意思并不包含接受Alexa 并非基于自己的指令而作出表示行為的法律效果。[51]使用人的意識是必需的,存在物理強制或無意識行為的情況下,使用計算機系統不能認為存在操作者的行為意思,即使有時只需打開計算機即為已足。Vgl.Christoph Sorge,Softwareagenten -Vertragsschluss,Vertragsstrafe und Reugeld,Karlsruhe 2006,S.27.因此,不能徑自認為購買使用自動系統即包含使用人的概括意思,而應就具體的意思表示進行考察。由此,在第三人介入的情況下,如何確定表示行為的法律效果歸屬成為問題。
本文認為,在第三人介入的情況下,確定表示行為的法律效果歸屬,需要從以下兩個方面進行分析:一是,從意思表示層面出發,以計算機表示理論為基礎分析系統作出的表示行為可以視為哪一主體的意思表示,從而將表示行為的法律效果歸屬于這一主體;二是,從交易安全角度考慮,交易相對人的合理信賴應當受到保護,相對人的信賴保護不僅影響表示行為的法律效果歸屬,而且涉及通過其他途徑保護相對人合法利益的問題。
(1)歸屬于實際使用的第三人?
在第三人介入的情況下,第三人對自動系統作出表示行為施加干預和控制,自動系統作出的表示行為可以溯及至第三人的概括意思。因此,根據計算機表示理論,表示行為的法律效果原則上可以歸屬于第三人。
但是,存在第三人實際使用卻無法依據計算機表示理論確定法律效果歸屬的情形,即不存在有效的第三人概括意思。例如,在前述Alexa 訂購玩具屋的例子中,小女孩行為能力欠缺和新聞播音員缺乏表示意識,他們對于自動系統作出表示行為是否存在有效的概括意思即存在疑問。如前所述,不管表現形式如何(如提供操作說明、使用智能電子代理),[52]Vgl.Reinhard Singer,Staudinger/Singer (2017) Vorbem zu §§ 116-144 Rn.57.計算機表示理論終究要求使用人具有概括意思。這一概括意思屬于人的意思表示,雖然概括但亦須包含行為意思和表示意識。需要注意的是,不具備有效的概括意思,導致僅有系統作出的表示行為而欠缺構成意思表示的意思要素,因而意思表示不能有效成立。在此情形下,涉及如何保護相對人合理信賴利益的問題。對于第三人概括意思,欠缺行為能力和欠缺表示意識導致的法律后果存在差異。
行為能力是指“理智地形成意思的能力”,[53][德]迪特爾·梅迪庫斯:《德國民法總論》,邵建東譯,法律出版社2001 年版,第409 頁。主要指向對自己所為表示具有法律意義的認識,對于是否存在表示意識和法效意思產生影響。在表意人無行為能力的情況下,意思表示無效且不能予以補正;在表意人具有限制行為能力的情況下,除純獲法律上利益或者與其年齡、智力水平相適應的情形以外,意思表示效力待定并且可以由法定代理人通過追認予以補正。[54]參見[德]哈里·韋斯特曼:《德國民法基本概念》,張定軍、葛平亮、唐曉琳譯,中國人民大學出版社2013年版,第21 頁。因此,如果小女孩無行為能力,則不存在有效的概括意思,自動系統作出的表示行為之法律效果不能由小女孩承受。如果小女孩具有限制行為能力,是否存在有效的概括意思則取決于法定代理人是否追認:如果法定代理人予以追認,則由小女孩承受上述表示行為的法律效果;如果法定代理人不予追認,則因不存在有效的意思表示而不能由小女孩承受表示行為的法律效果。此外,民法對于行為能力欠缺者的保護優先于交易安全,[55]參見王澤鑒:《民法總則》,北京大學出版社2009 年版,第251-252 頁。相對人的信賴不能成為行為能力欠缺者承受表示行為法律效果的原因。
表示意識并非構成意思表示的必備要素,在表意人欠缺表示意識時,表示行為的法律意義與交易安全的保護和法律交往的風險分配相關。通常認為,如果滿足以下兩個要件,即使欠缺表示意識亦存在有效的意思表示:①通過運用交易中需要的謹慎,表意人本來能夠認識和避免,根據誠實信用原則和交易習慣其表示可以被理解為意思表示;②受領人實際上也是這么理解的。[56]Vgl.Kitz,Hoeren/Sieber/Holznagel,Multimedia-Recht Werkstand:52.EL April 2020,Rn.63.可見,兩個要件分別考量表意人的謹慎義務和受領人的信賴保護。在前述Alexa 訂購玩具屋的情形,新聞播音員欠缺表示意識,表示行為的法律效果是否可以歸屬于新聞播音員,需要檢視是否符合上述兩個要件。首先,新聞播音員沒有違反謹慎義務。新聞播音員并未實際使用Alexa,并且只是進行新聞報道而非處于訂約過程,不負有交易過程中的謹慎義務,只需承擔從事新聞報道活動通常應盡的注意義務。因此,在進行新聞報道的情況下,新聞播音員難以預見自己說話的內容被Alexa 接收并錯誤地作為指令予以執行,并不負有防止其談話內容發生任何誤解的謹慎義務,并不存在違反其本應負擔的謹慎義務之情形。其次,相對人不存在對新聞播音員表示行為的合理信賴。相對人收到的信息是由Alexa 發出,相對人可以合理信賴Alexa 執行所有人的指令,但是無法形成Alexa 執行新聞播音員指令的合理信賴。因為新聞播音員并非Alexa 的實際使用人,只是他說話的內容偶然被Alexa 接收并予以執行,相對人正常情況下根本不知道Alexa 發出訂購信息的背后還有新聞播音員的存在,不存在信賴新聞播音員表示行為的問題。誠然,相對人的合理信賴應受保護,但是需以存在合理信賴前提。至少在本文所舉例子的情形中,由于欠缺表示意識且不屬于例外成立有效意思表示的情形,表示行為的法律效果不能歸屬于新聞播音員。
以上分析體現了確定自動系統作出表示行為的法律效果歸屬的思考步驟:(1)溯及確定使用人的概括意思,根據計算機表示理論將法律效果歸屬于使用人;(2)因無法確定或不存在有效的概括意思導致不能適用計算機表示理論確定法律效果歸屬,需要檢視對交易相對人的利益予以保護的其他途徑。其中,前者屬于表示行為的法律效果歸屬問題,后者實際上是通過相關主體承擔責任的方式維護合同相對人的合法利益。
(2)交易相對人的利益保護
如果自動系統的表示行為之法律效果無法歸屬于實際使用人,交易相對人將會面臨獨自承擔自動系統投入使用所產生法律風險的不利境地。基于合同的相對性,意思表示只發生在締約當事人之間,對于自動系統作出表示行為的情形亦是如此,即只有自動系統背后的實際使用人才會形成概括意思,沒有參與締約的主體并未作出意思表示。但是,即使沒有作出意思表示并不意味著不能實現表示行為的法律效果歸屬。此外,有關主體可能基于其他原因需要承擔相應責任。
除了實際使用人以外,與自動系統關系最為密切的是所有人。如前所述,Alexa 執行第三人指令的情形不在所有人概括意思范圍內,Alexa 作出的表示行為之法律效果歸屬于所有人似乎并不適當。然而,不容忽視的是,交易相對人通常會對Alexa 執行所有人的指令產生合理信賴。如果交易相對人的合理信賴可以歸因于所有人,表示行為的法律效果歸屬于所有人則具有合理性。例如,所有人主動告知他人密碼、將設備開機并交給小孩使用等導致第三人利用自動系統作出表示行為。但是,由于所有人并非實際使用人,其承擔責任應當限定在一定范圍,否則對于所有人而言并不公平。[57]Vgl.Louisa Specht/Sophie Herold,Roboter als Vertragspartner? Gedanken zu Vertragsabschlüssen unter Einbeziehung automatisiert und autonom agierender Systeme,MMR 2018,S.40 ff.如果所有人一旦購買和使用自動系統即需要對此類系統的一切表示行為承擔責任,那么,是否購買和使用此類智能產品將成為消費者不得不考慮的風險進而降低消費者的購買欲望,最終不利于新型產品研發和相關產業發展。本文認為,只有在所有人明知第三人使用自動系統作出表示行為且有義務避免此種情形發生而違反有關注意義務的情況下,所有人才需對表示行為承擔責任。因此,在所有人將自動系統出租或出借給第三人的情況下,雖然所有人知道第三人使用自動系統作出表示行為,但是出租或出借屬于法律允許的范疇,所有人沒有義務避免第三人使用自動系統作出表示行為,因而所有人無需負擔表示行為的法律效果。
此外,在自動系統作出表示行為的情況下,合同相對人面臨的主要風險是無法知曉究竟是與誰訂立合同。為了保障合同相對人決定是否參與締約的自由,應當通過某種手段使其能夠知悉與其締約的主體。在此,對自動系統進行預先設置是一種實現方法。例如,可以將自動系統作出表示行為設置為必須經過所有人同意或授權,自動系統作出某項表示行為之前應當詢問所有人是否確認,[58]Vgl.Dominique Ziegelmayer,Einkaufen mit “Alexa” -einfach,aber nicht ganz unproblematisch,URL:https://www.focus.de/finanzen/experten/amazon-einkaufen-mit-alexa-einfach-aber-nicht-ganz-unproblematisch_id_7072494.html.(abgerufen am 12.September 2017)具體的確認方式可以是輸入密碼、面部識別、指紋識別、聲音識別等,經過所有人確認發出的意思表示,即可視為所有人自己的意思表示,進而表示行為的法律效果歸屬于所有人。這種方式既可以使合同相對人信賴其是與所有人訂立合同,又可以保證法律效果歸屬于所有人的表示行為均經過自己認可同意。然而,這種方式的實現離不開技術支持,需要自動系統的生產者采用合理的技術設計方案并采取措施保障有關功能可以正常使用。如果自動系統的設計、制造或者使用說明存在錯誤,導致自動系統存在故障而未經所有人確認同意即作出表示行為,考慮合同相對人的合理信賴可以讓所有人承擔表示行為的法律效果,所有人在承擔責任后有權要求生產者、銷售者承擔責任。
與自動系統不同,自主系統無需預先的參數輸入即可獨立自主地作出法律決定,通過機器學習、深度學習等技術手段從大數據中學習新的行為方式,甚至可以在人工神經網絡的幫助下獨立自主地學會新的決定模式。顯然,計算機表示理論中體現使用人概括意思的干預和控制(如相關技術設置)在自主系統中并不明顯甚至已不存在。由此產生如下疑問:計算機表示理論是否仍可用于確定自主系統所為表示行為的法律效果歸屬?如果計算機表示理論不堪為用,應當采用何種方法解決這一問題?
1.計算機表示理論無法適用
由于自動系統作出表示行為仍然需要人類的預先設置,法律效果歸屬于自動系統的使用人具有合理性。與此不同,自主系統是自主作出表示行為,并不存在足夠的人類貢獻。不同于自動系統作出的自動的(automatisierten)意思表示,自主系統不再根據事先準確定義或者至少概括的條件作出意思表示,而應稱為自主的(autonomen)意思表示。[59]Vgl.David Paulus/Robin Matzke,Smart Contracts und das BGB,ZfPW 2018,S.431 ff.當自主性到達特定程度時,自主系統的行為不再可以預先確定,對于人類而言亦非可以完全預見。在這種情況下,不再能夠確定地說,通過自主系統產生的表示行為是否源自使用人以及是否可以歸責于使用人。[60]Vgl.Peter Br?utigam/Thomas Klindt,Industrie 4.0,das Internet der Dinge und das Recht,NJW 2015,S.1137.正是由于自主系統具有高度或完全的自主性,大多數觀點認為計算機表示理論無法適用于自主系統。隨著智能和學習能力的增強,系統的決定過程越來越獨立并且對于系統的使用人而言越來越不可預見,以致于是否存在計算機表示理論中作為歸責基礎的使用人概括意思并不確定。[61]Vgl.Spindler/Schuster,Recht der elektronischen Medien,4.Aufl,2019,Vorbemerkung zu §§ 116 ff.Rn.7.在人工智能技術的加持下,自主系統作出表示行為乃是基于算法的實現,由于缺少對數據處理結果的可預見性,使得將自主系統作出的表示行為歸責于自然人的方法在法律上受到強有力的懷疑。[62]Vgl.Malte Grützmacher/J?rn Heckmann,Autonome Systeme und KI -vom vollautomatisierten zum autonomen Vertragsschluss? -Die Grenzen der Willenserkl?rung,CR 2019,S.553 ff.如果人工智能的自主性達到可以完全脫離人類控制的程度,那么,通過計算機表示理論將法律效果歸屬于使用人將會面臨問題,因為表示行為的作出并未體現使用人的概括意思,表示行為的內容系完全自主地形成。因此,之所以自主系統不適用計算機表示理論,是因為人類在表示過程沒有實質貢獻,缺乏可以追溯至人類意思的具體客觀事實。但是,亦有觀點主張自動的意思表示與自主的意思表示適用同樣的處理原則,將自主的意思表示作為各自使用人或操作者自己的意思表示進行歸責,使用自主系統參與法律交易在各種情況下均可追溯至人類的意思。[63]Vgl.David Paulus,Die automatisierte Willenserkl?rung,JuS 2019,S.960 ff.
由此可見,問題的關鍵在于對計算機表示理論中所謂人類之“概括意思”的理解,即“概括意思”的涵攝范圍到底有多大?是否人類使用自動系統或自主系統的意思即可涵攝之后的自動系統或自主系統作出的具體表示?本文認為,計算機表示理論并非對傳統意思表示理論的否定,恰恰是考慮到意思表示所需的主觀要件而對機器自動作出表示行為進行的解釋,其基本的邏輯進路為:雖然在意思表示作出的時間點上不存在使用人具體的行為意思、表示意識和法效意思,但是,如果不再局限于意思表示作出的時間點,作為意思表示組成部分的行為意思、表示意識和法效意思已經存在于使用人對人工系統的使用之中。可見,在計算機表示理論中,計算機表示的法律效果歸屬于使用人,是將表示過程在時間上拉長進行觀察,落腳點仍在于使用人的意思表示。因此,計算機表示理論的基礎在于,存在可以視為使用人意思表示的事實。正如前文所述,雖然使用人的意思比較概括,但是依據計算機表示理論確定法律效果歸屬要求必須存在該項概括意思。
由于自動系統只有部分自主性,使用人對系統作出表示行為仍有不同程度的控制,決定意思表示內容的各個要素仍然可以追溯至人類,人類對自動系統的使用(例如打開設備開關、通過語音喚醒)可以視為基于使用人的意思使系統處于運行狀態,這種控制可以作為將表示行為之法律效果歸屬于使用人的基礎。但是,在自主系統中并非如此。自主系統所具有的自主性,使系統作出表示行為并不依賴于人類預先設置,并且人類對此缺乏理解或者根本不可預見。雖然將自主系統投入使用源于人類的意思,但是,具體情形下自主系統所為的表示行為卻不能追溯到人類,甚至人類完全無法預知自主系統將會作出什么樣的表示行為。也即,不能將“概括意思”僅理解為使用計算機系統的意思,仍然應當存在體現使用人行為意思和表示意識的事實,或者使用行為可以被評價為包含“概括意思”。具體而言,必要的意思存在于設備的使用操作或者相應的程序設定之中,雖然使用人在具體情況下并不確定意思表示的內容,但是確定所有內容確定的要素。[64]Vgl.Helmut Redeker,Gesch?ftsabwicklung mit externen Rechnern im Bildschirmtextdienst,NJW 1984,S.2390 ff.所以,由于缺少人類概括的行為意思和表示意識,計算機表示理論無法適用于自主系統。
2.法律效果歸屬的其他路徑
鑒于計算機表示理論適用于自主系統存在上述障礙,不少研究試圖在法律上尋找新的解決方案。如前所述,對于自動系統的表示行為之法律效果歸屬,存在主張適用代理規則進行解釋的觀點。由于自動系統沒有權利能力,不具備作為代理人的資格,因而這種解釋方案不如計算機表示理論合理。但是,自主系統的情況與之不同。計算機表示理論無法適用于自主系統,主要原因之一在于自主系統具有高度或完全的自主性,表示行為的作出與人類的相關性越來越弱,以人類概括意思為法律效果歸屬基礎自然存在問題。人類作用的減弱以及系統自主性的增強,與承認人工智能法律主體地位的觀點具有一致性。因此,不少學者試圖通過承認自主系統具有權利能力解決法律效果歸屬問題。相對于自動系統,承認自主系統的權利能力更具合理性。但是,自主系統具有何種程度的權利能力存在不同認識:一種觀點承認自主系統具有完全權利能力,另一種觀點則認為自主系統只具有部分權利能力。
關于自主系統是否具有權利能力的問題,理論上多在“電子人”(E-Person)這一概念項下進行討論。2017 年2 月16 日,歐洲議會表決通過《就機器人領域的民事法律規則向歐盟委員會的立法建議(2015/2103(INL))》,其中第59.f 指出,“從長期來看,應當為機器人設立一個特殊的法律地位,在這一點上,至少對于精致的自主機器人可以被確認為具有電子人的地位,對由其引發的全部損害負責賠償以及在機器人作出獨立自主決定或者在其他方面與第三人以獨立方式交互的情形下可能有電子人格的適用”。[65]Vgl.Europ?isches Parlament 2014-2019,P8_TA-PROV(2017)0051,Zivilrechtliche Regelungen im Bereich Robotik,Entschlie?ung des Europ?ischen Parlaments v.16.2.2017 mit Empfehlungen an die Kommission zu zivilrec htlichen Regelungen im Bereich Robotik (2015/2103[INL]),http://www.europarl.europa.eu/sides/getDoc.do?type=REPO RT&mode=XML&reference=A8-2017-0005&language=DE#title1由此,對于電子人格的承認意在解決如下問題:損害賠償責任的承擔、確認獨立自主的法律主體地位以及作為法律主體與第三人交往。可見,這種觀點實質上將“電子人”視為與自然人、法人并列的另一類法律主體,并且具有完全的權利能力。在承認自主系統具有電子人格的情況下,自主系統不僅可以作為代理人而且可以自己為意思表示并承受相應的法律效果。但是,承認自主系統具有完全的權利能力存在問題:(1)自主系統沒有責任財產,而沒有責任財產意味著自主系統無法獨立承擔責任,這一點在一定程度上是對法律人格的否定,因為獨立承擔責任是法律人格獨立的基本內容。如果沒有責任財產卻可以獨立為法律行為并與他人成立法律關系,當存在需要自主系統承擔責任的情形,有關責任的承擔注定無法實現。(2)自主系統的自主性是一種技術上的實現,與人類作為理性主體存在本質區別,既不具有人類成為法律主體時的倫理性考量,又無法完全像人類那樣認識事物。這種通過技術實現的自主性,更多強調相對于人類的獨立性,實際上很難達到與人類同等的思維水平。特別是在道德方面,自主系統在可預見的時間內無法進行道德判斷,法律領域的價值判斷亦無法實現。因此,承認自主系統具有等同于自然人、法人的完全權利能力難言妥當。
另外一種觀點通過類比未成年人(Minderj?hrigen)的權利,承認自主系統具有部分權利能力(Teilrechtsf?higkeit)。[66]Vgl.Malte Grützmacher/J?rn Heckmann,Autonome Systeme und KI -vom vollautomatisierten zum autonomen Vertragsschluss? -Die Grenzen der Willenserkl?rung,CR 2019,553 (559);Louisa Specht/Sophie Herold,Roboter als Vertragspartner? Gedanken zu Vertragsabschlüssen unter Einbeziehung automatisiert und autonom agierender Systeme,MMR 2018,S.40 ff.具有部分權利能力的主體,可以“作為特定的一種或幾種多種法律關系參與者”。[67]劉召成:《部分權利能力制度的構建》,載《法學研究》2012 年第5 期,第132 頁。這種觀點有其合理性:(1)部分權利能力符合自主系統的特征。自主系統可以獨立于人類自己作出決定并執行,從而可以替代人類完成特定任務,在思維方式和實際效果方面與人類具有相似性。但是,自主系統與人類存在本質區別,承認其具有完全權利能力并不合理。考慮自主系統的特征以及在特定法律關系中的作用,部分權利能力的定位更加適當。(2)可以實現確定法律效果歸屬之目的。承認自主系統具有部分權利能力,自主系統在交易活動中可以享有主體地位,并且可以將其權利能力限于作為代理法律關系中的代理人等特定情形,主體地位的獲得使其作為代理人作出和受領意思表示不存在障礙,從而依據代理規則將表示行為的法律效果歸屬于作為被代理人的使用人。但是,將自主系統與未成年人進行類比并不合理。對于意思表示形成和發出的過程而言,自主系統與未成年人具有相似性,即意思表示真正源于“表意人”(即自主系統與未成年人)背后的主體(即使用人和父母)。盡管如此,二者存在以下不同:(1)是否具有權利能力。未成年人的權利能力是固有的,因而可以作出歸屬于自身的意思表示,而自主系統在不具備法律人格的情況下只能作出歸屬于第三人的表示行為。(2)相對人利益之保護。為了對相對人予以必要保護,通過自主系統締約負有公示自主系統及其背后自然人的義務,以便合同相對人自己決定是否同作為自然人代理人的自主系統訂立契約,未成年人為意思表示則不存在此類要求。(3)是否保護善意信賴。在無權代理的情況下,如果相對人不知道意思表示由自主系統作出,則基于保護善意信賴可以認定法律行為有效。但是,在未成年人作出意思表示的情況下,即使相對人不知道未成年人行為能力欠缺,法律行為仍屬效力待定。
就目前的技術發展水平而言,需要賦予權利能力的自主系統尚未實現。未來隨著人工智能的發展,是否會出現具有完全自主性的系統以及人類對于此類系統施加何種影響很大程度上仍然具有不確定性。本文認為,基于技術手段實現的自主性具有漸進性,即使承認自主系統具有權利能力,采用逐步漸進的方案更為合理。在某種程度上,這是一種實用主義的問題處理方法。具言之,在技術發展相對成熟、自主性實現程度高、具備其他必要條件的特定領域內,為了滿足實際需要可以先行承認自主系統具有部分權利能力。在承認自主系統具有權利能力的情況下,一方面,自主系統作出表示行為的法律效果歸屬可以適用代理規則歸屬于被代理人抑或由自主系統自己承擔相應法律效果,另一方面,無論自主系統具備完全權利能力還是部分權利能力,均涉及其是否獨立承擔責任、是否具有責任財產抑或通過其他制度設計將法律效果歸于人類承擔等問題。例如,即使承認自主系統具有部分權利能力,仍然涉及因為無權代理而向相對人承擔責任的情形。
自主性是人工智能的本質特征,這種自主性是一種技術上的實現。因此,與技術發展水平相應,人工智能的自主性程度具有漸進性。根據自主性程度對人工智能進行區分,目的在于明確不同自主性程度下人類對人工智能的干預和控制程度存在差異性。人類的干預和控制程度,影響人工智能作出的表示行為之法律效果歸屬。在尚未脫離人類預先設置的自動系統階段,系統作出的表示行為通過解釋歸屬于人類具有合理性,德國法上的計算機表示理論是一種有效的解釋方案。但是,如果人工智能發展到無需人類預先設置而自主作出決定的自主系統階段,人類無法事先確定或預見自主系統作出何種表示行為,那么,計算機表示理論等既有規則將面臨無法適用的問題。在這種情況下,承認自主系統具有權利能力是確定表示行為法律效果歸屬的一種方法。鑒于人工智能的自主性是漸進的,如有需要亦應采用逐步承認自主系統權利能力的方案,即在特定領域承認自主系統具有部分權利能力,并在此基礎上根據代理等相關制度認定表示行為的法律效果歸屬。