關鍵詞:自主安全悖論 社交人機交互 產(chǎn)品缺陷責任 具身智能 新興數(shù)字技術 鏈式責任治理
一、問題之提出
人工智能(AI)與人形機器人(也稱仿人機器人)的“雙劍合璧”,預示著“具身智能”時代的來臨。2023年11月2日,中國工業(yè)和信息化部頒布的《人形機器人創(chuàng)新發(fā)展指導意見》指出,人形機器人有望繼計算機、智能手機和新能源汽車之后,成為又一深刻改變?nèi)祟惿a(chǎn)與生活方式的顛覆性產(chǎn)品,并將重塑全球產(chǎn)業(yè)的發(fā)展格局。2022年,全球人形機器人市場規(guī)模達到11.1億美元,預計將在2023年至2030年以21.1%的年復合增長率增長。2023年12月29日,深圳某科技股份有限公司在香港交易所主板成功上市,標志著“人形機器人第一股”誕生。預計到2035年,中國的人形機器人市場規(guī)模將達到1540億美元。然而,人形機器人也帶來了新的法律治理困境。正如歐洲議會在其關于機器人法律責任的決議中指出:“傳統(tǒng)規(guī)則無法充分應對由機器人引起的法律責任問題,因為這些規(guī)則無法明確應承擔賠償責任的相關方,并要求其補償所造成的損害。”譬如,若醫(yī)院在使用人形機器人作為手術助理時已盡到合理的注意義務,但因人形機器人的自主性而對患者造成的損害,患者是否有權從醫(yī)院獲得賠償? 如果人形機器人的行為變化并非源于產(chǎn)品出廠時的缺陷,而是與其環(huán)境(包括非專業(yè)用戶)的實際交互經(jīng)驗所致,那么損害責任應由誰來承擔? 同時,人形機器人在外觀和功能上與人類相似,隨著人形機器人自主性的不斷增強,其安全風險亦隨之上升,有學者將這一現(xiàn)象稱作“自主安全悖論”。面對新興技術的挑戰(zhàn),責任制度的充分性和完整性至關重要。現(xiàn)有法律制度在應對新興數(shù)字技術帶來的新風險方面存在潛在不足,或將影響社會的期待和信賴。
界定人形機器人的責任主體與責任范圍,涉及法律、倫理以及監(jiān)管層面的復雜問題。由于人形機器人在形態(tài)上的“仿人”特征及其與人類交互的特殊性,它們更易贏得人類的信任與好感。隨著共處時間的延長和互動的深入,人類對人形機器人的喜愛、依賴乃至愛慕之情都有可能隨之產(chǎn)生,使得人形機器人對人類精神利益的潛在侵犯問題愈發(fā)復雜。在理論層面,歐盟的研究者建議成立一個專門的基金來補償人工智能造成的傷害,并明確自主系統(tǒng)的直接責任。在美國,有學者認為保險可以作為確定責任歸屬的一種機制,建議強制人工智能的制造商或用戶購買保險,以彌補可能引發(fā)的損失。如此一來,受害者即使在責任不清晰的情形下也能通過保險公司獲得補償。日本的研究者則倡導更廣泛的社會責任,并推動在開發(fā)和使用過程中的風險共擔。在實踐層面,美國政府制定了人工智能的最佳實踐指南,旨在推動安全、可靠且值得信賴的AI系統(tǒng)的發(fā)展與部署,而具體的人形機器人法律責任問題則被留給法院裁決。在此情況下,學界尚未對法律與人形機器人進行充分的交叉研究。明確人形機器人的自主侵權責任成為當務之急,對人工智能產(chǎn)品責任的研究成果可以為此提供參考。本文試圖從隱喻視角對人形機器人侵權責任問題進行研究。
二、法律事實:人形機器人的技術特征
相較于非人形機器人,人形機器人展現(xiàn)出四項顯著特征。首先,在外觀與結構上,人形機器人擁有與人類相似的形象,包含四肢、軀干及頭部等部分,這樣的設計使得人形機器人不僅在視覺上易于被人類所接納,而且在進行人機交互時亦顯得更為自然。其次,在移動方式上,人形機器人多采用雙腿行走,這與人類的行走模式相仿,使其在適應多樣地形及環(huán)境條件時展現(xiàn)出更高的靈活性。再次,在交互能力方面,人形機器人由于在外形及行為舉止上更貼近人類,因此,能夠透過面部表情、手勢和語言與人類溝通,從而更精準地理解并響應人類的需求和指示,展現(xiàn)出更強的交互能力。最后,在應用場景上,人形機器人在醫(yī)療、教育、家庭服務以及娛樂等領域扮演著類人角色,而非人形機器人則可能更多地應用于工業(yè)生產(chǎn)和物流運輸?shù)忍禺愋詧鼍啊?/p>
人形機器人的特性使其在侵權責任制度的研究中具有獨特的價值。1942年, 著名科學家兼科幻作家艾薩克·阿西莫夫在短篇小說《轉圈圈》中,首次提出了“機器人三定律”,旨在為機器人的行為設定道德準則,激發(fā)了公眾對于人形機器人安全、倫理和法律問題的深入思考,并為機器人相關法律的建設奠定了基礎。然而,“機器人三定律”具有時代局限性,并不能完全應對人形機器人融入現(xiàn)代社會后可能出現(xiàn)的復雜局面。面對人形機器人發(fā)展所引發(fā)的一系列法律挑戰(zhàn),構建治理規(guī)則時需要進一步厘清人形機器人的技術事實和法律風險。
(一)人形機器人具有人形
人類是自然界中最先進的生物,人形機器人將是人類有史以來創(chuàng)造的最先進“創(chuàng)造物”。打造能夠模仿人類思考與行動的人形機器人,曾是人類長久以來的夢想,它起初只見于科幻小說之中,而今已步入現(xiàn)實之境。人形機器人概念的淵源,可追溯至公元前3世紀的神話故事《皮格馬利翁》。在故事中,雕刻家皮格馬利翁依照內(nèi)心中理想的女性形象,塑造了一尊象牙雕像,并將其命名為伽拉忒亞。由于皮格馬利翁對這尊雕像傾注了滿腔熱情,深陷了愛河。愛神維納斯被他的真摯情感所打動,賦予了雕像以生命,自此,兩者便快樂地共同生活。解構該故事,伽拉忒亞事實上具備了人形機器人的三大特質:一是由人類所創(chuàng)造;二是擁有人類的形態(tài);三是能被賦予生命。皮格馬利翁的故事被視為人形機器人概念的雛形。20世紀,捷克作家卡雷爾·恰佩克在劇本《R.U.R.》中首次提出“機器人”的概念,并將其描述為具有與人類相似的外觀。
近年來,人形機器人在機械機構、傳感器、驅動系統(tǒng)、控制系統(tǒng)、人機交互等方面的技術取得了長足的進步,其外在表現(xiàn)也更加接近人類,引發(fā)了“擬人化陷阱”的討論。由于材料科學和制造技術的發(fā)展,人形機器人的機械結構逐漸輕量化、模塊化和柔性化。例如,日本某公司開發(fā)的“KHR-3HV”機器人采用了輕量化的碳纖維骨骼,重量僅為1.5千克卻能夠完成各種復雜的動作,不僅可以快速實現(xiàn)前進、后退等基本動作,還可以快速實現(xiàn)射擊、出拳、打招呼、倒立等高難度動作。傳感器是人形機器人感知外部環(huán)境的重要手段,人形機器人的傳感器種類和數(shù)量不斷增加,這使其更具“感知力”。例如,美國國防高級研究計劃局(DARPA)在MIT舉辦的機器人挑戰(zhàn)賽(DRC)中,參賽機器人使用了大量傳感器,包括攝像頭、激光雷達、深度傳感器等。隨著電機技術的發(fā)展,人形機器人逐漸采用電動驅動,可以實現(xiàn)更精準地控制。例如,日本某公司開發(fā)的“Asimo”機器人采用了高性能的電機,能夠以7千米/小時的速度奔跑。隨著人工智能技術的發(fā)展,人形機器人的控制系統(tǒng)逐漸智能化、復雜化。例如,美國某公司開發(fā)的“Atlas”機器人采用了先進的控制算法,能夠在復雜地形上行走和奔跑。技術的不斷更迭,使得人形機器人與人類在外在結構、感知力、運動功能實現(xiàn)、精確控制以及智能化等方面愈發(fā)相似。
相較于非人形,人形是機器人的最佳外形,機器人選擇人形具有功能優(yōu)勢。首先,人形機器人可以適應人類環(huán)境。人形機器人可以在人類現(xiàn)有的環(huán)境中工作,而無需對環(huán)境進行大規(guī)模改造。現(xiàn)代社會的環(huán)境是為人類而設計的,因此機器人如果擁有與人類相似的體型和動作,就可以更容易地適應現(xiàn)有的環(huán)境。其次,人形機器人可以使用人類工具。人形機器人可以直接使用專為人類設計的工具,而不需要重新設計或重新適配新工具,這能降低機器人的使用成本。最后,人形機器人可以與人類更親近。人性九七人與人類相仿的外形能減輕其“異類感”,使其能更容易被社會大眾所接受。總而言之,人形機器人的“擬人化”特征使其區(qū)別于非人形機器人,能夠在人類現(xiàn)有的環(huán)境中高效工作、直接使用專為人類設計的工具并通過模擬人類的外形和行為增強用戶的接受度和信任感,從而在社交互動、情感支持和教育培訓中發(fā)揮重要作用,也進一步產(chǎn)生新風險。
(二)人機互動產(chǎn)生了“擬人化陷阱”
人形機器人不僅追求模仿人類的生理特征, 還在人機互動中模仿人與人的精神關聯(lián), 造成“人”這一基本概念的異化,模糊了人形機器人與人類的邊界,導致“擬人化陷阱”。人機交互是機器人與人類進行溝通和合作的重要手段,人形外觀強化了人內(nèi)傳播活動,這種人內(nèi)傳播關系不僅深刻地影響了個體的自我意識,也會影響其在現(xiàn)實社會中與他者的交往關系。早期的人機交互采取按鈕、指示燈等簡單方式,而人形機器人的交互方式逐漸向自然化、智能化方向發(fā)展。人形機器人綜合應用數(shù)據(jù)、算法與計算能力,通過機器學習及深度學習的技術使其溝通能力可能超越了人類的平均水平,從而更容易引起公眾的共鳴和信任。然而,人形機器人的擬人化導致用戶將其視為具有人類思維和情感的實體,這會使用戶過度情感化地對待人形機器人,而忽視其非人類性和伴隨非人類性的局限性。人形機器人的外觀與人類相似,這使得用戶更容易與之進行交流和互動,但正是這種“擬人化”使其更易侵害個人隱私。故此,已有學者呼吁應將科技倫理法律化,控制人形機器人的情感計算能力,并避免外觀設計產(chǎn)生過度操縱風險。在應用活動中,應利用法律系統(tǒng)的權利義務工具和靈活的治理工具如合規(guī)認證、監(jiān)管沙箱等,以實現(xiàn)科技發(fā)展與安全之間的平衡。與人形機器人一樣,非人形機器人也會收集大量數(shù)據(jù)進行學習,但其主要功能是完成特定的任務,例如工業(yè)機器人、服務機器人和軍事機器人主要通過傳感器和編程來收集特定任務的相關數(shù)據(jù)。它們雖然也會產(chǎn)生隱私威脅,但更多是在既有技術和法律框架下進行監(jiān)控和數(shù)據(jù)收集,從而實現(xiàn)自身智能的自我迭代。而人形機器人通常具有人類的外形和行為特征,更容易被人類接受和信任,這種特殊性進一步擴大了人機交互語境下的“隱私悖論”。
人形機器人在信息提取和隱私侵害方面與非人形機器人不同。其一,人形機器人具備社會互動性。人形機器人可以通過模仿微笑、點頭以及與人對話等方式,在某些情況下與人類進行社交活動。在社交過程中,它們能夠利用人類對社交行為的自然反應來提取信息,并可能通過恭維、恐懼等手段在不被察覺的情況下影響人類的行為和心理。人在與這些機器人互動時,會不自覺地表現(xiàn)出類似于與真人互動的反應,從而泄露個人敏感信息。其二,人形機器人具備空間侵入性。人形機器人展現(xiàn)出強大的互動和行動能力,能夠侵入私密空間、記錄私密活動,還能在自主決策和行動中造成實際損害,侵害用戶的人身財產(chǎn)權益。人形機器人在為人類提供服務的過程中,具備打開房門、柜門的能力,能夠進入比如掃地機器人無法進入的空間,可以收集更多人類的信息,從而產(chǎn)生更大的隱私侵害風險。其三,人形機器人會減少人類的私密感。在與人類相處的過程中,人形機器人會以其“擬人化”的外觀對人類形成心理壓力,人類的私密空間因人形機器人而減少。智能機器人的外部數(shù)據(jù)處理能力越卓越,搭載的人工智能系統(tǒng)越為復雜,運用至實際場景所帶來的影響也將愈加不可預測。同時,人形機器人目前無法像人類那樣與物理環(huán)境進行精細流暢的交互,這些“僵硬”的人形機器人很容易侵權甚至可能對人類造成傷害。也就是說,人形機器人一旦進入人類的隱私活動空間,其擬人化勢必會為人類的隱私帶來更大的風險。
通過對人形機器人的定義、概念來源、技術發(fā)展歷史、選擇仿人造型的優(yōu)勢及風險考察發(fā)現(xiàn),人形機器人是人工智能、物聯(lián)網(wǎng)和機器人技術的結合體。人形機器人可以在很少或沒有人為控制或監(jiān)督的情況下執(zhí)行任務,并通過自學習提高自身性能。由于其復雜的技術組成,在產(chǎn)品制造責任視角下,人形機器人的侵權判斷勢必會涉及各種組件、零件、軟件、系統(tǒng)、服務供應商的責任區(qū)分。人形機器人在投放市場后的持續(xù)更新和升級、大數(shù)據(jù)和算法依賴以及人工智能決策的不透明性,進一步提升了判斷人形機器人行為和侵權損害責任的困難程度。
三、法律規(guī)范:人形機器人侵權風險的應對模式
構建人形機器人侵權責任規(guī)則的重心在于應對人形機器人的“自主安全悖論”。為了在不斷變化的環(huán)境中發(fā)揮預期作用,人形機器人必須根據(jù)實踐中的學習結果監(jiān)控自身并改善自身行為,也即具有自主性。然而,隨著人形機器人自主性的提高,其“決策”可能超出人類的理解范圍。人形機器人自主性越高就越不能將其簡單視為制造商、所有者或用戶等責任主體手中的工具。且由于目前的技術無法對人形機器人的決策行為形成足夠的控制力,根據(jù)傳統(tǒng)侵權法或產(chǎn)品責任法將人形機器人的侵權責任歸于特定方愈發(fā)困難和復雜,從而出現(xiàn)“責任差距”問題。
國際社會尚未有明確的人形機器人侵權責任法律規(guī)制, 僅有少量人工智能產(chǎn)品的規(guī)定可資借鑒。美國關注自動駕駛,目前由各州自行制定自動駕駛的責任規(guī)則,但很少有州試圖解決自動駕駛汽車的責任承擔問題,相應立法工作主要集中在確定自動駕駛汽車是否可以在公共道路上行駛上。例如,田納西州法典第106條(a)規(guī)定,“涉及自動駕駛系統(tǒng)操作的車輛的事故責任應根據(jù)產(chǎn)品責任法、普通法或其他適用的聯(lián)邦或州法律確定”。歐盟則對人工智能產(chǎn)品的責任承擔問題提出了解決進路,歐盟委員會于2022年9月28日提出了人工智能責任指令草案(以下簡稱AILD)和產(chǎn)品責任指令(以下簡稱PLD),提議將歐共體1985年建立的產(chǎn)品責任指令適用于人工智能產(chǎn)品,并建立使用披露和可反駁推定制度來完善制造商的嚴格責任。日本將機器人作為客體納入產(chǎn)品責任法的規(guī)制范疇,如果人工智能存在“缺乏通常應提供的安全性”之缺陷,人工智能的制造商將根據(jù)產(chǎn)品責任法承擔責任。然而,日本對于人工智能何時應被視為“缺乏其通常應提供的安全性”這一問題尚無既定觀點。從整體上看,全球范圍內(nèi)專門針對人形機器人的立法尚未展開。
人形機器人是人類社會的新生事物,隱喻是一種應用于新生事物的有效研究工具,可以幫助理解和解釋新事物。對人形機器人來說,隱喻的重要性不僅在于法律體系將如何理解和規(guī)范人形機器人,還在于法律體系將如何理解和規(guī)范人形機器人的用戶。在實踐中,歐盟委員會通過AILD將人形機器人視為“工具”適用產(chǎn)品責任指令;歐洲議會2017年2月16日決議以及向機器人民法規(guī)則委員會提出的建議《機器人技術民法規(guī)則》,主張賦予人形機器人“電子人”的法律人格;而日本道路運輸車輛法將移動機器人歸類為汽車或電動自行車,視為公共產(chǎn)品。通過隱喻的研究方法,將人形機器人比作其他人類熟悉的概念,如“工具”“兒童”“寵物”“電子人”“法人”等,可以更容易地揭示其功能、用途和對人類社會關系的潛在影響,以便汲取現(xiàn)有制度經(jīng)驗,進一步提煉出規(guī)制人形機器人侵權責任的內(nèi)在邏輯。
(一)將人形機器人擬制為“法人”的人類代表人理論
歐洲議會提案《機器人技術民法規(guī)則》采用了人類代表人理論,使人形機器人制造商承擔侵權責任。該草案規(guī)定:“從長遠來看要創(chuàng)設機器人的特殊法律地位,以確保至少最復雜的自動化機器人可以被確認為享有電子人的法律地位,有責任彌補自己所造成的任何損害,并且可能在機器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格。”根據(jù)人形機器人的復雜程度,法案所稱“最復雜的自動化機器人”應當指人形機器人。也就是說,歐盟視人形機器人為“法人”,賦予人形機器人以法律人格,負有監(jiān)護義務的人類代表,諸如制造商、經(jīng)營者等,對人形機器人所造成的損害負責。人形機器人在進入市場之前需要注冊登記成為有限責任的法人,擁有其制造商提供的一份基金,該基金可以在出現(xiàn)侵權時支持締約方的索賠。此提案在2017年提出后,于2022年被歐盟委員會在PLD中予以明確否定。法人實體之所以能夠作為一個獨立的法律主體,在于法人擁有簽訂合同、持有財產(chǎn)、負債、起訴和被起訴的能力,而賦予人形機器人電子人格可能會造成道德責任、因果關系和法律責任的錯位。2018年來自14個歐洲國家的156名人工智能專家發(fā)表公開信,公開反對歐盟議會關于人形機器人應具有電子人法律地位的提案。一方面,人形機器人的責任體系構建主要涉及人形機器人的責任能力,而非權利能力,在人形機器人缺乏受其支配財產(chǎn)的情況下沒有討論法律人格的必要。另一方面,人形機器人不會遭受痛苦,也就無所謂是否對其進行懲罰,將人形機器人視為可以承擔法律責任的實體是沒有意義的。總之,人形機器人被擬制為“電子人”會對現(xiàn)有法律體制造成巨大沖擊且缺乏法理基礎。
(二)將人形機器人視為“動產(chǎn)”的產(chǎn)品缺陷責任理論
依據(jù)1985年歐共體PLD法案,產(chǎn)品缺陷責任適用嚴格責任,即如果產(chǎn)品存在缺陷并導致?lián)p害,即使制造商沒有不當行為,也應對損害負責,但要求受害人應當證明損害、缺陷以及缺陷與損害之間的因果關系。2022年,歐盟借助AILD草案將人工智能系統(tǒng)定義為“產(chǎn)品”,再通過適用PLD法案將人工智能侵權責任體系指向產(chǎn)品責任模式。然而,隨著人工智能技術的發(fā)展,PLD已不足以解決與其相關的所有法律問題。其一,受害人證明因果關系存在門檻過高。人形機器人是智能機器人,具有不可預測性,例如在人形機器人與生成式大模型合作的情形下,其可以根據(jù)用戶輸入生成合適的回答,但也可能生成無法預測的回答,甚至可能生成具有攻擊性或歧視性的字詞。再例如,人形機器人與人體工程學、心理學等技術交叉合作下,損害結果的產(chǎn)生可能牽涉人形機器人產(chǎn)業(yè)合作鏈條中的多個責任主體,其中的因果關系證明具有較高專業(yè)知識門檻。其二,缺陷的定義對產(chǎn)品責任的范圍有重大影響。如果法院容易認定缺陷,產(chǎn)品責任則趨向于嚴格責任;相反,如果證明產(chǎn)品有缺陷較為困難,產(chǎn)品責任則更接近于疏忽規(guī)則。例如,飛機自動駕駛系統(tǒng)的制造商很少被認定負有責任,這是由于飛機自動駕駛系統(tǒng)適用疏忽規(guī)則,飛機制造商只要制定了詳盡可執(zhí)行免責聲明和安全警告,就可以有效地保護其免于產(chǎn)品責任索賠。人形機器人的應用也可能出現(xiàn)類似情形。
歐盟產(chǎn)品責任指令在“產(chǎn)品”“缺陷”“責任理由”“生產(chǎn)者”和“舉證責任”條款的執(zhí)行方面面臨挑戰(zhàn)。為了解決這些問題,控制人形機器人行為的算法及其開發(fā)者可能構成責任鏈條中的一環(huán),對損害或傷害承擔一定責任。AILD草案規(guī)定,當人工智能系統(tǒng)存在缺陷并造成損害時,受害人可以向人工智能系統(tǒng)提供商或將其集成到其他產(chǎn)品中的制造商尋求賠償。同時,AILD草案沒有脫離嚴格責任體系,并且朝著有利于用戶的角度細化。首先,針對人工智能系統(tǒng)的缺陷原因難以查明以及產(chǎn)品不符合安全的舉證責任難問題,草案減輕了復雜案件中用戶的舉證責任,同時放寬了索賠限制,確保在基于過錯的情況下遭受損失的索賠人能夠訴諸損害賠償或其他適當?shù)难a救措施。其次,AILD明確表示,承擔產(chǎn)品缺陷責任的主體不僅包括硬件制造商,還包括影響產(chǎn)品工作方式的軟件提供商和數(shù)字服務提供商。如果對人工智能系統(tǒng)的設計或開發(fā)不當,或者沒有采取糾正措施來解決已發(fā)現(xiàn)的缺陷,軟件系統(tǒng)提供商也應承擔責任。最后,AILD確保制造商對其已投放市場的產(chǎn)品在升級之后仍然具有責任,只要這些更改是由軟件更新或機器自學習觸發(fā)的。總之,AILD旨在建立損害與人工智能系統(tǒng)“行為”之間的因果關系。然而,AILD仍未解決人工智能系統(tǒng)造成損害但無明顯缺陷產(chǎn)品或過錯的責任分配問題。當制造商在人工智能產(chǎn)品投放市場后仍保持一定控制權時,現(xiàn)有法律規(guī)則難以解釋或認定技術革新下“更新”“升級”“缺陷”等行為的原因或責任主體。
考慮到人工智能系統(tǒng)的復雜性和不透明性,歐盟適用嚴格責任制度的可行性仍不確定。在侵權損害與被告行為之間無法建立因果關系的情況下,AILD草案不能對侵權損害提供充分救濟。如果不能排除人工智能技術造成的損害,可能出現(xiàn)責任分配不公平或效率低下的情況。為了解決該問題,應首先討論在出現(xiàn)人形機器人擬人化陷阱現(xiàn)象的情況下,能否直接適用最小化風險測試或嚴格責任標準,還是合理的替代測試標準。如果將人形機器人視為更具有自主性的產(chǎn)品,并且在使用過程中產(chǎn)生了損害,責任可能更傾向被歸咎于機器人運營商或設計者,而不僅僅是被限制在硬件制造商或軟件提供商身上。面對人形機器人的責任問題,法律和倫理的交叉影響應被考慮。在制定產(chǎn)品責任法時,立法者需要權衡保護用戶的權益和鼓勵技術創(chuàng)新的需要,同時也應考慮人與機器之間的權責關系以及用戶對機器人行為的期待。
(三)將人形機器人視為“未成年人”或“寵物”的替代責任理論
替代責任是指責任主體在沒有過錯的情況下對其“監(jiān)護人”的侵權行為所承擔的相應責任。如果視人形機器人為“未成年人”甚至“具有高度危險的寵物”,在現(xiàn)有的法律框架下,可以將替代責任原則作為追究人形機器人用戶責任的框架。根據(jù)日本產(chǎn)品責任法,運營商疏忽導致機器人責任,索賠人必須證明運營商沒有采取應有的謹慎措施。我國民法典第1188條規(guī)定,無民事行為能力人、限制民事行為能力人造成他人損害的,由監(jiān)護人承擔侵權責任。監(jiān)護人盡到監(jiān)護職責的,可以減輕其侵權責任。人形機器人已具有非常豐富的應用場景,例如在日本東京大學醫(yī)院使用人形機器人“Pepper”協(xié)助進行骨科手術。“Pepper”可以幫助醫(yī)生進行手術規(guī)劃并提供實時的手術信息。假設醫(yī)院及其工作人員已經(jīng)履行了所有可能的護理職責,但由于人形機器人的自主性對患者造成了損害,患者能否從醫(yī)院處獲得損害賠償呢? 此種場景下適用替代責任可以追究人形機器人操作用戶的法律責任。
替代責任原則為追究人形機器人用戶的責任提供了一個框架。人形機器人類似“未成年人”或“寵物”,如果用戶未能履行其作為監(jiān)護人的義務,并且導致了損害,根據(jù)替代責任原則,用戶可能被推定為違反了謹慎義務,并承擔相應的責任。確定用戶責任的因素包括用戶是否向人形機器人提供了適當?shù)闹噶睢⑹欠癯浞衷u估了潛在的風險以及是否采取了措施防止損害等,這些因素的考量有助于確定操作用戶是否違反了謹慎義務。
然而, 替代責任理論的缺陷在于監(jiān)護關系的認定困難和復雜場景下監(jiān)護責任分配的合理性難題。人工智能的行為往往受到多種因素的影響,包括設計缺陷、數(shù)據(jù)輸入錯誤、外部環(huán)境變化等。將這些因素全部歸咎于監(jiān)護人可能不夠公平,也可能導致責任歸屬的混亂。或是在人形機器人責任事故發(fā)生之后,硬件、系統(tǒng)、算法以及操作用戶之間會相互推諉,在糾紛發(fā)生時難以查明事故原因,難以確定“監(jiān)護人”的身份。再者,基于人工智能技術的黑箱屬性,監(jiān)護人可能并不具備足夠的技術知識和能力來全面了解和控制人工智能的行為。因此,即使監(jiān)護人盡到了合理的注意義務,也可能無法完全避免侵權行為的發(fā)生。進一步而言,過于嚴苛的監(jiān)護人責任將影響產(chǎn)業(yè)的創(chuàng)新動力,尤其是人機互動高度密切的人形機器人領域,如果監(jiān)護人因擔心承擔過重的侵權責任而過度限制人工智能的使用和發(fā)展,可能會對技術創(chuàng)新產(chǎn)生不利影響。特別是在高風險領域,如自動駕駛、醫(yī)療診斷等,過度的法律責任可能阻礙新技術的應用和推廣。此外,不同國家對于替代責任原則的適用可能存在差異,這可能導致跨國案件中的法律適用沖突。
(四)視人形機器人為社會公共產(chǎn)品的保險模式
保險機制可以分擔人形機器人可能帶來的風險,使制造商、運營商和用戶都能夠更好地承擔責任,從而降低了參與者的風險感。嚴格責任或者替代責任是單個實體之間的關系,無法從根本上解決“自主安全悖論”。如果采取集體責任理論,人形機器人的特定風險由社會來分擔,在受害方與責任方之間構建人形機器人與用戶關系的可控整合,使得人形機器人廠家免于承擔無限責任,從而更愿意從事人形機器人的研發(fā)、生產(chǎn),而用戶也能認可人形機器人的安全性。保險機制可以作為監(jiān)管的一種手段,促進人形機器人技術的整合和安全應用。集體責任理論視人形機器人為公共產(chǎn)品,保險不僅能夠為人形機器人公司和用戶提供風險管理工具,而且可以作為促進人形機器人技術發(fā)展和整合的監(jiān)管機制。不僅如此,保險還能更好地處理人形機器人造成的損害,同時為人形機器人行業(yè)提供預防和補償功能。日本通過政策措施促進機器人技術在現(xiàn)實生活中的使用進而培育市場,很少關注歐洲討論的機器人倫理問題。例如,日本政府為了鼓勵自動駕駛技術,在2025年左右實現(xiàn)高速公路上私家車的L48級自動駕駛,于20198年修訂了道路運輸車輛法(“RTVA”)和道路交通法(“RTA”),規(guī)定如果自動駕駛系統(tǒng)符合安全標準,則允許使用該系統(tǒng)的汽車在公共道路上行駛,這使得“駕駛”的定義已被擴大到包括使用自動駕駛系統(tǒng)進行駕駛。這種產(chǎn)品安全認證制度可以確保制造商免于承擔責任。在人形機器人領域,如果產(chǎn)品被證明符合安全要求,人形機器人的生產(chǎn)商也可參照自動駕駛立法而不需要承擔侵權責任。用戶使用符合安全認證的人形機器人遭受損害或者致人損害,可以通過保險來獲得或作出賠償。保險公司是整個社會生態(tài)系統(tǒng)的一部分,為了使新興的數(shù)字技術盡可能安全,用戶需要為高風險或災難性風險的案件投保,以確保對潛在的嚴重損害進行賠償。
對高度危險的公共產(chǎn)品設定第三方強制責任險具有非常多的先例。為了確保受害者能夠獲得充分的賠償,在新興數(shù)字技術造成的潛在傷害越發(fā)頻繁和嚴重的當下,強制性責任保險可能是一種合適的選擇。保險基金可以在受害者無法獲得足額賠償?shù)那闆r下被用于保護受害者的權益,同時通過調整保費來提高人形機器人產(chǎn)品的安全認證級別。例如,機動車輛交通強制保險的原理是風險分攤。所有機動車的所有人或管理人必須投保交強險,并將保費交到保險公司。當發(fā)生交通事故時,由保險公司在責任限額內(nèi)對受害人進行賠償,從而減輕受害人的經(jīng)濟負擔。在交強險的范圍內(nèi),責任事故的原因無需被區(qū)分,造成的損害均由保險來賠償,且保險公司在交強險的范圍內(nèi)原則上沒有追索權,除非用戶存在明顯故意的過錯導致事故發(fā)生。人工智能產(chǎn)品適用強制保險也有先例。美國內(nèi)華達州自動駕駛汽車法規(guī)定,車主在注冊自動駕駛汽車之前,需要提供一份特定類型的保險,而不是依賴運營商的責任保險。在這種情況下,車主被要求提供車輛責任保險,而不是駕駛員責任保險單。該法案旨在確保在發(fā)生交通事故時,受害人能夠獲得必要的賠償。正如歐盟《機器人民法規(guī)則的指令提案》第57條指出,解決日益自主的機器人造成的損害責任分配復雜性的一個可能的解決方案是強制性保險計劃,這為用保險機制解決人形機器人的侵權責任問題提供了法理支持。
保險機制可以通過創(chuàng)造責任緩沖區(qū)實現(xiàn)無過錯賠償。傳統(tǒng)的侵權法無法規(guī)制受害者無法識別侵權者的情況,這使得網(wǎng)絡犯罪對用戶構成了嚴重威脅。為此,可以引入一種與適用于暴力犯罪受害者的無過錯賠償方案等效的無過錯補償方案,即允許因網(wǎng)絡犯罪而遭受嚴重人身傷害的人得到與暴力犯罪受害者相同的待遇。簡言之,受害者無需證明侵權者的過錯,而是通過滿足一系列明確的條件來獲得賠償。無過錯賠償方案可以為受害者提供更快速、更有效的補救措施,以此來更好地保護受害者的權益。因此,引入無過錯補償方案可以彌補傳統(tǒng)侵權法規(guī)則的不足,為受害者提供更完善的保護。然而,在強制性責任保險政策制定前,需要考慮各個行業(yè)特定情況的重要性。在所有領域普遍施行強制責任保險的缺陷在于,一方面保險公司可能不愿意為新生事物提供保險;另一方面要求強制保險增加了人形機器人的社會成本并可能會阻礙其技術創(chuàng)新。
視機器人為社會公共產(chǎn)品的保險模式雖然提供了一種有前景的解決方案,但也存在一些潛在的弊端。首先是成本問題。強制性責任保險可能增加人形機器人的生產(chǎn)成本和使用成本,從而抑制了其在市場上的競爭力,制造商、運營商和用戶可能因為需要支付較高的保險費用,而限制對人形機器人的使用和開發(fā)。其次,保險公司抵觸。保險公司可能因為缺乏足夠的歷史數(shù)據(jù)和經(jīng)驗來評估風險而對涉及新興技術和潛在高風險的領域持謹慎態(tài)度, 進而不愿提供相關的保險產(chǎn)品或者提高保險費率。再次,賠償難度。盡管保險機制可以提供賠償,但在實際操作中,賠償難度和賠償爭議仍然可能存在。受害者可能需要花費大量時間和精力來證明損害和索賠的合理性,會導致訴訟和爭端的增加。最后,責任模糊。由于人形機器人涉及多個參與者,如制造商、設計者、運營商和用戶,責任分配可能會變得復雜和模糊。保險機制可能無法完全解決責任歸屬的問題,導致賠償流程不夠順暢或公平。綜合而言,保險范式盡管為解決人形機器人責任問題提供了一種有前景的解決方案,但在實施過程中仍然需要克服一些挑戰(zhàn)和限制。
綜上所述,嚴格責任或替代責任體系在解決“自主安全悖論”的問題上尚顯不足,尤其是傳統(tǒng)的賠償責任規(guī)則可能導致訴訟過程和結果不盡如人意。相對而言,將人形機器人視作社會公共資產(chǎn),并提出強制性責任保險作為解決之道,借由風險共擔的模式確保受害者能夠得到必要的補償是更好的方案。借助保險機制,無過錯賠償?shù)姆桨改軌虮宦鋵崱_M一步而言,推行強制性責任保險與無過錯賠償方案不僅能彌補傳統(tǒng)侵權法規(guī)則的缺陷,而且對于明確人形機器人責任的歸屬問題亦具有重要意義。
四、構建鏈式人形機器人侵權責任治理模型
人形機器人產(chǎn)品進入市場需要在事先預防、監(jiān)管范圍和責任原則三方面做好平衡。首先,事先預防是解決人工智能風險而不過度降低其社會效益的方法,提升透明度、提高可解釋性、進行安全測試、理解和減輕風險均是有效措施。例如, 谷歌DeepMind和斯坦福大學推出了人形機器人Mobile*ALOHA,通過雙手遠程操作的低成本開源硬件系統(tǒng)提升透明度。其次,行政引導和監(jiān)管對于人工智能產(chǎn)品從實驗室走向市場具有直接推動作用。2007年日本經(jīng)濟、貿(mào)易和工業(yè)部(METI)發(fā)布NGR(“下一代機器人”)使用的安全指南,闡述了確保NGR在其設計、制造、進口、安裝、維護、維修、銷售和使用等每個階段安全應用的基本思路。最后,侵權責任體系位于人形機器人治理的末端,是人工智能侵權后果的補救措施。由上文對人形機器人產(chǎn)品責任范式的考察可知,采取單一的、不加區(qū)分的人形機器人治理范式無法滿足人形機器人責任主體多元、侵權形態(tài)多樣、侵權責任因果關系難以判斷的客觀情況。傳統(tǒng)的科層式規(guī)制體系已難以適應人形機器人領域的規(guī)制需求,需要新的規(guī)制模式以適應技術的快速變化和不確定性。應構建分別適用于人形機器人制造商、系統(tǒng)程序開發(fā)商、運營商和操作用戶的責任體系,鏈式人形機器人侵權責任治理模型的核心思想是根據(jù)各方對機器人行為的控制程度、技術開發(fā)和使用過程中的角色,以及對事故預防的成本和效率,形成從技術開發(fā)到最終使用的責任鏈條。 這個鏈條上包含了多個關鍵主體———開發(fā)商、制造商、前端運營商、用戶以及后端技術支持方,每個環(huán)節(jié)都有特定的責任和義務。
(一)適用漢德公式分配侵權責任
對人形機器人等新興技術不宜采取過為嚴苛的責任規(guī)制措施, 這也是國內(nèi)外法律規(guī)制的共識。正如上文所言,在“法人”范式下,人形機器人不具備法律主體資格所需的責任能力,不能獨立承擔責任,將責任歸咎于機器人,實質上仍是人類而非機器人承擔責任。同時,在“保險”范式下,完全通過商業(yè)保險、設立賠償基金等方式承擔人形機器人的侵權責任,又使得人形機器人的使用成本過高。“法人”與“保險”范式將極大抑制消費者購買高風險產(chǎn)品的意愿,使得當傳統(tǒng)輔助設備和人形機器人處在同一市場競爭之時,消費者往往會更傾向于選擇風險更低的傳統(tǒng)設備。為此,2023年7月10日,中國網(wǎng)信辦與其他六家監(jiān)管機構協(xié)商,發(fā)布了中國首個生成型人工智能部門規(guī)章《生成式人工智能服務管理暫行辦法》,第3條提出“堅持發(fā)展與安全并重,促進創(chuàng)新與依法治理相結合”的發(fā)展宗旨。美國在2023年末發(fā)布關于安全、可靠和值得信賴的人工智能的行政命令,提出了安全有效的系統(tǒng)、防止算法歧視、通知和解釋、人工選擇、考慮和退出等五項原則,以積極推動人工智能產(chǎn)業(yè)發(fā)展。美國迎合了大多數(shù)行業(yè)參與者,采取最低程度的監(jiān)管,避免政策限制阻礙技術發(fā)展并剝奪他們獲得競爭優(yōu)勢的機會。可見,法律制度設計應平衡技術發(fā)展和責任分配的關系。
漢德公式是侵權法和產(chǎn)品責任法中的重要理論工具,尤其在處理復雜技術產(chǎn)品和高風險場景時具有重要的應用價值。1947年漢德法官提出了一個成本-效益分析的框架,以評估被控行為是否構成過失。這種經(jīng)濟學導向的歸責模型,其核心是通過成本效益分析來確定最佳的責任分配,通過對預防成本、風險和損害的權衡來判斷是否采取適當?shù)念A防措施,而不是僅僅依賴于抽象的法律原則或主觀判斷。漢德法官提到,這種權衡能幫助更有效地分配責任,確保最小化社會成本。具體而言,漢德公式分析了預防措施的成本(B)與可能損害的概率(P)及損害結果的嚴重性(L)之間的關系。如果預防措施的成本低于損害的可能性與損害嚴重性的乘積,那么就應采取預防措施。否則,責任應由相關方承擔。在面對人形機器人“自主安全悖論”的情境下,漢德公式為確定侵權責任提供了一種有效的框架。其優(yōu)勢在于:其一,簡化復雜判斷。在機器人自主決策的情況下,如何判斷是否發(fā)生過失行為可能變得復雜。傳統(tǒng)的“全有或全無”因果關系理論有時過于嚴格,容易導致原告或被告承擔不公正的責任。通過引入成本效益分析,漢德公式能夠在不完全確定因果關系的情況下,為責任的分配提供一個合理的依據(jù)。通過明確將風險、成本和潛在損害聯(lián)系起來,為法官和相關方提供了一種清晰的判斷框架,避免了主觀的推測。其二,平衡技術進步與安全防范。人形機器人在執(zhí)行任務時可能面臨多種安全風險。通過漢德公式,能夠量化防止這些風險的成本與發(fā)生事故的概率,從而判斷機器人制造商或操作者在設計、使用和管理過程中的責任是否合理。隨著機器人技術的進步,它們在自主性和智能化方面可能帶來更高的風險。漢德公式提供了一種衡量技術創(chuàng)新帶來的潛在損害與防范成本之間平衡的方法,有助于判斷是否有必要采取額外的安全措施或限制。最后,適應動態(tài)變化的法律環(huán)境,促進合理的責任分配。機器人和自動化技術的發(fā)展常常超前于現(xiàn)有法律體系。漢德公式靈活的應用性使其能夠適應不同情境下的法律判斷,特別是在技術進步帶來新型風險時,能夠更好地調整標準。在面對人形機器人自主行為時,應用漢德公式有助于合理分配制造商、操作者及其他相關方的責任。在處理人形機器人相關的法律問題時,漢德公式提供了一種經(jīng)濟學視角的框架,使得法律責任的分配更加科學和合理,尤其在機器人自主性和復雜性不斷提升的背景下,能為侵權責任的界定提供重要的理論支持。
人形機器人引起的損害責任應分配給那些能以最低成本和最高效率預防損害的一方。具體而言,責任應首先被分配給使用人形機器人并因此增加他人受傷風險的消費者,對于使用人形機器人但不增加對他人傷害風險的消費者適用過錯責任。對于制造商而言,即便其生產(chǎn)的人形機器人在進入市場后進行了自主學習,制造商仍應對產(chǎn)品缺陷導致的損害負責。若涉及主導使用相關技術并從中獲益的前端運營商,以及持續(xù)塑造相關技術特征并提供必要持續(xù)后端支持的后端運營商,則應由對侵權行為擁有更多控制權的一方承擔嚴格責任。同時,正如歐盟《機器人民法規(guī)則指令提案》第56條的規(guī)定, 各方承擔的責任應與其對機器人指令級別以及機器人實際自主程度的相對高低成比例,機器人的學習能力或自主性越強,以及機器人的訓練時間越長,其訓練者的責任就越大。在分配消費者與人形機器人制造商之間的責任時,應當確認機器人行為與其從消費者習得的運作模式之間的直接聯(lián)系。換言之,機器人操作用戶擔當教師的角色,機器人接受教育的時長越長,操作用戶承擔的責任也就越重。
(二)適用合理的替代測試標準
將人形機器人視為“動產(chǎn)”“未成年人”以及“寵物”的責任承擔范式,實際上采取的是消費者期望標準,為促進人形機器人的發(fā)展,應采取合理的替代測試標準。消費者期望標準以一般消費者的期待為標準來評價產(chǎn)品的安全性,考慮產(chǎn)品是否具有作為消費者的買主所期待的安全性能、質量或指示警告。消費者期望測試標準是以用戶對產(chǎn)品合理預期為基礎產(chǎn)品是否存在缺陷進行判定的標準。對于大多數(shù)傳統(tǒng)產(chǎn)品和服務而言,該標準因其強調用戶對產(chǎn)品品質和性能的預期而適用,有效保障了用戶權益。然而,當涉及人形機器人等高科技產(chǎn)品時,用戶對于產(chǎn)品的內(nèi)部機理和技術細節(jié)往往知之甚少,這可能導致消費者期望超出產(chǎn)品的實際性能。
在人工智能侵權案件中,確定侵權行為與損害結果之間的因果關系是關鍵。合理替代測試標準通過評估侵權行為是否對原權利人造成了實質性的損害,并且這種損害是無法通過其他非侵權手段來避免的,亦有助于明確因果關系。例如,在面對復雜的侵權因果關系時,算法優(yōu)化的可行性可以考察當下的技術水平是否存在一種設計,能夠更好地減少偏見或錯誤決策? 或是否有更合理方式改善訓練數(shù)據(jù)的質量與覆蓋范圍,從而減少風險?是否存在更完善的安全防護設計以限制安全風險的損害?如果答案都是否定的,那么不存在更優(yōu)的方案來防止損害,這樣的侵權行為是不具有可責性的。因此,合理的替代測試標準更側重于產(chǎn)品設計和制造過程的合理性及其可執(zhí)行性,如果制造商在產(chǎn)品交付時的科技知識水平無法預見到產(chǎn)品缺陷,則其便無須承擔責任。該標準主要考察產(chǎn)品是否遵循了技術層面的合理要求,是否存在可行的替代設計或技術路徑,以規(guī)避潛在風險和損害。對于復雜如人形機器人的產(chǎn)品,制造商有責任通過合理的替代設計,盡可能降低產(chǎn)品風險,確保其安全性與可靠性,但沒有能力完全符合消費者期望。由于人形機器人的擬人性和自主性,其帶來的風險已經(jīng)超出產(chǎn)品質量安全的范疇。例如,目前已出現(xiàn)人工智能伴侶唆使人類自殺的情況發(fā)生,在人形機器人具有親和力的外觀加之人工智能加持,其“擬人化陷阱”直接導致消費者對人形機器人產(chǎn)生感情、依賴,進而出現(xiàn)“因情受損”的情況將明顯增多,產(chǎn)品制造商只能在設計、生產(chǎn)時進行規(guī)避,而無法預料消費者將如何使用或如何訓練人形機器人,也即無法充分滿足消費者對產(chǎn)品安全的期望。因此,相較于消費者期望測試標準,“合理的替代測試標準”展現(xiàn)出更為顯著的優(yōu)越性,可以在提升產(chǎn)品安全性的同時進一步激發(fā)技術革新,助力人形機器人企業(yè)更精準地認識和掌握產(chǎn)品風險,以此確保用戶權益,推動行業(yè)持續(xù)健康發(fā)展。在評估設計是否存在缺陷以及責任承擔時,應當運用“合理的替代測試標準”。對于人形機器人的硬件故障,即便是在產(chǎn)品投放市場后才顯現(xiàn)出的缺陷,制造商也需要承擔無過錯責任。
(三)構建鏈式責任治理模型
軟法治理范式對未來競爭極為關鍵,構建鏈式責任模型將發(fā)揮核心作用。美國學者對立法、行政和司法三大機構在人工智能領域的監(jiān)管效果進行了分析,認為通過激勵人工智能開發(fā)者將安全理念內(nèi)化在開發(fā)過程中,所產(chǎn)生的系統(tǒng)性外溢效果勝于直接監(jiān)管。采取鏈式責任順序對于塑造穩(wěn)固的責任框架具有積極作用。這樣的責任治理體系不僅可以激勵制造商研發(fā)安全可信產(chǎn)品,還能防止制造商因產(chǎn)品傷害問題而被牽涉入無止境的索賠法律訴訟。國際學者提出建立“制造商剩余責任”體制,即在運營商和受害者對自身疏忽導致的事故負責的同時,由制造商對非疏忽導致的事故承擔剩余責任。據(jù)此,我們可以構建出人形機器人侵害財產(chǎn)權的鏈式責任順序。
首先,對于人形機器人事故造成的損害,由無需查究事故原因即可進行賠付的保險覆蓋絕大多數(shù)損失。當人形機器人發(fā)生事故時,強制性責任保險應優(yōu)先介入賠償。此種保險旨在確保受害者權益,提供迅速且便捷的賠償途徑,避免未知科學風險對人形機器人用戶造成不合理的負擔。
其次,若損失超出保險賠償限額,應在查明事故原因后,由過錯方承擔相應責任,制造商則負擔剩余賠償義務。用戶和受害者需為其疏忽行為負責,而制造商對并非由疏忽行為所導致的機器人事故承擔嚴格責任。如果事故發(fā)生是由于軟件系統(tǒng)的缺陷(如算法錯誤、訓練數(shù)據(jù)偏差等),則不能僅由硬件制造商承擔責任,軟件和算法設計者也應當承擔相應的責任。人形機器人應配備記錄功能,類似飛機黑匣子的設備可以用于記錄機器人行為的軌跡和數(shù)據(jù),提供事故發(fā)生的詳細信息。這一記錄不僅僅涉及硬件故障,還包括機器人執(zhí)行算法的過程和決策路徑。若無法記錄或提供數(shù)據(jù)記錄的合理訪問,則應倒置舉證責任,保護受害者權益。該機制有助于將軟件和算法的責任納入責任鏈條,確保在事故發(fā)生后,能夠追溯并確認責任的根源。
再次,制造商應可援引“發(fā)展風險例外”進行抗辯,依據(jù)通過“合理的替代測試”建立的技術標準評估是否存在“設計上的局限性”。如果損害發(fā)生在設計范圍內(nèi),人形機器人產(chǎn)品應被認定存在缺陷,缺陷方應賠償損害。相反,若損害超出設計范圍,則認定人形機器人無缺陷,制造商有權拒絕賠償。國家所制定的人形機器人技術標準,應作為評判產(chǎn)品缺陷的技術參考。
最后,作為前述考量的補充,若人形機器人的技術標準明顯滯后于行業(yè)發(fā)展水平,導致設計局限性顯著,且技術標準低于“合理的替代測試”,監(jiān)管機構應當更新完善技術標準,以提升人形機器人產(chǎn)品的安全性。司法機構也可以借鑒合理的測試標準,確定責任方存在過錯,據(jù)此承擔賠償責任。換句話說,通過建立健全的責任管理體系,自主安全悖論可以被有效規(guī)避。
綜上所述,構建我國人形機器人侵權責任體系,應基于三個核心原則:漢德責任公式、合理的替代測試標準和鏈式責任治理原則。漢德公式強調,通過成本效益分析實現(xiàn)責任的公平和合理分配,依據(jù)責任主體對風險的控制能力及其行為對損害發(fā)生的影響程度來確定責任的大小。這一原則不僅有助于從個體追責向社會風險防范轉變,還能促進法律的公正性、合理性和適用性。通過這一框架,法律能夠更加科學地平衡個體責任與社會利益,確保責任分配既符合實際風險,又能體現(xiàn)社會公共利益。合理的替代測試標準取代了傳統(tǒng)的消費者期望測試標準,更加注重產(chǎn)品設計和制造過程中的合理性和可行性,強調是否存在可以避免潛在危險和損害的替代設計或技術路徑。這一標準的采用有助于平衡技術創(chuàng)新和產(chǎn)品安全,同時保護用戶權益。鏈式責任治理原則旨在建立一個明確的責任順序,首先通過保險機制賠償損失,其次由過錯方承擔超出保險限額的損失,最后由制造商在非疏忽事故中承擔剩余責任。此外,制造商可以主張發(fā)展風險例外抗辯,而監(jiān)管和司法機構應根據(jù)技術發(fā)展適時更新技術標準。
結語
盡管哲學家普遍認為要求人形機器人作為法律主體承擔責任是不切實際的,但一系列實證研究表明,在某些情況下,公眾確實會將責任歸咎于人工智能系統(tǒng)和機器人。這一現(xiàn)象令人不安:人類的責任可能從人工智能系統(tǒng)的所有者、用戶或設計者被轉移到系統(tǒng)本身,從而削弱了人類應承擔的責任。這種困窘現(xiàn)象預示著現(xiàn)行法律概念和框架難以有效應對人形機器人可能引發(fā)的責任分配問題。然而,人形機器人等新技術的發(fā)展很大程度上取決于法律的確定性,特別是使用人形機器人所引起的損害責任分配相關的法律。面對這一挑戰(zhàn),我們需要重新審視和完善現(xiàn)有的法律制度,以充分平衡人形機器人技術發(fā)展與公民基本權益保障的齟齬。本文通過三個原則的有機結合,形成綜合性治理框架,試圖為我國人形機器人侵權責任體系的構建提供一般性理論框架。當然,人形機器人涉及的侵權場景和侵權標的眾多,包括財產(chǎn)權、人身權、知識產(chǎn)權等,其侵權構成要件也各不相同,如何細化規(guī)制上述問題,需要在未來結合實踐對不同權益進行更加深入的研究。