馮靜

書名:機器人是人嗎?
作者:[美]約翰·弗蘭克·韋弗
譯者:劉海安 徐鐵英 向秦
出版:上海人民出版社
編者按:2018世界人工智能大會上,與會的部分專家學者研究成果相繼推出。本書為其中的一本,由上海交通大學凱原法學院副院長彭成信教授主編。
隨著人工智能的使用變得越來越普遍,涉及人工智能的事故或事件的法律責任承擔也變得越來越普遍。基本上,有如下四種情況將會發生:
一、使用或者監控人工智能的人承擔法律責任。此類事故可能發生的情況非常多:
一個人工智能外科醫生正在對病人進行手術,要給病人安裝新的髖關節,手術過程中人工智能機器卻出現了機械性的錯誤。負責監控手術的人類醫生沒能盡職地監控手術進程,并且無法中途介入以完成髖關節置換術,導致手術不得不提早結束,迫使患者必須進行第二次髖關節置換手術。
人工智能建筑工人錯誤地拆除了墻壁,導致整個建筑物倒塌,原因在于監控人工智能的人給出了不正確的拆除指令,指示人工智能機器應該拆除那堵墻。
負責監控人工智能客機的人沒有注意到,兩架客機給出重復相同的著陸指令,造成了兩架客機空中相撞。
任何針對符合上述情境的人提起的訴訟,最有可能訴稱“過失疏忽”(或失職行為,如果適用到專業領域中),作為被告應承擔法律責任的理由。這類責任涉及人工智能時,說明仍然有需要人類監控人工智能的情形。但是,關于法律責任分配給人類,將會在“主要用于方便人類的人工智能”和“主要用于優化人類工作的人工智能”之間出現重大的分裂。也即是,把人工智能主要用作優化人本身的工作時,要求人對人工智能監控,如果人工智能造成了事故,此監控的人就要承擔法律責任。把人工智能主要用作人類的便利時,不需要人對人工智能進行監控,對人工智能造成的事故損害負擔更少的責任。
當然,有疑問的是人工智能可能同時具備上述兩種功能。例如,90%的車禍都是由人的錯誤造成的,意味著無人駕駛汽車很有潛力能夠大幅度降低車禍發生的次數。然而,正因為大多數司機都認為自己是好司機,無人駕駛汽車的安全性能并不會動搖消費者。相反,對于那些駕車是一種負擔的人群(視力受損、身體受損、老年人等)來說,傾向于購買一輛無人駕駛汽車,因為他們喜歡就此帶來的方便,或者對于部分年輕人來說,認為開車不是什么了不起的事(因為開車反而減少了他們和朋友發信息聊天的時間)。所以,盡管無人駕駛汽車可能會減少事故發生、傷害和死亡,但出于法律責任考慮,認為無人駕駛汽車的主要目的是降低傷亡是錯誤的。大多數人會使用無人駕駛汽車閱讀、睡覺、聊天,玩游戲,或者做些事情來打發(或浪費)他們駕駛的時間;他們不會做的事就是仔細地監控人工智能。一旦無人駕駛汽車普遍存在,人們因為沒有監控無人駕駛汽車而對其無人駕駛汽車承擔法律責任,這似乎有些荒謬,因為人們根本不會去監控自動駕駛汽車。與此相反,人工智能外科醫生并不會增加人類的自由時間,也不會讓生活更方便。相反,人工智能外科醫生的目的是改善并提高人類的手術結果,因為它們可以進行切割、進入身體,并以人類不可能的角度來伸縮彎曲。沒有密切監測其人工智能外科醫生的人類醫生應該對由此發生的醫療事故承擔責任。人工智能將不會被購買來為人類醫生創造更多的自由時間。
出于同樣的原因,法院在分配法律責任時會區分自動的機器和自主的機器(即人工智能)。自動的機器執行固定的功能,就像電梯或者工廠裝配線上的機器人,但僅此而已;如果不進行進一步編程,自動的機器不會(或者不太會)自行調整其功能以對新信息做出反應。即使人類不站在自動的機器旁邊監控它們,但最終會有人對機器導致的損害結果承擔責任,比如程序員或維修人員,因為機器自己本身無法做出任何決定。如果一臺自動的機器造成事故,而機器的設計或生產并沒有任何瑕疵缺陷,那么在事故發生前就應該有相關人員發現機器出現了問題。然而,自主的機器能夠自己做出決定,這也意味著相關的人員可能根本沒有責任。
二、與人工智能相互作用的第三人承擔法律責任。我們實際已經見過這樣的例子。2010年,谷歌的工程師們報告稱,谷歌無人駕駛汽車被一輛由人駕駛的汽車追尾。主張與人工智能因互動行為產生的第三人責任,將與當前任何一個人與機器或其他人之間因相互行為可能產生的責任基本相同。最大的區別可能在于保險理算員或陪審團成員的傾向,他們可能會(也可能不會)比起同情一臺智能的機器更加同情人類。
三、分銷鏈中的制造商、分銷商或者另一方當事人承擔法律責任。當涉及人工智能導致事故發生是由于其本身出現故障、錯誤的編程、粗制濫造、配送過程中受損,或者由于與產品本身出錯相關的任何原因,事故責任將按比例適當地分配給分銷鏈中的人:設計師、制造商、出售人工智能產品的商店等等。基本上,這種類型的索賠要么是一個標準的缺陷產品責任訴訟(人工智能產品沒有按照預期工作),要么是疏忽過失損害賠償訴訟(當事人在準備或交付人工智能產品時沒有盡到應有的注意義務,消費者獲得產品之前已經被損壞)。舉如下幾個例子:
一位人工智能廚師在煎牛排時發生故障并停止工作,燒焦了米飯,最終燒毀了做飯的房子。
控制人工智能商店店員識別物品的部分代碼被意外地刪除,這些代碼是用來識別需要出示身份證才能購買的物品(香煙、酒),導致未成年人購買了一箱酒,喝醉并導致事故發生。
人工智能掃雪機使用說明書未能說明低于零下15度的溫度時會導致機器人熄火,在一場怪異但也不是前所未有的五月暴風雪期間,新英格蘭北部道路中使用的這些掃雪機器人發生熄火,導致大量事故發生。
四、人工智能對其行為承擔法律責任。在少數情況下,人工智能因其具有法律上的義務而被視為具有責任能力的人。在以下情況發生時,人工智能將對其行為承擔責任:(1)人工智能造成損害或傷害;(2)造成損害或傷害的所有責任都不能歸責于一群人或者分配鏈中的某一人。有時候,當這些情況發生時,人工智能的行為完全按照預期的進行,但是仍會造成損害,也應該承擔責任。
列舉實踐中的幾個例子予以說明:
兩輛無人駕駛汽車在高速公路上行駛,第一輛車在左車道上,行駛在右車道上的第二輛車前面。這兩輛車正以合理的速度行駛。車內人員沒有密切監控車輛,但是都系好了安全帶。突然一只鹿跳到左車道的中間,一瞬間,第一輛車的人工智能采取最安全的可行方案,轉向右車道以防止與鹿碰撞。又一剎那,第二輛車為了避免和第一輛車相撞,也做出了最安全的可行決策,而轉向右邊,但是卻撞到了一棵樹。第一輛車沒有人員傷亡,第二輛車的一個乘客卻撞斷了手臂。如果第二輛無人駕駛汽車試圖停在自己的車道上(因為它會撞上第一輛車,撞傷車里面的人)或者向左急轉(因為它會和鹿相撞,撞傷第二輛車里的人),會使更多人受傷,這是毋庸置疑的。這兩輛車的人工智能從技術上來說都運行正確。這兩輛車在購買前或事故發生前都制造良好且沒有受過任何損壞。
人工智能外科醫生正在做一個常規的膽囊切除手術,結果脆弱的動脈破裂,這是先前并未被檢測到的。人工智能外科醫生便開始修復破裂的動脈。正在監測人工智能的人類醫生同意人工智能外科醫生的決定和計劃。只有在病人遭受嚴重失血之后,人工智能外科醫生才能夠修復動脈。由于病人內部受損傷,人工智能外科醫生決定在那個時候不切除膽囊。人類醫生表示同意。病人必須在改期膽囊切除手術前花費額外兩周時間,以從動脈修復中恢復。經調查還證實了,負責監測人工智能外科醫生的人類醫生提供了充分的監督,并做好充分準備隨時終止人工智能,在必要時親自進行動脈修復。人類醫生也正確地指出,人工智能外科醫生當時采取了合適的決定與措施,來修復動脈并拯救了病人。通過檢測人工智能,表明其在手術過程中操作正確。此人工智能產品制造完善且在進行手術前未受到任何損傷……
編輯:黃靈 yeshzhwu@foxmail.com