張渝敏 李雨晴 段可欣
湖南科技大學,湖南 湘潭 411100
小到家庭中普遍使用的電飯煲,大到無人駕駛汽車、VR技術,人工智能已與人們的生活息息相關。人工智能為人們的日常生活帶來便利的同時,也對法律制度提出了新挑戰。
無人駕駛汽車作為典型智能汽車,其主要依靠車內的用計算機來控制的智能機器來實現無人駕駛。但是,現行《道路交通安全法》、《道路交通安全法實施條例》明文規定,只有具備駕駛資格和能力的自然人才能夠成為法定的駕駛主體。那就出現一個問題:怎么認定自動駕駛系統呢?它不符合法定的主體適格條件,難以適用過錯侵權責任。如果這起交通事故是由于系統識別存在問題,首先認定主體是車輛使用者,它作為行為主導者以及受益者理應負民法上的責任,主觀方面它缺乏故意心理,令他負責難免無法說通。首先是車輛研發者,其次是制造、銷售者,他們是否承擔相應的責任呢?無人駕駛車輛是否可以獨立作為責任主體?人工智能系統本身所具有的模糊定性,導致此類交通事故往往易認定為混合責任[1],法律上難以定性和分配責任。
醫院開展手術引入醫療機器人后,器械產品故障導致病人死亡的真實病例已不是個例,此時手術事故責任的判定則遇到了法律方面的問題。如果完全是人工智能的原因導致的病情誤判等情況,該如何承擔責任?若共同承擔,又該如何劃分責任?醫療機器人沒有人的主觀能動性,是否能真正成為事故責任的承擔者?
人工智能技術的開發和利用對傳統經濟的生產組織結構和日常交易模式產生了顛覆性的影響。消費者通過大數據和人工智能技術下的各類平臺和應用展開消費行為,滿足自身需求,而各種人工智能技術支撐的消費平臺需要收集消費者的各種信息完善數據分析。如何在收集用戶信息與保護用戶隱私中取得平衡是智能時代的新問題。隨著科技進一步發展,人們的生活更為便利,與此同時人們的隱私權卻遭遇泄露,亟需制定專門的法律去防范人工智能技術支持下的消費風險。
2016年8月,聯合國世界科學知識與科技倫理委員發布了《關于機器人倫理的初步草案報告》,得出共識:作為智能產品的機器人不僅需要尊重人類社會的倫理規范,而且需要將特定倫理規范寫入機器程序中。智能產品的實質其實就是科技產品,造成損害后仍以產品責任調整其相關法律問題。2017年12月,美國國會提出兩黨議案——《人工智能未來法案》,主張成立聯邦人工智能發展與應用咨詢委員會對人工智能相關事項和問題進行前瞻性研究。[2]2019年4月8日歐盟委員會發布了一份關于指導人工智能技術倫理規約的草案,預計試點到2020年。這份草案涉及人類能動性和監督,智能性能的穩健性和安全性,用戶隱私和數據監管和問責制,透明性、多元化、非歧視和公平及社會環境福祉等多個方面。
可以看出,目前國內及國際范圍內對人工智能的法律規制尚處建設階段,大多數法規政策目前抽象雛形化,具體的法規較少。美國在自動駕駛領域的立法主要集中在責任界定方面。歐盟所提出所謂“機器人憲章”:人工智能研究需遵守諸如人類利益、正義、基本權利、包容性、可責性、安全性等倫理準則。這都是群眾強烈呼吁將“道德代碼”嵌入人工智能程序的成果。
此外,學術界也有觀點認為,現行人工智能發展程度尚不需要另立法規加以規制。根據人工智能發展水平之說,當前現有的人類人工智能處在弱人工智能向強人工智能的過渡期間,尚不能制造出真正地推理和解決問題的智能機器,目前單項功能性智能機器只不過看起來像是智能的,但是并不真正擁有智能,也不會有自主意識,僅用現行侵權制度加以規制足以應對。
從損害的結果出發,人工智能產品致人損害的情形大致可以分為三種:一是由于人工智能產品使用者操作失誤造成的損害;二是由于人工智能產品制造者的人為失誤造成的損害;三是由于人工智能自我判斷失誤造成損害[3]。
人工智能產品使用者操作失誤造成的損害,應當由操作者承擔責任。損害由使用者操作失誤造成的過錯完全在操作者本人,應由其獨立承擔侵權責任。
人工智能產品制造者由于制造失誤造成的損害,應當由其承擔獨立責任,由于法律上暫時無法完全涵蓋新一代人工智能所造成的損害,此情況可以采用相類似的情況下的未成年人替代責任的理論來解釋[4]。人工智能產品從其本身性質來看就是屬于產品的一種,根據我國的產品質量法,經由原告證明產品存在缺陷后產品制造者承擔最終責任。但原告不一定對此領域有相關了解,所以要求原告證明人工智能產品的缺陷相當困難。對此,假如適用未成年人的替代責任理論解釋,將會是一條更為合理有效的解釋方式。根據未成年人替代責任理論,人工智能產品作為一種特殊的法律主體是本應承擔責任的,但是由于沒有承擔責任的能力,同時受害人需要得到公平的賠償,其責任就不得不轉移到制造者承擔,正如未成年人替代責任中,有責任能力的監護人因未能履行監護職責而承擔對沒有責任能力的未成年人的替代責任。
除上述情況之外,因不明的緣由所造成的侵害,應當由制造者和使用者共同承擔責任,其責任承擔也可以采用未成年人的替代責任進行解釋。此種損害的造成,并非是由使用者的操作失誤或制造者的制造缺陷造成的,多數情況下是人工智能產品自我判斷失誤造成的。高速發展的人工智能產品,能夠在變幻莫測的經歷中自主學習新的信息,從而主動地利用新的數據作出決策,其自我行動造成的損害,就如同一個未成年人一般,隨著年齡的見長逐漸具備了獨自行為的能力,依照誰作為誰負責的原則,該高智能人工智能機器應當承擔獨立的侵權責任,但說到底人工智能仍然是沒有生命的產品,一個冰冷的機器是沒有承擔責任的能力的。此時,人工智能產品使用者和制造者相對來說是最合適的擔責主體,作為與該產品關聯最密切的主體,二者無論從法律還是倫理上都理應承擔責任。
能夠構成人工智能侵權責任的侵權案件主要包括兩種,一種是產品責任,另一種是機器能夠做出自主決策后的侵權行為,鑒于目前處于弱智能時代,尚不能深入了解后一種的構成情形,本文不予討論。在人工智能的產品責任中,由于制造商故意或過失造成人工智能算法缺陷后,必須要對受害者人身、財產或精神造成實際傷害,并且受害人能夠證明之間的因果關系時才真正構成人工智能的侵權責任。在判斷人工智能如何承擔侵權責任時,現行產品責任原則要求機器侵權責任能夠被明確歸于制造商、所有人或使用者等具有預見能力并且可以避免該侵害結果主體的,這些主體應負嚴格責任。在確定該機器屬于《產品質量法》中所定義的“經過加工、制作,用于銷售”而非自用目的的產品后,應確認該產品是否存有缺陷。在設計、制造、指示和產品發展上出現人為的操作失誤,導致缺陷的出現,這份缺陷危及了人身和財產,除此之外,我們假如認定人工智能單單是個產品,那么可依據替代責任的規則,來追究智能機器人的侵權責任。若機器人沒有技術上的問題,那么歸責就鎖定在機器人的所有人或使用人,或不盡善良管理人身上,或放任機器人的侵權行為的有意者,而不能直接免除責任了。
目前,我國的人工智能產業尚處于雛形時期,在人工智能蓬勃發展的浪潮中,我們必須深入研究人工智能可能遭遇的法律困境和問題,建立健全促進人工智能健康發展的法律法規,讓人工智能的“頭雁”效應不失偏。