陳思敏
(海南大學 法學院,海南 海口 570228)
2022年,美國開放人工智能研究中心(以下簡稱Open AI公司)推出了一款新產品——ChatGPT。這款智能聊天機器人相較于以往的產品,擁有更強的算力,具備深度學習的能力,能夠在沒有人為因素介入的情況下不斷進行優化,從而更準確地回答用戶所提出的問題,受到廣大用戶的喜愛。ChatGPT在推出后的兩周內,用戶數量便超過百萬。根據瑞銀集團報告顯示,在2023年1月ChatGPT達到了1億用戶,在兩個月內完成了TikTok大約九個月才完成的用戶增長。
隨著ChatGPT的爆火,人們逐漸開始關注其背后存在的法律風險。由于ChatGPT生成的內容可能侵犯他人隱私權、名譽權和著作權等權利,導致個人信息泄露、名譽受損、著作人身權和財產權受到損害。然而,由于現行法律并未就人工智能侵權作專門性規定,ChatGPT侵權責任問題難以適用傳統侵權責任制度予以解決,給侵權責任制度帶來了侵權責任主體難以確定、歸責原則存在爭議、因果關系難以認定等一系列挑戰。基于法律的穩定性和謙抑性要求,本文欲在現行法律的框架下積極應對ChatGPT給侵權責任制度帶來的挑戰,明確侵權責任主體,區別適用歸責原則,并就因果關系的查明提出可行性解決方案。
人工智能的核心是算法,而數據則是基礎要素[1]。在ChatGPT的預先訓練階段,Open AI公司向ChatGPT的數據系統投入大量文本,其中大部分數據來自互聯網,這為泄露個人信息、侵犯隱私權埋下隱患。隨著互聯網迅猛發展,現代社會進入了大數據時代,為了更好地享受大數據時代帶來的便利,網絡用戶部分或者全部在互聯網上提供各類個人信息。例如,購物APP上搜索的商品信息、外賣軟件上填寫的收獲地址和聯系電話、微博發布的個人動態以及瀏覽器記錄的檢索歷史等,都可能泄露個人的喜好、家庭住址、聯系方式、生活近況等個人信息。由于互聯網具有十分便捷的數據分享、復制和轉存的特點,即使最初的數據占有者已經刪除了相關信息,這些信息仍可能存在于浩瀚的虛擬網絡空間中[2]。此外,在ChatGPT的應用過程中,其數據系統會時刻收集用戶的個人信息,為ChatGPT進行深度學習和即時學習提供“數據養料”。總之,ChatGPT智能系統儲存著海量個人信息,假若ChatGPT被人惡意使用,極易泄露個人信息,致使隱私權遭受損害。
ChatGPT生成內容存在侵犯名譽權的風險。名譽是對民事主體的品德、聲望、才能、信用等的社會評價。名譽直接關涉民事主體的社會地位和人格尊嚴,損害一個人的名譽實際上就是毀壞了其在社會關系網絡中的原有地位[3]。根據美國福克斯新聞網報道,華盛頓大學的法學教授喬納森·特利因ChatGPT生成的“對某人進行過性騷擾的法律學者”名單,被莫名其妙地列為騷擾者。更令人難以置信的是,ChatGPT甚至給出錯誤的信息來源,稱《華盛頓郵報》在其2018年發表的一篇報道中指出,特利被指控在一次去阿拉斯加的旅行中對法律系學生動手動腳。可是,特利從未和學生一起去過阿拉斯加,《華盛頓郵報》也從未發表過這篇文章。ChatGPT將特利教授認定為性騷擾者的虛假事實,若不及時加以制止而任由錯誤事實繼續傳播,將會降低公眾對特利教授的社會評價,侵犯其人格尊嚴,構成對其名譽權的侵害。
相較于無人駕駛汽車、智能醫療機器人等人工智能產品可能對人類的生命、身體與健康造成的危害,生成式人工智能對著作權的潛在損害尚未引起足夠關注。人工智能是以數據和信息分析為基礎的技術,而享有版權的作品則是具有獨創性的信息表達或組織方式,因此人工智能在運行過程中存在一定的版權侵權風險[4]。ChatGPT是以大量的文字語料為基礎訓練其語言模型,經過深度學習,對原始文本進行摘取、分析、梳理和整合,從而生成新的文本,在這一過程中ChatGPT對原始作品著作權的侵權風險是客觀存在的。
以復制權為例。一方面,受到著作權保護但未經著作權人同意的文本作品存入ChatGPT的數據系統就屬于對作品的復制;另一方面,ChatGPT基于數據系統中的文本作品而生成新的文本內容,屬于對已有文本的復制行為。一旦輸入的數據納入版權保護范疇,人工智能深度學習就不可避免地與著作權人的經濟權利(其中包括復制權)產生沖突[5]。如果ChatGPT數據系統的原始文本資料未經著作權人同意,那么所生成的內容可能侵犯原始文本的復制權。
當人工智能致人損害時,受害者應當向哪一方主體尋求損害賠償,這是學界正在激烈討論的話題。有學者提議,賦予人工智能民事主體資格,由人工智能作為侵權責任主體對其造成的損害獨立承擔侵權責任,并建立相應基金賬戶,當人工智能給他人造成損害時,優先以賬戶資金進行賠付[6]。然而,人工智能無法以自己名義從事民事活動,其不具有獨立自主意識,不享有獨立財產,無法獨立對外承擔民事責任,不滿足民事主體的各個構成要件;并且基金賬戶的設立基金也是來源于人類,實際承擔侵權責任的主體仍為人類自身。由人工智能承擔侵權責任并無實質意義,該方案不具備可行性。
在法律不承認人工智能民事主體資格的前提下,應當從與ChatGPT有關聯關系的主體中確定ChatGPT侵權的責任主體。ChatGPT從開始設計到投入使用的過程中涉及多方主體,包括數據提供者、算法設計者、生產者、使用者以及網絡入侵者等,相關主體的多元化給侵權責任主體的認定帶來一定的挑戰。以ChatGPT侵犯隱私權為例,受害者為了保證自身損害得到彌補,可能要求ChatGPT的數據提供者、算法設計者、生產者,甚至網絡入侵者共同對損害事實承擔民事責任。但是,數據提供者可能會以數據的提供與隱私信息的泄露并無直接關系為由拒絕承擔責任;算法設計者可能主張生成內容是ChatGPT自主學習的結果,是ChatGPT設計當時的技術水平所無法察覺的,以此作為抗辯事由拒絕承擔責任;生產者可能會根據一般侵權責任條款,主張自身不存在主觀過錯而拒絕承擔責任。由此可見,在法律層面未對人工智能的責任主體作出明確規定的情形下,相關主體均能以不同抗辯事由拒絕承擔責任,從而造成責任主體無法明確,進而導致損害得不到救濟,受害者的合法權益得不到保障,這違背了公平正義的價值追求。
歸責原則被認為是民事責任理論的核心,是確定行為人承擔民事責任的依據[7]。根據《中華人民共和國民法典》的規定,歸責原則體系由過錯責任原則、無過錯責任原則和公平責任原則構建而成。其中,過錯原則是侵權責任法歸責原則體系中的主體,無過錯責任原則是過錯責任原則的補充[8]。在法律沒有明確規定適用無過錯責任原則的情況下,應當適用過錯責任原則,故按照現行法律的規定,ChatGPT侵權責任應適用過錯責任原則予以認定。
然而,過錯責任的判定一般以侵權人在主觀上“應知”或“明知”的注意義務為準。ChatGPT生成內容的產生是基于算法的運行而作出的指令性操作,并非人類直接操縱與控制的結果,故不存在主觀上的“應知”或者“明知”[9]。若將過錯責任原則適用于ChatGPT的使用者,則存在無法解釋之處:ChatGPT的生成結果是使用者無法預見和控制的,使用者無法對ChatGPT的運行進行干預,使用者不負有主觀上的注意義務,要求使用者承擔過錯責任存在不合理性。此外,有學者從權利救濟、風險預防與分散、交易成本、事實查明等角度考察人工智能侵權責任適用無過錯責任原則的正當性[8];也有學者反對適用無過錯責任原則,因為無過錯責任原則的適用會增加人工智能生產者的成本,不利于人工智能技術的發展和創新。
侵害行為和損害結果之間存在因果關系是認定侵權責任的關鍵要素,但智能化算法的決策過程和推演邏輯因“算法黑箱”的存在而無從得知[10]。“算法黑箱”是指算法系統猶如一個“黑箱”,其運行過程處于不透明狀態。由于人工智能ChatGPT設計程序的復雜性和“算法黑箱”的不透明性,侵害他人權利的生成內容是ChatGPT算法設計者、生產者造成的技術漏洞,還是使用者的不當使用,或者是ChatGPT自主學習的結果,往往難以查明。此外,在ChatGPT侵權責任認定過程中,存在兩大難題:一方面,現有的科學水平難以證明ChatGPT可能存在的缺陷和致人損害之間的因果關系,有時僅能證明缺陷與損害之間可能存在某種程度的聯系;另一方面,受害者遭受損害與ChatGPT可能存在的缺陷之間的因果關系并不是簡單的一因一果的關系,往往是多因多果或多因一果,故不能直接得出ChatGPT生成內容所造成的損害是ChatGPT存在缺陷所致的結論。因果關系的證明本身在民法中就是比較復雜的問題,而擁有復雜程序系統和綜合技術手段的人工智能讓ChatGPT致人損害的因果關系的證明變得更加復雜。
盡管人工智能不同于傳統意義上的產品,但仍具有一定的產品屬性。人工智能是由人類制造的物品,是為了滿足人類需要而生產出來的,目的是為參與流通即銷售,因此人工智能符合《中華人民共和國產品質量法》第二條規定的產品要件“經過加工、制作”“用于銷售”,仍然屬于產品的范疇[11]。此外,聯合國教科文組織與世界科學知識與技術倫理委員會于2016年發布的報告認為:智能機器(人)是制造者生產的科技產品,能夠通過民法中的產品責任規則予以調整[12]。因此,ChatGPT侵權責任規則應當在產品責任制度的基礎上進行構建與完善,并適當擴展侵權責任主體的范圍,區別適用歸責原則。要求ChatGPT生產者采取可行性技術方案,盡可能降低“算法黑箱”帶來的不利影響,為厘清因果關系提供有效的查明途徑。
ChatGPT致人損害的責任主體不應局限于生產者Open AI公司,還應包括ChatGPT的數據提供者、算法設計者、使用者,以及攻擊ChatGPT智能系統的網絡入侵者。在認定ChatGPT侵權責任的主體時,應當具體問題具體分析,根據不同侵權原因將責任歸于相應主體。
第一,若ChatGPT侵權的原因在于數據提供者未遵守相關數據保護規定致使數據存在缺陷的,應當由數據提供者作為侵權責任主體,對數據缺陷引起的損害承擔賠償責任。數據是人工智能必不可少的要素之一,人工智能的決策很大程度上依賴于算法所學習的數據。若將數據缺陷導致的侵權歸責于設計者或生產者,實有不妥,故本文建議將數據提供者納入ChatGPT侵權責任主體的范圍之內,以保持各主體利益的平衡。
第二,若ChatGPT致害的原因在于ChatGPT智能系統的算法程序存在缺陷,從而導致生成內容侵害他人合法權益的,應由ChatGPT的算法設計者承擔侵權責任。相對于傳統的產品而言,人工智能產品的生產者大多與算法設計者脫離,其運行過程中是由算法設計者進行支配和控制的,理應由其承擔一定的法律責任,并承擔相對應的法律義務[13]。
第三,若ChatGPT致害事件是ChatGPT的使用者故意錯誤使用所導致的,則由使用者承擔侵權責任。使用者因故意不按照操作步驟使用ChatGPT,且ChatGPT對錯誤行為作了應有的警示,但使用者未及時停止錯誤行為,最終導致損害結果的發生,根據責任自負原則,由使用者承擔侵權責任。
第四,網絡入侵者也是導致ChatGPT致人損害的可能責任主體之一。入侵者對ChatGPT的系統進行攻擊,導致算法出現錯誤,在系統發生紊亂的情形下,ChatGPT無法按照既定算法程序繼續正常運作,最后導致ChatGPT生成內容出現嚴重錯誤,損害他人形象。由于ChatGPT生成內容的錯誤生成主要原因在于入侵者的攻擊行為,故ChatGPT侵權責任的承擔主體是網絡入侵者。
第五,由生產者Open AI公司作為兜底性的侵權責任主體。Open AI公司從ChatGPT的推廣與應用中獲得經濟收益,根據“受益者負擔”原則,由生產者Open AI公司對其他可能的侵權情形承擔責任,以確保受害人的損害得到填補。當然,Open AI公司并非對所有不能由其他責任主體承擔責任的情形負責,其能夠以免責事由進行抗辯,例如機器自主學習、事故不可解釋性、發展風險抗辯等免責事由。
從現有法律出發,根據人工智能侵權原因對應不同責任主體,結合每個責任主體的特殊性確定歸責原則,可以減少對技術發展的干涉,同時保護受害人權益[14]。
首先,當責任主體為數據提供者和算法設計者時,應當適用過錯責任原則,以主體是否存在主觀過錯為判斷標準,對侵權責任予以認定。具備機器學習功能的人工智能在應用中會不斷地提高自身能力,設計者本人也無法知曉其能力能夠達到何種水平[15]。ChatGPT能夠通過機器學習功能實現自身智能系統的更新迭代,從而生成設計者在設計之初未能預料到的內容。若該生成內容給他人造成了名譽權、著作權等權利的損害,依照過錯責任歸責原則,ChatGPT的算法設計者并不存在主觀過錯,無須對損害后果承擔侵權責任。
其次,當責任主體為使用者和網絡入侵者時,同樣適用侵權責任的一般規定,以過錯責任原則對各自的過錯行為所導致的損害后果承擔責任。使用者的錯誤使用、網絡入侵者的惡意攻擊行為,均對損害的發生持希望或者放任的態度,主觀上存在可非難性,故要求使用者和入侵者因其過錯行為承擔責任存在合理性。
最后,作為兜底性責任主體的生產者Open AI公司,應當適用無過錯責任原則。根據產品責任的規定,對生產者的歸責原則采用無過錯責任原則。所謂生產者產品責任適用無過錯責任原則,是指只要生產者生產的產品因存在缺陷造成損害,那么無論生產者是否有過錯,都要承擔產品責任。總結而言,當ChatGPT侵權的原因不能歸責于算法設計者、使用者時,則追溯至ChatGPT的產品屬性,要求其生產者Open AI公司根據現行法律規定中產品責任的規則,承擔相關侵權責任。需要強調的是,無過錯責任不是絕對責任,并不意味著生產者不能抗辯,生產者仍然可以依據合法抗辯事由來減輕或免除責任。
查明事實是責任認定的前提,而在ChatGPT侵權責任中,證明侵權行為與損害后果存在因果關系更具挑戰性,因為“算法黑箱”的存在增加了認定的難度。
首先,針對算法黑箱導致的因果關系難以查明的難題,應當建立強制留痕和定期報告制度。通過強制留痕將智能機器(人)的行為軌跡固定下來,再通過強制定期報告降低識別智能機器(人)行為軌跡的成本[8],進而提高ChatGPT內容生成過程的透明度。基于此,當發生侵權事件時,對相關記錄進行查詢,可以為厘清侵權行為與損害后果之間的因果關系提供方便快捷的檢索途徑。
其次,針對多因多果或多因一果等因果關系類型的判定難題。有學者主張“只要受害人能夠證明其所受損害系智能機器人行為在事實上的結果,法律上的因果關系即告成立,而不必證明該行為是其損失發生的唯一原因或直接原因”[16]。故ChatGPT侵權責任因果關系類型的判定并非歸責所必須,較為模糊的因果關系仍具有可識別性,能夠明確侵權責任主體以分配侵權責任。
ChatGPT的普及和應用引起了人們對其可能帶來的泄露個人隱私、侵犯隱私權、名譽權和著作權等侵權風險的關注。然而,在ChatGPT適用現行侵權責任規則過程中,出現了“侵權責任主體難以確定”“侵權責任歸責原則存在爭議”“侵權責任因果關系難以認定”等難題。傳統侵權責任認定規則對ChatGPT的調整存在不足,故而有必要在產品侵權責任制度的基礎上進行變通與重構。首先,根據不同的侵權原因將侵權責任歸責于不同的主體。譬如ChatGPT致害的原因在于ChatGPT算法程序存在缺陷,則由算法設計者承擔相應侵權責任;若ChatGPT致害的原因在于使用者的故意錯誤使用,則將侵權責任歸于使用者承擔。其次,區別適用歸責原則。當責任主體為ChatGPT的數據提供者、算法設計者、使用者和網絡入侵者,適用過錯責任原則。當責任主體為生產者Open AI公司時,則適用無過錯責任原則。最后,厘清因果關系。通過強制留痕、強制定期報告提高ChatGPT內容生成過程的透明度,以便發生侵權糾紛時能夠查詢相關記錄。總之,對于ChatGPT應用中的潛在法律風險,應當秉持奧卡姆剃刀定律,即“如無必要,勿增實體”,不可陷入“技術決定論”[17]而執著于對法律制度的大修大改,靈活適用現行法律規則解決ChatGPT的侵權責任問題。