999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能提供者侵權責任的認定

2025-02-22 00:00:00陳晨
湖湘論壇 2025年1期

摘要:人工智能的學習能力和自主決定引發其行為有限的可預測性、可控制性、可解釋性,導致人工智能提供者侵權責任的認定陷入困境。在當前的人工智能發展水平下,人工智能提供者不宜承擔危險責任。人工智能屬于產品,提供者承擔產品責任,應運用“理性人工智能標準”在動態的“投入市場”時間段判斷人工智能是否存在缺陷。為減輕被侵權人舉證負擔,實現人工智能侵權中的受害人救濟目標,人工智能提供者應當承擔必要證據的開示義務,應當推定人工智能提供者的行為與人工智能的輸出之間的因果關系。

關鍵詞:人工智能提供者;產品責任;產品缺陷;危險責任;證明責任

一、問題的提出

近年來,新型人工智能技術取得突破性進展,其具有學習能力,能夠在不斷變化的環境中根據所收集的數據獨立自主決策,被運用于醫療服務、自動駕駛及智能家居等日益豐富的場景。人工智能的商業化運用既為人類生活提供更多選擇,為通用人工智能技術的進一步發展奠定基礎,也帶來了新的權益侵害風險,亟須構建法律與技術融合的人工智能侵權責任規則。早在2017年,國務院即印發《新一代人工智能發展規劃》,明確提出“制定促進人工智能發展的法律法規和倫理規范”;2023年度和2024年度國務院立法工作計劃均提及“預備提請全國人大常委會審議人工智能法草案”的計劃。歐盟自2017年開始圍繞人工智能民事責任陸續草擬了《人工智能民事責任》草案和《人工智能非合同民事責任指令》提案等,2024年適應數字經濟和人工智能時代發展的《人工智能法案》生效、《缺陷產品責任指令》通過,足見包括人工智能侵權責任在內的人工智能立法的迫切性。

就人工智能侵權責任,現有研究或聚焦于醫療服務、自動駕駛、生成式人工智能等典型應用場景,或著眼于侵權責任的特定構成要件、免責事由;較少從人工智能提供者角度切入進行深入分析。考慮到以下因素,有必要對提供者侵權責任認定的一般規則進行研究。其一,不同類型合同中人工智能提供者的義務不盡相同,當事人亦可以通過約定改變任意性法律規定。人工智能的合同責任主要取決于當事人之間的約定,難以進行概括的一般化分析且意義有限。其二,不同應用場景、不同風險級別、不同發展水平的人工智能侵權具有不同的特點,類型化分析有助于化解特定人工智能應用中的侵權責任難題。提取公因式的共性分析亦具有重要意義,有益于人工智能提供者侵權責任中基礎性問題的回答、誤解的澄清、責任框架的構建及完善。其三,雖然人工智能侵權中潛在責任主體眾多,但從風險源的制造、對風險的控制力及從風險中獲益等角度看,提供者承擔侵權責任具有正當性和合理性。對提供者侵權責任的剖析也能夠為其他主體侵權責任的認定提供重要參照。

人工智能的自主性引發其行為有限的可預測性、可控制性、可解釋性,導致人工智能提供者的侵權責任面臨諸多難題。提供者承擔過錯責任還是危險責任?提供者侵權責任是否以及如何適用產品責任規則?如何解決被侵權人的舉證困境?為此,本文將在解析人工智能侵權中責任認定問題的特殊性的基礎上,分析人工智能提供者的侵權責任構成和證明責任,力求實現被侵權人權益保護與提供者行為自由、技術創新與風險控制目標的平衡,充分發揮責任制度的損害填補與預防功能。

二、人工智能提供者侵權責任難題及解析

人工智能是指以機器學習為基礎,為實現特定目標而自主運行的系統。人工智能的商業運用,既要考慮技術創新與產業發展,又要考慮與之相伴的法律適用難題。只有充分解析人工智能及其侵權的特殊性,分析其帶來的侵權責任挑戰,才可能提出法律與技術相融合的應對方案。

(一)人工智能及其侵權的特殊性

人工智能的自主性并非全有全無,而是存在程度區別,其行為受內在機制控制的程度越高,對復雜環境的適應力越強,則自主性程度越高。據自主性程度的不同,人工智能的機器學習可分為監督學習、強化學習和無監督學習。不同于傳統的弱人工智能,本文所討論的新型強人工智能不是根據程序員預先的設定作出決定,其行為不完全取決于研發者,而是具有學習能力,能夠通過機器學習掌握且不斷調整信息處理規則,并在具體的情境中作出自主決定。一方面,人工智能決定不再以編碼為基礎,其所選擇的輸入數據及輸入數據與輸出決策之間的聯系未必能被獲知。另一方面,機器學習算法具有動態性、自主性、迭代性,人工智能自動化決策過程難以被知曉和控制。即便“可解釋的人工智能”(explainable artificial intelligence,XAI)等研究和人工智能可解釋性等法律規范要求,也只能在一定程度上提高人工智能自主決策的可理解性,而不能完全解決算法黑箱難題。

但人工智能的學習能力與自主性乃其固有特點及優勢所在。人工智能不僅在處理數據的速度方面遠遠超過人類,而且還能察覺到人類尚未發現或根本無法發現的部分現實,由此人工智能得以提供更多的“出乎意料”的問題解決方案。例如,谷歌翻譯采用使用平行語料庫訓練的深度神經網絡后,自動化翻譯性能提高了60%,且其后穩步提升;生成對抗網絡被用于開發新的人工智能,能夠對代碼框架進行細節填充;美國 IBM 公司的癌癥診斷系統沃森(Watson)能夠向患多種癌癥的患者提供個性化的治療方案。

從責任法角度,自主性意味著控制可能性的降低,使得人工智能行為事前僅具有有限的可預測性和可控制性,事后僅具有有限的可解釋性,導致人工智能提供者侵權責任的認定陷入困境。詳言之,第一,人工智能價值鏈涉及主體眾多,既包括人工智能提供者、訓練數據提供者、數據訓練者、人工智能研發者,也包括人工智能使用者、人工智能更新者等。同一主體可能發生不同身份的重疊,同一身份可能存在復數主體,人工智能的自主性使得對其控制力在更多主體之間分配和轉移。有必要分析提供者是否處于控制力的中心應當被施加更嚴格的侵權責任,以及如何將人工智能侵權責任在不同主體之間妥當分配。第二,人工智能的自主性導致包括提供者在內的潛在侵權責任主體均失去對人工智能的完全控制,但控制與支配是法律責任理論的邏輯基點之一。由此產生的疑問是人工智能的“錯誤”決定是否以及如何歸責于提供者,以何種標準認定作出了“錯誤”決定的人工智能存在缺陷。第三,人工智能學習能力和自主決策機制難以被理解和解釋,使得在人工智能侵權中對因果關系的認定和舉證困難重重。人工智能的學習能力,意味著訴訟程序中可以確定的人工智能行為規則與人工智能侵權導致損害時適用的行為規則可能并不一致。自主性導致很難確定侵權事件中損害源于人工智能本身錯誤決定,還是人工智能研發和生產中的錯誤,抑或是使用過程中的錯誤,由此可能導致人工智能侵權中責任的不合理分配或“行為人消失”。舉例來說,對于由攝像頭、智能人臉識別系統和門鎖構成的電子門禁系統,人工智能的學習能力既使得其能夠越來越準確地區分被識別者的關鍵特征和其他特征,在使用者改變發型或著裝等非關鍵特征時也能通過門禁系統,也使得“錯誤”識別并導致權益損害時,難以確定損害賠償責任主體及因果關系。該“錯誤”既可能源于人工智能提供者所提供的人工智能不符合標準,也可能源于第三方黑客攻擊,還可能源于使用者的“錯誤”數據訓練。

(二)人工智能提供者危險責任的否定

自主性風險是人工智能的固有風險,即便提供者事先進行過充分的安全運行測試,完成法律法規設定的各項要求,人工智能仍然可能侵害他人民事權益。例如,自動駕駛汽車投入市場后,行駛過程中不存在與運行測試時完全相同的交通狀況,光線、天氣、路況、道路使用者的數量及其速度等一個或多個差異因素均可能使其作出不可預測的決定并產生損害。鑒于人工智能的自主決定使得損害的發生不可避免,但人工智能的提供本身又為法律允許的行為,有學者建議立法規定人工智能提供者承擔危險責任,因為危險責任正是尋求“對從事危險行為的一種合理的平衡”。其理由在于:其一,危險責任不是對不法行為所負的責任,而是對不幸損害的分配。人工智能提供者制造了危險源,能夠在一定程度上控制這些危險,并且通過人工智能的提供獲得利益,應當對由此產生的損害承擔賠償責任。其二,從經濟學角度分析,因為只有當人工智能帶來的收益大于損害賠償成本時,提供者才會將其投入市場,危險責任能夠規范人工智能的良性健康發展。其三,危險責任作為手段,能夠使得人工智能提供者將社會所需要的技術產生的風險內部化,而通常與危險責任相匹配的最高責任額限制,能夠使得風險在一定程度上被社會化,提供者承擔危險責任并未使其承受不合理負擔。其四,危險責任更能夠確保被侵權人獲得救濟,從而能夠增強人工智能的社會接受度,促進人工智能應用的推廣與發展。

問題是當前發展階段的人工智能的自主決定是否帶來不可避免、不可估量的巨大損害風險,從而有必要對該風險施以嚴苛的“危險責任”。實際上,無論從潛在損害的嚴重程度,還是從損害的不確定性來分析,人工智能未必必然產生不同于傳統產品的特殊危險。就潛在損害的嚴重程度而言,人工智能整體上并不會比人類或傳統技術造成更頻繁或更大的損害,否則其將不被允許投入市場。在某些情形中,人工智能可能導致特別嚴重的損害,但與其說源于其自主性,不如說是由于環境本身,特別是受其影響的法律利益。就損害的不確定性而言,“預防原則”(Vorsorgeprinzip)可能成為支持人工智能提供者危險責任的重要論據。根據該原則,立法者有權在風險不確定的情況下采取限制性措施,而不必等待這些風險的存在和嚴重性得到充分證明,在基因工程領域即是如此。但是人工智能有限的可預測性并不意味著造成損害的概率或程度必然特別高。此外,危險責任可能遏制人工智能科技創新的積極性,帶來寒蟬效應,也不利于激勵人工智能設計及應用者遵守合理標準防范損害風險。

就當前發展階段的人工智能而言,不宜規定人工智能提供者的危險責任。一方面源于法律的安定性要求,法的安定性包括實證性、實用性、穩定性、明確性、溯及適用之禁止。“正如技術本身,相關法律在很多方面同樣需要調整。但是,二者的不同之處在于,技術需要實踐嘗試,而立法如果在理論上更為謹慎,則可以避免很多法律問題。”在人工智能商業應用初具規模的發展期,不宜貿然規定人工智能提供者承擔危險責任。另一方面,堅持過錯責任也符合比例原則要求。為實現被侵權人損害填補目標,可能的解決方案包括提供者承擔危險責任、舉證責任倒置、過錯與因果關系推定等,不同選擇將對提供者行為自由產生不同程度的限制。當前技術發展階段的人工智能侵權責任難題,很大程度上源于信息不對稱和人工智能自主決定帶來的證明責任難題,而非人工智能的特殊風險,理應首先尋求通過調整證明責任規則協調責任法損害填補、風險控制和風險分散目標,實現人工智能提供者行為自由和被侵權人利益保護之間的平衡。

三、人工智能提供者的產品責任構成

提供者是指開發人工智能,或已開發人工智能并將其投放市場或以自己的名義投入使用的主體。理論上大多肯定人工智能提供者的侵權責任可以適用產品責任規則,但同時認為,產品責任規則不能解決全部的人工智能提供者侵權責任問題。核心問題是人工智能是否屬于產品。如果是,人工智能提供者是否以及如何根據《中華人民共和國民法典》(以下簡稱《民法典》)侵權責任編第四章“產品責任”和《中華人民共和國產品質量法》(以下簡稱《產品質量法》)相關規定承擔產品責任。

(一)人工智能的產品屬性

人工智能提供者承擔產品責任的前提是人工智能屬于產品。《民法典》侵權責任編“產品責任”章未對“產品”作定義性規定,《產品質量法》第二條第二款規定:“本法所稱產品,是指經過加工、制作,用于銷售的產品。”從該條文義出發,人工智能屬于產品,許多學者亦在產品責任框架下討論人工智能的侵權責任。但理論上通常認為,產品主要指有體物。有學者指出,只有純軟件系統的生成式人工智能,才能夠更為明顯地體現人工智能的固有特點和反映法律問題,因其具有明顯的個性化服務特征,不屬于產品責任適用對象。對于軟件是否屬于產品,歐盟學界素有爭議,人工智能的廣泛運用和《缺陷產品責任指令》的制定引發了新一波討論熱潮,問題的焦點在于,產品是否僅限于“有形”動產?產品與服務的區分標準及理由何在?

1985年歐盟原《產品責任指令》中的產品僅限于有形動產,例外包括電力。從文義出發并不包括不存在物理實體的人工智能和軟件。德國學界主流觀點認為,專門為用戶編寫定制的計算機程序屬于服務,而大量復制并投放市場的標準化計算機程序,若其與硬件結合,則也屬于產品。但對純軟件的性質,至今未達成一致意見。隨著技術的發展,越來越多的人工智能未必存在物理實體,如果由此否定其產品性質,將導致嵌入式人工智能與非嵌入式人工智能的不合理區分。諸多學者認為,是否存在物理實體并不影響對人工智能產品性質的認定。首先,從產品責任的立法目的看,產品責任是為保護使用者免受大規模生產的工業產品危害,產品的本質屬性并非有形或無形,而在于其批量生產、規模銷售帶來的社會效益,軟件的無形性特征并不構成其適用產品責任的障礙。人工智能技術的運用能夠實現規模經濟和網絡效應,人工智能與大規模生產的產品具有可比的潛在風險。人工智能亦可能存在設計缺陷、制造缺陷和指示缺陷,但使用者無法獲知生產者內部生產過程進而舉證其違反注意義務。其次,法律體系具有開放性,應當適應社會經濟的發展。歐盟原《產品責任指令》第二條對產品的定義同時提及電力,正是因為立法者意識到,可能存在雖然為無體物但也應當適用該指令的客體,不應反面推理認為產品責任不適用于人工智能,而應當類推適用。最后,從風險源的產生、風險的控制和獲益角度來看,人工智能提供者承擔產品責任均具有正當性。提供者處于風險控制的優勢地位,能夠及時意識到人工智能缺陷并設法避免,通過將人工智能投入市場而獲益,在風險分散方面相較于使用者亦處于更有利的地位,理應如傳統產品生產者一樣承擔產品責任。歐盟在新近通過的《缺陷產品責任指令》中明確規定,包括人工智能在內的軟件亦屬于產品(第四條第一項),意在實現對受不同技術水平影響的被侵權人的同等保護。

此外,生成式人工智能技術及商業運用的迅速發展,使得人工智能屬于產品還是服務這一問題更加撲朔迷離。《生成式人工智能服務管理暫行辦法》明確將生成式人工智能定性為服務,學者草擬的《人工智能法(學者建議稿)》和《人工智能示范法2.0(專家建議稿)》同時使用“人工智能產品”與“人工智能服務”概念,似乎認為人工智能的性質應視具體情形加以判斷。有學者認為,人工智能產品與服務的區分需要進行類型化判定,在人工智能包含服務情形時,服務本身是為了產品功能的實現,并不會改變產品的性質,產品與服務應當共同適用產品責任;服務中使用產品情形,只要能確定損害是人工智能產品缺陷而造成的,仍應當適用產品責任;使用人工智能軟件情形,關鍵在于對軟件提供活動性質的判斷,將生成式人工智能一概歸入服務并不妥當。但有學者持不同意見,其認為,生成式人工智能輸出的內容因受到人機交互與算法模型變化的影響而始終處于變化之中,其向用戶提供的服務不具有高度同質性,適用產品責任不具有說服力。本文認為,應當區分生成式人工智能本身與其所生成的內容。生成式人工智能所生成的內容取決于算法、算力、數據集和人機交互等諸多因素,具有個性化特征,但除專門為用戶定制外,生成式人工智能本身仍為標準化產品。生成式人工智能提供者在既有算力水平基礎上,統一進行算法設計和數據訓練,并最終將生成式人工智能投入市場供用戶使用。在使用過程中,生成式人工智能通過機器學習不斷優化算法模型,提供者也可能對其持續更新或升級,但特定時點提供給所有用戶使用的生成式人工智能是相同的。不同于其他人工智能,生成式人工智能通常不存在硬件實體,其使用中必然存在人機交互,用戶不同的輸入以及不同用戶的輸入均可能導致生成式人工智能所生成的內容有所不同,但這并不改變生成式人工智能本身的產品屬性。

僅為單純軟件的生成式人工智能與其他具有硬件實體的人工智能的真正不同在于其輸出為內容,其并非經由硬件的行為而是源于其生成的內容產生侵權損害。由此產生的疑問是,提供者是否因生成式人工智能所生成的內容侵權而承擔產品責任?類似的困惑曾在傳統產品責任中引發討論。美國法院在“毒蘑菇”案和“阿特金斯減肥法”中認為,對思想內容課以產品責任,將會抑制思想的表達與傳播,因此,不宜將思想內容作為“產品”。該理由不適用于生成式人工智能,因為其生成內容取決于數據集中的信息、與使用者的人機互動、自主決定等因素,僅具有有限的可預見性,并非提供既存信息,不涉及思想表達和傳播的自由。問題的關鍵在于,提供者將生成式人工智能投入市場與其生成內容之間介入了使用者輸入因素,人工智能生成侵權內容不意味著生成式人工智能存在缺陷,應當回歸生成式人工智能本身,應按照產品缺陷認定標準,判斷提供者是否承擔產品責任。

(二)人工智能缺陷的認定

《民法典》第一千二百零二條規定,構成產品責任須具備三個要件:產品具有缺陷;須有缺陷產品造成受害人損害的事實;缺陷產品與損害事實之間存在因果關系。人工智能侵權中,其核心是缺陷認定和因果關系,后者更多的是舉證責任問題,后文將深入分析。與傳統產品相同,人工智能也可能存在設計缺陷、制造缺陷和指示缺陷,但因其學習能力和自主性不同,使得其缺陷認定有所不同。

1.人工智能缺陷的認定標準

對于產品缺陷的判斷,比較法理法例上存在消費者期待標準(consumer expectations test)和風險—效益標準(risk/utility test)。《民法典》并未對“產品缺陷”作出定義性規定,根據《產品質量法》第四十六條規定,產品缺陷是指“存在危及人身、他人財產安全的不合理的危險;產品有保障人體健康和人身、財產安全的國家標準、行業標準的,是指不符合該標準。”通常認為,《產品質量法》采取的是合理期待標準,“所謂不合理的危險,本質上就是不符合人們合理期待的安全”。

原則上產品是否符合合理期待并不取決于個案中被侵權人的主觀標準,而是取決于客觀的理性人標準。有學者主張根據人工智能自主決定是否達到同等情形中的理性人決定的安全水平來判斷其是否符合合理期待。反對觀點認為,運用“人類中心主義的注意義務標準”(der anthropozentrische Sorgfaltsma?stab)在個案中判斷人工智能是否存在缺陷并不合理。以人工智能技術運用較為成熟的自動駕駛汽車為例,一方面,人工智能缺陷判斷中被評價的生產者的權益侵害行為,并非特定交通狀況中對自動駕駛汽車行為的“決定”,而是對自動駕駛汽車具有學習能力的算法的設計,該算法的學習過程是在配備相同人工智能的所有自動駕駛汽車內進行的,而非單獨針對某輛自動駕駛汽車。因此,應當從人工智能整體技術層面判斷其是否存在缺陷,而非從具體侵權場景出發,僅著眼于造成具體侵權損害的特定人工智能產品。另一方面,個案中人工智能與自然人侵權的風險及實現機制不同,不具有可比性。運用“人類中心主義的注意義務標準”評價人工智能的總體表現是否優于理性自然人,僅在判斷是否允許人工智能投入市場時發揮作用。例如美國《產品責任法》規定,生產者的設計責任應當確保自動駕駛汽車的安全性必須至少是傳統汽車的兩倍。但即便人工智能總體損害風險低于理性自然人,其自主決定導致權益損害的具體情景與自然人不同,人工智能缺陷判斷也應當適用“理性人工智能標準”而非理性自然人標準。相應地,被侵權人只需證明人工智能存在缺陷即可,不需證明具體產品中的人工智能存在缺陷。

問題是“理性人工智能標準”應當如何確定?顯然不應以同類型人工智能的最佳水平為參照,否則擁有最先進技術的提供者將被豁免責任,而所有其他人工智能均被認定為存在缺陷。人工智能在使用中能夠通過“機器學習”持續自我優化,如果采納最佳水平標準,先進入市場的提供者相對于后來者將取得不可動搖的領先地位,而后來者需承擔人工智能侵權的全部損害成本,因此更難有機會超越先進入市場者,將導致不公平競爭。有學者認為,理性人工智能標準也不應當是平均標準,該標準只是使問題最小化,但并未解決問題。平均標準將市場一分為二,平均標準之下的提供者將承擔人工智能侵權的全部損害成本,但未達到平均標準而被認定為存在缺陷的人工智能造成損害的概率和嚴重程度很可能只比平均標準之上無缺陷的人工智能略高,且比理性自然人低很多。對此本文不予贊同。如上所述,人工智能侵權個案中,不應參照同等情形下理性自然人可能做出的行為決策判斷人工智能是否存在缺陷。因此,即便平均標準之下的人工智能造成的侵權損害風險顯著低于理性自然人,該因素也不能作為否定該人工智能提供者侵權責任正當性的理由。此外,因平均標準之下的人工智能將被認定為存在缺陷,為避免承擔侵權責任,人工智能提供者必須提升人工智能技術。故而,平均標準能夠刺激優勝劣汰,促進人工智能技術發展。

因此,人工智能缺陷是指其不滿足合理期待,也就是未達到所被期待的“理性人工智能標準”而存在不合理危險。在確定“理性人工智能標準”時,一方面應當綜合考量產品的說明、產品本身的性質、產品價格、能夠合理期待的使用、技術法規與安全標準、產品投入流通的時間等傳統產品缺陷判斷中所考慮的因素;另一方面結合人工智能的技術特性予以調整。人工智能具有模塊化、網聯化的特征,常常需要與其他產品互聯使用,需要特別考慮其他產品對于人工智能的影響;人工智能具有學習能力,應當考慮機器學習對人工智能安全性的可能影響;人工智能投入市場后通常會持續更新或升級,提供者對人工智能的影響力乃至控制力并不止于靜態的投入市場時間點,應當動態判斷人工智能投入市場時間;數字時代人工智能應當充分考慮網絡與數據安全,存在網絡安全漏洞也應當被認定為缺陷。由此也可以發現,從表面上看,似乎所有的產品責任都是無過錯責任,但實際上,因設計缺陷和指示缺陷而引發的產品責任,無論名義上稱其為無過錯責任還是過錯責任,就其認定方法來看,實質上與過錯責任的認定類似。人工智能缺陷認定的“理性人工智能標準”,實質上是提供者過錯標準的客觀化。

2.人工智能缺陷的認定時間

通常來說,對產品的合理期待會隨著社會的發展和科技水平的提高而變化,但是產品缺陷的認定時間為其“投入市場”這一靜態時間點。理由在于,一方面,產品開發階段的“設計凍結”,使得在使用過程中產品很難或不可能適應變化中的標準;另一方面,產品投入市場后,生產者失去控制,使用者應當對產品具體使用中產生的危險負責。然而,不同于傳統產品,人工智能通過“機器學習”不斷積累“知識”并調整自主決定規則,安全狀態可能會隨著每一個新的學習步驟而改變。人工智能投入市場后,生產者可以利用內置的記錄功能對產品進行密切地跟蹤觀察并獲得使用信息,可以通過維護、技術支持、漏洞修復、更新等方式持續地參與到產品的使用過程中。如果生產者的后續行為改變了產品的安全性能,卻仍以產品投入市場時間點為標準來判斷其是否存在缺陷顯然不合理。因此,人工智能“投入市場時間”不應是時間點,而應是“動態化”的時間段,始于產品初次制造完成,止于不再合理期待生產者調整產品適應安全標準的變化之時,其間生產者應當通過更新(如需)等方式確保人工智能無缺陷。其實采用 “動態化”缺陷判斷時間并未苛責生產者,因為人工智能的合理安全預期從一開始就是面向未來的,科技水平的發展只是將標準具體化而非加重。有學者甚至認為,如果人工智能中的“錯誤”隨后被發現并通過更新得到“修復”,那么其以前存在缺陷的結論是顯而易見的。從國際立法趨勢看,歐盟《缺陷產品責任指令》第十一條第二款規定,如果因生產者控制之下產品更新、升級,或缺乏維護安全所必需的軟件升級、更新而導致產品缺陷的,生產者不能主張第十一條第一款c項規定的“發展風險免責”。

四、人工智能提供者的舉證責任

人工智能的自主性、復雜性和不透明性使得被侵權人很難確定侵權人并舉證證明其行為滿足侵權責任構成要件。當前人工智能發展階段,人工智能侵權責任相關立法應考慮通過規定證據開示義務、人工智能侵權中的因果關系的部分推定來減輕被侵權人舉證負擔,使其獲得與未使用人工智能的侵權案件同等水平的保護。

(一)人工智能提供者的必要證據開示義務

人工智能相關信息的獲取,是被侵權人提出損害賠償請求及完成相關舉證責任的前提。為解決人工智能的學習能力及自主決策帶來的“黑箱”問題,理論和立法上嘗試對人工智能及其算法進行管控,要求人工智能的發展堅持透明可解釋原則和安全可問責原則。《個人信息保護法》第二十四條專門針對自動化決策的透明度和可解釋性作出規定;《互聯網信息服務算法推薦管理規定》第十六條規定,算法推薦服務提供者應當以顯著方式告知用戶其提供算法推薦服務的情況,并以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等;《生成式人工智能服務管理暫行辦法》第四條第五款規定,提供和使用生成式人工智能服務,應當基于服務類型特點,采取有效措施,提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性;歐盟《人工智能法》指出,對“高風險人工智能系統”提出透明度、人工監督、穩健性、準確性和網絡安全等要求,是“有效降低健康、安全和基本權利的受侵害風險所必需”。上述規定均屬于對人工智能及算法的事前規制,能夠在宏觀層面降低人工智能侵權損害發生的概率和后果的嚴重程度,但因未賦予被侵權人獲取上述相關信息的權利,故不能在微觀層面在個案中實現對被侵權人的救濟。

最高人民法院《關于適用〈中華人民共和國民事訴訟法〉的解釋》第一百一十二條規定,承擔舉證證明責任的當事人可以在舉證期限屆滿前書面申請人民法院責令對方當事人提交書證,但該條僅適用于書證,且僅訴訟當事人享有該權利。為解決人工智能侵權中的信息不對稱問題,平衡雙方當事人的地位,實現具體案件中的事實信息最大化,未來人工智能立法中,可考慮規定提供者對于其所控制的各種類型證據的開示義務(die Offenlegung von Beweismitteln),若其無正當理由拒不提交,將承擔不利后果,法院可認定被侵權人所主張的內容為真實,推定人工智能存在缺陷。此外,為使被侵權人能夠合理判斷并作出是否向人工智能提供者主張損害賠償的決定,應當賦予其在向法院起訴前請求法院責令提供者披露相關證據的權利。人工智能提供者承擔證據開示義務,也有利于實現規范人工智能責任的不同部門法之間的協調,激勵提供者履行人工智能監管法律法規所要求的透明度和可解釋性義務。畢竟若其未能履行相關義務,不僅將承擔其他部門法上的不利后果,還將因不能提供相關必要證據而面臨民事責任中的不利推定。

當然,為避免被侵權人的權利濫用給人工智能提供者造成不利負擔,其提出證據開示請求應當滿足一定條件,包括:被侵權人提出支持其損害賠償請求的初步證明材料;被侵權人已向人工智能提供者請求披露其所控制的證據但被拒絕;被侵權人請求披露的證據只限于主張相關損害賠償請求所必需的證據。此外,對于法院責令人工智能提供者開示的證據,應當限制知悉的人員范圍并采取配套措施保護提供者的知識產權和商業秘密。例如只允許當事人查閱經過編輯的聽證記錄或證據記錄;僅向法院和負有保密義務的專家、律師開示,而不向對方當事人提供;被侵權人對事后被證實的不當證據開示請求承擔損害賠償責任等。

(二)人工智能侵權中因果關系的推翻義務

“一個人對某一損害的責任只能建立在這個人與該損害之間存在聯系的基礎上”,侵權責任以侵害行為與損害后果之間具有因果關系為成立要件。因果關系的判斷包括事實上因果關系與法律上因果關系判斷兩個階段。事實上因果關系判斷標準為“必要條件說”。法律上因果關系判斷行為與結果間是否具有相當性或合理可預見性,基于法律政策及目的性考慮判定,屬責任限制的問題。人工智能在投入使用后,通過與環境進行交互而變得越來越復雜,以致線性因果判斷方式須讓位于復雜的非線性相互作用因果關系判斷方式。人工智能的學習能力和自主決定,使得人工智能提供者的行為與人工智能的輸出、侵權損害之間的因果關系難以確定。基于法律平等原理的基本要求,為實現人工智能侵權中被侵權人與傳統產品侵權中被侵權人的同等水平保護,應當減輕被侵權人舉證負擔,可能的解決方案包括因果關系推定和舉證責任倒置。

類似的困境也存在于環境污染侵權中。為減輕被侵權人的舉證負擔,《民法典》第一千二百三十條規定“因污染環境、破壞生態發生糾紛,行為人應當就法律規定的不承擔責任或者減輕責任的情形及其行為與損害之間不存在因果關系承擔舉證責任。”該條采納的是舉證責任倒置而非因果關系推定,這也是我國環境侵權相關立法一直以來的立場。但在環境侵權司法實踐中運用舉證責任倒置的案件不到一半,最高人民法院組織編寫的司法解釋釋義書也認為,直接適用舉證責任倒置規則,會導致推定出的因果關系在客觀性和可靠性方面無法經受實踐的檢驗。造成這一問題的原因在于舉證責任倒置規則在邏輯結構上的不足。理論上也一直存在不同意見,不同學者在具體觀點上或有差異,但基本方向都是借鑒因果關系推定的思路,對證明責任倒置的適用加以限制。

準確理解舉證責任倒置和因果關系推定的差異,是在二者之間作出選擇的前提。就前者而言,首先由加害人對因果關系不存在進行證明,其證明需達到高度蓋然性證明標準,在此基礎上,由受害人證明因果關系存在,其證明只需使因果關系陷入真偽不明即可。就后者而言,由受害人對因果關系存在進行初步證明即可推定因果關系存在,加害人通過反面證明因果關系不存在來推翻推定。顯然,二者均能緩解證明困境,減輕被侵權人舉證負擔;但舉證責任倒置中,加害人的證明責任更重,敗訴風險更大。類似地,人工智能侵權中采納因果關系推定還是舉證責任倒置,實質上是由立法者在價值判斷基礎上作出選擇。自主決定風險是人工智能的固有風險,可解釋人工智能研究的深入和透明度等法律監管要求均只能在一定程度上解決人工智能的有限的可理解性問題,“有些事實先天難以證明,無論哪方負證明責任都一樣”。從當前人工智能風險可能引發損害的概率和嚴重程度出發,宜采納因果關系推定模式,也避免重蹈覆轍——像環境侵權規則一樣面臨諸多法律解釋和適用難題。

五、結語

新一代人工智能的快速發展深刻改變著人類社會的生活方式和思維方式,人們在享受其商業化應用帶來的機遇的同時,也感受到巨大的潛在損害風險。人工智能的學習能力和自主性使其行為僅具有有限的可預見性、可控制性與可理解性,向人工智能提供者侵權責任的認定提出了新的挑戰,亟須理論和立法予以回應。

人工智能侵權責任的分配既要協調“行為自由”與“法益保護”的關系,又要實現技術發展與風險控制的平衡。與技術領域鼓勵創新不同,立法應當采取更加謹慎和務實的態度。人工智能屬于產品,人工智能提供者應當承擔產品責任,應當在動態的“投入市場”時間段運用“理性人工智能標準”判斷人工智能是否存在缺陷。至少就目前人工智能發展階段而言,不宜令人工智能提供者承擔危險責任,可通過規定人工智能提供者的必要證據開示義務、人工智能提供者的行為與人工智能的輸出之間的因果關系推定減輕被侵權人舉證負擔。

互聯網、物聯網、數字經濟時代,人工智能極有可能滲透到人類社會的所有領域,人工智能互聯程度將越來越深,單個人工智能的邊界越來越難以確定,人工智能價值鏈上的參與者越來越多,而各個主體的單獨作用越來越小。未來立法或許有必要規定特定人工智能的危險責任。或許通過統一的人工智能意外險等方式將人工智能侵權損害成本社會化,避免少數行為人偶然承擔侵權責任,也確保被侵權人損害被填補。但人工智能技術仍在快速發展,人工智能侵權責任規則應當從法律與技術融合的角度漸進發展。

責任編輯:李" 鋒

主站蜘蛛池模板: 日韩一级二级三级| 国产h视频免费观看| 免费观看无遮挡www的小视频| 亚洲欧洲天堂色AV| 天堂成人av| 亚洲综合色在线| 国产精品开放后亚洲| 超碰色了色| 亚洲人成影院午夜网站| 91小视频在线| 日韩精品免费在线视频| 国产在线观看精品| 亚洲av无码久久无遮挡| 伊人五月丁香综合AⅤ| 香蕉久久国产超碰青草| 白丝美女办公室高潮喷水视频| 小说 亚洲 无码 精品| 亚洲精品爱草草视频在线| 亚洲Aⅴ无码专区在线观看q| 国产亚洲欧美日韩在线一区二区三区| 亚洲视频三级| 欧美成人aⅴ| 在线不卡免费视频| 久久99热这里只有精品免费看| 国产真实二区一区在线亚洲| 免费a在线观看播放| 精品国产自在在线在线观看| 国产成人精品2021欧美日韩| 久久国产精品无码hdav| 国产精品无码久久久久久| 国语少妇高潮| 一边摸一边做爽的视频17国产| 高h视频在线| 任我操在线视频| 综合亚洲网| 亚洲国产精品国自产拍A| 欧美一级99在线观看国产| 精品国产美女福到在线不卡f| 亚洲第一视频免费在线| 日韩精品久久久久久久电影蜜臀| 久久国产亚洲偷自| 狠狠色婷婷丁香综合久久韩国 | 成人福利在线视频| 日韩国产一区二区三区无码| 91福利在线看| 99精品伊人久久久大香线蕉| 久久综合成人| 一区二区三区四区日韩| 重口调教一区二区视频| 国产美女91视频| 福利在线不卡| 91福利一区二区三区| 亚洲欧洲日产国码无码av喷潮| 99精品国产自在现线观看| 中文字幕永久视频| 欧美精品啪啪| 热思思久久免费视频| 四虎永久免费网站| 国产欧美性爱网| 在线观看亚洲人成网站| 4虎影视国产在线观看精品| av性天堂网| 欧美日韩综合网| 国产成人你懂的在线观看| 美臀人妻中出中文字幕在线| 国产成人免费观看在线视频| 国产亚洲美日韩AV中文字幕无码成人| 日本午夜影院| 亚洲国产无码有码| 国产成人高清精品免费5388| 欧美日韩激情在线| 国产成人禁片在线观看| 日韩欧美中文字幕在线韩免费| 精品少妇人妻av无码久久| 国产成人亚洲毛片| 免费在线国产一区二区三区精品| 国产玖玖视频| 青青国产成人免费精品视频| 亚洲欧美人成电影在线观看| 精品少妇人妻无码久久| 原味小视频在线www国产| 亚洲无码免费黄色网址|