唐 婧
(南京大學 法學院,江蘇 南京 210000)
陪伴式人工智能平臺興起于注意力經濟熱潮中,在情感識別方面以超出一般人工智能平臺的算法能力,通過情感計算與平臺用戶建立連接,用戶可能在此交互過程中對陪伴式人工智能產生情感依賴,因此在發生侵權事件時,陪伴式人工智能平臺不僅可能對用戶造成財產、隱私等實體損害,還可能造成精神損害。進一步分析發現,陪伴式人工智能平臺的算法能力已經超出傳統技術中立理論的范疇,因而不應當允許平臺以“技術中立”進行侵權責任的抗辯。在責任生成的理論和現實邏輯方面,從平臺微觀角度和社會宏觀角度加以論證,結論是應當對陪伴式人工智能平臺施加相對嚴苛的責任。而在責任規制的具體路徑方面,權宜之計是充分利用已有的分散式規則,且在具體運用中保持嚴格的規制態度,如采取舉證責任倒置等辦法,先行解決司法實踐的困難。理想的方式是在陪伴式人工智能發展成熟之時以通用規則進行規范。
陪伴式人工智能軟件是一種由人工智能驅動,旨在提供情感支持、交流和陪伴的平臺,能夠通過文本對話、人機交互和生成技術等方式與用戶進行互動。在數字化變革的浪潮中,依托算法的應用,陪伴式人工智能平臺已經發展到能夠分享用戶的感受和情緒的階段,即具有情感識別和情感計算的功能。如此強大的算法能力引發一系列現實問題,一個直接的表現是司法實踐中逐漸出現由陪伴式人工智能平臺引發的侵權法律爭議。在民法典頒布后人格權司法保護典型民事案例中,有一例人工智能軟件擅自使用自然人形象創設虛擬人物構成侵權的“AI陪伴”軟件侵害人格權案[1]。法院經審理后認為用戶與以何某的姓名、肖像等互動素材生成的AI角色設定身份關系,并通過該AI軟件“調教”角色,從而形成與何某真實互動的體驗,這涉及自然人的人格自由和人格尊嚴,構成侵權。同時,法院否認了案涉軟件平臺的“中立技術服務提供者”地位,最終判決該人工智能軟件與用戶構成共同侵害原告肖像權的行為。此案明確了自然人的人格權及于其虛擬形象,這無疑對于虛擬現實等新技術的發展有更好的規制意義。但是,裁判結果中對于案涉軟件算法應用的評價標準是否合理仍存在爭議。軟件平臺和用戶一同承擔侵權責任的判決結果似乎與傳統的“技術中立”觀點背道而馳。
現行法中對網絡平臺責任的規定可以簡要分類為信息安全主體義務、處理反饋義務、配合監督檢查義務、個人信息保護義務以及包括避風港責任在內的相關義務,如表1所示。其中,由國家網信辦、工業和信息化部、公安部聯合發布并于2023年1月實施的《互聯網信息服務深度合成管理規定》第十七條提到了顯著標識義務。這一規定主要針對深度合成技術與服務的主體責任和義務。然而,盡管深度合成技術與陪伴式人工智能平臺所提供的技術存在交叉,但是陪伴式人工智能平臺的技術核心并不在于深度合成,其并非真正意義上的深度合成技術平臺,因此將此規定直接“遷移”并且應用于解決當前司法實踐的困境似乎并不完全適配。

表1 現行法中網絡平臺責任的相關規定
學界對于此類依托算法而運行的平臺的責任分配也存在不同意見。比如就算法之于人工智能平臺的基礎地位來看,從算法層面入手探究對平臺的問責路徑存在一定的正當性,但是有學者認為對算法進行問責需要具體呈現算法造成的實際損害,然而在現實中很難在算法實施者與算法侵害者之間建立起必要的因果關系[2]。還有學者提出考慮到傾向于利好互聯網產業發展的政策選擇和既有的司法裁判,采取相對寬容的價值選擇,因此不應當在生成維度對人工智能服務提供者課以一般性義務,但如果在事實層面能以合理成本避免侵權內容的再次生成,則在事后移除維度可對其課以相應義務[3]。學界對于人工智能平臺應該承擔的責任觀點各異,但大多停留在歸納整理人工智能平臺帶來的法律風險與對應的規制框架構想上,卻沒有為其構想提供具有證成性的理論邏輯和具有普適性的現實方案,有落入“稻草人謬誤”之嫌。
基于前述問題,陪伴式人工智能平臺產生于特殊的注意力經濟熱潮中,且由于涉及情感計算,在人格權侵權等與自然人直接相關的法律風險方面顯著高于一般的人工智能平臺。那么,在法律存在空白地帶的情況下,此經濟模式下自身擁有強大算法能力的平臺是否可以繼續以“技術中立”“技術無錯”作為平臺免責的正當性基礎,抑或是應當賦予平臺一種專屬的責任,這是研究陪伴式人工智能平臺算法應用評價標準無法避開的問題。本文擬探討用戶通過陪伴式人工智能平臺實施侵權行為時,平臺是否應當分擔相關侵權責任的問題。具體而言,從微觀層面,理清陪伴式人工智能平臺的底層運行邏輯,分析算力的深刻變革引發歸責理論路徑的變化,從而帶來的算法應用評價標準的改變;從宏觀層面,在注意力經濟時代,比較陪伴式人工智能平臺侵害救濟的整體社會成本與收益,探究平臺歸責的現實必須性。
陪伴式人工智能平臺產生于注意力經濟浪潮中。注意力經濟是數字化社會發展過程出現的一種經濟新樣態,它不僅會對社會生產生活產生影響,甚至還重塑著人們的認知進而影響情感和行為模式[4]。具體來說,數字化社會最顯著的特征是信息過載。信息過載的直接后果是人們的注意力變得分散和稀缺。也正因此,注意力逐漸變成一種珍貴的受到搶奪的資源,因為在以數據和信息構建的網絡世界中,獲得注意力就意味著巨大經濟利益的獲得。注意力經濟初期,吸引大眾注意的手段相對簡單和常規,比如應用通過手機彈窗對用戶進行通知和提醒、網站通過無限滾動的方式用短時間的大量信息吸引用戶停留等。然而,隨著信息從大量變得巨量再到超量,用戶趨于疲憊,常規的吸引方式無法持續捕捉到足量的注意力,網站以及應用平臺開始利用更高級別的算法技術對用戶進行深入的偏好計算,這意味著其吸引手段從大眾化走向個性化,信息呈現樣態從靜態向動態轉變。初始的具體表現為通過分析用戶的歷史瀏覽進行個性化推薦。而陪伴式人工智能平臺所依托的無疑是一種比算法個性化推薦還要深入的技術。通過使用自然語言處理和情感分析技術,陪伴式人工智能平臺可以理解用戶的語言和情感表達,并根據這些信息提供個性化的回應和支持,這一功能契合了當前社會人們普遍需要陪伴的心理需求。經過一段時間,用戶將對其專屬的陪伴式人工智能產生情感依賴。這一過程存在極大的法律風險,主要體現在情感連接形成過程中的信息雙向供需:在需求層面,侵權人利用陪伴式人工智能平臺對目標人群的偏好信息進行定向和操縱,以求在個人注意力爭奪中獲得優勢地位;在供給層面,侵權人用來作為吸引源的信息本身可能來自于目標人群以外的第三方群體,比如未經授權的明星肖像、語音等信息。
前述法律風險和一般平臺侵權案件的法律風險存在一定差異,這是因為注意力經濟背景下的情感依賴不同于通常的物質或者心理依賴,它是陪伴式人工智能平臺“精心設計”的運行規則下的風險產物,在此情境中如果允許平臺在發生侵權事件后仍以“技術中立”進行抗辯,從事實層面將明顯超出傳統技術中立理論所保護的范疇。
2.2.1 傳統技術中立理論的應用前提
“技術中立”發軔于美國索尼案,最初被作為平衡技術進步和版權保護的解釋工具。技術中立原則缺乏制定法的依據,但是其在判例法體系下不斷發展完善。司法實踐對技術中立原則的修正過程中,技術中立被廣泛應用于技術密集型領域,并逐漸明確了技術中立不應脫離普通法中以過錯為基礎的責任規則。以我國《民法典》第一千一百九十七條對網絡服務提供者侵權責任的規定為例,判斷此類技術提供者是否與用戶承擔連帶責任的關鍵在于其是否明知或者應當知道用戶行為侵權但未采取措施,這是衡量技術提供者對技術使用者侵權行為帶來的損害結果是否具有過錯的關鍵。而技術中立的內涵在于如果技術提供者無法預料或控制一個技術被用于合法用途或非法用途,則無需僅因技術成為侵權工具而使提供者為他人的侵權行為負責[5]。可見,技術中立主要通過否定技術提供者“應當知道”技術使用者利用技術實施侵權行為的推斷,從而阻斷了技術提供者承擔連帶責任的追責路徑。
無法否認的是,承認技術中立很大程度上體現了結果導向的簡單功利主義立場。這是因為一項新技術產生之初往往能為社會生產力注入新的活力,從而在短時間內為社會經濟帶來較大幅度的增長,這種增長在社會進入平穩或者乏力的發展階段時尤具吸引力。追求效用的理性集體會自發地在立法中傾向于保護新技術的應用不受到影響,因而采取格外寬松的法律政策,包括在已有法律規則框架中以“技術中立”的立場給新技術以“優待地位”。可以說,在相當長的一段時間里,立法者達成了一種默認的觀念,即為了激勵新技術的發展,使技術的自由價值讓位于法律的秩序價值。
然而,除去現實需要的考量,從源頭探尋技術中立的價值取向,會發現此種中立理念來源于對技術具有“純粹目的工具性”的認定。對技術的工具性判定,最早可以追溯到亞里士多德,他認為相對于理論與實踐活動而言,“技藝”是一種工具性活動。韋伯對于技術本質的判斷和亞里士多德是一致的,他判定技術的本質是工具理性[6]。這些傳統的對技術本質的探尋延伸出技術本身并不帶有道德或法律責任的觀點。如果將技術等同于工具,那么必須承認工具的一大特性在于“片面可控性”。具體來說,工具本身與人類的操縱存在隔閡,即使人類能在某一方面應用工具產生積極效益,但往往無法控制工具在每一應用方面都保持相似的積極作用。
2.2.2 注意力經濟引發技術中立的要件變化
然而,注意力經濟的發展打破了技術“片面可控”的工具屬性。在這場以爭奪網絡用戶注意力為核心的變革中,雖然技術后果因為技術的迅速迭代而變得不可預測,但是技術本身的能力超越了以往的片面可控性質。在人工智能高速發展的今天,技術的進程在極短的時間間隔內實現一次次突破,達到以指數方的速率向前推進的狀態[7]。陪伴式人工智能平臺所依托的算法已經具有在單位時間內容納數以萬計的數據和信息實時流動、交互和更新的能力,對數據和信息內容的研判及審查有著全面的覺察能力、高度的感知能力和快速的處理能力。雖然當前算法技術存在黑箱問題,導致侵權人進行信息利用時的具體過程難以被清晰呈現,但是算法可以分析出侵權的所有可能路徑并識別最后的侵害結果。可以說,當前算法技術的發展水平已經不再滿足技術中立的應用條件。
追究技術中立要件變化的根源,可以發現由于技術本身具有強烈的應用性和明顯的經濟目的性,經濟往往成為技術發展的動力和方向。當前技術的迅速發展和革新是在注意力經濟背景下完成的。這種變化遵循基本的鏈式反應:注意力經濟的出現使得技術發展到新的水平,新的技術水平突破了傳統技術中立理論的應用要件。這一變化是無法逆轉的。正如馬爾庫塞所認為的,技術理性把一切都還原成單一向度的東西[8]。在技術發展得并沒有如此智能的時代,人們崇拜技術的理性,并賦予它中立地位,這既是對技術的保護,也是對技術的要求。但是當今的現實環境并不是單一維度的,經濟發展到一定程度會展現出多種樣態,并將這種多樣性傳遞到技術本身。面對變革后的技術,如果依然賦予其中立地位,會引發消極的后果:隨著陪伴式人工智能應用范圍的擴大,此種技術在社會系統中將逐漸具有基礎地位,其自主性邏輯會愈發強大,其反主體性將愈發深沉,即對人的主體性的削弱作用會愈發強烈[9]。因此,在注意力經濟下,必須以價值理性來修正工具理性,對曾經“置身事外”的平臺賦予責任,否則陪伴式人工智能等一系列新技術難以行穩致遠。
陪伴式人工智能平臺是網絡平臺歷經數字化、智能化、算法化的特殊產物,探究其侵權責任的生成應當遵循從一般到特殊的研究步驟。在傳統網絡平臺時代,平臺主要發揮著產品和服務的第三方中介功能。對于可能的侵權隱患,法律基于“避風港原則”對傳統網絡平臺賦予了“通知-刪除”責任。這一責任主要是考慮到一方面囿于平臺技術的局限性,平臺無法全面審查信息;另一方面,過度苛責平臺會造成平臺負擔加重,不利于新生事物的發展。但隨著網絡平臺趨向數字化和智能化發展,“避風港原則”向著“紅旗原則”轉變,網絡平臺被加以“標注-提醒”責任,這意味著網絡平臺的角色逐漸向“守門人”轉變。可以發現,針對網絡平臺技術的進步,立法者傾向于讓平臺承擔更多的責任。
而當算法技術大范圍應用后,網絡平臺的發展走向了又一個高潮。以算法為底層運行邏輯的平臺向著強人工智能方向發展,其性能趨近于人類本身,其運行的原理和程序均發生了更加實質和深刻的變化[10]。陪伴式人工智能平臺作為此類平臺的典型代表,其性質遠遠脫離過去法律法規對于一般網絡平臺的定義,但變革后的平臺承擔的民事責任相對滯后。因此,針對人工智能平臺來說,尤其是其中具有特殊性的陪伴式人工智能平臺,應當賦予進一步的實質責任。由于算法是人工智能平臺的基礎,因此在分析陪伴式人工智能平臺的責任之前,應先對其依托的算法進行應用評價標準界定。算法應用的評價標準是一個復雜的問題,采取寬松還是嚴格的評價標準需要結合該項算法的風險后果考慮。而陪伴式人工智能最直觀的算法風險在于用戶隱私和道德倫理。一方面,陪伴式人工智能使得人工智能系統與用戶之間能直接交互,可能導致個人隱私被泄露的概率上升,因為陪伴式人工智能對用戶的反饋機制背后涉及訪問和處理大量用戶個人數據,如聲音、圖像和行為數據,這使得個人信息更容易遭受不當使用的風險。另一方面,陪伴式人工智能可能在倫理和道德問題上缺乏判斷力,例如,在情感支持方面,它們缺乏真正的情感理解能力,只是模擬情感表達,這可能對用戶心理健康產生負面影響。隱私和倫理方面的風險直接關系到個人權益,并可能發展為危及公共安全和社會秩序的隱患。因此,在為陪伴式人工智能平臺建立相應的責任追究機制時,應當采取嚴格的態度。如果對陪伴式人工智能平臺苛以相對嚴格的責任,可以從以下兩方面進行具體的解釋:
第一,從平臺個體的微觀角度來看,當前人工智能平臺的強大算法能力本身賦予了其在侵權行為檢測和自動屏蔽方面的壓倒性優勢。弱人工智能時代對侵權行為的識別主要依靠人工審核和舉報機制,不僅效率低下,而且容易出現時間延遲和審核疏漏的情況。但隨著人工智能平臺在體量和技術能力方面不斷成長,平臺發現侵權和避免侵權的能力大大提升[11]。當前,算法能夠批量自動地整理和歸納信息,在這一過程中同時完成對信息的識別,并對特定信息實現篩選功能。可以說,算法技術隨著平臺的迭代而不斷更新,如今的算力使得算法技術不再是被保護角色,而逐漸成為足以自動監督、保護平臺運行生態的主動角色。具體來說,這種算力應用到陪伴式人工智能平臺,平臺算法可以自動分析用戶生成的內容和數據,辨別其中存在的侵權跡象,從而確保用戶能夠享受到更加安全、清潔的陪伴體驗,避免與侵權內容和行為接觸。在價值判斷層面,相對嚴格的歸責原則體現的是法律應當“譴責”具備歸責屬性的行為領域,從而在另一層面上預防責任的發生[12]。算力的發展使得傳統網絡服務提供者的責任認定規則發生了變化,平臺本身變得“可譴責”。而在平臺的客觀運行機制層面,對陪伴式人工智能平臺的“苛責”與控制論是契合的。控制論強調責任的分配應基于各方對事件發生過程中控制力的不同程度。如果某一方具備實際的控制權、管理權或能夠采取預防措施,但未能履行相應的義務以防止侵權行為,那么該方可能被認為承擔一定的責任[13]。控制論指出,任何組織之所以能夠保持自身的內在穩定性,是由于它具有取得、使用、保持和傳遞信息的方法[14]。陪伴式人工智能平臺掌握著算法技術,即使算法結果因為算法過程存在黑箱而不可控,但是對算法的運用卻是平臺能夠掌握的。總體看來,要求有能力控制侵權行為產生的平臺承擔控制義務,存在情理上的正當性和事實上的可行性。
第二,從社會整體的宏觀角度來看,由于陪伴式人工智能平臺的直接服務對象是人的情感,一旦發生侵權事件,陪伴式人工智能平臺失控的危害遠超一般人工智能平臺,與之相關的人可能不僅會遭到財產方面的損失,更為重要的是可能在精神層面造成難以磨滅的傷害,即從社會事故成本角度來看,陪伴式人工智能平臺的侵權結果成本過于龐大。正因此,比起事后追責,更應當關注事前的預防。已經有許多學者意識到對于人工智能平臺,僅僅依靠以往基于實踐經驗的事后環節規制,已經無法應對迅速迭代發展的技術風險[15]。而基于平臺現有的算力,可以發現平臺通過算法進行控制的成本必然小于危害發生后的事故成本。因此,對陪伴式人工智能平臺施以嚴格的責任,將成為平臺進行事前規制的規則動力。
明確對陪伴式人工智能平臺施加相對嚴格的算法應用評價標準后,接下來涉及具體規制路徑的選擇。需要說明的是,當前我國并無對于算法侵權責任承擔的一般性規定。盡管存在部分法律和草案提及了平臺在使用算法過程中應承擔的義務,但義務規定較為零散且缺乏針對性,這直接影響了算法侵權糾紛的法律適用[16]。究其原因,是因為當前人工智能雖然已經從弱人工智能向具有認知能力的強人工智能轉變,但其仍存在不穩定性,因此并不存在對人工智能的一般化的法律規制。這就要求在規制路徑的選擇上需要和具體的領域結合起來[17]。具體到陪伴式人工智能平臺的規制,在我國侵權法當前以過錯責任為主,無過錯責任為補充的二元歸責體系下,一方面,無過錯責任的適用具有嚴格的法定性,在法律沒有明確規定情況下,無法將其運用于陪伴式人工智能平臺的規制中;另一方面,如果適用單一的過錯責任原則,過錯的證明是一大困難,原因在于盡管陪伴式人工智能的算法風險可以確定,但是其算法應用和侵權結果之間的因果關系難以被徹底澄清,存在算法黑洞,因而強大算力壓制下的被侵權者或陷入難以舉證的困境。對于陪伴式人工智能平臺的責任規制來說,這兩種歸責方式似乎都存在不足之處。盡管如此,如果完全脫離傳統歸責原則,直接為陪伴式人工智能平臺的歸責尋找一種全新的路徑又可能落入“唯立法主義”的窠臼,最終走進“一個技術創新對應新型風險,新型風險對應一次專門立法”的誤區[18]。因此采取修正的做法是更為合適的,即從傳統歸責原則出發,結合陪伴式人工智能平臺的底層運行邏輯進行責任規制方法的改進,并在司法實踐中進行個案的靈活運用。具體可行的思路如下:
首先,在充分應用已有的分散式規則的同時,考慮陪伴式人工智能的特殊性,采取漸進的方式搭建針對其進行規制的具體框架。當前,我國已經有許多針對不同類型人工智能的規制規則,它們雖然分散于不同層級的法律淵源的具體條款中,且在技術上與陪伴式人工智能存在一定差距,但可以借鑒這些規制辦法所蘊含的共性思路,以構建關于陪伴式人工智能平臺的技術標準、法律法規、監管措施以及行業自律機制等方面的規制框架。
其次,采取修正的做法解決當前司法實踐的難題。一方面,針對過錯責任歸責中被侵權人舉證困難的問題,可以引入舉證責任倒置與減輕的原則。由于陪伴式人工智能平臺的核心算法由平臺掌控,即侵權行為施行的全部信息均在平臺控制范圍,相比于被侵權人,平臺距離過錯證據較近。采取舉證責任倒置與減輕的原則從程序上對處于舉證弱勢地位的被侵權人予以救濟,不失為一種可行的辦法[19]。另一方面,針對司法實踐中已經發生的與陪伴式人工智能平臺相關的侵權案件,司法機關在整體態度上應當采取嚴格的標準衡量陪伴式人工智能平臺的過錯,對其系統的算法、數據訓練過程、決策模型等進行詳細調查和分析,以了解其是否合理、可靠,并且符合法律、倫理和公共利益的要求,這有助于倒逼陪伴式人工智能平臺減少黑盒決策和不可預測的行為概率,提高系統的信任度。相關監管機構還可以建立獨立的案后審查機制,尤其針對侵權案件發生頻率較高的陪伴式人工智能平臺進行重點關注,以確保已有規制措施的有效執行和追蹤新樣態的不當行為。
最后,當未來陪伴式人工智能平臺技術發展到穩定水平之際,即意味著系統的功能、性能和風險可預見性已達到一定程度,并已在不同應用領域中得到了廣泛驗證,屆時結合已有的規則和司法實踐的經驗教訓,考慮社會的需求和公眾的利益,在技術趨于穩定的基礎上,建立起全面、準確和適應性強的陪伴式人工智能規制的通用規則。
在當前的社會經濟環境中,人們追求精神層面的情感陪伴的需求日益強烈,陪伴式人工智能平臺便“投其所好”,以其虛擬智能的特性提供情感體驗,這一算法技術的突破使得相關的侵權糾紛不再是“理論的假想”,而已經現實地出現,這預示著與人工智能相關的技術應用,可能成為今后一個階段為大家所直接感知的、突出的治理對象。針對陪伴式人工智能平臺行為的規范和平臺責任的分配,將成為未來立法的重點。