吳育珊 杜 昕
2023年4月28日,中共中央政治局召開會議[1],明確指出要重視通用人工智能發展,營造創新生態,重視防范風險。相較于具有領域局限性的專用人工智能(Artificial Narrow Intelligence,簡稱“ANI”),通用人工智能(Artificial General Intelligence,簡稱“AGI”)減少了對特定領域知識的依賴性、提高了處理任務的普適性,是人工智能未來的發展方向[2]。這意味著人工智能將廣泛應用于包括法律在內的諸多領域,2023年1月30日世界首份應用ChatGPT輔助作出的判決[3]就是例證之一。在這一背景下,人類與人工智能之間的關系定位也引發全球熱議。
就我國立法而言,2022年12月8日,最高人民法院印發《關于規范和加強人工智能司法應用的意見》[4],明確要求堅持人工智能對審判工作的輔助性定位,并將之確立為人工智能司法應用的基本原則之一。這是人工智能之輔助性定位原則在司法應用方面的體現,明確了人工智能司法應用中的人機關系。人工智能之輔助性定位原則是如何提出的?具有怎樣的功能?在此基礎上討論其規范構造,是本文的問題意識所在。
當前,人工智能發展再一次邁入關鍵時期,以生成式人工智能(Generative AI或AI Generated Content,簡稱“AIGC”)[5]為代表的新技術、新應用不斷打破人們對于人工智能的固有認知,人工智能的應用正由機械延伸人類能力向生成創意內容以啟發人類創造力的方向邁進。隨著自然語言處理和計算機視覺技術的進步,生成式人工智能研發不斷深入,其應用場景涵蓋教育、醫療、法律、文學、傳媒、影音創作、圖表制作、算法編程、軟件開發等諸多需要文本生成、圖像生成或其他有內容生成任務的領域。在具體應用過程,最前沿的人工智能不僅可以進行自動、機械地勞動作業,還可以生成具有啟發價值的結果,為人類進一步深度創造提供參考素材。這意味著,人類在未來各個場景的工作效率將大幅提升,工作內容將朝著更具創造性的方向發展,工作形式也將更加自由。換言之,人工智能的發展不僅會改變人類的物質生產形態,還將逐步改變人類的思想生產形態,實現由機械性賦能向創造性賦智轉變[6]。在這一背景下,討論人工智能與人類之間的關系定位變得至關重要。
人工智能與人類之間的關系定位所映射的法律問題為“是否應賦予人工智能以法律主體資格”。根據目前人工智能最前沿的GPT-4的技術報告[7]顯示,其在許多領域的專業基準上已表現出與人類相當甚至更為優秀的水平,這意味著以自然語言處理和計算機視覺技術為基礎并且具備深度學習能力的人工智能已經可以通過大數據訓練進行自主決策或對環境作出自主回應。人工智能的這種內生自主性特征引發了“是否應賦予人工智能以法律主體資格”的爭論。具體觀點主張如下:
不賦予人工智能以法律主體資格。這一觀點對應了安德魯·芬伯格[8]劃分的工具理論(Instrumental Theory),工具理論的主要代表人物是卡爾·雅斯貝斯,他認為“技術本身既無善也無惡,但它既可用于善也可用于惡。它本身不包含任何理念,既不包含完美的理念,也不包含邪惡的毀滅理念。善惡的理念都源自于人,是人賦予技術以意義”[9]。工具理論因其更符合常識而被學界廣泛接受,例如有學者認為“電子計算機沒有好惡、親疏等感情因素,在某種程度上可以避免法律工作者憑自己的情感,一時的沖動來處理問題”[10];有學者提出要“實現對人的行為而非對技術本身的規制”[11];還有學者指出“就技術實質而言,算法本身是中立的”[12]等。然而,人工智能目前已經呈現出內生自主性特征,算法設計者無法預知算法經過訓練自主迭代生成的新算法,亦即人類無法像過去掌控工具一樣完全絕對地控制人工智能,工具理論已不再契合實際情況。對此,有觀點提出應賦予人工智能以法律主體資格。
賦予人工智能以完全法律主體資格。與工具理論相對的是實體理論(Substantive Theory),主要代表人物是雅克·埃呂爾[13]和馬丁·海德格爾[14]。實體理論主張跳出人類中心主義的局限,摒棄人類作為主體、技術作為客體的“主客二分”預設,認為現代科技是一個具備內生自主性且有擴張傾向的價值實體。在實體理論的啟發下,有觀點結合人工智能的發展實際提出應賦予其以完全法律主體資格,勞倫斯·索勒姆[15]是這一觀點的代表人物,他認為當人工智能通過圖靈測試,擁有與人類等同的所有功能,亦即發展成所謂超級人工智能(Artificial Super Intelligence,簡稱“SuperAI”或“ASI”)[16]時,就可以成為憲法意義上的主體。然而,即使人工智能發展到通過圖靈測試的水平,在行為與功能方面表現出類人甚至超人的應對能力,這種應對能力也只是基于訓練數據做出的概率性優化選擇,其自身既無法像人類一樣體會享有權利的激勵,也難以感知受到懲罰的悔過。換言之,人工智能并不能與其他法律主體享有同等的權利、履行同等的義務,也不能代替其他法律主體實施特定行為,這使得賦予人工智能以完全法律主體資格喪失應有的規范意義。
賦予人工智能以適當法律主體資格。如前所述,不賦予人工智能以法律主體資格或賦予完全法律主體資格都不契合目前的發展實際,所以需要平衡工具理論與實體理論的主張,在人類與工具之間擬制新的主體,亦即賦予人工智能以適當法律主體資格。蘇珊娜·貝克[17]是這一觀點的代表人物,其論證由類人性和制度性兩部分組成。就類人性而言,人工智能只能通過深度學習模仿人類的情感,但卻無法真切感知,不存在享有權利的激勵感或受到懲罰的悔過感,賦予其與自然人同等的完全法律主體資格是無意義的;就制度性而言,具有內生自主性的人工智能可以看作一個復雜的算法系統,包含各個獨立要素之間的多重相互作用,越是先進的人工智能,其系統越復雜,預測其行為就越困難,不確定性就越明顯,對其行為后果的原因追溯也就越不可能,為解決這一問題,可以類比公司的法律人格擬制一個制度性主體,賦予人工智能以適當法律主體資格。
然而,要賦予人工智能以適當法律主體資格還需解決一個前置性問題,即人工智能是否具有獨立且單一的意志,這是因為無論自然人還是擬制的法人格主體都因其具有獨立且單一的意志而成為法律主體[18],如果人工智能不滿足這一條件,那么也無法賦予其法律主體資格。結合前文論述不難發現,具備內生自主性特征的人工智能有學習迭代的擴張傾向,其系統的復雜性使人類難以完全絕對地控制這一傾向,所以人工智能具有獨立且單一的意志,且這種意志具有擴張性。這是人工智能由專用向通用發展的必然結果,應當正視其獨立意志,賦予其以適當法律主體資格,才能引導其良性發展,確保人類在人機關系中占據主導地位。因此,賦予人工智能以適當法律主體資格是較為現實的主張。從這一觀點出發,人工智能在人機關系中應始終處于輔助性定位,不能與其他法律主體享有同等的權利履行同等的義務,不能代替其他法律主體實施特定行為,只能在輔助性定位范圍內實施行為,享有權利,履行義務,亦即人工智能之輔助性定位原則。
目前,明確提出人工智能之輔助性定位原則的規范性文件是最高人民法院印發的《關于規范和加強人工智能司法應用的意見》,并命名為“輔助審判原則”。其內容表述為“無論技術發展到何種水平,人工智能都不得代替法官裁判,人工智能輔助結果僅可作為審判工作或審判監督管理的參考,確保司法裁判始終由審判人員作出,裁判職權始終由審判組織行使,司法責任最終由裁判者承擔”。根據這一表述并結合前文論述,不難發現人工智能之輔助性定位原則的內容應包含三個要素,一是人工智能僅具有適當法律主體資格,不能與其他法律主體享有同等的權利、履行同等的義務,對應“輔助審判”的要求;二是規范人工智能的研發和應用行為,亦即人工智能只能在輔助性定位范圍內實施行為、享有權利、履行義務,對應“人工智能輔助結果僅可作為審判工作或審判監督管理的參考”;三是調整人工智能與其他法律主體之間的關系,人工智能的適當法律主體資格是因現實需要而擬制的,這意味著人工智能實施行為、享有權利、履行義務以及承擔法律責任的方式都不同于其他法律主體,不能代替其他法律主體實施特定行為,對應“不得代替法官裁判”,“確保司法裁判始終由審判人員作出,裁判職權始終由審判組織行使,司法責任最終由裁判者承擔”。
“是否應賦予人工智能以法律主體資格”是人工智能與人類之間的關系定位所映射的法律問題,而人工智能與人類之間的關系定位則是科技倫理治理的重要內容。科技倫理是人工智能研發和應用需要遵循的價值理念和行為規范,是促進人工智能良性發展的重要保障。對此,中共中央辦公廳、國務院辦公廳印發的《關于加強科技倫理治理的意見》[19]明確提出“倫理先行”的治理要求,將科技倫理治理擺在事關全局的重要位置。結合前文論述,賦予人工智能以適當法律主體資格更加貼近現實,有利于在統籌發展和安全的同時確保人類在人機關系中占據主導地位,而人工智能之輔助性定位原則正是這一觀點的制度具現。所以人工智能之輔助性定位原則可以通過其科技倫理內涵來指導人工智能的研發和應用方向。
人工智能已經具備了內生自主性特征,這意味著人類難以完全預知人工智能的輸出結果,亦即人工智能存在輸出結果失控從而危及安全的風險。安全風險具體表現為技術的無序擴張,究其誘因在于資本化的人工智能造成的倫理困境以及人工智能自身的技術局限。
即便最前沿的人工智能也需依靠其背后的技術資本才能進行研發并推廣應用,而技術資本本身就有擴張的傾向,這種傾向將直接影響人工智能的發展。例如,研發ChatGPT的OpenAI成立的初衷旨在確保人工智能造福全人類,其核心目標并非盈利,所以開放是其最顯著的特征,全球研發者都可以通過其提供的開發與研究框架投入到人工智能的研究當中,然而隨著資本的注入,OpenAI開始逐步設置技術壁壘,逐漸將盈利確立為首要目標,背離了創立的初衷?!爱斮Y本迫使科學為自己服務時,它總是迫使勞動的反叛之手就范”[20],智能時代資本化的人工智能對人類的剝削手段將更加多樣化、隱性化、離散化,并將借助資本擴張的傾向實現自身的無序擴張,極易導致人類喪失人機關系中的主導地位,從而造成倫理困境。而人工智能之輔助性定位原則將人工智能的研發和應用嚴格限制在輔助性定位范圍內,為防范技術資本無序擴張提供了制度保障,可以有效破解倫理困境。除了資本化的人工智能造成的倫理困境之外,人工智能自身的技術局限也會誘發安全風險。根據GPT-4的技術報告顯示,其預訓練數據是從互聯網上獲取的截至2021年9月的公開數據,缺乏對2021年9月以后發生事件的知識,有一定的時效性局限。預訓練數據的時效性局限和人工智能持續學習能力的欠缺,會使其難以從經驗中汲取教訓,以至于會犯一些簡單的推理錯誤,表現為過分容易接受用戶的明顯錯誤陳述,從而導致輸出結果失控。此外,輸出結果失控還可能與算法局限有關,例如Transformer架構下詞匯間兩兩計算的推理方式就可能導致GPT-4在推理過程中憑空捏造事實,特別是在模棱兩可的上下文推斷當中,最有可能發生這一情形。人工智能之輔助性定位原則要求人工智能僅具有適當法律主體資格,不能代替其他法律主體實施特定行為,其承擔法律責任的方式也不同于其他法律主體,所以在該原則指導下配合標準化定型規則可以為規制人工智能自身的技術局限提供現實路徑。
賦予人工智能以適當法律主體資格。因為人工智能的算法模型日趨復雜,難以實現可解釋性目標,這意味著人工智能已呈現出內生自主性,可以實施人類難以完全控制的、自發自主的行為,且從生成式人工智能的技術原理出發,有創意內容生成同樣意味著人工智能必然可以實施人類難以預料的自發行為,所以即便從人類自身利益出發,也應完善現行法律制度賦予其以法律主體資格。又因為無論技術發展到何種水平,人工智能都無法與人類等同,其法律地位也必須低于人類,所以僅可賦予其以適當法律主體資格。
人工智能之輔助性定位的內涵必然不同于工具性定位,輔助性定位是人工智能介于其他法律主體與工具客體之間的擬制法律主體定位,而工具性定位的規范則早已被傳統法律體系所涵蓋。所以,只有在人工智能僅具有適當法律主體資格的情況下,才能討論人工智能之輔助性定位原則的規范構造。換言之,人工智能具有且僅具有適當法律主體資格是適用人工智能之輔助性定位原則的前提條件。因此,完善相關立法,賦予人工智能以適當法律主體資格是人工智能之輔助性定位原則的實體構造之一。
規范人工智能的研發和應用行為。人工智能的研發行為需要嚴格遵循科技倫理,且以人為本是科技倫理法律化的底線[21],所以研發者必須秉持造福人類的初衷研發人工智能,堅持人工智能服務人類的研發導向,促進人類社會和平發展和可持續發展,最大限度地避免對人類造成傷害或潛在威脅。而人工智能之輔助性定位原則可以通過其科技倫理內涵來指導人工智能的研發方向,并可以配合標準化定型規則從源頭規制安全風險,加之輔助性定位對應著以人為本的科技倫理法律化底線,因此人工智能之輔助性定位原則規范人工智能的研發行為。人工智能之輔助性定位原則要求人工智能僅具有適當法律主體資格,所以人工智能不能與其他法律主體享有同等的權利、履行同等的義務,不能代替其他法律主體實施特定行為。這不僅意味著人工智能只能在輔助性定位范圍內實施行為、享有權利、履行義務,還意味著其應用行為也只能局限在輔助性定位范圍內,確保人類在人工智能的應用過程占據主導地位。
調整人工智能與其他法律主體之間的關系。因為人工智能的適當法律主體資格是因現實需要而擬制的,介于其他法律主體與工具客體之間,始終處于輔助性定位,這不僅意味著人工智能實施行為、享有權利、履行義務以及承擔法律責任的方式都不同于其他法律主體,還意味著人工智能與其他法律主體的關系應當是輔助性關系,不能代替其他法律主體實施特定行為。換言之,人工智能之輔助性定位原則旨在調整人工智能與其他法律主體之間的關系,確保人工智能始終處于輔助性定位。
1.內生自主性特征評估。因為人工智能之輔助性定位原則要求人工智能僅具有適當法律主體資格,而具有適當法律主體資格的前提是人工智能具備人類難以完全絕對地控制的內生自主性特征,所以內生自主性特征評估是適用該原則的首要程序。在具體實踐當中,內生自主性特征評估應包括三個要素:深度學習能力評估、內容生成能力評估和自適應能力評估。
人工智能研發的核心問題是使其可以從現象中發現規律,而深度學習能力就是旨在針對復雜特征的事物,通過多層次地學習相關數據來提煉一般規律。常用的深度學習模型是多層神經網絡,多層神經網絡的每一層都將輸入非線性映射,通過多層非線性映射的堆疊,可以在深層神經網絡中計算出抽象的特征來幫助提煉一般規律[22]。不難發現,深度學習能力極大提升了人工智能在復雜的現實環境中提煉一般規律的水平,是其具備內生自主性特征的基礎。因此,深度學習能力評估是內生自主性特征評估的基礎。內容生成能力決定了人工智能是否能通過深度學習進行內容創造,內容生成能力越強的人工智能,智能化水平就越高,越容易產生內生自主性特征。因此,內容生成能力評估是內生自主性特征評估的前提。自適應能力意味著人工智能可以通過持續學習自主迭代適應不斷變化的環境,自適應能力是人類難以像控制工具一樣完全、絕對地控制人工智能的原因,是人工智能具有獨立且單一意志的體現。因此,自適應能力評估也是內生自主性特征評估要素之一。
2.標準化安全定型。標準化安全定型是我國許多法律規范科技研發和應用的立法思路。就科技研發而言,《中華人民共和國科學技術進步法》[23]第三十七條規定國家推動科學技術研究開發與產品、服務標準制定相結合。就科技應用而言,在國家治理層面,《中華人民共和國行政處罰法》[24]第四十一條第一款規定輔助執法的技術應當經過法制和技術審核,確保技術設備符合標準;在社會治理層面,《中華人民共和國個人信息保護法》[25]第六十二條規定國家網信部門統籌協調有關部門依據本法針對新技術、新應用制定專門的個人信息保護規則、標準,《中華人民共和國數據安全法》[26]第十七條規定國務院標準化行政主管部門和國務院有關部門根據各自的職責組織制定并適時修訂有關數據開發利用技術、產品和數據安全相關標準。
根據GPT-4的技術報告顯示,其在安全性方面的提升得益于OpenAI的對抗性測試計劃,這意味著針對人工智能研發和應用存在的安全風險,可以通過標準化安全定型進行規制。結合《生成式人工智能服務管理辦法(征求意見稿)》[27]第六條內容可以發現,實施標準化安全定型也是目前防范化解人工智能安全風險的立法思路。因此,標準化安全定型是防范化解安全風險的有效路徑,是人工智能之輔助性定位原則規制安全風險以規范人工智能的研發和應用行為的程序要求。
3.人工智能失控的救濟機制。由于安全是相對的而不是絕對的[28],即便進行了充分的標準化安全定型,人工智能仍然有超出設計者預設的安全方案而導致輸出失控以至于發生侵害的可能,所以人工智能之輔助性定位原則的程序構造還應包括人工智能失控的救濟機制。又因為人工智能的適當法律主體資格是因現實需要而擬制的,其實施行為、享有權利、履行義務以及承擔法律責任的方式都不同于其他法律主體,所以人工智能輸出失控以至于發生侵害時,需要特殊的救濟機制。
首先,造福人類是人工智能研發和應用的初衷,所以人類自身的權利優位于人工智能,當人工智能享有的權利與人類自身的權利發生沖突時,人工智能應讓位于人類,例如人工智能有獲取數據以進行深度學習的權利,但獲取數據的行為必須經過人類授權許可,且人類有權收回授權。其次,人工智能對其創造生成的內容享有知識產權,可以獲得一定的收益,當人工智能造成侵害時,可由前期積累的收益予以賠付。此外,人工智能的研發者和應用者也應從其研發和應用活動獲得的收益中劃撥出一部分為其購買強制性保險,從而避免救濟不能的情況發生。最后,當人工智能經過深度學習迭代生成的新算法的危險性已完全不可控時,應及時格式化處理,終止該人工智能的應用。
因為具備人類難以完全、絕對地控制的內生自主性特征是賦予人工智能以法律主體資格的前提,所以無內生自主性或內生自主性完全可控的人工智能不具有法律主體資格,在人機關系中處于工具定位。無內生自主性或內生自主性完全可控的人工智能屬于弱人工智能(Weak AI)或專用人工智能范疇,目前已被廣泛應用,例如2016年判決的“威斯康星州訴盧米斯”[29]案就應用了分析式人工智能(Analytical AI)對被告進行累犯風險評估,以便為量刑提供科學的參考依據。相較于通用人工智能,專用人工智能的深度學習能力較弱,且不具備內容生成能力和自適應能力,即使可以在如大數據分析等特定應用方面表現出較強的優勢,其活動的實施仍然完全依賴于操作者下達的指令,不會根據外部環境的變化修正原定方案,沒有獨立自主的意志,本質上屬于人類用以提高自身能力的工具。而人工智能之輔助性定位不同于工具性定位,工具性定位意味著專用人工智能的法律屬性是客體,只需適用現有法律體系的一般規定即可,不適用人工智能之輔助性定位原則,是該原則的例外情形。
人工智能是建設現代化產業體系、推動高質量發展、服務“以中國式現代化推進中華民族偉大復興”的新的增長引擎之一。明確人工智能之輔助性定位原則,有助于回應人工智能具備內生自主性特征的現實情況,指導人工智能的研發和應用方向,規制人工智能的安全風險,把握人工智能應用場景由賦能向賦智轉變所帶來的機遇,引導人工智能的良性發展。通過剖析人工智能之輔助性定位原則的規范構造,有助于完善人工智能相關法律制度的學理解釋,為相關領域進一步立法提供政策建議。