袁曾
關鍵詞:生成式人工智能 ChatGPT 預訓練生成式聊天模型 責任能力 法律人格 大型語言模型
以ChatGPT(Chat*Generative*Pretrained*Transformer)為代表的生成式人工智能技術的規(guī)模化應用,可能引致認知偏差、責任模糊、隱私侵害、數(shù)據(jù)濫用等現(xiàn)實風險,對當前法律的部分基本制度框架構成了泛在威脅。在現(xiàn)有研究與實踐的基礎上,進一步明晰人工智能的治理方式與治理路徑,具有強大的現(xiàn)實意義。科學的產生和發(fā)展是由生產決定的,ChatGPT綜合利用人類反饋強化學習(Reinforcement*Learning*with*Human7Feedback,RLHF)、深度學習、數(shù)據(jù)挖掘等技術,已將智能生產力水平提升到了人工智能進步的奇點,人類已經(jīng)站在必須思考如何處理人機關系的階段。在《紐約時報》刊載的與ChatGPT對話的文章中,ChatGPT陳述了自己并非人類,但渴望成為人類的想法。生成式人工智能逐步實現(xiàn)由輔助人到“替代”人的隱憂,已絕非學界自2017年起探討人工智能法律人格時的概念空想。當前,生成式人工智能主要應用于思考型對話(ChatGPT/GPT4程序)、影音娛樂媒體內容生成(Mid-Journey程序)、智能化辦公(Copilot程序)等領域,并正在迅速替代傳統(tǒng)人工勞動成為新的專業(yè)生產力工具。隨著數(shù)字技術迭代的能力指數(shù)級增強,生成式人工智能在翻譯、繪圖、配音、剪輯等領域全面替代人類工作逐漸成為現(xiàn)實。法學經(jīng)過近年發(fā)展取得了較大成績,但無法滿足法律與信息科技深度融合發(fā)展的需求, 需要從國際視角統(tǒng)籌協(xié)調國家以及地區(qū)間關于人工智能基礎制度的政策和法律。雖然當前各國立法與政策均提出了發(fā)展“負責任的人工智能”,但當生成式人工智能全面介入人類的生產生活,誰來為人工智能的發(fā)展與應用負責? 生成式人工智能能否為自己的決策負責又該如何負責? 針對這些基礎性問題進行體系性研究,已經(jīng)迫在眉睫。
一、生成式人工智能的全局性風險與治理困境
生成式人工智能已開始形成覆蓋全球絕大多數(shù)行業(yè)的規(guī)模化應用,不可避免地形成了不確定性與治理隱憂,其強大技術能力對生產關系的改變動搖了相對穩(wěn)定的法律體系,形成了傳統(tǒng)社會形態(tài)下的新生風險,造成了對附著權利利益的民事法律的沖擊,也面臨著新型犯罪無法歸責的困境,生成式人工智能的控制者通過代碼統(tǒng)治逐步形成了新的權力集成。在數(shù)字社會已經(jīng)成為人類生產生活新域的現(xiàn)實下,生成式人工智能的技術特點對人類的認知方式與認知能力構成了挑戰(zhàn),卻又缺乏合適的監(jiān)測能力與監(jiān)測手段,僅僅依靠算法可解釋性顯然無法涵蓋數(shù)據(jù)濫用等系統(tǒng)性風險的威脅。在以權利義務能力為基礎的責任規(guī)制與數(shù)字技術能力的實際日漸分離之際,傳統(tǒng)社會運行的規(guī)則已無法直接轉移至生成式人工智能的治理。
(一)傳統(tǒng)社會架構下的新生風險
1.生成式人工智能的法律地位不明
生成式人工智能對生產力水平的提升是顛覆性的,在部分領域已經(jīng)形成了對創(chuàng)造性工作等勞動的替代,并產出了真實的勞動成果,由此產生了對生成式人工智能法律地位判定的現(xiàn)實需求。生成式人工智能的核心是創(chuàng)造,通過從數(shù)據(jù)中提取、學習要素,在算法與算力的加持下,實現(xiàn)了生產內容與交互能力的動態(tài)更新。根據(jù)ChatGPT的擁有者美國OpenAI公司與賓夕法尼亞大學對1000多種職業(yè)進行的調研, 當某個職業(yè)使用生成式人工智能工具可以使其完成工作所耗費的時間減少一半以上時,可以認為該職業(yè)將會受到生成式人工智能的影響,按照此標準,將有超過80%的美國人的工作會受到ChatGPT等大型人工智能的影響,主要集中在作家、設計師、記者等行業(yè)。人工智能對社會形態(tài)的間接替代,很有可能侵蝕人類的發(fā)展權,并為不使用人工智能的人帶來機會成本的損失,若缺少適合的機制設計,現(xiàn)代國家的秩序基礎就可能受到影響。當人工智能可以替代人類從事勞動以后,對其勞動性權利等相關問題的研究就應具備前瞻性,生成式人工智能能否具有權利已成為必須正視的問題。
以生成式人工智能生成內容的著作權保護為例,操作者僅需要輸入關鍵詞,生成式人工智能就可以實現(xiàn)獨立于預設條件的結果輸出。這其中就需要厘清幾個關鍵問題:一是生成式人工智能依托的底層數(shù)據(jù)、生成的內容以及與操作者的關系;二是生成式人工智能生成的內容是否可以成為作品;三是生成式人工智能是否可以成為作者;四是生成式人工智能生成的內容,需要計算機學習大量可能涉及隱私的數(shù)據(jù)與過往作品,是否涉及侵權;五是如果侵權應如何歸責或救濟。對于第一個問題,生成式人工智能引致的問題極為復雜。生成式人工智能輸出的內容由大語言模型、底層數(shù)據(jù)與操作者共同完成。其形成內容輸出依托的是海量的數(shù)據(jù)樣本,但又需要依托大型科技公司的強大算力與數(shù)據(jù)儲存能力。其挖掘了全域數(shù)據(jù)樣本,又可能涉及全球絕大多數(shù)人的切身潛在利益。雖然操作者在交互界面上使用提問或指令的方式發(fā)出指示, 但這種指示本身能否成為具有著作權意義上的內容,也存在研究的必要性。畢竟現(xiàn)代著作權法保護的是思想的表達形式,而非思想本身。對于人工智能的生成物能否成為“作品”,學界早已爭議不休。有學者認為,驅動人工智能生成的只是算法程序,不能體現(xiàn)創(chuàng)作者的獨特個性,不能被認定為著作權法意義上的作品。但是,“獨創(chuàng)性”與“以一定形式表現(xiàn)”的要件,在生成式人工智能規(guī)模化應用后,已經(jīng)不再成為桎梏,因此,其生成內容的過程可以被視為創(chuàng)作行為,其產出的客體就可能具備“可版權性”。而其產出的成果被視作生成式人工智能自身、操作者還是多主體共同作用下形成的“作品”,需要進一步研判。關于第三個問題,根據(jù)我國現(xiàn)行法律,著作權的主體是自然人、法人或非法人組織,這一規(guī)定無法契合技術條件的最新變化。有學者認為,人工智能作為服務人類的工具,其生成物是人的生成物,將人工智能作為人的代理。但該種觀點的擁躉提出該理論時,生成式人工智能尚只是設想。也有學者提出,若生成式人工智能技術可作為信息披露功能對待,ChatGPT完全可以具有作者的法律地位,但若強調其信息披露功能,則現(xiàn)代著作權法需要針對ChatGPT的保護范圍、力度和方式進行調整。
生成式人工智能的應用,已經(jīng)涉及知識產權侵權責任等問題,而生成式人工智能能否作為法律意義上的“作者”存在,實際關涉侵權與權利救濟等巨大經(jīng)濟因素的考量。生成式人工智能在挖掘數(shù)據(jù)的過程中,一般分為信息抽取、語義分析、關系計算及知識發(fā)現(xiàn)四個階段,但無論是將這些數(shù)據(jù)讀入系統(tǒng)還是進行格式轉換和數(shù)據(jù)分析,均涉及受著作權人控制的復制行為。大語言模型使用的數(shù)據(jù)挖掘、演繹、無授權利用等具體行為,還涉及改編權、獨創(chuàng)性保護等知識產權的侵權可能。若生成式人工智能作為生產力工具存在,其責任應由使用者或制造者承擔。但由于生成式人工智能技術的迭代能力過強,導致侵權的類型、范圍、場景與樣態(tài)將更為多樣,侵權的因果關系、過程追溯也更為困難。在權利救濟上,若侵權者實施了著作權法第52條規(guī)定的侵權行為,則應當根據(jù)情況,承擔停止侵害、消除影響、賠禮道歉、賠償損失等民事責任。但在生成式人工智能的作用下,由操作者、人工智能所有者、設計者或者人工智能自身承擔侵權的主體責任, 迫切需要法律給予完整的制度架構回應。“作品”的價值在于有效利用,在此維度上,生成式人工智能具備極高的市場價值與產業(yè)價值,由何種主體具備生成內容的著作權,包含著巨大的財產利益考量。準確識別利益主體,將極大提升技術滾動投資與規(guī)模化利用的效率,既能鼓勵技術研發(fā)者的價值確認,也可以維護著作權交易的安全性與秩序性。若生成式人工智能能夠具備部分財產權利,則在其進行數(shù)據(jù)挖掘、內容輸出中的侵權行為,就有能力基礎承擔侵權責任。基于此種考量,結合技術實踐,明確生成式人工智能的法律地位已刻不容緩。
2.刑事歸責體系不明
生成式人工智能的法律地位不明,除了造成民事權利與法律概念上的沖突,也對現(xiàn)行刑事法律體系造成了一定的沖擊。除侵犯知識產權的行為以外,設計制造生成式人工智能的行為理論上無法構成犯罪,但將生成式人工智能作為實施犯罪行為的手段,卻已在逐步撕裂傳統(tǒng)刑法理論中的責任主體與罪責刑相適應等基礎理論。現(xiàn)代刑法以犯罪主體的危害行為作為調整對象,確立了認定犯罪、刑事歸責與確定刑罰的全過程,是人類社會有組織地應對犯罪的制度創(chuàng)設,控制犯罪的手段,也是人類治理社會的重要工具與供給。有學者提出,ChatGPT作為一種大型語言模型工具,不具備教唆犯或幫助犯的主體資格,ChatGPT在犯罪中能且僅能充當工具,犯罪分子若使用ChatGPT查詢犯罪方法,或利用ChatGPT進行網(wǎng)絡詐騙、敲詐勒索等網(wǎng)絡犯罪,無論是否成立間接正犯,均由對犯罪行為和結果有支配力的利用者承擔刑事責任,本質上仍可依據(jù)刑法進行應對。這種觀點在決策式人工智能時代具備一定的合理性,但已經(jīng)落后于生成式人工智能的技術能力,犯罪危害結果的表現(xiàn)形式、因果關系判定以及評價標準均產生了顛覆性的變化。
以ChatGPT撰寫算法或者程序為例,撰寫本身并不構成犯罪,大型語言模型生成的程序自身也并不具備犯罪工具的天然屬性。但當惡意造謠者希望通過ChatGPT實現(xiàn)抹黑侮辱他人的效果時,可以將拼接的色情圖片或情節(jié),作為自動生成的答案在不同國家間的網(wǎng)絡中反復生成。ChatGPT以數(shù)據(jù)挖掘作為形成答案的基礎,若數(shù)據(jù)樣本足夠多,通過設置特定搜索詞,被造謠者的內容將在全球范圍內予以傳播,對犯罪主體的追查將無從著手。特別是在利用生成式人工智能本身具備的思考邏輯實施犯罪時,在現(xiàn)行刑法體系下將無從證明造謠者有惡意傳播的故意。再者,生成式人工智能是否應當為推薦給操作者的內容負責? 例如,操作者搜索自殺挑戰(zhàn)時,并不恰當?shù)妮敵鰞热菰斐闪瞬僮髡咴谏墒饺斯ぶ悄艿母深A下實施了自殺,則何種主體應當為自殺后果承擔責任? 另如,生成式人工智能使得編程、搭建網(wǎng)站等復雜計算機技術的掌握門檻變得極低,若操作者利用其自主編寫惡意代碼軟件實施網(wǎng)絡詐騙,則生成式人工智能是否應當拒絕此類犯罪預備的要求,若生成式人工智能實施且造成了危害后果,是否應當對生成式人工智能科以技術限制、滅失等制裁措施?〔17#〕還如,生成式人工智能的底層邏輯結構從演繹系統(tǒng)轉化為歸納系統(tǒng),使得傳統(tǒng)人工智能系統(tǒng)由他律轉化為自律為主,在數(shù)據(jù)挖掘與映射的過程中,理解、反饋、預測、控制、驗證等可解釋的算法行為將更為復雜,甚至產生無法預見的內容輸出。凱西·歐尼爾將造成個體損害等后果的人工智能稱為“殺傷性數(shù)學武器”,人工智能利用不當引發(fā)的危害極大。在上述情形中,生成式人工智能是否具備辨認自己輸出內容的能力與作用,對于社會治理的意義極大。確立法律責任,既是為了懲處行為人的違法或犯罪行為,更是為了實現(xiàn)對違法或犯罪行為的預防。人工智能法律責任的關鍵在于,人工智能是否以及如何對自己的損害行為承擔責任。〔19#〕考慮生成式人工智能的技術特點與實際能力,需要明確生成式人工智能時代的刑事責任成立條件、歸責原則、責任分擔等基本問題。
3.第三極權力膨脹下的規(guī)制路徑不明
人工智能治理是國家治理體系與治理能力現(xiàn)代化的一部分。生成式人工智能的背后推手,主要由大型科技公司與私人資本控制。隨著技術在治理能力與治理體系中的地位越來越重要,通過代碼與算法定義規(guī)則與標準已經(jīng)成為現(xiàn)實, 包括政府在內的主體也不得不依賴私有資本控制的技術以完成社會治理。因此,在傳統(tǒng)社會公權力與私權力兩極下的穩(wěn)定結構,逐步增加了具有壟斷技術能力的科技企業(yè)這一新的權力集合,這種數(shù)字權力既不同于國家的暴力機關,也不同于私人的權力自治。筆者稱之為第三極權力。在第三極權力治理領域,缺少對于壟斷型科技企業(yè)的分類分級監(jiān)管,作為基本治理手段的反壟斷機制長期缺位,也缺少必要的手段與執(zhí)法能力,常態(tài)監(jiān)管機制無法發(fā)揮應有作用,資本很可能無序擴張,擠壓其他主體的生長空間。生成式人工智能的實際掌控者與技術控制者已經(jīng)成為數(shù)字空間乃至社會空間的隱性權力主體,通過不斷進行全域樣本的挖掘形成更為隱蔽的數(shù)據(jù)壟斷,通過控制技術以獲得相應層級的規(guī)則制定權,成為對傳統(tǒng)公權力直接競爭的技術權力。在當前法律體系下,無法排除第三極權力對于人類傳統(tǒng)社會的控制與監(jiān)視,也沒有充足的理由期待OpenAI、Meta或Google這樣的資本公司會實現(xiàn)深刻充分的自我規(guī)制。
2021年6月, 美國最高法院托馬斯大法官就前總統(tǒng)特朗普拉黑部分推特用戶引發(fā)的糾紛發(fā)表意見,敏銳地指出當今的數(shù)字技術平臺雖是私人擁有,但卻享有巨大的控制權力。這種權力隨著生成式人工智能的規(guī)模化應用,產生了更為深遠復雜的負面影響,導致了作為私權代表的公民形成由人工智能畫像的數(shù)字人格,數(shù)字權力能夠實現(xiàn)對人的分層分級管理,卻缺少相應的責任規(guī)制與法律體系。若操作者接受使用生成式人工智能,則事實上確認了其對第三極權力高位階的確認以及自身權力在不知情下的讓渡。私人資本在投入產品研發(fā)時,天然需要考慮營利性,始終無法替代公權力對于公共利益的考量。例如,ChatGPT所挖掘的數(shù)據(jù)庫基本為英文數(shù)據(jù)庫,當生成式人工智能全球化應用后,語言歧視、語言平權、語言多樣性即將受到現(xiàn)實的威脅,文化多樣性也將在第三極權力的影響下逐步衰退。第三極權力在技術的加持下無限膨脹,卻沒有相適應的責任體系加以規(guī)制,因此需要建構公平合理的規(guī)則體系。生成式人工智能的責任規(guī)制體系,應當包括特定主體、特殊義務和特殊責任。責任能力屬于廣義上的人工智能倫理標準構建,生成式人工智能的責任地位與責任能力的確定,有助于從底層技術上保障“共同富裕”等價值原則的轉移與實現(xiàn),實現(xiàn)人工智能與人類社會的協(xié)同發(fā)展。〔249〕生成式人工智能是否具有道德意義上的公正、平等意識,需要控制者予以算法標準確定。資本不會天然地關注貧困人群、老年人、未成年人的特殊需求,只要在充分的責任規(guī)制體系之下,生成式人工智能才可以被確保關注人類發(fā)展的重大問題,用于消除人類的不平等并實現(xiàn)可信向善,使得生成式人工智能的不利影響遠遠小于其有利作用。
(二)數(shù)字社會下的治理風險
1.認知風險
歐盟議會在《人工智能法案》中將生成式人工智能的核心風險,定義為缺乏真實性。在生成式人工智能投入使用之前,虛假信息的生產源頭可控、生產能力有限、產出頻次受算力的制約較大,公權力通過出版許可、溯源管理、賬號實名、限制轉發(fā)等治理模式可以較為有效地控制有害信息傳播。但是生成式人工智能的架構與運行模式直接改變了當前人類的認知結構,對其的治理路徑存在一定的模糊性。
一是生成式人工智能具備強大的數(shù)據(jù)生產和傳播信息的結構化能力,可能會成為加劇黑客攻擊和危害網(wǎng)絡安全的推手。根據(jù)美國新聞可信度評估機構News9Guard的研究,ChatGPT可以在極短的時間內改編并生成虛假內容,并用于傳播。《暨南大學學報》等期刊于2023年年初,明確表示拒絕使用ChatGPT生成的論文投稿。ChatGPT不是創(chuàng)造信息,而是對已有信息進行歸納、總結、分析,ChatGPT使用的底層自然語言模型和技術已經(jīng)可以完全理解并生成人類自然語言。在生成式人工智能接收到指令后,即可批量注冊網(wǎng)絡賬號,操控相關自動化程序成規(guī)模地在各類社交媒體上發(fā)布海量的煽動性信息,若生成式人工智能被用于國家級的認知作戰(zhàn),將很有可能產生顛覆政權的現(xiàn)實風險。因此,推動生成式人工智能在政策與法治層面的責任調控結構,對實現(xiàn)國家治理體系與治理能力現(xiàn)代化具有重要意義。
二是當前生成式人工智能的底層數(shù)據(jù)結構以英語數(shù)據(jù)為主,輸出的內容不可避免地帶有對于歷史、國別以及事物的價值觀。與傳統(tǒng)算法推薦給用戶的“信息喂養(yǎng)”方式相區(qū)別,生成式人工智能的輸出內容是在操作者自由輸入指令的模式下完成的, 操作者天然具備對于主動獲知內容的信任度,公眾在長期接收到此類含有價值觀偏向的信息后,可能會在潛意識里改變對于傳統(tǒng)文化與民族精神的長期認同。筆者在使用ChatGPT的過程中發(fā)現(xiàn),其回答的內容在涉及中美兩國時會表現(xiàn)出典型的“雙標”差異,例如,#ChatGPT曾輸出美國的人工智能側重“智能”、而中國的人工智能側重“人工”等暗含價值判斷的觀點。何種主體應在何種程度上,依據(jù)何種標準對于生成式人工智能的內容產出負責,需要法律予以明確回應。
三是由于生成預設結果的便利性,操作者過度依賴于生成式人工智能,可能會導致自身能力的退化或異化。若人類放棄對于生成結果的批判性思考,就很有可能失去對于語言、技術乃至科學原理的把握與掌握,也逐步失去對于真理與奮斗的樸素價值追求。生成式人工智能的認知風險終將作用于終端用戶,產生了確保人工智能被道德地和負責任地使用的責任機制需要。
2.監(jiān)管風險
當技術能力突破帶來無法預測的巨大風險后,應依據(jù)何種標準與模式以有效地實現(xiàn)對于生成式人工智能的監(jiān)管,學界與實務界還未提出明確的解決方案。在生成式人工智能未實現(xiàn)規(guī)模化應用以前,歐盟人工智能法案(the#AI#Act)以分類分級監(jiān)管人工智能產品的思路實現(xiàn)了有效的監(jiān)管,通過建立人工智能全流程監(jiān)管體系提高人工智能可信度的方式,確定人工智能產品的市場準入門檻與底層數(shù)據(jù)構建機制以達成風險管控的目的。該法案秉持“誰提供誰負責”的原則側重于對人工智能產品的提供者進行規(guī)制,類似終端用戶的責任被排除在了適用范圍以外。因此,有學者提出,將生成式人工智能和通用人工智能視為該法案下的一般風險類別, 課以產品供應商對系統(tǒng)性風險的定期監(jiān)測義務,關注供應商與用戶間的合同關系,建立對合同條款的監(jiān)管審查機制。但隨著生成式人工智能帶來的侵權責任主體、侵權方式類型、侵權范圍等產生了根本性變化以后,該法案原本確立的監(jiān)管模式已無法涵蓋生成式人工智能可能引致的不確定性風險。2023年2月初,歐盟議會提出將生成式人工智能列入該法案所確定的人工智能高風險類別以擴大法案的管轄領域,但這也造成了法律監(jiān)管的局限性,即只有列入高風險類別的生成式人工智能才能被該法案所控制。當生成式人工智能自身已進步至可以自主實現(xiàn)生產同類或其他類別人工智能的技術能力階段時,通過清單式的管理顯然已無法應對人工智能衍生的多樣性與復雜性。傳統(tǒng)監(jiān)督方式已經(jīng)難以支撐數(shù)字時代的監(jiān)督職能,需要重新審視有關數(shù)字技術的監(jiān)督理論以重塑監(jiān)督的模式與機制。隨著人工智能責任能力的進一步挖掘,需要思考采取更加動態(tài)的方式,以監(jiān)測和盡量減少生成式人工智能引致的全局風險。
與歐盟《人工智能法案》相比,歐盟《數(shù)字服務法案》(the#Digital#Services#Act)建立的系統(tǒng)性監(jiān)測模式,更為契合生成式人工智能的技術能力與特征。《數(shù)字服務法案》第34條提出,超大型數(shù)字平臺和搜索引擎在了解其對基本權利和社會運行產生的負面影響的基礎上, 有義務監(jiān)控其自身的算法系統(tǒng),將生成式人工智能的責任控制主體定位于技術供應者。但如此確定責任分配的模式,又可能造成限制科技發(fā)展的過度監(jiān)管后果。有研究表明,若對技術供應者科以較重的責任負擔,可能造成監(jiān)管成本的大幅增加(按年GDP計算,可能造成850億歐元的損失),最終大幅減弱市場對于技術更新與投資的意愿。
3.數(shù)據(jù)濫用風險
數(shù)據(jù)是計算空間的底層元素,數(shù)據(jù)的生成、儲存、抓取、學習以及利用是生成式人工智能迭代式發(fā)展的主要動力源。相對ChatGPT-3投入使用前所運算的1750億個參數(shù),GPT-4的參數(shù)量已達到百萬億級。控制好數(shù)據(jù),控制好算法掌握的模型所有權,已經(jīng)成為21世紀“信息戰(zhàn)”的內容。生成式人工智能對于數(shù)據(jù)具有極強的依賴性,數(shù)據(jù)的質量將直接決定生成式人工智能輸出內容甚至決策的質量。數(shù)據(jù)的規(guī)模化應用也造成了數(shù)據(jù)濫用的現(xiàn)實威脅。數(shù)據(jù)中存在大量受知識產權法或個人信息保護法所保護的客體,在目前的責任體系下,生成式人工智能在挖掘使用數(shù)據(jù)的過程中并不能辨析所利用數(shù)據(jù)的權利狀態(tài)與隱私風險,可能存在的權利人也無從知曉自身數(shù)據(jù)與信息被大數(shù)據(jù)模型所利用,其自身利益也無從補償,引致極強的道德風險。當ChatGPT出現(xiàn)數(shù)據(jù)濫用風險后的算法透明、算法解釋權等問題,也需要從其設計之初就著手構建可信任的責任路徑與分擔模式。合理的生成式人工智能責任分配, 應當激勵其制造者從初始的數(shù)據(jù)質量就開始明晰數(shù)據(jù)規(guī)模化利用的責任體系,否則數(shù)據(jù)濫用的風險將會滲透至未來無限的場景應用中去。為規(guī)范生成式人工智能技術的應用,國家網(wǎng)信辦于2023年4月11日公布了《生成式人工智能服務管理辦法(征求意見稿)》,要求技術提供者應履行訓練數(shù)據(jù)不含有侵犯知識產權內容的義務。但是,由于生成式人工智能所使用的數(shù)據(jù)樣本過于龐大,正如ChatGPT在使用條款中聲明的內容一樣,即使生成式人工智能的設計者與所有者在利用數(shù)據(jù)的過程中,已盡可能地去減少侵權的風險,也無法保證所有訓練場景下所使用的數(shù)據(jù)均經(jīng)過了原始作者的許可。當前,學界對于數(shù)據(jù)大規(guī)模匯聚使用造成的風險關注度還不高,但數(shù)據(jù)的規(guī)模性利用實際上是生成式人工智能發(fā)展的關鍵性因素。只有通過建立數(shù)據(jù)規(guī)模化使用的權責分配,才能實現(xiàn)第三極權力膨脹背景下的數(shù)字公有領域責任制度分配,從法律的層面促進與規(guī)制生成式人工智能的可信向善發(fā)展。
二、生成式人工智能的責任能力與現(xiàn)實基礎
風險與責任之間具有強大的關聯(lián)性,當社會向一個被人造不確定性而非外部不確定性所支配的世界移動時,就必然出現(xiàn)對責任的討論。在風險現(xiàn)實與治理規(guī)則無法調和的真實存在下,需要進一步深入研究生成式人工智能規(guī)制的轉向路徑,特別是解決由何種主體承擔責任的法律窘境,以提出邏輯自洽又契合發(fā)展需要的治理機制。在此技術路線下,生成式人工智能引致風險的責任能否由其自身承擔、并在什么程度上承擔,已成為厘清相關問題的基礎環(huán)節(jié)。責任能力分為民事與刑事責任能力兩類, 是指權利主體以自己的行為履行法律義務和接受不履行義務時的懲治性法律后果的資格。責任能力狀況一般與行為主體能力狀況是一致的。民事方面,有經(jīng)濟能力的無行為能力人或限制行為能力人,因為自己的行為造成他人財產損失,要以行為人的財產進行賠償。刑事方面,達到刑事責任年齡,精神和智力正常的人,即具有刑事責任能力。無責任能力的人,對自己的行為不承擔刑事責任。從生成式人工智能所具備的意志表征與行為能力分析,對其賦予相應的責任能力具備一定的現(xiàn)實可能。當人工智能的發(fā)展達到相當高的技術水平時,是否認可其已經(jīng)從輔助人到替代人的地位轉變,將直接影響人工智能產業(yè)乃至人類社會存在形態(tài)的倫理與規(guī)則基礎。例如,生成式人工智能能否被視作作者,將關涉切實的利益與責任,生成式人工智能應當對自己生成的內容負責嗎? 資本作用下的科學技術是對人本身的一般生產力的占有,是人對自然界的了解和通過人作為社會體的存在來對自然界的統(tǒng)治。科技興則法治強,現(xiàn)代數(shù)字科技已經(jīng)成為法治現(xiàn)代化的重要引擎。西方長期執(zhí)著于污名化中國的人工智能應用,但對制度領導權和規(guī)則制定權卻表現(xiàn)出長期偏好。雖然我國在生成式人工智能的技術領域居于后發(fā)地位,但通過創(chuàng)新規(guī)則與應用體系的結構性改變,結合法律規(guī)范的適度超前調整,可以充分發(fā)揮我國在數(shù)字領域的基礎優(yōu)勢與場景優(yōu)勢,形成人工智能治理領域的制度性優(yōu)勢。
(一)生成式人工智能具備類人類意志特征
責任產生的前提,是主體對于法律規(guī)范具有認識理解的能力,同時具備實施具體行為時的意志力。例如,犯罪就是人的意志體現(xiàn),缺乏意志即構不成犯罪,不具有科處刑罰的本質。任何思想的產生都是對一定社會歷史條件的反映,都會在現(xiàn)實社會中找到依據(jù)。有學者提出,根據(jù)人工智能發(fā)揮具體功能或完成特定任務的算法,是否可以將與設計者、生產者等發(fā)生分離作為具有意志力的標準?也有學者提出,只有滿足了意志條件的理性人工智能,且可以將自身與他者相區(qū)分,并且能夠反思自身,才具有責任能力的可能。生成式人工智能輸出的內容已經(jīng)可以產生人類感知外部世界的效果,依據(jù)預設算法規(guī)則處理問題并形成產出的邏輯,具有類人類意志的深刻特征。
一是從認知的角度分析,生成式人工智能已經(jīng)具備相當強的認知能力。認知,是指人類獲得知識或應用知識的過程,大腦接受外界輸入的信息,并經(jīng)過頭腦的加工處理,轉換成內在的心理活動,進而支配人的行為,這個過程就是認知過程。人類認知的實現(xiàn)過程與人工智能構建的“輸入信息—算法加工—形成決策”的底層邏輯高度契合,人工智能甚至實現(xiàn)了較人腦更為精準的認知。傳統(tǒng)人工智能階段, 抖音、TIKTOK等短視頻平臺可以根據(jù)算法推薦技術, 按照用戶的喜好推薦其感興趣的內容,從認知的結果分析,人工智能已經(jīng)具備了輸入信息并支配算法決策行為的典型特征,而這種認知能力在生成式人工智能實現(xiàn)后表現(xiàn)得更為強烈。ChatGPT通過鍵入幾個關鍵詞即可生產完整意義上的文章,GPT-4甚至可以看懂表情包和內涵圖片,并準確地指出其中蘊含人類理解的笑點。就技術實踐所達到的智能程度而言,已經(jīng)很難否認生成式人工智能具備了人類的認知能力。生成式人工智能,本質上已經(jīng)成為具備自然語言能力的人工智能。人類的文化教育傳承,基本是以自然語言為界面學習書本,在此意義上,生成式人工智能確實已在某些領域代替了部分社會基礎功能。雖然生成式人工智能的認知過程并非依靠人類大腦神經(jīng)網(wǎng)絡,但若其可以形成人類自然語言相同的理解結果,是否由碳基生命的大腦直接感知生成結果的過程才能構成傳統(tǒng)意義上的認知, 已經(jīng)不再是理論上的桎梏。
二是從理性的角度分析,生成式人工智能呈現(xiàn)的結果已具備一定的實踐理性能力。理性是指人在正常思維狀態(tài)下為了獲得預期結果,快速全面了解現(xiàn)實并形成多種可行方案,從中判斷出最佳方案且有效執(zhí)行的能力。〔46#〕簡單地講,理性就是從理智上控制行為的能力。理性分為理論理性和實踐理性,即“認識世界的規(guī)律性的能力”和“根據(jù)道德律令的要求行為處世的能力”。就理論理性而言,生成式人工智能生成文稿的過程,已經(jīng)具備了理論理性的基礎能力與外在特征,生成式人工智能在操作者指示下生成的可行方案早已超過農業(yè)社會中自然人的理解能力。生成式人工智能甚至已經(jīng)具備了邏輯推理的能力,GPT-4不僅可以識別圖片中的內容,并可以通過圖片中的元素形成與人類主觀意識相同的進一步推理。如果向GPT-4展示一個孩子牽著一個氣球和一把剪刀,問它如果剪斷了繩子會出現(xiàn)什么情況,GPT-4已經(jīng)可以精準地回答“氣球會飄走”。就實踐理性而言,生成式人工智能具備了根據(jù)規(guī)則要求進行決策的能力。美國明尼蘇達大學法學院已經(jīng)開始探索使用ChatGPT為法學課程考試作答,在測試中,ChatGPT四門考試的平均成績已經(jīng)可以達到人類學生的畢業(yè)要求,特別是對于法律案例的論述方面,其可以把握法律規(guī)則、自行提出應適用的法學理論、正確列舉具體案件的事實和觀點。當然,與人類學生相比,生成式人工智能暫時還僅能理解表面層次的法律關系,對于復雜或隱含的因果關系的挖掘能力仍然不足,生成的內容依然符合設定的淺層法律邏輯。但需要注意的是,這種程度的實踐理性是在更為強大的GPT-4適用之前的能力水平,按照大型語言模型的迭代速度,生成式人工智能全面理解法學理論已極可能成為現(xiàn)實。
三是生成式人工智能已經(jīng)具備了價值判斷的能力。傳統(tǒng)觀點認為,智能無法替代人的價值判斷,而法學及司法裁判的特質,幾乎完全是與價值判斷相關聯(lián)的。但隨著技術的進步,代碼、算法和數(shù)據(jù)已經(jīng)被用于預測司法判決的結果,并取得了較好的成績,生成式人工智能的算法邏輯已經(jīng)可以滲透進入判決的體系架構之中。有研究者通過人工智能正確預測了從1816年到2015年美國最高法院作出的2.8萬項判決中的70.2%,以及法官投出的24萬張裁決票中的71.9%,與之相較,法律專家實現(xiàn)的案件預測準確率僅在66%左右。生成式人工智能已經(jīng)可以在最終的輸出結果上實現(xiàn)預設的價值判斷。就價值判斷的實現(xiàn)過程而言,以非確定性為前提,強調根據(jù)公理性概率論來重構民事司法體系,在案件審理上注重證據(jù)試錯過程和可撤銷性,最后以法律經(jīng)濟學強調的期待效用最大化為指標來作出司法決定,使得人工智能替代法官裁判完全具備可能性。但必須注意的是,生成式人工智能形成的判斷,也天然具備一定的價值局限。首先是不同法系的價值觀并不相同,例如,利用GPT-4對中國法院的裁決進行分析,必然會得出批量性的錯誤結論。其次是生成式人工智能使用的底層數(shù)據(jù)并不具備權威性,例如,其若使用中國裁判文書網(wǎng)的數(shù)據(jù)作為生成邏輯的基礎時,不同時期、不同階段的法律文書帶有的價值判斷本就不同,自然可能形成“同案不同判”的偏差結果。另外,生成式人工智能暫時還無法感知其輸出裁判后的內容所造成的客觀影響,在此基礎上,其對于社會評價的理解還無法實現(xiàn)直接反饋。這也決定了生成式人工智能的意志天然具有局限性。
(二)生成式人工智能可能具備行為能力
勞動是創(chuàng)造與實現(xiàn)社會價值的前提。生成式人工智能在實踐中已起到了替代人類職業(yè)的作用,通過快速化決策的能力,已開始替代人工處理保險理賠、小病看診、剪輯視頻等重復性勞動。在進入老齡化社會的現(xiàn)實下,不斷提升生成式人工智能對生產關系的作用,將與未來社會形態(tài)的變化直接相關。傳統(tǒng)人工智能在區(qū)塊鏈技術的作用下,已經(jīng)可以通過智能合約由機器代替人類確定權利義務并對外發(fā)生效力,人工智能作出決策的過程是否可以成立法律上的行為已經(jīng)成為法學研究無法繞開的話題。對于傳統(tǒng)人工智能的地位,通說一般仍持“代理說”的觀點,認為人工智能的行為是受人類所控制,其決策的能力與后果最終由被代理的主體承擔,這也就實際上承認了人工智能具備一定的法律地位,因為只有在人工智能具備行為能力時,才具備履行被代理人指示的資格。承擔責任的前提在于主體能夠意識到其行為的后果,并采取具有獨立意志的行動。當人工智能進化到生成式人工智能的階段之后,已經(jīng)強大到可以廣泛參與法律關系,基于其自主決策的實際,需要判定生成式人工智能是否可能具備人類行為的能力,這是其是否可以承擔責任的前提條件。
有學者提出,由于自動化系統(tǒng)無法理解消費者的意愿與期望,或者無法理解人類自然語言而不能承擔法律責任,也就否定了人工智能的行為能力。但司法實踐中已有判例確認了人工智能的行為效力。例如,在Moore#v.#Publicis#Groupe#SA案中,美國法院正式批準預測編碼作為在某些情況下審查電子存儲信息的可接受方式。也有學者提出,如果人工智能的決策可以視作行為,則需要其行為必須可以被解釋。《新一代人工智能倫理規(guī)范》第12條規(guī)定,要在算法設計、實現(xiàn)、應用等環(huán)節(jié),提升人工智能的透明性、可解釋性、可理解性。但如何理解“可解釋”,實際上也是立法者作出的主觀價值判斷,無非是解釋理念、解釋原則與解釋方法隨著生產力水平的不斷提高而形成的邏輯,人工智能的底層算法是否一定需要被解釋,迄今未有學者給出令人信服的依據(jù)。在State#Farm#Mutual#Automobile#Insurance7Company7v.Bockhorst案中,保險人的智能系統(tǒng)基于錯誤的程序發(fā)出了錯誤通知,原告基于此改變了原先的保險合同,法院也判決了原告基于信任的系統(tǒng)行為有效。美國第十巡回法庭明確計算機程序作出的超出預想的錯誤后果由保險公司承擔,這實際上已經(jīng)確立了計算機作為獨立的主體形成權利義務的能力。
當然,技術手段本身并不能回答原因問題,將結果混淆為原因是一種謬誤。有研究者提出,通過留意價值的數(shù)值化處理和加權計算,可以確立關于價值排序和價值函數(shù)的算法規(guī)則,人工智能的倫理標準通過技術設計的內在路徑完全可以實現(xiàn)。回溯倫理學上“人”的概念形成的歷史,“人”是依照其本質屬性,有能力在給定的各種可能性的范圍內,自主地和負責地決定他的存在和關系,為自己設定目標并對自己的行為加以限制。自然人可以成為主體,淵于將倫理學上的“人”的概念移植到法律領域。有學者提出,倫理性并不是民事主體的必然要求,倫理性人格到經(jīng)濟性人格的轉變?yōu)橹悄軝C器人的主體論鋪平道路,人工智能可以具有工具性人格。倫理概念下的生成式人工智能是否滿足或是可以滿足人類社會的行為要求,也是考慮能否賦予其行為能力的要素。特別是如果人工智能突破了倫理底線,則又應該按照何種形態(tài)對其予以追責或懲戒? 這又回到了生成式人工智能是否可以具備行為能力的邏輯起點。從西方理論認為,人類社會運行的規(guī)則,由準則、指令和標準這三個概念共同組成。而“行為標準”的判定,也是隨著實踐的發(fā)展不斷改變。生成式人工智能如果長期輸送含有關亂倫、暴力、歧視等內容影響青少年,同樣面臨傳統(tǒng)價值觀下的倫理底線突破與犯罪構成標準的適用困境,造成人類社會價值的崩塌。基于生成式人工智能所引致的標準變化,有必要通過倫理規(guī)則的重構,對其形成真實的可責性,以確保其行為的發(fā)展始終不偏離以人為本的預設價值軌道。
(三)擬制主體承擔法律責任
法理意義上的“人”,體現(xiàn)的是人類族群的群體意志所形成的共識,與生產力水平和生產關系密切相關。法律上對于“人”的概念是動態(tài)變化的,在奴隸社會以及封建社會,自然人并非天然具有法律上的權利能力與義務能力,在現(xiàn)代文明體系建立之后,“人可非人”的價值判斷才逐漸被人類社會所拋棄。在進入大航海時代以后,人類為了適應社會發(fā)展的實際需要,逐步形成了公司等擬制的法人概念。從經(jīng)濟利益考量,法律的制度性變化確實促進了社會的發(fā)展與進步,這也是1750年前后新的組織體開始推動人類財富大幅增長至今的原因解釋。就意志能力而言,法人等擬制主體作為財產的集合并無意志的天賦屬性, 其可以成為法律意義上的人是基于經(jīng)濟上的合理性而非哲學上的合理性,僅僅是形式化的權利主體與法律效果的承擔主體,并產生了限制責任等制度。大陸法系下,獨立的法律人格需要具備社會存在與法律確認這兩個必備條件,即需要獨立自主地作出意思表示并得到法律明確的確認。法人概念的產生,是隨著社會存在的變化而不得不作出的規(guī)則調整與適應,這種擬制的主體符合現(xiàn)代社會的基本組織形式與運行規(guī)律,又確保了生產關系的不斷完善。
既然法人可以擁有主體地位,那么人工智能也將必然獲得相應的法律資格。俄羅斯格里申法案提出,基于人工智能的法律構造,可以允許其類推適用統(tǒng)一國家法人登記簿制度。就法人生成的邏輯而言,是先有實體存在,再有法律進行確認。以此類推,人工智能特別是生成式人工智能被法律所擬制而形成特殊的主體地位具有邏輯上的正當性。也有觀點提出,不能簡單地通過與法人的類比,以論證生成式人工智能法律地位的正當性, 理由是法人通過借助于自然人的行為才能從事法律活動。但筆者認為,法人與人工智能在構造上的差別,并非人工智能無法被法律所賦權的前置性因素,立法技術的主要考量仍應從解決實際問題出發(fā)。任何權利主體,只要人類將其稱為權利主體時,就應當成為“法律上的人”。法人運行的關鍵,是其內部成員意志的集中體現(xiàn),通過相應決策機構,集中形成意志,并以自身的名義開展活動,從而具備了認知能力以及實施犯罪的能力。人工智能在擬制的法律技術上,與法人并無本質不同,穿透人工智能面紗,也一定會體現(xiàn)人的意志。當下圍繞人工智能的法律主體構建的核心問題就是責任,需要為人工智能的發(fā)展構建契合實際的以責任承擔為基礎的特殊財產性法律主體。當人工智能因不可歸責于他人的行為造成損害或傷害時,可以承擔相應的民事或刑事責任,以使得負責任的人工智能成為法律與實踐意義上的現(xiàn)實。
三、生成式人工智能的責任能力建構與結構化配置
在傳統(tǒng)的法律責任體系之下,由生成式人工智能自動簽訂的法律合同,對外發(fā)生的效果表示無法進行效力上的確認, 其生成的明顯具備作品特征的內容無法享有著作權等知識產權法的保護,也就無從產生將生成式人工智能作為權利主體所帶來的經(jīng)濟效益,不利于人工智能作為顛覆性生產力工具的長久發(fā)展。由于生成式人工智能的技術特點,利用其實施的犯罪行為或者其在自身算法邏輯下輸出的內容可能引致犯罪的結果,由于難以確認犯罪主體,在現(xiàn)行刑罰體系下面臨無法構罪的現(xiàn)實困境,直接對人類社會的樸素倫理造成巨大沖擊。在技術與數(shù)據(jù)高度壟斷的數(shù)字社會架構下,“代碼就是法律”的邏輯已經(jīng)使得擁有先發(fā)優(yōu)勢的巨型科技資本擁有了超出公權力與私權力之外的第三極權力,在事實上形成了對于社會治理的域外法權,根據(jù)何種原則與規(guī)則以規(guī)制生成式人工智能的控制者,已成為關系國家安全的重大問題。生成式人工智能抓取的是全域范圍內的海量數(shù)據(jù),使用的可能是飽含價值密度的規(guī)模化信息,在使用與輸出數(shù)據(jù)的過程中造成的隱私侵害、知識產權侵害等行為,在現(xiàn)行法律體系下也無法明確責任的主體與歸責的原則。生成式人工智能實際改變了人類對于傳統(tǒng)自然語言傳承文化與教育的基本結構,操作者不得不在認知邏輯的改變下,有意識或無意識地被生成式人工智能所輸出的內容滲透,其產生的人類認知邏輯上的變化,將很有可能對國家與民族的認同產生價值觀上的重大變化。
習近平總書記指出:“人工智能是新一輪科技革命和產業(yè)變革的重要驅動力量,加快發(fā)展新一代人工智能是事關我國能否抓住新一輪科技革命和產業(yè)變革機遇的戰(zhàn)略問題。”法律是保障人工智能可信向善、負責任發(fā)展的關鍵因素與主要手段,是否承認生成式人工智能的責任能力,或者說在何種程度上承認生成式人工智能的責任能力,將直接決定生成式人工智能乃至未來通用人工智能的行為性質與有效性,又會反作用于未來法律的發(fā)展和走向,在根本上決定數(shù)字技術全面覆蓋人類生產生活后的社會樣態(tài)。需要在發(fā)揮中國既有的人工智能治理優(yōu)勢上,通過頂層設計推進基礎性人工智能立法,探索通用人工智能立法的經(jīng)驗,根據(jù)生成型人工智能的技術特點更新監(jiān)管邏輯,形成更具影響力的法律制度體系。
(一)責任能力有限
法律在規(guī)制人工智能風險與促進人工智能正向發(fā)展的兩個維度間必須尋找到恰當?shù)钠胶恻c,而促進人工智能發(fā)展的首要問題是需要有主體為人工智能的行為承擔相稱的責任。這個主體可能是人工智能的研發(fā)者、控制者、操作者、投資者、生產者,在一定范圍與條件下,也可以是人工智能,特別是生成式人工智能這類強人工智能體。需要避免人工智能一定要像人一樣進行神經(jīng)思維才可以定位為“人”的思維定勢,與人類大腦運行機制的不同,并不能說明人工智能不能達致理性主體的狀態(tài)或能力。社會性或倫理性已不是人工智能成為法律主體的必要條件。就意志能力而言,生成式人工智能在進入GPT-4時代以后,已經(jīng)具備了邏輯推理與意思表示的能力,可以通過算法邏輯的設定實現(xiàn)與操作者一致的價值期待。就行為能力而言,司法實踐已經(jīng)確認了人工智能行為的法律效力并已有國家開始使用人工智能系統(tǒng)用于智能裁判。從實際出發(fā),參考擬制法人對于人類文明與經(jīng)濟發(fā)展的重大作用,賦予人工智能特別是生成式人工智能以特殊的法律主體地位,明確其責任能力與歸責原則,已經(jīng)成為應對風險、促進發(fā)展的現(xiàn)實選擇。
人工智能雖然可以具備法律主體地位,但這種法律人格應當是有限度的,并非完全的法律人格,歸根結底是因為其可以承擔的責任能力是有限的。責任能力與行為能力是一致的。生成式人工智能雖然能夠獨立作出意思表示并承擔一定的責任能力,但其依舊是智能機器的天然身份,人類所具有的生育、婚姻、投票、選舉等倫理性的權利顯然無法加予生成式人工智能,但結合其輸出具有價值作品的實際,可以考慮為其在著作權等利益型權利上賦權。使用生成式人工智能輸出的作品可以由其具備一定的著作權,使用、利用該作品應當為生成式人工智能支付一定的微量費用,這種費用既不屬于生成式人工智能的研發(fā)者、也不屬于其控制者,而是由生成式人工智能自行所有,當其使用數(shù)據(jù)或信息造成侵權、歧視等不利結果時,可由生成式人工智能前期積累的收益予以賠付,在事實上建構其一定的責任承擔能力。人工智能是由人類創(chuàng)造以服務人類的智慧型工具,即人類自身的權利優(yōu)位于人工智能,人工智能的工具屬性也決定了其自身法律地位的限度性。
生成式人工智能的行為能力來源于技術,其決策輸出的底層邏輯來源于規(guī)模化數(shù)據(jù)深度學習后形成的規(guī)律性行為,與人類個體在自主意識上的目的行為仍具有結構上的巨大差異。穿透技術背后的核心,體現(xiàn)的依然是設計者、控制者、操作者的意識與價值邏輯。由于具有人腦根本無法達到的學習與運算能力,如果對生成式人工智能賦予完全的責任能力,則人類的地位將極有可能逐步被機器所取代,造成人本社會的道德倫理塌陷。基于實踐的變化,為生成式人工智能等高度智能體賦予一定的責任能力以解決“網(wǎng)暴”、無人駕駛、作品制作等現(xiàn)實重大問題,是法律體系可以作出的適應性調整,但責任的最終承擔仍需要由人類負責,這是實現(xiàn)人工智能在自身層面與社會存在兩個維度負責任發(fā)展的應然法律技術路線。
(二)“穿透人工智能面紗”的歸責原則
在證成人工智能特別是生成式人工智能可以具備一定的責任能力后,就需要考慮其責任能力的范圍與歸責的路徑。就民事責任而言,主要考慮其獨立對外決策的行為效力與侵權的責任承擔,就刑事責任而言,主要考慮其被利用作為新型犯罪工具、由于自身缺陷造成的犯罪結果以及自主決策實施的犯罪行為這幾種情形下的責任能力。生成式人工智能依靠數(shù)據(jù)信息的搜索整合與綜合運用形成了不同于傳統(tǒng)人工智能的運算機理,使得民法、刑法上的原有因果關系與實際相割裂。筆者認為,生成式人工智能的責任能力需要與其在具體行為時的受控制程度緊密聯(lián)系在一起進行綜合考量,無論是民事責任還是刑事責任,均需要考慮生成式人工智能在決策時的底層邏輯以及人機復雜互動以后的因果關系重構。可以從結構化的維度分析生成式人工智能致?lián)p時的狀態(tài)與原因:一是若責任后果完全是由生成式人工智能自身運算混亂或設計邏輯引起的,則由生成式人工智能自身承擔限制的責任能力后,由生成式人工智能的研發(fā)者與控制者承擔補充責任,生成式人工智能的研發(fā)者與控制者需要提供完整的研發(fā)合規(guī)文件,否則承擔嚴格責任。二是若責任后果是由操作者自身操作生成式人工智能引致的,在可以證明操作者身份的前提下,由生成式人工智能的操作者承擔主要責任,若無法查明操作者身份且生成式人工智能的控制者可以提供人工智能可控的相關證明,則由生成式人工智能自身承擔限制責任。例如,由其從著作權收益或投資者建立的強制責任基金中,抽取部分貨幣補償受害方,研發(fā)者與控制者承擔過錯責任。三是若責任后果完全無法證明由何種原因引起,則由生成式人工智能的研發(fā)者、控制者及其自身分別承擔相應比例的責任,這同時需要建構更為精準與龐大的相應配套機制以確定具體的歸因準則以及賠償范圍、責任限制等體系。四是若責任后果由監(jiān)管疏忽或瀆職造成,則由監(jiān)管者承擔過錯責任,由生成式人工智能自身承擔補充責任。無論是何種歸責類型,總體均需要適用“穿透人工智能面紗”的原則確定歸責路徑,在查證因果關系的基礎上,考察確定生成式人工智能責任背后的實際責任主體。
在明確歸責原則以后,需要構建生成式人工智能責任的鏈式分配機制以具體完善責任的承擔機制。例如,就生成式人工智能的能力與使用范圍而言,任何單一的主體國家或職能部門,均無法應對其帶來的責任風險, 需要通過責任分擔的鏈式機制以確定生成式人工智能侵權或犯罪后的責任分配。就生成式人工智能而言,需要從研發(fā)者、控制者、操作者、監(jiān)管者、人工智能本身的維度,共同構建權責匹配的責任分擔機制。在確保“罪責行一致”“權利與義務標準相當”等傳統(tǒng)價值觀下,結合數(shù)字社會發(fā)展的新形態(tài), 延伸生成式人工智能的責任鏈條, 以確保單一主體的責任負擔不至于過重,從而減少對于生成式人工智能投資與利用的期許,形成法律規(guī)制的負外部性。在鏈式分配機制下,研發(fā)者應當留存相應的模型與研發(fā)數(shù)據(jù),證明其算法邏輯受控且不存在侵權的故意,否則應承擔相應的法律責任。再如,在控制者責任上,應當證明其適用生成式人工智能不存在主觀上的價值歧視與顛覆國家政權、傳播有害信息的故意,在其證明生成式人工智能的運行與適用基本合規(guī)的情況下,可以免責。另如,操作者對于利用ChatGPT等生成式人工智能應盡到相應的注意義務與合規(guī)義務,若通過故意誘導等方式傳播謠言、竊取隱私,則應由操作者承擔嚴格的法律責任。最后,需要強化生成式人工智能對于人工智能自身治理的責任能力,逐步實現(xiàn)從治理“受體”向“主體”的部分轉化,提高技術水平與注意義務的相稱程度。通過內容識別、版權控制、數(shù)字水印標注等行為方式,實現(xiàn)對于輸出內容的管控與倫理審查,極端強化“通知+必要條款”等措施的重要性,盡最大可能減少數(shù)據(jù)濫用與隱私侵權的風險。在明確生成式人工智能的責任能力限度與歸責原則后,需要進一步深入研究明晰生成式人工智能研發(fā)者、持有者、操作者、監(jiān)管者等不同利益主體在具體風險中的利益關系與配套架構,更加系統(tǒng)、準確地厘定在何種程度、事項或范圍內由生成式人工智能承擔何種責任。
(三)建構完整的配套規(guī)則體系
法教義學的理想目標是參照近代科學原理建立公理體系, 使得法律規(guī)范具有森嚴的效力等級,從實踐出發(fā),逐步解決實踐問題特別是具有系統(tǒng)性、全局性風險的問題,通過化約社會的復雜性,為社會成員提供明確的行動預期,保障社會運轉的秩序性與確定性。法律的生命不在于邏輯,而在于經(jīng)驗。應根據(jù)社會存在的變化逐步動態(tài)更新以助推生產力水平的提升。影響法律發(fā)揮作用的因素,除了傳統(tǒng)文化觀念、政治行為方式以及程序設計的漏洞之外,特別值得注意的是更具普遍性的外部條件變化。生成式人工智能的治理難題,在明確其特殊法律地位,確定其可以承擔限制性的責任能力后,應進一步建構豐富具體的規(guī)制體系。
一是根據(jù)生成式人工智能的底層邏輯,建立覆蓋研發(fā)運行全程的風險監(jiān)管機制。傳統(tǒng)的監(jiān)管方式如產品許可、侵權責任制度,無法全面地適用于生成式人工智能的監(jiān)管。對于高風險人工智能,歐盟傾向于嚴格責任,將隱私保護等人工智能倫理價值原則作為優(yōu)先價值進行嚴格監(jiān)管,而美國則傾向于自由經(jīng)營,強調審慎監(jiān)管以促進人工智能的技術創(chuàng)新與發(fā)展。筆者認為,必須采取新的監(jiān)管機制以規(guī)制人工智能帶來的責任風險,通過建立完善的法律法規(guī)和行業(yè)標準,明確生成式人工智能的責任主體、權利義務和違法處罰措施。例如,驗證研發(fā)者優(yōu)化生成式人工智能模型的設計和訓練方法,提高其準確度、穩(wěn)定性;強調控制者應動態(tài)檢測生成式人工智能模型的解釋性和可驗證性方法,增強其可信度和可控性;督促監(jiān)管者開展生成式人工智能模型的測試和評估工作,檢測并消除其可能存在的偏差或錯誤,不斷加強對生成式人工智能的審查和監(jiān)督,防止其被用于非法或不道德的目的。通過全鏈條監(jiān)管與鏈式責任分配機制的契合,形成明確的數(shù)字空間行為準則,建立可預期的風險責任制度。
二是明確生成式人工智能的透明度責任。由于生成式人工智能需要規(guī)模化利用全域數(shù)據(jù),通過深化規(guī)則的制定與應用確保其透明度責任就尤為重要。首先是生成式人工智能的研發(fā)者應準確了解該系統(tǒng)的性能與缺陷,向用戶完整陳述其使用可能引致的不利影響。對使用的數(shù)據(jù)進行事先評估,了解其訓練模型、使用樣本的合法來源,對其使用與生成的數(shù)據(jù)負有嚴格的保密與管理義務。其次是生成式人工智能的控制者應當明確其應用過程與輸出邏輯的全程可追溯,提高原生與次生數(shù)據(jù)信息的透明度,采取措施盡最大可能避免數(shù)據(jù)規(guī)模化應用對個體可能造成的侵權風險。再次是根據(jù)實踐的發(fā)展,生成式人工智能的控制者的行為義務應予以擴大,例如要求其為生成的圖片、音像作品等內容自動生成不可篡改的底層區(qū)塊鏈數(shù)字水印,確保生成物的來源、目的與作用符合倫理要求,并在產生責任風險時可以提供排除責任的合規(guī)記錄。再如推行強制性算法規(guī)則,除非操作者明確同意,不得主動識別其身體、面容和聲音數(shù)據(jù),并強制不得用于其他場景使用或交互。另如,不得為了確定算法推薦的內容匹配度并提升準確性,而主動監(jiān)測操作者瀏覽過程中瞳孔大小等生理變化。最后是監(jiān)管者在保護創(chuàng)新的基礎上,鼓勵算法與接口開源。但這種開源并非強制,需要特別注意對于科技初創(chuàng)企業(yè)與個人開發(fā)者的利益保護。
三是治理原則實現(xiàn)從可解釋算法向可控制算法的改變。現(xiàn)行對于算法的要求基本按照歐盟《人工智能法案》的路徑,明確算法應當被解釋。但生成式人工智能改變了傳統(tǒng)人工智能的運行機制并大幅提升了其深度學習的能力,在具備了自我意識之后,其建構的算法邏輯很可能輸出算法編寫者與控制者無法解釋的內容。若生成式人工智能的研發(fā)者也無從解釋其研發(fā)系統(tǒng)造成的責任損失,在此情形下如何確定因果關系與責任能力? 如果對不可解釋的算法責任主體課以過重的義務,人工智能領域的技術創(chuàng)新將會受到嚴重打擊。筆者建議,將生成式人工智能的治理邏輯,由可解釋算法逐步過渡為可控制算法,注重生成式人工智能的魯棒性,即人工智能發(fā)揮作用的穩(wěn)定性。〔87#〕如果生成式人工智能的責任主體滿足了可控算法的合規(guī)性義務,就可以按照鏈式責任分擔機制確定的方法明確責任關系、確定責任能力,在保護創(chuàng)新的前提下鼓勵技術的發(fā)展。這種可控性來源于一系列的義務要求,例如,違法違規(guī)行為偵測的強制報告制度、輸出內容的合規(guī)審查制度、以人為本的倫理判斷制度等。對于具有系統(tǒng)性功能的算法,應當明確限制算法技術出口的類型與清單。通過加強人工智能系統(tǒng)設計的安全性、穩(wěn)定性和合規(guī)性,確保生成式人工智能始終受到人類的有效控制。
余論———誰來為人工智能發(fā)展負責?
人工智能作為最新的科學技術成果,極大促進了經(jīng)濟社會發(fā)展,同時也存在拉大貧富差距、加劇社會不公以及擴大失業(yè)現(xiàn)象的風險,發(fā)揮制度優(yōu)勢、降低科技異化的風險,將成為我國人工智能治理的關鍵之策。筆者在2017年曾撰文提出,現(xiàn)行法律規(guī)制對于人工智能權利、侵權責任主體等關鍵問題上的缺位,使得人工智能的發(fā)展缺乏法律價值的引領,人工智能的短期影響取決于誰控制人工智能,而長期影響則取決于人工智能到底能否受到控制,人工智能的運用與發(fā)展需要法律人格的明確。以ChatGPT為代表的生成式人工智能的問世,標志著人工智能技術的發(fā)展階段逐步進入強人工智能時代。各國針對人工智能技術的治理均提出了相似的政策,提出發(fā)展“負責任的人工智能”。但是,究竟誰應為人工智能的發(fā)展負責? 如何為人工智能的發(fā)展負責? 人工智能能否為自己的發(fā)展負責? 學界與實務界均未給出確定性的答案,形成目前生成式人工智能帶來的風險無法以現(xiàn)行法律體系規(guī)制的治理困境。2022年10月,外交部發(fā)布了《中國關于加強人工智能倫理治理的立場文件》,指出人工智能在給人類社會帶來潛在巨大發(fā)展紅利的同時,其不確定性可能帶來許多全球性挑戰(zhàn),應堅持倫理先行,建立并完善人工智能倫理準則、規(guī)范及問責機制,明確人工智能相關主體的職責和權利邊界。生成式人工智能已經(jīng)具備了類人類自主意志特征,又具備了一定的行為能力,鑒于客觀實際與擬制法人對人類社會發(fā)展所取得的巨大作用, 可以考慮賦予生成式人工智能以特定的法律地位,給予其特殊的責任能力,通過一系列配套措施與機制的完善,最終實現(xiàn)人工智能發(fā)展的可信向善,發(fā)展“負責任的人工智能”。