袁曾
關鍵詞:生成式人工智能 ChatGPT 預訓練生成式聊天模型 責任能力 法律人格 大型語言模型
以ChatGPT(Chat*Generative*Pretrained*Transformer)為代表的生成式人工智能技術的規模化應用,可能引致認知偏差、責任模糊、隱私侵害、數據濫用等現實風險,對當前法律的部分基本制度框架構成了泛在威脅。在現有研究與實踐的基礎上,進一步明晰人工智能的治理方式與治理路徑,具有強大的現實意義。科學的產生和發展是由生產決定的,ChatGPT綜合利用人類反饋強化學習(Reinforcement*Learning*with*Human7Feedback,RLHF)、深度學習、數據挖掘等技術,已將智能生產力水平提升到了人工智能進步的奇點,人類已經站在必須思考如何處理人機關系的階段。在《紐約時報》刊載的與ChatGPT對話的文章中,ChatGPT陳述了自己并非人類,但渴望成為人類的想法。生成式人工智能逐步實現由輔助人到“替代”人的隱憂,已絕非學界自2017年起探討人工智能法律人格時的概念空想。當前,生成式人工智能主要應用于思考型對話(ChatGPT/GPT4程序)、影音娛樂媒體內容生成(Mid-Journey程序)、智能化辦公(Copilot程序)等領域,并正在迅速替代傳統人工勞動成為新的專業生產力工具。隨著數字技術迭代的能力指數級增強,生成式人工智能在翻譯、繪圖、配音、剪輯等領域全面替代人類工作逐漸成為現實。法學經過近年發展取得了較大成績,但無法滿足法律與信息科技深度融合發展的需求, 需要從國際視角統籌協調國家以及地區間關于人工智能基礎制度的政策和法律。雖然當前各國立法與政策均提出了發展“負責任的人工智能”,但當生成式人工智能全面介入人類的生產生活,誰來為人工智能的發展與應用負責? 生成式人工智能能否為自己的決策負責又該如何負責? 針對這些基礎性問題進行體系性研究,已經迫在眉睫。
一、生成式人工智能的全局性風險與治理困境
生成式人工智能已開始形成覆蓋全球絕大多數行業的規模化應用,不可避免地形成了不確定性與治理隱憂,其強大技術能力對生產關系的改變動搖了相對穩定的法律體系,形成了傳統社會形態下的新生風險,造成了對附著權利利益的民事法律的沖擊,也面臨著新型犯罪無法歸責的困境,生成式人工智能的控制者通過代碼統治逐步形成了新的權力集成。在數字社會已經成為人類生產生活新域的現實下,生成式人工智能的技術特點對人類的認知方式與認知能力構成了挑戰,卻又缺乏合適的監測能力與監測手段,僅僅依靠算法可解釋性顯然無法涵蓋數據濫用等系統性風險的威脅。在以權利義務能力為基礎的責任規制與數字技術能力的實際日漸分離之際,傳統社會運行的規則已無法直接轉移至生成式人工智能的治理。
(一)傳統社會架構下的新生風險
1.生成式人工智能的法律地位不明
生成式人工智能對生產力水平的提升是顛覆性的,在部分領域已經形成了對創造性工作等勞動的替代,并產出了真實的勞動成果,由此產生了對生成式人工智能法律地位判定的現實需求。生成式人工智能的核心是創造,通過從數據中提取、學習要素,在算法與算力的加持下,實現了生產內容與交互能力的動態更新。根據ChatGPT的擁有者美國OpenAI公司與賓夕法尼亞大學對1000多種職業進行的調研, 當某個職業使用生成式人工智能工具可以使其完成工作所耗費的時間減少一半以上時,可以認為該職業將會受到生成式人工智能的影響,按照此標準,將有超過80%的美國人的工作會受到ChatGPT等大型人工智能的影響,主要集中在作家、設計師、記者等行業。人工智能對社會形態的間接替代,很有可能侵蝕人類的發展權,并為不使用人工智能的人帶來機會成本的損失,若缺少適合的機制設計,現代國家的秩序基礎就可能受到影響。當人工智能可以替代人類從事勞動以后,對其勞動性權利等相關問題的研究就應具備前瞻性,生成式人工智能能否具有權利已成為必須正視的問題。
以生成式人工智能生成內容的著作權保護為例,操作者僅需要輸入關鍵詞,生成式人工智能就可以實現獨立于預設條件的結果輸出。這其中就需要厘清幾個關鍵問題:一是生成式人工智能依托的底層數據、生成的內容以及與操作者的關系;二是生成式人工智能生成的內容是否可以成為作品;三是生成式人工智能是否可以成為作者;四是生成式人工智能生成的內容,需要計算機學習大量可能涉及隱私的數據與過往作品,是否涉及侵權;五是如果侵權應如何歸責或救濟。對于第一個問題,生成式人工智能引致的問題極為復雜。生成式人工智能輸出的內容由大語言模型、底層數據與操作者共同完成。其形成內容輸出依托的是海量的數據樣本,但又需要依托大型科技公司的強大算力與數據儲存能力。其挖掘了全域數據樣本,又可能涉及全球絕大多數人的切身潛在利益。雖然操作者在交互界面上使用提問或指令的方式發出指示, 但這種指示本身能否成為具有著作權意義上的內容,也存在研究的必要性。畢竟現代著作權法保護的是思想的表達形式,而非思想本身。對于人工智能的生成物能否成為“作品”,學界早已爭議不休。有學者認為,驅動人工智能生成的只是算法程序,不能體現創作者的獨特個性,不能被認定為著作權法意義上的作品。但是,“獨創性”與“以一定形式表現”的要件,在生成式人工智能規模化應用后,已經不再成為桎梏,因此,其生成內容的過程可以被視為創作行為,其產出的客體就可能具備“可版權性”。而其產出的成果被視作生成式人工智能自身、操作者還是多主體共同作用下形成的“作品”,需要進一步研判。關于第三個問題,根據我國現行法律,著作權的主體是自然人、法人或非法人組織,這一規定無法契合技術條件的最新變化。有學者認為,人工智能作為服務人類的工具,其生成物是人的生成物,將人工智能作為人的代理。但該種觀點的擁躉提出該理論時,生成式人工智能尚只是設想。也有學者提出,若生成式人工智能技術可作為信息披露功能對待,ChatGPT完全可以具有作者的法律地位,但若強調其信息披露功能,則現代著作權法需要針對ChatGPT的保護范圍、力度和方式進行調整。
生成式人工智能的應用,已經涉及知識產權侵權責任等問題,而生成式人工智能能否作為法律意義上的“作者”存在,實際關涉侵權與權利救濟等巨大經濟因素的考量。生成式人工智能在挖掘數據的過程中,一般分為信息抽取、語義分析、關系計算及知識發現四個階段,但無論是將這些數據讀入系統還是進行格式轉換和數據分析,均涉及受著作權人控制的復制行為。大語言模型使用的數據挖掘、演繹、無授權利用等具體行為,還涉及改編權、獨創性保護等知識產權的侵權可能。若生成式人工智能作為生產力工具存在,其責任應由使用者或制造者承擔。但由于生成式人工智能技術的迭代能力過強,導致侵權的類型、范圍、場景與樣態將更為多樣,侵權的因果關系、過程追溯也更為困難。在權利救濟上,若侵權者實施了著作權法第52條規定的侵權行為,則應當根據情況,承擔停止侵害、消除影響、賠禮道歉、賠償損失等民事責任。但在生成式人工智能的作用下,由操作者、人工智能所有者、設計者或者人工智能自身承擔侵權的主體責任, 迫切需要法律給予完整的制度架構回應。“作品”的價值在于有效利用,在此維度上,生成式人工智能具備極高的市場價值與產業價值,由何種主體具備生成內容的著作權,包含著巨大的財產利益考量。準確識別利益主體,將極大提升技術滾動投資與規模化利用的效率,既能鼓勵技術研發者的價值確認,也可以維護著作權交易的安全性與秩序性。若生成式人工智能能夠具備部分財產權利,則在其進行數據挖掘、內容輸出中的侵權行為,就有能力基礎承擔侵權責任。基于此種考量,結合技術實踐,明確生成式人工智能的法律地位已刻不容緩。
2.刑事歸責體系不明
生成式人工智能的法律地位不明,除了造成民事權利與法律概念上的沖突,也對現行刑事法律體系造成了一定的沖擊。除侵犯知識產權的行為以外,設計制造生成式人工智能的行為理論上無法構成犯罪,但將生成式人工智能作為實施犯罪行為的手段,卻已在逐步撕裂傳統刑法理論中的責任主體與罪責刑相適應等基礎理論。現代刑法以犯罪主體的危害行為作為調整對象,確立了認定犯罪、刑事歸責與確定刑罰的全過程,是人類社會有組織地應對犯罪的制度創設,控制犯罪的手段,也是人類治理社會的重要工具與供給。有學者提出,ChatGPT作為一種大型語言模型工具,不具備教唆犯或幫助犯的主體資格,ChatGPT在犯罪中能且僅能充當工具,犯罪分子若使用ChatGPT查詢犯罪方法,或利用ChatGPT進行網絡詐騙、敲詐勒索等網絡犯罪,無論是否成立間接正犯,均由對犯罪行為和結果有支配力的利用者承擔刑事責任,本質上仍可依據刑法進行應對。這種觀點在決策式人工智能時代具備一定的合理性,但已經落后于生成式人工智能的技術能力,犯罪危害結果的表現形式、因果關系判定以及評價標準均產生了顛覆性的變化。
以ChatGPT撰寫算法或者程序為例,撰寫本身并不構成犯罪,大型語言模型生成的程序自身也并不具備犯罪工具的天然屬性。但當惡意造謠者希望通過ChatGPT實現抹黑侮辱他人的效果時,可以將拼接的色情圖片或情節,作為自動生成的答案在不同國家間的網絡中反復生成。ChatGPT以數據挖掘作為形成答案的基礎,若數據樣本足夠多,通過設置特定搜索詞,被造謠者的內容將在全球范圍內予以傳播,對犯罪主體的追查將無從著手。特別是在利用生成式人工智能本身具備的思考邏輯實施犯罪時,在現行刑法體系下將無從證明造謠者有惡意傳播的故意。再者,生成式人工智能是否應當為推薦給操作者的內容負責? 例如,操作者搜索自殺挑戰時,并不恰當的輸出內容造成了操作者在生成式人工智能的干預下實施了自殺,則何種主體應當為自殺后果承擔責任? 另如,生成式人工智能使得編程、搭建網站等復雜計算機技術的掌握門檻變得極低,若操作者利用其自主編寫惡意代碼軟件實施網絡詐騙,則生成式人工智能是否應當拒絕此類犯罪預備的要求,若生成式人工智能實施且造成了危害后果,是否應當對生成式人工智能科以技術限制、滅失等制裁措施?〔17#〕還如,生成式人工智能的底層邏輯結構從演繹系統轉化為歸納系統,使得傳統人工智能系統由他律轉化為自律為主,在數據挖掘與映射的過程中,理解、反饋、預測、控制、驗證等可解釋的算法行為將更為復雜,甚至產生無法預見的內容輸出。凱西·歐尼爾將造成個體損害等后果的人工智能稱為“殺傷性數學武器”,人工智能利用不當引發的危害極大。在上述情形中,生成式人工智能是否具備辨認自己輸出內容的能力與作用,對于社會治理的意義極大。確立法律責任,既是為了懲處行為人的違法或犯罪行為,更是為了實現對違法或犯罪行為的預防。人工智能法律責任的關鍵在于,人工智能是否以及如何對自己的損害行為承擔責任。〔19#〕考慮生成式人工智能的技術特點與實際能力,需要明確生成式人工智能時代的刑事責任成立條件、歸責原則、責任分擔等基本問題。
3.第三極權力膨脹下的規制路徑不明
人工智能治理是國家治理體系與治理能力現代化的一部分。生成式人工智能的背后推手,主要由大型科技公司與私人資本控制。隨著技術在治理能力與治理體系中的地位越來越重要,通過代碼與算法定義規則與標準已經成為現實, 包括政府在內的主體也不得不依賴私有資本控制的技術以完成社會治理。因此,在傳統社會公權力與私權力兩極下的穩定結構,逐步增加了具有壟斷技術能力的科技企業這一新的權力集合,這種數字權力既不同于國家的暴力機關,也不同于私人的權力自治。筆者稱之為第三極權力。在第三極權力治理領域,缺少對于壟斷型科技企業的分類分級監管,作為基本治理手段的反壟斷機制長期缺位,也缺少必要的手段與執法能力,常態監管機制無法發揮應有作用,資本很可能無序擴張,擠壓其他主體的生長空間。生成式人工智能的實際掌控者與技術控制者已經成為數字空間乃至社會空間的隱性權力主體,通過不斷進行全域樣本的挖掘形成更為隱蔽的數據壟斷,通過控制技術以獲得相應層級的規則制定權,成為對傳統公權力直接競爭的技術權力。在當前法律體系下,無法排除第三極權力對于人類傳統社會的控制與監視,也沒有充足的理由期待OpenAI、Meta或Google這樣的資本公司會實現深刻充分的自我規制。
2021年6月, 美國最高法院托馬斯大法官就前總統特朗普拉黑部分推特用戶引發的糾紛發表意見,敏銳地指出當今的數字技術平臺雖是私人擁有,但卻享有巨大的控制權力。這種權力隨著生成式人工智能的規模化應用,產生了更為深遠復雜的負面影響,導致了作為私權代表的公民形成由人工智能畫像的數字人格,數字權力能夠實現對人的分層分級管理,卻缺少相應的責任規制與法律體系。若操作者接受使用生成式人工智能,則事實上確認了其對第三極權力高位階的確認以及自身權力在不知情下的讓渡。私人資本在投入產品研發時,天然需要考慮營利性,始終無法替代公權力對于公共利益的考量。例如,ChatGPT所挖掘的數據庫基本為英文數據庫,當生成式人工智能全球化應用后,語言歧視、語言平權、語言多樣性即將受到現實的威脅,文化多樣性也將在第三極權力的影響下逐步衰退。第三極權力在技術的加持下無限膨脹,卻沒有相適應的責任體系加以規制,因此需要建構公平合理的規則體系。生成式人工智能的責任規制體系,應當包括特定主體、特殊義務和特殊責任。責任能力屬于廣義上的人工智能倫理標準構建,生成式人工智能的責任地位與責任能力的確定,有助于從底層技術上保障“共同富裕”等價值原則的轉移與實現,實現人工智能與人類社會的協同發展。〔249〕生成式人工智能是否具有道德意義上的公正、平等意識,需要控制者予以算法標準確定。資本不會天然地關注貧困人群、老年人、未成年人的特殊需求,只要在充分的責任規制體系之下,生成式人工智能才可以被確保關注人類發展的重大問題,用于消除人類的不平等并實現可信向善,使得生成式人工智能的不利影響遠遠小于其有利作用。
(二)數字社會下的治理風險
1.認知風險
歐盟議會在《人工智能法案》中將生成式人工智能的核心風險,定義為缺乏真實性。在生成式人工智能投入使用之前,虛假信息的生產源頭可控、生產能力有限、產出頻次受算力的制約較大,公權力通過出版許可、溯源管理、賬號實名、限制轉發等治理模式可以較為有效地控制有害信息傳播。但是生成式人工智能的架構與運行模式直接改變了當前人類的認知結構,對其的治理路徑存在一定的模糊性。
一是生成式人工智能具備強大的數據生產和傳播信息的結構化能力,可能會成為加劇黑客攻擊和危害網絡安全的推手。根據美國新聞可信度評估機構News9Guard的研究,ChatGPT可以在極短的時間內改編并生成虛假內容,并用于傳播。《暨南大學學報》等期刊于2023年年初,明確表示拒絕使用ChatGPT生成的論文投稿。ChatGPT不是創造信息,而是對已有信息進行歸納、總結、分析,ChatGPT使用的底層自然語言模型和技術已經可以完全理解并生成人類自然語言。在生成式人工智能接收到指令后,即可批量注冊網絡賬號,操控相關自動化程序成規模地在各類社交媒體上發布海量的煽動性信息,若生成式人工智能被用于國家級的認知作戰,將很有可能產生顛覆政權的現實風險。因此,推動生成式人工智能在政策與法治層面的責任調控結構,對實現國家治理體系與治理能力現代化具有重要意義。
二是當前生成式人工智能的底層數據結構以英語數據為主,輸出的內容不可避免地帶有對于歷史、國別以及事物的價值觀。與傳統算法推薦給用戶的“信息喂養”方式相區別,生成式人工智能的輸出內容是在操作者自由輸入指令的模式下完成的, 操作者天然具備對于主動獲知內容的信任度,公眾在長期接收到此類含有價值觀偏向的信息后,可能會在潛意識里改變對于傳統文化與民族精神的長期認同。筆者在使用ChatGPT的過程中發現,其回答的內容在涉及中美兩國時會表現出典型的“雙標”差異,例如,#ChatGPT曾輸出美國的人工智能側重“智能”、而中國的人工智能側重“人工”等暗含價值判斷的觀點。何種主體應在何種程度上,依據何種標準對于生成式人工智能的內容產出負責,需要法律予以明確回應。
三是由于生成預設結果的便利性,操作者過度依賴于生成式人工智能,可能會導致自身能力的退化或異化。若人類放棄對于生成結果的批判性思考,就很有可能失去對于語言、技術乃至科學原理的把握與掌握,也逐步失去對于真理與奮斗的樸素價值追求。生成式人工智能的認知風險終將作用于終端用戶,產生了確保人工智能被道德地和負責任地使用的責任機制需要。
2.監管風險
當技術能力突破帶來無法預測的巨大風險后,應依據何種標準與模式以有效地實現對于生成式人工智能的監管,學界與實務界還未提出明確的解決方案。在生成式人工智能未實現規模化應用以前,歐盟人工智能法案(the#AI#Act)以分類分級監管人工智能產品的思路實現了有效的監管,通過建立人工智能全流程監管體系提高人工智能可信度的方式,確定人工智能產品的市場準入門檻與底層數據構建機制以達成風險管控的目的。該法案秉持“誰提供誰負責”的原則側重于對人工智能產品的提供者進行規制,類似終端用戶的責任被排除在了適用范圍以外。因此,有學者提出,將生成式人工智能和通用人工智能視為該法案下的一般風險類別, 課以產品供應商對系統性風險的定期監測義務,關注供應商與用戶間的合同關系,建立對合同條款的監管審查機制。但隨著生成式人工智能帶來的侵權責任主體、侵權方式類型、侵權范圍等產生了根本性變化以后,該法案原本確立的監管模式已無法涵蓋生成式人工智能可能引致的不確定性風險。2023年2月初,歐盟議會提出將生成式人工智能列入該法案所確定的人工智能高風險類別以擴大法案的管轄領域,但這也造成了法律監管的局限性,即只有列入高風險類別的生成式人工智能才能被該法案所控制。當生成式人工智能自身已進步至可以自主實現生產同類或其他類別人工智能的技術能力階段時,通過清單式的管理顯然已無法應對人工智能衍生的多樣性與復雜性。傳統監督方式已經難以支撐數字時代的監督職能,需要重新審視有關數字技術的監督理論以重塑監督的模式與機制。隨著人工智能責任能力的進一步挖掘,需要思考采取更加動態的方式,以監測和盡量減少生成式人工智能引致的全局風險。
與歐盟《人工智能法案》相比,歐盟《數字服務法案》(the#Digital#Services#Act)建立的系統性監測模式,更為契合生成式人工智能的技術能力與特征。《數字服務法案》第34條提出,超大型數字平臺和搜索引擎在了解其對基本權利和社會運行產生的負面影響的基礎上, 有義務監控其自身的算法系統,將生成式人工智能的責任控制主體定位于技術供應者。但如此確定責任分配的模式,又可能造成限制科技發展的過度監管后果。有研究表明,若對技術供應者科以較重的責任負擔,可能造成監管成本的大幅增加(按年GDP計算,可能造成850億歐元的損失),最終大幅減弱市場對于技術更新與投資的意愿。
3.數據濫用風險
數據是計算空間的底層元素,數據的生成、儲存、抓取、學習以及利用是生成式人工智能迭代式發展的主要動力源。相對ChatGPT-3投入使用前所運算的1750億個參數,GPT-4的參數量已達到百萬億級。控制好數據,控制好算法掌握的模型所有權,已經成為21世紀“信息戰”的內容。生成式人工智能對于數據具有極強的依賴性,數據的質量將直接決定生成式人工智能輸出內容甚至決策的質量。數據的規模化應用也造成了數據濫用的現實威脅。數據中存在大量受知識產權法或個人信息保護法所保護的客體,在目前的責任體系下,生成式人工智能在挖掘使用數據的過程中并不能辨析所利用數據的權利狀態與隱私風險,可能存在的權利人也無從知曉自身數據與信息被大數據模型所利用,其自身利益也無從補償,引致極強的道德風險。當ChatGPT出現數據濫用風險后的算法透明、算法解釋權等問題,也需要從其設計之初就著手構建可信任的責任路徑與分擔模式。合理的生成式人工智能責任分配, 應當激勵其制造者從初始的數據質量就開始明晰數據規模化利用的責任體系,否則數據濫用的風險將會滲透至未來無限的場景應用中去。為規范生成式人工智能技術的應用,國家網信辦于2023年4月11日公布了《生成式人工智能服務管理辦法(征求意見稿)》,要求技術提供者應履行訓練數據不含有侵犯知識產權內容的義務。但是,由于生成式人工智能所使用的數據樣本過于龐大,正如ChatGPT在使用條款中聲明的內容一樣,即使生成式人工智能的設計者與所有者在利用數據的過程中,已盡可能地去減少侵權的風險,也無法保證所有訓練場景下所使用的數據均經過了原始作者的許可。當前,學界對于數據大規模匯聚使用造成的風險關注度還不高,但數據的規模性利用實際上是生成式人工智能發展的關鍵性因素。只有通過建立數據規模化使用的權責分配,才能實現第三極權力膨脹背景下的數字公有領域責任制度分配,從法律的層面促進與規制生成式人工智能的可信向善發展。
二、生成式人工智能的責任能力與現實基礎
風險與責任之間具有強大的關聯性,當社會向一個被人造不確定性而非外部不確定性所支配的世界移動時,就必然出現對責任的討論。在風險現實與治理規則無法調和的真實存在下,需要進一步深入研究生成式人工智能規制的轉向路徑,特別是解決由何種主體承擔責任的法律窘境,以提出邏輯自洽又契合發展需要的治理機制。在此技術路線下,生成式人工智能引致風險的責任能否由其自身承擔、并在什么程度上承擔,已成為厘清相關問題的基礎環節。責任能力分為民事與刑事責任能力兩類, 是指權利主體以自己的行為履行法律義務和接受不履行義務時的懲治性法律后果的資格。責任能力狀況一般與行為主體能力狀況是一致的。民事方面,有經濟能力的無行為能力人或限制行為能力人,因為自己的行為造成他人財產損失,要以行為人的財產進行賠償。刑事方面,達到刑事責任年齡,精神和智力正常的人,即具有刑事責任能力。無責任能力的人,對自己的行為不承擔刑事責任。從生成式人工智能所具備的意志表征與行為能力分析,對其賦予相應的責任能力具備一定的現實可能。當人工智能的發展達到相當高的技術水平時,是否認可其已經從輔助人到替代人的地位轉變,將直接影響人工智能產業乃至人類社會存在形態的倫理與規則基礎。例如,生成式人工智能能否被視作作者,將關涉切實的利益與責任,生成式人工智能應當對自己生成的內容負責嗎? 資本作用下的科學技術是對人本身的一般生產力的占有,是人對自然界的了解和通過人作為社會體的存在來對自然界的統治。科技興則法治強,現代數字科技已經成為法治現代化的重要引擎。西方長期執著于污名化中國的人工智能應用,但對制度領導權和規則制定權卻表現出長期偏好。雖然我國在生成式人工智能的技術領域居于后發地位,但通過創新規則與應用體系的結構性改變,結合法律規范的適度超前調整,可以充分發揮我國在數字領域的基礎優勢與場景優勢,形成人工智能治理領域的制度性優勢。
(一)生成式人工智能具備類人類意志特征
責任產生的前提,是主體對于法律規范具有認識理解的能力,同時具備實施具體行為時的意志力。例如,犯罪就是人的意志體現,缺乏意志即構不成犯罪,不具有科處刑罰的本質。任何思想的產生都是對一定社會歷史條件的反映,都會在現實社會中找到依據。有學者提出,根據人工智能發揮具體功能或完成特定任務的算法,是否可以將與設計者、生產者等發生分離作為具有意志力的標準?也有學者提出,只有滿足了意志條件的理性人工智能,且可以將自身與他者相區分,并且能夠反思自身,才具有責任能力的可能。生成式人工智能輸出的內容已經可以產生人類感知外部世界的效果,依據預設算法規則處理問題并形成產出的邏輯,具有類人類意志的深刻特征。
一是從認知的角度分析,生成式人工智能已經具備相當強的認知能力。認知,是指人類獲得知識或應用知識的過程,大腦接受外界輸入的信息,并經過頭腦的加工處理,轉換成內在的心理活動,進而支配人的行為,這個過程就是認知過程。人類認知的實現過程與人工智能構建的“輸入信息—算法加工—形成決策”的底層邏輯高度契合,人工智能甚至實現了較人腦更為精準的認知。傳統人工智能階段, 抖音、TIKTOK等短視頻平臺可以根據算法推薦技術, 按照用戶的喜好推薦其感興趣的內容,從認知的結果分析,人工智能已經具備了輸入信息并支配算法決策行為的典型特征,而這種認知能力在生成式人工智能實現后表現得更為強烈。ChatGPT通過鍵入幾個關鍵詞即可生產完整意義上的文章,GPT-4甚至可以看懂表情包和內涵圖片,并準確地指出其中蘊含人類理解的笑點。就技術實踐所達到的智能程度而言,已經很難否認生成式人工智能具備了人類的認知能力。生成式人工智能,本質上已經成為具備自然語言能力的人工智能。人類的文化教育傳承,基本是以自然語言為界面學習書本,在此意義上,生成式人工智能確實已在某些領域代替了部分社會基礎功能。雖然生成式人工智能的認知過程并非依靠人類大腦神經網絡,但若其可以形成人類自然語言相同的理解結果,是否由碳基生命的大腦直接感知生成結果的過程才能構成傳統意義上的認知, 已經不再是理論上的桎梏。
二是從理性的角度分析,生成式人工智能呈現的結果已具備一定的實踐理性能力。理性是指人在正常思維狀態下為了獲得預期結果,快速全面了解現實并形成多種可行方案,從中判斷出最佳方案且有效執行的能力。〔46#〕簡單地講,理性就是從理智上控制行為的能力。理性分為理論理性和實踐理性,即“認識世界的規律性的能力”和“根據道德律令的要求行為處世的能力”。就理論理性而言,生成式人工智能生成文稿的過程,已經具備了理論理性的基礎能力與外在特征,生成式人工智能在操作者指示下生成的可行方案早已超過農業社會中自然人的理解能力。生成式人工智能甚至已經具備了邏輯推理的能力,GPT-4不僅可以識別圖片中的內容,并可以通過圖片中的元素形成與人類主觀意識相同的進一步推理。如果向GPT-4展示一個孩子牽著一個氣球和一把剪刀,問它如果剪斷了繩子會出現什么情況,GPT-4已經可以精準地回答“氣球會飄走”。就實踐理性而言,生成式人工智能具備了根據規則要求進行決策的能力。美國明尼蘇達大學法學院已經開始探索使用ChatGPT為法學課程考試作答,在測試中,ChatGPT四門考試的平均成績已經可以達到人類學生的畢業要求,特別是對于法律案例的論述方面,其可以把握法律規則、自行提出應適用的法學理論、正確列舉具體案件的事實和觀點。當然,與人類學生相比,生成式人工智能暫時還僅能理解表面層次的法律關系,對于復雜或隱含的因果關系的挖掘能力仍然不足,生成的內容依然符合設定的淺層法律邏輯。但需要注意的是,這種程度的實踐理性是在更為強大的GPT-4適用之前的能力水平,按照大型語言模型的迭代速度,生成式人工智能全面理解法學理論已極可能成為現實。
三是生成式人工智能已經具備了價值判斷的能力。傳統觀點認為,智能無法替代人的價值判斷,而法學及司法裁判的特質,幾乎完全是與價值判斷相關聯的。但隨著技術的進步,代碼、算法和數據已經被用于預測司法判決的結果,并取得了較好的成績,生成式人工智能的算法邏輯已經可以滲透進入判決的體系架構之中。有研究者通過人工智能正確預測了從1816年到2015年美國最高法院作出的2.8萬項判決中的70.2%,以及法官投出的24萬張裁決票中的71.9%,與之相較,法律專家實現的案件預測準確率僅在66%左右。生成式人工智能已經可以在最終的輸出結果上實現預設的價值判斷。就價值判斷的實現過程而言,以非確定性為前提,強調根據公理性概率論來重構民事司法體系,在案件審理上注重證據試錯過程和可撤銷性,最后以法律經濟學強調的期待效用最大化為指標來作出司法決定,使得人工智能替代法官裁判完全具備可能性。但必須注意的是,生成式人工智能形成的判斷,也天然具備一定的價值局限。首先是不同法系的價值觀并不相同,例如,利用GPT-4對中國法院的裁決進行分析,必然會得出批量性的錯誤結論。其次是生成式人工智能使用的底層數據并不具備權威性,例如,其若使用中國裁判文書網的數據作為生成邏輯的基礎時,不同時期、不同階段的法律文書帶有的價值判斷本就不同,自然可能形成“同案不同判”的偏差結果。另外,生成式人工智能暫時還無法感知其輸出裁判后的內容所造成的客觀影響,在此基礎上,其對于社會評價的理解還無法實現直接反饋。這也決定了生成式人工智能的意志天然具有局限性。
(二)生成式人工智能可能具備行為能力
勞動是創造與實現社會價值的前提。生成式人工智能在實踐中已起到了替代人類職業的作用,通過快速化決策的能力,已開始替代人工處理保險理賠、小病看診、剪輯視頻等重復性勞動。在進入老齡化社會的現實下,不斷提升生成式人工智能對生產關系的作用,將與未來社會形態的變化直接相關。傳統人工智能在區塊鏈技術的作用下,已經可以通過智能合約由機器代替人類確定權利義務并對外發生效力,人工智能作出決策的過程是否可以成立法律上的行為已經成為法學研究無法繞開的話題。對于傳統人工智能的地位,通說一般仍持“代理說”的觀點,認為人工智能的行為是受人類所控制,其決策的能力與后果最終由被代理的主體承擔,這也就實際上承認了人工智能具備一定的法律地位,因為只有在人工智能具備行為能力時,才具備履行被代理人指示的資格。承擔責任的前提在于主體能夠意識到其行為的后果,并采取具有獨立意志的行動。當人工智能進化到生成式人工智能的階段之后,已經強大到可以廣泛參與法律關系,基于其自主決策的實際,需要判定生成式人工智能是否可能具備人類行為的能力,這是其是否可以承擔責任的前提條件。
有學者提出,由于自動化系統無法理解消費者的意愿與期望,或者無法理解人類自然語言而不能承擔法律責任,也就否定了人工智能的行為能力。但司法實踐中已有判例確認了人工智能的行為效力。例如,在Moore#v.#Publicis#Groupe#SA案中,美國法院正式批準預測編碼作為在某些情況下審查電子存儲信息的可接受方式。也有學者提出,如果人工智能的決策可以視作行為,則需要其行為必須可以被解釋。《新一代人工智能倫理規范》第12條規定,要在算法設計、實現、應用等環節,提升人工智能的透明性、可解釋性、可理解性。但如何理解“可解釋”,實際上也是立法者作出的主觀價值判斷,無非是解釋理念、解釋原則與解釋方法隨著生產力水平的不斷提高而形成的邏輯,人工智能的底層算法是否一定需要被解釋,迄今未有學者給出令人信服的依據。在State#Farm#Mutual#Automobile#Insurance7Company7v.Bockhorst案中,保險人的智能系統基于錯誤的程序發出了錯誤通知,原告基于此改變了原先的保險合同,法院也判決了原告基于信任的系統行為有效。美國第十巡回法庭明確計算機程序作出的超出預想的錯誤后果由保險公司承擔,這實際上已經確立了計算機作為獨立的主體形成權利義務的能力。
當然,技術手段本身并不能回答原因問題,將結果混淆為原因是一種謬誤。有研究者提出,通過留意價值的數值化處理和加權計算,可以確立關于價值排序和價值函數的算法規則,人工智能的倫理標準通過技術設計的內在路徑完全可以實現。回溯倫理學上“人”的概念形成的歷史,“人”是依照其本質屬性,有能力在給定的各種可能性的范圍內,自主地和負責地決定他的存在和關系,為自己設定目標并對自己的行為加以限制。自然人可以成為主體,淵于將倫理學上的“人”的概念移植到法律領域。有學者提出,倫理性并不是民事主體的必然要求,倫理性人格到經濟性人格的轉變為智能機器人的主體論鋪平道路,人工智能可以具有工具性人格。倫理概念下的生成式人工智能是否滿足或是可以滿足人類社會的行為要求,也是考慮能否賦予其行為能力的要素。特別是如果人工智能突破了倫理底線,則又應該按照何種形態對其予以追責或懲戒? 這又回到了生成式人工智能是否可以具備行為能力的邏輯起點。從西方理論認為,人類社會運行的規則,由準則、指令和標準這三個概念共同組成。而“行為標準”的判定,也是隨著實踐的發展不斷改變。生成式人工智能如果長期輸送含有關亂倫、暴力、歧視等內容影響青少年,同樣面臨傳統價值觀下的倫理底線突破與犯罪構成標準的適用困境,造成人類社會價值的崩塌。基于生成式人工智能所引致的標準變化,有必要通過倫理規則的重構,對其形成真實的可責性,以確保其行為的發展始終不偏離以人為本的預設價值軌道。
(三)擬制主體承擔法律責任
法理意義上的“人”,體現的是人類族群的群體意志所形成的共識,與生產力水平和生產關系密切相關。法律上對于“人”的概念是動態變化的,在奴隸社會以及封建社會,自然人并非天然具有法律上的權利能力與義務能力,在現代文明體系建立之后,“人可非人”的價值判斷才逐漸被人類社會所拋棄。在進入大航海時代以后,人類為了適應社會發展的實際需要,逐步形成了公司等擬制的法人概念。從經濟利益考量,法律的制度性變化確實促進了社會的發展與進步,這也是1750年前后新的組織體開始推動人類財富大幅增長至今的原因解釋。就意志能力而言,法人等擬制主體作為財產的集合并無意志的天賦屬性, 其可以成為法律意義上的人是基于經濟上的合理性而非哲學上的合理性,僅僅是形式化的權利主體與法律效果的承擔主體,并產生了限制責任等制度。大陸法系下,獨立的法律人格需要具備社會存在與法律確認這兩個必備條件,即需要獨立自主地作出意思表示并得到法律明確的確認。法人概念的產生,是隨著社會存在的變化而不得不作出的規則調整與適應,這種擬制的主體符合現代社會的基本組織形式與運行規律,又確保了生產關系的不斷完善。
既然法人可以擁有主體地位,那么人工智能也將必然獲得相應的法律資格。俄羅斯格里申法案提出,基于人工智能的法律構造,可以允許其類推適用統一國家法人登記簿制度。就法人生成的邏輯而言,是先有實體存在,再有法律進行確認。以此類推,人工智能特別是生成式人工智能被法律所擬制而形成特殊的主體地位具有邏輯上的正當性。也有觀點提出,不能簡單地通過與法人的類比,以論證生成式人工智能法律地位的正當性, 理由是法人通過借助于自然人的行為才能從事法律活動。但筆者認為,法人與人工智能在構造上的差別,并非人工智能無法被法律所賦權的前置性因素,立法技術的主要考量仍應從解決實際問題出發。任何權利主體,只要人類將其稱為權利主體時,就應當成為“法律上的人”。法人運行的關鍵,是其內部成員意志的集中體現,通過相應決策機構,集中形成意志,并以自身的名義開展活動,從而具備了認知能力以及實施犯罪的能力。人工智能在擬制的法律技術上,與法人并無本質不同,穿透人工智能面紗,也一定會體現人的意志。當下圍繞人工智能的法律主體構建的核心問題就是責任,需要為人工智能的發展構建契合實際的以責任承擔為基礎的特殊財產性法律主體。當人工智能因不可歸責于他人的行為造成損害或傷害時,可以承擔相應的民事或刑事責任,以使得負責任的人工智能成為法律與實踐意義上的現實。
三、生成式人工智能的責任能力建構與結構化配置
在傳統的法律責任體系之下,由生成式人工智能自動簽訂的法律合同,對外發生的效果表示無法進行效力上的確認, 其生成的明顯具備作品特征的內容無法享有著作權等知識產權法的保護,也就無從產生將生成式人工智能作為權利主體所帶來的經濟效益,不利于人工智能作為顛覆性生產力工具的長久發展。由于生成式人工智能的技術特點,利用其實施的犯罪行為或者其在自身算法邏輯下輸出的內容可能引致犯罪的結果,由于難以確認犯罪主體,在現行刑罰體系下面臨無法構罪的現實困境,直接對人類社會的樸素倫理造成巨大沖擊。在技術與數據高度壟斷的數字社會架構下,“代碼就是法律”的邏輯已經使得擁有先發優勢的巨型科技資本擁有了超出公權力與私權力之外的第三極權力,在事實上形成了對于社會治理的域外法權,根據何種原則與規則以規制生成式人工智能的控制者,已成為關系國家安全的重大問題。生成式人工智能抓取的是全域范圍內的海量數據,使用的可能是飽含價值密度的規模化信息,在使用與輸出數據的過程中造成的隱私侵害、知識產權侵害等行為,在現行法律體系下也無法明確責任的主體與歸責的原則。生成式人工智能實際改變了人類對于傳統自然語言傳承文化與教育的基本結構,操作者不得不在認知邏輯的改變下,有意識或無意識地被生成式人工智能所輸出的內容滲透,其產生的人類認知邏輯上的變化,將很有可能對國家與民族的認同產生價值觀上的重大變化。
習近平總書記指出:“人工智能是新一輪科技革命和產業變革的重要驅動力量,加快發展新一代人工智能是事關我國能否抓住新一輪科技革命和產業變革機遇的戰略問題。”法律是保障人工智能可信向善、負責任發展的關鍵因素與主要手段,是否承認生成式人工智能的責任能力,或者說在何種程度上承認生成式人工智能的責任能力,將直接決定生成式人工智能乃至未來通用人工智能的行為性質與有效性,又會反作用于未來法律的發展和走向,在根本上決定數字技術全面覆蓋人類生產生活后的社會樣態。需要在發揮中國既有的人工智能治理優勢上,通過頂層設計推進基礎性人工智能立法,探索通用人工智能立法的經驗,根據生成型人工智能的技術特點更新監管邏輯,形成更具影響力的法律制度體系。
(一)責任能力有限
法律在規制人工智能風險與促進人工智能正向發展的兩個維度間必須尋找到恰當的平衡點,而促進人工智能發展的首要問題是需要有主體為人工智能的行為承擔相稱的責任。這個主體可能是人工智能的研發者、控制者、操作者、投資者、生產者,在一定范圍與條件下,也可以是人工智能,特別是生成式人工智能這類強人工智能體。需要避免人工智能一定要像人一樣進行神經思維才可以定位為“人”的思維定勢,與人類大腦運行機制的不同,并不能說明人工智能不能達致理性主體的狀態或能力。社會性或倫理性已不是人工智能成為法律主體的必要條件。就意志能力而言,生成式人工智能在進入GPT-4時代以后,已經具備了邏輯推理與意思表示的能力,可以通過算法邏輯的設定實現與操作者一致的價值期待。就行為能力而言,司法實踐已經確認了人工智能行為的法律效力并已有國家開始使用人工智能系統用于智能裁判。從實際出發,參考擬制法人對于人類文明與經濟發展的重大作用,賦予人工智能特別是生成式人工智能以特殊的法律主體地位,明確其責任能力與歸責原則,已經成為應對風險、促進發展的現實選擇。
人工智能雖然可以具備法律主體地位,但這種法律人格應當是有限度的,并非完全的法律人格,歸根結底是因為其可以承擔的責任能力是有限的。責任能力與行為能力是一致的。生成式人工智能雖然能夠獨立作出意思表示并承擔一定的責任能力,但其依舊是智能機器的天然身份,人類所具有的生育、婚姻、投票、選舉等倫理性的權利顯然無法加予生成式人工智能,但結合其輸出具有價值作品的實際,可以考慮為其在著作權等利益型權利上賦權。使用生成式人工智能輸出的作品可以由其具備一定的著作權,使用、利用該作品應當為生成式人工智能支付一定的微量費用,這種費用既不屬于生成式人工智能的研發者、也不屬于其控制者,而是由生成式人工智能自行所有,當其使用數據或信息造成侵權、歧視等不利結果時,可由生成式人工智能前期積累的收益予以賠付,在事實上建構其一定的責任承擔能力。人工智能是由人類創造以服務人類的智慧型工具,即人類自身的權利優位于人工智能,人工智能的工具屬性也決定了其自身法律地位的限度性。
生成式人工智能的行為能力來源于技術,其決策輸出的底層邏輯來源于規模化數據深度學習后形成的規律性行為,與人類個體在自主意識上的目的行為仍具有結構上的巨大差異。穿透技術背后的核心,體現的依然是設計者、控制者、操作者的意識與價值邏輯。由于具有人腦根本無法達到的學習與運算能力,如果對生成式人工智能賦予完全的責任能力,則人類的地位將極有可能逐步被機器所取代,造成人本社會的道德倫理塌陷。基于實踐的變化,為生成式人工智能等高度智能體賦予一定的責任能力以解決“網暴”、無人駕駛、作品制作等現實重大問題,是法律體系可以作出的適應性調整,但責任的最終承擔仍需要由人類負責,這是實現人工智能在自身層面與社會存在兩個維度負責任發展的應然法律技術路線。
(二)“穿透人工智能面紗”的歸責原則
在證成人工智能特別是生成式人工智能可以具備一定的責任能力后,就需要考慮其責任能力的范圍與歸責的路徑。就民事責任而言,主要考慮其獨立對外決策的行為效力與侵權的責任承擔,就刑事責任而言,主要考慮其被利用作為新型犯罪工具、由于自身缺陷造成的犯罪結果以及自主決策實施的犯罪行為這幾種情形下的責任能力。生成式人工智能依靠數據信息的搜索整合與綜合運用形成了不同于傳統人工智能的運算機理,使得民法、刑法上的原有因果關系與實際相割裂。筆者認為,生成式人工智能的責任能力需要與其在具體行為時的受控制程度緊密聯系在一起進行綜合考量,無論是民事責任還是刑事責任,均需要考慮生成式人工智能在決策時的底層邏輯以及人機復雜互動以后的因果關系重構。可以從結構化的維度分析生成式人工智能致損時的狀態與原因:一是若責任后果完全是由生成式人工智能自身運算混亂或設計邏輯引起的,則由生成式人工智能自身承擔限制的責任能力后,由生成式人工智能的研發者與控制者承擔補充責任,生成式人工智能的研發者與控制者需要提供完整的研發合規文件,否則承擔嚴格責任。二是若責任后果是由操作者自身操作生成式人工智能引致的,在可以證明操作者身份的前提下,由生成式人工智能的操作者承擔主要責任,若無法查明操作者身份且生成式人工智能的控制者可以提供人工智能可控的相關證明,則由生成式人工智能自身承擔限制責任。例如,由其從著作權收益或投資者建立的強制責任基金中,抽取部分貨幣補償受害方,研發者與控制者承擔過錯責任。三是若責任后果完全無法證明由何種原因引起,則由生成式人工智能的研發者、控制者及其自身分別承擔相應比例的責任,這同時需要建構更為精準與龐大的相應配套機制以確定具體的歸因準則以及賠償范圍、責任限制等體系。四是若責任后果由監管疏忽或瀆職造成,則由監管者承擔過錯責任,由生成式人工智能自身承擔補充責任。無論是何種歸責類型,總體均需要適用“穿透人工智能面紗”的原則確定歸責路徑,在查證因果關系的基礎上,考察確定生成式人工智能責任背后的實際責任主體。
在明確歸責原則以后,需要構建生成式人工智能責任的鏈式分配機制以具體完善責任的承擔機制。例如,就生成式人工智能的能力與使用范圍而言,任何單一的主體國家或職能部門,均無法應對其帶來的責任風險, 需要通過責任分擔的鏈式機制以確定生成式人工智能侵權或犯罪后的責任分配。就生成式人工智能而言,需要從研發者、控制者、操作者、監管者、人工智能本身的維度,共同構建權責匹配的責任分擔機制。在確保“罪責行一致”“權利與義務標準相當”等傳統價值觀下,結合數字社會發展的新形態, 延伸生成式人工智能的責任鏈條, 以確保單一主體的責任負擔不至于過重,從而減少對于生成式人工智能投資與利用的期許,形成法律規制的負外部性。在鏈式分配機制下,研發者應當留存相應的模型與研發數據,證明其算法邏輯受控且不存在侵權的故意,否則應承擔相應的法律責任。再如,在控制者責任上,應當證明其適用生成式人工智能不存在主觀上的價值歧視與顛覆國家政權、傳播有害信息的故意,在其證明生成式人工智能的運行與適用基本合規的情況下,可以免責。另如,操作者對于利用ChatGPT等生成式人工智能應盡到相應的注意義務與合規義務,若通過故意誘導等方式傳播謠言、竊取隱私,則應由操作者承擔嚴格的法律責任。最后,需要強化生成式人工智能對于人工智能自身治理的責任能力,逐步實現從治理“受體”向“主體”的部分轉化,提高技術水平與注意義務的相稱程度。通過內容識別、版權控制、數字水印標注等行為方式,實現對于輸出內容的管控與倫理審查,極端強化“通知+必要條款”等措施的重要性,盡最大可能減少數據濫用與隱私侵權的風險。在明確生成式人工智能的責任能力限度與歸責原則后,需要進一步深入研究明晰生成式人工智能研發者、持有者、操作者、監管者等不同利益主體在具體風險中的利益關系與配套架構,更加系統、準確地厘定在何種程度、事項或范圍內由生成式人工智能承擔何種責任。
(三)建構完整的配套規則體系
法教義學的理想目標是參照近代科學原理建立公理體系, 使得法律規范具有森嚴的效力等級,從實踐出發,逐步解決實踐問題特別是具有系統性、全局性風險的問題,通過化約社會的復雜性,為社會成員提供明確的行動預期,保障社會運轉的秩序性與確定性。法律的生命不在于邏輯,而在于經驗。應根據社會存在的變化逐步動態更新以助推生產力水平的提升。影響法律發揮作用的因素,除了傳統文化觀念、政治行為方式以及程序設計的漏洞之外,特別值得注意的是更具普遍性的外部條件變化。生成式人工智能的治理難題,在明確其特殊法律地位,確定其可以承擔限制性的責任能力后,應進一步建構豐富具體的規制體系。
一是根據生成式人工智能的底層邏輯,建立覆蓋研發運行全程的風險監管機制。傳統的監管方式如產品許可、侵權責任制度,無法全面地適用于生成式人工智能的監管。對于高風險人工智能,歐盟傾向于嚴格責任,將隱私保護等人工智能倫理價值原則作為優先價值進行嚴格監管,而美國則傾向于自由經營,強調審慎監管以促進人工智能的技術創新與發展。筆者認為,必須采取新的監管機制以規制人工智能帶來的責任風險,通過建立完善的法律法規和行業標準,明確生成式人工智能的責任主體、權利義務和違法處罰措施。例如,驗證研發者優化生成式人工智能模型的設計和訓練方法,提高其準確度、穩定性;強調控制者應動態檢測生成式人工智能模型的解釋性和可驗證性方法,增強其可信度和可控性;督促監管者開展生成式人工智能模型的測試和評估工作,檢測并消除其可能存在的偏差或錯誤,不斷加強對生成式人工智能的審查和監督,防止其被用于非法或不道德的目的。通過全鏈條監管與鏈式責任分配機制的契合,形成明確的數字空間行為準則,建立可預期的風險責任制度。
二是明確生成式人工智能的透明度責任。由于生成式人工智能需要規模化利用全域數據,通過深化規則的制定與應用確保其透明度責任就尤為重要。首先是生成式人工智能的研發者應準確了解該系統的性能與缺陷,向用戶完整陳述其使用可能引致的不利影響。對使用的數據進行事先評估,了解其訓練模型、使用樣本的合法來源,對其使用與生成的數據負有嚴格的保密與管理義務。其次是生成式人工智能的控制者應當明確其應用過程與輸出邏輯的全程可追溯,提高原生與次生數據信息的透明度,采取措施盡最大可能避免數據規模化應用對個體可能造成的侵權風險。再次是根據實踐的發展,生成式人工智能的控制者的行為義務應予以擴大,例如要求其為生成的圖片、音像作品等內容自動生成不可篡改的底層區塊鏈數字水印,確保生成物的來源、目的與作用符合倫理要求,并在產生責任風險時可以提供排除責任的合規記錄。再如推行強制性算法規則,除非操作者明確同意,不得主動識別其身體、面容和聲音數據,并強制不得用于其他場景使用或交互。另如,不得為了確定算法推薦的內容匹配度并提升準確性,而主動監測操作者瀏覽過程中瞳孔大小等生理變化。最后是監管者在保護創新的基礎上,鼓勵算法與接口開源。但這種開源并非強制,需要特別注意對于科技初創企業與個人開發者的利益保護。
三是治理原則實現從可解釋算法向可控制算法的改變。現行對于算法的要求基本按照歐盟《人工智能法案》的路徑,明確算法應當被解釋。但生成式人工智能改變了傳統人工智能的運行機制并大幅提升了其深度學習的能力,在具備了自我意識之后,其建構的算法邏輯很可能輸出算法編寫者與控制者無法解釋的內容。若生成式人工智能的研發者也無從解釋其研發系統造成的責任損失,在此情形下如何確定因果關系與責任能力? 如果對不可解釋的算法責任主體課以過重的義務,人工智能領域的技術創新將會受到嚴重打擊。筆者建議,將生成式人工智能的治理邏輯,由可解釋算法逐步過渡為可控制算法,注重生成式人工智能的魯棒性,即人工智能發揮作用的穩定性。〔87#〕如果生成式人工智能的責任主體滿足了可控算法的合規性義務,就可以按照鏈式責任分擔機制確定的方法明確責任關系、確定責任能力,在保護創新的前提下鼓勵技術的發展。這種可控性來源于一系列的義務要求,例如,違法違規行為偵測的強制報告制度、輸出內容的合規審查制度、以人為本的倫理判斷制度等。對于具有系統性功能的算法,應當明確限制算法技術出口的類型與清單。通過加強人工智能系統設計的安全性、穩定性和合規性,確保生成式人工智能始終受到人類的有效控制。
余論———誰來為人工智能發展負責?
人工智能作為最新的科學技術成果,極大促進了經濟社會發展,同時也存在拉大貧富差距、加劇社會不公以及擴大失業現象的風險,發揮制度優勢、降低科技異化的風險,將成為我國人工智能治理的關鍵之策。筆者在2017年曾撰文提出,現行法律規制對于人工智能權利、侵權責任主體等關鍵問題上的缺位,使得人工智能的發展缺乏法律價值的引領,人工智能的短期影響取決于誰控制人工智能,而長期影響則取決于人工智能到底能否受到控制,人工智能的運用與發展需要法律人格的明確。以ChatGPT為代表的生成式人工智能的問世,標志著人工智能技術的發展階段逐步進入強人工智能時代。各國針對人工智能技術的治理均提出了相似的政策,提出發展“負責任的人工智能”。但是,究竟誰應為人工智能的發展負責? 如何為人工智能的發展負責? 人工智能能否為自己的發展負責? 學界與實務界均未給出確定性的答案,形成目前生成式人工智能帶來的風險無法以現行法律體系規制的治理困境。2022年10月,外交部發布了《中國關于加強人工智能倫理治理的立場文件》,指出人工智能在給人類社會帶來潛在巨大發展紅利的同時,其不確定性可能帶來許多全球性挑戰,應堅持倫理先行,建立并完善人工智能倫理準則、規范及問責機制,明確人工智能相關主體的職責和權利邊界。生成式人工智能已經具備了類人類自主意志特征,又具備了一定的行為能力,鑒于客觀實際與擬制法人對人類社會發展所取得的巨大作用, 可以考慮賦予生成式人工智能以特定的法律地位,給予其特殊的責任能力,通過一系列配套措施與機制的完善,最終實現人工智能發展的可信向善,發展“負責任的人工智能”。