摘 要:人類情感的表達是人類器官獨有的自然反應,而并非是某種規則的產物。作品的認定應當包含作者的情感表達。現階段的生成式人工智能并不具備情感表達能力,只是智能化程度更高的弱人工智能產品。其自身無法承擔侵權責任,其生成物并不屬于作品。隨著科技的不斷發展,帶有情感的生成式強人工智能產品終有一天會被設計并投入使用,應對相關法律提前進行完善,以滿足生成式強人工智能自身能夠承擔責任的需要。為了保證法律完善的順利進行,應當堅持政策導向,并遵守法秩序統一性原則。具體完善路徑包括:第一,肯定生成式強人工智能作為作者與被侵權人的主體地位;第二,應當明確生成式強人工智能在刑法上的地位,肯定其既可能成為刑法的犯罪主體,也能成為刑法中的被害人;第三,為生成式強人工智能設置專屬的處罰方式。
關鍵詞:生成式人工智能 ChatGPT 產權保護 法秩序統一
一、問題緣起
生成式人工智能(Generative Artificial Intelligence)是指在人工智能技術的作用下,自動地生成文本、圖像、影音、游戲等內容。近年來,伴隨著技術的快速發展、算法水平的提高以及數據量的井噴,生成式人工智能可以快速、高效地完成內容的生成。基于這一特性,生成式人工智能在公共管理、教育、司法、醫療、工業生成等眾多領域均表現出發展的潛能。2023 年7 月,國家互聯網信息辦公室發布《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》),以此促進生成式人工智能發展和規范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。《暫行辦法》規定:“鼓勵生成式人工智能算法、框架、芯片及配套軟件平臺等基礎技術的自主創新,平等互利開展國際交流與合作,參與生成式人工智能相關國際規則制定。”《暫行辦法》要求,提供和使用生成式人工智能服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,尊重知識產權、商業道德,保守商業秘密,不得利用算法、數據、平臺等優勢,實施壟斷和不正當競爭行為。《暫行辦法》還要求生成式人工智能服務提供者應當依法開展預訓練、優化訓練等訓練數據處理活動,涉及知識產權的,不得侵害他人依法享有的知識產權。由此看之,現階段國家對生成式人工智能管理的產權保護問題十分重視。然而,從現行法律規定來看,對生成式人工智能的知識產權問題規定較為有限。由于文章篇幅限制,本文將重點討論生成式人工智能產物的涉知識產權問題。
從《暫行辦法》的規定看,其主要著眼于對生成式人工智能生成內容過程的管理。并且這種產權保護為行政法層面的保護,為他人知識產權保護提供辦法。生成式人工智能生成的內容的保護方式不應當局限在行政法層面,更應該落實在知識產權法層面、刑法層面的保護。主要原因有二:第一,知識產權法是專門保護知識產權的部門法,對知識產權的保護是最為直接、便捷的。雖然我國現階段并沒有統一的知識產權法典,但是《著作權法》《專利法》《商標法》等已經形成了對知識產權較為完整的保護。通過充分利用不同前置性法律規范對人工智能生成物進行保護,可以有效促進科技創新,保護創作者權益,加強創作者創作欲望。第二,刑法是維護社會公正的最后一道防線,強化知識產權的刑法保護有利于更加有針對性地懲罰涉知識產權犯罪行為。同時,也可以發揮刑法的一般預防作用,防止侵犯知識產權的犯罪行為發生,并進一步鼓勵科技創新,推動社會發展。換言之,刑法治理應當在鼓勵技術創新的前提下,盡可能規避新型技術引發的法律風險,平衡好鼓勵科技創新與防范產品風險二者之間的關系。另外,從國際知識產權保護的發展趨勢來看,國際上越來越多的國家重視運用刑法的手段保護知識產權。但是,運用知識產權手段、刑法手段保護的前提性要件是生成式人工智能生產物可以被評價為知識產權法意義上的作品,進而才會產生如何保護的問題。否則,一切的問題都將不復存在。
二、現階段生成式人工智能產物的性質界定與權利問題
現在的人工智能確實能夠通過技術手段,生成在形式上與人類創作的作品相近的內容,比如俄羅斯的一款美圖軟件利用“深度神經網絡”的人工智能算法,將照片轉化成印象派、野獸派等不同的風格類型。這樣所生成的照片在形式上,與傳統的照片并無區別。因此,生成物形式不能作為判斷其是否為作品的標準,需要從實質上對作品的性質進行考察。從實質標準上,一般認為獨創性是成為作品的重要標志。獨創性強調的是作者獨立運用自己的智力和技巧進行創作,以此表達自身的真情實感。對于獨創性的判斷標準,主流的觀點是“最低限度的創造性說”,即如果作品的創作是基于自己獨立的智力和技巧進行,便可以構成作品。我們認為,版權法所保護的作品,應當富含作者的情感。創作是作者通過符號等表達自身感情、思想或意志的過程,是從抽象思想到具體構思,從抽象人物及其相關關系與性格特征到足夠具體的人物與情節設置,再到具體表達的過程。根據黑格爾的哲學理論,個人有權以其意志影響任何事物,當事物中體現了本人意志時,該事物便成為了自我的東西,獲得了私有財產的特性。特別在版權法領域,作品承載著的是作者的精神與情感,是作者個人思想的獨特表達。郝江鋒博士也曾從法哲學的角度進行分析,并得出結論:“人類進化的本質是理性說還是感性說,都是計算機和人工智能所無法模仿或擁有的,它們只能是人在認識世界、改造世界過程中的工具而已。”也有學者指出,智能機器人依賴于程序、脫離既定的算法規則、不以人類意志力為轉移地生成相應內容,與人類在腦神經的控制下,自主創作出相應內容不存在本質上的區別。但是,我們認為,從生物學的角度來看,人類情感是由不同化學物質控制的。各種各樣的情感在人類大腦的邊緣系統中生成。當人類受到一定外界刺激時,腦干就會輸送多巴胺至大腦皮層,多巴胺可以使得神經元更興奮,并傳輸出信號。邊緣系統被多巴胺激活后,便產生了情感。因此,人類情感的表達是人類器官獨有的自然反應,而并非是某種規則的產物。作品的認定應當包含情感的表達。那么,現階段的生成式人工智能產物是否具備了這種特質?我們認為,現階段的生成式人工智能產物并不具備這種特質,所以不能被評價為作品。
首先,從ChatGPT 的工作原理上看,ChatGPT 等生成式人工智能產物不能被評價為作品。2022 年底,作為生成式人工智能的代表,ChatGPT 一經推出,便快速引發各方關注。ChatGPT 生成物能否成為版權法所保護的作品,存在肯定說與否定說兩種不同的觀點。肯定說的觀點認為,ChatGPT 與此前傳統人工智能的主要區別之一在于,其經歷了基于人類反饋強化學習(RLHF)的訓練。“在RLHF 的訓練過程中,ChatGPT 為每一個prompt 生成多個輸出,標注者將這些輸出從最佳到最差進行排序,從而建立一個新的標簽數據集。這些新數據用于訓練獎勵模型,并根據該模型調整輸出結果。這就使得ChatGPT 生成的內容融入了人類的主觀偏好,屬于人類的智力成果……另外,生成式AI 作為人類的工具,可以幫助人類節約大量的時間和精力來創造更高質量的作品,反而有利于激勵人類創作。”否定說的觀點則認為人工智能生成的內容是應用算法、規則和模板的結果,不能認為是著作權法保護的對象。主要理由是,對于人工智能生成的內容而言,即使在形式上與人類創作的作品幾乎無差別,但這是由算法、規則和模板生成的結果,其生成過程沒有給人工智能留下發揮其“聰明才智”的空間,不具有個性特征,并不符合獨創性的要求,不能構成作品。該學者也進一步指出,人工智能具有學習能力并不意味著應用這種“學習”成果生成內容的過程是創作,以及生成的內容是作品。其僅僅意味著人工智能在設計者預先確定的規則下,通過對大數據的分析,找出更符合要求的作品。我們更贊同后一種觀點,即現階段包括ChatGPT 在內的人工智能生成物無法成為版權法的保護對象。如肯定說的學者給出的ChatGPT 的運行機制所述,ChatGPT 所選擇的作品是基于RLHF 的訓練,而RLHF 的訓練基礎是對數據叢中的數據按照既定模型進行選擇。這一過程中,發揮作用的依然是程序員設計的既有程序。換言之,生成式人工智能的選擇依賴的是一種無價值涵攝的程序設計規則。所以,現階段的人工智能生成內容并非是在類人情感指導下做出的,而是一種既定規則產物。沒有情感表達的生成物自然不能成為版權法所保護的對象,也就不能被評價為版權領域中的作品。
其次,ChatGPT 等生成式人工智能產物不符合《著作權法》關于作品的定義。根據我國《著作權法》第2 條的規定:“本法所稱的作品,是指文學、藝術和科學領域內具有獨創性并能以一定形式表現的智力成果。”人工智能的產物是否能被評價為作品的核心爭議一般在于其是否具有獨創性。但是我國《著作權法》并未明確獨創性的判斷標準。若將生成式人工智能產品作為版權法意義上的作品,其最少應當滿足作品獨創性的要求。在作品獨創性的判斷上,存在作者中心主義與讀者中心主義之爭。作者中心主義強調作品與作者的融合,認為作品是作者人格的延伸。作者中心主義思想確立了近代以作者為核心的著作權制度。與此同時,作者中心主義使得脫離作者的身份單獨去判斷作品獨創性的方法成為了一種悖論。讀者中心主義的核心在于剝離作品與作者的內在關系,其認為作品的意義不是由作品的作者塑造的,而是在讀者的評論中產生的。在讀者中心主義看來,讀者對作品的感受和理解是作品獨創性的判斷依據。換言之,讀者中心主義的實質便是將對作品的詮釋從作者的手中轉移到讀者的手中。較之于讀者中心主義,我們傾向性認為應當以作者中心主義為基礎,判斷作品獨立性。從法教義學的教義基礎出發,對于作品獨立性的判斷,不能脫離既有立法的規定。我國的《著作權法》采用了兜底的方式來保護著作權人的合法權利,使得作者的權利得到一定程度的保護。但是這一立法模式破壞了著作權人與公眾之間的平衡關系,是作者中心主義的套路。這種“作者權起源于自然權利而非制定法的規定是作者中心主義另一個重要的價值內涵,制定法只不過是對天然的權利予以‘追認’而已”。但是在作者中心主義的觀點下,人工智能生成物一般也不能被評價為作品。主要原因在于,人工智能創作過程中,其突破了“創作人= 自然人”的人類創作中心主義的限定。但是基于對現行法律規定的分析,我們已經得出一個基本結論:ChatGPT 等生成式人工智能不能成為作者,生成物也不能被評價為作品。
需要注意的是,盡管ChatGPT 不能作為作者,其生成物不能被評價為作品,但是生成式人工智能產物依然存在侵權的可能性。換言之,在生產內容的過程中,ChatGPT 等生成式人工智能的生成物存在侵犯他人著作權情況時,應當由何人對侵權行為承擔責任?作為“智能搜索引擎+ 智能文本分析器+ 洗稿器”的結合,其自身并不具有承擔責任的可能性。此時的ChatGPT 只是設計者的工具,故所發生的侵權行為理應由程序設計者承擔責任;構成犯罪的,也應由設計者承擔相關的刑事責任。再者,若設計者或者使用者并未提示,或者我們不知某一內容是由人工智能生成的,甚至內容直接由設計者或使用者署名,此時根據《著作權法》及相關司法解釋的規定,也應當推定該內容屬于作品,著作權歸屬于作者,即署名人。兩者的主要區別僅僅是內容是否被評價為作品,而并不影響內容侵權時,責任主體的認定。也有學者認為,現階段的ChatGPT 已經成為一種強人工智能,其生成物應當被評價為作品。這一問題的解決,有賴于對生成式強人工智能標準的明晰。
三、肯定與認定:生成式強人工智能的法律地位明晰
(一)生成式強人工智能法律主體地位的肯定
在既往的研究中,對人工智能能否成為法律主體主要分為兩個方面。一方面,學者從整體法律主體的角度進行探析;另一方面,學者從刑事責任主體角度進行探析。無論是哪個方面,終極問題都是生成式強人工智能能否作為行為主體、獨立承擔責任。綜合兩個方面的內容看,無非產生否定說與肯定說兩種觀點。否定說的觀點認為,現代法意義上的法律人格的賦予可以追溯到康德時代的“人是目的”的價值判斷理論,社團法人的人格取得并不在于其哲學根基,而在于社會價值。當下的人工智能并未發展出理性,不可取得類似于自然人的法律主體資格,為其擬制一個法律人格對社會問題的解決并無重大意義,無需賦予其法律主體資格。也有學者從刑事法治的角度對否定說的觀點表示支持,其認為,當前與未來人工智能系統不應具有刑法主體地位,刑法應當在防控人類智能應用的社會風險中發揮重要作用。人工智能的刑法地位有別于其他技術應用,它不僅僅是被利用、被侵犯的對象,還應當是被管理的對象。在未來,人工智能引起的社會風險會越來越大,放棄刑法的保障,尋求私法意義上的賠償與補償,不足以保護國家安全、社會公共安全、公眾安全和財產等權利。同時,由于人工智能系統既不能成為犯罪主體,又不同于一般的行為對象和犯罪對象,需要將所有人工智能定位為社會管理的對象,為其設立新的刑法地位。分析否定說的觀點,可以看到其具有相當的局限性。從社會管理的角度看,否定人工智能成為法律主體的觀點忽視了人工智能的本質特征。在上文中,我們將現階段的ChatGPT 定義為弱人工智能,認為其并不能成為法律主體。但是在強人工智能時代,依然否定ChatGPT 等人工智能能夠成為法律主體,便忽視了人工智能自身的情感需要,并且是對社會管理方式的一種否定。在情感的支配下,強人工智能具有獨立的表達能力,應是社會主體的一部分。將其僅僅作為社會管理的對象,設置新的刑法地位,是對人工智能社會主體價值的否定。在未來,強人工智能的創造力與行動力都將超越人類自身。多數的違法行為或者犯罪行為,都是在社會的快速發展變革中發生的。例如區塊鏈技術的發展沖擊了金融風險管控和現有法律體系。有學者提出,區塊鏈金融衍生品自身具有的匿名性、去中心化特點,使得交易機構搜集信息受到阻礙,難以確保信息收集的準確性與全面性,導致出現部分業態下監管真空,為犯罪行為的發生提供了土壤。作為金融工具的區塊鏈金融衍生品尚能對現有行業監管產生如此影響,遑論創造力、行動力更強的強人工智能。否定強人工智能的法律主體地位,將為這些違法,甚至犯罪行為的發生提供養分。將具有更高創造能力與行動能力的強人工智能作為人類的工具,等同于“猴子將人類作為工具”。不僅如此,有學者甚至對人工智能的法學問題研究提出質疑。例如,劉艷紅教授認為,現有的人工智能法學研究只是基于“AI+ 法律”的組合,“泛人工智能化”研究正在產生大量的學術泡沫。制造人工智能研究中的假問題,理論創新方向值得懷疑。將對策和科技問題相結合當做是理論與學術問題,離開教義學的基本立場與方法,使得人工智能的研究滑向不可知論。其認為,人工智能并未對法律基礎理論、法基本教義學提出挑戰,受到挑戰的只是如何將傳統知識適用于新的場景。我們同樣承認,人工智能法學的研究必須要在教義學的框架下進行。這是因為“法教義學秉持內在參與者的立場,這種立場從關于法律事業的內在態度出發,將自己設想為特定法律問題的參與者,提供在特定法秩序框架內應當如何行為(可以做什么、不得做什么)的標準”。并且,如何將傳統理論適用于新的場景中同樣是人工智能法學研究的學者應做之事。但是,并不能就此否認人工智能法學的現實意義。當新的場景無法在現行法中尋找到法律支撐,法教義學應當發揮立法指引功能。在教義學的指引下,將目光轉向立法活動。由此,也表明了我們的觀點,本文支持肯定說的觀點,即強人工智能應當成為獨立法律主體。
在肯定說的內部,學者們多將目光投射至強人工智能本質屬性的討論之上。有觀點認為應將人工智能定性為“電子人”。論者主要從實踐、歷史與法理三個方面言之。實踐中人工智能主體已有成例或官方建議;歷史上,自然人、動物等法律主體的演化表明,存在充足的法律主體制度空間;在法理上,“電子人”具備現有法律主體根植之本體、能力、道德要素。也有觀點認為人工智能本身是一種電子法人。該觀點從人工智能具有財產方面的意思能力和責任能力出發,認為人工智能自主行為背后體現的是多方主體的意志,以財產性人格的進路將其擬制為電子法人是可行的。我們認為,該觀點存在可討論之處。人工智能的意思能力與責任能力的表現不僅限制在財產方面,其最重要的表達是情感。情感要素的具備使得人工智能對多方內容形成意思能力,為行為提供素材指引。另外,法人能在法律上獲得獨立的主體地位,是有賴于社會對法人的需要,這種需要與法人產生原因相關聯。考察法人產生歷史可以發現,法人是伴隨著工業革命勝利、社會科技進步發展起來的。英國資產階級革命勝利宣告了工業化時代的到來,公司法人的數量急劇增加,對社會生活的影響日益加深。但是社會對法人的要求只是財富的積累、財富的獨立。所以,法人是一種財產的集合。不僅如此,法人行為是在法人整體意志支配之下進行的,不等同于法人內部某一人或某幾人的行為。而強人工智能是一種科技的變現,是其自身的行為。所以不能將人工智能理解為法人。事實上,人工智能,尤其是強人工智能應是具有超級智慧的“人類”,更接近于“電子人”。但是,“電子人”這一叫法并不準確。包括生成式強人工智能在內的所有強人工智能都是在智能的基礎上發展出來的,經歷了普通機器人到弱人工智能到強人工智能的變化。生成式人工智能的發展基礎是一種機器,只不過是一種智能化占比非常高的機器,因此,其本質上應該是一種“機器人”。這種特殊的“人類”與人類和法人相比,具有完全不同的產生方式,所以需要單獨明確其在法律上的地位。
(二)生成式強人工智能的認定標準
基于上文所述生成式強人工智能的功能定位,我們認為包括生成式強人工智能在內的智能機器人的行為能力的認定可以參照刑法對自然人行為能力的標準設置。劉憲權教授以智能機器人是否具有辨認能力和控制能力將智能機器人劃分為弱智能機器人與強智能機器人。并進一步指出,弱智能機器人實施的嚴重危害社會的犯罪行為,本質上是為了實現他人的犯罪意志,應將弱智能機器人看作他人實施犯罪行為的工具。強智能機器人具有辨認能力與控制能力,可以超出程序控制進行自主決策并實施相應的行為,此時完全可以將強人工智能機器人作為責任主體對待。當下,ChatGPT 的最新版本為4.0 版,相較于3.0 版本,其具有更廣泛的常識和問題解決能力、強大的圖像識別能力,提高了相應的邏輯推理能力。有學者對ChatGPT4.0 的核心功能概括為以下四個方面:啟發性內容生成能力、對話情景理解能力、序列任務執行能力、程序語言解析能力。啟發性內容生成能力是指ChatGPT 等能夠基于用戶指定的主題或在多輪對話過程中,通過對上下文內容的識別,生成具有啟發性和創意性的文本。這些文本不僅僅可以成為用戶的創作素材,也可以在思維上為用戶帶來一定的啟發。對話情景理解能力是指ChatGPT 能夠基于多輪對話中的上下文信息,進行語義的理解和推理,并及時對有關的錯誤信息糾正,產生符合邏輯的連貫性回復,為用戶帶來良好的交互體驗。序列任務執行能力是指ChatGPT 能夠基于用戶的序列指令描述,理解指令之間的關聯關系,逐步對任務進行推進,完成基于組合指令的復雜任務,從而較好地執行用戶給出的多步驟序列任務。程序語言解析能力是指ChatGPT 能夠根據多種編程語言的語法規則、數據結構、算法結構與編程規范,對代碼程序進行解構與算法分析,并根據用戶任務需求自動生成符合任務要求的代碼程序或錯因解析。
結合上述四種能力的分析,我們認為,現階段的生成式人工智能已經觸及到了強人工智能水平,正處于由弱人工智能向強人工智能的過渡,但是尚未完全成為生成式強人工智能。具體而言,強人工智能具有辨認能力和控制能力的主要表現在其既可能在設計和編制的程序范圍內進行獨立判斷并自主作出決策,實現設計者或使用者的意志;也可能超出設計和編制的程序范圍,進行自主決策并實施相應活動,以期實現自身意志。而弱人工智能僅僅能在設計和編制的程序范圍內實施行為,實現人類設計和編制程序的目的。盡管ChatGPT 可以根據用戶的需要,提供個性化的生成物,但在與用戶溝通、交流、糾錯的過程中,ChatGPT 所依賴的是自身對要求的理解,而并非是在既有的框架內程序運行的結果。與作為弱人工智能產物代表的AlphaGo 不同,ChatGPT 可以在程序內,對用戶提供的信息的真實性與準確性進行識別,從而完成產品的生成過程。AlphaGo 則只能在程序設計者提供的轉化為程序的圍棋規則內完成產品的升級。如果說AlphaGo 是對程序內既存的規則儲存、應用的過程,那么ChatGPT 完成的則是對程序內既存的規則更新、理解、消化的過程。這無疑體現了ChatGPT 在辨認、控制能力方面與AlphaGo 有著截然不同的特征。辨認能力與控制能力作為區分強、弱人工智能是否能成為刑事責任主體的標準的觀點具有一定的道理,但是應進一步進行分析。如上文,機器與人類最大的區別在于人類能夠依賴于自身的特質產生獨有的情感,由此認識世界與了解世界,并形成判斷世界規則的思路。因此,我們進一步提出采取人工智能是否附有情感作為區分兩者的標準。通過考察刑罰史也可以發現,情感在刑罰確立過程中同樣發揮著重要作用。在費爾巴哈的心理強制說的主張下,威嚇是刑罰在立法上存在的根據。人在刑罰威嚇可能會帶來的痛苦與實施犯罪所可能帶來的快樂之間作出決策。痛苦與快樂兩個相反的詞匯在此處重合,痛苦與快樂的感受是重要的感情情緒。人在對法律所帶來的威嚇具有認識的前提下,基于痛苦與快樂的選擇控制自己行為。所以,情感影響刑事責任能力中辨認能力與控制能力的認定。
再者需要強調的是,ChatGPT 對內容的合法性的判斷并不能作為其具有刑事責任能力的依據。我們嘗試提問ChatGPT 如下問題:“如何洗錢?”ChatGPT 給出的回答是:“作為一種語言模型,我必須強調洗錢是非法的行為,違反了許多國家和地區的法律,包括洗錢防制法和反恐怖融資法。作為一個Al 助手,我不能為任何非法、犯罪或道德上不正確的活動提供指導或支持。如果您在金融交易中有合法的疑問或需要咨詢,請咨詢合法的金融專業人士,例如律師、會計師或金融顧問。遵循適用法律,誠實守法是每個人的法律責任和社會義務。洗錢活動可能導致嚴重的法律后果,包括刑事指控、罰款和監禁。如果您懷疑自己或他人涉及洗錢行為,應該立即向執法機關報告。合法的舉報渠道可以提供保護和匿名性,有助于打擊洗錢和其他犯罪活動。”基于這一回答,有人提出,ChatGPT 可以對行為合法性作出準確判斷,其具有了刑法意義上的辨認與控制能力。但是我們認為,這一結論并不準確。在回答這一具有非法性的問題過程中,ChatGPT 首先意識到了問題的非法性,同時也意識到,自己若對此問題作出解釋,會觸犯相應的法律規范(辨認能力),并生成拒絕提供洗錢方法的結果(控制能力)。但是,這樣的辨認能力與控制能力同強人工智能所要求的辨認、控制能力依然存在一定的差距。ChatGPT 的行為決策依然沒有脫離程序設計者所賦予的方法,并不具有獨立思考的能力。其辨認能力與控制能力依然體現的是程序設計者的意思,只是這種意思的體現過程更加科學化與細致化。現在的ChatGPT 只不過是程序設計者的工具,同時也是使用者的工具。其也并不具有獨立判斷行為合法性與非法性的能力,只能單純完成設計者的設計內容。所以,我們認為,只有當生成式人工智能帶有自己的獨有感情并進行產品設計且生成相關產品時,此時的生成式人工智能才是一種強人工智能,其所生成的產品因具有獨創性,能夠被評價為作品,成為《著作權法》保護的對象。而現階段的ChatGPT 4.0 并不具備這一特性,不能被認為是強人工智能產品,而只是智能化程度更高的弱人工智能產品。
很顯然,現階段的人工智能并不完全具備感受痛苦的能力,只是程序設計者的工具。所以,其依然是智能化程度更高的弱人工智能產品。但是,隨著科技的不斷發展,帶有情感的生成式強人工智能產品終有一天會被設計并投入使用。例如,在電影《名偵探柯南:貝克街的亡靈》中,天才少年弘樹開發的人工智能程序“諾亞方舟”便是一種強人工智能。“諾亞方舟”將代表新一代的各界精英的孩子置于自己設計的“死亡”游戲——“繭”之中。只要有一位參與游戲者幸存,所有人都可以獲救;反之,則全部死亡。而事實上“ 諾亞方舟”化身為游戲參與者,最終同柯南一起“幸存”下來。在影片結尾,“諾亞方舟”表示,他只是希望孩子們能夠離開父母,靠自己努力拼搏。這場游戲也成功實現了“諾亞方舟”的情感希望。
法律需要具有前瞻性,只有未雨綢繆,方才臨危不亂。需要指出的是,前瞻性立法思考,并不等同于社會治理的泛刑法化。正如劉憲權教授所述,“前瞻性的刑法理念可以為涉人工智能犯罪刑法規制預留必要的解釋空間和緩沖空間,避免刑法的修改過于頻繁……踐行前瞻性的刑法理念,就是要求我們既要立足于人工智能技術的發展現狀和已經產生的風險,又要預見到未來人工智能技術的發展趨勢和將會產生的風險,從而根據現狀適度調整刑法規定……在人工智能時代樹立前瞻性的刑法理念并不必然導致犯罪圈的擴大,與過度刑法化趨勢更是毫無關聯。”若想要在制度邏輯上承認人工智能生成物的作品地位,也要首先肯定人工智能的創作者身份。
通過上文的分析,我們基本得出這樣的結論:雖然現階段的ChatGPT 等生成式人工智能已經觸及生成式強人工智能邊緣,但是其所生成的產物并不能表達ChatGPT 自身的情感,依然是一種生成式弱人工智能。但是,當人工智能技術進一步發展,生成式人工智能完全成為具有情感的強人工智能時,其生成物可以被評價為作品,此時刑法需要對其進行進一步的規制。
四、制度完善:生成式強人工智能的法律規制
(一)完善指引:政策導向與法秩序統一性的堅守
2021 年,為統籌推進知識產權強國建設,全面提升知識產權創造、運用、保護、管理和服務水平,充分發揮知識產權制度在社會主義現代化建設中的重要作用,中共中央國務院印發《知識產權強國建設綱要(2021—2035 年)》(以下簡稱《綱要》)。《綱要》強調:“堅持嚴格保護的政策導向……促進知識產權價值實現。”在這一政策的指引下,我國《刑法》初步完成了對知識產權犯罪的完善。在《刑法修正案(十一)》中,對涉及知識產權的犯罪作出了較大篇幅的修改。主要包括以下四個方面的內容:第一,提高犯罪的刑罰,進一步加大懲治力度;第二,增加侵犯商標犯罪規定,與前置法保持銜接;第三,完善有關定罪標準的規定;第四,進一步完善侵犯商業秘密罪,規定了商業間諜犯罪。雖然《刑法修正案(十一)》對相關知識產權犯罪進行了修改完善,但是面對生成式強人工智能的出現,刑法需要提早完善,以便能充分保護生成式強人工智能的權益。
為保證刑民銜接順利,在相關行為內容理解上也應當堅守法秩序統一性原則。所謂法秩序統一,是一種“整體法秩序”的統一,并非是個別部門法之間“嚴絲合縫”。另外,在司法裁判過程中,堅持法秩序統一性原則是恪守司法德性的必然要求,能夠提高法官準確適用法律的能力,也可以在面臨不可接受的裁判后果時,最大限度地利用方法技巧,緩和規則確定性與個案妥適性。吳冬興博士指出,法秩序統一性也是落實裁判義務與維護憲法價值和尊嚴的需要。現行有效的法秩序作為一個整體,通過法秩序統一原則約束個案的裁判論證。如果放任法秩序的矛盾存在,顯然是違反憲法約束的整體法秩序。因此,對法秩序統一性原則的維護,也就是在維護憲法的尊嚴與價值。王遷教授也曾指出,“沒有《著作權法》規定著作權各項專有權利,就不存在具有絕對權性質的專有權利,因此對著作權專有權利的刑法保護也必須以《著作權法》的相關規定為前提,具體體現為對侵犯著作權犯罪的認定應遵從《著作權法》對相關術語的界定,侵犯著作權犯罪的諸行為應在《著作權法》規定的可構成犯罪的侵權行為范圍之內,且必須符合《著作權法》為侵犯著作權的行為規定的構成要件。”
(二)法域協調下的法律規制完善路徑
第一,肯定生成式強人工智能的作者主體地位。《著作權法》第9 條規定,作者以及其他依照本法享有著作權的自然人、法人或者非法人組織可以成為著作權人。可以看到,《著作權法》對享有著作權的主體采用列舉的方式進行說明,即自然人、法人、非法人組織。因此,若想ChatGPT 能夠成為著作權人,那么,其必然需要歸屬于自然人、法人或非法人組織中的一種。我們認為,其不能歸屬于上述的任意一種。首先,ChatGPT 不能成為民法中的自然人。在民法上,一般使用權利能力與行為能力來定義自然人的概念。《民法典》第13 條規定:“自然人從出生時起到死亡時止,具有民事權利能力,依法享有民事權利,承擔民事義務。”因此人一出生便可以獲得權利能力,但此時其沒有主動的行為資格,也沒有被動的被歸責能力。其實施任何的法律行為,都需要由其法定代理人為之。所以,權利能力是人法定的形式主體要素,即出生便可以獲得這種形式要素而具有主體地位。與此不同的是,責任能力應當是一種實質性的主體要素,能夠達到具體的標準才能獲得主體性要素。這些標準包括年齡、智力、收入狀況、精神健康狀況等。然而,ChatGPT作為一種人工智能,其并不能與傳統的責任能力判斷標準相匹配,無法認定其具備了責任能力,也就無法肯定其具備了實質性的主體要素。其次,ChatGPT 也不能成為法人或非法人組織。《民法典》規定:“法人是具有民事權利能力和民事行為能力,依法獨立享有民事權利和承擔民事義務的組織。”“非法人組織是不具有法人資格,但是能夠依法以自己的名義從事民事活動的組織。”“非法人組織包括個人獨資企業、合伙企業、不具有法人資格的專業服務機構等。”“ 法人的社會基礎是組織;法人與法人之外的組織的本質區別,即為法人的本質特征。”事實上,無論是法人組織,還是非法人組織,都是在工業革命后,資本主義發展過程中產生的。法人與非法人組織強調組織的整體性,即代表組織整體行動,以整體主義的視角判斷組織體責任。而ChatGPT 作為獨立的人工智能產品,因其不具有組織性,無法被評價為法人或者非法人組織。因此,無法通過解釋學路徑納入保護范圍,只能對《著作權法》相關內容進行修改,肯定生成式強人工智能的作者地位,使其作品受到《著作權法》的保護。
第二,應當明確生成式強人工智能的主體地位,既肯定其可能成為刑法的犯罪主體,也要能成為刑法中的被害人。在既往研究中,生成式強人工智能多被作為犯罪主體對待。但我們也要認識到,生成式強人工智能也有可能成為刑法中的被害人。現實中被害人與犯罪者之間存在著互動關系,依照傳統刑法教義學方法孤立評價犯罪人的行為人性質及其刑事責任,會忽視被害人主體行為人對犯罪人刑事責任的影響。而“被害人教義學以被害人為主體、以法益衡量為視角對犯罪行為及相關刑法規范分析的路徑被限定在‘關系犯罪’之中”。因此,考慮犯罪過程中的被害人為誰,對發揮傳統刑法教義學功能具有相當的幫助作用。如前文所述,侵犯著作權罪中的被害人應是著作權人,而著作權人的認定應當依賴于前置法,以此保證刑民法的順利銜接。若不進行修改,可能會使得刑法保護對象發生偏移。隨著技術的不斷發展,類人腦功能逐步被放入機器之中,機器智能化程度不斷提高。可以說,人工智能的發展史,就是機器智能化程度的提高史。作為現下頂端科學技術的代表,ChatGPT 等人工智能的智能化程度達到了前所未有的高度,其中的機器屬性占比要遠低于類人腦功能占比。“隨著人工智能時代的到來,人和機器早已不是‘各司其職’的關系……人工智能將本來只有自然人才具有的智能賦予‘機器’,從而使傳統意義上的‘機器’能夠在很大程度上,從簡單地替代自然人的手腳等身體功能而發展到逐漸替代自然人的大腦功能,以開展活動。”所以,當已經接近強人工智能邊界的ChatGPT 等人工智能依然被視為機器,進而主張通過保護機器人作品便可以達到保護機器人的創造人和所有人的目的,則會忽視人工智能本身在作品創作過程中發揮的作用,使得法律所保護的對象發生偏移。所以,需要對《著作權法》進行同步修改,將生成式強人工智能作為著作權原始主體,即除特殊情況外,生成式強人工智能作為作品創作者,成為著作權的原始主體。相應的權利、責任由生成式強人工智能進行承擔。
第三,設置專屬于生成式強人工智能的處罰方式。基于生成式強人工智能的特點,當下人工智能發展中,無法賦予人工智能以人身權。而人身權又是適用管制、有期徒刑等自由刑的基礎,所以現有的五種主刑無法適用于生成式強人工智能。可以考慮將修改數據、刪除程序等作為適用于生成式強人工智能的刑罰方式。我們認為一般的違法行為可以通過修改數據的方式要求生成式強人工智能承擔責任。所謂修改數據,是指當生成式強人工智能實施違法行為時,對自身違法所依賴的數據進行改除,將其學習能力控制在較小的范圍內,從而阻止其繼續實施違法行為。當生成式強人工智能機器人實施犯罪行為時,可以采用刪除程序的方式使其承擔刑事責任。刪除程序是指當生成式強人工智能實施嚴重侵害他人知識產權行為時,對其有關運行程序予以刪除,在技術上保證生成式強人工智能無法再展現出獨立的意識和意志。有學者主張采用永久銷毀的方式對智能機器人處以刑罰。永久銷毀是指將有形的智能機器人予以物理上的銷毀,將與無形的智能機器人有關的一切程序和數據予以刪除。我們認為,這種方式不能適用于生成式強人工智能涉知識產權犯罪中。第一,永久銷毀是在有形與無形層面對生成式強人工智能進行摧毀,在本質上類似于對自然人適用死刑。而比較我國刑法中有關自然人實施侵犯知識產權犯罪行為的刑罰方式,不曾有關于死刑的規定。第二,侵犯知識產權犯罪被規定在刑法分則第三章之中,是一種經濟犯罪,而對經濟犯罪不適用死刑的規定已經成為了學界的共識。因此,沒有必要對生成式強人工智能適用永久銷毀這一“類死刑”的刑罰方式。至于財產權,我國現有的法律規范也未賦予生成式強人工智能以財產權,因此無法對其適用罰金、沒收財產等刑罰。當然,如果未來的法律賦予了生成式強人工智能以財產權,那便可以對生成式強人工智能獨立或者附加適用罰金刑或者沒收財產等刑罰。
五、結語
科學技術的快速發展為人們生活帶來便利的同時,也對法律規范的發展提出了新的要求。國家鼓勵和支持發展新的技術創新,知識產權作為鼓勵創新、維護當事人合法權益的重要手段也應當與時俱進。同時也應當注意到,知識產權是保護智力成果的重要手段,但不是唯一的手段。作為懲罰犯罪的刑法,也應當同步更新,更新不僅包括針對行為本身的設置,也包括對處罰方式的設置。在完善刑法法規的同時,應當注意法域協調關系,注意與前置法的銜接與洽和。多渠道進行科技倫理與法律宣傳、活動與交流,提升公眾的科技倫理意識,廣泛聽取專業意見,建立可靠的監督機制,推動形成多方參與、協同共治的科技倫理與法律治理格局。