摘要:近年來(lái),生成式人工智能快速發(fā)展,ChatGPT出現(xiàn)在大眾視野。生成式人工智能背景下,引發(fā)了一系列的法律問(wèn)題,其中,專(zhuān)利相關(guān)問(wèn)題不容忽視。為了促進(jìn)人工智能相關(guān)產(chǎn)業(yè)更好地發(fā)展,文章首先通過(guò)統(tǒng)計(jì)分析法、VOSviewer共現(xiàn)聚類(lèi)分析法等分析了生成式人工智能的現(xiàn)狀;再通過(guò)文獻(xiàn)分析法、案例分析法等將專(zhuān)利相關(guān)問(wèn)題主要分為三種:法律保護(hù)范圍問(wèn)題、專(zhuān)利權(quán)歸屬問(wèn)題、專(zhuān)利侵權(quán)問(wèn)題。通過(guò)對(duì)這三種問(wèn)題的思考與探究,輔以相關(guān)的案例展開(kāi)研究,說(shuō)明了AIGC背景下可能引發(fā)的專(zhuān)利問(wèn)題,并提出一定的解決思路,以期為生成式人工智能相關(guān)產(chǎn)業(yè)的發(fā)展提供一定的理論參考。
關(guān)鍵詞:生成式人工智能(AIGC);專(zhuān)利法;專(zhuān)利問(wèn)題;專(zhuān)利權(quán)屬;專(zhuān)利侵權(quán)
中圖分類(lèi)號(hào):TP108文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1005-6432(2024)27-0187-04
DOI:10.13939/j.cnki.zgsc.2024.27.047
1引言
第一次人工智能研討會(huì)于1956年在美國(guó)達(dá)特茅斯大學(xué)召開(kāi),標(biāo)志著AI的誕生[1];蘇菲亞(Sophia)于2017年作為沙特阿拉伯公民出席了沙特阿拉伯未來(lái)創(chuàng)投展覽會(huì)上[2],這是全球第一臺(tái)具有公民身份的機(jī)器人。此后,世界各國(guó)相繼頒布與人工智能相關(guān)的法律,人工智能成為研究熱點(diǎn)。近期,ChatGPT的出現(xiàn)掀起了生成式人工智能(AIGC)的研究熱潮。
作為推動(dòng)新一代科學(xué)技術(shù)發(fā)展與產(chǎn)業(yè)變革的前瞻性技術(shù),人工智能成為我國(guó)科技發(fā)展的戰(zhàn)略性部署。人工智能技術(shù)的發(fā)展對(duì)知識(shí)產(chǎn)權(quán)法律制度提出了挑戰(zhàn)[3],知識(shí)產(chǎn)權(quán)保護(hù)與制度完善對(duì)于發(fā)展人工智能技術(shù)也至關(guān)重要。
基于共現(xiàn)分析對(duì)期刊文獻(xiàn)發(fā)布內(nèi)容進(jìn)行研究:以中國(guó)知網(wǎng)(CNKI)為數(shù)據(jù)源,以“SU%=生成式人工智能AND法律”為檢索式檢索相關(guān)文獻(xiàn),導(dǎo)出結(jié)果后進(jìn)行共現(xiàn)分析,如圖1所示。
圖1生成式人工智能在法律領(lǐng)域的共現(xiàn)分析結(jié)果
由圖1可知:有關(guān)生成式人工智能的研究主要集中于著作權(quán)法領(lǐng)域,加上時(shí)間這個(gè)元素,可以觀察到研究?jī)A向從著作權(quán)逐步向?qū)@麢?quán)轉(zhuǎn)移。目前有關(guān)生成式人工智能在專(zhuān)利法領(lǐng)域的研究相對(duì)較少,但從當(dāng)前的形勢(shì)來(lái)看,AI所產(chǎn)生的成果呈現(xiàn)出了越來(lái)越多的獨(dú)立性,這給現(xiàn)行的專(zhuān)利法理論體系、法律制度的運(yùn)作帶來(lái)了一系列的問(wèn)題,亟待解決[4]。
根據(jù)人工智能技術(shù)發(fā)揮作用的方式不同,人工智能相關(guān)創(chuàng)新成果涉及的專(zhuān)利問(wèn)題可分為兩類(lèi),一類(lèi)是人工智能技術(shù)的發(fā)明涉及的專(zhuān)利問(wèn)題,另一類(lèi)是人工智能生成的發(fā)明的專(zhuān)利保護(hù)問(wèn)題。文章的研究對(duì)象為第二類(lèi)問(wèn)題,即以人工智能為技術(shù)手段,借助自身算法,通過(guò)對(duì)數(shù)據(jù)進(jìn)行學(xué)習(xí)而生成的技術(shù)方案而引發(fā)的相關(guān)問(wèn)題。法律具有一定的滯后性,文章通過(guò)文獻(xiàn)研究法、案例分析法等研究方法,探究AIGC生成內(nèi)容可能出現(xiàn)的專(zhuān)利問(wèn)題,并將其概括為法律保護(hù)范圍問(wèn)題、專(zhuān)利權(quán)歸屬問(wèn)題和專(zhuān)利侵權(quán)問(wèn)題三大問(wèn)題,并提出了一定的解決方案,以期為生成式人工智能的發(fā)展提供一定的理論參考。
2問(wèn)題研究
隨著人工智能技術(shù)的不斷發(fā)展,相關(guān)的法律逐漸呈現(xiàn)數(shù)據(jù)性、流程性、自動(dòng)性的新特質(zhì)[5]。當(dāng)人工智能所生成的產(chǎn)品具有一定的商業(yè)價(jià)值,并且滿(mǎn)足社會(huì)期望時(shí),也必然會(huì)引發(fā)一系列的法律問(wèn)題。
2.1法律保護(hù)范圍問(wèn)題
生成式人工智能(AIGC)是利用人工智能技術(shù),基于現(xiàn)有文本、音頻文件或圖像,自動(dòng)生成新內(nèi)容的生產(chǎn)方式,其被認(rèn)為是繼專(zhuān)業(yè)生產(chǎn)內(nèi)容(PGC)和用戶(hù)生產(chǎn)內(nèi)容(UGC)后,又一次出現(xiàn)的具有顛覆意義的內(nèi)容創(chuàng)作模式。如何將人工智能產(chǎn)生的內(nèi)容也納入專(zhuān)利法的保護(hù)中,這在現(xiàn)有的專(zhuān)利權(quán)體系中仍然是一個(gè)實(shí)踐的難題。人工智能是由人創(chuàng)造出來(lái)的,它屬于民事法律保護(hù)的客體,也就是民事法律中的“物”,它具有深度學(xué)習(xí)的能力,是一種特殊的“物”。但是,因?yàn)樗梢援a(chǎn)生各種發(fā)明,所以被賦予了它的主體地位,這并不符合主客體二分法的相關(guān)要求。當(dāng)前,從司法的視角來(lái)說(shuō),盡管在司法領(lǐng)域中并未確認(rèn)人工智能的主體地位,但在司法實(shí)踐中并未否認(rèn)人之外的創(chuàng)造性。
“專(zhuān)利法是為了保護(hù)專(zhuān)利權(quán)人的合法權(quán)益,鼓勵(lì)發(fā)明創(chuàng)造,推動(dòng)發(fā)明創(chuàng)造的應(yīng)用,提高創(chuàng)新能力,促進(jìn)科學(xué)技術(shù)進(jìn)步和經(jīng)濟(jì)社會(huì)發(fā)展所制定的法律。”專(zhuān)利法規(guī)定授予專(zhuān)利權(quán)應(yīng)具備新穎性、創(chuàng)造性和實(shí)用性的特點(diǎn)。從專(zhuān)利權(quán)特點(diǎn)的角度來(lái)看,有沒(méi)有必要針對(duì)人工智能的發(fā)明制定特殊的新穎性、創(chuàng)造性和實(shí)用性的標(biāo)準(zhǔn)呢?
如果對(duì)新穎性的審核標(biāo)準(zhǔn)太過(guò)嚴(yán)格,會(huì)使某些有突破潛力的技術(shù)方案喪失可專(zhuān)利性;反之,如果對(duì)創(chuàng)新的審查太寬松,就會(huì)出現(xiàn)大量的專(zhuān)利垃圾。因而把握新穎性審查標(biāo)準(zhǔn)的“度”十分關(guān)鍵。審查員根據(jù)自己的知識(shí)水平進(jìn)行創(chuàng)造性審查時(shí),會(huì)導(dǎo)致對(duì)創(chuàng)造性的判斷具有一定的主觀性,AI所創(chuàng)造的一些技術(shù)方案,在符合現(xiàn)行專(zhuān)利法律的創(chuàng)造性條件方面,比人類(lèi)的發(fā)明創(chuàng)造更易滿(mǎn)足相關(guān)要求[6]。為AI設(shè)置的高創(chuàng)造性標(biāo)準(zhǔn)如果用于人類(lèi)發(fā)明,可能會(huì)抑制人類(lèi)創(chuàng)新的熱情,因而AI創(chuàng)造與人類(lèi)發(fā)明在創(chuàng)造性標(biāo)準(zhǔn)方面存在差異。相比創(chuàng)造性,實(shí)用性兼?zhèn)溆幸媲铱芍貜?fù)實(shí)施的性質(zhì)。因此,在現(xiàn)行專(zhuān)利法律中,有必要對(duì)人工智能自身及其所創(chuàng)造的產(chǎn)品的“實(shí)用性”加以限制。
關(guān)于專(zhuān)利法所保護(hù)的范圍,除了需要滿(mǎn)足基本的特性,還可以采用“排除法”進(jìn)行一定的歸納,主要包括以下三點(diǎn)。
第一,違反公序良俗的應(yīng)該排除在外,比如機(jī)器殺手等,這部分的研究可能會(huì)對(duì)人類(lèi)產(chǎn)生重大的威脅,因而不予鼓勵(lì),雖然其內(nèi)容大多處于各大影視作品之中,但確為人工智能的發(fā)展敲響了一個(gè)警鐘。這與我國(guó)專(zhuān)利法中“對(duì)違反法律、社會(huì)公德或者妨害公共利益的發(fā)明創(chuàng)造,不授予專(zhuān)利權(quán)”相吻合。歐洲專(zhuān)利局也曾上訴技術(shù)委員會(huì)“如果發(fā)明及其應(yīng)用存在破壞和平或社會(huì)秩序的可能性,應(yīng)當(dāng)被排除在可授予專(zhuān)利的范圍之外。”
第二,非技術(shù)方案應(yīng)排除在外,例如快速算法、規(guī)則、數(shù)據(jù)處理算法等人工智能算法本身,比如法律法規(guī)規(guī)定的一些內(nèi)容,其由各個(gè)國(guó)家政府部門(mén)制定,對(duì)人民的行為等進(jìn)行約束;或者是游戲規(guī)則等相關(guān)內(nèi)容,這些應(yīng)當(dāng)被視為我國(guó)專(zhuān)利法規(guī)定的“智力活動(dòng)的規(guī)則和方法”,不屬于專(zhuān)利法保護(hù)的范圍。但是如果針對(duì)一個(gè)算法,使用了技術(shù)的手段,解決了技術(shù)的問(wèn)題,實(shí)現(xiàn)了技術(shù)的效果,滿(mǎn)足這“三技術(shù)”的要求,且不違反公序良俗的內(nèi)容,也應(yīng)包含在專(zhuān)利法所保護(hù)的范圍。比如:指紋識(shí)別、人臉識(shí)別、無(wú)人操作的各類(lèi)系統(tǒng)等,雖然其也是由算法等相關(guān)內(nèi)容組成,但其已經(jīng)超過(guò)了算法本身,屬于技術(shù)方法,屬于專(zhuān)利法保護(hù)的范圍。
第三,難以預(yù)測(cè)或潛在不可逆的發(fā)明應(yīng)排除在外,如數(shù)據(jù)黑箱等,其可能會(huì)產(chǎn)生意想不到的結(jié)果,即生成發(fā)明具有諸多的不確定性,一旦運(yùn)行則無(wú)法停止,不能確保會(huì)不會(huì)產(chǎn)生災(zāi)難性的結(jié)果。
2.2專(zhuān)利權(quán)歸屬問(wèn)題
人工智能生成成果具有可專(zhuān)利性,但不能認(rèn)為人工智能就是生成成果的專(zhuān)利權(quán)人,關(guān)于人工智能生成成功的權(quán)屬問(wèn)題,至今還沒(méi)有確鑿的定論。參與人工智能生成內(nèi)容的主體有很多,這些主體都在人工智能生成相關(guān)發(fā)明等方面起著不同的作用[7]。若授予人工智能生成內(nèi)容相關(guān)的專(zhuān)利權(quán),其權(quán)利應(yīng)該歸屬于哪一方,以目前的專(zhuān)利制度來(lái)看,其權(quán)利所有者并不明確。
自然人和組織如果想以民事主體的姿態(tài)出現(xiàn),前提條件是已經(jīng)具備主體資格。獲得民事主體資格的民事主體才可以具備法律人格,確認(rèn)民事主體資格的基本原則有兩條:一是主體人格獨(dú)立,二是法律地位平等[8]。在民法上,“擁有法的人格的人即擁有權(quán)利能力”。因而是否賦予人工智能以“主體資格”成為多國(guó)學(xué)者熱議的話題。從石器時(shí)代、蒸汽時(shí)代、電氣時(shí)代、信息時(shí)代發(fā)展到智能時(shí)代,人工智能逐漸智能化、個(gè)性化,不斷地向人類(lèi)靠齊,其本身就存在一定的產(chǎn)權(quán)糾紛。ChatGPT作為一個(gè)里程碑的事件,極大地推動(dòng)了人工智能的發(fā)展,促進(jìn)了“弱人工智能”向“強(qiáng)人工智能”的轉(zhuǎn)型[9],但是現(xiàn)在的社會(huì),仍然處在“弱人工智能”的時(shí)代,人工智能并沒(méi)有法律主體的資格,其生成的相關(guān)內(nèi)容的權(quán)利最終歸屬于人類(lèi),由人行使相關(guān)權(quán)利、履行應(yīng)盡義務(wù)、承擔(dān)法律責(zé)任。
而如何對(duì)AI生成的內(nèi)容進(jìn)行專(zhuān)利權(quán)的合理分配成為亟待解決的問(wèn)題。因?yàn)槔嫦嚓P(guān)者眾多,因此,必須對(duì)相關(guān)權(quán)利進(jìn)行合理的分配,使各利益相關(guān)者的權(quán)利處于一個(gè)動(dòng)態(tài)的平衡狀態(tài),以確保一定程度的公平性,才能保證系統(tǒng)的穩(wěn)定運(yùn)行和技術(shù)的健康發(fā)展。
依據(jù)《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》第五條規(guī)定,責(zé)任定位包含了產(chǎn)品生產(chǎn)者和內(nèi)容提供者責(zé)任,有研究者認(rèn)為,這種責(zé)任的認(rèn)定“似乎有過(guò)于嚴(yán)苛之嫌”,但文章并不認(rèn)為責(zé)任的認(rèn)定有問(wèn)題,責(zé)任者確實(shí)可以從這兩個(gè)方面來(lái)進(jìn)行考量,不過(guò),在進(jìn)行責(zé)任或者權(quán)利的歸屬劃分時(shí),應(yīng)當(dāng)重點(diǎn)關(guān)注權(quán)利的細(xì)分,即基于責(zé)任的劃分來(lái)對(duì)權(quán)利者所占的比例進(jìn)行限定。
責(zé)任與權(quán)利是息息相關(guān)的,因而專(zhuān)利權(quán)的歸屬可以從這兩個(gè)方面進(jìn)行考慮。作為產(chǎn)品生產(chǎn)者,生產(chǎn)出人工智能,認(rèn)為其所包含的權(quán)利,有人工智能本身,同時(shí)對(duì)人工智能生產(chǎn)出的內(nèi)容應(yīng)當(dāng)負(fù)一定的責(zé)任,所以也應(yīng)具有一定的權(quán)利。作為內(nèi)容提供者,應(yīng)當(dāng)具有較大的責(zé)任,因而也應(yīng)占據(jù)較大的權(quán)利。所以,在進(jìn)行專(zhuān)利權(quán)歸屬問(wèn)題的探究時(shí),可以制定相關(guān)政策或規(guī)則來(lái)進(jìn)行范圍性的限制,在限制范圍內(nèi)可以視情況靈活處理。
2.3專(zhuān)利侵權(quán)問(wèn)題
隨著人工智能技術(shù)的發(fā)展,科技的研究開(kāi)發(fā)與執(zhí)行水平不斷提高,但是,人工智能在研究開(kāi)發(fā)與應(yīng)用的過(guò)程中,可能會(huì)對(duì)已有專(zhuān)利構(gòu)成侵權(quán)。一方面,人工智能可以通過(guò)文字處理技術(shù)實(shí)現(xiàn)文字創(chuàng)新[10]。另一方面,人工智能也能實(shí)現(xiàn)實(shí)質(zhì)性的創(chuàng)新,使研究與開(kāi)發(fā)活動(dòng)實(shí)現(xiàn)自動(dòng)化,并產(chǎn)生可以實(shí)現(xiàn)的創(chuàng)新方案。尤其是AI能夠從根本上改變目前人類(lèi)研究與開(kāi)發(fā)相對(duì)低效、依賴(lài)偶然因素的狀況,從而更加快速、高效地產(chǎn)生、模擬與評(píng)價(jià)眾多可能的技術(shù)方案。
關(guān)于人工智能專(zhuān)利侵權(quán),具有多階段性、隱蔽性、主體復(fù)雜性三個(gè)特征。例如:在云計(jì)算的技術(shù)方案中,包含平臺(tái)提供商、系統(tǒng)集成商、服務(wù)提供商、應(yīng)用開(kāi)發(fā)者、用戶(hù)五個(gè)主體。由于每個(gè)部分獨(dú)立實(shí)施了某一部分的技術(shù)方案,并沒(méi)有實(shí)施完整的技術(shù)方案,此時(shí),按照專(zhuān)利法的規(guī)定則沒(méi)有直接構(gòu)成專(zhuān)利侵權(quán),但該系統(tǒng)整體來(lái)看是有著侵權(quán)行為的存在。
通過(guò)這個(gè)例子,可以進(jìn)一步思考:在人工智能的研發(fā)與使用過(guò)程中,當(dāng)每個(gè)主體都不構(gòu)成侵權(quán)的情況下,是否會(huì)存在間接侵權(quán)或聯(lián)合侵權(quán)的情況呢?下面將人工智能專(zhuān)利侵權(quán)問(wèn)題分為直接侵權(quán)和間接侵權(quán)進(jìn)行相關(guān)探究。
在我國(guó),對(duì)專(zhuān)利直接侵權(quán)行為的規(guī)范具有明確的法律依據(jù),主要分為積極構(gòu)成要件和消極例外情形兩種類(lèi)型。關(guān)于積極構(gòu)成要件,主要包括生產(chǎn)經(jīng)營(yíng)目的要件和主觀過(guò)錯(cuò)問(wèn)題。在我國(guó),“生產(chǎn)經(jīng)營(yíng)目的”是專(zhuān)利侵權(quán)責(zé)任認(rèn)定需要滿(mǎn)足的要件[11],專(zhuān)利侵權(quán)責(zé)任的歸責(zé)原則尚未得到明確規(guī)定,學(xué)界對(duì)此也未達(dá)成一致意見(jiàn)[12]。根據(jù)目前的法律規(guī)定,專(zhuān)利侵權(quán)行為仍然適用無(wú)過(guò)失歸責(zé)原則,不需要原告舉證,也不需要被告的主觀過(guò)錯(cuò)[13]。針對(duì)人工智能自身,“過(guò)錯(cuò)”判斷困難,開(kāi)發(fā)人員無(wú)法預(yù)測(cè)用戶(hù)的行為,也無(wú)法預(yù)測(cè)自主創(chuàng)新能力的AI的行為,后者無(wú)法預(yù)測(cè)因人工智能的自主創(chuàng)新所引發(fā)的專(zhuān)利侵權(quán)。如果一味地按照過(guò)錯(cuò)原則來(lái)判斷,那么由于主觀上的過(guò)錯(cuò)因素不能滿(mǎn)足,人工智能專(zhuān)利侵權(quán)的認(rèn)定就會(huì)陷入困境。消極例外情形規(guī)定主要包括專(zhuān)利權(quán)用盡原則、先使用抗辯、現(xiàn)有技術(shù)抗辯、科學(xué)實(shí)驗(yàn)例外和善意侵權(quán)[14]。專(zhuān)利權(quán)用盡原則針對(duì)的是專(zhuān)利產(chǎn)品或依照專(zhuān)利方法直接獲得的合法產(chǎn)品,投入到市場(chǎng)之后,后續(xù)的使用并不構(gòu)成侵權(quán),但不適用于方法發(fā)明本身。先使用抗辯原則是指在專(zhuān)利申請(qǐng)日之前已經(jīng)開(kāi)始實(shí)施或者準(zhǔn)備實(shí)施技術(shù),是為了保護(hù)競(jìng)爭(zhēng)對(duì)手的利益,維護(hù)既有市場(chǎng)格局[14]。現(xiàn)有技術(shù)抗辯原則是為了防止現(xiàn)有技術(shù)被利用而產(chǎn)生的不正當(dāng)競(jìng)爭(zhēng)。科學(xué)實(shí)驗(yàn)例外原則是為了促進(jìn)對(duì)專(zhuān)利技術(shù)本身進(jìn)行研究。專(zhuān)利法為保護(hù)善意第三人,在“不知情”和“有正當(dāng)理由”的前提下,設(shè)置了“不知情”和“有正當(dāng)理由”的免責(zé)條款。
對(duì)于專(zhuān)利間接侵權(quán),雖然在專(zhuān)利法上沒(méi)有明確的規(guī)定,但是也可以根據(jù)侵權(quán)責(zé)任法及相關(guān)司法解釋來(lái)對(duì)專(zhuān)利間接侵權(quán)進(jìn)行認(rèn)定,相關(guān)討論也可以在司法案例與學(xué)界理論中見(jiàn)到。其主要包括兩種學(xué)說(shuō),即“從屬說(shuō)”和“獨(dú)立說(shuō)”。如果從“從屬說(shuō)”的觀點(diǎn)來(lái)看,就必須承認(rèn)人工智能的主體地位。然而,在短時(shí)間內(nèi),人工智能的主體地位很難得到大部分國(guó)家的認(rèn)同。所以,當(dāng)“從屬說(shuō)”遇到主體上的困難時(shí),可以從“獨(dú)立說(shuō)”角度入手進(jìn)行認(rèn)定。但是,由于“獨(dú)立說(shuō)”沒(méi)有得到主流意見(jiàn)的認(rèn)同,這一學(xué)說(shuō)自身就有一個(gè)是否在法律適用上的認(rèn)可問(wèn)題。與直接侵權(quán)的判斷相似,“從屬說(shuō)”和“獨(dú)立說(shuō)”均要求有一定的主觀意圖才能成立。人工智能及權(quán)利所有者的主觀意圖的確定是一個(gè)比較困難的問(wèn)題,而且存在證明困境。如果是由人工智能自行完成的發(fā)明創(chuàng)造,并且實(shí)施,也很難將其間接侵權(quán)責(zé)任認(rèn)定出來(lái)。在這種情況下,現(xiàn)有的法律制度很難將侵權(quán)責(zé)任歸屬于人類(lèi)主體,被侵權(quán)的現(xiàn)有專(zhuān)利權(quán)人也很難得到實(shí)際的救濟(jì),因此,需要制定相應(yīng)的制度保障。
此外,生成式AI換臉近期引發(fā)了較大的關(guān)注[15],例如:影視作品換臉剪輯,即用任意人的臉替換影視作品中的人物,雖然目前沒(méi)有相關(guān)案件出現(xiàn),但是從法律的角度,是否侵犯了該影視作品的相關(guān)權(quán)利?如果影視公司對(duì)于某精彩的特殊的部分申請(qǐng)了專(zhuān)利,那是否存在著專(zhuān)利侵權(quán)的風(fēng)險(xiǎn)?此外,AI換臉也可能引起新型網(wǎng)絡(luò)詐騙的出現(xiàn),關(guān)注AIGC背景下可能出現(xiàn)的侵權(quán)問(wèn)題,及時(shí)制定相關(guān)政策進(jìn)行規(guī)范,具有重要的社會(huì)意義。
3結(jié)語(yǔ)
在生成式人工智能背景下,專(zhuān)利問(wèn)題逐漸凸顯,《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》的征求工作目前已經(jīng)結(jié)束,這是國(guó)家首次針對(duì)生成式AI產(chǎn)業(yè)發(fā)布的規(guī)范性政策文件。但對(duì)于解決AIGC背景下可能出現(xiàn)的專(zhuān)利問(wèn)題還遠(yuǎn)遠(yuǎn)不夠,應(yīng)該對(duì)此展開(kāi)全面考慮,從多個(gè)角度對(duì)可能存在的問(wèn)題進(jìn)行思考,在合理地保障現(xiàn)有專(zhuān)利權(quán)的前提下,降低對(duì)人工智能產(chǎn)業(yè)發(fā)展造成的阻礙,從而有效平衡專(zhuān)利權(quán)人、人工智能所有者乃至社會(huì)公眾的利益,促進(jìn)利益相關(guān)者協(xié)調(diào)發(fā)展。
在生成式人工智能發(fā)展的過(guò)程中,政策的規(guī)范是解決專(zhuān)利問(wèn)題的保障,必須結(jié)合人工智能的發(fā)展與實(shí)際情況制定相關(guān)政策,或者是結(jié)合人工智能的情況修改完善現(xiàn)有專(zhuān)利法。幾乎每一次技術(shù)手段的革新都會(huì)引起人們的焦慮,但正是報(bào)紙、影像、網(wǎng)絡(luò)等新技術(shù)的出現(xiàn),讓人類(lèi)文化空間拓展而不是枯萎。人類(lèi)文明的發(fā)展離不開(kāi)各種工具的革新,社會(huì)應(yīng)積極宣傳正能量,營(yíng)造人工智能工具思維的社會(huì)氛圍。相關(guān)行業(yè)應(yīng)從實(shí)用的角度深挖生成式人工智能可以帶給人們的便利,通過(guò)工具賦能,解決問(wèn)題、提高效率、解放勞動(dòng)力。民眾自身應(yīng)以積極的心態(tài)去接受AI,堅(jiān)信未來(lái)人人都可以是AI的使用者和訓(xùn)練師。
參考文獻(xiàn):
[1]曾夢(mèng)媛.人工智能生成物版權(quán)化保護(hù)路徑之爭(zhēng)[J].黑龍江人力資源和社會(huì)保障,2022(7):13-15.
[2]余翔,張潤(rùn)哲,張奔,等.適應(yīng)人工智能快速發(fā)展的知識(shí)產(chǎn)權(quán)制度研究[J].科研管理,2021(8):176-183.
[3]KARAK,BAABDULLAHAM,KOOHANGA.Opinionpaper:“SowhatifChatGPTwroteIt?”Multidisciplinaryperspectivesonopportunities,challengesandimplicationsofgenerativeconversationalAIforresearch,practiceandpolicy[J].Internationaljournalofinformationmanagement,2023(71).
[4]楊紅喬.人工智能生成成果專(zhuān)利保護(hù)研究[D].合肥:安徽大學(xué),2020.
[5]蒲曉曄,黃鑫.人工智能賦能中國(guó)經(jīng)濟(jì)高質(zhì)量發(fā)展的動(dòng)力問(wèn)題研究[J].西安財(cái)經(jīng)大學(xué)學(xué)報(bào),2021(4):101-109.
[6]白月.人工智能生成發(fā)明可專(zhuān)利性及其權(quán)利歸屬[J].成都理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2021(2):31-35.
[7]劉俊祥.經(jīng)濟(jì)政治學(xué)人民政治話語(yǔ)的建構(gòu)邏輯及其現(xiàn)實(shí)表達(dá)[J].哈爾濱工業(yè)大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2020(2):1-11.
[8]吳漢東.關(guān)于知識(shí)產(chǎn)權(quán)本體、主體與客體的重新認(rèn)識(shí)——以財(cái)產(chǎn)所有權(quán)為比較研究對(duì)象[J].法學(xué)評(píng)論,2000(5):3-13.
[9]陶慶.“類(lèi)人機(jī)器人”的工具性與社會(huì)性辨析——世界首例“機(jī)器人公民”的發(fā)生學(xué)意義[J].人民論壇·學(xué)術(shù)前沿,2018(10):68-75,97.
[10]FRASERE.Computerasinventors-legalandpolicyimplicationsofartificialintelligenceonpatentlaw[J].Scripted,2016,13(3):305-333.
[11]劉強(qiáng).3D打印技術(shù)專(zhuān)利侵權(quán)問(wèn)題研究[J].武陵學(xué)刊,2014(1):55-60.
[12]張玲.論專(zhuān)利侵權(quán)賠償損失的歸責(zé)原則[J].中國(guó)法學(xué),2012(2):119-130.
[13]劉強(qiáng).論專(zhuān)利侵權(quán)損害賠償責(zé)任的過(guò)錯(cuò)原則[J].金陵法律評(píng)論,2015(2):175-194.
[14]劉強(qiáng),馬歡軍.人工智能專(zhuān)利侵權(quán)問(wèn)題研究[J].福建江夏學(xué)院學(xué)報(bào),2018(4):10-21.
[15]WANGRR.GenerativeAI’susecasesarealreadyemerging[J].Customerrrelationshipmanagement,2023,27(3).
[作者簡(jiǎn)介]張思源(2002—),女,漢族,河南駐馬店人,就讀于華中師范大學(xué),研究方向:信息資源管理。