張瀟頔
摘 ?要:科學(xué)技術(shù)的進(jìn)步,使得人工智能深度學(xué)習(xí)的能力不斷提高,出現(xiàn)了眾多極富藝術(shù)價(jià)值和觀賞價(jià)值的人工智能創(chuàng)作物。加深對人工智能創(chuàng)作物知識產(chǎn)權(quán)領(lǐng)域問題研究的過程中,關(guān)于人工智能創(chuàng)作物出現(xiàn)侵犯知識產(chǎn)權(quán)情形時(shí)應(yīng)如何劃分并承擔(dān)侵權(quán)責(zé)任成為對AI創(chuàng)作物實(shí)施產(chǎn)權(quán)保護(hù)的難點(diǎn)。基于人工智能創(chuàng)作物著作權(quán)應(yīng)歸于人的前期研究,提出結(jié)合工業(yè)免責(zé)條款、保險(xiǎn)制度和黑匣子技術(shù)等方式解決人工智能創(chuàng)作物侵權(quán)責(zé)任承擔(dān)問題的構(gòu)想。
關(guān)鍵詞:人工智能;創(chuàng)作物;知識產(chǎn)權(quán);侵權(quán)責(zé)任
一、人工智能創(chuàng)作物侵權(quán)問題的界定
在知識產(chǎn)權(quán)領(lǐng)域內(nèi),筆者認(rèn)為不應(yīng)賦予人工智能以主體地位,而是應(yīng)將人工智能創(chuàng)作物的著作權(quán)歸屬于特定的人(自然人、法人和其他組織)。同時(shí),權(quán)利和義務(wù)的統(tǒng)一性意味著不能僅對人工智能創(chuàng)作物的著作權(quán)歸屬加以明確,還需要對義務(wù)主體及責(zé)任承擔(dān)方式進(jìn)行研究。
筆者在研究中發(fā)現(xiàn),學(xué)者馬忠法等認(rèn)為人工智能在學(xué)習(xí)創(chuàng)作過程中對他人作品數(shù)據(jù)的使用可能會(huì)在現(xiàn)行法律下構(gòu)成侵權(quán)[1],提出了人工智能學(xué)習(xí)創(chuàng)作過程中侵權(quán)問題解決規(guī)范的完善方案。因此,本文探討的人工智能創(chuàng)作物侵權(quán)問題是指人工智能創(chuàng)作物公之于眾后,侵犯到他人知識產(chǎn)權(quán)時(shí),責(zé)任應(yīng)該由開發(fā)者、使用者、所有者哪一方來承擔(dān)以及如何承擔(dān)的問題。雖然部分人工智能研究團(tuán)隊(duì)已經(jīng)為創(chuàng)作型人工智能編寫了對抗算法,以避免在創(chuàng)作過程中和其他作品出現(xiàn)高度相似,而不具備先進(jìn)對抗算法的創(chuàng)作型人工智能存在將他人作品中的內(nèi)容刪改、復(fù)制甚至演繹的可能性。
二、人工智能創(chuàng)作物侵權(quán)責(zé)任承擔(dān)機(jī)制構(gòu)想
人工智能產(chǎn)品具有特殊性,從人工智能進(jìn)行“創(chuàng)作”的角度來看,筆者認(rèn)為應(yīng)將其著作權(quán)歸屬于人以確保產(chǎn)權(quán)激勵(lì)機(jī)制更好發(fā)揮作用,但是因具備創(chuàng)作能力的人工智能創(chuàng)作物引發(fā)侵權(quán),需承擔(dān)不利后果時(shí),仍讓人來承擔(dān)這種不具備國民預(yù)測可能性的財(cái)產(chǎn)、名譽(yù)風(fēng)險(xiǎn)有失公允。此外,因人工智能具有自主性且涉及生產(chǎn)、使用、所有等多種環(huán)節(jié),其發(fā)生侵權(quán)的原因也是多樣且復(fù)雜的,這也就導(dǎo)致侵權(quán)事件往往會(huì)伴隨著責(zé)任界定困難、舉證困難等問題。筆者就此針對人工智能創(chuàng)作物侵權(quán)問題提出如下構(gòu)想。
(一)開發(fā)者與所有者責(zé)任界定
人工智能創(chuàng)作物可能侵犯到他人知識產(chǎn)權(quán)的一點(diǎn)主要原因是人工智能系統(tǒng)本身存在瑕疵。人工智能作為一種軟件系統(tǒng),無論是否進(jìn)行物理外化,其在知識產(chǎn)權(quán)領(lǐng)域內(nèi)引發(fā)的侵權(quán)問題只能根源于軟件數(shù)據(jù)本身。隨著人工智能產(chǎn)業(yè)的不斷發(fā)展壯大,區(qū)別于以往基于數(shù)據(jù)收集、匯總能力開發(fā)的人工智能軟件,具備更高水平“創(chuàng)作”能力的人工智能產(chǎn)品將被生產(chǎn)出來。如果產(chǎn)權(quán)保護(hù)是相關(guān)法規(guī)實(shí)施之前發(fā)生的侵權(quán)問題,則應(yīng)使用“溯及力”的相關(guān)規(guī)定,不進(jìn)行規(guī)制。如果實(shí)施了產(chǎn)權(quán)保護(hù)相關(guān)法規(guī)后發(fā)生了侵權(quán)問題,那么自然應(yīng)該納入法律規(guī)制范圍內(nèi)。
在此基礎(chǔ)上,如果是因?yàn)殚_發(fā)者在軟件開發(fā)階段造成的不可預(yù)見的非主觀程序瑕疵導(dǎo)致作品侵權(quán)的,可參考工業(yè)產(chǎn)品的免責(zé)條款,既《中華人民共和國產(chǎn)品質(zhì)量法》第四十一條。因?yàn)樵谌斯ぶ悄墚a(chǎn)業(yè)發(fā)展初期,很多問題因限于當(dāng)前技術(shù)水平難以攻克,而不應(yīng)追究開發(fā)者的責(zé)任。
(二)使用者與所有者責(zé)任界定
雖然現(xiàn)階段具備“創(chuàng)作”能力的人工智能的開發(fā)者、使用者、所有者為同一人,但隨著人工智能產(chǎn)業(yè)的發(fā)展與產(chǎn)品的普及,三種身份分離將成為常態(tài)。在使用者與所有者不為同一人時(shí),如果使用者是故意造成的程序漏洞或直接造成侵權(quán)結(jié)果的,應(yīng)同上文所說以其自己的身份和財(cái)產(chǎn)承擔(dān)相關(guān)的法律責(zé)任。但如果使用者或所有者是因操作過失導(dǎo)致的人工智能創(chuàng)作物侵犯到他人知識產(chǎn)權(quán)時(shí),責(zé)任又該怎樣分配?
1.保險(xiǎn)制度在人工智能創(chuàng)作物侵權(quán)損害問題中的應(yīng)用
有關(guān)人工智能侵犯產(chǎn)權(quán)后的權(quán)利與義務(wù)的分配必須處在一個(gè)合理的區(qū)間內(nèi),因人工智能自身的技術(shù)含量較高,當(dāng)因過失操作導(dǎo)致侵權(quán)損害問題發(fā)生時(shí)不應(yīng)給予所有者或使用者過重的負(fù)擔(dān)。為實(shí)現(xiàn)保證人工智能產(chǎn)業(yè)發(fā)展與維護(hù)公平正義兩大目標(biāo),筆者認(rèn)為商業(yè)保險(xiǎn)是為人工智能創(chuàng)作物的著作權(quán)主體減少侵權(quán)風(fēng)險(xiǎn)的有效方法之一。
支持人格擬制說的學(xué)者曾談到:“為分散風(fēng)險(xiǎn),可以為人工智能建立保險(xiǎn)機(jī)制。在人工智能被創(chuàng)造之后為其購買保險(xiǎn),一旦在人工智能需要承擔(dān)責(zé)任時(shí)由保險(xiǎn)公司進(jìn)行賠償”[2]。雖然這是人格擬制說涵蓋的賠償方法之一,但卻不影響保險(xiǎn)責(zé)任制度在不賦予人工智能主體資格體系下的合理運(yùn)用。筆者認(rèn)為,可以創(chuàng)制“人工智能創(chuàng)作物侵權(quán)損害賠償險(xiǎn)”,由人工智能的使用者或所有者自愿購買,發(fā)生上述情況的侵權(quán)情形時(shí)依照保險(xiǎn)合同進(jìn)行賠付。這樣既可以保障被侵權(quán)人的合法權(quán)益,同時(shí)也避免了讓使用者或所有者因過失而承擔(dān)過多侵權(quán)負(fù)擔(dān),能夠較好保障人工智能產(chǎn)業(yè)的健康發(fā)展。
2.黑匣子在人工智能創(chuàng)作物侵權(quán)損害問題中的應(yīng)用
在進(jìn)行上述討論的過程中,有一個(gè)關(guān)鍵性問題有待解決,既如何界定責(zé)任應(yīng)歸于開發(fā)者、所有者、使用者中的哪一方,以及如何界定是故意還是過失。正如上文提到的那樣,人工智能本身是一種計(jì)算機(jī)軟件,其“創(chuàng)作”過程就是對編程的運(yùn)算過程。這也就意味著唯一能夠界定其侵權(quán)責(zé)任的客觀依據(jù)就是程序使用與運(yùn)算的記錄,而要實(shí)現(xiàn)這一目的,可以借助黑箱技術(shù),也就是人們常說的“黑匣子”。人工智能由于自身的自主性和不可預(yù)測性太強(qiáng),對事實(shí)真?zhèn)蔚牟槊鞔嬖诤芏嗳毕荨n愃朴凇昂谙蛔印钡臄?shù)據(jù)流記錄工具不僅可以記錄人工智能的操作過程,而且其內(nèi)部的信息記錄可以幫助查明出錯(cuò)的環(huán)節(jié),從而更好地進(jìn)行責(zé)任界定與分配。但黑匣子軟件或硬件應(yīng)當(dāng)與人工智能同時(shí)投入使用,并且安裝的裝配責(zé)任應(yīng)當(dāng)由生產(chǎn)者承擔(dān)。這就需要未來的人工智能行業(yè)自律組織制定相關(guān)行業(yè)標(biāo)準(zhǔn),強(qiáng)制要求出廠時(shí)裝配“創(chuàng)作記錄器”。在舉證責(zé)任方面可以借鑒民事訴訟的舉證證明規(guī)則,由受害者提出侵權(quán)事實(shí)證明,而所有者應(yīng)當(dāng)提供黑箱子記錄事實(shí),如不提供或者有采取毀壞的事實(shí),則在法律上推定其承擔(dān)不利后果。
人工智能對人類社會(huì)的沖擊是不可忽視的,這種沖擊也是全方位、多領(lǐng)域的。相應(yīng)的,對人工智能創(chuàng)作物侵權(quán)問題的解決也需要采取綜合的手段,從而界定好、分配好人工智能創(chuàng)作物侵權(quán)損害問題產(chǎn)生的民事責(zé)任,維護(hù)被侵權(quán)人權(quán)益。
參考文獻(xiàn)
[1] ?馬忠法,肖宇露.《人工智能學(xué)習(xí)創(chuàng)作的侵權(quán)困境與出路》[J]武陵學(xué)刊.2019,(5):66-75.
[2] ?劉強(qiáng),徐芃.《人工智能主體資格及創(chuàng)作物權(quán)利歸屬研究——以法律擬制為視角》[J].武陵學(xué)刊,2018,43(2):73-80.
[3] ?薛兆豐.《薛兆豐經(jīng)濟(jì)學(xué)講義》[M].中信出版集團(tuán),2018.
[4] ?陳全思,張浩,欒群.《人工智能的侵權(quán)責(zé)任與規(guī)則機(jī)制》[J].機(jī)器人產(chǎn)業(yè),2019,(2).
[5] ?李坤海,徐來.《人工智能對侵權(quán)責(zé)任構(gòu)成要件的挑戰(zhàn)及應(yīng)對》[J].重慶社會(huì)科學(xué),2019,(2).