關(guān)鍵詞 人工智能 知識(shí)產(chǎn)權(quán) 著作權(quán)法
作者簡(jiǎn)介:張鎮(zhèn)濤,澳門科技大學(xué)。
中圖分類號(hào):D923.4? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A? ? ? ? ? ? ?? ? ? ? ? ? DOI:10.19387/j.cnki.1009-0592.2020.01.222
人工智能即Artifical Intelligence,自誕生之日起就得到了人類的無限遐想和關(guān)注,人類對(duì)人工智能的態(tài)度一直都呈現(xiàn)出兩極分化的現(xiàn)象,一方面人類既有對(duì)科學(xué)技術(shù)發(fā)展進(jìn)步的強(qiáng)烈需求,另一方面又對(duì)越發(fā)成熟的人工智能產(chǎn)生害怕被取而代之的恐懼感。現(xiàn)如今,不僅大量從事機(jī)械式重復(fù)操作的勞動(dòng)力被機(jī)器所替代,無人駕駛智能汽車、AlphGo、微軟“小冰”等人工智能已經(jīng)開始慢慢滲透人們的日常生活。尤其矚目的是,人工智能也開始活躍于人們的文學(xué)、藝術(shù)創(chuàng)作領(lǐng)域,甚至已經(jīng)出現(xiàn)了許多人工智能生成的文學(xué)作品、歌曲和美術(shù)作品等。對(duì)于人工智能生成的作品是否屬于著作權(quán)法保護(hù)的作品范圍,學(xué)界對(duì)此爭(zhēng)議不斷,人工智能生成內(nèi)容到底具不具備保護(hù)價(jià)值,目前的著作權(quán)法是否能夠保護(hù)人工智能生成的海量?jī)?nèi)容還有待商榷,本文將從人工智能可否具備主體資格、人工智能生成內(nèi)容的是否屬于著作權(quán)所保護(hù)的作品的范疇,以及應(yīng)該如何保護(hù)人工智能生成內(nèi)容來展開論述。
美國(guó)于2017年12月12日通過第一個(gè)針對(duì)人工智能的聯(lián)邦法案《人工智能未來法案》(FUTURE of Artificial Intelligence Act of 2017),對(duì)AI進(jìn)行了重新定義,就如人一樣思考、采取行動(dòng)、學(xué)習(xí)、完成任務(wù)、理性行動(dòng)(感知、規(guī)劃、推理、學(xué)習(xí)、溝通、決策等)的智能系統(tǒng)。 人工智能可否法律主體是一個(gè)法理學(xué)層面上的問題,人之所以可以作為法律關(guān)系中的主要的法律主體,是因?yàn)槿俗鳛樯鐣?huì)的基本單位,法的主要功能是為了調(diào)整人的行為來維護(hù)人類社會(huì)的穩(wěn)定和發(fā)展。其最主要的前提是人具備有自由意志和自我意識(shí),其行為具備主觀能動(dòng)性和不可預(yù)測(cè)性,所以才需要法律規(guī)則來約束人的行為。基于這樣的倫理規(guī)則,現(xiàn)階段的人工智能只能作為一種人類發(fā)明的工具,而不是法律關(guān)系中的“主體”。雖然法人是我國(guó)法律擬制的法律關(guān)系主體,但究其根本都離不開操控公司行為的自然人,法人的行為實(shí)際上是自然人行為的一種體現(xiàn)和集中。然而從目前人工智能所處的階段看,人工智能一方面既不可能遵守消極的義務(wù),也沒有辦法履行積極的義務(wù),因此人工智能難以作為權(quán)利主體。
首先,人工智能并不具備自由意志和自我意識(shí)。人的行為往往根據(jù)一個(gè)人不同的社會(huì)經(jīng)驗(yàn)和內(nèi)心決斷會(huì)有不同的表現(xiàn),而人工智能的行為模式具有特殊性。人工智能并不具備自由意志,它需要遵循程序編寫時(shí)設(shè)定的規(guī)則,現(xiàn)如今的人工智能還沒有發(fā)達(dá)到能夠脫離程序控制,產(chǎn)生自主行為能力的程度。另外,即使是發(fā)生了人工智能超出控制范圍的情況,一般而言也是程序編寫出現(xiàn)的問題。人工智能是模擬和復(fù)制人的思維模式,而人類做出行為時(shí)是由自我意識(shí)主導(dǎo)的,并不是預(yù)先設(shè)定好的程序。即便人的思維方式有很大可能會(huì)被固化產(chǎn)生慣常性,但絕不具有必然性。這就是人工智能只能模擬而絕不可能替代人類的原因之一,將人工智能作為權(quán)利主體并不符合“人類中心主義”的出發(fā)點(diǎn)。
其次,現(xiàn)階段的人工智能也不屬于法律擬制主體。在實(shí)體法層面,人工智能目前尚未具備獨(dú)立的民事主體資格,并非著作權(quán)的主體。我國(guó)《著作權(quán)法》第十一條第二款規(guī)定:“創(chuàng)作作品的公民是作者”。從文意解釋的語(yǔ)義分析可推斷出創(chuàng)作的主體應(yīng)該是自然人,至少是法律擬制的“人”。貿(mào)然地通過法律擬制的手段賦予人工智能著作權(quán),意味著賦予其法律上的權(quán)利和義務(wù),這是對(duì)現(xiàn)行私法規(guī)則的巨大顛覆。然而,人工智能完全是由人類設(shè)計(jì)的,區(qū)別于具有獨(dú)立目的性和意志性的自然人和自然人的集合體,因而不適于作為法律擬制的主體。雖然現(xiàn)在的人工智能還不屬于法律擬制的主體,但并不代表今后人工智能無法成為法律擬制的主體,這需要綜合人工智能的升級(jí)情況以及人類對(duì)人工智能操控強(qiáng)弱程度所判斷。就人工智能領(lǐng)域而言,其著作權(quán)立法宗旨的確立將在極大程度上取決于或限定在當(dāng)前我國(guó)經(jīng)濟(jì)社會(huì)及具體到人工智能領(lǐng)域的技術(shù)發(fā)展情況,著作權(quán)法律制度自身性質(zhì) 及知識(shí)產(chǎn)權(quán)制度的總體性目標(biāo),以及國(guó)家層面的知識(shí)產(chǎn)權(quán)發(fā)展戰(zhàn)略。
最后,人工智能仍屬于“物”的范疇。從法理學(xué)的角度出發(fā),人工智能是為人所支配的。而從民法的角度出發(fā),人與物是民法的基本構(gòu)成性結(jié)構(gòu),主觀與客觀二元論法律化是人法和物法的兩分。盡管人工智能的出現(xiàn)將給民法帶來一定的現(xiàn)實(shí)挑戰(zhàn),但現(xiàn)階段的人工智能還是無法脫離物的范疇成為法律關(guān)系中的主體,它還是依賴于人的行為,為人所支配。
人工智能生成內(nèi)容不屬于我國(guó)現(xiàn)行《著作權(quán)法》中保護(hù)的作品范疇。《著作權(quán)法實(shí)施條例》第二條規(guī)定:“著作權(quán)法所稱作品,是指文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi)具有獨(dú)創(chuàng)性并能以某種有形形式復(fù)制的智力成果。”從法教義學(xué)的角度出發(fā),人工智能生成內(nèi)容不具備可版權(quán)性。
首先,人工智能生成的內(nèi)容具有創(chuàng)新性,但將其認(rèn)定為著作權(quán)保護(hù)的“作品”仍缺乏充分的依據(jù)。人工智能生成內(nèi)容的過程不具備自主性,也不屬于“表達(dá)”和創(chuàng)作過程。《著作權(quán)法》中的表達(dá)是將“思想”外化的行為,其獨(dú)特之處在于人的情感性。面對(duì)同樣的景象,不同的人會(huì)產(chǎn)生不同的情感,在他們的創(chuàng)作中也會(huì)有不同的體現(xiàn)。而人工智能生成作品時(shí)是經(jīng)事前已經(jīng)輸入的算法結(jié)合所擁有的數(shù)據(jù)、圖文所得,更多的是一種拼湊,而不是“表達(dá)”。人工智能生成內(nèi)容時(shí)并不是完全的“創(chuàng)作”過程,缺乏人的主觀能動(dòng)性,縱使人工智能的算法和編程再完美,也無法表出現(xiàn)出人的情感性和精神感受,最終生成的內(nèi)容也不是智力成果,而是一種智能成果。創(chuàng)作的本源是來自于主體的自由意志,人工智能是在既有經(jīng)驗(yàn)上的重復(fù)、總結(jié)和運(yùn)用,在算法上有擬合的可能性。由于人工智能事前已經(jīng)儲(chǔ)存了海量的作品數(shù)據(jù),如果僅僅從其最后輸出的結(jié)果看,兩者之間似乎并沒有太大的差別。然而實(shí)際上,在人的創(chuàng)作過程中并不是簡(jiǎn)單地將腦海中已經(jīng)儲(chǔ)存的知識(shí)儲(chǔ)備拼接和重復(fù),而是以意志為中介,將人的心靈投射到作品本身。例如,微軟“小冰”曾經(jīng)發(fā)表的詩(shī)集,里面很多作品是對(duì)已有詩(shī)句的拆分和重組,是一種模擬創(chuàng)作的過程,而并不是“表達(dá)”。
重要的是,如果簡(jiǎn)單地把人工智能生成的內(nèi)容納入“作品”范圍會(huì)對(duì)自然人的創(chuàng)作造成難以想象的打擊。人工智能生成智能成果的時(shí)間往往僅在瞬息之間,這樣高速且低成本的創(chuàng)作將對(duì)人類藝術(shù)家造成巨大的沖擊。縱觀人類歷史長(zhǎng)河中的文學(xué)創(chuàng)作瑰寶往往是作者耗費(fèi)幾年甚至幾十年心血才完成的,人的創(chuàng)作速度是肯定無法超越電腦運(yùn)轉(zhuǎn)的速度。著作權(quán)法不僅旨在保護(hù)作者的人身和財(cái)產(chǎn)權(quán)利,更旨在于鼓勵(lì)創(chuàng)作,如果人需要嘔心瀝血才能完成的作品跟人工智能利用數(shù)據(jù)庫(kù)和程序算法幾秒鐘就能生成,那么這將大大降低人類的創(chuàng)作欲望和創(chuàng)作的動(dòng)力。加之人工智能生成內(nèi)容的海量性,如果將人工智能生成物納入著作權(quán)保護(hù)的作品范圍,還將面臨另一個(gè)嚴(yán)峻的問題,由于算法可能存在較高的相似度,在這些海量生成物中必然會(huì)出現(xiàn)類似甚至相同的地方,按著作權(quán)法的規(guī)定,只要找到相同區(qū)間就可以起訴并以取版權(quán)賠償,這必然造成大量訴訟案件的出現(xiàn)。更重要的是,如此一來,人類的創(chuàng)作空間將極大地被壓縮,即使人類主觀能動(dòng)性上還想要致力于創(chuàng)作,但客觀上其創(chuàng)作物的美學(xué)價(jià)值和市場(chǎng)價(jià)值都會(huì)大打折扣甚至不值一文。
然而,盡管人工智能生成內(nèi)容不構(gòu)成現(xiàn)行《著作權(quán)法》意義上的“作品”,難以通過“作品-創(chuàng)作-作者”的邏輯獲得著作權(quán)的保護(hù)。人工智能生成內(nèi)容是一種具有財(cái)產(chǎn)價(jià)值的數(shù)據(jù)信息,應(yīng)該予以保護(hù)。人工智能生成內(nèi)容已經(jīng)涉獵法律、醫(yī)療、金融、新聞傳播等領(lǐng)域,而且其生成的內(nèi)容在普通公眾的認(rèn)知中與人類所創(chuàng)作的作品不容易區(qū)分開來,十分具有財(cái)產(chǎn)價(jià)值。從功能主義和經(jīng)濟(jì)效益的出發(fā)點(diǎn)來看,這些人工智能生成內(nèi)容具備高度的商業(yè)價(jià)值,其效率極大的高于人類,輸入海量數(shù)據(jù)經(jīng)由特殊的算法再輸出最終的“作品”,該過程的時(shí)間極短,是人類無法超越的。人工智能極大地降低了時(shí)間成本和勞動(dòng)力成本,考慮到人工智能投入和產(chǎn)出的強(qiáng)烈對(duì)比,許多行業(yè)都致力于發(fā)展人工智能,因此,越來越多的人工智能生成的內(nèi)容將出現(xiàn),為了保障人工智能背后的法律主體的利益,調(diào)節(jié)社會(huì)各方面的利益平衡,需要采用法律手段對(duì)人工智能生成內(nèi)容予以適當(dāng)?shù)谋Wo(hù)。
如何對(duì)人工智能生成物進(jìn)行法律保護(hù),首先要確定人工智能生成內(nèi)容的權(quán)利歸屬。人工智能生成內(nèi)容屬于具有財(cái)產(chǎn)價(jià)值的信息,但人工智能并不是民法上的主體,不能夠?qū)ζ渲鲝垯?quán)利和承擔(dān)義務(wù)。就目前的研究而言,在實(shí)踐中人工智能的投資者和研發(fā)者享有人工智能生成內(nèi)容的權(quán)益。其次,對(duì)于人工智能生成物的法律保護(hù)仍需要在現(xiàn)有的法律制度框架下進(jìn)行。例如,人工智能生成“作品”的過程首先需要輸入海量的作品作為數(shù)據(jù),有可能會(huì)侵犯別的作者已有作品的知識(shí)產(chǎn)權(quán),因此要按照著作權(quán)法的規(guī)定才能使用他人享有著作權(quán)的作品作為基礎(chǔ)數(shù)據(jù)。
國(guó)際上已經(jīng)有國(guó)家對(duì)人工智能生成物進(jìn)行了法律保護(hù),而我國(guó)應(yīng)該選擇以何種方式對(duì)人工智能生成物進(jìn)行保護(hù),可以借鑒國(guó)外的立法經(jīng)驗(yàn)。本文主要介紹三種國(guó)外保護(hù)人工智能生成物的法律模式:日本的反不正當(dāng)競(jìng)爭(zhēng)法的保護(hù)模式、歐盟賦予人工智能“電子人”的主體資格、澳大利亞采取鄰接權(quán)的保護(hù)模式。第一,日本反不正當(dāng)競(jìng)爭(zhēng)法的保護(hù)模式。在考慮到人工智能能夠快速并且大量生成各種“作品”的前提下,日本在法律中規(guī)定受到保護(hù)的人工智能生成內(nèi)容僅限于具有一定價(jià)值、具有市場(chǎng)的產(chǎn)品。日本并沒有將人工智能生成內(nèi)容納入到著作權(quán)法的保護(hù)范圍內(nèi),其主要目的是為了既保護(hù)人工智能投資者的利益,又確保市場(chǎng)秩序的穩(wěn)定。然而,反不正當(dāng)競(jìng)爭(zhēng)法所規(guī)制的是具有競(jìng)爭(zhēng)關(guān)系的市場(chǎng)主體的不當(dāng)行為,但對(duì)于人工智能生成內(nèi)容的保護(hù)僅依靠反不正當(dāng)競(jìng)爭(zhēng)法來規(guī)制是不夠全面的。第二,歐盟的“電子人”保護(hù)模式。在2017年1月12日召開的歐盟會(huì)議上,由法律委員會(huì)提交了一份關(guān)于人工智能的立法建議,主張賦予人工智能以“電子人”的資格作為法律關(guān)系的主體,以更好地確定人工智能的著作權(quán)歸屬。其最主要的缺點(diǎn)是,如果簡(jiǎn)單地增加法律關(guān)系主體,只針對(duì)某一特定領(lǐng)域立法,則容易造成法律框架龐雜,增加了擾亂既有法律程序的風(fēng)險(xiǎn)。第三,澳大利亞鄰接權(quán)保護(hù)模式。通過鄰接權(quán)來保護(hù)人工智能生成內(nèi)容既不影響著作權(quán)法意義上的“作品”的獨(dú)創(chuàng)性,又避免了賦予人工智能作者資格,并且還不會(huì)超越現(xiàn)有的著作權(quán)法范疇。而且利用鄰接權(quán)保護(hù)人工智能生成內(nèi)容還可以避免由于保護(hù)范圍太寬泛而過度激勵(lì)人工智能生成內(nèi)容產(chǎn)生,同時(shí)由于保護(hù)范圍太窄避免降低人類的創(chuàng)作欲望的情況,可以在兩者間達(dá)到平衡。更重要的是,不需要賦予人工智能以法律關(guān)系的主體資格還可以避免法律和倫理道德的沖突。但這些需要人工智能生成內(nèi)容和傳播作品之間不存在直接聯(lián)系作為大前提。綜上所述,以上三種模式都存在各自的優(yōu)點(diǎn)和缺陷。
實(shí)際上對(duì)于人工智能生成內(nèi)容的保護(hù)可以創(chuàng)建一個(gè)無獨(dú)創(chuàng)性數(shù)據(jù)庫(kù)的保護(hù)模式。將人工智能生成內(nèi)容作為一種沒有獨(dú)創(chuàng)性而具備財(cái)產(chǎn)價(jià)值的數(shù)據(jù)納入無獨(dú)創(chuàng)性數(shù)據(jù)庫(kù)中對(duì)這些數(shù)據(jù)內(nèi)容的復(fù)制、下載、上傳和使用進(jìn)行控制,將權(quán)利賦予給委托數(shù)據(jù)庫(kù)開發(fā)的委托人,最終實(shí)現(xiàn)各方利益的平衡。