999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多維度解讀與選擇:人工智能算法知識(shí)產(chǎn)權(quán)保護(hù)路徑探析

2022-05-07 11:43:25姚葉
科技與法律 2022年1期

摘要:人工智能算法是人工智能快速進(jìn)步的核心,雖然它的設(shè)計(jì)邏輯、運(yùn)行過(guò)程、外觀樣態(tài)與傳統(tǒng)計(jì)算機(jī)程序算法具有區(qū)別,卻并未超出作為“知識(shí)產(chǎn)品”的本質(zhì)。人工智能算法可在著作權(quán)法、專利法、反不正當(dāng)競(jìng)爭(zhēng)法中獲得保護(hù)。其中,著作權(quán)法與專利法以保護(hù)人工智能算法表達(dá)為基本方式,商業(yè)秘密保護(hù)路徑則以保護(hù)人工智能算法內(nèi)核為根本訴求,三種規(guī)則利弊互現(xiàn)。人工智能算法的發(fā)展有賴于前人技術(shù)的公開(kāi),國(guó)際社會(huì)對(duì)人工智能算法的發(fā)展也提出了可解釋性、透明性、可問(wèn)責(zé)制的倫理要求。專利法的“公開(kāi)發(fā)明理論”與人工智能算法的需求相契合,將人工智能算法作為專利法中的技術(shù)方案進(jìn)行保護(hù),在一定程度上能平衡技術(shù)權(quán)利人與使用人的利益,防止算法黑箱的產(chǎn)生,維護(hù)社會(huì)的道德與秩序。同時(shí),審查機(jī)關(guān)應(yīng)該對(duì)違背公共秩序、倫理道德的算法發(fā)明以及作為醫(yī)療方法的算法發(fā)明排除于專利客體之外。

關(guān)鍵詞:人工智能算法;著作權(quán)法;反不正當(dāng)競(jìng)爭(zhēng)法;專利法;算法倫理

中圖分類號(hào):D 923文獻(xiàn)標(biāo)志碼:A文章編號(hào):2096-9783(2022)01-0053-09

基金項(xiàng)目:高等學(xué)校學(xué)科創(chuàng)新引智計(jì)劃(111計(jì)劃)“新時(shí)代科技革命與知識(shí)產(chǎn)權(quán)學(xué)科創(chuàng)新”(B18058);中南財(cái)經(jīng)政法大學(xué)2021年度學(xué)科統(tǒng)籌項(xiàng)目“關(guān)鍵核心技術(shù)發(fā)展的知識(shí)產(chǎn)權(quán)支撐體系研究”

引言

近十年來(lái),人工智能在電子商務(wù)、智能駕駛、智能醫(yī)療甚至文學(xué)創(chuàng)作等領(lǐng)域?qū)崿F(xiàn)跨越式發(fā)展。機(jī)械戰(zhàn)警、機(jī)器人女友等甚至被看來(lái)是近在咫尺。然而,在弱人工智能時(shí)代,人工智能仍然是“人類”智能。程序員設(shè)計(jì)智能原始算法,輸入數(shù)據(jù)。人工智能算法經(jīng)過(guò)數(shù)據(jù)的“喂養(yǎng)”愈加精準(zhǔn)[1],最終實(shí)現(xiàn)預(yù)測(cè)功能。歸根結(jié)底,人工智能的發(fā)展歸因于算法的發(fā)展。然則,人工智能算法所為何物?縱觀我國(guó)現(xiàn)有制度,人工智能算法可由著作權(quán)法、專利法以及反不正當(dāng)競(jìng)爭(zhēng)法規(guī)制。2020年2月生效的《專利審查指南》在保留了計(jì)算機(jī)程序、商業(yè)模式兩種專利客體的基礎(chǔ)上,承認(rèn)了“包含算法特征或商業(yè)規(guī)則和方法特征的技術(shù)方案”的專利客體地位[1],即增加了算法、商業(yè)方法兩種專利客體,明確了客體排除規(guī)則與審查規(guī)則[2]。《計(jì)算機(jī)軟件保護(hù)條例》明確對(duì)由開(kāi)發(fā)者獨(dú)立開(kāi)發(fā),并已固定在某種有形物體上的計(jì)算機(jī)軟件進(jìn)行保護(hù)。在國(guó)外的法律中,算法可被認(rèn)定是一種商業(yè)秘密或言論[3],美國(guó)、歐盟、日本也不排斥人工智能算法的專利客體地位[4]。在實(shí)踐中,諸多法律的綜合運(yùn)用使得人工智能算法的保護(hù)出現(xiàn)問(wèn)題。有眾多企業(yè)選擇將人工智能算法作為一種商業(yè)秘密,秘而不宣,人工智能算法的隱蔽性造成多重問(wèn)題,如“信息繭房”、司法公正、被遺忘權(quán)失靈等[5]。Dropout專利的授予可能形成對(duì)人工智能算法基礎(chǔ)技術(shù)的不合理壟斷,人工智能算法已經(jīng)脫胎于計(jì)算機(jī)軟件而使得《計(jì)算機(jī)軟件保護(hù)條例》失靈。可見(jiàn),人工智能算法多種保護(hù)路徑均有優(yōu)勢(shì)與不足,有必要通過(guò)分析人工智能算法的技術(shù)特征、法律特征,探究不同系統(tǒng)保護(hù)的優(yōu)劣,尋求多元發(fā)展、利弊互補(bǔ)的保護(hù)路徑。

一、作為技術(shù)的人工智能算法與其保護(hù)的類型化

在“劍橋分析”(Cambridge Analytica)事件中,人工智能算法體現(xiàn)為一種選舉權(quán);在State v. Loomis[6]一案中體現(xiàn)為一種司法權(quán);在政府等對(duì)人的信用能力進(jìn)行評(píng)測(cè)的環(huán)節(jié)中,它體現(xiàn)為一種行政權(quán)。不僅如此,加拿大學(xué)者Veenu Goswami主張基于加拿大判例和加拿大人權(quán)憲章,應(yīng)當(dāng)將基于算法產(chǎn)生的內(nèi)容置于言論的范疇之內(nèi),受憲法上的言論自由的保護(hù)[7]。美國(guó)也在司法判例中將算法定性成商業(yè)秘密,或者在關(guān)于搜索引擎算法的判決中,將它看成是言論[6]。大而化之地將人工智能算法等同于個(gè)人言論、權(quán)力的研究,僅僅關(guān)注于表象。算法的技術(shù)性是它的核心規(guī)制基礎(chǔ),算法的一切效用都以算法的技術(shù)性功用為根基。算法的本質(zhì)是信息時(shí)代的一項(xiàng)技術(shù)創(chuàng)新,自然適用保護(hù)創(chuàng)新之法,即知識(shí)產(chǎn)權(quán)法[8]。遵循人工智能算法所表現(xiàn)出的技術(shù)特征,將其置于知識(shí)產(chǎn)權(quán)法系統(tǒng)內(nèi)部進(jìn)行保護(hù),具有合理性。

(一)作為代碼的人工智能算法

人工智能算法被著作權(quán)保護(hù)已不罕見(jiàn),在騰訊計(jì)算機(jī)系統(tǒng)有限公司訴上海盈某科技有限公司一案中,被告在其經(jīng)營(yíng)的“網(wǎng)貸之家”上使用騰訊公司開(kāi)發(fā)的人工智能寫(xiě)作軟件Dreamwriter(夢(mèng)幻寫(xiě)手),Dream? writer是一種基于數(shù)據(jù)和算法的智能寫(xiě)作輔助系統(tǒng),一旦運(yùn)行,它能夠自主對(duì)股市信息、數(shù)據(jù)進(jìn)行收集、選擇、分析、判斷,形成一篇邏輯清晰,結(jié)構(gòu)完整合理的報(bào)道。Dreamwriter這一軟件獲得了軟著登字第3868479號(hào)《計(jì)算機(jī)軟件著作權(quán)登記證書(shū)》①。無(wú)獨(dú)有偶,美聯(lián)社將人工智能用于棒球報(bào)道和新聞報(bào)道。美國(guó)主要的研究情況是將人工智能軟件分為人工智能平臺(tái)、聊天機(jī)器人、深度學(xué)習(xí)軟件、機(jī)器學(xué)習(xí)軟件②,也列出了排名前十的人工智能計(jì)算機(jī)軟件,其中包含Content DNA Platform、Google Cloud Machine Learning Engine、Cortana、Amazon Alexa、Google Assistant等③。

在我國(guó),著作權(quán)意義上計(jì)算機(jī)軟件的內(nèi)容包括計(jì)算機(jī)程序和文檔兩部分。文檔是由程序設(shè)計(jì)、編程和測(cè)試人員編輯的文字、符號(hào)或圖片所構(gòu)成。計(jì)算機(jī)程序又分為“源程序”與“目標(biāo)程序”[9]。“目標(biāo)程序”是“源程序”通過(guò)電腦轉(zhuǎn)譯而來(lái),二者都是一種計(jì)算機(jī)可以理解的文字,也是同一作品,與人類可以理解的文字相同。目標(biāo)程序以0/1的代碼顯現(xiàn),其與“文檔”均屬于作品之一種。與德國(guó)著作權(quán)法對(duì)于計(jì)算機(jī)軟件保護(hù)的條件相同,我國(guó)《計(jì)算機(jī)軟件保護(hù)條例》中并未對(duì)計(jì)算機(jī)軟件的“創(chuàng)造性”提出任何程度的要求,僅僅在第4條要求其“固定”在某種有形物體上。計(jì)算機(jī)軟件被置于《中華人民共和國(guó)著作權(quán)法》(以下簡(jiǎn)稱《著作權(quán)法》)第2條第1款第1項(xiàng)的語(yǔ)言作品之中進(jìn)行保護(hù),“盡管計(jì)算機(jī)程序也必須具備體現(xiàn)創(chuàng)作人的智力勞動(dòng)并且體現(xiàn)在計(jì)算機(jī)工業(yè)領(lǐng)域并不尋常的勞動(dòng)”等方面的創(chuàng)造性,但是計(jì)算機(jī)軟件在創(chuàng)作水準(zhǔn)說(shuō)明方面的義務(wù)卻僅僅說(shuō)明此軟件系獨(dú)創(chuàng)即可,而無(wú)須證明其創(chuàng)造性高度[10]。

人工智能算法若具有“源程序”與“文檔”,則仍然是一種計(jì)算機(jī)軟件作品。人工智能算法與傳統(tǒng)算法的核心區(qū)別在于人工智能算法的原理。誠(chéng)然,傳統(tǒng)算法由程序開(kāi)發(fā)人員撰寫(xiě),是固定的代碼;而人工智能算法則從數(shù)據(jù)中進(jìn)行學(xué)習(xí),系不斷變化之代碼。換言之,前者具有固定的運(yùn)行邏輯,后者的運(yùn)行邏輯是輸入數(shù)據(jù)所反映出來(lái)的規(guī)律。然而,在最基礎(chǔ)的層面,人工智能算法最基礎(chǔ)算法的形成,如二分查找算法、DFS(深度優(yōu)先搜索)等,仍然有賴于“文檔”與“源程序”。不斷變化的人工智能算法能夠滿足作品“可復(fù)制性”要件。根據(jù)體系解釋,《計(jì)算機(jī)軟件保護(hù)條例》中“固定”一詞應(yīng)當(dāng)與《著作權(quán)法》中“電影作品和以類似攝制電影的方法創(chuàng)作的作品”構(gòu)成要件中的“固定”一詞同義,是作品“可復(fù)制性”的要求。文學(xué)性藝術(shù)的“固定”有兩種不同含義:一種含義是指有形無(wú)體的作品“依附”于一定的物質(zhì)載體之上,從而能夠被感知和傳播,可簡(jiǎn)稱為“感知、傳播型固定”;另一種含義是指作品被長(zhǎng)期穩(wěn)定地“存儲(chǔ)”于一定的物質(zhì)載體之上,可簡(jiǎn)稱為“存儲(chǔ)、保留型固定”[11]。計(jì)算機(jī)軟件作為一種實(shí)用性為主、藝術(shù)性為輔的作品,這兩種固定是一體的。盡管不斷變化,卻已經(jīng)為計(jì)算機(jī)所記錄,能夠達(dá)成法律規(guī)定的固定性要件。

無(wú)論是在固定性還是獨(dú)創(chuàng)性層面,人工智能算法均能滿足計(jì)算機(jī)軟件的保護(hù)要求。在實(shí)踐中,人工智能算法獲得著作權(quán)法保護(hù)已有先例。可見(jiàn),人工智能算法作為計(jì)算機(jī)軟件保護(hù)確可作為保護(hù)路徑之一。

(二)作為技術(shù)方案的人工智能算法

根據(jù)世界知識(shí)產(chǎn)權(quán)組織發(fā)布的《人工智能技術(shù)趨勢(shì)(2019)》報(bào)告,中國(guó)在人工智能專利累計(jì)申請(qǐng)方面占據(jù)世界第二位,且具有趕超美國(guó)之趨勢(shì)[12]。2018年以后,美國(guó)的人工智能專利年申請(qǐng)量基本大于6萬(wàn)件,人工智能專利申請(qǐng)量占專利申請(qǐng)量的比重從2002年的9%增長(zhǎng)到2018年的近16%。智能算法與設(shè)備或非算法類技術(shù)方案相結(jié)合,已然成為專利權(quán)客體,且數(shù)量迅速遞增,在人工智能專利中占比顯著。在美國(guó)發(fā)布的《人工智能發(fā)明:追蹤美國(guó)人工智能專利擴(kuò)散報(bào)告》[4]中將人工智能分為8個(gè)領(lǐng)域:知識(shí)處理技術(shù)、語(yǔ)言技術(shù)、人工智能硬件、進(jìn)化計(jì)算技術(shù)、自然語(yǔ)言處理技術(shù)、機(jī)器學(xué)習(xí)技術(shù)、視覺(jué)技術(shù)、計(jì)劃和控制技術(shù)。人工智能算法已經(jīng)成為知識(shí)處理技術(shù)領(lǐng)域、機(jī)器學(xué)習(xí)領(lǐng)域、深度學(xué)習(xí)領(lǐng)域的關(guān)鍵技術(shù)。如在知識(shí)處理技術(shù)領(lǐng)域,最具有代表性的是專利號(hào)為7685082的自動(dòng)檢測(cè)會(huì)計(jì)錯(cuò)誤的算法專利[13],它被頒發(fā)給金融軟件公司Intuit Inc.。在機(jī)器學(xué)習(xí)領(lǐng)域,美國(guó)專利商標(biāo)局將專利號(hào)為9390378的算法[14]頒發(fā)給零售商沃爾瑪百貨公司,此種算法能通過(guò)對(duì)產(chǎn)品描述、評(píng)論和其他產(chǎn)品特性進(jìn)行分類,從而優(yōu)化電子商務(wù)平臺(tái)的服務(wù)[4]。我國(guó)專利審查部門(mén)也正在對(duì)上海數(shù)鳴人工智能科技有限公司申請(qǐng)?zhí)枮镃N202010705027.6的算法技術(shù)方案和大連中維世紀(jì)科技有限公司申請(qǐng)?zhí)枮镃N202010660533.8的基于人臉智能識(shí)別KNN算法的線下門(mén)店智能導(dǎo)購(gòu)方法的技術(shù)方案進(jìn)行審查。

面對(duì)人工智能算法這一關(guān)鍵技術(shù),美國(guó)專利審查指南已經(jīng)隨著實(shí)踐進(jìn)行了修改,防止因?yàn)閷彶橹改线^(guò)于嚴(yán)苛而對(duì)人工智能算法專利造成不合理的限制。美國(guó)《專利法》立法規(guī)定,“任何人發(fā)明或者發(fā)現(xiàn)任何新的且有用的方法、機(jī)器、制品或組合物,或其任何新的且有用的改進(jìn),均可在符合本法所規(guī)定的條件和要求的情況下獲得專利”,程序算法與商業(yè)方法均屬方法之類,無(wú)區(qū)分之必要。歷經(jīng)“State Street Bank&Trust Co. v. Signature Financial Group, Inc.、Gott? schalk v. Benson”案、“CLS Bank v. Alice”案[6]后,美國(guó)專利商標(biāo)局確定了較為穩(wěn)定的“方法專利”審查立場(chǎng),含有“司法例外”專利并不能排除其獲得專利權(quán)的可能性,并制定、完善了“Alice測(cè)試法”,用以對(duì)包含“司法例外”的專利客體進(jìn)行審查。我國(guó)2017年修訂的《專利審查指南》中,在第9章規(guī)定了計(jì)算機(jī)程序的審查規(guī)則。2019年修訂的《專利審查指南》在此之外,將“包含算法特征”或“商業(yè)規(guī)則和方法特征”的技術(shù)方案列入專利客體中④。誠(chéng)然,這一審查指南并未明確計(jì)算機(jī)程序與包含算法特征的技術(shù)方案之區(qū)分,卻仍然承認(rèn)了“算法”專利的專利客體地位。更進(jìn)一步地,審查指南在所舉實(shí)例中認(rèn)定一種人工智能算法——一種卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練方法之客體地位。對(duì)于此兩種新客體之審查規(guī)則仍然是考察他們是否是一種技術(shù)方案,包括解決技術(shù)問(wèn)題、利用自然規(guī)律、產(chǎn)生技術(shù)效果等方面⑤。值得一提的是,《專利審查指南》明確規(guī)定“如果權(quán)利要求中除了算法特征或商業(yè)規(guī)則和方法特征,還包含技術(shù)特征,則不應(yīng)當(dāng)排除其獲得專利的可能性。”歐盟統(tǒng)一專利法也使用第52條,雖然排除了“抽象思想”獲得專利的可能性,但是歐洲專利局將向“應(yīng)用于特定技術(shù)應(yīng)用程序”和“針對(duì)特定技術(shù)實(shí)施進(jìn)行了改進(jìn)”的人工智能算法專利授予專利權(quán)。前者包括用于圖像處理、計(jì)算機(jī)視覺(jué)或起搏器或胰島素泵等醫(yī)療設(shè)備的機(jī)器學(xué)習(xí)算法,后者則可能包括“一種訓(xùn)練神經(jīng)網(wǎng)絡(luò)的方法”。對(duì)于算法在非技術(shù)領(lǐng)域的應(yīng)用,尤其是在財(cái)務(wù)、管理方法、語(yǔ)言學(xué)領(lǐng)域,不在前述之列。除此之外,歐盟指出,將不會(huì)授予基礎(chǔ)的人工智能算法或機(jī)器學(xué)習(xí)算法以專利權(quán),因?yàn)槎呤怯糜诜诸悺⒕垲悺⒒貧w和降維的計(jì)算模型和算法,如神經(jīng)網(wǎng)絡(luò)、遺傳算法、支持向量機(jī)。

由此可見(jiàn),美國(guó)、歐盟及我國(guó)《專利審查指南》對(duì)人工智能算法專利之審查標(biāo)準(zhǔn)雖殊途卻同歸。純粹的人工智能算法屬于數(shù)學(xué)方法,被排除在專利權(quán)授權(quán)范圍之外,但如果人工智能算法被應(yīng)用在特定領(lǐng)域,對(duì)技術(shù)有了特定的改進(jìn),則被認(rèn)為具有技術(shù)性,進(jìn)而可成為一種專利權(quán)的客體。

(三)作為技術(shù)秘密的人工智能算法

對(duì)計(jì)算機(jī)軟件進(jìn)行著作權(quán)保護(hù)并不阻礙將其作為商業(yè)秘密進(jìn)行保護(hù)。即使登記的軟件,也并不必然排除構(gòu)成商業(yè)秘密。計(jì)算機(jī)軟件登記并不以公開(kāi)為條件。如果經(jīng)登記的軟件處于保密狀態(tài),仍然可以構(gòu)成商業(yè)秘密[15]。根據(jù)《中華人民共和國(guó)反不正當(dāng)競(jìng)爭(zhēng)法》(以下簡(jiǎn)稱《反不正當(dāng)競(jìng)爭(zhēng)法》),商業(yè)秘密是指具有非公知性、價(jià)值性的技術(shù)信息與經(jīng)營(yíng)信息,并且應(yīng)當(dāng)采取適當(dāng)?shù)谋C苁侄蝃16]。換言之,受商業(yè)秘密保護(hù)的信息不必是新穎的或原創(chuàng)的,只要此信息“已盡合理的保密努力”,并且信息具有獨(dú)立的經(jīng)濟(jì)價(jià)值、實(shí)際價(jià)值或潛在價(jià)值且不為人知即可。商業(yè)秘密通常比其他知識(shí)產(chǎn)權(quán)保護(hù)的范圍更加廣泛,它可以保護(hù)技術(shù)和非技術(shù)信息及想法甚至事實(shí),例如客戶清單上的姓名和電話號(hào)碼、公共數(shù)據(jù)、源代碼、示意圖、圖表和客戶列表的匯編以及許多其他信息。商業(yè)秘密權(quán)利的獲取也是及時(shí)的,能夠立即得到保護(hù),而無(wú)須花費(fèi)大量的申請(qǐng)費(fèi)用或冗長(zhǎng)的注冊(cè)時(shí)間。對(duì)于過(guò)程性的信息,如某些昂貴的研究結(jié)果,它們無(wú)法發(fā)揮作用,也無(wú)法申請(qǐng)專利,對(duì)于競(jìng)爭(zhēng)者來(lái)說(shuō)可能具有巨大的價(jià)值。從權(quán)利保護(hù)的強(qiáng)度看,一旦企業(yè)將其技術(shù)方案作為一種商業(yè)秘密,這種保護(hù)方式將絕對(duì)禁止其他人的接觸與剽竊,能夠最大限度地保護(hù)企業(yè)的智力成果。從權(quán)利取得方式看,我國(guó)對(duì)商業(yè)秘密的取得只要求其為企業(yè)在生產(chǎn)、研發(fā)過(guò)程中發(fā)現(xiàn)的具有經(jīng)濟(jì)利益的實(shí)用秘密信息[17],企業(yè)對(duì)于其技術(shù)方案的商業(yè)秘密保護(hù)完全取決于自身意愿與為保護(hù)此商業(yè)秘密的行為。從權(quán)利的行使方式看,企業(yè)的人工智能算法并不需要進(jìn)行披露而直接能夠使用。為最大限度地防止技術(shù)方案的曝光,將其作為商業(yè)秘密是最為完滿的保護(hù)狀態(tài)。

在法律系統(tǒng)內(nèi),人工智能算法理論上可由著作權(quán)法、專利法或商業(yè)秘密加以保護(hù)。在現(xiàn)實(shí)中,各公司也在這三種路徑中進(jìn)行抉擇。上述三種保護(hù)路徑中,前兩者通過(guò)對(duì)算法的“外在表達(dá)”,如進(jìn)行規(guī)制,進(jìn)而對(duì)其思想進(jìn)行保護(hù),后者則直接采取封閉性措施防止信息的泄露,利弊互現(xiàn),以下詳述之。

二、人工智能算法的法律屬性與保護(hù)路徑

(一)著作權(quán)保護(hù)路徑的局限

盡管將人工智能算法作為計(jì)算機(jī)保護(hù)符合我國(guó)《著作權(quán)法》以及《計(jì)算機(jī)軟件保護(hù)條例》的規(guī)定,但將其作為計(jì)算機(jī)軟件背離了著作權(quán)法保護(hù)文學(xué)藝術(shù)作品的法律價(jià)值,與人工智能算法所有人的訴求不符,諸多問(wèn)題也會(huì)由此產(chǎn)生。計(jì)算機(jī)程序的實(shí)質(zhì)價(jià)值在于其程序所實(shí)現(xiàn)的功能性目的及技術(shù)背后的思想,而非在于外在的文本表達(dá)。發(fā)明人或者持有人的訴求并非阻止他人對(duì)計(jì)算機(jī)程序的代碼進(jìn)行復(fù)制,而是阻止他們對(duì)代碼進(jìn)行使用而達(dá)到替代自己程序的作用[18]。若僅僅保護(hù)人工智能算法軟件的代碼,那么便會(huì)催生諸多代碼不同而內(nèi)涵相似的軟件,這不僅會(huì)造成重復(fù)保護(hù),更會(huì)造成權(quán)利主體的不明。

“思想/表達(dá)二分法”有一定的模糊性,有時(shí)甚至無(wú)法區(qū)分涉案內(nèi)容是程序還是表達(dá)。在2005年審結(jié)的“長(zhǎng)沙青果園科技開(kāi)發(fā)有限公司訴長(zhǎng)沙誠(chéng)光科技開(kāi)發(fā)有限公司等著作權(quán)侵權(quán)糾紛”案中,法院認(rèn)為,如果一個(gè)計(jì)算機(jī)程序?yàn)檫_(dá)到一個(gè)固定目的可以使用多種方法,那么這些方法就屬于表現(xiàn)形式,而非思想概念。此時(shí),計(jì)算機(jī)程序的結(jié)構(gòu)、順序等就被認(rèn)為是程序的表現(xiàn),受著作權(quán)法保護(hù)[19]。

著作權(quán)法對(duì)計(jì)算機(jī)軟件作品保護(hù)的手段僅限于復(fù)制等簡(jiǎn)單的行為,與軟件設(shè)計(jì)人的需求相背離。著作權(quán)法對(duì)于計(jì)算機(jī)軟件作品的思想并不保護(hù),故而若程序員采用與原軟件完全不同的編程語(yǔ)言而撰寫(xiě)功能相似的程序,實(shí)現(xiàn)了對(duì)原程序的替代,但是著作權(quán)法卻并不認(rèn)為這是一種侵權(quán)行為。可見(jiàn),著作權(quán)法保護(hù)模式僅僅能夠保護(hù)人工智能算法的外觀,而對(duì)于其本身的價(jià)值卻無(wú)法提供完滿的保護(hù)。

計(jì)算機(jī)軟件的保護(hù)期與自動(dòng)取得機(jī)制也容易招致風(fēng)險(xiǎn)。計(jì)算機(jī)軟件的保護(hù)期為最長(zhǎng)不超過(guò)50年⑥。而計(jì)算機(jī)軟件的更新速度遠(yuǎn)遠(yuǎn)要小于50年,使用計(jì)算機(jī)軟件的保護(hù)機(jī)制容易造成資源的浪費(fèi)。同時(shí),著作權(quán)的自動(dòng)取得制度無(wú)法規(guī)避普遍性的算法風(fēng)險(xiǎn),算法有時(shí)基于某種違法或違背倫理之目的而被開(kāi)發(fā),缺少事前的過(guò)濾以及預(yù)防機(jī)制會(huì)造成不必要的損害。換言之,某些算法雖然在開(kāi)發(fā)時(shí)具有正當(dāng)目的,但有時(shí)在訓(xùn)練時(shí)基于某些瑕疵會(huì)構(gòu)成歧視、損害人格尊嚴(yán)的行為。故而,以著作權(quán)法對(duì)人工智能算法進(jìn)行保護(hù),在保護(hù)人工智能算法時(shí)具有突出的不可預(yù)測(cè)性,可能無(wú)法抑制算法的侵權(quán)風(fēng)險(xiǎn)。

(二)專利法保護(hù)路徑的風(fēng)險(xiǎn)

賦予人工智能算法專利地位會(huì)引發(fā)算法壟斷風(fēng)險(xiǎn)。賦予較為基礎(chǔ)的人工智能算法以專利權(quán),以及人工智能重組詞匯、替換定義、同義詞、反義詞等方式生成一系列人工智能算法技術(shù)方案[20]將會(huì)侵占公有領(lǐng)域,造成不合理的壟斷。Colem能夠自動(dòng)生成專利文本,原理在于詞匯的替換功能,其本身并不對(duì)所生成方案的實(shí)用性、新穎性、創(chuàng)造性進(jìn)行考量。如果生成的技術(shù)方案足夠多,最終生成具備可行性的人工智能算法專利只是概率問(wèn)題,此所謂埃米爾·博雷爾之“無(wú)限猴子定理”。

賦予過(guò)于基礎(chǔ)的人工智能算法以專利權(quán)會(huì)使得后續(xù)人工智能算法的產(chǎn)出“無(wú)力”,不斷被人工智能生成的人工智能算法技術(shù)方案如果不能夠被嚴(yán)格規(guī)制,將會(huì)過(guò)度侵占公有領(lǐng)域。這種問(wèn)題已經(jīng)初露端倪。以Google為例,它將Dropout[21]這一基礎(chǔ)算法申請(qǐng)專利,為以后的算法鏈條與算法的商業(yè)化布局,而所有要用到Dropout的算法生產(chǎn)者、使用者都要面臨隨時(shí)侵權(quán)的困境。

人工智能算法的技術(shù)復(fù)雜度往往阻礙算法的公開(kāi)。人工智能算法的構(gòu)成極其復(fù)雜,它不斷地訓(xùn)練數(shù)據(jù),從數(shù)據(jù)中學(xué)習(xí),進(jìn)而更新算法,這加劇了人工智能算法的描述性困難。即便是算法的設(shè)計(jì)師,也很難預(yù)測(cè)算法生成的結(jié)果。人工智能領(lǐng)域的發(fā)明可能包括大量的神經(jīng)網(wǎng)絡(luò)、數(shù)據(jù)和軟件算法,這些內(nèi)容使得人工智能算法的描述與“抽象思想”極為相似,很容易被排除于專利主題之外。

根據(jù)各國(guó)的法律,盡管人工智能算法可能被授予專利權(quán),但有可能造成重復(fù)保護(hù)。進(jìn)言之,法律保護(hù)技術(shù)的具體應(yīng)用和改進(jìn),而人工智能算法的發(fā)展方向反而是開(kāi)發(fā)具有普遍性的、能替代人類在某些領(lǐng)域的決策的自動(dòng)化算法。同一人工算法可以被應(yīng)用于醫(yī)學(xué)領(lǐng)域判斷病人的病癥,也可能被應(yīng)用于工業(yè)生產(chǎn)中,觀察材料的變化。如果授予上述兩者以專利權(quán),則在實(shí)質(zhì)上授予了同一種人工智能算法專利給不同的權(quán)利人。

(三)商業(yè)秘密保護(hù)路徑的隱憂

將人工智能算法作為商業(yè)秘密進(jìn)行保護(hù)的最大問(wèn)題是事關(guān)倫理于人類發(fā)展的人工智能算法“透明度”問(wèn)題。使用商業(yè)秘密保護(hù)算法,會(huì)導(dǎo)致算法決策過(guò)程的不可知性,在某些事關(guān)人類自身自由、健康、隱私等層面,如果這一算法是不透明的,將會(huì)與私法自治的民法原則相沖突。以合法的外在形式對(duì)權(quán)利自決形成阻礙[22]。人工智能算法的不透明會(huì)加劇不正當(dāng)競(jìng)爭(zhēng)行為的違法性,一個(gè)網(wǎng)上商店可以識(shí)別網(wǎng)站訪問(wèn)者,并將他們分類為價(jià)格敏感型或價(jià)格不敏感型。由于價(jià)格差異,商店的目標(biāo)是收取每一個(gè)消費(fèi)者愿意支付的最高價(jià)格。提供在線輔導(dǎo)服務(wù)的美國(guó)公司普林斯頓評(píng)論(Princeton Review)的收費(fèi)就是如此,Ang? win等人發(fā)現(xiàn)該公司的價(jià)格差異化做法導(dǎo)致亞洲背景的人價(jià)格更高,因?yàn)榫哂衼喼薇尘暗娜说馁?gòu)買(mǎi)意愿是其他人的1.8倍[23]。算法可能被用于實(shí)施傳統(tǒng)的各類反競(jìng)爭(zhēng)行為或“算法合謀”[24]。人工智能算法能夠支持或促進(jìn)實(shí)施、監(jiān)測(cè)、執(zhí)行或隱瞞各自的反競(jìng)爭(zhēng)行為,包括但不限于支持或促進(jìn)橫向壟斷,還可以用于制定縱向壟斷協(xié)議、固定轉(zhuǎn)售價(jià)格等情況。除此之外,由于人工智能算法是基于數(shù)據(jù)訓(xùn)練而獲得的,企業(yè)也可以通過(guò)共享數(shù)據(jù)、人工智能算法而與第三方勾結(jié),進(jìn)而事實(shí)上達(dá)到合謀的目的。由于算法的不可解釋性特質(zhì),上述情況很難被監(jiān)管機(jī)關(guān)發(fā)現(xiàn),對(duì)市場(chǎng)秩序產(chǎn)生了極大影響,也在沖擊著法律的底線。

人工智能算法的不可解釋性也可能產(chǎn)生歧視效應(yīng),因?yàn)榛谟衅?jiàn)的訓(xùn)練數(shù)據(jù),算法也可能產(chǎn)生歧視性的結(jié)果。在美國(guó)的某些地區(qū),法院通過(guò)康斯威星州“Loomis v. Wisconsin”案中,Loomis認(rèn)為,州法院使用COMPAS算法模型做出的決策缺乏公正性,遂向州最高法院上訴,而康斯威星州以COMPAS算法為一種商業(yè)秘密而拒絕提供[6]。據(jù)報(bào)道,亞馬遜已經(jīng)停止使用人工智能系統(tǒng)來(lái)篩選工作,因?yàn)槿斯ぶ悄芩惴▽?duì)公司過(guò)去人員錄取數(shù)據(jù)進(jìn)行學(xué)習(xí)后,對(duì)男性候選人更加青睞,而對(duì)女性更有偏見(jiàn),并沒(méi)有以性別中立的方式挑選職位候選人[25]。人工智能算法歧視還表現(xiàn)在圖像搜索歧視、人臉識(shí)別歧視、翻譯工具歧視等方面[26]。

三、路徑選擇:以專利權(quán)保護(hù)路徑為主的多元保護(hù)路徑

(一)基本目標(biāo):發(fā)展與公開(kāi)

人工智能算法作為人工智能的“靈魂”,是人工智能發(fā)明的核心,也是企業(yè)提高競(jìng)爭(zhēng)力而獲利的核心,同時(shí)亦是人工智能社會(huì)的進(jìn)步所在。人工智能的快速發(fā)展有賴于前人無(wú)私的開(kāi)源代碼以及信息共享。在人工智能初始發(fā)展階段,約翰·霍普菲爾德和大衛(wèi)·魯梅爾哈特普及了“深度學(xué)習(xí)”技術(shù),愛(ài)德華·費(fèi)根鮑姆引入了專家系統(tǒng),該系統(tǒng)模仿了人類專家的決策過(guò)程。兩組不同的專家并沒(méi)有將所獲得的人工智能算法結(jié)構(gòu)私藏,而是分享給了本行業(yè)內(nèi)的研究人員。在他們的基礎(chǔ)上,大衛(wèi)·魯梅爾哈特、杰弗里·欣頓與羅納德·威廉姆斯發(fā)現(xiàn)了一種新的學(xué)習(xí)過(guò)程——反向傳播,將其運(yùn)用于類似神經(jīng)元單位的網(wǎng)絡(luò),也成為人工智能飛速發(fā)展的重要技術(shù)。在算法發(fā)展的歷史上,真正做出突出貢獻(xiàn)的往往是本領(lǐng)域內(nèi)的研究人員,他們的研究基礎(chǔ)往往是上一代人的失敗或成功經(jīng)驗(yàn)。將人工智能算法的代碼、結(jié)構(gòu)、思路等進(jìn)行公開(kāi)才是技術(shù)與社會(huì)進(jìn)步的應(yīng)有之義。

國(guó)際上對(duì)人工智能算法的“可解釋性”“問(wèn)責(zé)制”“透明性”要求也促進(jìn)了算法的公開(kāi)與透明。電氣和電子工程師學(xué)會(huì)發(fā)布了《道德合規(guī)設(shè)計(jì)》,將“問(wèn)責(zé)制”和“透明性”作為兩項(xiàng)基本原則,用以指導(dǎo)人工智能的發(fā)展。《道德合規(guī)設(shè)計(jì)》建議AI系統(tǒng)“為所有決策提供明確的理由”“應(yīng)始終可被理解”,否則人工智能系統(tǒng)的設(shè)計(jì)和開(kāi)發(fā)將面臨倫理道德的監(jiān)督。但《道德合規(guī)設(shè)計(jì)》也指出,這種透明并不意味著對(duì)知識(shí)產(chǎn)權(quán)的侵犯,并建議以專業(yè)人員和非專業(yè)人員都能夠理解的清晰語(yǔ)言描述人工智能測(cè)試的過(guò)程和結(jié)果,如公布訓(xùn)練用數(shù)據(jù)庫(kù)、選取“公共管理人”等方法[27]。國(guó)際技術(shù)法協(xié)會(huì)于2019年6月發(fā)布了對(duì)《負(fù)責(zé)任的人工智能:全球政策框架》中道德準(zhǔn)則的深入審查,它指出要對(duì)人工智能算法施加“可解釋性”的要求,如人工智能算法的研發(fā)者應(yīng)該向社會(huì)提供有關(guān)如何準(zhǔn)確輸出特定輸出的信息,但不要過(guò)分地限制人工智能開(kāi)發(fā)人員和使用者保護(hù)其專有算法、商業(yè)機(jī)密和專有技術(shù),以及維護(hù)競(jìng)爭(zhēng)優(yōu)勢(shì)的能力。經(jīng)濟(jì)合作與發(fā)展組織發(fā)布了一系列有關(guān)人工智能的政府間政策指南,將透明性、可解釋性以及問(wèn)責(zé)制視為重要目標(biāo)。從各個(gè)文件中可以看出,人工智能算法的問(wèn)責(zé)制、透明性與可解釋性是人工智能發(fā)展的基本原則,是國(guó)際公認(rèn)的倫理道德,也是知識(shí)產(chǎn)權(quán)法對(duì)人工智能算法進(jìn)行保護(hù)的基本遵循。

(二)制度選擇:以專利法為主的多元保護(hù)路徑

倫理的規(guī)制并不能以犧牲權(quán)利人的專有權(quán)利為代價(jià),即應(yīng)當(dāng)在公開(kāi)與保護(hù)之間做出平衡。這與專利法的“公開(kāi)發(fā)明理論”的基本原理是一致的。換言之,基于產(chǎn)業(yè)政策思想,賦予發(fā)明人排他獨(dú)占權(quán)之專利權(quán),透過(guò)其技術(shù)之透露,有效散布技術(shù)資訊,以此為基礎(chǔ),促進(jìn)產(chǎn)業(yè)技術(shù)之進(jìn)一步發(fā)展[28]。在英國(guó)專利法發(fā)展的歷史中,專利法首先源于商人保障投資的需求和政府引入外國(guó)新式制造業(yè)的產(chǎn)業(yè)政策。在商人的獨(dú)占權(quán)利過(guò)于膨脹以致阻礙了技術(shù)進(jìn)步時(shí),政府為了平衡技術(shù)的發(fā)展與對(duì)發(fā)明的保障,要求申請(qǐng)人將其技術(shù)予以披露。18世紀(jì)以后,專利說(shuō)明書(shū)逐漸成為一項(xiàng)專利申請(qǐng)的正式請(qǐng)求,從而要求專利人詳細(xì)描述并公開(kāi)其發(fā)明的內(nèi)容,使公眾知曉,有利于發(fā)明作為知識(shí)和技藝的傳播,進(jìn)而成為其獲取獨(dú)占權(quán)利的對(duì)價(jià)[29]。除卻產(chǎn)業(yè)政策的考量,專利公開(kāi)能夠增加社會(huì)公共知識(shí)儲(chǔ)備,避免對(duì)同一技術(shù)的重復(fù)投資,又為后繼創(chuàng)新提供必要的知識(shí)基礎(chǔ)[30]。

專利法對(duì)技術(shù)方案之“公開(kāi)”要求無(wú)疑與人工智能算法的發(fā)展需求和限制相契合。一方面,人工智能算法的發(fā)明人企圖通過(guò)對(duì)市場(chǎng)的壟斷而獲得獨(dú)占的利益,進(jìn)而擴(kuò)大自己在人工智能行業(yè)的市場(chǎng)份額;另一方面,人工智能算法的隱蔽性需要人工智能算法的必要公開(kāi),可解釋、可控制、可問(wèn)責(zé)的人工智能算法才是有益于社會(huì)福祉的技術(shù)。但以專利法保護(hù)人工智能算法仍存在問(wèn)題,可專利主題的劃定標(biāo)準(zhǔn),專利權(quán)的期限,專利審查中實(shí)用性、新穎性、創(chuàng)造性的標(biāo)準(zhǔn),專利審查的披露流程,本領(lǐng)域內(nèi)技術(shù)人員的選擇都應(yīng)該依照技術(shù)發(fā)展的現(xiàn)實(shí)進(jìn)行變化。

政府應(yīng)通過(guò)規(guī)則的設(shè)置來(lái)引導(dǎo)申請(qǐng)人申請(qǐng)專利,而不應(yīng)剝奪技術(shù)開(kāi)發(fā)人員應(yīng)擁有的自由選擇權(quán)。申請(qǐng)人可結(jié)合人工智能算法的性質(zhì)、技術(shù)原理、所屬領(lǐng)域等多方考量其保護(hù)模式。對(duì)于某些更新速度快、較為基礎(chǔ)的人工智能算法,為其申請(qǐng)專利權(quán)不僅耗時(shí)較長(zhǎng),也面臨無(wú)法獲權(quán)的風(fēng)險(xiǎn)。訓(xùn)練算法所使用的材料及中間的失敗結(jié)果、錯(cuò)誤算法等無(wú)法獲得專利權(quán)。二者都適宜在商業(yè)秘密法中進(jìn)行保護(hù)。對(duì)于能夠以代碼為表達(dá)形式,且較難復(fù)制的人工智能算法,則可作為計(jì)算機(jī)軟件進(jìn)行登記。

(三)制度設(shè)計(jì):人工智能算法的排除領(lǐng)域

人工智能算法在與具體特征相結(jié)合時(shí),使用領(lǐng)域十分寬泛,其作為專利客體的核心挑戰(zhàn)是其以合法技術(shù)外觀而非法獲得專利權(quán)。《中華人民共和國(guó)專利法》(以下簡(jiǎn)稱《專利法》)排除違背公序良俗、利用遺傳資源并依賴該遺傳資源完成的發(fā)明創(chuàng)造。因此,當(dāng)人工智能算法在設(shè)計(jì)或應(yīng)用時(shí)會(huì)產(chǎn)生以上問(wèn)題,應(yīng)當(dāng)被排除于可專利客體之外。

1.有悖公共秩序、倫理道德的算法發(fā)明

TRIPS協(xié)定在對(duì)專利領(lǐng)域的及社會(huì)公德、公共利益進(jìn)行開(kāi)放式規(guī)定,允許各成員國(guó)依據(jù)本國(guó)國(guó)情而進(jìn)行相應(yīng)規(guī)定,只要這一國(guó)內(nèi)規(guī)定并不違背TRIPS的相關(guān)要求。世界范圍內(nèi),公序良俗與倫理道德不僅是民法中的基本原則,也延續(xù)為知識(shí)產(chǎn)權(quán)法的基本原則,并在專利法中具化為具體的客體審查規(guī)則。以韓國(guó)、日本為例,二者均排除了違背公共秩序或者道德的發(fā)明,韓國(guó)進(jìn)一步將有害于公共健康的發(fā)明進(jìn)行排除。我國(guó)《專利法》在第5條明確排除授予違法、違背社會(huì)公德、違反公共利益的發(fā)明。《專利審查指南》列舉了因違反社會(huì)公德不被授予專利權(quán)的類型:如帶有暴力兇殺或者淫穢內(nèi)容的圖片或者照片的外觀設(shè)計(jì)不能被授予專利權(quán)⑦。

首先,可能帶來(lái)倫理挑戰(zhàn)的人工智能算法不能獲得專利權(quán)[31]。從目前案例中反映出兩種倫理問(wèn)題:一方面,人工智能系統(tǒng)可能具備人類本身的偏見(jiàn)而導(dǎo)致對(duì)不同種族、不同收入人群的歧視;另一方面,人工智能算法使用人類的社交數(shù)據(jù)進(jìn)行學(xué)習(xí),可能會(huì)將人類數(shù)據(jù)進(jìn)行組合進(jìn)而分析出已清洗過(guò)數(shù)據(jù)中的隱私或更甚者直接未經(jīng)授權(quán)而學(xué)習(xí)人類的隱私數(shù)據(jù)[32]。在萬(wàn)物皆互聯(lián)之今日,用戶的身份信息、家庭住址、購(gòu)物偏好信息、位置信息等均可被找到,加之互聯(lián)網(wǎng)企業(yè)對(duì)隱私保護(hù)的忽視及對(duì)數(shù)據(jù)的需求,人類的隱私被侵犯問(wèn)題已經(jīng)十分嚴(yán)重。人工智能算法如果被設(shè)計(jì)為歧視的工具或有產(chǎn)生歧視問(wèn)題的可能性,則應(yīng)當(dāng)被禁止授予專利權(quán);如果人工智能算法蓄意搜集用戶數(shù)據(jù)并販賣或進(jìn)行其他非法行為,有侵犯人類隱私之虞,則不應(yīng)當(dāng)獲得專利權(quán)。

其次,可能成為違法行為輔助工具的人工智能算法不能獲得專利權(quán)。人工智能存在威脅人類社會(huì)的可能性,對(duì)可能出現(xiàn)的技術(shù)風(fēng)險(xiǎn)有賴于法律制度來(lái)有效控制。危害公共秩序的人工智能產(chǎn)物,如智能賭博工具、隱匿盜竊工具等,都應(yīng)在專利排除的范圍之列[33]。

最后,惡意制造并用于傷害人類健康的人工智能算法不應(yīng)當(dāng)被授予專利權(quán)。例如,“防暴注射器”通過(guò)將劇痛藥水注射入人體的方式,產(chǎn)生劇痛的效果,達(dá)到迫使終止犯罪的目的。這種注射器所帶來(lái)的對(duì)人體健康的危害遠(yuǎn)遠(yuǎn)大于其遏制犯罪的效果

⑧。人工智能導(dǎo)彈檢測(cè)系統(tǒng)與人工智能發(fā)射系統(tǒng)已經(jīng)在英國(guó)與美國(guó)陸續(xù)研制出來(lái),內(nèi)含人工智能算法的系統(tǒng)正逐漸成為人類和平與健康的威脅,一旦失去控制,用作武器的人工智能算法往往會(huì)對(duì)人類生命、健康造成直接的威脅。

2.某些領(lǐng)域的算法發(fā)明

我國(guó)專利法對(duì)專利客體排除只規(guī)定的邏輯是將“不視為發(fā)明的客體”與“不授予專利權(quán)的客體”放在同一條款內(nèi),不進(jìn)行具體區(qū)分。我國(guó)將科學(xué)發(fā)現(xiàn)、智力活動(dòng)的規(guī)則和方法作為“不視為發(fā)明的客體”,將疾病的診斷和治療方法、動(dòng)物和植物品種、用原子核變換方法獲得的物質(zhì)、對(duì)平面印刷品的圖案、色彩或者二者的結(jié)合作出的主要起標(biāo)識(shí)作用的設(shè)計(jì)是“不授予專利權(quán)的客體”。言及人工智能算法,它并非動(dòng)物或植物品種,也不屬于用原子核變換方法得到的物質(zhì)。故而我們應(yīng)當(dāng)將目光聚焦于醫(yī)療領(lǐng)域人工智能算法的可專利性問(wèn)題。

有關(guān)診斷和治療疾病的儀器設(shè)備可以申請(qǐng)專利,但疾病的診斷與治療方法一直被認(rèn)為不具有“實(shí)用性”,原因在于醫(yī)療對(duì)象體質(zhì)差異與既往病史之區(qū)別,醫(yī)療方法無(wú)法在臨床實(shí)踐中標(biāo)準(zhǔn)化地大規(guī)模使用[33]。同時(shí),出于人道主義考慮,醫(yī)生在診斷和治療過(guò)程中應(yīng)當(dāng)有選擇各種方法和條件的自由,若某種在臨床中效用較大的治療方法被授予專利權(quán),則醫(yī)生在救治病人時(shí)的選擇性變少,便使得專利權(quán)凌駕于人類生命之上[34]。我國(guó)《專利審查指南》明確規(guī)定,疾病的診斷和治療方法不可以被授予專利。

在醫(yī)療場(chǎng)景中,人工智能算法能夠?qū)Σ∪说慕】禂?shù)據(jù)進(jìn)行學(xué)習(xí),對(duì)醫(yī)生的診斷方案進(jìn)行輸入,最終輔助醫(yī)生進(jìn)行決策,甚至能夠獨(dú)立生成醫(yī)療方案并實(shí)施。這與以往醫(yī)生問(wèn)診并開(kāi)具處方并不相同。人工智能算法所做的是挑選特征數(shù)據(jù),匹配已經(jīng)設(shè)計(jì)好的醫(yī)療方案,輸出決策。這種判斷方法完全具有重復(fù)性。同時(shí),如果人工智能算法僅僅具有輔助診斷治療的功效,或者能夠生成診斷方法,則并不實(shí)際影響病人的救治,這一算法作為一種方法本身具有可專利性的可能。

專利法是技術(shù)之法、創(chuàng)新之法,是界定公共領(lǐng)域與私有權(quán)利的“界碑”,也是維護(hù)公共秩序的責(zé)任之法。人工智能技術(shù)的創(chuàng)新走在前頭,各國(guó)專利實(shí)踐與專利法的制度便緊隨其后。我們應(yīng)當(dāng)秉持開(kāi)放的價(jià)值觀,尊重技術(shù)發(fā)展的規(guī)律,適當(dāng)放寬專利客體的范圍。但同時(shí),也應(yīng)當(dāng)以民法、專利法的基本原則為尺度,尊重人類的隱私和健康,尊重法律與社會(huì)公德,明確專利客體排除范圍。

結(jié)語(yǔ)

代碼變化性或非代碼表達(dá)性使得著作權(quán)法對(duì)人工智能算法的保護(hù)受限或?qū)r(jià)值連城的算法進(jìn)行披露,商業(yè)秘密能夠不區(qū)分技術(shù)的外觀而對(duì)技術(shù)本身進(jìn)行保護(hù),卻對(duì)人工智能算法產(chǎn)生了過(guò)度保護(hù),二者均無(wú)法解決權(quán)利人與使用人之間的矛盾。人工智能算法的發(fā)展需求與透明度、可問(wèn)責(zé)制、可解釋性需求同專利法保護(hù)路徑相契合,應(yīng)當(dāng)形成以人工智能算法技術(shù)的專利權(quán)保護(hù)為核心,以商業(yè)秘密和著作權(quán)保護(hù)為補(bǔ)充的復(fù)合性保護(hù)路徑,方能合理應(yīng)對(duì)算法保護(hù)的現(xiàn)實(shí)訴求。根據(jù)我國(guó)《專利法》與《專利審查指南》的要求,審查機(jī)關(guān)應(yīng)該對(duì)違背公共秩序、倫理道德的算法發(fā)明以及作為醫(yī)療方法的算法發(fā)明排除于專利客體之外。

參考文獻(xiàn):

[1]姚葉.數(shù)據(jù)糾紛的法律規(guī)制:現(xiàn)狀、困境、對(duì)策[J].南海法學(xué),2019,3(6):92?102.

[2]寧立志,郭玉新.專利權(quán)權(quán)利客體例外制度研究[J].河南師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2020,47(1):31?45.

[3]左亦魯.算法與言論——美國(guó)的理論與實(shí)踐[J].環(huán)球法律評(píng)論,2018,40(5):122?139.

[4] USPTO. Inventing AI Tracing the diffusion of artificial in? telligence with U.S. patents[R/OL].(2020?10?5)[2020-12-21]. https://www. uspto. gov/sites/default/files/documents/ OCE-DH-AI.pdf.

[5]姜野.算法的規(guī)訓(xùn)與規(guī)訓(xùn)的算法:人工智能時(shí)代算法的法律規(guī)制[J].河北法學(xué),2018,36(12):142?153.

[6]張韜略.美國(guó)《專利客體適格性審查指南》的最新修訂及評(píng)述[J].知識(shí)產(chǎn)權(quán),2020(4):84?96.

[7] GOSWAMI V. Algorithms, expression and the charter[J]. A Way Forward for Canadian Courts.Western Journal of Le? gal Studies, 2017, 1(1): 3?17.

[8]吳漢東.保護(hù)知識(shí)產(chǎn)權(quán)就是保護(hù)創(chuàng)新[J].理論導(dǎo)報(bào),2020(12):61.

[9]王德夫.對(duì)中國(guó)計(jì)算機(jī)軟件專利制度的審思[J].大連海事大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2015,14(1):69?74

[10] M·雷炳德.著作權(quán)法[M].張恩民,譯.北京:法律出版社,2015:129?131.

[11]熊文聰.論“已經(jīng)固定”不是電影作品的可版權(quán)要件[J].山東科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2019,21(2):52?56.

[12] PANKAJ S. How is the patent world responding to the AI revolution? [J]. Managing Intellectual Property, 2019, 48:281.

[13] Intuit Inc. (Mountain View, CA, US).System and method for identifying, prioritizing and encapsulating errors in ac? counting data:11/413308[P].2006-04-28.

[14] Wal-Mart Stores, Inc. (Bentonville, AR, US).System and method for high accuracy product classification with lim? ited supervision:13/852884[P].2013-03-28.

[15]孔祥俊.反不正當(dāng)競(jìng)爭(zhēng)法原理[M].北京:知識(shí)產(chǎn)權(quán)出版社,知識(shí)產(chǎn)權(quán)出版社,2005:399.

[16]李揚(yáng).知識(shí)產(chǎn)權(quán)法基本原理[M].北京:中國(guó)社會(huì)科學(xué)出版社,2010:644?653.

[17]游濤.計(jì)算機(jī)軟件商業(yè)秘密的法律保護(hù)[J].中國(guó)集成電路,2010(7):82.

[18]李長(zhǎng)健,徐麗峰.我國(guó)計(jì)算機(jī)軟件專利保護(hù)文獻(xiàn)綜述[J].重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2010,22(3):20?30.

[19]段志秀.計(jì)算機(jī)軟件的著作權(quán)保護(hù)研究[D].蘭州大學(xué), 2019.

[20]劉強(qiáng),馬歡軍.人工智能專利侵權(quán)問(wèn)題研究[J].福建江夏學(xué)院學(xué)報(bào),2018,8(4):10?21.

[21] Google Inc., Mountain View, CA (US) .System and method for addressing overfitting in a neural network:14/015768[P].2014-06-26.

[22]蔡琳.智能算法專利保護(hù)的制度探索[J].西北工業(yè)大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2019(3):3?111.

[23] LARSON J, MATTU S, ANGWIN J. Unintended conse? quences of geographic targeting[EB/OL]. (2015-08-31)[2022-01-16]. https://link. springer. com/content/pdf/ 10.1007%2F978?3-030?12524?0.pdf.

[24]韓偉.算法合謀反壟斷初探——OECD《算法與合謀》報(bào)告介評(píng)(上)[J].競(jìng)爭(zhēng)政策研究,2017(5):112?121.

[25] KIM P T. Big data and artificial intelligence: new chal? lenges for workplace equality[J]. U. Louisville L. Rev., 2018, 57(2): 313.

[26] ZUIDERVEEN B F. Discrimination, artificial intelligence, and algorithmic cision-making[R]. Strasbourg: Director? ate General of Democracy at the Council of Europe, 2018: 16?17.

[27] CHATILA R, HAVENS J C. The IEEE global initiative on ethics of autonomous and intelligent systems[M].Robotics and Well-Being. Switzerland: Springer, 2019: 11.

[28]楊崇森著.專利法理論與應(yīng)用:第3版[M].臺(tái)北:三民書(shū)局,2013:14.

[29]黃海峰.知識(shí)產(chǎn)權(quán)的話語(yǔ)與現(xiàn)實(shí)[M].武漢:華中科技大學(xué)出版社,2011:151?152.

[30]李晨樂(lè),葉靜怡.專利公開(kāi)、技術(shù)溢出與專利私人價(jià)值[J].中央財(cái)經(jīng)大學(xué)學(xué)報(bào),2016(9):112?121.

[31]劉強(qiáng).人工智能算法發(fā)明可專利性問(wèn)題研究[J].時(shí)代法學(xué),2019,17(4):17?26.

[32]王利明.人工智能時(shí)代對(duì)民法學(xué)的新挑戰(zhàn)[J].東方法學(xué), 2018(3) :4?9.

[33]吳漢東.人工智能生成發(fā)明的專利法之問(wèn)[J].當(dāng)代法學(xué),2019,33(4):24?38.

[34]謝敏楠,Astrid YOUNG.歐洲及中國(guó)在醫(yī)藥、生物領(lǐng)域不可專利客體方面的比較[J].中國(guó)發(fā)明與專利,2019,16(6):92?99.

Multidimensional Interpretation and Choice: Exploring the Path of Intellec? tual Property Protection for Artificial Intelligence Algorithms

Yao Ye

(Center for Study of Intellectual Property Rights, Zhongnan University of Economics and Law, Wuhan 430073, China; Max Planck Institute for Innovation and Competition, Munich 80539, Germany)

Abstract: Artificial intelligence (AI) algorithmis the core of the rapid progress of AI, its design logic, operation process and appearance are different from traditional computer program algorithm, but it does not go beyond the essence of"knowledge products". AI algorithms can be protected under copyright law, patent law and unfair competition law, with copyright law and patent law protecting the expression of AI algorithms as the basic approach and trade secret protec? tion path protecting the core of AI algorithms. The above three rules have advantages and disadvantages respectively. The development of AI algorithms is dependent on the disclosure of previous technologies, and the international com? munity has put forward ethical requirements for the development of AI algorithms in terms of interpretability, transpar? ency and accountability. The "disclosure of invention theory" of patent law is in line with the needs of AI algorithms, and the protection of AI algorithms as technical solutions in patent law seems to balance the interests of technology rights holders and users, prevent the creation of algorithmic black boxes, and maintain social morality and order. At the same time, the algorithm invention that violates public order and ethics and morality, and the algorithm inventions as medical methods should be excluded from the patent object.

Keywords: artificial intelligence algorithms; copyright law; anti-unfair competition law; patent law; algorithmic ethics

①參見(jiàn)深圳市南山區(qū)人民法院民事判決書(shū)(2019)粵0305民初14010號(hào)。

②參見(jiàn)https://www.g2.com/categories/artificial-intelligence,最后訪問(wèn)日期:2021年3月17日。

③參見(jiàn)https://www.educba.com/artificial-intelligence-software/,最后訪問(wèn)日期:2021年3月17日。

④參見(jiàn)2019年《專利審查指南》。

⑤參見(jiàn)2017年《專利審查指南》第9章。

⑥參見(jiàn)2013年《計(jì)算機(jī)軟件保護(hù)條例》第14條。

⑦參見(jiàn)2019年《專利審查指南》第2章6.1.2。

⑧參見(jiàn)(2017)京行終4293號(hào)周正樹(shù)與國(guó)家知識(shí)產(chǎn)權(quán)局專利復(fù)審委員會(huì)因發(fā)明專利申請(qǐng)駁回復(fù)審行政糾紛上訴案。

主站蜘蛛池模板: 污视频日本| 五月婷婷激情四射| 毛片基地美国正在播放亚洲 | 国产精品黄色片| 被公侵犯人妻少妇一区二区三区| 永久免费无码日韩视频| 午夜久久影院| 亚洲AV永久无码精品古装片| 情侣午夜国产在线一区无码| 无码免费试看| 国产99欧美精品久久精品久久| 专干老肥熟女视频网站| 久久国产精品嫖妓| 日韩精品欧美国产在线| 熟妇人妻无乱码中文字幕真矢织江 | 亚洲一区二区三区麻豆| 无码国产伊人| 欧美怡红院视频一区二区三区| 亚洲欧美成人在线视频| 亚洲中文字幕日产无码2021| 欧美日韩在线第一页| 欧美午夜小视频| 色老头综合网| 国产亚洲精品97在线观看 | 高清精品美女在线播放| 亚洲欧洲一区二区三区| 欧美亚洲激情| 97se亚洲| 亚洲αv毛片| 99热国产这里只有精品9九| 91国内在线观看| 99精品国产自在现线观看| 国产91特黄特色A级毛片| 无码乱人伦一区二区亚洲一| 呦女亚洲一区精品| 精品色综合| 成人毛片在线播放| 亚洲国产清纯| 久久青草热| 成人无码一区二区三区视频在线观看 | 亚洲天堂777| 免费可以看的无遮挡av无码| 综合成人国产| 亚洲国产精品不卡在线| 91久久天天躁狠狠躁夜夜| 国产二级毛片| 国产性生大片免费观看性欧美| 青青青视频91在线 | 一级全黄毛片| 2020久久国产综合精品swag| 欧美人人干| 亚洲中文字幕久久精品无码一区| 亚洲网综合| 欧美成人午夜视频免看| 18黑白丝水手服自慰喷水网站| 88av在线播放| 亚洲欧美成人综合| 天天干天天色综合网| 国产视频a| 欧美激情视频二区三区| 久久免费视频播放| 另类综合视频| 亚洲第一极品精品无码| 国内精品自在自线视频香蕉| 成年人午夜免费视频| 在线看国产精品| 国产亚洲精品无码专| 久久99国产综合精品女同| 久久a毛片| 青青草一区二区免费精品| 亚洲欧洲日韩久久狠狠爱 | 一本色道久久88综合日韩精品| 亚洲综合亚洲国产尤物| 国产成人亚洲日韩欧美电影| 国产免费久久精品44| 男女男免费视频网站国产| 日韩欧美国产中文| 精品视频91| www精品久久| 免费在线a视频| 不卡国产视频第一页| 国产黄网站在线观看|