劉源源
(535000 欽州學(xué)院 廣西 欽州)
自進(jìn)入二十一世紀(jì)以來(lái),信息化使得信息迅速的膨脹,信息資源結(jié)構(gòu)變得復(fù)雜和龐大,導(dǎo)致人類自然科技在這一發(fā)展前變得有心無(wú)力,隨著社會(huì)科技的發(fā)展,面對(duì)這一局面的變化,人工智能應(yīng)運(yùn)而生[1]。從目前人工智能發(fā)展和應(yīng)用前景分析,可對(duì)社會(huì)各行業(yè)造成顛覆性的影響,可作為推動(dòng)未來(lái)信息化技術(shù)的核心因素,從而對(duì)未來(lái)的勞動(dòng)、財(cái)富分配及社會(huì)功能職能劃分等方式造成深遠(yuǎn)的影響。但隨著人工智能的發(fā)展,相應(yīng)的問(wèn)題也伴隨而來(lái),尤其是在法律方面的問(wèn)題十分嚴(yán)峻,且對(duì)人工智能的發(fā)展造成一定的影響。基于此,筆者在下文對(duì)人工智能發(fā)展中的較為突出幾個(gè)法律問(wèn)題進(jìn)行分析,探究其解決策略。
人工智能可為人類物質(zhì)生活提供優(yōu)質(zhì)的服務(wù),同時(shí)也豐富了人類的精神世界,使得人類的生活變得便捷、豐富精彩,因此人工智能方面的創(chuàng)作在研發(fā)設(shè)計(jì)階段的成本高,而在投用使用時(shí),其創(chuàng)作數(shù)量增大,創(chuàng)作周期縮短,加上人工智能在藝術(shù)創(chuàng)作領(lǐng)域中的發(fā)展活躍,導(dǎo)致人工智能創(chuàng)作版權(quán)保護(hù)這一法律問(wèn)題在藝術(shù)創(chuàng)作領(lǐng)域出現(xiàn)不少爭(zhēng)議[2]。給予人工智能創(chuàng)作品相應(yīng)的版權(quán)保護(hù),會(huì)使得擁有版權(quán)的人工智能創(chuàng)作品數(shù)量迅速增長(zhǎng),且還會(huì)對(duì)部分領(lǐng)域中的人類自然作品造成一定的沖擊,并會(huì)對(duì)作為創(chuàng)作主體的人工智能的資格產(chǎn)生質(zhì)疑。但若不給予人工智能創(chuàng)作品相應(yīng)的版權(quán)保護(hù),會(huì)導(dǎo)致大量的無(wú)版權(quán)保護(hù)的人工智能創(chuàng)作品流入市場(chǎng),對(duì)市場(chǎng)造成一定的沖擊,并會(huì)導(dǎo)致抄襲、搭便車等不良事件頻發(fā),不利于人工智能的良性發(fā)展。
隨著信息數(shù)據(jù)的發(fā)展,現(xiàn)在社會(huì)已進(jìn)入了大數(shù)據(jù)時(shí)代,智能問(wèn)題也逐漸轉(zhuǎn)化為了數(shù)據(jù)問(wèn)題,從而使得人工智能技術(shù)發(fā)展發(fā)生的量變到質(zhì)變的變化,也引發(fā)的智能革命的展開(kāi)[3]。與傳統(tǒng)的技術(shù)相比,人工智能在對(duì)人們進(jìn)行服務(wù)時(shí),會(huì)與使用者的個(gè)人信息隱私進(jìn)行緊密的聯(lián)系。個(gè)人信息是指?jìng)€(gè)人相關(guān)的、反應(yīng)個(gè)人體征及可對(duì)個(gè)人機(jī)進(jìn)行識(shí)別的符號(hào)系統(tǒng),如姓名、身份證號(hào)碼、銀行卡卡號(hào)及手機(jī)號(hào)碼等,個(gè)人隱私是指?jìng)€(gè)人生活中不愿意進(jìn)行公開(kāi)的私密信息及空間,如聊天記錄、婚姻狀況及生活行蹤等[4]。從目前的人工智能產(chǎn)品儲(chǔ)存方面分析,使用者的個(gè)人相關(guān)數(shù)據(jù)的儲(chǔ)存量大且范圍廣泛,且具有高私密度,若人工智能產(chǎn)品使用者的個(gè)人信息及隱私出現(xiàn)泄露、竊取、不當(dāng)利用等情況,會(huì)對(duì)使用者的個(gè)人信息隱私的安全造成危害,并還會(huì)對(duì)其的財(cái)產(chǎn)及人身安全造成嚴(yán)重的危害,使得人工智能的發(fā)展受到嚴(yán)重的影響,并對(duì)社會(huì)秩序的穩(wěn)定造成嚴(yán)重的危害。
人工智能是信息科學(xué)技術(shù)分支中的一個(gè),因此,人工智能產(chǎn)品也被視為一般意義上的科技產(chǎn)品,但與一般的科技產(chǎn)品不同的是,人工智能產(chǎn)品的自主性更強(qiáng),在使用人工智能產(chǎn)品的過(guò)程中,產(chǎn)品對(duì)人類的意志和控制進(jìn)行違背的脫離的風(fēng)險(xiǎn)性更高,這也導(dǎo)致人工智能產(chǎn)品在風(fēng)險(xiǎn)責(zé)任承擔(dān)方面具有特殊性[5]。在現(xiàn)行的法律中,對(duì)于人工智能產(chǎn)品導(dǎo)致的損傷和損害的風(fēng)險(xiǎn)問(wèn)題,可通過(guò)民法中對(duì)相關(guān)產(chǎn)品侵權(quán)責(zé)任的相關(guān)規(guī)定進(jìn)行維權(quán),主張向產(chǎn)品的銷售者和生產(chǎn)者索取賠償。但從目前的人工智能產(chǎn)品導(dǎo)致的損傷和損害的風(fēng)險(xiǎn)問(wèn)題分析,上述主張的維權(quán)方式并不適完全適用,只適用部分的人工智能產(chǎn)品,適用范圍為具有決策和自主處理等能力的產(chǎn)品,在其風(fēng)險(xiǎn)責(zé)任承擔(dān)的主體和賠償機(jī)制尚未完善,這使得使用者在使用人工智能產(chǎn)品時(shí),受到損傷和損害時(shí),難以對(duì)自身受到的傷害進(jìn)行維權(quán)。
因?yàn)槿斯ぶ悄軇?chuàng)作與一般的科技產(chǎn)品創(chuàng)作之間存在特殊性,這也導(dǎo)致其創(chuàng)作品具有特殊的作品屬性,從而使得其在進(jìn)行創(chuàng)作版權(quán)保護(hù)方面也存在一定的特殊性[6]。筆者通過(guò)對(duì)人工智能特殊屬性進(jìn)行研究分析,在給予人工智能產(chǎn)品創(chuàng)作相應(yīng)的版權(quán)時(shí),需符合以下條件:
(1)具備明確思想表達(dá)形式的人工智能產(chǎn)品,大部分的人們會(huì)認(rèn)為人工智能產(chǎn)品沒(méi)有思想,其實(shí)并不是,只是人工智能產(chǎn)品的思想與人類普通作品中的思想不同,人工智能產(chǎn)品的思想是指編程者設(shè)定的程序和算法的產(chǎn)物,且具備特殊表達(dá)形式。
(2)具備創(chuàng)造性和獨(dú)立性的人工智能產(chǎn)品,從目前的人工智能發(fā)展觀察發(fā)現(xiàn)其以可進(jìn)行獨(dú)立創(chuàng)作,具有獨(dú)立性,因此探討的是人工智能產(chǎn)品創(chuàng)造性這一屬性,對(duì)于人工智能創(chuàng)造性判定標(biāo)準(zhǔn)可參照“最低限度創(chuàng)作性”的標(biāo)準(zhǔn),即當(dāng)人工智能產(chǎn)品符合規(guī)定程度的創(chuàng)新,則可判定其具備創(chuàng)造性,但結(jié)合人工智能創(chuàng)作過(guò)程,其具備創(chuàng)造性還需符合可獨(dú)立完成藝術(shù)作品和脫離既定算法生成新的原創(chuàng)產(chǎn)物這兩個(gè)條件。
(3)人工智能產(chǎn)品展示時(shí)擁有有形形式復(fù)制和智力活動(dòng)的成果。
與一般科技產(chǎn)品相比,人工智能與其在外觀無(wú)顯著差異,較難分辨,尤其是在藝術(shù)方面,因此,在給予人工智能產(chǎn)品相關(guān)版權(quán)時(shí),應(yīng)先對(duì)其進(jìn)行判斷是否符合滿足上述條件,從而選擇性的給予人工智能產(chǎn)品相應(yīng)版權(quán),且還可對(duì)其擁有版權(quán)的數(shù)量進(jìn)行控制,減少對(duì)人類自然成品的沖擊,同時(shí)避免過(guò)多無(wú)版權(quán)的人工智能產(chǎn)品流入市場(chǎng)對(duì)其造成沖擊,減少抄襲等不良事件的發(fā)生,促進(jìn)人工智能良性發(fā)展[7]。在法律規(guī)章制度方面,可參照職務(wù)作品中作者享有署名權(quán)的相關(guān)規(guī)定來(lái)制定人工智能產(chǎn)品享有版權(quán)的規(guī)定,人工智能產(chǎn)品的創(chuàng)作者需在作品中將所使用到的人工智能技術(shù)進(jìn)行標(biāo)注說(shuō)明,從為更好的對(duì)人工智能技術(shù)的編程者的版權(quán)進(jìn)行保護(hù),對(duì)創(chuàng)作市場(chǎng)進(jìn)行規(guī)范,避免出現(xiàn)不公平競(jìng)爭(zhēng)和不正當(dāng)使用的情況出現(xiàn)[8]。
筆者通過(guò)對(duì)人工智能使用者的個(gè)人信息隱私泄露和竊取的因素進(jìn)行分析發(fā)現(xiàn),主要是由于使用者缺乏維權(quán)行為、人工智能服務(wù)中數(shù)據(jù)不對(duì)稱及缺乏對(duì)使用者和數(shù)據(jù)處理者的監(jiān)管和制約這三個(gè)因素,針對(duì)這三個(gè)因素筆者提出以下解決策略:
(1)使用者在使用人工智能服務(wù)前,需要將個(gè)人部分信息及相關(guān)數(shù)據(jù)進(jìn)行提供換取相應(yīng)的服務(wù),但這并不是提供服務(wù)的人工智能端向用戶任意收集信息的借口,用戶也不可隨意的為了換取服務(wù)而將自己的信息隨意的進(jìn)行提供。對(duì)此,應(yīng)對(duì)人工智能服務(wù)所收集的使用者信息數(shù)據(jù)范圍進(jìn)行界定,在不對(duì)人工智能服務(wù)質(zhì)量造成影響的情況下,對(duì)使用者的個(gè)人信息隱私進(jìn)行最大限度的保護(hù)。除此之外,在對(duì)采集范圍進(jìn)行界定前,人工智能服務(wù)應(yīng)對(duì)所采集的信息數(shù)據(jù)是否為系統(tǒng)運(yùn)行的必需信息,并考慮到采集是否符合“人格尊嚴(yán)不可侵犯”的憲法精神,從而更好的對(duì)采集范圍進(jìn)行界定。
(2)人工智能服務(wù)中數(shù)據(jù)不對(duì)稱是大數(shù)據(jù)時(shí)代下的產(chǎn)物,這一產(chǎn)物具有較強(qiáng)的客觀性,且較難進(jìn)行扭轉(zhuǎn),而為了減少對(duì)使用者權(quán)益的危害,緩和數(shù)據(jù)不對(duì)稱這一局面,必須對(duì)處于弱勢(shì)地位的個(gè)人使用者給予相應(yīng)的保護(hù)策略。而對(duì)于掌控龐大數(shù)據(jù)庫(kù)的人工智能系統(tǒng),保護(hù)使用者個(gè)人信息隱私和對(duì)不平衡局面進(jìn)行穩(wěn)定的較為可行的策略為充實(shí)對(duì)使用者所掌握的信息,并在對(duì)使用者采集信息前,將信息采集的范圍、處理方式及利用情況告知使用者,并在獲取使用者同意情況下進(jìn)行采集。
(3)對(duì)于缺乏對(duì)使用者和數(shù)據(jù)處理者的監(jiān)管和制約這一情況,筆者認(rèn)為在對(duì)使用者進(jìn)行監(jiān)管時(shí),應(yīng)對(duì)監(jiān)管的主體及職責(zé)進(jìn)行明確,并對(duì)使用者的信息數(shù)據(jù)的使用、處理及銷毀等過(guò)程進(jìn)行全面的監(jiān)管,保證按照服務(wù)條款對(duì)個(gè)人無(wú)關(guān)的信息數(shù)據(jù)進(jìn)行及時(shí)的銷毀,并履行與使用者簽訂的相關(guān)服務(wù)條例。在對(duì)數(shù)據(jù)處理者制約方面,除了對(duì)使用者收集信息前獲取其同意這一措施,為了避免出現(xiàn)第三方對(duì)使用者的信息進(jìn)行不法利用的情況,提供人工智能服務(wù)的相關(guān)企業(yè)應(yīng)根據(jù)原始數(shù)據(jù)掌握情況給予相應(yīng)的安全保護(hù)措施。
人工智能產(chǎn)品在研發(fā)設(shè)計(jì)、生產(chǎn)和銷售的過(guò)程中,涉及到研發(fā)設(shè)計(jì)者、生產(chǎn)者、銷售者及使用者,從目前現(xiàn)有執(zhí)行的產(chǎn)品缺陷致?lián)p歸責(zé)任承擔(dān)規(guī)定方面,承擔(dān)主體為生產(chǎn)者、銷售者和造成過(guò)錯(cuò)的第三方,并沒(méi)有將人工智能產(chǎn)品的產(chǎn)出全過(guò)程所涉及的責(zé)任人包括在內(nèi),導(dǎo)致使用者在使用人工智能產(chǎn)品時(shí)受到損害時(shí)維權(quán)較為困難,使得使用者的消費(fèi)積極性下降,不利于人工智能產(chǎn)品的市場(chǎng)開(kāi)拓和良性發(fā)展[9]-[10]。對(duì)于這一情況,筆者認(rèn)為可采取如下措施:
(1)在現(xiàn)有制度的基礎(chǔ)上,構(gòu)建一個(gè)符合人工智能產(chǎn)業(yè)特點(diǎn)的責(zé)任承擔(dān)機(jī)制,參照責(zé)任分擔(dān)這一原則,對(duì)人工智能產(chǎn)品的研發(fā)設(shè)計(jì)者、生產(chǎn)者、銷售者及使用者的義務(wù)及責(zé)任在法律上進(jìn)行明確,減少和避免責(zé)任空白情況的出現(xiàn)。但由于目前大部分的人工智能產(chǎn)品具有自主決策的能力,若其對(duì)使用者造成的損害在不可預(yù)見(jiàn)和不可控制的范圍,可參照《侵權(quán)責(zé)任法》有關(guān)公平分擔(dān)損失的規(guī)定,對(duì)責(zé)任承擔(dān)者的責(zé)任進(jìn)行合理減輕,保障提供人工智能服務(wù)的有關(guān)企業(yè)的相應(yīng)權(quán)益,從而實(shí)現(xiàn)雙方合理權(quán)益有效維護(hù)。
(2)人工智能產(chǎn)品的使用者在消費(fèi)的全過(guò)程中處于弱勢(shì)的地位,發(fā)生意外時(shí)受到的損傷較重,責(zé)任企業(yè)是在維權(quán)結(jié)束后給予相應(yīng)的賠償,而在維權(quán)的過(guò)程中,使用者也需要大量的資金進(jìn)行支持,對(duì)于此情況可參照2017年1月歐盟頒布的《機(jī)器人民事法律規(guī)則的立法建議報(bào)告》中的強(qiáng)制保險(xiǎn)機(jī)制和賠償基金的設(shè)立這兩個(gè)規(guī)定,不僅可給予使用者一定的救濟(jì),同時(shí)還可減輕人工智能產(chǎn)品開(kāi)發(fā)者和生產(chǎn)者所承擔(dān)的責(zé)任。
人工智能技術(shù)給人們的生活帶來(lái)很多的方便,但同時(shí)也暴露出一系列的法律問(wèn)題,值得人們探究和深思,筆者認(rèn)為應(yīng)盡早的建立其對(duì)人工智能相關(guān)法律問(wèn)題的認(rèn)知,從而更好的采取法律措施進(jìn)行應(yīng)對(duì),使得人工智能的研究開(kāi)發(fā)過(guò)程變得規(guī)范合法,并創(chuàng)設(shè)良好的人工智能產(chǎn)品市場(chǎng)環(huán)境和社會(huì)環(huán)境,保障人工智能技術(shù)的良性發(fā)展。