李 茂 久, 張 靜
(1.中南財經(jīng)政法大學(xué) 刑事司法學(xué)院,湖北 武漢 430073;2.中南財經(jīng)政法大學(xué) 新聞與文化傳播學(xué)院,湖北 武漢 430073)
人工智能的話題已經(jīng)從一個技術(shù)應(yīng)用范疇演變成一個具有專業(yè)爭議性的社會公共話題。人工智能的出現(xiàn)改變了主體與客觀的認(rèn)知關(guān)系,將會深刻影響和改變未來法律的發(fā)展。人工智能顛覆了傳統(tǒng)的以“人”為中心的法律體系,試圖以賦予人工智能類(擬)人化法律主體資格來防范和處置未來可能的危害風(fēng)險。但學(xué)界在探討人工智能創(chuàng)設(shè)各類社會危害風(fēng)險的邏輯論證上存在著主體的錯位、風(fēng)險的夸大與邏輯的推測等諸多的問題。
1.人工智能的技術(shù)邏輯:數(shù)據(jù)與算法
人工智能是計算機與大數(shù)據(jù)技術(shù)科技融合的產(chǎn)物。它通過模擬和再造人類智能,生產(chǎn)出一種具有類人化智能的智能機器。根據(jù)現(xiàn)有技術(shù)的發(fā)展,按照智能程度的高低,人工智能可以分為弱人工智能、強人工智能和超人工智能。這種發(fā)展趨向也是人工智能從技術(shù)物體到技術(shù)智體發(fā)展的過程,也是逐步賦予人工智能更加智慧的過程,即人工智能具有深度學(xué)習(xí)能力和自我運行算法的能力。人工智能的技術(shù)邏輯關(guān)鍵在于數(shù)據(jù)與算法,只有具備了這些人工智能才可以形成算法能力和學(xué)習(xí)能力。
首先,人工智能是數(shù)據(jù)智能。人工智能本質(zhì)上是預(yù)先構(gòu)建類型化的數(shù)據(jù)庫,用大量的數(shù)據(jù)作為智能導(dǎo)向,人工智能通過數(shù)據(jù)庫提供數(shù)據(jù)支撐來完成所做的行為。其次,人工智能是算法。“算法即是規(guī)則”。算法為人工智能提供了意圖實現(xiàn)的目標(biāo),并為實現(xiàn)該目標(biāo)提供了具體的計算路徑與方法。算法本質(zhì)上是以數(shù)據(jù)為填充,通過計算步驟得到具體結(jié)果,算法的運算結(jié)果與算法設(shè)計、算法部署以及應(yīng)用有關(guān),算法看似很艱深的計算科學(xué)概念,實際上在計算機科學(xué)家看來,通過一些列步驟、用輸入的數(shù)據(jù)得到輸出結(jié)果就是算法的本質(zhì)[1]。從技術(shù)本體論上來講,人工智能具有一定的技術(shù)邏輯,并不是一個被人類技術(shù)“異化”的產(chǎn)物,它是在人類正常的智慧、科技手段和正常的場域內(nèi)合理存在的產(chǎn)物。
2.人工智能危害風(fēng)險的技術(shù)判斷
技術(shù)奇點和圖靈測試被認(rèn)為是賦予人工智能獨立、能動性活動的技術(shù)支撐的重要依據(jù)。但技術(shù)奇點和圖靈測試一直受到很多批評,其中一個最重要的質(zhì)疑是它偏向于純粹的符號問題求解任務(wù)。它并不測試感知技能或要實現(xiàn)手工靈活性所需的能力,而這些都是人類智能的重要組成部分。機器智能不同于人類智能,試圖按照人類的方式來評估它,可能本身就是一個錯誤[1]25。就人工智能的技術(shù)邏輯來判斷,主要存在的風(fēng)險源是數(shù)據(jù)與算法。
(1)數(shù)據(jù)風(fēng)險
人工智能的技術(shù)應(yīng)用建立在對大數(shù)據(jù)的應(yīng)用基礎(chǔ)上。在大數(shù)據(jù)時代,原始數(shù)據(jù)的設(shè)計和使用的流程復(fù)雜多樣,在運作過程中,對于數(shù)據(jù)的篩選和使用無法把控,形成數(shù)據(jù)的不確定性。因此,人工智能的風(fēng)險明顯存在數(shù)據(jù)風(fēng)險。一種是“數(shù)據(jù)失靈”風(fēng)險,即基于原始數(shù)據(jù)的不充分或者瑕疵,在對數(shù)據(jù)不能形成有效修正的前提下,完全由數(shù)據(jù)計算得出信息,根據(jù)信息形成外在活動。此種風(fēng)險在于,如果原始數(shù)據(jù)的質(zhì)量不高,或者存有瑕疵,導(dǎo)致人工智能行為按照瑕疵的數(shù)據(jù)邏輯進行計算,就形成潛在危險。另一種是“數(shù)據(jù)操控”風(fēng)險。由于人工智能的原始數(shù)據(jù)來源于人的加工處理,而人的決策難以擺脫個體價值的影響,如果一個對社會存有危害意識的人,通過數(shù)據(jù)加工,人為地將數(shù)據(jù)進行偽造或者篡改,就會導(dǎo)致人的惡意外化為機器的危害行為,從而形成巨大的危害風(fēng)險。
(2)算法風(fēng)險
算法是一種新型的控制力量和規(guī)制形式。算法是計算機計算或執(zhí)行的一系列解決問題的清晰指令。算法的風(fēng)險主要體現(xiàn)在兩個方面。一是算法偏見與歧視導(dǎo)致的風(fēng)險。“算法來自代碼編寫,從技術(shù)上來看,程序員按照設(shè)定任務(wù)(應(yīng)用)來編寫源代碼(源程序),并經(jīng)過編譯程序轉(zhuǎn)換為目標(biāo)代碼或可執(zhí)行代碼”[2],然后控制和指揮人工智能的每一個動作。然而在利益和惡意動機的誘惑下,算法存在偏見就會導(dǎo)致人工智能的行為存在脫離正常活動或者行為形式的可能性,從而產(chǎn)生外在的風(fēng)險。二是算法黑箱的風(fēng)險。計算機直接從原始數(shù)據(jù)或者源代碼出發(fā),通過自我學(xué)習(xí)自動生成對外界的認(rèn)知與行為。在人工智能通過數(shù)據(jù)與算法的技術(shù)鏈接與操作的過程中存在著人類無法操控與洞悉的“黑暗隱層”,稱之為“黑箱”。因此,算法面臨一定的未知風(fēng)險。由于算法黑箱導(dǎo)致算法自主,從而形成人工智能脫離規(guī)定的正面目標(biāo)任務(wù)而產(chǎn)生反面的破壞活動。比如,正在炒菜的機器人可能會打砸鍋碗,形成無法控制的危害風(fēng)險。
1.人工智能的事實風(fēng)險:危害風(fēng)險的孤立個案
目前,法學(xué)界探討人工智能存在的事實風(fēng)險主要通過以下案例來論證。“1979年,一名叫羅伯特·威廉姆斯的美國人被一重型機械臂擊中了頭部而死亡。1981年,工程師肯基·鄂瑞達在修復(fù)機械手臂的時候被活活卡死在房屋的柱子上。”[3]2015年7月,一名德國大眾汽車制造廠的年輕工人在安裝和調(diào)制機器人時,被機器人擊傷胸部[4]。2016年,在深圳舉辦的中國國際高新技術(shù)成果交易會上,發(fā)生了一起一名叫“小胖”的機器人“故意”傷害他人和毀損財物的事件。2018年3月亞利桑那州坦佩發(fā)生的一起無人駕駛汽車事故中,Uber的一輛無人駕駛汽車撞死了一名行人[5]。英國首例機器人心瓣修復(fù)手術(shù)現(xiàn)場大亂,機器人把病人的心臟放錯位置,并戳穿大動脈,最終導(dǎo)致病人在術(shù)后一周死亡[6]。上述案例是從事實風(fēng)險的角度論證人工智能創(chuàng)設(shè)的風(fēng)險客觀存在,但上述案例存在以下問題:
(1)被忽視的個案性質(zhì)
就目前學(xué)術(shù)界探討的人工智能危害案例的性質(zhì)而言,基本屬于生活事件,法律定性一般也僅承認(rèn)是意外事件。在20世紀(jì)出現(xiàn)的重型機械臂殺人的案件,囿于當(dāng)時的技術(shù)的限制,還處于機械的范疇之內(nèi),達不到人工智能的技術(shù)程度。這種事故屬于機械事故或者安全生產(chǎn)事故。即便2015年大眾公司機器人“殺人”案中,看似賦予了人工智能某種“意識”和“行為”的內(nèi)涵,但是從技術(shù)角度判斷來看,這種人工智能還不屬于強人工智能的技術(shù)范疇。在事故描述上是受害人在安裝和調(diào)制機器人,說明該機器人并不是處于正常使用和工作之中,還存在人的操作以及機械的故障等問題。所以,上述人工智能產(chǎn)生的傷人的危害結(jié)果,也僅僅是生活中發(fā)生的意外事件或者技術(shù)事故,其風(fēng)險范疇仍舊屬于傳統(tǒng)風(fēng)險社會中的正常的風(fēng)險范疇。
(2)被遺漏的個案細(xì)節(jié)
上述案例中所列舉的“機器人殺人、傷害、毀財?shù)仁录倍际呛唵位陌咐枋觯怀鰴C器人與危害結(jié)果之間的簡單關(guān)聯(lián)性。但是任何一個案件尤其是刑事案件中危害后果大都由多種原因?qū)е拢鲜龅摹皺C器人殺人、傷害、毀財事件”也多數(shù)是“多因一果”的案件模式。上述案例的必要細(xì)節(jié)被過濾,導(dǎo)致無法準(zhǔn)確地判斷個案中的因果關(guān)系。以簡單化的案例,不能得出“智能機器人實施嚴(yán)重危害社會的行為也已經(jīng)真實地發(fā)生于人們的生活之中”[7]的結(jié)論。前述個案中的危害后果可能是機器的故障導(dǎo)致,也可能是人的設(shè)計與操作等問題導(dǎo)致。
(3)被假設(shè)了的邏輯前提
學(xué)界在普遍引用前述案例的基礎(chǔ)上,為了論證人工智能的危害風(fēng)險都對論證問題的前提進行了必要的假設(shè),即“接近奇點理論的時候,人工智能或者機器人開始脫離人類的控制”[8];如果人工智能技術(shù)能夠向“機器人類”轉(zhuǎn)變,此時的智能機器人就有必要被賦予刑事人格[9];未來機器人將會和人一樣可以自由地活動等。問題的關(guān)鍵在于這個假設(shè)的前提即人工智能具有的“辨認(rèn)與控制能力”“自我意識”“奇點理論的實現(xiàn)”等是否現(xiàn)實的存在,且已經(jīng)被證實的存在。用假設(shè)的前提條件論證虛假的命題,本身就是一種虛假論證。
2.人工智能危害風(fēng)險的價值判斷:傳統(tǒng)的危害風(fēng)險
任何一個社會形態(tài)都天然地伴隨著風(fēng)險,從農(nóng)業(yè)社會的自然風(fēng)險到工業(yè)社會的機械風(fēng)險再到信息社會的智能風(fēng)險,社會層面的風(fēng)險在不同的歷史階段有不同的表現(xiàn)形式。但是,這種風(fēng)險的演變在性質(zhì)上仍舊是人類活動的結(jié)果。從某種意義上講,人工智能技術(shù)的出現(xiàn)是人類物質(zhì)性增強技術(shù)的重大突破,人類可以利用該技術(shù)來增強精神和身體能力從而拓展外部能力。所以,人工智能將伴隨著人類行為創(chuàng)設(shè)和制造各種社會風(fēng)險。學(xué)界普遍認(rèn)為人工智能存在內(nèi)在的技術(shù)風(fēng)險和外在的社會風(fēng)險。對人工智能技術(shù)發(fā)展風(fēng)險的擔(dān)憂并非是杞人憂天,而是具有一定現(xiàn)實性和客觀性[10]。就上述探討的人工智能實際導(dǎo)致的社會風(fēng)險而言,其仍舊屬于傳統(tǒng)的社會風(fēng)險的范疇。
(1)人工智能的危害風(fēng)險不會引發(fā)人類的生存危機
風(fēng)險包含自然風(fēng)險和社會風(fēng)險,法律評價和關(guān)注的是社會風(fēng)險。社會中任何具有自主能動性的“物”,比如動物或者人類都可能成為社會風(fēng)險的來源。如前述案例,人工智能也可以在社會應(yīng)用的場域中形成對人或者物的危害風(fēng)險。無論是工具型的人工智能還是獨立自主型的人工智能,只要活動在社會關(guān)系中就伴隨著一定的危害風(fēng)險。人工智能所產(chǎn)生的危害風(fēng)險仍舊屬于傳統(tǒng)社會風(fēng)險的范疇,屬于生產(chǎn)生活中技術(shù)風(fēng)險的外在延伸。理性地審視這種衍生的危害風(fēng)險,在事實認(rèn)定和價值評判上,其仍舊屬于傳統(tǒng)犯罪風(fēng)險的范疇。所以,人工智能的危害風(fēng)險不會引發(fā)人類的生存危機。
(2)人工智能的危害風(fēng)險不會導(dǎo)致社會異化
異化是哲學(xué)上的概念,“即由人自身產(chǎn)生出的一種異己的力量”[11]。人失去了自我,受制于這種異己的力量,異化的核心在于人成為客體之物,喪失自我的本質(zhì)。針對人工智能的危害風(fēng)險會不會導(dǎo)致社會異化的問題,有學(xué)者提出人工智能的負(fù)面后果;人工智能的濫用;人工智能變成了“決策者”具有“算法自主”能力,導(dǎo)致引發(fā)人類身份認(rèn)知的危機等[12]。這種假設(shè)性的異化風(fēng)險回避了法律評價風(fēng)險的基礎(chǔ)在于現(xiàn)實的生活。同時就異化風(fēng)險的表現(xiàn)形式而言,人工智能的負(fù)面后果、人工智能的濫用等都不是人工智能異化的表現(xiàn)形式。人工智能的危害風(fēng)險的來源、過程與結(jié)果始終伴隨著人的行為,人工智能永遠(yuǎn)是人工的產(chǎn)物,其引發(fā)的風(fēng)險依舊脫離不了社會與人的關(guān)系范疇。因此,人工智能的危害風(fēng)險不會導(dǎo)致社會異化。
(3)人工智能的危害風(fēng)險仍舊沒有脫離人的活動范疇
毫無疑問,人和人工智能在本質(zhì)屬性上就存在巨大的差異。人具有自然和社會的雙重屬性。人工智能屬于自然的物質(zhì)性范疇,是技術(shù)化的物質(zhì)體質(zhì)。人工智能在存在意義上不等于人,在能力范疇上與人具有巨大的智力差異性。盡管人工智能的技術(shù)越來越智能化,但是再聰明的“智能”也是“人工”的產(chǎn)物。盡管超人工智能具有語言塑造、自我學(xué)習(xí)、認(rèn)知推理以及創(chuàng)造規(guī)劃等能力,但它屬于“人造”范疇,這些能力的取得來源于人的能力。所以,人具有全面的能力,人可以改造客觀世界,但是人工智能也僅具有部分行為能力,它的能力范圍僅僅局限于特定的領(lǐng)域范疇。所以,無論何等智能程度的人工智能所產(chǎn)生的危害風(fēng)險仍舊沒有脫離人的活動區(qū)域。
1.風(fēng)險表象:人工智能創(chuàng)設(shè)危害風(fēng)險的類型化評價
隨著人工智能技術(shù)的快速發(fā)展以及在社會各行業(yè)中的普及應(yīng)用,人工智能各種活動的范圍會不斷擴大,活動頻率也會不斷增強,人工智能必然會對社會產(chǎn)生一定的危害風(fēng)險。這種風(fēng)險屬于當(dāng)今社會科技風(fēng)險的表現(xiàn)形式,具有一定的跨越時空性、高度的隱蔽性、不可預(yù)測性和復(fù)雜的關(guān)聯(lián)性。所以,未來人工智能創(chuàng)設(shè)的風(fēng)險既是一種客觀現(xiàn)實的風(fēng)險,也是一種人們可以獨自判斷和認(rèn)識的主觀風(fēng)險。由于學(xué)界對人工智能的風(fēng)險的論證存在實然與應(yīng)然兩個層面,對于未來人工智能創(chuàng)設(shè)的風(fēng)險必須堅持以實事求是、科學(xué)理性的態(tài)度去分析評判。
目前,學(xué)界探討人工智能存在的危害風(fēng)險主要分為兩種情況。第一種,“工具輔助型”人工智能所產(chǎn)生的危害風(fēng)險,即人工智能的工具性風(fēng)險。如利用人工智能侵入股市數(shù)據(jù),干擾、控制和影響股市交易從而獲得不當(dāng)利益;利用人工智能侵犯個人隱私或者收集個人信息,自動駕駛帶來的道路與飛行公共安全風(fēng)險等。在這種情況下,“人工智能僅僅是人的危害行為借用的工具”。第二種,“獨立自主型”人工智能所產(chǎn)生的風(fēng)險,即人工智能的功能性風(fēng)險。有學(xué)者認(rèn)為,強人工智能產(chǎn)品完全有能力在設(shè)計和編制的程序范圍之外實施嚴(yán)重危害社會的行為,完全有可能對刑法所保護的社會關(guān)系造成嚴(yán)重侵害[13]。對于這種所謂的危害風(fēng)險,多數(shù)是借用電影里虛構(gòu)的場景進行假設(shè)性的論證,還沒有以實際發(fā)生的社會案例作為論證事實。
2.風(fēng)險聚焦:人工智能創(chuàng)設(shè)危害風(fēng)險的去偽與存真
人工智能隨著技術(shù)的發(fā)展,會從單獨的工具性風(fēng)險轉(zhuǎn)變?yōu)楣δ苄燥L(fēng)險。人工智能基于技術(shù)性屬性所產(chǎn)生的工具性風(fēng)險,仍舊屬于傳統(tǒng)的風(fēng)險,是以人作為法律責(zé)任的主體,在法律的邏輯關(guān)系上比較清晰,也能夠有效地進行風(fēng)險處置與預(yù)防。現(xiàn)在法律需要應(yīng)對和處置的困境在于“獨立自主型”人工智能所產(chǎn)生的風(fēng)險問題。這種觀點論證的主要理由有:(1)人工智能具有行為和行為能力。“機器人具有獨立行為”“智能機器人自主決定并在設(shè)計和編制的程序范圍外實施嚴(yán)重危害社會的行為”[14]。(2)人工智能有自主意識,具有辨認(rèn)和控制能力。“智能機器人所具有的獨立的辨認(rèn)能力和控制能力來源于程序”[14]79。當(dāng)人工智能體的人工神經(jīng)網(wǎng)絡(luò)規(guī)模足夠龐大時,便會產(chǎn)生自主意識[15]。(3)人工智能具有行為能力或者責(zé)任能力。
人工智能獨立風(fēng)險學(xué)說存在以下幾個方面的問題:
(1)主、客邏輯的錯位
一個不容置疑的事實是,無論人工智能有多么智能,它始終是人工的產(chǎn)物。計算機是人類為了自身目的而設(shè)計制造的,這種制造者與被制造者之間的強關(guān)系將人置于面對面地統(tǒng)治機器的絕對優(yōu)越地位[16]。人和人工智能天生就有很大的區(qū)別。人屬于自然的范疇,具有生物體質(zhì)性;人工智能屬于物質(zhì)的范疇,具有技術(shù)體質(zhì)性。人工智能與人的關(guān)系從本源上來講,人是主體,人工智能是人的智慧與技術(shù)的產(chǎn)物,人工智能始終處于客體地位。人工智能是“人工”的結(jié)果,如果剔除了“人工”又哪里存在“智能”呢?從人工智能的起源動機來看,人類制造人工智能的出發(fā)點是便捷與服務(wù)人類的自身發(fā)展,滿足人類的利益需求。所以,人工智能具有工具價值屬性,不具有自我利益訴求和自我獨立的生理與精神需要的屬性,由于人工智能不存在類人化的需求與利益。所以,處于客體地位的人工智能不會創(chuàng)設(shè)具有獨自的、超脫人之外的功能性的社會風(fēng)險。
(2)角色假象的錯位
把人工智能置于“人”的主體地位進行角色聯(lián)想,認(rèn)為人工智能具有獨自的功能性風(fēng)險也是人的角色假想的結(jié)果。前述的論證分析無一例外都加入了假設(shè)的成分。從人類心理安全訴求的角度來講,每一個人都極為關(guān)心自己的安全與命運,人們往往在加害與被害的角色聯(lián)想中進一步強化了自己對于安全的訴求。人們的不安全感來源于未來的不確定性,而人工智能導(dǎo)致的危害風(fēng)險具有極大的不確定性,這進一步強化了人們對人工智能犯罪主體的內(nèi)心印象與確信。通過假想自己的加害與被害,然后把人機的犯罪關(guān)聯(lián)性進行設(shè)想,就進一步強化了要賦予人工智能犯罪主體資格的必要性,從而滿足人類自身的安全訴求。
(3)事實與價值的錯位
前述論證人工智能可以創(chuàng)設(shè)獨立性的危害風(fēng)險的各種觀點,不僅進行了前提條件的主觀預(yù)設(shè),也直接規(guī)避了事實問題。無論學(xué)界認(rèn)定的人工智能具有獨立的行為,還是具有意識自由以及責(zé)任能力等,都直接用價值判斷來代替事實認(rèn)識。人工智能能否獨立地創(chuàng)設(shè)危害風(fēng)險首先是一個事實判斷,即實際上人工智能在客觀上已經(jīng)產(chǎn)生了獨立的危害事實,哪怕是一個孤立的危害事實,都可以作為法律賦予人工智能主體資格的現(xiàn)實基礎(chǔ)。所以,前述論證人工智能存在功能性風(fēng)險的觀點在事實與價值方面存在錯位。
3.風(fēng)險源頭:從人工智能的危害狀態(tài)轉(zhuǎn)變到人的危害能力
未來無論人工智能的智能程度如何超越人類,人與人工智能的關(guān)系始終不可能成為人與“人”的主體平等關(guān)系,這種關(guān)系的構(gòu)建不取決于權(quán)利而取決于能力。幾千年以來,無論物種怎樣遷徙變化,人始終是地球物種的主人,人類不可能讓渡出自己的主宰地位從而造成人類的生存危機。所以,人工智能自誕生之日,就脫離不了技術(shù)與客體的宿命,人工智能的超級智能的產(chǎn)生需要依靠人的技術(shù)與智慧。同時機器不可能自我衍生,即脫離了人的技術(shù)作用,其無法自我繁殖。因為人工智能處于技術(shù)性的客體地位,它不具備主觀的利益追求和客觀的危害行為。所以,人工智能不具備產(chǎn)生危害能力的現(xiàn)實條件。同時,人工智能不是自然的產(chǎn)物,它具有一定的技術(shù)規(guī)則與程序,人工智能的技術(shù)規(guī)則也限縮了人工智能危害能力的建設(shè)。正如雖然人類掌握了基因編輯嬰兒的技術(shù),但是人類胚胎基因編輯卻仍被嚴(yán)格禁止一樣。基于前述的分析,對于人工智能的危害風(fēng)險,法律只能評價為一種危害狀態(tài),背后的實質(zhì)是人的危害能力問題。所以,法律評價風(fēng)險的重心要從人工智能的危害狀態(tài)轉(zhuǎn)變到人的危害能力上。
4.風(fēng)險限縮:人工智能創(chuàng)設(shè)危害風(fēng)險的理性審查
(1)風(fēng)險的場域限制:市場邏輯的利益驅(qū)動導(dǎo)致危害風(fēng)險范圍有限
任何新生事物的產(chǎn)生與蓬勃發(fā)展背后都有利益驅(qū)動。馬克思曾指出:“把人和社會連接起來的唯一紐帶是天然必然性,是需要和私人利益。”[17]人工智能不是自然而然地“憑空”產(chǎn)生,人工智能的存在必須具備一定的條件,基礎(chǔ)的條件是人類技術(shù)的進步,但是技術(shù)的進步不代表一定能夠融入社會的場域應(yīng)用。人類技術(shù)的發(fā)展本身就是人類利益的驅(qū)動。所以,人工智能的產(chǎn)生與快速發(fā)展的背后是社會的需求帶動下的經(jīng)濟利益驅(qū)動。即從現(xiàn)有的國家戰(zhàn)略和發(fā)展布局來看,人工智能主要是服務(wù)經(jīng)濟社會發(fā)展的客觀需求。所以,推動人工智能的發(fā)展必然有“成本—回報—收益”的經(jīng)濟效益的訴求。這就決定了人工智能天然具有經(jīng)濟屬性,其產(chǎn)生與發(fā)展是成本與效益的市場邏輯的結(jié)果,具有經(jīng)濟利益的目的性,其適應(yīng)的領(lǐng)域和范圍也具有有限性,即“有利我才在”。人工智能不可能像人或者動物的產(chǎn)生或存在一樣具有物種保全和延續(xù)生命的自然屬性,從而可以遍地存在。基于人工智能經(jīng)濟利益的訴求性,導(dǎo)致其創(chuàng)設(shè)的危害風(fēng)險的場域范圍有限,風(fēng)險系數(shù)很低。
(2)風(fēng)險的技術(shù)限制:被夸大的智能技術(shù)導(dǎo)致危害風(fēng)險缺乏技術(shù)基礎(chǔ)
現(xiàn)在探討人工智能獨立的危害風(fēng)險都是建立在超人工智能具有假設(shè)性的自主意識和能動行為的前提下,它會像人一樣創(chuàng)設(shè)不可預(yù)料的危害風(fēng)險。但是必須理性地審視人工智能的發(fā)展之路并非預(yù)想的一帆風(fēng)順,其結(jié)果能否造就出一個所謂的具有深度學(xué)習(xí)能力的超人工智能是存疑的。理論上的設(shè)想與實際的產(chǎn)物是兩個不同的概念。就人工智能技術(shù)而言,“早在1965年,認(rèn)知科學(xué)的代表人物西蒙(H.A.Simon)就曾預(yù)言,‘在20年內(nèi),機器將能做人所能做的一切’。明斯基(M.Minsky)1977年,也曾預(yù)言,‘在一代人之內(nèi),創(chuàng)造人工智能的問題將會基本解決’”[18]。但是,經(jīng)過幾十年的發(fā)展,歷經(jīng)研究綱領(lǐng)的數(shù)次變更,存留的三大技術(shù)學(xué)派仍未超出“認(rèn)知可計算主義”的研究視野與學(xué)科范圍。因此,至今在人工智能領(lǐng)域仍舊沒有出現(xiàn)技術(shù)性突破且發(fā)展不時地陷入不曾預(yù)想到的各種困難[16]19,目前這種困難依舊存在且沒有突破。1936年,圖靈在《論可計算數(shù)》一文中表示“人類心智活動不可能超越任何機械程序”。對于人工智能未來之路其實還有很多的技術(shù)障礙有待突破。所以,被夸大的人工智能的危害風(fēng)險,目前缺乏技術(shù)基礎(chǔ),未來存在技術(shù)障礙。從另外一個角度思考,“技術(shù)”具有兩面性。人工智能會創(chuàng)設(shè)風(fēng)險,人工智能也可以消解風(fēng)險,利用人工智能的技術(shù)之盾,防備人工智能的風(fēng)險之矛,也能夠確保人工智能的風(fēng)險被最小化。
(3)風(fēng)險的性質(zhì)限制:從風(fēng)險到實害的過程限縮,降低了危害風(fēng)險
人工智能無論其智能程度如何,其存在的風(fēng)險,既有作為工具性的危害風(fēng)險,也有作為自主性的危害風(fēng)險。人工智能作為工具性的風(fēng)險屬于人的責(zé)任范疇。這種風(fēng)險屬于傳統(tǒng)的風(fēng)險范疇且伴隨著人的行為存在且不可消滅。這種風(fēng)險具有法律的可控制性和責(zé)任的歸宿性。但對于人工智能自主性的風(fēng)險還存在跨越時空性、不可預(yù)測性和復(fù)雜的關(guān)聯(lián)性。所以,目前探討的人工智能的風(fēng)險都是一副概率性的圖景,但法律關(guān)注危險和實害。從風(fēng)險到危害或者實害的轉(zhuǎn)變,是有一個逐步限縮的過程。首先,人工智能的應(yīng)用風(fēng)險要經(jīng)過實驗室的操作運行和技術(shù)驗證,只有技術(shù)運行穩(wěn)定且成熟才可能擴展到社會應(yīng)用領(lǐng)域。因此,實驗室具有風(fēng)險的過濾作用。其次,人工智能的社會應(yīng)用也有一個從局部應(yīng)用到全面擴展的過程,相應(yīng)的也會過濾掉一定的危害風(fēng)險。最后,從風(fēng)險到實害是一個從未然到實然的過程,這一過程風(fēng)險可能會發(fā)生實害,也可能不會發(fā)生實害。當(dāng)發(fā)生實害概率很低的時候,盡管有實害,但也屬于刑法中被允許的風(fēng)險范疇。
人工智能的危害風(fēng)險的社會治理是一個系統(tǒng)工程。理性地審視人工智能的危害風(fēng)險,要從技術(shù)治理、道德責(zé)任、制度保障和法律監(jiān)管等多個層次構(gòu)建人工智能危害風(fēng)險的治理體系。
1.人工智能危害風(fēng)險的技術(shù)治理邏輯——技術(shù)治理主義
人工智能危害風(fēng)險的治理邏輯可以借用技術(shù)哲學(xué)中的技術(shù)治理主義的思路。技術(shù)治理思想被法國實證主義哲學(xué)家孔德、英國哲學(xué)家斯賓塞等人從不同方面發(fā)展。技術(shù)治理主義要求科學(xué)管理與專家治理。
(1)科學(xué)管理:風(fēng)險分析與風(fēng)險評估法
從技術(shù)角度而言,人工智能危害風(fēng)險治理的邏輯前提是風(fēng)險評估與風(fēng)險分析。具體而言,就是在人工智能生產(chǎn)、制造的過程中對一系列風(fēng)險進行的管理步驟,包括風(fēng)險識別與評估、風(fēng)險管理策略、風(fēng)險的技術(shù)解決與風(fēng)險的制度監(jiān)督等。首先,人工智能廣泛應(yīng)用于社會領(lǐng)域之前要經(jīng)過危害風(fēng)險的技術(shù)識別,確定人工智能在各種應(yīng)用領(lǐng)域可能存在的潛在問題和可能造成的各種風(fēng)險,并定性分析其存在的可能后果,得出系統(tǒng)的風(fēng)險源,并將這些風(fēng)險源組合成固定的格式文件供以后分析參考。其次,要進行風(fēng)險的技術(shù)評估,即對潛在問題可能導(dǎo)致的危害風(fēng)險及其危害后果實行科學(xué)量化,并確定其嚴(yán)重程度,從而得到系統(tǒng)風(fēng)險的綜合印象。最后,要進行有效的風(fēng)險管理,“在風(fēng)險識別及風(fēng)險分析的基礎(chǔ)上采取各種措施來減小風(fēng)險及對風(fēng)險實施監(jiān)控”[19]。針對人工智能可能產(chǎn)生的科技風(fēng)險,美國國家科學(xué)技術(shù)委員會也提出了經(jīng)典的風(fēng)險技術(shù)分析法,即為了保護公共安全而對人工智能產(chǎn)品進行有效監(jiān)管的方法,應(yīng)通過評估人工智能的風(fēng)險源進行有針對性的技術(shù)應(yīng)對。對人工智能的風(fēng)險分析涉及很多風(fēng)險因素,諸如智能產(chǎn)品的功能與大小、技術(shù)本身的風(fēng)險、開發(fā)軟件的環(huán)境、組織規(guī)模、人員經(jīng)驗和客戶因素等。多年來,科研人員開發(fā)了許多風(fēng)險因素分析法的理論模型,其中美國信息安全專家Bruce Schneier創(chuàng)設(shè)的風(fēng)險分析法最為典型,其主要內(nèi)容為:第一,你想保護哪些資產(chǎn)?第二,這些資產(chǎn)的風(fēng)險是什么?第三,安全解決方案在多大程度上減輕了這些風(fēng)險?第四,安全解決方案還會帶來哪些風(fēng)險?第五,安全解決方案會帶來哪些成本?[20]這些步驟在解決人工智能危害風(fēng)險的問題上主要是如何科學(xué)地確定人工智能的相關(guān)風(fēng)險。人工智能在研發(fā)方案上具有不確定性,未來的應(yīng)用具有不受人主觀控制的因素。只有到智能技術(shù)的實際應(yīng)用層面,我們才能確定現(xiàn)行解決方案是否能夠充分減輕步驟3所規(guī)定的這些風(fēng)險,即有效地評估風(fēng)險分析法的信度和效度。至于第4步和第5步是安全解決方案,它們大多與當(dāng)前制度規(guī)范有關(guān)。需要指出的是,上述風(fēng)險分析模型是不完善的,因為該模型認(rèn)為減少人工智能風(fēng)險的唯一途徑是依靠風(fēng)險的評估制度,而忽視人工智能本身存在的技術(shù)風(fēng)險。
(2)專家治理:人工智能技術(shù)的專家治理模式
基于規(guī)制人工智能在應(yīng)用場域存在的多方面風(fēng)險,未來要構(gòu)建多元的專家治理體系,即人工智能本身是科技的范疇,要在社會領(lǐng)域中構(gòu)建多元主體共同參與的多層次、多學(xué)科、多領(lǐng)域的治理模式,以專業(yè)防范來有效地應(yīng)對人工智能的危害風(fēng)險。從人工智能設(shè)計、運行、應(yīng)用的技術(shù)專家到司法領(lǐng)域的裁判官和與人工智能利益相關(guān)者,諸如科研單位、應(yīng)用企業(yè)和政府等,都要共同處理人工智能產(chǎn)生的危害風(fēng)險。這種治理模式明顯改變了當(dāng)前社會在單一領(lǐng)域、單一主體下的單一治理模式。例如,以前法院的法官完全可以單獨處理的民事侵權(quán)責(zé)任糾紛,法官單一主體在司法這一領(lǐng)域就可以單獨處置。但未來涉及到人工智能的侵權(quán)責(zé)任問題,必然會出現(xiàn)多主體、多專業(yè)的“會診”處置模式。實際上,在人工智能技術(shù)的專家治理模式下,“各方各有所長,各有所短。作為現(xiàn)代治理主導(dǎo)力量和公共政策制定者的政府往往缺乏專業(yè)技術(shù)儲備、技術(shù)預(yù)見性和行業(yè)前瞻性,作為技術(shù)開發(fā)者和推廣者的企業(yè)則無法保持令人信服的中立性和權(quán)威性,而作為人工智能直接受眾的廣大民眾和社會組織雖然其日常生活和基本權(quán)益倍受影響卻無法成為主導(dǎo)性力量。顯然,最佳的治理策略必須是各方聯(lián)合行動、共同參與,在對話、協(xié)商甚至彼此競爭、相互博弈中尋找最為合理的解決方案”[21]。只有這樣,才能針對人工智能的危害風(fēng)險的預(yù)防、過程監(jiān)管與處置等各環(huán)節(jié),共同有效地預(yù)防與處置。
2.人工智能危害風(fēng)險的規(guī)范治理基礎(chǔ)——道德責(zé)任原則
(1)機器倫理:阿西莫夫三定律
為了避免人工智能可能造成的社會危害后果,抑制人工智能的危害風(fēng)險,有人在機性上提出了道德準(zhǔn)則,賦予機器人更加人性化的內(nèi)在約束。著名的科幻作家I.阿西莫夫已經(jīng)提出了機器人的倫理法則,即“阿西莫夫三定律”和“第零定律”。“阿西莫夫三定律”主要內(nèi)容包括:第一定律,機器人不得傷害人類且要積極保護人類;第二定律,機器人必須服從人類的任何指令;第三定律,機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。此后,阿西莫夫以保護人類整體利益共同體為目標(biāo),提出了“第零定律”。該定律的核心思想是“機器人必須保護人類的整體利益不受傷害,將保護整體人類(humanity)作為機器人學(xué)的本初法則”[22]。在《紐約時報》最近的一篇專欄文章中,華盛頓大學(xué)教授Oren Etzioni 提出對人工智能系統(tǒng)的限制規(guī)則。第一,人工智能系統(tǒng)必須遵守適用于人類操作者的全部法律;第二,人工智能系統(tǒng)必須清楚地表明它不是人類;第三,未經(jīng)信息源的明確批準(zhǔn),人工智能系統(tǒng)不能保留或披露機密信息[19]11。以上是針對人工智能提出的最低限度的道德要求。究其實質(zhì)而言,實際上更多的道德要求是賦予背后對人的更高要求。
(2)人類底線:道德原則與道德規(guī)制
從本源上來講,人工智能的危害風(fēng)險控制的關(guān)鍵在于“防人甚于防機”。從社會風(fēng)險的來源及其表現(xiàn)形式來看,當(dāng)代人工智能的風(fēng)險主要是人性風(fēng)險。正如貝克指出:“各種風(fēng)險其實是與人的各項決定緊密相連的,自然和傳統(tǒng)無疑不再具備控制人的力量,而是處于人的行動和人的決定的支配之下。”[23]不管未來的人工智能的智能水平如何,現(xiàn)實的定性是它始終處于技術(shù)的范疇之內(nèi)。前哈佛大學(xué)教授 E·梅塞納指出:“技術(shù)產(chǎn)生什么影響、服務(wù)于什么目的,這些都不是技術(shù)本身所固有的,而是取決于人用技術(shù)來做什么。”[24]人工智能創(chuàng)設(shè)的風(fēng)險始終伴隨著人的作用。所以,防范人工智能的危害風(fēng)險必須要對人提出更高的道德要求。具體而言,在設(shè)計階段應(yīng)該強化對于人工智能算法與數(shù)據(jù)提供的技術(shù)與倫理的監(jiān)管。如有的學(xué)者提出,“要求設(shè)計者在設(shè)計算法過程中嵌入算法倫理。以立法形式要求算法通過道德審查標(biāo)準(zhǔn)”[1]24、“要求信息技術(shù)專家、社會學(xué)家等形成專家治理團隊共同研究和設(shè)計在每一個階段中人工智能的倫理框架和道德準(zhǔn)則”[22]361,[25]等。
目前,為了約束人工智能技術(shù)研發(fā)人員,已經(jīng)出臺了關(guān)于人工智能技術(shù)倫理方面的道德準(zhǔn)則建設(shè)。比如在ASILOMAR 會議上制定的“阿西洛馬人工智能原則”,以及2017年 IEEE 電氣電子工程師學(xué)會提出的關(guān)于人工智能系統(tǒng)倫理全球倡議項目《人工智能設(shè)計的倫理準(zhǔn)則》,都是通過道德倫理準(zhǔn)則對從事人工智能領(lǐng)域的科研設(shè)計人員提出的行為道德規(guī)范準(zhǔn)則。2010年,美國組建的計算機責(zé)任特別委員會對智能產(chǎn)品研發(fā)人員系統(tǒng)提出道德原則,主要是用道德規(guī)范限制和約束工程師的設(shè)計、制造等行為,對他們參與設(shè)計的行為負(fù)責(zé)。第一條就明確了設(shè)計、開發(fā)以及應(yīng)用智能產(chǎn)品的人員負(fù)有道德責(zé)任,也對可預(yù)見的產(chǎn)品后果負(fù)責(zé)。正如勞倫斯·萊斯格(Lawrence Lessig)所說:在現(xiàn)實生活中,我們認(rèn)識到法律是如何規(guī)范的——通過憲法、成文法和其他法律規(guī)范。在網(wǎng)絡(luò)空間中,我們必須理解不同的“代碼”是如何調(diào)控的——軟件和硬件[20]12-13,這段“代碼”就是網(wǎng)絡(luò)空間的“法律”。這一聲明是關(guān)于網(wǎng)絡(luò)空間的,同樣適用于支持人工智能的設(shè)備。計算機代碼的存在是為了執(zhí)行已經(jīng)設(shè)定好的功能。這些功能是由他們的程序員編寫的,這些程序員在某種程度上充當(dāng)立法者的角色,因為他們可以強迫設(shè)備以某種方式工作,或者禁止它這樣做。所以,人是人工智能程序代碼的編寫者,在預(yù)防人工智能侵權(quán)的情況之下,除了事后的法律問責(zé),更為關(guān)鍵的是要讓人工智能程序的編寫者、開發(fā)者和人工智能的制造者遵守基本的道德原則與程序規(guī)范。
3.制度保障:從審批登記制度到強制保險制度
(1)審批與登記制度
要加強對人工智能風(fēng)險源頭的監(jiān)管,就需要對人工智能進行必要的審批與登記,采用強制審批與登記制度。強制審批登記制度對于防范人工智能存在的危害風(fēng)險以及基于人工智能缺陷導(dǎo)致的侵權(quán)判斷和履行侵權(quán)責(zé)任方式等都具有重要意義。第一,從風(fēng)險源頭的監(jiān)管上有利于保證人工智能的技術(shù)慎重,保證人工智能的安全可靠性。第二,可以對人工智能的日常活動進行有效的監(jiān)控,判斷人工智能的活動是否超越了審批登記的范疇,是否被人進行了非法利用,有利于厘清人機之間的責(zé)任。第三,可以根據(jù)登記和審批的技術(shù)標(biāo)準(zhǔn)盡快地查清人工智能侵權(quán)的因果關(guān)系問題,防止在事故發(fā)生以后,因為人的因素對相關(guān)的設(shè)備或者程序進行惡意刪減或者修改。人工智能恪守登記出生主義的原則是以安全為邏輯起點,通過登記來管控未來可能出現(xiàn)的危害風(fēng)險。登記出生主義涉及技術(shù)標(biāo)準(zhǔn)、數(shù)據(jù)保存、活動區(qū)域與工作性質(zhì)甚至風(fēng)險責(zé)任的劃分等,如果進行了有效的登記公示,則完全可以作為責(zé)任劃分的參考依據(jù)。
(2)強制保險制度
在科技風(fēng)險語境之下,人類對于技術(shù)發(fā)展與進步的渴求與人類的安全的訴求之間存在一定的緊張關(guān)系。有效的社會保障制度可以緩解這種緊張關(guān)系,使得技術(shù)的發(fā)展不會因為技術(shù)的風(fēng)險被扼殺或者剝奪。社會保障體系中最重要的就是社會保險體制。所以,構(gòu)建人工智能的強制保險制度可以很好地規(guī)避人工智能的危害風(fēng)險,使人從保險的財產(chǎn)補償中獲得平衡感和安全感,尋求一種風(fēng)險化解之后的確定性的狀態(tài)。正如汽車的發(fā)展與普及導(dǎo)致交通事故的風(fēng)險一樣,在制度保障上,構(gòu)建強制保險制度是化解人工智能的危害風(fēng)險的最重要的保障制度。因此,在法律適應(yīng)規(guī)則上要構(gòu)建強制保險制度和司法的強制賠償制度。
4.法律監(jiān)管:從立法規(guī)制到司法歸責(zé)
(1)立法規(guī)制
《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》中明確提到,要“加強人工智能相關(guān)法律、倫理和社會問題研究,制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范”[26]。當(dāng)然,監(jiān)管的有效途徑仍然是立法監(jiān)管。正如美國Paul Giannellia教授所言:作為法律專業(yè)人士,面對我們不太了解的技術(shù),我們的第一反應(yīng)往往是走立法的道路,起草一個法律框架,以規(guī)范這些技術(shù)的使用和傳播。人工智能也沒能逃脫這一趨勢,因為美國許多州已經(jīng)通過了旨在限制在某些領(lǐng)域使用人工智能的立法。事實上,到21世紀(jì)末將起草一項統(tǒng)一的人工智能法案。美國企業(yè)家埃隆·馬斯克(Elon Musk)也懇求立法者們迅速采取行動來規(guī)范人工智能。歷史已經(jīng)證明,他關(guān)于為科學(xué)技術(shù)變革立法的主張是正確的,他的說法已經(jīng)可以在人工智能的一個領(lǐng)域得到驗證,那就是自動駕駛汽車。迄今為止,美國已有21個州通過了有關(guān)自動駕駛汽車的立法,預(yù)計還會有更多州效仿,美國聯(lián)邦政府目前也在起草一項法案來規(guī)范自動駕駛汽車的使用[20]10。2017年美國計算機協(xié)會出臺了“算法問責(zé)法案”,并成立了專門工作組和聯(lián)邦人工智能發(fā)展應(yīng)用咨詢委員會;同年,歐盟會議制定并通過了《機器人民事法律規(guī)則》;韓國和愛沙尼亞都制定了《機器人基本法案》;2018年英國議會對人工智能進行了特別立法,即其下設(shè)的人工智能特別委員會發(fā)布了《英國人工智能發(fā)展的計劃、能力與志向》的報告,該報告的具體內(nèi)容主要包括人工智能開發(fā)、設(shè)計、應(yīng)用和人工智能的法律責(zé)任以及數(shù)據(jù)安全和算法歧視等問題。
隨著人工智能的廣泛普及與快速發(fā)展,未來法律會面對很多已知和未知的社會問題亟須立法解決,正如前述的案例,人工智能的危害風(fēng)險導(dǎo)致的責(zé)任問題將是法律亟須解決的問題之一。《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》也要求承擔(dān)開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任研究工作。隨著人工智能技術(shù)的普遍應(yīng)用,它必將深刻影響人們的生活,從立法的宏觀方面來看,必須要考慮起草一項統(tǒng)一的《人工智能法案》,統(tǒng)一規(guī)范人工智能的技術(shù)發(fā)展、技術(shù)參數(shù)、技術(shù)倫理以及責(zé)任分配等,以解決人工智能發(fā)展中出現(xiàn)的法律問題。從微觀領(lǐng)域來看,未來在社會生活的某些具體領(lǐng)域必然會出現(xiàn)人工智能的具體應(yīng)用,比如交通領(lǐng)域的無人自動駕駛汽車以及醫(yī)療和家庭服務(wù)中的人工智能。所以,未來在保持原有的法律體系范疇內(nèi),可以通過立法制定統(tǒng)一的《人工智能法案》。該法案可以采用從總則到分則的立法模式,對人工智能分階段、分職業(yè)地具體規(guī)范。通過立法可以更好地化解人工智能的危害風(fēng)險,為以后出現(xiàn)的危害結(jié)果的責(zé)任劃分提供明確的法律依據(jù)。
(2)司法歸責(zé)
對于人工智能產(chǎn)生的危害風(fēng)險可以用不同的方式進行調(diào)控和規(guī)制。司法是規(guī)制智能風(fēng)險的必備手段,也是解決糾紛、穩(wěn)定社會秩序的主要手段。對于前文列舉的自動駕駛汽車Uber撞死人案例。該案明顯在法律歸責(zé)方面顯得赤手無策。面對人工智能的危害風(fēng)險以及所產(chǎn)生的社會實害問題,有效科學(xué)的司法歸責(zé)對于化解智能風(fēng)險與解決社會實害問題極為重要。面對頻發(fā)的人工智能“傷人”與“毀壞財物”案件,司法必須走出歸責(zé)困境。從司法角度來看,諸如《人工智能法案》這種直接的立法模式可以及時有效地解決司法歸責(zé)依據(jù)不足問題,從而理順“人機”之間的法律關(guān)系,讓智能風(fēng)險涉及的責(zé)任主體在“扯不清、理還亂”的歸責(zé)邏輯中進一步明確化、穩(wěn)定化。因此,在立法上有必要強化人工智能在研發(fā)、設(shè)計、制造和使用各階段存在的智能風(fēng)險防范的義務(wù)主體,以及對社會造成實害時的司法賠償?shù)呢?zé)任主體。
面對人工智能在現(xiàn)實生活中可能出現(xiàn)的危害風(fēng)險,強化對人工智能在研發(fā)、設(shè)計、制造等階段風(fēng)險的技術(shù)控制是治理之本。在社會治理體系上,要從道德上強化人工智能設(shè)計研發(fā)人員的倫理責(zé)任,強化針對人工智能相關(guān)危害風(fēng)險的立法監(jiān)管,制定統(tǒng)一的法律規(guī)范,這樣才能更好地為司法相關(guān)提供明確的解決人工智能風(fēng)險與危害的法律依據(jù)。
大連理工大學(xué)學(xué)報(社會科學(xué)版)2021年3期