999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能選擇行為歸責(zé)研究

2025-01-31 00:00:00王少
關(guān)鍵詞:人工智能價(jià)值

[摘 要] 人工智能可以作出不同的選擇或不作出選擇是對(duì)其行為進(jìn)行歸責(zé)的前提。人類社會(huì)基礎(chǔ)價(jià)值在人工智能選擇行為歸責(zé)中具有重要意義,而實(shí)踐需要?jiǎng)t為人工智能成為歸責(zé)主體提供了現(xiàn)實(shí)根基?!邦A(yù)測(cè)”將人工智能選擇行為歸責(zé)的實(shí)踐意義規(guī)定在保護(hù)固有的人類社會(huì)基礎(chǔ)價(jià)值、防止將預(yù)測(cè)變成決定、避免人工智能掌握預(yù)測(cè)結(jié)果選擇操縱權(quán)三個(gè)維度。對(duì)人工智能選擇行為進(jìn)行歸責(zé)應(yīng)當(dāng)遵循從價(jià)值到實(shí)踐的邏輯,既要基于選擇的價(jià)值性確立無(wú)意識(shí)代入的歸責(zé)方式,又要將實(shí)踐中的限制性規(guī)范向價(jià)值回歸以建構(gòu)具有針對(duì)性的歸責(zé)措施。

[關(guān)鍵詞] 人工智能;選擇行為;歸責(zé);價(jià)值;預(yù)測(cè)

[中圖分類號(hào)]" N02;B82"" [文獻(xiàn)標(biāo)識(shí)碼] A"" [文章編號(hào)] 1008-1763(2025)01-0106-09

Research on the Imputation of Artificial

Intelligence’s Choice Behavior

WANG Shao

(School of Marxism, Tongji University, Shanghai 200092,China)

Abstract:Artificial Intelligence can make different choices or does not make choices, it" is the premise of imputation of its behavior. The basic value of human society has new significance in the imputation of AI choice behavior, and the need for practice provides a realistic foundation for Artificial Intelligence to become the subject of imputation. “Prediction” stipulates the practical value of Artificial Intelligence choice behavior imputation in three dimensions: protecting the inherent human basic value, preventing prediction from becoming a decision, and avoiding artificial intelligence from controlling the selection and manipulation of proediction results. The imputation of choice behavior for Artificial Intelligence should follow the logic of value to practice. It is necessary to establish an unconscious imputation method based on the value of choice, and to regress restrictive norms in practice to value in order to construct targeted imputation measures.

Key words: Artificial Intelligence; choice behavior; imputation; value; forecast

人工智能(AI)“涵蓋旨在解決傳統(tǒng)上分配給人類智能問(wèn)題的任何技術(shù)”[1]。因此,從人類智能角度認(rèn)識(shí)人工智能自然而然。在趨利避害本能驅(qū)使下,能夠作出對(duì)自己有利的選擇是人類智能的基本表現(xiàn),在勞動(dòng)推動(dòng)下,人與人、人與社會(huì)的關(guān)系賦予了選擇行為更加重要的智能價(jià)值,選擇多了對(duì)于個(gè)人就成了習(xí)慣,對(duì)于社會(huì)就成了規(guī)范,人類社會(huì)越發(fā)達(dá),選擇行為的智能性就越明顯。鑒于智能技術(shù)擬人化的本質(zhì)屬性,“選擇”是人工智能繞不開(kāi)的話題。本文的研究起點(diǎn)是:人工智能面對(duì)不同的問(wèn)題能作出不同的選擇,或者不作出選擇,并且這種選與不選的行為一定程度上由人工智能本身決定,那么人工智能就應(yīng)當(dāng)對(duì)其選擇行為負(fù)責(zé)。當(dāng)前,國(guó)內(nèi)關(guān)于人工智能歸責(zé)的研究呈現(xiàn)兩條進(jìn)路,一條從法學(xué)角度分析歸責(zé)何以可能、怎樣進(jìn)行,一條從倫理學(xué)角度分析人工智能道德責(zé)任為何重要、如何承擔(dān);國(guó)外的研究則側(cè)重于從可解釋性、可理解性角度,討論人工智能歸責(zé)途徑。國(guó)內(nèi)外學(xué)界均未特別關(guān)注人工智能選擇行為歸責(zé)問(wèn)題。

習(xí)近平指出,“要加強(qiáng)人工智能發(fā)展的風(fēng)險(xiǎn)研判和防范,維護(hù)人民利益和國(guó)家安全,確保人工智能安全、可靠、可控”[2]。如果我國(guó)制造的人工智能需要維護(hù)人民利益和國(guó)家安全,那么就必須加強(qiáng)人工智能倫理治理,而歸責(zé)是倫理治理的終點(diǎn)。廣義上的歸責(zé)既包括道德責(zé)任的歸結(jié),也包括法律責(zé)任的歸結(jié),其基本內(nèi)涵是行動(dòng)者的行為不符合某種既定社會(huì)規(guī)范,因而需要在綜合考慮行為的動(dòng)因、表現(xiàn)、結(jié)果和社會(huì)危害性等因素的基礎(chǔ)上對(duì)行動(dòng)者的責(zé)任進(jìn)行確定、劃分和追究。“有一類不同于人類的人工自為者即所謂人工一般智能(AGI)可能會(huì)在未來(lái)某個(gè)時(shí)刻出現(xiàn)?!?sup>[3]在這一理念下,本文雖然主要探討當(dāng)前人工智能選擇行為歸責(zé)問(wèn)題,但也會(huì)穿插論述未來(lái)AGI選擇行為歸責(zé)問(wèn)題。

一 人工智能選擇行為歸責(zé)的價(jià)值基礎(chǔ)

“無(wú)論何時(shí),只要我們的選擇(或意圖)導(dǎo)致了所選擇(所意圖)的行動(dòng),我們就都是自由的。無(wú)論何時(shí),只要我們的選擇因?yàn)槲覀冏龀隽诉@些選擇而產(chǎn)生了我們想要的結(jié)果,我們就都擁有責(zé)任所需要的力量,即能力和自由意志。”[4]人們對(duì)選擇行為的直觀感受體現(xiàn)為一種自由,這意味著選擇不是被強(qiáng)制的,也不是人所無(wú)法左右的必然規(guī)律,否則責(zé)任就不能落到選擇者身上。因此,當(dāng)我們談?wù)撊斯ぶ悄苓x擇行為歸責(zé)的價(jià)值基礎(chǔ)時(shí),自由和自由意志必定是話題的中心。我們追問(wèn)人工智能對(duì)其選擇行為是否負(fù)有責(zé)任,以及如何承擔(dān)責(zé)任,其實(shí)是在將責(zé)任所對(duì)應(yīng)的正義和平等代入人工智能,如果人工智能是自主的,那么它的任何選擇行為都可能承載正義和平等,正義和平等當(dāng)然應(yīng)該納入人工智能選擇行為歸責(zé)的價(jià)值基礎(chǔ)中進(jìn)行討論。

(一)自由和自由意志

不可否認(rèn)的是,我們是在以類人的方式制造人工智能,與此相應(yīng),目前所有人工智能價(jià)值層面的研究也一樣是以人的理解去賦予人工智能某些基本價(jià)值。在這些價(jià)值中,首先受到關(guān)注的是自由,特別是自由意志?!罢f(shuō)一個(gè)人有自由意志就是說(shuō)當(dāng)他處于時(shí)間之路的岔道口時(shí),至少可以選擇不止一條分岔路?!?sup>[5]69-70顯然,選擇是自由意志的定在,不會(huì)選擇(受制于主觀)或不能選擇(受制于客觀)的個(gè)體不具有或無(wú)法實(shí)現(xiàn)自由意志。選擇的能力和可能性均與選項(xiàng)相關(guān)。通常來(lái)說(shuō),選項(xiàng)總是存在的,這是自由的前提。但對(duì)于人工智能而言,選項(xiàng)需要預(yù)先設(shè)定,也即我們必須為人工智能設(shè)計(jì)多個(gè)在一種或多種算法支撐下的不同子程序,這些程序面對(duì)需要解決的問(wèn)題有不同的解決方式并可能產(chǎn)生不同后果。相比于人的自由,人工智能選擇行為在以下兩個(gè)層面仍存在難以逾越的鴻溝。

首先是多樣性。多樣性是人類借以在無(wú)處不在的矛盾中自由推動(dòng)社會(huì)發(fā)展的重要質(zhì)素。人工智能的程序化特征與多樣性天然背離,無(wú)論在何種算法驅(qū)動(dòng)下,只要面臨的沖突是相似的,不同程序所設(shè)計(jì)的選擇通常會(huì)在概率上趨于一致,這導(dǎo)致人工智能選擇行為具有規(guī)定性特征,因此我們很難說(shuō)這種選擇代表了自由。其次是自由感。從直覺(jué)出發(fā),自由一定是需要被感知到的,也即對(duì)自由本身的確信把握構(gòu)成了一種自由感。人工智能是否具備這種感知能力??jī)H就目前來(lái)說(shuō),答案是否定的。盡管如此,我們?nèi)匀恍枰谧杂梢庵净A(chǔ)上討論人工智能歸責(zé)問(wèn)題,因?yàn)楫?dāng)我們討論如何歸責(zé)時(shí),隱含的一個(gè)前提是主體具有自由意志,這樣其才能為自身選擇行為負(fù)責(zé);如果主體不具備自由意志,那么其選擇行為無(wú)法歸責(zé)。這指向自由意志遭受近現(xiàn)代科學(xué)的一系列質(zhì)疑后仍屹立不倒的終極理由:自由意志是道德責(zé)任和法律責(zé)任存在的主要基礎(chǔ)。我們可以假設(shè)人類必然具有自由意志,我們也可以假設(shè)人工智能終會(huì)擁有自由意志,否則所有由人工智能引發(fā)的責(zé)任都只能歸于人類,這顯然會(huì)阻滯人工智能科技發(fā)展。

自由意志“關(guān)系到一系列關(guān)于對(duì)與錯(cuò)、罪與罰、強(qiáng)迫與控制的爭(zhēng)論”[6]序言1,具有很強(qiáng)的現(xiàn)實(shí)性,但自由意志不是對(duì)選擇行為歸責(zé)的唯一基礎(chǔ),即使在自由概念下,選擇行為的歸責(zé)也能找到自由意志之外的其他依據(jù)。人們所追求的自由廣泛地存在于經(jīng)濟(jì)生活、政治生活、社會(huì)生活、文化生活中。從經(jīng)濟(jì)生活來(lái)看,人工智能一定程度上解放了勞動(dòng)者,并且因?yàn)槿斯ぶ悄軜O大地提高了工作效率和準(zhǔn)確性,勞動(dòng)者確實(shí)獲得了更多的自由時(shí)間。但這種自由是新的自由還是新的束縛,卻需要進(jìn)一步分析?!耙粋€(gè)人對(duì)于人類自由理念的投入,其真正核心在于他對(duì)自身的態(tài)度以及關(guān)于自身的經(jīng)驗(yàn)?!?sup>[7]105人工智能所帶來(lái)的自由可能是一種背離勞動(dòng)者對(duì)自身的態(tài)度和經(jīng)驗(yàn)的新的束縛。人工智能在取代人工的同時(shí),并沒(méi)有解決人如何在擁有更多自由時(shí)間后仍然可以持續(xù)獲得自身生存和生活資源的問(wèn)題,致使被增加的自由變成了一種形式上的假自由和實(shí)質(zhì)上的真不自由。如果我們立足自由這一人類社會(huì)的重要價(jià)值去分析人工智能選擇行為歸責(zé)問(wèn)題,那么必須基于兩個(gè)維度進(jìn)行判斷,一是自由意志,二是真實(shí)自由,從現(xiàn)實(shí)角度看,兩者并不總是一致的。

如上所述,當(dāng)前的人工智能選擇行為不具有真正的多樣性,人工智能也沒(méi)有真實(shí)的自由感,因而是不自由的。由于自由意志是歸責(zé)的主要基礎(chǔ),在假設(shè)人類具有自由意志的前提下,仿人類智能的人工智能也可以被假設(shè)終會(huì)存在自由意志。但兩種假設(shè)并不相同,對(duì)人類的假設(shè)具有現(xiàn)實(shí)性,對(duì)人工智能的假設(shè)則具有理想性。自由和自由意志決定責(zé)任能否存在,因此它們是人工智能選擇行為歸責(zé)的重要價(jià)值基礎(chǔ),但由于當(dāng)前的人工智能不存在真正的自由和自由意志,且可能會(huì)對(duì)人的真實(shí)自由造成損害,對(duì)人工智能選擇行為進(jìn)行歸責(zé)不能簡(jiǎn)單固守從自由和自由意志出發(fā)的邏輯。

(二)正義和平等

首先看正義。經(jīng)常被學(xué)者用來(lái)討論選擇行為的電車難題是正義領(lǐng)域的典型思想案例。最初的電車難題對(duì)象是完全剝離身份和年齡的抽象人,經(jīng)過(guò)果戈?duì)枺?sup>[8]、伯格曼[9]等人的發(fā)展,抽象人假設(shè)發(fā)展成更加具體的道德兩難問(wèn)題。當(dāng)面對(duì)年輕人(兒童)和老人這兩類潛在受害者時(shí),大多數(shù)人會(huì)選擇將電車駛向年齡大的,而當(dāng)潛在受害者變成自己和他人時(shí),個(gè)體犧牲式選擇的比例會(huì)隨著他人數(shù)量的增加而增加。與人不同,人工智能在作出選擇行為時(shí)只能依據(jù)已有的沖突子程序進(jìn)行判斷。正義不能漠視人們的實(shí)際生活[10]18,以實(shí)際生活為依據(jù)是人工智能進(jìn)行正義選擇的前提,但實(shí)際生活不可能被算法和程序窮盡。對(duì)于人類而言,選擇和實(shí)際生活中的行為可以分離,盡管很多人在犧牲兩難實(shí)驗(yàn)中選擇犧牲自己以拯救多數(shù)人,但當(dāng)他們被問(wèn)及購(gòu)買自我犧牲式自動(dòng)駕駛車輛的意愿時(shí),在0-100的意向區(qū)間中,中位數(shù)僅為19[11],大多數(shù)人可能更傾向于購(gòu)買犧牲他人保護(hù)自己的自動(dòng)駕駛車輛。這種“說(shuō)一套做一套”模式在人類實(shí)際生活中并不罕見(jiàn)。未來(lái)的AGI是否也能學(xué)會(huì)這一套?在出廠測(cè)試時(shí)每次均作出犧牲選擇,而在現(xiàn)實(shí)中更傾向于保護(hù)自己?因此,正義在人工智能選擇行為中既可能被貫徹也可能被遮蔽,與之對(duì)應(yīng)的歸責(zé)問(wèn)題也應(yīng)做好兩手準(zhǔn)備。

再來(lái)看平等。如ChatGPT等能夠生成更科學(xué)、更智能內(nèi)容的生成式人工智能出現(xiàn)后,人工智能法律人格問(wèn)題變得愈發(fā)重要。一旦人工智能擁有法律人格,那么擺在人們面前的第一個(gè)問(wèn)題就是人工智能是否享有和人類同等的法律權(quán)利,而這實(shí)質(zhì)是平等問(wèn)題。當(dāng)人工智能深度融入人類生活后,它是否有選擇權(quán)利,它的選擇權(quán)利和人類的選擇權(quán)利是否在法律面前一律平等就成為必須解決的問(wèn)題。目前,關(guān)于這些問(wèn)題的討論均是一種事后補(bǔ)救式分析,當(dāng)使用人工智能發(fā)生了權(quán)利沖突,人們才開(kāi)始考慮人工智能的法律人格和選擇權(quán)利,很多人傾向于將不利于人的后果歸咎于人工智能選擇行為,而將有利于人的結(jié)果歸因于人類的控制。所以,人類是不是以一種比人工智能更高等級(jí)生物的身份自居并希望人工智能承擔(dān)一切它所參與事件中的責(zé)任,而利益卻由人來(lái)攫取?也許我們對(duì)人工智能的一切討論都涉嫌推卸責(zé)任,而不僅僅是出于對(duì)AGI的恐懼。如果拋開(kāi)平等來(lái)討論人工智能選擇行為歸責(zé)問(wèn)題,那么我們只是希望人工智能擁有責(zé)任承擔(dān)的自由意志,卻沒(méi)有爭(zhēng)取平等對(duì)待的自由意志,這兩種自由意志在人身上無(wú)法割裂,甚至沒(méi)有先后順序,而在人工智能那里卻被期望只有其一,沒(méi)有其二。

自由、平等、正義等價(jià)值通常都要靠秩序保障,秩序在維護(hù)社會(huì)的特定目標(biāo)、價(jià)值觀和美德中推動(dòng)社會(huì)實(shí)踐向前發(fā)展。一個(gè)有秩序的社會(huì)必然會(huì)尊重社會(huì)中不同主體在目標(biāo)驅(qū)動(dòng)下的合乎社會(huì)價(jià)值的行為。當(dāng)人工智能進(jìn)入人類社會(huì)后,人們的第一反應(yīng)是確保人工智能對(duì)人類生活和工作產(chǎn)生有益影響,以保障已經(jīng)成型的人類社會(huì)秩序不被干擾。當(dāng)我們開(kāi)始思考人工智能選擇行為歸責(zé)問(wèn)題時(shí),就必須分析人工智能的選擇及其責(zé)任對(duì)秩序造成什么沖擊,以及現(xiàn)有的維持秩序的限制性規(guī)范能否應(yīng)對(duì)人工智能選擇行為歸責(zé)問(wèn)題。

綜上,正義和平等是人工智能選擇行為歸責(zé)的重要價(jià)值基礎(chǔ),但正義可能被人工智能遮蔽,所以不能指望人工智能選擇行為都符合正義,而人工智能能否獲得與人類平等的法律人格和選擇權(quán)利是人工智能對(duì)其不正義選擇行為負(fù)責(zé)的必要條件。如果要使人工智能和人類一樣平等地對(duì)不正義選擇行為承擔(dān)責(zé)任,則應(yīng)在維持秩序的限制性規(guī)范中賦予人工智能被平等對(duì)待的權(quán)利。

二 人工智能選擇行為歸責(zé)的實(shí)踐需要

本部分將從人類歸責(zé)行為的歷史發(fā)展展開(kāi)論述,一個(gè)貫穿其中的思想是歸責(zé)從來(lái)不僅來(lái)自于理論,而更多地來(lái)自于實(shí)踐,實(shí)踐需要使歸責(zé)落地生根。

(一)人工智能成為歸責(zé)主體的實(shí)踐需要

最初的歸責(zé)具有強(qiáng)烈的自然主義色彩和宗教態(tài)度,包括無(wú)生命的物體都要承擔(dān)責(zé)任,比如用石頭、鐵片等攻擊人致其死亡后,石頭和鐵片也要受審[12];動(dòng)物也是常見(jiàn)的責(zé)任主體,比如1314年,一頭公牛因襲擊并使一名男子致死而被判處絞刑,1389年,一匹馬因殺人罪被處決[13]。隨著人類認(rèn)知的不斷發(fā)展,理性和自由意志成為歸責(zé)的基本前提,無(wú)生命物體和動(dòng)物被排除到刑事責(zé)任主體之外。近代以來(lái),法律必須對(duì)“道德、政治理論、公共政策和社會(huì)現(xiàn)象”[14]作出及時(shí)回應(yīng)的理念深入人心,當(dāng)法人這一法律擬制概念出現(xiàn)后,實(shí)踐需要使不具備自由意志的法人獲得了責(zé)任主體資格,盡管該資格的獲得建立在代理人制度(agent system)和雇主責(zé)任原則(principle of employer’s liability)基礎(chǔ)上,但最根本的原因仍然是實(shí)踐需要。法人成為責(zé)任主體是歸責(zé)理論的超越性發(fā)展,這不僅證明了歸責(zé)的實(shí)踐性,也對(duì)自由意志等歸責(zé)價(jià)值基礎(chǔ)產(chǎn)生一定沖擊。這似乎表明,當(dāng)前的人工智能選擇行為背后的自由意志缺失問(wèn)題并不是阻礙人工智能成為責(zé)任主體的理由。所以,問(wèn)題的疆域拓展到人工智能是否也可以納入法律擬制的框架中。

當(dāng)無(wú)人駕駛成為一項(xiàng)越來(lái)越普遍的技術(shù)行為后,人工智能可否納入法律擬制框架的問(wèn)題被提上議程。在學(xué)理上討論無(wú)人駕駛這一典型人工智能科技?xì)w責(zé)問(wèn)題不僅是防患未然,也是對(duì)歸責(zé)理論的再反思。第一個(gè)需要討論的議題是選擇的他方依賴性。當(dāng)無(wú)人駕駛汽車解放人的雙手甚至大腦后,人們會(huì)在駕車時(shí)更多地將選擇權(quán)交給人工智能,這便使人工智能選擇行為具有了代理性質(zhì),從而使人工智能歸責(zé)與法人歸責(zé)產(chǎn)生相似性。法人基于代理而需要對(duì)選擇行為承擔(dān)民事上的財(cái)產(chǎn)賠付責(zé)任或刑事上的罰金責(zé)任,人工智能是否也應(yīng)將自身賠付或被罰沒(méi)以完成責(zé)任承擔(dān)?第二個(gè)議題是選擇的物質(zhì)依戀性。當(dāng)人們開(kāi)始放棄讓石頭和鐵片承擔(dān)責(zé)任時(shí),無(wú)生命物體對(duì)自身物質(zhì)形態(tài)的無(wú)感無(wú)論如何都是一個(gè)原因,而人類對(duì)于自身身體、財(cái)產(chǎn)的依戀和重視是人身罰、財(cái)產(chǎn)罰成為責(zé)任承擔(dān)主要方式的一個(gè)重要理由。那么,無(wú)人駕駛系統(tǒng)對(duì)于自身物質(zhì)形態(tài)是否也有依戀性?如果沒(méi)有,銷毀或轉(zhuǎn)移這些物質(zhì)形態(tài)對(duì)于人工智能承擔(dān)責(zé)任又有何意義?第三個(gè)議題是算法所決定的選擇行為的歸屬。算法作為無(wú)人駕駛的內(nèi)核具有不可替代的價(jià)值,但算法特定的計(jì)算邏輯和選擇規(guī)則卻是事先設(shè)定的,在發(fā)生駕駛事故后,人們自然會(huì)把目光回溯到算法設(shè)計(jì)者——這讓無(wú)人駕駛系統(tǒng)的選擇行為及其對(duì)應(yīng)的歸責(zé)變得模糊。最后一個(gè)議題是人工智能的分類與選擇行為的關(guān)聯(lián)性。人類作為責(zé)任主體時(shí),職業(yè)、年齡、能否辨認(rèn)自己的行為等都能成為分類依據(jù),不同的人由此承擔(dān)不同的責(zé)任,而無(wú)人駕駛系統(tǒng)作為責(zé)任主體如何分類?是根據(jù)車型(應(yīng)用領(lǐng)域),還是根據(jù)算法技術(shù),或是根據(jù)其選擇行為與人的命令之間的關(guān)系?

將上述四個(gè)議題從無(wú)人駕駛推向一般的人工智能科技,就產(chǎn)生了代理、生命、獨(dú)立性和分類四個(gè)關(guān)鍵詞,這些關(guān)鍵詞均以實(shí)踐需要為導(dǎo)向。代理自不必說(shuō),人工智能生命體的認(rèn)定也只能是實(shí)踐發(fā)展的需求,畢竟倫理絕不允許人類將人工智能制造成和人一樣的碳基生物。所以,生命問(wèn)題最大的挑戰(zhàn)來(lái)自于實(shí)踐中的腦起搏器和人工耳蝸等智能義體。離不開(kāi)智能義體而生活的人類仍然是人類,享有人類生命,但如果其選擇行為受到體內(nèi)人工智能義體的影響,那么歸責(zé)必然會(huì)同時(shí)指向這些附屬于人類生命的人工智能,人工智能的物質(zhì)依戀問(wèn)題部分地轉(zhuǎn)移到人的生命中。獨(dú)立性與人工智能的實(shí)踐發(fā)展緊密相關(guān),人工智能完全擺脫人類控制、自發(fā)生產(chǎn)出新的人工智能、自主選擇社會(huì)職業(yè)不是不可能,但尚遙遠(yuǎn)。在此之前,我們應(yīng)當(dāng)關(guān)注的是,在技術(shù)實(shí)踐中,人工智能選擇行為是否可以完全或大部分歸于自身的學(xué)習(xí)而不是算法的預(yù)先設(shè)定、歸于自身的主動(dòng)行動(dòng)而不是人類的指令。至少到目前為止,人工智能年齡沒(méi)有意義,雖然人工智能應(yīng)用于不同實(shí)踐領(lǐng)域確實(shí)會(huì)導(dǎo)致不同后果,但這種實(shí)踐應(yīng)用基本是人為的,人工智能并沒(méi)有選擇應(yīng)用方向的自由。這與人類不同,人在獲取某種分工身份(比如國(guó)家工作人員、公司法定代表人)時(shí)默認(rèn)是自由的,自由取得的身份對(duì)應(yīng)不同的責(zé)任承擔(dān),而人工智能的職業(yè)身份卻是由人賦予的。

因此,從實(shí)踐需要角度看,讓無(wú)人駕駛系統(tǒng)等人工智能承擔(dān)責(zé)任符合代理制度的要求,而在一定程度上“共享”人類生命的人工智能義體也部分地符合物質(zhì)依戀的要求。人工智能尚不具備真正的獨(dú)立性,至于責(zé)任主體分類問(wèn)題,在自由性缺位的情況下,也無(wú)法在當(dāng)前的人工智能選擇行為歸責(zé)中深入探討,這兩個(gè)問(wèn)題可能只存在于對(duì)AGI的歸責(zé)中。

(二)人工智能選擇行為歸責(zé)的實(shí)踐意義

由于人工智能已大量進(jìn)入人類實(shí)踐場(chǎng)域,實(shí)踐確實(shí)產(chǎn)生了對(duì)人工智能選擇行為歸責(zé)的需求,但我們?nèi)匀灰撟C歸責(zé)的實(shí)踐意義,否則就會(huì)陷入工具主義思維中。如果人工智能選擇行為不能勝過(guò)人類選擇行為,我們一般沒(méi)有理由讓人工智能進(jìn)行選擇,其選擇行為及歸責(zé)對(duì)實(shí)踐的意義就很小。在AGI未出現(xiàn)之前,人工智能選擇行為超越人類選擇行為的主要表現(xiàn)是預(yù)測(cè)的精準(zhǔn)性。預(yù)測(cè)對(duì)于選擇的意義體現(xiàn)為預(yù)測(cè)結(jié)果對(duì)選擇行為的引導(dǎo)價(jià)值,如果能夠比較精確地預(yù)測(cè)結(jié)果,那么主體就能作出更合理的選擇。作為責(zé)任最重要依據(jù)之一的自由意志在現(xiàn)代科學(xué)中受到的最大阻擊便來(lái)自預(yù)測(cè)——如果人的行為都可以預(yù)測(cè),那么所謂的自由意志可能就真的只是人的美好想象。里貝特1985年的經(jīng)典研究得出了“一個(gè)自發(fā)自愿的行為在大腦中的啟動(dòng)最初是無(wú)意識(shí)的”[15]結(jié)論。該結(jié)論對(duì)自由意志理論產(chǎn)生強(qiáng)烈沖擊,但并沒(méi)有撼動(dòng)多數(shù)學(xué)者對(duì)自由意志的信心,這種信心既源于該研究及其后的類似研究均缺乏證否自由意志的強(qiáng)力證據(jù),更源于自由意志對(duì)人類行為及其責(zé)任承擔(dān)的巨大價(jià)值。作為矛盾的智慧體,人類一方面宣揚(yáng)有意識(shí)的自由意志,一方面又渴望能夠精準(zhǔn)預(yù)測(cè)行為發(fā)生,人工智能等許多科技從誕生之日起就承載了這個(gè)渴求。不容忽視的是,大多數(shù)普通人同意預(yù)測(cè)很難做到——不僅他人不可能看透我們的內(nèi)心,無(wú)法預(yù)測(cè)我們的行為,有時(shí)候,在行為顯露出來(lái)的最后一刻之前,我們自己都不能將預(yù)測(cè)和行為一致化。這一點(diǎn)也曾被實(shí)驗(yàn)證明:“甚至當(dāng)一個(gè)動(dòng)作啟動(dòng)后,都有可能改變和取消那個(gè)已經(jīng)展開(kāi)的動(dòng)作?!?sup>[16]因此,人類在預(yù)測(cè)方面的“缺陷”是自由意志和選擇行為,乃至歸責(zé)在實(shí)踐中不能被隨意放棄的重要原因,分析人工智能選擇行為歸責(zé)的實(shí)踐意義可以也應(yīng)當(dāng)從預(yù)測(cè)出發(fā)。

大數(shù)據(jù)為預(yù)測(cè)帶來(lái)新變革。“大數(shù)據(jù)預(yù)測(cè)的準(zhǔn)確性越來(lái)越高,它能夠預(yù)測(cè)行為的發(fā)生?!?sup>[17]242在大數(shù)據(jù)技術(shù)加持下,人工智能的預(yù)測(cè)能力超過(guò)人類已成為現(xiàn)實(shí)。從預(yù)測(cè)角度探討人工智能選擇行為歸責(zé)問(wèn)題,至少需要關(guān)注三個(gè)議題:一是人工智能的預(yù)測(cè)是否會(huì)影響到人類社會(huì)基礎(chǔ)價(jià)值?二是預(yù)測(cè)和選擇之間的間隙有多大?三是預(yù)測(cè)結(jié)果是不是被選擇的?這三個(gè)議題在人工智能選擇行為歸責(zé)中的實(shí)踐意義體現(xiàn)為:人工智能預(yù)測(cè)行為是選擇行為的基礎(chǔ),但預(yù)測(cè)行為不能破壞人類社會(huì)基礎(chǔ)價(jià)值,否則無(wú)法獲得辯護(hù);如果預(yù)測(cè)直接指向選擇,那么預(yù)測(cè)行為和選擇行為將合二為一;選擇行為以預(yù)測(cè)為前提,但預(yù)測(cè)本身也可能是一種為了導(dǎo)致某種選擇結(jié)果的可選擇行為。下面對(duì)這三個(gè)議題進(jìn)行討論。

人工智能如果能極為精確地預(yù)測(cè)行為的發(fā)生及結(jié)果,從而為進(jìn)一步的政治行為、商業(yè)行為提供準(zhǔn)確選項(xiàng)的話,那么這些政治、商業(yè)行為背后的預(yù)測(cè)者就天然具有了被預(yù)測(cè)者所不具備的特權(quán),而這種特權(quán)必然會(huì)侵害自由、平等、正義等基礎(chǔ)價(jià)值。我們可以通過(guò)信息公開(kāi)來(lái)抑制這種特權(quán),當(dāng)預(yù)測(cè)者和被預(yù)測(cè)者都能平等而便捷地獲取預(yù)測(cè)信息時(shí),權(quán)力操縱就變得困難。但盡管如此,只要權(quán)力仍然存在,就必須依靠責(zé)任去平衡它。這種責(zé)任如果只指向人類,那么就沒(méi)有討論的必要,所以在此討論歸責(zé)的意義是如何矯正可以進(jìn)行預(yù)測(cè)的人工智能的錯(cuò)誤選擇行為以避免各類基礎(chǔ)價(jià)值被侵害。如果預(yù)測(cè)本身會(huì)侵損隱私、預(yù)測(cè)結(jié)果會(huì)使自由變成事先可知行為、預(yù)測(cè)結(jié)果的使用會(huì)導(dǎo)致不平等甚至歧視發(fā)生,那么人工智能就應(yīng)承擔(dān)責(zé)任。為了使歸責(zé)在預(yù)防和糾正兩個(gè)層面發(fā)生效力,預(yù)測(cè)的自我中斷措施必須預(yù)先存在于人工智能的程序設(shè)計(jì)中。

當(dāng)預(yù)測(cè)行為和選擇行為合二為一,也即只要預(yù)測(cè)出某種結(jié)果就選擇采取相應(yīng)行為時(shí),人工智能的預(yù)測(cè)行為就與歸責(zé)直接關(guān)聯(lián)。這里還可以細(xì)分成兩種情況:一是人工智能的預(yù)測(cè)結(jié)果被政策、制度設(shè)定為人們可在不進(jìn)行判斷的情況下直接采用,二是人工智能直接根據(jù)預(yù)測(cè)結(jié)果作出某種選擇。后者自不必說(shuō),人工智能必須為其決定承擔(dān)責(zé)任;前者雖然由人工智能背后的人最終決定,但這種決定不具有選擇意義,因?yàn)檫x擇被預(yù)測(cè)所規(guī)定,所以歸責(zé)應(yīng)當(dāng)在人工智能那里完成大部分。

“‘真正’智能的系統(tǒng)不僅能按照模板組織采集到大量數(shù)據(jù),從而盡可能有效地達(dá)到預(yù)期目標(biāo),還能夠(在最廣泛的意義上)學(xué)習(xí),其方式是根據(jù)所獲得的信息調(diào)整自己的行為。”[18]217由此,預(yù)測(cè)行為確實(shí)可能是一種可選擇的行為,也即在收集和分析大量數(shù)據(jù)后,人工智能會(huì)在某種目的下根據(jù)分析情況調(diào)整預(yù)測(cè)行為。這使得預(yù)測(cè)結(jié)果成為一個(gè)不確定的模態(tài),最終輸出的預(yù)測(cè)結(jié)果或許是人工智能主動(dòng)選擇的結(jié)果,即使其背后有人類的選擇權(quán)力,權(quán)力事實(shí)上也被人工智能在預(yù)測(cè)中的選擇行為所控制。這時(shí)必須將責(zé)任直接歸于人工智能。

至此,從預(yù)測(cè)角度出發(fā),人工智能選擇行為歸責(zé)的實(shí)踐意義在三個(gè)維度上存在:為了保護(hù)固有的人類社會(huì)基礎(chǔ)價(jià)值,為了防止將預(yù)測(cè)變成決定,為了避免人工智能掌握預(yù)測(cè)結(jié)果選擇操縱權(quán)。

三 人工智能選擇行為歸責(zé)的邏輯進(jìn)路

對(duì)人工智能選擇行為進(jìn)行歸責(zé)既有一定價(jià)值基礎(chǔ),又是對(duì)實(shí)踐需要的必然回應(yīng),那么,歸責(zé)就應(yīng)遵循從價(jià)值到實(shí)踐的邏輯,基于選擇的價(jià)值性和實(shí)踐的現(xiàn)實(shí)性進(jìn)行安排。選擇作為自由的直觀感受態(tài),是區(qū)別自由與非自由的關(guān)鍵,當(dāng)存在潛在或?qū)嶋H的選擇干預(yù)時(shí),就會(huì)出現(xiàn)非自由的意識(shí)感受。同樣,平等、正義等價(jià)值也不同程度地建立在意識(shí)感受基礎(chǔ)上。因此,從價(jià)值角度分析選擇行為可以以意識(shí)代入作為引子。在人工智能作出選擇行為的場(chǎng)域中,基于秩序確立的針對(duì)人工智能的限制性規(guī)范是否和人類社會(huì)的自由、平等、正義等基礎(chǔ)價(jià)值保持一致,是在實(shí)踐中對(duì)人工智能選擇行為歸責(zé)的基本依憑。

(一)無(wú)意識(shí)代入在歸責(zé)中的應(yīng)用

意識(shí)一直是科學(xué)研究中的經(jīng)典問(wèn)題。盡管科學(xué)家從fMRI掃描和EEG實(shí)驗(yàn)到通過(guò)猴子的自我鏡像意識(shí)、植物人和正常人的大腦對(duì)照實(shí)驗(yàn)、裂腦病人言行分析等研究來(lái)不斷推動(dòng)意識(shí)研究,但時(shí)至今日,給出“意識(shí)到底是什么”的明確答案仍然遙遙無(wú)期。然而,弄清意識(shí)的機(jī)理卻是人工智能科技躍遷到另一個(gè)階段的必然前提。盡管目前尚無(wú)法打破意識(shí)為自身設(shè)置的壁壘,但我們?nèi)匀豢梢詮某WR(shí)出發(fā)去了解意識(shí)在人和人工智能之間是如何搭建溝通橋梁的。一個(gè)無(wú)法反駁的事實(shí)是,人們并不總是對(duì)自己的行為進(jìn)行有意識(shí)的控制,比如一些重復(fù)性的操作工作,當(dāng)工人非常熟練之后,一般不會(huì)出現(xiàn)有意識(shí)的意向,在這種情況下,操作者甚至處于類似人工智能的自動(dòng)狀態(tài);又如一些人往往會(huì)不自知地抖腿,并且在抖腿時(shí),仍然可以進(jìn)行一系列復(fù)雜的用腦活動(dòng),甚至在精神高度集中處理難題時(shí),抖腿的頻率還在無(wú)意識(shí)地加快。

上述分析引出本部分的核心議題:我們一直陷于假設(shè)人工智能有意識(shí)這一遙遠(yuǎn)的命題中來(lái)進(jìn)行各種預(yù)防式的研究或制度安排,但事實(shí)上,人有時(shí)也會(huì)進(jìn)行無(wú)意識(shí)的活動(dòng),而人類社會(huì)的歸責(zé)制度多數(shù)情況下不會(huì)特別區(qū)分人的選擇行為是有意識(shí)的還是無(wú)意識(shí)的或是既有意識(shí)又帶有無(wú)意識(shí),那么,為何我們要苛刻地要求人工智能的所有選擇行為都要是有意識(shí)的呢?當(dāng)然,假設(shè)人工智能有意識(shí),進(jìn)而具有自由意志、平等態(tài)度、正義觀念,并能夠進(jìn)行自主的選擇,然后再據(jù)此探討人工智能歸責(zé)問(wèn)題確實(shí)是一條幾乎沒(méi)有邏輯瑕疵的認(rèn)知路徑。本文并不想作出顛覆性的認(rèn)知改革,而只是提供一個(gè)選項(xiàng)以說(shuō)明人工智能選擇行為即使不在有意識(shí)范疇中也可以進(jìn)入歸責(zé)視野里。

盡管無(wú)意識(shí)依附于意識(shí)而生,沒(méi)有意識(shí),就沒(méi)有無(wú)意識(shí),但意識(shí)和無(wú)意識(shí)的這種共生性并不會(huì)成為無(wú)意識(shí)代入人工智能選擇行為歸責(zé)的絕對(duì)障礙。本文并不是假設(shè)人工智能具有人的無(wú)意識(shí),而只是將人工智能選擇行為與無(wú)意識(shí)下人的選擇行為做擬同認(rèn)定,從而在人類行為歸責(zé)進(jìn)路下嘗試討論無(wú)意識(shí)代入人工智能選擇行為的歸責(zé)問(wèn)題,事實(shí)上是對(duì)人工智能進(jìn)行了一次人化擬制。此外,正如意識(shí)沒(méi)有被充分認(rèn)識(shí)一般,無(wú)意識(shí)和意識(shí)的共生關(guān)系并不能下一個(gè)必然的結(jié)論,科學(xué)的不確定性也為本文可以進(jìn)行無(wú)意識(shí)代入的歸責(zé)討論提供了一個(gè)兜底保障。

但這仍然存在一個(gè)必須解決的難題:人工智能的無(wú)意識(shí)不能被研究確證,又如何能將人工智能選擇行為和人的無(wú)意識(shí)選擇行為進(jìn)行擬同呢?正如對(duì)人工智能有意識(shí)的假設(shè)內(nèi)蘊(yùn)著人工智能的意識(shí)與人類具有同一性一樣,無(wú)意識(shí)的假設(shè)也需要解決同一性問(wèn)題。相較而言,此同一性問(wèn)題更容易解決。人工智能尚沒(méi)有意識(shí),解決其將來(lái)的意識(shí)和人的意識(shí)的同一性問(wèn)題是在無(wú)的基礎(chǔ)上進(jìn)行有的推導(dǎo),而人的無(wú)意識(shí)行為和人工智能的行為具有相似性卻是現(xiàn)實(shí)存在的,并且人工智能的無(wú)意識(shí)與石頭、鐵片等無(wú)所依附的純粹無(wú)意識(shí)根本不同,人工智能也不具備人類由非意識(shí)所控制的一些生理活動(dòng)能力,所以用當(dāng)前的無(wú)意識(shí)去衡量人工智能所作出的類似于人在無(wú)意識(shí)狀態(tài)下的行為相對(duì)更加可行,并且無(wú)和無(wú)的同一性比有和有的同一性更純粹。此外,即使AGI到來(lái),如果我們?nèi)匀幌嘈湃撕腿斯ぶ悄芫哂幸庾R(shí)同一性,并且相信意識(shí)和無(wú)意識(shí)具有共生關(guān)系的話,那么與有意識(shí)如影隨形的無(wú)意識(shí)也一定會(huì)存在于人工智能選擇行為中,因而對(duì)無(wú)意識(shí)代入的歸責(zé)研究不會(huì)過(guò)時(shí)。

負(fù)責(zé)任創(chuàng)新、預(yù)期治理、敏捷治理是近年用于規(guī)制人工智能等科技的理論框架,其中的法律、倫理和科技與社會(huì)(Science, Technology, and Society,簡(jiǎn)稱STS)的綜合應(yīng)用模式已越來(lái)越成熟,但在未將人工智能社會(huì)視為人類社會(huì)一部分的前提下,各類理論框架都難以說(shuō)是完整和恰適的。不過(guò),負(fù)責(zé)任創(chuàng)新理論確實(shí)提出了一個(gè)值得借鑒的觀點(diǎn):人不應(yīng)屈服于技術(shù)決定論,技術(shù)決定論忽視了人類的制度和預(yù)先設(shè)計(jì)對(duì)技術(shù)的形塑價(jià)值,使責(zé)任還沒(méi)開(kāi)始承擔(dān)就被放棄。當(dāng)我們打破技術(shù)決定論的神話后,就可以更加審慎和客觀地檢視人工智能和人的關(guān)系,一方面人類和人工智能面臨共同的無(wú)意識(shí)歸責(zé)境地,這是技術(shù)所不能解決的問(wèn)題;另一方面,既然人類和人工智能能夠在現(xiàn)階段找到這種同一性,那么人類如果在歸責(zé)中需要通過(guò)制度安排價(jià)值,人工智能就同樣需要通過(guò)設(shè)計(jì)來(lái)維護(hù)價(jià)值。

當(dāng)前的人類行為歸責(zé)盡管以價(jià)值為導(dǎo)向,但卻不太考慮無(wú)意識(shí)問(wèn)題,僅在歸責(zé)中存在“意外事件”“公平責(zé)任”這樣的偽無(wú)意識(shí)問(wèn)題——意外事件是沒(méi)有意識(shí)直接參與,而不是無(wú)意識(shí)影響了行為選擇和結(jié)果發(fā)生;公平責(zé)任是人對(duì)意識(shí)驅(qū)使下的選擇行為本不需要承擔(dān)責(zé)任,而出于秩序維護(hù)和利益衡平等原因承擔(dān)部分責(zé)任的特殊形式。此前所有的人類行為歸責(zé)理論和實(shí)踐要么將無(wú)意識(shí)和意識(shí)合二為一,比如處于自動(dòng)狀態(tài)的工人出了錯(cuò)仍然視為出錯(cuò)的一刻是意識(shí)在引導(dǎo)行為;要么將無(wú)意識(shí)排除列意識(shí)之外,比如一個(gè)對(duì)行車路線爛熟于心的司機(jī)在無(wú)意識(shí)接管意識(shí)意向的情況下發(fā)生車禍被直接視為主觀過(guò)失。但是,在人類社會(huì),這些既有的歸責(zé)規(guī)定是非常值得珍視的經(jīng)驗(yàn),它們既化解了諸多矛盾,也提醒人們更多地依靠有意識(shí)而不是任由無(wú)意識(shí)來(lái)接管行為或選擇行動(dòng),但當(dāng)這些規(guī)定用于只有類似于人的無(wú)意識(shí)行為而尚沒(méi)有意識(shí)的人工智能身上時(shí),就捉襟見(jiàn)肘了。以下在“人工智能作出選擇行為必須遵循人類社會(huì)基礎(chǔ)價(jià)值”的理念下,從現(xiàn)有的人類行為歸責(zé)路徑出發(fā),為無(wú)意識(shí)代入人工智能選擇行為的歸責(zé)理出基本邏輯思路。

人類和人工智能的最大區(qū)別是人類被認(rèn)為是進(jìn)化產(chǎn)生的,而目前的人工智能是人類創(chuàng)造出來(lái)的,“扮演上帝”的論調(diào)雖然過(guò)于自信,但確實(shí)使人類在創(chuàng)造物面前呈現(xiàn)出天然俯視心理。當(dāng)前關(guān)于人工智能的各類哲學(xué)社會(huì)科學(xué)研究均不同程度地體現(xiàn)出這種心理傾向,即使是悲觀、擔(dān)憂和驚懼式的研究也并沒(méi)有將人工智能與人類等量齊觀,而多將人工智能視作人自掘墳?zāi)沟墓ぞ摺S谑?,在人工智能哲學(xué)社會(huì)科學(xué)研究領(lǐng)域出現(xiàn)了奇怪的景象:我們?cè)谘芯恐幸匀说乃季S去揣度人工智能,一方面相信人工智能即使產(chǎn)生意識(shí),也只能是人類意識(shí)的翻版,另一方面又在俯視之中假設(shè)人工智能會(huì)超越人類,并很可能反過(guò)來(lái)俯視甚至傷害人類。這一景象事實(shí)上反映了人類的一種獨(dú)特心理認(rèn)知:我所創(chuàng)造的物不能超越我,但我不得不考慮存在這種可能。這其實(shí)是對(duì)科學(xué)不確定性原理的畏懼,人類在該原理面前無(wú)法保持真正自信。所以,一切關(guān)于人工智能的反思研究最終都回歸到對(duì)科技發(fā)展的人為控制上,這種控制通常是倫理,有時(shí)是法律。控制傳統(tǒng)從近代科學(xué)誕生之日起就已出現(xiàn),到了二十世紀(jì)六七十年代在卡遜(Rachel Carson)和羅馬俱樂(lè)部的推動(dòng)下達(dá)到頂峰,并隨著科學(xué)技術(shù)的“倫理、法律和社會(huì)問(wèn)題”(Ethical, Legal,and Social Issues,簡(jiǎn)稱ELSI)研究領(lǐng)域的創(chuàng)立而逐漸走向?qū)I(yè)化。所以,人工智能歸責(zé)研究在今時(shí)今日仍然處于保持科技可控性發(fā)展的論域中,而ELSI所包納的全部學(xué)科,無(wú)論是倫理學(xué)、法學(xué)還是STS、科學(xué)社會(huì)學(xué)都以人類社會(huì)基礎(chǔ)價(jià)值為出發(fā)點(diǎn),那么我們也沒(méi)有理由使人工智能選擇行為歸責(zé)研究超越這個(gè)范疇,況且,無(wú)意識(shí)代入為人工智能選擇行為歸責(zé)以人類價(jià)值為追求提供了更具針對(duì)性的理由:正因?yàn)楫?dāng)前人工智能選擇行為和人類的無(wú)意識(shí)選擇行為類似,那么二者擁有共同的價(jià)值追求必然而然。

鑒此,對(duì)人工智能選擇行為進(jìn)行歸責(zé),首先要考慮其選擇行為是否違背了人類社會(huì)的價(jià)值追求;其次,因?yàn)楫?dāng)前人工智能選擇行為類似于人類的無(wú)意識(shí)選擇行為,所以責(zé)任承擔(dān)原則中的過(guò)錯(cuò)責(zé)任原則、過(guò)錯(cuò)推定責(zé)任原則均難以適用,唯有無(wú)過(guò)錯(cuò)責(zé)任原則可以有限適用,當(dāng)人工智能選擇行為違背了人類社會(huì)基礎(chǔ)價(jià)值,且具有實(shí)際危害后果時(shí),可以適用無(wú)過(guò)錯(cuò)責(zé)任原則;最后,對(duì)于具體的責(zé)任承擔(dān),可以參考法人歸責(zé)的雙罰制,即在對(duì)人工智能進(jìn)行處理的同時(shí),追究直接責(zé)任人員的責(zé)任。

(二)限制性規(guī)范在實(shí)踐中的歸位

限制性規(guī)范是歸責(zé)的前提,責(zé)任的出現(xiàn)、衡量和追究均以違反維持實(shí)踐秩序的限制性規(guī)范為啟動(dòng)要件。限制性規(guī)范以兩種方式滲入人工智能選擇行為中,一是在算法程序中預(yù)先設(shè)定,二是在人工智能選擇行為作出后進(jìn)行事后追責(zé)。但算法和選擇行為之間還有一個(gè)過(guò)渡環(huán)節(jié),即人工智能基于算法進(jìn)行的后天學(xué)習(xí),人工智能選擇行為同時(shí)受初始算法和后天學(xué)習(xí)的影響。預(yù)測(cè)是人工智能選擇行為歸責(zé)的重要實(shí)踐根基,預(yù)先設(shè)定的限制性規(guī)范一般都能體現(xiàn)預(yù)測(cè)性,但事后追責(zé)的限制性規(guī)范卻很難具有預(yù)測(cè)性。因?yàn)槭潞笞坟?zé)所針對(duì)的人工智能選擇行為受算法和后天學(xué)習(xí)雙重影響,人們雖然了解后天學(xué)習(xí)的機(jī)理,但卻難以預(yù)測(cè)人工智能后天學(xué)習(xí)的情況和效果,更難以預(yù)測(cè)后天學(xué)習(xí)和選擇行為之間的對(duì)應(yīng)關(guān)系。預(yù)先設(shè)定的限制性規(guī)范具有預(yù)測(cè)性,事后追責(zé)的限制性規(guī)范難具預(yù)測(cè)性,導(dǎo)致兩種限制性規(guī)范發(fā)生“脫離現(xiàn)象”。如上所述,人工智能選擇行為歸責(zé)要以人類社會(huì)基礎(chǔ)價(jià)值為追求,限制性規(guī)范的確立和實(shí)施自然也要以人類社會(huì)基礎(chǔ)價(jià)值為引領(lǐng),但“脫離現(xiàn)象”使限制性規(guī)范在設(shè)定和追責(zé)中出現(xiàn)價(jià)值分離,所以必須分析限制性規(guī)范如何在實(shí)踐中向價(jià)值歸位。

為了制定出契合人工智能選擇行為歸責(zé)的限制性規(guī)范,人們必須充分考慮人工智能實(shí)踐的獨(dú)特性,而不是將之與人類實(shí)踐混同。由于后天學(xué)習(xí)情況和效果難以預(yù)測(cè),人們不能準(zhǔn)確了解人工智能實(shí)踐行為,導(dǎo)致對(duì)人工智能選擇行為進(jìn)行事后追責(zé)的限制性規(guī)范無(wú)法完全基于人工智能獨(dú)特實(shí)踐,而要更多地考慮人類社會(huì)普遍實(shí)踐。因?yàn)閮r(jià)值追求一致,所以把針對(duì)人類實(shí)踐的歸責(zé)機(jī)制應(yīng)用到人所制造的人工智能上確實(shí)具有可行性,但應(yīng)用中存在兩個(gè)不可忽視的難題。其一,人類在文明社會(huì)數(shù)千年的演進(jìn)中,形成了獨(dú)特的人性特質(zhì),這些特質(zhì)不僅受到遺傳影響,更受到民族、種族、國(guó)情、風(fēng)俗、習(xí)慣的影響,人工智能顯然不能獲得如此豐富的實(shí)踐體驗(yàn),但它們的特質(zhì)在一定程度上來(lái)自于設(shè)計(jì)者、制造者和使用者,由此產(chǎn)生一個(gè)必須要追問(wèn)的問(wèn)題:是否中國(guó)的人工智能具有中國(guó)特色,而美國(guó)的人工智能別具美國(guó)風(fēng)情?其二,人工智能可能跨越實(shí)踐范疇而直接影響到人類社會(huì)基礎(chǔ)價(jià)值。比如近年出現(xiàn)的數(shù)字經(jīng)濟(jì),在產(chǎn)生新的經(jīng)濟(jì)增長(zhǎng)點(diǎn)的同時(shí),借助數(shù)字智能技術(shù)改變勞動(dòng)市場(chǎng)固有規(guī)則,通過(guò)建構(gòu)智能勞動(dòng)敘事邏輯,產(chǎn)出新的資本權(quán)力并可能加強(qiáng)對(duì)勞動(dòng)者的支配,從而影響了勞動(dòng)者的自由。因此,在將人類選擇行為歸責(zé)機(jī)制適用到人工智能選擇行為中時(shí),要審慎解決這兩個(gè)難題。

認(rèn)為技術(shù)的研究、設(shè)計(jì)、開(kāi)發(fā)和治理受某種普世意識(shí)形態(tài)的影響是一個(gè)不可能成立的虛幻想法。大科學(xué)時(shí)代,受到國(guó)家資助的人工智能科技必然要與該國(guó)的意識(shí)形態(tài)保持一致,也就是中國(guó)的人工智能當(dāng)然具有中國(guó)特色。事實(shí)上,這一差異性問(wèn)題并不是因?yàn)槿斯ぶ悄艿某霈F(xiàn)而發(fā)生,不同文化傳承和生活環(huán)境所導(dǎo)致的個(gè)體差異在人類社會(huì)普遍存在,不同的人對(duì)相同事件的看法可能大相徑庭,即使是同一人在不同心境和環(huán)境下對(duì)同一事件也可能會(huì)產(chǎn)生前后不一致甚至矛盾的態(tài)度,但法律、道德等社會(huì)規(guī)范總有很多能超越個(gè)體經(jīng)驗(yàn)而獲得廣泛認(rèn)同,那為何在人工智能這里行不通呢?原因有二,一是人類具有相同的人性和生存模式,不同的人之間總有一些相同的價(jià)值認(rèn)知;二是人與人之間可以進(jìn)行充分的溝通與交流,在辯論和妥協(xié)中逐步使認(rèn)知趨于一致。與人相比,人工智能種類繁多,不同的應(yīng)用領(lǐng)域幾乎斷絕了人工智能之間“人性”相通的可能;在意識(shí)出現(xiàn)之前,人工智能之間也不可能進(jìn)行充分交流。因此,在對(duì)人工智能選擇行為歸責(zé)時(shí),應(yīng)當(dāng)以一個(gè)道德域或法治域(通常是一個(gè)國(guó)家)的一般歸責(zé)原則為基礎(chǔ),并參照該域中人類選擇行為歸責(zé)機(jī)制來(lái)確定對(duì)人工智能進(jìn)行事后追責(zé)的基本要求,這表明以某種類似于“機(jī)器人法則”的限制性規(guī)范來(lái)規(guī)制所有人工智能行為的想法不切實(shí)際,無(wú)法施行。

當(dāng)人工智能大規(guī)模應(yīng)用后,智能化的工作環(huán)境會(huì)在多大程度上擠兌人類勞動(dòng)者的生活資源尚未可知,但自由、平等、正義等價(jià)值可能遭受到的沖擊是可以想象的。對(duì)人類勞動(dòng)者而言,真正的自由不僅是可以選擇拒絕從事不公平或無(wú)價(jià)值的工作,還包括可以選擇從事公平而有價(jià)值的工作,能為其提供這種可得選項(xiàng)的社會(huì)才是有可能實(shí)現(xiàn)“人的自由而全面的發(fā)展”的社會(huì)。當(dāng)人工智能獲得意識(shí)后,它可能會(huì)將信息和數(shù)據(jù)作為構(gòu)建新權(quán)力的基礎(chǔ),用冷冰冰的算法邏輯代替仍可由人腦預(yù)測(cè)的資本邏輯來(lái)構(gòu)筑人類勞動(dòng)者無(wú)法跨越的利益藩籬,“機(jī)器人不消費(fèi)它們所生產(chǎn)的東西,而剩下的人類又沒(méi)有錢去購(gòu)買”[19]的適于極端強(qiáng)權(quán)滋生的環(huán)境可能會(huì)出現(xiàn)。這種環(huán)境導(dǎo)致分配正義在人和人工智能之間遭遇前所未有的挑戰(zhàn),它不再是資源配置問(wèn)題,也不是技術(shù)變革問(wèn)題,而是人與人工智能人性相通的問(wèn)題。限制性規(guī)范必須考慮到人工智能所具有的規(guī)?;芰?、權(quán)力化欲望和無(wú)情化態(tài)度(人工智能難以和人類產(chǎn)生真正的共情,不管是有意識(shí)還是無(wú)意識(shí)),因此要在算法程序和技術(shù)規(guī)則中增加更為簡(jiǎn)捷但嚴(yán)厲的限制性規(guī)范,比如可以考慮采用先斷線(斷電)再調(diào)查的顛覆性追責(zé)程序。

總之,對(duì)人工智能選擇行為進(jìn)行歸責(zé)必須把握好人工智能實(shí)踐與人類實(shí)踐的聯(lián)系與區(qū)別,以不破壞人類社會(huì)基礎(chǔ)價(jià)值為導(dǎo)向,在解決實(shí)踐性難題后針對(duì)性地制定限制性規(guī)范。

四 結(jié) 語(yǔ)

選擇行為是人類建立在生物本能上的最基本的智能表現(xiàn),如果我們從人類智能出發(fā)去制造人工智能,那么人工智能要在人類社會(huì)承擔(dān)責(zé)任就不可能繞過(guò)選擇行為的價(jià)值基礎(chǔ)和實(shí)踐需要。因此,關(guān)于歸責(zé)的思考首先就必須面對(duì)選擇問(wèn)題。認(rèn)識(shí)到科技應(yīng)當(dāng)增加人類的福祉是人類智能可以被稱為智能的基點(diǎn),科技創(chuàng)新可以成為人類實(shí)現(xiàn)價(jià)值目標(biāo)的保障則是人類愿意向技術(shù)人工物分享自身智能的前提。所以,我們必須依靠自由、平等、正義等人類社會(huì)基礎(chǔ)價(jià)值來(lái)設(shè)計(jì)人工智能,并深入思考至少兩個(gè)問(wèn)題:人工智能被設(shè)計(jì)用于不同的生活和工作領(lǐng)域分別指向什么樣的基礎(chǔ)價(jià)值?人工智能科技和制度如何相互協(xié)調(diào)以促進(jìn)價(jià)值目標(biāo)達(dá)成?不同的應(yīng)用領(lǐng)域有不同的價(jià)值要求,設(shè)計(jì)和開(kāi)發(fā)階段的價(jià)值導(dǎo)入必須以應(yīng)用領(lǐng)域的價(jià)值規(guī)范為指引,而人工智能是否遵循價(jià)值規(guī)范的直觀體現(xiàn)是其會(huì)作出什么樣的選擇行為;制度和科技的協(xié)調(diào)需要直接推入選擇行為的歸責(zé)中,因?yàn)槿斯ぶ悄苣壳爸挥羞x擇行為既指向真的智能又指向真的實(shí)踐,而獨(dú)特的歸責(zé)是在人與人工智能價(jià)值追求一致下界分人工智能選擇行為和人類選擇行為的重要方式。因此,人工智能選擇行為的歸責(zé)實(shí)際上遵循著一條從價(jià)值到實(shí)踐再回歸價(jià)值的邏輯進(jìn)路,正因?yàn)樗惴ǔ绦蛑凶⑷肓吮贿x擇的基礎(chǔ)價(jià)值,才可能在應(yīng)用時(shí)產(chǎn)生人工智能選擇行為正確與否的問(wèn)題,而實(shí)踐需要和實(shí)踐意義又為人工智能選擇行為提供了歸責(zé)理由、情節(jié)判斷、承擔(dān)方式與價(jià)值追求保持統(tǒng)一的可能。

設(shè)計(jì)、開(kāi)發(fā)和應(yīng)用人工智能必然受到人與社會(huì)的雙重影響,人工智能治理問(wèn)題同樣如此。因此,僅通過(guò)制定規(guī)則來(lái)規(guī)范人工智能的應(yīng)用或制定政策在事后針對(duì)人工智能的錯(cuò)誤選擇行為是不夠的。在這個(gè)前提下,人們通過(guò)負(fù)責(zé)任創(chuàng)新、預(yù)期治理等一系列科技治理理論,認(rèn)識(shí)到利益相關(guān)者的特定價(jià)值觀對(duì)人工智能等科技的發(fā)展具有決定性意義,因而引入價(jià)值選擇和政策干預(yù)來(lái)規(guī)制研究設(shè)計(jì)和技術(shù)開(kāi)發(fā)。只有讓設(shè)計(jì)者和開(kāi)發(fā)者將人類社會(huì)基礎(chǔ)價(jià)值融入人工智能設(shè)計(jì)和開(kāi)發(fā)過(guò)程中,人工智能科技才能對(duì)人和社會(huì)有益。如此,無(wú)論是人工智能樂(lè)觀主義者還是悲觀主義者都獲得了一個(gè)可以接受的平衡:面對(duì)無(wú)法停滯的人工智能科技,我們必須深刻理解人工智能和經(jīng)濟(jì)、社會(huì)發(fā)展的相互作用關(guān)系,基于人類社會(huì)基礎(chǔ)價(jià)值對(duì)設(shè)計(jì)和開(kāi)發(fā)人工智能進(jìn)行監(jiān)督、對(duì)人工智能選擇行為進(jìn)行歸責(zé),進(jìn)而有效地接受和包容人工智能科技創(chuàng)新可能帶來(lái)的不確定性。

[參 考 文 獻(xiàn)]

[1] Santoni de Sio F, Almeida T, van den Hoven J. The future of work: freedom, justice and capital in the age of Artificial Intelligence[J]. Critical Review of International Social and Political Philosophy, 2024(5): 659-683.

[2] 習(xí)近平.加強(qiáng)領(lǐng)導(dǎo)做好規(guī)劃明確任務(wù)夯實(shí)基礎(chǔ) 推動(dòng)我國(guó)新一代人工智能健康發(fā)展[N].人民日?qǐng)?bào),2018-11-01(1).

[3] 韓水法.人工智能時(shí)代的自由意志[J].社會(huì)科學(xué)戰(zhàn)線,2019(11):1-11+281.

[4] Moore M S.Stephen Morse on the fundamental psycho-legal error[J]. Criminal Law and Philosophy, 2016(1):45-89.

[5] Inwagen P V.Freedom of the will[M]// Feinberg J, Shafer-Landau R. Reason and responsibility: readings in some basic problems of philosophy, Boston: Wadsworth, 2011.

[6] 徐向東.理解自由意志[M].北京:北京大學(xué)出版社,2008.

[7] Strawson G. On \"freedom and resentment\"[M]//Russell P, McKenna M. Free will and reactive attitudes, London: Routledge, 2016.

[8] Gogoll J, Müller J F. Autonomous cars: in favor of a mandatory ethics setting[J]. Science and Engineering Ethics, 2017(3): 681-700.

[9] Bergmann L T, Schlicht L, Meixner C, et al. Autonomous vehicles require socio-political acceptance an empirical and philosophical perspective on the problem of moral decision making[J]. Frontiers in Behavioral Neuroscience, 2018(12):1-12.

[10] Sen A. The idea of justice [M]. Cambridge, Mass: Belknap Press of"" Harvard University Press,2009.

[11] Bonnefon J F, Shariff A, Rahwan I. The social dilemma of autonomous vehicles[J]. Science, 2016,6293: 1573-1576.

[12] Hyde W W. The prosecution and punishment of animals and lifeless things in the middle ages and modern times[J]. University of Pennsylvania Law Review and American Law Register, 1916(7): 696-730.

[13] Hibschman H. When animals were criminals[J].Lega Chatter, 1938(4): 38-48.

[14] Beale S S. The development and evolution of the U.S. law of corporate criminal liability and the Yates Memo[J]. Stetson Law" Review, 2016(1): 41-70.

[15] Libet B. Unconscious cerebral initiative and the role of conscious will in voluntary action[J]. Behavioral and Brain Sciences, 1985(4): 529-539.

[16] Schultze-Kraft M, Birman D, Rusconi M, et al. The point of no return in vetoing self-initiated movements[J]. Proceedings of the National Academy of Sciences of the United States of Americal, 2016(4): 1080-1085.

[17]舍恩伯格,庫(kù)克耶.大數(shù)據(jù)時(shí)代:生活、工作與思維的大變革[M].盛陽(yáng)燕,周濤,譯.杭州: 浙江人民出版社,2012.

[18] 格雷斯,魏根特.智能代理與刑法[M]//陳澤憲.刑事法前沿:第10卷,北京:社會(huì)科學(xué)文獻(xiàn)出版社,2017.

[19] Hughes C, Southern A. The world of work and the crisis of capitalism: Marx and the fourth industrial revolution[J]. Journal of Classical Sociology, 2019(1): 59-71.

猜你喜歡
人工智能價(jià)值
我校新增“人工智能”本科專業(yè)
踐行初心使命的價(jià)值取向
價(jià)值3.6億元的隱私
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
一粒米的價(jià)值
“給”的價(jià)值
下一幕,人工智能!
下一幕,人工智能!
主站蜘蛛池模板: 久久香蕉国产线看精品| 成人av专区精品无码国产| 亚洲AⅤ综合在线欧美一区| 久久久黄色片| 波多野结衣国产精品| 国产97视频在线| 成人福利在线视频| 国产亚洲高清视频| 制服丝袜在线视频香蕉| 亚洲精品无码专区在线观看| 一级做a爰片久久免费| 欧美成在线视频| 五月天婷婷网亚洲综合在线| 在线国产资源| 97亚洲色综久久精品| 十八禁美女裸体网站| 欧美特级AAAAAA视频免费观看| 婷婷激情亚洲| 亚洲欧洲国产成人综合不卡| 美女国内精品自产拍在线播放| 搞黄网站免费观看| 国产欧美视频一区二区三区| 亚洲美女视频一区| 免费观看男人免费桶女人视频| 国产精品美女网站| 国产91av在线| h视频在线观看网站| 国产69精品久久| 中文字幕久久波多野结衣| 亚洲成a∧人片在线观看无码| 久久国产免费观看| 国产微拍精品| 91精品啪在线观看国产91| 无码国内精品人妻少妇蜜桃视频| 无码国产偷倩在线播放老年人| 欧美在线综合视频| 欧美成人h精品网站| 亚欧乱色视频网站大全| 亚洲综合久久成人AV| аv天堂最新中文在线| 国产后式a一视频| 波多野结衣一区二区三区四区视频 | 国产高颜值露脸在线观看| 欧美福利在线观看| 97青草最新免费精品视频| P尤物久久99国产综合精品| 国产凹凸视频在线观看| 久久精品丝袜高跟鞋| 欧美无遮挡国产欧美另类| 色综合综合网| 国产幂在线无码精品| 91网红精品在线观看| 一区二区日韩国产精久久| 91原创视频在线| 欧美精品伊人久久| 久久动漫精品| 亚洲无码精品在线播放| 亚洲综合精品香蕉久久网| 九色视频一区| 国产精品视频导航| 全部毛片免费看| 一区二区午夜| 无码国产伊人| 欧美另类视频一区二区三区| 国产在线视频导航| 国产在线视频自拍| 热久久综合这里只有精品电影| 久久无码av一区二区三区| 57pao国产成视频免费播放| 国产成人精品综合| 欧美成人免费午夜全| 亚洲高清国产拍精品26u| 免费人欧美成又黄又爽的视频| 视频一区视频二区日韩专区| 亚洲swag精品自拍一区| 国产综合精品一区二区| 亚洲男人在线天堂| 国产精品久久久久久久伊一| 91视频青青草| 国产一二视频| 免费啪啪网址| 亚洲国产综合精品一区|