999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能風(fēng)險的意蘊生成與治理路徑

2020-03-23 05:59:55鄭容坤
黨政研究 2020年2期
關(guān)鍵詞:人工智能

鄭容坤

〔摘要〕人工智能風(fēng)險意指因人工智能技術(shù)的不確定性所誘發(fā)的對人類經(jīng)濟結(jié)構(gòu)、社會秩序、倫理道德乃至生存安全等方面的可能性后果。風(fēng)險技術(shù)與技術(shù)風(fēng)險共同型構(gòu)人工智能的風(fēng)險議題,致使人工智能呈現(xiàn)出有別于風(fēng)險社會其他技術(shù)風(fēng)險的客觀現(xiàn)實性、主觀建構(gòu)性、技術(shù)非人化特征。風(fēng)險技術(shù)是人工智能風(fēng)險的生成因子,源于技術(shù)理性的認(rèn)知局限、人類主體的主觀利益、類人自主的它者欲望等技術(shù)性缺陷。技術(shù)風(fēng)險則是風(fēng)險技術(shù)的后果顯影,指涉人工智能風(fēng)險表層波及面的廣博性以及深層次的工具性與價值性兩種動態(tài)風(fēng)險情形。當(dāng)信息技術(shù)甚囂塵上,人工智能高歌猛進時,不斷升級的風(fēng)險技術(shù)難題將加劇技術(shù)風(fēng)險的嚴(yán)峻境遇,最終引致人類陷入技術(shù)化泥潭。化解人工智能附加于人類的技術(shù)化生存危機,需要立足技術(shù)迭代與人類理性的雙重考慮,更新人文治理理念、構(gòu)建協(xié)同治理機制、優(yōu)化多樣治理工具等途徑不失為規(guī)避人工智能風(fēng)險的有效路徑。

〔關(guān)鍵詞〕人工智能;技術(shù)風(fēng)險;風(fēng)險治理;風(fēng)險社會;技術(shù)倫理

〔中圖分類號〕D63-39 〔文獻標(biāo)識碼〕A 〔文章編號〕2095-8048-(2020)02-0108-11

無論是貝克的《風(fēng)險社會》,抑或吉登斯的《失控世界》,都指向現(xiàn)代社會的一個共同命題,即技術(shù)與風(fēng)險的關(guān)聯(lián)性。當(dāng)人類科技一路高歌猛進之時,技術(shù)的普羅米修斯效應(yīng)緊跟其后。人工智能作為引領(lǐng)工業(yè)4.0的人類科學(xué)技術(shù)也難以逃脫技術(shù)風(fēng)險的命運窠臼,“人工智能在貢獻世界、發(fā)揮影響、促成改變的同時,也易于誘發(fā)系列風(fēng)險危機,例如勞動的脫嵌與消匿、人與人的疏遠與隔離、人類的被超越與被控制等”〔1〕,進而構(gòu)筑人工智能的風(fēng)險議題。人工智能風(fēng)險意指何物?如何生成?有何形態(tài)?如何因應(yīng)?對此,本文嘗試從風(fēng)險社會的理論視角進行初步的探討。

一、提出問題:人工智能風(fēng)險的出場

自1956年達特茅斯會議首提人工智能術(shù)語至今60多年來,人工智能經(jīng)歷了從爆發(fā)到寒冬再到野蠻生長的歷程后,在2016年以谷歌圍棋程序人工智能AlphaGo戰(zhàn)勝世界冠軍李世石為指標(biāo)性事件,人工智能開啟對人類社會權(quán)力組織、經(jīng)濟生產(chǎn)和治理方式的顛覆性變革。人工智能“在帶給人類巨大進步與福利的同時,也帶來了不可忽視的倫理風(fēng)險、極化風(fēng)險、異化風(fēng)險、規(guī)制風(fēng)險和責(zé)任風(fēng)險”〔2〕以及決策風(fēng)險等現(xiàn)代性社會問題。對此,已有研究立足法學(xué)、倫理學(xué)、管理學(xué)等展開跨學(xué)科研究,打破人工智能發(fā)展的工程“技術(shù)領(lǐng)土”邊界,并圍繞技術(shù)、社會、治理視角進行學(xué)術(shù)反思,表達對人工智能風(fēng)險及其化解的人文關(guān)懷。

首先,技術(shù)視角的風(fēng)險,主要源于算法客觀性與主觀性等技術(shù)屬性的內(nèi)在缺陷。算法的客觀性在于人類有限理性之下對算法技術(shù)的不確定性認(rèn)知,而算法的主觀性強調(diào)算法程序的主體惡念,兩者造就了人工智能的“算法失序”,進而衍生為人工智能風(fēng)險。在人工智能算法被視為一種新的權(quán)力形態(tài)時,囿于算法歧視、算法黑箱、算法偏見以及算法自利等主客觀缺陷,人工智能算法的政治與道德風(fēng)險在所難免。避免因算法失序帶來的技術(shù)風(fēng)險,應(yīng)實行算法監(jiān)管關(guān)口前移,“樹立以風(fēng)險防范為目的的監(jiān)管思路,實行內(nèi)容與算法并重的雙軌審查機制,以及設(shè)立平臺責(zé)任與技術(shù)責(zé)任雙軌并行的責(zé)任體系,并對算法的生產(chǎn)性資源數(shù)據(jù)的收集和使用進行合理限制”〔3〕。

其次,社會視角的風(fēng)險,來自于人工智能應(yīng)用中呈現(xiàn)出來的“墨菲定律”①。一是法律風(fēng)險,認(rèn)為人工智能作為一種發(fā)展型的技術(shù)體系,具有超前性、復(fù)雜性的社會屬性,然而因缺乏法律的有力規(guī)制會產(chǎn)生法律失效危機。當(dāng)前人工智能法律風(fēng)險涉及智能體的法律主體資格評價〔4〕、行為責(zé)任認(rèn)定以及刑罰類型設(shè)置〔5〕等議題,強調(diào)從違法主體(是人類還是類人)為出發(fā)點規(guī)避社會風(fēng)險〔6〕。二是倫理風(fēng)險。人工智能的發(fā)展可能引發(fā)責(zé)任倫理沖突的社會擴大問題與隱私群體化泄露風(fēng)險〔7〕,通過規(guī)約智能機器設(shè)計者、所有者、使用者等主體行為,提倡人工智能研發(fā)與應(yīng)用階段的倫理道德,才能在保障智能機器與系統(tǒng)的安全基礎(chǔ)上,維護人類社會的健康發(fā)展。〔8〕三是失業(yè)風(fēng)險。人工智能技術(shù)的迭代升級,一方面可能會取消大規(guī)模的簡單勞動,形成結(jié)構(gòu)性失業(yè),甚至?xí)艨迳鐣謱咏Y(jié)構(gòu)的中產(chǎn)階級,最終致使社會資源流向少數(shù)資本精英和技術(shù)精英,加劇社會走向?qū)嵸|(zhì)的不平等〔9〕,同時也誘發(fā)失業(yè)人員無法獲得與社會技術(shù)相匹配的新技能的再就業(yè)風(fēng)險〔10〕〔11〕。有部分研究立足國家層面,剖析人工智能對國家主權(quán)安全、國際戰(zhàn)略合作、數(shù)據(jù)共建共享以及國家責(zé)任〔12〕等方面的風(fēng)險治理命題。

最后,治理視角的風(fēng)險。社會領(lǐng)域在吸納人工智能技術(shù)實施智能化治理時,潛在著人工智能技術(shù)的“反制性”,即技術(shù)發(fā)展的不確定性導(dǎo)致社會治理存在從“數(shù)字民主”滑向“技術(shù)利維坦”的潛在風(fēng)險〔13〕。有效規(guī)制人工智能的潛在風(fēng)險,需要從善治的角度著手,“通過社會多元主體的共治,構(gòu)建可控的應(yīng)用環(huán)境、可靠的安全屬性、合理的責(zé)任機制,形成科學(xué)和有效的人工智能風(fēng)險治理體系”〔14〕。同時,應(yīng)從基礎(chǔ)治理、綜合治理、倫理治理相統(tǒng)一的系統(tǒng)治理思路出發(fā)構(gòu)建人工智能風(fēng)險化解的整體性機制。

已有文獻立足技術(shù)、社會、治理三個視角,遵循現(xiàn)象-原因-對策的闡釋路徑反思人工智能的風(fēng)險生發(fā)機理,這些研究為本文的展開提供有益支持。然而,相對于人工智能技術(shù)的突飛猛進,現(xiàn)有的研究略顯瓶頸,亟需在深度上拓展。本文以此為進路,結(jié)合風(fēng)險社會理論,建構(gòu)風(fēng)險技術(shù)與技術(shù)風(fēng)險的互構(gòu)邏輯,試圖闡釋人工智能風(fēng)險的內(nèi)涵意蘊、生成機理、形態(tài)特征以及善治思考。

二、人工智能風(fēng)險的意蘊與特征:風(fēng)險社會的新風(fēng)險圖景

在經(jīng)歷兩次世界大戰(zhàn)之后,人類社會進入了極盛現(xiàn)代化表象下各類風(fēng)險暗流涌動的風(fēng)險社會。對于這類風(fēng)險社會的理論闡釋當(dāng)屬烏爾里希·貝克(Ulrich Beck)與安東尼·吉登斯(Anthony Giddens)的風(fēng)險社會理論。貝克在《風(fēng)險社會》書中,首提風(fēng)險社會概念,認(rèn)為科技在促進社會發(fā)展的同時,也暗含著對生態(tài)環(huán)境和人類自身的副作用,人類已處在技術(shù)性風(fēng)險所構(gòu)筑的境遇之中。吉登斯則以西方資本主義社會的現(xiàn)代性為切入口,闡釋技術(shù)風(fēng)險對社會結(jié)構(gòu)與社會秩序的撕裂問題,強調(diào)現(xiàn)代社會周遭的風(fēng)險屬于人造風(fēng)險(manufactured risk)系列,是由人類自身制造出來而有別于自然風(fēng)險的形態(tài),同時因其由人類無限制利益的驅(qū)動,將會是人類所面臨的最大威脅〔15〕。貝克和吉登斯旗幟鮮明地認(rèn)為,風(fēng)險社會是一個反身性(Reflexivity)現(xiàn)代化的社會,即“創(chuàng)造性地(自我)毀滅整整一個時代——工業(yè)社會時代——的可能性。這種創(chuàng)造性毀滅的‘對象不是西方現(xiàn)代化革命,也不是西方現(xiàn)代化的危機,而是西方現(xiàn)代化的勝利成果”〔16〕。他們認(rèn)為風(fēng)險社會的歸宿是人類現(xiàn)代文明的毀滅,其根源在于人類對技術(shù)創(chuàng)新、發(fā)展的無止境追求,而人類的這種非理性技術(shù)沖動是現(xiàn)代性制度失范的再次作用。吉登斯從制度主義視域揭示風(fēng)險社會產(chǎn)生的制度根源,包括現(xiàn)代性賴以支撐的資本主義、工業(yè)主義、監(jiān)督和軍事力量等四類制度性失范〔17〕。貝克進認(rèn)為風(fēng)險治理的關(guān)鍵在于完善社會規(guī)范和制度體系,因為“風(fēng)險社會的教訓(xùn)是:政治和道德正在獲得——必須獲得!——替代科學(xué)論證的優(yōu)先權(quán)”〔18〕。

風(fēng)險社會理論展示風(fēng)險生產(chǎn)的一個基本邏輯:自現(xiàn)代化以來,風(fēng)險支配正逐漸由自然風(fēng)險轉(zhuǎn)為人造風(fēng)險,同時由于制度失范致使人類無節(jié)制地利用技術(shù)在探索未知世界的過程中,不斷地制造出可能危及人類文明的各類技術(shù)風(fēng)險。克隆人、核武器、基因編輯嬰兒、情感機器人、性伴侶機器等人類技術(shù)的研發(fā)與應(yīng)用,加劇了人類社會秩序與倫理道德的現(xiàn)實危機。隨著人工智能技術(shù)的迭代升級,人工智能技術(shù)將得以大規(guī)模普及,然而技術(shù)的副作用效應(yīng)也愈發(fā)凸顯。無論是《人工智能》《終結(jié)者》《奇點》《機械姬》《Tron》等科幻作品,還是埃隆·馬斯克(Llon Musk)、史蒂芬·霍金(Stephen Hawking)、史蒂夫·沃茲尼克(Steve Wozniak)等人的批判言辭,無不飽含著對人工智能未來發(fā)展的深深擔(dān)憂。

人工智能發(fā)軔于20世紀(jì)50年代,興盛于21世紀(jì)初,其形成軌跡契合風(fēng)險社會的指涉范圍與運作機理。于風(fēng)險社會而言,人工智能風(fēng)險是一種人造的特殊的技術(shù)風(fēng)險,然而,我們長期缺乏對人工智能風(fēng)險的分析〔19〕。在現(xiàn)實中,關(guān)于人工智能風(fēng)險的情境敘述更多以科幻小說或影視等體裁呈現(xiàn);從政策目標(biāo)看,中央與地方涉及人工智能風(fēng)險防范目標(biāo)的比重分別為10.28%和3.38%,較低于社會、經(jīng)濟等發(fā)展目標(biāo),表明公共政策并未對人工智能潛在的風(fēng)險和挑戰(zhàn)予以應(yīng)有關(guān)注〔20〕。這兩方面共同提出了一個緊迫性命題,即需要對人工智能的風(fēng)險生成、形態(tài)特征以及規(guī)制途徑做出客觀判斷。人工智能是一類不斷升級的智能技術(shù)體系,界定其潛伏的風(fēng)險,可以從技術(shù)視角加以解構(gòu)。我們認(rèn)為,人工智能風(fēng)險意指因人工智能技術(shù)的不確定性所誘發(fā)的對人類經(jīng)濟結(jié)構(gòu)、社會秩序、倫理道德乃至生存安全等方面的可能性后果。相對于核武器、核電站、轉(zhuǎn)基因食品、基因編輯嬰兒等技術(shù)引發(fā)的風(fēng)險,人工智能風(fēng)險更具自主性與顛覆性,是風(fēng)險社會的一種新形式險種。本質(zhì)看,人工智能風(fēng)險命題涵括兩個內(nèi)容:一是風(fēng)險層面的技術(shù)性缺失,即風(fēng)險技術(shù)。二是技術(shù)層面的風(fēng)險性后果,即技術(shù)風(fēng)險。兩者互為因果關(guān)系,共同型構(gòu)人工智能技術(shù)之于人類社會的風(fēng)險議題。風(fēng)險技術(shù)與技術(shù)風(fēng)險合謀作用下的人工智能風(fēng)險超越人類對風(fēng)險的一般性感知。我們認(rèn)為作為一種已經(jīng)形成或正在加劇的智能性風(fēng)險,人工智能風(fēng)險具有客觀存在性、主觀建構(gòu)性、技術(shù)非人化三個主要特征。

首先,具有客觀存在性。人工智能風(fēng)險內(nèi)嵌于人造的“智能體”及其行動時空中,會通過人工智能的技術(shù)缺陷引發(fā)現(xiàn)實性安全問題。這種技術(shù)缺陷及其誘發(fā)的風(fēng)險事實,并不以人類的主觀意識而轉(zhuǎn)移,而是客觀存在于人類社會中。美國路易斯維爾大學(xué)的亞姆波斯基(Roman Yampolskiy)教授在《人工智能與網(wǎng)絡(luò)安全:人工智能失效時間表》一文中,梳理2016年以來人工智能發(fā)展帶來的風(fēng)險類型,比如微軟聊天機器人TAY散布種族主義;特斯拉半自動駕駛系統(tǒng)發(fā)生車禍,致人死亡;巡邏機器人失控撞擊兒童等〔21〕。這些問題業(yè)已存在人類社會之中,不僅危及人類生命健康安全,而且沖擊著人類平等、正義、民主等美好價值。

其次,具有主觀建構(gòu)性。人工智能引發(fā)的社會風(fēng)險是人類主體基于邏輯判斷之后能夠感知與預(yù)測的社會問題。吉登斯認(rèn)為風(fēng)險標(biāo)志著與傳統(tǒng)社會的根本性決裂,是面向未來的產(chǎn)物,而人類囿于不同的文化背景和價值觀則會形成異質(zhì)性的風(fēng)險認(rèn)知方式。在不同的社會制度下,社會公民會持有不同的風(fēng)險認(rèn)知;在同一制度下由于社會分層結(jié)構(gòu)以及知識體系的差異也會有各異的風(fēng)險感知。對人工智能的快速發(fā)展,社會上有發(fā)展論與否定論兩種相對的觀點:前者認(rèn)為“人工智能發(fā)展契合人類需求”“人工智能危機論是個偽命題”;而后者則提出“人工智能顛覆人類”“主奴關(guān)系錯置”“結(jié)構(gòu)性失業(yè)”等人工智能危機說。其實這些說法,各有其合理成分,都立足于人類對技術(shù)風(fēng)險的建構(gòu)性與反思性。例如,就業(yè)可能是人工智能首先刺破的人類社會防線,未來人工智能技術(shù)將給就業(yè)帶來結(jié)構(gòu)性變革,將會引發(fā)“大多數(shù)利益受損”和“極少數(shù)權(quán)益被剝奪”問題。有多項研究顯示,超過50%的現(xiàn)有工作崗位最終將完全被自動化和機器人替代①,而如何治理人工智能帶來的就業(yè)問題,則亟需人類的理性策略。

最后,具有技術(shù)非人化。從本源看,技術(shù)是人性與物性的自洽。劉同舫教授認(rèn)為,技術(shù)的人性是人的能動性和目的性的外化,而物性則表現(xiàn)為任何技術(shù)的產(chǎn)生、發(fā)展都不能脫離具有客觀實在性的自然物,不能違背自然規(guī)律。〔22〕人工智能技術(shù)作為人類科技史的高新技術(shù),在經(jīng)歷機械智能到弱人工智能再到強人工智能之后,將會達到技術(shù)奇點②。這種階段提升過程預(yù)示人工智能從機械思維到智能自主的“華麗變身”,其本質(zhì)是人工智能技術(shù)逐漸脫離技術(shù)的人性與物性特征,并成為具有獨立自主的非人性力量。在奇點時代,人工智能將無視其“人性”和“物性”的質(zhì)性規(guī)定性,而解構(gòu)其內(nèi)在統(tǒng)一性,被視為人類的強勢對手,而“人的生理能力因技術(shù)的替代而退化,人的精神能力因依附于技術(shù)而受到技術(shù)的控制和折磨”〔23〕,人類自身最終反倒為技術(shù)物化,淪為技術(shù)的附庸。這是人工智能技術(shù)對人類的最為根本性的危害。

我們承認(rèn),當(dāng)人類步入現(xiàn)代性時,就隱喻走進了險象叢生的風(fēng)險世界。人類中心主義思潮主導(dǎo)著人類對技術(shù)的無限追求,并自詡為“人類是萬物的尺度”,宣稱人類理性能夠駕馭技術(shù)的工具性,能杜絕技術(shù)之于人類社會的潛在副作用。其實不然,人工智能的技術(shù)風(fēng)險已展現(xiàn)出超越人類理性的認(rèn)知邊界,這決定人工智能風(fēng)險是風(fēng)險社會的一類嚴(yán)峻風(fēng)險情形,同時也強化審視人工智能風(fēng)險必須成為人類社會的重要議題。

三、技術(shù)與風(fēng)險:人工智能風(fēng)險的因果

在人工智能時代,世人享受著智能化所帶來的物質(zhì)便利與精神陶冶,然而,任何技術(shù)都是兩面性的,當(dāng)我們浸淫于算法程序所設(shè)定的技術(shù)世界時,我們?nèi)菀酌允ё晕遥鼌s人類最為本真的人性價值,而將其讓渡于機器智能,致使在個體身心、社會秩序乃至人類命運出現(xiàn)深度風(fēng)險。斯蒂芬·霍金(Stephen William Hawking)曾說:“人工智能之于人類,可能是最好的事情,也可能是會終結(jié)人類的最壞事情”,同時“我們不能把飛機失事歸結(jié)于萬有引力;同樣,不能把人類毀滅歸罪為人工智能”。霍氏言辭表明辯證審視人工智能技術(shù)的重要性。我們認(rèn)為,人工智能風(fēng)險源于風(fēng)險技術(shù),而其果為技術(shù)風(fēng)險,兩者互為因果關(guān)聯(lián)。

(一)風(fēng)險技術(shù):人工智能的風(fēng)險因子

風(fēng)險技術(shù)指技術(shù)作為一種服務(wù)于主體的工具,具有自身的結(jié)構(gòu)性缺陷。就表現(xiàn)形式而言,風(fēng)險技術(shù)誘發(fā)人工智能風(fēng)險主要通過技術(shù)理性的認(rèn)知局限、人類自身的主觀利益、類人自主的它者欲望三個方面展開。

首先,技術(shù)理性的認(rèn)知局限。理性是技術(shù)的生存論基礎(chǔ),體現(xiàn)為合客觀性與合邏輯性的統(tǒng)一〔24〕,人類的技術(shù)認(rèn)知局限隱喻著對技術(shù)發(fā)展客觀性與邏輯性的有限掌握與階段體悟。換言之,人類無法憑借自身的認(rèn)知維度去窮盡技術(shù)的內(nèi)涵邊界,對于技術(shù)迭代升級的追求只能限定在人類的有限理性之中。現(xiàn)階段因人工智能技術(shù)的不成熟性所導(dǎo)致的安全風(fēng)險比比皆是,這些風(fēng)險可能源于算法不可解釋性、數(shù)據(jù)強依賴性等單向或復(fù)合的技術(shù)局限性問題。但是人類按照目前的知識儲備,難以科學(xué)辨識其根源,導(dǎo)致人工智能技術(shù)的研發(fā)與應(yīng)用充滿了“試錯”風(fēng)險。超強算法是人工智能技術(shù)的核心要件,但是逆向攻擊可導(dǎo)致算法模型內(nèi)部的數(shù)據(jù)泄露;算法設(shè)計或?qū)嵤┯姓`可產(chǎn)生與預(yù)期不符甚至傷害性結(jié)果;算法黑箱導(dǎo)致人工智能決策不可解釋,引發(fā)監(jiān)督審查困境;對抗樣本攻擊可誘使算法識別出現(xiàn)誤判漏判,產(chǎn)生錯誤結(jié)果。①例如,2018 年 3 月,Uber 自動駕駛汽車因機器視覺系統(tǒng)未及時識別出路上突然出現(xiàn)的行人,導(dǎo)致與行人相撞致人死亡。對于算法的程序構(gòu)造及其具體運算過程,人類目前尚未找到有效的解決途徑,這在一定程度上反映了人類對技術(shù)知識的認(rèn)知局限。

其次,人類自身的主觀利益。人工智能技術(shù)的飛速更新,并非僅僅是人類對技術(shù)的好奇心,而是夾著更多的資本與利益訴求。一方面高新技術(shù)企業(yè)是追求人工智能技術(shù)的主要動力源,通過研發(fā)、推廣、運用智能技術(shù)得以迅速占據(jù)技術(shù)市場。蘋果公司、Facebook、Google、IBM、華為、阿里巴巴以及騰訊等公司都將發(fā)展人工智能技術(shù)作為公司首要戰(zhàn)略,在研發(fā)經(jīng)費、人才引進等方面加大投入以贏得比較優(yōu)勢,企及獲取更為優(yōu)厚的經(jīng)濟效益。據(jù)CB Insights2017年發(fā)布的《人工智能狀況》顯示,人工智能公司的股價在最近的5年中上漲了5倍,相關(guān)投資也從2012年的5.59億美元暴增至2016年的48.71億美元〔25〕。這表明人工智能的技術(shù)利益“大戰(zhàn)”已經(jīng)開始拉開。另一方面,世界主要發(fā)達國家高度重視人工智能發(fā)展,將其視為國家未來拓殖的重要戰(zhàn)略空間。2014年以來美國、英國、歐盟、日本等國家密集發(fā)布人工智能相關(guān)的國家戰(zhàn)略,并單列財政經(jīng)費支持。美國是世界上第一個將人工智能發(fā)展上升到國家層面的國家,人工智能戰(zhàn)略規(guī)劃被視為美國新的阿波羅登月計劃。2016年 10月,美國總統(tǒng)辦公室連續(xù)發(fā)布《國家人工智能發(fā)展與研究戰(zhàn)略計劃》和《為人工智能的未來做好準(zhǔn)備》兩份人工智能發(fā)展戰(zhàn)略,提出美國扶持人工智能研發(fā)的七項戰(zhàn)略與二十三條建議。同年11月,美國白宮發(fā)布《人工智能、自動化與經(jīng)濟》報告,2018年3月和9月白宮又分別發(fā)布《美國國家機器智能戰(zhàn)略報告》和《機器崛起:人工智能及對美國政策不斷增長的影響》,2019年2月美國國家科技政策辦公室發(fā)布《美國人工智能倡議》。英國通過《2020年發(fā)展戰(zhàn)略》加速人工智能研發(fā);歐盟2014年啟動全球最大的民用機器人研發(fā)計劃“SPARC”;日本政府在2015年制定《日本機器人戰(zhàn)略:愿景、戰(zhàn)略、行動計劃》促進人工智能發(fā)展。由此可知,人工智能發(fā)展已經(jīng)成為人類社會發(fā)展的新一輪技術(shù)海嘯,無論是國家權(quán)力主體,還是企業(yè)組織都試圖獲取人工智能的技術(shù)紅利,體現(xiàn)了人類的利益至上性。

最后,類人自主的它者欲望。一方面人類受制于技術(shù)魅惑,退化為單向度的人。美國學(xué)者尼古拉斯·尼葛洛龐帝在20世紀(jì)90年代提出“數(shù)字化生存”術(shù)語,表達對信息技術(shù)發(fā)展未來的一種大膽預(yù)測,發(fā)出“技術(shù)推動的文明進步是好還是壞”的追問。其實,技術(shù)是客觀性存在的且服務(wù)于人類的工具性手段,其無所謂好壞之分。只是,人類在運用技術(shù)改造社會的過程中,因逐漸讓渡自身的主體性而失去生存的精神維度,最終導(dǎo)致技術(shù)異化為“主體”,人類反制于技術(shù)時,技術(shù)才被賦予否定性批判。“人得以宣傳自己是地球的主宰的那種技術(shù)展現(xiàn)給人帶來的不是偉大的自由和自身性,因為他如此嚴(yán)重地受到技術(shù)本質(zhì)的支配,以致他與事物和世界遭受同一命運:對事物的特性和自身性的毀滅和消滅已經(jīng)向人進行報應(yīng),并殘酷地以同樣喪失其獨立性,以人的本質(zhì)的喪失而為自己報了仇”〔26〕。馬爾庫塞(Herbert Marcuse)更為悲觀地批判技術(shù)魅惑,“機器本身變成了機械工具和關(guān)系的體系,并因此而遠遠超過了個別勞動過程,人類生產(chǎn)者受到機器的支配成為機器的附屬物”〔27〕。可以說,數(shù)字化生存時代,技術(shù)的解放力量成為解放的桎梏,造成的直接后果是社會變成單向度的社會,而人類成為單向度的人。這是智能技術(shù)對人類及其社會發(fā)動的首輪“戰(zhàn)爭”,而人類的社會性防線在數(shù)字化時代所構(gòu)建的算法邊界中失守了。另一方面,智能體已不再是人類的工具,而是具有獨立性和自主性的它者存在,并在與人類的時空競爭中建構(gòu)智能體的統(tǒng)治權(quán)。維納(N.Winener)認(rèn)為,“機器能夠并肯定會超越他們的設(shè)計者的某些局限性,并且當(dāng)機器實現(xiàn)時,他們可能既是高效的又是危險的”〔28〕。維納的觀點強調(diào)人工智能與人類之間存在不可調(diào)和的矛盾,人工智能發(fā)展的終結(jié),將會是技術(shù)反制人類,“機械作為人類與自然斗爭的工具將最終支配人類、人類有可能成為機械的奴隸”〔29〕。當(dāng)人工智能的自主性逐漸增強時,人類與機器脫鉤的風(fēng)險也正在成型,這決定了人類審視人工智能風(fēng)險后果的必要性。

(二)技術(shù)風(fēng)險:人工智能的風(fēng)險后果

馬基雅維利(Niccolò Machiavelli)曾指出:“誰渴望預(yù)見未來,就必須征詢過去,因為人類的事物從來都是與過往的時代類似”,究其根本在于“無論過去,還是未來,人類都被同樣的熱情激勵。結(jié)果就是,每個時代都存在同樣的問題”〔30〕。1811年至1816年間的英國“盧德運動”(Luddite Movement)就是這種社會問題的一個例證。在“盧德運動”中,工人以破壞機器等物質(zhì)層面的舉動來表達對技術(shù)進步的內(nèi)心憂慮與生存抗?fàn)帯H斯ぶ悄茏鳛樾乱惠喌募夹g(shù)形態(tài),其危害程度更甚于以往任何時代的技術(shù)革命對人類的影響。總體看,技術(shù)的不確定性及其根源的社會性,催生人工智能的風(fēng)險性,導(dǎo)致人工智能風(fēng)險后果的廣博性與動態(tài)性。

一方面,從風(fēng)險涉及面看,由于技術(shù)應(yīng)用的廣泛性,人工智能將帶來沖擊網(wǎng)絡(luò)安全、社會就業(yè)、法律倫理等問題,并對國家政治、經(jīng)濟和社會安全帶來諸多風(fēng)險和挑戰(zhàn)。以人工智能引發(fā)的政治風(fēng)險為例,人工智能算法逐漸嵌入民主政治架構(gòu)中,給政治價值和政治管理以革命性的變革。從技術(shù)哲學(xué)的角度看,算法作為一種運算能力,根植于“客觀實體”內(nèi)部,并依據(jù)“主體”的價值偏好、有限理性對外部世界做出決策判斷。我們認(rèn)為,人工智能算法失靈引致的政治風(fēng)險是指基于算法運作規(guī)則的人工智能體,由于自身內(nèi)在的算法偏見、算法自利、算法黑箱①等失靈問題,引發(fā)對政治正義、政治透明、政治公意等民主價值理念的沖擊、損毀乃至背棄,最終給政治系統(tǒng)的有效運行和人類社會發(fā)展加蓋了一層陰影。基于此,人工智能的政治風(fēng)險意味著算法失靈的政治風(fēng)險,預(yù)示技術(shù)理性對人文價值的撕裂,所帶來的后果將會是根本性、全局性和災(zāi)難性的。

與此相對應(yīng)的,美國人工智能研究專家Colin Garvey認(rèn)為人工智能除了引致政治風(fēng)險外,還存在軍事風(fēng)險、經(jīng)濟風(fēng)險、社會風(fēng)險、環(huán)境風(fēng)險、心理生理風(fēng)險以及精神風(fēng)險〔31〕。這些風(fēng)險并非單列存在,而是相互交織共生出技術(shù)風(fēng)險。Colin Garvey從人工智能的政治風(fēng)險角度,指出人工智能和大數(shù)據(jù)為精英們提供了前所未有的工具來操縱大眾的觀點〔32〕:例如2016年英國脫歐(Brexit)和美國唐納德·特朗普的當(dāng)選;新聞信息和搜索結(jié)果背后的人工智能導(dǎo)致了黨派隔離,將選民鎖在政黨所屬的回音室里;最終AI風(fēng)險鞏固和增強美國和其他地方的“后真相時代”的民主危機。同時,Colin Garvey也強調(diào),社會風(fēng)險會對人工生成的數(shù)據(jù)進行培訓(xùn)的人工智能系統(tǒng)再現(xiàn)了數(shù)據(jù)偏見的再生產(chǎn),〔33〕進一步強化對窮人、種族的社會歧視以及發(fā)展中國家的相對剝奪。

另一方面,從風(fēng)險產(chǎn)生的路徑看,人工智能風(fēng)險會經(jīng)歷從工具性風(fēng)險到價值性風(fēng)險的動態(tài)變遷。在《技術(shù)壟斷:文化向技術(shù)投降》一書中,尼爾·波斯曼(Neil Postman)通過思考技術(shù)對人類社會、文化和心理的影響,提出免于技術(shù)對文化造成傷害的具體建議。他認(rèn)為,人類技術(shù)的發(fā)展可分為工具使用、技術(shù)統(tǒng)治和技術(shù)壟斷三個階段,對應(yīng)的人類文化大致也可分為工具使用文化、技術(shù)統(tǒng)治文化和技術(shù)壟斷文化三種類型。在工具使用文化階段,技術(shù)服務(wù)、從屬于社會和文化;在技術(shù)統(tǒng)治文化階段,技術(shù)向文化發(fā)起攻擊,并試圖取而代之,但難以撼動文化;在技術(shù)壟斷文化階段,技術(shù)使信息泛濫成災(zāi),使傳統(tǒng)世界觀消失得無影無形,技術(shù)壟斷就是集權(quán)主義的技術(shù)統(tǒng)治〔34〕。尼爾·波斯曼技術(shù)與文明的演進邏輯對思考當(dāng)前人工智能之于人類社會的影響具有啟發(fā)價值。以整體發(fā)展階段的檢視,人工智能可劃分為“弱人工智能、強人工智能和超人工智能三個階段。弱人工智能擅長于在特定領(lǐng)域、有限規(guī)則內(nèi)模擬和延伸人的智能;強人工智能具有意識、自我和創(chuàng)新思維,能夠進行思考、計劃、解決問題、抽象思維、理解復(fù)雜理念、快速學(xué)習(xí)和從經(jīng)驗中學(xué)習(xí)等人類級別智能的工作;超人工智能是在所有領(lǐng)域都大幅超越人類智能的機器智能”②。換言之,就弱人工智能而言,計算機在心靈研究中的主要價值是為我們提供一個強有力的工具,是人類改造自然和社會的人化力量;就強人工智能(或超人工智能)而言,計算機不只是研究心靈的工具,更確切地說,帶有正確程序的計算機其實就是一個心靈,已經(jīng)具備了機器自主性意識。〔35〕

這三個階段的技術(shù)轉(zhuǎn)換,潛藏著工具性風(fēng)險與價值性的風(fēng)險形態(tài)。在弱人工智能階段,技術(shù)風(fēng)險以工具屬性而出現(xiàn),是一種現(xiàn)實性的風(fēng)險情形,屬于人類可控的風(fēng)險范疇。隨著人類對智能技術(shù)的日益精深,工具層面的技術(shù)缺陷會被逐漸攻克,弱人工智能階段的工具性風(fēng)險會得到有效化解。然而在強(或超)人工智能階段,人工智能體作為具有獨立意識的“主體”而存在,將擺脫服務(wù)于人類的工具性行動模式,并與人類處于競爭狀態(tài),最終會誘發(fā)人工智能的工具性風(fēng)險升級為價值性風(fēng)險。在價值性風(fēng)險階段,人工智能體逐漸脫離“人類制造”的智能,異化為一種獨立人類的它者,有著自身的運作程式和生存機理,它們既不愿受制于阿西莫夫所規(guī)制的“機器人三定律”①,又可能以“自身”的“主體性”重構(gòu)智能體的它者秩序,與人類平分秋色,共享生存空間。這種智能體的價值性訴求,將會是人類有史以來最為嚴(yán)重的社會風(fēng)險。面對人工智能技術(shù)已然形成的社會問題與即將到來的技術(shù)風(fēng)險,人類如何因應(yīng),是選擇鴕鳥心態(tài),聽之任之,還是主動迎擊,展現(xiàn)造物主之擔(dān)當(dāng)?人類必須有所抉擇。

四、科技向善:人工智能風(fēng)險的化解思考

2018年10月31日,習(xí)近平總書記在中共政治局集體學(xué)習(xí)會議上強調(diào):“要加強人工智能發(fā)展的潛在風(fēng)險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控”。為此,我們認(rèn)為規(guī)避人工智能風(fēng)險必須經(jīng)由技術(shù)自身的發(fā)展邏輯然后達于人自身,通過更新人文治理理念、健全治理結(jié)構(gòu)、優(yōu)化治理工具等面向圈定技術(shù)發(fā)展邊界,最終堅守“在技術(shù)發(fā)展面前維護人類尊嚴(yán)的底線”〔36〕。

(一)在治理理念上:審視人工智能迭代中技術(shù)邊界與人類底線的關(guān)聯(lián)性

技術(shù)邊界標(biāo)識技術(shù)作為工具性存在的質(zhì)的規(guī)定,體現(xiàn)為技術(shù)功能的有限和極限,人類底線則指人相對于自然法則而存在的人的主體性,以及作為人的精神特質(zhì)和精神生活而顯現(xiàn)的人的精神維度〔37〕。人類底線是人之為人的最低標(biāo)準(zhǔn),是人類區(qū)別于其他自然物種的根本屬性,而技術(shù)邊界體現(xiàn)了人類發(fā)揮主體性改造自然和社會關(guān)系的工具性能力,也歸屬于人類能夠駕馭的技術(shù)理性范疇。人類的底線為合理追求技術(shù)圈定了有效邊界。在技術(shù)邊界之內(nèi),人類可以憑借理性判斷維系正常的秩序空間與人類生存,而技術(shù)因滿足了人類需求而得以更新發(fā)展。人的底線思維標(biāo)識人類價值存在的基礎(chǔ)性要件,也是處理人與技術(shù)關(guān)系的最低尺度。在人工智能技術(shù)廣泛運用于人類社會時,這種底線維度不能喪失或淪陷,而必須得到應(yīng)有的重視與強化。原因在于人的主體性與技術(shù)的工具性。人類為了維護社會發(fā)展目的,必然要制造、使用工具,以釋放人類自身的生理局限,這是主體的人類之于工具性的要求。反之,如果人類喪失了底線思維,工具或技術(shù)成為主體,人類反制于技術(shù),則表明人性的泯滅與社會秩序瓦解,會衍生出系列社會風(fēng)險。因此,強化人的底線思維與審視技術(shù)發(fā)展的邊界是今后人工智能技術(shù)推廣應(yīng)有的重要議題。

(二)在治理結(jié)構(gòu)上:構(gòu)筑人工智能風(fēng)險化解的協(xié)同治理格局

人工智能風(fēng)險的生成源于技術(shù)的客觀性缺陷與人類的主觀性動機,是高端技術(shù)嵌入人類社會系統(tǒng)的不確定性后果,這決定人工智能風(fēng)險治理是政府、科學(xué)共同體、公民社會共同所面臨的亟待合作治理才能化解的一項艱巨任務(wù)。其一,在傳統(tǒng)治理模式中,政府作為風(fēng)險社會的危機應(yīng)對主體,擁有化解技術(shù)風(fēng)險的資源優(yōu)勢,然而,由于人工智能的高端技術(shù)性與不確定性,其所衍生的技術(shù)風(fēng)險更為復(fù)雜性、多樣性、嚴(yán)重性,致使單憑政府一己之力難以有效規(guī)制風(fēng)險。其二,“科技風(fēng)險具有無法預(yù)知性,科學(xué)共同體難以保持技術(shù)中立的立場去提供客觀可靠的知識,各治理主體已經(jīng)不能單純依靠技術(shù)專家的建議展開治理實踐”〔38〕。其三,風(fēng)險具有建構(gòu)性,是社會公眾基于所處時代環(huán)境與文化的前瞻性判斷,然而在人工智能所引領(lǐng)的時代中,社會公民由于無法獲取類似于政府或高端技術(shù)企業(yè)的知識優(yōu)勢,在風(fēng)險感知與建構(gòu)上缺少話語表達權(quán),將加劇人類風(fēng)險治理的難度。這三類主體化解技術(shù)風(fēng)險的能力缺陷,致使人類社會進入了科林格里奇困境①。改變這種困境的可能路徑建要通過構(gòu)建一種良性互動、橫縱聯(lián)通的協(xié)同共治機制。人工智能風(fēng)險的協(xié)同治理機制涵蓋政府組織、非政府組織、專家團體以及公眾等多元主體。這種治理機制可以“利用各自優(yōu)勢而逐漸組成技術(shù)治理的決策權(quán)威聯(lián)盟”〔39〕以克服“沒有任何一個機構(gòu)能夠提供支撐決策的全部知識”〔40〕的決策難題,而且“整個決策過程可由共同行動對象網(wǎng)絡(luò)代替等級關(guān)系領(lǐng)導(dǎo)來完成”〔41〕,最終實現(xiàn)政府單一治理體系向多元主體協(xié)同共治的模式轉(zhuǎn)變。從協(xié)同方式看,人工智能治理風(fēng)險的協(xié)同治理機制在于打破傳統(tǒng)風(fēng)險治理的命令——控制模式,倡導(dǎo)政府與非政府組織、公民等利益主體之間的民主協(xié)商與平等互動網(wǎng)絡(luò),構(gòu)建“主體間默契配合、井然有序的自發(fā)和自組織集體行動過程,通過集體的自組織行為實現(xiàn)社會治理資源配置效用最大化和社會系統(tǒng)整體功能的提升”〔42〕,進而促進人工智能風(fēng)險的有效治理。

(三)在治理工具上:優(yōu)化人工智能風(fēng)險治理的多樣載體

公共政策學(xué)認(rèn)為,治理工具是政策主體依治理形勢所采納使用而促使政策共識落地,并轉(zhuǎn)化為治理目標(biāo)的中介手段與途徑。在人工智能風(fēng)險化解中,治理工具一般涵蓋“國家科技規(guī)劃、行政法規(guī)、財政資金與基礎(chǔ)設(shè)施等為代表的政府性工具,也有價值敏感性設(shè)計、社會技術(shù)愿景、建構(gòu)性因素評估、監(jiān)管式自治、技術(shù)利基等科學(xué)共同體為主導(dǎo)的治理工具,還有公民社會通過非正式或經(jīng)政府授權(quán)或賦權(quán)的治理工具”〔43〕三類。總體看,政府、科技共同體、公民社會的三類主體所設(shè)計與選用的工具呈現(xiàn)出剛性與柔性之特色,僅憑單一類治理工具難以實現(xiàn)人工智能風(fēng)險的治理目標(biāo),需要通過優(yōu)化、整合多樣化的治理工具,才能發(fā)揮人工智能風(fēng)險治理的最優(yōu)效能。其一,就政府主體而言,人工智能風(fēng)險治理需要堅持多層級立法互補原則適時出臺相關(guān)法律體系。在國家層面對民事商事法、行政法、刑法、經(jīng)濟法等現(xiàn)行法律制度進行修訂,使之適應(yīng)人工智能的發(fā)展需要;在中間層面,要通過國務(wù)院行政法規(guī)項目推動制定“機器人使用安全管理條例”等;在地方性立法層面,要出臺人工智能在政務(wù)、家居、醫(yī)療衛(wèi)生等領(lǐng)域的應(yīng)用發(fā)展與風(fēng)險防治②等具體地方性規(guī)章。其二,要提升科技共同體的行業(yè)倫理建設(shè),增強人工智能風(fēng)險化解的可操作性。2019年6月17日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出人工智能治理的框架和行動指南,強調(diào)和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等八條原則。這些原則有助于治理人工智能發(fā)展過程中的有限理性、利益導(dǎo)向以及防范類人主體性,然而由于這些原則多屬于抽象性、概括性、原則性的話語表述,對人工智能風(fēng)險的治理是否帶有實踐層面的價值則有待實際檢驗。今后需要從操作層面上,制定防范人工智能風(fēng)險的管治策略。其三,要加強人工智能技術(shù)知識的普及度,提升公民個體對人工智能風(fēng)險的感知能力與化解能力。上文已從風(fēng)險涉及面,談及人工智能將會沖擊網(wǎng)絡(luò)安全、社會就業(yè)、法律倫理等問題,同時從風(fēng)險產(chǎn)生路徑,分析人工智能風(fēng)險從工具性到價值性的階段躍遷。這兩個層面的認(rèn)知超出了社會公民的一般風(fēng)險感知能力,長此以往將會造成人類對人工智能風(fēng)險的內(nèi)心焦慮與心智失序,而這需要在政府關(guān)于人工智能風(fēng)險知識的系統(tǒng)化普及和制度性救濟,構(gòu)筑社會公民對人工智能風(fēng)險的理性認(rèn)知。通過優(yōu)化、組合政府組織的立法、科技行業(yè)的倫理自律、社會公民的風(fēng)險感知等多樣治理工具,方能在發(fā)展人工智能技術(shù)的同時,有效規(guī)制人工智能附加于人類的技術(shù)風(fēng)險。

人工智能風(fēng)險是因人工智能技術(shù)的不確定性所誘發(fā)的對人類經(jīng)濟結(jié)構(gòu)、社會秩序、倫理道德乃至生存安全等方面的可能性后果。風(fēng)險技術(shù)即技術(shù)缺陷,技術(shù)風(fēng)險即技術(shù)后果,兩者互為因果共筑人工智能風(fēng)險的客觀現(xiàn)實性、主觀建構(gòu)性、技術(shù)非人性等特征,致使人工智能風(fēng)險成為風(fēng)險社會的一種新的風(fēng)險類型。同時,人類在推動人工智能邁向風(fēng)險社會的叢林中,裹挾著資本與權(quán)力的合謀、技術(shù)人性與物性的撕裂以及人類有限理性與無限欲望的悖論,這是人類社會必須解決的時代議題。雖然我們不可能像盧梭所提倡的那樣,返回到原始的、未經(jīng)文明“污染”的狀態(tài),從而完全放棄和拒絕技術(shù),但是我們可以通過更新人文治理理念、構(gòu)建協(xié)同治理機制、優(yōu)化多樣治理工具等途徑,并以詩意化方式對待技術(shù)與人類的關(guān)系,進而有效規(guī)避人工智能風(fēng)險,最終實現(xiàn)人之為人的本性追求。

〔參考文獻〕

〔1〕 劉盾,劉健,徐東波.風(fēng)險預(yù)測與憂患深思:人工智能對教育發(fā)展的沖擊與變革——哲學(xué)與倫理的思考〔J〕.高教探索,2019,(7).

〔2〕 馬長山.人工智能的社會風(fēng)險及其法律規(guī)制〔J〕.法律科學(xué)(西北政法大學(xué)學(xué)報),2018,(6).

〔3〕 張凌寒.風(fēng)險防范下算法的監(jiān)管路徑研究〔J〕.交大法學(xué),2018,(4).

〔4〕 熊波.人工智能刑事風(fēng)險的樣態(tài)評價與規(guī)制理念〔J〕.探索與爭鳴,2019,(5).

〔5〕 姚萬勤.對通過新增罪名應(yīng)對人工智能風(fēng)險的質(zhì)疑〔J〕.當(dāng)代法學(xué),2019,(3).

〔6〕 王燕玲,韓蓄.人工智能體的刑事風(fēng)險與應(yīng)對措施〔J〕.學(xué)習(xí)與實踐,2019,(3).

〔7〕 〔英〕維克托·邁爾·舍恩伯格,肯尼思·庫克耶.大數(shù)據(jù)時代:生活、工作與思維的大變革〔M〕.盛楊燕,周濤譯.杭州:浙江人民出版社,2018.193.

〔8〕 閆坤如,馬少卿.人工智能倫理問題及其規(guī)約之徑〔J〕.東北大學(xué)學(xué)報(社會科學(xué)版),2018,(4).

〔9〕 張學(xué)博.人工智能的憲制想象——從歷史的觀點切入〔J〕.理論視野,2018,(5).

〔10〕 萬昆.人工智能技術(shù)帶來的就業(yè)風(fēng)險及教育因應(yīng)〔J〕.廣西社會科學(xué),2019,(6).

〔11〕 李穎.人工智能時代技術(shù)進步對就業(yè)影響的研究述評〔J〕.黨政研究,2019,(4).

〔12〕 高奇琦.人工智能時代發(fā)展中國家的“邊緣化風(fēng)險”與中國使命〔J〕.國際觀察,2018,(4).

〔13〕 王小芳,王磊.“技術(shù)利維坦”:人工智能嵌入社會治理的潛在風(fēng)險與政府應(yīng)對〔J〕.電子政務(wù),2019,(5).

〔14〕 唐鈞.人工智能的風(fēng)險善治研究〔J〕.中國行政管理,2019,(4).

〔15〕〔17〕 〔英〕安東尼·吉登斯.現(xiàn)代性的后果〔M〕.田禾譯.南京:譯林出版社,2004.115,52.

〔16〕 〔法〕烏爾里希·貝克,〔英〕安東尼·吉登斯,〔英〕斯科特·拉什.自反性現(xiàn)代化〔M〕.趙文書譯.北京:商務(wù)印書館,2001.5.

〔18〕 〔法〕烏爾里希·貝克.風(fēng)險社會政治學(xué)〔J〕.劉寧寧,沈天霄編譯.馬克思主義與現(xiàn)實,2005,(3).

〔19〕 James Barrat.2013.Our Final Invention: Artificial Intelligence and the End of the Human Era. Thomas Dunne Books, New York.

〔20〕 劉紅波,林彬.中國人工智能發(fā)展的價值取向、議題建構(gòu)與路徑選擇——基于政策文本的量化研究〔J〕.電子政務(wù),2018,(11).

〔21〕 Yampolskiy R V, Spellchecker M S.Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures〔J〕.2016.

〔22〕〔23〕〔37〕 劉同舫.技術(shù)的當(dāng)代哲學(xué)視野〔M〕.北京:人民出版社,2017.7,10,5-6.

〔24〕 Yampolskiy R V, Spellchecker M S.Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures〔J〕.2016,16-17.

〔25〕 高奇琦.人工智能:馴服賽維坦〔M〕.上海:上海交通大學(xué)出版社,2018.190.

〔26〕 〔德〕岡特·紹伊博爾德.海德格爾分析新時代的技術(shù)〔M〕.宋祖良譯.北京:中國社會科學(xué)出版社,1993.207.

〔27〕 〔美〕赫伯特·馬爾庫賽.單向度的人〔M〕.張峰,等譯.重慶:重慶出版社,1988.25.

〔28〕 N.Wiener.Some moral and technical consequences of automation,Science,Vol.3410(1960).

〔29〕 A.M.Olson.Review:Jaspers,Heideffer,and‘The Phantom of Exitentialism,Human Studies,Vol.7,1984(3/4):387-395.

〔30〕 〔南非〕伊恩·戈爾丁,〔加〕克里斯·柯塔納.發(fā)現(xiàn)的時代:21世紀(jì)風(fēng)險指南〔M〕.李果譯.北京:中信出版社,2017.53.

〔31〕 Colin Garvey.AI Risk Mitigation Through Democratic Governance:Introducing the 7-Dimensional AI Risk Horizon.AIES18,F(xiàn)ebruary 2-3,2018,New Orleans,LA, USA.https://doi.org/10.1145/3278721.3278801.

〔32〕 Cathy ONeil.2016.Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy.Broadway Books,New York.

〔33〕 Aylin Caliskan,Joanna J.Bryson,and Arvind Narayanan.2017.Semantics Derived Automatically from Language Corpora Contain Human-like Biases.Science 356(6334),183-186.

〔34〕 〔美〕尼爾·波茲曼.技術(shù)壟斷:文明向技術(shù)投降〔M〕.北京:機械工業(yè)出版社,2013.

〔35〕 廉師友.人工智能技術(shù)導(dǎo)論〔M〕.西安:西安電子科技大學(xué)出版社,2000.1.

〔36〕 田海平,鄭春林.人工智能時代的道德:讓算法遵循“善法”〔J〕.東南大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2019,(5).

〔38〕 Kathrin Braun,Cordula Kropp.Beyond Speaking Truth: Institutional responses to Uncertainty in Scientific Governance〔J〕.Science,Technology & Human Values,2010,35(6):771-782.

〔39〕 譚九生,楊建武.人工智能技術(shù)的倫理風(fēng)險及其協(xié)同治理〔J〕.中國行政管理,2019,(10).

〔40〕 Newman J. Modernising Governance. London:SAGA,2001.

〔41〕 Bache J. Governing Through Governance: Education Policy Control Under New Labour.Political Studies,2003,52(2).

〔42〕 范如國.復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)范型下的社會治理協(xié)同創(chuàng)新〔J〕.中國社會科學(xué),2014,(4).

〔43〕 朱本用,陳喜樂.試論科技治理的柔性模式〔J〕.自然辨證法研究,2019,(10).

【責(zé)任編輯:朱鳳霞】

猜你喜歡
人工智能
我校新增“人工智能”本科專業(yè)
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當(dāng)人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業(yè)
基于人工智能的電力系統(tǒng)自動化控制
人工智能,來了
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
主站蜘蛛池模板: 欧美成人综合视频| 狠狠综合久久| 激情六月丁香婷婷| 亚洲免费人成影院| 精品一区二区三区四区五区| 性欧美在线| 天天综合色网| 91系列在线观看| 色欲色欲久久综合网| 日韩在线影院| 亚洲国产成熟视频在线多多| 国产成a人片在线播放| 91精品国产自产91精品资源| 日韩不卡高清视频| 欧美午夜久久| 激情综合图区| 在线亚洲精品自拍| 成人另类稀缺在线观看| 亚洲精品黄| 国产欧美日韩va另类在线播放| 高清国产在线| 国产三级成人| 亚洲Av激情网五月天| 色哟哟国产成人精品| 国产精品手机在线观看你懂的| 国产成人福利在线| 国产欧美视频在线| 国产在线观看成人91| 日韩一区二区三免费高清| 欧美不卡在线视频| 久久亚洲国产一区二区| 国产成人综合网| 一区二区在线视频免费观看| av大片在线无码免费| 成人毛片在线播放| 亚洲精品动漫在线观看| 欧美日韩在线亚洲国产人| 综合色婷婷| 国产精品午夜电影| 在线免费不卡视频| 国产精品成人免费综合| 国产亚洲视频免费播放| 日本亚洲成高清一区二区三区| 制服丝袜国产精品| 国产大全韩国亚洲一区二区三区| lhav亚洲精品| 91久久精品国产| 57pao国产成视频免费播放| 亚洲天堂网在线播放| 日本一区二区不卡视频| 国产女同自拍视频| 22sihu国产精品视频影视资讯| 欧美影院久久| 亚欧美国产综合| 天堂成人在线| 成年人视频一区二区| 国产高颜值露脸在线观看| 一区二区三区在线不卡免费| 91精品久久久无码中文字幕vr| 免费看美女自慰的网站| 高清色本在线www| 婷婷激情亚洲| 国产主播喷水| 久久这里只有精品国产99| 99久久精品免费视频| 国产最新无码专区在线| 亚洲精品国偷自产在线91正片| 成人在线观看不卡| 日韩天堂在线观看| 国产喷水视频| 日本色综合网| 中文字幕无线码一区| hezyo加勒比一区二区三区| 免费国产一级 片内射老| 无码国内精品人妻少妇蜜桃视频| 亚洲视频四区| 日韩视频免费| 热re99久久精品国99热| 欧美国产精品不卡在线观看| 亚洲高清中文字幕| 久久久久人妻一区精品色奶水 | 国产视频一区二区在线观看|