999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

可信任:人工智能倫理未來圖景的一種有效描繪

2019-08-27 01:32:33閆宏秀
理論探索 2019年4期
關鍵詞:人工智能

〔摘要〕 可信任人工智能的構建發端于人對技術倫理旨趣的審度,可信任的存在邏輯在于人工智能創建了基于任務和基于目標信任得以產生的可能條件,并在與人類的交互之中呈現出某種關聯性的信任??尚湃稳斯ぶ悄軕谛湃芜吔缋迩宓那疤嵯?,兼顧技術倫理學的通用原則和人工智能自身的技術特性,在有效監督和對技術動態的發展與應用的審慎批判中,確保人工智能向善。反觀歐盟的“可信任人工智能的倫理框架”,其所闡述的技術與非技術兩個方面的構建路徑、判別標準為可信任人工智能實現提供了有效的實踐保障,但其對信任邊界問題的擱置或排除則使其有效性遭遇質疑。

〔關鍵詞〕 信任度,人工智能,倫理

〔中圖分類號〕N1?? ?〔文獻標識碼〕A〔文章編號〕1004-4175(2019)04-0038-05

人工智能倫理研究的本質是對人與技術關系的再度厘清與辨析。在人工智能的背景下,人與技術的關系是基于某種信任而形成的一種新型深度融合。這種信任是人與人工智能關系存在的前提條件。但這種信任除了傳統意義上的人際信任之外,還涉及人對人工智能以及人工智能系統間的信任。關于這種信任的哲學考察,可以借助信任的表征——可信任來進行。即通過可信任來解碼人與人工智能的關系,描繪人工智能倫理的未來圖景。但這種描繪是否有效呢?對此,本文將從倫理旨趣、存在邏輯、實現途徑三個方面,解析可信任人工智能何以可能,以推進人工智能向善。

一、可信任人工智能的倫理旨趣

對人工智能未來發展圖景的倫理描繪是基于人工智能技術的發展目標與倫理觀念的有機融合。因此,人工智能的倫理問題研究既應包括對現有倫理問題的哲學反思,也應涵蓋對技術未來發展的一種框定。這種反思與框定源自人類對技術倫理旨趣的審度。如,斯坦福大學“以人為中心的人工智能”(Human-Centered AI Initiative,簡稱HAI)研究計劃就是旨在通過多學科的攜手合作,導引人工智能造福人類,共筑人類美好未來 〔1 〕。易言之,該計劃的倫理目標通過技術追求人類福祉。歐盟委員會在其所發布的“可信任人工智能的倫理框架”(Ethics Guidelines For Trustworthy AI) 〔2 〕中,以追求人性和善、謀求人類福祉和自由的目標為導向,對人工智能信任機制建立的原則與路徑進行了詳細闡述,進而確??尚湃稳斯ぶ悄艿膶崿F。因此,該框架的出發點不是對人工智能的發展是否需要倫理進行探討,而是指向人工智能需要以何種倫理為框架,以及如何實現其倫理目標。

與“可信任人工智能的倫理框架草案”(Draft Ethics Guidelines For Trustworthy AI)相比,該框架關于可信任人工智能組成部分的界定由倫理和技術兩部分變為法律、倫理和技術三部分,且每個部分自身均為實現人工智能信任度的必要但非充分條件。即可信任人工智能應當是合乎法律的、合乎倫理的、且技術方面是穩健的。但鑒于法律部分在倫理和技術這兩個部分已經有某種程度的體現,且上述兩部分的全面實現也將超越現存的法律要求。因此,該框架的目標主要是為促進和確保人工智能的發展能合乎倫理,并為實現技術方面的穩健性提供指南 〔2 〕。從中可見,可信任人工智能的核心所在是倫理和技術,而倫理與技術并非是割裂開來的,技術具有反映與實現某種倫理旨趣的功能。如該框架所描述:其之所以可信任,是在于其“能通過產生新的財富、創造價值以及將福利最大化的方式來改善個體和群體的生活狀態。其能通過“促進經濟機會、社會機會以及政治機會的平等分布,來提升公民健康和福祉,進而構建公平的社會” 〔2 〕。

就可信任而言,吉登斯(Anthony Giddens)在其關于抽象體系中的信任解讀中,將可信任(trustworthiness)分為“建立在彼此熟悉的個人之見和基于很長時間了解,從而互相從對方的眼中看出可信度證據的個人之間” 〔3 〕73兩類。這兩類主要在于人與人之間,而“可信任人工智能的倫理框架”中所言的可信任已經超出上述兩類,將可信任延伸到了技術之中。這種延伸一方面體現了基于主客體二元對立的視角,由作為主體的人對作為客體的技術所進行的信任度預判;另一方面則體現了新技術所蘊含的能動性對傳統信任產生的條件、語境等的沖擊。依據弗洛里迪(Luciano Floridi)和桑德斯(Jeff W. Sanders)關于人工道德行動者的判別標準 ①,面對諸如自動駕駛等對人類行為所產生的助推、導引、甚至規約與牽制等現象,人工智能已經呈現出行動者所應具有的諸多特質,并和人一樣參與到道德的構建之中。

反觀該框架所言的“可信任人工智能”,其包括人對技術的態度和技術本身的可信任兩個維度。其中,技術自身的可信任,即技術的穩健性既是獲得人對其信任的技術保障,也是人對其發展目標的預設。易言之,在人類對技術進行信任度評判的同時,技術也在進行信任度的構建。因此,可信任是人類對人工智能發展旨趣的倫理訴求,也是其本身所應遵循的倫理原則。

毫無疑問,可信任人工智能的構建發端于人對技術倫理旨趣的審度,但技術的能動性又將人類的倫理旨趣與技術自身的發展邏輯關聯在一起。如果說卡普的器官投影說是將技術與人之間進行了物化層面的關聯,那么,伴隨新興技術的涌現,這種關聯已經不僅僅是將人的功能進行了物質性的外化,而是走向了技術對人的嵌入式內化,并出現了主體客體化與客體主體化的跡象。如果說對技術價值中立說的質疑揭示出了技術與倫理之間的內在關聯性,那么,將技術道德化的嘗試則是基于技術能動性而走向技術對倫理的塑型與構建;倫理輔助性設計的出現則意味著人類的倫理觀念已經被嵌入到具體的技術實踐之中。

當下智能體、深度學習、人機融合等的發展,使得人類社會的泛智能化日趨普遍,人與技術的關聯也日趨內化。這種內化體現為技術越來越逼近人的本質。也正是在這種內化的過程中,人作為“技術性與價值性二重本質的共在” 〔4 〕94。在人與技術共在的語境中人自身的本質與技術的本質進行著倫理維度的構連。這種構連表現為人對技術的倫理審視與技術對人類倫理觀念的調節兩個方面。但無論是這種構連的哪個方面,都涉及人對技術的信任度。然而,無條件的懷疑與無條件的信任一樣都不是人與技術共同應有的合理方式。

雖然“對人工智能的倫理反思可以用于不同的目的。首先,能激發對個人和群體的最基本層級需求的反思;其次,有助于激發產生實現某種倫理價值觀的新型創新方式” 〔2 〕,但該框架重點在于上述第一個目的,即面對人工智能所蘊含的巨大技術潛能及其對人類社會的深度影響,該框架以對人類需求的厘清為切入點,基于以人為中心的視角,力圖規避與預防技術風險,謀求技術為人類所能帶來的最大福祉,并確保其為人類服務的倫理旨趣來構建可信任人工智能。

二、可信任人工智能的存在邏輯及其合理性

對可信任人工智能的存在邏輯及其合理性的解析,首先需要對人工智能信任的合理性展開探討。若對其信任是不合理的,則其可信任性也就無從談起,可信任人工智能倫理框架的構建也將是無意義的。而對其信任是否合理的追問,則需要先對其何以產生進行考察。因為如果沒有產生信任人工智能的語境,對其信任的探討也就不存在。

(一)人工智能信任的語境。從產生的維度來看,傳統意義上的信任是委托者(人)與受托者(人)之間的某種關聯,其“產生于心理系統和社會體系影響的交互之中” 〔5 〕7,是“減少復雜性的一種有效方式” 〔5 〕9。事實上,信任的產生可以是目標導向性的,即A和B有一個共同的目標C,但A和B之間本來無信任可言,但鑒于C目標,A和B產生了某種信任,但這種信任并非是A認為B是值得信任的,或者B認為A是值得信任的;信任的產生也可以是任務導向性的,如A需要完成任務C,而B有完成任務C的能力,進而產生了A對B的某種信任,這種信任可以是A對B具有完成某種能力的信任,也可以是A對B的整體性信任。但無論是目標導向性還是任務導向性,信任所表達的是“一種態度,相信某人的行為或周圍的秩序復合自己的愿望。它可以表現為三種期待:對自然與社會的秩序性、對合作伙伴承擔的義務、對某角色的技術能力” 〔6 〕14。

在智能革命的背景下,人類對人工智能有所期待,且這些期待伴隨人工智能的發展已經在人類社會中逐步被現實化,并呈現出代替人類某些能力的趨勢。如基于人工智能系統的導航、自動識別、安防等的研發與應用。與此同時,人工智能以人類合作伙伴的形式參與到人類事物中,與人類共同承擔某種義務,完成某個任務。即人類對其承擔的義務有所期待。如基于人工智能系統的兒童看護、情感交流等的研發與應用等。因此,人工智能與人的深度融合提供了產生信任的語境,但上述這些現象是否可以被稱作是信任呢?

(二)人工智能信任的出場方式及其存在的判別依據。一般而言,信任的出現需要滿足如下三個條件:“(1)行動者(agent)之間的直接交互;(2)在交互環境中,有共同的規范和倫理價值觀;(3)參與交互的各個部分是可以識別的” 〔7 〕。但在新技術發展的背景下,非直接交互的信任出場,如電子信任。因此,應當重新審視信任存在的判別依據。塔迪歐(Mariarosaria Taddeo)在其關于電子信任的論述中,指出上述三個條件并不能成為數字環境中存在電子信任的障礙。因為在數字環境中,行動者之間的交互雖然并非都是直接的物理接觸,但卻真實存在,并可識別;在數字環境中,共同的規范和倫理價值觀由來自不同區域的不同文化形成 〔7 〕。同樣地,依據上述三個條件以及對電子信任的判別,在人工智能的環境中,人與人工智能之間的交互與數據環境中一樣,真實存在卻并非完全直接的物理式,且可識別;就共同的規范和倫理價值觀而言,阿西洛馬人工智能原則( The Asilomar AI Principle)、負責任人工智能的蒙特利爾宣言(The Montreal Declaration for Responsible AI)、人工智能合作組織原則(The Tenets of the Partnership on AI)等都是對此的響應。

因此,通過對信任出現條件的解析可得出:人工智能已經呈現了基于任務導向和目標導向的信任意蘊,雖然這與傳統意義上的信任以及電子信任的出現條件有所不同。但無論如何,當人工智能以(準)智能體的形式展現出其完成任務、實現目標的能力時,毫無疑問,一種策略性信任也隨之而至。這種源自人類對人工智能的期望,以及人類與人工智能的交互之中所產生的某種信任,恰恰也就是吉登斯所言的與知識體系、專家系統、抽象系統打交道的過程中所產生的信任。這種信任被解讀為“一個人或一個系統之可依賴性所持有的信心,在一系列給定的后果或事件中,這種信心表達了對誠實和他人的愛的信念,或者對抽象原則(技術性知識)之正確性的信念” 〔3 〕30。然而,這樣的信任是否是合理的呢?

(三)反思人工智能可信任存在的合理性。當人工智能創建了信任得以產生的可能條件,并在與人類的交互中呈現出某種關聯性的信任時,如果人類面對“在抽象體系的交匯口,連接非專業人士與信任關系的當面承諾,通常表現出明白無誤的可信任性與誠實性,并伴隨著一種‘習以為常或鎮定自如的態度” 〔3 〕74時,就意味著默認了技術信任的合理性。但事實并非一直如此,哲學一直在對此展開反思。

伴隨基于技術啟蒙與技術理性的現代性,“外界對科學和技術知識的態度又具有某種心理。這種矛盾心理居于所有信任關系——無論是抽象體系還是對個人的信任關系——的核心” 〔3 〕78。這種矛盾心理源自人類對技術的依賴以及對這種依賴的反思。如,在米切姆(Carl Mictham)關于古代懷疑論(懷疑技術)、啟蒙時代的樂觀主義(促進技術發展)和浪漫主義的焦慮(對技術的矛盾心理) 〔8 〕406這三種人與技術共在關系的分析中,對技術活動的不信任或不安的倫理方面 〔8 〕378一直貫穿其中;在海德格爾(Martin Heidegger)對技術與人類存在天命的鄉愁式解析中,人與世界的存在關系、人的存在語境均由技術來決定,所有的一切都變成了持存物,甚至人類連自身生命的本質也被交付給技術。在這種交付中,由技術對人類席卷而產生的對技術的無奈式被迫信任、以及對這種信任的質疑與破除均被裹挾其中;在伊德(Don Ihde)關于人、技術與世界四種關系的解讀中,如通過眼鏡、溫度計等對外部世界進行感知時,人與技術的融合或者世界與技術的融合是具身、詮釋、它異、背景等關系的前提條件。而這種融合需要基于人類對技術或技術產品予以某種信任才能形成,雖然信任度有所不同。

然而,從現實主義的視角來看,“自然賦予人類以無數的欲望和需要,而對于緩和這些需要,卻給了他以薄弱的手段” 〔9 〕521。因此,人必須依賴社會。社會以協作、分工、互助這三種方式對人的缺陷進行了補救。在這種補救中,技術作為人類需要的一種表征進入到對這些需要的緩和之中,并成為人類社會的一種必備品。因此,無論人類對技術的信任是否合理,技術已經成為人類在世的方式,并參與到了人類的事務之中。與此同時,對技術的某種信任也悄然而至。但這并不意味著技術必然是可信任的,也并不意味著對其的信任就是合理的,對其的哲學思考是徒然的。恰恰相反,對實然問題的思考是哲學的應有之義,且對這種既有現實的思考是通向應然性的一條有效進路。但與以往技術不同的是,人工智能對人類事物的參與是以可植入的方式進入到與人深度融合之中,其所呈現出的實然問題,與其說是亟需展開人類對技術信任問題反思,倒不如說是亟需展開人類對自身信任問題的反思。因為當我們說“可信任人工智能”包括人類對人工智能的信任和人類對自身的信任兩個方面時,事實上,這兩個方面歸根到底是人類對自身所制造產物是否可以有效應對的解答,即關于可信任人工智能實現途徑的探討。

三、可信任人工智能實現途徑的有效性與局限性

在歐盟的“可信任人工智能的倫理框架”中,信任視為人工智能發展的前提條件,但這種信任并不是機器的一種特性。事實上,信任不僅僅在于人工智能系統是合乎法律的、合乎倫理的和穩健的,還在于信任可被歸因到與人工智能全生命周期中相關的每個人和每個過程 〔2 〕。因此,對人工智能信任的考察應當走出外在主義的立場與批判主義的情結,走向倫理學的后思式批判功能與前思式導引功能有效整合,從內在主義與外在主義的融合之中,展開對可信任人工智能實現途徑探討。

反觀歐盟“可信任人工智能的倫理框架”的探討,其預設了兩個條件。一是,將可信任定位為人工智能未來發展的一種圖景。關于人工智能的不信任應當或被懸置或被排除。顯然,該框架在力圖將這種不信任排除;二是,可信任應當是人工智能的一種應有屬性,信任度的提升既是人工智能未來發展一個重要的技術考量,也是其未來發展的一個倫理考量。在此背景下,該框架展開關于如何確保人工智能是可信任的探討。事實上,這種探討也就是關于“可信任人工智能”的構建邏輯與構建方式有效性、以及如何正確地看待可信任的探討。

就該框架的構建邏輯而言,其依據概念闡述、路徑解析、判別依據界定三者之間的遞進層級關系,闡述可信任人工智能的實現途徑。其中,該框架關于可信任人工智能組成部分的厘清、其所需必要條件的闡釋為后續其構建的展開框定了邊界。關于技術和非技術兩個方面的構建路徑解析為如何走向可信任提供了實踐維度的保障。即通過技術維度的可信任與倫理維度的可信任來確保可信任人工智能的實現。其中,技術維度的可信任是倫理維度可信任的基礎與保障,倫理維度的可信任是技術發展的主旨與目標;而關于可信任人工智能關鍵條件的解碼則為可信任的判定提供了可供參考的標尺。

就該框架所提出的構建路徑而言,其所提出的技術方法和非技術方法這兩個維度,與其關于可信任人工智能組成部分厘清的邏輯一致。上述方法旨在滿足可信任人工智能的七個必要條件。這七個必要條件是基于基本權而產生的人工智能系統倫理框架的倫理律令,即人類自治、不傷害、公平和可解釋性(explicability)為基礎而提出的。該倫理律令兼顧了通用倫理原則和人類智能倫理的特殊性兩方面。其中,前三項為技術倫理學的通用原則,而可解釋性則是直接指向人工智能倫理,并被視為構建用戶對人工智能信任的關鍵所在。在這里,可解釋性意指人工智能系統過程的透明性、能力和目標的公開性、決策的可說明性。在當下,由人工智能系統的不可解釋性所帶來的不確定性而引發的焦慮與恐懼,是對其質疑的核心所在。因此,人工智能倫理的構建必須對不可解釋性進行解碼。雖然人工智能系統中算法和模型黑箱使得基于其所作出決策的可信任(即信任度)遭遇質疑,但這并不意味著其不可解釋。如通過人工智能架構的設計、通過對參與決策因素的追溯與審計等技術方法來促進其可解釋性,提升其信任度。

這種構建路徑將可信任置于技術、設計與倫理的調節之中,通過設計走向倫理的構建。“道德法則在我們的心中,但它也在我們的儀器中。在到達超我(Super-ego)的傳統之前,為了闡述我們行動的正確性、信任度和延續性,我們可能要增加技術的隱我(under-ego)” 〔10 〕。這種“隱我”就是隱藏在技術背后的某種自我,其可以通過設計將倫理帶入,實現對技術的調節。但這種隱我背后的自我需要一個給定的理念?!翱尚湃稳斯ぶ悄艿膫惱砜蚣堋睂⑦@個理念設定為可信任,將對其的構建進入到技術之中,這種方法是在借助技術來構建人類對技術的信任,進而構筑對人類自身的信任。該框架通過倫理學通用規則與技術自身特性的結合來確保其實現的同時,還借助監管、問責、治理、倫理教育等非技術方法來推進技術層面信任度的構建,進而確??尚湃稳斯ぶ悄艿膶崿F。但類似于甘貝特(Diego Gambetta)對我們能否信任的追問一樣,我們該如何正確看待“可信任人工智能”中的可信任呢?若我們不能正確地看待可信任,則會降低該框架的實踐效用。因此,該框架雖然闡述了實現可信任人工智能的有效方式,但卻未指出看待可信任的正確方式。

在“可信任人工智能的倫理框架”中,信任被界定為“(1)由與仁慈、能力、誠信以及可預測性有關的特定信念組成的集合(信任信念);(2)在某個有風險的情景中,一方依賴另一方的意愿(信任意向);或者(3)這些要素的組合” 〔11 〕。因此,信任是人類基于相關倫理規則,對不確定性以及風險作出的主觀判斷,是一方對另一方的態度。就人工智能而言,這種判斷不是直接發生在人際之間,是在人與技術的交互之中。一般意義上,人與技術之間的信任可以還原為人與人之間的信任,但這種還原是基于人對技術有能力掌控的前提下。

可信任人工智能作為人類對其的一種倫理訴求,與其相對應的是不可信任的人工智能。恰如奧妮爾(Onora O'Neill)所言“信任危機不能用盲目信任來克服” 〔12〕69,同樣地,可信任人工智能不是走向盲目的信任,也不是將不可信任盲目地遮蔽,而應當是:

1.基于有效監督的可信任。雖然人際之間最理想的信任模式是受托人在委托人不監督的情況下完成任務,但人與人工智能之間的信任則恰恰需要有效監督,以避免造成對人類基本權的傷害。雖然技術維度的透明性與可解釋性等有助于提升人工智能的信任度,但人類的有效監督是人工智能之所以被視為可信任的根源所在,因為可信任究其本質而言,是人類對其的一種價值評判。

2.基于動態視角的可信任??尚湃问腔谌祟悓θ斯ぶ悄艿膫惱碓V求而對技術未來發展作出的框定,關于其判別標準制定基于通用倫理原則的框架而制定的,但這些標準并非靜態的意義完全枚舉,而是動態式的開放體系。因此,應當基于技術的發展與應用來審視可信任的判別標準。

3.基于批判視角的可信任??尚湃伪旧砭褪菍Σ豢尚湃巍⑿湃我约板e誤信任等的批判性思考,進而,對可信任本身也應當持有審慎的批判態度,而不是非此即彼式的斷然。特別在人工智能與人易交互和深融合情境中,不能因技術的強勢性、便利性而忽視其風險性以及人的主體性;也不能因其巨大潛能所蘊含的不確定性而忽視其給人類社會所帶來的益處。因為可信任本身就包含著期望、焦慮、承諾與風險。

綜上可見,當人工智能的擬人性、準主體性、對人的深度內在嵌入性等帶來了一種顛覆性的人與技術關系,即一種深度融合式的新型合作關系時,信任問題也隨之而至。因為“合作常常需要信任,特別是相互信任。如果是完全不信任,那么,在自由行動者之間的合作則將失敗。進一步說,如果信任僅僅在單方面,合作也是無效的;如果信任是盲目的,則將誘發欺騙” 〔13 〕219。

在人工智能與人的合作中,諸如由人工智能對人類決策行為的多層級介入,出現了輔助性、導引性、甚至牽制性等多種合作模式,特別是導引性與牽制性的合作模式,帶來了新的信任問題與信任模式,并將信任的邊界不斷拓寬,而這種拓寬卻亟需人類為其設定邊界。因此,信任邊界的重新界定、以及人與技術之間信任的重新解析成為人工智能倫理構建研究的新論域。

“可信任人工智能的倫理框架”將人工智能的能動性納入到了對其倫理的考察之中,將關于信任的問題轉換為信任的一種表征即可信任,并將其作為人工智能未來圖景的一個倫理描繪。該框架將倫理觀念融入關于人工智能的評判標尺之中,并提出了信任度的構建路徑,但其所描述的可信任人工智能構建,事實上是在將信任問題暫且懸置或排除的基礎上,借助一種反向的模式,而進行的一種自下而上的倫理夯實??梢哉f,該框架將可信任作為一種人工智能未來圖景的倫理描繪,并為人工智能時代的人與技術深度融合提供了有效的倫理導引,但其所擱置或排除的問題恰恰是人工智能倫理構建必須面對的終極問題。這表現為:當該框架對信任的邊界進行拓寬時,信任邊界的設定問題即該框架的局限性也隨之而來。

因此,可信任作為人工智能未來發展圖景的一種有效描繪,應當是在厘清信任邊界的前提下,界定其概念的內涵與外延,指出可行的構建路徑,制定合理且有效的判斷標準,并以理性的方式對待可信任來確??尚湃稳斯ぶ悄艿膶崿F。

注 釋:

①弗洛里迪和桑德斯基于行動者的互動關系標準,將相互作用性(interactivity)、自主性(autonomy)和適應性(adaptability)作為判別行動者的標準。參見:Floridi, L. and Sanders, J.W. On the Morality of Artificial Agents 〔J〕.Minds and Machines,2004(14):357-358.

參考文獻:

〔1〕Adams,A. Stanford University launches the Institute for Human-Centered Artificial Intelligence〔EB/OL〕. https://philosophy.stanford.edu/news/stanford-university-launches-institute-human-centered-artificial-intelligence.

〔2〕European Commission. Ethics Guidelines for Trustworthy AI 〔EB/OL〕. https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines.

〔3〕安東尼·吉登斯.現代性的后果〔M〕.田禾,譯.南京:譯林出版社,2007.

〔4〕閆宏秀.技術過程的價值選擇研究〔M〕.上海:上海世紀出版社集團,2015.

〔5〕Luhmann,N.Trust and Power〔M〕. Cambridge: Polity Press,2017.

〔6〕鄭也夫.信任論〔M〕.北京:中信出版社,2015.

〔7〕Taddeo,M. Defining Trust and E-Trust:From Old Theories to New Problems〔J〕.International Journal of Technology and Human Interaction,2009 (2):26.

〔8〕卡爾·米切姆.通過技術思考——工程與哲學之間的道路〔M〕.陳凡,朱春艷,等譯.沈陽:遼寧人民出版社,2008.

〔9〕大衛·休謨.人性論〔M〕. 關文運,譯.北京:商務印書館,2016.

〔10〕Latour, B.Morality and Technology: The End of the Means〔J〕.VEENC.Theory, Culture & Society: Explorations in Critical Social Science,2002(19):254-255.

〔11〕Siau, K.andWeiyu,W.Building Trust in Artificial Intelligence Machine Learning and Robotics〔J〕.Cutter Business Technology Journal,2018(2):47.

〔12〕奧妮爾.信任的力量〔M〕.閆欣,譯.重慶:重慶出版社, 2017.

〔13〕Gambetta,D.Trust:Making and Breaking Cooperative Relations〔M〕.Oxford:Basil Blackwell,1988.

責任編輯 蘇玉娟

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 免费精品一区二区h| 69综合网| 日本高清视频在线www色| 国产精品视频观看裸模| 国产色婷婷视频在线观看| 在线色国产| 国内精品视频| 精品国产一二三区| 亚洲天堂首页| 久久久受www免费人成| 2020国产免费久久精品99| 凹凸精品免费精品视频| 精品在线免费播放| 久久精品中文字幕免费| 亚洲福利网址| 日本不卡免费高清视频| 被公侵犯人妻少妇一区二区三区| 毛片视频网| 亚洲欧美日韩中文字幕一区二区三区| av一区二区无码在线| 一本大道香蕉久中文在线播放 | 一级一毛片a级毛片| 亚洲综合色婷婷中文字幕| 久久青草视频| 丝袜国产一区| 国产欧美视频在线观看| 国产精品精品视频| 日本国产精品一区久久久| 欧美A级V片在线观看| 成人免费午夜视频| 青青青伊人色综合久久| 四虎亚洲国产成人久久精品| 国产va免费精品观看| 国产午夜一级淫片| 99色亚洲国产精品11p| 欧美黄色a| 成人午夜免费观看| 玖玖精品视频在线观看| 亚洲成a人片77777在线播放| 免费av一区二区三区在线| 国产无码精品在线播放| 亚洲日本一本dvd高清| 99er精品视频| 精品無碼一區在線觀看 | 97在线国产视频| 免费啪啪网址| 无码一区二区波多野结衣播放搜索| 国产成人AV男人的天堂| 国产高清不卡视频| 91精品国产91久久久久久三级| 毛片视频网| 久草视频中文| 国产美女视频黄a视频全免费网站| 视频二区欧美| 国产精品欧美在线观看| 亚洲国产清纯| 在线99视频| 国产成人精品亚洲77美色| 天天躁夜夜躁狠狠躁躁88| 国产办公室秘书无码精品| 国产亚洲视频免费播放| 亚洲精品天堂在线观看| 国产成人无码AV在线播放动漫| 日韩在线成年视频人网站观看| 97色伦色在线综合视频| 一级全免费视频播放| hezyo加勒比一区二区三区| 91色国产在线| 看你懂的巨臀中文字幕一区二区 | 美女潮喷出白浆在线观看视频| 综合天天色| 中文字幕永久在线观看| 亚洲国产精品无码AV| 亚洲国产成人超福利久久精品| 国产嫩草在线观看| 亚洲一道AV无码午夜福利| 视频在线观看一区二区| 国产日韩精品欧美一区灰| 国内精品视频在线| 在线精品欧美日韩| 国产SUV精品一区二区| www亚洲精品|