999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

具身性、認知語言學與人工智能倫理學

2017-12-18 01:26:13徐英瑾
關鍵詞:人工智能人類

徐英瑾

(復旦大學 哲學學院,上海 200433)

具身性、認知語言學與人工智能倫理學

徐英瑾

(復旦大學 哲學學院,上海 200433)

在主流的人工智能倫理學研究中,很少有人意識到:將倫理規范的內容轉化為機器編碼的作業,在邏輯上必須預設一個好的語義學理論框架,而目前主流人工智能研究所采用的語義學基礎理論卻恰恰是成問題的。文章主張在人工智能與人工智能倫理學的研究中引入認知語言學的理論成果,并在此基礎上特別強調“身體圖式”在倫理編碼進程中所起到的基礎性作用。依據此番立論,并主張:機器倫理學的核心關涉將包括對人工智能的“身體”——而不僅僅是“心智”——的設計規范,即必須嚴肅考慮“怎樣的外圍設備才被允許與中央語義系統進行恒久的接駁”這一問題。

人工智能倫理學;認知語言學;認知圖式;具身性;語義學

隨著人工智能技術的日益發展,對于此類技術產品的倫理學考量也逐漸進入學界的視野。概而言之,與人工智能相關的所有倫理學思考,都在國際學界被歸入“人工智能倫理學”(ethics of Artificial Intelligence)的范疇,而這個學科分支本身又可分為兩個小分支:“機器人倫理學”(roboethics)與“機器倫理學”(machine ethics)。前者的任務是對設計機器人的人類主體進行規范性約束,而后者的任務則是研究如何使得人類所設計的人工智能系統在行為上具有倫理性。這兩個分支彼此之間既有分工上的分別,又有微妙的聯系。兩者之間的差別體現在:“機器人倫理”直接約束的是人類研究主體的行為,而“機器倫理”直接約束的是機器的行為。兩者之間的聯系又體現在:不通過“機器倫理學”,“機器人倫理學”的指導就無法落地;而沒有“機器人倫理學”的指導,“機器倫理”的編程作業也會失去大方向。

不過,在當前人工智能倫理學研究中,很少有研究者意識到此類問題實質上乃是某種深刻的語言哲學-語言學問題的變種,而不能就事論事地在應用倫理學的層面上被談論。而筆者的相關判斷又是基于如下考量:如果我們要把用自然語言表達出來的倫理學規范——如著名的“阿西莫夫三定律”——轉換為能為機器識別并執行的程序語言的話,我們就必須對人類的語言運作的本質有著一種預先的理論把握;而語言學家與語言哲學家對于人類語言機制的不同理解,則顯然又會導致對于上述問題的不同解答方式。

此外,也正因為一般意義上的語言哲學-語言學問題在人工智能倫理學研究中的邊緣地位,認知語言學關于“具身化”問題的見解也相應地被邊緣化了。很少有人工智能倫理學方面的討論觸及如下問題:倫理編程問題不僅僅牽涉軟件的編制,而且還將牽涉“怎樣的外圍設備才被允許與中央語義系統進行恒久的接駁”這一問題。也就是說,依據筆者的淺見,機器倫理學的核心關涉將包括對人工智能體的“身體”——而不僅僅是“心智”——的設計規范。而為了支持這一看似“非主流”的觀點,本文的討論將始自于對如下問題的“務虛”式討論:為何倫理學必須具有“具身性”?

一、從倫理學的“具身性”說起

“具身性”(embodiment)本是一個在認知哲學領域內使用的術語,其主要含義是指:人類認知的諸多特征都在諸多方面為人類的生物學意義上的“身體組織”所塑造,而不是某種與身體絕緣的笛卡爾式的精神實體的衍生物。如果我們將這樣的觀點沿用到倫理學領域之內,由此產生的“具身化倫理學”的核心觀點便是:倫理學規范的內容,在相當大程度上便是為作為倫理主體的人類的肉體特征所塑造的。換言之,倫理學研究在相當程度上必須吸納生物學研究的成果,而不能將自己視為與“肉體”絕緣的“純精神領域”。

應當看到,將“具身性”與倫理學相互結合的觀點,并不是西方倫理學研究的傳統路數,甚至還與該領域內的思維定式相左。譬如,柏拉圖就曾將“善”的理念視為超越于可感知的物理世界的最高理念,而康德則將道德律令視為某種凌駕于肉身領域的“絕對命令”。但隨著演化論等自然科學思維范式逐漸進入倫理學領域,越來越多的具有自然主義傾向的倫理學家開始注意到了倫理學自身的生物性根基。正是基于此類考量,英國生態學家漢密爾頓(William Hamilton)在1964年提出了所謂的“親屬選擇模型”。[1]根據該模型,在假定甲、乙兩個生物學個體之間具有一定的遺傳相似性的前提下,只要這種相似性與“乙從甲獲得的好處”之間的乘積能夠抵消“甲自身因幫助乙而遭到的損失”,那么,使得互助行為可能的那些基因就會在種群中傳播(這一規律,也在科學文獻中被稱為“漢密爾頓律”)?;蛘f得更通俗一點,依據漢密爾頓的理論,道德的生物學起源,很可能就是與“通過親屬的生存而完成家族基因的備份”這一隱蔽的生物學目的相關的。需要注意的是,漢密爾頓所給出的這種對于道德起源的描述看似抽象,其實已經觸及“身體”對于倫理學的奠基意義。譬如,前述“漢密爾頓律”的起效,在邏輯上已經預設了一個生物學個體有能力將別的生物學個體識別為其親屬。而要做到這一點,辨認主體若不依賴于被辨認對象的身體形態的識別,則幾乎是難以想象的。從這個角度看,道德意義上的“共情感”很可能便是以道德主體之間在身體方面的相似點為前提的。

對于上述的理論描述,有的讀者或許會問:漢密爾頓的“親屬選擇模型”又將如何解釋人類對于非親屬的其他人所產生的同情感呢?實際上答案也非常簡單:“基因的相似性”實質上是一個針對特定參照系才能夠成立的概念。若以其他物種為參照系,整個人類都算是一個巨大的親屬組織,因此,你與地球上任何一個需要別人幫助的人之間都有著某種基因上的關聯性。而按照“漢密爾頓律”,只要這種關聯度與“被幫助者從你這里獲得的好處”的乘積能夠大于“你因為幫助他而遭到的損失”,那么利他主義行為就可以被激發。而在很多情況中,對于陌生人的很多幫助形式——譬如在網上向受災群眾捐獻10元——所需要付出的生物學資源其實是微不足道的,這就使得“漢密爾頓律”所規定的相關條件在數學上變得容易被滿足(換言之,“大于”左邊的乘積實在太容易超過其右邊的數值了)。或再換一個更通俗的說法:廉價的“助人為樂”行為的傳播之所以并不是很難,就恰恰是因為這些行為自身所消耗的資源不多;而與此同時,人與人(盡管很可能彼此是陌生人)之間在身體層面上的起碼的相似點卻已經足以激發出微弱的“好感”,以便催生那種微弱的利他性行為。與之相對應,代價不菲的利他主義行為卻往往是建立在被幫助者與幫助者之間較密切的親屬關系之上的,并經由這種親屬關系所提供的更為強烈的“親近感”驅動。

不過,筆者也承認,上述這種基于生物學考量的道德起源學說,并不能對人類所有的人際行為做出充分的描述,因為作為自然存在者與社會存在者的合體,人類的具體行為在受到生物學因素的制約外,還會受到社會-文化因素的制約與影響(譬如文化、生產方式、政治理念、宗教等因素對一個人的“親密圈”的重塑效應)。但即使如此,生物學方面的考量依然會構成“文化重塑活動”的基本邏輯空間;換言之,文化重塑的方向本身必須首先是“生物學上可能的”。意識到這一點的美國哲學家麥金太爾便在《依賴性的理性動物》一書中,特別強調了倫理學研究與生物學研究之間的連續性。他指出,如果我們將倫理學視為對人際關系根本規范的研究的話,那么,我們就無法忽略使得此類人際關系得以存在的下述基本的生物學前提:人類是一種離開了群體生活就必然會滅亡的物種,因為人類的身體具有一種生物學意義上的脆弱性。“我們是否能夠存活,在相當程度上取決于別人(更別提繁衍了),因為我們經常遭遇如下困難:身體疾病或傷害、營養不足、精神疾病與困擾,以及來自于別人的入侵與無視……”[2](P1)也就是說,按照麥金太爾的觀點,人類道德規范中最為基本的那部分——如尊老愛幼、幫助弱小,等等——都是對于某些最基本的生物學需要的“再包裝”,而不是脫離于人類的生物學實際的純粹的“文化發明”。由此不難推出:如果在另外的一個可能世界中的人類的生物學習性與現有的人類不同(譬如,那個世界中的人類會像螳螂那樣在交配之后吃掉“新郎”),那么,我們也就沒有理由期望他們的道德規范內容與我們的道德規范基本一致了。

不難想見,如果這條“達爾文—漢密爾頓—威爾遜(E. O. Wilson, 他的‘社會生物學’研究是漢密爾頓工作的全面升級化)[3]—麥金太爾”式的倫理學研究路數是正確的話,那么,此類思維方式就肯定會對人工智能倫理學產生直接的影響。這里需要被提出的最核心的問題便是:既然人工智能產品并不是任何一種意義上的“生物體”,我們又怎么保證此類產品能夠經由其與人類身體的相似性而承載了人類所認可的道德規范呢?換言之,既然對吾輩而言人工智能體肯定是“非我族類”的,“其心必異”的結局難道不正是無法避免的嗎?

不過,同樣不容否認的是,至少對于主流的人工智能倫理學研究而言,人工智能制品因為其物理“身體”的不同而潛藏的對人類社會的倫理風險,并沒有被充分注意到。譬如,著名的“阿西莫夫三定律”就表達了某種經過強制性的代碼輸入(而不是身體設計)以禁止機器人危害人類的企圖。而在此路徑的支持者看來,給相關的機器人配置怎樣的“身體”反倒成為一個與機器倫理無涉的邊緣性問題。此外,即使他們了解到從漢密爾頓到麥金太爾的整條“具身化的倫理學”的發展線索,恐怕他們也會以這樣的一種輕描淡寫的方式來打發“具身派”的見解:既然漢密爾頓所說的“利他主義基因”本身就是以自然選擇的方式植入人類的一種強制性操作代碼,那么,人工智能專家就完全可以自行扮演自然選擇的角色,向機器直接植入這樣的代碼。他們或許還會補充說:既然自然選擇本身并不是什么神秘的機制,那么,到底有什么自然選擇能夠做到的事情,我們人類做不到呢?

但在筆者看來,上面的辯駁是無力的。其一,自然選擇機制的基本原理固然并不神秘,但是特定性狀的演化歷史的種種細節卻很可能是難以被事后復原的,因為這牽涉相關基因與特定生態環境之間的復雜互動。因此,從非常抽象的角度看,如果將自然選擇機制人格化為一個設計師的話,那么“他”對于倫理代碼的編制路線便是“從下到上”(bottom-up)的,而阿西莫夫式的機器倫理代碼的編制路線則是“自上而下的”(top-down),兩條路徑并不相似。其二,自然選擇的過程不是一次完成的,而是通過“代碼變異—引發顯現型變化—參與生存競爭—篩選代碼”這樣的復雜流程,漸進式地積累各種遺傳代碼素材的。與之對比,阿西莫夫式的機器倫理代碼設計流程,卻試圖通過某種一勞永逸的代碼編制工作來杜絕未來可能發生的一切倫理風險,這無疑就需要設計者具備像上帝那樣的預見力。而我們都知道,人類是永遠無法扮演上帝的角色的。其三,自然選擇的過程所積累的核心信息雖然是以基因代碼的方式被加以保存的,但是在具體的生存競爭中,這些代碼必須外顯為身體的性狀才能夠兌現其生存價值。也就是說,至少對于生物體而言,其遺傳代碼本身就具有一種針對“具身性”的明確指向,而這種指向在阿西莫夫式的倫理編碼里是找不到的。其四,也是最重要的,自然演化的“設計產品”是我們能夠看到的(我們自己就是這樣的“產品”);而根據“阿西莫夫三定律”所設計出來的成熟的人工智能產品,我們卻還沒有看到。更有甚者,根據瓦拉赫(Wendell Wallach)與艾倫(Colin Allen)的分析,[4](P95)在日常語境中對于“阿西莫夫三定律”的執行將不可避免地導致矛盾。譬如在面對一個人正在殘害其他人的場面時,以下這兩條法則就很難被同時執行:“機器人不得在與人類的接觸中傷害人類”;“機器人不得在目睹人類被傷害時袖手不管”。瓦拉赫與艾倫就此指出:只要我們允許機器人以比較大的自主性來獨立應付種種困難的倫理局面,我們就無法指望其行為能夠同時滿足“阿西莫夫三定律”的僵化規定;相反,如果我們硬是要將這些僵化規定以代碼的形式植入機器的話,我們就不能指望它們的行為輸出時是富有智能的。很顯然,這是一個兩難困境。

從瓦拉赫與艾倫的分析中,我們還可以從語言哲學與語言學的層面發現自然選擇所進行的“倫理編碼”與阿西莫夫式的“倫理編碼”之間的又一重要差異。不難看出,自然選擇所遴選出來的基因編碼組合本身是不帶語義的,而兌現這些基因組合的生物體的身體表現同樣是不帶語義的——賦予其語義的,乃是人類觀察者對于這些表現的事后描述。因此,對于自然選擇來說,就不存在著 “如何將帶有語義內容的倫理規范分解為具體算法”這樣的問題;而與之相對比,阿西莫夫式的機器倫理編制者卻不得不面臨這樣的難題(因為“阿西莫夫三定律”本身無疑是帶有語義的)。因此,除非機器倫理學家們將自身的程序編制工作奠基在一個恰當的語義學理論之上,否則,此類工作就無法解決瓦拉赫與艾倫所指出的那類“靈活性與原則性不可兼得”的困難。

在本節的討論中我們已經得到了兩方面的結論:首先,我們已經看到,倫理規范自身很難擺脫“具身性”的規制;其次,我們發現阿西莫夫式的機器倫理編制工作既沒有意識到“具身性”的重要性,同時也缺乏一個使得其自身的語義內容落地的語義學基礎理論。而要將這里所說的具身性考量與語義學考量結合起來,我們就需要一個合適的理論媒介。這一媒介就是認知語言學。

二、認知語言學的“具身性”對于人工智能倫理學的啟示

這里筆者之所以要提到認知語言學,乃是因為它提供了一個將前面所提到的“具身性原則”與語言學理論相互結合的范例。認知語言學的代表人物之一雷考夫(George Lakoff)[5](P9)就曾概括過認知語言學的意義觀與傳統語義學的意義觀之間的不同。筆者按照自己的理解將其列為表1概括于下:

表1 認知語言學的意義觀與傳統語義學的意義觀對比表

圖1 關于“ENTER”的認知圖式形成過程的圖示[6](P33)

這樣的“可視化”圖式當然包含了明確的身體指涉。說得更清楚一點,這樣的概念圖示預設了概念的使用者具有這樣的身體經驗:自主移動身體,從一個源點出發,沿著一定的路徑,進入一個“容器”,并由此使得自己成為一個“容納物”。換言之,一個從來沒有移動過自己的身體,甚至從來沒有觀察到其他物體之移動的語言處理系統,恐怕是無法真正把握“ENTER”圖式,并由此真正把握“進入”這個概念的含義的。

而在從屬于“圖式”的各個“圖式要素”中,“轄域”(scope)這個術語亦與“具身性”有著密切的關聯。在認知語言學語境中,“轄域”指的是一個目標概念在被聚焦時,語用主體的注意力在語義網中所能夠覆蓋的周遭范圍。其中與核心區域較近的周遭范圍叫“直接轄域”,而注意力的最大范圍邊界便是“最大轄域”。譬如,對于“肘部”這個概念來說,其直接轄域就是“胳膊”,其最大轄域就是“身體”;而對于“鉸鏈”這個概念來說,“門”就是其直接轄域,“房屋”則是其最大轄域。同時,也正因為任何一個被聚焦的對象與其直接轄域之間的連帶關系,我們的自然語言表達式往往只允許該對象與相關直接轄域的概念名彼此連綴為復合名詞(如“肩胛骨”“門鉸鏈”等),而不允許該對象跳過直接轄域,與更寬泛轄域的概念名彼此連綴為復合名詞(如“體胛骨”“房鉸鏈”等)。[6](P64~65)

而之所以說基于“轄域”的認知語言學敘述方式體現了“具身性”的要素,乃是因為:任何“轄域”的存在均有賴于其邊界的存在,任何“轄域”邊界的存在又有賴于認知主體視野范圍的大小,而認知主體視野范圍的大小則最終又取決于其身體的特性。換言之,“轄域”的特征歸根結底還是由認知主體的身體特性所塑造。為了更形象地說明這一點,我們不妨設想一下《格列佛游記》中“大人國”與“小人國”居民可能的概念認知圖式所具有的“轄域”。譬如,對于一個大人國的居民來說,他所注意到的整個人類房屋恐怕就只有正常人類所看到的一塊豆腐那么大,在這樣的情況下,“鉸鏈”對于“門”的直接從屬關系將因為顯得過于“微觀”而變得可被忽略。而與之相對比,對于小人國的居民來說,正常人類尺度上的“房屋”卻可能因為“過于宏大”而無法成為其所聚焦的某些(對人類而言的)微觀對象的轄域;甚而言之,小人國的認知語言學家們恐怕還會開發出一系列對正常人類而言匪夷所思的概念,以便對他們眼中圍觀對象的轄域進行描述,如在將“鉸鏈”作為聚焦對象的前提下,提到“鉸鏈近側”“鉸鏈遠側”,等等。

那么,以上說的這些,與倫理學有什么關系?與人工智能倫理學又有何關系?

首先可以肯定的是,倫理學所研究的社會規范本身往往就帶有“身體圖式”的印記。讓我們不妨來想想在周遭社會中遇到的種種社會規范所具有的語言表達吧!比如:“這是軍事禁地!禁止入內!”(這個表達預設了關于“進入”的身體圖式)“行車時不能擠占公交車道!”(這個表達預設了“擠占”這個概念的身體圖式)“不許占據別人的財物!”(這個表達式預設了“占據”是一個將遠離身體的非轄域轉化為其近側轄域的動態過程)“不許殺人!”(這個表達式預設了被涉及的人類身體的確具有終止別的人類身體的生物學機能的物理能力)不難想象,如果上述這些關于身體圖式的預設全部被抽空的話,那么我們就很可能會憑空造出一些讓人不知所云的社會規范,如:“永遠不能擠占銀河系之外的空間!”“永遠都不能通過吐口水的方式來淹死長頸鹿!”……這也就從認知語言學的角度印證了漢密爾頓—麥金太爾路線的倫理學研究思路,即:倫理學規范的內容是某種生物學需要的或直接或間接的再包裝,而不是脫離了這些需要的純精神臆造物。

而上述的研究思路一旦被推廣到人工智能倫理學——尤其是機器倫理學——領域內,就會立即觸發如下的問題:既然沒有任何科學方面的理由使得“小人國”或“大人國”尺度上的智能機器人無法被制造出來(且不論這么做在倫理上是否合適),那么,我們又如何保證這樣的機器人所具有的“認知圖式”會與人類的“認知圖式”彼此合拍呢?而如果這種“合拍性”無法被保證的話,我們又如何保證同樣建立在機器人自身身體圖式之上的機器人的倫理規范能夠與人類既有的倫理規范相合拍呢?而如果后一種“合拍性”也無法被保證的話,我們又如何保證這樣的智能機器人不會對人類既有的社會秩序構成威脅呢?

為了使筆者所表達的上述疑慮不顯得那么空洞,在此還想表達兩個補充性意見。其一,在筆者看來,任何智能機器人——如果其具有真正意義上的全面智能的話——所具有的語言智能,都應當包括對于身體圖式的識解能力(無論它的身體構造是怎樣的,也無論它是如何獲取這種識解能力的)。之所以如此判斷,則是基于如下推理:機器人所使用的符號若要與外部環境產生有效的、富有靈活性的互動的話,就必須對使用特定符號的典型語境有所把握,而身體圖式恰恰是濃縮了此類典型語境信息的最佳推理中介。因此,認知語言學家關于人類認知圖式的很多理論,至少就其哲學精神而言是適用于未來人工智能體的。至于如何找到合適的編程手段來體現認知語言學的原則,則是另外一個話題了。其二,在筆者看來,如果兩類智能體(無論是人造的還是自然的)在身體圖式上存在著時空尺度上的巨大差異的話,那么這兩個話語體系之間的轉譯成本就會顯得非常巨大,甚至有時會變得不可轉譯(我們不妨設想一下:倘若螞蟻也會說漢語的話,它們“爬”概念的身體圖式就會與我們人類的“爬”有很大的差異)。這一觀察對于倫理規范編制的直接影響就是:機器人很可能會因為無法識解人類倫理規范所隱藏的身體圖式,而無法識解整條規范(比如,被完全做成海豚狀的水下機器人會因為無法理解“踩踏”概念而無法理解“禁止踩踏人類”這條規范的意義)。退一步講,如果這些機器人語言智能的發達程度已經達到了允許其通過內部的類比推理來間接把握人類身體圖式的地步,那么,它們由此所理解的人類社會規范對其而言也只具有一種抽象的意義(而非實踐的意義),因為這樣的規范實在離它們自己的“生活形式”太遠。在此情況下,我們就很難指望這樣的智能機器人會嚴肅地對待人類的社會規范,并在此基礎上成為人類所期望的工作與生活中有用的幫手。

基于以上的討論,在筆者看來,為了防止種種對人類不利的情況出現,機器倫理學家就必須預先阻止“完整意義上的語義智能”與“與人類的時空尺度迥然不同的身體構造”這兩項因素在同一個機器人身上的結合。而要做到這一點,從邏輯上看,我們就只有三個選項:

選項一:姑且可以去建造與人類的時空尺度迥異的機器人(比如非常微小的納米機器人),但是不賦予其高級語義智能,即不賦予其在復雜環境下獨立、靈活地做出決策的能力(在這種情況下,此類機器人的智能顯然是不足以豐富到足以將“身體圖式”予以內部表征的地步的)。

選項二:在將人類意義上的靈活智能賦予機器人的時候,必須要保證其身體界面與人類的身體界面沒有時空尺度與性能表現上的重大差異?;蛘f得更清楚一點,這樣的機器人不能比人類跑得快太多或強悍太多,但也不能比人類慢太多或脆弱太多。甚至我們要鼓勵更多的人形機器人的開發,使得機器人與人類之間能夠形成基于“身體上的彼此承認”的“共情感”。套用麥金太爾式的“需要倫理學”的話語框架,也可以這么說:我們必須在硬件構造上就使機器人產生對其他機器人特別是人類的“需要”,就像人類社會中的任何一個成員在生物學意義上需要他人才能夠生存一樣。

選項三:我們可以將富有靈活智能的機器人與比較“愚笨”的機器人臨時組合起來,讓前者去操控后者,就像人類自己也會臨時地去操控相對缺乏自主智能的機械一樣(在這種情況下,兩類機器人之間組合的“臨時性”,可以依然保證高智能機器人自身認知圖式的“擬人性”不被破壞)。但需要注意的是,切不可將這兩類機器人的臨時組合長久化以催生某種對人類不利的新的認知圖式,就像人類自己也只能在特殊情況下才允許士兵去使用真槍實彈一樣。

當然,除了以上三個選項之外,筆者也不排除:在某種特殊情況下(比如在某些對人類而言極度危險的作業環境下),我們將不得不把“完整意義上的語義智能”與“與人類的時空尺度迥然不同的身體構造”這兩項因素予以永久性地結合。但即使如此,我們也至少要保證此類機器人與主流人類社會沒有廣泛的空間接觸,以維護人類社會的安全。

如果用一句話來概括筆者論點,那便是:太聰明的人工智能并不構成對人類的威脅。且毋寧說,太聰明的人工智能與超強的外圍硬件設備的恒久組合形式,才會構成對人類的威脅,因為與人類迥異的身體圖式本身就會塑造出一個與人類不同的語義網絡,并由此使人類的傳統道德規范很難附著于其上。基于此推理,人工智能倫理學的研究方向應當“由軟轉硬”,即從對軟件編制規范的探討,轉向研究“怎樣的外圍硬件才允許與人工智能的中央處理器進行接駁”這一嶄新的問題。

不過,正如筆者已在前文所提及的,筆者的上述觀點是與人工智能倫理學的主流意見相左的。在下一節中,我將回過頭來再對這些主流見解進行簡要的評述。

三、主流人工智能倫理學研究對于具身性的忽視

首先應當看到的是,就當下的發展狀態而言,“人工智能倫理學”依然是一門非常不成熟的學科分支。實際上,即使在世界范圍內,推動“人工智能倫理學”研究的并不是學院內部的力量,而主要是各國官方與企業的力量,其背后的動機與企圖也帶有非常強的應景性,并不是立足于學科發展的內部邏輯。譬如,有軍方背景的人工智能倫理學家主要關心的是“能夠自動開火的機器人”所應當遵循的倫理規范問題;[7](P49~67)歐洲議會在2016年發布的一份建議性文件甚至討論了將在歐盟范圍內把被普遍承認的民權準則賦予機器人的問題。[8]在筆者看來,這兩項問題的提出均已超越了目前人工智能的實際發展水平,并帶有明顯的“消費議題”的嫌疑,因為在認知語言學的相關學術洞見還沒有被人工智能的編程作業消化的前提下,現有的人工智能系統的語義表征能力實際上都是不足以編碼任何人類意義上的道德規范的——無論這樣的人工智能系統的使用環境是軍用的還是民用的。更有甚者,在夸張當下人工智能發展水平的前提下,近年來物理學家霍金在各種場合都在散布“人工智能威脅論”,[9](P62~104)并在公眾中制造了一些不必要的恐慌。在筆者看來,這種“憂患意識”就好比是在一個核裂變的物理學方程式還未被搞清楚的時代就去擔心核戰的危險,的確只是現代版的“杞人憂天”罷了。

另外,也正是因為參與上述討論的各界人士其實并沒有將有關人工智能研究的相關語義學與語言哲學問題想透,他們忽略了“身體圖式”對于倫理規則表征的奠基性意義,并因為這種忽略而錯過了人工智能倫理學研究的真正重點。譬如,研究軍用機器人的相關倫理學專家所執著的核心問題——是否要賦予軍用機器人以自主開火權——本身便是一個不著邊際的問題。在筆者看來,只要投入戰爭的機器人具有全面的語義智能(這具體體現在:它能夠理解從友軍作戰平臺上傳送而來的所有指令與情報的語義,能夠將從其傳感器中得到的底層數據轉化為語義信息,并具有在混雜情報環境中靈活決策的能力,等等),在原則上我們就可以憑借它們的這種語義智能對其進行“道德教化”,并指望它們像真正的人類戰士那樣知道應當在何種情況下開火。在軍事倫理的語境中更需要被提出的問題乃是“我們是否允許將特定的武器與機器人戰士的‘身體’直接、恒久地接駁”,因為這種直接接駁肯定會改變機器人戰士的身體圖式,并由此使人類對它們的“教化”變得困難。

而在相對學院化的圈子里,至少在人工智能倫理學的范圍內,對于具身化問題的討論其實也不是很夠。即使是哲學家德瑞福斯(Hubert Dreyfus)多年來所一直鼓吹的“具身性的人工智能”路徑,[10]在具體技術路線上也與認知語言學其實并無多大交集,而且他也尚未將關于“具身性”的觀點延展到人工智能倫理學的領域。至于前面已引用過的瓦拉赫與艾倫合寫的《道德機器——如何教會機器人“對”與“錯”》一書,[4]雖然在行文中的確時常流露出“要使機器人的道德決策機制更接近人類”的思想傾向,卻也并沒有在評述業界既有技術路線的同時,給出一條富有獨創性的技術路線來實現這樣的思想傾向。因此,無論在學院外部還是內部,本文所提出的以“身體圖式構建”為理論基石的人工智能倫理學研究路徑,的確算是一條比較新穎的思路。不過,限于篇幅,本文并沒有勾勒出將此類身體圖式構建與具體的計算機編程作業相互結合的技術路線圖。而相關的研究,顯然需要另外一篇論文去完成了。

[1] Hamilton, W D.The GeneticalEvolution of Social Behavior[J]. Journal of Theoretical Biology, 1964,7(1).

[2] MacIntyre,Alasdair. Dependent Rational Animals: Why Human Beings Need the Virtues[M]. Open Court, 1999.

[3] Wilson, E O. Sociobiology: The New Synthesis[M].Cambridge, MA: Belknap Press, 2000.

[4] Wallach, W and Allen, C. Moral Machines: Teaching Robots Right from Wrong[M]. Oxford: Oxford University Press, 2009.

[5] Lakoff, G. Women, Fire, and Dangerous Things: What Categories Reveals about the Mind[M].Chicago: University of Chicago Press,1987.

[6] Langacker, Ronald. Cognitive Grammar: A Basic Introduction[M]. Oxford: Oxford University Press, 2008.

[7] Lin, P, et al.. Robots in War: Issues of Risks and Ethics[A]. Capurro, R. and Nagenborg, M. Ethics and Robotics[C]. Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009.

[8] European Commission. European Parliament, Committee on Legal Affairs. Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics[Z/OL].http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML%2BCOMPARL%2BPE-582.443%2B01%2BDOC%2BPDF%2BV0//EN.

[9] Dreyfus, H. Why Heideggerian AI Failed and How Fixing it Would Require Making it More Heideggerian[A]. Julian Kiverstein and Michael Wheeler. Heidegger and Cognitive Science[C]. New York: Palgrave Macmillan, 2012.

[10] Matyszczyk, Chris. Hawking: AI Could be “the Worst Thing Ever for Humanity”[Z/OL]. https://www.cnet.com/news/hawking-ai-could-be-the-worst-thing-ever-for-humanity/.

Embodiment,CognitiveLinguisticsandEthicsofArtificialIntelligence

XU Yingjin
(School of Philosophy, Fudan University, Shanghai 200433, China)

The issue on how to make ethical codes “computable” in order to build artificial moral agents (AMA) is fundamentally a semantic issue on how to semantically represent the relevant norms by appealing to some proper algorithms. However, unfortunately, the mainstream semantic theories employed in artificial intelligence (AI) are problematic in this aspect or another; and more unfortunately, the mainstream studies in the ethics of artificial intelligence haven’t realized the relevance of semantic considerations to ethics yet. What the author of this paper intends to propose include three points. Firstly, cognitive linguistics (CL), especially its notion of “cognitive schema”, could be a useful resource for building the needed semantic framework for AI; secondly, due to the fundamental status of the notion of “embodiment” in the whole CL-narrative, we can hardly imagine any semantic representations of ethical codes in the case of of designing AMAs if these representations are not based on certain physical features of the “bodies” of AMAs; thirdly, due to the preceding considerations, issues like “what kind of peripheral equipment is allowed to be permanently connected to the information-processing center of a certain AMA” should be put on the table for all ethicists of AI.

ethics of artificial intelligence, cognitive linguistics, cognitive schema, embodiment, semantics

TP18

A

1004-8634(2017)06-0005-(08)

10.13852/J.CNKI.JSHNU.2017.06.001

2017-09-01

國家社科基金一般項目“自然語言的智能化處理與語言分析哲學研究”(13BZX023);國家社科基金重大項目“基于信息技術哲學的當代認識論研究”(15ZDB020)

徐英瑾,上海人,教育部長江學者獎勵計劃青年學者,復旦大學哲學學院教授,博士生導師,主要從事認知科學哲學、人工智能哲學、知識論、維特根斯坦哲學等研究。

(責任編輯:知 魚)

猜你喜歡
人工智能人類
我校新增“人工智能”本科專業
顫抖吧,人類
哈哈畫報(2022年4期)2022-04-19 11:11:50
人類能否一覺到未來?
人類會成長起來嗎?
英語文摘(2021年2期)2021-07-22 07:56:54
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
主站蜘蛛池模板: 欧美伊人色综合久久天天| 欧美视频在线不卡| 精品人妻无码中字系列| 欧美国产日韩在线观看| 国产在线视频二区| 国产亚洲高清视频| 国产精品美女自慰喷水| 99热免费在线| 欧美国产另类| 亚洲国产精品无码AV| 在线一级毛片| 色AV色 综合网站| 国产精品观看视频免费完整版| 激情乱人伦| 国产日韩欧美中文| 亚洲欧洲天堂色AV| 欧美中出一区二区| 亚洲人成在线免费观看| 亚洲国产精品一区二区第一页免| 国产91久久久久久| 国产日韩欧美在线播放| 亚洲美女一区| 国产精品九九视频| 成人第一页| AⅤ色综合久久天堂AV色综合| 国产欧美性爱网| 波多野结衣无码中文字幕在线观看一区二区 | 久久精品一卡日本电影| 99久久成人国产精品免费| 国产午夜人做人免费视频中文| 国产一级裸网站| 美女被操黄色视频网站| 亚洲一区二区约美女探花| 欧美综合成人| 美女毛片在线| 亚洲综合亚洲国产尤物| 国产不卡一级毛片视频| 亚洲精品不卡午夜精品| 在线一级毛片| 亚洲色图欧美视频| 尤物成AV人片在线观看| 午夜福利在线观看入口| 国产精品尤物在线| 无码aⅴ精品一区二区三区| 久久这里只有精品23| 免费日韩在线视频| 成年人国产视频| 午夜日本永久乱码免费播放片| 一级毛片网| 亚洲天堂视频在线观看| 国产毛片高清一级国语 | 国产区在线看| 亚洲欧美自拍视频| 亚洲无码视频一区二区三区| 欧美人在线一区二区三区| 久久久久久尹人网香蕉 | 午夜a视频| 亚洲欧洲自拍拍偷午夜色| a亚洲视频| 日韩大乳视频中文字幕| 99视频在线观看免费| 国产午夜无码片在线观看网站 | 91久久偷偷做嫩草影院电| 米奇精品一区二区三区| 国产精品美女免费视频大全| 精品伊人久久久久7777人| 欧美一级高清视频在线播放| 99精品国产高清一区二区| 国产极品美女在线播放| 激情综合激情| 国产精品久久久久久久久kt| 色综合五月婷婷| 国产福利微拍精品一区二区| 亚洲精品不卡午夜精品| 毛片在线播放网址| 日韩精品专区免费无码aⅴ| 91欧洲国产日韩在线人成| 69精品在线观看| 亚洲国产日韩一区| 欧美成人精品欧美一级乱黄| 原味小视频在线www国产| 久久精品国产999大香线焦|