999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

后奇點時代:人工智能會超越并取代人類嗎?

2018-01-24 18:33:37
教學與研究 2018年8期
關鍵詞:人類

2016年以來圍棋對弈程序AlphaGo戰(zhàn)勝人類冠軍一事,引發(fā)了人工智能(簡稱AI)的又一次研究和討論的熱潮。一方面,人工智能成為當前科技研究和產業(yè)發(fā)展的一個熱點;另一方面,人工智能是否能超越并取代人類也成為人們持續(xù)討論的話題。關于后者,早在人工智能發(fā)展伊始的時候,人們就開始擔心其未來可能的負面風險。從1990年代開始,著名未來學家?guī)炱濏f爾(Ray Kurzweil)就表達了這樣一個思想:隨著技術的加速發(fā)展,在某一時刻,我們將達到一個技術奇點(technological singularity),這時, AI將大大超越人類智能,機器人也將成為人類“進化的繼承者”和“思想的繼承者”。[1](P11-15)庫茲韋爾歡呼這一前景,但也有人心懷隱憂。在AI誕生之前的1950年,阿蘭·圖靈(Alan Turing)就曾反駁過一個被稱之為“鴕鳥策略”的詰難:“機器可以思維的后果太可怕了。我們希望并相信它們不會思維?!盵2]雖然圖靈認為這種觀點并無價值,它僅僅出于人類優(yōu)越性(superiority)的信仰,但人們對AI的類似擔憂在后來一直綿綿不絕。2015年以來,伊隆·馬斯克、比爾·蓋茨和霍金等人表達了這樣的擔憂:失去控制的超級AI有可能導致人類的滅亡。他們與來自AI領域的專家共同簽署了一封公開信,呼吁各界人士對AI安全性的關注。[3]

這些不同的擔憂實際上涉及了后奇點時代(post-singularity age)的兩種相關卻存在區(qū)別的前景:(1)機器超越人類;(2)機器取代人類。對于前景(1),人類中心主義者(比如鴕鳥策略詰難的支持者)擔憂的是人類尊嚴(優(yōu)越性)被損害的風險——不妨稱之為尊嚴風險;那些新潮的非人類中心主義者,擔憂的則是人類對AI的“虐待”是否有違道德——這算是道德風險;馬斯克等人擔憂的是前景(2)時代人類的存活問題——也即生存風險。本文的目的在于基于人工智能哲學(也包括認知科學哲學)中的相關討論,對兩種后奇點前景及其伴隨的三種風險做出恰當?shù)目赡苄栽u估,最終揭示AI的真正風險所在。

一、機器超越人類:尊嚴風險

圖靈敏銳地發(fā)現(xiàn)了“鴕鳥策略”詰難中對人類優(yōu)越性的主張與神學之間的緊密關聯(lián)。[2]這種關聯(lián)可以追溯到文藝復興人文主義(renaissance humanism)思想,它綜合了基督教傳統(tǒng)和古典文學中的人的形象:一方面認為人類是根據(jù)上帝的形象創(chuàng)造出來的,另一方面認為人類具有卓越(excellence)和優(yōu)越(superiority)的品質,而通過這些品質,人類將在不斷完善中獲得尊嚴。[4](P92)需要注意的是,文藝復興人文主義對人類優(yōu)越性的定義并不意味著某種永恒不變的人性,而是意味著一種人類的可完善性,一種需要人類去獲得的目標。然而,到了近代人本主義(modern humanism)那里,優(yōu)越性就開始意味著一種固定的人性。人們通過界定某種先天的、穩(wěn)固的人性,厘清人類與各種他者(動物、機器、自然等)的本質差異,最終證明人類的優(yōu)越性。人類的尊嚴因而也意味著我們具有某種非人類所不具有的優(yōu)越品質。“鴕鳥策略”詰難正是基于這種近代人本主義立場,將作為機器具有人類水平的智能視為對人類尊嚴的威脅。針對這種擔憂,我們想要表達兩個論點:(1)當下的AI在可以預見的未來遠沒有威脅到人類的所謂先天優(yōu)越性;(2)人類真正的尊嚴并不在于對非人類的先天優(yōu)越性,而在于自身的可延展性。

(一)人類的先天優(yōu)越性受到挑戰(zhàn)了嗎?

近代人本主義者對人類先天優(yōu)越性的證明,典型地體現(xiàn)于笛卡爾的哲學工作中。笛卡爾設想了這樣一個自動機器,它從外形上跟我們的身體沒有任何差別,并且可以準確地模仿我們的一切動作,但笛卡爾認為它仍然不是真正的人,理由是:(1)機器人即便能說出幾個單詞,也完全不能像人類那樣表達思想;(2)機器只有單一的功能,但人類卻能舉一反三。[5](P45)可以看出,笛卡爾把自然語言操演和遷移學習的能力作為人類的標志,從而在人類與機器之間劃定一個截然分明的界限。

AI對近代人本主義的挑戰(zhàn)在于,如果機器可以思維,人類在理性上并沒有任何優(yōu)越性,那么人類與機器的界限就會被抹去,人類尊嚴就會受到威脅。但是,AI是否已經(jīng)具備了笛卡爾所列出的兩種人類能力,從而消除了人類的優(yōu)越性呢?當下的AI都是專用系統(tǒng),比如下棋的程序不能用來語音識別,反之亦然。因此AI暫時還不具有舉一反三的遷移學習的能力。有爭議的地方可能在于:機器是否已經(jīng)具有了自然語言操演的能力?

自然語言操演是AI竭力努力的目標,圖靈測試就是基于這一能力。對自然語言的句法和語義分析,曾經(jīng)被視為自然語言處理的密匙。1970年代,威諾格拉德(Terry Winograd)曾經(jīng)設計過一款名為SHRDLU的人機對話系統(tǒng),它可以接收人類的自然語言指令,通過對語言的句法分析和語義分析,在經(jīng)過邏輯推理之后做出相應的操作,比如將桌上的一個紅色的圓形積木疊到綠色的方形積木上。[6]然而,這樣的系統(tǒng)只能處理一個積木世界(toy world),當涉及更復雜的場景的時候,它就很難繼續(xù)工作了。因此,進入1990年代以后,自然語言處理逐漸轉向基于統(tǒng)計的方法,不僅句法分析被認為是不相關的,甚至語義分析也不再重要。比如在現(xiàn)在的機器翻譯中,關注的焦點在于詞語、短語和句子,而不是句法和語義。然而,基于統(tǒng)計的方法并不會讓AI理解語言,更不可能真正地表達思想。

AI的自然語言理解的困難在于語言的整體論特征。根據(jù)豪格蘭德(John Haugeland)的觀點,句子的語義并非是原子語義的組合,而是和作者意圖、日常知識、語言的情境以及實存者的生命等四重因素相關的。[7]然而,機器恰恰難以把握人類語言操演中所涉及的常識和情境。這里涉及了AI中的常識問題(the problem of commonsense knowledge):“如何存儲和訪問人類似乎知道的所有事實?!盵8](P77-78)經(jīng)典AI試圖通過將人類的常識表征為顯性的命題,從而可以被計算機用于推理和決策。然而這一工作被證明是非常困難的。因為人類的常識實在太多,而且各個常量之間的關系異常復雜,要表征全部常識幾乎是不可能的。更為關鍵的是,如德雷福斯(Hubert L. Dreyfus)所指出的,人類的常識大多數(shù)是以隱性的技能知識(know-how)的形式存在著,難以表征為命題知識(know-that)。即便所有事實被形式化并存儲為語境獨立的事實,但計算機仍然不知道如何去使用它,因為這需要額外的規(guī)則來指定如何利用這些事實,而這些額外的規(guī)則很可能是與語境相關的,于是需要更高層級的規(guī)則來指定如何使用這些規(guī)則,這就將陷入無窮倒退的困境。[9](P56-57)因此,由于常識問題的限制,計算機迄今為止仍然無法真正地理解自然語言。人類之所以可以理解自然語言,歸根結底是因為他是一個有著自己的歷史、周圍世界和身體的實存者,承受并操勞著整體的世界,才會理解關于世界的常識和情境,從而才會理解語言的意義,進行真正的對話、閱讀和創(chuàng)作。[7]而這樣一個實存者,在AI的現(xiàn)有范式下根本不可能實現(xiàn)。因此,人類在自然語言操演方面仍然具有遠比AI優(yōu)越的能力。類似的優(yōu)越性還可以列出很多,比如,在現(xiàn)象意識、感受性、自由意志等等。人類對于機器的優(yōu)越性在可以預見的將來都很難被打破。

(二)人類的尊嚴:優(yōu)越性還是可延展性?

然而,我們永遠不能排除這種可能,未來的機器將會在我們引以為傲的某些領域勝于人類。在這種情況下,如果要強行維護人類的尊嚴,就只有禁止AI技術的發(fā)展,以保證人類優(yōu)越于機器??紤]到這種禁止性的命令難以實施,一種既不需要禁止技術進步,又可以維護人類尊嚴的進路,將是更為可欲的。

傳統(tǒng)社會對人類尊嚴的論證基于某種穩(wěn)固的人性(比如語言、理性等),但1990年代以來的后人類主義(posthumanism)話語已經(jīng)深刻地修正了我們的人性的看法。海爾斯(Katherine Hayles)認為,千百年以來人類就一直在與技術協(xié)同演化,并且以各種方式深刻而細微地重塑了人性。[10](P289-290)克拉克(Andy Clark)從認知科學上對這種觀點提供了強有力的論證。在他看來,人類與技術構成了一個共生體,心靈與自我不再局限于大腦之內,而是分布于大腦和非生物系統(tǒng)之中。人類之所以不同于其他物種,就在于我們的心靈一直在尋找可以合作的非生物資源。各種各樣的技術與人的交互作用,展示了人類的大腦的驚人的可塑本性。[11](P87)我們的心靈和身體本質上就在不斷的重構,外部的技術設備不斷地組合到我們的心靈與人格系統(tǒng)之內。因此,人類的“本性”(nature)是在漫長的演化歷史中被技術地建構起來的。

波斯特洛姆(Nick Bostrom)因此主張用更具包容性的后人類尊嚴(posthuman dignity)來代替人本主義的尊嚴概念。后人類尊嚴不再基于凌駕于非人類之上的各種起源上的優(yōu)越性,而是來自于我們是什么,以及可以潛在地成為什么。而我們是什么,恰恰不僅僅源于我們的生物功能,更源于技術和社會語境。[12]這種尊嚴概念,是對文藝復興人文主義尊嚴概念的更新,它一方面將人類的卓越和優(yōu)越奠基于人類的可完善性之中,另一方面又指出了這種可完善性的關系本質,即人類在發(fā)展中與技術構成了一個交互作用、協(xié)同構筑并相互塑造的延展系統(tǒng),展現(xiàn)了人的可塑本性。我們可以用可延展性來取代優(yōu)越性,以界定后人類尊嚴概念的本質。

如果我們采用這種后人類尊嚴概念,那么即便未來的AI掌握了自然語言操演的能力,我們也不必擔心人類的尊嚴受到了威脅,因為,現(xiàn)在的AI是一個以人為核心的延展認知系統(tǒng)。[13]更進一步地說,即便AI在所有的智力測評項目上都戰(zhàn)勝了人類,它也并不會比人更加智能,相反,人類因為AI而變得更加智能。AI是百分之百的人類智能,它的智能恰恰是人類尊嚴的明證。

二、機器超越人類:倫理風險

近代人本主義賦予人類的至尊地位,在非人類中心主義者那里遭到了激烈的批判,當這種關切被帶入到機器人倫理的討論中,便產生了對AI的道德風險的擔憂。目前,圍繞AI(包括機器人)的倫理學討論有兩種進路:(1)考慮到AI可能對人類產生危害,試圖將其設計為一個道德能動者(moral agent),自下而上地將倫理規(guī)則植入到機器人之內,建造安全、友好、有道德的機器人。[14](2)采取非人類中心主義的立場,將人形機器人作為道德受動者(moral patient),考慮將機器作為一個道德關懷的對象,防止人類對機器的虐待,甚至試圖賦予它(她/他)和人類平等的公民權利。[15]

動物權利論最早將道德受動者的地位賦予了非人類事物,無疑可以為我們思考機器人權利提供參照。事實上,已經(jīng)有一些研究者如卡爾弗利(David J. Calverley)注意到了二者之間的相似。[16]在此,我們將進一步根據(jù)彼得·辛格和湯姆·雷根的兩種主要動物權利理論,來分析AI的道德地位。

彼得·辛格重返了邊沁的功利主義道德理論,將感受痛苦的能力(the capacity for suffering)作為道德關懷對象的判定標準。辛格認為,只要一個生命可以感受到痛苦,我們就有必要在道德上平等地考慮其痛苦。[17](P10-12)與辛格的功利主義立場不同,湯姆·雷根更傾向于義務論的立場。但不同于康德將動物排斥在直接道德關懷對象之外,雷根認為人類和動物具有平等的固有價值。二者的區(qū)別在于,健全的人類是道德能動者,對自身行動負有道德責任,而動物(也包括精神病人、嬰兒等)僅僅是道德受動者,對自身行動不負有道德責任,但卻應當作為道德關懷的對象。那么,我們如何能判定一個非人類生命是道德受動者,并具有固有價值呢?雷根提出了一個生命主體判準。一個個體被歸為生命主體,需要具備這些特征:信念和欲望;感知、記憶和未來感;情感生活;偏好利益和福利利益;發(fā)起行為來滿足欲望和目標的能力;心理同一性等。如果一個個體滿足了生命主體標準,那么它就具有固有價值,就應當被作為道德關懷的對象。[18](P243)因此,兩種動物權利理論分別將感受痛苦的能力和生命主體作為判準,以決定是否將動物納入道德考慮。如果我們將其擴展到機器人權利領域,那么機器人是否可以滿足這兩個判準呢?

首先來分析辛格的判準。雖然關于痛苦的形而上學本性還存在著諸多爭議,但越來越多的科學研究開始將痛苦視為一種類似情感(emotion)的主觀經(jīng)驗。[19]這意味著,如果機器要具有感受痛苦的能力,它就必須具有現(xiàn)象意識(phenomenal consciousness)。按照布洛克(N. Block)的區(qū)分,意識分為取用意識(access consciousness)和現(xiàn)象意識,前者可以理解為信息,后者可以理解為我們的主觀意識體驗。[20]暫且不論這種區(qū)分是否合理,AI的一般目標是模擬人類的存取意識,對現(xiàn)象意識的模擬不僅在實踐上沒有什么進展,而且在理論上也莫衷一是??紤]到迄今為止只有在生物中我們才發(fā)現(xiàn)了現(xiàn)象意識,在很大的概率上,現(xiàn)象意識必定和生命現(xiàn)象存在內在的關聯(lián)。正如湯普森所指出的,生命的內在目的性構成了意識得以涌現(xiàn)的基礎。[21](P186)這種內在目的性實際上可以進一步揭示為意向性和自主性。如果我們采取雷根的標準,機器就必須作為一個生命主體,才能被納入道德考慮的對象。雖然雷根關于生命主體的判準涉及的內容較為繁多,但同樣可以歸結為意向性和自主性這兩個因素,起碼,二者構成了生命主體的必要條件。

那么,AI是否具有自主性和意向性呢?根據(jù)自創(chuàng)生生成主義理論,自主性最終可以通過包含了內在目的性的自創(chuàng)生系統(tǒng)來刻畫。自創(chuàng)生系統(tǒng)是一個包含了半透邊界的反應網(wǎng)絡,它可以自我生產和自我維持。[21](P86)而最原初的意向性就來自于自創(chuàng)生系統(tǒng)的意義生成(sense-making)。它通過為系統(tǒng)創(chuàng)造一個生境(umwelt),將意義引入世界。生命系統(tǒng)的意義生成不僅意味著它必須始終理解世界從而維持自身,也意味著生命系統(tǒng)的適應性,它讓系統(tǒng)可以自動調節(jié)自身,根據(jù)內部規(guī)范來改變環(huán)境。[22]因此,自創(chuàng)生和意義生成可以分別作為自主性和意向性的判準。

如果我們將這些標準引入到人工智能之中,就會發(fā)現(xiàn)既有的AI進路,無論是符號主義和聯(lián)結主義,還是具身AI,都無法滿足這些判準。符號主義和聯(lián)結主義顯然無法滿足自創(chuàng)生的判準,而且也不滿足意義生成的判準。此外兩種進路都面臨著來自符號奠基問題等難題的威脅:人工系統(tǒng)的“語義解釋如何可以內在于系統(tǒng),而不是依賴于我們頭腦中的意義?”[23]因此也就不可能構造一種具有內部規(guī)范的認知系統(tǒng)。而具身AI雖然試圖賦予AI一個身體,但它依然不是生成主義意義上的那種鮮活的身體,從而也不能滿足自創(chuàng)生的判準。在意義生成的判準上,雖然具身AI試圖訴諸感覺運動反饋循環(huán)來避免符號奠基問題(也包括框架問題),但它最終還是不可能解決AI中的意義問題,因為具身AI并不能保證能動者的行動目的是內稟而不是外賦的。[24]

因此,在既有的AI范式下,AI由于無法滿足自創(chuàng)生和意義建構的判準,既不可能具有現(xiàn)象意識,也不可能具有自主性和意向性,從而無論基于義務論還是基于功利主義,我們都無須將AI納入道德考慮,更無須將權利賦予AI。非人類主義所擔憂的AI道德風險在可預期的未來并不存在。

三、機器取代人類:生存風險

“機器取代人類”是一種完全不同于“機器超越人類”的后奇點場景。我們可以設想,在后奇點時代,機器可以在思維和行動的特定或所有能力上超越人類,但它可能不具有有機身體,而是棲身在虛擬實在之中,從而不會在現(xiàn)實世界與人類存在生存沖突。因此機器超越人類但并不意味著會取代人類。同樣,我們可以假想某種AI具有自我復制的能力和欲望,并且生存適應性上要遠高于人類,在現(xiàn)實世界中與人類存在生存沖突,這種情況下,即便人類的思維和行動能力遠高于該AI,也可能被取代。

“機器取代人類”涉及的主要是所謂的生存風險(existential risk)。波斯特洛姆將其定義為這樣一種可能性,它所產生的不利后果將會摧毀整個人類,或永久和急劇地斷送人類的發(fā)展?jié)摿?。[25]他認為,由于超級智能可能和任何的終極價值體系結合,因此不能假定它們必然擁有人類的道德觀念,隨意設計的超級智能的最終目標很可能會導致人類的生存災難;此外,超級智能也可能會與人類共享某些工具性價值,比如獲取無限制的物質資源,這就可能會與人類產生生存沖突。[26](P144)

在生存風險的故事中,AI仿佛具備了自我繁殖的能力,并主要作為一個種群而不僅僅是個體對人類造成威脅。我們因此可以將人類與AI的關系刻畫為生態(tài)學上的種群間關系。在洛克伍德(Larry L. Rockwood)看來,種群間的交互關系,可以根據(jù)其對一個種群的作用是積極的(+)、消極的(-)或中性的(0)劃分為四種類型:[27](P155-156)

(1)-/- 競爭,對兩個物種都是消極的;

(2)+/- 捕食、寄生,對一個物種有利,但對另一個物種有害;

(3)+/0 共棲,對一個物種有利,但對另一個物種沒有影響;

(4)+/+ 互利共生,對兩個物種都有利。

在這四種類型中,只有(1)和(2)對一個種群是有害的。因此只有當AI與人類的關系處于兩種關系中的一種,并且假定人類相對于AI處于弱勢的時候,人類才會面臨生存風險。

我們首先來分析關系(1)即AI成為人類的競爭物種。對這種可能的最直接反駁是:硅基存在者的AI和碳基存在者的人類的需求是不同的。[28]我們可以進一步強化這一論證。從生態(tài)學上來講,每個物種在環(huán)境中都會占據(jù)一個生態(tài)位(ecological niche),即一個物種為了存活、生長和繁殖所需的環(huán)境條件和空間。根據(jù)高斯假說(Gause’s hypothesis)或競爭排除原則,如果兩個物種占據(jù)了相同的生態(tài)位,那么就必然有一個物種會趨于消亡。因為兩個物種在爭奪同一種食物資源的過程中,不可避免會產生相互的競爭排斥。這意味著,兩個具有相同生態(tài)位的“完全競爭者不能共存”。[29]如果用這一原則來判斷AI和人類的關系,那么只有當人類與AI占據(jù)了相同或相似的生態(tài)位的時候,才會產生生存競爭,從而發(fā)生物種取代的現(xiàn)象。但AI是否會占據(jù)人類的生態(tài)位?我們暫且不用考慮AI與人類生態(tài)位重疊的問題,只需要先來思考AI能否能占據(jù)一個生態(tài)位。一個能動者要占據(jù)特定的生態(tài)位,需要深刻地嵌入到環(huán)境之中,與其實現(xiàn)充分的交互作用,可以從環(huán)境中直接取用資源以維持和再生產自身,并能進一步繁殖后代。這樣的能動者必須具有如此特征:自創(chuàng)生機能和繁殖機能。

我們繼續(xù)來分析關系(2)即人類成為AI的食物或寄生宿主——這也包括了人類作為AI的蓄養(yǎng)牲口的可能。無論是捕食還是寄生,都是生物體試圖從其他生物體那里直接獲取物質和能量,通過內部的反應網(wǎng)絡以維持和再生產自身。然而,AI作為無機的機器,維持它工作的直接能源是電能,不需要通過捕食和寄生來獲取能量,而再生產自身的物質資源也來自于外部。AI如果要通過捕食人類來維持和再生產自身,它必須發(fā)展到一種人工生命形態(tài),并具有自創(chuàng)生機能的特征。

綜合以上分析,基于種群間關系(1)和(2)的生存風險是否成為可能,最終取決于AI能否發(fā)展成為具身的(而不是虛擬的)人工生命,并具有自創(chuàng)生和繁殖機能。然而,既有范式的AI不滿足自創(chuàng)生的標準,它根本不具有一個鮮活的身體,而且可以預期的未來人類也不可能具有足夠高超的工程能力來實現(xiàn)這種身體。要求種群具有自創(chuàng)生機能的關系(1)和(2)是不可能出現(xiàn)的。因此,在可以預見的未來,AI并不會給人類帶來生存風險。

四、AI的真正風險:決策風險

既然在AI發(fā)生范式革命之前,前述三種風險都不太可能出現(xiàn),那么AI是否就真的毫無風險了呢?并非如此。最嚴重的風險來自社會和政治領域,具體包括:(1)普遍的結構性失業(yè);(2)社會不平等的加??;(3)自主軍事武器的濫用;(4)宣傳控制的強化;(5)大公司對數(shù)據(jù)的壟斷……這些議題無疑都很重要,但已超出本文的主題。我們僅從AI本身的難題出發(fā),來探析一種真正的風險——決策風險。

AI最重要的應用之一就是根據(jù)有限的信息和資源制定出最佳的行動計劃。1980年代AI第二次浪潮中的專家系統(tǒng)和知識表征工程,正是試圖幫助甚至取代人類在一些專門領域的決策。然而,如果AI在一些重要領域接管了人類決策,有可能產生巨大的風險。對于這種風險,很多人擔憂的是AI可能會脫離人類的控制,對人類造成嚴重的傷害。因此,他們試圖將AI設計為一個隱性的或顯性的道德能動者,或者通過“約束機器的行動以避免非倫理的后果”,或者通過為機器“編寫包含了顯性倫理公理的代碼”以便讓它倫理地行動。[30]這樣的觀念預設了一種認知主義的倫理學,即一切道德意見都可以被表述為具有真值的信念。因此人類的道德才能以邏輯表達式的形式被表述出來,進而以代碼的形式被寫入機器。我們在此不擬介入非認知主義者的反駁,暫且假定我們道德意見能被全部表述為顯性的信念。即便如此,由于我們在做出一個道德決策的時候,需要調用大量的信念和知識,AI將面臨一個致命的決策風險:由于信念和知識難以被全部形式化和恰當?shù)卮嫒?,AI不可避免地會經(jīng)常性地缺乏相關知識,最終將作出完全不符合常理的決策。這種決策風險不僅僅限于AI的道德決策,而是所有類型的決策中都會面臨的一般性風險。它的特殊之處在于:不是由于AI太過聰明,而是因為AI太過愚蠢。

這種決策風險實際上涉及了AI中的框架問題。[31](P223-230)框架問題是困擾AI最嚴重的問題之一,至今仍然未得到有效的解決。對于框架問題導致的決策風險,著名哲學家丹尼特曾舉例說明:讓機器人進入一個放著定時炸彈的房間,將里面的一塊備用電池取出來。但機器人取出電池的同時,也會連帶地取出和電池在同一個推車上的炸彈,結果炸彈爆炸了,機器人很難完成任務。[32](P155-156)

框架問題實際上是人工智能中的常識問題的不同版本。根據(jù)德雷福斯的觀點,常識問題包含了兩類不同的問題:常識理解和相關項變化問題。常識問題在于計算機并不具備人類掌握常識的能力,卻試圖在人類世界中行動,由此也將帶來嚴重的決策風險。正是因為常識問題,那些試圖將倫理代碼寫入計算機的企圖很可能將面臨失敗。以眾所周知的阿西莫夫的機器人三律令為例,它包含了三條倫理規(guī)則:(1)機器人不得傷害人類(人類遇到危險它也必須設法解救);(2)必須服從人給予它的命令,除非違反了律令(1);(3)盡可能保護自己的生存,除非違反了律令(1)和(2)。暫且不論已經(jīng)有很多研究指出,這三條律令在很多情況下相互矛盾,即便它們之間是自洽的,實際上也不具備任何操作性,因為它們并不是規(guī)則明晰、可以有效操作的指令。機器人所能執(zhí)行的直接行動指令是諸如往什么方向和角度移動多少位移。而類似“拯救一個瀕死的人”這樣的指令,依賴于我們對一個人是否“瀕死”的判斷,以及對拯救方法的選擇,根本無法直接編碼讓機器執(zhí)行,而是需要基于相關知識做出極為復雜的推理之后,才能轉化為機器可以直接執(zhí)行的指令。然而,一方面這些判斷和選擇所涉及的常識都難以計數(shù),另一方面在不同情境下救人有不同的救人方法。比如當一個人上吊的時候,救他的辦法是剪斷繩子;但當一個人在五層樓的窗戶下拉著一條繩子呼救的時候,救他的辦法就是拉起而不是剪斷那條繩子。要讓機器人三律令有效運作,就必須對日常生活中的大量的背景知識進行形式化,從而可以讓機器人據(jù)此做出推理,做出規(guī)劃。然而,這是一個不可能完成的任務,因為我們既無法將這些常識全部形式化,也無法對這些常識恰當?shù)卮嫒?。由于常識問題的制約,計算機不可能達到人類的決策水平,它不得不經(jīng)常犯一些有悖常識的錯誤。因此,在框架問題和常識問題還沒有解決之前,人類在開放領域的決策絕對不能被AI完全接管,AI決策只能作為人類決策的參考。

結 語

對后奇點時代的構想通常涉及兩種情景:機器超越人類,人類將面臨尊嚴風險和道德風險;機器取代人類,生存風險成為更嚴重的問題。但根據(jù)人工智能哲學中的相關討論,除非AI研究取得革命性進展,否則我們絕無可能進入后奇點時代,機器既不大可能會超越人類,更不大可能會取代人類。因此人們擔心的尊嚴風險、道德風險和生存風險在可以預見的未來都將是杞人憂天。對于當下范式的AI而言,真正的風險是決策風險,它可能導致AI做出難以預料的錯誤決策。

猜你喜歡
人類
顫抖吧,人類
哈哈畫報(2022年4期)2022-04-19 11:11:50
人類能否一覺到未來?
人類會成長起來嗎?
英語文摘(2021年2期)2021-07-22 07:56:54
人類沒有進化好
人類過去長啥樣
出發(fā)!去最北人類定居地
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
共建“人類之眼”
人類,快醒醒
1100億個人類的清明
主站蜘蛛池模板: 国内丰满少妇猛烈精品播| 国内精品久久久久久久久久影视| 第九色区aⅴ天堂久久香| 欧美有码在线| 99热这里只有精品在线播放| 日本一区二区三区精品视频| 国产精品亚洲片在线va| 91精品国产情侣高潮露脸| 激情综合网址| 亚洲无码高清视频在线观看| 免费看黄片一区二区三区| 日韩av电影一区二区三区四区| 日韩AV无码一区| 九色视频一区| 国产91无码福利在线| 国产极品粉嫩小泬免费看| 日韩麻豆小视频| 亚洲V日韩V无码一区二区| 亚洲国产一区在线观看| 国产成人免费手机在线观看视频| 91久久精品日日躁夜夜躁欧美| 国产永久在线视频| 91精品最新国内在线播放| 一级全黄毛片| 亚洲an第二区国产精品| 日本道综合一本久久久88| 美女啪啪无遮挡| 亚洲一区二区三区香蕉| 超清无码一区二区三区| 午夜欧美理论2019理论| 四虎国产永久在线观看| 天天干天天色综合网| av在线手机播放| 亚洲欧美日韩另类在线一| 亚洲国产成人超福利久久精品| 国产麻豆va精品视频| 久久成人18免费| 亚洲国内精品自在自线官| 久久精品最新免费国产成人| 成年人国产视频| 日韩欧美国产三级| 亚洲性一区| 欧美一区二区三区国产精品| 国产美女久久久久不卡| 国产无遮挡裸体免费视频| 国产99视频精品免费视频7| 播五月综合| 国产精品成| 亚洲精品男人天堂| 看av免费毛片手机播放| 亚洲无卡视频| 经典三级久久| 福利视频一区| 国产交换配偶在线视频| 中文字幕在线观| 中文字幕伦视频| 久久精品亚洲专区| 日韩精品免费一线在线观看| 日韩无码视频网站| 国产性生大片免费观看性欧美| 国产中文一区a级毛片视频| 国产主播在线一区| 18禁黄无遮挡免费动漫网站| 视频一本大道香蕉久在线播放| 亚洲va视频| 亚洲第一成网站| 国内熟女少妇一线天| 亚洲日韩Av中文字幕无码| 日韩在线欧美在线| 亚洲综合色婷婷| 欧美性天天| 国产精品亚洲欧美日韩久久| 91在线无码精品秘九色APP| 日韩免费视频播播| 亚洲黄色激情网站| 国产精品尤物在线| 色天天综合| 潮喷在线无码白浆| 亚洲综合精品第一页| 亚洲二三区| 国产一级一级毛片永久| 日本一区二区三区精品视频|