司徒民淇+劉宗凡
編者按:隨著科學(xué)技術(shù)的快速發(fā)展,人類在人工智能領(lǐng)域取得了突破性的進(jìn)展。在人工智能給人類生活帶來更多便利的同時(shí),也引發(fā)了許多倫理道德方面的問題。希望人工智能技術(shù)可以在科技倫理道德的引領(lǐng)下,走向更加美好的明天。
● 人工智能——是福是禍?
我們從哪里來?要到哪里去?對于這個(gè)終極的哲學(xué)問題,今年的科幻大片《異形:契約》給我們帶來了深深的思索。這部片子里的生化人大衛(wèi)(David),是當(dāng)之無愧的主角。
大衛(wèi)是一個(gè)由人類創(chuàng)造的生化人,在大衛(wèi)的心中,一開始人類是至高無上的。隨著大衛(wèi)的不斷學(xué)習(xí),他對人類的態(tài)度也發(fā)生了巨大的變化。我們看到大衛(wèi)從完全服從到背叛人類的過程其實(shí)是他的知識體系不斷完善、不斷進(jìn)化的過程。大衛(wèi)是從“善”變到“惡”了嗎?其實(shí),作為一個(gè)生化人,他不斷接受人類的指令就是在不斷完善。大衛(wèi)通過不斷探尋,覺得自己找到了生命的意義。他覺得自己解決了“我是誰”“我從哪里來”“我該到哪里去”的問題。在這個(gè)思想的驅(qū)使下,他開始了滅絕人類、滅絕人類創(chuàng)造者——工程師,以及創(chuàng)造異形的過程。
人類創(chuàng)造的人工智能,是成為人類忠實(shí)的助手,還是會(huì)反噬人類?《異形:契約》給了我們非常震撼的答案。
21世紀(jì)是科技的時(shí)代,人類在人工智能、轉(zhuǎn)基因技術(shù)、納米技術(shù)、克隆等方面取得了極大的突破。這些新興技術(shù)的崛起,在給人類帶來更多福音和更廣泛可能性的同時(shí),也引起了前所未有的關(guān)于科技倫理道德的討論和爭議。如何讓科技的發(fā)展更符合人類的倫理道德觀念,是值得我們思考的問題。
人工智能技術(shù)誕生于20世紀(jì)50年代,經(jīng)過六十多年的發(fā)展,人工智能已經(jīng)從簡單的智能設(shè)計(jì)發(fā)展到如今的企圖制造出接近甚至超過人類智能的機(jī)器。同時(shí),一系列的倫理道德問題也應(yīng)運(yùn)而生。我們應(yīng)該如何理性看待這些問題?如何使人工智能向更有利于人類的方向發(fā)展?
國外對人工智能的研究比較早,與之相關(guān)的思考也有很多。美國的阿西莫夫提出了著名的“機(jī)器人三大定律”,這個(gè)定律成為如今人工智能界默認(rèn)的研發(fā)法則。英國的安德魯在《人工智能》一書中對人工智能進(jìn)行了分類,而美國的芒福德在《機(jī)器的神話》(The Myth of the Machine)中對自動(dòng)機(jī)器的應(yīng)用提出了強(qiáng)烈的批評。
國內(nèi)對人工智能的研究起步較晚。改革開放之后,我國對人工智能的研究才逐步活躍起來,與之相關(guān)的論文也處于不斷豐富狀態(tài),其中比較有代表性的有陳立鵬的《人工智能引發(fā)的科學(xué)技術(shù)倫理問題》、譚薇的《機(jī)器人的倫理抉擇》、王曉楠的《機(jī)器人技術(shù)發(fā)展中的矛盾問題研究》等。這些文章均對由人工智能引發(fā)的倫理道德問題進(jìn)行了深入的討論。
科技倫理是指在科學(xué)技術(shù)活動(dòng)中人與社會(huì)、人與自然和人與人關(guān)系的思想與行為準(zhǔn)則,它規(guī)定了科技工作者及其共同體的價(jià)值觀念、社會(huì)責(zé)任和行為規(guī)范。
劉大椿在《科技倫理,在真與善之間》中指出:科學(xué)活動(dòng)的基本倫理原則是客觀公正性和公眾利益優(yōu)先性。科學(xué)的社會(huì)規(guī)范是科學(xué)建制與整個(gè)社會(huì)的契約,它使科學(xué)技術(shù)得以在符合倫理道德的前提下蓬勃發(fā)展。
● 圍棋人機(jī)大戰(zhàn)與人類危機(jī)
2016年3月,由谷歌開發(fā)的AlphaGo程序以4:1的成績戰(zhàn)勝國際圍棋冠軍李世石,關(guān)于人工智能的話題席卷全球。在人工智能引起熱議的同時(shí),潛在的恐慌和危機(jī)感也悄然而生。
AlphaGo程序使用“神經(jīng)網(wǎng)絡(luò)”的算法,通過輸入幾千局人類優(yōu)秀對局、自身的“對戰(zhàn)”和與其他同類程序比賽等方式進(jìn)行“自我學(xué)習(xí)”,從而進(jìn)一步提高自身的“棋技”,最終達(dá)到超一流職業(yè)棋手的水平。而圍棋,其棋盤上有19×19=361個(gè)點(diǎn),每個(gè)點(diǎn)都有黑、白、空三種情況,合法的棋局?jǐn)?shù)高達(dá)3的361次方種,這巨大的可能性使圍棋曾經(jīng)是人工智能界面臨的一座高山。如今,這座高山已經(jīng)被翻越,同時(shí)也意味著人工智能技術(shù)又到達(dá)了一個(gè)新的高度。
谷歌董事長施密特在賽前發(fā)布會(huì)上表示,無論輸贏都是人類的勝利。因?yàn)槭侨祟悇?chuàng)造了人工智能并且讓它達(dá)到了一個(gè)新的高度,人工智能是人類智慧的一種體現(xiàn)。
人工智能的強(qiáng)大之處,在于它可以通過不斷的“自我學(xué)習(xí)”來逐步提升自己的技能,并且,機(jī)器的“大腦容量”和“學(xué)習(xí)速度”都是人類鞭長莫及的。可以預(yù)見,人工智能在某一方面超過人類智能只是時(shí)間問題。人工智能的強(qiáng)大之處,正是它讓人恐慌之處。根據(jù)達(dá)爾文的《進(jìn)化論》,一個(gè)細(xì)胞經(jīng)過千千萬萬年的發(fā)展、進(jìn)化和自然選擇,形成了如今的人類。那么,一個(gè)人工智能程序是否會(huì)經(jīng)過學(xué)習(xí)從而進(jìn)化成一種可以取代人類的“物種”呢?
這種潛在的可能性早已不是什么新鮮事。早在1942年,美國阿西莫夫針對這個(gè)問題提出了著名的“機(jī)器人三大定律”,其法則如下:
第一法則:機(jī)器人不得傷害人類,或坐視人類受到傷害;
第二法則:除非違背第一法則,機(jī)器人必須服從人類的命令;
第三法則:在不違背第一及第二法則的前提下,機(jī)器人必須保護(hù)自己。
這是人類在人工智能方面筑起的第一道倫理道德之墻。于是,問題轉(zhuǎn)化成了如何將這些倫理道德灌輸給機(jī)器人。難點(diǎn)在于,對于倫理道德,即使是人類也沒有一個(gè)明確的界限。例如,如果“公平”和“生命至上”同時(shí)作為倫理準(zhǔn)則,那么面對前方道路上玩耍的五名兒童和另一條廢棄道路上玩耍的一名兒童,火車“控制者”應(yīng)該選擇哪一條道路行駛?這樣一個(gè)連人類也無法得到統(tǒng)一答案的問題,人工智能又應(yīng)該如何應(yīng)對呢?做出合乎倫理道德的選擇,需要根據(jù)實(shí)際情況并結(jié)合大量的“學(xué)習(xí)積累”(人類稱之為經(jīng)驗(yàn))決定。
但是,如果人工智能在學(xué)習(xí)中,因?yàn)橐粋€(gè)偶然的錯(cuò)誤而接受了錯(cuò)誤的觀念,那么這種錯(cuò)誤的觀念是否會(huì)顛覆機(jī)器原來的理念?首先,這樣的“錯(cuò)誤”是有可能存在的,正如人類的每一個(gè)細(xì)胞都有可能發(fā)生基因突變一樣,計(jì)算機(jī)病毒的存在很大程度上提高了這種錯(cuò)誤出現(xiàn)的概率。其次,原本的正確理念是很有可能被顛覆的,正如人類對“老人摔倒該不該扶”問題的答案產(chǎn)生動(dòng)搖一樣。endprint
給人工智能筑起一道更加穩(wěn)固的倫理道德之墻,需要廣大的科技工作者及其共同體制定更加具體詳細(xì)的倫理道德規(guī)范,編寫出擁有“自我辨別能力”并能夠篩選出正確的學(xué)習(xí)數(shù)據(jù)加以學(xué)習(xí)的程序植入機(jī)器中。同時(shí),廣大公民也要對人工智能有一個(gè)正確的認(rèn)識,只要理智地看待,相信倫理道德的真善美最終會(huì)成為人工智能不可動(dòng)搖的基本準(zhǔn)則。
● 現(xiàn)代軍用機(jī)器人與責(zé)任爭端
現(xiàn)代戰(zhàn)爭,戰(zhàn)情復(fù)雜,場面殘酷,對作戰(zhàn)人員的素質(zhì)提出越來越高的要求。然而,人的作戰(zhàn)效能,往往受到生理和心理極限的影響。而由機(jī)器人為主導(dǎo)的無人作戰(zhàn)平臺,可以超越人類的極限,可以承擔(dān)危險(xiǎn)性高、難度大、持續(xù)時(shí)間長的作戰(zhàn)任務(wù)。更為重要的是,對于戰(zhàn)爭中最昂貴的犧牲品——人類來說,可以大大減少傷亡,所以各國現(xiàn)在在軍用機(jī)器人方面都在持續(xù)投入研究。
為了在新一輪軍用機(jī)器人競賽中占得先機(jī),歐洲各國采取聯(lián)合研發(fā)戰(zhàn)略,其中的典型作品便是由法國領(lǐng)頭,希臘、意大利、西班牙、瑞典和瑞士等國合作研發(fā)的“神經(jīng)元”無人戰(zhàn)斗機(jī)。“神經(jīng)元”無人機(jī)采用了飛翼式設(shè)計(jì),具有隱身性能突出、智能化程度高、對地攻擊方式多樣等特點(diǎn),可以在不接受任何指令的情況下獨(dú)立完成飛行,并在復(fù)雜飛行環(huán)境中進(jìn)行自我校正。該無人機(jī)綜合運(yùn)用了自動(dòng)容錯(cuò)、神經(jīng)網(wǎng)絡(luò)、人工智能等先進(jìn)技術(shù),具有自動(dòng)捕獲和自主識別目標(biāo)的能力,并解決了編隊(duì)控制、信息融合、無人機(jī)之間的數(shù)據(jù)通信以及戰(zhàn)術(shù)決策與火力協(xié)同等技術(shù),是一種可以在無人實(shí)時(shí)操作條件下執(zhí)行觀察打擊一體化任務(wù)的高科技裝備。
現(xiàn)代軍用機(jī)器人因具有強(qiáng)大的功能,在現(xiàn)代戰(zhàn)爭中顯示出了突出的優(yōu)勢,受到了世界各國的青睞。軍用機(jī)器人的研發(fā)也產(chǎn)生了一些倫理問題,集中體現(xiàn)在軍用機(jī)器人的倫理設(shè)計(jì)和責(zé)任問題。
軍用機(jī)器人具有非常明顯的優(yōu)勢,它具有極高的智能,更全面的作戰(zhàn)能力和更強(qiáng)的戰(zhàn)場生存能力,可以代替士兵完成危險(xiǎn)的軍事任務(wù),減少人員傷亡。在和平時(shí)代,軍用機(jī)器人的決策,通常由人類來決定。同時(shí)我們可以預(yù)測的是,在戰(zhàn)爭中,需要做出決定的事件每時(shí)每刻都存在,人類無法代替機(jī)器人做出所有的決定。因此,機(jī)器人的自主決策會(huì)成為必然,如機(jī)器人可以決定是否向“目標(biāo)”開火。圍繞這個(gè)問題的議論也越來越多。
首先,機(jī)器人如何判斷其面對的“目標(biāo)”,是己方士兵、敵方士兵、平民,還是平民中的間諜?如果判斷錯(cuò)誤,就有可能導(dǎo)致機(jī)器人濫殺無辜。其次,從戰(zhàn)爭倫理方面看,絕大部分人不喜歡殺戮和戰(zhàn)爭,在戰(zhàn)場上表現(xiàn)出向善的一面。但是,機(jī)器人是不存在“人之初,性本善”這樣的心理的,它不具有恐懼感,自然也不會(huì)有同情心,不會(huì)對目標(biāo)手下留情,甚至不知疲倦。因此,具有強(qiáng)大破壞力的軍用機(jī)器人很有可能成為戰(zhàn)場上的“冷血?dú)⑹帧薄?/p>
另外,潛在的更加可怕的危險(xiǎn)是機(jī)器人極可能被恐怖分子所利用,發(fā)展為“機(jī)器人恐怖主義”,這種每時(shí)每刻都可能存在的危險(xiǎn)比未來戰(zhàn)場上的危險(xiǎn)更加令人恐懼。
機(jī)器人殺人,誰應(yīng)該承擔(dān)責(zé)任?是機(jī)器人本身,還是機(jī)器人的設(shè)計(jì)者?受到懲罰的又應(yīng)該是誰?機(jī)器人本身是一臺沒有感知的機(jī)器,對于它的殺人行為,我們可以理解為機(jī)器出現(xiàn)的問題。對于一臺存在問題的機(jī)器,我們第一反應(yīng)不是像對待孩子犯錯(cuò)一樣,對它進(jìn)行打罵,而是想辦法找出問題的成因并進(jìn)行修理,因?yàn)椋瑱C(jī)器人本身無法接受我們所認(rèn)同的懲罰。對機(jī)器人設(shè)計(jì)者、系統(tǒng)程序員或者軍隊(duì)指揮官進(jìn)行懲罰更是不合理的。
責(zé)任應(yīng)該如何分擔(dān)的問題,需要社會(huì)進(jìn)行更加系統(tǒng)全面深入的研究,制定可行的責(zé)任承擔(dān)機(jī)制,具體問題具體分析,從而得出更加恰當(dāng)?shù)拇鸢浮?梢灶A(yù)見,因機(jī)器人犯錯(cuò)而帶來的責(zé)任,應(yīng)該由機(jī)器人、機(jī)器人控制者、機(jī)器人設(shè)計(jì)者、系統(tǒng)程序員共同承擔(dān)。如何規(guī)范軍用機(jī)器人在現(xiàn)代戰(zhàn)爭中的使用,則需要世界各國共同制定一份公平、合理的法則,讓機(jī)器人在戰(zhàn)場上可能造成的錯(cuò)誤影響降到最小。
有英國專家稱,20年內(nèi)“自動(dòng)殺人機(jī)器”技術(shù)將可能被廣泛應(yīng)用。對此,不少人感到憂慮:對于這些軍事機(jī)器,人類真的能完全掌控它們嗎?
● 社會(huì)型機(jī)器人與情感依賴
前段時(shí)間,網(wǎng)絡(luò)上有一篇很爆笑的文章:《買了個(gè)掃地機(jī)器人,不僅人工智障,還是戲精》。各位“機(jī)主”在不斷吐槽掃地機(jī)器人的“智障”行為時(shí),更透露出這個(gè)“人工智障”在家庭中類似家庭成員的地位,有些“機(jī)主”把這個(gè)機(jī)器當(dāng)成了寵物來“養(yǎng)”。評論中除了有“同情”機(jī)主的,還有很多人動(dòng)了心準(zhǔn)備買一臺回來“養(yǎng)”。掃地機(jī)器人逐漸走進(jìn)普通人的家庭,反映了社會(huì)型機(jī)器人的普及。
隨著人工智能技術(shù)的發(fā)展,社會(huì)型機(jī)器人已經(jīng)逐漸滲透到我們生活中,如真空吸塵器、寵物機(jī)器人、機(jī)器人娃娃、護(hù)理機(jī)器人等,它們的出現(xiàn)給人類的生活帶來了極大的便利。我們可以預(yù)測,在未來,服務(wù)型機(jī)器人將與計(jì)算機(jī)及互聯(lián)網(wǎng)一樣,成為人類生活中必不可少的一部分。而這便涉及人和機(jī)器人之間的情感問題。
人類在和這些機(jī)器人接觸的時(shí)候會(huì)發(fā)生什么?這本身就是一個(gè)值得深思的問題。服務(wù)型機(jī)器人有著人類的社交技巧,可以和人類進(jìn)行交流與互動(dòng),甚至可以理解我們。經(jīng)過長期和機(jī)器人的相處,人類很有可能對這些機(jī)器人產(chǎn)生情感依賴,對機(jī)器人的情感依賴帶來的副作用,可能會(huì)比如今對手機(jī)、電腦依賴帶來的副作用嚴(yán)重得多。一個(gè)在機(jī)器人保姆陪伴下長大的孩子,會(huì)不會(huì)像“狼孩”一樣,無法和正常的人類交流?雖然這只是一種極端的假設(shè),但是機(jī)器人依賴帶來的心理問題卻不容忽視。
人和機(jī)器人的社交最大的一個(gè)特點(diǎn)是單向性,即只有人類對機(jī)器人產(chǎn)生情感而機(jī)器人不會(huì)對人類產(chǎn)生情感。社會(huì)機(jī)器人的擬人化,使人類在和它相處的過程中,潛意識地賦予它人類的情感,甚至在心理上產(chǎn)生一種信念:機(jī)器人擁有人類的感情狀態(tài)。人類的情感大多數(shù)是在不知不覺中產(chǎn)生的,就像吸毒一樣,過一段時(shí)間之后才發(fā)現(xiàn)已經(jīng)成癮的事實(shí),這就很難讓人類意識到這種情感只是單向的。這種對機(jī)器人的情感很容易導(dǎo)致“機(jī)器人犯罪”,即通過控制機(jī)器人,從而向它們的主人灌輸某種觀念,使他們購買商品、毒品甚至進(jìn)行違法行為。機(jī)器人沒有內(nèi)疚的情感,自然不可能像人類一樣因?yàn)閮?nèi)疚而停止某些行為,所以說,機(jī)器人一旦被不法分子控制,其后果是難以想象的。endprint
情感依賴還可能導(dǎo)致人與機(jī)器人相愛。愛上機(jī)器人甚至和機(jī)器人結(jié)婚不僅在社會(huì)倫理道德上很難被接受,而且在法律上也沒有被定義和許可。但這些都不能改變這種可能性存在的事實(shí),人類應(yīng)該如何看待這樣的事情,或者說,人類應(yīng)該制止這些事情發(fā)生嗎?現(xiàn)在沒有人可以給出一個(gè)明確的答案。
在人機(jī)交互日益頻繁的社會(huì),我們需要明確的一點(diǎn)是,人工智能無論如何深入,都只能作為提高人類生活幸福感的工具存在。我們?nèi)绾文茉谝匀祟悶橹行牡纳鐣?huì)中,保持自身人格的獨(dú)立和完整性,如何給予機(jī)器人一個(gè)明確的界限,讓它可以擁有自己的“人生準(zhǔn)則”,可能是未來人工智能技術(shù)發(fā)展中更令人深思的問題。
● 人工智能倫理委員會(huì)——責(zé)任與約束
對于人工智能,人類應(yīng)該對其工作原理有一定的了解,不要在毫不知情的情況下盲目相信“人工智能最后將取代人類”這種片面且極端的說法。人工智能是人類智慧的結(jié)晶,在一定程度上可以減輕人類的工作負(fù)擔(dān),對社會(huì)發(fā)展起積極作用。目前,人工智能及與之相關(guān)的產(chǎn)品主要應(yīng)用于模式化的思維領(lǐng)域,使人類從繁瑣的思維任務(wù)中解脫出來,集中精力于需要深度思考的領(lǐng)域。
正如每一枚硬幣都有正反兩面一樣,人工智能既可以給人類帶來福音,也可以毀滅人類。但是,人類不能因?yàn)槠渲杏袧撛诘奈kU(xiǎn)而停止研究人工智能,而應(yīng)該引導(dǎo)人工智能技術(shù)向有利于人類和社會(huì)進(jìn)步的方向發(fā)展,向符合科學(xué)倫理道德的方向發(fā)展。
從法律層面來說,世界各國應(yīng)該聯(lián)合制定關(guān)于人工智能的準(zhǔn)則規(guī)范,并在其應(yīng)用領(lǐng)域進(jìn)行相應(yīng)的道德約束。各國在此法律的基礎(chǔ)上,制定符合本國國情的人工智能發(fā)展方略,嘗試將“倫理道德”作為人工智能行業(yè)的特殊法律約束,將人工智能可能帶來的法律問題進(jìn)行獨(dú)立的約束和處理,用法律規(guī)范人工智能的發(fā)展。
谷歌旗下Deep Mind公司(研究AlphaGo的公司)創(chuàng)始人之一的謝恩·賴格(Shane Legg)指出,人工智能機(jī)器人是本世紀(jì)人類的頭號威脅者。谷歌率先成立了人工智能倫理委員會(huì),對機(jī)器人進(jìn)行技術(shù)監(jiān)管,確保人工智能機(jī)器人技術(shù)不被濫用,避免未來發(fā)生機(jī)器人滅絕人類的慘劇。2016年,科技巨頭亞馬遜、微軟、谷歌、IBM和Facebook聯(lián)合成立了一家非營利性的人工智能合作組織(Partnership on AI),以解決人工智能的倫理問題。
聯(lián)合國教科文組織與世界科學(xué)知識與技術(shù)倫理委員會(huì)最新聯(lián)合發(fā)布了一個(gè)報(bào)告(2016),這是一份關(guān)于機(jī)器人倫理的初步草案報(bào)告。草案討論了機(jī)器人的制造和使用促進(jìn)了人工智能的進(jìn)步,以及這些進(jìn)步所帶來的社會(huì)與倫理道德問題。
從另一個(gè)方面來看,每一個(gè)從事人工智能方面研究的科技工作者,都應(yīng)該始終把人類的利益放在首位,具有強(qiáng)烈的社會(huì)道德責(zé)任意識,不斷學(xué)習(xí)和提高自己的倫理道德素養(yǎng),提高自己的研發(fā)能力,編寫出可以讓機(jī)器人的行為更加符合倫理道德的程序,掌握好人工智能技術(shù)的方向盤,將人工智能技術(shù)帶向科學(xué)倫理道德的真善美中去。
目前的人工智能技術(shù)雖然發(fā)展很快,但是依然存在著很多理論和技術(shù)上的問題,這些問題在科學(xué)技術(shù)的不斷向前發(fā)展中最終會(huì)被解決,人工智能的真正實(shí)現(xiàn)也成為可能。對于人工智能技術(shù)所引發(fā)的倫理道德問題,人工智能領(lǐng)域方面的專家和學(xué)者們可以團(tuán)結(jié)合作,深入思考和分析,制訂相應(yīng)的應(yīng)對策略,讓人工智能技術(shù)在提升人類幸福感的星光大道上走得更遠(yuǎn)。endprint