,
隨著大數(shù)據(jù)技術的發(fā)展、算法的進步和機器算力的大幅提升,人工智能在眾多領域不斷攻城略池,趕超人類。同時,圍繞人工智能產(chǎn)生的倫理問題也越來越突出,成為全社會關注的焦點。近年來,國際學術界對人工智能道德算法、價值定位、技術性失業(yè)和致命性自主武器等問題展開了廣泛的討論,一系列富有卓見的研究成果相繼問世。然而,學界關于人工智能倫理研究的問題框架尚未達成共識,正處于探索研究范式的階段,人工智能倫理的教育與教學究竟該從哪些方面展開仍然缺少框架指導。其實,設計和研發(fā)安全可靠的人工智能不是單純的技術層面的要求,也需要道德層面的引導和規(guī)制。人工智能的發(fā)展應增進人類福祉,與人類的道德價值相符合。要做到這一點,必須給人工智能一顆“良芯(良心)”。這意味著以打造“良芯(良心)”為中心任務的人工智能倫理研究應圍繞“機芯”(機器之芯)和“人心”(人類之心)兩個維度來展開。“機芯”研究主要是指人工智能道德算法研究,旨在使人工智能擁有“良芯”,使之成為道德的人工智能或道德的機器(moral machine)。“人心”研究是指人工智能研發(fā)者和應用者應當具有“良心”,使人工智能的設計合乎道德,避免惡意設計,并確保人工智能的善用,使之造福人類社會。也就是說,“人心”研究主要涵蓋人工智能設計倫理和社會倫理等方面的研究。“機芯”和“人心”研究存在諸多基礎性問題,需要在道德哲學層面做出回應或拓展。因此,人工智能倫理研究包括人工智能道德哲學、人工智能道德算法、人工智能設計倫理和人工智能社會倫理等四個維度。
隨著人工智能和自主系統(tǒng)的決策能力的不斷提升,它們可能對傳統(tǒng)的道德哲學構成挑戰(zhàn)。傳統(tǒng)的倫理觀念和道德理論的適用性問題將變得越來越突出,其中一些倫理原則或道德規(guī)范有可能會失效或部分失效,甚至在某些領域引起道德哲學的真空。不過,這反過來可能會倒逼倫理學家進行更加深刻的思考,修正已有的道德概念和道德理論,提出適應智能時代的全新的道德哲學體系,從而促進道德哲學的整體發(fā)展。從這種意義上講,人工智能道德哲學不是替代傳統(tǒng)道德哲學,而是對傳統(tǒng)哲學的延伸和擴張。
那么,我們究竟該從何種意義上談論人工智能的道德哲學呢?按照尼克·波斯特洛姆(Nick Bostrom)和埃利澤·尤德考斯基(Eliezer Yudkowsky)的觀點,“創(chuàng)造思維機器的可能性提出了一系列的倫理問題,這些問題既與確保這種機器不傷害人類和其他道德上關聯(lián)的存在者有關,也與機器自身的道德地位有關。”[1](P316)智能機器不傷害人類和其他道德上關聯(lián)的存在者是設計倫理的要求,而機器自身的道德地位問題則是人工智能道德哲學的范疇,相關討論可以從人工智能的主體地位、道德責任和人機關系等方面展開。
第一,構建人工道德主體(artificial moral agents,簡稱AMAs)是否是可能的?談論人工智能倫理是否應該把AMAs地位的確立作為前提。不過,按照計算機倫理學的開創(chuàng)者詹姆斯·摩爾(James Moor)的觀點,我們可以根據(jù)智能機器的自主性程度劃分出四種人工道德主體:有道德影響的主體、隱式的道德主體、顯式的道德主體和完全的道德主體。[2]因此,即使人工智能系統(tǒng)并沒有被內(nèi)置道德規(guī)范,只要其決策算法能夠產(chǎn)生倫理影響,即可將其視為具備道德推理能力,可以成為道德受體或道德關懷對象。此外,討論更為前沿的話題是:擁有自由意志或自主能力是否可以作為人工智能和自主系統(tǒng)成為道德主體的前提?如果人工智能有資格作為道德主體,那么人性中的情感和意識等因素是否是人工智能具備道德的必要條件?的確,擁有自我意識并且具備人類情感的人工智能會更像人,但將情感和自由意志賦予人工智能有可能會打開“潘多拉的魔盒”,給人類帶來災難性后果。在處理人類錯誤方面,人類社會積累了豐富的經(jīng)驗,但如何應對人工智能機器的錯誤方面,我們的社會可能還尚未做好充分準備。如果不良情緒被植入智能系統(tǒng),它們可能不是給人們帶來便利,而是給人們制造更多麻煩。關于類似問題的探討對傳統(tǒng)的道德哲學提出了挑戰(zhàn),我們已有的關于“自由意志”“自主”“理性”“道德主體”“道德受體”“道德地位”等概念的內(nèi)涵可能需要重新被定義。這可能導致新的道德哲學的產(chǎn)生,或導致傳統(tǒng)的道德哲學發(fā)生轉向,如人工物倫理學的轉向。“與許多人的直覺想法相反,技術不再是讓我們的生存變得便利的簡單的中立工具。在這些技術完成它們功能的同時,已經(jīng)產(chǎn)生了更多的效應:它們框定著我們該做什么以及我們?nèi)绾误w驗世界,并且以此方式,它們積極參與到我們的生活中。”[3](P1)
第二,人工智能的道德權利和責任分配問題。在直覺上,多數(shù)人可能會認為AMAs并不應享有與人類相等的權利。在他們看來,AMAs是服務于人的福祉,而不應該被設定為追求自身的福祉。人工道德主體的界定困難導致相應的責任、義務和權利的認定變得復雜。如果人工道德主體以人類伙伴的身份服務于社會,它們的權利和義務的邊界如何劃定,這是需要慎重對待以平衡人類的同理心。如果人工智能具有道德決策能力,同時獲得了道德主體的地位,那么它的設計者、制造者和使用者是否應當為它們的過失負擔相應的責任?如果它們能夠承擔一定的責任,那么是否人們會設法將一些道德責任推卸給人工智能來承擔?面對這種情形,AMAs可能淪為替人類行為免責的一種工具,它們的權利保障可能更是無從談起。如果AMAs能夠為其不當行為承擔完全責任,那么責任的邊界和限度的劃定問題將變得越來越突出。畢竟,道德譴責和否定評價如何對AMAs產(chǎn)生實際的道德約束力在技術上仍然是個難題。如果道德約束對于AMAs是不充分的,那么它們承擔相應的法律責任是否是可行的?如果AMAs需要承擔一定的刑事責任,那么究竟何種懲罰對它們具有威懾力,例如清除記憶、機身銷毀等是否等同于機器的死亡?限制機器人人身自由是否有效?同時人類共同體在情感上能否接受這種形式的懲罰;如果它們沒有基本的財產(chǎn)權,那么它們以何種形式承擔民事責任?是社會整體承擔還是多主體分擔,這些都是值得深入探討的問題。
第三,人類道德與機器道德的關系問題。通常,人們是基于后果來判定某人行為是否道德,但通過深入探究,人們會認識到主體的心靈狀態(tài)(意圖、動機或目的等)在評價或判定某人行為是否道德時發(fā)揮重要作用。目前,主流的道德理論基本都是以人類為中心提出的。隨著人機互動時代的到來,這些道德理論可能需要盧西亞諾·弗洛里迪(Luciano Floridi)提出的所謂“分布式道德”來補充。根據(jù)這種觀點,局部層面的智能體相互作用,可以導致系統(tǒng)整體或宏觀層面的道德行為和集體責任感的增加。[4]另外,雖然AMAs必須以人類價值為目標被建構起來,但面對多樣化的文化價值系統(tǒng)、多元化的宗教傳統(tǒng)和無數(shù)的倫理理論,我們究竟該選擇哪種作為底層的設計框架?按照瓦拉赫和艾倫的觀點,弱人工智能的道德實際上是一種“操作性道德”,由設計者和使用者賦予意義;隨著復雜程度的增加,人工智能將會表現(xiàn)出所謂的“功能性道德”,它將使其自身具備道德決斷能力并能夠影響道德挑戰(zhàn)。[5](P6)這種劃分有助于我們明晰所談論的到底是指何種道德。不過,如果純粹從實用主義視角出發(fā),那么人工智能是否有資格成為道德主體可能并不是最緊迫的問題,只要它們能夠像道德主體一般行動,盡可能地減少道德摩擦,而不惹是生非。從現(xiàn)實層面來講,那些在道德上具有卓越表現(xiàn)的智能機器會有更高的公眾認可度,能夠更加順利地融入到人類社會。這種可接受性的動力學來源可能來自以下兩個方面:一方面機器道德的研究要求深刻理解人類道德的發(fā)生、起源和機制。從這種意義上建構人工智能道德,可能要求我們更多地去思考如何從學習、進化和發(fā)展的角度去考察如何培養(yǎng)人工智能的道德感;另一方面機器道德的研究對于傳統(tǒng)的道德哲學發(fā)揮“反哺”功能,它能夠激發(fā)傳統(tǒng)的倫理學研究做出革新,甚至催生全新的倫理學體系。
我們已經(jīng)生活在算法時代,幾十年前,人們對于“算法”的認識主要是在數(shù)學和計算機領域。“當今,文明社會的每個角落都存在算法,日常生活的每分每秒都和算法有關。算法不僅存在于你的手機或筆記本電腦,還存在于你的汽車、房子、家電以及玩具當中。”[6](P3)事實上,算法已經(jīng)成為當今信息社會的一種基礎設施,它們能夠引導甚至支配人們的思維與行動。因此,算法越來越多地參與到人類的道德生活將是一種必然趨勢。當然,有人會主張道德是不可計算的,反對用算法刻畫道德,甚至認為道德領域是技術擴張的禁忌之地。不過,人工智能對社會結構的滲入作用勢不可擋,算法的影響早已深入到文明社會的每個角落。
人工智能相關技術的核心主要體現(xiàn)在決策算法方面。人工智能道德算法的研究主要是指那些在道德上可接受的算法或合乎倫理的算法,它們使自主系統(tǒng)的決策具有極高的可靠性和安全性。從這種意義上講,道德算法是實現(xiàn)人工智能功能安全的一項基本原則和技術底線。那么,人工智能如何才能成為一個安全可靠的道德推理者,能夠像人類一樣甚至比人類更加理性地做道德決策呢?在此,我們首先需要明確人工智能是如何進行道德決策。也就是說,人工智能的道德推理機制問題。目前,相關研究主要沿著三個方向展開。
一是理論/規(guī)則驅動進路。這也被稱為自上而下的進路,它是將特定群體認可的價值觀和道德標準程序化為道德代碼,嵌入智能系統(tǒng),內(nèi)置道德決策場景的指導性抉擇標準。在這方面,人們最容易想到的是20世紀40年代艾薩克·阿西莫夫(Isaac Asimov)提出的“機器人三定律”:“1.機器人不可以傷害人,或者通過不作為,讓任何人受到傷害;2.機器人必須遵從人類的指令,除非那個指令與第一定律相沖突;3.機器人必須保護自己的生存,條件是那樣做與第一、第二定律沒有沖突。”[5](P1)從理論上講,伊曼紐爾·康德(Immanuel Kant)的道義論、約翰·密爾(John Mill)的功利主義和約翰·羅爾斯(John Rawls)的正義論等都可以成為理論驅動進路的理論備選項。早期機器倫理尤其是符號主義的支持者對理論/規(guī)則驅動模式情有獨鐘,但技術瓶頸和可操作性難題使得這種研究進路日漸式微。例如,有限的道德準則如何適應無窮變化的場景在技術上始終是個難題;如何調和不同的價值共同體對于不同的道德機器的需求存在種種現(xiàn)實困境;如何將內(nèi)置某種道德理論偏向的人工智能產(chǎn)品讓消費者接受也是一個社會難題。[7]近年來,新興起的一種綜合運用貝葉斯推理技術和概率生成模型的研究方法為自上而下式的研究進路帶來曙光。[8]
二是數(shù)據(jù)驅動進路。這種自下而上的進路要求對智能系統(tǒng)進行一定的道德訓練,使其具備人類的道德推理能力,并利用學習算法將使用者的道德偏好投射到智能機器上。從根本上說,這是一種基于進化邏輯的機器技能習得模式。這種研究進路的支持者普遍持有一種道德發(fā)生學視角,主張道德能力是在一般性智能的基礎上演化而來,或將道德能力視為智能的子類而不是高于普通智能的高階能力。因此,他們是運用與人類的道德演化相似的進路展開研究的。如今,以深度學習(deep learning)為代表的數(shù)據(jù)驅動進路獲得了更多的擁躉。在人工智能道德算法的研究中,道德學習將成為人工智能獲得道德能力的關鍵。有學者提出,人工智能可通過閱讀和理解故事來“學會”故事所要傳達的道德決策模式或價值觀,以此來應對各種復雜的道德場景。[9](P105-112)不過,以深度學習為核心架構的決策算法是基于相關性的概率推理,不是基于因果性的推理,這使得道德推理似乎呈現(xiàn)出一種全新樣態(tài)。實際上,道德決策算法并不是獨立運作的,需要和其他算法系統(tǒng)聯(lián)合決策。當然,單單依靠學習算法是不夠的,甚至是有嚴重缺陷的。機器的道德學習嚴重依賴于訓練數(shù)據(jù)樣本和特征值的輸入,不穩(wěn)定的對抗樣本重復出現(xiàn)可能導致智能機器被誤導,基于虛假的相關性做出道德判斷,從而做出錯誤的道德決策。而且,算法的黑箱特征使得道德算法的決策邏輯缺乏透明性和可解釋性。另外,道德學習還會受到使用者價值偏好和道德場景的影響,做出與使用者理性狀態(tài)下相反的道德判斷。例如,人們不自覺的習慣動作往往是在理智上要克服的,而機器學習很難對此做出甄別。從這個意義上說,人工智能既有可能“學好”,也有可能“學壞”。
三是混合式?jīng)Q策進路。自上而下和自下而上的二元劃分過于簡略,難以應對復雜性帶來的種種挑戰(zhàn)。混合式的決策模式試圖綜合兩種研究進路,尋找一種更有前景的人工智能道德推理模式。按照當前學界普遍觀點,混合進路是人工智能道德推理的必然趨勢,但問題是兩者究竟以何種方式結合。我們知道,人類的道德推理能力是先天稟賦和后天學習的共同結果,道德決策是道德推理能力在具體場景中穩(wěn)定或非穩(wěn)定的展現(xiàn)。與人類的道德推理不同,人工智能的道德推理能力在很大程度上是人類預制的,但這種能力并不能保證人工智能能夠做出合理的道德決策,因為道德決策與具體場景密切相關,而場景又是極其復雜和多變的。因此,當智能機器遭遇道德規(guī)范普適性難題時,到底該如何解決?這不僅是技術專家所面臨的難題,更是對共同體價值如何獲得一致性的考驗。面對具體場景,不同的道德規(guī)范可能發(fā)生沖突,也可能產(chǎn)生各種道德困境,究竟該以哪種標準優(yōu)化道德算法,價值參量排序的優(yōu)先性問題將會變得越來越突出。按照瓦拉赫和艾倫的分析,在眾多的候選理論中,德性理論將有可能成為一種最有前景的開發(fā)人工智能道德決策能力的模型。[5](P102-109)德性倫理將人們對后果與責任的關注轉向品質和良習的培養(yǎng),因為這是好行為的保證,而這種道德良知的獲得被認為恰恰需要混合式進路來完成。
人工智能的設計倫理需要從兩個維度展開:一方面,設計和研發(fā)某種人工智能產(chǎn)品和服務之前,設計者或制造商要有明確的價值定位,能夠對其所產(chǎn)生的倫理和社會影響有總體預判;另一方面,人工智能為消費者提供服務的過程中如果出現(xiàn)價值偏差,系統(tǒng)內(nèi)置的糾偏機制能夠有效地防控危害繼續(xù)進行,防止危險的發(fā)生。例如,數(shù)據(jù)挖掘技術可能將隱藏在數(shù)據(jù)中的偏見或歧視揭示出來并運用到行動決策,但機器自身很難像人類一樣自覺地抵制一些個人偏見或歧視,這要求通過技術手段和社會手段聯(lián)合消除偏見或歧視。
那么,如何才能設計出符合人類道德規(guī)范的人工智能呢?概言之,面對在智力上日趨接近并超越人類的人工智能,設計者要設法賦予其對人類友善的動機,使其具備特定的道德品質,做出合乎道德的行為。設計人工智能使得它們能夠充分發(fā)揮特定的功能,同時又遵從人類道德主體的道德規(guī)范和價值體系,不逾越法律和道德的底線。但是,人工智能不可能自我演化出道德感,其工具性特征使得對它的利用可能出現(xiàn)偏差。因此,在設計人工智能產(chǎn)品和服務時,尤其應當努力規(guī)避潛在地被誤用或濫用的可能性。如果某些個人或公司出于私利而設計或研發(fā)違背人性之善的自主系統(tǒng),那么公共政策的制定機構有必要提前對這些誤用和濫用采取法律和倫理規(guī)制。如果具有高度自主性的系統(tǒng)缺乏倫理約束機制和價值一致性,那么在其尚不成熟階段被開放使用,其后果令人堪憂。因此,為人工智能系統(tǒng)內(nèi)置良善的價值標準和控制機制是必要手段,這是保證智能系統(tǒng)獲得良知和做出良行的關鍵。
人工智能應該更好地服務于人類,而不是使人類受制于它,這是人工智能設計的總體的價值定位問題。2016年,國際電氣和電子工程師協(xié)會(IEEE)發(fā)布《以倫理為基礎的設計:在人工智能及自主系統(tǒng)中將人類福祉擺在優(yōu)先地位的愿景》(第一版),呼吁科研人員在進行人工智能研究時優(yōu)先考慮倫理問題,技術人員要獲得相應的工程設計倫理培訓。IEEE要求優(yōu)先將增進人類福祉作為算法時代進步的指標。人工智能設計倫理是解決安全問題的必要措施,旨在保證優(yōu)先發(fā)展造福人類的人工智能,避免設計和制造不符合人類價值和利益的人工智能產(chǎn)品和服務。2017年12月12日,IEEE《人工智能設計的倫理準則》(第二版)在全球同時發(fā)布,進一步完善了對于設計者、制造商、使用者和監(jiān)管者等不同的利益相關方在人工智能的倫理設計方面的總體要求和努力方向。
人工智能產(chǎn)品制造者和服務提供商在設計和制造人工智能系統(tǒng)時,必須使它們與社會的核心價值體系保持一致。在這方面,IEEE《人工智能設計的倫理準則》闡述的人工智能設計“基本原則”為我們提供了很好的啟示:第一,人權原則。算法設置應當遵循基本的倫理原則,尊重和保護人權是第一位的,尤其是生命安全權和隱私權等。第二,福祉原則。設計和使用人工智能技術應當優(yōu)先考慮是否有助于增進人類福祉作為衡量指標,要避免算法歧視和算法偏見等現(xiàn)象的發(fā)生,維護社會公正和良序發(fā)展。第三,問責原則。對于設計者和使用者要明確相應的責任,權責分配和追責機制是明晰的,避免相關人員借用技術卸責。第四,透明原則。人工智能系統(tǒng)的運轉尤其是算法部分要以透明性和可解釋性作為基本要求。第五,慎用原則。要將人工智能技術被濫用的風險降到最低,尤其在人工智能技術被全面推向市場的初期,風險防控機制的設置必須到位,以贏得公眾的信任。[10]
人工智能的設計目標是增進人類福祉,使盡可能多的人從中受益,避免造成“數(shù)字鴻溝”。智能技術的革命性進展可能會改變當前的一些制度設計,但這種改變不能偏離以人為本的發(fā)展結構,應當堅守人道主義的發(fā)展底線。技術設計不能逾越對個人和自身合法權益的控制權,制度和政策的設計應當維護個人數(shù)據(jù)安全及其在信息社會中的身份特質。如果人工智能系統(tǒng)造成社會危害,相應的問責機制應當被有效地調用。實際上,這是要求相關管理部門能夠提前制定規(guī)則和追責標準,使得智能系統(tǒng)的決策控制權最終由人類社會共同體掌握。按照阿米塔伊·埃齊奧尼(Amitai Etzioni)和奧倫·埃齊奧尼(Oren Etzioni)的建議,從技術自身的監(jiān)管角度考慮,應當引入二階的監(jiān)督系統(tǒng)作為智能系統(tǒng)的監(jiān)護人程序,以此來防控人工智能技術的潛在風險。[11]對于社會監(jiān)管而言,人工智能的政府監(jiān)管機構和相關行業(yè)的倫理審查委員會對于智能系統(tǒng)的使用數(shù)據(jù)和信息具有調取權,并且能夠對系統(tǒng)的安全性和可靠性進行風險評估、測試和審計,公眾也有權知曉智能系統(tǒng)的利益相關方及其倫理立場。
確保人工智能的算法設計合乎倫理,是一個復雜的社會工程,需要整合各個方面的專業(yè)資源,進行跨學科的協(xié)作研究。為了提高智能機器的環(huán)境適應性,在為智能系統(tǒng)嵌入人類價值時,要平衡和分配不同的道德、宗教、政治和民族風俗習慣等因素的權重,使人工智能系統(tǒng)的設計能夠最大限度地符合人類社會的價值標準。人工智能的倫理問題的妥善處理需要多方合作,產(chǎn)業(yè)界和學術界應形成聯(lián)動機制,共同推進以價值為基礎的倫理文化和設計實踐。為此,下列措施對于實現(xiàn)上述實踐目標是必要的:第一,需要發(fā)揮算法工程師的技術專長,提高他們對特殊場景中倫理問題的敏感性和工程倫理素養(yǎng),確保智能系統(tǒng)促進安全并保護人權;第二,需要人文社科學工作者加強對人類心智運轉機制和人工智能道德決策機制的研究,能夠為人工智能的相關倫理議題提供思考框架和辯護理由,使公眾認識到智能系統(tǒng)的潛在社會影響;第三,需要審查和評估機構嚴格行事,提高人工智能系統(tǒng)與人類道德規(guī)范體系的兼容度;第四,需要公眾參與、表達訴求和提供反饋。
隨著人工智能和自主系統(tǒng)逐步嵌入到社會生活的方方面面,人類與機器的關系將變得越來越復雜,由此所引發(fā)的社會倫理問題將變得越來越突出。如果人工智能的復雜程度不斷提高,越來越具有人性,那么“恐怖谷”(uncanny valley)現(xiàn)象是否會真實發(fā)生?雷·庫茲韋爾(Ray Kurzweil)預言的“奇點”(人工智能超越人類智能的點)是否真的已經(jīng)臨近?比人類更聰明的人工智能是否對人類“友好”,抑或損害人類福祉,甚至異化為劉易斯·芒福德(Lewis Mumford)所說的統(tǒng)治人類的“巨機器”?如果人工智能進化為超級智能體,是否像科幻電影所描述的那樣反叛人類,奴役人類,甚至最終會消滅人類?在未來社會,人工智能如何造福于人類社會,避免被居心叵測的人類個體或團體操控,危害或奴役他人。人類如何適應和引導新型的人工智能社會,這些都是值得深入探討的問題。這類問題的倫理學探討并不直接著眼于幫助我們建構AMAs,也不能僅僅局限于未來學、科幻作品式的想象和哲學的思想實驗,而應該開展特定的定量分析來研究,完善技術風險評估體系建設,權衡災難發(fā)生的可能性,并做好積極的預防措施。
事實上,如何善用和阻止惡用人工智能才是人工智能社會倫理研究的關鍵問題。這個問題的落腳點在于優(yōu)化人機合作關系,建立一種能夠使人類與智能機器相互適應和信任的機制,使人工智能建設性地輔助人們的生產(chǎn)和生活。在這方面,當前討論最多也最為實際的是人工智能是否會取代人們的工作,引起大規(guī)模的技術性失業(yè)?人們擔憂,強大的人工智能可能導致很多失業(yè)人員完全無法找到合適的工作,進而使得社會結構變得不穩(wěn)定。牛津大學對美國勞工統(tǒng)計局描述的702種職業(yè)所需技能進行定量分析:“美國47%的工作極有可能會被高度自動化的系統(tǒng)所取代,這些職業(yè)包括的很多領域的藍領職業(yè)和白領職業(yè)。……無論你接受與否,高達50%的就業(yè)崗位在不遠的未來都有被機器占領的危險。”[12](P147)回望歷史,每一次技術革命都可能導致失業(yè),很多工作崗位、工種和技能被淘汰掉。與此同時,技術革命也創(chuàng)造出很多新的職業(yè)和工作機會。不過,這次智能革命所具有的顛覆性可能不同于以往,它甚至有可能重新定義人們對于勞動的觀念。如果人工智能最終導致大規(guī)模的失業(yè)潮,如何滿足作為人們基本生活需要的勞動權,社會穩(wěn)定如何得到維護,社會保障制度如何負擔失業(yè)人員的生活?對于這些問題,學術界和政府相關部門從現(xiàn)在開始就需要展開深入研究。
人工智能的深入應用還將涉及更大范圍的公平和正義的問題。歷史證明,新技術可以消除基于舊技術的不平等,但也可能產(chǎn)生新的更大的不平等。不同國家、地區(qū)和人群在獲得人工智能的福利方面可能存在不公平和不平等問題,導致“人工智能鴻溝”。如何避免這場技術革命引起新的差距,讓更多的人獲益,避免欠發(fā)達地區(qū)和弱勢群體在技術福利分配中再次陷入被動地位,彌合“人工智能鴻溝”,是人工智能社會倫理研究的焦點。從技術角度看,在算法時代,人工智能系統(tǒng)對數(shù)據(jù)的需求幾乎是無限的,這勢必涉及個人信息安全和隱私權等問題。為了應對可能的倫理風險,隱私政策和知情同意條款需要得到相應的更新,商業(yè)機構在對信息進行數(shù)據(jù)挖掘和價值開發(fā)時要遵循相應的倫理規(guī)范。數(shù)據(jù)共享方式有待創(chuàng)新,以維護數(shù)據(jù)安全,保護隱私權和個人信息權將是人工智能社會倫理研究的重點領域。
在一些具體領域,人工智能的深入應用已經(jīng)產(chǎn)生較為熱烈的倫理討論和媒體關注。在軍事方面,是否應該限制或禁止使用致命性自主武器系統(tǒng)(lethal autonomous weapons systems,簡稱LAWS)的話題備受熱議。LAWS真的能夠做到“只攻擊敵人,不攻擊平民”嗎?它們在不需要人類干預的情況下,能夠像人類戰(zhàn)士一樣遵守道德準則嗎?如果LAWS可以上戰(zhàn)場作戰(zhàn),那它抉擇目標生死的標準該由誰來制定?2015年7月,一封要求停止研發(fā)致命性自主武器系統(tǒng)的公開信獲得了3萬多人簽名,其中包括斯蒂芬·霍金(Stephen Hawking)、埃隆·馬斯克(Elon Musk)及眾多人工智能領域的專家。在他們看來,自主武器系統(tǒng)具有極大的風險,一旦被研發(fā)成功并應用,就可能被恐怖組織掌握,這對于無辜平民是巨大的安全威脅,甚至有可能引發(fā)第三次世界大戰(zhàn)。[13]在醫(yī)療領域,隨著醫(yī)療影像診斷的精準度的不斷提高并超越醫(yī)生,人工智能技術可能被廣泛應用于疾病診斷,如果出現(xiàn)誤診,責任究竟由誰來承擔?人工智能技術同時也加大了醫(yī)療數(shù)據(jù)泄露的風險,醫(yī)療機構保存的病人健康數(shù)據(jù)和電子病例有可能被不恰當?shù)剡M行價值開發(fā),如何合法地收集和管理這些數(shù)據(jù)已經(jīng)成為近年來學術界研究的熱點話題。近年來,美國某公司制造出性愛機器人的消息曾一度引發(fā)輿論熱議,支持和反對之聲不絕于耳。類似的仿真機器人的出現(xiàn)是否會對人類相互之間的情感構成損害,是否對人們的婚姻觀念和社會制度造成沖擊,等等。
近年來,美國和英國等先后發(fā)布國家人工智能戰(zhàn)略報告,大力推動人工智能及其相關產(chǎn)業(yè)的發(fā)展。我國也極其重視人工智能和自主系統(tǒng)的研發(fā)和應用,2017年7月8日,國務院發(fā)布《新一代人工智能發(fā)展規(guī)劃》(以下簡稱《規(guī)劃》),將人工智能倫理法律研究列為重點任務,要求開展跨學科探索性研究,推動人工智能法律倫理的基礎理論問題研究。《規(guī)劃》對人工智能倫理和法律制訂了三步走的戰(zhàn)略目標:到2020年,部分領域的人工智能倫理規(guī)范和政策法規(guī)初步建立;到2025年,初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系;到2030年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。《規(guī)劃》指出,人工智能的迅速發(fā)展將深刻改變?nèi)祟惿鐣睢⒏淖兪澜纾斯ぶ悄芸赡軒砀淖兙蜆I(yè)結構、沖擊法律與社會倫理、侵犯個人隱私、挑戰(zhàn)國際關系準則等問題,要求在大力發(fā)展人工智能的同時,必須高度重視可能帶來的安全風險挑戰(zhàn),加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發(fā)展。
我們必將生活在一個人機共生的時代。人類與機器之間勢必將發(fā)生各種沖突和矛盾,這些很難僅僅靠法律和制度來完全解決,人工智能倫理研究對于人機合作和信任將是必要之物。雖然我們對倫理學指導人們?nèi)粘I畹牡赖聸Q策常存疑慮,但是倫理學理論可以為智能機器的道德決策提供指南將是基本事實。現(xiàn)階段,有很多人鼓吹我們正處在智能革命過程中,但這場革命并不能被無限制地夸大。“在智能爆發(fā)的前景下,我們?nèi)祟惥拖衲弥◤椡娴暮⒆印!M管我們把炸彈放到耳邊能夠聽到微弱的滴答聲,但是我們也完全不知道爆炸會在何時發(fā)生。”[14](P328)類似的未來學家式的擔憂、科技精英的猜想和科幻電影式的描繪雖然能為我們的倫理思考提供素材,但這些可能并不是我們實際上將會真實遭遇的情境。著眼于現(xiàn)實,人工智能倫理研究的目標始終是要給人工智能一顆“良芯(良心)”,使其像人類那樣能夠明辨是非,進而才能“行有德之事,做有德之機”。從這種意義上講,“機器之芯”和“人類之心”的研究是相得益彰的。這些研究能夠使得我們發(fā)現(xiàn)人造物與人類更多的相似性和差異性,恰恰是這些將會使我們更加明白“我們到底是誰”和“我們在做什么”。因此,人工智能倫理研究恰恰是對德爾斐神廟門楣上的神諭“認識你自己”的最好詮釋。