[摘要]發(fā)展可信人工智能,確保人工智能的安全、可靠、可控,是實(shí)現(xiàn)人機(jī)和諧的重要內(nèi)容。可信人工智能的發(fā)展要堅(jiān)持科技向善的原則,在推動(dòng)人工智能技術(shù)共同體建設(shè)的基礎(chǔ)上,確保人工智能技術(shù)的可解釋性。實(shí)現(xiàn)可信人工智能的關(guān)鍵是技術(shù)的安全性和可控性,從邏輯視角出發(fā),現(xiàn)代邏輯作為規(guī)則驅(qū)動(dòng)的人工智能技術(shù),基于明確的因果規(guī)則,在發(fā)展可信人工智能技術(shù)中具有明顯的可解釋優(yōu)勢(shì)。應(yīng)充分發(fā)揮邏輯的驅(qū)動(dòng)作用,將現(xiàn)代邏輯的推理機(jī)制應(yīng)用于人工智能的推理系統(tǒng),通過(guò)實(shí)現(xiàn)技術(shù)的交叉融合,積極探尋新時(shí)代背景下人機(jī)和諧發(fā)展的可能甚至法則,尋求人類和可信人工智能融合發(fā)展的多元路徑,使智能體系統(tǒng)能夠在開放的時(shí)態(tài)和動(dòng)態(tài)環(huán)境中實(shí)現(xiàn)完美刻畫,確保人工智能技術(shù)的可信可控。
[關(guān)鍵詞]可信人工智能;邏輯視角;可解釋;規(guī)范邏輯
[作者簡(jiǎn)介]付芳,南開大學(xué)哲學(xué)院博士生,河南財(cái)經(jīng)政法大學(xué)副教授。
人工智能已經(jīng)全面融入人類的生產(chǎn)生活,成為推動(dòng)社會(huì)發(fā)展的重要力量。人工智能技術(shù)作為一把雙刃劍,在推動(dòng)社會(huì)進(jìn)步的同時(shí),也帶來(lái)一定的風(fēng)險(xiǎn)和挑戰(zhàn)。針對(duì)人工智能的發(fā)展所帶來(lái)的人機(jī)信任危機(jī),2017年11月,何積豐院士在香山科學(xué)會(huì)議上首次提出可信人工智能(Trustworthy AI)的概念,其研究范疇涵蓋人工智能技術(shù)和應(yīng)用的可解釋性、安全性和公平性等問(wèn)題,為我國(guó)發(fā)展可信人工智能指明了方向。
一、為什么要發(fā)展可信人工智能
1.人工智能技術(shù)的信任危機(jī)
人工智能是主要研究用于模擬和擴(kuò)展人的智能的理論和方法、技術(shù)和應(yīng)用系統(tǒng)的一門新的科學(xué),發(fā)展人工智能技術(shù)是為了更好地造福人類。隨著人工智能技術(shù)融入人類社會(huì)的程度不斷加深,人工智能在為人類社會(huì)帶來(lái)發(fā)展機(jī)遇的同時(shí),也給人類的生產(chǎn)生活帶來(lái)了一定的風(fēng)險(xiǎn)和挑戰(zhàn),其在現(xiàn)實(shí)應(yīng)用中出現(xiàn)的不可解釋、安全性、公平性等問(wèn)題,以及人們對(duì)人工智能未來(lái)發(fā)展的擔(dān)憂,使人們對(duì)可信人工智能技術(shù)充滿期待。目前,以深度學(xué)習(xí)為核心的人工智能算法遇到瓶頸,其存在的不可解釋、安全性等信任問(wèn)題,很大程度上影響了人工智能技術(shù)的更新與推廣。人工智能技術(shù)存在利用3D面具合成照片進(jìn)而破解人臉識(shí)別系統(tǒng)的問(wèn)題、Uber自動(dòng)駕駛汽車在行駛中未能及時(shí)識(shí)別而導(dǎo)致行人死亡等算法安全引發(fā)的風(fēng)險(xiǎn)問(wèn)題、黑箱模型導(dǎo)致的算法不透明問(wèn)題、學(xué)習(xí)算法的結(jié)果受可能存在偏見歧視的訓(xùn)練數(shù)據(jù)影響而導(dǎo)致的智能決策偏見問(wèn)題、人工智能在復(fù)雜情形下的智能決策引發(fā)的事故頻發(fā)且難以用現(xiàn)行法規(guī)界定事故的責(zé)任歸屬問(wèn)題以及數(shù)據(jù)泄露導(dǎo)致的個(gè)人隱私安全問(wèn)題等,這些人工智能技術(shù)在發(fā)展過(guò)程中出現(xiàn)的不可信任問(wèn)題,迫切要求人類開展對(duì)可信人工智能的研究,以使人工智能技術(shù)能夠建立在可信任的基礎(chǔ)上,推動(dòng)人機(jī)和諧發(fā)展。
2.技術(shù)發(fā)展推動(dòng)對(duì)可信人工智能的需求
隨著人工智能技術(shù)的進(jìn)化,智能系統(tǒng)的算法和算力水平得到大幅提升,人工智能技術(shù)給人們的生產(chǎn)生活方式帶來(lái)革命性變化,推動(dòng)人類社會(huì)進(jìn)入智能時(shí)代。智能科技推動(dòng)社會(huì)發(fā)展的作用是巨大的,與此同時(shí),其雙刃劍效應(yīng)日益凸顯,美國(guó)科學(xué)哲學(xué)家馬克斯·W.瓦托夫斯基(Marx W.Wartofsky)指出:“一方面知道科學(xué)是理性和人類文化的最高成就,另一方面又害怕科學(xué)業(yè)已變成一種發(fā)展得超出人類的控制的不道德和無(wú)人性的工具,一架吞噬著它面前的一切的沒(méi)有靈魂的兇殘機(jī)器。”[1](9)當(dāng)前,人工智能技術(shù)的“不確定性”威脅著社會(huì)的安全與穩(wěn)定,由神經(jīng)網(wǎng)絡(luò)算法主導(dǎo)的人工智能技術(shù)的不可追溯以及人工智能“算法黑箱”的不可跟蹤等問(wèn)題,使人工智能在技術(shù)應(yīng)用中產(chǎn)生了信任危機(jī),人們對(duì)可信人工智能的發(fā)展充滿期待,迫切希望擁有可信任的人工智能技術(shù),以更好地為人類服務(wù)。2018年10月,習(xí)近平總書記提出:“要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,維護(hù)人民利益和國(guó)家安全,確保人工智能安全、可靠、可控。”[2]2019年6月,二十國(guó)集團(tuán)(Group of 20,簡(jiǎn)稱G20)提出要堅(jiān)持以人為本、發(fā)展可信人工智能的“G20人工智能原則”,并得到國(guó)際社會(huì)的普遍認(rèn)同。2019年10月,京東集團(tuán)在烏鎮(zhèn)舉辦的世界互聯(lián)網(wǎng)大會(huì)上首次提出踐行“可信賴人工智能”的六大維度。同時(shí),國(guó)內(nèi)第一本《可信人工智能白皮書》于2021年7月發(fā)布,提出了可信人工智能的發(fā)展框架,從實(shí)現(xiàn)可控可靠、可解釋性、公平性和隱私保護(hù)等方面提出可信人工智能的發(fā)展路徑。人工智能技術(shù)的發(fā)展推動(dòng)人類社會(huì)進(jìn)入智能化時(shí)代,與此同時(shí),人工智能技術(shù)的廣泛應(yīng)用以及人們對(duì)人機(jī)和諧的追求不斷推動(dòng)可信人工智能技術(shù)的發(fā)展。
3.可信人工智能的技術(shù)選擇
愛因斯坦提出,任何科學(xué)工作“都是從世界的合理性和可理解性這種堅(jiān)定的信念出發(fā)的”[3](409-410)。在人工智能的研究中,符號(hào)主義、聯(lián)結(jié)主義和行為主義是其主要的技術(shù)路線,人工智能的三大技術(shù)路線,在不同時(shí)期明確了人工智能技術(shù)的發(fā)展方向,并在不同領(lǐng)域?qū)崿F(xiàn)了人工智能的技術(shù)進(jìn)化。我們所熟知的阿爾法圍棋(AlphaGo)是聯(lián)結(jié)主義和行為主義相結(jié)合的技術(shù)路線,是深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的結(jié)合體,其中深度學(xué)習(xí)屬于聯(lián)結(jié)主義,強(qiáng)化學(xué)習(xí)屬于行為主義,但是由深度神經(jīng)網(wǎng)絡(luò)主導(dǎo)的人工智能技術(shù)存在算法的不可跟蹤、“算法黑箱”等缺點(diǎn),成為制約聯(lián)結(jié)主義人工智能發(fā)展的瓶頸。在人工智能的三大技術(shù)路線中,符號(hào)主義是最有利于發(fā)展可信人工智能的技術(shù)路線,其基于明確的因果規(guī)則,能夠由結(jié)論回溯找出相應(yīng)的原因,最大的優(yōu)勢(shì)在于具有可解釋性,這一特點(diǎn)正契合可信人工智能發(fā)展的技術(shù)需要。當(dāng)然,隨著技術(shù)的交叉融合,單一的技術(shù)路線很難適應(yīng)復(fù)雜的應(yīng)用需求,如何實(shí)現(xiàn)邏輯技術(shù)的可解釋優(yōu)勢(shì)與聯(lián)結(jié)主義和行為主義技術(shù)路線的交叉融合,是可信人工智能發(fā)展的迫切需求。
二、可信人工智能的發(fā)展策略
要發(fā)展可信人工智能,實(shí)現(xiàn)人工智能的安全、可靠、可控,須將發(fā)展策略貫穿在制度建設(shè)、技術(shù)保障、監(jiān)督反饋等全環(huán)節(jié),在堅(jiān)持科技向善原則的基礎(chǔ)上,積極推動(dòng)人工智能技術(shù)共同體建設(shè),充分利用現(xiàn)代邏輯技術(shù)的可解釋優(yōu)勢(shì),確保人工智能技術(shù)的安全可信。
1.堅(jiān)持科技向善的原則
縱觀人類社會(huì)的科技發(fā)展史,新技術(shù)特別是機(jī)器的出現(xiàn)通常會(huì)帶來(lái)兩種結(jié)果:一是大幅提升生產(chǎn)效率和提高生產(chǎn)力水平,這是技術(shù)發(fā)展的目的所在;二是生產(chǎn)效率的提升造成短期內(nèi)大量產(chǎn)業(yè)工人的失業(yè),這是技術(shù)革命必然導(dǎo)致的結(jié)果。人工智能技術(shù)的出現(xiàn)遵循同樣的發(fā)展規(guī)律。隨著人工智能的迅猛發(fā)展以及在應(yīng)用中的技術(shù)優(yōu)勢(shì),人類社會(huì)的智能化程度不斷加深,同時(shí),智能技術(shù)的發(fā)展代替了大量的人類勞動(dòng),引起對(duì)人工智能技術(shù)取代人類勞動(dòng)的擔(dān)憂。在筆者看來(lái),人類應(yīng)堅(jiān)持科技向善的原則,使人工智能技術(shù)的發(fā)展具有安全性和可信任性,進(jìn)而實(shí)現(xiàn)人機(jī)和諧發(fā)展。隨著社會(huì)的變化和技術(shù)的更迭,人類的適應(yīng)性特征總能依據(jù)環(huán)境的變化而作出相應(yīng)改變,同時(shí),歷次對(duì)人類具有深遠(yuǎn)影響的技術(shù)革命都是雙刃劍,它們?cè)诜e極推動(dòng)人類社會(huì)發(fā)展的同時(shí),也會(huì)帶來(lái)一定的負(fù)面影響。在此過(guò)程中,我們更應(yīng)該看到技術(shù)革命的積極作用,人工智能技術(shù)越發(fā)展,其智能水平越高,智能機(jī)器逐步代替人的體力勞動(dòng)和腦力勞動(dòng),必將給人類的生產(chǎn)生活方式帶來(lái)新的革命性變化。控制論專家諾伯特·維納(Norbert Wiener)認(rèn)為,技術(shù)可以幫助人類發(fā)展,創(chuàng)造更公正的社會(huì),但前提是人類必須控制技術(shù)[4](19-20)。對(duì)人工智能技術(shù)而言,堅(jiān)持科技向善的原則,就是要推動(dòng)可信人工智能的發(fā)展,確保人工智能在制度保障、技術(shù)研發(fā)、現(xiàn)實(shí)應(yīng)用等環(huán)節(jié)具備可信任的要求,實(shí)現(xiàn)人工智能的安全、可靠、可控,推動(dòng)人類借助技術(shù)的力量實(shí)現(xiàn)自身解放和全面發(fā)展。
2.推動(dòng)人工智能技術(shù)共同體建設(shè)
進(jìn)入21世紀(jì),世界各國(guó)成為利益相關(guān)的命運(yùn)共同體,要發(fā)展可信人工智能技術(shù),應(yīng)積極推動(dòng)人工智能技術(shù)共同體建設(shè)。可信人工智能的技術(shù)創(chuàng)新與現(xiàn)實(shí)應(yīng)用,要與世界先進(jìn)科技的發(fā)展同步,堅(jiān)持合作共贏,注重國(guó)際合作和技術(shù)共享。為積極推動(dòng)可信人工智能的發(fā)展,應(yīng)在制度建設(shè)、體制機(jī)制、技術(shù)保障、算法安全等方面規(guī)范人工智能技術(shù)發(fā)展的標(biāo)準(zhǔn)和要求,確保能夠全方位推動(dòng)可信人工智能的發(fā)展。美國(guó)國(guó)防高級(jí)研究計(jì)劃局提出可解釋的人工智能計(jì)劃,以積極應(yīng)對(duì)人工智能技術(shù)發(fā)展中的不可信任風(fēng)險(xiǎn)和挑戰(zhàn)。2018年,歐盟發(fā)布《可信人工智能倫理指南草案》,強(qiáng)調(diào)人工智能的技術(shù)健壯性和倫理規(guī)范性,提出可信人工智能的發(fā)展框架、發(fā)展要求以及用于實(shí)現(xiàn)的技術(shù)和非技術(shù)性方法,并設(shè)計(jì)出一套相關(guān)的評(píng)估清單。2019年6月,我國(guó)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,要求人工智能技術(shù)發(fā)展須遵循安全可控、尊重隱私、共擔(dān)責(zé)任等原則,逐步實(shí)現(xiàn)人工智能的可信賴、可追溯和可監(jiān)督,不斷提升人工智能系統(tǒng)的可解釋性、可靠性和可控性,在推動(dòng)人工智能技術(shù)共同體的建設(shè)中提升我國(guó)的可信人工智能技術(shù)水平,發(fā)展負(fù)責(zé)任的人工智能。因此,從人工智能技術(shù)共同體建設(shè)的角度出發(fā),我國(guó)發(fā)展可信人工智能技術(shù),需要融合世界各國(guó)先進(jìn)的技術(shù)指標(biāo)和規(guī)范機(jī)制,堅(jiān)持可信人工智能技術(shù)符合尊重人類自主、防止傷害、公平和可解釋性等基本的可信原則,確保技術(shù)安全可靠且符合普遍的倫理規(guī)范,推動(dòng)可信人工智能技術(shù)標(biāo)準(zhǔn)的規(guī)范化和國(guó)際化。
3.確保人工智能技術(shù)的可解釋性
目前,智能系統(tǒng)尚且不能離開人類的技術(shù)干預(yù)進(jìn)行自主思維,需要按照人類設(shè)計(jì)的程序作出相應(yīng)的智能行為和決策。為推動(dòng)人機(jī)和諧發(fā)展,人類需要在技術(shù)發(fā)展過(guò)程中加強(qiáng)對(duì)未來(lái)人工智能系統(tǒng)的風(fēng)險(xiǎn)控制,發(fā)展可信人工智能,確保人工智能技術(shù)的安全和可解釋性,做到智能系統(tǒng)的可靠可控、信息透明、技術(shù)可解釋以及數(shù)據(jù)保護(hù)等,使技術(shù)具有穩(wěn)定性、可解釋性、公平性等可信任特征,以更好地為人類服務(wù)。應(yīng)將技術(shù)的可解釋性作為技術(shù)可信的重要標(biāo)準(zhǔn),運(yùn)用符號(hào)主義的技術(shù)路線或者將邏輯學(xué)工具融入聯(lián)結(jié)主義和行為主義的技術(shù)路線當(dāng)中,以提高技術(shù)的可解釋水平。目前的法律專家系統(tǒng)等規(guī)范技術(shù)比較完善,應(yīng)在此基礎(chǔ)上將規(guī)范技術(shù)運(yùn)用到現(xiàn)有的智能系統(tǒng)中。隨著智能技術(shù)的更新和發(fā)展,技術(shù)能夠創(chuàng)造出違背人類意志而使人類難以接受的智能體,為防止類似的災(zāi)難發(fā)生,應(yīng)充分發(fā)展和利用道義邏輯、時(shí)態(tài)邏輯、認(rèn)知邏輯等邏輯工具,積極發(fā)展人工智能道德技術(shù),正如MIT的情感計(jì)算研究專家羅莎琳德·皮卡德(Rosatind Picard)所指出的:“機(jī)器越自由,就越需要道德準(zhǔn)則。”[5](18)歐美學(xué)界從20世紀(jì)70年代開始的技術(shù)哲學(xué)的倫理轉(zhuǎn)向,將道德價(jià)值融入技術(shù)設(shè)計(jì)成為技術(shù)哲學(xué)的一個(gè)重要內(nèi)容,進(jìn)而實(shí)現(xiàn)技術(shù)與道德的有機(jī)融合。在可信人工智能的技術(shù)設(shè)計(jì)中,使智能系統(tǒng)按照正確方式作出智能行為和決策,可以從道德角度對(duì)智能系統(tǒng)的行為和決策進(jìn)行規(guī)范與限制。維貝克提出將技術(shù)道德化,他認(rèn)為應(yīng)把“技術(shù)作為道德行動(dòng)者”[6](50-55),這為可信人工智能的技術(shù)設(shè)計(jì)提供了一種全新進(jìn)路。為人工智能體設(shè)置道德規(guī)則,并以技術(shù)的方式嵌入智能系統(tǒng),通過(guò)有效的技術(shù)規(guī)范智能體的行為和決策,做到智能行為和決策的可信、可控。在已有的技術(shù)應(yīng)用中,從人-機(jī)互動(dòng)研究中產(chǎn)生的價(jià)值敏感設(shè)計(jì)進(jìn)路,是一種以理論為基礎(chǔ)的技術(shù)設(shè)計(jì)進(jìn)路,通過(guò)有原則性利用各種技術(shù)體現(xiàn)人類的倫理價(jià)值,可以有效消除技術(shù)設(shè)計(jì)與倫理道德之間的隔閡,實(shí)現(xiàn)技術(shù)的規(guī)范化。
三、可信人工智能的邏輯驅(qū)動(dòng)
人工智能科學(xué)與現(xiàn)代邏輯聯(lián)系緊密,計(jì)算機(jī)和人工智能的產(chǎn)生得益于現(xiàn)代邏輯的驅(qū)動(dòng),同時(shí)現(xiàn)代邏輯作為規(guī)則驅(qū)動(dòng)的人工智能技術(shù),基于明確的因果規(guī)則,具有明顯的可解釋優(yōu)勢(shì),是推動(dòng)可信人工智能發(fā)展的主要技術(shù)路線之一,可確保人工智能技術(shù)的安全和可信。
1.發(fā)揮邏輯的可解釋作用
人工智能的產(chǎn)生得益于邏輯的驅(qū)動(dòng),“在人工智能的起源中,邏輯學(xué)是人工智能發(fā)展的動(dòng)力;在未來(lái),邏輯學(xué)依然是人工智能發(fā)展不可或缺的動(dòng)力引擎”[7](89)。邏輯系統(tǒng)基于明確的因果規(guī)則,具有可解釋性和可追溯性等優(yōu)點(diǎn),建立在符號(hào)主義基礎(chǔ)上的人工智能算法將會(huì)在可信人工智能發(fā)展中發(fā)揮積極作用。何積豐指出:“如果依賴人工智能技術(shù)作決策的話,應(yīng)當(dāng)保證決策是可解釋的,而且不能具備過(guò)高的安全風(fēng)險(xiǎn)。”[8](4)在人工智能的技術(shù)路線中,符號(hào)主義是一種基于邏輯推理的智能模擬方法,也被稱作規(guī)則驅(qū)動(dòng)的人工智能技術(shù),這種進(jìn)路包括決策樹、貝葉斯推理等典型算法模型。與人類思維相比,符號(hào)主義技術(shù)路線強(qiáng)調(diào)運(yùn)用概念和語(yǔ)言表達(dá)對(duì)世界的理解,其構(gòu)建基于明確的因果規(guī)則,具有較好的可解釋性,可以通過(guò)檢測(cè)輸入的特定指標(biāo)變化對(duì)輸出結(jié)果產(chǎn)生的影響,實(shí)現(xiàn)智能系統(tǒng)的可驗(yàn)證性,符號(hào)主義技術(shù)路線是發(fā)展可信人工智能最具優(yōu)勢(shì)的技術(shù)路線。
推理在智能系統(tǒng)的知識(shí)學(xué)習(xí)和世界理解中發(fā)揮著重要的作用,在人工智能系統(tǒng)的智能推理中,取得較大進(jìn)展的主要有常識(shí)推理、因果推理、關(guān)系推理和直覺推理四種推理方式,人工智能中的常識(shí)推理、因果推理和關(guān)系推理,主要借鑒人的邏輯推理方式,其中因果推理包括演繹推理和歸納推理,而人工智能的直覺推理主要受人的直覺推理的啟發(fā)。在建構(gòu)人工智能算法的模型時(shí),人工智能要實(shí)現(xiàn)智能強(qiáng)大并具備技術(shù)的可解釋性,需要智能機(jī)器模擬人的推理機(jī)制和建模世界,使智能系統(tǒng)具有依據(jù)學(xué)習(xí)到的知識(shí)和觀察到的現(xiàn)象進(jìn)行推理的能力,進(jìn)而作出可解釋的智能決策和行為。邏輯的形式化是人工智能形式化的基礎(chǔ),環(huán)環(huán)相接的變換序列很容易在機(jī)器上實(shí)現(xiàn),因此,人工智能的形式化主要是依據(jù)邏輯系統(tǒng)的形式化進(jìn)行定義,由數(shù)據(jù)集和指令集構(gòu)成可執(zhí)行程序,當(dāng)實(shí)現(xiàn)了任務(wù)或問(wèn)題的形式化,人工智能便可以依據(jù)執(zhí)行程序完成任務(wù)或者解決問(wèn)題。形式化并非把指令在內(nèi)的一切實(shí)現(xiàn)數(shù)字化,而是通過(guò)編碼把數(shù)字在內(nèi)的一切變成符號(hào)。具體來(lái)講,形式化通過(guò)建立某種算法,并由計(jì)算機(jī)程序執(zhí)行,因此,從某種意義上說(shuō),形式化的界限即是人工智能的界限。隨著傳統(tǒng)邏輯在人工智能技術(shù)中的應(yīng)用和發(fā)展,在其基礎(chǔ)上發(fā)展出了計(jì)算邏輯。計(jì)算邏輯在形式上同時(shí)滿足邏輯和計(jì)算,它采用符號(hào)邏輯的技術(shù),建立其數(shù)學(xué)和計(jì)算的基礎(chǔ),是邏輯程序設(shè)計(jì)的主要驅(qū)動(dòng)。在應(yīng)用上,哲學(xué)家蘇珊·安德森(Suson Anderson)和計(jì)算機(jī)專家邁克爾·安德森(Michael Anderson)設(shè)計(jì)的醫(yī)療倫理專家系統(tǒng)MedEthEx能夠進(jìn)行初步的道德推理;他們?cè)O(shè)計(jì)的智能系統(tǒng)“源于案例的基于規(guī)則的行為范式”(Case-Supported Principle-Based Behavior Paradigm),主要應(yīng)用于機(jī)器人醫(yī)療護(hù)理領(lǐng)域,對(duì)智能系統(tǒng)的決策和行為進(jìn)行倫理約束和限制,增強(qiáng)了人工智能系統(tǒng)的安全性和可信程度。
2.發(fā)展規(guī)范邏輯
現(xiàn)代邏輯中的可能世界語(yǔ)義學(xué)理論,是邏輯學(xué)家克里普克根據(jù)萊布尼茨“可能世界”的思想提出的,它適用于模態(tài)邏輯、道義邏輯、時(shí)態(tài)邏輯等多種邏輯學(xué)分支。道義邏輯中的“可能世界”,被認(rèn)為是在法律和道德上的理想的世界,每個(gè)理想世界中的真命題,是人們應(yīng)該共同遵守的行為規(guī)范和倫理準(zhǔn)則。在可信人工智能的技術(shù)設(shè)計(jì)中,將人類遵守的法律和倫理以技術(shù)的方式融入人工智能系統(tǒng)的設(shè)計(jì)中,使人工智能系統(tǒng)的智能行為和決策能夠識(shí)別法律和倫理影響,進(jìn)而遵守人類社會(huì)的法律和倫理規(guī)則,因此,人工智能道德的技術(shù)設(shè)計(jì)為可信人工智能技術(shù)的發(fā)展提供了全新進(jìn)路。在運(yùn)用道義邏輯等邏輯學(xué)工具開展人工智能系統(tǒng)的技術(shù)設(shè)計(jì)中,將行為類型與行為代碼建立聯(lián)系,智能系統(tǒng)通過(guò)參照形式化的行為規(guī)范進(jìn)行智能計(jì)算,并依據(jù)交互信息作出最佳的規(guī)范行為和決策。例如,使用道義邏輯、歸納邏輯、信念邏輯或行動(dòng)邏輯,對(duì)信息交互過(guò)程中保護(hù)個(gè)人隱私的允許、禁止等規(guī)范行為進(jìn)行描述和推理。
在可信人工智能系統(tǒng)的技術(shù)設(shè)計(jì)中,邏輯進(jìn)路通過(guò)對(duì)定理證明方法的理解應(yīng)用于導(dǎo)出公式,具有一定的可解釋優(yōu)勢(shì)。運(yùn)用道義邏輯工具編寫程序構(gòu)建規(guī)范系統(tǒng),主要是構(gòu)建、刻畫與職責(zé)義務(wù)相關(guān)的概念和關(guān)系的邏輯系統(tǒng),在道義邏輯系統(tǒng)進(jìn)行邏輯推理時(shí),運(yùn)用道義算子刻畫可能出現(xiàn)的情況,并使用一些新算子的規(guī)則進(jìn)行運(yùn)算表達(dá)。智能系統(tǒng)推斷出智能體應(yīng)該執(zhí)行哪種行為代碼,進(jìn)而選擇與行為代碼相對(duì)應(yīng)的行為類型,作出相應(yīng)的智能行為和決策。在現(xiàn)實(shí)場(chǎng)景中,規(guī)范理論與道義邏輯相對(duì)應(yīng),除基本的邏輯系統(tǒng),需要對(duì)不同智能體在不同情形下的具體義務(wù)進(jìn)行刻畫,規(guī)范理論不同,所指定的義務(wù)也不相同。將規(guī)范邏輯的推理機(jī)制應(yīng)用于人工智能的推理系統(tǒng)時(shí),規(guī)范理論許諾一個(gè)全面的解決方案,規(guī)范準(zhǔn)則和要求通過(guò)自然語(yǔ)言得以清晰表達(dá)和刻畫,并被轉(zhuǎn)化為行為代碼嵌入智能系統(tǒng)。基于規(guī)則的系統(tǒng)被刻畫為形式系統(tǒng),推理機(jī)制從公理的小集合中通過(guò)多種組合推導(dǎo)出新的規(guī)則,規(guī)則用來(lái)確定智能系統(tǒng)的規(guī)范行為代碼是允許、禁止還是中立的,以此決定智能體的規(guī)范行為和決策。通常來(lái)說(shuō),規(guī)范準(zhǔn)則和要求需要有一套相應(yīng)的規(guī)則列表,每一組規(guī)則列表可以依據(jù)倫理理論、康德的道德律令、現(xiàn)行的法律或道德標(biāo)準(zhǔn)等,也可以結(jié)合技術(shù)人員的設(shè)計(jì)目標(biāo)和智能系統(tǒng)的具體應(yīng)用。規(guī)則列表可以轉(zhuǎn)換為算法,是一種需要明確規(guī)定允許、禁止還是中立的所有行為類型的任意集合,它可以是規(guī)則集合中的任一個(gè)規(guī)則元素,也可以是幾個(gè)規(guī)則元素的結(jié)合。
技術(shù)的安全性和可控性是實(shí)現(xiàn)可信人工智能的關(guān)鍵因素,斯圖爾特·羅素等人提出“人工智能必須做我們希望它們做的事”[9](106)。因此,要從技術(shù)層面實(shí)現(xiàn)可信人工智能,技術(shù)人員須從智能系統(tǒng)的證實(shí)性、有效性、安全性、可控性等方面保證人工智能的穩(wěn)健性。所謂證實(shí)性即正確地構(gòu)建系統(tǒng),證明系統(tǒng)滿足某些預(yù)期的形式屬性;有效性即構(gòu)建正確的系統(tǒng),確保滿足形式要求的系統(tǒng)不會(huì)產(chǎn)生超出預(yù)期的行為及后果;安全性即是要防止非授權(quán)人對(duì)智能機(jī)器的蓄意操控;可控性即要求預(yù)期任務(wù)能夠在人工智能系統(tǒng)運(yùn)作時(shí)控制該系統(tǒng)。在此基礎(chǔ)上,技術(shù)設(shè)計(jì)要增強(qiáng)人工智能算法的透明性和可信度,并在技術(shù)應(yīng)用的整個(gè)過(guò)程中體現(xiàn)出人性化設(shè)計(jì)。
運(yùn)用邏輯工具開展可信人工智能的技術(shù)設(shè)計(jì),通常采取自上而下的進(jìn)路。康德的義務(wù)論為自上而下進(jìn)路應(yīng)用于人工智能道德提供了一種方案。這種進(jìn)路主要基于一組既定規(guī)則來(lái)定義行為的道德性,在既定規(guī)則允許的情況下,人工智能系統(tǒng)才能采取某種行動(dòng)。正如法律專家系統(tǒng)的技術(shù)路線,采取理論驅(qū)動(dòng)的自上而下的進(jìn)路對(duì)人工智能道德的程序設(shè)計(jì)同樣是一種有效的技術(shù)方式。在人工智能系統(tǒng)的設(shè)計(jì)中,預(yù)設(shè)的規(guī)范準(zhǔn)則、規(guī)則列表以及智能系統(tǒng)所執(zhí)行的規(guī)范行為和決策都是可預(yù)知的,通過(guò)行為代碼所刻畫的規(guī)范概念和關(guān)系,也能夠依據(jù)規(guī)則執(zhí)行相應(yīng)的行為和決策,因此,其安全性和可信度可以得到較好保障。發(fā)展可信任和負(fù)責(zé)任的人工智能,應(yīng)采取具有較強(qiáng)可解釋優(yōu)勢(shì)的自上而下進(jìn)路,進(jìn)而使人工智能的規(guī)范行為和決策與人類保持一致,確保人工智能的安全、可靠、可控。
在現(xiàn)實(shí)應(yīng)用中,采用自上而下的技術(shù)進(jìn)路設(shè)計(jì)可信人工智能系統(tǒng),需要在理論研究和現(xiàn)實(shí)應(yīng)用中實(shí)現(xiàn)技術(shù)進(jìn)化。以法律人工智能的應(yīng)用為例,人工智能在運(yùn)用形式化表征的法律語(yǔ)言和數(shù)據(jù)方面具有強(qiáng)大推理能力,在基礎(chǔ)法律知識(shí)咨詢、司法數(shù)據(jù)提取與數(shù)據(jù)結(jié)構(gòu)化、法律文本分析等事務(wù)性或技術(shù)性的應(yīng)用方面,智能系統(tǒng)能夠按照數(shù)字邏輯規(guī)則進(jìn)行推演,其推演能力隨算法和算力的加強(qiáng)而同步增強(qiáng)。法律人工智能是由感知智能到認(rèn)知智能,再形成法律決策的技術(shù)機(jī)理過(guò)程。感知智能主要包含語(yǔ)音、圖像的識(shí)別與合成等智能化處理技術(shù),主要模擬人類的語(yǔ)言表達(dá)與聽覺、視覺的感知能力,屬于初階智能,其法律應(yīng)用主要有庭審語(yǔ)音的轉(zhuǎn)錄、圖像證據(jù)的識(shí)別等。認(rèn)知智能主要包括自然語(yǔ)言表達(dá)、邏輯推理、語(yǔ)義理解和自主學(xué)習(xí)等高階智能,其主要在法律知識(shí)表達(dá)、法律文本分析、法律推理和法律論證等領(lǐng)域得以應(yīng)用。因此,將法律人工智能技術(shù)應(yīng)用于法律實(shí)踐,通過(guò)法律數(shù)據(jù)庫(kù)和知識(shí)庫(kù)構(gòu)建法律支撐層,運(yùn)用智能語(yǔ)音識(shí)別、圖像識(shí)別與合成等感知技術(shù)構(gòu)建技術(shù)支撐層,利用認(rèn)知技術(shù)對(duì)具體的法律任務(wù)生成司法應(yīng)用層,進(jìn)而使法律人工智能技術(shù)在法律審判、訴服、管理和執(zhí)行等智能過(guò)程中得到應(yīng)用。在法律推理和法律論證中,形式理性具有主導(dǎo)作用,體現(xiàn)在司法推理和論證的具體過(guò)程中,法律人工智能技術(shù)中的形式理性引導(dǎo)智能系統(tǒng)進(jìn)行法律推理和論證,表征法律實(shí)踐中的法律形式理性。通過(guò)邏輯符號(hào)對(duì)法律規(guī)范具有的邏輯構(gòu)造進(jìn)行形式化處理,從一般的法律命題推演出具體的法律結(jié)論,使法律規(guī)范具有數(shù)學(xué)演算和法律解釋的形式特征。
運(yùn)用規(guī)范邏輯等邏輯工具開展可信人工智能系統(tǒng)的技術(shù)設(shè)計(jì),能夠很大程度上實(shí)現(xiàn)技術(shù)的安全、可信,但是在技術(shù)設(shè)計(jì)和現(xiàn)實(shí)應(yīng)用中也存在著一定的困難。首先,以符合可信任標(biāo)準(zhǔn)的規(guī)范理論為依據(jù)設(shè)計(jì)智能系統(tǒng),使其智能行為和決策能夠遵守規(guī)范理論的約束和限制,然而在面對(duì)復(fù)雜場(chǎng)景或者開放情形時(shí),兩個(gè)或更多規(guī)范理論會(huì)出現(xiàn)規(guī)范沖突的情形,迫切需要從理論選擇以及技術(shù)設(shè)計(jì)上給出現(xiàn)實(shí)場(chǎng)景下決策生成時(shí)的無(wú)沖突規(guī)則。其次,智能系統(tǒng)運(yùn)行的重要環(huán)節(jié)是建立行為類型和行為代碼的聯(lián)系,規(guī)范行為類型包含對(duì)行為的規(guī)范性概念和關(guān)系的有效界定,特別是對(duì)不同用途和目標(biāo)的智能系統(tǒng)設(shè)計(jì),需要設(shè)計(jì)不同的行為類型集和相應(yīng)的規(guī)則列表,但是,規(guī)范行為類型和規(guī)則列表的清晰性,尤其在系統(tǒng)應(yīng)用中的執(zhí)行環(huán)節(jié),其相應(yīng)的行為代碼存在一對(duì)多映射的不清晰解釋,使得系統(tǒng)在程序執(zhí)行時(shí)面臨多種執(zhí)行結(jié)果或者無(wú)法執(zhí)行的結(jié)果,需要在系統(tǒng)設(shè)計(jì)時(shí)綜合運(yùn)用偏好邏輯、非單調(diào)邏輯等邏輯工具予以解決。最后,在現(xiàn)實(shí)場(chǎng)景和開放情形下,可信人工智能系統(tǒng)要實(shí)現(xiàn)完美刻畫,需要隨著時(shí)間變化和場(chǎng)景改變而不斷更新,因此,智能系統(tǒng)中嵌入固定的行為代碼很難適應(yīng)智能體在動(dòng)態(tài)環(huán)境中的交互,需要新的邏輯工具實(shí)現(xiàn)時(shí)態(tài)和動(dòng)態(tài)環(huán)境中的完美刻畫,同時(shí),實(shí)現(xiàn)符號(hào)主義、聯(lián)結(jié)主義和行為主義等技術(shù)路線的交叉融合將是未來(lái)可信人工智能研究的一個(gè)重要方向。
3.實(shí)現(xiàn)技術(shù)的交叉融合
從人工智能的現(xiàn)實(shí)應(yīng)用和未來(lái)發(fā)展趨勢(shì)來(lái)看,單一的技術(shù)路線已經(jīng)無(wú)法滿足人工智能技術(shù)對(duì)現(xiàn)實(shí)的應(yīng)用需求,多學(xué)派、多學(xué)科的交叉融合才能推動(dòng)未來(lái)人工智能的進(jìn)化和發(fā)展。人工智能的三大技術(shù)路線各具優(yōu)勢(shì),目前基于神經(jīng)網(wǎng)絡(luò)間的連接機(jī)制和學(xué)習(xí)算法的聯(lián)結(jié)主義,因具有較強(qiáng)算力和較高的計(jì)算效率而頗受歡迎。發(fā)展可信人工智能技術(shù),人工智能系統(tǒng)的技術(shù)設(shè)計(jì)主要是在數(shù)據(jù)、機(jī)制、供應(yīng)鏈方面的中毒攻擊、對(duì)抗攻擊和后門攻擊,通過(guò)加入擾動(dòng)和分布式模型訓(xùn)練而進(jìn)行的基于差分隱私和聯(lián)邦學(xué)習(xí)隱私保護(hù)方法相結(jié)合的隱私保護(hù)技術(shù)設(shè)計(jì)以及體現(xiàn)個(gè)體公平性和群體公平性的技術(shù)設(shè)計(jì),等等。然而,模型復(fù)現(xiàn)困難、復(fù)雜黑盒模型難以解釋等基于深度學(xué)習(xí)的可解釋性增強(qiáng)技術(shù)很難取得技術(shù)上的突破,其面臨著無(wú)法解釋系統(tǒng)所作出的結(jié)果的風(fēng)險(xiǎn),使得可信人工智能的技術(shù)設(shè)計(jì)逐步由單一技術(shù)路線向混合技術(shù)路線發(fā)展。
從人工智能的可解釋性角度出發(fā),發(fā)揮符號(hào)主義、聯(lián)結(jié)主義和行為主義三大技術(shù)路線的優(yōu)勢(shì),推動(dòng)融合發(fā)展,實(shí)現(xiàn)優(yōu)勢(shì)互補(bǔ),將是未來(lái)可信人工智能研究值得探索的方向。基于可解釋的可信人工智能系統(tǒng)的建構(gòu),需要預(yù)設(shè)系統(tǒng)出現(xiàn)的給定行為,并能夠?qū)o定行為提供相應(yīng)的解釋,同時(shí)對(duì)對(duì)抗性情境進(jìn)行限制。我國(guó)的第三代人工智能技術(shù),正是綜合運(yùn)用知識(shí)、算法、數(shù)據(jù)、算力等技術(shù)手段,致力于解決由聯(lián)結(jié)主義技術(shù)路線帶來(lái)的不可解釋問(wèn)題,進(jìn)而實(shí)現(xiàn)未來(lái)人工智能技術(shù)的安全、可靠、可信。同時(shí),為應(yīng)對(duì)人工智能技術(shù)的可解釋性訴求,使算法具備可解釋性,歐盟發(fā)布《通用數(shù)據(jù)保護(hù)條例》(GDPR),提出當(dāng)數(shù)據(jù)主體對(duì)決策過(guò)程和結(jié)果不滿意時(shí),可以采取人工干預(yù)的方式對(duì)相關(guān)數(shù)據(jù)進(jìn)行解釋。對(duì)智能系統(tǒng)進(jìn)行可解釋性研究,檢測(cè)并糾正訓(xùn)練數(shù)據(jù)集中的偏差,同時(shí)通過(guò)對(duì)抗性干擾以促進(jìn)模型的魯棒性,可以確認(rèn)變量的意義以及確保模型推理中存在的潛在真實(shí)因果關(guān)系。
隨著人們對(duì)可信人工智能技術(shù)的追求,以符號(hào)主義為主的技術(shù)路線將促進(jìn)人工智能技術(shù)和現(xiàn)代邏輯學(xué)的深度融合,推動(dòng)現(xiàn)代邏輯學(xué)研究向廣度和深度發(fā)展。以歸納邏輯程序設(shè)計(jì)(ILP)為代表的計(jì)算邏輯[10],嘗試模擬人類的意識(shí)情感、思維和心理意圖等,是符號(hào)主義和聯(lián)結(jié)主義結(jié)合的產(chǎn)物,為建構(gòu)在復(fù)雜情況下的可信智能體系統(tǒng)的設(shè)計(jì)探索了一條有意義的路徑。安德森等人提出一種以案例為支撐、以原則為基礎(chǔ)的CPB行為范式,作為解決復(fù)雜情形時(shí)的抽象方法,其通過(guò)從大量案例中抽象出某個(gè)或者某些原則,決定最為可取的規(guī)范行動(dòng),用以指導(dǎo)智能系統(tǒng)采取下一步的行動(dòng)。這種行為范式使用歸納邏輯的編程技術(shù),通過(guò)構(gòu)建一套道德困境的框架,發(fā)現(xiàn)滿足道德偏好的原則,并表征出用以證實(shí)和使用道德偏好原則的概念框架。對(duì)滿足道德偏好的原則要表述清楚,對(duì)選擇某一行為而不選擇另一種行為具有可解釋性,同時(shí)可以證明系統(tǒng)行為的正確性。
結(jié)語(yǔ)
可信人工智能技術(shù)的發(fā)展,應(yīng)基于可解釋的技術(shù)追求,堅(jiān)持科技引領(lǐng),充分利用和發(fā)展規(guī)范邏輯、時(shí)態(tài)邏輯、動(dòng)態(tài)邏輯、偏好邏輯等現(xiàn)代邏輯工具,并將邏輯的演繹推理和歸納推理功能與現(xiàn)行的技術(shù)路線實(shí)現(xiàn)交叉融合,增強(qiáng)技術(shù)的安全性和可解釋性,確保人工智能技術(shù)的安全、可靠、可控。同時(shí),要關(guān)注技術(shù)的人文價(jià)值和社會(huì)價(jià)值,確保人工智能與人類的倫理對(duì)齊,在推動(dòng)人工智能技術(shù)共同體發(fā)展的基礎(chǔ)上,積極尋求人類和可信人工智能融合發(fā)展的多元路徑,以人工智能技術(shù)的約束和限制機(jī)制推動(dòng)可信人工智能的穩(wěn)步發(fā)展,積極探尋新時(shí)代背景下人機(jī)和諧發(fā)展的可能甚至法則。
[參考文獻(xiàn)]
[1]M.W.瓦托夫斯基.科學(xué)思想的概念基礎(chǔ)[M].范岱年,吳忠,金吾倫,等譯.2版.北京:求實(shí)出版社,1989.
[2]習(xí)近平.加強(qiáng)領(lǐng)導(dǎo)做好規(guī)劃明確任務(wù)夯實(shí)基礎(chǔ)推動(dòng)我國(guó)新一代人工智能健康發(fā)展[N].光明日?qǐng)?bào),2018-11-01(1).
[3]愛因斯坦.愛因斯坦文集:第1卷[M].許良英,李寶恒,趙中立,等編譯.北京:商務(wù)印書館,2010.
[4]CAVALIER R J. Impact of the Internet on Our Moral Lives[M].Albany,NY:State University of New York Press,2005.
[5]溫德爾·瓦拉赫,科林·艾倫.道德機(jī)器:如何讓機(jī)器人明辨是非[M].王小紅,主譯.北京:北京大學(xué)出版社,2017.
[6]VERBEEK P. Moralizing Technology:Understanding and Designing the Morality of Things[M].Chicago:Univer? sity of Chicago Press. 2011.
[7]陳曉華,杜國(guó)平.邏輯的引擎:人工智能的動(dòng)力[J].河南社會(huì)科學(xué),2020,28(5).
[8]何積豐.智能制造與安全可信人工智能[J].信息安全與通信保密,2020(12).
[9]RUSSELL S,DEWEY D,TEGMARK M. Research Priorities for Robust and Beneficial Artificial Intelligence[J].AI Magazine,2015,36(4).
[10]KOWALSKI R. Computational Logic and Human Thinking:How to be Artificially Intelligent[M].Cambridge,UK:Cambridge University Press,2013.
(責(zé)任編輯:孫保學(xué))