常曉亭
(廣州中醫(yī)藥大學馬克思主義學院,廣東 廣州 510006,283952830@qq.com)
人工智能設(shè)備如無人駕駛汽車、服務(wù)型機器人、軍用機器人等半自主性決策,甚至自主性決策的人工智能系統(tǒng)越來越多地進入社會生活中,給人們的生活帶來了便利,也為企業(yè)帶來巨大效益,但也產(chǎn)生了道德風險問題,如無人駕駛汽車倫理困境、數(shù)據(jù)隱私泄露、自主性武器傷害無辜生命等。人工智能道德風險的研究可以分為兩個方面,一是從外部加強人工智能倫理建設(shè)和管理;二是從技術(shù)內(nèi)部提高人工智能道德維度的安全性[1]。2019年4月8日,歐盟委員會發(fā)布了人工智能倫理指導原則,然而,為響應歐盟委員會的人工智能倫理指導原則而成立的谷歌道德小組,僅存在一周便解散。其原因之一是該小組的一名委員反對保障同性戀和變性人同等權(quán)利的法律,從而導致了谷歌員工對該委員的資格產(chǎn)生了異議。由此可見人工智能道德風險問題的棘手性及人們對該問題的嚴謹與審慎的態(tài)度。同時也表明了人工智能道德倫理的建設(shè)不可能是一蹴而就的,將是一個需要從全方面、多角度進行探索的過程。在2018年中共中央政治局的一次就人工智能的集體學習中,習近平指出“要加強人工智能發(fā)展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控?!盵2]因此,從“風險社會”理論的視角出發(fā),結(jié)合現(xiàn)代技術(shù)風險的特點,對人工智能道德風險的成因、表現(xiàn)、影響及規(guī)避途徑進行分析與研究,或許是一次有益的嘗試,將有助于完善人工智能風險管理體制,促進該技術(shù)穩(wěn)健發(fā)展。
人工智能道德風險可以理解為人工智能技術(shù)帶來倫理結(jié)果的不確定性,具體有兩方面表現(xiàn),一是技術(shù)設(shè)計階段所產(chǎn)生的道德風險,主要有道德算法風險和道德決策風險;二是技術(shù)應用階段所產(chǎn)生的道德風險,主要有人類主體地位被削弱的風險、數(shù)據(jù)隱私泄露風險、道德標準固化的風險和感染道德型計算機病毒的風險等。
首先是人工智能道德算法風險。人工智能和神經(jīng)科學倫理學專家溫德爾·瓦拉赫(Wendell Wallach)和認知科學家科林·艾倫(Colin Allen)在他們合著的《道德機器:如何讓機器人明辨是非》書中提出來的三大進路,即自上而下式進路、自下而上式進路和混合式進路是關(guān)于人工智能的道德算法的設(shè)計中最典型的方法。自上而下式進路是為人工智能設(shè)定道德普遍原則,根據(jù)普遍原則的不同,又可以分為功利主義和道義論兩種。功利主義秉承的原則是“最大數(shù)量的人的最大幸福”。英國哲學家杰里米·邊沁(Jeremy Benthanm)提出的“道德算術(shù)”和計算機科學家詹姆斯·吉普斯(James Gips)提出的效果論機器人的四能力是對功利主義思想的發(fā)展。道義論認為道德的核心是責任,康德的絕對律令和黃金法則及阿西莫夫三定律可以作為其代表。自下而上式進路是將進化和發(fā)展的觀點融入人工智能的道德設(shè)計中去。阿蘭·圖靈(Alan Turing)提出的“模仿孩子的思維”以及由約翰·霍蘭德(John Holland)的遺傳算法啟發(fā)而產(chǎn)生的人工生命的觀點都可以視為自下而上式進路的例子。復雜的系統(tǒng)設(shè)計中,工程師和技術(shù)專家們傾向于采用混合式進路,即同時使用自上而下式進路與自下而上式進路進行人工智能道德功能建構(gòu)。因此,要完成人工智能道德算法的設(shè)計工作就要完成兩個重要的任務(wù),必須要從兩個方面進行研究,一是篩選出自上而下式進路需要的道德總標準;二是建立一個自下而上式進路需要的道德能力的學習模型。第一種方法在道德總標準的制定方面,哲學、倫理學及心理學等學者一直以來對康德的絕對律令、黃金法則和阿西莫夫三大定律等諸多道德準則的普適性的爭論,讓我們認識到,目前任何一個道德準則都有其局限性,將這些道德準則設(shè)計到人工智能中,面臨復雜社會道德倫理問題時,將產(chǎn)生不可預知的倫理結(jié)果。即使我們確定了較完善的道德總標準,將這些道德標準轉(zhuǎn)化為程序時也不能做到完全精準,出現(xiàn)轉(zhuǎn)化不對稱的風險。第二種方法中自下而上式進路側(cè)重以實際環(huán)境為背景的道德能力學習模型,要從實驗室走進現(xiàn)實社會環(huán)境,這其中的巨大的環(huán)境因素的差距是不能忽視的。一個小的錯誤的道德標準的學習,可能產(chǎn)生嚴重影響社會的結(jié)果。
其次是人工智能道德決策風險??梢苑譃閮蓚€方面,一是道德決策設(shè)定方面,二是人工智能體參與實踐方面。在道德決策設(shè)定方面,一方面需要由政府、企業(yè)和技術(shù)專家等相關(guān)利益主體進行風險評估。在此過程中,由于技術(shù)本身的不確定性,人們很難做出準確的風險評估,因此,在風險評估的基礎(chǔ)上做出來的道德決策便具有一定的風險性;另一方面人工智能是面向社會公眾的,其產(chǎn)生的道德風險也是面向社會和公眾的。僅有政府、企業(yè)和技術(shù)專家所作出來的道德決策不僅在某種程度上是對社會公眾決策權(quán)的剝奪,呈現(xiàn)一定的不公正性,而且很可能會出于自身利益團體的考慮而導致?lián)p害到社會公眾的利益。在人工智能體參與實踐方面,人工智能體參與到實踐活動中去產(chǎn)生的道德決策風險最為著名的就是“自動駕駛汽車的倫理困境”。自動駕駛儀在面臨倫理困境時,“學術(shù)界已經(jīng)提出兩種相互競爭的解決方案:強制的倫理設(shè)定和個人的倫理設(shè)定。”[3]但無論是“強制的倫理設(shè)定”還是“個人的倫理設(shè)定”其背后的算法設(shè)定無外乎兩種,即功利主義算法和道義論算法。道義論算法被質(zhì)疑會引起社會的不公平,功利主義算法因其秉承社會效益最大化的原則而更具合理性。但是功利主義雖然確保了事故中大多數(shù)人的利益,但卻損害了相對應的少數(shù)人的利益,剝奪了事故中少數(shù)人的安全正當性。因此無論哪種道德決策,都會產(chǎn)生一定的道德風險。也許隨著技術(shù)的發(fā)展,人工智能可以做出比人類更好的道德決策,但至少目前這種道德決策風險是現(xiàn)實存在的。
首先是人類主體地位受到挑戰(zhàn)的風險。人工智能作為一項技術(shù)應該為人類謀求福祉,而不應該阻礙人類發(fā)展甚至威脅人類命運。但是隨著人工智能道德維度自主性的不斷提高,它在社會關(guān)系中扮演了越來越重要的角色,這在一定程度上削弱了人的道德主體的地位。例如目前的支持決策工具(DSTs)就被社會學家巴蒂雅·弗里德曼(Batya Fridman)和皮特·卡恩(Peter Kahn)認為“可能導向一個人類決策者放棄道德責任的滑坡謬誤?!盵4]33人工智能技術(shù)越完善,人們對其信賴及依賴程度越高,完全自主的決策系統(tǒng)也越可能到來。當自主決策系統(tǒng)到來時,直接參與道德行為產(chǎn)生的結(jié)果是否符合人類的預期并為人類所掌控將不得而知。
其次是數(shù)據(jù)信息泄露的風險。大數(shù)據(jù)是人工智能的一個重要支撐,一是在進行人工智能道德算法時需要收集大量數(shù)據(jù)信息,二是在使用過程中會預先存儲或者在現(xiàn)實環(huán)境的運行中存儲數(shù)據(jù)信息作為經(jīng)驗案例。這些數(shù)據(jù)信息的來源和存儲都涉及人們的個體隱私,但公眾對這些數(shù)據(jù)信息的私密性重視程度不夠使得許多隱私數(shù)據(jù)信息的獲取十分容易。而且在數(shù)據(jù)隱私安全性方面也存在隱患,例如目前投入市場的家用機器人,其在投入使用時需要存儲家庭中的數(shù)據(jù)信息,一旦出現(xiàn)黑客入侵問題,就面臨隱私泄露的風險。
再次是道德標準固化的風險。人工智能道德標準固化可以分為兩個方面,一是其內(nèi)置的道德標準的固化,二是社會道德標準的固化。人工智能內(nèi)置的道德標準的固化表現(xiàn)在,具有社會性質(zhì)的道德倫理原則和準則在不同地域和不同的歷史條件下往往具有很大差異,而且道德建構(gòu)時的數(shù)據(jù)收集往往是抽樣的、有限的,隨著時間的推移和社會倫理規(guī)則的不斷融合與演化,人工智能道德系統(tǒng)部分不能因時因地的更新,在面對最新的道德倫理問題時,不可避免地將產(chǎn)生錯誤的行為結(jié)果,帶來負道德效應。而社會道德標準的固化,對人工智能的發(fā)展是不利的,新技術(shù)需要新的倫理標準來推動,目前的人工智能倫理準則不能很好規(guī)約該技術(shù)的發(fā)展和應用中的問題,導致出現(xiàn)諸多問題。
最后還有由于技術(shù)失控而產(chǎn)生的道德風險。目前越來越多的人工智能產(chǎn)品投入市場,應用于人們的日常生活和工業(yè)生產(chǎn)等方面,但其技術(shù)安全性目前尚不完全成熟,有可能會產(chǎn)生失誤和傷害。自動駕駛汽車的技術(shù)差錯在實際環(huán)境中便是關(guān)系到個體生命安全的重大問題,美國軍用機器人在伊拉克戰(zhàn)場上射殺的無辜平民的真實案例也已經(jīng)發(fā)生。家用機器人、服務(wù)型機器人等智能服務(wù)系統(tǒng)如果感染病毒,對人身的直接傷害也是顯而易見的。在這些案例中,如果內(nèi)置的道德準則被推翻,那么,人工智能很可能會違背阿西莫夫三大定律的第一條“不傷害人”的原則,對社會道德倫理產(chǎn)生惡劣的影響。
人工智能道德風險的成因可以從三個方面分析:一是主體層面,主要是相關(guān)主體如技術(shù)專家、 企業(yè)、政府和公眾等由于自身的特點產(chǎn)生的。二是技術(shù)層面,主要有技術(shù)本身創(chuàng)新發(fā)展中的不可控性和人工智能道德倫理的系統(tǒng)建構(gòu)在技術(shù)方面還有待提高。三是社會層面,主要有政治、經(jīng)濟、文化等因素的影響。
工程師和科學家是人工智能道德風險的直接制造者,韋德與布勞德認為科學研究活動中技術(shù)實踐者的誠信缺失是造成科技道德風險的成因之一。人工智能的實際編碼工作是由工程師來書寫的,在此過程中工程師的個人道德素養(yǎng)和社會道德價值取向便體現(xiàn)在了轉(zhuǎn)化代碼中,以一種隱性的方式滲入道德程序中,最終出現(xiàn)在人工智能的道德倫理行為中,產(chǎn)生了一定程度上人工智能技術(shù)中的個人道德偏見。傳統(tǒng)倫理學認為只有人類才是目的,才可以成為道德能動者。20世紀出現(xiàn)的非人類中心主義將道德對象從人類擴大到了一切生物,而人工智能道德功能的建構(gòu)無疑就是非人類中心主義思想的體現(xiàn)。隨著人工智能道德自主性的不斷提高,其去人類道德中心主義也越來越明顯。
政府和企業(yè)也應該積極承擔起應對人工智能道德風險的責任。隨著技術(shù)的發(fā)展,其受政治的干預日益增強。人工智能技術(shù)全球化特點顯著,其道德風險理應得到高度重視。各國政府基于本國國民的經(jīng)濟效益考慮,在面對復雜的國際環(huán)境時,都想把控人工智能發(fā)展方向,擁有全球主導權(quán)。這勢必會造成人工智能技術(shù)國際合作緊張化,不能夠形成很好的全球調(diào)控作用,以至于留下空隙讓人工智能對全人類的道德倫理發(fā)起了挑戰(zhàn)。而企業(yè)則以盈利為目的,合理的生產(chǎn)及銷售獲得合理的經(jīng)濟效益也是正常的,但是目前人工智能作為不斷創(chuàng)新發(fā)展中的現(xiàn)代技術(shù),其技術(shù)穩(wěn)定性還不能完全保證,高風險也沒有充分得到評估。風險社會學家烏爾里?!へ惪?Ulrich Beck)[5]認為企業(yè)通常會優(yōu)先考慮自身經(jīng)濟利益,其次才考慮社會公眾的利益,甚至會有意引導公眾對技術(shù)風險的忽視。此外,政府和企業(yè)對人工智能技術(shù)的科普力度不夠,致使公眾對該技術(shù)沒有達到一定的認知水平。比如對自我隱私不夠重視、被有目的的信息宣傳所蒙蔽以至于對人工智能道德風險的認知不準確、主觀臆造人工智能對人類帶來的風險等,都會對人工智能的道德倫理建設(shè)產(chǎn)生消極的影響。
技術(shù)創(chuàng)新是一個發(fā)展的過程,各種新知識更新的速度和頻率是不可控的,其中的道德因素的不可控性尤為顯著。法國技術(shù)哲學家貝爾納·斯蒂格勒(Bernard stigler)[6]認為不確定性體現(xiàn)了一切技術(shù)物的本質(zhì)。人工智能技術(shù)作為不斷創(chuàng)新發(fā)展的現(xiàn)代技術(shù),無論是在技術(shù)階段還是運行階段都有諸多不確定性。尤其是人工智能道德功能的建構(gòu),其本質(zhì)上是為了應對人工智能的風險問題產(chǎn)生的,但其自身也存在著相應的風險,這就意味著我們在使用有風險的技術(shù)來控制技術(shù)風險,從而很可能產(chǎn)生巨大的有損社會道德倫理準則的風險。其次人工智能道德倫理的系統(tǒng)建構(gòu)在技術(shù)方面還有待提高。自上而下式的道德設(shè)計進路的缺點是產(chǎn)生人工智能道德標準固化風險的原因之一。人工智能在應用到社會關(guān)系時,其本身的以自上而下式進路內(nèi)置的道德準則是固定的,社會卻是不斷發(fā)展與更迭的,道德倫理標準也在不斷演變與更新。人工智能中固定的道德標準不能夠完全應對時時更新的倫理問題,這構(gòu)成了道德標準固化風險的技術(shù)成因。自下而上式進路需要在數(shù)據(jù)環(huán)境中學習,這個學習過程中許多不可控因素是產(chǎn)生道德風險的另一原因。此外由于技術(shù)發(fā)展中不可避免的異化現(xiàn)象推動著人工智能道德自主性不斷提高,使得人工智能開始直接參與道德行為,導致人類喪失部分的道德責任的主動權(quán),產(chǎn)生人類的責任主體地位受到挑戰(zhàn)的風險。
首先在政治方面,政治對人工智能技術(shù)發(fā)展的過多干預是產(chǎn)生巨大道德風險的成因之一。目前有關(guān)人工智能國際倫理規(guī)則的制定,大多來自擁有尖端技術(shù)的西方發(fā)達國家。而發(fā)達國家與發(fā)展中國家的技術(shù)價值觀和道德制定標準是有差異的,這也會造成某種程度上的人工智能道德風險。如在軍事方面,20世紀80年代的美蘇軍備競賽中曾引入搭載核武器的船艦,這些艦船取消了十分鐘屏障,由計算機進行數(shù)據(jù)分析和自動執(zhí)行運算結(jié)果。在關(guān)乎生命死亡的重大事項上,人類反而失去了決策權(quán)。2007年美國陸軍又資助計算機專家羅納德·阿金(Ronald Arkin)[4]16研發(fā)軍用機器人所要遵守的戰(zhàn)爭倫理準則的軟件。很明顯,無論這些軟件中的倫理準則是什么,基于軍用機器人的作戰(zhàn)特性,它們都將違背阿西莫夫第一定律,即“不能傷害或殺害人類”。這種為實現(xiàn)政治霸權(quán)而致力于殺人軍用機器人的研究,對人類生命將造成極大的威脅。
其次在經(jīng)濟方面,一味追求技術(shù)的經(jīng)濟效益而忽視人類福祉和代際發(fā)展是產(chǎn)生人工智能道德風險的又一成因。在人們關(guān)注人工智能技術(shù)帶來的巨大的經(jīng)濟效益時,卻在一定程度上忽視了其產(chǎn)生的道德風險。人工智能不僅威脅到人的主體地位而且還關(guān)乎到人類未來命運。傳統(tǒng)的道德倫理規(guī)范已經(jīng)不能滿足人工智能在當今社會關(guān)系中的需要,而新的倫理規(guī)范沒有及時跟進,直接影響了對人工智能道德功能建構(gòu)各個階段的把控力度,這在某種程度上損害了社會公眾的利益和生態(tài)效益。
最后在文化方面,技術(shù)價值觀人文信仰等因素也對人工智能道德風險的產(chǎn)生有一定的影響。如技術(shù)樂觀主義傾向于繼續(xù)提高人工智能道德的自主性,來實現(xiàn)人工智能自我道德約束;而技術(shù)悲觀主義者則對此持消極態(tài)度,認為人工智能道德自主性的提高會對人類的主體地位產(chǎn)生不利影響,因此抵觸人工智能道德自主性的發(fā)展。
在人工智能道德風險成因的基礎(chǔ)上,人工智能道德風險的規(guī)避途徑的探尋也可從主體層面、技術(shù)層面和社會層面三個方面展開。
人工智能道德風險具有不同于傳統(tǒng)工業(yè)社會的現(xiàn)代技術(shù)風險的特點,即人為性、責任側(cè)重定位到個體或團體的特性,因此所涉及的主體的道德建設(shè)便顯示出了其獨特的時代意義。人工智能道德風險所涉及的主體主要有技術(shù)專家、企業(yè)、政府及公眾等,另外隨著人工智能自身智能特性的不斷提高,人工智能體作為道德接受者或者發(fā)出者的情況也逐漸進入人們的視野,因此人工智能體作為道德風險主體的情況也應該充分考慮。
引導人工智能技術(shù)專家正確的技術(shù)價值觀和呼吁企業(yè)的社會責任擔當對應對人工智能道德風險而言具有重要意義。技術(shù)專家是人工智能道德風險最直接的制造者,其自身要樹立正確的技術(shù)價值觀,重視職業(yè)道德素養(yǎng),具有人道主義精神,不能為利益所裹挾而忽視了人工智能道德風險對人類及人類未來而言的重大意義。同時也要為技術(shù)專家營造良好的職業(yè)發(fā)展空間,從制度上保證技術(shù)專家的獨立性。此外,還要有明確的激勵機制,提高人工智能道德風險的成本,加強技術(shù)專家的個體責任感和集體責任感。企業(yè)對人工智能道德風險也應該承擔相應的社會責任。人工智能道德自主性越來越高,人工智能產(chǎn)品參與社會關(guān)系的比重也越來越大,這就要求企業(yè)要確保投入市場的人工智能道德責任主體明確,指向清晰,不能只為企業(yè)私利而將目前道德責任主體模糊的人工智能產(chǎn)品大量投入市場,要為企業(yè)的長遠發(fā)展和社會公眾利益考慮,體現(xiàn)出一個值得信賴的企業(yè)的責任與擔當。
政府的有效監(jiān)管是規(guī)避人工智能道德風險的重要環(huán)節(jié)。政府要加強對技術(shù)發(fā)展方向和企業(yè)人工智能產(chǎn)品運行情況的監(jiān)管,人工智能產(chǎn)品在社會關(guān)系中產(chǎn)生的事故責任要明確,處理事故問題要快速有決斷力,讓社會公眾在人工智能技術(shù)發(fā)展中真正受益。加快跟進人工智能道德倫理標準的制定,在涉及人工智能與社會道德倫理關(guān)系時,一定要確保人的完全的監(jiān)督能力,不能讓人工智能威脅到人的道德主體地位。開展人工智能道德風險的科普工作,提高公眾的道德風險意識,樹立公眾正確的技術(shù)價值觀,不盲從輕信和主觀臆斷技術(shù)風險,讓人工智能在安全的基礎(chǔ)上發(fā)揮其最大的社會效益,真正推動技術(shù)穩(wěn)健發(fā)展。
此外,應加強人工智能的產(chǎn)出控制。隨著人工智能道德自主性的不斷提高,其作為道德主體而產(chǎn)生相應的道德風險的情況也有可能出現(xiàn)。要嚴格控制其生產(chǎn)質(zhì)量和投放市場的數(shù)量,加強售后觀察,保證人工智能系統(tǒng)在特定范圍內(nèi)運行,保證人類的絕對監(jiān)督權(quán)和管理權(quán)。
從技術(shù)外部看,實現(xiàn)技術(shù)民主化是應對人工智能道德風險的一個重要舉措。人工智能道德風險涉及的不僅僅是計算機專業(yè)的問題,由于其復雜性,需要更多的領(lǐng)域參與技術(shù)設(shè)計和決策中來。首先,從人工智能技術(shù)專家的組成來看,有必要讓哲學家、心理學家、倫理學家等相關(guān)學科的學者參與進來,并且將政府、企業(yè)、公眾的建議納入?yún)⒖挤秶?。其次,要確保技術(shù)透明性和安全性,尤其是人工智能的數(shù)據(jù)信息的隱私保護,正如歐盟委員會制定的人工智能七大原則中指出“人工智能系統(tǒng)收集的個人數(shù)據(jù)應該是安全的、私有的。它不應該讓任何人接觸,也不應該輕易被盜”[7]。
從技術(shù)內(nèi)部看,提高人工智能道德設(shè)計的安全性是一個重要的措施。瓦拉赫與艾倫提出了人工道德智能體(Artificial Moral Agents)的概念,從自主性和對價值的敏感性這兩個維度出發(fā)進行設(shè)計。人工智能奇點研究所的創(chuàng)始人之一的埃利澤·尤德科夫斯基(Eliezer yudkovsky)提出并發(fā)展了友善人工智能的概念。此外,約翰·??怂?John Fox)提出的“危險動態(tài)管理”理論對人工智能道德設(shè)計也有重要的參考意義。他提出在醫(yī)療領(lǐng)域的人工智能系統(tǒng)中將“靜態(tài)軟件設(shè)計”與“驗證和危險的動態(tài)管理”結(jié)合,將能夠識別潛在危險的智能系統(tǒng)看作獨立的行為主體,與主系統(tǒng)同時運行[1]。同樣,在人工智能道德設(shè)計的自下而上式進路中設(shè)置一個識別與管理潛在危險的獨立智能系統(tǒng),對有悖于內(nèi)置倫理規(guī)則的錯誤學習有很好的規(guī)避作用。
在政治方面,應加強國際政治合作,充分發(fā)揮對人工智能技術(shù)政治上的正向干預。現(xiàn)代技術(shù)越來越多地受到政府干預,而且這種政治干預全球化趨勢明顯。貝克認為我們已經(jīng)處在了一個世界風險的社會,“現(xiàn)代化風險具有一種內(nèi)在固有的全球化趨勢”[8]。人工智能道德風險即是如此,它是全人類要面對的風險,尤其是人工智能道德自主性的不斷提高所帶來的代際風險,更是對人類未來帶來巨大威脅。因此,應該將該風險防控上升到全球政治高度,加強國際合作,建立“全球治理”機制,運用世界“力量”來應對。此外,道德倫理準則應隨著社會的發(fā)展而發(fā)展。在當今世界逐漸全球化的趨勢下,應該致力于創(chuàng)建新的全球倫理,積極研究與制定全球人工智能倫理原則,以國際人工智能倫理標準為原則,因時因地制宜才能更好地應對人工智能道德風險。
在經(jīng)濟方面,要將保證全人類的利益作為技術(shù)發(fā)展的第一原則。人工智能道德風險關(guān)乎人類未來的發(fā)展,必須審慎對待,做好規(guī)避工作,確保人工智能技術(shù)最終目的是造福人類,而不是妨害人類自身主體發(fā)展。企業(yè)也不能一味只考慮經(jīng)濟效益,正如漢斯·倫克(Hans runk)在其所主張的“責任倫理”中強調(diào),要避免“有組織的不負責任”。企業(yè)應該重視內(nèi)部道德標準的提高,進行及時有效的技術(shù)風險評估和自我監(jiān)督,自覺全面做好人工智能道德風險的應對工作。
最后還要考慮到文化因素的作用。作為現(xiàn)代技術(shù)的人工智能技術(shù)的道德風險具有顯著的人為性,對此應該重視加強人工智能界專業(yè)人員的道德教育,將哲學、心理學和倫理學等學科吸納進來,加快技術(shù)人員對人工智能道德風險全面準確的認知與把控。從人類命運共同體的角度出發(fā),加強國際文化交流,在民族文化差異、宗教信仰不同的基礎(chǔ)上探討和建構(gòu)一個多層次多角度的人工智能道德風險的應對系統(tǒng)。
人工智能道德風險的研究是人工智能技術(shù)創(chuàng)新發(fā)展的重要環(huán)節(jié)。以“風險社會”理論為基礎(chǔ),探討人工智能道德風險的成因與表現(xiàn),響應人工智能道德倫理建構(gòu)的發(fā)展趨勢,有助于完善人工智能道德倫理建構(gòu)體系,確保人工智能創(chuàng)新發(fā)展的安全、可控、穩(wěn)健。