999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

機器人倫理學(xué):機器的倫理學(xué)還是人的倫理學(xué)?

2019-11-17 06:01:36閆坤如
社會觀察 2019年10期
關(guān)鍵詞:主體人工智能人類

文/閆坤如

機器人倫理研究緣起

1.機器人技術(shù)潛藏著難以預(yù)估的風(fēng)險

從簡單的圖靈測試到世界上第一位具有國籍的機器人公民索菲亞的出現(xiàn),機器人的發(fā)展有失控的風(fēng)險,難以預(yù)測機器人技術(shù)的走向是否能夠被人類準(zhǔn)確評估與規(guī)范,也沒有任何的經(jīng)驗或者教訓(xùn)可以借鑒和吸取。21世紀(jì)以來,軍用殺戮機器人在戰(zhàn)場上誤殺無辜生命,無人駕駛汽車致使行人死亡,聊天軟件公開發(fā)表種族歧視、性別歧視的言論,人臉識別涉嫌種族歧視,機器人在虛擬互動中通過“作弊”獲得用戶的隱私信息等負(fù)面事件不斷出現(xiàn),引發(fā)人類對于機器人的負(fù)面效應(yīng)的思考。機器人技術(shù)出發(fā)點本來是“為己”的,現(xiàn)在卻變成了“異己”的力量,導(dǎo)致“機器人異化”現(xiàn)象出現(xiàn)。機器人帶來失業(yè)風(fēng)險,福特(Martin Ford)在《機器人崛起:技術(shù)以及失業(yè)的未來威脅》中著重從教育、金融以及醫(yī)療等領(lǐng)域機器人的發(fā)揮說明機器人的社會影響,特別是導(dǎo)致勞動者失業(yè)。有的學(xué)者認(rèn)為智能機器的負(fù)面影響已經(jīng)超過了正面的積極作用,智能機器人所帶來的風(fēng)險超過了它的積極作用。智能機器人所帶來的負(fù)面影響和風(fēng)險給人類生活造成了影響,從失業(yè)風(fēng)險到信息泄露,機器人的出現(xiàn)不但帶來技術(shù)風(fēng)險,而且?guī)砩鐣L(fēng)險、環(huán)境風(fēng)險,等等,甚至影響人類生命安全。機器人的負(fù)面影響及其倫理規(guī)范引發(fā)學(xué)者思考。

2.機器人威脅人類的主體地位

隨著人工智能的發(fā)展,機器越來越像人,機器不僅僅具有工具屬性,還具有獨特的存在價值,機器人開始挑戰(zhàn)人類的主體性,人類對智能機器的發(fā)展表現(xiàn)出恐慌心理。智能機器不僅僅是簡單的工具與客體,機器人不再局限于人類肢體的延伸與作用的增強,機器人具有自主決策與推理能力,可能具有自由意志與人類情感,這可能威脅到人類的主體地位,引發(fā)人類主體性地位喪失。隨著機器人技術(shù)的突破,智能機器人在社交、知覺、創(chuàng)造力、自然語言理解等方面的能力不斷突破,在帶來巨大的物質(zhì)力量、促進社會進步與人類發(fā)展的同時,也引發(fā)人類主體性地位喪失的可能性與風(fēng)險。人工智能先驅(qū)明斯基(Marvin Minsky)在《理解人工智能》雜志上發(fā)表《機器人會掌控世界嗎?》來探討機器掌控人類世界的問題。國際象棋被公認(rèn)是挑戰(zhàn)人類智能的一項運動,1997年,深藍計算機戰(zhàn)勝國際象棋冠軍卡斯帕羅夫也引發(fā)人類對于機器智能超越人類智能的思考。智能機器的發(fā)展正在日益威脅到人類的主體性地位。

3.機器人帶來新的倫理問題

機器人的出現(xiàn)與發(fā)展,除了需要解決傳統(tǒng)的倫理問題之外,還引發(fā)一些新的倫理問題。隨著機器人的應(yīng)用,機器誤傷兒童、無人駕駛汽車撞死人事件時有發(fā)生,影響人類安全。機器人傷人、殺人事件時有發(fā)生,威脅人類安全,到底是設(shè)計者還是機器對此類事件負(fù)責(zé)呢?這帶來機器是否是道德主體的疑問。機器學(xué)習(xí)與圖像識別技術(shù)讓無人駕駛汽車輕松上路,卻帶來機器設(shè)計道德上的倫理困境的思考。機器人采集數(shù)據(jù)涉及到數(shù)據(jù)共享與隱私之間的悖論。由于不能公平地使用機器人帶來國家與地區(qū)間的經(jīng)濟發(fā)展差異,機器人的使用導(dǎo)致社會不公平現(xiàn)象的出現(xiàn),等等。上述問題都是隨著機器人出現(xiàn)而引發(fā)的新問題。

機器人倫理學(xué)的內(nèi)涵辨析

2017年,瓦拉赫(Wendell Wallach)與阿薩羅(P.Asaro)編輯《機器倫理與機器人倫理》一書,收集了關(guān)于機器倫理與機器人倫理以及道德主體等方面的文章。機器人倫理(Robot ethics)與機器倫理(Machine ethics)在內(nèi)涵界定、研究范疇以及責(zé)任主體方面都有差異。

1.機器人倫理學(xué)與機器倫理學(xué)內(nèi)涵辨析

機器人倫理學(xué)家弗魯吉奧首次將機器人倫理學(xué)縮減為“roboethics”這個單詞,他認(rèn)為機器人的發(fā)展是由三大基本元素構(gòu)成:人工智能、機器人技術(shù)和倫理學(xué)構(gòu)成,其中,機器人技術(shù)是一個研究機器人的設(shè)計、制造、操作和使用的領(lǐng)域。人與機器的區(qū)別是機器人倫理學(xué)的研究預(yù)設(shè),首先要承認(rèn)機器人與人相區(qū)別,機器不能成為人,也就不能成為道德主體。機器倫理學(xué)與機器人倫理學(xué)內(nèi)涵不同,機器倫理學(xué)指的是機器具有了人的主體地位之后出現(xiàn)的倫理問題,例如,機器如何表現(xiàn)出符合人類倫理道德的行為,機器傷害人類后如何承擔(dān)責(zé)任,等等。機器倫理學(xué)是人工智能倫理的一部分,涉及到人工智能物的道德行為,人工智能機器作為實際的或潛在的道德主體而存在,不但如此,機器可能具有自主學(xué)習(xí)能力、具有自我意識、自由意志、人類情感與人類智能。機器具有自由意志、具有道德主體地位,能夠獨立承擔(dān)責(zé)任是機器倫理學(xué)的理論前提。機器與人一樣具有理性,能夠辨識自己的行為,能夠獨立承擔(dān)責(zé)任的道德主體,因此,可以有針對機器的倫理學(xué),機器倫理學(xué)關(guān)注的是機器對人類用戶和其他機器的行為,機器倫理是以機器為責(zé)任主體的倫理學(xué)。

2.機器人倫理學(xué)與機器倫理學(xué)的研究范疇辨析

機器人倫理學(xué)與機器倫理學(xué)研究范疇有相近之處,機器倫理學(xué)是關(guān)于以機器為智能主體的研究。例如,2009年,牛津大學(xué)出版社出版了溫德爾·瓦拉赫(Wendell Wallach)與科林·艾倫(Colin Allen)的《道德機器:如何讓機器人明辨是非》,涉及到機器自主行為的倫理后果以及機器自主的最近和潛在發(fā)展,關(guān)注的是像人類倫理一樣的機器道德。機器倫理學(xué)的發(fā)展要求在機器上增加一個道德層面的內(nèi)容,提高道德考量比重。2011年,美國康涅狄格州哈特福德大學(xué)機器倫理學(xué)家邁克爾·安德森(Michael Anderson) 與美國大學(xué)哲學(xué)系教授蘇珊·安德森(Susan Leigh Anderson)夫婦編著《機器倫理》(Machine Ethics)一書,對機器倫理的本質(zhì)與內(nèi)涵進行詳細(xì)分析,機器倫理學(xué)研究機器道德,把機器作為具有自由意志,能夠獨立承擔(dān)責(zé)任,具有道德主體地位,機器與人的地位是完全相同的。機器人倫理學(xué)與機器倫理學(xué)的研究范疇不同,它指的是人在設(shè)計機器人中的倫理學(xué),機器人倫理學(xué)的研究范疇主要包括機器人制造與使用階段的倫理道德問題,以及把人類道德規(guī)范嵌入到機器人的操作系統(tǒng)中等問題,關(guān)注機器人設(shè)計者的道德以及機器人設(shè)計應(yīng)用引發(fā)的人類安全、設(shè)計公平、社會穩(wěn)定以及環(huán)境影響等問題。

3.機器人倫理學(xué)是以人為責(zé)任主體的倫理學(xué)

機器人倫理強調(diào)人與機器的區(qū)別,機器倫理把機器當(dāng)作人來看待。學(xué)者基于機器與人的區(qū)別關(guān)注機器人倫理。美國加州理工大學(xué)哲學(xué)系帕特里克·林(Patrick Lin)在《機器人倫理:機械化世界的問題映射》中強調(diào)機器人設(shè)計,關(guān)注在機器人設(shè)計環(huán)節(jié)如何實現(xiàn)價值的嵌入,從而設(shè)計出有道德的機器人,提出設(shè)計具有同情心和無私情懷的機器人的設(shè)想。帕特里克在《機器人倫理2.0:從自駕駛汽車到人工智能》中,認(rèn)為構(gòu)建機器人倫理要在道德機器的基礎(chǔ)上,增加了法律責(zé)任的考量,指出隨著智能機器人的智能水平的不斷提高,智能機器能在一定程度上為其行為負(fù)法律責(zé)任,并詳細(xì)闡述了其法律責(zé)任分配的依據(jù),其中就包括了設(shè)計者可能要肩負(fù)的法律責(zé)任等內(nèi)容。對于機器人倫理來講,研究主要集中在人類負(fù)責(zé)任和不負(fù)責(zé)任地使用人工智能技術(shù)。人機關(guān)系是機器人倫理的核心問題,機器人倫理學(xué)指的是人在設(shè)計機器人中的倫理學(xué),機器人制造和部署的倫理道德問題,用來處理人們發(fā)明機器人的倫理道德問題。在機器人倫理學(xué)家看來,機器不具有人類的主體地位,也不能獨立地承擔(dān)責(zé)任。當(dāng)人工智能仍然只是人類決策的輔助工具時,即機器仍由人來控制和干預(yù)時,機器作惡可用已有的道德和法律規(guī)則來進行約束,因為此時做出錯誤決策的是人本身而非機器,機器只是人的命令和指令執(zhí)行者而已。機器人倫理學(xué)主要關(guān)注的還是機器設(shè)計中的設(shè)計主體責(zé)任以及機器應(yīng)用帶來的社會倫理問題,從這個意義來講,機器人倫理學(xué)是作為應(yīng)用倫理學(xué)的分支存在的。

通過上述分析我們可以知道,機器人倫理學(xué)是關(guān)注人工智能設(shè)計以及人工智能給人類帶來的倫理問題,例如,數(shù)據(jù)挖掘倫理、人工智能社會倫理等問題;機器倫理認(rèn)為人工智能具有自我推理與決策能力,研究機器在決策過程中決策失誤、傷害人類身體以及損害人類利益中的倫理問題。機器人倫理學(xué)是設(shè)計、制造以及對待機器人的倫理學(xué),這種倫理學(xué)一般針對設(shè)計主體來說的,機器人倫理學(xué)屬于“以人為中心”的倫理學(xué),責(zé)任主體是人,主要研究設(shè)計者在機器人設(shè)計、利用機器人中的倫理規(guī)范;機器倫理學(xué)是機器人具有了人類智能后應(yīng)該遵循的倫理規(guī)范,機器倫理學(xué)是“以機器為中心”的倫理學(xué),責(zé)任主體是機器。這是機器人倫理學(xué)與機器倫理學(xué)之間的本質(zhì)差異。

機器人倫理學(xué)的實踐路徑

機器人倫理學(xué)是一門迅速發(fā)展的跨學(xué)科研究,它屬于應(yīng)用倫理學(xué)與機器人學(xué)的交叉領(lǐng)域,旨在理解機器人技術(shù),尤其是機器人的倫理含義和后果。機器人倫理學(xué)是以“人”為責(zé)任主體的研究學(xué)科。研究機器人倫理應(yīng)該在分析人的機器人倫理立場、機器人倫理的研究進路以及機器人倫理的制度保障等方面進行研究。

1.機器人的倫理立場分析

2005年,弗魯吉奧與歐普圖(F.Operto)等人在美國電子電氣工程師協(xié)會召開的機器人與自動化國際會議(International Conference on Robotics and Automation)上總結(jié)了對待機器人的三種倫理立場:第一,對機器人倫理沒有興趣;第二,關(guān)注機器人倫理的短期問題;第三,關(guān)注機器人倫理的長期問題。對機器人倫理不感興趣的人認(rèn)為人類的行為是中性的,不負(fù)載價值,因此設(shè)計機器人、利用機器人不存在價值取向,設(shè)計中不存在設(shè)計者的道德責(zé)任,因此,沒有必要提倡機器人倫理。對機器人倫理的短期倫理問題感興趣的人認(rèn)為機器人應(yīng)該區(qū)分為“好”與“壞”兩類。他們覺得機器人必須遵守社會習(xí)俗或者參考某些文化價值觀,包括在不同領(lǐng)域“尊重”和幫助人類。對機器人倫理的長期倫理問題感興趣的人從全球性、長期性視角關(guān)注機器人的倫理問題,例如,關(guān)注發(fā)達國家與發(fā)展中國家的“數(shù)字鴻溝”,承認(rèn)工業(yè)化國家和貧窮國家之間的差距,思考發(fā)達國家是否應(yīng)該改變它們發(fā)展機器人的方式,以便有利于發(fā)展中國家發(fā)展等長期性倫理問題。

2.機器人倫理研究進路分析

瓦拉赫、艾倫與斯密特(I.Smit)提出機器人倫理的兩種進路:即“自上而下進路”與“自下而上進路”。自上而下的倫理學(xué)進路建立在找出或者表征做道德決策的一般或者普遍原理的基礎(chǔ)上。自上而下的進路是將規(guī)則轉(zhuǎn)換為道德算法嵌入到機器人設(shè)計中,例如將效果論、功利主義倫理學(xué)、康德的道德律令、法律和職業(yè)規(guī)則等嵌入到機器人的設(shè)計中,將人類的道德決策分解為可計算、可管理的模塊或者組件。因為機器具有智能自我推理與決策能力,應(yīng)該通過前攝倫理或者在機器中嵌入人類道德。需要一種“道德算術(shù)”,例如,吉普斯(James Gips)給出基于效果論機器人的“自上而下進路”的嘗試。吉普斯認(rèn)為在結(jié)果論中,行為由結(jié)果來判斷,為了能夠以結(jié)果論的方式進行道德推理,機器人應(yīng)該具備以下條件:描述世界情境的方法;產(chǎn)生可能行動的方式;一種手段可以預(yù)測基于當(dāng)下情境采取行動而導(dǎo)致的后果;根據(jù)情況的好壞或者可取性來評價它的方法。在此基礎(chǔ)上吉普斯構(gòu)建機器人倫理的評價指標(biāo)體系,通過分析道德利己主義者與道德利他主義者的差異,將道德分解為機器人可執(zhí)行的算法來思考機器人倫理的自上而下研究進路的實踐路徑。除此之外,吉普斯還給出基于義務(wù)論與美德論的機器人倫理的自上而下的研究進路,義務(wù)論不同于結(jié)果論,在義務(wù)論中行為的評價是基于行為本身,而不是基于行為的結(jié)果。效果論一般不關(guān)注特定的行動實施的理由以及行動實施的主體,但道義論把責(zé)任直接歸屬于主體的具體本性,不同種類的主體就會有不同的責(zé)任。吉普斯通過把普遍的道德規(guī)范變成具體的道德算法,從而使機器人行為符合道德規(guī)范,這是非常典型的自上而下研究進路,通過倫理原則在機器人中嵌入道德,關(guān)注設(shè)計者的責(zé)任與道德。機器人倫理的“自下而上”的研究進路是按照具體的設(shè)計情景來制定具體的設(shè)計標(biāo)準(zhǔn)。人類的道德是動態(tài)的,必須在具體的設(shè)計情景中去把握。必須協(xié)調(diào)好利益相關(guān)者之間的關(guān)系,可以通過計算機模擬測試各種設(shè)計策略,運用博弈論觀點選擇最佳設(shè)計方案。丹尼爾森(Peter Denielson)在《人工道德:虛擬游戲中的道德機器人》中提出“功能性道德”,認(rèn)為理性是智能體成為道德智能體的前提條件?;魻枺↗osh Dtorrs Hall)也關(guān)注自下而上的道德機器設(shè)計,2007年,他編著了《超越人工智能:創(chuàng)造機器良知》(Beyond AI:Creating the Conscience of the Machine),霍爾認(rèn)為人工道德智能體需要一個“共謀者擔(dān)保協(xié)議”,以便從動態(tài)的情景去設(shè)置道德算法。機器人倫理從動態(tài)的社會機制輸入道德信息,從而對人工道德智能體的整體設(shè)計提供技術(shù)與標(biāo)準(zhǔn)。還有的學(xué)者堅持“自上而下”或者“自下而上”相結(jié)合的研究進路。通過普遍性的倫理規(guī)則與具體的道德情境相結(jié)合,構(gòu)建人工道德智能體。

3.機器人倫理的制度保障分析

沒有既定的倫理準(zhǔn)則與法律制度去遵守和執(zhí)行,機器人具體倫理要求能否在技術(shù)層面真正實現(xiàn)還存在爭議。為了規(guī)范與引導(dǎo)機器人技術(shù)的良性發(fā)展,國家部門、社會組織、行業(yè)學(xué)會以及設(shè)計者也從不同視角做出努力。2004年,機器人倫理技術(shù)委員會建立,目的是提出和解決機器人研究和技術(shù)所引發(fā)的以及相關(guān)的緊迫倫理問題。2005年,歐洲機器人學(xué)研究網(wǎng)絡(luò)(European Robotics Research Network)資助機器人倫理學(xué)工作室(Roboethics Atelier)項目,任務(wù)是繪制第一個機器人倫理學(xué)路線圖(Roboethics Roadmap)。機器人倫理路線圖的最終目的是對機器人研發(fā)中涉及的倫理問題提供系統(tǒng)的評估;增加對有關(guān)問題的認(rèn)識,并促進進一步的研究和跨學(xué)科研究。2016年,聯(lián)合國教科文組織與世界科學(xué)知識與技術(shù)倫理委員會聯(lián)合發(fā)布報告,討論機器人進步以及帶來的社會與倫理道德問題。2016年,英國標(biāo)準(zhǔn)協(xié)會(BSI)頒布《機器人和機器系統(tǒng)的倫理設(shè)計和應(yīng)用指南》。2017年1月,阿西洛馬會議公布的阿西洛馬人工智能原則(Asilomar AI Principles),從科研問題、倫理價值以及長期問題三個視角保障人工智能的安全與合乎道德。給機器人設(shè)計者帶上“緊箍咒”。美國電氣與電子工程師協(xié)會(簡稱IEEE)在2015年、2017年提出“合乎倫理設(shè)計”(Ethically Aligned Design,簡稱EAD)規(guī)范。呼吁在機器人設(shè)計中嵌入人類規(guī)范與道德價值觀,避免人工智能導(dǎo)致的社會不公平、算法歧視等社會問題。

綜上所述,機器人倫理學(xué)不同于機器倫理學(xué),機器人倫理學(xué)是以人為責(zé)任主體的倫理學(xué),涉及到人類如何設(shè)計機器人,如何將人類道德嵌入機器人以及如何對待機器人的問題,我們應(yīng)該將普遍性的倫理規(guī)則與具體的設(shè)計情景相結(jié)合,發(fā)揮設(shè)計者、行業(yè)協(xié)會、企業(yè)、政府部門等不同設(shè)計主體的作用,通過法律、倫理等不同層面保障機器人的良性發(fā)展,發(fā)揮機器人的積極作用。

猜你喜歡
主體人工智能人類
人類能否一覺到未來?
論自然人破產(chǎn)法的適用主體
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
關(guān)于遺產(chǎn)保護主體的思考
人類正在消滅自然
奧秘(2015年2期)2015-09-10 07:22:44
主站蜘蛛池模板: 日本午夜在线视频| 精品视频在线一区| 日本高清有码人妻| 国产浮力第一页永久地址| 亚洲欧美另类中文字幕| 久久天天躁夜夜躁狠狠| 波多野结衣无码中文字幕在线观看一区二区 | 又粗又大又爽又紧免费视频| 欧美特黄一级大黄录像| 最新精品久久精品| 亚洲日韩高清在线亚洲专区| 97se亚洲综合| 亚洲综合亚洲国产尤物| 日韩精品一区二区深田咏美| 色悠久久久| 国产精品国产三级国产专业不| 波多野吉衣一区二区三区av| 亚洲精品视频免费| 亚洲欧美色中文字幕| 九色视频线上播放| 四虎永久免费地址在线网站| 天天综合天天综合| 中文字幕无码电影| 国产乱人乱偷精品视频a人人澡| 先锋资源久久| 国产网站一区二区三区| 国产三级成人| 经典三级久久| 欧美天堂在线| 国产女人水多毛片18| 亚洲中文字幕手机在线第一页| 久久伊伊香蕉综合精品| 2021精品国产自在现线看| 日韩一区二区在线电影| 欧美成人精品一级在线观看| a在线亚洲男人的天堂试看| 91av成人日本不卡三区| 成年片色大黄全免费网站久久| 毛片免费在线视频| 免费毛片网站在线观看| 中文字幕一区二区视频| 国产又色又爽又黄| 999精品视频在线| 日韩人妻少妇一区二区| 免费看的一级毛片| 中文纯内无码H| 欧美a级在线| 国产靠逼视频| 亚洲中文久久精品无玛| 亚洲三级影院| 国产区网址| 免费毛片视频| 992Tv视频国产精品| 自拍偷拍欧美日韩| 亚洲第一黄色网| 亚洲综合天堂网| 在线亚洲小视频| 成年A级毛片| 亚洲欧美精品一中文字幕| 国产美女免费| 日本人真淫视频一区二区三区| 国产一区免费在线观看| 四虎亚洲精品| 国产18在线| 中文字幕在线免费看| 国产簧片免费在线播放| 色欲国产一区二区日韩欧美| 香港一级毛片免费看| 国产成人久久777777| 91国语视频| 欧美亚洲国产一区| 女人一级毛片| 久久香蕉国产线看观| 色婷婷狠狠干| 女人一级毛片| 国产欧美成人不卡视频| 欧美中文一区| 中文国产成人精品久久一| 亚洲成人播放| 国产在线自在拍91精品黑人| 欧美精品黑人粗大| 无码精品一区二区久久久|