999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能道德主體地位研究的兩種進(jìn)路

2023-12-29 00:00:00李佳輝
科技創(chuàng)新與應(yīng)用 2023年10期

摘" 要:人工智能道德責(zé)任歸屬問(wèn)題的核心環(huán)節(jié)是分析人工智能是否具有道德主體地位。單純從客觀外在原因入手分析難以完整涵蓋人工智能的研究框架,需輔以主觀原因相互補(bǔ)充,逐漸形成人工智能道德主體地位研究的“內(nèi)在進(jìn)路”和“外在進(jìn)路”。“內(nèi)在進(jìn)路”以人類自身對(duì)人工智能的特殊情感態(tài)度為出發(fā)點(diǎn),探究人工智能倫理爭(zhēng)議的始點(diǎn)因素,“外在進(jìn)路”則聚焦算法設(shè)計(jì)賦予人工智能按照內(nèi)在程序運(yùn)行的自主行動(dòng)能力。2種研究進(jìn)路將焦點(diǎn)對(duì)準(zhǔn)“人工智能是否真的具有道德主體地位”這一問(wèn)題背后的相關(guān)理論分析,把視線重新拉回到人工智能背后真正的實(shí)踐主體,有助于完善相關(guān)倫理準(zhǔn)則及政策法規(guī)的制定。

關(guān)鍵詞:人工智能;道德主體地位;內(nèi)在進(jìn)路;外在進(jìn)路;倫理

中圖分類號(hào):TP18" " " " 文獻(xiàn)標(biāo)志碼:A" " " " " 文章編號(hào):2095-2945(2023)10-0087-05

Abstract: The core link of the attribution of moral responsibility of artificial intelligence is to analyze whether artificial intelligence has the status of moral subject. Starting with the analysis of objective external reasons, it is difficult to fully cover the research framework of artificial intelligence, which needs to be supplemented by subjective reasons to gradually form the \"internal approach\" and \"external approach\" of the study of the moral subject status of artificial intelligence. The internal approach takes the special emotional attitude of human beings towards artificial intelligence as the starting point to explore the starting point of the ethical dispute of artificial intelligence, while the \"external approach\" focuses on the algorithm design that gives artificial intelligence the ability to act independently according to the internal program. The two research approaches focus on the relevant theoretical analysis behind the question of \"whether artificial intelligence really has the status of moral subject\", and draw the attention back to the real practical subject behind artificial intelligence, thereby are helpful to improve the formulation of relevant ethical norms and policies and regulations.

Keywords: artificial intelligence; moral subject status; internal approach; external approach; ethics

人工智能的發(fā)展日新月異,相關(guān)責(zé)任倫理應(yīng)進(jìn)一步建構(gòu)和完善。不同領(lǐng)域的專家學(xué)者對(duì)人工智能倫理這一學(xué)界熱門話題各持己見(jiàn),始終有著諸多爭(zhēng)議。人工智能領(lǐng)域有其自身特性,其研究視角和方法有著明顯特色。傳統(tǒng)研究方法多將視角聚焦在技術(shù)性的客觀外在原因,寄希望于一套近乎完美的倫理標(biāo)準(zhǔn)設(shè)計(jì)去規(guī)范人工智能的自主行為,但截至目前也無(wú)法在倫理道德上得出一套適用于不同群體的普世性道德規(guī)范。從主觀原因入手,分析人類對(duì)人工智能復(fù)雜情感態(tài)度的可能成因,并聚焦算法設(shè)計(jì)賦予人工智能按照內(nèi)在程序運(yùn)行的自主行動(dòng)能力這一客觀外在表現(xiàn)。內(nèi)外并舉,明晰人工智能作為一項(xiàng)科學(xué)發(fā)展的產(chǎn)物,用以服務(wù)人類的社會(huì)生產(chǎn)實(shí)踐活動(dòng),實(shí)際上并不具備道德主體地位。

1" 人工智能道德主體地位研究的“內(nèi)在進(jìn)路”

人類對(duì)人工智能的某種特殊情感,源自賦予周圍存在物以情感的主觀偏好。“內(nèi)在進(jìn)路”關(guān)注生成“人工智能具有道德主體地位”這一觀點(diǎn)的主觀原因,探究人工智能倫理爭(zhēng)議的始點(diǎn)因素,即從人類自身對(duì)人工智能問(wèn)題的情感態(tài)度進(jìn)行分析,主要圍繞2方面展開討論:一方面,人類賦予周圍事物以情感的行動(dòng)偏好將我們的感情投射或移植到周圍的對(duì)象之中;另一方面,人工智能在“智力”及外形設(shè)計(jì)方面的擬人化帶來(lái)一定的沖擊感,以至于人們對(duì)人工智能的發(fā)展問(wèn)題如此敏感。從“內(nèi)在進(jìn)路”出發(fā)對(duì)人工智能的道德主體地位進(jìn)行分析,將人工智能倫理問(wèn)題的視線拉回到人工智能背后的主體——人。

首先,人類的“移情”①偏好似乎是引起人工智能倫理爭(zhēng)議的一個(gè)始點(diǎn)因素。不論是可模擬人腦思維且能夠?qū)崿F(xiàn)人類認(rèn)知功能的強(qiáng)人工智能(Artificial General Intelligence)還是只能單純執(zhí)行人類為其設(shè)定的某單一任務(wù)的弱人工智能(Artificial Narrow Intelligence),其和人類的微妙關(guān)系似乎都基于一種人賦予周圍事物以情感的行動(dòng)偏好。這種偏好類似大衛(wèi)·休謨提出的“同情”(sympathy),但也有所不同。休謨的“同情”可以感知他人的痛苦并因這些痛苦的人產(chǎn)生難過(guò)、悲傷等情緒,而這種賦予周圍事物以情感的行動(dòng)偏好所包含的內(nèi)容要更加廣泛,應(yīng)用也更加普遍。將我們的感情投射或移植到周圍的對(duì)象之中,這些被人類情感投射的對(duì)象不僅有非生物體、生物體還包括除自己以外的人。移情于人或者移情于人以外的存在物,兩者有著一定程度的相關(guān)性,但其中也蘊(yùn)含本質(zhì)的區(qū)別[1]。

在把人工智能角色定位成一個(gè)道德主體的情境中,更多的是一種主觀想象。事實(shí)上,人工智能所引發(fā)的爭(zhēng)議是科學(xué)技術(shù)發(fā)展所帶來(lái)的一些衍生性問(wèn)題。關(guān)于技術(shù)的問(wèn)題,路易斯·芒福德(Lewis Mumford)曾提到“它只是人類文化中的一個(gè)元素,它起的作用的好壞,取決于社會(huì)集體對(duì)其利用的好壞。機(jī)器本身不提出任何要求,也不保證做到什么。提出要求和保證做到什么,這是人類的精神任務(wù)[2]”。人類的情感行為有著一定的構(gòu)造功能,當(dāng)這種道德情景應(yīng)用在人工智能上時(shí),主觀情感便開始對(duì)其進(jìn)行特殊的二次構(gòu)建。曾有一項(xiàng)關(guān)于“下一代機(jī)器人將作為伙伴與人類共存”的調(diào)查詢問(wèn)兒童,如果他們不喜歡陪伴自己的機(jī)器狗時(shí)會(huì)不會(huì)將其扔進(jìn)垃圾桶,其中大多數(shù)兒童認(rèn)可機(jī)器狗的道德地位。這項(xiàng)調(diào)查結(jié)果表明“機(jī)器人至少在功能與心理上可以模擬道德能動(dòng)者并成為道德感受的對(duì)象[3]”。但是,如若詢問(wèn)這些兒童當(dāng)他們不喜歡陪伴自己的小狗時(shí)會(huì)不會(huì)拋棄它,很大程度上會(huì)得出同樣的結(jié)論。不只是小狗,甚至是陪伴孩子的某種玩具也不會(huì)被輕易拋棄。這其實(shí)就是移情行為造成的結(jié)果。很明顯,產(chǎn)生這樣的結(jié)果時(shí),我們并不會(huì)把狗和玩具定義為某種道德能動(dòng)者。比如在康德那里,道德責(zé)任只能由作為道德能動(dòng)者的人來(lái)承擔(dān),而道德能動(dòng)者則需滿足自主性和意志自由這2個(gè)條件。

其次,人工智能在“智力”與外形設(shè)計(jì)方面的擬人化給人類帶來(lái)不小的沖擊感。“理性”是人的突出特征,人的大腦可以將抽象概括后的一般規(guī)律推廣到具體的事物中去,并且在潛意識(shí)中把某種情緒或者幻想轉(zhuǎn)移到另一對(duì)象上。同樣是將情感移植于自身以外的存在物,非生物存在體由于其自身與人類之間的顯著差距,往往使人們對(duì)其沒(méi)有太過(guò)強(qiáng)烈的抵觸心理。人們之所以對(duì)人工智能的發(fā)展問(wèn)題如此敏感畏懼,一方面是由于傳統(tǒng)西方學(xué)界一直以“理性”作為劃分人與其他生物的主要標(biāo)準(zhǔn),而人工智能的發(fā)展恰恰為人類自己帶來(lái)挑戰(zhàn),人類害怕其自主意識(shí)超越自身的理性智慧。另一方面,在人工智能的研發(fā)過(guò)程中,采用模擬人類外形的設(shè)計(jì),讓人們更加警覺(jué)。例如,索菲亞于2017年成為世界上首位被賦予公民身份的機(jī)器人,她有著高高的顴骨、纖細(xì)小巧的鼻子及延展性材料制成的仿真皮膚,面部的毛孔甚至可以達(dá)到4~40 nm,幾乎與人類別無(wú)二致,憑借面部頸部的62個(gè)結(jié)構(gòu)變化面部表情,就可以展現(xiàn)出不同的情緒。索菲亞的出現(xiàn),讓人們驚嘆的同時(shí)也繃緊了敏感的神經(jīng)。不論是西方神話還是東方神話也都少不了關(guān)于神創(chuàng)造人類的故事。普羅米修斯用泥土按照神的樣子捏出了人類的形狀,女媧同樣用泥土仿照自己的模樣創(chuàng)造了人類。這些故事的共同點(diǎn)就是神創(chuàng)造出了與自己形體相似的人類。人工智能飛速發(fā)展,人工智能體具有人類的形體也不再是天方夜譚,這樣一來(lái),人工智能仿佛成為了神話故事中被神創(chuàng)造的“人”。

人工智能對(duì)人類行為舉止和思維方式的模仿,讓人們格外審慎。這一問(wèn)題其實(shí)在很多文學(xué)作品中都有所體現(xiàn),一旦某些非人存在物開始有了類似人類的行為和思考,人們便把其視為“精怪”并對(duì)其產(chǎn)生一定的懼意。其中的關(guān)鍵就在于,人工智能和其他非生物存在體有了明顯的不同,而和人類之間的關(guān)系卻越發(fā)模糊不清。關(guān)于人類對(duì)非人類存在物之間產(chǎn)生的不同種類的感覺(jué),日本機(jī)器人專家森昌弘曾提出“恐怖谷”(Uncanny Valley)理論,由于機(jī)器人的不斷發(fā)展,其與人類之間的相似程度越來(lái)越高,在最初的起始階段,可能是出于某種好奇心理,人會(huì)產(chǎn)生出一種興奮的正向情感;當(dāng)這種發(fā)展達(dá)到一定階段以后,人和機(jī)器人之間的情感關(guān)系發(fā)生了轉(zhuǎn)變,也許是由于相似程度過(guò)高引發(fā)了生存競(jìng)爭(zhēng)的本能,因此在心理層面出現(xiàn)了較為強(qiáng)烈的抵觸情緒。人類始終只是想成為人工智能這一“高級(jí)智慧”的操縱者,而并不希望自己被這種智慧所超越。

沿著“內(nèi)在進(jìn)路”對(duì)“人工智能具有道德主體地位”這一觀點(diǎn)進(jìn)行剖析,可以發(fā)現(xiàn),人工智能除了使人類產(chǎn)生新奇、驚嘆和懼怕等不同的情緒波動(dòng),還引起了人類主觀上的“移情偏好”。由于人工智能是一種可以模仿人類思維方式和外形的非生物存在體,將人類的情感投射其上時(shí),遠(yuǎn)要比一般的移情行為更加復(fù)雜。這時(shí),不僅是在心理層面,更是在道德層面,都會(huì)發(fā)生一種不可避免的混亂狀態(tài),這就導(dǎo)致了對(duì)人工智能道德主體地位的認(rèn)知偏差。

2" 人工智能道德主體地位研究的“外在進(jìn)路”

人工智能對(duì)海量數(shù)據(jù)進(jìn)行分析和學(xué)習(xí),自主適應(yīng)多變的外在環(huán)境并給出最佳決策方案,按照內(nèi)在程序運(yùn)行的自主行動(dòng)不再完全受控于人類,這也是人工智能被認(rèn)為具有道德主體地位的一個(gè)關(guān)鍵因素。人工智能的算法程序表現(xiàn)出一定的意向性,如此人工智能似乎不能簡(jiǎn)單地被視為一個(gè)遙控的機(jī)器。但不論當(dāng)前人工智能模擬人類的能力可以達(dá)到何種程度,都還沒(méi)有出現(xiàn)真正類似人類的道德主體。人工智能所做出的自主行為抉擇,歸根到底是某種程序的預(yù)先設(shè)定。“外在進(jìn)路”聚焦算法設(shè)計(jì)賦予人工智能按照內(nèi)在程序運(yùn)行的自主行動(dòng)能力,分析算法的典型問(wèn)題,將人工智能道德主體地位問(wèn)題的研究聚焦在研發(fā)階段。

首先,人工智能具有一定的目的性,其來(lái)源并非人工智能自身,而是這項(xiàng)技術(shù)的受眾群體。一是技術(shù)的產(chǎn)生是因?yàn)橹黧w需求,這導(dǎo)致人工智能在最初的研發(fā)過(guò)程中無(wú)可避免地嵌入某些主體價(jià)值。二是人工智能技術(shù)的產(chǎn)生會(huì)對(duì)社會(huì)產(chǎn)生一定價(jià)值導(dǎo)向。比如維貝克(Verbeek)就認(rèn)為,技術(shù)作為一種工具并不是中立的,其調(diào)節(jié)著人們的日常生活,影響著人們的生活質(zhì)量、道德抉擇和道德行為[4]。也就是說(shuō),除了主體需求使得人工智能技術(shù)嵌入主體價(jià)值,人工智能反過(guò)來(lái)也會(huì)對(duì)主體產(chǎn)生很大的影響,這一點(diǎn)從人們對(duì)智能化設(shè)備的依賴程度上就可以看出。三是人工智能研發(fā)人員的主觀價(jià)值取向。埃里克·戈德曼(Eric Goldman)的研究表明,社會(huì)偏見(jiàn)可以被個(gè)別設(shè)計(jì)人員有目的地嵌入到系統(tǒng)設(shè)計(jì)中[5]。人工智能的研發(fā)具有極強(qiáng)的專業(yè)性,源于技術(shù)上的限制和考慮,設(shè)計(jì)人員在新科技的探索過(guò)程中很容易代入自己的主觀價(jià)值取向,經(jīng)由人工智能算法程序轉(zhuǎn)化其形式,使得表面上客觀理性的數(shù)據(jù)和計(jì)算產(chǎn)生觀念上的偏移。從以上3點(diǎn)可以看出,人工智能在運(yùn)行過(guò)程中所表現(xiàn)出的“心靈意志”其實(shí)不過(guò)是根源于社會(huì)背景、社會(huì)實(shí)踐及人們的主觀態(tài)度。

其次,人工智能算法的不透明,為人工智能披上了一層神秘面紗。高度復(fù)雜的運(yùn)行機(jī)制使我們難以對(duì)其因果關(guān)系和責(zé)任劃分進(jìn)行線性歸屬。從設(shè)計(jì)過(guò)程來(lái)看,一些負(fù)面影響很難被預(yù)測(cè)到,當(dāng)人工智能技術(shù)局限于實(shí)驗(yàn)環(huán)境中,按照檢測(cè)標(biāo)準(zhǔn)可能會(huì)檢測(cè)出異樣,然而,當(dāng)算法程序的運(yùn)行結(jié)果被納入交互式環(huán)境中面向公眾系統(tǒng)時(shí),最引人注目的不是結(jié)果本身,而是其被解讀為什么。布雷利(Burrel.J)在人工智能的算法問(wèn)題研究中指出,算法的不透明是高緯度數(shù)據(jù)、復(fù)雜編碼和易變的決策制定邏輯的結(jié)果,存在不可解釋的長(zhǎng)期問(wèn)題,不僅如此,算法的決策制定結(jié)構(gòu)通常由許多不同的研發(fā)團(tuán)隊(duì)分工合作,包含大量難以檢測(cè)的規(guī)則,而且由于機(jī)器的處理速度和大量的運(yùn)行變量導(dǎo)致算法的輸入輸出不可知,使得對(duì)算法決策制定的監(jiān)督和人工干預(yù)變得難以把控[6]。人工智能自主行為決策的不可預(yù)見(jiàn)性常常使人們產(chǎn)生“人工智能可以作出道德決策行為”的錯(cuò)覺(jué)。但這一現(xiàn)象的根本問(wèn)題應(yīng)在于如何解決算法決策困境及如何提高算法的可解釋性。

以上2點(diǎn)都可以從人工智能的算法歧視問(wèn)題中得到體現(xiàn)。2014年,亞馬遜公司曾開發(fā)一套算法篩選系統(tǒng)來(lái)幫助亞馬遜在招聘時(shí)篩選簡(jiǎn)歷,開發(fā)小組研發(fā)出500個(gè)模型,同時(shí)輸入50 000個(gè)曾在簡(jiǎn)歷中出現(xiàn)的術(shù)語(yǔ)來(lái)讓算法系統(tǒng)進(jìn)行識(shí)別,以此學(xué)習(xí)不同能力分配的權(quán)重。但隨著時(shí)間的推移,開發(fā)團(tuán)隊(duì)發(fā)現(xiàn)算法對(duì)男性應(yīng)聘者的評(píng)分明顯偏高,當(dāng)算法識(shí)別出女性相關(guān)的詞匯時(shí),相應(yīng)簡(jiǎn)歷便會(huì)得到帶有“歧視性”的相對(duì)較低的分?jǐn)?shù),后經(jīng)由路透社曝光,亞馬遜隨即叫停了對(duì)該算法的開發(fā)和使用。2015年谷歌的自動(dòng)標(biāo)記系統(tǒng)曾將黑人的照片標(biāo)記為“猿猴”或“動(dòng)物”,F(xiàn)lickr也曾出現(xiàn)和谷歌一樣的圖片識(shí)別系統(tǒng)失誤的問(wèn)題。2021年Facebook用戶在觀看一段以黑人為主角的視頻時(shí),會(huì)看到一個(gè)自動(dòng)生成的提示,詢問(wèn)其是否愿意繼續(xù)觀看靈長(zhǎng)類動(dòng)物的視頻。除此之外,面部識(shí)別算法會(huì)被具有女性特征或深色皮膚的人觸發(fā),以防止其訪問(wèn)資源;累犯預(yù)測(cè)模型運(yùn)算結(jié)果顯示有色人種的風(fēng)險(xiǎn)明顯高于白人,從而導(dǎo)致不公正的持續(xù)管理。這些算法歧視的經(jīng)典案例看似是人工智能自主學(xué)習(xí)、自主運(yùn)行的結(jié)果。但本質(zhì)上這些問(wèn)題的產(chǎn)生來(lái)自人們的主體價(jià)值觀念、技術(shù)的不成熟及社會(huì)實(shí)踐背景等因素。例如,亞馬遜員工的整體結(jié)構(gòu)以男性為主,因此亞馬遜的算法篩選系統(tǒng)在訓(xùn)練階段使用的數(shù)據(jù)集本身就帶有很強(qiáng)的性別偏好,導(dǎo)致人工智能自主學(xué)習(xí)的結(jié)果不盡如人意。除了數(shù)據(jù)樣本的收集和使用問(wèn)題,谷歌、Flickr及Facebook等表現(xiàn)出的技術(shù)的不成熟也是一個(gè)關(guān)鍵因素,例如在人臉多樣性(DiF)數(shù)據(jù)集中,梯度剪裁、噪聲注入等技術(shù)會(huì)嚴(yán)重降低較深膚色人臉的準(zhǔn)確性。

人工智能的目的性和算法程序設(shè)計(jì)讓其表現(xiàn)出一定的自主能力,但這種能力本質(zhì)上是人類賦予的,人工智能自身并不具備自我意識(shí),其不會(huì)產(chǎn)生任何情緒波動(dòng)。現(xiàn)有的AI技術(shù)在深度學(xué)習(xí)問(wèn)題上表現(xiàn)出的缺乏復(fù)雜推理能力,是這項(xiàng)技術(shù)的根本局限性,也是當(dāng)下人工智能無(wú)法超越人類的一個(gè)重要方面。換句話說(shuō),人工智能基于數(shù)據(jù)算法等方式做出的自主抉擇和人類的思維意識(shí)有著很大的不同,不論其如何模仿,始終無(wú)法做到與人類的生物思維意識(shí)相一致。因此,通過(guò)“外在進(jìn)路”對(duì)人工智能是否具有道德主體地位問(wèn)題進(jìn)行分析,便可以得出否定性結(jié)論。

3" 兩種進(jìn)路帶來(lái)的啟發(fā)

人工智能所涉及的領(lǐng)域呈發(fā)散性不斷外延,相關(guān)倫理問(wèn)題的探討很大程度上是預(yù)言性質(zhì)而不是基于某種客觀現(xiàn)實(shí)做出的陳述或者判斷。這種預(yù)言性質(zhì)具有強(qiáng)烈的不確定性。以不確定的內(nèi)容為基礎(chǔ)展開討論,勢(shì)必會(huì)得出不確定的結(jié)論。如若撇開人與人工智能之間延展出的不確定性關(guān)系,回到最初的起點(diǎn),也就是創(chuàng)造者與被創(chuàng)造者之間的關(guān)系,就會(huì)很好地了解人類與人工智能的不同角色定位。

喬安娜·布萊森(Bryson)就認(rèn)為人工智能在社會(huì)中的地位應(yīng)該是一個(gè)規(guī)范性的問(wèn)題,而不是描述性的倫理問(wèn)題[7]。人工智能被植入代碼程序,這和單純的倫理設(shè)計(jì)是完全不同的。之所以人工智能涉及很多的倫理爭(zhēng)論,其中一個(gè)重要的節(jié)點(diǎn)在于人工智能的“誕生—應(yīng)用—發(fā)展”是人機(jī)交互的過(guò)程,其和人類發(fā)生某種關(guān)系,理所應(yīng)當(dāng)成為了人類社會(huì)中的某一影響物。例如物體A在某一個(gè)空間地點(diǎn)與路人B沒(méi)有任何的交集,那么物體A對(duì)于路人B而言就是一種主觀的“不存在”,而當(dāng)這個(gè)物體A與路人B產(chǎn)生某種聯(lián)系時(shí)(看到、聽到或者接觸到),二者就會(huì)建立起某種關(guān)系,這時(shí)物體A對(duì)路人B就產(chǎn)生了某種意義。在這種情況下,人作為創(chuàng)造者基于某種目的制造出了人工智能,而人工智能作為一種手段反過(guò)來(lái)為人類服務(wù)。人工智能的工具性理應(yīng)是被牢牢把握的關(guān)鍵點(diǎn)。人工智能是人類的發(fā)明創(chuàng)造、是某種技術(shù)產(chǎn)品,作為一種工具使人們更容易實(shí)現(xiàn)其目的。明確人工智能與人類之間的這種關(guān)系,確定二者的角色定位是構(gòu)建人工智能倫理原則的前提。

亞里士多德曾指出“一切技術(shù)、一切規(guī)則以及一切實(shí)踐和抉擇,都以某種善為目標(biāo)”[8]。人工智能作為科技發(fā)展的結(jié)晶也應(yīng)是人類達(dá)到幸福的一種手段。人工智能的發(fā)展要以人的幸福為目的。2017年在阿希洛馬召開了“有益的人工智能”會(huì)議,在這場(chǎng)會(huì)議中提出了 “Asilomar AI Principles”也就是“阿希洛馬人工智能原則”,強(qiáng)調(diào)應(yīng)以安全、透明、負(fù)責(zé)、可解釋、為人類作貢獻(xiàn)和多數(shù)人受益等方式開發(fā)AI[9]。實(shí)際上,我們與周圍事物的基本關(guān)系本質(zhì)上是由人類自己主觀操縱事物的目的來(lái)支配的。人工智能作為我們達(dá)到目的的某種手段,也是人類賦予了其存在的意義。

不論是強(qiáng)人工智能還是弱人工智能,都可以在很多方面改變傳統(tǒng)的實(shí)踐方式,但不管這些智能體如何實(shí)現(xiàn)目標(biāo)以及如何完善實(shí)踐經(jīng)驗(yàn),其仍舊只是一種工具,是人類為了實(shí)現(xiàn)自己某種目的而使用的對(duì)象。人類根據(jù)自身發(fā)展的需要和社會(huì)發(fā)展的條件,來(lái)制造自己所需要的工具,而人工智能作為這種工具,理應(yīng)是人類為了促進(jìn)自己的實(shí)踐發(fā)展而制造的存在物。這正如喬納斯曾解釋說(shuō)到,使用某物的意思就是將其作為一種使用工具來(lái)達(dá)到目的,也就是執(zhí)行功能。選擇的目的是阿基米德點(diǎn),其決定工具的選擇和使用:“我決定使用哪種工具,考慮到我的活動(dòng)的目的和工具的條件——它們?cè)俅胃鶕?jù)我的目的來(lái)進(jìn)行評(píng)估。[10]”“人類的生產(chǎn)源于人的需要,人工智能的生產(chǎn)也是源于人的需要。[11]”人工智能的發(fā)展體現(xiàn)了社會(huì)更高的發(fā)展目標(biāo)。人類具有創(chuàng)造能力,可以在行為活動(dòng)中產(chǎn)生對(duì)個(gè)人或者社會(huì)有價(jià)值的獨(dú)特結(jié)果。雖然,人工智能可以進(jìn)行一定的創(chuàng)造活動(dòng),但是人工智能與人類之間的主次關(guān)系是明顯的,也就是說(shuō),人創(chuàng)造了人工智能,人工智能是人類創(chuàng)造出來(lái)的作品。

從“內(nèi)在進(jìn)路”出發(fā),想要更好地規(guī)避人工智能帶來(lái)的倫理風(fēng)險(xiǎn),要做到以下三點(diǎn):一是正確理解人工智能作為一項(xiàng)技術(shù)幫助人們達(dá)到某種目的的角色定位,人工智能的產(chǎn)生和發(fā)展正是由于人類在社會(huì)實(shí)踐活動(dòng)中不斷地創(chuàng)造,是社會(huì)的必然發(fā)展階段。人工智能技術(shù)在實(shí)踐應(yīng)用中應(yīng)做到“為人民謀幸福”。二是有關(guān)部門機(jī)構(gòu)應(yīng)進(jìn)行正確的社會(huì)價(jià)值引導(dǎo),使人工智能技術(shù)的研發(fā)人員、相關(guān)決策人員、開發(fā)商和人工智能相關(guān)產(chǎn)品的使用者都有積極正面的需求目的,從源頭遏制那些會(huì)對(duì)社會(huì)產(chǎn)生巨大負(fù)面影響的人工智能產(chǎn)品。三是人工智能的設(shè)計(jì)應(yīng)加以規(guī)范,不應(yīng)只追求復(fù)刻人類的外貌與行為,而是應(yīng)該本著造福人類的原則將重點(diǎn)落在功能研發(fā)問(wèn)題上。

算法體現(xiàn)了一些性能比其他性能更好或更重要的價(jià)值,可以肯定某種決策或選擇,在給定的域中使用數(shù)據(jù)驅(qū)動(dòng)算法的決策可能具有社會(huì)、政治和經(jīng)濟(jì)等方面的意義,且有可能會(huì)不成比例地偏袒某些群體。從“外在進(jìn)路”出發(fā),首先,人工智能研發(fā)的技術(shù)人員應(yīng)避免實(shí)施缺乏充分科學(xué)確定性的舉措,在算法運(yùn)行階段明確說(shuō)明算法的優(yōu)化標(biāo)準(zhǔn),對(duì)人工智能可能產(chǎn)生的社會(huì)影響有清晰全面的認(rèn)知,并在研究過(guò)程中采取必要的防范措施。同時(shí)建構(gòu)道德評(píng)估體系,培養(yǎng)、提升研發(fā)技術(shù)人員的道德水平。其次,對(duì)人工智能有關(guān)的基礎(chǔ)知識(shí)和技能進(jìn)行科學(xué)普及和宣傳。有關(guān)部門或機(jī)構(gòu)應(yīng)為受眾群體提供理解人工智能相關(guān)概念的適當(dāng)?shù)幕A(chǔ)知識(shí),教育者可以利用特定的工具確保不同水平的受教育者實(shí)現(xiàn)其學(xué)習(xí)目標(biāo)。通過(guò)對(duì)相關(guān)知識(shí)技能的學(xué)習(xí)了解,樹立正確對(duì)待人工智能相關(guān)問(wèn)題的思想觀念;三是提高創(chuàng)新研究能力,努力解決算法決策等困難。人工智能作為社會(huì)發(fā)展和技術(shù)創(chuàng)新的產(chǎn)物,現(xiàn)已成為新一輪科技革命和產(chǎn)業(yè)變革的核心驅(qū)動(dòng)力,是促進(jìn)人類進(jìn)步的重要技術(shù)形態(tài)。目前,人工智能產(chǎn)生的種種問(wèn)題及負(fù)面影響,很大程度上源于AI技術(shù)的不成熟、不完美。因此,提高創(chuàng)新科研能力、培養(yǎng)專業(yè)人才,才能從本質(zhì)上解決這一難題。

總之,要想理清人工智能與人類之間的種種關(guān)系,構(gòu)建人工智能倫理原則,關(guān)鍵是要明晰人工智能是否可以被視為道德能動(dòng)者。人工智能確實(shí)可以做出某些自主抉擇,甚至可以發(fā)展屬于其自己的一套行為方案,這使部分學(xué)者認(rèn)為人工智能可以作為某種道德責(zé)任的承擔(dān)者。但是從“內(nèi)在進(jìn)路”和“外在進(jìn)路”2個(gè)不同的視角進(jìn)行分析,不難看出人工智能作為一項(xiàng)技術(shù)無(wú)法成為道德主體并承擔(dān)相應(yīng)責(zé)任。人工智能道德主體地位研究的“內(nèi)在進(jìn)路”和“外在進(jìn)路”相互補(bǔ)充,使人工智能倫理研究的視角不再單一,分析反思背后的問(wèn)題,從而將責(zé)任歸屬問(wèn)題聚焦現(xiàn)實(shí)社會(huì),加快構(gòu)建人工智能倫理體系。

注釋

①“移情”(empathy)這一概念廣泛吸引著現(xiàn)象學(xué)和心理學(xué)等不同領(lǐng)域的學(xué)者,不同學(xué)科領(lǐng)域?qū)Α耙魄椤钡母拍罱忉層兴煌1疚氖褂么烁拍睿瑑H表達(dá)其最為一般也最為廣泛的一種含義,即將主體的感情投射到他物,或者是賦予他物某種情感。關(guān)于“移情”這一概念的其他較為深入的探討,本文沒(méi)有過(guò)多的涉及。

參考文獻(xiàn):

[1] 吳程程.主體的突圍——論移情行為中兩種現(xiàn)象的區(qū)分[J].中南大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2019,25(2):151.

[2] 芒福德.技術(shù)與文明[M].陳允明,王克仁,李華山,譯,北京:中國(guó)建筑工業(yè)出版社,2009.

[3] 段偉文.機(jī)器人倫理的進(jìn)路及其內(nèi)涵[J].科學(xué)與社會(huì),2015,5(2):42.

[4] 杜嚴(yán)勇.論人工智能研究中的前瞻性道德責(zé)任[J].上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018,47(4):43.

[5] LOCKTON D,HARRISON D,STANTON N A. The design with intent method: a design tool for influencing user behavior[J].Applied ergonomics, 2010,41(3):382-392.

[6] BURREL J.How the Machine“thinks”:Understanding Opacity in Machine Learning Algorithms [J] .Big Date and Society,2016(1):1-12.

[7] BRYSON J J. Patiency Is Not a Virtue :The Design of Intelligent Systems and Systems of Ethics[J].Ethics and Information Technology,2018,20(1):15-26.

[8] 苗力田.亞里士多德全集(第一卷)[M].北京:中國(guó)人民大學(xué)出版社,1990.

[9] 段偉文.人工智能時(shí)代的價(jià)值審度與倫理調(diào)適[J].中國(guó)人民大學(xué)學(xué)報(bào),2017,31(6):98-108.

[10] HANS J. The phenomenonof life: toward a philosophical biology[M].Evanston:Northwestern University Press,2001:188-210.

[11] 李梅敬.理論層次視域下人工智能發(fā)展風(fēng)險(xiǎn)的倫理應(yīng)對(duì)[J].探索與爭(zhēng)鳴,2021(8):167-176,180.

主站蜘蛛池模板: 无码一区中文字幕| 91久久偷偷做嫩草影院| 中文字幕天无码久久精品视频免费| 亚洲有无码中文网| 青草免费在线观看| 国模在线视频一区二区三区| 欧美五月婷婷| 国产精品19p| 黄色成年视频| 精品国产免费第一区二区三区日韩| 国产中文一区a级毛片视频| 久久无码av一区二区三区| 国产一区二区三区在线观看视频| 国产jizz| 毛片免费网址| 欧美激情,国产精品| 22sihu国产精品视频影视资讯| 被公侵犯人妻少妇一区二区三区| 国产视频一区二区在线观看| 十八禁美女裸体网站| www中文字幕在线观看| 亚洲精品福利视频| 在线精品亚洲国产| 午夜福利视频一区| 色综合综合网| 亚洲天堂免费| 久久精品无码国产一区二区三区| 欧美不卡视频一区发布| 中国精品久久| 日本影院一区| 中文字幕日韩丝袜一区| 国产精品无码作爱| 天堂在线www网亚洲| 这里只有精品免费视频| 欧美高清视频一区二区三区| 久青草国产高清在线视频| 一级毛片a女人刺激视频免费| 97人妻精品专区久久久久| 91精品国产丝袜| 精品国产三级在线观看| 九九久久99精品| 国产精品99一区不卡| 亚洲AV无码乱码在线观看代蜜桃| 亚洲国产亚洲综合在线尤物| 97se亚洲综合| 国产极品美女在线播放| 精久久久久无码区中文字幕| 欧美三级不卡在线观看视频| 中文国产成人精品久久一| 国产成人精品男人的天堂下载| 国产乱子伦无码精品小说| 九九热精品在线视频| 成人综合在线观看| 日韩 欧美 国产 精品 综合| 免费在线不卡视频| 亚洲色精品国产一区二区三区| 日韩区欧美国产区在线观看 | 日本成人在线不卡视频| 国产亚洲精品自在线| 日韩欧美国产区| 在线观看精品自拍视频| 中文字幕丝袜一区二区| 成人在线亚洲| 97国产在线观看| 多人乱p欧美在线观看| 一边摸一边做爽的视频17国产 | 成人精品免费视频| 久久免费看片| 亚洲国产一区在线观看| 狠狠操夜夜爽| 久久99精品久久久久久不卡| 91午夜福利在线观看精品| 国产无码性爱一区二区三区| 欧美日韩亚洲综合在线观看| 无码 在线 在线| 波多野结衣AV无码久久一区| 亚洲天堂自拍| 日本福利视频网站| 性69交片免费看| 99re视频在线| 一级福利视频| 国产亚卅精品无码|