999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

大學生對人工智能的道德意識:以日本立命館亞洲太平洋大學為例 *

2022-05-11 13:48:28納德戈比等危紅波
國外社會科學前沿 2022年5期
關鍵詞:人工智能人類情感

納德·戈比等/文 危紅波/譯

一、引 言

諸如基因編輯、納米技術和人工智能等新技術可能會帶來新的應用,但其倫理意義在以前從未被研究過。人工智能是一種快速發(fā)展的技術,在社會中有著廣泛的應用,這導致我們關注人們是否意識到這些應用的相關細微差別。雖然人工智能專家可能會討論和辯論圍繞人工智能使用的規(guī)范性政策和法規(guī),但公民社會可能會因為技術信息不對稱和對未來可能性的認識而落后。因此,我們設計這項研究是為了考察知識青年對人工智能使用相關道德問題的認識水平。人工智能中的道德問題,通常和有益與有害、正義與公平、道德代理與動機以及透明度等倫理原則相關。1Paula Boddington, Towards a Code of Ethics for Artificial Intelligence, Cham: Springer, 2017, https:// doi.org/10.1007/978‐3‐319‐60648‐4.人工智能的好處來自它通過分析大量數(shù)據(jù)、優(yōu)化流程、提高效率和生產力產生新見解和知識的方式,這也會帶來經(jīng)濟效益和社會財富,并可能有助于環(huán)境可持續(xù)性。2Bernd C. Stahl, Josephina Antoniou, Mark Ryan, Kevin Macnish and Tilimbe Jiya, Organisational Responses to the Ethical Issues of Artificial Intelligence, AI & Society, 2021, https://doi.org/10. 1007/s00146‐021‐01148‐6.然而,這些益處產生了某些需要理解和控制的風險。3Tan Yigitcanlar, Kevin C. Desouza, Luke Butler and Farnoosh Roozkhosh, Contributions and Risks of Artificial Intelligence (AI) in Building Smarter Cities: Insights from a Systematic Review of the Literature, Energies, vol. 13, no. 6, 2020,p. 1473, https://doi.org/10.3390/en13061473.Floridi等人提到了人工智能使用不足(機會成本)和誤用或過度使用的風險,包括“貶低人類技能、消除人類責任、減少人類控制和侵蝕人類自決權”4Luciano Floridi, Josh Cowls, Monica Beltrametti, Raja Chatila, Patrice Chazerand, Virginia Dignum, et al. AI4People,an Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations, Minds & Machines, vol.28, no. 4, 2018, pp. 689‐707, https://doi.org/10.1007/ s11023‐018‐9482‐5.。Bossman列出了人工智能中9個潛在的道德問題,包括:失業(yè)、不平等、對人類行為和互動的影響、犯錯誤、種族主義和偏見、安全威脅、惡意行為、失去人類控制和機器人權利。5Julia Bossman, Top 9 Ethical Issues in Artificial Intelligence, World Economic Forum, Oct. 2016, https://www.weforum.org/agenda/2016/10/top‐10‐ethical‐issues‐in‐artificial‐intelligence/.Stahl等人最近的一次審查提到了以下方面:透明度、問責制、隱私和個人自由的喪失;濫用、錯誤、偏見和歧視的可能性;對弱勢群體、就業(yè)、安全、民主和人性的影響;自主機器的興起,可能還有機器意識的興起。6Bernd C. Stahl, Josephina Antoniou, Mark Ryan, Kevin Macnish and Tilimbe Jiya, Organisational Responses to the Ethical Issues of Artificial Intelligence, AI & Society, 2021, https://doi.org/10. 1007/s00146‐021‐01148‐6.本文簡要回顧人工智能的10個特定倫理問題。

(一)失業(yè)

Wilkinson和Marmot提到了工作的社會、心理和健康益處,因為人工智能而失去這些好處可以被認為是倫理上的傷害。7Richard G. Wilkinson and Michael Marmot, Social Determinants of Health: The Solid Facts, International Centre for Health & Society, 2003, https://www.euro.who.int/en/publications/abstracts/social‐ determinants‐of‐health‐the‐solid‐facts.Mainichi說,保險公司將其人力員工的工作轉移給IBM日本有限公司的Watson,這是一個人工智能系統(tǒng),具有“可以像人一樣思考的認知技術”。8Mainichi, Insurance Firm to Replace Human Workers with AI System, Dec. 2016, https://mainichi.jp/english/articles/20161230/p2a/00m/0na/005000c.因此,由于人工智能系統(tǒng)的替代,一些失業(yè)可能已經(jīng)發(fā)生或正在發(fā)生。然而,自工業(yè)革命以來的任何新技術都導致了就業(yè)市場的變化,人工智能對就業(yè)的整體影響是復雜的,因為某些工作風險更大,例如在可預測的環(huán)境中涉及高度重復或結構化行為的工作。1Paula Boddington, Towards a Code of Ethics for Artificial Intelligence, Cham: Springer, 2017, https:// doi.org/10.1007/978‐3‐319‐60648‐4.另一方面,需要與人互動、使用社交智能、創(chuàng)造力和聰明的解決方案以及在不可預測的環(huán)境中的那些工作更不容易被人工智能所影響。2Max Tegmark, Life 3.0: Being Human in the Age of Artificial Intelligence, New York: Knopf, 2017.Walsh指出,人工智能專家認為人工智能對就業(yè)的影響比非專家認為的要晚幾十年,從而使人們能夠適應就業(yè)市場的變化。3Toby Walsh, Expert and Non‐expert Apinion about Technological Unemployment, International Journal of Automation and Computing, vol. 15, no. 5, 2018, pp. 637‐642, https://doi.org/10.1007/ s11633‐018‐1127‐x.

(二)情感人工智能

這包括:第一,人工智能技術對人類情感的覺察和感知;第二,機器人對人類情感的影響以及機器人的情感和權利。前者是一個在“隱私”下討論得更好的問題,而后者在日本一直是一個熱門話題。Ozawa報道了許多機器人在日本的成功銷售,這些機器人吸引了日本客戶的情感,例如“健談”查理(來自雅馬哈)、“類人”機器人羅賓漢(夏普)、“狗”機器人艾博(索尼)、“友好”胡椒(軟銀)、“寵物”Qoobo(Yukai Engineering公司)和“溫馨”機器人Lovot(Groove X公司)。4Harumi Ozawa, Robot Pets Help Ease Virus Isolation in Japan, Japan Times, Mar. 2021, https://www.japantimes.co.jp/news/2021/03/04/national/social‐issues/robots‐virus‐isolation/. Accessed 31 Jul 2021.日本文化中流行的觀點解釋了日本對機器人的這種情感興趣,即物體也可以有靈魂,日本客戶對機器人的“特征”感興趣,而不僅僅是其機械功能。有人可能會說機器的情感是假的,而人類的情感是真實的。然而,有人可能會回應說,人類在社會環(huán)境中的情感也通常是偽造的,情商(EQ)的概念是讀懂他人表達的情緒并以“適當”方式做出反應的能力。5Marina Fiori and Ashley K. Vesely‐Maillefer, Emotional Intelligence as an Ability: Theory, Challenges and New Directions, in Kateryna V. Keefer, James D. A. Parker and Donald H. Saklofske (eds.), Emotional Intelligence in Education:Integrating Research with Practice, Cham: Springer, 2018, pp. 23‐47, https://doi.org/10.1007/978‐3‐319‐90633‐1_2.換句話說,假裝的情緒和真實的情緒一樣實用。此外,未來智能機器人是否應該被賦予某種形式的情感權利的問題,關鍵取決于它們是否會有意識,是否會主觀地經(jīng)歷悲傷或感到快樂和有其他情緒。6Max Tegmark, Life 3.0: Being Human in the Age of Artificial Intelligence, New York: Knopf, 2017.

(三)人工智能錯誤

人工智能安全問題是一個很好的例子,可以證明風險與效益評估的復雜性。Leslie制定了一份指南,幫助識別人工智能系統(tǒng)造成的潛在危害,并提出了通過負責任的創(chuàng)新和治理來預測和預防這些危害的實際措施。他建議人工智能系統(tǒng)的實施應以人為中心,強調基于證據(jù)的推理、情境意識和道德公正性。7David Leslie, Understanding Artificial Intelligence Ethics and Safety: A Guide for the Responsible Design and Implementation of AI Systems in the Public Sector, SSRN 3403301, 2019, https://doi.org/10. 2139/ssrn.3403301.自動駕駛汽車犯下的錯誤已經(jīng)被公開,不可預測性和機器自主性的問題似乎降低了公眾對人工智能使用的信任程度。8Fahad Alaieri and André Vellino, Ethical Decision Making in Robots: Autonomy, Trust and Responsibility, in Arvin Agah, John‐John Cabibihan, Ayanna M. Howard, Miguel A. Salichs and Hongsheng He (eds.), Social Robotics, ICSR 2016,Lecture Notes in Computer Science, vol. 9979, Cham: Springer, 2016, https://doi.org/10.1007/978‐3‐319‐47437‐3_16.人工智能錯誤的責任在醫(yī)療領域尤為重要。O’Sullivan等人研究了人工智能在機器人手術中的應用,將責任劃分為問責、責任和罪責;機器人在監(jiān)督人類外科醫(yī)生確保接受手術的患者免受潛在災難方面起著關鍵作用。1Shane O’Sullivan, Nathalie Nevejans, Colin Allen, Andrew Blyth, Simon Leonard, Ugo Pagallo, et al. Legal,Regulatory, and Ethical Frameworks for Development of Standards in Artificial Intelligence (AI) and Autonomous Robotic Surgery, International Journal of Medical Robotics and Computer Assisted Surgery, vol. 15, no. 1, 2019, p. e1968, https://doi.org/10.1002/rcs.1968.

(四)人工智能對社會的控制

西方媒體和文獻通常描述關于自主機器人的不當行為及其用于社會控制的可怕場景。2Yuhua Liang and Seungcheol A. Lee, Fear of Autonomous Robots and Artificial Intelligence: Evidence from National Representative Data with Probability Sampling, International Journal of Social Robotics, vol. 9, no. 3, 2017, pp. 379‐384,https://doi.org/10.1007/s12369‐017‐0401‐3.3Baobao Zhang and Allan Dafoe, Artificial Intelligence: American Attitudes and Trends, SSRN 3312874, 2019, https://doi.org/10.2139/ssrn.3312874.然而,日本社會展示了機器人的正面形象和他們的性格,機器人在家庭和工作場所都被接受為人類的伙伴;日本政府提倡使用“社交”機器人來改善老齡化社會的問題,特別是年輕勞動力數(shù)量的減少,以取代那些退休的勞動力。4Cosima Wagner,‘ The Japanese Way of Robotics’: Interacting‘ Naturally’ with Robots as a National Character?Proceedings of the 18th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), pp. 510‐515, https://doi.org/10.1109/roman.2009. 5326221.這些例子與人工智能用于監(jiān)視和控制其他地方的人群形成了鮮明對比。5Alina Polyakova and Chris Meserole, Exporting Digital Authoritarianism: the Russian and Chinese Models, Washington DC: Brookings Institute, 2019, https://www.brookings.edu/research/exporting‐digital‐authoritarianism/.例如在俄羅斯,當權者使用多種工具對數(shù)字社會空間進行行政控制,作為“現(xiàn)代政策管理替代方案”6Oleg M. Mikhaylenok and Galina A. Malysheva, Political Effects of Social Media in Russia, Sociological Research, vol.2, 2019, pp. 78‐87, https://doi.org/10.31857/S013216250004012‐6.。Hagerty和Rubinov的廣泛文獻回顧闡明了全球范圍內人工智能用于社會控制的幾種模式,并表明中低收入國家更容易受到人工智能的負面社會影響,同時也不太可能從中受益。7Alexa Hagerty and Igor Rubinov, Global AI Ethics: A Review of the Social Impacts and Ethical Implications of Artificial Intelligence, arXiv, 2019, 1907.07892v1.http://arxiv.org/abs/1907.07892.

(五)不平等加劇

除非人工智能創(chuàng)造的財富中有一小部分被重新分配,讓每個人都過得更好,否則不平等可能會大幅加劇。8Anton Korinek, Joseph E. Stiglitz, Artificial Intelligence and Its Implications for Income Distribution and Unemployment, in Ajay Agrawal, Joshua Gans and Avi Goldfarb (eds.), The Economics of Artificial Intelligence: An Agenda,Chicago: University of Chicago Press, 2019, pp. 349‐390.與勞動力相比,人工智能可以增加資本在經(jīng)濟中的份額,并增加某些受過高等教育/技術人員群體的收入,同時使其他人更難謀生。9Ajay Agrawal, Joshua Gans and Avi Goldfarb, Economic Policy for Artificial Intelligence, Innovation Policy and the Economy, vol. 19, 2019, pp. 139‐159, https://doi.org/10.1086/699935.因此,除非出臺新的政策,如對資本征稅和全民基本收入,否則社會中的經(jīng)濟差距可能會擴大。

(六)歧視和偏見

Ntoutsi等人詳細解釋了數(shù)據(jù)收集和處理中遇到的問題,如何可能導致人工智能對種族和性別等人類特征做出有偏見的決定;他們在文獻中提供了許多種族和性別歧視實例的參考資料。他們認識到人類社會深受根深蒂固的偏見之苦,而這些偏見僅靠技術解決方案是無法消除的;還需要采取包括社會和法律救濟措施在內的多學科辦法,以避免偏見。1Ntoutsi, Eirini, Pavlos Fafalios, Ujwal Gadiraju, Vasileios Iosifdis, Wolfgang Nejdl, Maria‐Esther Vidal, et al. Bias in Data‐driven Artificial Intelligence Systems ‐ an Introductory Survey, WIREs Data Mining and Knowledge Discovery, vol. 10,no. 3, 2020, p. e1356, https://doi.org/10.1002/widm. 1356.

(七)隱私

政府利用人工智能在家中和公共場所通過大規(guī)模數(shù)據(jù)收集監(jiān)視全球公民,引發(fā)了嚴重的倫理問題,但通常出于安全需要而被證明是合理的。2Christoph Bartneck, Christoph Lütge, Alan Wagner and Sean Welsh, Privacy Issues of AI, An Introduction to Ethics in Robotics and AI, Cham: Springer, 2021, pp. 61-70, https://doi.org/10.1007/ 978‐3‐030‐51110‐4_8.私人公司和企業(yè)也侵犯公民的隱私,以促進廣告、營銷和銷售,理由是這是人工智能系統(tǒng)發(fā)揮更好性能的基礎。使用心理和情感人工智能技術有助于操縱和利用人類用戶,并侵蝕他們的隱私權。

(八)惡意人工智能

人工智能可以用來傷害人的身體。King等人對有關人工智能犯罪可預見威脅的文獻進行了系統(tǒng)的跨學科分析。3Thomas C. King, Nikita Aggarwal, Mariarosaria Taddeo and Luciano Floridi, Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions, Science and Engineering Ethics, vol. 26, no. 1, 2020, pp. 89‐120, https://doi.org/10.1007/s11948‐018‐00081‐0.人工智能犯罪是指利用人工智能技術促進犯罪行為,如針對社交媒體用戶的自動欺詐和操縱模擬金融市場。Pantserev解釋了人工智能通過合成人造圖像進行心理戰(zhàn)的“深度造假”4Konstantin A. Pantserev, The Malicious Use of AI‐based Deepfake Technology as the New Threat to Psychological Security and Political Stability, in Hamid Jahankhani, Stefan Kendzierskyj, Nishan Chelvachandran and Jaime Ibarra (eds.),Cyber Defence in the Age of AI, Smart Societies and Augmented Humanity, Cham: Springer, 2020, pp. 37‐55, https://doi.org/10.1007/978‐3‐030‐35746‐7_3.。人們只能預期,未來有組織犯罪將更廣泛地使用具有惡意意圖的人工智能。這給我們帶來了下一個倫理問題,即人工智能系統(tǒng)在安全漏洞面前的脆弱性。

(九)安全風險

Yigitcanlar等人提到了針對智慧城市人工智能基礎設施的幾次網(wǎng)絡攻擊。這些攻擊導致智慧城市的通信系統(tǒng)(電話和電子郵件)、執(zhí)法、垃圾處理、能源和支付系統(tǒng)出現(xiàn)了巨大的功能障礙。市議會經(jīng)常不得不向那些破壞安全系統(tǒng)的人支付贖金,或雇用外部網(wǎng)絡安全和咨詢公司來處理這種情況。人工智能系統(tǒng)的實施,似乎為犯罪分子利用其漏洞和對社區(qū)造成更大損害創(chuàng)造了新的機會。5Tan Yigitcanlar, Kevin C. Desouza, Luke Butler and Farnoosh Roozkhosh, Contributions and Risks of Artificial Intelligence (AI) in Building Smarter Cities: Insights from a Systematic Review of the Literature, Energies, vol. 13, no. 6, 2020,p. 1473, https://doi.org/10.3390/en13061473.

正如本文簡要解釋的那樣,在實施基于人工智能的技術之前,需要考慮各種各樣的道德問題。這些問題正在迅速發(fā)展,而且似乎很嚴重,但要理解它們的嚴重性,就需要了解人工智能系統(tǒng)的技術知識。因此,我們決定在日本的一所國際大學進行一項調查,以研究大學生(日本人與非日本人)對人工智能的道德意識,并了解教育系統(tǒng)在多大程度上促進了他們對人工智能道德問題的理解。這項研究是在立命館亞洲太平洋大學(APU)完成的,該大學有大約5700名學生,其中幾乎54%的學生是日本人,46%的學生不是日本人。考慮到日本是機器人技術發(fā)展的先驅,其不斷減少的人口和勞動力將需要更廣泛地使用人工智能技術來替代人力,這種環(huán)境提供了一個機會來檢驗日本學生的回答與其他國家學生的回答之間是否存在有意義的差異。在我們發(fā)表了一項針對較小樣本學生的情感分析研究后,當前的研究集中在人工智能的倫理問題上。1Nader Ghotbi, Manh Tung Ho and Peter Mantello, Attitude of College Students towards Ethical Issues of Artificial Intelligence in an International University in Japan, AI & Society, 2021, https://doi.org/10.1007/s00146‐021‐01168‐2.

二、研究方法

在大教室里參加基礎生物倫理學課程的大學生中,我們要求學生在一項關于人工智能倫理學的研究中進行合作。我們向他們提出調查問題,并要求他們將答案上傳到數(shù)據(jù)庫。在478名學生中,有11名學生選擇不配合調查,因此我們可以在一個月后收集467(97%)份回復。調查對象包括152名(33%)日本學生和315名(67%)非日本學生,主要來自中國、韓國、越南、泰國、印度尼西亞、烏茲別克斯坦、蒙古、印度、孟加拉國,還有少數(shù)來自其他幾個國家。調查問題如下:

人工智能有可能在未來引發(fā)許多倫理問題。以下哪個是你認為最重要的,并解釋為什么:人工智能對社會的控制、人工智能歧視或偏見、人工智能對人類行為和情感的影響、人工智能加劇不平等、人工智能錯誤、人工智能安全風險、隱私的喪失、惡意的人工智能、機器人的權利和情感、失業(yè)。

我們要求對所選倫理問題進行解釋的理由是為了激發(fā)學生的反思,降低他們沖動選擇某一項的可能性。通過此次調查,有許多研究問題需要探究。例如,知識青年對人工智能技術可能被濫用的道德敏感性是否存在性別和國籍差異?隨著人工智能應用程序越來越多地被用于各種目的來快速處理個人數(shù)據(jù),他們中的許多人擔心隱私的喪失嗎?他們更擔心的是人工智能被試圖通過人工智能控制社會的威權政府所利用,還是未來他們在求職時可能不得不與人工智能競爭?調查的回答是從數(shù)據(jù)庫中收集的,并逐一檢查,以確認選擇的倫理問題,并尋找與基本人口特征的相關性。

三、調查結果

在回答調查問題的467名學生中,有152名(33%)日本學生和315名(67%)非日本學生;女性236人(50.5%),男性231人(49.5%);一年級52人(11%),二年級134人(29%),三年級164人(35%),四年級112人(24%);5名學生(1%)在其大學生涯的第五年或第六年。至于年齡,所有受訪者都在19~24歲之間。這些書面文章的長度各不相同,但大多在1100字左右。文章包括基于他們所看到、閱讀或聽到的材料的各種論點和推理,以解釋為什么他們選擇的主題是人工智能的一個重要道德問題。學生選擇哪個倫理問題最重要的結果如表1所示。

表1. 大學生對未來AI中最重要的倫理問題的反應

如表1所示,在人工智能可能引發(fā)的十大倫理問題中,該樣本中大學生最普遍的擔憂是失業(yè)(no=269,約58%)。下一個最常見的問題是情感人工智能問題,包括人工智能對人類行為和情感的影響,以及機器人的權利和情感(no=54,約12%)。失業(yè)和情感人工智能一共代表了70%的學生的擔憂,剩下的30%體現(xiàn)在人工智能控制社會、人工智能歧視、不平等加劇、隱私喪失、人工智能錯誤、惡意人工智能和安全風險。接下來,我們研究了在選擇特定道德問題的學生比例和他們的性別以及不同國籍學生之間觀察到的差異大小的統(tǒng)計顯著性。比較兩種比例的z分數(shù)公式為:

關于選擇人工智能控制社會的日本學生與非日本學生的比例差異,z值為-3.1276,結果在p<0.01時顯著。關于日本學生與非日本學生選擇歧視的比例差異,z值為2.2757,結果在p<0.05時顯著。關于選擇失業(yè)的男女學生比例的差異,z值為-2.6108,結果在p<0.01時顯著。關于選擇歧視的女生與男生比例的差異,z值為2.4333,結果在p<0.05時顯著。在收集的數(shù)據(jù)中所見的所有其他差異在p<0.05時統(tǒng)計不顯著。這些結果支持了另一種假設,即日本學生比非日本學生更少關注“人工智能對社會的控制”,但更多的日本學生關注“歧視”,這也是女生更普遍關注的問題,而她們比男生更少關注“失業(yè)”。

四、對結果的討論

目前的研究建立在我們早期的工作基礎上,我們使用文本情感分析,重點關注調查對象對人工智能問題的情緒反應。1此處原文未提供引用。——譯者注這項工作在幾個方面是不同的:首先,我們參考了最近發(fā)表的文章,回顧了人工智能的倫理方面,增加了隱私作為一個重要的道德問題。其次,我們使用定量方法為兩個新的結論提供證據(jù)。一個結論是日本受訪者對社會控制風險的擔憂明顯不足。在文獻綜述中,我們發(fā)現(xiàn)只有一篇論文討論了日本社會倫理的這一方面。2Cosima Wagner, ‘The Japanese Way of Robotics’: Interacting ‘Naturally’ with Robots as a National Character?Proceedings of the 18th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), 2009, pp.510‐515, https://doi.org/10.1109/roman.2009. 5326221.另一個結論是,日本人和女性受訪者比非日本人更關注歧視,這是日本普遍存在的性別歧視問題的另一個證據(jù)。

在這項研究中,無論是日本人還是非日本人,無論是男性還是女性,大學生最關心的是與人工智能使用相關的可能失業(yè)問題。然而,這種擔憂在男性中更為普遍。造成這種差異的原因可能有幾個。這可能是因為亞洲文化中的男性認為就業(yè)對他們的生計更重要,或者更多的女性關注人工智能的其他倫理問題,比如工作中的歧視問題。3Hiromi Hara, The Gender Wage Gap Across the Wage Distribution in Japan: Within and between Establishment Effects,Labour Economics, vol. 53, 2018, pp. 213‐229, https://doi.org/10.1016/j.labeco.2018.04. 007.4Jonathan Peillex, Sabri Boubaker and Breeda Comyns, Does it Pay to Invest in Japanese Women? Evidence from the MSCI Japan Empowering Women Index, Journal of Business Ethics, vol. 170, no. 3, 2019, pp. 595‐613, https://doi.org/10.1007/s10551‐019‐04373‐8.正如引言部分簡要解釋的那樣,盡管失業(yè)是未來的一個主要問題,但人工智能專家認為還需要幾十年的時間才能看到對就業(yè)的巨大影響,5Toby Walsh, Expert and Non‐expert Opinion about Technological Unemployment, International Journal of Automation and Computing, vol. 15, no. 5, 2018, pp. 637‐642, https://doi.org/10.1007/ s11633‐018‐1127‐x.而人工智能的某些用途已經(jīng)造成了嚴重的道德問題。因此,女生對其他道德問題的興趣顯著提高,這可能反映出她們對當前社會問題,特別是性別歧視的認識有所提高。這也增加了一種可能性,即他們的性別歧視經(jīng)歷可能已經(jīng)擴展到他們對未來人工智能風險的擔憂。

學生們最關心的第二個問題是情感人工智能,包括人工智能對人類情感的影響以及機器人自身的權利和情感。但是,對機器人的情感及其權利的關注是真正的倫理關注嗎?未來的智能機器人會有意識并能感受悲傷、快樂和有其他情緒嗎?從生命倫理學的角度來看,擁有意識的必要條件包括成為一個有生命的東西,而不是像巖石這樣的無生命的東西,以及活的和可喚醒的,而不是死的。人工智能系統(tǒng)是否有可能在未來獲得意識,而目前只有生物被假定是有意識的?我們之所以說“假定”,是因為意識是一種“主觀”意識,是對“主體”周圍環(huán)境的感知。人類可以與他人分享自己的主觀意識和觀念,從而了解其特征,但他們如何確定動物、植物和更簡單的生物的意識水平呢?生物學在某種程度上可能有助于克服這一障礙;意識依賴于一個身體系統(tǒng)來感知和理解主體外部的環(huán)境,而主體外部的環(huán)境主要是植物和更簡單的生命形式中的化學物質,以及包括人類在內的動物中的“神經(jīng)化學物質”。神經(jīng)化學一詞意味著神經(jīng)細胞的神經(jīng)活動和神經(jīng)遞質的化學活動都參與其中。人類似乎有更高的意識水平,因為他們的神經(jīng)系統(tǒng)更為復雜,特別是大腦皮層,它發(fā)展了高度的自我意識,這依賴于個人記憶、個人特征(習得的行為方式)、個人需求和選擇,認識到與其他人相比的個人差異。這些結合在一起,使人們能夠特別關注自我,可以稱之為自我意識。“非生命”人工智能系統(tǒng)能獲得自我意識嗎?對于意識的存在,生命的要素有多重要,而人工智能預計在未來將擁有一個復雜的類似人類的大腦?人工智能是否需要像活人一樣有主觀的情感才能擁有意識?如果是這樣,電子人是否有可能成為構建人工意識道路上的中介?對于這些問題,我們沒有明確的答案,這將是我們不認為機器人的權利和情感是首要關注的問題的一個很好理由。

機器人對人類情感的可能影響是一個正在研究的課題。研究人員迄今發(fā)現(xiàn),人類對機器人情感的識別并不是自動發(fā)生的,需要的不僅僅是物理模仿,而是當人類用戶期望機器人表達情感時,尤其是當機器人同時使用聲音和動作進行交流時,可能會發(fā)生這種情況。1Katie Winkle and Paul Bremner, Investigating the Real World Impact of Emotion Portrayal through Robot Voice and Motion, Proceedings of the 26th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN),2017, pp. 627‐634, https://doi.org/10.1109/ ROMAN.2017.8172368.與此同時,科學電影描述了未來機器人表達情感并與人類建立情感關系的各種場景。2D. Loren?ík, M. Tarhani?ová and P. Sin?ák, Influence of Sci‐Fi Films on Artificial Intelligence and Vice‐versa,Proceedings of the IEEE 11th International Symposium on Applied Machine Intelligence and Informatics, 2013, pp. 27‐31,https://doi.org/10.1109/SAMI.2013.6480990.3Damian Schofeld, Digital Emotion: How Audiences React to Robots on Screen, Computer Applications, vol. 5, no. 1,2018, pp. 1‐20, https://doi.org/10.5121/caij.2018.5101.我們的調查結果表明,這類電影對調查結果的影響可能比調查這類情況的研究人員迄今為止提供的真實信息更大。這一結果并不出人意料,因為通過媒體和電影傳播的流行文化可能在塑造年輕人的觀點方面發(fā)揮更大的作用,而這些年輕人大多沒有遇到過真正的機器人。關注不平等加劇(5%)、隱私喪失(4%)、人工智能錯誤(3%)、惡意人工智能(3%)和人工智能安全漏洞(3%)的學生人數(shù)和百分比太少。然而,其中一些問題在倫理上至少與就業(yè)同等重要。將人工智能用于社會控制的可能性就是此類問題之一,我們參考了許多記錄了人工智能濫用的研究。4Samantha Hoffman, Managing the State: Social Credit, Surveillance and the CCP’s Plan for China, in Nicholas D.Wright (ed.), AI, China, Russia, and the Global Order: Technological, Political, Global, and Creative Perspectives, 2018, pp.42‐47, http://nsiteam.com/social/wp‐content/uploads/2019/01/AI‐China‐Russia‐Global‐WP_FINAL_ for copying_Edited‐EDITED.pdf.5Alexa Hagerty and Igor Rubinov, Global AI Ethics: A Review of the Social Impacts and Ethical Implications of Artificial Intelligence, 2019, arXiv, 1907.07892v1.http://arxiv.org/abs/1907.07892.6Oleg M. Mikhaylenok and Galina A. Malysheva, Political effects of social media in Russia, Sociological Research, vol. 2,2019, pp. 78‐87, https://doi.org/10.31857/S013216250004012‐6.7Alina Polyakova and Chris Meserole, Exporting Digital Authoritarianism: the Russian and Chinese Models, Washington DC: Brookings Institute, 2019, https://www.brookings.edu/research/exporting‐digital‐authoritarianism/.8Dean Curran and Alan Smart, Data‐driven Governance, Smart Urbanism and Risk‐class Inequalities: Security and Social Credit in China, Urban Studies, vol. 58, no. 3, 2021, pp. 487‐506, https://doi.org/10.1177/ 0042098020927855.然而,與非日本學生相比,日本學生明顯較少關注社會控制。這可以用日本社會對機器人的獨特地位來解釋。1Cosima Wagner, ‘The Japanese Way of Robotics’: Interacting ‘Naturally’ with Robots as a National Character?Proceedings of the 18th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), 2009, pp.510‐515, https://doi.org/10.1109/roman.2009. 5326221.2Hiromi Hara, The Gender Wage Gap across the Wage Distribution in Japan: Within and between Establishment Effects,Labour Economics, vol. 53, 2018, pp. 213‐229, https://doi.org/10.1016/j.labeco.2018.04. 007.他們也可能對人工智能在未來被誤用的可能性知之甚少。

日益加劇的不平等并不是學生們最關心的問題,但學生們應該關心。O’Neill解釋了“意圖不良”的數(shù)學算法如何在數(shù)據(jù)驅動的金融系統(tǒng)中加劇不平等3C. O’Neill, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, New York:Penguin, 2016.。一個原因可能是我們的受訪者對經(jīng)濟不平等缺乏敏感性,Rodriguez Bailon等人以經(jīng)濟體系正義和社會主導取向信念的形式報道了這一點。4Rosa Rodriguez‐Bailon, Boyka Bratanova, Guillermo B. Willis, Lucia Lopez‐Rodriguez, Ashley Sturrock and Steve Loughnan, Social Class and Ideologies of Inequality: How They Uphold Unequal Societies, Journal of Social Issues, vol. 73,no. 1, 2017, pp. 99‐116, https://doi.org/10.1111/josi.12206.

總的來說,開篇部分的文獻回顧確定了一些已經(jīng)發(fā)生的與人工智能使用相關的重大倫理問題。然而,調查結果表明,大多數(shù)學生要么沒有意識到這些問題,要么更擔心人工智能可能會影響他們的就業(yè),盡管對就業(yè)市場的重大影響可能需要20年左右的時間。例如,提及隱私喪失的學生人數(shù)太少,盡管這是一個非常普遍的問題。嚴厲的批評者甚至可能認為,這些回應反映了學生的日常擔憂,而不是他們對人工智能應用已經(jīng)造成或預計在不久的將來會引發(fā)的倫理問題的意識。

五、結 論

這項大樣本研究(n=467)是在既有日本學生又有許多國際學生的一所多文化大學的大學生中進行的。研究表明,其中與人工智能技術相關的最常見的道德問題是失業(yè)問題。然而,有關道德問題的文獻綜述涉及,例如,人工智能的濫用、實時監(jiān)控的普遍使用導致隱私的喪失、性別和種族偏見的系統(tǒng)、在沒有適當考慮責任的情況下出錯的可能性、社會內部和社會之間日益加劇的不平等、惡意使用人工智能、安全漏洞增加等,這說明圍繞人工智能使用的道德問題是復雜的,而大多數(shù)大學生的意識相當有限,主要集中在可能的失業(yè)問題上。比較日本學生和非日本學生的反應,發(fā)現(xiàn)在兩個方面存在統(tǒng)計上的顯著差異:人工智能用于社會控制和人工智能歧視。日本學生對人工智能的社會控制相對缺乏關注,但更關注歧視,這在所有女生中也明顯更為普遍。有沒有可能許多學生只是簡單地反映了他們日常生活中的主要個人擔憂,而不是人工智能系統(tǒng)的倫理問題?值得注意的是,所有參與調查的學生都來自該大學的兩個主要學院之一:社會科學學院(195名學生)和企業(yè)管理學院(272名學生)。如果這項研究是對工程系或計算機系的學生進行,結果可能會有所不同。本研究的另一個局限是,教育在改變學生的知識和態(tài)度方面可能發(fā)揮的作用沒有通過教學前后的實驗來衡量。

猜你喜歡
人工智能人類情感
人類能否一覺到未來?
如何在情感中自我成長,保持獨立
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
失落的情感
北極光(2019年12期)2020-01-18 06:22:10
情感
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
如何在情感中自我成長,保持獨立
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
主站蜘蛛池模板: 欧美国产日韩在线| 91亚洲国产视频| 久久精品欧美一区二区| 国产一区二区三区在线精品专区| 露脸一二三区国语对白| 日韩欧美国产精品| 欧美伦理一区| 国产成人精品第一区二区| 久久国产精品麻豆系列| 久久久久88色偷偷| 无码久看视频| 日韩国产高清无码| www.91在线播放| 国产三区二区| 丁香婷婷在线视频| 99中文字幕亚洲一区二区| www.精品视频| 全部毛片免费看| 亚洲成人黄色在线观看| 久久综合婷婷| 欧美成人二区| 国产免费看久久久| 亚洲Av激情网五月天| 狠狠五月天中文字幕| 一本一道波多野结衣av黑人在线| 午夜电影在线观看国产1区| 国产在线视频导航| jizz国产视频| 欧美日韩国产成人高清视频| av手机版在线播放| 亚洲一区无码在线| 久久久久人妻一区精品色奶水| 国产欧美日韩另类精彩视频| 婷婷综合色| 色精品视频| 日本人又色又爽的视频| A级全黄试看30分钟小视频| 亚洲狼网站狼狼鲁亚洲下载| 99久久精品美女高潮喷水| 国产精品视频第一专区| 777国产精品永久免费观看| 色综合五月| 人妻精品久久无码区| 国产午夜不卡| YW尤物AV无码国产在线观看| 婷婷六月综合| 国外欧美一区另类中文字幕| 国产极品美女在线| 国产免费观看av大片的网站| 性视频一区| 国产xxxxx免费视频| 在线看片中文字幕| 久久国产毛片| www.99在线观看| 亚洲视频免| 日韩天堂在线观看| 91成人免费观看| 久久精品人人做人人爽97| 欧美精品亚洲日韩a| 91av国产在线| 爆操波多野结衣| 波多野结衣一区二区三区AV| 成人久久精品一区二区三区 | 超级碰免费视频91| 欧美亚洲综合免费精品高清在线观看| 日韩精品无码免费专网站| 亚洲人在线| 免费人成网站在线观看欧美| 伊人激情综合| 午夜毛片免费观看视频 | 婷婷在线网站| 日韩av高清无码一区二区三区| 国产精品免费福利久久播放| 亚洲精品视频免费看| 波多野结衣的av一区二区三区| 国产一区二区三区免费观看| 国产在线小视频| 欧美精品v欧洲精品| 国产免费高清无需播放器| 58av国产精品| 久久精品欧美一区二区| 国产高颜值露脸在线观看|