洪夢丹
論人類與人工智能體的道德矛盾
洪夢丹
人工智能體道德已成為智能體發展過程中必須面對的問題,面對人工智能尤其是機器人在人類生產生活中的廣泛應用,智能體的道德張力也逐步加重。在對人工智能體道德的研究進路上,很多偉大的哲學家和機械設計師的聯合對于智能體道德的設計起到了至關重要的作用,并進一步促使人機之間的合作。 最終,隨著科學技術與社會的進步,人類倫理體系也會隨著人工智能體道德體系的完善而進一步完備德機器。
人工智能 道德機器 機器人 道德 倫理
人類構建環境是越來越多的人工智能體能夠自動進行活動。到目前為止,由自動化系統軟件控制,存在于兩個方面:“倫理缺陷”。首先,決策能力系統不包含任何道德理性特征;第二,系統的感官能力和無明顯的倫理特征。例如,汽車上的酒精測試裝置,可能會使你無法從機器中獲得,但它無法告訴你,在行進過程中因交通事故而死亡的汽車,也無法意識到,在人類道德意義上,拒絕發射機器。社會的許多領域都被強調為人工智能的道德需求。例如,為了引起公眾的注意,在模擬戰場上介紹了在家庭或醫療服務機器人中部署的軍用機器人的說明。然而,基于機器人的計算機自動化系統來做決定,不管利弊如何在影響著我們。這就是為什么我們要要建立一個具有道德決策能力的機器。
人工智能的存在和創造在我們的生活中是必要的,因為在這個領域上來說我們不是技術上的主宰者,就像我們常說的某個人可能不會選擇去開發原子彈,人類也是不會停止對自動化機器人的探索。然而,這兩個方面完全不同。自從RosalindPicard指出“機器的自由度越高,對道德標準的需求就越大”,人工智能的發展就變得尤為必要。特別是隨著科技的進步,系統的綜合和復雜性的加強,將進一步增加代理設計的難度,即如何定位道德目標的主體。計算機病毒已經對軟件代理人造成危害。例如,我們常用的信用卡的支付功能是一個非常典型的一個自動化的過程,但是由于缺乏一個道德決策的能力,從而對很多人的生活產生了很大的影響。在信息技術發達的今天信息技術給我們提供了很多便利,例如機器人可以照顧家里的老人小孩兒以及為餐廳服務,甚至具有射擊功能的軍用機器人還可以為軍隊所用,但是他們并沒有道德的維度,所以很有可能會對人類造成傷害和損失。
我們將復雜的人工智能描述為一個二維的軌跡:人工智能的發展與現實中的自動化和道德敏感性有關。具有嚴格限制的自動化和倫理敏感的系統僅僅是“操作道德”,這意味著它們的道德表現完全掌握在設計師和用戶的手中。隨著技術發展的不斷更新,機器變得越來越復雜,在這一點上,人工智能的發展方向是“功能道德”,它具有應對和評估道德挑戰的能力。功能道德的創造者也將會面臨許多的挑戰和限制,從評估和應對道德挑戰的能力。功能道德的創造者也面臨許多限制,這從根本上是由于當前技術的發展。然而,我們也應該認識到,至少在理論上,人工智能,身體最終可能是有權利和義務的,可以與真正意義上的人類道德主體相比。在機器人的設計和創新發展中很多應用是投機的,因此我們常常會強調我們的不同組織之間的一個相互合作和協調,為的就是促進友好人工智能的發展。在不到一百年的時間里,機器人的發展速度超過了人們的想象。
自“公子小白”在北京宣布上線啟動后,首批在京東預售的1000臺在三天多的時間中被廣大網友瘋搶,整個月的銷售也再2000多臺,此次開創了機器人這個行業的單品的預售的最好紀錄。除此之外,“公子小白”還被年輕消費群體評價為“個性、時尚、有感覺”而且消費得起的時尚潮品,早在2015年就獲得千萬級Pre-A融資估值1.3億,2個月翻3倍,一再刷新人工智能的融資速度,“公子小白”獨辟蹊徑主打年輕市場的精準定位被驗證告首戰捷。這無一不表明市場對公子小白所代表的情感機器人的極大認可,同時也吸引了更多投資機構的目光,逐步將公子小白推向風口浪尖之上。“公子小白”揮手互聯網+的圈地運動把握AI+的腦力競爭時至今日,互聯網+的圈地競爭,正迅速演變為腦力競爭,從“互聯網+”向“AI+”快速迭代進化。并且,“AI+”將成為一種大趨勢,在社交、工作、教育等多方面得到應用、發展,如“AI+金融、安防”,“AI+無人駕駛、教育”,“AI+體育、醫療”等,整個社會掀起人工智能應用浪潮,重構商業模式和競爭法則。
從“人工智能”發展到“AI+”,公子小白正式上線,人工智能將不再只是電影中的場景,而是作為最前沿和基礎性的技術,正在推動多個領域的發展和變革,成為第四次工業革命的技術基石,人工智能有望為中國在新一輪技術創新大潮中后來居上,很有可能成為中國彎道超車良機。公子小白聰明激萌年輕市場獨辟蹊徑Gowild智能科技公司開發的情感機器人“公子小白”聰明激萌、嬌小的設計,備受年輕人喜愛。它的開發,以“回歸人性、回歸情感、重塑聯接”為信念,擁有強大的知識圖譜及數據分析能力。它既是用戶的呆萌小管家,也是用戶的生活小助手,與用戶相處越久,越懂用戶。
也有人會說,在社交網絡越來越發達的現在,人卻會越來越覺得孤獨,那么當我們所研究的軟件和我們的硬件上都越來越強大越來越智能化的時候,一些人類特有的感性需求被放大。創造消費級、更智能、懂情感、會社交的機器人補充市場缺口,滿足人類需求,勢在必行。
我們知道,不是每個人都有其他精神狀態所需要的情感和道德能力,然而,我們應該把認知缺陷融入我們的道德世界,成為人類道德關懷的對象。例如我們并沒有把有認知障礙的人和沒有正常的精神意識的人排除在我們的道德關懷中,我給了他們應有的道德保護。所以,相對于道德行為情感能力雖然是必要的,但是就機器人來說卻不是必要的。其實在我們不應該糾結于它是不是有同樣的認知和情感的“聰明人”,我們只能根據互動作為一種“表現”,就像前面所說的人類給予的道德關懷一樣。因此,根據著名的生物倫理學家彼得·辛格道德照顧動物,這是“我們依賴現象的基礎,一個動物的行為看起來像一個人就夠了,“我們能想到的,在機器人倫理,如果道德取決于“現象”,為了使機器人成為我們的道德關注的對象和要求的,精神狀態的這種做法是不合理的。另一方面,由于機器人變得越來越先進,我們更可能是不同的不同的機器人道德范疇,我們對待動物的方式:我們對待一些動物的方式是不同的,它不是基于精神狀態但表示基于動物和人類互動。例如,我們把小狗當做寵物來對待,因為小狗會讓我們覺得自己像個玩伴。這種認知缺陷的道德推理和道德取向是基于人類經驗的實踐。
如果我們認為機器人是一種電視,床,茶幾,房子,沙發等等就是人類所擁有的財產或者說是對我們人類有價值的某種東西。那么,根絕它們的價值我們就應該善待它們而且這應該是一種義務。我們對機器人的道德與倫理方面的尊重也可以說就是依賴于機器人對人類的價值而不是基于機器人的道德行為。人們對機器人有一些間接的道德義務作為財產(例如道德方面的尊重和保護)。從歷史的角度看,這種我們對財產所有權的信任其實已經是一種道德習慣和道德傳統了。那么在未來的生活中,我們的機器人作為一個財務將會受到最基本的道德關懷和尊重也是合情合理的。因為機器人對我們來說就是有意義和價值的了,基于這個層面機器人會得到很多間接的道德關懷。人們更傾向于把機器人當作價值對象,而不是充當道德代理人的機器人。所以不論是在目前的實踐應用中還是在未來飛速發展的人工智能時代,只要機器人于我們來說具有一定的價值和意義我們就必須給予一定的道德上的關懷。
從情感的角度看,如果我們讓機器人遵循道德,沒有恐懼、同情、愛和關心這些情感因素,那么我們就能決定機器人不僅不道德,這樣對整個社會來說也是相當危險的。這種所謂的價值認知的缺失就不是真正的道德行為。考慮到這些沒有情感的機器人的完全獨立和自主,這將是人類社會的一大危機。科學技術是一把雙刃劍,可以造福人類,毀滅人類。所以要記住首席設計師的一句話:科學和技術是第一種破壞性的力量。當你揮舞寶劍時,你必須小心,不要傷害自己。實現社會公平正義,確保科學技術發展和利用的合法性。
[1][美]劉易斯.芒福德經典著作系列,機器的神話[M].宋俊嶺,等,譯.北京:中國建筑工業出版社,2009.
[2][美]劉易斯.芒福德經典著作系列,技術與文明[M].宋俊嶺,等,譯,北京:中國建筑工業出版社,2009.
[3]楊叔子,鄭曉軍.人工智能與診斷專家系統[M].陜西:西安交通大學出版社,1990.
[4]蔡白興,徐光佑.人工智能理論及應用[M].北京:清華大學出版社,1992.
[5]王東浩.道德機器人:人類責任存在與缺失之間的矛盾[J].理論月刊,2013(11).
[6]王東浩.應用倫理學研究的新視野:機器人倫理[J].石家莊職業技術學院學報,2013(05).
[7]王東浩.基于技術和倫理角度的機器人的發展趨勢[J].衡水學院學報,2013(05).
[8]任曉明,王東浩.機器人的當代發展及其倫理問題初探[J].自然辯證法研究,2013(06).
[9]王東浩.機器人倫理問題探賾[J].未來與發展,2013(05).
華中師范大學)
洪夢丹(1991-),女,漢族,湖北人,碩士,華中師范大學,研究方向:倫理學。