嚴衛 錢振江 應文豪 肖樂 周立凡
【摘要】本文深入探討了智能汽車和人工智能機器必須能夠做出倫理決策的原因和面臨的困難。分析了人工智能機器的部署所帶來的大部分挑戰可以通過人類的法律和技術監管來解決。最后指出,將當前的人工智能倫理道德問題建立在諸如電車難題等極端不正常的情境上是一個嚴重的錯誤。
【關鍵詞】人工智能 ?倫理 ?智能汽車
【基金項目】“2019年江蘇省計算機學會‘計算機倫理與職業修養專項課題”(JSCS2019ZX012)的研究成果;“江蘇省高校‘青藍工程優秀青年骨干教師培養對象項目”(2017)的研究成果;“江蘇省高校‘青藍工程中青年學術帶頭人培養對象項目”(2019)的研究成果;“江蘇省‘333高層次人才培養工程培養對象項目”(2018)的研究成果;“江蘇省教育科學‘十三五規劃課題”(No.B-b/2016/01/34)的研究成果;“高等學校計算機教育研究會2018年度教育研究項目”(2018)的研究成果;“常熟理工學院2018年度高等教育研究項目(GJ1808)”的研究成果。
【中圖分類號】G64 【文獻標識碼】A 【文章編號】2095-3089(2020)45-0035-02
1.批判性概述
1.1智能汽車需要倫理規范的理由
智能汽車通俗講可被視為學習型機器。而他們的程序主要用來收集信息,處理信息,得出結論,并相應地改變他們的行為方式,而不需要人類的干預或指導。因此,這樣的一輛車可能會啟動一個指令比如不超過速度限制,并得出安全行駛的結論。鑒于這些智能汽車可能會造成事故,因此智能汽車需要能夠區分“錯誤”和“正確”的倫理決策。這些智能機器更需要在造成無法避免的傷害時,例如需在兩種傷害之間做出選擇的情況下,這一點已經引起了人們的廣泛關注。這些討論通常從電車難題的適應性開始,即汽車無法及時剎車,被迫在繼續行駛和撞到行人之間做出選擇,或者轉向到對面車道上迎面駛來的車輛[1]。簡而言之,智能汽車和其他人工智能機器在做決策時需要倫理指導。
1.2讓智能汽車做出倫理決策的兩種方式
人工智能和神經科學倫理學專家溫德爾·瓦拉赫提出了兩種方法,即自上而下進路和自下而上進路[2]。在自上而下進路中讓智能汽車和其他智能機器能夠自行做出倫理選擇。其倫理規則被編入程序,在程序員的指示下,智能汽車在特定條件下以最合乎倫理的方式安全行駛。在此,沒有必要重提各種倫理學派之間的爭論。鑒于這些不同之處,我們只需指出,很難給一臺能夠自行做出倫理決定的機器編寫程序,無論是使用這些倫理哲學中的一種,還是這些倫理哲學的一種組合。研究發現指出,人類能夠處理細微差別和模糊的決策,但在實際操作中,計算機程序員發現這樣的決策特別費力。簡而言之,自上而下進路是有局限性的。
第二種是自下而上進路,希望機器在沒有被教導任何正式的規則或配備任何特定的倫理哲學情況下,通過觀察人類來做出倫理決策的行為。也有人提出,智能汽車可以通過某種聚合系統,作為一種群體思維或利用群體智慧,從數百萬人類司機的倫理決策中學習。然而,人們應該注意到,這很可能導致智能汽車獲得一些不道德的偏好。例如,學習了許多人的做法,智能汽車很可能會隨意加速、突然變道等。人們還必須注意到,當面對電車難題所帶來的選擇時,大多數受訪者希望智能汽車在不牽涉其中的情況下做出實用的決定,即對他們自己來說,他們想要的車會優先考慮自己的幸福,而犧牲別人的幸福。
簡而言之,自上而下和自下而上的方法都面臨非常嚴重的困難。這些困難不僅僅是技術上的,更是涉及人類所使用的倫理哲學的內部聯結等。
1.3智能機器的自主性探討
有關智能機器的自主性有些人認為,所有發生的事情都是由充分的先決條件造成的,這種因果決定論使得倫理責任的分配變得不可能。然而,這并不意味著同樣的情況也適用于機器。有些工具沒有自主性但可以通過外部的力量完全解釋它們的行為。例如,GPS系統當被問及從起點到終點最好的方法,比較幾個選項,并推薦一個,但它的建議是基于一個人為的程序算法,計算最短的路線或花最少的時間。
深度學習是一種相對較新的人工智能形式,它基于神經網絡來實現由大數據、超級計算和先進算法的轉變,通過深度學習,系統能夠自己找出問題所在。然而,深度學習看上去很智能,但實際上并非如此。因為深度學習依賴于大數據并且缺乏對新環境的自適應反應能力[3]。
2.人工智能倫理調適的關鍵點
2.1法律實施和個人選擇
如果智能汽車和其他這類機器沒有能力自己做出倫理決策,它們怎么能遵循人類的倫理偏好呢?在回答這個問題時,必須首先考慮倫理和社會價值觀在人類世界中的兩種截然不同的實現方式,然后再考慮如何將這些價值觀引入智能機器領域。
倫理和社會價值在社會中實現的主要方式是通過法律實施和個人選擇。許多倫理和社會價值體現在法律中,即它們是國家制定并強制執行的。例如,為了提高安全性,汽車必須在停車標志處停車。通過學習交通安全法等來促進對這些價值觀的遵守而違反這些價值觀的人則會受到處罰。但是,諸如是否購買環保汽油或最便宜的汽車、是否購買污染更少的汽車、是否為搭便車的人提供服務、是否允許朋友使用自己的汽車等問題的最終決定權還是留給了每個人[4]。區分法律實施和個人選擇是至關重要的,因為通過立法機構頒布的法律是由國家強制執行的,原則上不受個人考慮和選擇的限制。智能汽車必須遵守法律,就像所有其他汽車一樣,如果他們認為超速、污染等行為是合乎倫理的,他們就沒有必要深思熟慮。誠然,這些法律可以根據這些汽車的特點進行調整。盡管如此,智能汽車仍需要遵守法律,就像所有其他汽車一樣,否則將被禁止上路。甚至它們的所有者、程序員和制造商將對造成的任何損害承擔責任。
法律沒有規定的倫理決定通常由個人或智能汽車自行做出。我們已經看到,試圖為這些智能汽車寫入程序,使它們能夠自己做出這些決定,是一項非常艱巨的任務。我們能做些什么呢?讓個人指導他們的汽車遵循他們的價值偏好。在一定程度上,這可以通過設置選項來實現。例如,根據特斯拉官方的介紹,司機的手放在方向盤時才會改變車道,而且每一次改變都會被震動或鈴聲提醒。當然,司機也可以選擇取消通知提醒。
接下來,我們建議,對智能機器加強倫理引導應該采用一種新的人工智能程序,它將“解讀”主人的倫理偏好,然后指示這些智能機器注意這些偏好。我們稱之為倫理機器人。倫理機器人是一個人工智能程序,對個人倫理偏好可以通過分析成千上萬的商品信息來解讀其特定行為的真正含義。從本質上講,倫理機器人在倫理選擇方面所做的工作,與許多人工智能程序在發現消費者偏好并相應地針對其投放廣告時所做的工作類似。
2.2離群值謬誤
電車難題在智能汽車上的應用受到了驚人的關注。就像其他的心理實驗一樣,它們可以作為激發對話的引子。然而,作為智能機器及其人類伙伴進行決策的模型,這樣的故事往往適得其反。因為電車難題是精心設計的。他們通常只留給參與者兩個選擇,而這些選項和其他條件都不能修改。例如,在鐵軌主干道上有20人被捆綁無法脫身,這時一輛火車疾馳而過,一場特大事故即將發生,幸運的是工作人員發現旁邊有一個杠桿,只要啟動按鈕就能讓火車改到另外一側鐵軌主干道上。但另外一條鐵軌主干道上恰巧也有1個人被捆綁。在這種極端情況下,工作人員可以啟動按鈕讓火車改道行駛嗎?事實上,人們對不同人的生命價值觀是不同的。
芭芭拉弗里德指出,“電車難題促使一些哲學家更多地關注‘邊緣的一組古怪案例,而不是現實生活中的大多數案例,這些案例實際上存在對他人造成意外傷害的風險。”[5]
法律學界有句重要的格言:“艱難的案件會導致糟糕的法律”,因為由極端的情況而引起的案件,往往會導致針對例外情況的法律或裁決,更會導致糟糕的規則[6]。人工智能倫理案件亦如此。我們注意到,這對于機器學習程序來說是一個廣泛的問題。第一,在樣本概率分布歸納時,有一些離群事件是很難預測的。第二,人類也面臨同樣的問題,而且往往做出不可預測的反應,有時更會導致所謂的“人為錯誤”。這對于機器學習來說仍然是一個具有挑戰性的研究課題。在大多數情況下,智能機器可以通過法律手段保持一致。而在其他情況下,他們可以遵守用戶的倫理偏好。但總會有一些無法預見的事件。在這些情況下,最好的選擇是分析哪一方將受到傷害,并做出合理決策。如果這些情況重復出現,人類將需要更新法律指導或倫理機器人的指導規則。
3.結語
應該承認,在機器中植入倫理或者教授機器倫理,充其量是一項非常費力的工作。我們指出,智能機器在做出的許多倫理決策時,不需要也不應該由它們自行做出,因為大多數的決策可以通過相關立法機關和法律為機器做出規范的指令。剩下的許多倫理決策都可以由倫理機器人做出,它們會根據車主的倫理偏好調整汽車的“行為”。誠然,無論合法的還是合乎道德倫理的智能機器都無法掩蓋極端的異常情況。
參考文獻:
[1]儲陳城.自動汽車程序設計中解決“電車難題”的刑法正當性[J].環球法律評論,2018(03):82-99.
[2]溫德爾·瓦拉赫,科林·艾倫. 道德機器:如何讓機器人明辨是非[M].北京:北京大學出版社,2017:68-69.
[3]何靜.人類學習與深度學習:當人腦遇上人工智能[J].西南民族大學學報(人文社科版),2017(12):84-88.
[4]Etzioni A ,Etzioni O. Incorporating Ethics into Artificial Intelligence[J].The Journal of Ethics, 2017.
[5]Fried,Barbara H. What does matter? The case for killing the trolley problem(or letting it die)[J].The Philosophi?鄄cal Quarterly,2012(62).
[6]Lucas Jr.,George R. Engineering,ethics and industry:the moral challenges of lethal autonomy In Killing by remote control:the ethics of an unmanned military[M].New York:Oxford University Press,2013.
作者簡介:
嚴衛(1980-),男,江蘇常熟人,常熟理工學院助理研究員、實驗師,碩士,主要研究方向為人工智能倫理、高等教育管理。
錢振江(1982-),男,江蘇常熟人,常熟理工學院計算機科學與工程學院副院長,副教授,博士,主要研究方向為計算機工程教育。
應文豪(1979-),男,江蘇常熟人,常熟理工學院副教授,博士,主要研究方向為數據挖掘技術。
肖樂(1981-),女,江蘇蘇州人,常熟理工學院副教授,碩士,主要研究方向為人工智能。
周立凡(1984-),男,江蘇常熟人,常熟理工學院講師,博士,主要研究方向為深度學習。