〔摘要〕 隨著人工智能的廣泛應用,如何讓未來具有高度自主性的智能機器作出倫理推理和道德決策,成為機器倫理研究中亟待解決的難題之一。智能道德機器創造中必須深入探討智能機器成為道德能動者的前提與可能。人工智能、機器人領域的研究人員和程序員等非倫理學家面臨著諸如道德哲學知識缺失可能導致智能道德機器倫理假設偏誤,倫理理論多元加大了倫理共識達成的難度,“電車難題”造成倫理決策困境,人工智能的法律應用存在機器偏見,倫理方法論的多元性造成正當性辯護與道德行為選擇困難等更為突出的倫理困境。破解這些倫理困境,對創造智能化、人性化的道德機器是非常必要的。有效破解這些倫理困境,需要實現道德哲學與人工智能的融合發展,需要重新審度倫理自身的合理性,在多元價值中達成倫理共識,最終構建面向智能機器本身的可執行倫理機制。
〔關鍵詞〕 智能道德機器,道德能動者,道德多元論,倫理困境
〔中圖分類號〕N1?? ?〔文獻標識碼〕A〔文章編號〕1004-4175(2019)04-0030-08
在可預見的時空范圍內,人工智能系統面臨著擺脫人類監管并獨立自主地作出道德決策和行動的巨大風險和挑戰﹐甚至會走上對抗人類之路。這種不確定性將使智能機器面臨的道德風險日漸凸顯。人類迫切需要確保智能機器的設計符合道德規范,即亟需創造出“道德機器”。伴隨著人工智能和機器人等技術取得的長足發展和進步,機器倫理的跨學科領域,諸如計算機信息科學、人工智能(AI)和機器人等現有的和未來的技術發展領域,幾乎都不可避免地面臨如何給智能機器進行倫理規則編程,以便使它們成為隱性或顯性的道德能動者 〔1 〕。……