英國布里斯托爾機器人實驗室的機器人專家艾倫·溫菲爾德為機器人設定道德程序,觀察機器人完成道德選擇的情況?!皺C器人必須防止人類受傷害”,這是人類給機器人設定的道德法則中的基礎。但是,如果是自動駕駛的汽車,究竟是該救自己的司機還是救迎頭撞上來的車里的司機呢?這是機器人需要面臨的道德困境。研究者給機器人出了一個類似“你媽和我同時掉到水里,你先救誰”的選擇難題。計算機科學家羅納德·阿金專門針對名為“道德監督員”的軍事機器人研制了一套運算法則,這套運算法則可幫機器人在戰場上做出明智的抉擇。結果顯示,安裝這種程序的機器人能夠選擇不開槍,且在戰斗過程中,能夠在學校和醫院等戰爭條例規定的受保護區域附近盡量減少人員傷亡。摘自《廣州日報》