1981年在日本川崎,37歲的工廠工人Kenji Urada跨過安全防護欄試圖維修一部機器。在匆忙中,他沒有關好開關。由于機器人沒有任何感觀系統,水壓臂仍繼續工作,并把他拋進一個碾磨機內。Urada成為第一個有記錄的機器人受害者。美國科幻小說家艾薩克·阿西莫夫于1950年發表了一本有關機器人的短篇小說集,在書中他創造了“三法則”。盡管幾十年過去了,書中所說的防止機器人傷害人類的方法,仍無法實現。
機器人安全成為各國關注焦點
雖然安全機制確實有所進步,但機器人傷人事件自1981年以來卻有增無減。多年來,一直有人的軀體被粉碎,頭部被重擊、被焊接,甚至被融化的鋁水澆滿全身等事故發生。據英國健康安全署報道,去年僅英國就有77起與機器人相關的工傷事件。
現在,機器人已逐漸從工廠進入了家庭和辦公室,機器人專家們決定共同商討讓人類免受機器人傷害的辦法。在意大利熱那亞會晤過的機器人倫理學家們,在西西里巴勒摩歐洲機器人座談會上,宣讀了他們初步的研究發現。“保障和安全,成為討論的焦點。”機器人倫理團體發起者、瑞典皇家科技學院歐洲機器人網絡組織主席亨瑞克·克里斯汀森如是說。能夠“粉碎”人的強有力的機器人,是否應該被獲準進入家庭呢?盡管已違背了《日內瓦公約》,“系統故障”是否只是機器人向手無寸鐵的平民開火的借口?
據聯合國經濟委員會的歐洲世界機器人技術調查,2002年,家庭服務型機器人數量翻了三番。2005年,全球使用了超過500萬機器人吸塵器和割草機。日本工業企業正緊鑼密鼓地制造“類人機器人”。韓國也設定了目標,要在2020年使全國100%的家庭使用機器人。有鑒于此,克里斯汀森博士認為,我們必須要開始考慮制定機器人安全和倫理規則。
高科技并不能保證100%的安全
那么我們現在為保護自己免受機器人威脅,都做了些什么呢?“我們做的還遠遠不夠。”英國蘇賽克斯大學人工智能學專家布雷·懷特比說。但是,情況正有所改觀。研發人員正投入更大的精力制作更安全的機器人。一個研究方向就是,如何設定程序,使機器人不能和人類進行直接接觸。聽起來簡單,但做起來很難。讓機器人在堆滿雜物的家中走動已不容易了,還要讓它考慮如何繞過突如其來的手臂和狗尾巴,更是難上加難。意大利熱那亞智能自動化學院的機器人專家杰馬克·瓦魯基說,規范機器人行為在未來會越來越困難,因為越來越多的自我學習機制被植入機器人中。機器人的行為將不能被完全預測,因為它們不會總按照既定程序來完成使命,而會學習新的技能,這將可能導致一些不可預知的危險。當一個機器人在進行心臟手術,或者倒一杯滾燙的咖啡給你時,突然失靈了怎么辦?日本東京大學機器人專家、日本科技促進會顧問Hrrochika Inoue博士說:“通過高科技無法做到l00%的安全。”
機器人傷人誰承擔法律責任
阿西莫夫的“三法則”如何實行?這只是虛構的法則,也許永遠不能在現實中實行,懷特比博士說。不僅如此,這些法則還需要機器人有一定的人工智能,而這恰巧是機器人所缺乏的。Inoue博士說,在任何情況下,這些法則只是武斷地把一些常識性原則,植入現代電器設計中。這些家庭或工業機器本來已具有這些特性。每個烤面包機、割草機和移動電話都被設計成只能產生最小化傷害的機器,但是仍有人被電擊、被切了手指、或不小心摔出窗外。至少,機器人必須能夠嚴謹地達到安全的最低標準。問題是,是否需要規范機器人的具體規則?如果答案是肯定的,那需要做些什么?
當一部自動地毯掃帚弄傷一個嬰兒時,應該去責怪誰?如果全自動機器人可以不斷地自我學習,它的設計者是否應當承擔全部責任?盡管今天看來答案是肯定的,但越來越智能化的機器人,將會使答案越來越不確定。“現在,沒有保險公司能替機器人保險。”Inoue博士說。但這種情況會改變。日本貿易工業局曾經宣布了一系列家用及辦公室機器人安全條例:這些機器人必須具備感應器,能夠避免撞到人;它們必須由軟且輕的材料制成,以防萬一發生碰撞事件;它們必須具備緊急關閉按鈕。
但是,如果你認為能夠自我學習的萬能機器人將會大行其道就錯了,安吉先生相信機器人只會被做成相對蠢笨的機器,來對付不同的任務,并不會出現一個人性化的機器人女傭。
鏈接:阿西莫夫“三法則”
一、機器人不得傷害人類,或坐視人類受到傷害而袖手旁觀。
二、除非違背第一法則,機器人必須服從人類的命令。
三、在不違背第一法則及第二法則的情況下,機器人必須保護自己。
(弘東摘自《青年參考》)