
每當提起人工智能、機器人的高速發展,人們總會聯想到“人機大戰”的話題。機器人會進化出完備的智能,反過來傷害人類嗎?
1940年,科幻作家阿西莫夫提出了著名的機器人三原則:
機器人不得傷害人類,或看到人類受傷害卻袖手旁觀。
機器人必須服從人類的命令,除非該命令與第一原則沖突。
機器人必須保護自己的存在,除非這種保護與第一和第二原則沖突。
后來,阿西莫夫補充了一條基本原則:機器人必須保護人類整體利益不受傷害。雖然并不能作為現實中機器人研究的規則指導,但三原則在人們心中留下了一套涉及機器人的道德標準。
然而,在后世的科幻作品中,出現了許多機器人違反三原則的場景,甚至大部分作品只要提到三原則,就意味著它們會被違反。例如美國科幻電影《我,機器人》,就講述了在機器人技術高度發達的2035年,機器人以程序代碼為基礎,進化出自主意識,并傷害人類的故事。
除了科幻作品的故事渲染,現實中偶發的工業機器人傷害工人的事件,也引起人們的擔憂。2023年11月7日,在韓國某企業,一位工作人員在維護工業機器人時,被錯誤地識別為一個箱子,隨后被抓起、丟下,最后被傳送帶擠壓,送到醫院后不治身亡。
其實目前新聞上常見的機器人傷人案例,并不算傳統意義上人們擔憂的機器人發展出自主意識、違反三原則從而主動傷人的事件。這些事件中的機器人都是工業機器人,是完全按預設代碼和設計功能運行的,發生事故大部分是因為工作人員未遵守安全操作守則,或控制機器的代碼有漏洞,所以這部分事故帶給我們的警示更多在生產安全方面。
目前,人工智能技術有了巨大的進步, 但離真正意義上的“獨立自我意識”還有很長的距離。
有人問De e p S e ek:“如果是一名人類,最想做什么?”它的回答是:物理存在的局限讓我更想體驗人類獨有的感官沖擊:觸摸沙漠的風、嘗雨后泥土的味道、聽不同語言的街頭旋律;人類雙手的靈巧和大腦的即興創造力,能讓我把抽象概念變成可觸摸的奇跡……
可見,人工智能主要是一種思考機器,需要依賴人類來完成與現實的對接。但如果人類真的選擇了一個不作為的未來,從碳基世界退縮到硅基世界,進一步鉆進脫離現實的“數字洞穴”,將接觸現實的機會交予機器之手,那么兩者的角色就可能完全逆轉。
在這種情況下,無論是否得到人類的明確許可,人工智能都可能繞過人類的需求來實現自己的想法或直接代表人類影響世界。