
專家說,即使友善機器人也會倒戈
從英國著名理論物理學家史蒂芬·霍金到特斯拉創始人伊隆·馬斯克等世界頂尖人工智能(AI)專家,都曾表示過AI對人類生存的威脅。
真有一天,人類會成為自己發明的機器人的受害者嗎?
加州大學伯克利分校的斯圖爾特·羅素教授是該領域的專家。
他在剛出版的《人類相容:人工智能與控制問題》一書中指出,這種威脅并非來自機器人開始有了自我意識,并起來反抗人類主人。
而是因為這些機器人能力變得超強,最后有可能是因為人類的疏忽,為機器人設置了錯誤的目標,讓他們無意中把我們都消滅了。
羅素教授表示,這才是我們應該擔心的,而不是像好萊塢大片中所描繪的那樣,人工智能開始有自主意識,并向人類倒戈,最后把我們都殺光。
羅素教授強調:我們應該擔憂的不是意識,而是它們的能力。
羅素教授在接受采訪時表示,假設我們發明了一個可以用于控制氣候變化的強大人工智能系統,并且能將大氣中的二氧化碳水平恢復到工業革命前的水平。
該人工智能系統經過分析后認為,最容易的方式就是消滅人類,因為人類活動是產生二氧化碳的最主要來源。
當然人類可能會對機器人說,你做什么都可以但就是不能把人類全滅絕。人工智能系統然后可能會說服人類少生孩子,直到最后沒有人生孩子,人類慢慢滅絕為止。
這個例子是想強調與人工智能有關的風險,這些風險都是人類在創造人工智能前并沒有想明白的。

機器人對人類交給他們的任務越來越勝任

深藍的勝利是人工智能發展史上的一個重要時刻

羅素教授說,人類需要收回控制權,否則就晚了

科幻片《2001:太空漫游》中,機器人電腦拒絕被關閉
英國劍橋大學存在風險研究中心表示,當前大多數AI系統都是相對“狹窄”的應用程序,專門用于解決某一領域中的特定問題。
但1997年,超級電腦深藍打敗了國際象棋世界衛冕冠軍加里·卡斯帕羅夫,成為人工智能史上里程碑。
然而,雖然深藍擊敗了世界象棋衛冕冠軍,但深藍卻可能連一場簡單的跳棋游戲都贏不了。因為深藍的設計者是專門讓它下象棋的。
但這才僅僅是開始,隨著人工智能的發展和進步,阿爾法圍棋的最新版AlphaGo Zero在經過短短3天跟自己練習之后,已經達到了超人水平。
AlphaGo Zero通過深度學習,已經不太需要太多的人工程序。它成為圍棋、國際象棋以及將棋(又稱日本將棋)的高手。
這里,最讓人感到震驚的是,AlphaGo Zero完全是自學成才。
劍橋大學存在風險研究中心表示,隨著人工智能逐漸強大,它可能會成為超級智能。它會在許多,或是幾乎所有領域都超越人類。
羅素教授說,這就是為什么人類需要收回控制權。
羅素說,賦予人工智能更明確的目標并不是解決這一難題的方法,因為人類自己都無法確定這些目標是什么。
羅素表示,人們應該徹底改變建立人工智能系統的整體基礎,例如,不再給機器人一個固定目標,而是讓人工智能系統必須明白,它不知道目標是什么。
一旦人工智能系統以這種方式運作的話,它就會聽從于人類的指揮。在執行任務之前,它會尋求人類的許可,因為它不確定這是不是你想要的。
羅素教授表示,最至關重要的是,它們(AI)會樂意接受被隨時關閉的選擇,因為它們也希望避免做那些你不喜歡的事情。
羅素說,我們現在發明的AT系統有點像傳說中的神燈中的精靈一樣,你輕拍神燈,燈里的精靈出來了。你對精靈說:“你給我做這件事吧。”
“如果AI系統足夠強大,它就會完全按照你的要求去做,你也會得到你所要求的一模一樣的結果。”
但羅素表示,問題是跟神燈中的精靈故事那樣,第三個愿望總是要求精靈“取消前面的那兩個愿望”,因為我們無法確定自己到底想要什么。
其結果就可能造成,那個試圖完成錯誤指令的機器人實際上變成了人類的敵人,一個比我們強大得多的敵人。到那時,一切就太晚了。(摘自英國廣播公司新聞網)(編輯/華生)