塞思·鮑恩
近期,人工智能領域的各項進展堪稱一日千里。對此有種世界末日論,說人工智能驅動的機器將智勝人類,接管整個世界并殺死所有人。
這種描寫常見于科幻小說中,但也經常被否定,因為人類仍然牢牢掌控著局面。但許多人工智能專家則非常嚴肅地看待這一末日前景,這種態度是完全有必要的。
為了解風險究竟在哪里,就要去理解“弱人工智能”(narrow AI)和“通用人工智能”(Artificial General Intelligence)的區別。弱人工智能一次只能在一個或幾個領域運作,因此雖然它可能在某些特定任務中勝過人類,但仍然處于人類控制之下。
相比之下,通用人工智能可以跨越多個領域進行思考,因此可以在復制許多人類智力技能的同時,保留計算機的所有優點,比如完美的記憶力。借助精密復雜的計算機硬件,通用人工智能可能會超出人類的認知。事實上,通用人工智能的發展似乎是無上限的。
就目前而言,大多數人工智能都是弱人工智能。事實上,即使是目前最先進的系統也只具備有限的通用性。
許多知識淵博的人,對高級通用人工智能的前景不屑一顧。其他人則認為比肩人類的人工智能在遙遠的未來可能實現,但現在開始為之擔憂還為時過早。也有一批杰出學者擔心,通用人工智能會對人類構成嚴重甚至事關種族存續的威脅。由于辯論雙方都有龐大的專家團支持,因此我們其他人應該對此保持開放的態度,不必提前站隊。
此外,通用人工智能已經成為大型研發項目的重點。我最近完成了對通用人工智能研發項目的調研,涵蓋六大洲30個國家中的45個項目。許多研究項目都由百度、臉書、谷歌、微軟、騰訊等大型企業以及卡內基梅隆大學、哈佛大學,斯坦福大學以及中國科學院等一流大學來執行。如果簡單地假設這些項目都會失敗,顯然是不智的。
考量通用人工智能潛在威脅的另一種方法,則是將其與其他災難性風險進行比較。在1990年代,美國國會認為應當指示美國宇航局去追蹤那些可能碰撞地球的大型小行星,即便在一個世紀內發生這種情況的幾率僅為1/5000。在通用人工智能方面,根據研發速度以及專家關注度的強弱,在下個世紀中發生災難的幾率可能高達1/100,甚至1/10。
那么問題就在于如何應對。首先,我們需要確保這類研發都是以負責任、安全和有道德的方式來進行。這需要那些在人工智能領域工作的人,與政策制定者、社會科學家和關注這個問題的民眾進行更深入的對話。那些人工智能應用程序的開發者們,大多不習慣于考慮自身工作的社會影響。為了改變這一點,就必須將他們暴露于外部視角之下。
政策制定者們還將不得不面對通用人工智能的國際屬性。目前大部分相關研發都在美國、歐洲和中國進行,但大部分代碼都是開源的,這意味著這項工作可能在任何地方完成。因此,盡管某些區域研發中心應該在建立標準和道德基礎規則方面起主導作用,但這最終會是整個國際社會的工作。
展望未來,解決通用人工智能所引發風險的一些努力,可以搭載在一些業已實施的針對弱人工智能的政策舉措之上。例如由馬里蘭州民主黨眾議員約翰·德萊尼發起的新兩黨人工智能小組會議。而在研究短期和長期人工智能風險的人們之間,也存在著更多協同合作的機會。
無論弱人工智能和通用人工智能是合并還是分開考慮,最重要的是我們現在得采取建設性行動以盡量減少發生災難性事件的風險。不然等到風險真正來臨時,一切就太遲了。