尹傳紅

美國資深外交官亨利·基辛格與谷歌公司前首席執行官埃里克·施密特、麻省理工學院人工智能專家丹尼爾·胡滕洛赫爾,在他們最近合作出版的《人工智能時代與我們人類的威脅》一書中發出警告:人工智能是我們迄今為止最大的敵人。
他們在考察了以往時代最具威力的戰略技術后指出:一戰中把軍隊送到前線的鐵路既能民用也能軍用,并能夠方便和廣泛地鋪開,但其自身并不構成威脅;核技術同樣既能用于戰爭也能用于和平目的,雖具有巨大的破壞力,但擴散不易。而具備全部三個特性的人工智能勢將打破這種范式:明顯具有軍民雙重用途,且可以容易地開發和部署(本質上不過是計算機代碼),并具有巨大的破壞力。
沒有哪個時代面臨過如此復雜的戰略和技術挑戰!當今世界已經不能回避行將改寫戰爭方式的“人工智能武器”這個話題。
信息技術在軍事上的應用,被認為與馬鐙和火藥的發明具有同等重要的意義,是軍事行動上的一場質變。早在20世紀60年代末,戰略思想家便已預計到信息與通信技術的驚人發展會引發軍事上的深刻變革。越戰時期的美軍總司令威廉·威斯特摩蘭在1969年就曾預言:在未來的戰場上,通過使用數據連接、電腦協作的估算以及自動化開火控制,敵軍幾乎會立刻遭到定位、瞄準和打擊,第一輪殺傷概率將達到幾乎100%,監視設備則能夠持續追蹤敵軍。在這樣的情況下,就不再需要通過大規模部隊才能搞定對手了。
技術本身并無善惡,人類利用技術所做的選擇,才是塑造世界的關鍵。
近年來,我們已然在屏幕上見識過,面對GPS定位儀、衛星廣播、筆記本電腦和激光指示器,只需按一下按鈕,就能發動精確制導的空襲。更令人不安的是,有的國家為獲得壓倒性軍事優勢,通過賦予機器自行做出戰場決策的能力,使用無人操控武器遠程發動攻擊:讓機器來決定何時殺人或殺誰。
事實上,標榜自己“不做惡”的谷歌公司就在研發專供軍事用途的機器人,其旗下一家公司研發的多種可作為火力平臺的履帶式機器人已進入了實測階段。鑒于此,聯合國要求立即暫停任何致命殺傷性自主機器人的研發工作。然而,這紙禁令形同廢紙,研發工作絲毫沒有延緩之勢。
別以為都還是“科幻”。在2009年上映的科幻電影《終結者2018》中,出現了一個天網電腦網絡系統,它操縱著很多種用于追獵和殺戮的機器人,看著令人膽寒。現實中又如何呢?一位美國科學家披露,曾有軍方人士找上門來,對他說:“哦,我們想請你設計一種無人機,就是《終結者》里的那種獵殺者。”
人工智能與武器的結合可能導致的倫理后果,目前正成為多個領域熱議的話題:由于人工智能在決策和行動的自主性上正在脫離被動工具的范疇,其判斷和行為如何進行約束,才符合人類的真實意圖和價值觀,也不與法律及倫理等規范相背離?
毫無疑問,“數字戰士”的出現,不僅會改變參戰者的身份和戰爭的摧毀能力,也將改變戰爭的倫理。更何況,在一個充滿敵意、競爭激烈的世界,人工智能正在增加因誤解或誤判而導致意外升級的風險。也正因如此,聯合國才考慮要在定于今年12月舉行的重新審議《特定常規武器公約》會議上,討論“禁止人工智能控制的致命武器”。
有道是:技術本身并無善惡,人類利用技術所做的選擇,才是塑造世界的關鍵。