賈珍珍 石海明
未來是一個無比美好的詞匯,它往往寓意機遇、潛力、希望……除了考古學家,似乎科學家、政治家、科幻文學家、教育家等都喜歡談論未來。如今,隨著人工智能(AI)的發展,人類社會正在走向人機協同、跨界融合、萬物智能的“智慧時代”,軍事領域則是社會的縮影與先導。
作為現代戰爭中崛起的新貴,無人戰車、智能炸彈、空間機器人等一系列智能化作戰武器在人工智能的高速發展下,迅速從實驗室走向陸海空天廣域戰場。由此引發的好奇和擔憂也接踵而至:人工智能會否迅速顛覆未來戰爭?會否完全取代人類作戰?在AI面前,誰將真正掌控未來的戰爭?
AI領域的突破讓人驚嘆。很多人或許會對2016年6月的一次模擬對抗記憶猶新——由美國研究人員開發的阿爾法系統在模擬空戰中對抗兩名退役的戰斗機飛行員,AI系統大獲全勝。
在這次模擬空戰中,由兩架攻擊噴氣戰斗機組成的藍隊具有更強的武器系統,但是阿爾法系統的紅隊通過躲避動作擊敗了敵機。比賽結束后,飛行員認為這款程序非常善于掌控態勢,反應也靈敏得出奇,似乎能預測人類的意圖,并在人類改變飛行動作或發射導彈時立即回應。軍事專家表示,這個結果具有深遠的意義,“就像一個象棋大師輸給了電腦”。
戰斗機飛行員與阿爾法系統之間的“人機大戰”,可以說代表了人工智能在基于神經網絡的深度學習、高性能計算和大數據技術等領域的最新成就。但若從現有AI技術發展狀況來看,有關人工智能會迅速顛覆未來戰爭的擔憂似乎為時尚早。
一是戰場環境難適應問題。當前的人工智能之所以備受關注,其背后的主要動因是,有著“人工智能教父”之稱的杰弗里·辛頓2006年提出的深度學習方法大大提高了人工智能在圖像識別、語音識別等方面的效率。然而,該方法在面對具有可微分、強監督學習、封閉靜態系統等任務時有效,在面對不可微分、弱監督學習、開放動態環境下的任務時效果較差,計算收斂性不好。
二是作戰主體難進化問題。就人工智能行為主義進路中的增強學習而言,其最主要的缺點是把人的行為過程看得過于簡單,實驗中往往只是測量簡單的獎懲反饋過程,有些結論并不能遷移到實際戰場情景中,所以往往外部效度不高。此外,行為主義刻意研究可以觀察的行為,而將意識與行為對立起來,限制了戰爭中人工智能主體的進化。
三是戰術行為難解釋問題。人工智能符號主義基于邏輯推理的智能模擬方法模擬人的智能行為,屬于現代人工智能進路。它主張用邏輯方法來構建人工智能的統一理論體系,但卻遇到了“常識”問題的障礙,以及不確知事物的知識表示和問題求解等難題,因此,如將其運用到未來戰爭實踐中,將面臨戰術行為難解釋等諸多問題。
在科幻電影中,我們常見到各種“超級戰士”的身影:《機械戰警》中人類頭腦和機械身體完美結合、身上配備各式武器、能應付各種暴力活動的機械警察;《再造戰士》中通過基因設計工程制造出來的擁有超絕戰斗技巧和力量的超級戰士;《阿凡達》中用人類的基因與當地納美人基因相結合,由人類的意識進駐其中而得以在這個星球上自由活動的“化身”,等等。
如今,電影中的科幻場景正一步步走入現實,正如美國科學家皮埃羅·斯加魯菲等人在《人類2.0:在硅谷探索科技未來》中指出的:“今天,人類延伸自我最讓人印象深刻的方式,就是發展出了改變生命本身的技術,未來將是有機世界和合成世界的聯姻,正如未來一定是人類和機器人的聯姻。”
盡管如此,目前的人工智能還處在“幼年期”,它只能在規則確定、信息完備的封閉系統中有可能比人類做得更好,而在其賴以工作的可編程的特定問題和特定背景之外,必須依靠人類的敏銳洞察力、道德分辨力和隨機應變力等才能解決問題。
因此,憑借人工神經網絡、大數據、云計算等分析技術,人工智能雖具有強大的信息感知處理能力,但軍事對抗系統技術復雜性的提高必然帶來新的系統不確定性,系統復雜性與系統不確定性相生相克的客觀規律,仍然是人類認識人工智能應當遵循的原理,因此人工智能的出現仍然難以徹底消除戰場的“不確定性”迷霧。
對此,美國空軍有人機和無人機高級飛行員大衛·約翰在《無人系統能否引發新軍事變革》中寫道:“單靠技術從來不會贏得戰爭。成吉思汗的馬鐙、荷南·科爾蒂斯的火槍以及美國的原子彈,都為其帶來了決定性優勢,但它們之所以能起到關鍵作用,只是因為適應了當時的具體條件和戰略……無人系統不會從根本上改變戰爭的本質或性質。嘗試使用無人系統代替人類智慧的決策者、戰略家或操作員,對這樣的結論將大失所望。”
美國耶魯大學生物倫理學跨學科中心的溫德爾·瓦拉赫在《科技失控》中說,人類孕育的科技決定著未來。科技既可以是人類溫順的仆人,也可以是人類危險的主人,既可以是人類貼心的朋友,也可以是人類兇狠的敵人。回顧科技發展史會發現,在漫長的進化過程中,關鍵是人類學會了制造和使用工具。否則,面對“反復無常”的大自然,手無寸鐵的人類是何其脆弱的一個物種。
人工智能技術對撬動軍事變革的作用不容小覷,但與此同時,戰爭中的技術、倫理、道德等一系列風險與挑戰也逐步顯現。不少科幻電影已對人工智能的威脅展開討論:《機械公敵》中原本以保護人類為使命的機器人出現集體失序,對人類展開了殘暴攻擊;《西部世界》中機器人的內部系統不斷進化,最終反叛并傷害人類。
由于目前AI技術的發展局限,人工智能的指揮系統容易在執行程序復雜的情景中出現失序。比如2007年10月,美軍第三機步師一部帶著3臺“利劍”機器人進攻一個反美武裝盤踞的據點時,由于沒有及時更換軟件,其中一臺“利劍”竟把槍口瞄準美軍操作者,而且無論操作員如何發出“行動取消”的指令,失控的“利劍”就是停不下來,直至用火箭筒把它炸翻才化險為夷。
可以預見,在人機協同作戰方式中,過度依賴人工智能無疑增大了指揮系統失控的風險,這就如同把槍交給了機器人,當機器人不聽從人類指揮時,槍口對準的對象將可能是戰爭中的任何一方。
因此,應堅持人機結合、以人為主的原則,保證人類對軍事機器人的控制權,制定應對意外事件的應急機制,建立防范機器人失控的后臺程序。此外,應當加強人工智能的技術預測與評估,在充分試驗與分析的基礎上逐步推動人工智能技術的軍事應用。
(摘自《環球》2020年第22期。賈珍珍為國防科技大學副教授,石海明為國防大學教授)