盧新來,杜子亮,許赟
航空工業發展研究中心,北京 100029
人工智能作為一類戰略性的新興技術在近年來取得了舉世矚目的成功。隨著美軍“阿爾法”空戰格斗比賽、“融合計劃2020”等一系列標志性的演示驗證項目取得圓滿成功,人工智能在軍事領域的巨大應用潛力得到證實,圍繞這一顛覆性技術主動權的爭奪也在如火如荼地開展。
2019年2月,在美國總統簽署行政令發布美國國家人工智能戰略——《美國人工智能倡議》[1]的第2天,美國國防部就公布了其人工智能戰略——《2018年國防部人工智能戰略總結》[2],美國空軍緊隨其后也于2019年9月公布了其人工智能發展戰略——《2019年空軍人工智能戰略》[3]。這一系列戰略文件的發布,以及近年來密集的預算投入,標志著美軍已正式將人工智能作為未來保持非對稱軍事優勢的關鍵核心所在。公開資料顯示,美國國防部的人工智能投資從2016財年的6 000萬美元迅速提升至2021財年的25億美元(包括在自主領域的投資),并且據國防部宣稱其目前有超過600個人工智能項目正在進行當中[4]。
一種不可忽視的全球技術生態系統發展態勢顯示[5],以人工智能為代表的信息技術在數據、網絡和計算能力等多個維度上呈現出指數級增長的態勢,與此同時通信技術也迎來質變的發展機遇期。基于此,一種常見的觀點認為相比軍用系統物理屬性上的提升幅度而言,信息和通信技術將為軍用系統帶來數量級上的增益。雖然這一觀點還有待討論和驗證,但人工智能領域激烈的競爭和快速發展的態勢給航空領域帶來重大機遇的同時也帶來了前所未有的挑戰。為此,本文圍繞人工智能定義、智能等級劃分以及人工智能航空應用等方面的議題開展了一些基礎性的研究工作,以期在人工智能賦能航空的初始階段闡明一些基本概念和基本認識。
眾所周知,公認的人工智能(Artificial Intelligence, AI)概念最早于1956年的達特茅斯會議被正式提出,經過2個多月的研究,麥卡錫、明斯基、羅切斯特、香農等10人共同給出了對人工智能的預期目標:“制造一臺機器,該機器可以模擬學習或者智能的所有方面,只要這些方面可以被精確地描述”[6]。這一預期目標在誕生之初就將復制人的才能,如創造性、自我改進和語言應用等,納入人工智能的研究范疇,使其從根本上區別于控制論、運籌學等,從而成為一門獨立的研究學科[7]。該預期目標在誕生之后,也曾被作為人工智能的定義使用,對該領域的發展起到了舉足輕重的作用[8]。
經過60多年的發展,人工智能幾經起落,已形成幾千種不同的技術路線[9],其中的主流方法根據基本思想的不同大致可以劃分為三大流派:符號主義、連接主義和行為主義。人工智能技術路線的多種多樣部分造就了目前人工智能沒有學界公認定義的現狀[4],這也從一個側面反映出如何實現60多年前達特茅斯會議上關于人工智能的預期目標依然是未知的。因此,不管具體內容如何,人工智能往往采用概括性術語(Umbrella Term)的范式來進行定義。
Russell和Norvig[7]按照2個維度將歷史上一些具有代表性的人工智能定義進行分類,這一分類方法按照關注思維過程還是強調行為,關注與人類表現的逼真度還是強調合理性將人工智能的定義歸納為4類。這種分類方式的好處是可以高度概括和直觀展示歷史上學術界為實現人工智能而進行的4種不同途徑的嘗試。
與學術界不同,國防和工業部門作為人工智能技術的應用方,對人工智能的定義也有自己的理解。美國2019財政年度國防授權法案(NDAA)[10]第238章要求其國防部長在2019年8月13日以前給出人工智能的定義。在上述國防授權法案頒布之后,美國國防部在其《2018年國防部人工智能戰略總結》[2]中對人工智能的內涵進行了描述:“無論以數字或自主物理系統內嵌智能軟件的形式,機器具備執行通常需要人的智能才能執行的任務的能力,如識別模式、從經驗中學習、下結論、做出預測、采取行動等”。從這一描述可以看出,美國國防部對人工智能實現途徑的認知與圖1中“合理地行動”這一途徑更為貼合,理性論者的途徑更多地涉及到基礎研究與工程應用的結合,這也與美國國防部作為人工智能技術應用方的角色相匹配。
雷宏杰如姚呈康[11]針對人工智能在軍用航空領域的應用特點,對軍用航空人工智能的概念進行了描述:“軍用航空人工智能是針對航空軍事任務場景,面向作戰需求,研究和制造在人類給定的具體目標下,能夠通過感知、認知、決策、執行過程達成給定目標的航空裝備及其相關產品的科學與工程”。這一定義在軍用航空背景下對場景、需求和目標進行了限定,是對圖1中“合理地行動”這一途徑在特定領域應用背景下的細化。
圖1 人工智能的4類定義Fig.1 Four types of artificial intelligence definitions
從美國國防部及國內航空領域專家對人工智能定義的認識上可以看出,作為技術的應用方,他們對人工智能實現的途徑有著相同的認知傾向。這就像在萊特兄弟和其他人停止模仿鳥并開始使用風洞且開始了解空氣動力學后,對“人工飛行”的探索才得以成功;航空科學與工程領域的教材也不會把其領域目標定義為制造“能完全像鴿子一樣飛行的機器,以致它們可以騙過其他真鴿子”[7]。與這一思辨過程類似,黃鐵軍等[12]在論述從人類大腦出發研究更強的機器智能乃至通用人工智能時指出,理解意識現象和功能行為背后的內在發生機理是人類的終極性問題,而制造類似人腦的具有自我意識和智能功能的智能機器是工程技術領域的重大挑戰。一種直觀而常見的看法是“制造智能”的前提是“理解智能”,這實際上是把問題的解決建立在解決另一個更難問題的基礎上,犯了本末倒置的錯誤[12]。
雖然美國國防部在人工智能戰略中對人工智能的內涵進行了解釋,但值得注意的是,目前仍然不存在美國政府正式的官方人工智能定義[4]。其中部分原因是這段描述中依然涉及到了2個未明確定義的概念,一個是“人”,一個是“智能”。如何定義“人”或者“智能”?到目前為止依然沒有清晰公認的答案。實際上,維特根斯坦在1953年出版的《哲學研究》中明確指出,日常生活中使用的概念如人是沒有經典概念定義的。
Nilson[13]給出了一種在人工智能定義中將未明確的概念減少到一個的答案:人工智能是關于知識的科學——也即怎樣表示知識以及怎么獲得知識并使用知識的科學。基于這一認識,人工智能希望發現可以不受領域限制、適用于任何領域的知識,包括知識表示、知識獲取以及知識應用的一般規律、算法和實現方式等。這一定義在某種程度上揭示了人工智能具有普適性、遷移性和滲透性的原因。
為了使航空人工智能的研究范圍和關注重點更加清晰聚焦,雷宏杰和姚呈康[11]從軍用航空人工智能視角出發對航空人工智能技術的范疇進行了界定,即“主要面向作戰,以軍事應用為背景,基于人機混合智能系統的任務執行想定,通過不斷提升機器的智能水平,使航空裝備在強實時、高動態、不確定態勢和不完備信息條件下,能夠逐步實現對人的輔助、協同以及融合,不斷提升人機混合智能系統的任務執行效能”。此外,還依據運行環境和層內承擔的主要功能差異,將航空人工智能的運行分為體系層、平臺層、平臺子系統層和設備層4個層次。
從1.1節關于人工智能定義的論述中可以看出,目前甚至是今后相當長的一段時間里人工智能依然難以存在公認的定義,這種不確定性給投資者、管理者和應用者帶來了一定困擾,比如不同機構、組織和個人對人工智能項目的理解不同,容易帶來對項目發展預期見解的差異;再比如將成本差異化較大的低端技術包裝成高端應用或產品,使智能成為不可或缺的廉價廣告詞。
事實上,比起前沿基礎研究的高風險和不確定性,比起工業或軍事應用落地過程中可能面臨的種種問題和困難,現有人工智能技術本身的確定性是最高的。一種認識是,本輪智能技術升級的窗口期只有10~15年,而一代新技術從誕生到成熟往往需要幾十年,所以本輪智能技術升級所依靠的人工智能技術,將主要是現有人工智能技術的工程化落地,而不是等待下一代新技術的成熟[14]。
這就如設計一款飛機一樣,當發動機的主要性能參數框定之后,飛機平臺飛行性能指標的上限也就基本確定了。而得益于大數據可用性改善、計算機處理能力提高、機器學習方法改進這三要素融合匯聚的人工智能,其現有特性也決定了它在航空領域應用落地的方式、形態及能力邊界。
隨著人工智能的快速發展和研究投入的持續提升,一種自然而然的想法是對智能系統的智能等級進行劃分,從而引導關鍵技術發展,為戰略規劃和預算制定等工作提供必要的指導。這種想法在航空領域內反映為對航空裝備進行智能等級劃分的需求。然而,目前并沒有專門性的權威研究成果公之于眾。在一些關于人工智能分類的描述中,隱含著某種等級劃分的意味。2016年Hintze[15]將人工智能分為單一反應型(Reactive Machines)、有限記憶型(Limited Memory)、具有心智型(Theory of Mind)和自我意識(Self-awareness)4類。2017年海牙戰略研究中心在其《人工智能與未來防務》報告中認為人工智能分為弱人工智能(Artificial Narrow Intelligence,ANI)、強人工智能(Artificial General Intelligence,AGI)、超人工智能(Artificial Superintelligence,ASI)3個層級[16]。2018年中國國家標準化管理委員會在其發布的《人工智能標準化白皮書(2018版)》中將人工智能分為弱人工智能和強人工智能[17]。
在發展相對成熟的自動駕駛領域,國內外權威機構先后對自動駕駛汽車的自動化等級(Automation Levels)進行了劃分。2013年,美國高速公路安全管理局(NHTSA)將駕駛自動化分為0~4級[18]。由于該劃分對最高等級的駕駛自動化界定過于寬泛,無法滿足正確引導和規范行業與技術發展的需要,美國機動車工程師協會(SAE)又于2016年提出了0~5級的駕駛自動化劃分指導[19],將NHTSA分級中的等級4細化為等級4和等級5。2020年,中國工業和信息化部在其提出的《汽車駕駛自動化分級(報批稿)》國家標準中基于駕駛自動化系統能夠執行動態駕駛任務的程度,根據在執行動態駕駛任務中的角色分配以及有無設計運行條件限制,將駕駛自動化功能分為0~5級。該標準將駕駛自動化(Driving Automation)定義為車輛以自動的方式持續地執行部分或全部動態駕駛任務的行為。值得注意的是,自動駕駛領域并沒有基于人工智能的視角去評價自動駕駛汽車的能力,雖然有一些研究試圖建立自動駕駛汽車智能等級劃分的方法,但均未被廣泛認可和接受。
與自動駕駛領域相似,航空領域也未見被廣泛接受的智能等級劃分方法。不過,一些研究試圖建立無人機的智能等級劃分方法或從航空人工智能技術體系構建的角度給出智能等級劃分。雖然有關航空領域智能等級劃分的研究較少,但關于自主性(Autonomy)和自主等級(Autonomous Levels)的研究卻有著悠久的歷史,對無人機系統自主等級劃分的認知過程也是本文剖析航空領域智能等級劃分的最佳切入點。
自1965年摩爾定律被提出以來,隨著計算機處理能力在相當長的時間里穩定快速提升,無人系統尤其是無人機的能力也快速提升,隨之而來的是針對無人系統的自主性和自主等級劃分的熱烈討論。這些研究從無人系統本身、任務執行以及人機交互等不同角度出發,試圖理解自主性及其等級劃分,并隨著人工智能的引入而帶來全新的見解。值得注意的是,與第1節中“人工智能”的概念類似,自主性也沒有公認的定義[20],人們對自主性和自主等級的認識隨著無人系統的發展而不斷演化。本文并不打算像第1節一樣討論自主性的概念,而是希望從自主等級劃分的發展歷程中尋找對論證智能等級劃分的意義或方法有幫助的觀點。
公認最早的關于自主等級的研究來自Sheridan[21],他基于人或機器誰來做決策以及如何執行決策將自主分為10個等級,劉樹光等[22]將其譯為自動裝置等級。2000年,Parasuraman等[23]基于信息獲取、信息分析、決策與行動選擇以及行動執行這4類功能,在Sheridan工作的基礎上提出了修改版的自主等級。上述自主等級劃分方法基于人機交互視角,并不針對特定平臺或系統。
隨著無人系統尤其是無人機的機載處理能力的不斷提升,無人系統迎來快速發展期,評估無人系統的自主等級也變得越來越重要。伴隨著美國海軍研究辦公室(ONR)自主作戰(Autonomous Operations,AO)未來海軍能力倡議的提出以及美國空軍研究實驗室(AFRL)傳感器飛機項目的進行,AFRL制定了一套具有1~10共10個等級劃分的自主控制等級(Autonomous Control Level, ACL),作為用于衡量研究進展的標準。2001年,美國國防部公開發布的《無人機路線圖2000-2025》中直接引用了上述ACL劃分方法,并對當時美軍一些無人機的自主等級和預期要達到的自主等級進行了評估[24]。2002年,AFRL借鑒了衡量人類效能的方法,結合OODA環的原理,對《無人機路線圖2000-2025》中的ACL進行了較大修改,構建了0~10級共11個級別,分別針對OODA環中觀察(Observe)、調整(Orient)、決策(Decide)和行動(Act)4個環節進行自主等級劃分的ACL度量圖(ACL Metrics Chart)[25]。Proud等[26]在充分參考Sheridan、Parasuraman和AFRL工作的基礎上,也基于OODA環的概念,將自主分為8個等級,并分別對OODA環中4個環節進行了自主等級劃分,并將這種方法應用于美國國家航空航天局(NASA)的航天器任務評估與重規劃工具項目(SMART)。值得注意的是,在美國國防部接下來發布的《無人機路線圖2002-2027》[27]和《無人機系統路線圖2005-2030》[28]中,并沒有采納AFRL對ACL的改進,而是仍然沿用了第1版路線圖中自主等級的劃分方法。
隨著美國陸軍現代化的主要項目——未來作戰系統(Future Combat Systems, FCS)的開展,國防部聯合計劃辦公室(JPO)、陸軍機動支援中心、美國國家標準與技術研究院(NIST)分別開展了描述機器人行為等級的研究。為了集成各領域的研究成果,達成一致的標準共識,NIST成立了無人系統自主等級(Autonomy Levels for Unmanned Systems, ALFUS)特別工作組,并于2004年首次公布用于描述無人系統自主等級的ALFUS框架[29-30]。該框架從任務復雜度、環境復雜性和人機交互強度3個維度切入來衡量無人系統的自主等級,隨著任務復雜度不斷提升、環境復雜性不斷增強、人機交互強度不斷降低,無人系統的沿著單驅動器/子功能—單一功能—單無人系統—編隊的發展路徑形成0~10級或1~10級(0~1級均為遠程遙控)的自主等級劃分。
隨著無人機系統在伊拉克的軍事行動中大放異彩,其使用也達到了前所未有的強度。截至2010年5月,美軍在當年度就累計完成了100萬飛行小時的無人機任務。伴隨著任務量的激增和經費的削減,飛行員資源短缺成為美軍面臨的重要問題之一。于是,美軍在其2011版的《無人系統綜合路線圖》中將無人系統的主要矛盾定位到任務中人的參與程度,按照人力資源需求的不同,將自主分為人操作(Human Operated)、人授權(Human Delegated)、人監督(Human Supervised)和完全自主(Fully Autonomous)4個等級[31]。
美國國防科學委員會在其2012年發布《自主性在國防部無人系統中的地位》報告中認為[32],國防部范圍內對自主性的錯誤認知正在阻礙其發展:① 需要明確的是所有的自主系統都在某種程度上受到人類操作員監督;② 國防部資助的自主等級研究成果對自主系統設計過程無益,它們太多的關注無人系統/計算機本身,而對人機協同實現功能和完成任務關注不夠;③ 無人系統離散的自主等級劃分以及在整個任務過程的不同階段只能屬于單一自主等級的劃分方式不符合認知科學以及實戰經驗。該報告建議國防部放棄定義自主等級的嘗試,并提出了一套從認知梯次(Cognitive Echelon)、任務時間線(Mission Timelines)、人-機系統權衡空間(Human-machine System Trade Spaces)3個方面認識自主系統的認知框架。
美國空軍在其2015年發布的《自主地平線》[33]系列報告第1卷中從人與自主系統編隊的角度出發提出了靈活自主性(Flexible Autonomy)的概念,指出靈活自主性應提供飛行員與系統之間順利、簡單和無縫的功能交接,報告將自主系統的功能分為任務執行、監視與信息融合、選項生成和決策4種,并按照功能的不同,認為自主等級(Level of Autonomy, LOA)分別處于完全手動、執行輔助、態勢感知支持、決策輔助、監督控制和完全自主這6種不同層次。從之后業界的反應來看,這種自主等級劃分方法影響有限。2017年,海軍分析中心(CNA)發布《人工智能、機器人和蜂群》報告[20],贊同了2012年《自主性在國防部無人系統中的地位》報告中對自主等級的看法,同時也指出截至報告發布之日,對自主等級依然不存在具有操作意義的概念架構。
隨著美軍戰略重心轉移到大國競爭,以及以人工智能為代表的信息科學進入快速發展賦能期,美軍對自主以及自主等級的認知進入了全新時期。美國空軍在其2019版《自主地平線》[34]中并沒有試圖去定義自主性或人工智能,也沒有去定義自主等級或智能等級的想法。而是認為,在以任務為中心的環境中,在與相互依賴的伙伴和下級合作時,更需要讓自主系統知道:① 做什么(WHAT to do),即在任務目的/目標以及總體任務背景下做什么;② 不做什么(WHAT NOT to do),即限定了作戰約束或交戰規則;③ 可能的一些原因(WHYs),即規定了上級的目標或指揮官的意圖;④ 但不(NOT)要求提供關于如何執行任務的細節(HOW),比如執行任務的方法或如何處理意外情況。該報告認為用WHAT, WHAT NOT, WHY and NOT-HOW的模型描述自主系統的交互能力和工作預期更為清晰,并且給出了針對特定軍事組織和任務,描述自主行為核心的3組屬性——熟練屬性、信任原則和靈活原則,如圖2所示。
圖2 自主行為的3組屬性Fig.2 Three groups of attributes of autonomous behavior
從上述一系列研究中可以得到一些有趣的發現:① 與人工智能的認知過程相仿,美軍對自主性的認知越來越具有基于特定組織或任務而“合理地行動”的傾向;② 經過20多年的研究,美軍依然沒有建立起具有實操意義的自主等級劃分方法,對自主性、人工智能、自主等級等概念的認知依然處于不斷深化的過程當中,或許這就是當前認知深度的真實寫照;③ 當前數據驅動的人工智能,促使美軍在認識自主行為時把信任提升到了前所未有的高度;④ 對于在特定背景下特定組織中,執行特定任務的自主/智能系統而言,往往使用自主等級評估其系統特性,本文認為對智能等級的劃分在所處的情境下沒有必要。
對于上述第4點認識,一些研究可以提供部分佐證。美國國防科學委員會在2016年的《自主性夏季研究》中指出,為特定目的而探索范圍有限的自主能力已經可以為軍事帶來高價值的應用,因此不一定需要去解決那些通用人工智能所面臨的長期問題[35]。Clough[25]在其提出ACL度量圖的研究中指出,“我們想知道的是一架無人機完成任務的好壞,我們并不關心它有多智能,我們關心的是它完成了分配給它的任務。因此,對智能水平的衡量并不一定能告訴我們更多關于任務的情況”。美國國會研究服務局(CRS)在其3個版本的《人工智能與國家安全》[36-37,4]報告中對人工智能等相關概念的認識經歷了如圖3所示的變遷,不管是基于哪種認識,人工智能總會涵蓋到為完成特定軍事任務的而非必須具備內涵或特性。
圖3 美國國會研究服務局對人工智能 相關概念認識的變遷Fig.3 Congressional Research Service’s perception of artificial intelligence and other related terms
人工智能是關于知識的科學——也即怎樣表示知識以及怎么獲得知識并使用知識的科學。而航空科學與技術是以數學、物理學以及現代技術科學為基礎,以飛行器設計、推進理論與工程、制造工程、人機與環境工程等專業為主干的高度綜合的學科體系。人工智能與航空科學與技術2個體系龐雜、精妙無比的學科之間的交叉融合難免千絲萬縷,紛繁復雜。本研究并不試圖描繪航空人工智能應用的全貌或搭建航空人工智能的關鍵技術體系,而是從總體歷史沿革、機載導彈、機載系統及可信4個方面分別圍繞一些具有代表性的研究方向闡述航空人工智能應用的發展特點和態勢。
在早期的人工智能研究投入中,政府和軍方的投資占比較高,伴隨著人工智能技術路線本身的發展演化,以技術制勝而著稱的美國空軍一直努力將最前沿的技術轉化為戰斗力。
20世紀80年代,隨著計算機知識獲取、推理能力的提升,第1個成功的商用專家系統R1[38]開始為其部署機構節省大量的運營成本。專家系統的發展熱潮引起了DARPA的注意,并于1986年在其戰略計算倡議(Strategic Computing Initiative)中發起了飛行員助手項目(Pilot’s Associate,PA)[39]。該項目旨在探索使用實時的、可協作的基于知識的智能系統來提升下一代戰斗機的效能和生存能力,從而幫助單座戰斗機飛行員在日益復雜的戰場環境下駕駛性能更高的戰斗機更好地完成任務。在該項目的設想中,智能系統包括態勢評估系統、系統狀態評估系統、戰術規劃系統、任務規劃系統以及包括語音在內的人機交互系統共5個子系統。這一設想在當時的條件下對機載處理器的功耗、空間和實時計算能力等都提出了非凡的要求,并且當時對人機交互的研究也并不足夠深入,不過在該項目的研究推動下,許多關鍵技術在以后的X-45無人機、美國陸軍未來作戰系統的人機接口設計等項目中得到了較好地繼承和應用。
為解決未來攻擊/偵查旋翼機飛行員面臨的任務種類繁雜、信息負載過重的問題,美國陸軍于1994年在借鑒飛行員助手等一系列項目研究成果的基礎之上,啟動了旋翼機飛行員助手項目(Rotorcraft Pilot’s Associate,RPA)[40],該項目還是當時世界上最大的智能用戶界面項目(Intelligent User Interface,IUI)。RPA包括2個主要組成部分,第1部分基于先進任務裝備組件(AMEP)提供包括先進傳感器、通信系統和瞄準系統在內的復雜自動化系統,該部分在嚴格意義上并非是智能的;第2部分是包括數據融合、外部態勢評估、內部狀態評估、實時規劃系統以及座艙信息管理系統5個模塊在內的認知決策輔助系統(CDAS)。經過5年的研究和試驗,該項目在紅外和夜視圖像增強的傳感器集成方面以及路徑規劃方面取得成功,但在需求捕獲、總體性能、意圖推斷等方面并不成功。
隨著仿真和計算能力的不斷增強,美國軍方越來越多地在訓練、分析和采辦中使用仿真技術,為了在大型的、基于實體的仿真訓練中提升個體的自主行為能力,Jones等[41]于1992年開始研發用于模仿固定翼飛行員在執行任務時的行為的軟件系統,這一努力最后產生了基于規則的智能系統——TacAir-Soar。在1997年舉行的戰爭綜合演練場(STOW)仿真演習中,TacAir-Soar能夠成功完成722種固定翼飛行任務中的95%。1998年,它還展示出了在仿真環境中與人類飛行員協作和對抗的能力。TacAir-Soar最大的創新在于為支持實時、復雜條件下的自主和智能行為集成了一系列能力,大大提升了美軍大型仿真演練能力。
2016年,一個名為“阿爾法”(ALPHA)的模擬空戰程序在模擬環境中以快于人類250倍的決策速度完勝美國空軍退役上校基恩·李,這一標志性事件再次引起航空領域對人工智能的熱切關注。ALPHA屬于波音公司為AFRL開發的“仿真、集成和建模高級框架”(Advanced FrameworkforSimulation,Integrationand Modelling,AFSIM)項目的一部分,旨在于AFSIM環境中改善假想敵算法。ALPHA使用遺傳模糊樹的方法訓練模糊推理系統[42],這種方法可以創建一系列有效的規則,并在復雜問題中產生確定性的控制指令。該程序只需在價值35美元的“樹莓派”計算機上運行,對計算資源的要求并不高。
ALPHA的成功大大激發了美軍的興趣,伴隨人工智能強勁的發展態勢,DARPA于2019年啟動“空戰進化”(ACE)項目,旨在通過人工智能來處理視距內空中格斗問題,增強飛行員對戰斗機自主性的信任,加速飛行員從平臺操縱者向任務指揮官的轉變。在2020年舉辦的“阿爾法”空戰格斗比賽中,蒼鷺系統公司的智能空戰代理“隼”(Falco)憑借凌厲的攻勢以5:0的成績戰勝了頂尖的F-16人類飛行員,標志著自主空戰迎來深度強化學習時代。該方法在較短時間內,通過至少40億次仿真訓練,使Falco相當于擁有30年的F-16駕駛經驗。接下來按照ACE項目計劃,自主空戰將由局部行為向全局行為演進,由仿真環境向全尺寸實體發展。圖4為ACE項目的技術發展路線。
圖4 ACE項目的技術發展路線Fig.4 Technology roadmap for Air Combat Evolution program
2020年,美空軍第9偵察聯隊的一架U-2偵察機在試飛中對一種新型機載人工智能算法——ARTUμ進行了測試,在飛行過程中ARTUμ在使用U-2的機載雷達執行導彈搜索任務還是執行自衛任務的選擇中做出了最終的決策,這在美軍歷史悠久的人工智能研發中尚屬首次,在某種意義上標志著部分戰術決策權讓渡給人工智能成為現實可能。ARTUμ源自谷歌AlphaZero的升級版本MuZero,該成果于2019年11月才首次公開發表相關論文[43],對算法的開源工作可能更為滯后,美軍對開源算法的改造和部署能力著實驚人。此外,得益于商業DevSecOps軟件實踐以及容器技術和容器云技術(如Kubernetes)的引入,ARTUμ的可移植性和部署能力得到極大提升,從在云端完成訓練到實際任務部署只用了一個多月。
人工智能在航空領域的快速滲透融合,為機載導彈帶來了新的發展契機。樊會濤和閆俊[44]指出,在機載導彈的第一次技術革命解決了精準攻擊問題,第二次技術革命解決了“打遠”問題之后,人工智能技術可能會通過極大增強機載導彈的自主能力而引發第三次技術革命。
在強博弈、高動態、強對抗的機載導彈領域,國內外在總體上正處于智能化的概念研究和單項技術攻關階段[45]。一些綜述研究[45-47]指出,未來機載導彈智能化發展的關鍵技術方向包括智能感知與識別技術、多源信息智能處理技術、智能自主規劃與決策技術、多彈協同作戰技術等,這些技術的應用將極大增強機載導彈的自主能力,從而影響未來的空戰模式。一些更為聚焦的研究[48-49]將智能機載導彈的技術切入點定位到雷達導引頭信息處理,并結合工程應用實際,識別出微弱特征目標智能檢測技術、智能干擾對抗技術、智能雜波抑制技術等潛在應用突破方向。本節以強化學習為例,希望通過列舉一些該技術在導彈領域的研究成果,展示該技術在航空領域較強的融合滲透能力。
Gaudet和Furfaro[50]于2012年首先提出一種在自動尋的階段基于強化學習設計導彈制導律的方法,其研究表明該方法展現出了優于比例導航制導方法的性能。該研究旨在向導彈研究團體展示利用強化學習設計導彈導引控制器的可能性,Gaudet還指出強化學習也可以用于其他導彈問題,比如發射制導和高超聲速再入階段的控制等,強化學習的一個明顯優勢是控制器可以在虛擬環境下使用從高分辨率模擬器中學習得到的隨機模型來進行優化。自Gaudet提出這種想法以來,利用強化學習設計導彈制導律的工作一直在不斷的完善中[51-53]。
Lei等[54]基于行動者-評論家(Actor-Critic)深度強化學習方法就導彈智能突防開展研究,依托武器裝備作戰效能仿真系統WESS[55]搭建了導彈突防場景的訓練環境,并且設計了一種多樣本協同訓練方法,從而構建了一套導彈智能突防訓練系統框架。基于這套框架智能體未來能夠根據多傳感器數據判斷戰場態勢并快速做出決策,輔助新戰術的開發。
為克服飛行器氣動設計費時費力,初始設計方案嚴重依賴專家領域知識,方案選型空間較小的不足,Yan等[56]設計了一種全新的方法首次將強化學習和遷移學習用于導彈的氣動設計。在這種方法中,一種名為深度確定性策略梯度(DDPG)的算法被用來從半經驗方法中在高精度連續空間中提煉設計規律,遷移學習則用來在CFD環境中加速學習過程。實驗結果表明該方法在收斂速度和搜索能力上均展現出較好的性能從而為高效氣動設計帶來潛在價值。
智能機載系統往往扮演著航空平臺眼睛、耳朵和大腦的重要角色,隨著人工智能、認知科學等的發展,越來越多的機載系統有望具備先驗知識儲備、學習、認知和自適應等能力,從而大大增強平臺綜合性能,降低飛行員任務負擔,其中認知雷達就是一個很好的例子。
現代雷達系統不僅要面對電子干擾、低空/超低空突防、高速反輻射導彈、隱身飛機四大傳統威脅,還要具有多工作模式、多目標處理、多任務執行的多功能特性[57]。快速動態變化的環境對現代雷達系統提出了高魯棒性、高適應性和高性能的要求。基于這一現狀,隨著控制論、波形分集以及知識輔助的信號處理等方向的協同發展,在模仿和引入人類認知過程的機理后,認知雷達的概念逐漸形成,并在過去的十幾年里快速發展。
公認的認知雷達概念最早由加拿大學者Haykin[58]提出,他認為認知雷達包含3個基本要素:① 智能信號處理能力,這一能力通過雷達在與外界環境交互的過程中不斷學習得來;② 從接收機到發射機的反饋,這是一個提升雷達自適應能力的促進過程;③ 對雷達回波信息的保留和記憶,不斷更新雷達知識結構。金林將認知雷達的3個基本要素總結提煉為3個能力:① 雷達系統具備基于當前數據的自適應能力,即構建環境感知通道和處理反饋系統;② 雷達系統需要具備自適應調整能力,即具有可重構性;③ 雷達系統具備基于知識自適應能力,即實現信息分選、存儲和更新[59]。圖5為認知雷達的示意框圖。
圖5 認知雷達的示意框圖Fig.5 Block diagram of cognitive radar
在Haykin提出認知雷達概念的論文中并沒有出現“人工智能”一詞,彼時Hinton剛剛在深度學習的基礎理論方面獲得突破[60],直到Krizhevsky等在2012年使用深度卷積神經網絡在圖像識別上得到質的飛躍后[61],人工智能才開始得到更多的關注,不過這并不影響認知雷達的研究投入和快速發展。
在過去十幾年的研究工作中,該領域的研究人員重點圍繞收發器體系架構與機理、雷達資源管理、目標探測、來波方位估計、目標跟蹤、雷達網絡和頻譜共享等方面開展研究[62],廣泛使用了貝葉斯決策理論、信息論、決策理論(包括模糊邏輯、基于規則的系統、元啟發式算法和馬爾科夫決策過程等)、動態規劃、優化算法、博弈論等方法。
國外防務機構圍繞認知雷達也開展了一系列研究項目。基于讓雷達具備先驗知識的認識,AFRL和DARPA先后啟動了基于知識的雷達(KB-Radar)、知識輔助的傳感器信號處理與專家推理(KASSPER)和知識輔助雷達(KA-Radar)項目。隨著深度學習的大放異彩,DARPA又于2013年啟動了雷達與通信共享頻譜(SSPARC)和自適應雷達對抗(ARC)2個研究項目。其中ARC項目旨在開發短時間內對抗敵方新型、未知雷達威脅的能力,這是第一次將認知雷達的原理應用到了雷達電子戰領域,標志著雷達電子戰開始進入了認知雷達電子戰時代。美國雷神公司于2019年在一篇題為《未來的智能化網絡化雷達正在建造中》的官方新聞中宣稱包括SPY-6在內的多型在研新一代雷達均采用了開放式架構和智能化技術,雷神公司認為“可以相互交談、思考、學習和做出決策,更好地適應復雜世界需要”的智能化網絡化多功能雷達將迅速發展。歐洲防務局于2020年宣布將啟動“在復雜對抗電子戰環境中應用的基于人工智能強化的雷達/通信系統”研究項目,旨在基于人工智能改善和提升復雜對抗環境中已列裝的雷達和通信系統的性能。
盡管引入人類認知過程的方法為雷達能力提升帶來了巨大前景,但完全實現這一設想仍然面臨著一些重要挑戰[62]。研發方面,認知雷達面臨評估評價工具和試驗測試方法相對不足的問題;采辦方面,傳統的采辦流程中對非認知雷達性能的定義方法不再適用;知識方面,認知雷達仍需要評估和確認知識源可靠性的方法;法規方面,認知雷達的自適應特性仍受不可忽視的國家和國際法律約束。為了克服新技術的引入帶來的全新問題,有必要以一種全新的視角來系統地看待人工智能航空應用需要解決的整體性問題——可信。
在人工智能的應用潛力得到廣泛認可的同時,大量研究也同時指出“可信”(Trustworthiness)是人工智能賦能行業應用的必要前提,其重要性和全新特質值得特別關注。而航空作為安全性要求極高的領域,可信的重要性尤為突出。
為解決人工智能在應用過程中存在的固有安全可信問題,DARPA在其下一代人工智能計劃中啟動了諸如可解釋人工智能、確保人工智能對欺騙的魯棒性、理解群體偏見、更少的標注數據學習等一系列基礎研究項目。何積豐[63]指出,當前的人工智能主要基于機器學習理論,而非傳統軟件理論,人工智能的關鍵安全問題包括:第一,盡量避免人工智能的副作用;第二,避免獎勵條件的錯誤解讀;第三,分布轉變的穩定性;第四,探索的安全性;第五,可拓展的監管。在2020年中國計算機學會召開的“第三代人工智能演進路徑”論壇上,與會專家認為人工智能的可信需要解決邊界性問題、可回溯問題和可驗證問題等[64]。
隨著航空領域人工智能應用探索的深入,可信也作為一個越來越重要的議題而得到關注。2015版《自主地平線》[33]指出具有學習能力的智能算法在自主系統中的使用將在可理解性(Understandability)、確認(Validation)和標準化(Standardization)等方面帶來不同于以往的全新挑戰。2016年美國國防科學委員會《自主性夏季研究》[35]報告將自主性面臨的可信問題作為報告的第二章,指出人工智能應用技術的復興在輔助解決諸多難題的同時也為可信問題帶來了更多難點。2019版《自主地平線》[34]將熟練性屬性、信任原則和靈活性原則作為自主系統的3個主要行為維度,指出設計自主系統時需要從一開始就考慮四方面的信任原則:① 認知一致性與透明;② 態勢感知;③ 人 與多系統集成;④ 人與系統的協同與訓練,這些信任原則對當前的人工智能方法提出了可解釋、可回溯、透明等新要求。DARPA將其“空戰進化”項目的主要目標之一定位在提升近距格斗的人機協同過程中飛行員對自主的信任。
歐洲航空安全局(EASA)在其2020年發布的《人工智能路線圖——以人為中心的航空人工智能方法》[65]中認為航空領域人工智能應用應優先重點解決安全可信問題,在歐盟委員會人工智能高級別專家小組(AI HLEG)制定的《人工智能道德準則》指導下[66],EASA根據人工智能的技術特點和航空領域的特色提出了由人工智能可信度分析(AI Trustworthiness Analysis)、學習認證(Learning Assurance)、可解釋人工智能(AI Explainability)和人工智能安全風險消減(AI Safety Risk Mitigation)4部分組成的可信人工智能架構。隨后,EASA又在其發布的《神經網絡設計認證的概念(CoDANN)》[67]報告中提出了將神經網絡用于安全攸關的航電系統設計時所必需考慮的安全準則,并針對新技術的引入帶來的新問題提出了一種學習認證的W-型研發周期(W-shaped Development Cycle for Learning Assurance),用于作為傳統研發認證框架的針對性改進。圖6為EASA可信人工智能架構與W-型學習認證流程。
圖6 EASA可信人工智能架構與W-型學習認證流程Fig.6 EASA trustworthy AI building-blocks and W-shaped learning assurance process
對于可信航空人工智能而言,其在總體上可能會面臨的問題有:① 傳統的研發認證框架不再適用于以機器學習為代表的人工智能技術;② 難以對預期的功能進行精確的綜合描述;③ 對智能系統的行為難以做出預測和解釋;④ 缺乏對魯棒性的保證;⑤ 可能會出現非預期的結果或功能;⑥ 缺乏評估智能應用運行效能的標準化手段;⑦ 智能應用可能存在偏見和偏差;⑧ 框架和算法的復雜性;⑨ 自適應學習過程帶來的復雜性;干擾、對抗帶來的影響;小樣本問題等。基于以上的敘述,建議將可信航空人工智能作為航空人工智能應用落地過程中一個重要的議題開展專門性研究。
本文圍繞人工智能定義、智能等級劃分以及人工智能航空應用等問題進行了初步探討,得到一些見解:
1) 歷史總是過高估計技術進步帶來的短期效益,而嚴重低估其長期效益,工業界需辯證地看待人工智能的不確定性和確定性,做好預期管理,基于現有人工智能技術的特性,結合行業實踐,探索現有技術應用落地的方式、形態和能力邊界等。
2) 在針對特定任務的軍事應用背景下,試圖建立智能等級劃分的努力很可能是不必要的。
3) 對人工智能和自主性的認知依然處于不斷深化的進程當中,但它們都有著向“合理地行動”這一方向發展的態勢。
4) 人工智能的爆發式發展從根本上得益于大數據可用性改善、計算機處理能力提高、機器學習方法改進這3個要素的融合匯聚,而人工智能賦能航空的速度和程度也在很大程度上受到航空領域內3個要素積累匯聚的制約,這在某種程度上為行業內頂層設計明確方向的同時,也表明人工智能賦能航空是一個漸進發展的過程,而非一蹴而就的技術應用。
5) 當前人工智能的技術特點決定了其特殊性,建議將可信航空人工智能作為一個重要的方向提前開展研究和攻關。