






摘 要:""""" 電推進技術因其比沖遠高于傳統化學推進而受到廣泛關注。 目前, 世界各國已發展了許多成熟的在軌電推進產品, 隨著航天任務要求的不斷提高, 相關研究仍在不斷推進。 近年來, 人工智能算法(如機器學習和深度學習)的快速發展為電推進技術的研究提供了新的思路。 這些算法不僅可以基于數據對電推進器的參數進行模型訓練, 預測推進器性能并進行優化, 還可用于電推進器中等離子體數學物理模型的分析與求解。 結合機器學習和深度學習技術, 可大幅提高求解相關偏微分方程的精度和效率, 并為方程求解提供最優決策。 本文總結了人工智能算法在電推進物理機理、 方程求解以及型號設計中的應用, 特別關注了離子推進器、 霍爾推進器、 脈沖等離子體推進器和螺旋波等離子體推進器中的相關研究進展。 這些研究不僅展示了人工智能算法在提高電推進系統性能、 優化設計和降低計算成本方面的巨大潛力, 還為未來電推進技術的發展提供了新的方向。
關鍵詞:"""" 電推進; 智能學習算法; 等離子體行為預測; 數據驅動; 偏微分方程
中圖分類號:""""" TJ760; V439
文獻標識碼:""" A
文章編號:"""" 1673-5048(2025)01-0063-10
DOI: 10.12132/ISSN.1673-5048.2025.0024
0 引" 言
空間電推進技術[1-2]是通過高效電離工質氣體并將其加速引出, 將電能轉化為動能, 為航天器提供動力的一種技術, 具有比沖高、 效率高、 可靠性好、 壽命長等特點。 可完成航天器姿態調整、 阻力補償、 深空探測等多種類型的航天任務, 是其在軌運行不可或缺的核心部件之一[3]。 目前, 世界各國已發展了多款成熟的在軌電推進產品, 但由于航天任務要求的不斷提高, 對于電推進技術的研究仍然在不斷的探索當中[4]。
當下, 隨著人工智能技術的發展與應用, 機器學習以及更深層次的深度學習方法[5], 由于其效率高、 誤差小、 計算速度快、 成本低等優勢, 逐漸在各行各業中得到深入的應用。 與此同時, 許多學者也將人工智能引入到空間電推進的研究中, 探索更深層次物理機制, 進一步提高推進器性能, 并且已經取得了一定的研究成果。
本文介紹了目前機器學習以及深度學習在離子推進器、 霍爾推進器、 脈沖等離子體推進器和螺旋波等離子體推進器中的相關應用以及發展現狀。 現有研究主要通過建立數據模型, 利用實驗或仿真得到的數據集進行訓練, 并預測相應的輸出參數, 再與已有數據進行對比驗證。 另外, 本文也對使用智能學習算法求解電推進中的數學物理模型的研究進行了闡述。
1 人工智能算法的基本原理
在人工智能技術的發展過程中, 機器學習以及更深層次的深度學習算法應用最為普遍。 其中, 機器學習可以解決三種不同類別的問題, 即分類、 聚類和預測[6]。 分類是算法將呈現的數據分成不同的類別; 聚類是算法將數據分類到包含相似類型數據的對應簇中; 預測是在數據中找到對應的模式, 然后嘗試預測相同類型的新數據。
根據學習方式的不同, 機器學習的模型可分為監督、 半監督、 無監督和強化學習模型[7], 其特征和常用算法如表1所示。
在監督學習中," 人們需要先將數據進行分類, 然后利用正確的輸入和輸出數據集訓練算法, 以此來預測未見過的輸出數據。 該模型主要可用來處理分類和回歸等問題。 其中, 分類問題是通過從已知類別的樣本中進行模型訓練, 以此將新樣本數據劃分為特定的類。 而回歸問題, 則是使用連續的函數來擬合離散的數據點, 進而預測未知的值。 監督學習模型常用的算法包括回歸算法、 決策樹、 隨機森林以及支持向量機等。 其中, 回歸算法是最快速簡單的機器學習算法之一, 其可分為線性回歸算法和邏輯回歸算法。 其中線性回歸算法是通過擬合最佳直線, 使用連續變量預測特定的結果。 邏輯回歸則通過將數據擬合為一個邏輯函數來預估事件的概率, 主要用于預測離散值。
在無監督學習中, 模型會自行將數據進行分類, 并找到相應的輸出。 該方法主要用于處理聚類和降維等問題。 對于聚類問題, 其目標是將無標簽的數據樣本根據其屬性或行為分為若干個組或簇。 常見的聚類算法有k-Means算法以及期望最大化算法。 對于降維問題, 則是通過尋找數據的共同點來減少數據集的特征, 這種方式可以實現任何維度的降低, 但是新出現的數據特征所代表的具體含義需要研究者去探索。 其典型的算法有主成分分析法、 線性判別分析法以及t-分布隨機鄰域嵌入等。
半監督學習的方式結合了監督學習和無監督學習的特點, 其數據部分被標識, 部分未被標識, 通過學習模型對數據進行分類和預測。 該方法也主要用于解決分類和回歸等問題, 其算法包括一些對常用監督式學習算法的延伸, 包括圖論推理算法和拉普拉斯支持向量機。
而強化學習模型[8]則是不同于上述模型的另外一種類型。 其是一種學習如何從狀態映射到行為, 以使獲取的獎勵最大化的算法機制。 具體而言, 就是不需要研究者給出所認為的“正確”策略, 只需要給出計算機做出的策略所對應的回報值, 就可以通過調整策略來取得最大化的期望回報。 因此, 反復實驗和延遲獎勵是強化學習最重要的兩個特征。 汽車的自動駕駛就是強化學習最為重要的實際應用之一。
另外, 深度學習也屬于機器學習模型的一種, 其典型特征是人工神經網絡技術的應用。 該技術是將深度學習與其他機器學習模型區分開來的關鍵。 人工神經網絡通過收集數據中的知識和關系, 并通過經驗來訓練自己, 從而模仿人類大腦的信息處理能力, 具有很強的在高維數據中學習的能力。 因此, 深度學習具有分類、 生成、 預測和自主性等功能。 圖1展示了深度學習中人工神經網絡基本的模型結構, 其通過多個可以處理數據并相互連接的節點, 即神經元, 來實現其功能[9-10]。 神經元通常有三層設置, 即輸入層、 隱藏層和輸出層。 輸入層和輸出層分別對應數據的輸入和輸出。 而隱藏層則是最關鍵的部分, 負責神經網絡中發生的大部分計算。 并且, 對于神經網絡模型, 可以設置多個隱藏層, 使其具有更強的計算能力和數據處理能力。 因此, 由于深度學習方法獨有的優勢和廣泛的應用前景, 眾多研究者對其展開了深入的研究。 在空間電推進領域, 該方法可作為利用數據驅動進行等離子體行為和特性預測的一種有效方法。 同時, 還可結合物理模型實現對于偏微分方程的求解。
2 人工智能算法在電推進設計與性能優化中的應用進展
在電推進領域, 人工智能算法主要用于電推進裝置的性能預測與評估、 故障診斷與預警以及智能控制與優化。 人們通過實驗或仿真廣泛收集涵蓋多種輸入條件的有效數據, 構建用于訓練的數據集, 以此來訓練算法模型, 學習數據中的內在模式和特征, 從而實現對電推進性能的預測或數據的診斷。 下文將詳細闡述人工智能算法在典型電推進器中的發展和應用現狀。
2.1 離子推進器
離子推進器是一種常用的電推進系統, 可廣泛應用于人造衛星的軌道機動、 位置保持, 以及深空探測等空間任務。 其主要通過電子轟擊或發射電磁波的方式使工質氣體電離, 并通過外加電壓的加速柵極加速帶電粒子, 形成高速噴出的離子束流產生推力。 由于離子推進器中的物理過程較為復雜, 傳統的數值模擬和實驗不僅耗費昂貴, 并且實現周期較長。 因此, 研究者嘗試利用人工智能算法來輔助設計或性能預測。
Makara等[11]利用機器學習算法對一種用于微小衛星的小型離子推力器進行了性能預測與優化。 利用監督學習模型結合最小均方理論(LMS), 通過改變電極表面積實現離子束軌跡的優化, 進而減少工質氣體的消耗, 最大限度地提高推進器的壽命。 該研究表明, 機器學習算法可極大的提高參數優化的效率且具有較高的預測精度。
在離子推進器中, 微柵極離子推力器(μGIT)由于其柵極尺寸較小, 具有精確的推力調節和控制的特點, 是目前電推進領域重要的研究方向之一。 Wang等[12]采用人工神經網絡(ANN)和徑向基函數神經網絡(RBF-NN)方法預測射頻微柵極離子推力器(RF-μGIT)的推力與輸入參數(加速電壓、 RF功率、 推進劑流量)之間的關系。 結果表明, 人工神經網絡預測的推力與實測數據的偏差約為10%, RBF-NN模型的最大相對偏差約為2%。 該研究表明利用神經網絡算法預測推進器的性能具有極高的可行性, 為電推進器的快速性能評估、 預測和調節提供了新的途徑。
Vinci等[13]利用神經網絡算法, 針對碘工質射頻離子推進器NPT30-I2在系統級層面的性能包線進行了預測。 該研究采用兩個串聯的單隱藏層神經網絡組成主模型和輔助模型, 利用推進器不同工作模式的實驗數據進行訓練, 對不同工作模式下推進器的總功率和推力進行了預測, 如圖2所示。 預測結果表明, 該模型能夠準確預測推進器的推力和功率, 平均誤差分別為0.015 mN和0.8 W, 不確定性約為1.5%。 該研究表明, 人工智能算法對于全面繪制深度互聯的推進系統性能指標包線具有極大的優勢。
Redka等[14]在利用離子推進器羽流處理空間碎片的研究過程中, 引入了人工智能的算法。 針對離子推進器形成的高速羽流, 創建了一個神經網絡模型, 研究各種因素對推進器離子束羽流施加在空間碎片上作用力的影響。 模型采用了基于均方誤差和自適應矩估計(Adam)的學習算法, 這兩種算法是隨機梯度下降方法的改進。 其中Adam優化器用于訓練神經網絡, 均方誤差用于訓練和驗證模型的準確性。 結果表明, 測量得到的推力精度取決于空間碎片的相對位置和方向, 并且該模型可以更快地確定推力的大小。 此外, Sable等[15]在離子推進器柵極網格的設計和推力預測方面采用了基于神經網絡的監督學習算法, 也取得了較好的預測效果。
2.2 霍爾推進器
霍爾推進器是迄今為止技術最成熟且應用最成功的在軌電推進器之一。 其廣泛應用于低軌衛星組網和空間站的軌道維持等空間任務。 霍爾推進器基于E×B復合場, 利用電子回旋漂移運動產生的霍爾電流電離工質氣體, 并在電場作用下加速噴出產生推力。 其顯著特點是將電離和加速過程一體化, 使推進器更加高效。 基于目前快速迭代和低成本化的要求, 人工智能算法也逐漸在霍爾推進器物理機理的研究和性能優化方面開展了應用。
Jorns[16]針對霍爾推進器中存在的反常輸運現象, 利用數據驅動的監督式機器學習方法, 對電子反常碰撞頻率開展了基于數據驅動的預測研究。 其根據經驗模型, 從一系列真實霍爾推進器的數據中對電子輸運系數進行估計, 并將符號回歸應用于這些數據集, 來確定電子輸運與初始等離子體參數相關的函數形式。 這種方式不僅可以產生恰當的訓練數據, 而且由于所得到的結果是一個符號表達式, 可以很方便地擴展到新的數據集。 其研究結果表明, 電子霍爾漂移和離子漂移速度可能在反常碰撞頻率的最終函數形式中起主導作用。 但是這種方法仍然具有局限性, 一方面是用流體方法近似動力學效應的固有局限性, 另一方面則是這種數據驅動模型可擴展性存疑。
針對霍爾推進器反常輸運問題, Park等[17]也建立了基于深度學習的霍爾推進器等離子體電子反常輸運的數值模型。 利用該模型對典型的低功率霍爾推力器(KHT-50和KmHT-20)進行了研究, 并驗證了該深度學習模型。 該模型主要是使用反常碰撞頻率數據集訓練神經網絡以概括其特征。 單個神經網絡使用徑向磁場、 電勢、 電場、 放電通道長度、 平均通道直徑和陽極質量流量作為輸入參數, 并計算相應的反常碰撞頻率, 以此進一步計算推力等性能參數。 圖3給出了神經網絡訓練后得到的均方誤差(MSE)分布圖。 結果表明, 驗證數據集和訓練數據集的均方誤差具有相同的趨勢, 表明其對神經網絡的訓練是成功的。 并且, 最終計算結果與實驗結果吻合較好。 其對KmHT-20推進器預測的推力和放電電流分別為3.8 mN和0.32 A, 而實驗測量結果分別為3.8 mN和0.31 A, 具有較高的預測精度。
此外, Shashkov等[18]利用基于高斯過程的貝葉斯優化機器學習模型, 結合傳統的1D3V混合模型, 對霍爾推進器中的反常電導率分布進行了預測與驗證。 該研究通過貝葉斯優化模型尋找反常電導率分布, 利用1D3V混合模型計算推進器通道內的等離子體電勢、 電子溫度等參數分布, 并與實驗結果進行比較, 通過最佳匹配結果確定推進器中反常電導率的分布。 結果表明, 經過機器學習模型預測的最佳電導率分布可計算得到與實驗定性一致的結果。 并且, 其準確性可通過更精確的等離子體與壁面相互作用模型進一步提高。
對于霍爾推進器的設計與優化, Marianacci等[19]利用監督學習模型, 采用梯度增強回歸算法, 以推力和比沖等推進器性能參數為目標, 對霍爾推進器的幾何和工作參數進行預測與優化, 用以輔助設計。 該研究基于一個包含54個推進器的數據庫, 其功率范圍在50 W~70 kW之間, 數據以中小功率推進器為主, 并包括了不同工質氣體的情況。 該數據庫用來訓練和驗證機器學習模型。 研究表明, 新型的人工智能算法對于霍爾推進器幾何特征和工作點的預測與優化, 具有較高的準確性和極高的效率。 但當輸入參數過于復雜, 如考慮磁場分布情況時, 或數據較為稀疏時, 模型的誤差將會顯著增加。
Zine等[20]則針對微型霍爾推進器, 提出一種基于數據驅動的建模方法。 他們基于35個有效來源建立了霍爾推進器數據庫, 并使用隨機森林和生成式對抗網絡(GAN)進行數據補充與增強, 利用人工神經網絡算法建立深度學習模型。 該模型將放電功率、 放電電壓、 推力和比沖作為輸入層參數, 將通道長度、 高度、 平均直徑以及質量流率作為輸出層參數, 并采用包含30個神經元的單隱藏層結構。 訓練過程中則采用均方誤差估計與隨機梯度下降優化器進行優化。 其預測與優化結果利用傳統的開源數值模型結果進行驗證。 結果表明, 數值模擬結果與預測得到的推進器參數較為一致, 進一步證實了所用建模方法在推進器優化設計方面的可行性。
類似地, Korolev等[21]基于全連接神經網絡(FNN)和物理信息神經網絡(PINN)算法, 建立了一種用于霍爾推進器優化設計的深度學習模型。 該模型利用生成對抗網絡(GAN)進行數據增強, 可用于霍爾推進器多輸入參數的性能預測。 該模型通過數值模擬與實驗結果的對比, 證實了其預測的有效性。 但由于數據量和物理過程的復雜性, 其不同參數區間預測的準確性仍存在一定的問題。
Park等[22]針對霍爾推進器的參數預測和優化設計, 開發了基于深度學習的預測模型。 研究通過構建包含13個關鍵輸入參數的神經網絡架構, 利用數值計算和實驗數據生成的18 000個高保真數據點進行模型訓練, 其中13 500個數據基于KAIST系列霍爾推力器(KHT)的實驗參數, 另外4 500個數據則通過一維數值模型計算生成。 模型驗證采用未參與訓練的700 W和1 kW級霍爾推力器實驗數據, 結果顯示推力與放電電流預測偏差均小于10%。 特別地, 針對KmHT-20推進器的實驗驗證表明, 模型預測推力值3.8 mN與實測結果完全一致, 放電電流預測誤差僅3.2%, 顯著優于傳統預測模型的預測精度。 該研究通過集成學習策略有效捕捉了等離子體非線性動力學特征, 其訓練集與驗證集的均方誤差(MSE)同步收斂趨勢證實了該模型的強泛化能力。
此外, 霍爾推進器在軌運行需要進行主動控制, 目前主要采取人為的手動控制手段。 針對該問題, Kawazu等[23]發展了一種基于神經網絡的深度學習模型, 通過對霍爾推進器放電電流的實時預測, 來實現推進器的自動控制。 然而, 該模型發展初期存在計算時間太長和過擬合的問題。 為了對此模型進行改進, 他們在模型中采用了堆疊式自動編碼器和遺傳算法。 研究表明, 新的預測模型大大縮短了訓練時間, 并且避免了過擬合的問題, 得到了較好的預測效果, 其預測誤差約為0.8%左右。
2.3 脈沖等離子體推進器
脈沖等離子體推力器(PPT)也是目前較為成熟的一種電推進技術。 其工作原理是利用脈沖放電電弧電離工質氣體, 形成等離子體, 并通過電場與磁場的作用加速等離子體產生推力。
在PPT的放電過程中, 電流和電壓通過電容器生成隨時間的變化關系, 稱為放電曲線, 是脈沖等離子體推進器最重要的性能曲線之一。 Williams等[24]提出使用人工神經網絡來預測PPT的放電性能曲線的方法。 他們研究了循環神經網絡模型和卷積神經網絡模型, 訓練模型在給定電極間距和電容器充電電壓的情況下, 預測推力器的電流和電壓放電曲線形狀。 通過使用Adam優化器、 平均絕對誤差(MAE)、 均方誤差(MSE)對模型預測數據進行驗證分析。 結果表明, 卷積神經網絡模型在對放電曲線的預測中表現更好。
Hossain等[25]針對放電曲線的預測則提出一個完整的數據處理體系, 其利用物聯網可以在存儲中自動積累數據的特點, 對于脈沖等離子體數據處理的方式提出塔形數據科學和機器學習(Tower-Shaped Data Science and ML, TDM)架構。 該架構是通過數據科學和機器學習流程, 利用PPT數據, 基于物聯網和大數據的人工智能實現預測。 TDM架構能夠處理和預測來自機載衛星的實驗或模擬的數據, 可對PPT的實驗數據進行測試運行, 最大限度的減少數據冗余、 生產成本和工作量。 他們利用開源組件開發TDM架構, 將仿真的結果與實驗結果進行對比, 如圖 4所示, 實驗結果和預測模型都觀察到了相同的電流變化趨勢, 并且預測結果與實驗結果基本一致。 結果表明, 其機器學習模型的預測準確率達到93%以上。
在脈沖等離子體推進器的研究中, 燒蝕脈沖等離子體推進器(APPT)是一種高比沖的電推進系統, 是利用聚四氟乙烯表面燒蝕過程產生中性氣體, 再將中性氣體轉化為等離子體的一種脈沖等離子體推力器。 Hossain等[26]利用機器學習模型, 基于APPT的實驗數據建立了一個預測優化模型。 使用現有的實驗和仿真模型來驗證新建立的模型的準確性和可靠性。 結果表明, 機器學習模型預測的結果滿足精度要求, 可以用來預測推進器相關參數的變化。
此外, 在航天器運行過程中要求盡早地檢測和隔離故障部件(如傳感器和執行器), 避免出現致命的故障。 故障檢測和隔離可以通過兩種通用的方法實現: 基于模型的技術和基于學習的技術。 基于模型的技術是使用部件的數學模型生成故障指示燈來反應零部件的情況。 對于基于學習的技術, Valdes等[27]開發了一種基于動態神經網絡的衛星脈沖等離子體推進器的故障檢測和隔離方案。 這個方案只需要來自推進器電路的數據即可進行模型的訓練, 避免了直接測量推力。 該方案使用一種嵌入動態神經元的多層感知器網絡, 來實現對故障部件的確定。 根據從PPTs電路中采集的一組給定的輸入輸出數據, 調整動態網絡參數以使估計的輸出達到誤差最小化。
2.4 螺旋波等離子體推進器
螺旋波等離子體推進器是一種新型的無電極式的電推進系統, 主要由螺旋波等離子源和磁噴管結構組成。 其利用射頻天線發射電磁波電離工質氣體, 并通過外加磁場形成的磁噴管結構加速等離子體形成推力, 具有結構簡單、 比沖高、 壽命長的特點, 是一種極具前景的新型推進技術。 針對這種新型的推進器, 研究者們也在嘗試利用人工智能方法對其參數設計和物理過程進行研究。
Shukla等[28]利用深度學習技術, 基于人工神經網絡(ANN)對螺旋波等離子體源的設計和放電過程進行了研究, 其研究對象是印度等離子體研究所設計的初代永磁鐵螺旋波等離子體源(HELEN)。 該模型基于先前獲得的實驗數據, 對HELEN裝置進行了研究。 神經網絡模型通過學習等離子體源運行過程中復雜物理過程的內在規律, 預測等離子體源的運行參數, 包括等離子體密度、 電子溫度、 負氫離子密度等。 圖5給出了ANN模型預測結果的的回歸值和均方誤差情況。 可以看出, 回歸值R非常接近1且均方誤差很小, 表明預測結果的準確性很高。 此外, 他們希望在未來繼續提高模型的適用性, 將等離子體源的幾何形狀、 等離子體參數隨軸向和徑向的位置變化也作為開發神經網絡時考慮的參數, 進一步提高神經網絡模型的可靠性和魯棒性。
因此, Shukla等[29]在前述研究基礎上開發了基于人工智能驅動的多輸入多輸出模型。" 該模型在人工神經網絡(ANN)算法基礎上應用了雙層前饋反向傳播網絡(BPNN)模型, 用以預測和優化離子飽和電流, 獲得高等離子體密度。 他們利用該模型對新一代的永久環形磁鐵螺旋波等離子體源(HELEN-I)進行了研究。 該裝置是在HELEN的基礎上發展的新一代螺旋波等離子體源, 具有非常高的電離效率, 利用較低的射頻功率(大約幾千瓦)可產生非常高的等離子體密度, 約為1014~ 1018 m-3。 他們利用該裝置獲得的實驗數據訓練模型, 成功模擬了一個三輸入(射頻功率、 B場、 壓力)和兩輸出(IS電流、 等離子體密度)的氫離子螺旋波等離子體源。 進一步利用啟發式全局優化粒子群(PSO)優化算法, 選擇最優的源參數來預測輸出。 優化后的模型可以在不需要人工操作的情況下有效地預測等離子體源的輸出, 并且可以優化輸入源的參數。 這種方法改變了之前單輸入和單輸出的方式, 大大提高了效率, 在網絡中增加了更多的學習數據點, 拓寬了人工神經網絡模型的預測范圍。
除了對等離子體源進行分析建模, Shukla等[30]對于等離子體參數的分析也進行了人工智能的融合。 他們提出一種使用回歸技術的方法, 并根據等離子體電位的實驗數據, 進而實現對未知工況下等離子體電位的測定與分析。 實驗中, 他們利用Nagoya Ⅲ型天線, 在射頻功率≥400 W的條件下工作, 獲得氫螺旋波等離子體。 利用該實驗數據, 實現并測試了機器學習算法中多項式回歸和高斯回歸技術用于預測等離子體電位的軸向變化的效果, 其結果的準確性則通過均方根誤差和R2值來衡量。 結果表明, 高斯回歸模型比多項式回歸模型更適合預測等離子體電位。
在設計螺旋波等離子體推進器時, 射頻天線的阻抗是反應等離子體能量吸收的重要特性。 阻抗可以用實驗和數值計算方法得到。 Melazzi等[31]開發了一款名為Ada-mant的預測天線阻抗的數值工具, 但是其運行時間過長, 并且對計算機資源的需求也很高。 因此, Malm等[32]開發了基于機器學習的智能模型, 使用Adamant生成的數據對模型進行訓練, 評估是否可以使用這種機器學習模型來代替Adamant用于天線的設計。 他們測試了6種不同的機器學習模型, 即決策樹、 集成學習、 支持向量機、 高斯過程回歸、 廣義加性模型和人工神經網絡。 使用嵌套k-fold交叉驗證和貝葉斯優化選擇的超參數對模型進行訓練和評估。 最終人工神經網絡在考慮最大誤差和泛化能力時表現最好。 同時, 該模型有希望拓展天線的形狀和尺寸, 開發更廣泛的數據訓練集, 來擴大模型的適用性。
2.5 小" 結
綜上所述, 基于數據驅動的人工智能算法已全面用于電推進系統的性能預測、 參數優化與樣機設計中。 通過利用人工神經網絡、 貝葉斯優化、 遺傳算法等多元人工智能算法, 有效突破了傳統理論模型與實驗驗證的局限性。 研究表明, 人工智能算法模型在性能預測方面已顯示出超越傳統方法的效率和準確性。 針對復雜物理機制的研究, 深度學習方法成功解析了反常輸運等非線性問題, 預測結果與實驗值的偏差小于1%。 多算法協同的運用能有效處理電場、 磁場以及流動等多物理場耦合作用的場景。 通過堆疊式網絡架構與混合建模方法有效提升了計算效率, 實驗和計算成本顯著降低。 相關研究成果顯示, 機器學習模型參數預測準確率可達93%以上, 為推進器設計優化提供了高效替代方案, 大幅縮短了研發周期。
3 人工智能算法在電推進模型中的應用進展
在電推進的研究中, 需要計算描述等離子體物理過程的數學物理模型來研究等離子體的行為。 但等離子體的物理模型不僅包含多物理場的相互作用, 且存在不同時間和空間尺度的多物理過程耦合。 同時, 計算過程中需要考慮多種非線性作用。 這不僅使得等離子體數值模擬存在極大的挑戰, 同時也使得計算成本十分的高昂。 因此, 伴隨著人工智能的發展, 許多學者開始考慮將人工智能算法與等離子體的數值模擬結合起來。 此外, 目前關于使用人工智能算法在電推進領域進行基礎物理模型研究的相關報道較少, 現階段的主要研究仍然聚焦于對等離子物理基本物理方程的訓練與預測, 良好的預測結果能夠為電推進領域物理模型研究提供新思路, 對推動該領域的發展具有重要的啟發意義。
Sirignano等[33]開發了一種利用深度神經網絡來求解偏微分方程的方法。 由于該方法的求解思想類似于伽遼金方法, 他們稱之為深度伽遼金方法(Deep Galerkin Method)。 這種方法通過隨機采樣空間和時間點來訓練神經網絡, 利用最小化目標函數, 確保神經網絡近似解滿足方程中的微分算子、 邊界條件和初始條件。 同時, 通過隨機采樣的點來估計梯度, 并使用隨機梯度下降法優化神經網絡的參數。 該方法的主要優點是無需建立網格對方程進行離散化, 特別適用于高維偏微分方程的求解。 Bruna等[34]在此基礎上, 提出基于Dirac-Frenkel 變分原理的神經伽遼金方法(Neural Galerkin Schemes), 并通過數值實驗驗證了該方法的有效性。 其中, 針對等離子體粒子相互作用過程中的Fokker-Planck方程進行了數值實驗, 計算了粒子密度的近似值, 其相對誤差在10-3~10-4量級。
在等離子體動力學中, 玻爾茲曼方程是描述粒子動力學和非平衡流動的基礎方程, 但其求解中的五重碰撞積分計算非常耗時。 其計算通常采用的是快速頻譜法, 這是一種相對高效的計算玻爾茲曼解的算法。 但在實際應用中, 直接數值模擬仍然計算成本過高。 Xiao等[35]則提出一種將玻爾茲曼方程的碰撞算子替換為神經網絡的直接策略。 通過神經網絡的連續動力學建模, 將離散的迭代過程轉化為常微分方程(ODE), 從而可以利用ODE 求解器進行高效求解。 該方法結合了傳統物理模型的可解釋性和神經網絡的計算效率, 能夠在保持玻爾茲曼方程關鍵物理特性的同時, 顯著加速求解過程。 其數值實驗表明, 在均勻和非均勻玻爾茲曼方程的求解中均表現出色, 其誤差約為10-3~10-4量級, 但內存使用減少了 97%, 計算速度提高了 33 倍。
Kawaguchi等[36]則在求解弱電離等離子體中的玻爾茲曼方程時結合了神經網絡的運用。 他們提出一種基于前饋神經網絡的直接數值求解方法, 用于計算均勻直流電場作用下的電子速度分布函數。 該方法不需要將分布函數使用勒讓德多項式展開, 也不需要對分布函數和玻爾茲曼方程離散化, 而是通過自動微分計算分布函數的導數, 避免了有效差分近似。 通過與蒙特卡洛模擬的結果對比, 該方法對于不同的氣體模型, 所得到的電子能量分布和電子輸運系數結果都高度一致, 且計算效率顯著提高。
此外, 在等離子體模擬中, 泊松方程(Poisson Equation)是計算等離子體自洽電場的關鍵, 其描述了等離子體電勢的空間變化與電荷密度的關系。 傳統求解泊松方程的方法涉及對拉普拉斯算子的離散化和線性系統的求解, 這在處理大規模網格時計算成本較高。 Cheng等[37]提出一種利用深度神經網絡求解二維泊松方程的新方法。 該方法基于卷積神經網絡(CNN)算法, 并對多種網絡架構, 包括多尺度網絡(MSNet)和UNet等進行了研究, 以理解神經網絡如何學習泊松方程的解。 其研究重點是優化網絡的感受野、 深度和分支數量等, 以捕捉電場的大尺度拓撲結構。 研究表明, 神經網絡的感受野對于捕捉泊松方程解的低頻成分至關重要, 增加感受野可以提高計算的精度。 并且, 與傳統線性求解器相比, 神經網絡求解器具有顯著的加速效果。
Zhang等[38]開發了基于物理信息神經網絡(PINNs)求解Vlasov-Poisson方程的模型, 如圖 6所示。 該方法利用PINNs的框架, 使用多層感知器來表示方程的解, 并通過自動微分和梯形規則將Vlasov方程和Poisson方程集成到神經網絡中。 并且, 他們使用基于動理學的PIC粒子模擬生成訓練數據, 避免了數據與方程之間的相關性。 研究表明, 該模型能夠從少量初始、 邊界和內部數據點中重建整個計算域中的電子分布函數(EDF)。 重建的EDF與PIC模擬結果吻合良好。 同時, 該方法還可求解方程的逆向問題, 其通過有限的粒子分布數據預測完全未知的電場和方程系數, 且均表現出良好的精度和效率。
Zhong等[39]針對低溫等離子體的模擬, 提出兩種基于物理信息神經網絡的模擬框架, 即系數子網物理神經網絡(CS-PINN)和龍格-庫塔物理信息神經網絡(RK-PINN)。 CS-PINN框架中主神經網絡負責近似等離子體方程的解, 再通過引入一個子網來動態近似等離子體方程中與解相關的系數。 通過這種方式, CS-PINN能夠動態地根據方程的解來調整系數, 從而更好地捕捉等離子體方程中的非線性關系。 而RK-PINN將隱式龍格-庫塔方法引入PINNs, 實現了對瞬態等離子體的大時間步長預測。 他們通過求解電子輸運的玻爾茲曼方程、 電暈放電的一維流體模型等案例對兩個框架進行了測試。 研究表明, 這兩個框架在求解等離子體方程方面表現出色, 特別是RK-PINN在處理瞬態等離子體模擬時, 能夠使用大時間步長且有限的噪聲數據得到較好的模擬結果, 極大地減少了計算成本。 這些框架展示了處理復雜等離子體動力學的能力, 提供了一種比傳統數值方法更靈活、 計算效率更高的替代方案。
此外, 針對等離子體數值模擬的求解, 還發展了傅里葉神經算子(FNO)以及Transformer 網絡等智能算法模型。 FNO最主要的優點是具有網格不變性, 其求解的精度不受網格分辨率的影響。 而Transformer 網絡則是一種基于自注意力機制(Self-Attention)的深度學習模型, 具有并行能力強和長距離依賴的捕捉能力。 Gopakumar和Li等[40-41]利用FNO算法預測等離子體的演變。 Sun等[42]利用Transformer 網絡算法開發了一種名為JefiAtten的學習模型, 成功實現了多維度電磁場的求解。
綜上可知, 人工智能算法目前在等離子體數值計算領域取得了較大進展。 首先, 通過神經網絡架構與物理定律的相互嵌入, 實現了傳統數值方法數量級的效率突破, 在保持計算精度的同時顯著降低資源消耗, 其研究結果對玻爾茲曼方程的求解速度提高33倍, 內存消耗降低97%; 其次, 基于物理信息約束的深度學習框架有效結合了等離子體方程的核心守恒特性, 為復雜多物理場耦合問題提供了兼具物理可解釋性與計算穩定性的新方法; 此外, 新型算子網絡與動態建模技術突破了時空尺度限制, 使跨尺度等離子體行為的全域高效模擬成為可能。
然而, 盡管這些進展為突破電推進中多場耦合、 跨尺度等數值模擬瓶頸提供了新思路, 但專門針對電推進物理模型的算法仍需進一步開發。 面向具體推進器構型的專用算法體系構建、 極端工況下的模型泛化能力提升仍是亟待解決的關鍵挑戰。
4 總結與展望
本文系統介紹了人工智能算法在電推進技術中的研究進展與應用實踐。 研究表明, 機器學習與深度學習算法在電推進裝置的物理機理分析、 性能預測、 優化設計及數學物理模型求解中展現出顯著優勢。 在電推進系統的設計與優化中, 相關研究表明, 基于數據驅動的人工智能算法, 在離子推進器推力預測、 霍爾推進器反常輸運建模、 脈沖等離子體推進器放電曲線預測等方面取得了較為精確的結果, 顯著降低了傳統實驗與仿真的成本與周期。 此外, 在模型層面, 結合物理信息神經網絡(PINN)、 傅里葉神經算子(FNO)等新型算法, 人工智能算法在解決等離子體數值模擬中的復雜偏微分方程(如Vlasov-Poisson方程、 Boltzmann方程)方面, 展現了巨大的優勢, 計算效率提升數十倍。 PINN, FNO等新型架構將復雜方程求解速度提升1~2個數量級。 特別值得關注的是, 智能算法展現出強大的多物理場耦合處理能力。 這些突破標志著電推進研究正從經驗驅動向數據-物理雙驅動的范式轉變。
然而, 盡管人工智能算法在電推進領域已取得重要進展, 但仍面臨以下重要挑戰, 這也是未來人工智能在電推進領域中的重要發展方向。
(1) 數據與模型的局限性。
當前研究高度依賴實驗或仿真數據, 數據稀缺性與質量限制模型的泛化能力; 復雜物理過程的簡化假設可能導致模型在極端工況下的預測偏差。 未來需探索小樣本學習、 遷移學習及物理約束嵌入方法, 增強模型的可解釋性與外推能力。
(2) 多尺度與多物理場耦合。
電推進涉及電磁場、 流體動力學、 粒子碰撞等多物理過程的跨尺度耦合, 現有算法多聚焦單一問題。 需開發多模態融合算法(如圖神經網絡與Transformer結合), 實現全系統級建模與協同優化。
(3) 算法效率與硬件適配。
人工智能算法模型的計算資源需求較高, 難以滿足航天器嵌入式系統的實時性要求。 未來可結合邊緣計算、 輕量化網絡設計(如知識蒸餾), 或探索量子計算加速潛力, 推動算法在軌部署。
(4) 實驗驗證與工程化應用。
多數研究仍處于仿真驗證階段, 缺乏真實工況下的長期穩定性測試。 需建立標準化電推進數據集與測試平臺, 推動智能算法從理論研究向工程實踐轉化。
(5) 跨學科協同創新。
電推進與人工智能的深度融合需加強等離子體物理、 航天工程與計算機科學的交叉合作, 探索新型智能推進系統架構(如數字孿生與自主決策系統), 為深空探測與大規模星座任務提供技術支撐。
參考文獻:
[1] 耿海, 李婧, 吳辰宸, 等. 空間電推進技術發展及應用展望[J]. 氣體物理, 2023, 8(1): 1-16.
Geng Hai, Li Jing, Wu Chenchen, et al. Development and Application Prospect of Space Electric Propulsion Technology[J]. Phy-sics of Gases, 2023, 8(1): 1-16. (in Chinese)
[2] 康小錄, 張巖. 空間電推進技術應用現狀與發展趨勢[J]. 上海航天, 2019, 36(6): 24-34.
Kang Xiaolu, Zhang Yan. Application Status and Development Trend of Space Electric Propulsion Technology[J]. Aerospace Shanghai, 2019, 36(6): 24-34. (in Chinese)
[3] 侯曉, 李永, 武志文, 等. 我國空間推進技術領域發展思考與建議[J]. 中國工程科學, 2024, 26(3): 217-225.
Hou Xiao, Li Yong, Wu Zhiwen, et al. Development of Space Propulsion Technologies in China: Analysis and Suggestions[J]. Strategic Study of CAE, 2024, 26(3): 217-225. (in Chinese)
[4] 夏廣慶, 鹿暢, 孫斌, 等. 電推進加速技術現狀及展望[J]. 宇航學報, 2022, 43(2): 143-157.
Xia Guangqing, Lu Chang, Sun Bin, et al. Review and Prospect of Electric Propulsion Acceleration Technology[J]. Journal of Astronautics, 2022, 43(2): 143-157. (in Chinese)
[5] 周志華. 機器學習[M]. 北京: 清華大學出版社, 2016.
Zhou Zhihua. Machine Learning[M]. Beijing: Tsinghua University Press, 2016. (in Chinese)
[6] Rebala G, Ravi A, Churiwala S. An Introduction to Machine Learning[M]. Cham: Springer International Publishing, 2019.
[7] Ba瘙塂tanlar Y, zuysal M. Introduction to Machine Learning[M]∥Yousef M , Allmer J . miRNomics: microRNA Biology and Computational Analysis. Totowa: Humana Press, 2014: 105-128.
[8] 王貝倫. 機器學習[M]. 南京: 東南大學出版社, 2021.
Wang Beilun. Machine Learning[M]. Nanjing: Southeast University Press, 2021. (in Chinese)
[9] Gurney K. An Introduction to Neural Networks[M]. Boca Raton: CRC Press, 2018.
[10] 肖漢光, 夏清玲. 機器學習[M]. 北京: 清華大學出版社, 2023.
Xiao Hanguang, Xia Qingling. Machine Learning[M]. Beijing: Tsinghua University Press, 2023. (in Chinese)
[11] Makara L, Reichardt A, Csurgai-Horváth L. AI-Based Electrode Optimisation for Small Satellite Ion Thrusters[J]. Infocommunications Journal, 2021, 13(4): 3-9.
[12] Wang H B, Wang W Z, Yan J Q, et al. Measurement and Prediction of Micronewton Class Thrust of Electric Propulsion Based on the Torsional Pendulum and Machine Learning Technique[J]. IEEE Transactions on Instrumentation Measurement, 2023, 72: 3225035.
[13] Vinci A E, Boré A, Rafalskyi D. Inference of Iodine Ion Thruster Performance Envelope at System-Level Using Neural Networks[C]∥38th International Electric Propulsion Conference, 2024.
[14] Redka M О, Khoroshylov С В. Determination of the Force Impact of an Ion Thruster Plume on an Orbital Object via Deep Learning[J]. Space Energy, Power and Propulsion, 2022, 28(5): 15-26.
[15] Sable S D. Design of Ion Thruster Optics Simulator and a Neural Network Emulator[D]. Corvallis: Oregon State University, 2022.
[16] Jorns B. Predictive, Data-Driven Model for the Anomalous Electron Collision Frequency in a Hall Effect Thruster[J]. Plasma Sources Science and Technology, 2018, 27(10): 104007.
[17] Park J, Lee D, Doh G, et al. Deep Learning-Based Electron Anomalous Transport Prediction in Hall Thrusters with LIF Measurements[C]∥International Electric Propulsion Conference, 2022.
[18] Shashkov A, Tyushev M, Lovtsov A, et al. Machine Learning-Based Method to Adjust Electron Anomalous Conductivity Profile to Experimentally Measured Operating Parameters of Hall Thruster[J]. Plasma Science and Technology, 2022, 24(6): 065502.
[19] Marianacci A, Mazouffre S. Supervised Machine Learning-Based Hall Thruster Scaling[J]. Journal of Electric Propulsion, 2024, 3(1): 14.
[20] Zine El Abidine H, Tang H B, Wang Z X, et al. Data-Driven Modeling of Miniature Hall Thrusters: A Machine Learning Approach[C]∥ 3rd International Symposium on Intelligent Unmanned Systems and Artificial Intelligence, 2024.
[21] Korolev K. Hall Effect Thruster Design via Deep Neural Network for Additive Manufacturing [EB/OL]. (2023-03-14)[2025-02-17].https:∥arxiv.org/abs/2303.08227v1.
[22] Park J, Doh G, Lee D, et al. Predicting Performance of Hall Effect Ion Source Using Machine Learning[J]. Advanced Intelligent Systems, 2024: 2400555.
[23] Kawazu M, Yamamoto N, Chono M, et al. Prediction of Thruster Performance in Hall Thrusters Using Neural Network with Auto Encoder[J]. Transactions of the Japan Society for Aeronautical and Space Sciences, Aerospace Technology Japan, 2021, 19(5): 760-765.
[24] Williams V, Argyriou V, Shaw P, et al. Development of PPTNet a Neural Network for the Rapid Prototyping of Pulsed Plasma Thrusters[C]∥36th International Electric Propulsion Conference, 2019.
[25] Hossain N, Sun G R, Islam F. Data Science and Machine Learning Processes for IoT-Based Pulsed Plasma Thruster Research[J/OL]. Journal of Data Science and Intelligent Systems. doi: 10.47852/bonviewJDSIS32021517.
[26] Hossain N, Wang N F, Sun G R, et al. A Reliable Data-Driven Model for Ablative Pulsed Plasma Thruster[J]. Aerospace Science and Technology, 2020, 105: 105953.
[27] Valdes A, Khorasani K. Dynamic Neural Network-Based Pulsed Plasma Thruster (PPT) Fault Detection and Isolation for the Attitude Control System of a Satellite[C]∥ IEEE International Joint Conference on Neural Networks (IEEE World Congress on Computational Intelligence), 2008.
[28] Shukla V, Mukhopadhyay D, Pandey A, et al. Prediction of Negative Hydrogen Ion Density in Permanent Magnet-Based Helicon Ion Source (HELEN) Using Deep Learning Techniques[C]∥Seventh International Symposium on Negative Ions, Beams and Sources, 2021.
[29] Shukla V, Bandyopadhyay M, Pandya V, et al. Artificial Neural Network Based Predictive Negative Hydrogen Ion Helicon Plasma Source for Fusion Grade Large Sized Ion Source[J]. Engineering with Computers, 2022, 38(1): 347-364.
[30] Shukla V, Bandyopadhyay M, Pandya V, et al. Prediction of Axial Variation of Plasma Potential in Helicon Plasma Source Using Linear Regression Techniques[J]. International Journal of Mathematical, Engineering and Management Sciences, 2020, 5(6): 1284-1299.
[31] Melazzi D, Lancellotti V. ADAMANT: A Surface and Volume Integral-Equation Solver for the Analysis and Design of Helicon Plasma Sources[J]. Computer Physics Communications, 2014, 185(7): 1914-1925.
[32] Malm O, Souhair N, Rossi A, et al. Predicting the Antenna Pro-perties of Helicon Plasma Thrusters Using Machine Learning Techniques[J/OL]. Journal of Electric Propulsion. doi: 10. 1007/s 44205-023-00063-W.
[33] Sirignano J, Spiliopoulos K. DGM: A Deep Learning Algorithm for Solving Partial Differential Equations[J]. Journal of Computational Physics, 2018, 375: 1339-1364.
[34] Bruna J, Peherstorfer B, Vanden-Eijnden E. Neural Galerkin Schemes with Active Learning for High-Dimensional Evolution Equations[J]. Journal of Computational Physics, 2024, 496: 112588.
[35] Xiao T B, Frank M. Using Neural Networks to Accelerate the Solution of the Boltzmann Equation[J]. Journal of Computational Physics, 2021, 443: 110521.
[36] Kawaguchi S, Takahashi K, Ohkama H, et al. Deep Learning for Solving the Boltzmann Equation of Electrons in Weakly Ionized Plasma[J]. Plasma Sources Science and Technology, 2020, 29(2): 025021.
[37] Cheng L, Illarramendi E A, Bogopolsky G, et al. Using Neural Networks to Solve the 2D Poisson Equation for Electric Field Computation in Plasma Fluid Simulations [EB/OL]. (2021-11-17)[2025-02-17]. https:∥arxiv.org/abs/2109.13076v3.
[38] Zhang B Y, Cai G B, Weng H Y, et al. Physics-Informed Neural Networks for Solving Forward and Inverse Vlasov-Poisson Equation via Fully Kinetic Simulation[J]. Machine Learning: Science and Technology, 2023, 4(4): 045015.
[39] Zhong L L, Wu B Y, Wang Y F. Low-Temperature Plasma Simulation Based on Physics-Informed Neural Networks: Frameworks and Preliminary Applications[J]. Physics of Fluids, 2022, 34(8): 087116.
[40] Gopakumar V, Pamela S, Zanisi L, et al. Fourier Neural Operator for Plasma Modelling[EB/OL]. (2023-02-13)[2025-02-17].https:∥arxiv.org/abs/2302.06542v1.
[41] Li Z, Gopakumar V, Pamela S, et al. Plasma Surrogate Modelling Using Fourier Neural Operators[J]. Bulletin of the American Physical Society, 2024, 64(5): 056025.
[42] Sun M Y, Xu P, Zhang J J, et al. JefiAtten: An Attention-Based Neural Network Model for Solving Maxwell’s Equations with Charge and Current Sources[J]. Machine Learning: Science and Technology, 2024, 5(3): 035055.
The Application of Artificial Intelligent Algorithms in
Electric Propulsion
Tian Bin, An Bingchen, Xie Kan*, Yang Sulan
(School of Aeronautics and Astronautics, University of Electronic Science and
Technology of China, Chengdu 611731, China)
Abstract: Electric propulsion technology has garnered significant attention due to its much higher specific impulse compared to traditional chemical propulsion. Currently, many mature on-orbit electric propulsion products have been developed worldwide. However, with the increasing demands of space missions, research in this field continues to advance. In recent years, the rapid development of artificial intelligence algorithms, such as machine learning and deep learning, has provided new approaches for the study of electric propulsion. These algorithms can not only train models based on data to optimize the performance of electric thrusters," but also analyze and solve the mathematical and physical models of plasmas within electric thrusters. By integrating machine learning and deep learning techniques, the accuracy and efficiency of solving related partial differential equations can be significantly improved, and optimal solutions for equation solving can be achieved. This paper summarizes the applications of artificial intelligence algorithms in the physical mechanism, equation solving, and model design of electric propulsion, with a particular focus on the research progress in ion thrusters, Hall thrusters, pulsed plasma thrusters, and helicon plasma thrusters. These studies not only demonstrate the great potential of artificial intelligence algorithms in enhancing the performance of electric propulsion systems, optimizing design, and reducing computational costs, but also provide new directions for the future development of electric propulsion technologies.
Key words: electric propulsion; intelligent learning algorithms; plasma behavior prediction; data-driven; partial differential equation