陳健 王東東 劉宇翔 陳 俊
(廈門大學土木工程系,福建廈門 361005)
(廈門市交通基礎設施智能管養工程技術研究中心,福建廈門 361005)
無網格法采用僅需位置信息的系列節點構造空間離散,具有離散形式靈活、形函數高階光滑、計算精度高、后處理簡潔等優點,因而在結構靜動力分析方面得到了快速的發展和應用[1-9].但無網格形函數通常不是多項式、形式比較復雜,其影響域一般也大于傳統有限元形函數,因而無網格法的計算效率相對較低[10-11].再者,無網格動力分析進一步將無網格空間離散和時間離散方法相結合,例如常用的Newmark 方法,需要逐步遞推求解每個時間步的動力響應,更加劇降低了無網格法的計算效率[3,6].同時,每個無網格動力分析過程都是針對特定問題,給定條件的任何改變都需要對該問題重新進行遞推動力計算,存在大量的冗余工作.因而提高無網格動力分析效率是無網格法研究領域的一個重要問題.
近年來,隨著大數據與人工智能技術的迅速發展,數據驅動與人工智能計算力學的結合[12-13]逐漸興起,有力促進了計算力學新方法的研究.例如,Oishi和Yagawa[14]利用機器學習模型處理復雜數據關系的強大能力,提出了一種基于人工神經網絡的新型高效有限元剛度矩陣數值積分方法.李想等[15]探討了機器學習與計算力學結合的不同形式.Tang 等[16]提出了一種基于數據驅動,能夠將一維數據有效推廣至三維情況的非線性彈性力學模型.Feng 等[17]將相場模擬與深度學習相結合,通過相場模擬準備結構裂紋擴展的圖像數據,來訓練卷積網絡模型,從而判斷出結構的剩余使用壽命.嚴子銘等[18]通過多種機器學習方法建立了頁巖氣采收率合理預測模型.陽杰等[19]應對數據驅動計算力學模型的訓練階段,提出了一種分層數據搜索方案,通過將訓練集進行切割形成多層級子數據庫,來降低模型訓練過程中數據過濾的時間.黃鐘民等[20]采用神經網絡方法研究面內變剛度功能梯度薄板彎曲問題.
在提高無網格法的計算效率方面,除了發展高效無網格算法[6-10],機器學習領域的進展也為無網格法精度和效率的提升提供了新的途徑.例如,Wang和Zhang[21]將機器學習中的全連接神經網絡近似看作為形函數,提出了一種無網格形式的配點法.該方法無需事先假定形函數形式,其將網絡損失函數采用變分形式構造,進而通過訓練確定網絡超參數最終獲取數值解.Brink 等[22]將深度學習與配點法相結合,采用神經網絡來確定基函數形式以及相關權重,在網絡訓練完畢后對非線性偏微分方程進行逼近求解.最近,劉宇翔等[23]基于卷積神經網絡方法,提出了伽遼金無網格法形函數影響域的一種機器學習優化選擇策略.在此基礎上,本文通過研究無網格動力分析的機器學習代理模型,加速無網格動力分析的計算過程.
循環神經網絡(recurrent neural network,RNN)是一類用于處理序列數據,具有記憶功能的遞歸神經網絡,其內部信息通常按照數據序列順序方向進行傳遞;由于其內置循環模塊具有記憶性及參數共享等性質,因此在對序列信息的特征進行提取時具有良好的效果[24-25].該網絡作為深度學習中的一類典型算法,被廣泛應用于自然語言處理[26]、包含時間序列信息的數據特征提取[27]等.傳統的循環神經網絡在單個時間步上通常以一維向量的數據形式實現網絡的訓練和傳遞.然而,若將卷積神經網絡(convolutional neural network,CNN) 引入循環神經網絡,前者網絡包含的卷積核具有權值共享特性,可以有效降低網絡超參數訓練量,防止過擬合情況發生,并且無需將多維數據信息展開為一維信息進行傳遞,充分保留了原始數據的空間信息.因此兩種網絡有機融合形成的循環卷積神經網絡能夠處理任意維度的數據形式[28],并充分提取數據在時間和空間上的雙重特征,具有更廣泛的適用性[29].
本文首先對比分析了無網格離散數據與深度學習訓練樣本、采用Newmark 方法的無網格動力分析流程與循環卷積神經網絡序列信息傳遞模式之間的關系,揭示了無網格動力分析與循環卷積神經網絡在計算流程與信息傳遞等方面具有輸入和輸出的內在一致性,建立了兩者的本征聯系.隨后,基于該本征聯系發展了與無網格法相匹配的循環卷積神經網絡結構設計方法,進而提出了一種無網格動力分析的循環卷積神經網絡代理模型.無網格動力分析的循環卷積神經網絡代理模型充分吸收了無網格法節點模型離散靈活、數值樣本精度高的優點,能夠在保證精度的前提下顯著提升無網格動力分析的計算效率.

其中c(x) 為待定系數向量,φ(xI-x) 為核函數,本文中選為三次樣條函數[1].p[p](x)為p階基向量

待定系數向量c(x)可通過施加下面的p階一致性或完備性條件進行求解[2-3]

容易證明,式(3)等價于

進一步將形函數表達式(1)代入式(4),有
式中A(x) 為矩量矩陣

由式(5)可得c(x)=A-1(x)p(0),則式(4)定義的再生核無網格形函數變為

注意到無網格形函數 ΨI(x) 通常不具有插值特性,即 ΨI(xJ)≠δIJ,因而需要采用附加方式來施加位移邊界條件[5].
不失一般性,這里以彈性力學問題為例討論無網格法動力分析的基本方程.對于空間區域 Ω 的彈性力學問題,其運動方程為

其中,i,j=1,2,···,nsd,nsd為空間維度,ρ為密度,ui為位移分量,σij為應力分量,bi為體力分量,u˙i和u¨i分別表示速度和加速度分量.T是動力分析總時長,和分別為強制邊界和自然邊界,nj為自然邊界 Γhi的外法向量分量,和分別為強制和自然邊界上給定的位移和面力分量,u0i和u˙0i為初始位移和速度分量.
如前所述,無網格形函數的非插值特性使得無網格法難以直接施位移制邊界條件.針對該問題,本文采用Nitsche 變分方法引入位移邊界條件,式(8)對應的等效積分弱形式為[30]

其中 α 為位移邊界條件對應的罰因子.Nitsche 變分方法不僅保持了離散方程的對稱性,同時降低了計算結果對罰因子的敏感性.
基于式(7)的無網格形函數,位移和加速度變量的離散形式為

將式(10)和式(11)代入式(9),有

其中,a=為加速度系數向量,M和K為質量矩陣和剛度矩陣,f為力向量,它們分別對應的元素為

對于平面應力問題,式(13)~ 式(15)中的形函數矩陣 ΨI、位移梯度矩陣BI、方向矩陣N和彈性矩陣D分別為

其中E和ν 表示彈性模量和泊松比.注意到式(13)中定義的質量和剛度矩陣都需要采用數值積分進行計算,但是由于無網格形函數不是多項式,因而傳統高斯積分方法并不能保證無網格法數值積分的準確性.
為了提高計算效率,同時滿足積分約束條件,即準確求解形式為p次多項式的解析解所需的積分條件,本文采用再生光滑梯度積分方法進行空間積分[10],將BI中的標準形函數梯度ΨI,x替換為再生光滑梯度[10].同時,為了保證數值實現的一致性,這里質量矩陣也采用再生光滑梯度積分方法進行數值積分.注意到再生光滑梯度積分方法的積分采樣點具有全域等效積分點最少的特點,因此能夠顯著提高計算效率并保證最優收斂性[11].在再生光滑梯度理論框架下[10],無網格形函數的再生光滑梯度可以表示為

其中 ΩC為背景數值積分單元,ΓC為ΩC的邊界,ni表示 ΓC的外法向量分量,p[p-1] 為(p-1) 階基函數向量.方便起見,一般選三角形積分單元,此時GC可以解析計算.另一方面,對于向量,采用全域優化的內嵌一致的顯式高效數值積分方法進行計算[10].
對于時間域,本文采用Newmark 法進行離散分析.便于時域積分起見,將時間域劃分成一組等距的時間間隔,例如NT表示總的時間步數.Newmark 時間積分方法的預測-校正離散格式為[31]

其中β和γ為積分參數,本文算例中取γ=1/2,β=1/4,此時Newmark 法即平均加速度法,具有二階精度.將式(23)代入式(12)即可得到離散的無網格動力方程

根據式(24)以及初始位移和速度條件,便可求出動力系統的整個時域響應.但是由于無網格法本身計算的復雜性,因此動力計算過程的效率較低,如何提升動力問題的計算效率是無網格法研究領域的一個重要問題.
卷積層與轉置卷積層是全卷積神經網絡最具代表性的結構.與經典的卷積神經網絡[17]相比,全卷積神經網絡將前者網絡結構中最后的全連接層部分替換為卷積層.如圖1 所示,若卷積步長為1,其卷積層中的卷積運算過程為

圖1 全卷積神經網絡中的卷積與轉置卷積操作Fig.1 Convolution and transpose convolution operations in full convolution neural networks

其中xIJ表示矩陣x中位置為 (I,J) 的子矩陣,zIJ表示矩陣z中位置為 (I,J) 的元素;w為權重矩陣,又被稱為卷積核,卷積核的尺寸與子矩陣xIJ的尺寸相同.式中“ :”表示雙點積,即矩陣對應位置的元素相乘后再相加.
同時可見與卷積層相對應的轉置卷積層中的運算過程,其計算方式是將輸入樣本尺寸通過填充0 元素進行放大后,再進行卷積操作.值得指出的是,轉置卷積并不真正是卷積的逆運算,例如對于圖中的輸入樣本x,經過轉置卷積操作之后并不能恢復到原始的數值,只保留有原始的形狀,即兩種卷積過程只在形式上存在一定聯系,而對應數值一般并不相同.
循環神經網絡(RNN)是一種應用于自然語言處理、語音識別等領域的特殊神經網絡結構[25].與全連接神經網絡和卷積神經網絡相比,循環神經網絡通過引入循環模塊實現了一種“記憶”功能,即當前時間步的輸出不僅與當前時間步的輸入有關,還與之前所有歷史時間步的輸入-輸出信息相關聯.
同時,為了解決普通循環神經網絡的長期依賴問題,在此引入長短期記憶神經網絡(long short-term memory,LSTM)[24],以緩解隨著循環次數增多而產生的梯度消失問題,進而更好地利用前面的歷史信息來加強網絡的學習.如圖2 所示,LTSM 網絡的特點在于通過其內部被稱為“門”的結構,對信息進行選擇性遺忘、增填及更新,其中包含“遺忘門(forget gate)”、“輸入門(input gate)”和“輸出門(output gate)”.循環模塊中包含的 S和T 分別表示典型的S i g m o i d和T a n h 激活函數:S(x)=1/(1+e-x),T(x)=(ex-e-x)/(ex+e-x),網絡中主要通過這兩個激活函數對歷史信息進行篩選控制.下面對各個“門”進行簡要分析.

圖2 LSTM 循環神經網絡結構框架與循環模塊Fig.2 Schematic illustartion of LSTM and recurrent module
首先,信息經過遺忘門的過程可描述為[25]

其中,xIJ(tn+1) 為時間步tn+1時刻輸入變量x(tn+1) 的(I,J)子矩陣,hIJ(tn) 為上一時間步tn時刻輸出變量h(tn)的 (I,J) 子矩陣.wx f和wh f為輸入變量x和h對應的卷積核,βf為二者卷積核偏置之和.該過程讀取上一時間步輸出h(tn)和新時間步輸入x(tn+1),通過學習訓練輸出數值為0~ 1 之間的遺忘因子f(tn+1),并與上一時間步的單元狀態C(tn) 相乘實現選擇性遺忘功能.
對于輸入門,其功能是控制當前時間步單元狀態C(tn+1) 的輸入信息,在此過程中,輸入變量x(tn+1),h(tn)通過卷積核及偏置wxi,whi,βi篩選,留下可進入的候補信息i(tn+1)

此外,通過卷積核wxg,whg及對應偏置量βg的篩選,留下可進入的候補信息g(tn+1) 為

最后,輸入變量x(tn+1)和h(tn) 經過“輸出門”,通過卷積核wxo和who及偏置量βo來提取出直接組成最后輸出h(tn+1) 的部分信息o(tn+1)

因此更新后的單元狀態C(tn+1)和輸出h(tn+1) 分別為

變量C(tn+1)和h(tn+1) 分別將作為長期記憶和短期記憶,進入到下一時間步的循環之中.
網絡模型的預測能力依賴于訓練數據集的質量.合適的數據集不僅需要數據內部存在本征聯系,而且數據蘊含的多樣性同樣重要.在準備神經網絡的訓練數據集時,需預先確定訓練樣本的尺寸大小,與之對應的是相同尺寸大小的離散數據量和訓練樣本.同時,為了使得神經網絡的預測能力具有高度泛化特性,需要在準備數據集時盡可能地考慮工況的多樣性,例如邊界條件施加方式、計算區域形狀等,并通過不斷模擬這些條件的變化來持續豐富數據集.
如圖3 所示,無網格法僅通過節點離散進行計算分析,在空間離散形式上具有高度靈活性,能夠確保節點數目與機器學習樣本尺寸的匹配性,同時由于無網格形函數的高階光滑特性,可獲得高精度的數值結果樣本.與之相對應,基于有序單元離散的有限元法,在節點數目確定后,對于不同計算模型,難以保證在離散分析過程中不出現為了匹配節點數目與機器學習樣本尺寸而產生的單元畸變,從而導致結果樣本精度的明顯下降.

圖3 數值計算產生數據與機器學習訓練樣本之間的對應關系Fig.3 Schemetic illustration of the corresponding relationship between the data generated by numerical simulations and the machine learning training samples
在采用Newmark 法的無網格動力分析中,可將整個流程分為計算階段和傳遞階段,兩個階段交替進行.
(1) Newmark 方法計算階段
將每個新時間步的外荷載fn+1和上一時間步求得的位移、速度和加速度向量 (dn,vn,an) 作為輸入,可以通過式(22)~ 式(24)得到該時間步的位移、速度和加速度 (dn+1,vn+1,an+1) .方便起見,將位移和速度更新過程表示為

其中,N(·) 表示式(22)~ 式(24)的計算過程.
(2) Newmark 方法傳遞階段
當從計算階段求得第n+1 個時間步的位移、速度和加速度 (dn+1,vn+1,an+1),該信息將繼續沿著時間坐標傳遞,參與到第n+2 個時間步的計算階段,之后循環往復直至計算結束.
綜合Newmark 法的計算階段和傳遞階段,可將采用Newmark 法的無網格動力分析作為一個在離散時間點上進行計算的序列問題,其中每一個時間步的計算都需要利用上一步計算得到的歷史信息.
與采用Newmark 法的無網格動力分析相對應,長短期記憶神經網絡同樣可以分為計算階段和傳遞階段.
(1) LSTM 網絡計算階段
對于長短期記憶神經網絡,在計算階段中由上一步的輸入變量Cn和hn,再結合新時間步的輸入變量zn+1,給出該時間步的輸出變量Cn+1和hn+1

其中,其中 L(·) 表示式(26)~ 式(31)的計算過程.
(2) LSTM 網絡傳遞階段
在長短期記憶神經網絡中,經過第n+1 次循環的計算階段,可以得到單元狀態Cn+1和輸出變量hn+1,其中包含了經前若干模塊逐個處理后的信息,然后繼續將信息向第n+2 次循環傳遞長期和短期記憶.
圖4 分別給出了采用Newmark 方法的無網格動力分析過程與長短期記憶神經網絡傳遞過程.兩者的對比分析表明,無網格動力分析與長短期記憶神經網絡在計算流程與信息傳遞等方面具有內在一致性和本征聯系,例如荷載與輸入相對應,位移與輸出相對應,加速度和速度與單元狀態相對應,Newmark 時間積分與長短期記憶循環模塊相對應等.此外,注意到無網格形函數的影響域和卷積神經網絡核函數的感受野也存在相似關系[23].因此,可以利用該本征聯系,發展無網格動力分析的循環卷積神經網絡代理模型,從而提高無網格動力分析的計算效率.

圖4 無網格動力分析與長短期記憶神經網絡之間的本征聯系Fig.4 Intrinsic relationships between dynamic meshfree analysis and long short-term memory neural network
將全卷積神經網絡與循環神經網絡進行結合,建立無網格動力分析代理模型,目的是分別提取數據的空間信息和時間信息,對無網格動力分析過程進行預測.針對代理模型構建,首先應匹配網絡的輸入輸出樣本尺寸和無網格離散形式.在網絡訓練過程中,將每個離散時間點上的力向量矩陣作為輸入,以位移、速度、加速度等場變量的數值解矩陣作為輸出進行學習.當所設計的神經網絡訓練完成之后,即可封裝成為代理模型,然后向其輸入任意離散時間步上的力向量矩陣,就可快速預測出當前時刻對應的無網格數值解.
圖5 所示為無網格動力分析代理模型框架圖,其中無網格動力分析的循環卷積神經網絡設計借鑒了U-Net 網絡結構中的卷積過程,同時引入長短期記憶循環模塊.在該網絡中,首先通過多個“卷積-激活函數-最大池化”模塊,將輸入信息進行壓縮得到特征,然后將壓縮后的特征輸入至長短期記憶循環模塊中提取時序信息,最后通過“逆卷積-激活函數-最大池化”模塊過程將特征信息進行擴充得到輸出,其中卷積與轉置卷積模塊使用的激活函數為Leaky ReLU 函數[32].采用MSE(mean squared error)誤差來衡量迭代學習過程的收斂性,其定義為

圖5 無網格動力分析的循環卷積神經網絡代理模型框架Fig.5 The structure of recurrent convolution neural network surrogate model for dynamic meshfree analysis

為了說明無網格動力分析的循環卷積神經網絡代理模型的構造過程和預測準確性,本文考慮圖6所示的4 種不同區域的彈性力學問題作為訓練目標,其中彈性模量和泊松比分別為E=2×107,ν=0.3 .算例均采用 32×32=1024 個節點的無網格離散,然后通過無網格計算準備訓練數據,與神經網絡的輸入輸出尺寸相匹配.這里考慮不同形狀計算區域是為了增強網絡的預測能力,提高代理模型的泛用性.本文代理模型的泛用性主要包含兩方面,其一針對的是數據結構,即所提基于無網格法的代理模型可接受任意維度的數據.當求解區域的形狀、邊界條件等發生改變時,僅需重新準備相應數據集,無需改變網絡結構便可進行訓練,完成無網格動力分析數值解預測.其二針對的是求解問題類型,當數據集經過積累變得愈加豐富時,所能求解的問題類型也會隨之增多.同時,本文考慮如下的多項式與三角函數兩種不同形式的精確解

圖6 無網格動力分析訓練集包含的計算模型與離散模型Fig.6 Computational models and discretizations for the training set of dynamic meshfree analysis

其中t∈[0,1].式(35) 中系數cij和式(36) 中系數{cx,cy,ca}均是定義在一定范圍內的隨機數,具體如下

注意到這里給出精確解僅是為不同計算模型提供體力項和邊界條件,而通過無網格計算生成的數值解,才是用于訓練的數據集.
無網格計算中采用二次基函數,數值積分采用RKGSI 積分方法[10],時間積分步長為 Δt=0.002 s,總時間步數為500.為使網絡模型更具有代表性,同時簡化網絡訓練,每間隔50 個時間步提取一次信息,共計提取 11 個時間步的信息.此外,為統一輸入輸出矩陣尺寸,將尺寸為 2048×1 的每個時間步的力向量中每一個節點的值按節點位置排列成 2×32×32 的矩陣形式.由于共有11 個時間步信息,將這11 個時間步重新排列的力向量矩陣按時間順序堆疊為11×2×32×32的矩陣.同樣,無網格數值解也按時間順序和節點位置排列成 11×2×32×32 的矩陣.至此,無網格動力分析的循環卷積神經網絡訓練方案中所有的輸入輸出信息,均已準備完畢.在本次訓練中,對每一種不同的幾何邊界問題,多項式精確解與三角函數精確解均各計算1500 組樣本,其中1200 組樣本作為訓練集,250 組樣本作為驗證集,50 組樣本作為測試集,因此總訓練集數目為4×1200×2=9600組,總驗證集數目為 4×250×2=2000 組,總測試集數目為 4×50×2=400 組.
本文采用基于梯度下降算法的Adam 優化器進行網絡參數訓練.圖7 給出了本文所提出的無網格動力分析網絡代理模型的具體數據傳遞過程.同時,為保證參數訓練效果,對網絡參數采用Xavier 正態分布進行初始化處理,相應的網絡代理模型參數收斂特性見圖8.圖8 結果表明,損失函數MSE的值隨迭代次數的增加而逐漸減小,因此證明無網格動力分析網絡代理模型的參數具有良好的收斂特性,其預測準確性隨迭代過程不斷提高.

圖7 無網格動力分析的循環卷積神經網絡代理模型具體數據傳遞過程Fig.7 Detailed data transfer process of the recurrent convolution neural network surrogate model for dynamic meshfree analysis

圖8 無網格動力分析的循環卷積神經網絡代理模型訓練歷史Fig.8 Training history of the recurrent convolution neural network surrogate model for dynamic meshfree analysis
圖9~ 圖12 給出了基于無網格動力分析的循環卷積神經網絡代理模型,對無網格動力分析數值解的預測結果.對于4 種不同形狀區域的彈性力學問題,在t=0.6 s和t=1 s 兩個時間節點分別列出了一組隨機多項式測試樣本的預測結果以及一組隨機三角函數測試樣本的預測結果.圖中預測解和分別表示無網格動力分析的循環卷積神經網絡代理模型預測所得到的x和y方向的位移結果,數值解和分別表示直接采用無網格動力分析方法得到的x和y方向的位移數值解,和表示代理模型預測結果與無網格法動力分析數值結果兩者之間的差異.可以看出,對于解析解為多項式和三角函數的不同形狀彈性力學問題,基于無網格動力分析的循環卷積神經網絡代理模型得到的預測解和無網格動力分析數值解均吻合良好,表明本文所提的循環卷積神經網絡代理模型能很好地預測彈性動力分析的無網格數值解.

圖9 方形區域彈性力學問題代理模型預測解與無網格數值解對比Fig.9 Comparison between the predicted solution of the recurrent convolution neural network surrogate model and the meshless numerical solution of the elasticity problem in the square region

圖9 方形區域彈性力學問題代理模型預測解與無網格數值解對比(續)Fig.9 Comparison between the predicted solution of the recurrent convolution neural network surrogate model and the meshless numerical solution of the elasticity problem in the square region (continued)

圖10 L 形區域彈性力學問題代理模型預測解與無網格數值解對比Fig.10 Comparison between the predicted solution of the recurrent convolution neural network surrogate model and the meshless numerical solution of the elasticity problem in the L-shape region

圖11 圓形區域彈性力學問題代理模型預測解與無網格數值解對比Fig.11 Comparison between the predicted solution of the recurrent convolution neural network surrogate model and the meshless numerical solution of the elasticity problem in the circular region

圖12 四分之一環形區域彈性力學問題代理模型預測解與無網格數值解對比Fig.12 Comparison between the predicted solution of the recurrent convolution neural network surrogate model and the meshless numerical solution of the elasticity problem in the quarter annular region
表1 列出了無網格動力分析的循環卷積神經網絡代理模型各個階段的計算耗時,其中數值計算及訓練數據產生使用Intel Core i5-10500 CPU 進行計算,代理模型訓練及預測使用NVIDIA GeForce RTX 3060 進行計算.該代理模型的整個計算流程中包含數據集準備階段、模型超參數訓練階段以及模型預測階段.如表1 所示,線下準備訓練集耗時占據了整個流程用時的90%以上,這也是機器學習的特征之一,即線下訓練數據準備的復雜性與重要性.但當模型訓練完成后,由采用代理模型與傳統無網格法同時對400 組動力問題進行線上計算的所用時間比較可見,相比于傳統的無網格動力分析,無網格動力分析的循環卷積神經網絡代理模型可以大幅減少計算時間,顯著提升計算效率.

表1 彈性問題下無網格法動力分析與循環卷積神經網絡代理模型訓練預測時間對比Table 1 Comparison of the training and prediction cost between dynamic meshfree analysis and recurrent convolution neural network surrogate model for elastic problems
傳統的無網格動力分析需要計算每一時間步上的結構響應,并通過循環傳遞到下一時間步實現整個時間域上的動力響應分析.由于無網格法形函數較為復雜,質量和剛度矩陣帶寬也大于對應階次的有限元法,因而動力分析效率較低.針對該問題,本文系統研究了無網格動力分析過程與長短期記憶神經網絡學習預測過程之間存在的內在相似性和本征聯系,同時充分利用無網格法在產生多樣化訓練樣本數據方面的精度和離散靈活性優勢,提出了卷積模塊與循環模塊并存的循環卷積神經網絡作為無網格動力分析代理模型.基于無網格動力分析的循環卷積神經網絡代理模型,可以高效便捷地獲取任意時刻的無網格動力分析響應.文中通過4 種不同形狀的彈性力學問題的數據學習,構建了相應的無網格動力分析的循環卷積神經網絡代理模型.結果表明,在保證精度的情況下,本文提出的無網格動力分析的循環卷積神經網絡代理模型可以大幅提高無網格動力分析的計算效率.