蔡梓豪 姜屹 張來平 鄧小剛



摘要:將深度卷積神經網絡引入網格質量評價問題有望代替網格工程師完成繁雜的網格質量評價工作,節省計算流體力學數值模擬的人力成本,但現有方法的準確率和效率仍需要提高.因此,本文提出一種基于卷積注意力網絡的網格質量評價方法.首先,本文提出在輕量級卷積神經網絡模型中嵌入通道注意力的方式以同時提升準確率和效率;其次,設計了一個神經網絡模型CANet用于網格質量評價任務;最后,通過Z-Score標準化對數據進行預處理,解決輸入數據分布不一致的問題,以進一步提升準確率.實驗結果表明,與現有方法相比,CANet可以達到更優的準確率97.06%,并且在效率上也有至少34.9%的提升.
關鍵詞:卷積神經網絡; 注意力機制; 網格質量評價; 計算流體力學; 數值模擬
中圖分類號:??TP391? 文獻標識碼:A? DOI:10.19907/j.0490-6756.2023.053003
收稿日期: ?2022-11-21
基金項目: ?國家重大專項(GJXM92579)
作者簡介: ??蔡梓豪(1998-), 男, 黑龍江大慶人, 碩士研究生,主要研究領域為深度學習. E-mail: 907575778@qq.com
通訊作者: ?姜屹. E-mail: yijiang@mail.ustc.edu.cn
A ?mesh quality evaluation method based on convolutional attention network
CAI Zi-Hao ?1,2 , JIANG Yi ?3 , ZHANG Lai-Ping ?4 , DENG Xiao-Gang ?3
(1.National Key Laboratory of Fundamental Science on Synthetic Vision, Sichuan University, Chengdu 610064, China; ??2.Tianfu Engineering-oriented Numerical Simulation & Software Innovation Center, Sichuan University, Chengdu 610064, China; ??3.Institute of Systems Engineering, Academy of Military Sciences, Beijing 100082, China; ?4.Institute of Defense Science and Technology Innovation, Academy of Military Sciences, Beijing 100071, China)
The introduction of deep convolutional neural network into the mesh quality evaluation problem is expected to replace the engineers in completing the complicated mesh quality evaluations, therby saving the labor cost of computational fluid dynamics numerical simulation. However, the accuracy and efficiency of the existing methods still need improvement. Therefore, a mesh quality evaluation method based on convolutional attention network is proposed in this paper. Firstly, a method of embedding channel attention into the lightweight convolutional neural network model is proposed to improve both accuracy and efficiency. Secondly, a neural network model called CANet is designed for mesh quality evaluation. Finally, Z-Score standardization is used to preprocess the data and solve the problem of inconsistent input data distribution, further improving the accuracy. Experimental results show that, compared with the existing methods, CANet can achieve a better accuracy of 97.06%, and improves the efficiency by at least 34.9%.
Convolutional neural network; Attention mechanism; Mesh quality evaluation; Computational fluid dynamics; Numerical simulation
1 引 言
網格質量一直是影響計算流體力學數值模擬的重要因素之一 ?[1] .質量較差的網格將降低數值模擬求解的精度 ?[2] ,甚至導致結果不收斂 ?[3] .研究表明,即使一套網格中只存在極少部分的網格單元質量較差,這些低質量網格單元也會對數值模擬的結果產生嚴重影響 ?[4,5] .事實上,即使是十分先進的網格生成工具,也很難保證生成網格的質量能夠完全達到數值求解的要求 ?[6] .為了獲得更可靠的數值模擬結果,在數值模擬求解前執行網格質量評價是十分必要的 ?[7] .
傳統網格質量評價方法往往依賴于網格單元的幾何形狀參數.例如較早的時候,有研究者提出通過網格單元的面積與邊長來計算網格單元的質量 ?[8] .隨著研究的不斷深入,大型CAE軟件提出更為復雜的評價指標來評價網格的質量 ?[9,10] ,例如網格單元的長細比、最大內角、扭曲度、翹曲度、雅可比比率、正交質量系數等.通過對這些指標進行加權計算,工程師們可以獲得網格中每個網格單元的網格質量及分布.
然而,這些方法僅僅關注于每個網格單元的幾何形狀,卻難以評價網格的整體質量,比如網格光滑性差或分布不合理等.實際中,仍然需要由經驗豐富的網格質量工程師通過這些質量評價指標的反饋對網格整體質量進行綜合評判,并制定相應的網格優化策略.
深度神經網絡有望從網格質量評價工作大量的數據中學習到網格質量評價工作的潛在規律,從而代替人工網格質量評價環節,節省網格質量評價工作的人力成本.參考傳統網格質量評價方法和深度學習圖像分類問題,Chen等人 ?[11] 提出基于卷積神經網絡的網格質量評價方法,并設計了一個基于VGG-19 ?[12] 模型的卷積神經網絡模型GridNet用于評價二維翼型結構網格的質量.該方法將網格中的每一個網格單元的最大內角、水平長度和豎直長度按網格計算域封裝成三維張量矩陣輸入卷積神經網絡模型,通過卷積神經網絡模型進行網格質量的分類.盡管此方法能夠在一定程度替代網格質量工程師對網格的整體質量進行評價,但其準確率和效率還有待提升.
為了提高模型準確率,Xu等人 ?[13] 設計了一個基于殘差網絡 ?[14] (ResNet-50)模型的卷積神經網絡模型MeshNet用于網格質量評價任務.盡管相較于VGG-19模型,深度殘差網絡能夠提升模型的數據擬合能力,但實驗結果表明,該方法對準確率的提升效果比較局限,而且更深的網絡模型大幅降低了效率.
為了提高模型效率,Chen等人 ?[15] 提出了一個基于深度可分離卷積 ?[16] 的網絡模型MQNet用于網格質量的檢測.然而實驗結果表明,深度可分離卷積在GPU上的表現并沒有理想情況那么優越.盡管深度可分離卷積通過將傳統卷積過程分解,減小了計算量,但這也相當于增加了計算次數,導致其在GPU上的計算效率不佳.
卷積神經網絡模型的復雜度普遍與數據擬合效果成正比,與效率成反比 ?[12,14,16] .現有工作表明,使用輕量級卷積神經網絡會導致準確率不足,而增加卷積神經網絡模型復雜度對準確率的提升效果比較局限,而且會導致效率的大幅下降.
引入注意力機制是平衡準確率與效率的一種有效方法.2014年,注意力機制 ?[17] 被提出并很快被應用于計算機視覺領域 ?[18,19] .研究證明,注意力機制能夠結合卷積神經網絡使用,以較小的計算代價有效提升卷積神經網絡模型的準確率 ?[20-24] .通道注意力能夠通過建模各個特征通道的重要程度,并且根據任務需求增強或者抑制各個特征通道的信息表達,從而提升模型的數據擬合效果 ?[25-28] .此外,通道注意力是眾多注意力機制中計算代價較小的一種,更加適合于在現有工作的基礎上提升效率.因此,在輕量級卷積神經網絡模型上嵌入通道注意力,利用通道注意力來彌補卷積神經網絡數據擬合能力的不足將是同時提高精度和效率的可行方法.
另外值得注意的問題是,現有方法使用的輸入數據中,最大內角與水平長度、豎直長度的分布不一致,這會不利于神經網絡模型的數據擬合.因此,需要使用數據標準化對其進行預處理,約束其數據分布.
為此,本文提出了一種基于卷積注意力的網格質量評價方法.本文的主要貢獻如下:(1) 提出在輕量級卷積神經網絡模型上嵌入通道注意力的方法以同時提高精度和效率的同時,利用通道注意力對卷積神經網絡擬合能力的增強來彌補輕量級卷積神經網絡擬合能力欠佳的問題;(2) 設計了一種卷積注意力網絡模型CANet用于網格質量評價任務,通過該模型驗證了所提出方法的有效性,并比較了ECA與經典的Squeeze-and-Excitation ??[23] 兩種通道注意力對準確率提升的效果;(3) 使用Z-Score對輸入數據進行預處理,解決輸入數據不一致的問題,以進一步提高準確率.
2 相關工作
2.1 殘差網絡
殘差網絡是最成熟、應用最廣泛的卷積神經網絡模型之一.憑借獨特的殘差連接結構,殘差網絡的數據擬合能力優于大多數卷積神經網絡模型.實驗結果表明,即使是層數較少的輕量級殘差網絡,也有很好的數據擬合能力 ?[14] .殘差連接結構將原始輸入與卷積后的輸出相加作為最終輸出,從而防止了梯度消失和退化問題,獲得了較強的數據擬合能力.殘差模塊第 L+1 層輸出 x ?L+1 ?和第 L 層輸出 x ?L+1 ?的關系如式(1)所示.
x ?L+1 =x L+f(W ?L+1 x L+b ?L+1 ) ?(1)
其中, W ?L+1 ?表示第 L+1 層卷積層的權重矩陣; b ?L+1 ?層表示第 L+1 層卷積層的bias值; f 為激活函數.
殘差網絡有很多衍生的網絡模型如ResNet-18、ResNet-34、ResNet-50,ResNet-121等.模型名稱中的數字代表了模型中卷積層的個數,數字越大則代表模型復雜度越高、計算量越大.
2.2 通道注意力
Squeeze-and-Excitation(SE)是通道注意力中最具代表性的工作.SE通過Squeeze和Excitation兩個操作實現對通道信息表達能力的控制.Squeeze利用全局平均池化 ?[29] 將特征壓縮,實現全局上下文信息的融合,如式(2)所示.
g=GAP( Feature )= 1 H×W ∑ H ?i=1 ?∑ W ?j=1 ?u(i,j) ?(2)
其中,Feature表示輸入特征; u(i,j) 表示特征矩陣的值; H 和 W 分別表示特征矩陣的高和寬.Excitation則類似于循環神經網絡中門的機制,通過全連接層來為每個特征通道生成權重.
高效通道注意力(Efficient Channel Attention,ECA)是對SE的改進,與SE相同,ECA同樣利用全局平均池化對特征進行壓縮,融合全局上下文信息.而在Excitation部分,ECA將原本SE模塊中的兩個全連接層替換為一個自適應卷積核的一維卷積層,從而獲得了比SE更好的性能,一維卷積層的卷積核大小 k 根據輸入特征的通道數 C 自適應,其計算方法如式(3)所示.
k=ψ(C)= ????log ??2(C) γ + b γ ?????odd ?(3)
其中, γ 和 b 為常數( γ =2, b =1); odd表示離結果最近的奇數(向上取).
3 本文方法及模型
本文提出了一種基于卷積注意力網絡方法,即在輕量級卷積神經網絡上嵌入通道注意力模塊以同時提升準確率和效率.基于這一思想,本文設計了一個卷積注意力網絡模型CANet用于網格質量評價,并通過Z-Score數據標準化解決了輸入數據分布不一致問題.本節將詳細介紹CANet模型的輸入輸出、模型結構、損失函數及Z-Score數據預處理方法.
3.1 模型輸入輸出
類比于深度學習圖像分類問題,CANet的輸入 X 為網格中網格單元的最大內角、水平長度和豎直長度構成的三維張量矩陣,如式(4)所示.
X=(M,H,V) ?(4)
其中, M 為最大內角矩陣; H 為水平長度矩陣; V 為豎直長度矩陣.矩陣的行號、列號確定了網格單元在其計算域中的位置(二維問題中,網格的計算域為一個抽象的矩形平面,網格在計算域的各個方向上分別完全等間距),例如: M ?ij ?元素的值即網格計算域中的第 i 行、第 j 列網格單元的最大內角值.網格單元的最大內角、水平長度和豎直長度的實際含義如圖1所示.
CANet模型的輸出為模型預測出的該套網格所屬的質量類別(獨熱碼向量),如高質量網格、正交性差等(具體類別見4.1節).
3.2 網絡模型結構
ResNet-18模型相較于VGG-19模型有更高的計算效率,因此CANet模型基于ResNet-18模型設計,在其中嵌入了ECA,其整體結構如圖2.
其中,RB表示殘差模塊.CANet中包含兩種殘差模塊,即輸入通道數與輸出通道數相同的同維殘差模塊(RB1、RB2、RB4、RB6、RB8)和輸入通道數與輸出通道數不同的異維殘差模塊(RB3、RB5、RB7),兩種殘差模塊如圖3所示.
其中,3×3 conv表示卷積核大小為3×3的卷積; 1×1 conv 同理.conv后的數字表示卷積輸出的通道數./2表示卷積的步長為2,沒有標注的則表示卷積步長為1.Batch Normalization(BN) ?[30] 為批歸一化,用于對卷積輸出進行歸一化處理,從而防止梯度消失.CANet中的殘差模塊輸入 x 與輸出 O(x) 之間的關系為
O(x)=f(x+BN(W 2f(BN(W 1x+b 1))+b 2)) ?(5)
其中, W ??1 、 W ??2 分別表示第1個和第2個卷積層的權重; b ?1 ?, b ?2 ?分別表示第1個和第2個卷積層的bias值.BN為批歸一化,其公式為
x ?^ = x-E(x) ?Var(x) ???(6)
式(5)中的 f 表示ReLU激活函數,其輸入 x 與輸出 R(x) 之間的關系為
R(x)= 0, (x<0) x, (x>0) ??(7)
為了防止過擬合,CANet只在RB2、RB4、RB6和RB8中嵌入了ECA模塊,嵌入的位置如圖4所示.
CANet中的ECA模塊由全局平均池化層、一維卷積層和Sigmoid函數實現,其具體結構如圖5所示.
GAP表示全局平均池化,用于壓縮輸入通道特征,壓縮后的特征輸入一維卷積層,經過激活函數Sigmoid后,與原始輸入相乘,得到最終輸出Feature′,如式(8)所示.
Feature′=Feature× σ(Wg+b) ?(8)
其中, W 為一維卷積的權重; b 為bias值; σ 表示Sigmoid激活函數其輸入 x 與輸出 σ(x) 如式(9)所示.
σ(x)= 1 1+e ?-x ???(9)
Maxpool和Avgpool分別表示最大池化和平均池化. 為了防止過擬合,我們在全連接層之后放置了一個dropout層.此外,CANet參考了GridNet和MeshNet模型結構,在模型的尾部加入了一個相同的全局池化結構用于更好地預測模型結果,如圖2的reduce mean,1×1 conv 8和squeeze.最后由softmax函數用于將模型的輸出轉化為概率分布,得到網格所屬的質量類別結果,其公式為
P(z ?i)= e ??z ?i ?∑ ?C ?c=1 e ??z ?c ???(10)
其中, z ?i ?為第 i 個節點的輸出值; C 為輸出節點的個數,即分類的類別數(本文為8類).
3.3 損失函數
本文使用的損失函數為交叉熵 ?[31] .交叉熵常被用于深度學習分類問題中,其定義為
cross_entropy =-∑ i P(i) ?log ??2G(i) ?(11)
其中, P(i) 表示模型預測結果向量的值; G(i) 則為真實標簽向量的值,交叉熵損失函數可以衡量預測結果與真實標簽之間的相似性,隨著預測越來越準確,交叉熵的值越來越小.此外,本文在損失函數中加入 L ??2 正則化項以防止過擬合,如式(12)所示.
Loss=cross_entropy +λ∑ ‖w‖ ?2 ?(12)
3.4 數據標準化預處理
由于最大內角的數據值分布在0~180之間,這與水平長度和豎直長度的數據分布不一致,不利于卷積神經網絡模型對數據的擬合.為此,本文使用Z-Score標準化對輸入數據進行標準化.Z-Score標準化是常用的數據標準化方法之一,能夠將原本近似于正態分布的原始數據分布約束到標準正態分布,從而消除最大內角與水平長度、豎直長度的值分布差異,進一步提高模型的準確率如下式.
X M= M-M * S M ??(13)
X H= H-H * S H ??(14)
X V= V-V * S V ??(15)
其中, X ?M ?、 X ?H ?、 X ?V ?分別表示Z-Score標準化后的最大內角、水平長度、豎直長度矩陣; M 、 H 、 V 分別表示原始數據的最大內角、水平長度、豎直長度矩陣; M ?* ?、 H ?* ?、 V ?* ?表示數據的平均值; S ?M ?、 S ?H ?、 S ?V ?表示數據的方差.
4 實驗結果與分析
4.1 網格數據集
本文使用的數據集為開源數據集NACA-Market ?[11] .數據集中包含了10 240套二維NACA0012翼型生成的多塊結構網格數據,包括網格中每個網格單元的質量評價指標以及網格所屬的質量類別標簽.網格拓撲和翼型附近的網格如圖6和圖7所示.
網格按實際所包含的網格單元的數量,被分為10種不同大小的網格尺寸,這與結構網格塊上節點數的設置有關. 每種網格尺寸的數量及其所包含的網格單元數如表1所示.
Zhang等人 ?[32] 提出了對網格整體質量的三個基本要求,即光滑性、正交性和分布合理性.這種網格評價標準更傾向于網格整體質量,有利于指導接下來的網格優化.例如針對正交性較差的網格可以采用拓撲變換的優化策略,針對光滑性較差的網格可以使用局部變換策略等.
數據集中的網格質量類別標簽參考了這些基本要求,將網格質量分為8類:高質量網格、正交性差、光滑性差、分布不合理、正交性差且光滑性差、正交性差且分布不合理、光滑性差且分布不合理、低質量網格(三項指標均不合格).每種質量類別包含的網格數量如表2所示.表2中質量類別所代表的實際含義如圖8所示.
4.2 實驗環境與模型參數設置
本文全部實驗所用的顯卡為NVIDIA A100,使用的深度學習框架是Tensorflow ?[33] .此外,本文全部實驗使用數據集中每種尺寸網格的前75%作為訓練集,后25%作為測試集,即訓練集數量為 7 680 ,測試集數量為2 560.
模型參數方面,dropout率設置為0.5,batch size設置為16,學習率隨epoch增加而階梯式降低,其策略如下:
epoch∈(0,20],學習率為0.001;
epoch∈(20,30],學習率為0.0001;
epoch∈(30,50],學習率為0.000 01;
epoch∈(50,100],學習率為0.000 001.
優化器使用Nesterov Accelerated Gradient (NAG) ?[34] ,momentum設置為0.9.為了更好地對比實驗結果,CANet模型同樣訓練100個epoch,這與現有模型相同.訓練過程中,loss和測試準確率隨epoch數增加的變化如圖9所示.
4.3 評價指標
準確率是深度學習常用的模型評價指標,其定義為所有預測正確(預測結果與真實標簽相同)的樣本數,占所有參與預測的樣本總數的比例,即:
準確率= 正確預測樣本數 參與預測樣本總數 ??(16)
我們分別計算模型在10種尺寸的網格測試集上的準確率并計算這些準確率的平均值作為每個epoch準確率的結果,并選擇100個epoch中最優的測試集準確率結果作為模型的最終準確率結果.
效率方面,本文使用模型訓練一個epoch的時間來衡量模型的效率.為了保證結果的有效性,所有模型運行在相同的硬件環境上.
4.4 注意力模塊對準確率的影響
為了探究注意力模塊對準確率的影響,我們搭建了一個經典的ResNet-18模型,并在模型后加入相同的全局池化結構用于消融實驗.除此之外,我們搭建了一個基于ResNet-18+SE的模型用于比較ECA和SE兩種注意力在提升準確率方面的性能.該模型將CANet模型中的所有ECA模塊替換為SE模塊.三個模型均在輸入原始數據的情況下訓練100個epoch,準確率對比的結果如圖10所示.
從實驗結果可以看出,嵌入了注意力模塊的兩個模型準確率高于未嵌入注意力模塊的ResNet-18模型.這說明引入注意力機制的確能夠有效提升模型的準確率,證明了本文提出方法的有效性.此外,實驗結果顯示,相較于嵌入了SE模塊的網絡模型,嵌入了ECA的CANet模型對準確率的提升效果更好.這說明ECA較SE對卷積神經網絡模型數據擬合能力的提升更強.
4.5 注意力模塊對準確率的影響
為了探究Z-Score數據標準化對準確率的影響,我們設計了一項消融實驗,即Z-Socre標準化后數據和原始數據訓練出的模型的準確率結果,比較的結果如圖11所示.
通過實驗結果可以看出,Z-Score標準化后的數據得到的準確率得到了進一步提升,這說明經過Z-Score標準化后,數據分布不一致的問題得到了有效的解決,準確率得到了進一步的提升.
4.6 本文模型與現有方法準確率的比較
為了與現有方法的準確率進行比較,我們參照相應文獻復現了GridNet ?[11] 、MeshNet ?[13] 以及MQNet ?[15] 模型并在相同數據集上比較了與CANet模型的準確率結果,模型參數參照相應文獻設置.此外,所有模型均使用Z-Score標準化對輸入數據進行了預處理,以消除數據預處理對模型結果的影響.所有模型使用相同的評價指標(見4.3節),比較的結果如圖12所示.
從實驗結果可以看出,CANet較現有模型在準確率上有著較明顯的提升,具體來說,較GridNet模型提升了2.93%,這主要得益于ResNet-18模型較VGG-19模型更為出色的數據擬合能力和ECA對模型數據擬合能力的進一步提升;較MeshNet模型提升了2.61%,這說明在卷積神經模型上嵌入注意力機制比增加網絡模型深度更有助于提升模型的數據擬合能力;較MQNet模型提升了4.09%,這主要是因為MQNet模型大量使用深度可分離卷積,為了減少模型計算參數,追求CPU上的計算效率提升,而犧牲了部分準確率.
4.7 本文模型與現有方法效率的比較
為了與現有方法的效率進行比較,我們統計了CANet模型和現有方法模型訓練一個epoch所需要的時間,為了得到更有說服力的結果,這些模型運行在相同的硬件條件下,此外,為了消除batch size對訓練時間的影響,所有模型的batch size設置為16,對比的結果如表3所示.
經過比較,CANet模型較GridNet模型每輪訓練快37 s,效率約提升34.9%,這主要是因為GridNet模型中包含更多的512通道的卷積層以及隱藏神經元更多的全連接層(1個4096個神經元的全連接層和1個1024個隱藏神經元的全連接層),導致計算代價大于CANet模型.此外,CANet模型較MeshNet每輪訓練快142 s,效率提升約67.3%,這是因為雖然加入了高效通道注意力模塊,但CANet模型的計算量和模型深度仍小于MeshNet模型.最后,CANet模型較MQNet每輪訓練快50 s,效率提升約42%,這主要是因為深度可分離卷積在GPU上的表現不佳.
最后,為了印證上述分析,我們計算了CANet模型和現有方法模型的參數量,各模型參數量的計算的結果如表4所示.
從各模型參數量計算的結果,結合各模型訓練時間可以看出,CANet模型的參數量明顯小于GridNet和MeshNet,這說明CANet模型相較GridNet和MeshNet效率的提升的確得益于模型計算復雜度的減小,同時說明模型參數量在一定程度上決定了模型效率.而MeshNet與GridNet模型計算量相近,但訓練時間上卻相差較大,這說明網絡深度同樣在一定程度上決定了模型效率.而CANet模型的參數量大于MQNet模型,但CANet模型在GPU上的訓練時間明顯更小,說明CANet模型相較MQNet的提升的確是因為深度可分離卷積在GPU上因分解卷積過程而導致了性能欠佳.
5 結 論
本文提出了一種基于卷積注意力網絡的網格質量評價方法.首先,提出在輕量級的卷積神經網絡模型中加入注意力機制的方法以同時提升準確率和效率.此外,設計了一種神經網絡模型用于網格質量評價任務.最后,使用Z-Score數據標準化消除了輸入數據分布的差異,進一步提升了準確率.實驗結果證明了本文方法和模型在網格質量評價任務中的有效性并較現有方法在準確率和效率方面有著明顯的優勢.此外,ECA對模型準確率的提升效果優于SE注意力.
盡管基于卷積注意力網絡的網格質量評價方法已經達到了較好的準確率和效率,但仍需解決模型泛化性和端到端問題,這也是我們接下來的研究方向.此外,我們將進一步將該方法推廣應用與三維結構網格和非結構網格的質量評價,并在質量評價的基礎上,針對每一類質量較差的網格采用適當的優化方法對整體網格質量進行優化.
參考文獻:
[1] ??Zint D, Grosso R. Discrete mesh optimization on GPU[C]//International Meshing Roundtable. Cham: Springer, 2018.
[2] ?Naderi M H, Eivazi H, Esfahanian V. New method for dynamic mode decomposition of flows over moving structures based on machine learning (hybrid dynamic mode decomposition)[J]. Phys Fluids, 2019, 31: 127102.
[3] ?Tingfan W U, Xuejun L I U, Wei A N, ?et al . A mesh optimization method using machine learning technique and variational mesh adaptation [J]. Chinese J Aeronaut, 2022, 35: 27.
[4] ?Katz A, Sankaran V. Mesh quality effects on the accuracy of CFD solutions on unstructured meshes[J]. J Comput Phys, 2011, 230: 7670.
[5] ?Sarrate J, ?Palau J, Huerta A. Numerical representation of the quality measures of triangles and triangular meshes [J]. Commun Numer Meth En, 2003, ??19: 551.
[6] ?Gammon M. A review of common geometry issues affecting mesh generation[C]//2018 AIAA Aerospace Sciences Meeting. Florida: AIAA, 2018: ??1402.
[7] ?Delgado-Gutiérrez A, Cárdenas D, Probst O. An efficient and automated method to generate complex blade geometries for numerical analysis [J]. Adv Eng Softw, 2019, 127: 38.
[8] ?李笑牛, 袁克杰. 一種三角形表面網格質量綜合度量方法[J]. 大連民族學院學報, 2005, 7: 36
[9] ?Gaikwad S, Arora K, Korivi V, ?et al . Steady and transient CFD approach for port optimization [J]. SAE Int ?J ?Mater ?Manuf, 2009, 1: 754.
[10] ?Lam X B, Kim Y S, Hoang A D, ?et al . Coupled aerostructural design optimization using the kriging model and integrated multiobjective optimization algorithm[J]. J Optimiz Theory App, 2009, 142: 533.
[11] Chen X, Liu J, Pang Y, ?et al . Developing a new mesh quality evaluation method based on convolutional neural network [J]. Eng Appl Comp Fluid, 2020, 14: 391.
[12] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[C]//Proceedings of the International Conference on Learning Representations (ICLR). San Diego: ICLRF, 2015: 1.
[13] Xu Z, Chen X, Chi L, ?et al . A mesh quality discrimination method based on convolutional neural network [C]//Proceedings of the 2020 IEEE International Conference on Artificial Intelligence and Computer Applications (ICAICA). Dalian, China: IEEE, 2020.
[14] He K, Zhang X, Ren S, ?et al . Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016.
[15] Chen X, Gong C, Liu J, ?et al . A novel neural network approach for airfoil mesh quality evaluation[J]. J Parallel Distr Com, 2022, 164: 123.
[16] Zhang Y, Tian Y, Kong Y, ?et al . Residual dense network for image super-resolution [C]//Proceedings of the Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2018.
[17] Howard A G, Zhu M L, Chen B, ?et al . Mobilenets: efficient convolutional neural networks for mobile vision applications[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu: IEEE, 2017: 1310.
[18] Guo M H, Xu T X, Liu J J, ?et al . Attention mechanisms in computer vision: a survey [J]. CVM, 2022, 8: 331.
[19] Han K, Wang Y, Chen H, ?et al . A survey on vision transformer [J]. IEEE T Pattern Anal, 2022, 45: 87.
[20] Wang Q, Wu B, Zhu P, ?et al . ECA-net: efficient channel attention for deep convolutional neural networks [C]//Proceedings of the ?2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle: IEEE, 2020.
[21] Hu J, Shen L, Sun G. Squeeze-and-excitation networks ?[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018.
[22] Vaswani A, Shazeer N, Parmar N, ?et al . Attention is all you need [C]//Neural Information Processing Systems. Long Beach, California, USA: CPS, 2017: 6000.
[23] Woo S, Park J, Lee J Y, ?et al . Cbam: Convolutional block attention module [C]//Proceedings of the European conference on computer vision (ECCV). Munich, Germany: Springer, 2018.
[24] Fu J, Liu J, Tian H, ?et al . Dual attention network for scene segmentation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019.
[25] 張攀, 李曉華, 周激流. 一種基于注意力嵌入對抗網絡的全色銳化方法[J]. 四川大學學報:自然科學版, 2023, 60: 012001.
[26] 胡向東,張婷.基于時空融合深度學習的工業互聯網異常流量檢測方法[J].重慶郵電大學學報:自然科學版, 2022, 34: 1056.
[27] 王進,徐巍,丁一,等. 基于圖嵌入和區域注意力的多標簽文本分類[J].江蘇大學學報:自然科學版, 2022, 43: 310.
[28] 朱海琦,李宏,李定文,等. 基于生成對抗網絡的單圖像超分辨率重建[J]. 吉林大學學報: 理學版, 2021, 59: 1491.
[29] Lin M, Chen Q, Yan S. Network in network [EB/OL]. (2014-03-04)[2022-11-21]. https://arxiv.org/pdf/1312.4400.pdf.
[30] Ioffe S, Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]//Proceedings of the ?International Conference on Machine learning. Lille: PMLR, ??2015.
[31] Rubinstein R Y, Kroese D P. The cross-entropy method: a unified approach to combinatorial optimization, monte-carlo simulation, and machine learning [M]. New York: Springer, 2004.
[32] 張來平, 赫新, 常興華, 等. 復雜外形靜動態混合網格生成技術研究新進展[J]. 氣體物理, 2016, 1: 42.
[33] Abadi M, Agarwal A, Barham P, ?et al . Tensorflow: Large-scale machine learning on heterogeneous distributed systems[EB/OL]. [2022-11-21].https://doi.org/10.48550/arXiv.1603.04467.
[34] Nesterov Y E. A method of solving a convex programming problem with convergence rate O(1/k 2)[J]. Dokl ?Akad ?Nauk, 1983, 269: 543.