999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于結構多維特征構建圖卷積神經網絡的結構損傷識別方法

2025-09-28 00:00:00楊建輝趙清瑄蒲脯林
湖南大學學報·自然科學版 2025年8期

中圖分類號:TP391 文獻標志碼:A

Abstract:The effct of data-driven deep learning structural damage identification (SDI) is greatly affcted by factors such as structural complexity,model construction method and data size,etc. We introduce graph convolutional neural network(GCN)to integrate the attribute featuresbetween structural nodes,explore the complex atribute relationships between nodes from a graph perspective,and provide multi-dimensional learning informationfor SDI.To thisend,agraph convolutional neural network integrating multi-dimensional featuresof structure (S-GCN)model was designed,which integrates multidimensional structuralfeatures.Basedon structural vibration data,a damage feature matrix was constructed,and through a derived graph network,the connection relationship between nodesand edges in the graph was represented.An edge index matrix was constructed,and multidimensional feature information such as structural damage status,vibrationdata,and node atributes was input into GCN for structural damage feature extractionand identification.The application effect of GCN in damage identificationdrivenbymultidimensional structuralfeatureinformationwasexplored.Thefeasibilityand efctivenessof two steel structure verification methodswere verified,and the results showed that S-GCN can integrate multi-dimensional structural feature information,achievehigh damage identificationaccuracyfor both structural objects,and demonstrate good noise robustness.Further comparative analysis shows that S-GCN can efciently update nodefeatures and predict node damage status based on inter-node relationships compared with the three non-GCN models.Its damage recognition accuracy,computational eficiency,and network layer evolution processareall better than thecomparative models,verifying the effectiveness of integrating structural spatial features in structural damage recognition.

Key words:structural damage identification;graph convolutional neural network;structural multidimensional feature fusion;noise robustness, training efficiency

橋梁、場館等工程結構在服役過程中常受到多種外部載荷的影響而發生結構損壞,由裂縫、剝落或構件損壞引起結構局部剛度降低,影響結構使用壽命,甚至危及人民健康財產安全.為了有效預測結構服役狀態并進行及時維護,結構損傷識別(structuraldamageidentification,SDI變得日益重要.在眾多SDI方法中,傳統的依賴視覺及經驗的損傷識別方法存在效率低、周期長、受人為影響較大等弊端[1-3],基于振動信號的損傷識別方法可通過結構動力方程、數學推理或損傷特征挖掘等機制預測結構的損傷狀態,是智能結構健康監測領域的重要手段之一[4-7].

近年來,使用深度學習方法進行結構損傷識別是結構健康監測領域的一個新興研究方向[8-10],其基本思路主要是直接或間接利用結構振動數據訓練深度學習模型,使網絡模型能夠從監測數據中學習結構狀態并進行損傷識別.卷積神經網絡(convolutionalneuralnetworks,CNN)作為一種經典深度學習模型,在SDI領域的應用取得了許多成果,如駱勇鵬等[\"提出了一種基于一維卷積神經網絡的結構損傷識別方法,采用數值模型進行驗證,可以直接從原始振動信號中自主學習損傷特征,并準確、快速地識別結構的損傷位置和損傷程度.Yang等2]設計了一個三維信號處理卷積神經網絡(3DS-CNN),即使在振動信號受到嚴重噪聲污染的情況下,也能得到較為理想的SDI結果.Truong等[13]提出了一種新的深度學習框架,使用自動編碼器-卷積門控遞歸單元處理帶有噪聲的振動數據并進行SDI分析.諸如此類的研究成果取得了顯著進展,但仍具有一定局限性,如數據集規模與模型訓練效率之間存在矛盾,未考慮結構節點間可能存在的潛在關聯關系等,這些潛在問題可能影響數據驅動的SDI效果及工程化應用.

綜合考慮已有深度學習SDI方法的優勢及尚存問題,有學者引人圖神經網絡(graphneuralnetwork,GNN)和圖卷積神經網絡(graphconvolutionalneuralnetwork,GCN)進行結構損傷識別[14.GCN是一種用于處理圖結構數據的深度學習模型,與CNN專注于處理網格結構的數據(如圖像)不同,GCN可以有效地處理非結構化數據,例如社交網絡、蛋白質相互作用網絡和分子結構等[15].Dang等[16]將GCN引入結構損傷識別,構建一種以GCN為基礎的SDI框架,直接對振動數據處理并進行損傷識別,但未考慮結構節點特征屬性及數據在噪聲影響下的SDI效果.

本文基于深度學習SDI的已有成果,考慮結構對象的節點屬性特征及GCN優勢,提出了一種融合多維結構特征的圖卷積神經網絡模型(S-GCN),通過處理不規則結構數據及結構節點對應的振動數據,力爭捕捉結構節點的復雜關系屬性及其損傷特征,從結構節點屬性特征及振動數據兩個維度實現結構的損傷分類識別.

1SDI問題描述及S-GCN構建

1.1SDI問題描述

SDI旨在通過分析結構的振動數據等信息,利用信號處理、動力分析或深度學習等手段推斷結構的損傷狀態,從而實現結構的健康監測和維護[17-22].

當結構出現不同程度的損傷時,結構的固有特性隨之發生變化,表現出不同的動力行為,進而導致不同的響應數據特性.將結構A在不同損傷下的響應表示為 RA ,對應的結構動力特性映射表示為F(?) ,其關系可用式(1)來描述:

RA=F(A)

基于振動數據的SDI問題,目的是利用響應數據 RA 反演結構的損傷狀態 DA ,這是一個典型的反問

題,可以用式(2)來描述:

DA=L(RA

其中方程 L(?) 表示逆問題映射模型,其被擬合得越精確,越能從響應數據更好地評估結構損傷狀態.當前主流的研究手段有基于模型和數據驅動的映射模型擬合方法,其中以數據為驅動的SDI方法多以CNN及其拓展框架來擬合 L(?) ,但是,該類框架僅依賴大量的結構振動數據,未考慮結構節點之間的特征屬性及其可能存在的潛在關系.本文嘗試引入GCN模型構建一種融合結構多維特征的圖卷積神經網絡模型(S-GCN)來擬合方程 L(?) ,以期在挖掘結構損傷信號特征的同時并行考慮結構的節點屬性關系,從結構振動特性及自身節點屬性兩個維度實現結構的損傷預測識別.綜合上述分析,以數據為驅動的SDI問題可描述為圖1.

圖1SDI問題描述

Fig.1 SDI description

1.2S-GCN的構建

GCN是一種用于處理圖結構數據的深度學習模型,可以有效地對圖數據進行特征學習和預測.本文構建一種S-GCN模型,通過將結構節點信息及振動數據以圖結構數據的方式輸入到GCN中,以更好地捕捉結構節點屬性關系及節點損傷特征兩個維度的特征信息.

1.2.1輸入層

S-GCN模型的輸人層包含節點狀態特征數據和表征結構節點關系的邊索引矩陣.節點狀態特征數據主要由節點處于某一損傷(含健康)狀態下的一維振動信號組成;邊索引矩陣主要通過結構節點間的屬性關系表示.如果將某結構視為一個圖,圖的“節點”表示結構的不同部件,“邊”表示這些部件之間的連接關系,即它們之間的關系屬性,據此可構造鄰接矩陣.某結構節點示意圖及其鄰接矩陣如圖2所示.

1.2.2特征提取層

特征提取層是圖卷積神經網絡的核心組成部分,它通過接收輸人層的一維振動信號和鄰接矩陣,并對輸入的特征矩陣和邊索引矩陣進行卷積操作來提取結構的損傷特征,進一步通過ReLU(rectifiedlinearunit)激活函數對卷積層的輸出進行處理.本文所設計的S-GCN模型特征提取層主要由兩層圖卷積、ReLU和全連接層組成.

圖2鄰接圖與鄰接矩陣示例

① 圖卷積.在S-GCN中,將特征矩陣和邊索引矩陣作為輸入后執行圖卷積操作,從而對結構的每個節點特征進行信息聚合和信息匯總.假設圖結構表示為 G=(V,E) ,其中 V 是節點集合, E 是邊集合,對于每個節點 vi, ,其初始特征表示為 x0i ,圖卷積中的特征聚合和特征更新過程為:

a.特征聚合:每個節點聚合其相鄰節點的信息,并將聚合后的信息與自身的特征信息進行組合,完成信息傳遞,其數學表達式為:

m(ij)=M(xil,xjl,eij

式中: M 是信息聚合函數,通常是一個可學習的函數; m(ij) 表示節點 vi 向節點 vj 傳遞的消息; xil 和 xjl 分別是節點 vi 和 vj 在第 l 層的特征表示; eij 是節點 vi 和節點 vj 的邊的聯系.

b.特征更新:每個節點匯總其收到的相鄰節點信息以更新自身的特征信息,其數學表達式為:

式中: U 是信息更新函數,通常也是一個可學習的函數: {m(ki)}k∈N(i) 表示節點 vi 收到的來自鄰居節點的信息集合; N(i) 表示節點 vi 的鄰居節點集合.經過系列信息更新操作,每個節點可以逐步更新其特征信息,從而學習到圖中其他節點所反映的結構對象在空間及屬性上的多維復雜特征,以推斷自身節點狀態.特征聚合和更新操作如圖3所示.

圖3特征聚合和更新操作

Fig.3 Feature aggregation and update operations

通過圖卷積層的特征聚合對相鄰節點信息進行聚合,并匯總收到的信息以更新節點特征,使得S-GCN模型能夠更好地理解結構中的空間節點特征及損傷信息,進而從結構振動數據和節點關系中提取出與損傷相關的關鍵特征,實現結構損傷的分類及識別.

② ReLU激活函數.激活函數可對圖卷積操作后的節點特征進行非線性變換,是S-GCN架構實現結構損傷特征提取的重要組成部分.本文選取一種常用的ReLU激活函數完成該關鍵特征處理,其數學表

達式為:

f(a)=max(0,a)

其中 Ψa 是經過一層圖卷積后更新得到的特征圖.

③ 全連接層.全連接層位于最后一個圖卷積層之后,其主要特點是層中的每個神經元與前一層的所有神經元完全連接,通過學習權重將高維的圖特征映射成最終的結構損傷預測結果,其數學表達式為:

D=w?g+k

式中: D 代表損傷類別的輸出; 代表權重矩陣; g 代表輸入;k代表偏置向量.

1.2.3損失函數

交叉熵損失函數是用于多分類任務的一種常用損失函數,能夠縮小模型預測結果與真實結果之間的差異,并通過最小化損失函數來優化學習模型,其數學表達式為:

式中: b?c 分別代表了損傷分類數和信號的個數; wj 為第 j 個損傷標簽的權重; p(xij?q(xij) 分別為損傷類別的第 i 個樣本數據的預測值和真實值.

經過S-GCN模型的特征提取層操作,逐步實現對輸人數據的節點特征關系挖掘及振動數據損傷特征信息提取,實現節點損傷分類,最終輸出結構損傷預測結果.上述過程從節點屬性關系及振動數據兩個維度實現結構損傷的快速分類及識別,以期實現更良好的SDI效果.

1.3基于S-GCN的結構損傷識別流程

綜上,基于S-GCN的結構損傷識別執行過程可以總結為圖4所示流程.具體步驟為:

1)圖的表示:將結構視為一個圖,其中圖的節點表示結構部件,邊表示這些結構部件之間的物理連接關系.

2)融合圖結構的數據準備:根據結構節點關系和鄰接矩陣對振動數據進行標記,使得數據標簽與構造的圖結構相對應,依此構建損傷特征矩陣及邊索引矩陣.

3)基于S-GCN的損傷特征提?。簩p傷特征矩陣和邊索引矩陣輸入S-GCN,通過結構多維特征傳遞聚合、信息匯總更新等操作完成節點的損傷特征提取.

4)結構損傷預測輸出:根據S-GCN模型得到的 損傷特征輸出相應損傷預測結果.

圖4基于S-GCN的SDI過程 Fig.4 SDI process based on S-GCN

2試驗分析

為了驗證文中所提方法的有效性,采用兩個不同的鋼結構進行試驗分析,其結構損傷均通過連接節點處的螺栓松動或脫落模擬,同時給出了與其他3種網絡模型的對比分析結果.

2.1案例1:橋式鋼桁架結構

2.1.1結構對象及數據采集

以某橋式鋼桁架結構為例進行試驗分析,結構尺寸為 2 800mm×390mm×270mm ,材料密度為7800kg/m3 ,彈性模量為 190GPa. 為簡化試驗過程,主要以鋼桁架上層結構的12個節點為對象進行分析.

在試驗過程中,考慮采集設備DASPV11-INV3062C的通道限制(支持8通道數據),布置4個加速度傳感器(編號s1~s4)采集結構在不同損傷情況下的振動特性,其中單向傳感器s1~s3各占1路通道,三向傳感器s4占3路通道.傳感器布置原則以盡可能采集到結構上所關注節點的振動數據為準(詳細布置原則見文獻[12]),力錘激勵點盡量靠近結構中心.采集設備基本參數配置及通道連接情況如表1所示,試驗場景、激勵點及傳感器布置情況如圖5所示.

2.1.2損傷場景及數據集構建

由于鋼桁架各節點主要以螺絲加固,對結構上層12個節點,以松動螺絲(徹底松動)模擬節點的損

圖5試驗場景和傳感器位置

表1數據采集設備信息和通道連接詳細信息

傷場景,將其標定為1~12,加之結構無損傷狀態(標定為0),本試驗共有13種結構狀態,橋式鋼桁架結構損傷情況及標簽分類如表2所示.在每種結構狀

態下分別采集200組加速度數據,結合圖2所示鄰接矩陣構建數據集,其中 80% 用于模型訓練, 20% 用于模型測試.

2.1.3試驗結果和分析

本文構建模型及編程平臺為 PyCharm2023.2.5 基于PyTorch框架編程.深度學習工作站配置為 12th GenIntel(R)Core(TM)i7-12700H,RAM:15.6GB,GPU:GeForceRTX4060,CUDA:8.0GB.基于整體數據規模,考慮現有硬件配置和時效性,經多次試錯分析得到最佳的S-GCN初始參數如表3所示.為消除單次運行結果的不穩定性,重復訓練10次S-GCN模型得到訓練/測試準確率及損失值如圖6所示,平均統計結果如表4所示.

由圖6可知,S-GCN對橋式鋼結構損傷識別的訓練/測試準確率均隨著迭代輪數的增加而提高,且單次識別的損傷準確率均高達 98% 此外,模型訓練

表3S-GCN初始化設置

Tab.3 S-GCNinitializationsettings

圖6S-GCN訓練/測試準確率及損失值迭代曲線 Fig.6S-GCNtraining/testingaccuracyand lossvalue iteration curve

表4重復訓練10次S-GCN所得平均準確率和損失值 Tab.4The average accuracy and loss value obtained from 10 repetitions of S-GCN training

過程中損失值逐漸降低,雖然個別輪次結果產生波動,但整體損失值最終接近0.表明S-GCN模型能夠基于圖結構準確、高效地捕捉結構損傷特征信息,不斷優化自身參數,尤其在訓練前期即得到了較高的準確率,呈現優異的收斂速度,且訓練和測試準確率相差不大,S-GCN表現出良好的損傷識別泛化能力.

進一步統計訓練結果的精確率 P (precision),召回率 R (recall)和 F1 分值 (F1Score )以分析S-GCN模型對橋式鋼結構的損傷識別性能.上述損傷預測過程屬于多分類問題,將當前損傷視為“陽”,其他損傷視為“陰”,精確率可評價S-GCN預測某數據為正例的查準率,召回率評估真實正例的查全率, F1 分值可綜合權衡精確率和召回率,尤其對于不平衡的數據集或類別, F1 分值能夠更好地反映模型的綜合性能.三者的計算方法如下所示:

式中:TP為正樣本正確預測數量;FP為負樣本錯誤預測數量;FN為正樣本錯誤預測數量; b 為損傷分類數.

對上述訓練過程仍重復計算10次,得到各損傷狀態下的精確率 P 、召回率 R,F1 分值及平均指標情況,如表5及圖7所示.

由表5及圖7可知,S-GCN對橋式鋼結構各類損傷的正判能力較強,各損傷類別的平均精確率、平均召回率及平均 F1 分值幾乎都能達到 98% 以上.表明該模型對各類損傷數據的差異特征捕捉十分敏感,能夠較為精確地對監測數據進行相應的損傷類型映射.

表2橋式鋼桁架結構損傷情況及標簽分類

2.1.4噪聲魯棒性分析

在采集傳感器信號過程中,因環境、設備、人為等因素的影響,實際采集信號不可避免地受噪聲干擾.由電子元件熱噪聲、量化誤差等因素導致的噪聲常表現為高斯噪聲,長期環境載荷作用下的結構響應可能呈現布朗噪聲特性,由多種干擾疊加產生的噪聲表現為混合噪聲.為此,下文各選一種典型的噪聲類型進行魯棒性分析,其中原傳感器信號添加高斯噪聲、布朗噪聲、混合噪聲,可根據式(11)~式(13)模擬:

圖7S-GCN模型識別橋式鋼結構各類損傷的 P,R 和 F1 分值 Fig.7 P , R and F1 foreachclassificationofsteeltrussstructures under S-GCN training

式中: 表示加噪信號; x(n) 表示原加速度信號: β 為噪聲系數,取值為 0~100% ;max為當前信號最大值;r(n) 和 b(n) 分別為與 x(n) 同維的高斯白噪聲和布朗噪聲序列.實驗發現:當 β 取 60% 時,原信號已嚴重失真,因此在進行S-GCN魯棒性分析時,將 β 取值為[10%,60%] ,各噪聲系數下的損傷識別準確率如表6所示.進一步單獨分析了三種噪聲系數均為 60% 時S-GCN對各損傷狀態的預測情況,對應的精確率P 、召回率 R,F1 分值和混淆矩陣如圖8和圖9所示.

表6S-GCN在不同噪聲干擾下的損傷識別準確率

由表6可知,S-GCN模型在各類噪聲低干擾環境下表現較為出色,能夠對各損傷場景進行準確預測,隨著各類噪聲類型中噪聲系數不斷增強,其損傷識別準確率顯著下降,說明噪聲干擾對模型的損傷識別效果有直接影響,但噪聲干擾達 60% 時仍能獲得可觀的損傷識別效果,尤其在混合噪聲干擾時,S-GCN表現出良好的噪聲魯棒性.

圖8 S-GCN在 60% 噪聲時對各損傷預測的 P,R 和 F1 分值

Fig.8 P,R and F1 ofS-GCN for predicting variousdamagesat 60% noise level

圖8和圖9的結果表明,在各類噪聲干擾系數達到 60% 時,S-GCN模型對各損傷類別預測結果略有差異,表明不同損傷場景下的振動信號呈現一定差異,且對應的損傷特征易受噪聲類型影響而發生變化.盡管如此,S-GCN模型整體仍能對各損傷進行有效分類,展現出良好的噪聲魯棒性.

2.2案例2:QUGS

2.2.1結構對象

為充分驗證本文所提方法的有效性,進一步以卡塔爾大學看臺模擬器結構(Qataruniversitygrand-stand simulator,QUGS)及公開數據集[23-28]進行試驗分析.該結構占地面積為 4.2m×4.2m ,由8根大梁和25根填充梁組成,支撐在4根柱子上,8根大梁長 4.6m 懸臂部分的5根填充梁長約 1m ,其余20根填充梁長77cm ,所有梁通過螺栓鏈接,共包含30個關鍵連接點,結構試驗場景及節點編號如圖10所示.

圖10QUGS結構及關鍵節點編號[23-28] Fig.10QUGS structure and key node numbers[23-28]

2.2.2損傷場景及數據集構建

QUGS結構主要通過螺栓鏈接鋼架梁固定,通過松動結構30個節點連接處的螺栓模擬不同的損傷場景,同時考慮結構無損傷狀態,構造如表7所示的結構損傷場景及損傷標定關系.

表7QUGS損傷情況及標簽分類

試驗過程中,通過模態激振器對結構進行周期性激勵,通過30個加速度傳感器采集結構在31種損傷狀態下的加速度數據,采樣頻率為 1024Hz ,每種損傷場景共采集256s,每種損傷信號共包含262144個采樣點.結構某節點的螺栓松動及加速度傳感器安裝情況如圖11所示.基于QUGS公開數據及圖2所示鄰接矩陣構建數據集,所采集數據的 80% 用于模型訓練, 20% 用于模型測試.

圖11QUGS某節點損傷場景及加速度計 Fig.11Damagescenario andaccelerometer ofacertain node in QUGS

2.2.3試驗結果和分析

試驗過程所用深度學習工作站同案例1,考慮QUGS數據集規模增大,經多次試錯分析,將S-GCN結構隱藏層調整為710,S-GCN網絡輸出為31,其余參數同表3.

為消除單次運行結果的不穩定性,對S-GCN模型重復計算10次得到訓練/測試準確率和損失值迭代曲線如圖12所示,10次平均統計結果如表8所示.

圖12S-GCN訓練/測試準確率及損失值迭代曲線(QUGS) Fig.12 S-GCN training/testing accuracyand loss iteration curve(QUGS)

表8重復訓練10次S-GCN所得平均準確率和損失值(QUGS)

Tab.8 Average accuracy and loss obtained from 10 repetitions of S-GCN training (QUGS)

由圖12可知,隨著迭代增加,訓練準確率和測試準確率都趨近于 100% ,且損失值逐漸減小,直至接近0.同時,迭代結束前訓練準確率和測試準確率差距較小,收斂速度較快,表明S-GCN在基于圖結構數據下擁有高效的損傷數據特征挖掘能力及優秀的損傷識別泛化能力.

進一步統計S-GCN模型對QUGS結構數據進行損傷識別過程的精確率 P 、召回率 R 和 F1 分值,如圖13所示,三項指標的平均統計情況如表9所示.

圖13S-GCN模型識別QUGS結構各類損傷的 P,R 和 F1 分值 Fig.13 P,R and F1 of S-GCN for identifying various types of damage inQUGS structures

表9P、R及 F1 平均值(QUGS)Tab.9AverageP,Rand F1 (QUGS) %

由圖13及表9可知,S-GCN對所有損傷的識別精確率及召回率達 90% ,個別損傷識別結果超過95% ,平均精確率及召回率分別為 94.19%.95.05% 業表明S-GCN能夠有效捕捉損傷樣本信息且準確識別不同損傷的樣本數據特征;多數損傷下的 F1 分值超過 90% ,平均 F1 分值達 96.18% ,表明S-GCN能夠敏銳捕捉到各類損傷數據的微小差異,實現從監測數據到損傷場景的精確映射.

2.2.4噪聲魯棒性分析

類似案例1,采用相同方式對QUGS數據注入三種噪聲以測試S-GCN模型對QUGS損傷識別的噪聲魯棒性,其統計結果如表10所示;各噪聲干擾系數為 60% 時,模型對損傷識別結果精確率P、召回率 R 、F1 分值和混淆矩陣如圖14和圖15所示.

由表10可知,S-GCN模型在不同類型噪聲干擾下仍能保持相對穩定的損傷識別準確率,當噪聲干擾達 60% 時,其損傷識別準確率仍能維持在 76% 以上,尤其在高斯白噪聲強干擾環境中可達 85.26% 表明了S-GCN模型的有效性,以及在嚴重噪聲污染場景下卓越的損傷特征提取能力,從而確保了損傷識別的準確性.

表10S-GCN在不同噪聲干擾下的損傷識別準確率(QUGS)

Tab.1o TheaccuracyofdamageidentificationinS-GCN underdifferentnoise interferences %

圖14 S-GCN在 60% 噪聲時對各損傷預測的 P 、R和 F1 分值(QUGS) Fig.14 P,R and F1 of S-GCN for predicting various damages at 60% noise level(QUGS)

圖15 S-GCN在 60% 噪聲時損傷預測混淆矩陣(QUGS)

Fig.15 S-GCN damage prediction confusion matrixat 60% noise(QUGS)

由圖14和圖15可知,在不同類型噪聲的影響下,S-GCN對QUGS結構各類別的損傷識別效果略有差異.因為該結構損傷場景更為豐富,各類別的損傷識別差異愈加明顯.這個結果表明,對于QUGS這類損傷細化場景,監測數據容易受到不同類型噪聲的干擾,造成個別損傷類別間特征重疊、難以區分,甚至出現誤檢、漏檢等情況.但從強噪聲干擾環境下的整體識別效果來看,S-GCN模型呈現較高水準的損傷識別能力,體現其優異的噪聲魯棒性.

3S-GCN模型橫向評估分析

為了進一步評估S-GCN的損傷識別性能,以案例1中 60% 高斯白噪聲干擾下的橋式鋼結構損傷識別場景為例,選擇結構損傷識別領域常用的1DCNN、MLP、ResNet50網絡模型進行橫向對比分析.為確保評價的公平性,除隱藏層外,四種網絡的主要參數均保持一致,如表11所示.經100輪Epoch訓練,得到各網絡模型的訓練時間及損傷識別準確率,如表12及圖16所示,同時給出了四種網絡模型各層的特征演進過程(t-SNE可視化29),如圖17所示.

表11四種網絡模型的參數配置

Tab.11 Parametersoffourtypesofnetworksmodels

由表12可知,S-GCN網絡的訓練時間顯著優于其他三種網絡模型.主要原因是S-GCN在處理圖結構數據時,能夠有效地挖掘節點間的復雜關系,通過鄰域信息的聚合和更新操作,比傳統的神經網絡更高效,進而減少計算量.另外,在圖卷積神經網絡中,由于每層更新的信息均源自鄰居節點的聚合信息,因此容易出現層數過深導致信息冗余或重合的情況.基于上述原因,本文設計的S-GCN模型僅保留兩層圖卷積操作,盡量保持良好的特征學習能力及訓練效率.結合表12、圖16及圖17,可初步得到S-GCN具有以下優勢.

表12四種網絡在100輪Epoch下的訓練時間和準確率對比0 60% 高斯白噪聲)

1)訓練時間短:由于S-GCN網絡層數較淺且結構簡潔,在同等損傷數據規模下,S-GCN相較于MLP和1DCNN,訓練時間縮短為1/3左右,相較于ResNet50,訓練時間則縮短為1/20左右,反映S-GCN收斂速度快,在資源有限或需要快速迭代的場景下,S-GCN具有顯著優勢.

2)噪聲魯棒性好:即使S-GCN模型結構最簡單,但其經過100輪訓練后所得的損傷識別準確率為 70.08% ,相比其他模型具有更為優秀的噪聲魯棒性.

3)損傷數據特征聚合能力強:圖17所示網絡各層的特征演進過程表明,在面臨同等混沌的輸人數據時,S-GCN能夠以最快的速度對混沌數據進行特征分離,呈現出結合結構空間節點特征對損傷狀態分離及識別的顯著優勢.

圖17四種網絡t-SNE對比圖( 60% 高斯白噪聲)

Fig.17 Comparison of t-SNE in four types of networks ( 60% Gaussian white noise)

4結論

在數據驅動的深度學習結構損傷識別過程中,針對SDI效果受結構復雜程度、數據規模及噪聲干擾等因素影響較大的問題,結合結構的節點屬性特征及GCN優勢,本文提出了一種稱為S-GCN的融合結構多維特征的圖卷積神經網絡模型,從結構節點屬性特征及振動數據兩個維度實現結構的損傷分類識別.在充分考慮噪聲干擾情況下,通過兩個鋼結構算例進行分析,得出以下結論:

1)基于結構節點關系及其屬性特征構造鄰接矩陣,結合結構振動數據對S-GCN模型進行深度訓練,有利于S-GCN充分捕捉結構節點特性及損傷數據特征.兩個鋼結構算例的損傷識別結果表明,S-GCN具有對損傷信息的敏銳學習能力及損傷樣本判別能力,對測試數據表現出良好的泛化性能,在無噪聲干擾情況下,能夠實現 98% 以上的損傷識別準確率.

2)當結構損傷數據受不同程度的噪聲干擾時,S-GCN依然能夠從強噪聲干擾數據中提取結構的有效損傷特征信息.即使噪聲干擾達 60% ,兩個算例中也可獲得高于 70% 的損傷識別準確率,說明S-GCN具備較好的噪聲魯棒性.尤其算例2中傳感器位置均位于損傷節點處,所監測數據能夠全面反映結構節點損傷狀態,更利于S-GCN進行有效的損傷判別,即使在強噪聲干擾情況下,也能獲得高準確率的損傷識別效果.

3)與其他3個網絡模型的橫向評估分析表明,在同等數據規模下,S-GCN不僅在訓練時間上顯著優于1DCNN、MLP和ResNet50,且在訓練效率與性能之間取得了良好的平衡.在大規模數據場景下,尤其融合結構數值模擬數據和實測數據的遷移學習結構損傷識別研究中,S-GCN有望表現出良好的應用潛力.

參考文獻

[1]李慧民,董美美,熊雄,等.基于振動的結構損傷識別研究綜 述[J].建筑結構,2021,51(4):45-50. LIHM,DONGMM,XIONGX,etal.State-of-the-art review ofvibration-baseddamageidentification framework forstructures [J].BuildingStructure,2021,51(4):45-50.(inChinese)

[2] LIJ,HAO H.A review of recent research advances on structural health monitoring in Western Australia[J].Structural Monitoring andMaintenance,2016,3(1):33-49.

[3] AGDASD,RICEJA,MARTINEZJR,et al.Comparisonof visual inspection and structural-health monitoring As bridge condition assessment methods[J].Journal of Performance of ConstructedFacilities,2016,30(3):04015049.

[4] 趙俊,程良彥,馬宏偉.基于曲率模態的拱板結構損傷識別 [J].暨南大學學報(自然科學版),2008,29(5):470-477. ZHAOJ,CHENGLY,MAHW.Thedamagedetection inthe archbasing on the changes in curvature mode shape[J].Journal of Jinan University(Natural Science Edition),2Oo8,29(5): 470-477.(inChinese)

[5] 聶振華,程良彥,馬宏偉.基于結構動力特性的損傷檢測可視 化方法[J].振動與沖擊,2011,30(12):7-13. NIEZH,CHENGLY,MAHW.Visualizationmethodforstructural damagedetectionbased onitsdynamiccharacteristics[J].Journal ofVibrationandShock,2011,30(12):7-13.(inChinese)

[6」 ZHANG JQ,JIN Z H,TENG S,et al. Structural damage detection based on decision-level fusion with multi-vibration signals[J]. Measurement Science and Technology,2022,33(10):105112.

[7]秦世強,蘇晟,楊睿.基于多標簽卷積神經網絡的結構損傷識 別[J].建筑科學與工程學報,2024,41(3):108-119. QINSQ,SU S,YANG R. Structural damage identification based onmulti-label convolution neuralnetwork [J].Journal of Architecture and Civil Engineering,2024,41(3):108-119.(in Chinese)

[8] 賈然,劉勇,王立勇,等.特種車輛傳動主軸運行載荷實時評 估方法研究[J].湖南大學學報(自然科學版),2024,51(10): 58-66. JIA R,LIU Y,WANG L Y,et al.Research on real-time evaluation methods for main shaft running load of special vehicle transmission[J]. Journal of Hunan University(Natural Sciences), 2024,51(10):58-66.(in Chinese)

[9]馬亞飛,李誠,何羽,等.基于小波散射卷積神經網絡的結構 損傷識別[J].振動與沖擊,2023,42(14):138-146. MAYF,LI C,HEY,et al. Structural damage identification based on the wavelet scattring convolution neural network[J].Journal of Vibrationand Shock,2023,42(14):138-146.(inChinese)

[10]劉玉馳,蔣玉峰,王樹青,等.基于數據融合及殘差卷積自編碼 器的結構損傷識別方法[J].振動與沖擊,2023,42(4): 194-203. LIU YC,JIANG YF,WANG SQ,et al.Data fusion and residual convolutional auto-encoder based structural damage identification [J].JournalofVibrationandShock,2023,42(4):194-203.(in Chinese)

[11]駱勇鵬,王林堃,廖飛宇,等.基于一維卷積神經網絡的結構 損傷識別[J].地震工程與工程振動,2021,41(4):145-156. LUOYP,WANGLK,LIAOFY,etal.Vibration-based structural damageidentification by1-dimensional convolutional neural network[J].EarthquakeEngineering and Engineering Dynamics,2021,41(4):145-156.(in Chinese)

[12]YANG JH,PENG Z R. A new convolutional neural networkbased framework and data construction method for structural damageidentification consideringsensor placement[J]. Measurement Science and Technology,2023,34(7): 075008.

[13]TRUONG TT,LEE J,NGUYEN-THOI T. Joint damage detection of structures with noisy data by an efective deep learning framework using autoencoder-convolutional gated recurrent unit [J].Ocean Engineering,2022,243:110142.

[14]LI TF,ZHOU Z,LI S N,et al. The emerging graph neural networksforintelligent fault diagnostics and prognostics:a guideline and a benchmark study[J].Mechanical Systems and Signal Processing,2022,168:108653.

[15]WU Z H,PAN S R,CHEN FW,et al. A comprehensive survey on graph neural networks[J].IEEE Transactions on Neural Networksand Learning Systems,2021,32(1):4-24.

[16]DANG V H,VU T C,NGUYEN B D,et al. Structural damage detection framework based on graph convolutional network directly using vibration data[J].Structures,2022,38:40-51.

[17]AGGELIS D G,PATSONAKIS C, STIROS S C. Vibration-based structural health monitoring of anold masonry arch bridge From Health Monitoring,2014,21(7): 918-940.

[18]WANG L,WANG W.Damage identification method based on frequency response function and support vector machine [J]. Mechanical Systems and Signal Processing,2018,99:760-775.

[19]NGUYEN K H,KIM S Y,KANG S H. Enhanced damage detection of a structure using statistical damage indexand artificial neural network[J].Structural Control and Health Monitoring,2019,26(4):23-37.

[20]楊建喜,張利凱,李韌,等.聯合卷積與長短記憶神經網絡的橋 梁結構損傷識別研究[J].鐵道科學與工程學報,2020,17(8): 1893-1902. YANGJX,ZHANGL K,LI R,et al.Research onbridge structural damage detection based on convolutional and long shortterm memory neural networks[J].Journal of Railway Science and Engineering,2020,17(8):1893-1902.(inChinese)

[21]BAO Q,XU Y.Structural damage identification via modal parametersestimation based on cross-entropy optimization algorithm[J].Structural Health Monitoring,2021,20(5): 12.

[22]唐啟智,辛景舟,周建庭,等.基于AR-GP模型的結構損傷識 別方法[J].振動與沖擊,2021,40(9):102-109. TANGQ Z,XIN J Z,ZHOU JT,et al. Structural damage identification method based on AR-GP model[J]. Journal of Vibration and Shock,2021,40(9):102-109.(in Chinese)

[23]AVCI O,ABDELJABER O,KIRANYAZ S,et al. Wireless and real-time structural damage detection:a novel decentralized method for wireless sensor networks[J]. Journal of Sound and Vibration,2018,424:158-172.

[24]ABDELJABER O,AVCI O,KIRANYAZ M S,et al. 1-D CNNs for structural damage detection: Verification on a structural health monitoring benchmark data[J].Neurocomputing,2O18,275: 1308-1317.

[25]ABDELJABER O,AVCI O,KIRANYAZ S,et al. Real-time vibration-basedstructural damagedetectionusingonedimensional convolutional neural networks[J]. Journal of Sound and Vibration,2017,388:154-170.

[26]AVCI O,ABDELJABER O,KIRANYAZ S,etal. Structural damagedetectioninreal time: implementationof1D convolutional neural networks for SHMapplications[M]// Structural Health Monitoringamp; Damage Detection,Volume 7. Cham:Springer International Publishing,2O17:49-54.

[27]KIRANYAZ S,INCE T,ABDELJABER O,et al.1-D convolutional neural networks for signal processing applications [C]/ICASSP 2019-2019 IEEE International Conference on Acoustics,Speech and Signal Processing(ICASSP).Brighton, UK.IEEE,2019:8360-8364.

[28]AVCI O,ABDELJABER O, KIRANYAZ S,et al. Convolutional neural networks for real-time and wireless damage detection[M]// Dynamics of Civil Structures,Volume 2. Cham:Springer International Publishing,2019:129-136.

[29]LAURENS V D M ,HINTON G .Visualizing data using t-SNE [J]. Journal of Machine Learning Research,2OO8,9(2605): 2570-2605

主站蜘蛛池模板: 日韩一区二区在线电影| 日韩欧美国产成人| 亚洲全网成人资源在线观看| 亚洲第一页在线观看| 波多野结衣国产精品| 亚洲成人一区在线| 精品91自产拍在线| 毛片基地视频| 日本免费福利视频| 91福利片| 浮力影院国产第一页| 日韩AV无码一区| 91网红精品在线观看| 中文纯内无码H| 午夜综合网| 一级毛片在线播放| 色偷偷男人的天堂亚洲av| 国产欧美一区二区三区视频在线观看| 午夜国产大片免费观看| 在线免费亚洲无码视频| 一级片免费网站| 日韩在线欧美在线| 2021精品国产自在现线看| 高清无码不卡视频| 伊人久久福利中文字幕| 精品欧美一区二区三区在线| 成人午夜免费观看| A级全黄试看30分钟小视频| 亚洲福利网址| 毛片视频网址| 伊人大杳蕉中文无码| 久久中文字幕不卡一二区| 国产99热| 亚洲 成人国产| 久久国产乱子伦视频无卡顿| 日韩av在线直播| 国产精品亚洲一区二区三区在线观看 | 性视频久久| 亚卅精品无码久久毛片乌克兰| 夜色爽爽影院18禁妓女影院| 小蝌蚪亚洲精品国产| 日韩a级片视频| yjizz国产在线视频网| 国产视频欧美| 狂欢视频在线观看不卡| 国产精选自拍| 久久精品国产精品国产一区| 国产爽妇精品| 99re免费视频| 欧美色图第一页| 日韩A∨精品日韩精品无码| 国产91色在线| 免费全部高H视频无码无遮掩| 日韩无码精品人妻| 国产一区二区三区在线精品专区| 久久久久久午夜精品| 国产一区二区三区夜色| 日韩一级二级三级| 波多野结衣在线一区二区| 婷婷六月天激情| 波多野结衣在线一区二区| 国产福利免费在线观看| 亚洲国产在一区二区三区| 亚洲综合色在线| 美美女高清毛片视频免费观看| 成人91在线| 国产18页| 日韩毛片基地| 在线播放真实国产乱子伦| 日本三级黄在线观看| 人人艹人人爽| 欧美日韩中文字幕在线| 草逼视频国产| 日韩大乳视频中文字幕| 无码中文AⅤ在线观看| 亚洲国产精品不卡在线| 中国精品自拍| 全色黄大色大片免费久久老太| 国产在线八区| 久久精品丝袜| 人妻中文久热无码丝袜| 成人综合久久综合|