










摘要:災(zāi)難事件發(fā)生后,如何及時(shí)準(zhǔn)確地評估建筑結(jié)構(gòu)損失情況,成為災(zāi)后救援的重要問題之一.傳統(tǒng)的人工評估方法存在耗時(shí)耗力、準(zhǔn)確度低等問題.為了提高建筑結(jié)構(gòu)損失識別的準(zhǔn)確度,提出一種基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò),引入候選區(qū)域生成網(wǎng)絡(luò),構(gòu)建用于生成網(wǎng)絡(luò)候選區(qū)并對其進(jìn)行分類和位置回歸的模型.結(jié)果顯示,研究模型在不同類型建筑損失識別中的準(zhǔn)確度均高于90%;在模型對比分析中,當(dāng)?shù)螖?shù)大于2500時(shí),目標(biāo)檢測深度學(xué)習(xí)算法(Faster Region-based Convolutional Neural Networks, Faster-RCNN)相比其他4種模型的平均精度更高,且波動(dòng)幅度更小.本文改進(jìn)深度學(xué)習(xí)(Region-based Convolutional Neural Networks, RCNN)算法對建筑損傷識別的效果好,結(jié)果具有可信度.
關(guān)鍵詞:建筑結(jié)構(gòu);深度學(xué)習(xí);損失識別;特征分割;RCNN
中圖分類號:TN391"" 文獻(xiàn)標(biāo)志碼:A" 文章編號:2095-6991(2025)01-0059-07
Application of Improved RCNN Algorithmin Loss Identification of Building Structures
CHEN Xin-yi1,LI Xiao-lin2
(1.School of Civil Engineering, Anhui Vocational And Technical College, Hefei 230011, China;
2.Anhui Water Resources Research Institute, Hefei 230088, China)
Abstract:After disaster events, how to timely and accurately assess the loss of building structures has become one of the important problems in post-disaster rescue. The traditional manual evaluation method has the problems of time consuming and low accuracy. In order to improve the accuracy of structural loss identification, this study introduced the candidate region generation network based on the convolutional neural network, which was used to generate the network candidate region, classify it and perform location regression. The results show that the accuracy of Faster-RCNN in building loss identification of this research model is higher than 90%, which is higher than the other two algorithms. In model comparative analysis, when the number of iterations is greater than 2500, the average accuracy of Faster-RCNN is higher and the fluctuation range is smaller than that of the other four models. In conclusion, the improved RCNN algorithm in this study has a good effect on building damage identification, and the results are reliable.
Key words:building structure; deep learning; loss identification; feature segmentation; RCNN
0 引言
建筑結(jié)構(gòu)損失是指由于自然災(zāi)害、人為破壞或年久失修等原因?qū)е陆ㄖ锝Y(jié)構(gòu)受損的情況[1].在災(zāi)難事件發(fā)生后,準(zhǔn)確、快速地評估建筑結(jié)構(gòu)損失情況對于救援工作的展開至關(guān)重要[2].由于傳統(tǒng)的人工評估方法存在主觀性強(qiáng)、效率低下等問題,迫切需要開發(fā)一種自動(dòng)化的建筑結(jié)構(gòu)損失識別方法[3].
目前,深度學(xué)習(xí)已經(jīng)在計(jì)算機(jī)視覺領(lǐng)域取得了顯著成果,特別是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的快速發(fā)展為圖像識別和分類提供了有效工具[4].其中,基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(Region-based Convolutional Neural Networks,RCNN)在目標(biāo)檢測領(lǐng)域得到了廣泛應(yīng)用.然而傳統(tǒng)的RCNN算法仍存在識別準(zhǔn)確度和敏銳度不高、對建筑整體損傷程度分析能力弱等問題.
為了解決以上問題,本文在RCNN算法中引入多尺度和多形狀的特征提取方法,以增強(qiáng)對于建筑結(jié)構(gòu)損失的識別能力.同時(shí),研究設(shè)計(jì)一種綜合分析建筑物局部和整體信息的機(jī)制,以提高建筑結(jié)構(gòu)損失的識別準(zhǔn)確度.
1 面向建筑結(jié)構(gòu)損失識別的RCNN網(wǎng)絡(luò)模型構(gòu)建
1.1 RCNN結(jié)合候選區(qū)域算法的優(yōu)化研究
RCNN作為一種目標(biāo)檢測模型,可以將建筑結(jié)構(gòu)中的損壞區(qū)域和損壞程度進(jìn)行分類和識別,從而有助于了解建筑損失的分布特點(diǎn),為救災(zāi)和重建工作提供支持[5-6].傳統(tǒng)的RCNN存在模型訓(xùn)練效率低、訓(xùn)練時(shí)間耗費(fèi)多以及占用內(nèi)存空間大等缺陷,因此本文對RCNN進(jìn)行改進(jìn),提出一種Fast-RCNN算法.
Fast-RCNN算法中所運(yùn)用到的損失函數(shù)為:
L=1Ncls∑iLcls(pi,pj)+λ1Nreg∑ipiLreg(ti,tj),(1)
其中,cls為網(wǎng)絡(luò)的分類,reg為網(wǎng)絡(luò)的回歸,Ncls為用于訓(xùn)練的錨總數(shù),Nreg為錨位置信息的數(shù)量,λ為平衡系數(shù),pi為概率,pj為實(shí)際類別,ti和tj為雙向平移和縮放.ti的計(jì)算公式為:
ti=(i-ia)/wa,
ti1=(i1-i1a)/ha,
ti2=logwwa,
th=loghha.(2)
其中,i、i1、w、h分別為i坐標(biāo)、i1坐標(biāo)、w方向長度以及h方向長度,包含“1”的表示參數(shù)為錨的位置;無“1”的參數(shù)為其預(yù)測位置.同樣可以得知tj的計(jì)算公式為:
tj=(j-ja)/wa,
tj1=(j1-j1a)/ha,
tj2=logwwa,
th=loghha.(3)
其中,j、j1、w、h分別為j坐標(biāo)、j1坐標(biāo)、w方向長度以及h方向長度,包含“1”的表示參數(shù)為錨的位置;無“1”的參數(shù)為其預(yù)測位置.RCNN網(wǎng)絡(luò)是基于CNN監(jiān)督學(xué)習(xí)的多層網(wǎng)絡(luò)模型演化而來,CNN的模型結(jié)構(gòu)由卷積層、輸入層、池化層、激活函數(shù)層、全連接層和損失函數(shù)等結(jié)構(gòu)組成,將輸入圖像視為數(shù)組并對神經(jīng)元進(jìn)行排列[7].卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示.
卷積神經(jīng)網(wǎng)絡(luò)是一種特殊的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),針對圖像和空間數(shù)據(jù)的處理任務(wù)具有良好的性能[8].CNN的核心是卷積層、池化層和全連接層.卷積層是CNN的核心層之一,通過應(yīng)用一組卷積核對輸入圖像進(jìn)行卷積操作,提取圖像特征.卷積核通過滑動(dòng)窗口的方式遍歷整個(gè)圖像,每次計(jì)算窗口內(nèi)圖像和卷積核的點(diǎn)積,并將結(jié)果存儲在特征圖中.池化層用于減小特征圖的空間尺寸,并保留重要的特征信息.常見的池化操作包括最大池化和平均池化.全連接層用于對特征進(jìn)行分類或回歸.在全連接層中,每個(gè)神經(jīng)元都與上一層中的所有神經(jīng)元相連接.RCNN學(xué)習(xí)網(wǎng)絡(luò)模型主要用于目標(biāo)檢測,在輸入圖像后使用候選區(qū)域生成算法;接著使用CNN模型對候選區(qū)域進(jìn)行特征提取,并使用分類器對候選區(qū)域進(jìn)行分類;最后使用非極大值一致算法對重疊的候選區(qū)域進(jìn)行篩選,去除重復(fù)檢測結(jié)果后進(jìn)行輸出,F(xiàn)ast-RCNN在RCNN的基礎(chǔ)上進(jìn)行改進(jìn)[9].同時(shí)避免了由于RCNN對每個(gè)候選區(qū)進(jìn)行獨(dú)立處理時(shí)導(dǎo)致計(jì)算量大的問題,F(xiàn)ast-RCNN中Lcls的表達(dá)式為:
Lcls(pi,pj)=-log[pjpi+(1-pj)(1-pi)],(4)
其中,pi為第i個(gè)錨點(diǎn)被判為“目標(biāo)”的概率,pj為IOU計(jì)算中的實(shí)際類別,在“目標(biāo)”類別中pj的值為1,在“背景”類別中pj的值為0,損失函數(shù)中Lreg的計(jì)算公式為:
Lreg(ti,tj)=0.5(ti-tj)2,(xlt;1),x-0.5,(x≥1).(5)
其中,x表示x坐標(biāo)的絕對值.
1.2 建筑損失識別的Fast-RCNN模型優(yōu)化
Fast-RCNN在面對大規(guī)模圖像數(shù)據(jù)集上的計(jì)算復(fù)雜度較高的情況下,容易導(dǎo)致模型的訓(xùn)練和推理時(shí)間較長.同時(shí),F(xiàn)ast-RCNN在生成候選區(qū)域時(shí)容易產(chǎn)生大量重復(fù)和冗余的候選框,導(dǎo)致計(jì)算資源浪費(fèi)和檢測精度下降[10].因此本文在Fast-RCNN模型中引入殘差神經(jīng)網(wǎng)絡(luò)(Residual Neural Network, ResNet),主要用于圖像識別和分裂任務(wù),對圖像進(jìn)行識別和分類[11].為減小模型特征提取難度,通過對圖像進(jìn)行卷積和池化操作,提取圖像中的特征,再將其輸入到全連接層進(jìn)行分類,ResNet的兩種殘差模塊如圖2所示.
ResNet在Fast-RCNN模型具有提升模型訓(xùn)練準(zhǔn)確率的作用,ResNet通過引入殘差學(xué)習(xí)模塊,成功解決了深度網(wǎng)絡(luò)的退化問題[12].
由圖2可知,為了避免網(wǎng)絡(luò)模型深度增加中訓(xùn)練準(zhǔn)確度下降的問題,ResNet通過恒等映射和殘差映射兩種方式使網(wǎng)絡(luò)模型處于最優(yōu)狀態(tài),從而調(diào)整網(wǎng)絡(luò)性能.恒等映射通過將輸入直接與輸出相加建立跨層的直連路徑.殘差映射卷積層用來減小特征圖的維度,然后再進(jìn)行卷積運(yùn)算,將特征圖恢復(fù)到原始維度.
ResNet在快捷連接中執(zhí)行恒等映射,圖2(a)為ResNet的兩層殘差學(xué)習(xí)模塊,圖2(b)為ResNet的三層殘差學(xué)習(xí)模塊,在三層殘差學(xué)習(xí)模塊中用于減少模型參數(shù),若輸入和輸出的維度不同,可進(jìn)行線性映射變換維度,再連接到后面的層,這樣的設(shè)計(jì)可以在保證性能的同時(shí),顯著減少計(jì)算和參數(shù)量.
殘差學(xué)習(xí)模塊定義為:
y=F(x,Wi)+x,(6)
其中,x和y為卷積層的輸入和輸出向量,F(xiàn)(x,Wi)為用于學(xué)習(xí)的殘差映射.
若x與F的維數(shù)不相等時(shí),可以通過快捷連接執(zhí)行線性投影來匹配維數(shù),線性匹配的表達(dá)式為:
y=F(x,Wi)+Wsx,(7)
其中,Ws為卷積操作用以調(diào)整輸入向量x的維度.在Fast-RCNN算法網(wǎng)絡(luò)的模型訓(xùn)練中,由于候選區(qū)域的訓(xùn)練和測試分開進(jìn)行,從而導(dǎo)致搜索階段耗時(shí)多,如何將候選區(qū)域的特征提取添加到卷積神經(jīng)網(wǎng)絡(luò)是解決問題的關(guān)鍵.
為了得到最優(yōu)模型,在Fast-RCNN網(wǎng)絡(luò)模型的基礎(chǔ)上構(gòu)建Faster-RCNN算法模型,結(jié)構(gòu)如圖3所示.
Faster-RCNN模型相較于Fast-RCNN和RCNN模型在準(zhǔn)確度和速度上均有顯著提高[13].由圖3可知,F(xiàn)aster-RCNN的模型結(jié)構(gòu)包括以下幾個(gè)組成部分:
一是特征提取網(wǎng)絡(luò)部分常使用預(yù)訓(xùn)練好的深度卷積神經(jīng)網(wǎng)絡(luò)如ResNet,作為特征提取器,用于從輸入圖像中提取高級特征,卷積計(jì)算公式為:
Fout(po)=∑pn∈RK(Pn)Fin(po+pn),(8)
其中,K為卷積核,Pn為網(wǎng)格定義中的所有位置.
二是候選區(qū)域提取部分,在特征圖上滑動(dòng)一個(gè)小卷積窗口,生成多個(gè)候選區(qū)域,每個(gè)候選區(qū)域都有一個(gè)邊界框回歸和一個(gè)前景分類得分,得分計(jì)算公式為:
Si=Si,IOU(M,bi)lt;Nt,0,IOU(M,bi)≥Nt.(9)
其中,M為最高得分框,bi為待處理框,Si為待處理框?qū)?yīng)類型的分值,Nt為IOU值.
三是候選區(qū)域分類和邊界框回歸,選取每個(gè)候選區(qū)域,將其調(diào)整為固定尺寸的特征圖,接著通過一個(gè)全連接層對每個(gè)候選區(qū)域進(jìn)行分類預(yù)測和邊界框回歸[14].最后計(jì)算損失函數(shù),使整個(gè)模型通過最小化損失函數(shù)來進(jìn)行訓(xùn)練,損失面積可表示為:
rel-areai=areaiM×N,(10)
其中,areai為損失面積占圖片大小的比例,M×N為目標(biāo)檢測框大小.
2 基于Faster-RCNN的網(wǎng)絡(luò)模型在建筑損失識別中的應(yīng)用評估
2.1 [CM(18*2/3]Faster-RCNN算法在建筑結(jié)構(gòu)損失識別中的性能分析
為了驗(yàn)證Faster-RCNN在建筑結(jié)構(gòu)損失識別中具有更高的檢測準(zhǔn)確性和更快的處理速度,本文建立包含剝落、泛堿、裂縫等建筑損傷類型的數(shù)據(jù)庫,并對訓(xùn)練樣本添加標(biāo)簽和邊框位置信息,配置相關(guān)深度的學(xué)習(xí)框架,為后續(xù)識別做準(zhǔn)備.接著進(jìn)行數(shù)據(jù)增強(qiáng)、歸一化等操作,以適應(yīng)模型的輸入.
在模型訓(xùn)練中,使用準(zhǔn)備好的數(shù)據(jù)集和配置文件進(jìn)行模型訓(xùn)練,并根據(jù)實(shí)驗(yàn)需求設(shè)置合適的訓(xùn)練迭代次數(shù),最終Faster-RCNN算法在不同迭代次數(shù)時(shí)模型訓(xùn)練結(jié)果如表1所列.
由表1可知Faster-RCNN算法隨著迭代次數(shù)的增加,相應(yīng)的學(xué)習(xí)衰減步長呈倍數(shù)增長,平均精度逐漸下降,當(dāng)?shù)螖?shù)超過10 000時(shí),總平均精度低于0.931.其中,在相同的迭代次數(shù)下泛堿的平均精度高于剝落的平均精度,當(dāng)?shù)螖?shù)為10 000時(shí),泛堿的平均精度比剝落的平均精度高0.111.
對參數(shù)進(jìn)行初始化之后,分析Faster-RCNN的迭代次數(shù)訓(xùn)練效果,并將Faster-RCNN與RCNN和Fast-RCNN算法對建筑損傷識別的類型進(jìn)行精確度對比分析,分析結(jié)果如圖4所示.
不同迭代次數(shù)下Faster-RCNN的損失比較如圖4(a)所示.由圖4(a)可知,迭代次數(shù)越大,相應(yīng)的Faster-RCNN算法模型的總損失越小.當(dāng)?shù)螖?shù)小于1500時(shí),損失曲線波動(dòng)較大,且總損失在0.5以上;當(dāng)?shù)螖?shù)大于15 000時(shí),損失曲線區(qū)域穩(wěn)定,且總損失小于0.5.
Faster-RCNN與RCNN和Fast-RCNN算法對建筑的裂縫和剝落識別準(zhǔn)確度比較結(jié)果如圖4(b)所示.可以得知,在剝落識別中Faster-RCNN的識別準(zhǔn)確度為95.6%,比RCNN和Fast-RCNN算法分別提高12.3%和8.7%.在裂縫識別準(zhǔn)確度中,F(xiàn)aster-RCNN比RCNN和Fast-RCNN算法的識別準(zhǔn)確度分別提高18.3%和10.2%.在泛堿識別準(zhǔn)確度比較中,F(xiàn)aster-RCNN的識別準(zhǔn)確度為90.1%,比RCNN和Fast-RCNN算法分別多12.1%和8.2%.由此可知,F(xiàn)aster-RCNN對建筑結(jié)構(gòu)中裂縫、剝落、泛堿的識別準(zhǔn)確度均高于RCNN和Fast-RCNN算法,具有一定的優(yōu)越性.
2.2 面向建筑結(jié)構(gòu)損失識別的改進(jìn)RCNN模型實(shí)驗(yàn)評估
為驗(yàn)證Faster-RCNN模型在建筑結(jié)構(gòu)損傷識別中的優(yōu)越性,選取RCNN、Fast-RCNN、實(shí)時(shí)目標(biāo)檢測模型(You Only Look Once, YOLO)、單步多框目標(biāo)檢測(Single Shot MultiBox Detector, SSD)等模型進(jìn)行精確度比較分析.
接著針對建筑損失類別將這幾種模型的預(yù)測損傷與建筑真實(shí)損傷的匹配度進(jìn)行比較,分析結(jié)果如圖5所示.
Faster-RCNN與RCNN、Fast-RCNN、YOLO、SSD平均精度比較結(jié)果如圖5(a)所示.由圖5(a)可知,當(dāng)?shù)螖?shù)大于2500時(shí),F(xiàn)aster-RCNN相比其他4種模型的平均精度更高,且波動(dòng)幅度更小.當(dāng)?shù)螖?shù)為15 000時(shí),F(xiàn)aster-RCNN的平均精度為0.87,比RCNN、Fast-RCNN、YOLO、SSD的平均精度分別高0.28、0.12、0.51和0.32.
Faster-RCNN與RCNN、Fast-RCNN、YOLO、SSD的針對不同建筑損失類型的預(yù)測損傷與真實(shí)損傷的匹配比較分析結(jié)果如圖5(b)所示.由圖5(b)可知各模型對建筑完整的識別度整體匹配度較高.其中研究模型在裂縫識別中的匹配度達(dá)8.8,比RCNN、Fast-RCNN、YOLO、SSD的匹配值分別提高2.8、2.3、2.8、1.5.由此可知Faster-RCNN對不同類型的建筑結(jié)構(gòu)損傷的識別更貼近真實(shí)損傷數(shù)目.
最后對Faster-RCNN模型的真實(shí)損傷率與預(yù)測損傷率進(jìn)行對比分析,分析結(jié)果如圖6所示.
由圖6(a)可知,樣本的真實(shí)損傷與預(yù)測損傷的面積一致性較高,樣本中損傷面積主要集中在10 000~15 000和25 000~35 000.由圖6(b)可知樣本的損傷率為10%~58%,預(yù)測誤差在3%~5%.由此可以得知,F(xiàn)aster-RCNN模型對建筑樣本損傷面積預(yù)測結(jié)果具有可信度,且該模型對建筑樣本的損傷識別效果好.
綜上可知,F(xiàn)aster-RCNN模型的精度顯著優(yōu)于其他目標(biāo)檢測模型;Faster-RCNN的預(yù)測損傷與真實(shí)損傷匹配度高,且更具穩(wěn)定性;Faster-RCNN的樣本預(yù)測損傷面積與真實(shí)損傷面積基本一致且預(yù)測損傷率誤差小,具有可靠性.
3 結(jié)語
本文對RCNN算法進(jìn)行改進(jìn),引入候選區(qū)生成網(wǎng)絡(luò),最終構(gòu)建出Faster-RCNN算法模型,經(jīng)實(shí)驗(yàn)檢測,迭代次數(shù)大于15 000時(shí),損失曲線區(qū)域穩(wěn)定,且總損失小于0.5;在泛堿識別準(zhǔn)確度比較中,F(xiàn)aster-RCNN的識別準(zhǔn)確度為90.1%,比RCNN和Fast-RCNN算法分別多12.1%和8.2%;當(dāng)?shù)螖?shù)為15 000時(shí),F(xiàn)aster-RCNN的平均精度為0.87,比RCNN、Fast-RCNN、YOLO、SSD的平均精度分別高0.28、0.12、0.51、0.32;在建筑損失面積預(yù)測中,F(xiàn)ast-RCNN樣本的損傷率為10%~58%,預(yù)測誤差在3%~5%;在預(yù)測損傷與真實(shí)損傷的匹配比較分析結(jié)果中,在剝落識別、泛堿識別,以及裂縫識別中研究模型相比其他模型的識別預(yù)測值更高,普遍在8.5以上.本文模型能夠有效識別建筑結(jié)構(gòu)損失率,為建筑修復(fù)提供一個(gè)可靠的方案,不足之處在于對建筑損失類型分類較少,后續(xù)將進(jìn)一步細(xì)化建筑損失的類型.
參考文獻(xiàn):
[1] RAJI F,ZISIS I,PINELLI J P.Experimental investigation of wind-driven rain propagation in a building interior[J].Journal of Structural Engineering,2020,146(7):402-414.
[2] 種迅,李一松,蔣慶,等.某塔樓玻璃幕墻結(jié)構(gòu)模型試驗(yàn)研究及有限元分析[J].建筑結(jié)構(gòu),2021,51(3):71-76.
[3] 李遠(yuǎn),王森,魏璉.關(guān)于高層建筑結(jié)構(gòu)側(cè)向剛度計(jì)算方法的討論[J].建筑結(jié)構(gòu),2020,525(9):49-54.
[4] YOUSSEF Y,ELSHENAWY M.Automatic vehicle counting and tracking in aerial video feeds using cascade region-based convolutional neural networks and feature pyramid networks[J].Transportation Research Record,2021,2675(8):304-317.
[5] 李文俊,曲哲,孫海林,等.損失分布和非結(jié)構(gòu)損失對房屋建筑地易損性的影響[J].世界地震工程,2021,37(4):109-121.
[6] 瑚敏君,馮德俊,李強(qiáng).基于實(shí)例分割模型的建筑物自動(dòng)提取[J].測繪通報(bào),2020(4):6-18.
[7] 黃鳳榮,李楊,郭蘭申,等.基于Faster R-CNN的零件表面缺陷檢測算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2020,32(6):11-25.
[8] 羅雨舟,向天宇,郝柳青.卷積神經(jīng)網(wǎng)絡(luò)在結(jié)構(gòu)損傷檢測中的應(yīng)用[J].土木工程與管理學(xué)報(bào),2020,37(3):155-161,173.
[9] 黃華毅,馬曉航,扈麗麗,等.Fast R-CNN深度學(xué)習(xí)和無人機(jī)遙感相結(jié)合在松材線蟲病監(jiān)測中的初步應(yīng)用研究[J].環(huán)境昆蟲學(xué)報(bào),2021,2(3):140-159.
[10] 張倩,董安國,宋睿.基于多特征和改進(jìn)自編碼的高光譜圖像分類[J].激光與光電子學(xué)進(jìn)展,2020,57(8):8-19.
[11] 顏銘靖,蘇喜友.基于三維空洞卷積殘差神經(jīng)網(wǎng)絡(luò)的高光譜影像分類方法[J].光學(xué)學(xué)報(bào),2020,40(16):10-21.
[12] 陳月,張希,艾文寶.基于殘差神經(jīng)網(wǎng)絡(luò)的頻譜感知算法[J].現(xiàn)代電子技術(shù),2022,45(7):1-5.
[13] 趙楚,段先華,蘇俊楷.改進(jìn)Faster RCNN的瓷磚表面瑕疵檢測研究[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(14):201-208.
[14] 馬靜怡,崔昊楊,張明達(dá),等.基于改進(jìn)Faster RCNN的小尺度入侵目標(biāo)識別及定位[J].中國電力,2021,54(3):7-18.
[責(zé)任編輯:李嵐 杜佳]
基金項(xiàng)目:安徽省高校自然科學(xué)重點(diǎn)研究項(xiàng)目(2022AH052054)
作者簡介:陳馨怡(1987-),女,江蘇如東人,講師,碩士,研究方向?yàn)榛炷僚c鋼結(jié)構(gòu)、裝配式建筑.E-mail:981326925@qq.com.
*通信作者:李曉林(1986-),男,山東榮成人,工程師,碩士,研究方向?yàn)榛炷僚c鋼結(jié)構(gòu)、建筑抗震.E-mail:pinganshunxin@aliyun.com.