999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv7的路面病害檢測算法

2024-09-14 00:00:00葛焰劉心中馬樹森趙津李鎮(zhèn)宏
現(xiàn)代電子技術(shù) 2024年11期

摘" 要: 針對公路路面病害圖像存在光影變化大、背景干擾多、尺度差異大等問題,提出基于改進YOLOv7的路面病害檢測算法。首先,對YOLOv7網(wǎng)絡(luò)模型中的ELAN模塊進行了優(yōu)化,通過通道和空間注意力機制優(yōu)化信息提取,增強網(wǎng)絡(luò)對重要特征的提取能力;接著,使用ACmix注意力模塊提高網(wǎng)絡(luò)對小目標的關(guān)注度,有效解決原網(wǎng)絡(luò)模型對小目標的漏檢問題;其次,采用大下采樣比率的卷積輸出,提高對小目標的檢測精度;最后,引入WIoUv3替換原網(wǎng)絡(luò)模型中的CIoU來優(yōu)化損失函數(shù),構(gòu)造梯度增益的計算方法來附加聚焦機制。實驗結(jié)果表明:改進后的YOLOv7模型平均精度均值(mAP)與原模型相比提升了4.5%,檢測效果優(yōu)于原網(wǎng)絡(luò)模型與傳統(tǒng)經(jīng)典目標檢測網(wǎng)絡(luò)模型。

關(guān)鍵詞: 目標檢測; YOLOv7; 路面病害; 損失函數(shù); WIoUv3; 注意力機制

中圖分類號: TN911.73?34; TP391.41" " " " " " " "文獻標識碼: A" " " " " " " " " 文章編號: 1004?373X(2024)11?0031?07

Pavement distress detection algorithm based on improved YOLOv7

GE Yan, LIU Xinzhong, MA Shusen, ZHAO Jin, LI Zhenhong

(School of Ecological Environment and Urban Construction, Fujian University of Technology, Fuzhou 350118, China)

Abstract: In view of the substantial light and shadow variations, excessive background interference and large scale differences in highway pavement distress images, a pavement distress detection algorithm based on improved YOLOv7 is proposed. This research primarily focuses on the optimization of the ELAN module within the YOLOv7 network model, wherein an advanced amalgamation of channel and spatial attention mechanisms is employed to optimize the information extraction and elevate the network′s ability in discerning and extracting important features. In order to mitigate the issue of missed detections of smaller objects in the original network model, the ACmix attention module is adeptly integrated, which amplifies the network′s acuity towards smaller?scale objects. This paper introduces an innovative approach by adopting a convolutional outputs with heightened downsampling ratio to improve the precision in detecting smaller objects. The WIoUv3 is introduced to replace CIoU of the original network model to optimize the loss function, and the computation of gradient gain is constructed to attach the focusing mechanism. The experimental results show that the mean average precision (mAP) of the model based on improved YOLOv7 is increased by 4.5% relative to that of the original model, and its detection effect is better than not only the original network model but also the traditional classical object detection model.

Keywords: object detection; YOLOv7; pavement distress; loss function; WIoUv3; attention mechanism

0" 引" 言

隨著深度學習技術(shù)的快速發(fā)展,目標檢測領(lǐng)域取得了顯著的進展。路面病害檢測作為交通基礎(chǔ)設(shè)施維護和安全保障的重要任務(wù),不僅關(guān)系到道路的使用壽命和維護成本,更直接影響著行車安全和交通流暢,因此對路面病害的及時準確檢測變得尤為關(guān)鍵。然而,路面病害圖像的檢測面臨多重挑戰(zhàn),如光影變化大、背景干擾多、病害信息弱、尺度差異大[1]等問題,使得傳統(tǒng)方法難以取得令人滿意的檢測效果。

近年來,許多學者針對基于深度學習的路面病害檢測算法展開了相關(guān)工作。文獻[2]提出一種改進Faster?RCNN[3]的瀝青路面裂縫檢測方法,精度達到85.64%,但檢測速度較慢,不適用于快速實時檢測的應(yīng)用。文獻[4]將特征融合思想引入U?Net的跳躍連接,并添加特征細化頭來優(yōu)化網(wǎng)絡(luò),提高模型的泛化能力和通用性。但模型參數(shù)較大,不利于實時檢測。文獻[5]將修剪技術(shù)和EvoNorm?S0結(jié)構(gòu)引入YOLOv4[6]網(wǎng)絡(luò),可以處理工程檢測中復雜且容易產(chǎn)生歧義的目標。然而,YOLOv4的訓練和預測時間較長,仍有提升實時性能的空間。文獻[7]使用組合濾波?三直方圖均衡化算法弱化背景環(huán)境干擾,并在YOLOv7模型的骨干架構(gòu)中引入M?MHSA模塊,提升模型的準確率和在復雜背景下的特征提取能力,但不能很好地平衡檢測精度和檢測速度。

為了解決上述問題,本文提出一種基于改進YOLOv7的路面病害檢測算法,在檢測效率和精度之間取得了較好的平衡。在YOLOv7基準網(wǎng)絡(luò)的ELAN模塊進行優(yōu)化來增強網(wǎng)絡(luò)提取到關(guān)鍵特征的能力;接著,引入注意力機制,降低網(wǎng)絡(luò)對小目標的漏檢率;其次,優(yōu)化檢測頭,提高對小目標的檢測精度;最后,替換原網(wǎng)絡(luò)中的損失函數(shù)來提升模型的定位性能。

1" YOLOv7算法

YOLOv7[8]的網(wǎng)絡(luò)模型由輸入端(Input)、骨干網(wǎng)絡(luò)(Backbone)、頸部(Neck)以及檢測頭(Head)這四部分構(gòu)成。首先,圖像通過預處理過程進行歸一化和大小調(diào)整,以適應(yīng)模型的輸入尺寸要求。通常,輸入圖像會被轉(zhuǎn)換成一個640×640×3尺寸的圖片,作為模型的輸入,然后傳遞到骨干網(wǎng)絡(luò)。骨干網(wǎng)絡(luò)通過一系列卷積、池化和非線性激活函數(shù)的操作實現(xiàn)對圖像的特征提取,隨后,提取到的特征經(jīng)過Neck模塊特征融合處理得到3 種不同尺寸的特征[9]。最后,由主干網(wǎng)絡(luò)輸出的3個特征層在頭部得到進一步訓練,經(jīng)過整合不同尺寸的預測結(jié)果,實現(xiàn)對目標的多尺度檢測。

YOLOv7網(wǎng)絡(luò)架構(gòu)如圖1所示,Backbone部分由CBS、ELAN和MP模塊構(gòu)成,這些模塊共同實現(xiàn)了對輸入圖像的特征提取。

CBS模塊通過高效的特征重用提高模型的性能,ELAN模塊則通過增強大尺寸激活區(qū)域來促進特征的提取。MP模塊則通過最大池化操作實現(xiàn)對特征圖的下采樣,減小計算負擔同時保持關(guān)鍵信息。Neck部分包括FPN(Feature Pyramid Network)和PAN(Path Aggregation Network)模塊,主要負責融合多尺度特征圖的信息。FPN模塊通過自上而下和自下而上的路徑連接,實現(xiàn)了特征圖的金字塔式融合,提升了模型對不同尺度目標的感知。

PAN模塊進一步增強了信息融合,通過路徑聚合機制有效地整合了特征圖中的語義信息。Head部分由SPPCSPC、ELAN?C、MP和REP(Reorganize Exponential Parameterization)模塊構(gòu)成,負責最終的目標預測。SPPCSPC模塊通過空間金字塔池化實現(xiàn)對不同感受野的信息捕捉,提高了模型的感知廣度;REP模塊則通過重新組織參數(shù),優(yōu)化了模型的表達能力,有助于更精準的目標定位。

2" YOLOv7算法改進

2.1" CBAM?ELAN模塊

ELAN模塊是一種局部區(qū)域關(guān)注模塊,旨在幫助模型在圖像中建立局部關(guān)聯(lián)性。然而,對于許多計算機視覺任務(wù),特征表示的提升需要考慮到通道關(guān)注,因為通道維度中包含了豐富的語義信息。因此,在ELAN模塊中引入CBAM[10](Convolutional Block Attention Module)注意力機制,如圖2所示。CBAM?ELAN模塊能夠增加重要特征通道的權(quán)重,減少次要特征通道的權(quán)重,以實現(xiàn)對關(guān)鍵特征的強化和對次要特征的抑制,從而提升模型的檢測性能[11]。

CBAM?ELAN模塊原理如下:首先,給定具有維度[H'×W'×C](高度[H']、寬度[W']、通道數(shù)[C])的特征圖[X'],經(jīng)過ELAN的卷積操作,形成維度為[H×W×C]的特征圖[U];隨后,CBAM的通道注意力模塊(CAM)通過進行全局平均池化將特征圖[U]的空間維度降采樣為[1×1×C],并學習通道權(quán)重以反映各通道的重要性;然后,通過Sigmoid歸一化生成的通道權(quán)重對特征圖[U]進行加權(quán)操作。此外,CBAM的空間注意力模塊(SAM)通過全局最大池化、全連接層和激活函數(shù),學習特征圖的空間權(quán)重以提高空間分辨率,并應(yīng)用Sigmoid歸一化生成權(quán)重,對特征圖[U]進行加權(quán)操作。

2.2" ACmix注意力模塊

路面病害圖像往往出現(xiàn)在復雜的背景環(huán)境中[12?13],可能受到光照、陰影、雜物等因素的干擾,這使得它們在圖像中與背景混淆,難以通過傳統(tǒng)的特征提取方法捕獲其鮮明的特征信息。為了有效地識別和檢測路面病害,本文引入ACmix注意力機制來改進路面病害的識別和檢測。ACmix注意力機制[14]選擇性地關(guān)注圖像中相關(guān)區(qū)域,并動態(tài)調(diào)整注意力以強調(diào)重要的病害位置。這種集成注意力機制的方法將增強網(wǎng)絡(luò)對小尺寸、弱特征的病害感知能力[15],從而提高識別和檢測的準確性。如圖3所示,ACmix注意力模塊有效地結(jié)合了傳統(tǒng)卷積和自注意力模塊的優(yōu)點。

ACmix分為兩個關(guān)鍵階段。在初始階段,輸入的[H×W×C]特征經(jīng)過三層卷積操作進行投影,將特征重新組合成[N]個子集,形成包含3×[N]個特征映射的子特征集。接下來,這些生成的特征子集被饋送到兩個獨立的分支。在上分支中,遵循一個核大小為[k]的卷積路徑,以從局部接收域中收集信息。這些特征隨后經(jīng)過一個輕量級的全連接層,并經(jīng)歷了一系列移位、聚合和卷積操作,最終生成了[H×W×C]的特征映射。同時,下分支利用自注意力機制來整合全局信息。3[N]個中間特征對應(yīng)三個特征圖,分別為Query、Key和Value。這些分組特征被送入多頭自我關(guān)注模型中進行處理。接著,通過一系列的移位、聚合和卷積操作,產(chǎn)生了[H×W×C]的特征圖。最后,兩個分支的輸出進行加權(quán)求和,如式(1)所示:

[Fout =αFatt +βFconv ] (1)

式中:[Fout ]表示輸出結(jié)果;[Fatt ]表示自注意力路徑上的輸出;[Fconv ]表示卷積注意力路徑上的輸出;[α]和[β]的值為1。

2.3" 大下采樣模塊

考慮到路面病害在圖像中占據(jù)較小的像素,以及YOLOv7算法在多次下采樣過程中可能會丟失小目標的特征信息,因此本文在不改變其他特征圖尺度的前提下,對頸部網(wǎng)絡(luò)進行了優(yōu)化:在原有頸部網(wǎng)絡(luò)上采樣過程的最后一個ELAN?C模塊之后,添加了一個分辨率為160×160的P2檢測層。P2檢測層的輸入由兩部分組成。首先,一部分是主干網(wǎng)絡(luò)中第一個ELAN?C模塊進行卷積后的特征圖;其次,另一部分是經(jīng)過卷積和上采樣操作擴展的特征圖。通過融合這兩部分的特征圖,P2檢測層得到了包含豐富位置信息的特征圖。P2、P3、P4、P5檢測層分別對應(yīng)4倍、8倍、16倍、32倍下采樣特征圖。由于4倍下采樣特征圖的感受野較小,位置信息更加豐富,因此其特征圖包含大量小目標的紋理特征和更多的細節(jié)信息。在特征圖的傳遞過程中,能夠最大程度地保留小目標的特征,從而提升小目標檢測精度。最終改進后的I?YOLOv7檢測頭如圖4所示。

2.4" WIoUv3損失函數(shù)

YOLOv7中的損失函數(shù)如公式(2)所示:

[Lobject=Lloc+Lconf+Lclass] (2)

式中:[Lloc]表示定位損失;[Lconf]表示置信度損失;[Lclass]表示分類損失。

置信度損失和分類損失函數(shù)使用二元交叉熵損失,定位損失使用CIoU[16]損失函數(shù)。CIoU公式為:

[LCloU=1-IoU+ρ2b,bgtc2+αv] (3)

[v=4π2arctan wgthgt-arctan wh2] (4)

[α=v1-IoU+v] (5)

式中:[ρ2]([b,bgt])表示預測框和真實框中心點之間的歐氏距離;[c]表示兩框相交時構(gòu)成的最小外接矩形的對角線距離;[α]為權(quán)重參數(shù);[v]用來衡量長寬比;[wgt]、[hgt]和[w]、[h]分別表示真實框?qū)挕⒏咭约邦A測框?qū)挕⒏摺氖剑?)可以看出,當預測框的寬高比與真實框的寬高比相等時,CIoU損失函數(shù)中的懲罰項[v]為零,這可能導致?lián)p失函數(shù)在某些情況下變得不穩(wěn)定。

為了解決CIoU損失函數(shù)不穩(wěn)定的問題,提出了WIoU(Wise Intersection over Union)損失函數(shù),WIoU通過構(gòu)建兩層注意力機制來防止收斂速度過慢,提高了收斂精度,并增強了模型的泛化能力。

假設(shè)([x],[y])在目標框的對應(yīng)位置為([xgt],[ygt]),[RWIoU]表示高質(zhì)量錯框的損失,WIoUv1公式為:

[LWIoUv1=RWIoULIoU] (6)

其中:

[RWIoU=expx-xgt2+y-ygt2wc2+hc2*] (7)

在WIoUv1的基礎(chǔ)上,利用[β]構(gòu)造了一個非單調(diào)聚焦系數(shù),得到具有動態(tài)非單調(diào)的WIoUv3,以提高模型的檢測性能。WIoUv3公式為:

[LWIoUv3=λLWIoUv1] (8)

其中:

[λ=βδαβ-δ] (9)

[β=L*IoULIoU] (10)

3" 實驗結(jié)果與分析

3.1" 數(shù)據(jù)集

本文使用印度理工學院與東京大學開源的RDD 2022[17]數(shù)據(jù)集。該數(shù)據(jù)集總共包含47 420張來自六個不同國家的道路病害圖像。本文僅使用日本的13 133張圖像、印度的9 665張圖像、美國的6 005張圖像和中國的4 478張圖像,共 33 281張圖像。

鑒于該數(shù)據(jù)集存在明顯的類別不平衡問題,本研究移除了標簽數(shù)量極為有限的分類,包括但不限于 D01:縱向拼接縫,D11:橫向拼接縫,以及與道路病害無直接關(guān)聯(lián)的標簽。僅保留了四個國家共同具有的與道路病害直接相關(guān)的標簽,即D00:縱向裂縫,D10:橫向裂縫,D20:網(wǎng)狀裂縫,以及D40:坑洞等四個類別[18]。數(shù)據(jù)集部分樣本如圖5所示。篩選后的數(shù)據(jù)集共包含帶標注圖片28 802張,其中訓練集、測試集、驗證集的比例設(shè)為8∶1∶1,最終劃分結(jié)果為:訓練集23 042張圖片,測試集和驗證集2 880張圖片。

3.2" 評價指標

在路面病害檢測實驗中,通常使用準確率[P](Precision)和召回率[R](Recall)等指標來評估算法的性能。準確率是指檢測出的正樣本數(shù)與檢測出的總樣本數(shù)之比;召回率是指檢測出的正樣本數(shù)與所有正樣本數(shù)之比。評價指標公式分別如下:

[P=TPTP+FP] (11)

[R=TPTP+FN] (12)

[AP=01P(R)dR] (13)

式中:TP表示成功檢測到的目標數(shù)量;FP表示錯誤地將非目標區(qū)域識別為目標;FN表示未能正確檢測到的目標數(shù)量。通過對每個類別的AP(AP為[P?R]曲線下的面積,反映模型對某個類別識別效果的好壞)值取平均值,可以得到mAP(mean Average Precision),通常用來評價模型在所有類別上的性能。

3.3" 實驗環(huán)境及訓練過程

本文實驗使用Pytorch框架,實驗配置的具體信息如表1所示。

在模型訓練過程中,圖像輸入尺寸為640×640,初始學習率為0.01,動量為0.9,batch size為16,迭代次數(shù)為100次。網(wǎng)絡(luò)損失值的變化曲線如圖6所示。

觀察圖6的損失曲線發(fā)現(xiàn),在前40輪的訓練中,損失曲線下降速度較快,曲線波動大。當模型訓練到60輪時,損失曲線已經(jīng)接近水平狀態(tài),收斂效果理想。相比原模型下降了0.024 2,表明改進后模型的訓練效果更加理想。

3.4" 消融實驗

為了對比不同模塊在路面病害測試集上的檢測效果,通過在YOLOv7網(wǎng)絡(luò)基礎(chǔ)上進行五組消融實驗,深入分析了不同模塊對于路面病害檢測性能的影響。CBAM?ELAN、ACmix、檢測頭優(yōu)化和WIoUv3,以及這些模塊的組合使用對于模型性能的影響,實驗結(jié)果如表2所示。

由表2可知,實驗A作為基準,沒有引入任何額外模塊,其mAP為75.4%,為后續(xù)實驗設(shè)定了初始性能評估基線。當加入CBAM?ELAN模塊時,mAP提升至76.2%,增加了0.8%,證明了通道和空間注意力機制在關(guān)鍵特征提取上的有效性。接著,當加入ACmix模塊,mAP提升至78.1%,增加了1.9%,證明該模塊能顯著提高網(wǎng)絡(luò)對小尺度病害的識別能力。此外,當加入WIoUv3模塊,通過優(yōu)化損失函數(shù)提升了模型的收斂速度和回歸精度,使mAP增至78.8%,提升了0.7%。最后,將所有模塊結(jié)合使用,結(jié)果顯示mAP達到了79.9%,驗證了這些模塊綜合應(yīng)用在提升網(wǎng)絡(luò)性能方面的顯著效果,為路面病害檢測任務(wù)帶來了更高的準確性和魯棒性。

3.5" 對比實驗

為進一步分析I?YOLOv7模型的綜合性能,將本文算法與Faster R?CNN、YOLOv5、YOLOv6、YOLOv7共5種算法在測試集上進行對比,實驗結(jié)果如表3和表4所示。從表3中可知,I?YOLOv7在準確率、召回率和mAP等指標上均顯著優(yōu)于其他對比算法。相較于YOLOv7,改進后的I?YOLOv7準確率提升了7.7%,召回率提升了2.4%,mAP提升了4.5%。相比其他算法,I?YOLOv7在綜合性能上表現(xiàn)出色,驗證了本文引入的多模塊改進在路面病害檢測任務(wù)中的有效性。進一步觀察表4,I?YOLOv7對于各類病害都取得了較高的平均準確率,遠遠超過其他模型。

圖7為部分測試集檢測結(jié)果,可以看出在復雜的道路背景下,本文I?YOLOv7算法比原模型擁有更好的檢測效果。圖7a)中出現(xiàn)了誤檢現(xiàn)象,在圖7c)和圖7e)都出現(xiàn)了漏檢現(xiàn)象,而圖7b)、圖7d)、圖7f)和圖7h)中檢測出所有的目標且有著更高的檢測精度。

4" 結(jié)" 論

針對路面病害圖像存在光影變化大、背景干擾多、尺度差異大等問題,本文提出一種基于YOLOv7改進的路面病害檢測方法。首先,對原網(wǎng)絡(luò)的ELAN模塊進行優(yōu)化,強化了網(wǎng)絡(luò)對關(guān)鍵特征的提取能力;接著,在YOLOv7的主干網(wǎng)中引入ACmix注意力模塊,將自注意力機制和傳統(tǒng)卷積注意力機制相融合,提高了對細小病害的檢測精度;其次,添加分辨率為160×160的P2檢測層,提高對小目標的檢測精度;最后,對損失函數(shù)進行優(yōu)化,使用WIoUv3替換原網(wǎng)絡(luò)的CIoU損失函數(shù),增強了網(wǎng)絡(luò)模型的收斂速度,提高了檢測的準確性。實驗結(jié)果表明,改進后的YOLOv7模型檢測效果優(yōu)于原模型和傳統(tǒng)目標檢測模型。下一步將在保證模型高檢測精度的前提下,優(yōu)化模型的計算效率,以滿足實時性需求。

參考文獻

[1] 陳建瑜,鄒春龍,王生懷,等.改進YOLOv5的路面缺陷快速檢測方法研究[J].電子測量技術(shù),2023,46(10):129?135.

[2] 徐康,馬榮貴,基于改進Faster?RCNN的瀝青路面裂縫檢測[J].計算機系統(tǒng)應(yīng)用,2022,31(7):341?348.

[3] REN S Q, HE K M, GIRSHICK R, et al. Faster R?CNN: Towards real?time object detection with region proposal networks [J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(6): 1137?1149.

[4] 張明星,徐健,劉秀平,等.改進U?Net的路面裂縫檢測方法[J/OL].計算機工程與應(yīng)用,1?10[2023?10?10].http://kns.cnki.net/kcms/detail/11.2127.TP.20231008.1724.026.html.

[5] WU P R, LIU A R, FU J Y, et al. Autonomous surface crack identification of concrete structures based on an improved one?stage object detection algorithm [J]. Engineering structures, 2022, 272: 114962.

[6] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4:

Optimal speed and accuracy of object detection [EB/OL]. [2020?04?28]. https://arxiv.org/abs/2004.10934.

[7] 倪昌雙,李林,羅文婷,等.改進YOLOv7的瀝青路面病害檢測[J].計算機工程與應(yīng)用,2023,59(13):305?316.

[8] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag?of?freebies sets new state?of?the?art for real?time object detectors [C]// IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2023: 7464?7475.

[9] 戚玲瓏,高建瓴.基于改進YOLOv7的小目標檢測[J].計算機工程,2023,49(1):41?48.

[10] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module [C]// Proceedings of the 2018 European Conference on Computer Vision (ECCV). Heidelberg, Germany: Springer, 2018: 3?19.

[11] 范先友,過峰,俞建峰,等.基于改進YOLOv7的液晶面板電極缺陷視覺檢測技術(shù)研究[J].電子測量與儀器學報,2023,37(19):225?233.

[12] 孫建誠,楊舒涵,龔芳媛,等.基于改進YOLOv5的復雜背景下路面裂縫檢測[J].中國科技論文,2023,18(7):779?785.

[13] 竇智,胡晨光,李慶華,等.改進YOLOv7的小樣本鋼板表面缺陷檢測算法[J].計算機工程與應(yīng)用,2023,59(23):283?292.

[14] PAN X R, GE C J, LU R, et al. On the integration of self?attention and convolution [C]// Proceedings of 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2022: 805?815.

[15] 龍伍丹,彭博,胡節(jié),等.基于加強特征提取的道路病害檢測算法[J/OL].計算機應(yīng)用,1?9[2023?09?27].http://kns.cnki.net/kcms/detail/51.1307.tp.20230925.1639.010.html.

[16] ZHENG Z H, WANG P, LIU W, et al. Distance?loU loss: Faster and better learning for bounding box regression [C]// Proceedings of the 2020 AAAI Conference on Artificial Intelligence. [S.l.]: AAAI, 2020: 12993?13000.

[17] ARYA D, MAEDA H, GHOSH S K, et al. RDD2022: A multi?national image dataset for automatic road damage detection [EB/OL]. [2022?09?18]. https://doi.org/10.48550/arXiv.2209.08538.

[18] ARYA D, MAEDA H, GHOSH S K, et al. Deep learning?based road damage detection and classification for multiple countries [J]. Automation in construction, 2021, 132: 103935.

作者簡介:葛" 焰(1999—),男,碩士研究生,研究方向為計算機視覺。

劉心中(1963—),男,教授,研究方向為固體廢棄物資源化。

馬樹森(1998—),男,碩士研究生,研究方向為固廢混凝土強度預測。

趙" 津(1999—),男,碩士研究生,研究方向為固廢混凝土強度預測。

李鎮(zhèn)宏(1999—),男,碩士研究生,研究方向為計算機視覺。

主站蜘蛛池模板: 综合色区亚洲熟妇在线| 国产中文在线亚洲精品官网| 国产在线一二三区| 无码免费视频| 久久精品国产999大香线焦| 色欲色欲久久综合网| 99精品影院| 日韩区欧美国产区在线观看| 香蕉视频在线观看www| 日韩123欧美字幕| 亚洲欧洲日产国码无码av喷潮| 国产精品开放后亚洲| 精品国产福利在线| 女人18毛片久久| 国产AV无码专区亚洲精品网站| 欧美五月婷婷| 国产福利免费视频| 亚洲va欧美va国产综合下载| 操操操综合网| 欧美亚洲欧美| 亚洲成人免费看| 色综合热无码热国产| 亚洲一级毛片免费看| 欧美中日韩在线| 成人欧美日韩| 真实国产乱子伦高清| 国内熟女少妇一线天| 欧美亚洲激情| 美女一级毛片无遮挡内谢| 日韩无码视频专区| 国产高颜值露脸在线观看| 99视频只有精品| 亚洲激情99| 日韩视频福利| 狠狠亚洲婷婷综合色香| 亚洲AV色香蕉一区二区| 欧美亚洲国产精品久久蜜芽| 无码有码中文字幕| 东京热av无码电影一区二区| 99国产精品国产| 欧美区在线播放| 国外欧美一区另类中文字幕| 一级毛片免费高清视频| 亚洲三级成人| 激情国产精品一区| 欧美日韩成人| 99视频国产精品| 国产成人a毛片在线| 午夜天堂视频| 一级爆乳无码av| 91丨九色丨首页在线播放 | 欧美激情视频在线观看一区| 国产视频自拍一区| 精品人妻AV区| 中文字幕 日韩 欧美| 成AV人片一区二区三区久久| 久久久四虎成人永久免费网站| 国产精品久久久久婷婷五月| 四虎永久在线| 亚洲国产一区在线观看| 一个色综合久久| 日韩美毛片| 天堂中文在线资源| 亚洲一级色| 精品欧美一区二区三区在线| 亚洲五月激情网| 狠狠亚洲五月天| 欧美一级特黄aaaaaa在线看片| 国产精品毛片一区| 成人在线视频一区| 国产视频a| 国产第二十一页| 国产屁屁影院| 青青草a国产免费观看| 免费人成视频在线观看网站| 欧美不卡视频在线观看| 国产视频 第一页| 中文字幕资源站| 亚洲爱婷婷色69堂| 欧美日韩福利| 成人毛片在线播放| 狠狠色狠狠色综合久久第一次|