999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

R-YOLO軌道人員目標檢測模型

2024-01-05 02:44:56張永強李勝男張子強劉健章
河北科技大學學報 2023年6期
關鍵詞:鐵路檢測模型

張永強,李勝男,張子強,劉健章,張 坤,苗 磊

(1.河北科技大學信息科學與工程學院,河北石家莊 050018;2.河北省智能物聯網技術創新中心,河北石家莊 050018;3.國能朔黃鐵路發展有限責任公司,河北滄州 062350)

中國大部分鐵路的運行場景是相對開放的,人員活動范圍的隨機性非常高,常有行人、施工人員等越過鐵路防護限界,威脅列車的安全行駛[1]。2022-08-03,57003次列車在欽港線欽州東普速場至海棠站間運行時,司機發現前方約300 m處有2名女子在線路上拍照后,立即采取緊急制動停車,并鳴笛警示,所幸無人員傷亡。2022-07-26上午10:00時,臺鐵高雄路段疑行人闖入軌道,遭區間車撞上,鳳山站至九曲堂站只能單線,導致南下以及北上的列車均有延誤。因此,對鐵路周圍重點區域進行實時監測,當遇到威脅行車安全的人員入侵時,快速檢測并及時提醒工作人員進行處理成為研究熱點。

鐵路人員侵限檢測方法的成熟度還不是很高,現有方法主要包括傳統的人工巡視、物理保護隔離網檢測技術和基于視頻監控的檢測技術等[2]。傳統的人工巡視檢查方法不僅耗費大量的人力物力,且無法達到對行駛軌道情況的實時監測[3]。隨著對鐵軌上以及鐵軌周圍人員檢測要求的提高,以視頻圖像檢測為主的非接觸式檢測,尤其是基于深度學習的圖像處理方法逐漸成為研究重點[4]?;谏疃葘W習的目標檢測算法,例如卷積神經網絡(convolutional neural network,CNN),學習出檢測目標的原始特征,相較于傳統的行人檢測算法,具有更強的判別能力和泛化能力[5]?;诰矸e神經網絡的目標檢測算法分為單階段算法和雙階段算法,單階段算法YOLO使用卷積神經網絡提取目標特征后,將分類問題轉換成回歸問題,直接輸出目標的類別信息和位置區域,大幅度提升了檢測效率[6]。YOLOv3優化了YOLO算法的損失函數,精簡了網絡模型,顯著提升了檢測性能[7]。目前YOLOv4是最受歡迎的一種檢測框架,其網絡結構簡單高效,具有易部署、運用場景廣泛的特性,針對紅外圖像下的小目標檢測有很大的應用前景[8]。文獻[10]利用MobileNet系列網絡代替YOLOv4模型中的CSPDarknet特征提取網絡,添加坐標注意力機制,通過權重調整的方式聚焦圖像中的感興趣區域,用最優錨配置算法平衡所有目標類別的檢測精度。文獻[14]提出了一種基于改進型YOLOv4-Tiny的電力機車行駛危險區域障礙物檢測方法,引入多頭注意力機制,進一步提高目標的檢測速度,但檢測精度不理想。文獻[15]提出了一種動態入侵區域和輕量級神經網絡的鐵路入侵檢測方法RailDet,基于輕量級神經網絡的對象識別對入侵區域進行處理,獲得坐標和類別。文獻[16]提出了一種基于改進Faster R-CNN的小尺度鐵路侵限算法,但模型較為復雜。文獻[17-20]改進了原有YOLO算法的模型結構,通過分組預訓練提升異物檢測的速度,在骨干網絡和特征融合網絡之間加入壓縮和激勵模塊,取得了良好的檢測效果,但模型參數量大。文獻[21-22]提出了基于YOLOv5的鐵軌異物入侵檢測,通過訓練模型對劃定的檢測區域進行檢測,指出SSA混合注意力機制提升了小目標識別效果,檢測準確性高但忽略了檢測速度。

深度學習算法速度慢,占用內存大,需要高性能計算機設備的支持。鐵路上的攝像頭很多,但鐵路人員入侵現象比較稀少,大量使用高性能計算機設備并不經濟。因此,在復雜的鐵路場景中需要一種高效的鐵路人員入侵檢測方法。為滿足鐵路人員入侵檢測的需求,本文以具有良好性能的YOLOv4作為基本網絡,提出一種R-YOLO軌道人員目標檢測模型,優化模型網絡結構,創新訓練方法,提升鐵路人員入侵檢測的準確率和實時性,以降低模型的誤檢漏檢率。

1 R-YOLO軌道人員目標檢測模型

R-YOLO軌道人員目標檢測模型,通過替換主干網絡和普通卷積,嵌入注意力機制,優化先驗框尺寸,采用遷移學習和混合數據集聯合訓練,解決人員識別精度不理想和誤檢漏檢等問題,降低模型大小和參數量,提高模型的檢測速度。

1.1 R-YOLO 檢測網絡

根據鐵路入侵檢測任務對檢測速度、檢測精度以及算法穩定性的要求,本文采用穩定性強的單階段目標檢測算法YOLOv4作為基本框架,基于鐵路軌道人員目標檢測的特點,對網絡的3個部分進行改進,并提出R-YOLO的檢測網絡,如圖1所示。

圖1 R-YOLO檢測網絡

1.1.1 骨干網絡的優化

深度學習模型網絡越深,表達能力越強,但是CNN網絡達到一定深度后,再加深,網絡的性能也不會提高,網絡的收斂速度會變慢,準確率降低。HE等[23]發現殘差網絡能解決這一問題,于是提出了ResNet50。ResNet50由卷積和4個Res-n模塊組成,ResNet50經過了4個Block,每一個Block中分別有3,4,6個Bottleneck。與CSPDarknet53相比,ResNet50網絡層數少且包含更多細節信息,利于數據集中的小目標檢測;模型體積小,易于部署到設備中。R-YOLO用輕量級網絡ResNet50代替了原有的Darknet作為骨干網絡,減少了網絡層數、減小了模型體積,且更適用于火車軌道小目標人員檢測。

1.1.2 深度可分離卷積

深度可分離卷積與普通卷積相比,用較小的精度損失換取極大的計算量以及內存的減少,從而加快模型檢測速度。深度可分離卷積示意圖如圖2所示,主要分為2個過程:逐通道卷積和逐點卷積。先將卷積核拆分成單通道形式,對所有通道進行卷積,獲得與輸入特征圖通道數相同的輸出特征圖;然后使用1×1卷積得到結果圖。

對于維度為DF×DF×M的輸入,卷積核尺寸為DK×DK,輸出通道數N,則深度可分離卷積與常規卷積對比后減少的計算成本,如式(1)所示。

(1)

式中:C1為深度可分卷積的計算式;C2為常規卷積的計算式。

R-YOLO利用深度可分離卷積替代PANet中的標準卷積,減少了網絡層數以及模型體積,加快了模型的識別速度。

1.1.3 有效通道注意力模塊

注意力機制是在計算能力有限的情況下,將計算資源分配給更重要的任務,同時解決信息超載問題的一種資源分配方案。分為通道注意力機制(squeeze-and-excitation networks,SENet)[24],空間注意力機制(spatial attention mechanism,SAM)以及將二者融合起來的混合注意力機制(convolutional block attention module,CBAM)[25]。有效通道注意力(efficient channel attention,ECA)模塊避免了降維對學習通道間依賴關系的不利影響,可高效實現局部跨通道交互。

圖3為有效通道注意力模塊,ECA模塊首先將輸入特征圖進行全局平均池化操作,獲得聚合特征,刪除寬度維度并交換通道和高度維度。然后進行卷積核大小為k的1維卷積操作,并經過Sigmoid激活函數得到各個通道的權重ω,將權重與原始輸入特征圖對應元素相乘,得到最終輸出特征圖。如式(2)所示。

圖3 有效通道注意力模塊

ω=σ(Conv1Dk(y)),

(2)

式中:ω為通道權重;σ為Sigmoid激活函數。

R-YOLO在加強特征提取網絡的前后3個特征層分別加入有效通道注意力模塊,在不增加大量參數的情況下增強骨干網絡輸出特征和頸部網絡輸出層對有用信息的注意力,使全局信息充分發揮作用,更好地擬合相關特征信息,提高模型對人員目標的識別效果。

1.2 K-means++聚類算法

YOLO算法是根據網絡預設的先驗框回歸到最終的預測框,因此先驗框的尺寸直接影響檢測算法的檢測精度。原YOLOv4算法的先驗框大小是根據COCO數據集目標尺寸聚類得到的,混合數據集中小目標的占比較大,與COCO數據集存在較大差異。因此,R-YOLO采用K-means++聚類算法重新對數據集進行聚類和分析,得到適合本模型數據集的Anchor,分別為(10,29),(20,49),(56,51),(37,104),(113,105),(74,184),(149,279),(256,174),(332,346)。圖4為K-means++聚類結果圖,圖中x為聚類中心,不同顏色代表混合數據集中不同類別的聚類簇。由圖4可以看出,K-means++聚類算法所選取的聚類中心都平均分布于每一類中。

圖4 K-means++聚類結果圖

1.3 遷移學習

遷移學習把任務A開發的模型作為初始點,重新應用在為任務B開發模型的過程中,通過從已學習的相關任務中轉移知識改進學習新任務。例如,學習識別蘋果可能有助于識別梨,或者學習識別彈奏電子琴可能有助于學習識別鋼琴[26]。

遷移學習在圖像識別領域同樣適用,遷移學習可以將已學習到的對圖像檢測的理解應用到新的模型中。CNN模型從數據集中獲取信息,進而獲得相應的模型權重,這些權重可以遷移到其他網絡中,加快并優化模型訓練收斂速度,使模型在小數據集上也具備較好的泛化性能。R-YOLO模型基于遷移學習思想,對模型在大樣本量的VOC數據集上進行訓練,得到最優權重,將訓練好的特征提取網絡運用到新組合的數據集中,通過新的數據集對網絡進行微調。

2 實驗設計

2.1 數據集及訓練配置

本研究數據集在VOC數據集的基礎上,增加了貨運火車實際運行場景下的相關圖像,采用混合數據集進行訓練,部分數據集圖像如圖5所示。主要的圖像數據包括VOC2007和VOC2012中各個場景下的人員目標圖像。另外,按照VOC2007格式標注了鐵路場景下的人員目標圖像。

圖5 部分數據集圖像

本文模型訓練與測試采用的軟件環境和硬件環境配置為Windows10操作系統,PyTorch深度學習框架,電腦配置的CPU型號為Intel(R) Core(TM) i7-8550U。GPU型號為NVIDIA GeForceRTX 2080 SUPER,使用Python3.6編譯器,同時配置CUDA10.1,Cudann7.6.3進行GPU加速處理。網絡總共進行300次迭代,其訓練分2個階段,先凍結模型的主干網絡,進行50個epoch的凍結訓練,接著解凍主干網絡,迭代剩余的250個epoch,初始學習率設置為0.001。

2.2 評價指標

本文選取預測框與目標框的交并比(intersection over union,IoU)大于0.5的閾值作為判定目標檢測的標準,平均精度(average precision,AP)、平均精度均值(mean average precision,mAP)和每秒幀數(frames per second,FPS)作為模型的評價指標。mAP的提升體現了改進模型檢測準確率的提高,幀速率FPS的提升體現了改進模型實時性的提高。

(3)

(4)

(5)

式中:TP指正樣本識別為正樣本的數量;FP指負樣本識別為正樣本的數量;FN指正樣本誤判為負樣本的數量;P是精度;R是召回率。AP為P-R曲線與坐標軸圍成的面積,計算如式(6)所示:

(6)

對所有類別的AP值取平均,得到均值平均精度mAP,表示為

(7)

式中:numClasses為總目標類別數;classes為目標類別集合。

2.3 對比試驗設計

為了選取更加優秀的檢測模型,本文設計了4次對比試驗。1)本模型為實現輕量化網絡,在不損失大量精度的同時替換了骨干網絡,針對輕量化網絡的選擇,對目前較流行的輕量化網絡分別作為骨干網絡進行試驗。2)為了直觀展現網絡輕量化后的參數量變化,本試驗計算了輕量化改進前后網絡的參數量,并進行對比。3)為了驗證本模型添加的注意力機制對網絡檢測精度提高的優勢,本試驗將在同網絡的相同位置分別添加SENet,ECA,CBAM和CA模塊,在相同的訓練集和測試集上進行訓練和測試,并進行對比。4)為了體現R-YOLO模型與其他模型相比的優越性,本試驗在相同設備和數據集上將R-YOLO模型與Faster R-CNN,YOLOv3,YOLOv4,YOLOv4-Tiny 4種卷積神經網絡模型進行對比。

2.4 消融實驗設計

為了更好地理解R-YOLO模型中各種改進對檢測結果的影響,在基準模型YOLOv4的基礎上,采用本文混合數據集對改進前后的模型進行訓練,對模型不同改進階段進行實驗。將YOLOv4基準模型作為模型A,將主干特征提取網絡替換為輕量化網絡ResNet50以及將部分卷積替換為深度可分離卷積作為模型B,在頸部網絡的3個特征層添加有效通道注意力機制作為模型C,最后利用K-means++聚類算法重新對數據集進行聚類分析作為模型D。

2.5 鐵路數據集測試試驗設計

為了驗證本文模型在鐵路背景下的檢測結果,建立了真實鐵路軌道人員入侵數據集,并在該數據集上進行測試。該數據集為非公開數據集,在相關鐵路段實地模擬行人入侵場景并采集高清視頻,以10~100 s為間隔將視頻轉換成圖片,用LabelImg進行圖像標注,從而完成數據集的構建。

3 結果與分析

3.1 對比試驗結果分析

表1為將骨干網絡替換為5種輕量化網絡試驗的對比結果。將骨干網絡分別替換為輕量化網絡MobileNetV1,MobileNetV2,MobileNetV3,VGG和ResNet50進行試驗,其中在替換為ResNet50后,mAP值為89.90%,結果最優。因此,選用ResNet50作為本文模型的骨干網絡。

表1 骨干網絡對比

通過將YOLOv4的骨干網絡替換為ResNet50以及將網絡中的部分普通卷積替換為深度可分離卷積可以有效減少模型的整體參數量。表2為將網絡進行輕量化改進后的參數量的對比情況,與基準模型YOLOv4相比,R-YOLO模型參數量減少了45%。

表2 網絡參數量對比

表3為在相同網絡的相同位置分別添加不同注意力模塊試驗的對比結果。由表3可以看出,增加不同注意力模塊后,模型檢測精度均有所提升。其中,添加ECA模塊后的模型精度提升最高,mAP值提升了1.62個百分點。試驗結果表明,使用ECA模塊,提高了模型對目標的關注,抑制了復雜背景的干擾。

表3 注意力機制對比

表4為不同模型的對比試驗結果。由表4可以看出,Faster R-CNN檢測準確性較高,能夠對同一目標進行多次檢測,檢測準確性較高,但檢測速度相對較慢。通過對YOLO系列網絡結構地不斷改進,在檢測速度和精度上都有顯著的提升,本文模型與輕量檢測模型YOLOv4-Tiny相比,R-YOLO模型的mAP值要高14.32個百分點。雖然YOLOv4-Tiny在模型大小和檢測速度方面均優于R-YOLO模型,但是R-YOLO模型均衡性更好,可以同時保證模型的檢測精度和速度。

表4 不同模型對比試驗結果

3.2 消融實驗結果分析

圖6為300次迭代后的模型訓練集和驗證集的Loss曲線。由圖6可以看出,本文模型在訓練過程中訓練集和驗證集的Loss值隨訓練周期增多呈下降趨勢,在0.04左右趨于穩定,說明模型在訓練過程中已達到穩定和最優。圖7為各類目標在不同改進階段的各類別AP,從圖7可以看出各類目標的AP在不同改進階段均有所提升。

圖6 訓練集和驗證集的Loss曲線

圖7 各類別AP

表5是逐步增加各種改進措施的消融實驗結果。由表5可以看出,基準模型YOLOv4的mAP為90.23%。模型B將主干特征提取網絡替換為輕量化網絡ResNet50以及將部分普通卷積替換為深度可分離卷積,檢測精度有所下降,mAP為89.90%,但是模型大小與基準模型A相比減少了50%。模型C添加有效通道注意力機制,加強了網絡的特征提取能力,進一步改進后的模型mAP值提升了1.62個百分點,檢測速度略有下降。模型D采用新的先驗框尺寸后,改進模型的定位回歸,在不影響檢測速度的情況下檢測精度進一步得到提升,mAP為91.52%。

表5 消融實驗結果

3.3 鐵路數據集測試試驗結果分析

圖8為真實鐵路軌道人員入侵數據集部分測試結果圖。由圖8可以看出,R-YOLO模型在真實鐵路數據集中表現出了極佳的檢測效果,能準確檢測到軌面以及軌道范圍中的人員目標。為了更加直觀地評價本文模型的性能,圖9對改進前后的檢測效果進行了對比。結果表明,R-YOLO在3組圖片中表現出了優異的檢測性能,檢測到了更多小目標,并識別出被遮擋目標,且不存在誤檢問題。相比于原始的YOLOv4模型,R-YOLO模型在對遮擋目標以及小目標檢測時存在的誤檢和漏檢問題都有所改進,并且FPS達到了47.73 f·s-1,滿足鐵路復雜場景下實時性與精確性的需求。

圖8 部分真實鐵路數據集測試結果

圖9 YOLOv4和R-YOLO檢測效果對比

4 結 語

本文針對骨干網絡部分進行改進,使用輕量級網絡ResNet50替換了YOLOv4中的主干特征提取網絡,在頸部和頭部網絡中,將部分3×3普通卷積替換為深度可分離卷積,使模型參數量大幅減少。在加強特征提取網絡的3個特征層分別加入有效通道注意力模塊,針對鐵路人員入侵的數據集普遍目標較小的情況,通過K-means++聚類算法重新設計網絡先驗框尺寸,提高了網絡檢測精度。R-YOLO模型采用遷移學習和混合數據集聯合訓練,解決了因鐵路含有陽性樣本數據集數量少、識別精度不理想和人員誤檢漏檢等問題。本文R-YOLO模型只對晴朗天氣軌道人員的入侵進行檢測,未來還需完善更多天氣下的軌道人員入侵檢測,如雨雪、霧天等,以提升模型的普適性。

參考文獻/References:

[1] 朱亞男,李冰毅,房楠,等.鐵路入侵智能檢測方法研究[J].機車車輛工藝,2019(2):44-45.

[2] 王瑞,李霄峰,史天運,等.基于視頻深度學習的鐵路周界入侵檢測算法研究[J].交通運輸系統工程與信息,2020,20(2):61-68.

WANG Rui,LI Xiaofeng,SHI Tianyun,et al.Railway perimeter intrusion detection algorithms based on video deep learning[J].Journal of Transportation Systems Engineering and Information Technology,2020,20(2):61-68.

[3] 王泉東,楊岳,羅意平,等.鐵路侵限異物檢測方法綜述[J].鐵道科學與工程學報,2019,16(12):3152-3159.

WANG Quandong,YANG Yue,LUO Yiping,et al.Review on railway intrusion detection methods[J].Journal of Railway Science and Engineering,2019,16(12):3152-3159.

[4] 王瑞,史天運,包云.一種基于視頻的鐵路周界入侵檢測智能綜合識別技術研究[J].儀器儀表學報,2020,41(9):188-195.

WANG Rui,SHI Tianyun,BAO Yun.Research on an intelligent comprehensive recognition technology in railway perimeter intrusion detection based on videos[J].Chinese Journal of Scientific Instrument,2020,41(9):188-195.

[5] 郭保青,王寧.基于改進深度卷積網絡的鐵路入侵行人分類算法[J].光學精密工程,2018,26(12):3040-3050.

GUO Baoqing,WANG Ning.Pedestrian intruding railway clearance classification algorithm based on improved deep convolutional network[J].Optics and Precision Engineering,2018,26(12):3040-3050.

[6] REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:Unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas:IEEE,2016:779-788.

[7] REDMON J,FARHADI A.YOLOv3:An Incremental Improvement[EB/OL].[2023-04-21].https://arxiv.org/abs/1804.02767.

[8] BOCHKOVSKIY A,WANG C Y,MARK LIAO H Y.YOLOv4:Optimal Speed and Accuracy of Object Detection[EB/OL].[2023-04-21].https://arxiv.org/abs/2004.10934.

[9] 李松江,耿蘭蘭,王鵬.基于改進Yolov4的車輛目標檢測[J].計算機工程,2023,49(4):272-280.

LI Songjiang,GENG Lanlan,WANG Peng.Vehicle target detection based on improved Yolov4[J].Computer Engineering,2023,49(4):272-280.

[10] FU Junpeng.CHENXingjie,LV Zhaomin.Rail fastener status detection based on MobileNet-YOLOv4[J].Electronics,2022,11(22):3677.

[11] ZHANG Yong,ZHOU Aibo,ZHAO Fengkui,et al.A lightweight Vehicle-Pedestrian detection algorithm based on attention mechanism in traffic scenarios[J].Sensors,2022,22(21).DOI:10.3390/s22218480.

[12] 韓淑梅,王陽萍,于坤,等.基于輕量化網絡的遙感影像鐵路沿線地物檢測方法[J].蘭州交通大學學報,2022,41(5):42-51.

HAN Shumei,WANG Yangping,YU Kun,et al.Remote sensing image detection method of ground objects along railway line based on lightweight network[J].Journal of Lanzhou Jiaotong University,2022,41(5):42-51.

[13] 朱夢瑞,牛宏俠.改進YOLOv3模型的鐵路異物入侵識別算法[J].北京交通大學學報,2022,46(2):37-45.

ZHU Mengrui,NIU Hongxia.Algorithm for railway foreign object intrusion detection by improved YOLOv3 model[J].Journal of Beijing Jiaotong University,2022,46(2):37-45.

[14] WANG Wenshan,WANG Shuang,GUO Yongcun et al.Detection method of obstacles in the dangerous area of electric locomotive driving based on MSE-YOLOv4-Tiny[J].Measurement Science and Technology,2022,33(11).DOI:10.1088/1361-6501/ac82db.

[15] CAO Zhiwei,QIN Yong,XIE Zhengyu,et al.An effective railway intrusion detection method using dynamic intrusion region and lightweight neural network[J].Measurement,2022,191.https://doi.org/10.1016/j.measurement.2021.110564.

[16] 余志強,張明.基于改進Faster RCNN的小尺度鐵路侵限算法[J].計算機工程與設計,2022,43(4):1023-1031.

YU Zhiqiang,ZHANG Ming.Improved faster RCNN based railway intrusion detection algorithm for small objects[J].Computer Engineering and Design,2022,43(4):1023-1031.

[17] 于曉英,蘇宏升,姜澤,等.基于YOLO的鐵路侵限異物檢測方法[J].蘭州交通大學學報,2020,39(2):37-42.

YU Xiaoying,SU Hongsheng,JIANG Ze,et al.Detection method of railway intruding obstacle based on YOLO algorithm[J].Journal of Lanzhou Jiaotong University,2020,39(2):37-42.

[18] WOO J,BAEK J H,JO S H,et al.A study on object detection performance of YOLOv4 for autonomous driving of tram[J].Sensors,2022,22(22).DOI:10.3390/s22229026.

[19] 管嶺,賈利民,謝征宇.融合注意力機制的軌道入侵異物檢測輕量級模型研究[J].鐵道學報,2023,45(5):72-81.

GUAN Ling,JIA Limin,XIE Zhengyu.Research on lightweight model for railway intrusion detection integrating attention mechanism[J].Journal of the China Railway Society,2023,45(5):72-81.

[20] 劉力,茍軍年.基于YOLO v4的鐵道侵限障礙物檢測方法研究[J].鐵道科學與工程學報,2022,19(2):528-536.

LIU Li,GOU Junnian.Research on detection method of railway intrusion obstacles based on Yolo v4[J].Journal of Railway Science and Engineering,2022,19(2):528-536.

[21] 蔡鑫楠,丁學文,張子怡,等.基于YOLOv5的鐵軌異物入侵檢測[J].智能計算機與應用,2022,12(11):161-167.

CAI Xinnan,DING Xuewen,ZHANG Ziyi,et al.Intrusion detection of rail foreign objects based on YOLOv5[J].Intelligent Computer and Applications,2022,12(11):161-167.

[22] 孟彩霞,王兆楠,石磊,等.改進YOLOv5s的鐵路異物入侵檢測算法[J/OL].小型微型計算機系統.(2023-02-02)[2023-05-09].http://kns.cnki.net/kcms/detail/21.1106.TP.20230217.1616.007.html.

MENG Caixia,WANG Zhaonan,SHI Lei,et al.Improved railroad foreign object intrusion detection algorithm for YOLOv5s[J/OL].Journal of Chinese Computer Systems.[2023-05-09].http://kns.cnki.net/kcms/detail/21.1106.TP.20230217.1616.007.html.

[23] HE Kaiming,ZHANG Xiangyu,REN Shaoqing,et al.Deep residual learning for image recognition[J].IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas,NV,USA:IEEE,2016:770-778.

[24] HU Jie,SHEN Li,SUN Gang.Squeeze-and-Excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT,USA:IEEE,2018:7132-7141.

[25] WOO S,PARK J,LEE J Y,et al.CBAM:Convolutional block attention module[C]//Computer Vision-ECCV 2018:Springer international publishing.Cham:Springer,2018:3-19.

[26] 徐慧智,閆卓遠,常夢瑩.一種結合ResNet和遷移學習的交通標志識別方法[J].重慶理工大學學報(自然科學),2023,37(3):264-273.

XU Huizhi,YAN Zhuoyuan,CHANG Mengying.A traffic sign recognition method based on ResNet and transfer learning[J].Journal of Chongqing University of Technology(Natural Science),2023,37(3):264-273.

猜你喜歡
鐵路檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
沿著中老鐵路一路向南
云南畫報(2021年12期)2021-03-08 00:50:54
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
鐵路通信線路維護體制改革探索與實踐
3D打印中的模型分割與打包
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 国产日韩欧美在线视频免费观看| 99re在线视频观看| 91无码人妻精品一区二区蜜桃 | www.99在线观看| 国产网站免费观看| 激情综合图区| 亚洲欧美日韩久久精品| 动漫精品中文字幕无码| 手机精品福利在线观看| 国产日韩欧美视频| 欧美精品在线看| 久久人体视频| 亚洲日韩AV无码一区二区三区人| 亚洲热线99精品视频| 99视频精品在线观看| 亚洲第一黄片大全| 欧美第二区| 国产精品粉嫩| 亚洲视频四区| 在线网站18禁| 色综合手机在线| 国产色网站| 中文字幕乱码中文乱码51精品| 国产精品妖精视频| 日韩欧美中文| 欧美成人午夜在线全部免费| 一本大道东京热无码av| 青青久久91| 性69交片免费看| av在线手机播放| 久久久91人妻无码精品蜜桃HD| 青青草原国产一区二区| 国产农村精品一级毛片视频| 国产精品亚洲va在线观看| 亚洲男人在线| 免费观看国产小粉嫩喷水| 呦女亚洲一区精品| 理论片一区| 日韩成人免费网站| 亚洲一道AV无码午夜福利| 无码AV日韩一二三区| 高潮毛片无遮挡高清视频播放| 性视频一区| 在线永久免费观看的毛片| 天天躁夜夜躁狠狠躁躁88| 国产精品美女网站| 午夜啪啪福利| 三上悠亚一区二区| 韩日无码在线不卡| 无码中文字幕乱码免费2| 国产乱人伦精品一区二区| 久久国产成人精品国产成人亚洲| 欧美成人午夜影院| 日本欧美一二三区色视频| 色综合久久无码网| 中文字幕久久波多野结衣| 国产在线精品人成导航| 精品国产成人a在线观看| 天天色天天综合| 欧美亚洲另类在线观看| av色爱 天堂网| 麻豆国产在线观看一区二区| 久久久亚洲色| 欲色天天综合网| 日本一区二区三区精品AⅤ| 91精品国产91久无码网站| 国产精品久久精品| 亚洲人在线| 欧美在线一二区| 久久天天躁狠狠躁夜夜躁| 国产精品三区四区| 国产精品无码AV片在线观看播放| 亚洲视频三级| 日本黄色不卡视频| 婷婷色在线视频| 免费看美女自慰的网站| 日韩欧美成人高清在线观看| 青青久视频| 免费观看国产小粉嫩喷水| 亚洲伊人天堂| 毛片免费在线视频| 国产欧美中文字幕|