999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

奧氏體不銹鋼焊縫超聲相控陣檢測圖像智能分類

2022-10-28 07:14:00張雨航付麗敏
湖北工業大學學報 2022年5期
關鍵詞:焊縫分類檢測

張雨航, 張 旭, 付麗敏

(1 湖北工業大學機械工程學院, 湖北 武漢 430068; 2 湖北省現代制造質量工程重點實驗室, 湖北 武漢 430068)

由于具有更高的檢測靈活性以及定量、定位精度高等優勢,無損檢測領域的超聲相控陣技術常常用于復雜工件的檢測。但在檢測過程中,由于檢測人員的過度疲勞、心理壓力、經驗不足等因素,容易導致誤檢率大大上升。而使用自動化分類方法可以消除人員精神疲勞、經驗不足等因素對檢測結果的影響。早期一些研究人員開始使用簡單的神經網絡和傳統的機器學習模型對各種類型的無損檢測缺陷圖像進行分類。如:Cruz等利用小波變換和余弦變換等方法來實現特征提取,然后使用基于主成分分析的特征提取訓練淺層神經網絡,從超聲波A掃描中檢測裂紋[1];伏喜斌在標記的改進分水嶺TOFD 檢測圖像分割的基礎上,分別利用局部相位量化和局部二值模式獲取缺陷區域的特征參數,然后將二者特征參數進行歸一化融合,再將融合特征向量用SVM模型進行分類識別,其融合特征分類識別正確率達到87.10%[2]。但是這些方法都需要人工設計提取特征的方法。深度學習領域的卷積神經網絡由于可以較好地自動提取樣本中復雜的高層次的結構特征用以描述樣本數據,反應樣本的特性,也被普遍應用到了圖像自動分類,在無損檢測領域也取得了一定進展。Zheng Tong等使用深層卷積神經網絡對探地雷達圖像進行路基缺陷自動分類,驗證準確率為96.8%[3]。Munir等設計了一個簡單的卷積神經網絡進行噪聲條件下的焊接件超聲缺陷分類,分類結果表明卷積神經網絡具備良好的魯棒性,并且在高噪聲和低噪聲情況下都有很好的預測性能[4]。谷靜等基于DenseNet網絡來進行X射線焊縫的缺陷分類識別,對焊縫缺陷識別準確率可達98.9%,但是如何更好地減少網絡參數、優化內存還有待研究[5]。

本文研究了通過輕量化卷積神經網絡MobileNetV2對奧氏體不銹鋼焊縫超聲相控陣B掃圖像數據集進行訓練和測試,以實現缺陷的自動分類,并進一步改進MobileNetV2的訓練方法和模型結構,使其在奧氏體不銹鋼焊縫超聲相控陣檢測圖像缺陷分類的任務中達到良好的分類效果。

1 焊縫缺陷檢測方法的選擇

奧氏不銹鋼在工業上應用比較普遍, 其焊縫缺陷的檢測多先采用超聲相控陣設備得到超聲相控陣圖像, 再對獲取到的檢測圖像進行分析, 判斷其有無缺陷, 人工檢測過程復雜。 雖然使用傳統的機器學習算法可以實現缺陷的自動分類, 但是需要人為地設計使用小波變換、 主成分分析等特征提取方法來對原始圖像進行特征提取預處理,然后使用經過預處理過后的特征信息數據作為訓練數據, 并且分類效果又比較依賴于特征提取的作用好壞。如果所設計的特征提取的方法不好,會影響最終的分類效果[6]。 而奧氏不銹鋼焊縫的粗晶粒以及材料各向異性導致得到的超聲相控陣檢測圖像噪聲較大, 信噪比低, 圖片質量不好,這就給人工設計提取特征帶來了困難。 而卷積神經網絡可以完成特征的自動提取, 既減少工作量, 也能使分類結果更穩定。 這也是本文選擇使用卷積神經網絡來進行奧氏體不銹鋼焊縫超聲相控陣B掃圖像缺陷分類的一個重要原因。

考慮到實際應用中硬件條件的限制導致計算資源不足等因素,本文選用目前主流的輕量化卷積神經網絡MobileNetV2。MobileNetV2基本模塊將深度可分離卷積和改良的shortcut連接相結合,使其與大型的卷積神經網絡InceptionV3、ResNet50、DenseNet121等相比擁有更少的參數量,同時能夠減小特征信息被破壞的損失,加強了網絡中特征信息的傳遞,提高了網絡的性能。

2 奧氏體不銹鋼焊縫超聲相控陣B掃圖像數據集

超聲相控陣的檢測對象為一根奧氏體316L不銹鋼管上的對接焊縫。Trueflaw有限公司在這根奧氏體不銹鋼管靠近焊縫根部的管道內徑上發現3個深度分別為1.6、4.0和8.6 mm的熱疲勞裂紋,并使用超聲相控陣技術進行了檢測。掃描采用Zetec Dynaray 64/64PR Lite探傷儀,使用的探頭是IMASONIC 1.5 MHz 1.5M5x3E17.5-9相控陣探傷儀探頭,采用剪切波進行數據采集。詳細的實驗過程見文獻[7]。

用卷積神經網絡實現超聲相控陣圖像缺陷智能分類的第一步,需要先準備好數據集。一個完整的數據集包含了訓練樣本、驗證樣本和測試樣本。本文實驗的數據集由Trueflaw公司提供。Trueflaw公司在獲取上述實驗的奧氏體不銹鋼焊縫熱疲勞裂紋超聲相控陣B掃圖像后,采用eFlaw技術擴展了原始數據集,獲取到更多有代表性的缺陷樣本。eFlaw的核心思想是從有缺陷的數據集中提取缺陷信號,然后重新將缺陷信號引入數據集中的各個位置,以提供不同位置缺陷的樣本,同時也可以將原始裂紋信號幅值進行修改后引入原始數據集,構造出一些不同尺寸的裂紋[8]。數據集中的圖像是分辨率為256×256的RGB圖像。Trueflaw公司提供的擴展后數據集一共有20000個圖像樣本,但是考慮到實際硬件條件限制,本實驗抽取了數據集中的1800張奧氏體不銹鋼焊縫超聲相控陣B掃圖像用于訓練和測試(數據劃分見表1)。圖1展示了缺陷信號在不同位置的圖像。訓練集中又抽取1/4作為驗證集。

表1 數據集劃分 張

(a)焊縫熱疲勞裂紋缺陷圖像(1) (b)焊縫熱疲勞裂紋缺陷圖像(2)圖1 焊縫熱疲勞裂紋超聲相控陣B

3 實驗及分析

本文實驗分為兩部分,均在Ubuntu20.04操作系統下進行。深度學習的框架選用tensorflow2.0。為了契合卷積神經網絡的輸入尺寸,本文先將原來的數據集圖片調整為224×224和299×299兩種不同分辨率的RGB圖像。

3.1 MobileNet V2與經典卷積神經網絡模型對比

為了追求更高的準確率,卷積神經網絡的深度和復雜度越來越大,網絡模型很難運用在移動或者嵌入式設備上,因此近幾年越來越趨向于發展輕量化的卷積神經網絡。第一部分實驗選取MobileNetV2與具有代表性的InceptionV3[9-10]、ResNet50[11]、DenseNet121[12]卷積神經網絡進行對比。模型訓練過程中迭代次數設為50次,batch_size設為4,初始學習率設為0.001,學習率下限設為0.000001。如果訓練過程中每迭代10次,模型在驗證集上的準確度不提升時,學習率減小2/3。對比結果見表2。

表2 實驗一測試集Accuracy與Precision、Recall和F1-score對比

通過對比各個模型Accuracy和F1-score可以直觀地判斷出:迭代訓練50次后,DenseNet121和ResNet50的分類效果最佳;InceptionV3略低于DenseNet121和ResNet50;而MobileNetV2 的表現最差,且與其他3種網絡模型相比差距較大。雖然結果表明DenseNet121和ResNet50的分類效果優于MobileNetV2,但是相比于MobileNetV2,DenseNet121和ResNet50參數量巨大,內存占用大,不適用于移動或者嵌入式設備上。

3.2 改進了的MobileNetV2

采用圖像分類常用的Accuracy、Precision、Recall和F1-score幾項指標來評估模型分類效果。評估指標計算公式

(1)

(2)

(3)

(4)

其中:TP為實際有缺陷并且被預測為有缺陷的樣本數;TN為實際無缺陷并且被預測為無缺陷的樣本數;FP為實際無缺陷但是被預測為有缺陷的樣本數;FN為實際有缺陷但是被預測為無缺陷的樣本數。

通過查看MobileNetV2在驗證集上的準確度后發現,MobileNetV2最終在驗證集上的準確度(Accuracy)為0.957,而測試集上的準確度卻為0.908,說明MobileNetV2發生了過擬合。為解決過擬合的問題,本文從減緩學習速率和降低模型復雜度兩方面對MobileNetV2模型訓練進行改進。

為了通過減緩學習速率來防止模型訓練過擬合,在參數設置上將原來訓練過程中每迭代10次、模型在驗證集上的準確度不提升時學習率減小2/3,改為每迭代5次,模型在驗證集上的準確度不提升時學習率減小2/3。

為了通過降低MobileNetV2模型的復雜度來達到防止模型訓練過擬合的目的,本文將MobileNetV2的平均池化層前的1×1卷積去除,網絡最終輸出的特征向量維數也由1280下降到了320,同時在全連接層前引入了Dropout層。改進后的MobileNetV2網絡結構如圖2所示,MobileNetV2中的瓶頸層結構如圖3所示[13]。

圖2 改進MobileNetV2后的網絡結構

圖3 MobileNetV2中的瓶頸層結構

上述處理一方面能夠防止模型學習到一些不必要的特征,從而防止過擬合,另一方面改進后的MobileNetV2模型參數量由2 260 546個下降到1 843 906個,相比于原始的MobileNetV2模型下降18.4%,權重文件大小也有所減小,進一步輕量化了模型,減小了內存占用(各模型參數量和權重文件大小見表3)。改進后模型和訓練方式后的MobileNetV2模型(即MobileNetV2(1))測試結果見表4。

表3 各模型參數量和權值文件大小

表4 測試結果

MobileNetV2(1)代表改進MobileNetV2的訓練方法和模型結構后模型在訓練集上的測試結果。從實驗結果可以看出,改進MobileNetV2的訓練方法和模型結構以后,模型在測試集上的Accuracy、Precision、Recall和F1-score分別提升了9.2%、15.1%、0.7%、8.4%,且均達到了100%,與實驗一中的DenseNet121和ResNet50達到了相同的分類效果,并且驗證集上的準確度也為100%。這說明改進MobileNetV2的訓練方法和模型結構以后,確實能夠防止模型過擬合,提高了模型的泛化能力,進而提高了模型的分類效果。

4 結束語

本文通過卷積神經網絡的方法對奧氏體不銹鋼焊縫超聲相控陣B掃圖像進行了有無缺陷的智能分類。結果表明,雖然奧氏不銹鋼焊縫圖像噪聲較大,但是卷積神經網絡可以高精度識別缺陷與非缺陷圖像。本文通過改進輕量化卷積神經網絡MobileNetV2,在保證其準確度的前提下,減小了模型的參數以及權重文件大小,優化了內存,有利于這項技術未來在移動端上應用。

猜你喜歡
焊縫分類檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
分類算一算
基于焊縫余高對超聲波探傷的影響分析
TP347制氫轉油線焊縫裂紋返修
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
機器人在輪輞焊縫打磨工藝中的應用
主站蜘蛛池模板: 一级成人a毛片免费播放| 97免费在线观看视频| 尤物午夜福利视频| 一本久道久久综合多人| 亚洲码在线中文在线观看| 久久综合亚洲色一区二区三区| 国产白浆在线| 亚洲成人在线网| 国产中文一区a级毛片视频| 波多野结衣久久精品| 91久久国产综合精品女同我| 久久一日本道色综合久久| 色婷婷国产精品视频| 国产精品护士| 四虎成人精品| 中文字幕在线永久在线视频2020| 欧美日韩一区二区在线免费观看| 无码高潮喷水在线观看| 98精品全国免费观看视频| 都市激情亚洲综合久久| 国产精品视频a| 青青草国产一区二区三区| 久久成人18免费| 久久精品无码国产一区二区三区| 亚洲中文字幕在线一区播放| 国产偷倩视频| 日韩欧美网址| 啊嗯不日本网站| 新SSS无码手机在线观看| 欧美性爱精品一区二区三区| 农村乱人伦一区二区| 国产精品私拍在线爆乳| 成色7777精品在线| 亚洲制服中文字幕一区二区 | 久久久久人妻一区精品| 色综合热无码热国产| 日韩福利在线观看| 亚洲女人在线| 91欧美在线| 国产精品男人的天堂| 日韩毛片免费视频| 色婷婷成人| 免费观看精品视频999| 国产欧美日韩va| 秋霞午夜国产精品成人片| 亚洲日韩高清在线亚洲专区| 国产精品无码一区二区桃花视频| 国产精品网址在线观看你懂的| 久久免费观看视频| 亚洲无码高清一区| 久久综合丝袜长腿丝袜| 亚洲男人在线| 免费观看国产小粉嫩喷水| 高潮毛片免费观看| 国产一区在线视频观看| 国产免费网址| 91精品伊人久久大香线蕉| 永久在线精品免费视频观看| 国产精品无码影视久久久久久久 | 在线观看亚洲天堂| 自慰网址在线观看| 99在线免费播放| 亚洲 日韩 激情 无码 中出| 久久国产精品影院| 狼友视频国产精品首页| 国产九九精品视频| 国产成人综合亚洲欧美在| 亚洲天堂色色人体| 亚洲国产一区在线观看| 欧洲成人免费视频| 久久狠狠色噜噜狠狠狠狠97视色| 婷婷激情五月网| 无码国产伊人| 午夜精品福利影院| 国产乱码精品一区二区三区中文 | 国产精品夜夜嗨视频免费视频| 91久久国产热精品免费| 日韩欧美一区在线观看| 国产视频资源在线观看| 一级黄色网站在线免费看| 丁香亚洲综合五月天婷婷| 国产在线小视频|