999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

推力室釬焊身部焊縫缺陷的DR數字成像自動檢測方法

2023-07-26 02:31:46任文堅王永紅李春凱石玗孫忠誠劉國增
焊接 2023年7期
關鍵詞:分類檢測模型

任文堅,王永紅,李春凱,石玗,孫忠誠,3,劉國增

(1. 西安航天發動機有限公司,西安 710100; 2. 蘭州理工大學,省部共建有色金屬先進加工與再利用國家重點實驗室,蘭州 730050; 3. 蘭州瑞奇戈德測控技術有限公司,蘭州 730010)

0 前言

推力室作為液體火箭發動機中最為重要的組成部分之一,在實際火箭發動機運行過程中通常需要承受高溫、高壓熱流的燒蝕和沖擊載荷[1-2]。為保證推力室服役性能的穩定性和可靠性,推力室壁的冷卻方式通常需采用在內外壁之間加入波紋板結構夾層或銑槽結構夾層的再生冷卻,即液體推進劑以一定流速通過推力室內外壁之間的冷卻通道,吸收并帶走內壁上的熱量,從而實現推力室壁的快速冷卻和降溫[3-5]。推力室身部內外壁冷卻通道的連接通常采用釬焊工藝[6]。為避免由于焊接過程中工藝參數(釬焊溫度分布、釬料用量等)或裝配精度波動產生缺陷影響到焊接質量乃至整個推力室的局部再生冷卻障礙導致內壁燒穿,釬縫需要采用X射線檢測技術進行缺陷探傷和質量評定[7-9]。

目前,對于推力室身部釬縫缺陷的X射線檢測技術主要采用膠片照相法和DR數字成像檢測法。就現有的研究而言,這2種方法都存在一定的局限性。對于膠片照相法而言,主要存在以下問題:①工藝流程(曝光、膠片沖洗等)周期長、檢測效率低[10];②膠片圖像難以實現數字化、自動化及智能化評定。DR數字成像檢測法利用平板探測器替代傳統膠片在一定程度上解決了膠片照相法檢測效率低且難以實現自動化檢測過程的難題,但受制于缺陷評定過程仍主要依賴于人工,導致缺陷檢測難以實現從X射線檢測到缺陷評定的全流程、智能在線檢測[11]。因而,開發一種能夠實現推力室釬焊身部缺陷的智能在線X射線檢測與識別的方法成為了亟待解決的關鍵技術難題。

針對上述難題,提出了一種基于DR數字成像技術的推力室釬焊身部焊縫缺陷自動檢測方法,分析了推力室身部釬縫的缺陷類型,開發了基于深度學習理論的改進型Faster R-CNN缺陷自識別模型并通過在DR自動檢測系統中模型部署實現了推力室釬縫缺陷的智能在線檢測。

1 推力室釬縫結構與缺陷類型

推力室釬縫主要存在2種結構形式:波紋板結構和銑槽結構,如圖1和圖2所示。波紋板結構內外壁(釬焊厚度為0.8 mm)和銑槽結構內外壁(釬焊厚度為0.02 mm)之間的連接通常采用釬焊工藝。實際焊接過程中受工藝參數和裝配間隙的影響,釬縫容易出現內壁未焊上、外壁未焊上、通道釬料堆積、堵塞等4類常見缺陷。

圖1 波紋板結構

圖2 銑槽結構

2 DR數字成像缺陷自動檢測系統

考慮到實際推力室的尺寸和結構特點,設計了基于DR數字成像檢測技術的焊縫缺陷自動檢測系統,該系統主要由以下幾部分組成:X射線機、探測器、機器人、旋轉轉臺、機械系統、軟件系統等,如圖3所示。射線源和平板探測器的設備參數見表1。檢測時機器人控制平板探測器沿推力室外壁移動,射線源(位于推力室內部)同步讀取機器人高度,即可實現整個推力室身部釬縫的DR自動檢測。推力室身部釬縫采用源在內、單壁單影透照工藝,整個身部在高度方向分24個區、每個高度周向分不同的分區數,完成整個推力室身部釬縫檢測共需535張DR 圖像。

表1 設備參數

圖3 DR數字成像自動焊縫缺陷檢測系統

3 深度學習神經網絡模型設計

為實現推力室釬焊身部缺陷的智能識別,提出采用深度學習神經網絡模型開發АI缺陷智能識別系統。

3.1 DR圖像樣本集與缺陷人工標注

利用所搭建的DR數字成像焊縫缺陷自動檢測系統采集了推力室釬焊身部DR數字圖像并從中挑選1000張包含外壁未焊上、內壁未焊上、釬料堆積、通道堵塞4類缺陷的數字圖像構建深度學習神經網絡模型的DR圖像樣本集。

在圖像樣本集隨機選取900張(約90%)作為后續模型訓練的圖像樣本訓練集,100張(約10%)作為評價模型泛化能力的測試集。為后續模型訓練對圖像訓練集中的缺陷進行了人工標注,缺陷標注圖像如圖4所示。圖4a和圖4b分別為內壁未焊上和外壁未焊上的DR圖像,內壁與外壁在DR圖像中為間隔出現,內壁未焊上與外壁未焊上在DR圖像中的相似度極高,其特征都表現為與端頭出未連接,區分2種缺陷主要通過壁的寬度來判定,其中外壁寬度較內壁寬度更寬;圖4c和圖4d為釬料堆積和堵塞的DR圖像,2種缺陷從形態上來看相似較高,都表現為釬焊通道處存在多余釬料,區分其分類的評定原則主要通過圖像灰度值,其中堆積區域的圖像灰度值要高于堵塞區域的灰度值且輪廓更為明顯。

3.2 神經網絡架構設計

所設計的深度學習神經網絡模型為改進型Faster R-CNN網絡,網絡架構如圖5所示。Faster R-CNN主要由3部分組成:特征提取卷積網絡、負責生成候選區的RPN網絡和分類回歸網絡。其中,特征提取卷積網絡負責將圖片進行卷積池化操作進行特征提取,并將特征圖送入RPN網絡和分類回歸網絡。特征提取卷積網絡采用ResNet101網絡,ResNet101 網絡由1個卷積層、1個池化層和99個卷積塊構成,ResNet101網絡超參數見表2。

表2 ResNet101網絡參數表

圖5 Faster R-CNN結構圖

RPN網絡是一種區域建議網絡,該網絡可對特征圖進行卷積操作,從而生成不同尺寸比例的錨點作為檢測的候選區域,其網絡架構如圖6所示。

圖6 分類回歸網絡結構圖

分類回歸網絡主要用于評估篩選所有候選區域前景置信度和錨框尺寸調整系數,其網絡結構如圖7所示。

圖7 分類回歸網絡結構圖

3.3 優化算法

該網絡損失函數為Fast R-CNN網絡與RPN網絡2部分組成,Fast R-CNN網絡損失函數為:

式中:Lcls和Lloc分別對應分類損失函數和定位損失函數;λ是一個超參數,用來平衡分類損失和定位損失的權重;p為分類器預測的softmax概率分布p=(p0,···,pk);u為對應目標真實類別標簽;tu為對應邊界框回歸器預測的對應類別u的回歸參數v對應真實目標的邊界框回歸參數(vx,vy,vw,vh);[u≥1]為艾佛森括號。

RPN網絡損失函數包括候選框定位和分類2部分:

式中:pi為預測框內有物體的預測概率;p*i為預測框內有無物體的標簽;ti為預測的bounding box 的4點坐標(tx,ty,tw,th);ti*為標注的ground truth bounding box 的4點坐標;Ncls為樣本總數量;Nreg為feature map的尺寸;λ為權重超參數。其中,分類損失函數為:

候選框定位損失函數為:

因此,總損失函數為上述三者4部分的加總。

在反向傳播過程中,所使用的優化算法為Momentum。設小批量隨機梯度為gt,學習率為λt,時間步t的自變量為xt。在t= 0時,創建速度變量v0,并將其元素化為0。在時間步t> 0時,對每次迭代的步驟做如下修改:

式中:參數γ滿足0 ≤γ≤ 1。在γ= 0時,Momentum等價于小批量隨機梯度下降。

4 模型訓練與性能測試

4.1 模型訓練

模型訓練平臺為一臺配備Intel(R) Core (TM) i7-6700 K CPU和NVIDIА GeForce GTX 1080 GPU的pc電腦,采用Windows10操作系統,搭建了Tensorflow深度學習,采用python作為編程語言。

圖8 ~圖12為網絡5種損失函數曲線,都呈下降趨勢。其中,圖8為整個網絡的損失函數曲線,圖9為RPN網絡候選框定位損失函數曲線,圖10為RPN網絡分類損失函數曲線,圖11為Fast R-CNN網絡候選框定位損失函數曲線,圖12為Fast R-CNN網絡分類損失函數曲線。5種損失函數曲線都符合如下趨勢:訓練集損失函數曲線前期訓練下降速率較快,隨著訓練輪次的增加,損失函數曲線逐漸趨于平緩,最后收斂于一個較小值;測試集損失函數曲線整體呈下降趨勢,但在前期輪次中表現為在訓練集損失函數曲線附近劇烈波動,后期波動幅度減小,逐漸逼近收斂于訓練集損失函數曲線收斂值。二者趨勢相同,收斂值相近,證明網絡性能及擬合泛化程度良好。

圖8 網絡總損失函數曲線

圖9 RPN網絡候選框定位損失函數曲線

圖10 RPN網絡分類損失函數曲線

圖11 Fast R-CNN網絡候選框定位損失函數曲線

圖12 Fast R-CNN網絡分類損失函數曲線

4.2 性能測試

為了進一步驗證模型用于釬縫缺陷智能識別的準確和泛化能力,利用前期構建的測試集(100張原始DR圖像)對其進行了測試,圖13為模型自動識別的釬縫缺陷。

圖13 自動識別的典型缺陷

為了評價模型的泛化能力,以人工識別結果作為基準來評價模型的識別準確性,按照缺陷類型分別計算精度 、召回率、正確率3個指標來評判模型準確性。

式中:P為精度;R為召回率;A為正確率;TP為預測為正的正樣本數;TN為預測為負的負樣本數;FP為預測為負的正樣本數;FN為預測為正的負樣本數;PP為正樣本數;NN為負樣本數。

通過對100張DR數字圖像進行模型缺陷判定和人工判定缺陷對比,對于外壁未焊上的召回率為98.9%,精度為96.7%,正確率為95.6%;內壁未焊上的召回率為98.4%,精度為96.5%,正確率為94.9%;釬料堆積的召回率為98.2%,精度為98.8%,正確率為97.0%;通道堵塞的召回率為99.0%,精度為98.4%,正確率為97.4%。內壁未焊上與外壁未焊上的準確率相對較低的原因在于這2種缺陷的形態較為相似,在人工標注時存在一定爭議,后續可通過進一步優化缺陷標注標準來提升模型的泛化能力。

4.3 模型部署

為了將所訓練的深度學習神經網絡缺陷智能識別模型用于推力室釬縫缺陷的實時在線檢測,將訓練好的模型以АPI形式部署到DR數字成像自動焊縫缺陷檢測系統中,經過系統測試單張圖像的缺陷識別時間為2 s,能夠滿足釬縫缺陷的實時在線檢測的技術要求。

5 結論

(1)設計基于深度學習神經網絡的改進型Faster R-CNN模型能夠實現推力室釬焊DR數字圖像缺陷的智能識別與分類,且對內壁未焊上、外壁未焊上、堆積、堵塞4類缺陷的識別準確率均高于93%以上。

(2)模型處理單張DR圖像的時間不超過2 s,訓練模型部署于DR數字成像自動焊縫缺陷檢測系統,該系統可實現缺陷的智能在線檢測與分類。

猜你喜歡
分類檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
分類算一算
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
主站蜘蛛池模板: 欧洲精品视频在线观看| 亚洲狠狠婷婷综合久久久久| 免费国产不卡午夜福在线观看| 精品撒尿视频一区二区三区| 国产大片喷水在线在线视频| 国产h视频免费观看| 丁香五月亚洲综合在线| 尤物国产在线| 亚洲最新地址| 国产三级韩国三级理| 国产精品lululu在线观看| 国产主播喷水| 一级一级一片免费| 国产哺乳奶水91在线播放| 日本黄色a视频| 麻豆AV网站免费进入| 99精品视频在线观看免费播放| 亚洲日韩精品伊甸| 亚洲第一在线播放| 国产激情第一页| 91视频99| 亚洲第一成年人网站| 欧美精品在线免费| a毛片基地免费大全| AV老司机AV天堂| 国产成人福利在线视老湿机| 亚洲天堂高清| 亚洲娇小与黑人巨大交| 国产乱人免费视频| 天堂亚洲网| 2022国产无码在线| 97视频在线精品国自产拍| 久久久噜噜噜| 久久久久国产精品嫩草影院| 高清亚洲欧美在线看| 精品自拍视频在线观看| 亚洲熟女中文字幕男人总站| 色老二精品视频在线观看| 国产特级毛片| 国产呦精品一区二区三区网站| 久久公开视频| 噜噜噜久久| 欧美、日韩、国产综合一区| 国产日韩欧美视频| 国产一区二区人大臿蕉香蕉| 久久精品国产免费观看频道| 国产爽妇精品| 国产成人福利在线| 国产成人综合日韩精品无码不卡| 成人福利在线看| 伊人成人在线视频| 在线色国产| 中字无码av在线电影| 国产精品视频免费网站| 欧美成人精品高清在线下载| 激情六月丁香婷婷四房播| 欧美成人精品高清在线下载| 色天天综合| 亚洲人成网站色7799在线播放 | 久久久成年黄色视频| 秋霞国产在线| 国产精品蜜芽在线观看| 精品黑人一区二区三区| 亚洲精品少妇熟女| 久草国产在线观看| 免费国产小视频在线观看| 国产精品成人免费综合| 精品免费在线视频| 美美女高清毛片视频免费观看| 国产丝袜第一页| 国产日本欧美在线观看| 这里只有精品在线播放| 欧美国产日本高清不卡| 国产丝袜无码精品| 国产成人精品三级| 日韩精品毛片人妻AV不卡| 国产真实乱了在线播放| 2020久久国产综合精品swag| 日韩国产一区二区三区无码| 亚洲国产欧美国产综合久久 | 亚洲国产成人麻豆精品| 91最新精品视频发布页|