999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Swin-Transformer的磁瓦缺陷檢測

2023-06-27 08:53:44陳榮演楊創富陳宇琪寧洪龍
現代計算機 2023年9期
關鍵詞:特征提取特征檢測

陳榮演,邱 天*,楊創富,張 昕,陳宇琪,符 曉,寧洪龍

(1. 五邑大學智能制造學部,江門 529020;2. 阜陽師范大學物理與電子工程學院,阜陽 236037;3. 華南理工大學高分子光電材料與器件研究所,廣州 523648)

0 引言

磁瓦因其良好的物理性質被廣泛應用于各種電子產品的線圈、電動機以及變壓器當中,然而在磁瓦生產加工過程中產生的缺陷不僅影響外觀而且還會影響相關產品質量,因此磁瓦缺陷檢測是不可或缺的工序。近些年來磁瓦檢測技術依賴傳統視覺檢測方式,也取得一定的研究成果[1-5],但是傳統視覺檢測方式依賴人工設定提取特征,而且提取特征難度大、檢測的魯棒性差。隨著深度學習在視覺領域的廣泛應用,這種由數據驅動獲取特征的方式使卷積神經網絡在磁瓦缺陷檢測中也有很多的研究成果[6-10]。盡管卷積神經網絡在缺陷檢測取得很好的檢測效果,但是其缺乏全局信息,對長遠距離的特征提取有局限性,而近年來提出的視覺Transformer[11]模型因其拋棄卷積網絡結構,使用完全多頭自注意力機制學習特征,因而擁有更大的感受野并對全局特征的表述更強,并且能夠捕獲更多豐富的特征,對小物體的檢測也有更好的表現,從而表現出很強的競爭力,其中最具代表的為Liu等[12]提出的Swin-Transformer模型,其通過窗口滑動和分層策略使計算量顯著減少并提高建模能力。由于注意力機制的表現能力較好,因此近些年來使用注意力模型也出現越來越多的研究成果[13-14]。

本文提出基于Swin-Transformer 的磁瓦檢測算法,為了使網絡學習更多有用的特征,首先對采集到的圖像進行增強,讓磁瓦缺陷圖像的對比度更高和缺陷邊緣更清晰,然后使用Swin-Transformer 作為特征提取網絡提取特征,并結合YOLOv3 模型的neck 模塊構建磁瓦缺陷檢測算法,同時為了使網絡獲取更豐富的梯度組合,在neck部分進行優化設計CSPA(cross stage partical attention)模塊,最終實現了較好的缺陷檢測結果。

1 圖像增強

由于磁瓦材料特性,采集到的磁瓦圖像整體上都會呈現顏色灰暗以及缺陷對比度低等特點,為了加強特征的表述和使提取特征更加容易,因此對收集到的磁瓦圖片進行增強操作,增強的步驟如下:

步驟1:對輸入圖像進行高斯濾波去除噪聲,然后使用拉普拉斯算子對圖像進行銳化處理,以加強邊緣梯度,拉普拉斯銳化計算如公式(1):

其中:L(x,y)為銳化后圖像,P(x,y)為原圖像,?2f為拉普拉斯濾波結果,其定義如公式(2):

步驟2:將采集的磁瓦圖像先通過對數轉換,再通過傅里葉變換轉換到頻域上,其中頻域的高頻對應原圖的細節部分,圖像的低頻對應原圖的近似部分。

步驟3:設計合適的濾波器傳遞函數,使頻域的高頻細節部分得到增強,并且壓縮低頻動態范圍,本文選用的濾波器傳遞函數如公式(3),其二維表示圖如圖1所示。

步驟4:用設計好的濾波器對頻域圖片進行濾波。

步驟5:將濾波后圖像變換回空間域得到增強后圖片。

圖1 濾波器傳遞函數二維顯示

圖像增強步驟流程如圖2 所示,經過上述步驟后,原圖和增強圖像的直方圖如圖3 所示,從圖3可以看出原圖經過增強后缺陷對比度更加明顯,其直方圖也更加均衡。

圖2 圖像增強步驟流程

圖3 原圖和增強后圖像對比

2 磁瓦缺陷檢測網絡原理及其改進

2.1 Swin-Transformer原理

Swin-Transformer 是Transformer 應用在視覺領域的一項重要成果,并且在目標檢測、分割和分類等視覺任務中取得很好的成績。Transformer舍去了傳統卷積神經網絡結構,利用多頭自注意力機制提取特征,可以更好地捕獲上下文信息,并削弱了網絡對外部信息的依賴,因此Transformer 善于捕獲特征或數據的內在相關性和提取表述性更強的特征。但是Transformer應用在視覺任務中受到兩個重要的挑戰:①視覺任務的多尺度問題;②視覺圖像分辨率高,計算參數龐大。而Swin-Transformer 通過窗口滑動限制在局部窗口計算自注意力可以很大程度降低計算成本和復雜度;使用分層策略使網絡可以提取多個尺度的特征,對小物體的識別也有很好的效果,因此Swin-Transformer 可以作為磁瓦目標檢測的特征提取網絡部分。

Swin-Transformer 結構包括編碼模塊(Patch Partition+Linear Embedding)、自注意力計算模塊(Swin-Transfomer Block)和移動拼接模塊(Patch Merging)。編碼模塊將輸入數據進行分塊編碼和線性變換,然后輸入到自注意力計算模塊(如圖4 所示)。自注意力計算模塊由兩個串聯注意力計算模塊組成,每個注意力計算模塊都由一個多頭自注意力模塊和多層感知機(MLP)在進行層歸一化(LN)后進行殘差連接得到。在W-MSA模塊中將輸入特征圖尺寸的8 × 8 劃分為2 × 2個窗口,劃分方式如圖5所示,并對每個窗口計算多頭自注意力;而SW-MSA 通過循環移位的方式將窗口進行移動,可以獲取相鄰窗口的交互注意力信息,然后對每個窗口計算多頭自注意力,其劃分方式如圖6所示;多頭注意力的計算見公式(4)和公式(5)。

其中:Q,K,V分別為查詢、鍵、值向量;B是相對位置偏置;W是線性變換的權重。

在進行自注意力計算后,通過移動拼接模塊合并相鄰的分塊實現不同尺度特征圖的獲取,從而構建特征的層級結構。在Swin-Transformer中通過移動拼接模塊后特征圖的下采樣倍數分別為8、16、32,和YOLOv3 中的骨干網絡(Backbone)采樣倍數剛好一致,因此可以直接用Swin-Transformer作為特征提取的骨干網絡結合YOLOv3的neck構成目標檢測網絡。

圖4 自注意力計算模塊(Swin-Transfomer Block)

圖5 W-MSA

圖6 SW-MSA

2.2 CSPA模塊

為了使網絡能夠獲取更加豐富的梯度組合從而增強網絡學習能力,本文在CSPNet[15](cross stage partial network)基礎上設計了CSPA(cross stage partical attention)模塊用于提取特征。其中改進方法有:①在CSP 層嵌入CA 模塊;②通過增加分支獲取更多梯度流。其中嵌入CA模塊[16]是為了使網絡能夠捕獲跨通道的信息和方向感知,幫助網絡更加精確定位到感興趣的目標特征。CA 模塊是通過水平和垂直方向生成相應注意力圖來強調感興趣的特征區域,其相應的方法流程如圖7所示,其輸入特征首先經垂直和水平方向進行一維全局池化并分別對這兩個方向特征進行編碼,然后每個特征圖分別沿著一個方向去捕獲特征的長距離相關性,最后將包含距離相關性的特征注意力圖和輸入特征相乘從而獲得更受關注的特征信息。

圖7 CA注意力模塊

2.3 改進磁瓦缺陷檢測算法

改進磁瓦缺陷檢測網絡如圖8 所示,其由Swin-Transformer 作為特征提取部分,在經過移動拼接模塊(patch merging)對輸入圖像進行下采樣,把下采樣8、16 和32 倍下采樣的輸出特征輸入到YOLOv3 的neck 模塊,并且使用設計的CSPA 模塊對neck 部分進行優化。最后通過輸出層輸出共3 個尺度、27 個通道的輸出特征。對每個尺度的輸出特征計算預測損失,模型損失可以分成邊框回歸損失、置信度損失和類別損失三項之和,見公式(6),其中邊框回歸損失選用GIoU損失進行計算,見公式(7),回歸損失和置信度損失都采用BCEWithLogitsLoss 損失,見公式(8)和公式(9),最后通過損失反向傳播優化參數,從而獲得磁瓦的檢測模型。

其中:C是真實框A和預測框B的最小外接框。

其中:σ(g)為通過sigmoid函數的輸出。

圖8 改進磁瓦缺陷檢測網絡

3 實驗

3.1 實驗數據集

實驗所選用的圖片數據均來自現場采集并對采集后的圖像進行圖像增強處理,數據集共332 張,分為四種缺陷類型,分別是表面缺陷(surface)、內部損傷(intra)、崩塊(break)和孔洞(hole),并用labelimg 為每張圖片進行缺陷標注。在進行網絡訓練時將數據集隨機按照9∶1的比例劃分訓練驗證集和測試集,另外訓練集和驗證集按照8∶2 的比例劃分。同時對訓練的數據集進行隨機翻轉、平移和mosaic 增強等操作來對數據增強。

3.2 評價指標

為了客觀地對磁瓦缺陷檢測效果進行評價,本文選取精確率(Precision)、召回率(Recall)以及全類平均精度(mAP)作為評價指標,評價指標的定義見公式(10)~公式(12)。

其中:ri是按升序排列的Precision的插值段第一個插值對應的Recall,k是類別數量,Pinter是排序后當前點以及后面點所有Precision中最大的值。

3.3 實驗結果

所有實驗均在PyTorch 1.7、 Python3.8、Cuda10.2開發環境下進行,并且訓練的批處理數量大小均為16、迭代訓練周期都為2000 次,學習率初始值均為0.001。表1 對比了幾種主流的目標檢測算法和本文改進算法應用在磁瓦缺陷檢測中的檢測結果,可以看出本文改進算法的mAP比YOLOv3高出5.3個百分點,比YOLOv5高出1.5 個百分點。其中一些檢測效果如圖9 所示,從圖9可以看出本文改進算法能夠檢測出不明顯的缺陷,并且缺陷目標檢測的置信度和預測結果都有很好的效果。

表1 磁瓦缺陷檢測算法對比

圖9 各種算法檢測效果

在測試集中,改進算法的各個類別預測RP曲線如圖10 所示,圖例中的數值為AP值(平均精度),從圖10 可以看出孔洞(hole)的檢測性能相對較弱,這是因為訓練數據集中孔洞樣本的數量較少使訓練不充分造成的,另外幾類的AP值都較高,說明該改進算法能較好地完成磁瓦缺陷檢測任務。

圖10 改進算法各個類別PR曲線

3.4 消融實驗

為了證明CSPA 模塊的有效性,在同樣的訓練環境和相同的參數下分別使用Swin-Transformer+CSPA 模塊改進的neck(編號1)、Swin-Transformer+YOLOv3 的neck(編號2)進行實驗,評價指標為Precision、Recall以及mAP。對照結果如表2 所示,可以看出使用CSPA 模塊的neck 對磁瓦缺陷檢測的mAP有1.4 個百分點的提升。

表2 消融實驗

4 結語

針對磁瓦缺陷檢測特征提取困難和基于傳統卷積神經網絡對全局特征表述較差、上下文不交互等缺點,本文通過設計增強濾波器對磁瓦圖像中的缺陷進行增強,以及提出基于Swin-Transformer 和結合YOLOv3 的neck 模塊的磁瓦缺陷檢測算法,且為了獲取更豐富梯度信息,在neck部分優化設計了CSPA模塊。根據實驗結果可知對采集到的磁瓦圖像的缺陷增強后再運用Swin-Transformer 相比于主流目標檢測算法具有更高的檢測精度,另外Swin-Transformer 相比于卷積神經網絡能更好地提取全局特征和上下文的交互,從而提高特征提取的能力,對于一些不太明顯的特征也能很好地提取出來。

猜你喜歡
特征提取特征檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達“特征”
基于Gazebo仿真環境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
小波變換在PCB缺陷檢測中的應用
基于MED和循環域解調的多故障特征提取
主站蜘蛛池模板: 亚洲无码高清视频在线观看| 午夜激情婷婷| 国产sm重味一区二区三区| 亚洲AV无码久久精品色欲| 精品一区二区三区无码视频无码| 国产精品久久久久久搜索 | 欧美一级高清视频在线播放| 一级全黄毛片| 国产丝袜啪啪| 天堂岛国av无码免费无禁网站| 自偷自拍三级全三级视频| 尤物成AV人片在线观看| 亚洲欧美成人影院| 国产亚洲视频播放9000| 色AV色 综合网站| 中文字幕在线永久在线视频2020| 91免费国产在线观看尤物| 国产第一色| 午夜少妇精品视频小电影| 久久91精品牛牛| 久久久久无码精品| AV在线麻免费观看网站| 亚洲天堂2014| 国产欧美另类| 亚洲美女一区| 农村乱人伦一区二区| 全部毛片免费看| 免费高清a毛片| 丰满的少妇人妻无码区| 国产一区二区三区精品欧美日韩| 久久综合色视频| 91精品国产综合久久不国产大片| 亚洲国产精品一区二区高清无码久久 | 久久国产精品国产自线拍| 露脸真实国语乱在线观看| 久久国产亚洲偷自| 亚洲狠狠婷婷综合久久久久| 国产精品hd在线播放| 亚洲91在线精品| 91视频国产高清| 在线观看国产精美视频| 久久久久国产精品嫩草影院| 99精品视频播放| 最新日本中文字幕| 国产精品无码影视久久久久久久| 制服丝袜 91视频| 日本不卡在线| 日韩精品久久无码中文字幕色欲| www成人国产在线观看网站| 久久99蜜桃精品久久久久小说| 露脸国产精品自产在线播| 高清欧美性猛交XXXX黑人猛交 | 狼友视频国产精品首页| 永久免费av网站可以直接看的| 亚洲男人的天堂在线| 亚洲不卡影院| 亚洲欧美不卡| 国产精品亚洲日韩AⅤ在线观看| 国产日本视频91| 国产91熟女高潮一区二区| 综合社区亚洲熟妇p| 萌白酱国产一区二区| 色偷偷一区二区三区| 九九热精品视频在线| 97视频在线观看免费视频| 又爽又黄又无遮挡网站| 日日摸夜夜爽无码| 在线播放国产99re| 国产亚洲视频中文字幕视频| 亚洲人成网站日本片| 成人中文字幕在线| 国产午夜在线观看视频| 丁香五月亚洲综合在线| 无码高潮喷水在线观看| 美女国产在线| 久久中文无码精品| 欧美日本不卡| 精品国产免费观看| 99无码中文字幕视频| 国产成人精品高清不卡在线| 国产日韩久久久久无码精品| 国产成熟女人性满足视频|