999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的硬質(zhì)合金圖像分割算法

2025-04-11 00:00:00阮鵬何小海滕奇志
四川大學學報(自然科學版) 2025年2期
關(guān)鍵詞:深度學習

摘要: 為了提取硬質(zhì)合金顯微圖像的碳化鎢晶粒區(qū)域,本文提出一種基于多層級注意力融合機制的深度學習網(wǎng)絡(luò)分割算法. 基于UNet 網(wǎng)絡(luò)模型,將深層下采樣結(jié)果通過多層級注意力融合模塊,增強下采樣特征圖中碳化鎢晶粒的特征信息,學習每個通道的權(quán)重,通過該權(quán)重突出晶粒的特征信息,提高模型對重要特征通道的關(guān)注度. 再與上采樣結(jié)果進行跳躍連接,加強特征圖對位置間的關(guān)聯(lián),提高模型對輸入數(shù)據(jù)的表達能力. 最后在不同類型的硬質(zhì)合金測試集上進行了對比和消融實驗. 結(jié)果表明,本文提出的方法對分割硬質(zhì)合金顯微圖像的有效性.

關(guān)鍵詞: 硬質(zhì)合金顯微圖像;圖像分割;對比度;深度學習;自注意力機制

中圖分類號: TP341 文獻標志碼: A DOI:10. 19907/j.0490-6756. 240082

1引言

硬質(zhì)合金是由碳化鎢與粘結(jié)相燒結(jié)制備而成的一種復合材料,其中的碳化鎢晶粒具有良好的耐磨性優(yōu)點,粘結(jié)相能夠增強硬質(zhì)合金的韌性. 由于硬質(zhì)合金具有獨特的高耐磨性和高韌性力學性能,使其在比較高的溫度下仍能保持較高的硬度和強度,當下硬質(zhì)合金已經(jīng)成為許多新技術(shù)領(lǐng)域和工業(yè)生產(chǎn)中不可缺少的結(jié)構(gòu)材料. 其廣泛應用于機械加工、礦山開采、油氣鉆采、粉末冶金和航空航天等領(lǐng)域[1].

在硬質(zhì)合金中,碳化鎢晶粒的尺寸、形狀以及分布是影響合金性能的關(guān)鍵因素. 為了提取微觀圖像中的這些參數(shù),首要工作是通過圖像分割方法獲得互不相交的碳化鎢晶粒區(qū)域. 因此,在硬質(zhì)合金顯微圖像上能夠準確、真實地將碳化鎢晶粒

之間和碳化鎢晶粒與粘結(jié)相之間合理分割,對于分析硬質(zhì)合金的性能至關(guān)重要. 然而,硬質(zhì)合金圖像中往往呈現(xiàn)出晶粒粘連緊密、邊界較模糊以及碳化鎢晶粒與粘結(jié)相灰度值對比度相似. 同時,由于成像因素的影響,圖像可能出現(xiàn)光照不均、遮擋等情況,這些特征增加了硬質(zhì)合金圖像分割的復雜度.

自20世紀70年代以來,圖像分割方法經(jīng)歷了廣泛的研究和應用. 傳統(tǒng)的圖像分割方法主要依賴于圖像的灰度級、色彩、空間紋理以及幾何形狀等特征,將圖像分割成不相交的區(qū)域. 這些傳統(tǒng)方法包括閾值分割、區(qū)域分割、邊緣檢測,以及基于數(shù)學形態(tài)學和圖論等特定理論的方法. 硬質(zhì)合金圖像的傳統(tǒng)分割方法主要采用凹點對應、最短距離匹配[2]以及基于數(shù)學形態(tài)學和圖像標記技術(shù)、閾值分割和邊緣提取相結(jié)合的分割方法[3]實現(xiàn)硬質(zhì)合金顯微圖像的初步分割. 然而,這些方法通常需要大量手動調(diào)整參數(shù),并且在處理復雜圖像時魯棒性較差,難以實現(xiàn)自動化處理.

近年來,深度學習領(lǐng)域取得了顯著的進展,特別是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)[4]在圖像分類[5]、圖像分割[6]以及目標檢測等計算機視覺任務(wù)中的應用取得了令人矚目的成就. 基于深度學習的圖像分割算法能夠自動地提取圖像的隱含特征,獲取高級語義信息,并具有較高的魯棒性,因此在處理復雜圖像任務(wù)時表現(xiàn)出更好的性能. Ronneberger 等[7]通過增加模型深度并融合更多高分辨率特征圖信息構(gòu)建了 UNet,該模型在醫(yī)學圖像分析領(lǐng)域得到廣泛研究與應用,尤其在小數(shù)據(jù)集上表現(xiàn)良好[8]. Badrinarayanan等[9]提出了SegNet,通過池化索引的方法減少了模型的整體參數(shù)量和計算內(nèi)存需求. 由于圖像中存在不同大小的對象,并且不同大小的感受野會影響模型對上下文的理解,因此很多研究致力于多尺度特征的提取和融合. Zhao等[10]和Hou等[11]利用改進的池化模塊來聚合多尺度特征,以同時捕獲圖像的局部空間信息和全局上下文信息. Gu等[12]在他們的工作中通過并行的方式組合不同膨脹率的空洞卷積,以提取不同尺度的上下文特征. Raza等[13]提出了Micro-Net,通過處理不同分辨率的原始圖像并融合不同分辨率的特征圖來獲取多尺度特征,從而更好地識別微觀組織圖像中不同大小的細胞和腺體等對象. Pang 等[14]利用平均池化聚合局部空間特征,改進醫(yī)學圖像分割性能. Radu 等[15]將顏色、形狀和邊緣相關(guān)的3種類型特征結(jié)合,輸入多分類器結(jié)構(gòu)再經(jīng)過具有一層隱藏層的前饋神經(jīng)網(wǎng)絡(luò)對鞏膜進行分割.

多層級融合機制是一種在數(shù)據(jù)處理、特別是在機器學習和深度學習領(lǐng)域中常見的策略,用于從不同層次的特征或數(shù)據(jù)中提取和結(jié)合信息,以改善模型的表現(xiàn). 這種機制尤其在處理復雜數(shù)據(jù)時表現(xiàn)出色,如圖像、視頻、語音和文本等,因為這些數(shù)據(jù)通常包含多個層次的抽象信息. 為解決傳統(tǒng)編碼器-解碼器結(jié)構(gòu)利用淺層特征對小目標提取的困難. 李星華等[16]利用多路徑卷積融合模塊對建筑物特征進行多維度提取,實現(xiàn)建筑物的高精度提取. 劉瑞華等[17]提出一種多層級特征提取模塊,能夠更好利用不同粒度全局和局部信息的高級特征,增加對淺層網(wǎng)絡(luò)提取信息的表達.

為增強模型對不同類型硬質(zhì)合金顯微圖像的分割能力與適用性,本文提出一種基于多層級注意力融合機制深度學習網(wǎng)絡(luò)的硬質(zhì)合金分割算法,使編碼端結(jié)果通過由通道注意力、空間注意力和自注意力共同組成的多層級注意力融合模塊后與解碼端結(jié)果進行跳躍連接,突出碳化鎢晶粒有用信息,抑制粘結(jié)相與碳化鎢晶粒在形狀與對比度相似帶來的干擾. 最后在不同類型的硬質(zhì)合金顯微圖像測試集上進行實驗,結(jié)果表明了本文提出的方法對分割硬質(zhì)合金顯微圖像的有效性.

2本文粘連合金分割算法

2. 1數(shù)據(jù)集處理

硬質(zhì)合金可以通過掃描電鏡與光學顯微鏡兩種方式成像. 當通過掃描電鏡成像時,硬質(zhì)合金圖像的碳化鎢晶粒間邊界模糊. 在光學顯微成像中,由于各類硬質(zhì)合金的組成成分與制作樣本方法存在差異,導致成像時碳化鎢與粘結(jié)相的對比度變化大,并且光學顯微成像時可能出現(xiàn)光照不均現(xiàn)象. 圖4 為數(shù)據(jù)集中部分硬質(zhì)合金顯微圖像. 圖4a為掃描電鏡成像結(jié)果, 圖4b~4h 為光學顯微鏡成像結(jié)果. 其中圖4a 的掃描電鏡硬質(zhì)合金圖像不存在光照不均問題,但是碳化鎢晶粒之間邊界模糊,晶粒邊界灰度值與晶粒接近. h 圖像碳化鎢晶粒較小,邊界信息少. c、e和g圖像的粘結(jié)相灰度值較碳化鎢灰度值更大,與a、b、d、h圖像情況相反. 并且e 圖像存在光照不均現(xiàn)象. f 圖像中碳化鎢與粘結(jié)相對比度相似. 其中a~d 圖像作為訓練集圖像.為了驗證模型的泛化性和魯棒性,e~h復雜圖像作為測試集圖像而不加入到訓練集中. 對圖像進行像素級標注,標簽中含有碳化鎢晶粒和粘結(jié)相兩個類別(設(shè)定晶粒像素值為1,粘結(jié)相背景像素值為0). 本文實驗的數(shù)據(jù)集由圖4 中a~h 圖像組成,其中a~h 的數(shù)量如表1數(shù)據(jù)集分布所示. 由于硬質(zhì)合金圖像尺寸較大,而計算資源有限,因此將硬質(zhì)合金圖像裁剪為512 像素×512像素的JPG格式圖像. 同時,為了避免裁剪圖像時邊緣晶粒信息丟失,在每128 個像素進行水平和垂直方向平移實現(xiàn)重疊裁剪,保留裁剪邊緣信息. 最終經(jīng)過多種數(shù)據(jù)增強方法,包括對比度調(diào)整、水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)等,得到3740 張圖像作為實驗訓練集,2060張圖像作為實驗測試集.

2. 2網(wǎng)絡(luò)模型

為了解決硬質(zhì)合金顯微圖像的分割問題. 本文采用MF-Net 全卷積網(wǎng)絡(luò),結(jié)合多種注意力機制的融合改進現(xiàn)有的編解碼網(wǎng)絡(luò). 本文的網(wǎng)絡(luò)結(jié)構(gòu)如圖5 所示. 網(wǎng)絡(luò)模型結(jié)構(gòu)主要由特征編碼端、特征解碼端和MF 模塊等3部分組成.

編碼端進行4 次下采樣提取帶有語義信息的特征圖,解碼端經(jīng)過4 次上采樣將提取出來的高維特征圖經(jīng)過卷積逐步還原為原始尺寸的分割圖像,網(wǎng)絡(luò)輸入為512×512×3的合金彩色原始圖,通過兩個3×3 的卷積塊(Convolution)提取圖像特征,使通道數(shù)增加到64,得到特征圖尺寸為512×512×64 的x1. 為了網(wǎng)絡(luò)可以適應數(shù)據(jù)中的復雜結(jié)構(gòu)并且能夠更靈活地調(diào)整感受野以適應輸入數(shù)據(jù)的不同層次特征,而不是執(zhí)行固定的池化操作,本文采用3×3卷積塊實現(xiàn)下采樣過程,使網(wǎng)絡(luò)在處理復雜視覺場景的能力增強. 這樣就可以將W×H×C 的特征圖匯聚為W/2×H/2×C 作為下一個編碼器的輸入,特征圖尺寸得到壓縮并且保留了有效信息,同時增強了感受野,避免了模型過擬合. 在通過4 次下采樣,編碼器逐步壓縮特征圖尺寸、擴充特征圖的通道數(shù),分別得到特征圖x2(256×256×128)、x3(128×128×256)、x4(64×64×512)、x5(32×32×1024). 在上采樣和下采樣之間連接傳遞特征圖時,將第3 層與第4 層解碼器結(jié)果(x3,x4)分別輸入到MF 多層級注意力融合模塊中得到增強的特征圖x_c3、x_c4. 在解碼器中,將特征圖x5 輸入到3×3 上采樣卷積塊中進行兩倍的上采樣,此時特征圖的W 與H 擴大兩倍與x4尺寸匹配,其結(jié)果與特征圖x_c4 進行跳躍連接實現(xiàn)解碼器融合更高級的語義信息和底層的細節(jié)信息,再經(jīng)過3×3 的卷積塊實現(xiàn)32×32×1024 的特征圖轉(zhuǎn)變?yōu)?4×64×512 的特征圖x6,實現(xiàn)恢復空間信息并補充邊緣等高頻信息,提升目標的分割效果. x6 作為下一層解碼器的輸入實現(xiàn)前述相同操作后獲得128×128×256 的特征圖x7. 再經(jīng)過兩次上采樣卷積過程得到特征圖x8(256×256×128)、x9(512×512×64),最終通過一個3×3 的卷積塊將模型最終的特征圖映射為與分割任務(wù)相對應的通道數(shù),得到out(512×512×1)的分割結(jié)果圖.

2. 3MF 模塊

高層語義信息和低層空間信息的不相容性是阻礙分割任務(wù)中的重要問題之一,UNet 網(wǎng)絡(luò)在特征融合的過程中是保留下采樣得到的低層特征,然后將其與經(jīng)過上采樣得到的高層特征直接進行特征融合,但是在跳躍連接處低層下采樣特征利用較少,沒有充分提取特征圖中的語義特征,當圖像存在對比度相似、對比度反轉(zhuǎn)以及光照不均等問題時恢復空間位置信息的特征圖像會出現(xiàn)語義信息缺失,影響網(wǎng)絡(luò)的分割性能. 如圖6 所示,選取一張光照不均的硬質(zhì)合金圖像進行實驗,紅色圈區(qū)域為對比區(qū)域,x4_AM、x6_AM 分別代表的是截取圖像通過網(wǎng)絡(luò)模型得到的第4層與第6層激活圖,圖中藍色代表低激活值、綠色為中激活值、紅色為高激活值,值越高的區(qū)域代表在模型學習中更為關(guān)鍵,藍色虛線箭頭代表網(wǎng)絡(luò)模型不使用MF 模塊,藍色實線箭頭代表網(wǎng)絡(luò)模型使用MF模塊,Result 為截取圖像在網(wǎng)絡(luò)模型中是否經(jīng)過MF 模塊得到的2 種分割結(jié)果. 從圖6 中x4_AM、x6_AM 以及Result 可以知道,使用不含MF 模塊得到的x6_AM 相比使用MF 模塊的x6_AM,其大部分語義信息與晶粒特征信息丟失,激活圖中對碳化鎢晶粒區(qū)域響應度低,并造成Result 中粘結(jié)相區(qū)域被誤分為碳化鎢晶粒,該結(jié)果表明MF 模塊能夠提取到更多的低層下采樣特征信息,使經(jīng)過跳躍連接后的上采樣特征圖中含有更多準確的晶粒特征信息.

為了突顯與分割目標相關(guān)的關(guān)鍵特征,減少與目標相近的背景干擾以及優(yōu)化目標間的分割效果,使模型更有效地區(qū)分圖像中不同類別的像素,本文提出了一種將通道(CAM)、空間(SAM)和自注意力機制有效結(jié)合的多層級融合注意力模塊(MF),其結(jié)構(gòu)如圖7所示.

本文提出的MF 模塊,強調(diào)了圖像中的特征信息,通過跳躍連接和設(shè)計不同的卷積塊避免了語義信息的丟失,提升在特征通道、空間方向的敏感性,加強了對圖像中全局和局部的關(guān)鍵信息的捕捉,進而增強了模型特征提取能力,使得模型處理未進行訓練集制作的圖像可以保持良好的分割效果,從而提升了模型的泛化性和魯棒性. 盡管MF模塊在結(jié)構(gòu)上相對簡單,但其性能上有提升,而且參數(shù)量增加相對較小,使得該模塊在實際應用上更具有實用性.

2. 4損失函數(shù)

為了模型能夠更好地處理不同場景下的硬質(zhì)合金顯微圖像,僅憑二元交叉熵損失函數(shù)已經(jīng)不足夠優(yōu)化網(wǎng)絡(luò). 二元交叉熵對于目標與背景的二分類問題效果往往較好但在目標與背景的對比度相近時魯棒性較差,并且二元損失熵不會直接處理局部區(qū)域內(nèi)像素值的對比度變化. 因此,本文采用兩種損失函數(shù):BCELoss 和DiceLoss,使用不同權(quán)重的二元交叉熵損失與Dice 損失的和再加上一個額外的小常數(shù)項作為總損失函數(shù)進行優(yōu)化. 本文使用的二元交叉損失函數(shù)為

3實驗結(jié)果及分析

3. 1實驗設(shè)置

本文基于Pytorch1. 10. 1、Cuda11. 1 的開發(fā)環(huán)境完成網(wǎng)絡(luò)的搭建以及模型的訓練. 硬件環(huán)境以及相關(guān)訓練參數(shù)設(shè)置如表2 所示. 其中使用多步學習率調(diào)度器優(yōu)化訓練學習率,在訓練初期給予較大的學習率有助于模型更好適應訓練數(shù)據(jù),在后期逐漸減小學習率有助于防止過擬合,且能夠幫助模型在參數(shù)空間找到更好的局部最小值.

3. 2評估指標

為客觀地評價模型性能,本文選擇平均交并比(mIoU)、像素準確率(Pixel accuracy)、精確率(Precision)和召回率(Recall)作為分割效果評估指標. 如表3 所示,其中N 表示類別數(shù)量,在本文中僅需分出目標碳化鎢晶粒與粘結(jié)相,因此N 的取值為2. TP 代表晶粒像素的正確預測數(shù)量;FP 代表晶粒像素的錯誤預測數(shù)量;TN 代表粘結(jié)相像素的正確預測數(shù)量;FN 代表粘結(jié)相像素的錯誤預測數(shù)量.

3. 3 對比實驗

3. 3. 1分割結(jié)果比較 本文模型在晶粒分割的訓練損失曲線如圖8 所示,結(jié)果表明MF-Net 可以有效收斂. 在硬質(zhì)合金圖像分割任務(wù)中,本文方法對比了4 種深度學習方法和1 種傳統(tǒng)算法. 使用測試集檢驗各個模型的性能指標,測試集是由33 張晶粒類型、對比度等不同于訓練集的硬質(zhì)合金圖像以及掃描電鏡圖像組成,如表1 中test data 所示. 在測試集上進行各項實驗,其中用粗體標注了每一列的最好結(jié)果. 分割性能評價指標如表4 所示,結(jié)果顯示深度學習方法之間差距較小,整體優(yōu)于凹點分割算法. 本文網(wǎng)絡(luò)模型在mIoU 平均交并比、準確率、精確率和召回率指標上都取得了最優(yōu)性能:與UCTransNet 相比這些指標提升了0. 3%、1. 51%、1. 62%、1. 61%;相比于UNet,這些指標分別提升了2.16%、22. 84%、11. 36%、10. 93%;相比AttUNet,這些指標分別改進了3. 69%、4. 51%、3. 48%、3. 51%. 這表明MF 模塊和復合損失函數(shù)能夠有效地增強晶粒特征,從而更好地表達晶粒信息.

圖9 是從測試集中選取8 張不同類型的硬質(zhì)合金圖像在不同模型上進行分割的結(jié)果展示,其中用紅圈標注了本文網(wǎng)絡(luò)模型相較其他方法取得明顯提升的區(qū)域. 使用凹點分割算法,在提取碳化鎢晶粒二值化圖像時,需要進行大量人工調(diào)參,包括光源校正、陰影校正以及圖像反轉(zhuǎn)等,并且在處理碳化鎢與粘結(jié)相對比度相似時,無法進行有效的二值化操作,如圖9中第6幅圖所示. 該方法對于粘連晶粒的分割有限并且容易出現(xiàn)錯誤分割晶粒. 通過對比可以發(fā)現(xiàn),深度學習分割結(jié)果總體優(yōu)于凹點分割算法.

圖9a~9d 4 種圖像均有制作訓練集進行模型訓練,其中主要以碳化鎢晶粒灰度值高于粘結(jié)相為主. 在各深度學習方法上均表現(xiàn)出較好的分割效果,UCTransNet 與MF-Net 的分割結(jié)果最為接近,但MF-Net 在a 和d 兩張圖像上的紅色圓圈中晶粒分割細節(jié)表現(xiàn)更好. UNet 在b、d 圖像上能夠?qū)⒄尺B晶粒分割開,但是存在較小晶粒沒有被提取出. 為了驗證模型的泛化性和魯棒性,e~h 圖像未參與模型訓練. e、g 圖像碳化鎢晶粒灰度值比粘結(jié)相低且存在光照不均現(xiàn)象,其中UNet 將粘結(jié)相識別為碳化鎢晶粒區(qū)域,而碳化鎢晶粒區(qū)域識別為粘結(jié)相. AttUNet 不能區(qū)分碳化鎢與粘結(jié)相.UNetPlus 分割效果差. SegNet 不能識別碳化鎢晶粒與粘結(jié)相的邊界. UCTransNet 對碳化鎢晶粒灰度值低于粘結(jié)相并且存在光照不均時能夠保持不錯的分割效果. 但UCTransNet 在面對f 圖像碳化鎢晶粒與粘結(jié)相對比度相似時,會出現(xiàn)與UNet、AttUNet、UNetPlus、SegNet 相同的錯誤,對粘結(jié)相錯誤分割為碳化鎢晶粒. h 圖像中碳化鎢晶粒較小且邊界模糊,除UNetPlus 外其余方法均能提取到碳化鎢區(qū)域,但僅有MF-Net 能夠?qū)崿F(xiàn)較好的分割效果. MF-Net 相較其他方法在處理e~h 圖像時均能保持較好的分割效果,證明了模型具有較強的泛化能力和魯棒性. 從MF-Net 在a~h 圖像的分割結(jié)果中可以看出,MF-Net 在推理硬質(zhì)合金圖像存在碳化鎢晶粒與粘結(jié)相對比度差異大、光照不均、晶粒邊界模糊等情況時,能夠識別更多的碳化鎢晶粒像素,得到了更為完整、準確的碳化鎢晶粒區(qū)域,且分割對象的形狀更接近于真實結(jié)果.

3. 3. 2模型復雜度比較 為了驗證模型的復雜度,測試了各個深度學習方法在同一硬件上的運行時間. 對33 張測試集圖像進行推理預測計算出平均每張圖像的消耗時間,如表5 所示. 各深度學習算法計算時間接近,MF-Net 雖然在推理速度上稍慢于SegNet,但是在硬質(zhì)合金圖像分割應用中相較傳統(tǒng)方法速度已大幅提升,比UCTransNet 和UNet++推理速度更快. 且實際分割效果遠遠優(yōu)于SegNet、UNet 以及AttUNet. 并且在模型參數(shù)量上MF-Net 模型參數(shù)量為46. 55×106,為UNet++ 參數(shù)量的61. 6%,為UCTransNet 的69. 52%,比最少的SegNet 多17. 11×106,如圖10所示,與其他深度學習方法相比,屬于較輕量型網(wǎng)絡(luò).

3. 4消融實驗

3. 4. 1損失函數(shù)中權(quán)重對模型性能的影響 網(wǎng)絡(luò)訓練過程中需要對目標與背景對比度和灰度值大小信息進行約束,相較于以往只使用二元交叉熵損失函數(shù)是不夠的,本文提出了二元交叉熵損失、Dice 損失和常數(shù)項實現(xiàn)協(xié)同監(jiān)督預測分割圖像,如式(12)所示. 為了驗證損失函數(shù)中α 和β 權(quán)重分配的合理性,并進一步提高本文模型的分割準確度,我們分別嘗試了不同的α 和β 權(quán)重組合,并在測試集上進行了指標檢驗. 從表6 中不同權(quán)重的分割性能指標對比結(jié)果可以看出,當α 參數(shù)設(shè)置為0. 6, β 參數(shù)設(shè)置為0. 4 時,本文模型在mIou、Accuracy、Precision 和Recall 指標上均達到了最佳值. 與α 設(shè)置為0. 4, β 設(shè)置為0. 6 相比,本文模型在這些指標上分別提高了0. 47%、1. 35%、1. 03%和0. 98%. 與α 設(shè)置為0. 5,β 設(shè)置為0. 5 相比,本文模型在這些指標上分別提高了0. 49%、1. 52%、1. 24% 和1. 22%. 當α 設(shè)置為0. 7,β 設(shè)置為0. 3時,各項指標均呈現(xiàn)下降. 綜合實驗結(jié)果顯示,當權(quán)重超參數(shù)α 為0. 4、 β 為0. 6 時本文模型可以實現(xiàn)更好的分割性能.

3. 4. 2不同模塊對模型性能的影響 本文提出了一種由多種注意力模塊共同組成的多層級融合注意力模塊(MF Module),并在編解碼跳躍連接上使用該模塊. 為了驗證組成MF 模塊中各模塊的有效性,表7 給出了在BaseNet 中依次加入每個模塊的分割結(jié)果性能對比,其中CAM、SAM 和Self-attention 分別代表通道注意力模塊、空間注意力模塊和自注意力模塊,BaseNet 代表未使用注意力機制的本文網(wǎng)絡(luò)模型. 從表4 可以看出,3個模塊均能使模型性能相較于BaseNet 有不同程度的提升,其中通道注意力模塊和空間注意力模塊在跳躍連接上過濾非必要特征信息,增加深層下采樣結(jié)果的語義信息,有助于上采樣空間信息的恢復,使得網(wǎng)絡(luò)性能相比于BaseNet,mIou 提高了1. 96% 和2. 29%,Accuracy 提高了21. 03% 和20. 52%,Precision 提高了10. 11% 和10. 25%,Recall提高了9. 67% 和9. 8%. 由于自注意力模塊提取全局上下文特征,即提取更大范圍的碳化鎢晶粒區(qū)域特征,使得網(wǎng)絡(luò)相較于增加空間與通道注意力下在mIou 上提升1. 87%,Accuracy 提升2. 32%,Precision 提升1. 11%,Recall 提升1. 13%,并且在實際分割效果中表現(xiàn)更好.

4結(jié)論

為了提高對比度差異大、碳化鎢晶粒粘連緊密的硬質(zhì)合金顯微圖像的分割質(zhì)量,提出一種基于多層級注意力融合機制深度學習網(wǎng)絡(luò)的硬質(zhì)合金顯微圖像的分割算法. 基于UNet 網(wǎng)絡(luò)模型,將下采樣的結(jié)果通過多層級注意力融合模塊,增加下采樣特征圖中碳化鎢晶粒的特征信息,學習每個通道的權(quán)重,通過該權(quán)重突出碳化鎢晶粒的特征信息,提高模型對重要特征通道的關(guān)注度. 再與上采樣結(jié)果進行跳躍連接,增加特征圖位置間的關(guān)聯(lián),提高模型對輸入數(shù)據(jù)的表達能力. 經(jīng)過對比實驗并使用未參與模型訓練類別的圖像,結(jié)果驗證了本文所提方法具有較好的泛化性和魯棒性.通過一系列實驗數(shù)據(jù)比對分析,分割結(jié)果不論是在主觀效果上,還是客觀指標上都有一定的優(yōu)勢.本文模型在硬質(zhì)合金顯微圖像的晶粒分割上具有良好的性能,同時減少了傳統(tǒng)分割算法后期的人工處理過程. 后期將考慮在保證有效性的前提下,優(yōu)化網(wǎng)絡(luò)模型,進一步減少參數(shù)量, 將算法更好地應用于實際工程中.

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構(gòu)建
面向大數(shù)據(jù)遠程開放實驗平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務(wù)中基于深度學習的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 国产精品999在线| 一本一本大道香蕉久在线播放| 九九香蕉视频| 综合天天色| 国产精品无码制服丝袜| 一级高清毛片免费a级高清毛片| 久久永久免费人妻精品| 鲁鲁鲁爽爽爽在线视频观看 | 国产成人精品无码一区二 | 亚洲无码高清视频在线观看| 国产精品自在线天天看片| 日本亚洲国产一区二区三区| 亚洲中文字幕手机在线第一页| 日韩最新中文字幕| 亚洲免费三区| 国产黄视频网站| 伊人激情综合| 99热这里都是国产精品| 亚洲综合色吧| 在线日韩日本国产亚洲| 伊人久热这里只有精品视频99| 精品国产成人av免费| 国产精品三级专区| 国产麻豆精品久久一二三| 国产精品三级专区| 国产高清在线丝袜精品一区| 国产视频 第一页| 欧美a级在线| 欧美一道本| 99无码中文字幕视频| 色噜噜在线观看| 97色婷婷成人综合在线观看| 欧美人在线一区二区三区| 亚洲视频色图| 97超级碰碰碰碰精品| 国产一在线观看| 天天摸天天操免费播放小视频| 亚洲无卡视频| 成人a免费α片在线视频网站| 波多野结衣在线se| 国产成人精品免费视频大全五级| 香蕉久久永久视频| 亚洲欧美一区在线| 男人天堂亚洲天堂| 亚洲娇小与黑人巨大交| 国产精品第5页| 中文字幕不卡免费高清视频| 亚洲成人手机在线| 国产本道久久一区二区三区| 成人在线天堂| 欧美人人干| 波多野结衣第一页| 第一页亚洲| 又爽又黄又无遮挡网站| 亚洲,国产,日韩,综合一区| 亚洲欧美一级一级a| 精品久久久久无码| 精品在线免费播放| 国产乱视频网站| 国产午夜不卡| 亚洲一区毛片| 日本免费新一区视频| 欧洲高清无码在线| 蜜芽国产尤物av尤物在线看| 国模视频一区二区| 91美女视频在线| 亚洲国产天堂久久综合| 日韩二区三区| 99精品高清在线播放| 国产对白刺激真实精品91| 一级香蕉人体视频| 中文字幕免费视频| 国产成人精品高清不卡在线| 国产高清精品在线91| 在线无码av一区二区三区| 97视频免费在线观看| a毛片免费观看| 91热爆在线| 六月婷婷激情综合| 欧美一区福利| 国产激爽爽爽大片在线观看| 国产一区二区人大臿蕉香蕉|