999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Mask-Grad-CAM的遙感電力目標(biāo)表征方法

2025-03-18 00:00:00楊勁松
物聯(lián)網(wǎng)技術(shù) 2025年6期

摘 要:基于可視化框架Grad-CAM設(shè)計(jì)了一種遙感電力目標(biāo)識(shí)別模型,旨在提升針對(duì)遙感電力目標(biāo)的輔助決策準(zhǔn)確性和深度神經(jīng)網(wǎng)絡(luò)的視覺(jué)可解釋性。模型首先對(duì)現(xiàn)有的Grad-CAM框架進(jìn)行改進(jìn),引入了掩膜機(jī)制以揭示和挖掘圖像中被遮擋或去除關(guān)鍵決策信息后的剩余有價(jià)值語(yǔ)義信息;之后構(gòu)建了一個(gè)弱監(jiān)督分割和反事實(shí)解釋的網(wǎng)絡(luò)結(jié)構(gòu),旨在通過(guò)最大化后驗(yàn)概率找到最優(yōu)特征,并確保模型的解釋性。最終,基于電力遙感圖像的可視化與評(píng)估實(shí)驗(yàn),驗(yàn)證了改進(jìn)模型的有效性。

關(guān)鍵詞:遙感電力圖像;可解釋性;類激活;Grad-CAM;語(yǔ)義信息;弱監(jiān)督分割

中圖分類號(hào):TP751 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2025)06-00-07

DOI:10.16667/j.issn.2095-1302.2025.06.002

0 引 言

當(dāng)今時(shí)代,電力系統(tǒng)的穩(wěn)定運(yùn)行與安全保障離不開(kāi)高效精準(zhǔn)的遙感監(jiān)測(cè)技術(shù)。隨著深度學(xué)習(xí)算法在計(jì)算機(jī)視覺(jué)領(lǐng)域的廣泛應(yīng)用,其在電力設(shè)施檢測(cè)、故障診斷以及規(guī)劃決策等方面展現(xiàn)出強(qiáng)大的潛力[1]。然而,深度神經(jīng)網(wǎng)絡(luò)對(duì)電力遙感圖像的理解與解析過(guò)程往往被視為“黑箱”,這嚴(yán)重制約了其在實(shí)際場(chǎng)景中的應(yīng)用與信任度構(gòu)建。電力遙感圖像由于其復(fù)雜性、多變性及目標(biāo)間的相互遮蔽等特點(diǎn),使得深度學(xué)習(xí)模型在識(shí)別諸如發(fā)電機(jī)組、輸電線路、變壓器等關(guān)鍵電力設(shè)備時(shí),其內(nèi)在的決策機(jī)制難以被人直觀理解。因此,亟需開(kāi)發(fā)一套能夠揭示深度學(xué)習(xí)模型在處理電力遙感圖像時(shí)關(guān)注的顯著區(qū)域及其分類依據(jù)的可視化技術(shù),提升模型的可解釋性[2]。

當(dāng)前深度學(xué)習(xí)研究的核心課題之一就是如何提升圖像識(shí)別任務(wù)的準(zhǔn)確度。值得注意的是,增強(qiáng)模型的可解釋性亦是提高準(zhǔn)確率的有效途徑,因而可解釋性研究已成為近年來(lái)學(xué)術(shù)界觀注的焦點(diǎn)[3]。在這一領(lǐng)域,研究成果大致可以劃分為兩大分支:一是側(cè)重于類激活映射(Class Activation Map, CAM)的研究,二是基于因果關(guān)系的表征學(xué)習(xí)。其中,CAM方法以其計(jì)算效率高、可視化解釋力強(qiáng)等優(yōu)點(diǎn)受到廣泛關(guān)注,它能夠?qū)D像特征轉(zhuǎn)換為易于理解的熱力圖形式,直觀展示模型對(duì)圖像不同區(qū)域的關(guān)注程度。但是,原始CAM方法對(duì)網(wǎng)絡(luò)架構(gòu)有一定限制,要求將全連接層替換成全局池化層以降低計(jì)算復(fù)雜度。針對(duì)架構(gòu)落后這一局限,文獻(xiàn)[4]在CAM的基礎(chǔ)上提出了一項(xiàng)革新,即Grad-CAM(Gradient-Weighted Class Activation Mapping)梯度加權(quán)類激活算法,該算法借助輸出梯度信息對(duì)特征位置進(jìn)行加權(quán)處理,并運(yùn)用高階導(dǎo)數(shù)優(yōu)化權(quán)重分配,從而使模型能夠?qū)σ环鶊D像中的多個(gè)目標(biāo)均給出合理的解釋。相較于完全替換全連接層的策略,Grad-CAM在保持較低運(yùn)算成本的同時(shí),成功凸顯了針對(duì)特定類別的重要區(qū)域。然而,當(dāng)面對(duì)含有多個(gè)概念特征的復(fù)雜圖像時(shí),Grad-CAM框架對(duì)整幅圖像的卷積處理可能呈現(xiàn)隨機(jī)性[5],通過(guò)生成的權(quán)重系數(shù)與特征圖相乘后疊加到原始圖像上,可能導(dǎo)致圖像特征表述模糊。此外,在Grad-CAM框架中直接利用上采樣插值將梯度權(quán)重信息放大至原始圖像尺寸的做法,可能會(huì)降低生成熱力圖的對(duì)比度,從而影響其直觀解釋性[6]。本文在此基礎(chǔ)上創(chuàng)新性地引入Mask算法,并構(gòu)建了一種具備掩膜分支的深度網(wǎng)絡(luò)架構(gòu),設(shè)計(jì)出改良版的類激活映射模型。這一改進(jìn)旨在增強(qiáng)對(duì)電力目標(biāo)圖像的可解釋性,同時(shí)力求輸出更加精確和詳盡的特征描述結(jié)論,以期在電力設(shè)施的識(shí)別與分析中取得更優(yōu)的表現(xiàn)。

1 相關(guān)理論

1.1 深度神經(jīng)網(wǎng)絡(luò)的可解釋性理論

在計(jì)算機(jī)視覺(jué)領(lǐng)域,可解釋性可以理解為特征的可解釋性,讓神經(jīng)網(wǎng)絡(luò)表達(dá)出符合人類自身知識(shí)框架的內(nèi)容。方法是通過(guò)觀測(cè)網(wǎng)絡(luò)內(nèi)部數(shù)據(jù)特征矩陣進(jìn)行因果推斷,從而發(fā)現(xiàn)特征和分類器背后的因果關(guān)系。在這些方面,已有的研究方法可以分為內(nèi)置可解釋性和事后可解釋性兩種。

遙感電力目標(biāo)檢測(cè)同樣缺乏可解釋性研究。文獻(xiàn)[7]中歸納了深度學(xué)習(xí)模型的可解釋性的一種定義:給定樣本集X,模型M,用E表示人類知識(shí)庫(kù),如果存在一種決策(方法)f,在f的作用下觀測(cè)到的結(jié)果R都能在E中得到映射,R=f(X, M), R∈E,且滿足一定的解釋規(guī)律,稱這種方法為模型M的可解釋方法。如果人為觀測(cè)到的結(jié)果X1,X2,X3與網(wǎng)絡(luò)輸出的結(jié)果Y1,Y2,Y3存在高度相似和強(qiáng)相關(guān)性,那么可以說(shuō)在一定程度上已知了網(wǎng)絡(luò)的學(xué)習(xí)和預(yù)測(cè)規(guī)劃策略及路徑,或者說(shuō),窺探到了網(wǎng)絡(luò)特征與分類結(jié)果的因果關(guān)系,如圖1所示。對(duì)于一個(gè)簡(jiǎn)單的目標(biāo)分類任務(wù),聚焦網(wǎng)絡(luò)感興趣的區(qū)域是研究的重點(diǎn)。在遙感電力目標(biāo)分類的數(shù)據(jù)集中,在判斷一張圖片的相似目標(biāo)時(shí)(例如機(jī)組和變壓器),網(wǎng)絡(luò)模型需要將提取的第一特征回傳到網(wǎng)絡(luò)的決策點(diǎn),再由神經(jīng)網(wǎng)絡(luò)來(lái)決策分類結(jié)果[8]?;诖?,本文建立了類激活映射圖像描述模型,對(duì)深度學(xué)習(xí)模型進(jìn)行可解釋性研究和特征可視化,也為后續(xù)目標(biāo)檢測(cè)精度提升提供全新的思路。

1.2 遙感電力目標(biāo)的可解釋性建模

可解釋性建模是一種利用數(shù)學(xué)方法來(lái)描述和解釋現(xiàn)實(shí)中復(fù)雜系統(tǒng)的過(guò)程。它可以幫助人們更好地理解現(xiàn)實(shí)世界中復(fù)雜的系統(tǒng),更好地預(yù)測(cè)它們的行為,并且可以用于解決實(shí)際問(wèn)題[9]。

在電力視覺(jué)任務(wù)中,設(shè)輸入圖像為f (x, y),f (x, y)是由一系列特征組成的,特征分解方法為F,分解向量為(f1, f2, ..., fn)。一個(gè)或者多個(gè)特征對(duì)應(yīng)某一標(biāo)簽Label,Label=(a1l1, a2l2, ..., amlm)。根據(jù)以上定義,從概率角度考慮,目標(biāo)檢測(cè)可解釋性模型搭建任務(wù)其實(shí)就是求各個(gè)特征屬于每個(gè)標(biāo)簽的最大概率。在電力可解釋性任務(wù)中,采用了人工干預(yù)的手段,基于貝葉斯理論可得似然概率,具體見(jiàn)式(1)。圖2展示了遙感電力圖像的可解釋模型圖。

式中:P(Label=yi| f (do( fj=0)))代表在給定標(biāo)簽下,不含目標(biāo)設(shè)置干預(yù)得到的似然概率,其分母P( f (do( fj=0)))為一常量。當(dāng)P( f (do( fj=0)))滿足Gibbs分布時(shí),其隨機(jī)場(chǎng)為馬爾可夫場(chǎng),得到貝葉斯條件概率公式,見(jiàn)式(2)和式(3):

式中:Z為歸一化參數(shù);U( f )為某一標(biāo)簽中對(duì)應(yīng)特征向量所構(gòu)成的子集;V( f )是能量函數(shù),最終得到的結(jié)果為進(jìn)行干預(yù)后的后驗(yàn)概率。通過(guò)最大化后驗(yàn)概率來(lái)尋找對(duì)應(yīng)標(biāo)簽的最優(yōu)特征向量。

1.3 梯度加權(quán)類激活映射算法

Grad-CAM是一種類激活映射算法,算法原理如圖3所示。首先網(wǎng)絡(luò)進(jìn)行正向傳播,得到特征層A,特征層A保留了空間信息,越接近預(yù)測(cè)層,特征層抽象度越高,語(yǔ)義信息越豐富。yp為網(wǎng)絡(luò)預(yù)測(cè)值,將yp進(jìn)行反向傳播,能夠得到反傳回特征層A的梯度信息A’,計(jì)算得到A的每個(gè)通道權(quán)重,進(jìn)行加權(quán)求和后由ReLU函數(shù)激活。A’中包含每個(gè)元素對(duì)y的貢獻(xiàn),具體見(jiàn)式(4):

式中:A代表某個(gè)特征層;c代表當(dāng)前維度的特征通道;p代表類別;Ac代表特征A中通道c的數(shù)據(jù);apc為權(quán)重系數(shù)。acp為預(yù)測(cè)類別通過(guò)p的預(yù)測(cè)分?jǐn)?shù)yp反向傳播得到的,acp的計(jì)算見(jiàn)式(5):

式中:Acij代表A在k中的數(shù)據(jù)實(shí)體。構(gòu)建的遞推公式見(jiàn)

式(6):

式中:yi為輸出的第i類結(jié)果;ffc為全連接層的計(jì)算函數(shù);wn為卷積層對(duì)應(yīng)的權(quán)重;fn-1(Xn-1, wn-1)為上一層卷積層的輸出經(jīng)過(guò)展平處理的結(jié)果。

yi的計(jì)算見(jiàn)式(8):

根據(jù)鏈?zhǔn)椒▌t可得式(9)和式(10):

進(jìn)一步求yi對(duì)輸入X的偏導(dǎo)數(shù),構(gòu)建雅可比矩陣求解得式(11)~式(13):

K為上一卷積層的結(jié)果,根據(jù)遞歸關(guān)系,當(dāng)輸入數(shù)據(jù)確定后,Grad-CAM的梯度反向傳播按照式(13)進(jìn)行傳遞。得到掩膜矩陣后,轉(zhuǎn)換為布爾掩膜類型。計(jì)算均值作為分割閾值,將Numpy格式下的掩膜矩陣中大于閾值的元素置1,小于等于閾值的置0。

2 基于掩膜的Grad-CAM模型

Grad-CAM模型能夠很好地捕捉到指定類型下的重點(diǎn)關(guān)注區(qū)域,但當(dāng)圖像包含多個(gè)特征時(shí),會(huì)導(dǎo)致圖像特征不明確。以ResNet網(wǎng)絡(luò)為例,最后一層7×7×512的特征圖上,并非每個(gè)通道都能獲取有效信息,當(dāng)無(wú)效信息累積到一定量時(shí),就會(huì)反映在類激活映射圖上。此外,Grad-CAM直接將梯度權(quán)重信息通過(guò)上采樣插值放大至原圖大小,對(duì)特征表征可視化缺乏可解釋性。為了解決上述問(wèn)題,在Grad-CAM的基礎(chǔ)上,本文搭建了基于掩膜分支的深度網(wǎng)絡(luò)Mask-Grad-CAM,此網(wǎng)絡(luò)學(xué)習(xí)策略主要是將生成掩膜進(jìn)行疊加,在驗(yàn)證模式下,利用第一次生成的梯度權(quán)重,在通道維度上加權(quán)求和作為掩膜。在顯著性映射模塊和預(yù)測(cè)模塊中加入掩膜分支,與原始圖像相減,生成帶掩膜的圖像[10],原理如圖4所示。

該部分主要由2塊構(gòu)成,一是生成掩膜進(jìn)行疊加,在驗(yàn)證模式下,利用第一次生成的梯度權(quán)重,在dim=0的通道上加權(quán)求和,作為mask掩膜。在顯著性映射模塊和預(yù)測(cè)模塊中加入mask分支,與原始圖像相減,生成帶mask的圖像。該方法利用反事實(shí)推理模型,逐步挖掘圖像在某一類別下的剩余語(yǔ)義信息,該方法可以應(yīng)用在任何深度網(wǎng)絡(luò)模型中。二是在預(yù)測(cè)模塊的損失函數(shù)中加入循環(huán)的交叉熵?fù)p失函數(shù),該方法可應(yīng)用在任何深度網(wǎng)絡(luò)模型中[11]。

和上一節(jié)類似,給定輸入x,標(biāo)簽y,設(shè)生成的最后一層特征圖為m(x),獲得掩碼的操作為mask(m(x)),在移除x中可能包含的因果信息之前,計(jì)算交叉熵?fù)p失函數(shù),將帶有掩膜的圖片返回計(jì)算。得到新的梯度權(quán)重,更新掩膜mask信息。損失函數(shù)用來(lái)描述預(yù)測(cè)與實(shí)際數(shù)據(jù)的差距程度[12],是實(shí)驗(yàn)結(jié)果分析中性能評(píng)價(jià)的主要參數(shù)。對(duì)于給定的數(shù)據(jù)集T={},應(yīng)用極大似然估計(jì)法估計(jì)模型參數(shù),最終得到自交叉熵?fù)p失函數(shù)為:

在給定的真實(shí)分布下,使用非真實(shí)分布所指定的策略消除系統(tǒng)的不確定性。定義了一種互交叉熵函數(shù)[13],給定2個(gè)輸入X,Z,在保證X→Y的交叉熵盡可能小的同時(shí),也要求Z→Y,通過(guò)計(jì)算X,Z的聯(lián)合分布,讓Z向X學(xué)習(xí),通過(guò)X的學(xué)習(xí)策略調(diào)整Z向Y學(xué)習(xí)的權(quán)重。記X,Z的觀測(cè)值分別為x、z,互交叉熵?fù)p失為:

3 實(shí)驗(yàn)結(jié)果與分析

本文所用數(shù)據(jù)來(lái)源于Google遙感衛(wèi)星5.0(無(wú)偏移)采集的國(guó)內(nèi)火電廠遙感圖像,共500張,遙感圖像分辨率為3 840×2 160。通過(guò)圖像拉伸、變換等增強(qiáng)將樣本擴(kuò)充至836張。數(shù)據(jù)集中除汽輪機(jī)組和冷凝塔等大型設(shè)備外,還有變壓器、煙囪、風(fēng)扇和水箱等小樣本目標(biāo)。

實(shí)驗(yàn)處理器CPU為AMD3700X,內(nèi)存16 GB,顯卡為NVIDIA GeForce GTX2060,編程環(huán)境為Python 3.8.2以及Pycharm 2019,詳細(xì)的實(shí)驗(yàn)環(huán)境設(shè)置見(jiàn)表1。對(duì)遙感電力目標(biāo)進(jìn)行檢測(cè),并討論影響其性能指標(biāo)的因素。

數(shù)據(jù)樣本包括各類型電力設(shè)備,這些設(shè)備均來(lái)自國(guó)內(nèi)各大發(fā)電廠,其中火電廠占比98.4%,蓄水式水電廠占比1.6%。共標(biāo)注了836張電力遙感圖像,統(tǒng)計(jì)相關(guān)電力目標(biāo):冷凝塔共1 421個(gè),煙囪620個(gè),汽輪機(jī)組645個(gè),水箱(可標(biāo)注)864個(gè),變壓器(可見(jiàn))84個(gè),風(fēng)扇(可標(biāo)注)56個(gè)。此外,還有分散式目標(biāo),如輸電桿塔、輸電線路、風(fēng)扇以及儲(chǔ)煤區(qū)若干。各樣本數(shù)量統(tǒng)計(jì)如圖5所示。

3.1 特征可視化實(shí)驗(yàn)

對(duì)于同一圖像分別采用不同的類激活映射算法進(jìn)行實(shí)驗(yàn),得到類激活映射圖(圖6),對(duì)比圖中的高亮區(qū)域,Mask-Grad-CAM更加貼合人類主觀視覺(jué)效果,并且針對(duì)不同的決策點(diǎn),通過(guò)熱力圖可獲得決策依據(jù)。

Grad-CAM能夠幫決策者分析網(wǎng)絡(luò)對(duì)于某個(gè)類別的關(guān)注區(qū)域。選取六類典型的電力目標(biāo)(冷凝塔、煙囪、水箱、汽輪機(jī)組、變壓器以及小目標(biāo)風(fēng)扇)作為實(shí)驗(yàn)數(shù)據(jù),通過(guò)圖6對(duì)比發(fā)現(xiàn),冷凝塔、煙囪、汽輪機(jī)組等設(shè)備的平均檢測(cè)率(Prediction)超0.8,分散式設(shè)備如變壓器、水箱等平均檢測(cè)率超0.7。

在進(jìn)行首階段的可解釋性實(shí)驗(yàn)研究時(shí),本文對(duì)比了標(biāo)準(zhǔn)Grad-CAM算法與本文創(chuàng)新提出的Mask-Grad-CAM算法在電力遙感圖像處理上的表現(xiàn)差異。實(shí)驗(yàn)結(jié)果以圖7的可視化形式呈現(xiàn),從中可以明顯觀察到兩者在目標(biāo)識(shí)別與特征突出方面的異同。

首先,Grad-CAM算法在對(duì)遙感圖像進(jìn)行分析時(shí),其生成的類激活映射圖顯示出較大的關(guān)注度域,這意味著算法傾向于覆蓋相對(duì)寬泛的區(qū)域,試圖捕獲與目標(biāo)類別相關(guān)的大部分特征信息。然而,這種廣范圍的注意力分配在某些情況下并未精確地聚焦于目標(biāo)本身的細(xì)微特征和邊界,特別是圖像內(nèi)包含多個(gè)電力設(shè)備的情況下,Grad-CAM算法未能有效區(qū)分不同目標(biāo)間的特征差異,易造成識(shí)別混淆[14]。

相比之下,改進(jìn)的Mask-Grad-CAM算法在實(shí)驗(yàn)中體現(xiàn)出了更優(yōu)的局部特征辨別能力。盡管生成的顯著區(qū)域(以紅色標(biāo)記)相對(duì)于Grad-CAM算法而言顯得更為緊湊和精確,但這種精確性恰恰反映出算法對(duì)單一小型電力目標(biāo)有著更強(qiáng)的針對(duì)性和敏銳度。Mask-Grad-CAM通過(guò)引入掩膜策略,能夠更有效地篩選出與目標(biāo)類別直接相關(guān)的特征區(qū)域,從而減少無(wú)關(guān)背景的干擾,確保對(duì)目標(biāo)特征的精準(zhǔn)鎖定與識(shí)別。實(shí)驗(yàn)數(shù)據(jù)顯示,對(duì)于細(xì)小的電力設(shè)施如變壓器、風(fēng)扇等,Mask-Grad-CAM在定位和識(shí)別精度上有了顯著提升,證明了改進(jìn)方法的有效性。

綜上所述,通過(guò)對(duì)Grad-CAM與Mask-Grad-CAM算法在電力遙感圖像識(shí)別中的可視化對(duì)比分析,可以得出結(jié)論:Mask-Grad-CAM算法在識(shí)別多目標(biāo)、小型目標(biāo)以及復(fù)雜背景下的電力目標(biāo)時(shí),展現(xiàn)出了更高的定位精確度和更好的可解釋性,這對(duì)于電力設(shè)備的實(shí)時(shí)監(jiān)測(cè)、故障診斷以及智能化管理具有重要的實(shí)際應(yīng)用價(jià)值。

3.2 模型性能實(shí)驗(yàn)

采用Grad-CAM中的平均下降率和平均上升率作為忠實(shí)度評(píng)估的性能指標(biāo)[15],平均下降率和平均上升率本質(zhì)是將產(chǎn)生的類激活映射作為指示掩碼來(lái)突出顯示與目標(biāo)類別相關(guān)的像素或區(qū)域,以觀察模型輸出該目標(biāo)類別的分?jǐn)?shù)變化來(lái)衡量類激活圖對(duì)模型解釋的忠實(shí)度。平均下降率(Average Decrease, AD)和平均增長(zhǎng)率(Average Increase, AI)兩個(gè)指標(biāo)的計(jì)算過(guò)程如式(16)和式(17)所示:

式中:Yic表示模型對(duì)圖像中目標(biāo)類別c的預(yù)測(cè)分?jǐn)?shù);Oic表示模型以顯著圖指示的目標(biāo)區(qū)域作為輸入,輸出關(guān)于目標(biāo)類別c的預(yù)測(cè)分?jǐn)?shù);Sign( )為指示函數(shù),如果輸入為正值則輸出為1,否則輸出為0。從計(jì)算過(guò)程可知,平均下降分值越低,平均增長(zhǎng)分值越高,說(shuō)明方法的忠實(shí)度越好。實(shí)驗(yàn)結(jié)果見(jiàn)表2。

本研究采用平均下降率(AD)和平均上升率(AI)作為評(píng)估模型解釋忠實(shí)度的關(guān)鍵指標(biāo)。通過(guò)對(duì)六種不同的CAM變體進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果顯示改進(jìn)后的Mask-Grad-CAM在AD上獲得的最低數(shù)值為57.4%,而在AI上獲得的最高數(shù)值為8.7%。這兩個(gè)結(jié)果共同揭示了Mask-Grad-CAM在保持目標(biāo)類別預(yù)測(cè)分?jǐn)?shù)穩(wěn)定性以及提高顯著區(qū)域?qū)δP皖A(yù)測(cè)影響方面的優(yōu)越性能,從而證明了其在解釋模型預(yù)測(cè)時(shí)的高忠實(shí)度[16]。

3.3 定位性能實(shí)驗(yàn)

通過(guò)查看顯著圖落入目標(biāo)對(duì)象邊界框中的能量大小來(lái)衡量其定位能力?;谀芰康闹赶蚨ㄎ恢笜?biāo)計(jì)算見(jiàn)式(18):

式中:Lc(i, j)∈bbox表示在類激活映射圖中,關(guān)于標(biāo)簽c的像素位置;P指顯著圖中落入目標(biāo)對(duì)象邊界框的像素?cái)?shù)量與總像素?cái)?shù)量的比例。

實(shí)驗(yàn)中,對(duì)比了本文改進(jìn)的Mask-Grad-CAM模型和Grad-CAM模型對(duì)于電力設(shè)備遙感圖像中類別較多且較大的目標(biāo)的定位性能,包括冷凝塔、煙囪、汽輪機(jī)組和水箱。定位精度結(jié)果測(cè)試取多次實(shí)驗(yàn)穩(wěn)定值,具體見(jiàn)表3。

針對(duì)電力設(shè)備遙感圖像中大型目標(biāo)的定位性能實(shí)驗(yàn)表明,改進(jìn)的Mask-Grad-CAM模型相較于基礎(chǔ)Grad-CAM模型,在定位冷凝塔、煙囪、汽輪機(jī)組和水箱等不同目標(biāo)時(shí)均表現(xiàn)出顯著優(yōu)勢(shì)。實(shí)驗(yàn)數(shù)據(jù)顯示,Mask-Grad-CAM在各目標(biāo)類別的定位精度上分別提高了7.3個(gè)百分點(diǎn)(冷凝塔)、15.9個(gè)百分點(diǎn)(煙囪)、15.2個(gè)百分點(diǎn)(汽輪機(jī)組)和13.6個(gè)百分點(diǎn)(水箱)。這證實(shí)了Mask-Grad-CAM在復(fù)雜場(chǎng)景下對(duì)多特征目標(biāo)的有效定位能力和較高的定位準(zhǔn)確性[17]。

4 結(jié) 語(yǔ)

本文提出了一種名為Mask-Grad-CAM的創(chuàng)新目標(biāo)表征方法,通過(guò)優(yōu)化深度神經(jīng)網(wǎng)絡(luò)內(nèi)部的類激活機(jī)制,顯著增強(qiáng)了對(duì)電力設(shè)備遙感圖像中多特征目標(biāo)的可解釋性表征。實(shí)驗(yàn)表明,該方法不僅能有效提升模型預(yù)測(cè)目標(biāo)類別時(shí)的忠實(shí)度,還能在定位多種大型目標(biāo)方面取得超越現(xiàn)有Grad-CAM模型的性能表現(xiàn)。通過(guò)深入挖掘多層語(yǔ)義信息,Mask-Grad-CAM不僅避免了因目標(biāo)缺失而導(dǎo)致的誤判問(wèn)題,而且能夠生成與目標(biāo)位置高度吻合且噪聲較少的融合特征圖,這些特征圖具有更強(qiáng)的物體輪廓可解釋性。展望未來(lái),我們將進(jìn)一步探索Mask-Grad-CAM在其他電力遙感圖像任務(wù)中的應(yīng)用潛力和普適性。

參考文獻(xiàn)

[1] WANG D, YANG Y, TAO C, et al. Proactive pseudo-intervention: causally informed contrastive learning for interpretable vision models [J]. Computer science,2020.

[2] GOEL N, AMAYUELAS A, DESHPANDE A, et al. The importance of modeling data missingness in algorithmic fairness: a causal perspective [Z]. 2020.

[3] WANG S, ZHU L. A causal-regularity and deep learning-based conjoint inference [C]// 2021 IEEE 4th International Conference on Computer and Communication Engineering Technology (CCET). [S.l.]: [s.n.], 2021: 233-237.

[4] SELVARAJU R, DAS A, VEDANTAM R, et al. Grad-CAM: Why did you say that? NIPS 2016 workshop on interpretable machine learning in complex systems [J]. arXiv: preprint arXiv: 1611.07450,"2016.

[5] HOLZINGER A, CARRINGTON A, MüLLER H. Measuring the quality of explanations: the system causability scale (SCS): comparing human and machine explanations [J]. Kunstliche intelligenz, 2020, 34(2): 193-198.

[6] SELVARAJU R R, COGSWELL M, DAS A, et al. Grad-CAM: visual explanations from deep networks via gradient-based localization [J]. International journal of computer vision, 2020, 128 (2): 336-359.

[7] WANG D, YANG Y, TAO C, et al. Proactive pseudo-intervention: causally informed contrastive learning for interpretable vision models [J]. arXiv preprint arXiv: 2012.03369, 2020.

[8] JUDEA P. The seven tools of causal inference, with reflections on machine learning [J]. Communications of the ACM, 2019, 62(3):"54-60.

[9] WANG T, HUANG J, ZHANG H, et al. Visual commonsense R-CNN [J]. arXiv: 2002.12204, 2020.

[10] HATTOPADHAY A, SARKAR A, HOWLADER P, et al. Gradcam++: Generalized gradient-based visual explanations for deep convolutional networks [C]// Proceedings of the 2018 IEEE Winter Conference on Applications of Computer Vision (WACV). Washington, DC: IEEE, Computer Society, 2018: 839-847.

[11] CHOLLET F. Deep learning with Python [J].1stedition. Manning publications, 2017: 162-176.

[12] JUDEA P. The seven tools of causal inference, with reflections on machine learning [J]. Communications of the ACM, 2019, 62(3): 54-60.

[13] SHIMIZU S, HOYER P O, HYVRINEN A, et al. A linear non-gaussian acyclic model for causal discovery [J]. Journal of machine learning research, 2006, 7(4): 2003-2030.

[14] YANG M, LIU F, CHEN Z, et al. Causal VAE: disentangled representation learning via neural structural causal models [Z]. 2020.

[15] ZHANG Y, TI?O P, LEONARDIS A, et al. A Survey on Neural Network Interpretability [J]. in IEEE transactions on emerging topics in computational intelligence, 2021, 5(5): 726-742.

[16] HOLZINGER A, CARRINGTON A, MüLLER H. Measuring the quality of explanations: the system causability scale (SCS): comparing human and machine explanations [J]. Kunstliche intelligenz, 2020, 34(2): 193-198.

[17]孫輝,史玉龍,王蕊.基于對(duì)比層級(jí)相關(guān)性傳播的由粗到細(xì)的類激活映射算法研究[J].電子與信息學(xué)報(bào),2023,45(4):1454-1463.

收稿日期:2024-04-03 修回日期:2024-05-10

主站蜘蛛池模板: 国产精品一区二区在线播放| 中文字幕 91| 国产网友愉拍精品| 一级黄色欧美| 婷婷五月在线视频| 熟妇丰满人妻av无码区| 国产视频只有无码精品| 白浆免费视频国产精品视频| 欧美亚洲国产一区| 亚洲无码高清一区| 色婷婷国产精品视频| 国产精品黑色丝袜的老师| 国产精品任我爽爆在线播放6080| 日本亚洲欧美在线| 欧美一区二区三区香蕉视| 国产高清色视频免费看的网址| 亚洲国产中文在线二区三区免| 欧美三级视频在线播放| 免费在线a视频| 男女性色大片免费网站| 青青草国产在线视频| 欧美日韩一区二区三| 91成人免费观看| 久久久久国色AV免费观看性色| 国产高清自拍视频| 国产精品3p视频| 国产精品性| 一级一级一片免费| 超碰精品无码一区二区| 色综合热无码热国产| 丁香六月综合网| 久久综合婷婷| 99九九成人免费视频精品| a毛片在线| 另类欧美日韩| 久爱午夜精品免费视频| 香蕉久久国产超碰青草| 91人人妻人人做人人爽男同| 91免费片| 99青青青精品视频在线| 久久一日本道色综合久久| 欧美影院久久| 国产素人在线| 国产视频入口| 丁香亚洲综合五月天婷婷| 亚洲国产综合自在线另类| 国产福利不卡视频| 欧美曰批视频免费播放免费| 男女男免费视频网站国产| 91精品国产自产在线观看| 亚洲综合二区| 欧美福利在线观看| 欧美无遮挡国产欧美另类| 欧美人与牲动交a欧美精品 | 97综合久久| 香蕉久久国产精品免| 狠狠色狠狠色综合久久第一次| 日本五区在线不卡精品| 国产成人一区| 欧美精品伊人久久| 午夜色综合| 国产无吗一区二区三区在线欢| 国产在线91在线电影| 自慰网址在线观看| 亚洲伦理一区二区| 六月婷婷激情综合| 福利片91| 欧美日韩动态图| 亚洲无线国产观看| 最新日韩AV网址在线观看| 亚洲日本韩在线观看| 日韩大乳视频中文字幕| 韩国自拍偷自拍亚洲精品| 国产又大又粗又猛又爽的视频| 综合社区亚洲熟妇p| 无码国产偷倩在线播放老年人| 午夜国产大片免费观看| 老司机精品99在线播放| 国产一区免费在线观看| 97成人在线观看| 日韩精品视频久久| 亚洲av日韩av制服丝袜|