趙偉達, 陳海文,郭陸陽, 王守相, 潘曉明, 汪新浩
(1.省部共建電工裝備可靠性與智能化國家重點實驗室(河北工業大學), 天津市 300401;2.智能電網教育部重點實驗室(天津大學),天津市 300072;3.國網蘇州供電公司,江蘇省蘇州市 215000)
由于變電站內電磁環境復雜,對傳感裝置的可靠性要求較高,目前變電站中仍以傳統機械儀表作為電力設備狀態檢測的主要手段,指針式儀表應用尤為廣泛[1-2],例如SF6壓力表、避雷器泄露電流表、油溫表等。對于機械儀表,傳統變電運維工作多采用人工讀數記錄的方式了解設備狀態,既浪費了人力資源,同時也限制了設備狀態感知的實時性,制約了運檢專業的數字化轉型。近年來,邊緣計算與物聯網技術的發展[3-4],提高了智能變電站處理運維數據的能力,為實現變電站的數據采集和就地分析提供了基礎。同時,計算機視覺技術在電力領域的應用逐漸深化[5-6],隨著電力視覺影像技術的發展,變電站內部署了包括巡檢機器人、高清攝像頭在內的大量影像裝置[7]。利用計算機視覺技術讀取運維信息[8],實現電力儀表數據的精準識別,提升了變電運維的自動化、智能化水平,對優化提升運營效率和效益[9],保障變電設備的安全穩定運行意義重大[10]。
針對變電站儀表讀數識別問題,學界進行了大量研究工作,整體上可以分為基于圖像分析的方案與基于深度學習的方案。基于圖像分析的方案往往依賴經典的圖像特征提取算法,通過圖像增強算法提高檢測的魯棒性[11-14]。例如文獻[11-12]中提出了基于Hough變換的指針角度識別算法,實現了儀表的準確讀數。文獻[15]中使用多尺度視網膜增強算法提升圖像質量,然后通過Hough變換檢測圖像中的圓形輪廓,從而實現表盤檢測。文獻[16]使用單參數指數型同態濾波器增強儀表圖像對光照變換的適應性,然后使用累計概率霍夫變換實現讀數識別。文獻[17]通過BRISK算法與FREAK特征檢測技術提升了儀表在強光、大傾斜角度下的檢測準確性。然而,基于圖像分析的方法依據人工設計的規則來檢測指針,在圖像干擾多的復雜環境下魯棒性較差[18]。
近年來,隨著深度學習算法的迅速發展,以目標檢測、語義分割為代表的計算機視覺技術[19-20],在智慧交通[19]、遙感[21]等領域取得了廣泛應用。在儀表識別問題上,基于深度學習的方案在特征提取方面優勢顯著,提高了復雜場景下的檢測準確率。例如,文獻[1]中構建了異構卷積神經網絡,強化了對儀表圖像特征的提取,提升了儀表識別的準確性。文獻[2]中提出了基于Faster-RCNN目標檢測和U-Net圖像分割的指針式儀表讀數自動識別方法,提升了復雜圖像中小目標檢測的準確性。文獻[22]中提出了對采集的電表圖像進行去噪、增強等預處理方法提升模型訓練的精準度。但上述方案中儀表的量程依賴人工確定,無法實現自適應檢測。文獻[23]中進一步將主干網絡替換為CenterNet,加強了不同通道之間的特征聯系,提升了檢測精度。文獻[24]通過YOLOv5s目標檢測算法和 DeeplabV3+語義分割算法實現了變電站無人機巡檢的自動抄表。文獻[25]提出了一種基于Mask-RCNN的指針式儀表識別方法,通過目標檢測信息進行透視變換來校準圖像以獲得更加準確的抄表讀數。然而上述研究中語義分割的精度有待提高,并且未能考慮儀表色帶中反映的設備狀態信息。總之,已有表盤識別算法往往僅針對儀表讀數進行檢測,仍然局限于固定量程類型的表計讀數,無法自適應表盤量程,對于色帶標識與量程標注考慮不足,未能結合表盤色帶判別設備狀態。
因此,為準確判斷設備狀態、自適應表盤量程,本文提出了一種變電站儀表讀數自適應識別方法,通過改進的語義分割算法準確區分儀表中的刻度、指針、色帶等元素,基于光學字符識別(optical character recognition,OCR)算法自適應識別儀表量程,通過指針與刻度、色帶的相對位置實現儀表讀數識別與設備狀態判別。首先提出了基于YOLO-E的表盤位置檢測算法,并通過透視變換實現圖像校準;其次,使用極化注意力模塊分支改進OCRNet網絡結構,提出基于改進OCRNet網絡的表盤分割算法,實現表盤刻度、指針及色帶的準確分割提取;最后,基于PGNet字符識別算法自適應提取表盤文本中的量程信息,結合指針與刻度的分割結果實現讀數識別,同時依據指針所處色帶位置判別設備運行狀態。
本節將從江蘇某220 kV變電站儀表實拍圖片著手,分析變電站儀表圖像特點及運維工作識別需求。儀表包括氣體絕緣GIS 220 kV斷路器罐體SF6氣體密度表(WIKA威卡GDM-100),如圖1所示,GIS 110 kV壓變罐體SF6氣體密度表(WIKA威卡GDM-100),如圖2所示,避雷器泄露電流表(凱特電氣JCQ100),如圖3所示。

圖1 220 kV 斷路器氣室WIKA SF6氣體密度表

圖2 110 kV母線分段氣室、壓變氣室SF6氣體密度表
如圖1—3所示,變電站儀表具有如下特點:首先,變電站儀表表盤信息極為豐富,通過人工讀數可直觀判斷設備工作狀態是否正常。其中,警示色帶是指示設備狀態的重要標志,以SF6氣體密度表為例,由于其與滅弧、絕緣性能密切相關,不同電壓等級、不同氣室類型,甚至是不同廠家設定的額定、告警、閉鎖壓力值均不同。因此讀數與設備運行狀態而言,必須結合色帶覆蓋區間等信息綜合判別。其次,對于GIS而言,如圖1、2所示,為避免震動導致表內二次回路意外導通,表內往往填充阻尼油,油位面及折射問題將影響傳統儀表讀數算法的準確性。最后,不同儀表的量程差異顯著,儀表讀數的識別需要自適應提取表盤文本中的量程信息。
綜上所述,變電站儀表識別需求包括如下三點:1)識別指針所處的紅色、黃色、綠色等常見色帶判別當前設備運行狀態。2)采用改進的圖像分割算法,降低圖像畸變及減震阻尼油折射對讀數的干擾。3)識別表盤中量程,提升模型在面對不同儀表讀數的適應性。
針對第1節中所述變電站儀表圖像特點以及智能運檢工作中的識別需求,本文引入了計算機視覺領域的目標檢測、圖像分割和OCR字符識別三項技術。其中,目標檢測技術是指在所給圖像中檢測并標注存在指定目標的區域,圖像分割則是指從圖像中分割出僅屬于給定目標的圖片像素,OCR技術是一種將圖像或印刷體字符轉換為可編輯文本的技術。
本文所提變電站儀表識別算法檢測流程如下:首先通過目標檢測算法YOLO-E框選變電站內儀表所在區域,從而排除畫面中其他物體干擾,提升后續圖像分割效果,并通過透視變換對圖像進行矯正。其次,使用改進的OCRNet圖像分割算法分割出表盤區域的刻度線、三色色帶、指針像素,并識別指針讀數及設備對應狀態區間。最后,通過端對端的OCR算法PGNet自適應識別表計量程信息。儀表讀數與表盤信息檢測流程如圖4所示。
準確識別表盤位置是后續儀表讀數檢測的基礎步驟,考慮到變電站中包含儀表的圖像一般由巡檢機器人或固定式高清監控拍攝得到,圖像質量可能受到光照、天氣、鏡頭抖動等因素的影響,且表盤面積較小。為提升小目標下的檢測能力,提高算法應對實際環境的魯棒性,本節提出一種基于YOLO-E模型的表盤檢測算法。
YOLO-E算法基于工業圖像識別的實際需求,在YOLO v5模型的基礎上進行了多項重要改進,算法性能全面優于YOLO v5和YOLO X[26]。YOLO-E具有更強大的骨干網絡和Neck特征層。在骨干網絡方面,模型同時結合了殘差連接易于訓練與密集連接提取特征能力強的結構優勢,設計了名為RepResBlock的單元,在此基礎上進一步引入YOLO v5中Cross Stage Partial Network(CSP)結構與Effective Squeeze and Extraction(ESE)塊,提出了CSPRepResStage結構,如圖5所示。

圖5 YOLO-E模型中的CSPRepResStage結構

(1)
(2)

ET-Head同樣用于解決任務對齊問題,在YOLO-E模型中,通過參考一階段目標檢測(task-aligned one-stage object detection, TOOD)算法的結構特點[27],針對儀表定位與分類兩個問題分別采用了改進的解耦二級檢測頭,如圖6所示。并進一步采用上文所述的對齊損失進行訓練。YOLO-E網絡的整體結構如圖7所示,包括由三層堆疊的CSPRepResStage結構組成的CSPRepResNet、特征層及ET-Head。

圖6 ET-Head結構

圖7 YOLO-E網絡結構
在YOLO-E模型識別出表盤位置后,裁剪出標注框內的表盤圖像用于后續讀數識別。由于照片拍攝角度問題可能導致表盤畫面出現畸變,為保證后續識別的準確性,在裁剪表盤區域后對圖像進行透視校正。透視校正是一種將圖片投影到一個新的視平面的變換,透視校正的基本思想是通過四個對應點(原圖像和目標圖像各兩個)來求解一個3×3的變換矩陣,透視校正的變換矩陣如式(3)所示。
(3)
式中:(x,y)是原圖像坐標;(X′,Y′,Z′)是目標圖像坐標;aij(i,j=1,2,3)是變換矩陣的元素。
對于表盤透視校正問題而言,由于表盤本體為標準的正圓形,受拍攝角度影響的表盤圖像為橢圓形,因而可通過確定橢圓的頂點與圓形表盤的對應點求解變換矩陣[2]。由于本文所提算法依賴于對刻度及指針的分割,而非傳統方法中的計算指針旋轉角度,因此無需對變換前后的旋轉角度差進行進一步處理。
已有讀數識別算法多基于指針偏轉角度進行判別,這種方案易受透視角度影響,且無法識別表盤色帶信息。對此,本文采用了刻度分割的方案提升算法識別的準確性。
由于表盤刻度數量多、像素少,傳統卷積神經網絡,如Faster-RCNN、U-Net通過堆疊卷積層、池化層進行層次化特征提取,僅能夠考慮像素自身局部范圍的上下文信息,忽略了全局同類目標像素之間的關系,影響了表盤圖像分割的準確性。對此,本文顯式地對全局圖像目標上下文關系建模,采用目標上下文卷積神經網絡結構(object-contextual representations Net, OCRNet)實現變電站儀表的圖像分割。OCRNet是基于上下文聚合策略的圖像分割算法,顯式地把像素分類問題轉化成物體區域分類問題,使用像素所屬目標的特征來增強像素特征,進而得到較高的分割效果[28]。
為提高進一步處理儀表圖像的能力,本文在OCRNet現有模型結構基礎上進行模型改進。經典的OCRNet通過像素對應的類別標簽來決定像素的分類,網絡結構中引入了多頭注意力機制來增強特征表達。但這種結構僅能考慮空間維度的上下文信息,無法考慮通道維度的上下文信息。為此,本文引入了包含通道注意力的極化注意力模塊改進模型,改進后的網絡結構如圖8所示。

圖8 基于極化注意力機制改進的OCRNet表盤分割算法
OCRNet包括粗分割分支與精分割分支兩部分[29],首先根據網絡中間層的特征表示估測一個粗分割結果作為軟目標區域;根據粗語義分割結果和網絡深層特征表示得到目標區域表示;把目標區域特征加權求和,得到最后的目標上下文特征表示。
設輸入的表盤圖像為X∈RH×W×C,標注信息為Y∈RH×W,本文選擇HRNet作為特征提取的骨干網絡,提取后的高級特征fb如式(4)所示。
fb=backbone(X)
(4)
式中:backbone(·)表示骨干網絡。
對于提取后的高級特征,通過上采樣及卷積操作縮放特征維度,得到像素特征fp∈RH×W×S,其中S為像素特征向量維度。
在粗分割階段,將高級特征fb作為粗分割網絡分支的輸入,得到粗分割特征fcorse∈RH×W×CL(CL表示分割問題中的分類數),如式(5)所示。
fcorse=BranchCorse(fb)
(5)
式中:BranchCorse為粗分割分支模塊,在網絡訓練時,粗分割分支的損失函數如式(6)所示。
Lcorse=CrossEntropy(fcorse,Y)
(6)
式中:CrossEnropy表示互熵損失。粗分割模塊的輸出fcorse有CL個通道,各像素對應類別通道的特征值大,因此在全局類別中心計算中,據此獲得每一類像素在特征空間的類別中心,并將歸一化后的類別中心作為像素權重,如式(7)所示。
式中:mk∈RH×W為歸一化后的通道值;k為對應的通道數,進一步計算第k類對應的特征中心,如式(8)所示。
(8)
式中:fClassCenter,k表示第k類對應的特征中心;fp,i∈RS為圖像特征圖fp的第i個特征向量;mk,i表示權重圖mk的第i個元素。
在精分割分支,利用類別特征中心對像素特征fp進行加權,得到新的編碼特征fc,如式(9)-(11)所示。
κ(a,b)=φ(a)Tψ(b)
(9)
(10)
(11)
式中:κ(·)表示非歸一化關系函數;a為像素;b為對象區域;φ(·)、ψ(·)、ρ(·)和σ(·)為轉換網絡,其網絡結構為1×1卷積層-BN歸一化層-ReLU激活層;wi,k為像素中心關系矩陣W中的元素,表示第i個像素與第k個類別中心的編碼權重。fc中包括了整個圖片的空間上下文信息,進一步將編碼特征與像素特征進行融合,得到融合特征ffusion,如式(12)所示。
ffusion=g[cat(fp,fc)]
(12)
式中:cat(·)表示將兩組特征首尾相連;g(·)表示轉換網絡,網絡結構為1×1卷積層-BN歸一化層-ReLU激活層。最后基于融合特征ffusion得到最終圖像分割結果。
本文在像素中心關系矩陣W后添加了極化注意力模塊(polarized self-attention,PSA)[30]來改進OCRNet,如圖8中紅框所示。極化注意力模塊包含通道注意力和空間注意力兩個分支。通道注意力模塊計算每個通道特征的權重,然后將權重應用到相應的通道上。PSA模塊通過構建像素間的遠程依賴關系,可顯著增強OCRNet目標區域表達的判別力。
具體而言,設輸入到極化注意力模塊的像素特征張量為X∈RC×H×W,增強后的特征張量為Y∈RC×H×W,本文選擇串聯結構的極化注意力模塊,如式(13)所示。
Z=Asp[Ach(X)⊙chX]⊙spAch(X)⊙chX
(13)
式中:Ach表示通道注意力;⊙ch表示通道維度上的逐元素乘法;Asp表示空間注意力;⊙sp表示空間維度上的逐元素乘法。
通道注意力分支的運算過程如式(14)所示。
Ach(X)=σ(Wz{Softmax[Wq(X)]?σ[Wv(X)]})
(14)
式中:Wq、Wv、Wz表示1×1卷積;σ表示張量重塑操作;?表示矩陣點乘。
空間注意力分支的運算過程如式(15)所示。
Asp(X)=σ(Softmax{σ[AvgPool(Wq(X)]}?σ[Wv(X)])
(15)
式中:AvgPool表示全局平均池化。
表盤圖像分割后,通過圖像腐蝕算法提升刻度之間的分離度,然后將環形的表盤展開為矩形圖像,具體而言,通過Hough特征檢測環形表盤的圓心,然后通過極坐標轉換將表盤展開。通過定位指針相對刻度的位置及表盤的量程得到讀數結果。對于色帶而言,先將圖像轉換為灰度圖像,然后使用Canny算子進行邊緣檢測,使用Hough直線變換來檢測出邊界直線。最后,根據指針與色帶邊界的相對位置計算二者讀數。
從表盤字符形態來看,視覺表計信息讀取受表盤形狀、類型與拍攝角度影響,同時不同表盤的字符位置差異很大,字體字號多樣,且形態上存在彎曲等特點,給字符識別算法的魯棒性帶來很大挑戰。考慮到上述特點,本文提出了基于PGNet算法的表盤字符信息識別方法,與傳統文本檢測+文本識別的兩階段OCR算法相比,PGNet僅需一步即可直接識別任意形狀文本,速度上大幅超越了傳統算法[31],其特有的文本解讀方向重建機制非常適用于表盤字符識別之類的特殊情景。
PGNet針對文本檢測與識別問題建立了一個多任務學習模型,采用全卷積神經網絡模型作為主干網絡提取特征[32],下游包括四個子任務:文本邊界偏移(text border offset, TCL)檢測,文本中心線(text center line, TCL)識別,文本方向偏移(text direction offset, TDO)識別,文本字符分類特征(text character classification, TCC)提取。在實現文本檢測與識別時,從TCL中提取每個文本實例的中心點序列,并根據TDO信息進行排序,以恢復正確的閱讀順序,使算法可以正確識別非傳統閱讀方向的文本。借助來自TBO的邊界偏移信息,通過多邊形還原檢測每個文本實例。同時,PG-CTC解碼器可將TCC映射序列化為字符分類概率序列,并將其解碼為最終的文本識別結果。PGNet識別表盤信息的步驟如圖9所示。

圖9 基于PGNet算法的表盤信息識別
在訓練損失函數方面,PGNet算法的本質是對TCL、TBO、TDO、TCC四類特征圖學習的過程,依據多任務學習損失函數的設計原則,損失函數如式(16)所示。
L=λ1LTCL+λ2LTBL+λ3LTDO+λ4LTCC
(16)
式中:λ表示各子任務的損失權重,按照經驗設置為λ1=1.0,λ2=1.0,λ3=1.0,λ4=5.0;LTCL、LTBL、LTDO、LTCC分別為TCL、TBO、TDO、TCC四類對應的損失函數。
本文所用數據集來源于江蘇某220 kV變電站實拍圖片以及開源表計檢測數據集,包括訓練集1 119張,測試集118張,表計類型以SF6氣體密度表為主。目標檢測任務與報盤信息識別實驗硬件環境為Intel(R) Xeon(R) Gold 6330 CPU,NVIDIA RTX 3090 24 GB;語義分割實驗硬件環境為AMD EPYC 7453 CPU,NVIDIA A800 80 G。算法基于Python 3.8,PaddlePaddle 2.4,PaddleDetection 2.6,PaddleSeg 2.8實現。
在儀表檢測實驗中,除所提基于YOLO-E的表盤檢測算法外,本文選擇了五種先進的深度學習目標檢測算法作為對比,分別是SSD、YOLO v3、CenterNet、PP-YOLO以及Faster-RCNN,上述方法在文獻[2,33-34]的電力視覺情境中均取得了較好的檢測效果。
為提升模型的魯棒性,訓練圖像采用隨機縮放、隨機填充、標準化等圖像預處理步驟。在參數設置方面,為保證訓練效果,提升訓練穩定性,六種模型均采用遷移學習策略,使用COCO數據集上訓練過的模型作為預訓練模型。由于使用單卡訓練,使用較低的batchsize來保證模型訓練的穩定性,batchsize設置為2。為了保證訓練模型對比具有公平性,學習率統一設置為0.005,訓練輪數為30。YOLOE模型使用CSPEepResNet作為骨干網絡,CustomCSPPAN neck、PPYOLOEHead作為頭部和后處理。其中CSPEepResNet的模型階段層數為[3, 6, 6, 3],對應的各階段的通道數為[64, 128, 256, 512, 1 024]。Fast-SCNN采用階段數為3的ResNet101骨干網絡。YOLO v3骨干網絡為MobileNetV1。SSD、PP-YOLO與 CenterNet的骨干網絡均為MobileNetV3。模型評價指標包括邊界框平均精確度(bounding box average precision, BBox AP),模型大小以及最大檢測框(maxDets)分別為1和10下的召回率(recall)。測試結果如表1所示。

表1 儀表盤區域目標檢測算法性能比較
由表1可見,本文采用的YOLO-E模型在邊界框平均精確度指標上顯著優于其他四種常用深度學習算法,同時模型占用空間最小,這證明了YOLO-E模型中的機制改進對表盤識別問題的適用性。電力視覺領域常用的Faster-RCNN模型精度僅次于YOLO-E模型,同時在召回率指標上略優,但模型占用空間較大。YOLO v3與SSD模型在檢測精度與模型大小上表現不佳,PP-YOLO與CenterNet模型表現稍差。YOLO-E模型占用空間較小,為后續運行在嵌入式設備上提供了有利條件。
在表盤分割實驗中,除所提基于改進OCRNet模型的表盤分割算法外,本文還選擇了Fast-SCNN、U-Net、DeepLab v3、DeepLab v3 plus(v3p)、HRNet、KNet六種電力視覺領域的先進圖像分割算法作為對比。同樣采用遷移學習策略,所用模型均在COCO數據集上進行預訓練,學習率統一設置為0.000 2,分割類別包括色帶、刻度、指針三類,batchsize設置為2,由于分割模型任務較為復雜,模型精度提升依賴較多的訓練輪數,因此統一設置訓練120輪。OCRNet模型使用HRNet-W48作為骨干網絡,使用CrossEntropyLoss作為損失函數。其他參數使用模型默認提出的參數進行訓練,使用默認值(512)作為OCR模塊中間通道數,注意力中的關鍵通道數取默認值256。DeepLab v3、DeepLab v3 plus(v3p)采用輸出步長為8的ResNet101骨干網絡。HRNet模型的骨干網絡為HRNet_W48。KNet模型的骨干網絡為ResNet50。
在評價指標上,采用平均交并比(mean intersection over union, mIoU)作為分割任務的評價指標,采用準確率作為分類任務的評價指標。訓練過程中模型在測試集上的mIoU指標隨訓練輪數變化如圖10所示。訓練完成后各模型取得的儀表圖像分割評估指標如表2所示。

表2 儀表圖像分割算法性能比較

圖10 訓練過程中各算法mIoU指標
經實驗,改進后的OCRNet的mIoU值為0.857,而未改進的OCRNet模型僅為0.843,說明改進能夠提高模型的效果。由圖10、表2可見,改進OCRNet算法性能好于傳統OCRNet算法和DeepLab v3算法,Fast-SCNN與U-Net mIoU指標性能相當。從測試集上的指標來看,7種算法在分類上均取得了較高的準確率,這表明指針、刻度與色帶三類圖像差異較為顯著,模型區分效果不大。而在mIoU指標上,本文所提基于OCRNet的改進方案與DeepLab v3p表現相當,顯著優于其他6種算法,其中HRNet與KNet性能較好,而電力視覺中常用的U-Net與Fast-SCNN模型在表盤圖像分割問題中表現不佳。
進一步,在測試集上將所提算法識別出的儀表讀數與人工讀數作對比,計算誤差百分比,并作出箱線圖及誤差分布,如圖11所示。
由圖11可見,測試集上識別誤差的中位數僅為0.93%,上四分位數僅為3.63%,證明了所提算法能夠準確穩定地識別儀表讀數。
表盤信息中包括刻度區與信息區,此處采用上文所述預訓練PGNet模型對表盤信息進行識別,該模型僅能檢測識別英文字符,故此處僅以不含中文的表盤為例,識別效果如圖12所示,文本區域以紅色框標注,檢出的字符位于圖片右側。

圖12 表盤信息OCR結果
由圖12可見,從信息內容來看,表盤文本可分為刻度區和信息區兩部分,可通過關鍵詞匹配、正則表達式等方法提取所需信息,刻度區文本用于表盤量程的自適應識別,得到的量程信息配合分割結果可實現自適應儀表讀數。例如以正則表達式{^[0-9]+(.[0-9])?$} 可篩選出表盤信息中的刻度值,比較最大值即為儀表量程值,例如圖中表盤的刻度信息為-0.1, 0.1, 0.2, 0.4, 0.6, 0.8, 0.9。信息區則包括了儀表類型、二次回路信息、觸發壓力數據等內容,例如正則表達式{^P.*MPa$}可篩選出以P開頭,以MPa結尾的觸發壓力值,圖12中閉鎖壓力P1=0.35 MPa,額定壓力P=0.40 MPa等。以圖12中表盤圖片為例,自適應讀數識別結果如圖13所示。

圖13 SF6儀表圖片讀數識別結果
本文提出了一種基于YOLO-E與改進OCRNet的變電站儀表量程信息自適應讀數方法,通過表盤目標檢測、指針及刻度分割實現儀表讀數識別,克服了傳統基于指針偏轉角度的方法易受拍攝角度影響,識別精度差等問題。此外,所提方法能夠通過色環分割自動讀取設備對應的狀態區間,基于PGNet算法識別表盤量程、告警值信息,實現表計設備運維狀態的讀取。算例對比了所提方法與電力視覺領域先進深度學習算法的性能,證明了所提方法在變電站儀表識別問題上的適用性。然而,目前模型精簡化方面仍有很大的優化空間。特別是考慮到在嵌入式設備中的部署,模型的大小和計算效率成為關鍵因素。因此,未來可圍繞模型壓縮技術開展研究,以滿足計算資源有限條件下的算法部署需求。