


摘 要:油氣作業(yè)現(xiàn)場的儀表設(shè)備繁多,通常需要巡檢員定期進(jìn)行人工讀數(shù)以判斷設(shè)備是否存在異常。然而,這種巡檢工作繁重且容易受到人為因素的影響。為了解決這一問題,可以利用計(jì)算機(jī)視覺技術(shù)進(jìn)行儀表圖像分析和處理,實(shí)現(xiàn)自動(dòng)識別和測量讀數(shù)。傳統(tǒng)的檢測方法存在準(zhǔn)確度低、實(shí)時(shí)性差和適應(yīng)性差等方面的問題。利用基于深度學(xué)習(xí)的目標(biāo)檢測和關(guān)鍵點(diǎn)檢測技術(shù),能夠進(jìn)一步提高儀表自動(dòng)化檢測及讀數(shù)的準(zhǔn)確性和效率,有效替代人工巡檢,縮減成本。
關(guān)鍵詞:目標(biāo)檢測;關(guān)鍵點(diǎn)檢測;計(jì)算機(jī)視覺;深度學(xué)習(xí);油氣作業(yè);儀表自動(dòng)讀數(shù)
中圖分類號:TP312 文獻(xiàn)標(biāo)識碼:A 文章編號:2095-1302(2024)12-00-03
0 引 言
傳統(tǒng)油氣行業(yè)巡檢業(yè)務(wù)中,需要巡檢員通過人工讀數(shù)來判斷設(shè)備是否存在異常,工作繁重且存在人為因素的影響。尤其是對于一些偏遠(yuǎn)的油氣場站而言,巡檢難度較高,需要投入大量的人力和物力資源,還面臨著高昂的巡檢費(fèi)用。
為了解決這些問題,人們開始探索利用攝像頭結(jié)合人工智能技術(shù)來實(shí)現(xiàn)儀表自動(dòng)讀數(shù)[1]。通過攝像頭對儀表進(jìn)行拍攝,然后由人工智能算法進(jìn)行圖像分析和識別,可以自動(dòng)讀取儀表上的數(shù)據(jù)。這種方法能夠大大降低巡檢的強(qiáng)度,減少巡檢員的工作量。同時(shí),利用人工智能技術(shù)可以提高讀數(shù)準(zhǔn)確性和穩(wěn)定性,減少人為因素對巡檢結(jié)果的影響。此外,利用攝像頭和人工智能技術(shù)進(jìn)行儀表自動(dòng)讀數(shù)還能夠?qū)崿F(xiàn)減人、少人甚至無人值守的油氣場站。通過部署攝像頭和相應(yīng)的人工智能系統(tǒng),可以實(shí)現(xiàn)對油氣場站的遠(yuǎn)程監(jiān)控和自動(dòng)化管理。這將大大降低人力投入,降低運(yùn)營成本,提高安全性和效率。
1 研究現(xiàn)狀
在儀表讀數(shù)檢測過程中利用計(jì)算機(jī)視覺技術(shù)對各種儀表進(jìn)行圖像分析和處理,能達(dá)到自動(dòng)識別和測量讀數(shù)的目的。傳統(tǒng)方法廣泛使用復(fù)雜的圖像處理算法和手工設(shè)計(jì)的特征提取器,但存在準(zhǔn)確度低、實(shí)時(shí)性差和適應(yīng)性差的問題。
近年來,隨著深度學(xué)習(xí)和目標(biāo)檢測算法的迅速發(fā)展[2],儀表讀數(shù)檢測出現(xiàn)了新的解決方案。深度學(xué)習(xí)技術(shù)能夠自動(dòng)學(xué)習(xí)和提取圖像中的有用特征[3],避免了手工設(shè)計(jì)特征提取器的繁瑣過程,大幅提高了讀數(shù)檢測的準(zhǔn)確性和穩(wěn)定性。同時(shí),目標(biāo)檢測算法可以檢測儀表的位置和數(shù)字顯示區(qū)域,并通過分類網(wǎng)絡(luò)實(shí)現(xiàn)數(shù)字的識別。常用的目標(biāo)檢測算法包括Faster R-CNN、YOLO和SSD等。深度學(xué)習(xí)和目標(biāo)檢測算法的優(yōu)勢在于自動(dòng)學(xué)習(xí)特征表示、對復(fù)雜場景的適應(yīng)性以及實(shí)時(shí)性和效率的提升。
2 相關(guān)知識簡介
2.1 YOLOv5介紹
深度學(xué)習(xí)技術(shù)以其強(qiáng)大的特征學(xué)習(xí)和表征能力在計(jì)算機(jī)視覺領(lǐng)域取得了重大突破。YOLOv5(You Only Look Once v5)是一種基于深度學(xué)習(xí)的實(shí)時(shí)目標(biāo)檢測算法,以其高實(shí)時(shí)性、高準(zhǔn)確度和簡潔的網(wǎng)絡(luò)結(jié)構(gòu)而聞名。
高實(shí)時(shí)性:YOLOv5采用單次前向傳播的設(shè)計(jì)思路,具有出色的實(shí)時(shí)性能,能夠在實(shí)時(shí)檢測目標(biāo)的同時(shí)保持較高的準(zhǔn)確度。這一特點(diǎn)使得它在儀表讀數(shù)檢測領(lǐng)域具有較大的應(yīng)用潛力。
高準(zhǔn)確度:YOLOv5通過引入一系列創(chuàng)新的技術(shù),如特征融合、注意力機(jī)制和多尺度檢測等,有效提升了目標(biāo)檢測的準(zhǔn)確度。對于儀表讀數(shù)檢測任務(wù),準(zhǔn)確度是至關(guān)重要的因素,確保對儀表讀數(shù)的準(zhǔn)確捕捉與測量。
網(wǎng)絡(luò)結(jié)構(gòu)簡潔:YOLOv5采用輕量級網(wǎng)絡(luò)結(jié)構(gòu),減少了模型的參數(shù)量和計(jì)算復(fù)雜度,使得基于YOLOv5的儀表讀數(shù)檢測方法能夠在嵌入式設(shè)備和移動(dòng)平臺上高效部署,并在多樣的硬件環(huán)境中高效運(yùn)行。
因其高實(shí)時(shí)性、高準(zhǔn)確度和簡潔的網(wǎng)絡(luò)結(jié)構(gòu),YOLOv5在儀表讀數(shù)檢測領(lǐng)域具有巨大的潛力和應(yīng)用前景。未來的研究可以致力于進(jìn)一步改進(jìn)技術(shù),提高準(zhǔn)確度和魯棒性,并推動(dòng)其在更廣泛的場景中應(yīng)用。
2.2 目標(biāo)檢測算法介紹
目標(biāo)檢測算法是計(jì)算機(jī)視覺領(lǐng)域的重要技術(shù),可以自動(dòng)實(shí)現(xiàn)對圖像或視頻中目標(biāo)的識別和定位。在深度學(xué)習(xí)出現(xiàn)之前,傳統(tǒng)的目標(biāo)檢測算法主要依賴手工設(shè)計(jì)的特征,如Sobel邊緣檢測特征、Haar特征、Hog特征等。然而,這些特征的泛化能力較弱,對于復(fù)雜場景中的目標(biāo)檢測表現(xiàn)較差。
而基于深度學(xué)習(xí)的目標(biāo)檢測算法則使用卷積神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)特征[4]。這種特征學(xué)習(xí)方式能夠自動(dòng)發(fā)現(xiàn)目標(biāo)檢測和分類所需要的特征,并將原始輸入信息轉(zhuǎn)化為更抽象、更高維的特征表示。這種高維特征具有強(qiáng)大的特征表達(dá)能力和泛化能力,因此在復(fù)雜場景中具有較好的性能,能夠滿足工業(yè)領(lǐng)域的大部分應(yīng)用需求。
2.3 關(guān)鍵點(diǎn)檢測算法介紹
關(guān)鍵點(diǎn)檢測算法是在目標(biāo)檢測的基礎(chǔ)上,進(jìn)一步實(shí)現(xiàn)對目標(biāo)內(nèi)部關(guān)鍵點(diǎn)的識別和定位[5]。以下是目前主流的關(guān)鍵點(diǎn)檢測算法:
(1)基于coordinate
該算法使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)的特征來回歸關(guān)鍵點(diǎn)的坐標(biāo)和置信度信息。將卷積特征從單層特征逐漸轉(zhuǎn)換為金字塔特征,其中有代表性的算法為人臉關(guān)鍵點(diǎn)檢測的PFLD算法。
(2)基于heatmap
該算法的核心思想是將輸出的特征層利用卷積得到各個(gè)關(guān)鍵點(diǎn)的置信度,即每個(gè)通道代表了某個(gè)關(guān)鍵點(diǎn)在輸入圖片上各位置的置信度。隨后,通過在每個(gè)通道上取置信度最大值和對應(yīng)位置,實(shí)現(xiàn)關(guān)鍵點(diǎn)的定位;生成heatmap的方式有多種,例如使用高斯分布將距離關(guān)鍵點(diǎn)中心較遠(yuǎn)的位置置為較低的值,形成輻射狀的特征圖。
(3)基于heatmap + offset
該算法與基于heatmap的算法相似,但在回歸過程中加入了關(guān)鍵點(diǎn)坐標(biāo)的偏移量。通過使用這種方法,可以將網(wǎng)絡(luò)輸出的特征圖下采樣到更小的尺度。典型的算法包括“Towards Accurate Multi-person Pose Estimation in the Wild”,該算法在構(gòu)建ground truth時(shí)采用了“多對一”的方式,將某一關(guān)鍵點(diǎn)作為中心點(diǎn),使用半徑R范圍內(nèi)的點(diǎn)來回歸該關(guān)鍵點(diǎn)的位置。
這些關(guān)鍵點(diǎn)檢測算法在計(jì)算機(jī)視覺領(lǐng)域已經(jīng)取得了很好的成果[6],并且在人臉、姿態(tài)識別等領(lǐng)域中得到了廣泛應(yīng)用。隨著深度學(xué)習(xí)算法的不斷發(fā)展和改進(jìn),關(guān)鍵點(diǎn)檢測算法在定位精度和魯棒性上還有進(jìn)一步提升的空間。
3 實(shí)驗(yàn)過程與結(jié)果
3.1 總體設(shè)計(jì)
該項(xiàng)目提出了一種基于YOLOv5和關(guān)鍵點(diǎn)檢測的儀表智能讀數(shù)方法[7-8]。該方法結(jié)合了目標(biāo)檢測和關(guān)鍵點(diǎn)檢測技術(shù),能夠?qū)崿F(xiàn)對儀表的智能讀數(shù)[9]。相比于傳統(tǒng)方法,該方法具有更高的準(zhǔn)確性和穩(wěn)定性,并具有較好的實(shí)用價(jià)值。該方法的具體處理流程如圖1所示。
首先,該方法使用YOLOv5目標(biāo)檢測算法對圖像中的儀表進(jìn)行檢測和定位,從而確定儀表在圖像中的位置和邊界框;然后,將儀表從原圖像中截取出來;接下來,采用CID-HRNet網(wǎng)絡(luò)對檢測到的儀表圖像進(jìn)行關(guān)鍵點(diǎn)識別,通過識別出儀表指針的位置和方向,可以更準(zhǔn)確地確定指針?biāo)赶虻目潭龋蛔詈螅瑢⒅羔槂蓚?cè)的關(guān)鍵點(diǎn)與表盤中心點(diǎn)連接,計(jì)算刻度與指針之間的弧度,通過對弧度進(jìn)行計(jì)算和轉(zhuǎn)換,可以得到儀表的相應(yīng)讀數(shù)。
3.2 儀表讀數(shù)設(shè)計(jì)與實(shí)現(xiàn)
3.2.1 數(shù)據(jù)收集與預(yù)處理
收集包含油氣行業(yè)等各類作業(yè)現(xiàn)場的多種類型的儀表圖像數(shù)據(jù)集,以確保模型在不同類型的儀表上都能有較好的性能。通過對圖像進(jìn)行預(yù)處理,如圖像增強(qiáng)、尺寸調(diào)整和歸一化等,以提高后續(xù)模型的魯棒性和性能。
(1)圖像增強(qiáng):包括亮度調(diào)整、對比度增強(qiáng)和圖像銳化等,以增強(qiáng)圖像的特征信息,并減少噪聲的影響。
(2)尺寸調(diào)整:將圖像統(tǒng)一調(diào)整為相同的尺寸,以確保模型在處理不同尺寸的圖像時(shí)具有一致的表現(xiàn)。
(3)圖像歸一化:將圖像特征值調(diào)整到相近的范圍,以便采用統(tǒng)一的學(xué)習(xí)率加速模型進(jìn)行訓(xùn)練。
經(jīng)過以上數(shù)據(jù)預(yù)處理操作后的數(shù)據(jù)集能夠更好地滿足模型的輸入要求,并且具有更好的數(shù)據(jù)分布和特征表達(dá),這將為后續(xù)的模型訓(xùn)練和測試提供更有利的條件,從而提升儀表讀數(shù)的準(zhǔn)確性。
3.2.2 模型訓(xùn)練
在訓(xùn)練階段,使用預(yù)處理后的數(shù)據(jù)集對YOLOv5模型進(jìn)行訓(xùn)練。訓(xùn)練過程中,將儀表的圖像作為輸入,并標(biāo)注了每個(gè)儀表的位置和邊界框作為輸出。通過使用反向傳播算法來優(yōu)化網(wǎng)絡(luò)參數(shù),從而使模型能夠準(zhǔn)確地檢測出儀表。
為了提高模型的性能和泛化能力,采用了一些優(yōu)化策略。例如,使用較小的學(xué)習(xí)率來逐步調(diào)整網(wǎng)絡(luò)參數(shù),以保證模型在訓(xùn)練過程中能夠穩(wěn)定收斂。此外,還引入了誤差損失函數(shù)來衡量模型的預(yù)測結(jié)果與實(shí)際標(biāo)注之間的差異,以便進(jìn)行參數(shù)優(yōu)化的方向選擇。
3.2.3 儀表檢測
經(jīng)過訓(xùn)練的YOLOv5模型能夠?qū)崟r(shí)對油氣現(xiàn)場的儀表設(shè)備進(jìn)行圖像檢測,并將待檢測的圖像輸入到模型中,獲取包含儀表的位置和邊界框信息,從而準(zhǔn)確確定儀表在圖像中的位置。這種方式具有高效且準(zhǔn)確的檢測能力,能夠快速獲取儀表的位置信息,為后續(xù)的儀表檢測和分析提供重要基礎(chǔ)。通過優(yōu)化和擴(kuò)展這種方法,還能夠進(jìn)一步優(yōu)化模型性能,提高檢測的準(zhǔn)確性和對復(fù)雜場景的適應(yīng)性,從而更好地滿足實(shí)際應(yīng)用的需求。
3.2.4 儀表圖像分割
基于檢測的儀表邊界框可以進(jìn)行儀表圖像分割,去除其背景部分,從而提取出僅含有儀表的圖像。這種分割儀表圖像的方法有助于減輕儀表關(guān)鍵點(diǎn)檢測的負(fù)擔(dān)。相比于對整張圖像進(jìn)行儀表關(guān)鍵點(diǎn)檢測,分割儀表圖像具有更快的速度和更低的誤檢率。通過這種優(yōu)化方法,我們能夠提高儀表關(guān)鍵點(diǎn)檢測的效率和準(zhǔn)確性,并為后續(xù)的儀表分析和檢測任務(wù)提供更可靠的數(shù)據(jù)。同時(shí),分割儀表圖像還有助于提升圖像處理的效果,使得后續(xù)的儀表圖像處理和分析更加精準(zhǔn)和可靠。
3.2.5 儀表關(guān)鍵點(diǎn)檢測數(shù)據(jù)構(gòu)建
利用經(jīng)過分割的儀表圖像創(chuàng)建儀表關(guān)鍵點(diǎn)檢測數(shù)據(jù)集,我們對數(shù)據(jù)集中的每個(gè)樣本進(jìn)行標(biāo)記,精確定位指針刻度位置、指針針尖位置和表盤中心位置,作為關(guān)鍵點(diǎn)檢測網(wǎng)絡(luò)的標(biāo)簽[10]。儀表樣本標(biāo)記效果如圖2所示。通過這種方法,我們能夠?yàn)殛P(guān)鍵點(diǎn)檢測網(wǎng)絡(luò)提供準(zhǔn)確的標(biāo)注,使其能夠高效定位和識別儀表的關(guān)鍵點(diǎn)。這樣的數(shù)據(jù)集優(yōu)化方法不僅可以提升關(guān)鍵點(diǎn)檢測的準(zhǔn)確性和魯棒性,還能夠?yàn)楦钊氲膬x表分析和檢測任務(wù)提供可靠的基礎(chǔ)。
3.2.6 儀表關(guān)鍵點(diǎn)檢測網(wǎng)絡(luò)構(gòu)建
儀表關(guān)鍵點(diǎn)檢測部分將CID(Contextual Instance Decoupling)算法與HRNet (High Resolution Net)結(jié)合,并提出CID-HRNet網(wǎng)絡(luò),為儀表關(guān)鍵點(diǎn)估計(jì)提供了一種新的方法。CID-HRNet網(wǎng)絡(luò)架構(gòu)如圖3所示。根據(jù)CID-HRNet網(wǎng)絡(luò)推理得到了儀表表盤中心的關(guān)鍵點(diǎn)與指針針尖關(guān)鍵點(diǎn),以及指針的位置和方向。將指針兩側(cè)的關(guān)鍵點(diǎn)與表盤中心點(diǎn)連接,計(jì)算刻度與指針之間的弧度,根據(jù)弧度的計(jì)算結(jié)果,將其轉(zhuǎn)換為相應(yīng)的儀表讀數(shù)。
CID方法將圖像中儀表解耦為多個(gè)實(shí)例感知的特征映射,每個(gè)特征映射都被用來推斷儀表特定的關(guān)鍵點(diǎn),CID方法可以隔離其儀表和背景的干擾,并在比邊界框更大的尺度上探索上下文線索。HRNet保持對儀表的高分辨率表示,以一個(gè)高分辨率子網(wǎng)作為第一階段的開始,逐步增加由高到低的分辨率子網(wǎng),形成多個(gè)階段,并將多分辨率子網(wǎng)并行連接和多尺度融合,使每個(gè)由高到低分辨率的表示逐次地從其他并行表示中接收信息,從而產(chǎn)生豐富的高分辨率表示,預(yù)測的關(guān)鍵點(diǎn)熱圖將更準(zhǔn)確。
3.2.7 儀表讀數(shù)
利用儀表關(guān)鍵點(diǎn)檢測中構(gòu)建的數(shù)據(jù)在3.2.6節(jié)的網(wǎng)絡(luò)上進(jìn)行訓(xùn)練直到網(wǎng)絡(luò)收斂,并在測試集上驗(yàn)證網(wǎng)絡(luò)的有效性。
通過推理得到儀表表盤中心的關(guān)鍵點(diǎn)、指針針尖關(guān)鍵點(diǎn)、指針的位置和方向,經(jīng)過計(jì)算和轉(zhuǎn)換,得到儀表讀數(shù)。
4 結(jié) 語
通過上述方式,可以基于YOLOv5和關(guān)鍵點(diǎn)檢測方法實(shí)現(xiàn)對儀表的自動(dòng)化檢測和讀數(shù)識別。這種方法具有較高的準(zhǔn)確性和實(shí)時(shí)性,適用于儀表讀數(shù)相關(guān)領(lǐng)域。相比傳統(tǒng)的儀表讀數(shù)檢測方法,基于YOLOv5和關(guān)鍵點(diǎn)檢測的儀表讀數(shù)檢測方法具有多方面的優(yōu)勢。
首先,它能夠以高準(zhǔn)確性和實(shí)時(shí)性來進(jìn)行儀表檢測和讀數(shù)識別,提高了檢測的精度和效率。其次,通過使用深度學(xué)習(xí)模型,該方法能夠自動(dòng)學(xué)習(xí)和捕捉儀表的特征,避免了手工設(shè)計(jì)特征的繁瑣過程,提高了系統(tǒng)的自適應(yīng)性和泛化能力。此外,該方法的實(shí)施相對簡單,易于部署和使用,同時(shí)可實(shí)現(xiàn)對人工的有效替代。
因此,基于YOLOv5和關(guān)鍵點(diǎn)檢測的儀表讀數(shù)檢測方法具備廣泛應(yīng)用的潛力,可為工業(yè)生產(chǎn)、能源管理、交通運(yùn)輸?shù)阮I(lǐng)域提供高效、準(zhǔn)確的儀表智能讀數(shù)解決方案。
參考文獻(xiàn)
[1]肖佳.基于機(jī)器視覺的數(shù)字儀表自動(dòng)讀數(shù)方法研究[D].重慶:重慶大學(xué),2017.
[2]張婷婷,章堅(jiān)武,郭春生,等. 基于深度學(xué)習(xí)的圖像目標(biāo)檢測算法綜述[J]. 電信科學(xué),2020,36(7):92-106.
[3]羅世操.基于深度學(xué)習(xí)的圖像語義提取與圖像檢索技術(shù)研究[D].上海:東華大學(xué),2016.
[4] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]// Proceedings of 27th IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE Press, 2014: 580-587.
[5]王艷紅,鄒喬莎,馮新宇,等.基于人體關(guān)鍵點(diǎn)檢測算法的步態(tài)識別方法及步態(tài)評估系統(tǒng):CN201911149103.3 [P]. 2023-09-01.
[6] GIRSHICK R. Fast R-CNN [C]// Proceedings of IEEE International Conference on Computer Vision. Washington: IEEE Computer Society Press, 2015: 1440-1448.
[7]陳富榮,肖明明.基于YOLOv5的改進(jìn)小目標(biāo)檢測算法研究[J].現(xiàn)代信息科技,2023,7(3):55-60.
[8]陳璐,張千,梁鴻,等.一種基于YOLOv5和姿態(tài)估計(jì)的安全帽佩戴檢測方法:CN202210741951.9 [P]. 2022-09-09.
[9]尹中川,徐遵義,王俊雪,等.指針式儀表自動(dòng)讀數(shù)識別技術(shù)的研究現(xiàn)狀與發(fā)展[J]. 計(jì)算機(jī)科學(xué)期刊,2018(z1):54-57.
[10]陳凱,林珊玲,林堅(jiān)普,等.基于Transformer人像關(guān)鍵點(diǎn)檢測網(wǎng)絡(luò)的研究[J].計(jì)算機(jī)應(yīng)用研究,2023,40(6):1870-1875.
作者簡介:樊 晶(1987—),女,河南焦作人,碩士,中級工程師,研究方向?yàn)槲锫?lián)網(wǎng)、人工智能。
張敦鍵(1987—),男,山西太原人,碩士,軟件工程師,研究方向?yàn)橛?jì)算機(jī)視覺。
孫仕勝(1983—),男,四川冕寧人,碩士,高級工程師,研究方向?yàn)槲锫?lián)網(wǎng)、人工智能。
張凱源(1991—),男,四川巴中人,軟件工程師,研究方向?yàn)橛?jì)算機(jī)視覺。
物聯(lián)網(wǎng)技術(shù)2024年12期