李克文,杜蓯聰,黃宗超,李瀟,柯翠虹
(中國(guó)石油大學(xué)(華東) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,山東 青島 266580)
油田生產(chǎn)信息化建設(shè),基本實(shí)現(xiàn)了油水井、站庫(kù)數(shù)據(jù)的實(shí)時(shí)采集,油井的智能化管理需求日益突出。在油田生產(chǎn)過(guò)程中,油井受各種因素的影響出故障的概率很高,經(jīng)常造成油井產(chǎn)量降低甚至躺井。目前,識(shí)別異常工況主要依靠簡(jiǎn)單的參數(shù)超閾值報(bào)警,導(dǎo)致報(bào)警頻繁且有效率不高,問(wèn)題原因仍主要采取人工分析,數(shù)據(jù)變化趨勢(shì)難以自動(dòng)跟蹤、問(wèn)題隱患難以超前發(fā)現(xiàn)、預(yù)防性治理和優(yōu)化措施難以精準(zhǔn)實(shí)施,難以滿足信息化條件下“預(yù)警式管理”的要求。所以,預(yù)警油井異常工況,指導(dǎo)技術(shù)人員超前采取治理與優(yōu)化措施,對(duì)于提高油井開采效率,降低躺井率與維護(hù)成本,實(shí)現(xiàn)智能化精細(xì)化管理具有重要意義[1]。
為了提高油井異常工況的識(shí)別精度,世界各地的學(xué)者進(jìn)行了大量的研究。考慮到油井生產(chǎn)數(shù)據(jù)的特征,即異常工況樣本少、維數(shù)大等特點(diǎn),近年來(lái)識(shí)別異常工況的方法可分為兩類:基于統(tǒng)計(jì)[2]和傳統(tǒng)機(jī)器學(xué)習(xí)的方法[3]以及基于深度學(xué)習(xí)的方法[4-6]。對(duì)于第一類,Zhang 等[7]將支持向量機(jī)與遺傳算法相結(jié)合,提出基于GA-SVM 與頻域光譜法的變壓器油浸絕緣體的濕度預(yù)測(cè);周斌等[8]提出一種基于Hessian 正則化支持向量機(jī)(Hessian正則化SVM)的多視角協(xié)同識(shí)別抽油機(jī)井工況方法。這些研究提高了異常工況檢測(cè)的準(zhǔn)確性,但它們都忽略了工況數(shù)據(jù)類別不平衡的問(wèn)題。王利君等[9]使用集成SMOTE、CLUSTER 與隨機(jī)森林的集成學(xué)習(xí)方法SCRF 進(jìn)行結(jié)蠟預(yù)測(cè),考慮了類別不平衡,但忽略了高維數(shù)據(jù)的問(wèn)題且目標(biāo)數(shù)據(jù)集相對(duì)較小,模型的泛化性能和自學(xué)習(xí)能力不足。
近年來(lái),由于深度學(xué)習(xí)模型具有強(qiáng)大的特征提取能力及擬合海量數(shù)據(jù)的能力,因此被廣泛應(yīng)用于故障檢測(cè)領(lǐng)域[10]。例如,Wei 等[11]提出基于電機(jī)數(shù)據(jù)的深度學(xué)習(xí)的抽油桿泵故障診斷,利用CNN 作特征提取器彌補(bǔ)了專家經(jīng)驗(yàn)的不足;Chen等[12]提出基于多尺度CNN 和LSTM 的軸承故障診斷,使用兩個(gè)不同內(nèi)核大小的CNN 從原始數(shù)據(jù)中提取不同的頻率信號(hào)特征,然后利用LSTM 識(shí)別故障類型;Cabrera 等[13]提出基于LSTM 的往復(fù)式壓縮機(jī)故障診斷模型,其中超參數(shù)搜索由在每次迭代中限制搜索空間的貝葉斯方法完成;魏曉良等[14]提出了一種基于長(zhǎng)短時(shí)記憶(LSTM)和一維卷積神經(jīng)網(wǎng)絡(luò)(1D-CNN)相結(jié)合的空化故障診斷方法,用于高速柱塞泵故障診斷;Liang 等[15]提出一種使用自適應(yīng)矩估計(jì)最大值(adamax)優(yōu)化算法的雙向門控遞歸神經(jīng)網(wǎng)絡(luò)(adamax-BiGRU)的瓦斯?jié)舛阮A(yù)測(cè)模型,預(yù)警煤礦瓦斯事故。這些研究初步證明了深度學(xué)習(xí)模型在故障檢測(cè)領(lǐng)域的有效性。但是,LSTM 具有許多參數(shù)和復(fù)雜的結(jié)構(gòu),容易出現(xiàn)過(guò)擬合的問(wèn)題。作為L(zhǎng)STM 的變體,GRU具有簡(jiǎn)單的結(jié)構(gòu)、較少的參數(shù)和較短的訓(xùn)練時(shí)間,這比LSTM 更具優(yōu)勢(shì)。但是,GRU 僅按順序考慮前向信息,不考慮反向信息。由兩個(gè)GRU 組成的雙向GRU(BiGRU)可以利用附加的后向生產(chǎn)數(shù)據(jù),從而進(jìn)一步提高模型預(yù)警異常的準(zhǔn)確性。
在上述方法中,存在一個(gè)主要問(wèn)題:實(shí)際生產(chǎn)數(shù)據(jù)中抽油井異常記錄遠(yuǎn)小于正常生產(chǎn)記錄,即抽油井異常工況數(shù)據(jù)集往往存在類別不平衡的問(wèn)題。上述方法僅考慮總體準(zhǔn)確率,而忽略了類不平衡問(wèn)題,導(dǎo)致少數(shù)類分類出錯(cuò)率較高,實(shí)際上的異常工況檢測(cè)效果不理想。因此,本文提出了一種正共享?yè)p失函數(shù)[16],以增強(qiáng)少數(shù)類,即異常工況的檢出效率。
本文的主要工作如下:
1)針對(duì)工況樣本的灰度圖像,在CNN-BiGRU聯(lián)合網(wǎng)絡(luò)模型上引入注意力機(jī)制,從而提高模型對(duì)特征的學(xué)習(xí)能力,進(jìn)一步提高識(shí)別異常工況的準(zhǔn)確率。
2)除了將CNN-BiGRU-Attention 網(wǎng)絡(luò)用作特征提取器外,提出了正共享?yè)p失函數(shù)PSL。PSL引入一個(gè)額外的正則化項(xiàng),以強(qiáng)調(diào)正負(fù)類的損失,且給樣本少的正類更高的權(quán)重,旨在減弱不平衡,有助于更好地識(shí)別異常工況。
CNN 網(wǎng)絡(luò)主要有兩個(gè)算子[17],一個(gè)是卷積層,另一個(gè)是池化層。卷積層作為特征提取器將數(shù)據(jù)集的工況樣本的灰度特征矩陣分割成若干子矩陣,每個(gè)卷積層中所有的特征子矩陣與同一個(gè)權(quán)值矩陣(卷積核)做卷積運(yùn)算,通過(guò)卷積核刻畫圖片的局部模式來(lái)提取圖像的局部特征[18]。卷積運(yùn)算可以提取數(shù)據(jù)集中人類無(wú)法理解的異常工況的局部抽象特征,起到過(guò)濾作用。池化層在卷積層之后,對(duì)卷積得來(lái)的特征進(jìn)行篩查,減少特征數(shù)量來(lái)降低計(jì)算量,同時(shí)可以起到保留異常工況特征以及防止過(guò)擬合的作用。
門控循環(huán)單元(gate recurrent unit,GRU)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN),其與長(zhǎng)短期記憶網(wǎng)絡(luò)(long-short term memory,LSTM)相似,是為了解決長(zhǎng)期記憶和反向傳播中的梯度爆炸、梯度消失和長(zhǎng)距離依賴等問(wèn)題而提出的。
GRU 適宜于處理時(shí)間序列數(shù)據(jù),對(duì)比LSTM,GRU 在性能相當(dāng)?shù)耐瑫r(shí)參數(shù)量更少,結(jié)構(gòu)簡(jiǎn)單,更易收斂,且計(jì)算速度比LSTM 更快。雙向GRU[19]在輸入序列上有兩個(gè)GRU 互相連接,每一個(gè)輸入的異常工況特征圖都會(huì)從正向和反向經(jīng)過(guò)GRU,為神經(jīng)網(wǎng)絡(luò)提供上下文的全局特征。在圖1 中,每個(gè)GRU 單元都在兩個(gè)方向上進(jìn)行處理:GRU1是正向GRU,其內(nèi)部結(jié)構(gòu)如圖2 所示;GRU2是反向GRU,其內(nèi)部結(jié)構(gòu)如圖3 所示。

圖1 BiGRU 的網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure of BiGRU

圖2 正向GRU 單元的內(nèi)部結(jié)構(gòu)Fig.2 Internal structure of forward GRU unit

圖3 反向GRU 單元的內(nèi)部結(jié)構(gòu)Fig.3 Internal structure of reverse GRU unit
圖2 中的正向計(jì)算過(guò)程如下:
定義rt是正向GRU 在t時(shí)刻的重置門。公式如下:

式中:σ為sigmoid 函數(shù);xt和ht?1分別是當(dāng)前輸入值和上一個(gè)激活值;Wr是輸入權(quán)重矩陣;Ur是循環(huán)連接的權(quán)重矩陣。
類似地,定義zt是正向GRU 在t時(shí)刻的更新門。公式如下:

定義ht是正向GRU 在t時(shí)刻的激活值,即上一個(gè)激活值ht?1和候選激活值ht?之間的折中。

ht?公式如下:

式中:“·”代表哈達(dá)瑪乘積(Hadamard)。
當(dāng)重置門rt關(guān)閉時(shí),即其值接近于0,GRU 忽略先前的激活值ht?1,僅由當(dāng)前輸入xt決定。這允許ht丟棄不相關(guān)的信息,從而更有效地表達(dá)有用的信息。
另一方面,更新門zt控制將ht?1中的多少信息傳遞給當(dāng)前ht。
同樣,圖3 中的反向計(jì)算過(guò)程如下:

將兩個(gè)方向的結(jié)果求平均,以獲得最終輸出ht。

為了更好地解決深度學(xué)習(xí)預(yù)測(cè)模型中工況屬性的選擇問(wèn)題,且所提出的方法對(duì)圖像處理更有效,將油井?dāng)?shù)據(jù)轉(zhuǎn)化為灰度圖像。數(shù)據(jù)集中共有41 維特征,為了保留數(shù)據(jù)集中每個(gè)樣本的所有特征,用8個(gè)0 填充,將其轉(zhuǎn)化為7×7 灰度圖像。轉(zhuǎn)化后的灰度圖像如圖4 所示,從左到右依次為無(wú)異常、泵漏、管漏,同一類別的圖片幾乎相同,但是不同類別的圖片之間存在很大差異。

圖4 樣本灰度圖像Fig.4 Sample gray image
本文提出的CBiA-PSL 模型是基于CNN-Bi-GRU-Attention 網(wǎng)絡(luò)和正共享?yè)p失函數(shù)PSL。CNNBiGRU-Attention 在CNN-BiGRU 聯(lián)合網(wǎng)絡(luò)的基礎(chǔ)上引入注意力機(jī)制,其結(jié)構(gòu)如圖5 所示。首先,7×7 工況樣本灰度圖像作為CNN 的輸入,利用CNN、BiGRU 提取前后向相關(guān)特征,克服了CNN 缺乏對(duì)上下文的全局關(guān)注與BiGRU 缺乏對(duì)局部關(guān)注的不足,結(jié)合兩者的優(yōu)點(diǎn)從全局和局部對(duì)異常工況特征學(xué)習(xí)訓(xùn)練,并通過(guò)Attention 層增強(qiáng)相關(guān)特征表示[20-21],最后,通過(guò)softmax 層輸出分類結(jié)果。

圖5 CNN-BiGRU-Attention 模型結(jié)構(gòu)Fig.5 Model structure of CNN-BiGRU-Attention
在CNN-BiGRU 聯(lián)合網(wǎng)絡(luò)架構(gòu)的基礎(chǔ)上增加注意力機(jī)制對(duì)隱藏狀態(tài)加權(quán)計(jì)算以完成有效特征篩選。其核心是權(quán)重系數(shù),首先學(xué)習(xí)每個(gè)特征的重要程度,而后根據(jù)重要程度為每個(gè)特征分配相應(yīng)的權(quán)重,以區(qū)分各特征的重要性大小,提高工況識(shí)別的準(zhǔn)確率。本文使用前饋?zhàn)⒁饬C(jī)制,其結(jié)構(gòu)如圖6 所示。

圖6 注意力機(jī)制結(jié)構(gòu)Fig.6 Structure of attention mechanism
首先生成目標(biāo)注意力權(quán)重et,公式如下:

式中:σ是注意力學(xué)習(xí)函數(shù)tanh;St是第t個(gè)特征向量的初始狀態(tài)向量;wt表示第t個(gè)特征向量的權(quán)重系數(shù)矩陣;bt表示第t個(gè)特征向量相對(duì)應(yīng)的偏移量。
然后將注意力權(quán)重概率化,通過(guò)softmax 函數(shù)生成概率向量 αt,公式如下:

最后,注意力權(quán)重配置。將生成的注意力權(quán)重配置給對(duì)應(yīng)的隱層狀態(tài)St,使模型生成的注意力權(quán)重發(fā)揮作用,Y是最終輸出的狀態(tài)向量,為St的加權(quán)平均值,權(quán)值是 αt,公式如下:
在交叉熵?fù)p失函數(shù)中通過(guò)引入一個(gè)額外的正則化因子強(qiáng)調(diào)正類、負(fù)類的區(qū)別,構(gòu)造正共享?yè)p失函數(shù)PSL,且給樣本數(shù)少的正類更高的權(quán)重,以減弱不平衡,更好地區(qū)分各類異常與正常的生產(chǎn)狀態(tài),提高識(shí)別異常工況的準(zhǔn)確率。
訓(xùn)練CNN-BiGRU-Attention 網(wǎng)絡(luò)的目標(biāo)是對(duì)異常工況特征進(jìn)行提取,最大化識(shí)別異常工況的概率,這是通過(guò)最小化交叉熵?fù)p失函數(shù)實(shí)現(xiàn)的。給定一個(gè)包含m個(gè)樣本的訓(xùn)練集:是第i個(gè)樣本,y(i)∈{0,1,2,···,K}是它的標(biāo)簽。y(i)=0表示x(i)是負(fù)樣本,y(i)=k>0 表示x(i)是正樣本且x(i)屬于第k種工況。表示Softmax層的輸出,x(i)分類為j的概率(為)

損失函數(shù)如下:

標(biāo)準(zhǔn)交叉熵?fù)p失函數(shù)會(huì)平均懲罰每個(gè)類的錯(cuò)分類誤差。但在實(shí)際情況下,將正樣本分類為錯(cuò)誤的非零標(biāo)簽并不是重大錯(cuò)誤,因?yàn)槿詫⑵渥R(shí)別為異常。也就是說(shuō),異常類間的分類出錯(cuò)一般可以忽略,但異常和無(wú)異常間分類出錯(cuò)是不可容忍的,即應(yīng)更關(guān)注零標(biāo)簽和非零標(biāo)簽之間的錯(cuò)誤分類導(dǎo)致的損失。為此,引入了額外的正則化因子,增加了異常工況錯(cuò)分類到正常和正常錯(cuò)分類到異常類的損失。改進(jìn)后的損失函數(shù)如下:

式中:λ為控制參數(shù)。當(dāng) λ趨向于0 時(shí),式(1)為標(biāo)準(zhǔn)交叉熵?fù)p失函數(shù);當(dāng) λ足夠大時(shí),區(qū)分不同異常工況的效果變?nèi)酰剑?)變?yōu)榻鉀Q二分類問(wèn)題的損失函數(shù),旨在識(shí)別異常工況和正常生產(chǎn)數(shù)據(jù)。實(shí)驗(yàn)中,默認(rèn)設(shè)置 λ =1。在實(shí)際情況下,我們更關(guān)注能不能識(shí)別出異常工況,而不是異常工況間被錯(cuò)分類的概率,因此引入的正則化項(xiàng)中各正類別的損失在其他正類間共享,稱式(1)為正共享?yè)p失函數(shù)。
異常工況樣本數(shù)少,數(shù)據(jù)集中正樣本數(shù)遠(yuǎn)小于負(fù)樣本數(shù),數(shù)據(jù)不平衡,因此為正類項(xiàng)引入?yún)?shù) ω,ω為負(fù)樣本數(shù)與正樣本數(shù)的比值,旨在減弱不平衡,公式如下:

通過(guò)以上這兩個(gè)措施,從而讓CNN-BiGRUAttention 模型學(xué)習(xí)到更加具有辨別力的特征。通過(guò)標(biāo)準(zhǔn)反向傳播來(lái)更新網(wǎng)絡(luò)參數(shù),Loss0為標(biāo)準(zhǔn)交叉熵?fù)p失函數(shù),其導(dǎo)數(shù)已在文獻(xiàn)[16]中提供,損失函數(shù)中第二部分的偏導(dǎo)數(shù)計(jì)算如下:

正共享?yè)p失函數(shù)的偏導(dǎo)數(shù)計(jì)算如下:

本文使用的數(shù)據(jù)集來(lái)源于勝利油田若干采油廠上百萬(wàn)條抽油井生產(chǎn)數(shù)據(jù)。原始的數(shù)據(jù)包括井組相關(guān)資料、日常管理資料、實(shí)時(shí)生產(chǎn)數(shù)據(jù)、示功圖采集數(shù)據(jù)、功圖分析數(shù)據(jù)、工況日志數(shù)據(jù)和管柱等資料,時(shí)間范圍是2019~2020 年。井組相關(guān)資料主要存儲(chǔ)單井基礎(chǔ)信息,包括井號(hào)、井別、地質(zhì)儲(chǔ)量、對(duì)應(yīng)的注水井配注量等數(shù)據(jù)資料;日常管理資料、實(shí)時(shí)生產(chǎn)數(shù)據(jù)、示功圖采集數(shù)據(jù)和功圖分析數(shù)據(jù)主要存儲(chǔ)動(dòng)態(tài)示功圖及動(dòng)態(tài)參數(shù),如上下行電流、熱洗周期、日產(chǎn)液量、日產(chǎn)油量、含水等;工況日志數(shù)據(jù)主要存儲(chǔ)異常發(fā)生的井號(hào)、時(shí)間、工況類型、治理措施等;管柱資料主要存儲(chǔ)管柱圖、泵效、泵掛深等資料。以上數(shù)據(jù)在實(shí)際使用時(shí)往往存在問(wèn)題:1)數(shù)據(jù)存在缺失、無(wú)效波動(dòng)、重復(fù)值;2)數(shù)據(jù)時(shí)間段不連續(xù);3)工況標(biāo)簽缺失等。因此,為提高工況預(yù)警的準(zhǔn)確性和精度,在建立異常預(yù)測(cè)模型前需進(jìn)行預(yù)處理,得到數(shù)據(jù)質(zhì)量較高的數(shù)據(jù)集。
初始油井實(shí)時(shí)數(shù)據(jù)通過(guò)缺失值填寫、光滑噪聲數(shù)據(jù)、刪除重復(fù)數(shù)據(jù)、去除無(wú)效波動(dòng)、數(shù)值規(guī)約、切片等手段預(yù)處理,共保留135個(gè)特征字段。在數(shù)百個(gè)工況屬性中,由于許多工況屬性具有相似的公式和表達(dá)式,這些屬性之間相關(guān)性很高,去冗余后保留38個(gè)特征字段。考慮到油井異常會(huì)導(dǎo)致示功圖載荷和面積有較大變化,對(duì)示功圖進(jìn)行特征量分解,獲取功圖面積、載荷差、載荷比3個(gè)新的特征,同時(shí)構(gòu)造工況標(biāo)識(shí)字段,泵漏標(biāo)記為1,管漏標(biāo)記為2,正常標(biāo)記為0。原始數(shù)據(jù)經(jīng)過(guò)預(yù)處理后,得到樣本數(shù)據(jù)集,共包含41個(gè)特征參數(shù)和1個(gè)目標(biāo)參數(shù)。將異常工況類(含泵漏、管漏)統(tǒng)稱為正類,無(wú)異常統(tǒng)稱為負(fù)類。預(yù)處理后的樣本情況如表1 所示,正負(fù)類樣本極不平衡。劃分?jǐn)?shù)據(jù)集中70%作為訓(xùn)練集,30%作為測(cè)試集。

表1 預(yù)處理后的樣本情況Table1 Sample condition after pretreatment
本文實(shí)驗(yàn)在服務(wù)器下進(jìn)行,硬件設(shè)備CPU 型號(hào)為Intel(R)Xeon(R)CPU E5-2630L v3 @ 1.80 GHz,內(nèi)存大小48 GB。實(shí)驗(yàn)環(huán)境為Python3.8,借助Keras2.4.3 搭建神經(jīng)網(wǎng)絡(luò),后端使用TensorFlow 2.4.0。
實(shí)驗(yàn)參數(shù)設(shè)置如下:卷積核大小設(shè)置為5×5,步長(zhǎng)為1,隱藏層的數(shù)量為1,隱藏層單元數(shù)為128,隱藏層丟包率為0.5。學(xué)習(xí)率為0.01,BiGRU 的時(shí)間步長(zhǎng)為8,隱層單元數(shù)為64,批次大小為128,迭代次數(shù)為50。
3.4.1 對(duì)比度得分
可以通過(guò)測(cè)試集上每個(gè)樣本的分類準(zhǔn)確率來(lái)驗(yàn)證模型的有效性,但是對(duì)于檢測(cè)問(wèn)題,正樣本和負(fù)樣本之間的對(duì)比度更能反映模型性能。因此,定義對(duì)比度得分作為度量,為測(cè)試集,是模型把分為負(fù)類的概率。對(duì)比度得分定義如下:

γ的取值范圍是?1~1,表示模型識(shí)別正樣本、負(fù)樣本的能力。
3.4.2 混淆矩陣
混淆矩陣如表2 所示。TPm表示正確預(yù)測(cè)的m類陽(yáng)性樣本數(shù),Emn表示m被歸類為n的錯(cuò)誤分類樣本數(shù)。FNm表示m被歸類為其他類的錯(cuò)分類樣本數(shù),F(xiàn)NA=EAB+EAC,F(xiàn)NBC可同樣計(jì)算得到;FPm表示其他類被歸類為m的錯(cuò)分類樣本數(shù),F(xiàn)PA=EBA+ECA;TNm表示正確預(yù)測(cè)的m類負(fù)樣本數(shù),TNA=S?FNA?FPA?TPA。真陽(yáng)性率TPRm表示所有實(shí)際為m類的樣本被正確判斷為m類的比率,公式如式(1)所示;假陽(yáng)性率FPRm表示所有實(shí)際為其他類的樣本被錯(cuò)誤判斷為m類的比率,公式如式(2)所示。


表2 多分類的混淆矩陣Table2 Confusion matrix of multi classification
為了評(píng)估CBiA-PSL 模型,本文選擇了3個(gè)指標(biāo):AC(準(zhǔn)確率)、DR(檢出率)和FR(錯(cuò)誤報(bào)警率):

將學(xué)習(xí)速率設(shè)置為0.01,對(duì)損失函數(shù)執(zhí)行隨機(jī)梯度下降(SGD),50 次迭代后,采用標(biāo)準(zhǔn)交叉熵?fù)p失函數(shù)(Loss0)的CNN-BiGRU-Attention 模型的對(duì)比度得分為0.58,采用正共享?yè)p失函數(shù)PSL(Loss)的CNN-BiGRU-Attention 模型的對(duì)比度得分為0.63,有0.05 的提高,如圖7 所示。這表明引入正共享?yè)p失函數(shù)可以提高異常類的檢出效率。

圖7 對(duì)比度得分Fig.7 Contrast score
第2個(gè)實(shí)驗(yàn)將CBiA-PSL 與其他5 種用于異常工況檢測(cè)的機(jī)器學(xué)習(xí)/深度學(xué)習(xí)方法進(jìn)行比較,包括:CNN-BiGRU-Attention、卷積神經(jīng)網(wǎng)絡(luò)CNN、雙向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)BiLSTM、雙向門控循環(huán)單元BiGRU、隨機(jī)森林RF。各模型的AC 值、DR 值、FR 值如圖8、表3、表4 所示,CBiA-PSL模型訓(xùn)練過(guò)程的損失如圖9 所示。從圖8 可以看到,CBiA-PSL 的AC 值為88.2%,高于其他5 種方法。此外,分析表3 可以得出結(jié)論,CBiA-PSL 可以提高少數(shù)類(泵漏、管漏)的DR 值,且正常類的DR 值保持不變,即提高了異常類的檢出率。分析表4,少數(shù)類的FR 值有時(shí)為0,式(1)~(5)表明該方法未檢測(cè)到異常類別時(shí),DR 和FR 均為0。表4 表明本文提出的方法可以將異常類的錯(cuò)誤報(bào)警率維持在較低水平。因此,本文所提出的方法CBiA-PSL 可以在總體準(zhǔn)確率較高的情況下,提高異常類的檢出率,并降低錯(cuò)誤報(bào)警率。

圖9 模型訓(xùn)練集的損失圖Fig.9 Loss graph of model training set

表4 各模型的FR 值Table4 FR value of each model

圖8 各模型的AC 值Fig.8 AC value of each model

表3 各模型的DR 值Table3 DR value of each model
本文基于CNN-BiGRU 聯(lián)合網(wǎng)絡(luò)特征學(xué)習(xí)模型,使用改進(jìn)的CBiA-PSL 網(wǎng)絡(luò)進(jìn)行抽油井異常工況預(yù)警,利用CNN 局部特征的強(qiáng)學(xué)習(xí)能力提取工況樣本灰度圖像的局部特征,BiGRU 提取全局前后向特征并加強(qiáng)CNN 池化層特征的聯(lián)系,加入注意力機(jī)制獲取樣本中的重點(diǎn)特征,降低噪聲特征的干擾,從而完成有效特征篩選,提高模型對(duì)異常工況特征的學(xué)習(xí)能力。除了將CNN-BiGRUAttention 網(wǎng)絡(luò)用作特征提取器外,針對(duì)工況樣本數(shù)據(jù)集不平衡的問(wèn)題,本文提出正共享?yè)p失函數(shù)PSL,該函數(shù)強(qiáng)調(diào)異常類和非異常的損失,而不是每個(gè)子類的損失,有助于學(xué)習(xí)比Softmax 損失函數(shù)更多的判別特征,且給樣本少的正類更高的權(quán)重,以學(xué)習(xí)參數(shù),減弱了不平衡,有助于更好地識(shí)別異常工況。
實(shí)驗(yàn)結(jié)果表明,用本文提出的CBiA-PSL 網(wǎng)絡(luò)模型進(jìn)行異常工況預(yù)警,可以取得較高的AC值、DR 值,較低的FR 值,即本文提出的CBiAPSL 方法能有效處理不平衡數(shù)據(jù)集,并且對(duì)于異常類和整體的預(yù)測(cè)都有較高的精度。未來(lái)的工作如下,由于預(yù)警時(shí)間也是異常預(yù)警的關(guān)鍵,因此在保證準(zhǔn)確率的同時(shí)必須確保模型能滿足異常預(yù)警的時(shí)間要求,同時(shí)優(yōu)化網(wǎng)絡(luò)模型參數(shù),進(jìn)一步提升模型對(duì)異常工況預(yù)警的精度。