999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于混合數據增強的MSWI 過程燃燒狀態識別

2024-04-06 05:22:58郭海濤丁海旭喬俊飛
自動化學報 2024年3期
關鍵詞:模型

郭海濤 湯 健 丁海旭 喬俊飛

城市固廢(Municipal solid waste,MSW)受居民生活習慣、季節氣候、分類程度等因素的影響,具有雜質多、含水率高、熱值波動大等特點[1].城市固廢焚燒(Municipal solid waste incineration,MSWI)作為一種世界范圍內廣泛運用的MSW 典型處理方式,具有減小體量、降低二次污染以及通過產熱發電實現資源回收利用等優勢[2-3].目前,發展中國家的MSWI 技術仍處于落后局面,存在諸多問題有待解決,其中最突出的是燃燒狀態不穩定造成的污染物排放不達標問題[4-6].此外,MSWI 燃燒狀態的不穩定易造成爐膛內結焦、積灰、腐蝕等問題,嚴重時甚至會引起爐膛爆炸[7].因此,維持穩定燃燒狀態是保障MSWI 過程運行高效、污染物排放達標的關鍵之一.如圖1 所示,針對國內MSWI 過程[8],運行專家通過觀察火焰圖像識別燃燒狀態進而修正控制策略[9].然而,依據運行專家經驗的燃燒狀態識別方法存在主觀性與隨意性的缺點,并且智能化程度較低,難以滿足當前MSWI 過程的優化運行需求.針對復雜多變的MSWI 環境,如何構造魯棒性強的MSWI 過程燃燒狀態識別模型仍是一個開放性難題.

圖1 MSWI 過程工藝圖Fig.1 Flow chart of MSWI process

MSWI 過程的爐內燃燒火焰具有亮度差異、遮擋、類內形變、運動模糊等特征,進而導致不同狀態下的燃燒圖像像素差異較大,使得基于硬編碼的燃燒狀態識別方法難以適用[10].近年來,基于數據驅動的研究方法在嘗試解決語義鴻溝問題等方面取得重大進展[11-14],這為MSWI 過程的燃燒狀態識別奠定了基礎.

目前,基于數據驅動的識別模型包括近鄰分類器[15]、貝葉斯分類器[16]、線性分類器、支持向量機(Support vector machine,SVM)[17]、神經網絡分類器[18]、隨機森林[19]以及多算法融合識別模型[20]等,其策略可分為兩類: 一類是基于特征提取與分類器相組合的方法,又稱為特征工程;一類是基于深度學習的端到端方法,后者以卷積神經網絡(Convolutional neural network,CNN)[21]為代表.

相比于深度學習算法,特征工程對大樣本數據依賴性相對較弱,已應用于許多需進行燃燒狀態識別的工業過程.文獻[9]針對MSWI 過程的燃燒狀態識別問題,采用顏色模型(Hue,saturation,value,HSV)和主成分分析(Principal component analysis,PCA)算法對火焰進行特征提取和降維,并結合最小二乘支持向量機(Least squares support vector machine,LSSVM)進行分類.文獻[22]針對電站煤粉鍋爐的燃燒狀態識別問題,提取7 種火焰圖像特征用于SVM 分類.文獻[23]指出火焰圖像色調、飽和度和強度是燃燒狀態識別的關鍵特征,并在重油裝置上進行驗證.然而,MSWI 過程是具有強不確定性特征的工業過程,其燃燒火焰圖像易受環境干擾.現有的火焰特征選擇方法通常依賴于專家先驗知識,導致基于特征工程的識別算法的魯棒性較弱且泛化性較差.

基于CNN 的識別模型因具有良好的特征提取能力和泛化性能,已在諸多領域得到廣泛應用[24].然而,以CNN 為代表的監督學習網絡模型的準確率取決于標簽樣本的規模與質量,而MSWI 過程的圖像采集設備長期處于強干擾環境中,導致樣本標定存在困難.因此,如何基于現有技術獲得高質量樣本是提升燃燒狀態識別模型性能所面臨的難點之一.

常用的圖像數據增強方法包含幾何變換、顏色抖動、隨機噪聲等[25],其本質是對原始數據進行非生成式變換以實現樣本的增加,從而緩解識別模型的過擬合現象.然而,以上方法并未增加新樣本的信息,因此緩解過擬合的效果有限.2014 年,Goodfellow 等[26]提出基于零和博弈思想的生成式對抗網絡(Generative adversarial network,GAN),其能夠擬合真實數據的概率密度分布,有效地提升了機器的創造能力.隨著GAN 的發展[27-29],其“創造”出的數據不僅能夠節省大量人力標定成本,而且能夠有效地解決數據稀缺問題.在近兩年的研究中,文獻[30]針對焊接自動檢測問題,提出基于GAN 的數據增強算法;文獻[31]針對自動表面缺陷檢測研究,利用GAN 生成非常規缺陷圖像,擴充有限的缺陷檢測樣本集;文獻[32]針對工業站點缺陷圖像不足和標定成本高的問題,提出一種生成缺陷圖像的方法;文獻[33]提出ResMaskGAN,解決表面缺陷自動檢測中異常工況數據集稀缺的問題.

本文針對MSWI 過程的燃燒狀態識別問題的研究表明,基于GAN 的數據增強策略博弈最終將達到納什均衡狀態[34].此時,生成器雖然能夠生成符合小樣本數據的概率分布的數據,卻難以“創造”出新特征.因此,基于GAN 的數據增強識別模型的魯棒性難以得到實質性的提升;非生成式數據增強操作在本質上未改變圖像內容,模型的泛化性能提升有限,但通過平移、旋轉、填充火焰圖像等方式卻能夠獲得新的特征.因此,本文混合生成式和非生成式兩種增強方式,在生成式數據增強的數據集基礎上,再次對其進行非生成式變換.

本文主要工作包括:

1)針對目前燃燒狀態識別方法存在的局限性,歸納總結研究中存在的問題,首次將GAN 用于MSWI 過程燃燒狀態識別;

2)分析生成式數據增強的缺陷,并提出一種混合式數據增強的方法,彌補生成對抗式數據增強的不足;

3)設計一種切實可行的實驗策略,通過弗雷歇距離(Fréchet inception distance,FID)[35-36]對不同生成模型生成的圖像質量進行評估,為生成樣本篩選提供評價指標;

4)通過與其他識別模型對比,表明本文所構建的燃燒狀態識別模型泛化性能好、識別率高且魯棒性強.

1 相關知識

1.1 生成式數據增強

數據增強是一種常用的數據集擴充方法,其通過某種方式增加訓練樣本數量以提升模型的泛化性能.樣本質量的好壞是評價數據增強算法的重要指標.GAN 因具有學習舊樣本概率分布的能力,在生成新樣本策略中優勢明顯,其已成為目前數據增強的常用算法.

1.1.1 GAN 的原理

GAN 由生成器G和判別器D組成.G通過隨機噪聲(z)生成圖像,D判斷輸入圖像為真的概率.GAN 是G與D的相互競爭,該競爭過程可分為判別過程和欺騙過程,其中,判別過程為D判別圖像真假時的參數更新過程;欺騙過程為G企圖欺騙D時通過D的損失更新G的過程.文獻[21]首次提出表示G與D的競爭過程的GAN 目標函數,具體為

其中,pr表示真實數據的概率分布,pz表示z服從的高斯分布.首先,考慮任何給定G,求解最佳D,即D?.采用真實數據的概率分布pr和生成數據的概率分布pg為定值,D可擬合任意函數.訓練D時,固定G的參數,在 m axDV(D,G)過程中,D?的計算式為

然后,假設每輪D均是最優的,且G可擬合任意函數.固定判別網絡參數,更新生成網絡參數,minGV(D,G)的結果為

式中,DJS為Jensen-Shannon (JS)散度.

由式(3)可得pg=pr為最優解,即生成器能夠擬合真實數據的概率分布.

最后,G根據其學習到的概率分布生成符合真實數據概率分布的新樣本.

1.1.2 DCGAN 的引入

GAN 是一種生成網絡和判別網絡相互博弈的網絡,生成網絡的生成能力由兩個因素決定: 1)生成網絡的特征提取融合能力;2)判別網絡的判別能力.GAN 通過判別網絡損失以更新生成器,因此判別網絡的識別能力將直接影響生成網絡的生成能力.生成網絡因具有特征提取能力,其相互博弈的過程中必然體現出更強的生成能力.因此將卷積引入到GAN 中以構建深度卷積GAN (Deep convolution GAN,DCGAN)[37],能夠有效增強生成網絡和判別網絡的特征提取和融合能力.為使網絡更加穩定,文獻[38-39] 給出設計網絡結構的建議:1)使用卷積層代替池化層;2)去除全連接層;3)使用批歸一化;4)使用恰當的激活函數,即生成網絡的中間層、輸出層和判別網絡的中間層分別用ReLU、Tanh 和LeakyReLU 函數.

1.2 非生成式數據增強

非生成式數據增強主要包括幾何變換和非幾何變換,其中,前者主要從圖像數據形態出發進行數據增強,包括翻轉、旋轉、裁剪、縮放變形等操作;后者常見操作包括噪聲、模糊、顏色變換、隨機擦除以及超像素法等.雖然非生成式的擴增數據簡單、常用,但過多地使用這些方法將導致擴增的數據樣本較為單一,且會產生大量無實際應用價值的樣本.

1.3 基于卷積神經網絡的識別

1.3.1 卷積

卷積的定義為

其中,F為圖像,H為卷積核.卷積具有疊加性和平移不變性,同時也符合交換律、結合律和分配律等,這些特性使其具有以下優勢: 1)卷積能夠進行基礎的圖像操作,如平移、平滑銳化等;2)卷積能夠實現圖像去噪,如高斯卷積核能夠根據領域像素與中心的遠近程度分配權重,抑制噪聲和實現平滑;3)卷積能夠提取邊緣特征,如Candy 邊緣檢測器,編碼圖像語義和形狀信息;4)卷積核組對圖像進行卷積操作后得到特征相應圖,進而可表示圖像中的紋理信息.

1.3.2 CNN 識別技術

CNN 是卷積層和池化層的堆疊.卷積層不同于全連接層,其通過窗口滑動方式學習局部特征.由于視覺世界具有平移不變性和空間層次結構,卷積的性質使得CNN 具有如下優勢: 1)與全連接層不同,模型不存在出現新模式后只能重新學習的問題;因CNN 學到的模型具有平移不變性,其可高效利用數據,進而能夠使用更少的訓練樣本學習到更具泛化能力的特征;2)CNN 學習模式具有空間層次結構,這使得淺層卷積學習較小的局部模式,深層卷積學習由上一層特征組成的更大模式,進而CNN 可有效學習更復雜和更抽象的視覺概念.因此,在擁有大規模優質數據的情況下,CNN 能夠自適應提取目標的有價值特征用于分類.目前,CNN在識別領域已取得巨大成功.以大規模視覺競賽為例,2012 年AlexNet[40]在Top-5 識別準確率達到83.6%;隨后CNN 識別性能持續提升[41-43],2015 年ResNet-50[44]在該項目上的識別率達到96.4%,已超越人類平均水平[45].

2 建模策略

本節提出如圖2 所示的基于混合數據增強的MSWI 過程燃燒狀態識別模型,該模型由燃燒狀態標定模塊、生成式數據增強模塊、增強圖像選擇模塊和燃燒狀態識別模塊4 部分組成.

圖2 基于DCGAN 數據增強的燃燒狀態識別策略Fig.2 Strategy of combustion state recognition based on DCGAN data enhancement

圖2 中,各變量含義如表A1 (見附錄A)所示,不同模塊的功能描述如下:

1)燃燒狀態標定模塊: 依據領域專家經驗和焚燒爐設計原理,標定得到典型工況下的三種燃燒狀態圖像,并將其劃分為訓練樣本集、驗證樣本集和測試樣本集.

2)生成式數據增強模塊: 由1 個粗調DCGAN子模塊和3 個精調DCGAN 子模塊組成.在燃燒圖像粗調DCGAN 子模塊中,其輸入是在所有燃燒圖像中隨機采樣獲取的數據集,輸出是判別網絡和生成網絡的結構參數;在3 個精調DCGAN 子模塊中,其輸入為對應燃燒狀態的訓練樣本集和粗調DCGAN 中生成網絡和判別網絡的結構參數,輸出為對應燃燒狀態的生成圖像,主要目的是通過博弈生成不同燃燒狀態下的優質樣本.

3)增強圖像選擇模塊: 其輸入為生成的不同燃燒狀態的優質樣本和對應狀態下的訓練樣本,輸出為構建不同燃燒狀態的訓練集、驗證集和測試集,通過分別計算對應子模塊中真實數據與生成數據間的FID 值,當其大于閾值時重新博弈,否則將虛擬樣本放入訓練集.

4)燃燒狀態識別模塊: 其輸入為上述模塊構建的訓練集、驗證集和測試集,輸出為驗證集、測試集的準確率和損失,通過對上述模塊構建的訓練樣本進行非生成式數據增強,獲得混合數據以訓練CNN識別模型.

綜上所述,不同模塊分別實現燃燒狀態標定、基于生成對抗式的數據增強、基于FID 的增強圖像選擇和基于混合式數據增強的燃燒狀態識別功能.針對燃燒狀態圖像進行生成式和非生成式數據增強建模,并將二者融合的策略是本文所提方法的核心.

2.1 燃燒狀態標定模塊

首先,燃燒火焰視頻通過電纜傳輸和視頻卡采集,然后將采集的視頻以分鐘為周期進行存儲,最后結合領域專家經驗、爐排等比例結構的設計圖紙以及停爐狀態下各爐排在攝像頭中的成像位置判斷燃燒狀態下MSW 所處的位置.爐排的等比例結構、燃燒和停爐狀態的圖像標定示意圖如圖3 和圖4 所示.

圖3 爐排等比例結構示意圖Fig.3 Schematic diagram of equal proportion structure of grate

圖4 燃燒和停爐狀態圖像標定示意圖Fig.4 Image calibration diagram of combustion and shutdown status

結合領域專家經驗,考慮到料層厚度、攝像頭角度等因素,并根據圖3 和圖4 分析可得: 在正常工況下,MSW 應位于圖3 所示的燃燒爐排處焚燒,此時,燃燒線的位置位于圖4(a)的V 和VI 區域,對應于圖4(b)標注的燃燒線正常區域;若MSW 燃燒發生在圖3 所示的干燥爐排處,燃燒線會前移,此時,燃燒線位于圖4(a)的III 和IV 區域,對應于圖4(b)標注的燃燒線前移區域;若燃燒發生在圖3所示的燃燼爐排處,燃燒線會后移,此時,燃燒線位于圖4(a)的VII 和VIII 區域,對應于圖4(b)標注的燃燒線后移區域.

2.2 生成式數據增強模塊

如圖2 所示,生成式數據增強模塊主要由4 個DCGAN 子模塊組成,其中,燃燒圖像粗調DCGAN子模塊隨機選取固廢燃燒圖像進行博弈,從而獲得較好的網絡結構;其余子模塊采用燃燒圖像粗調DCGAN 的網絡結構,并對其超參數進行精調.

以粗調DCGAN 子模塊中第t輪博弈為例,首先,將隨機獲取的燃燒圖像作為DCGAN 的Xreal,由z通過生成網絡得到Xfalse,t;接著,Xreal和Xfalse,t經過網絡參數為θD,t的判別網絡后得到Dt(·,·),通過將真實圖片標記為1 和虛假圖片標記為0 得到YD,t,將Dt(·,·)和YD,t根據損失函數計算得到lossD,t,其經過優化器得到判別網絡的新參數θD,t+1以更新判別網絡;然后,Xreal和Xfalse,t經過網絡參數為θD,t+1的判別網絡后得到Dt+1(·,·),通過將真實圖片和虛假圖片均標記為1 得到YG,t,將Dt+1(·,·)和YG,t根據損失函數的計算得到lossG,t,其經過優化器得到生成網絡的新參數θG,t+1以更新生成網絡;最后,重復進行上述博弈過程以獲得優質的生成數據.

下面以粗調DCGAN 子模塊為例,詳細描述網絡結構、網絡學習算法和網絡博弈過程,并通過注釋闡述多工況圖像對抗生成的必要性.

2.2.1 DCGAN 網絡結構

DCGAN 由生成網絡和判別網絡兩個前饋網絡組成.生成網絡由全連接層、批歸一化層、形狀變換層、上采樣層、卷積層和激活層組成,結構如圖5 所示.

圖5 生成網絡結構Fig.5 Structure of generation network

生成網絡的設計目標是將潛在空間100 維的隨機向量z生成符合真實圖像分布的圖像,過程為:首先,全連接層輸出具有16× 16× 128=32 768個變量的一維向量;接著,通過形狀變換將其變為(16,16,128)的張量;然后,通過上采樣操作將形狀為(16,16,128)的張量轉化成形狀為(32,32,128)的張量,進一步將形狀為(32,32,128)的張量轉化成形狀為(64,64,128)的張量,再通過卷積層的堆疊使網絡能夠記錄火焰圖像的空間特征,并最終變換成(64,64,3)的目標形狀,即RGB 圖像的目標形狀;最后,采用Tanh 激活函數將最終輸出轉換成–1~1 之間的實數,以方便生成圖像時將其轉換成對應的像素.其中,將批量歸一化層添加在全連接層后以緩解內部協變量轉移問題,進而提高網絡訓練速度與穩定性;激活函數LeakyReLU 在增加網絡非線性描述能力的同時,保證梯度下降的穩定性,提高了與判別網絡進行博弈時的穩定性.

判別網絡由全連接層、形狀變換層、上采樣層、卷積層和激活層組成,結構如圖6 所示.

圖6 判別網絡結構Fig.6 Structure of discrimination network

判別網絡的目標是給出圖片為真的概率,過程為: 首先,由卷積層的疊加實現特征提取,在卷積層中間添加LeakyReLU,增加網絡非線性的同時保證判別網絡在與生成網絡博弈過程中的穩定性,Dropout 層通過隨機丟失神經元緩解網絡過擬合問題;接著,由Flatten 層將特征圖鋪平;最后,將激活函數為“sigmoid”的Dense 層作為分類器,獲得圖片為真的概率.

2.2.2 網絡學習算法

在DCGAN 中,生成網絡和判別網絡均屬于前饋神經網絡,以燃燒圖像粗調DCGAN 中第t輪判別網絡的更新為例進行描述,步驟包括反向傳播算法[46]計算梯度和Adam[47]算法更新權重參數.

1)反向傳播算法計算梯度.為表述方便,將圖像集 [Xreal;Xfalse,t] 表示為X,即 [x1;x2;··· ;xa;···],其中,xa表示第a幅圖片;Dt(X)表示判別網絡預測值集合,即Dt(·,·);YD,t表示判別網絡真實輸出集合 [y1;y2;··· ;ya;···],其中,ya表示第a幅圖片的真值;L為損失函數,表達式為L(YD,t,Dt(X)),進而將某個具體的損失函數表示為L(ya,Dt(xa)),其梯度為

由于判別網絡的結構復雜,Dt難以直接求得.因此,采用反向傳播算法通過鏈式法則由后往前推導,從而簡化判別網絡節點的梯度,即

式中,第i層的誤差為δi,第i層輸出為Oi,第i層的權重和偏置為Wi和Bi,第i-1 層的權重和偏置的當前梯度分別為?Wi-1和?Bi-1.

2)Adam 梯度下降算法更新判別網絡參數,更新權重的計算式為

式中,θD,t為第t次判別網絡參數;α為學習率;γ為防止分母為0 的很小正實數;mD,t表示第t次判別網絡的一階動量,如式(11)所示,vD,t表示第t次判別網絡的二階動量,如式(12)所示,即

式中,β1和β2為超參數,?D,t為第t次判別網絡參數的梯度.

對于第t輪迭代,判別網絡參數的更新步驟為:首先,根據式(6)~(9)計算當前每層參數的梯度,進而獲得整個網絡參數的梯度?D,t;接著,根據歷史梯度計算一階動量mD,t與二階動量vD,t;然后,計算第t次的下降梯度ηD,t,即

最后,采用ηD,t更新第t次的網絡參數θD,t,以得到第t+1 次的網絡參數θD,t+1,即

因mD,0=0,vD,0=0,所以一階動量與二階動量在更新參數的初始階段接近于0.因此,式(11)和式(12)經偏差修正后,得到

2.2.3 網絡博弈過程

生成對抗式數據增強是通過生成網絡與判別網絡的博弈參數進行更新,因此梯度信息尤為重要.式(1)在更新G時,得到

式中,D(G(z))為自變量,其變化趨勢為0 到1,D的參數被固定,即僅更新G的參數.由于log(1-D(G(z)))的梯度在D(G(z))為0 時較小,在D(G(z))為1 時較大,這導致前期更新緩慢,后期又極易梯度爆炸,因此,需要對目標函數進行改進.以燃燒圖像粗調DCGAN 為例進行描述,更新判別和生成網絡參數的目標函數如式(18)和式(19)所示,即

在博弈過程中,需要交替更新判別網絡和生成網絡參數,該目標函數能夠有效解決早期梯度不足與訓練困難的問題以及后期梯度下降過快導致梯度爆炸等問題.實現上述目標函數的方式為: 設GAN的損失函數為二元交叉熵函數,則

式中,Y表示神經網絡真值集合,f(X)表示神經網絡預測值集合,n表示圖片數量.

當訓練D時,將真實圖像標記為1,生成圖像標記為0,目的是使 m inθD,t+1L(YD,t,Dt(·,·))等價于式(18),步驟如下:

步驟1.若輸入一幅真實圖像,即ya=1,相應地,損失為 -log(D(xa))=-logD(x);當輸入一組真實圖像數據集時,可獲得

步驟2.若輸入一幅虛假圖像,即ya=0,相應地,損失為 l og(1-Dt(xa))=-log(1-Dt(Gt(z)));若輸入一組生成圖像數據集時,可獲得

綜合步驟1 和步驟2,可得minθD,t+1L(YD,t,Dt(·,·))等價于式(18).

當訓練G時,真實圖像與虛假圖像都標記為1,即ya=1,輸入一個真實圖像和虛假圖像的損失均為 l og(Dt+1(xa)),可知minθG,t+1L(YG,t,Dt+1(·,·))等價于式(19).

多工況圖像對抗生成的必要性分析如下.本文中的對抗網絡生成模型共有4 個,即燃燒圖像粗調DCGAN、燃燒線前移精調DCGAN、燃燒線正常精調DCGAN 和燃燒線后移精調DCGAN.進行多工況圖像對抗生成的原因在于: 式(1)在pr和pg是常數的情況下已被證明網絡能夠收斂,而實際pr和pg卻是混合高斯分布.式(1)推導為

首先,獲取D參數,固定G參數,在maxD V(D,G)過程中,對上式求導并令其為零,表達式為

進一步推導,得到

從而求得D?(x)關于x的表達式.由于pr(x)和pg(x)的導數難以求得,因此文獻[25]將其作為常數處理.相應地,新的求導方程為

這樣,才能夠得到式(2).在此基礎上,文獻[25]又證明了式(3),從而說明GAN 網絡能夠收斂.

實際訓練GAN 過程中,針對不同的工況,數據集的pr(x)和pg(x)不同,相應地,同一網絡對不同工況的性能必然不同.因此,針對不同工況下焚燒圖像數據分布存在差異的情況,先選取包括多工況的燃燒圖像訓練燃燒圖像粗調DCGAN 以獲得較好的網絡模型,再對每個工況的燃燒狀態基于粗調網絡精調其超參數,包含網絡結構、學習算法等,以保證不會出現梯度塌陷或梯度消失等問題.

2.3 增強圖像選擇模塊

在上述精調DCGAN 模型更新的過程中,采用的FID 指標具體為

式中,μr與μg表示真實圖像集和生成圖像集的多元正態分布均值;Covr與Covg表示真實圖像集和生成圖像集的協方差矩陣;t r(·)表示真實圖像集矩陣的跡.其中FID 分數越低說明模型性能越好,相應地,生成具有多樣性、高質量圖像的能力也越強.

圖像的選擇過程描述為: 首先,抽取Inception網絡的中間層映射,構建一個多元正態分布學習這些特征映射的概率分布;然后,使用式(23)計算真實圖像集與生成圖像集間的FID 分數;最后,基于設定閾值采用FID 對生成模型的圖像質量進行評估,當FID 小于設定閾值時,視為燃燒圖像合格并將其放入訓練集.

2.4 燃燒狀態識別模塊

本文利用混合增強數據訓練基于CNN 的燃燒狀態識別模型.包括兩部分: 1)非生成式數據增強:將所有數據集像素點值除以255,同時對訓練集的數據隨機旋轉0°~5°,沿水平方向隨機平移比例0~0.3,再隨機將圖片水平翻轉,最后,以映射的方法填充缺失像素;2)CNN 結構: 首先將4 層卷積和池化層堆疊以提取特征,然后通過Flatten 層將張量拉平,結合Dropout 機制防止過擬合,最后以全連接層為分類器;其中,網絡采用的損失函數為交叉熵、采用Adam 優化器的學習率為0.001,其他參數均為默認值.

3 實驗結果與分析

3.1 數據描述

在北京市某MSWI 電廠焚燒爐的爐膛后壁安裝攝像頭,采集的數據通過電纜傳送至工控機的視頻采集卡,采用相應軟件獲取單通道視頻,并對火焰圖像按每分鐘進行存儲.根據專家經驗,選取每種典型工況下各90 幅圖像.按時間段將每種工況數據集劃分為T1~T10,每個時間段的數據為9 幅圖像,其中T9 和T10 時間段的數據受噪聲影響較大,存在圖像不清晰、MSW 焚燒不均勻等問題.本文選取兩種劃分數據集的方式,其中,方式A 按時間次序劃分訓練集、驗證集和測試集;方式B 采用隨機抽樣策略劃分上述3 個數據集,如表1 所示.

表1 數據集劃分Table 1 Dataset partition

由表1 可知,按時間次序的劃分方式可測試識別模型的魯棒性;按隨機抽樣的劃分方式可反映模型的泛化性能.為確保結果的嚴謹,對每種方式進行10 次重復實驗,結果以均值和方差的形式呈現.

3.2 實驗結果

3.2.1 燃燒狀態標定結果

將燃燒狀態標定為燃燒線前移、正常和后移3種狀態,典型圖片如圖7~9 所示.

圖7 燃燒線前移Fig.7 Combustion line forward

圖9 燃燒線后移Fig.9 Combustion line back

由圖7~9 可知,當燃燒線在圖中虛線1 的上方時,處于燃燒線前移狀態;當燃燒線在圖中虛線1 和虛線2 中間時,處于燃燒線正常狀態;當燃燒線在圖中虛線2 下方時,處于燃燒線后移狀態.

結合領域專家經驗,考慮到料層厚度等原因,虛線1 和虛線2 相對于圖4 中標記的位置線偏下.工業實際表明,完全符合燃燒線前移、正常和后移圖像僅是少數,多數圖像僅是部分前移或后移.顯然,燃燒圖片的狀態標定具有一定主觀性,進而為燃燒狀態識別模型構建造成困難.

3.2.2 數據增強結果

針對燃燒狀態數據,本文采取先隨機取部分火焰圖像構建DCGAN 結構、再針對不同燃燒狀態圖像對DCGAN 超參數單獨微調的策略,以此保證DCGAN 盡可能生成不同燃燒狀態下質量優異的新數據.

首先,隨機選取部分火焰圖像構建粗調DCGAN,并采用FID 算法對最后500 批次進行評估,如圖10所示.

圖10 粗調DCGAN 迭代過程中FID 對生成燃燒狀態圖像的評估結果Fig.10 Assessment of FID for generating combustion state images during rough DCGAN iteration

圖10 中,FIDmin=36.10,FIDaverage=48.51.這表明本文設計的DCGAN 模型性能優異.

然后,針對不同燃燒狀態圖像對DCGAN 超參數單獨微調,對燃燒線前移、正常和后移模型生成圖像進行評估.依據文獻[35]給定的生成圖像清晰與否的判定經驗,結合博弈過程中所生成的圖像情況,對燃燒線前移、正常和后移的閾值分別設定為60、60 和63.最后,完成生成式數據增強.

3.2.3 生成式增強圖像選擇結果

本文中,方式A 燃燒線前移、正常和后移訓練集擴充圖像數量分別為5 060、3 452 和3 312.方式B 燃燒線前移、正常和后移訓練集擴充圖像數量分別為6 912,7 632 和9 360.其中,方式A 的部分增強圖像如圖11~13 所示.

圖11 燃燒線前移的增強圖像Fig.11 Expansion results of combustion line forward image

圖12 燃燒線正常的增強圖像Fig.12 Expansion results of combustion line normal image

圖13 燃燒線后移的增強圖像Fig.13 Expansion results of combustion line back image

3.2.4 燃燒狀態識別模塊結果

采用前面所述的非生成式數據增強方式,某幅燃燒線前移圖像增強的效果如圖14 所示.

圖14 本文所提的非生成式數據增強Fig.14 Non-generative data enhancement with the proposed method

由圖14 可知,該方式的非生成式數據增強對模型的優化效果相對較好.隨機進行非生成式數據增強會對識別模型造成負優化,如圖15 所示,顯然該方式下的數據增強導致識別精度降低.

圖15 隨機進行的非生成式數據增強Fig.15 Non-generative data enhancement with random mode

基于本文前面所述的CNN 模型,方式A 時,識別模型的驗證集和測試集識別準確率為72.69%和84.82%,損失為0.976 8 和0.552 0;方式B 時,識別模型驗證集和測試集識別準確率為97.41% 和94.07%,損失為0.069 9 和0.201 9.參考表1 可得:方式A 按照時序劃分,其訓練集、驗證集和測試集的樣本概率分布存在一定差異;方式B 是數據集的隨機采樣,訓練集樣本分布更能夠代表數據集的全集分布.因此,方式B 的準確率和損失相對于方式A 更佳,方式B 的實驗結果側重驗證說明識別模型的泛化性能優異,而方式A 的實驗結果側重驗證說明識別模型的魯棒性良好.

3.3 對比分析

3.3.1 生成模型的對比實驗結果

將本文的方法與GAN、最小二乘GAN (Least square GAN,LSGAN)[48]、DCGAN 進行比較,結果如表2 所示,生成圖像質量對比如圖16 所示.

表2 不同生成模型生成數據的評估結果Table 2 Evaluation results of data generated by different generation models

圖16 不同生成模型生成的燃燒狀態圖像Fig.16 Combustion state images generated by different generation models

實驗表明,本文設計的DCGAN 模型結構相比于GAN、LSGAN、DCGAN 能夠在更短的epoch中獲得更優結果.

3.3.2 燃燒狀態識別模型對比實驗結果

本文采用的4 組對比實驗分別為基于CNN、基于非生成式數據增強、基于DCGAN 數據增強以及基于DCGAN 和非生成式組合的數據增強(本文方法).每組實驗重復10 次,相應的平均值和方差如表3 所示.

表3 識別模型的性能對比Table 3 Performance comparison of recognition models

由表3 可知: 在方式A 中,本文方法的識別模型測試集準確率為84.82%,損失為0.552 0,相比于其他方法,本文方法能夠提高模型魯棒性;在方式B 中,本文方法的MSWI 識別模型測試集準確率為94.07%,相比于其他方法,模型的泛化性能更好.因此,本文將非生成式和生成式數據增強結合后,CNN 的魯棒性和泛化性能均得到明顯的提升.

表3 還表明,基于DCGAN 數據增強的燃燒狀態識別模型相比于未做數據增強,泛化性能與魯棒性有一定提升.但僅采用生成式數據增強卻不如僅采用非生成式數據增強,本文給出以下解釋: 1)本文設計的非生成式數據增強能夠有效增加火焰圖像新的特征,從而提高模型的魯棒性能;2)基于DCGAN的數據增強雖然創造出新的樣本,但當DCGAN 通過博弈達到納什均衡狀態時,生成網絡為欺騙判別網絡,僅根據學習到的特征形成新的火焰圖像而非創造新的特征,因此該圖像對CNN 的魯棒性能的提升有限;3)方式A 的測試集、驗證集與訓練集源于不同的時間段,其特征差異大,且部分圖像的標定存在主觀性;4)基于DCGAN 數據增強將原270 樣本擴充到方式A 的11 824 樣本和方式B 的23 904 樣本后,由于其特征的相似性,導致CNN 在訓練過程中難以控制迭代次數與批次.因此,如何實現兩者的均衡仍有待深入研究.

4 結束語

本文提出一種基于混合數據增強的MSWI 過程燃燒狀態識別模型,其創新性表現在: 1)指出基于對抗生成式數據增強的不足,并針對生成式和非生成式數據增強的缺陷,提出混合數據增強策略;2)構建基于DCGAN 的生成式數據增強模塊,設計面向燃燒圖像的多層次生成網絡結構;3)針對火焰燃燒圖像,設計非生成式數據增強的方法.實驗結果表明,本文方法能夠有效結合生成式數據增強與非生成式數據增強的優點,能夠有效生成優質的虛擬樣本,從而使得MSWI 狀態識別模型具有較好的泛化性能與魯棒性.

需要指出的是,工業現場并非缺少數據,而是標記困難.如何充分利用海量數據實現自動標記以及通過半監督或無監督學習、提高模型的泛化性和魯棒性是下一步研究方向.

附錄 A 各變量具體說明

表A1 符號及含義Table A1 Symbols and their descriptions

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 一本色道久久88| 99热这里只有精品免费国产| 国产美女在线观看| 欧美性久久久久| 国产凹凸视频在线观看| 国产对白刺激真实精品91| 成人国产精品2021| 欧美一级黄色影院| 日本亚洲成高清一区二区三区| 国产精品永久免费嫩草研究院| 国产微拍精品| 国产乱子伦手机在线| 在线观看国产精品一区| 九九九久久国产精品| 日韩中文字幕免费在线观看| 99这里只有精品免费视频| www.亚洲一区二区三区| 久久福利片| 91亚洲免费| 亚洲综合色吧| 欧美国产精品不卡在线观看| 日韩专区欧美| 日本成人精品视频| 久久黄色影院| 中文字幕无码制服中字| 91精品综合| 无码有码中文字幕| 久久熟女AV| 色婷婷丁香| 五月婷婷伊人网| 激情综合五月网| 国产亚洲精品91| 国产精品久久久精品三级| 亚洲 日韩 激情 无码 中出| 国产福利拍拍拍| 日a本亚洲中文在线观看| 无码一区二区三区视频在线播放| 无码精油按摩潮喷在线播放 | 欧美激情一区二区三区成人| 亚洲AV无码乱码在线观看代蜜桃| 尤物亚洲最大AV无码网站| 88国产经典欧美一区二区三区| 四虎永久免费在线| 国产无码性爱一区二区三区| 97久久精品人人| 亚洲国产综合精品中文第一| 亚洲男人天堂2018| 欧美爱爱网| 在线不卡免费视频| 久久99热这里只有精品免费看| 5388国产亚洲欧美在线观看| 99久久性生片| 91小视频在线观看| 真人免费一级毛片一区二区| 亚洲综合婷婷激情| 国产H片无码不卡在线视频| 国产一区二区福利| 久久青草精品一区二区三区| 亚洲人成网站观看在线观看| 2024av在线无码中文最新| 在线观看国产小视频| 国产av无码日韩av无码网站| 91无码网站| 天天色综合4| 成人免费午夜视频| 国产精品19p| 久久99精品久久久久久不卡| 成人国产精品网站在线看| 视频一本大道香蕉久在线播放| 欧美亚洲一区二区三区在线| 热re99久久精品国99热| 国产性生大片免费观看性欧美| 91精品最新国内在线播放| 小说区 亚洲 自拍 另类| 永久成人无码激情视频免费| 亚洲视屏在线观看| 久久久精品国产亚洲AV日韩| 欧美激情第一欧美在线| 无码有码中文字幕| 久久精品无码一区二区国产区| 国产幂在线无码精品| 亚洲人成日本在线观看|