999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于EMD 二值化圖像和CNN 的滾動(dòng)軸承故障診斷

2021-03-03 09:21:30谷玉海朱騰騰饒文軍黃艷庭
振動(dòng)、測(cè)試與診斷 2021年1期
關(guān)鍵詞:故障診斷故障信號(hào)

谷玉海, 朱騰騰, 饒文軍, 黃艷庭

(北京信息科技大學(xué)現(xiàn)代測(cè)控技術(shù)教育部重點(diǎn)實(shí)驗(yàn)室 北京,100192)

引 言

滾動(dòng)軸承是一種應(yīng)用非常廣泛的機(jī)械零件,同時(shí)也是機(jī)器中最容易出現(xiàn)故障的零件之一。如果能夠及時(shí)、準(zhǔn)確地對(duì)滾動(dòng)軸承故障狀態(tài)進(jìn)行識(shí)別,對(duì)保持機(jī)器運(yùn)轉(zhuǎn)的穩(wěn)定性和安全性具有重要意義。隨著故障診斷理論研究的不斷深入,學(xué)者們提出了各種故障診斷方法,例如:BP 神經(jīng)網(wǎng)絡(luò)[1]、PNN[2]、小波分析[3]、EMD[4]、集合經(jīng)驗(yàn)?zāi)B(tài)分解(ensemble empirical mode decomposition,簡(jiǎn) 稱EEMD)[5]和 奇 異值分解(singular value decomposition,簡(jiǎn)稱SVD)[6]等。目前,基于機(jī)器學(xué)習(xí)的故障診斷方法主要有Logistic 回 歸[7]、支 持 向 量 機(jī)(support vector machine,簡(jiǎn)稱SVM)[8],人工神經(jīng)網(wǎng)絡(luò)(artificial neural network,簡(jiǎn)稱ANN)[9]和模糊推斷[10]。

隨著人工智能的快速發(fā)展,深度學(xué)習(xí)在圖像識(shí)別和語音識(shí)別等方面的應(yīng)用日益廣泛,在故障診斷領(lǐng)域的應(yīng)用也越來越成為研究的熱點(diǎn)[11]。文獻(xiàn)[12]采用隨機(jī)高斯矩陣的方法對(duì)軸承信號(hào)進(jìn)行變換域壓縮采集,并將處理后的信號(hào)作為深度神經(jīng)網(wǎng)絡(luò)的輸入實(shí)現(xiàn)故障的智能診斷與識(shí)別。文獻(xiàn)[13]采用雙樹復(fù)小波(dual-tree complex wavelet transform,簡(jiǎn)稱DTCWT)與深度信念網(wǎng)絡(luò)(deep belief network,簡(jiǎn)稱DBN)結(jié)合的故障診斷方法對(duì)故障類型進(jìn)行識(shí)別。

由于深度學(xué)習(xí)需要大量的訓(xùn)練數(shù)據(jù),所以在沒有足夠數(shù)據(jù)的情況下難以取得令人滿意的結(jié)果。CNN 是一種廣泛應(yīng)用于圖像識(shí)別領(lǐng)域的深度學(xué)習(xí)網(wǎng)絡(luò)方法并取得了優(yōu)異效果,其初衷是對(duì)二維圖片進(jìn)行分類,不能直接用來識(shí)別一維振動(dòng)數(shù)據(jù)。Peng等[14]提出了一種一維殘差塊,并在此基礎(chǔ)上提出了一種新的更深層次的一維卷積神經(jīng)網(wǎng)絡(luò)(deeper one-dimensional convolutional neural network,簡(jiǎn)稱Der-1DCNN)。該框架包含了殘差學(xué)習(xí)的思想,能夠有效學(xué)習(xí)高層次和抽象的特征,同時(shí)緩解了訓(xùn)練困難和更深層次網(wǎng)絡(luò)性能下降的問題。Levent 等[15]提出了一種基于原始時(shí)間序列傳感器數(shù)據(jù)的通用實(shí)時(shí)軸承故障診斷方法,該方法利用自適應(yīng)Der-1DCNN分類器進(jìn)行特征提取和模式識(shí)別。

如何將一維時(shí)域振動(dòng)信號(hào)轉(zhuǎn)換為二維矩陣或圖像,是目前基于卷積神經(jīng)網(wǎng)絡(luò)的研究熱點(diǎn)。Wen等[16]提出了一種基于51 個(gè)卷積層的調(diào)整卷積神經(jīng)網(wǎng) 絡(luò)(tweaked convolutional neural networks,簡(jiǎn) 稱TCNN)故障診斷方法。將TCNN 結(jié)合遷移學(xué)習(xí),在數(shù)據(jù)集ImageNet 上訓(xùn)練ResNet-50 作為特征提取器進(jìn)行故障診斷。實(shí)驗(yàn)表明,TCNN 優(yōu)于其他深度學(xué)習(xí)模型和傳統(tǒng)方法。Chang 等[17]針對(duì)局部弱特征信息,提出了一種基于變分模態(tài)分解(variational mode decomposition,簡(jiǎn) 稱VMD),SVD 和CNN 的行星齒輪特征提取與故障診斷方法。實(shí)驗(yàn)結(jié)果表明,該方法能夠有效提取局部弱特征信息,準(zhǔn)確識(shí)別不 同 的 故 障。Sheng 等[18]提 出 了 一 種 利 用CNN 直接對(duì)連續(xù)小波變換(continuous wavelet transform,簡(jiǎn)稱CWT)進(jìn)行分類的診斷方法,利用該方法在轉(zhuǎn)子實(shí)驗(yàn)平臺(tái)進(jìn)行了一系列實(shí)驗(yàn)。結(jié)果表明,該方法能較準(zhǔn)確地診斷故障特征。

筆者提出了一種基于EMD 二值化圖像和CNN的故障診斷方法,將采集到的各類滾動(dòng)軸承數(shù)據(jù)轉(zhuǎn)化為特征明顯的二值化圖像,采用CNN 進(jìn)行分類訓(xùn)練和識(shí)別。

1 EMD 二值化圖像構(gòu)造

滾動(dòng)軸承數(shù)據(jù)是由軸承加速計(jì)獲得,可在短期內(nèi)快速獲得大量的振動(dòng)數(shù)據(jù)。筆者將振動(dòng)數(shù)據(jù)等距劃分為若干段,對(duì)每段振動(dòng)數(shù)據(jù)進(jìn)行EMD,對(duì)采用相關(guān)系數(shù)篩選得到的IMF 分量進(jìn)行快速傅里葉變換(fast Fourier transform,簡(jiǎn)稱FFT)獲取頻譜圖,并將頻譜圖數(shù)據(jù)壓縮成灰度圖像作為CNN 分類網(wǎng)絡(luò)訓(xùn)練的輸入數(shù)據(jù)。

1.1 EMD 及IMF 分 量 選 擇

EMD 方法是一種自適應(yīng)信號(hào)時(shí)頻分析方法[19],對(duì)于非線性和非平穩(wěn)信號(hào)的處理具有獨(dú)特優(yōu)勢(shì),在海洋[20]、大氣[21]及故障診斷[4]等領(lǐng)域得到了廣泛應(yīng)用。EMD 方法獲得的各IMF 分量包括了原始信號(hào)不同時(shí)間尺度的局部特征,前幾個(gè)IMF 分量體現(xiàn)了原始信號(hào)的主要特征。為保證構(gòu)造的二值化圖像能夠有效保留原始信號(hào)的故障特征,同時(shí)避免噪聲等成分的的干擾,筆者采用相關(guān)系數(shù)法篩選分解后的各個(gè)IMF 分量,使用相關(guān)系數(shù)最大的IMF 分量作為生成二值化圖像的信號(hào)。相關(guān)系數(shù)的計(jì)算公式[22]為

其中:L為信號(hào)長(zhǎng)度;ρ(i)為第i個(gè)IMF 分量與原始信號(hào)x(t)之間的相關(guān)系數(shù)。

1.2 二值化圖像構(gòu)造

EMD 二值化圖像構(gòu)造流程如圖1 所示。為了滿足CNN 的訓(xùn)練要求,需要生成具有一定特征的圖片作為訓(xùn)練數(shù)據(jù)。首先,選取一段長(zhǎng)度為M的振動(dòng)信號(hào)進(jìn)行EMD;其次,將獲取的一階IMF 分量進(jìn)行FFT。假設(shè)FFT 后有2N個(gè)數(shù)據(jù)點(diǎn),根據(jù)FFT 對(duì)稱性,選取前N個(gè)數(shù)據(jù)點(diǎn)作為構(gòu)造灰度圖的一行。一共進(jìn)行N次,得到N行數(shù)據(jù),將N行長(zhǎng)度為N的數(shù)據(jù)點(diǎn)進(jìn)行堆疊,即可生成一個(gè)尺寸為N×N的灰度圖矩陣。

為了避免圖像對(duì)比度不足而對(duì)后續(xù)處理帶來干擾,對(duì)生成的灰度圖矩陣的每行進(jìn)行歸一化處理,并對(duì)整體進(jìn)行二值化處理。歸一化處理的公式為

其中:x,y分別代表歸一化前、歸一化后的數(shù)值;Vmax,Vmin分別為原始灰度圖像的最大值和最小值。

圖1 EMD 二值化圖像構(gòu)造流程Fig.1 EMD binarization image construction process

2 CNN 網(wǎng)絡(luò)設(shè)計(jì)

為了能夠有效識(shí)別軸承故障二值化圖像,需要設(shè)計(jì)合理的CNN。目前,CNN 主流的設(shè)計(jì)方式,如經(jīng)典的LeNet-5 網(wǎng)絡(luò),其輸入的二維圖像先經(jīng)過2 次卷積層到池化層,再經(jīng)過全連接層,使用Softmax 分類作為輸出層。由于LeNet-5 的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)和參數(shù)選擇不適合用于本研究軸承故障二值化圖像的識(shí)別,故對(duì)CNN 網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行簡(jiǎn)要介紹。

2.1 輸入層

輸入層是整個(gè)神經(jīng)網(wǎng)絡(luò)的第1 層,也是整個(gè)卷積神經(jīng)網(wǎng)絡(luò)獲取圖像的途徑,表示輸入的一張圖片的像素矩陣,在Lenet-5 原始模型框架中,輸入層的圖像像素為32×32。

2.2 卷積層

卷積層是整個(gè)網(wǎng)絡(luò)最重要的組成部分,用來實(shí)現(xiàn)對(duì)輸入的圖像進(jìn)行特征提取,從而獲得比原始圖像抽象程度更高的特征。在通過卷積層處理后,網(wǎng)絡(luò)的節(jié)點(diǎn)矩陣會(huì)明顯加深。卷積層特征的計(jì)算公式為

2.3 池化層

池化層通常出現(xiàn)在卷積層之后,二者相互交替出現(xiàn),且每個(gè)卷積層都與一個(gè)池化層一一對(duì)應(yīng)。池化函數(shù)常用的池化方法有最大池化、平均池化和隨機(jī)池化等。池化層l中激活值的計(jì)算公式為

筆者采用最大池化,即選取輸入圖像中像素為Ml×Ml的非重疊滑動(dòng)框內(nèi)所有像素的最大值。池化層的作用是對(duì)圖像進(jìn)行降維處理,縮減圖像的像素,但會(huì)增加圖像的“厚度”,目的是把更多特征從圖像中提取出來。

2.4 損失函數(shù)

損失函數(shù)是用來估量模型的預(yù)測(cè)值f(x)與真實(shí)值Y的不一致程度,它是一個(gè)非負(fù)實(shí)值函數(shù),通常用L(Y,f(x))來表示。損失函數(shù)值越小,說明模型的魯棒性越好。筆者采用的損失函數(shù)公式為

為使卷積神經(jīng)網(wǎng)絡(luò)損失函數(shù)L(y?,y)取得全局最小值,實(shí)質(zhì)上是不斷更新權(quán)值W和偏差向量b,使其取得最優(yōu)值。為防止神經(jīng)網(wǎng)絡(luò)過擬合,損失函數(shù)會(huì)增加二范數(shù)項(xiàng)。改進(jìn)后的損失函數(shù)為

其中:λ為超參數(shù)項(xiàng)。

2.5 全連接層

通過卷積和池化處理之后,圖像信息被抽象成更高級(jí)的圖像特征,在網(wǎng)絡(luò)的末尾由全連接層實(shí)現(xiàn)網(wǎng)絡(luò)的最終分類結(jié)果。

2.6 輸出層

輸出層主要用來實(shí)現(xiàn)最終分類,通過輸出層得到輸入圖像屬于不同類別預(yù)測(cè)的概率值。

筆者采用控制變量的方式對(duì)網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn),確定最終的網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)。根據(jù)CNN 設(shè)計(jì)的研究[23]以及筆者所需要識(shí)別的圖像相對(duì)簡(jiǎn)單,將卷積層在2~5 層之間進(jìn)行選取,卷積核主要有3×3,5×5 和7×7 共3 種,典型的激活函數(shù)主要有Sigmoid,Tanh,ReLU 和Leaky ReLU 4 種[24-25]。為 了得到更加科學(xué)有效的網(wǎng)絡(luò),筆者采用排列組合的方式對(duì)以上結(jié)構(gòu)參數(shù)進(jìn)行研究。實(shí)驗(yàn)分組情況如表1所示。

表1 實(shí)驗(yàn)分組情況Tab.1 Experimental grouping

3 基于EMD 和CNN 故障診斷框架

圖2 為整體技術(shù)路線流程圖,數(shù)據(jù)處理步驟如下:

1)將采集到的各種類型的時(shí)間序列數(shù)據(jù)進(jìn)行等間隔劃分,作為制作訓(xùn)練及測(cè)試數(shù)據(jù)集的原始樣本數(shù)據(jù);

圖2 筆者整體技術(shù)路線流程圖Fig.2 This article overall technical route flow chart

2)采用EMD 對(duì)已經(jīng)劃分的各段數(shù)據(jù)進(jìn)行分解,將獲取的IMF 采用相關(guān)系數(shù)進(jìn)行篩選,篩選相關(guān)系數(shù)最大的IMF 分量,并將IMF 分量進(jìn)行FFT;

3)將每次FFT 分析后的數(shù)據(jù)值作為矩陣的一行,不斷提取數(shù)據(jù)進(jìn)行處理,累積構(gòu)造矩陣;

4)將矩陣進(jìn)行歸一化處理后得到灰度圖,并將灰度圖像轉(zhuǎn)化為二值化圖像,按照以上方式將各種軸承狀態(tài)的時(shí)間序列數(shù)據(jù)生成若干幅二值化圖像,作為CNN 訓(xùn)練和測(cè)試的數(shù)據(jù)集;

5)采用生成的二值化圖像數(shù)據(jù)集訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),同時(shí)在訓(xùn)練過程中根據(jù)訓(xùn)練結(jié)果優(yōu)化、調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)和網(wǎng)絡(luò)參數(shù);

6)將訓(xùn)練好的網(wǎng)絡(luò)對(duì)測(cè)試數(shù)據(jù)集進(jìn)行測(cè)試,得出圖片分類結(jié)果,從而得到數(shù)據(jù)故障分類,輸出診斷結(jié)果并分析結(jié)論。

4 實(shí)驗(yàn)結(jié)果分析

4.1 實(shí)驗(yàn)數(shù)據(jù)描述

筆者使用的實(shí)驗(yàn)數(shù)據(jù)來源于美國(guó)凱斯西儲(chǔ)大學(xué)軸承數(shù)據(jù)中心的軸承數(shù)據(jù)集[26]。實(shí)驗(yàn)平臺(tái)包含功率為1492 W 的電機(jī)、轉(zhuǎn)矩傳感器、負(fù)載電機(jī)以及其他相關(guān)元件。采用電火花加工技術(shù)在軸承上布置了單點(diǎn)故障,損傷直徑為0.1778 mm,損傷深度為2.794 mm。為了驗(yàn)證筆者所提出的方法可用于變工況下的故障診斷,在一定程度上可以克服轉(zhuǎn)速差異、故障程度大小的影響,選取了3 種轉(zhuǎn)速、4 種故障類型、2 種故障嚴(yán)重程度下的故障數(shù)據(jù),共12 種工況的數(shù)據(jù)混合生成4 種類型的二值化圖像數(shù)據(jù)集。軸承故障類型和實(shí)驗(yàn)條件如表2 所示。

表2 軸承故障類型和實(shí)驗(yàn)條件Tab.2 Bearing failure types and test conditions

由于采用不同長(zhǎng)度的振動(dòng)信號(hào)生成的二值化圖像像素不同,所體現(xiàn)出的特征效果也不同,所以需要經(jīng)過實(shí)驗(yàn)確定圖像像素。筆者分別采用長(zhǎng)度為32,64,128 和256 共4 種情況下的振動(dòng)信號(hào)生成的二值化圖像進(jìn)行對(duì)比,將特征效果最明顯的二值化圖像像素點(diǎn)數(shù)量作為網(wǎng)絡(luò)訓(xùn)練和測(cè)試的最終像素點(diǎn)數(shù)目。根據(jù)二值化圖像構(gòu)造方法,長(zhǎng)度為32,64,128和256 的信號(hào)分別可以構(gòu)造出像素為16×16,32×32,64×64 和128×128 的二值化圖像,分別使用正常狀態(tài)、外圈故障、內(nèi)圈故障和滾動(dòng)體故障的數(shù)據(jù)進(jìn)行實(shí)驗(yàn)。16×16,32×32 這2 種像素的二值化圖像由于像素點(diǎn)太少,圖像特征非常不明顯,完全無法 區(qū) 分4 類 狀 態(tài)。像 素 為64×64,128×128 這2 種二值化圖像都能較好地區(qū)分4 種狀態(tài)。由于構(gòu)造一張像素為16×16 的二值化圖像需要8192 個(gè)原始振動(dòng)信號(hào)數(shù)據(jù)點(diǎn),而構(gòu)造一張像素為128×128 的二值化圖像則需要32768 個(gè)原始振動(dòng)信號(hào)數(shù)據(jù)點(diǎn),所以在相同長(zhǎng)度振動(dòng)信號(hào)的情況下,構(gòu)造一張像素為128×128 的二值化圖像可以構(gòu)造4 張像素為64×64 的二值化圖像。在相同數(shù)量原始信號(hào)的條件下,如果能構(gòu)造出更多的二值化圖像數(shù)據(jù),則有利于CNN 的訓(xùn)練和識(shí)別。 因此,雖然像素為128×128 的二值化圖像特征更加明顯,綜合考慮,筆者最終采用像素為64×64 的二值化圖像作為CNN 訓(xùn)練和測(cè)試的圖像像素。

像素為64×64 的二值化圖像示例如圖3 所示。可以看出,經(jīng)上述方法構(gòu)造的4 種不同狀態(tài)的軸承數(shù)據(jù)的灰度圖像具有明顯特征。

圖3 像素為64×64 的二值化圖像示例Fig.3 Examples of binary images with 64×64 pixels

4.2 實(shí)驗(yàn)數(shù)據(jù)處理

筆者進(jìn)行的各項(xiàng)實(shí)驗(yàn)均由Matlab 2015b 和Spyder 2 種軟件完成。使用Matlab 2015b 對(duì)信號(hào)進(jìn)行EMD,篩選出相關(guān)系數(shù)最大的IMF 分量進(jìn)行FFT,求得時(shí)頻數(shù)據(jù)并生成矩陣。導(dǎo)入TensorFlow 和OpenCV 的Spyder 軟件,將時(shí)頻數(shù)據(jù)矩陣歸一化并生成最終的二值化圖像,使用Spyder 對(duì)圖片進(jìn)行訓(xùn)練和測(cè)試,通過TensorBoard 可視化工具查看準(zhǔn)確率、損失函數(shù)等曲線的變化。計(jì)算機(jī)硬件和軟件的配置參數(shù)如表3,4 所示。

表3 硬件配置環(huán)境參數(shù)Tab.3 Hardware configuration environment parameters

根據(jù)表2 所示的數(shù)據(jù),一共生成4 種狀態(tài)下的433 張二值化圖像。將圖像進(jìn)行隨機(jī)分配,訓(xùn)練集和測(cè)試集的分配數(shù)量如表5 所示。

表4 軟件配置環(huán)境參數(shù)Tab.4 Software configuration environment parameters

表5 訓(xùn)練集和測(cè)試集分配數(shù)量Tab.5 Training set and test set allocation

通過使用表5 中分配的數(shù)據(jù)集對(duì)表1 中設(shè)計(jì)的各組網(wǎng)絡(luò)進(jìn)行逐一訓(xùn)練、測(cè)試對(duì)比,最終確定了輸入圖像的像素為64×64,卷積層為4 層,使用7×7卷積核。采用Leak ReLU 作為激活函數(shù)的CNN 模型,將全連接層之后的分類輸出結(jié)果調(diào)整為4 類。筆者設(shè)計(jì)的網(wǎng)絡(luò)模型如圖4 所示,網(wǎng)絡(luò)模型的訓(xùn)練和測(cè)試曲線如圖5 所示。

在訓(xùn)練中一個(gè)迭代次數(shù)是指所有的數(shù)據(jù)送入網(wǎng)絡(luò)中完成一次前向計(jì)算及反向傳播的過程。準(zhǔn)確率反映了模型正確識(shí)別的圖像個(gè)數(shù)。損失率是用來估量模型的預(yù)測(cè)值與真實(shí)值的不一致程度。準(zhǔn)確率越大、損失率越小,說明模型的識(shí)別能力和魯棒性越好。從圖5 可以看出,無論訓(xùn)練還是測(cè)試,其準(zhǔn)確率曲線的上升速度和損失曲線的下降速度都非常迅速,經(jīng)過100 輪迭代次數(shù)后,最終的訓(xùn)練準(zhǔn)確率、訓(xùn)練損失率、驗(yàn)證準(zhǔn)確率和驗(yàn)證損失率的值分別為97.56%,4.4736×10?3,96.69%和0.01021。

4.3 與傳統(tǒng)方法對(duì)比及抗噪性能測(cè)試

為了驗(yàn)證筆者提出的方法比傳統(tǒng)故障診斷方法更能有效識(shí)別軸承的故障類別,將此方法與參考文獻(xiàn)[27]中采用BP 和概率神經(jīng)網(wǎng)絡(luò)(probabilistic neural network,簡(jiǎn)稱PNN)方法的分類準(zhǔn)確率進(jìn)行對(duì)比,如表6 所示。

圖4 筆者設(shè)計(jì)的網(wǎng)絡(luò)模型Fig.4 The network model designed in this paper

圖5 網(wǎng)絡(luò)模型的訓(xùn)練和測(cè)試曲線Fig.5 The training and testing curves of the network model are finally determined

表6 平均分類準(zhǔn)確率對(duì)比Tab.6 Comparison table of average classification accuracy %

通過表6 可以看出,筆者提出的方法能夠?qū)崿F(xiàn)很高的準(zhǔn)確率。在正常狀態(tài)下,圖片的正確分類準(zhǔn)確率最高,為100%,這是由于正常狀態(tài)下的滾動(dòng)軸承二值化圖像的特征非常明顯,容易被CNN 分類器識(shí)別。內(nèi)圈故障和滾動(dòng)體故障狀態(tài)下的圖片相似度較高,在識(shí)別過程中混淆相對(duì)較多,準(zhǔn)確率相對(duì)較低,但也達(dá)到了96%以上。故障分類平均準(zhǔn)確率達(dá)到了97.61%,能夠有效檢測(cè)各類故障。筆者提出的方法識(shí)別效果都遠(yuǎn)優(yōu)于傳統(tǒng)的BP 和PNN 方法的準(zhǔn)確率,具有更好的泛化能力。

為了測(cè)試筆者所提出算法和模型的抗噪性,在4 種狀態(tài)下的軸承振動(dòng)信號(hào)中加入6dB 的白噪聲。圖6 為原始信號(hào)和加入6dB 白噪聲后的信號(hào)對(duì)比。可以看出,在加入白噪聲后的波形出現(xiàn)了一些毛刺,沒有原始信號(hào)顯得平滑。圖7 為加噪后的二值化圖像示例圖。可以看出,正常狀態(tài)下的軸承信號(hào)加噪后生成的二值化圖像中出現(xiàn)了一些噪點(diǎn),但左側(cè)的白色亮帶依然很明顯,未受到太大影響;其他3 種狀態(tài)下的軸承信號(hào)在加噪后幾乎沒有出現(xiàn)噪點(diǎn)。這也證明了筆者所提出的方法本身具有一定的抗噪能力。在抗噪性能測(cè)試中,分別在4 種狀態(tài)下的訓(xùn)練集和測(cè)試集中各加入15 張加噪的圖像,圖8 為加噪前后準(zhǔn)確率和損失曲線對(duì)比。可見,2 種曲線的整體變化趨勢(shì)非常接近。加噪后最終識(shí)別的準(zhǔn)確率略有降低,測(cè)試準(zhǔn)確率達(dá)到了96.19%,略低于未加噪的測(cè)試準(zhǔn)確率值97.61%,這說明加入的噪聲圖像對(duì)網(wǎng)絡(luò)產(chǎn)生影響非常小,證明了筆者所設(shè)計(jì)的CNN 網(wǎng)絡(luò)模型具有很強(qiáng)的魯棒性和抗噪能力。

圖6 原始信號(hào)和加入6db 白噪聲后的信號(hào)對(duì)比圖Fig.6 The original signal and the signal after adding 6db white noise

圖7 加噪后的二值化圖像示例圖Fig.7 A sample image of the denoised binary image

圖8 加噪前后準(zhǔn)確率和損失曲線對(duì)比Fig.8 Comparison of accuracy and loss curves before and after noise addition

5 結(jié)束語

提出了一種基于EMD 二值化圖像和CNN 的智能故障診斷方法,將振動(dòng)信號(hào)轉(zhuǎn)化為具有明顯特征的二值化圖像。在CNN 設(shè)計(jì)方法的基礎(chǔ)上,根據(jù)訓(xùn)練要求設(shè)計(jì)了36 種CNN 網(wǎng)絡(luò)結(jié)構(gòu)。通過實(shí)驗(yàn)數(shù)據(jù)集測(cè)試,確定了一種最優(yōu)的CNN 網(wǎng)絡(luò)模型。筆者采用的基于EMD 二值化圖像和卷積神經(jīng)網(wǎng)絡(luò)的滾動(dòng)軸承故障診斷方法整體上能夠達(dá)到97.61%的識(shí)別準(zhǔn)確率,遠(yuǎn)超過傳統(tǒng)的BP 方法的識(shí)別準(zhǔn)確率73.75% 和概率神經(jīng)網(wǎng)絡(luò)方法的識(shí)別準(zhǔn)確率93.75%,在抗噪能力測(cè)試中達(dá)到了96.19%的識(shí)別準(zhǔn)確率,體現(xiàn)了優(yōu)異的抗噪能力和魯棒性,證明了筆者所提出方法的可行性,為采用CNN 進(jìn)行故障診斷提供了新的思路,具有較好的技術(shù)應(yīng)用前景。

猜你喜歡
故障診斷故障信號(hào)
信號(hào)
鴨綠江(2021年35期)2021-04-19 12:24:18
完形填空二則
故障一點(diǎn)通
基于FPGA的多功能信號(hào)發(fā)生器的設(shè)計(jì)
電子制作(2018年11期)2018-08-04 03:25:42
奔馳R320車ABS、ESP故障燈異常點(diǎn)亮
基于LabVIEW的力加載信號(hào)采集與PID控制
因果圖定性分析法及其在故障診斷中的應(yīng)用
故障一點(diǎn)通
江淮車故障3例
基于LCD和排列熵的滾動(dòng)軸承故障診斷
主站蜘蛛池模板: 国产呦精品一区二区三区下载| 久热99这里只有精品视频6| 国产午夜无码专区喷水| 午夜不卡视频| 伊人婷婷色香五月综合缴缴情| 国产精品久久久久久影院| 无码专区第一页| 色综合久久88色综合天天提莫| 97精品久久久大香线焦| 亚洲日本在线免费观看| 99精品免费在线| 亚洲首页在线观看| 亚洲欧美成人影院| 又黄又湿又爽的视频| 久久人妻xunleige无码| 91福利国产成人精品导航| 国产欧美日韩18| 国产无码精品在线播放 | 精品久久高清| 国产成人精品高清不卡在线| 国产精品九九视频| 亚洲AV人人澡人人双人| 久久综合结合久久狠狠狠97色| 久久天天躁夜夜躁狠狠| 国产无人区一区二区三区| 亚洲男人天堂久久| 九月婷婷亚洲综合在线| 欧美日韩亚洲国产| 欧美翘臀一区二区三区| 成·人免费午夜无码视频在线观看 | 永久免费精品视频| 日韩黄色在线| 久久无码av一区二区三区| 亚洲一区网站| 精品国产污污免费网站| www.日韩三级| 99成人在线观看| 88av在线看| 99手机在线视频| 好紧太爽了视频免费无码| 亚洲天堂精品视频| 国产成a人片在线播放| 免费看美女自慰的网站| 国产欧美日韩综合在线第一| 99久久这里只精品麻豆| 欧美日韩午夜| 久久精品免费国产大片| 在线观看国产网址你懂的| 国产精品蜜芽在线观看| 国产9191精品免费观看| 国产精品真实对白精彩久久| 成人毛片免费在线观看| 国产在线观看人成激情视频| av天堂最新版在线| 午夜不卡福利| 狠狠色狠狠色综合久久第一次 | 中文字幕久久亚洲一区| 久久精品人妻中文系列| 国产菊爆视频在线观看| 久久亚洲综合伊人| 国产九九精品视频| 高潮爽到爆的喷水女主播视频| 国产无码制服丝袜| 国产一级无码不卡视频| 91色国产在线| 97免费在线观看视频| 国产成人亚洲综合A∨在线播放| 欧美中日韩在线| 毛片大全免费观看| 无码专区国产精品第一页| 欧美成人精品一级在线观看| 免费一级毛片| 丁香五月激情图片| 成人av专区精品无码国产| 国产成人禁片在线观看| 韩国福利一区| 亚洲精品无码专区在线观看| 777国产精品永久免费观看| 国产麻豆va精品视频| 色妞www精品视频一级下载| 亚洲三级色| 91精品国产91久久久久久三级|