







摘" 要:由于傳統(tǒng)的生物識別方式具有易造假、易引發(fā)應(yīng)激等缺點,不利于現(xiàn)代馬業(yè)的健康發(fā)展,因此該文綜述近年來計算機視覺在畜牧業(yè)生物識別的應(yīng)用進展,同時又建立基于DenseNet、EfficientNet、MobileNet、ResNet的 4種不同神經(jīng)網(wǎng)絡(luò)模型的馬面部識別方法。通過分析4種神經(jīng)網(wǎng)絡(luò)的訓練結(jié)果可以得出結(jié)論,101層的ResNet網(wǎng)絡(luò)結(jié)構(gòu)表現(xiàn)最優(yōu),準確率為0.935、精確率為0.944、召回率為0.929。因此,深度學習技術(shù)在馬面部識別系統(tǒng)的應(yīng)用具有可行性,可以為馬匹非接觸性個體識別提供新的思路和方法。
關(guān)鍵詞:面部識別;個體識別;馬產(chǎn)業(yè);ResNet;非接觸識別
中圖分類號:TP319" " " "文獻標志碼:A" " " " " 文章編號:2096-9902(2023)08-0008-06
Abstract: The traditional biometric identification method, easy to induce counterfeiting and stress, were unconducive to the healthy development of modern horse industry. Therefore, this paper summarizes the application progress of computer vision in animal husbandry biometric identification in recent years, and establishes a foundation based on horse face recognition methods with four different neural network models: DenseNet, EfficientNet, MobileNet, and ResNet. By analyzing the training results of the four neural networks, it can be concluded that the 101-layer ResNet network structure performs the best, with an accuracy rate of 0.935, a precision rate of 0.944, and a recall rate of 0.929. Therefore, the application of deep learning technology in horse facial recognition system is feasible, and thereby can provide new ideas and methods for non-contact individual identification of horses.
Keywords: facial recognition; individual recognition; horse industry; ResNet; contactless recognition
隨著人民生活水平的不斷提高,改革開放的進一步深入,以及健康中國戰(zhàn)略的提出,競技馬術(shù)運動不再作為“貴族運動”,開始步入尋常百姓家,馬產(chǎn)業(yè)的發(fā)展也呈現(xiàn)出雨后春筍般的態(tài)勢[1]。在馬產(chǎn)業(yè)蓬勃發(fā)展的藍天下,也伴隨著一些陰霾,傳統(tǒng)的馬匹生物識別方式在信息時代改革浪潮的洪流中顯得略有些力不從心,能否對馬匹進行精確識別,不僅關(guān)乎競技的公平性,還關(guān)系著日常管理的合理性,因此對于現(xiàn)有的馬匹個體識別方式需要進行信息化改造的說法絕非危言聳聽。傳統(tǒng)的馬匹個體識別方式主要有烙印和植入芯片等侵入性的方式[2],不僅在不同程度上危害了馬匹的健康,存在造成應(yīng)激反應(yīng)的潛在風險,同時也由于烙印芯片的可復(fù)制性,為個體識別欺詐留下了漏洞,從而危害競技的公平性,不利于馬產(chǎn)業(yè)的可持續(xù)發(fā)展。
1" 研究現(xiàn)狀綜述
近年來,信息技術(shù)不斷發(fā)展成熟,基于深度學習的面部識別技術(shù)也有了突飛猛進的發(fā)展,在人臉識別方面的研究最早也最為豐富,Parkhi等[3]通過應(yīng)用牛津大學視覺幾何組在2014年提出的VGGNet系列深度卷積神經(jīng)網(wǎng)絡(luò),在LFW數(shù)據(jù)集上獲得了99.13%的人臉認證準確率。同年,谷歌團隊提出的網(wǎng)絡(luò)結(jié)構(gòu)GoogLeNet,F(xiàn)lorian等[4]通過應(yīng)用LFW的面部數(shù)據(jù)達到了99.63%的準確率,而在YouTube Faces DB的數(shù)據(jù)中,也取得了95.12%的準確率;ResNet網(wǎng)絡(luò)是在2015年由微軟實驗室中的何凱明等提出,斬獲當年ImageNet競賽中分類任務(wù)第一名,目標檢測第一名。獲得COCO數(shù)據(jù)集中目標檢測第一名,圖像分割第一名[5]。在畜牧業(yè)領(lǐng)域,豬作為我國存欄量最多的家畜相關(guān)研究也比較豐富,Wada等[6]應(yīng)用特征空間算法對豬眼部周圍的面部進行識別,在8個分類的情況下達到了97.0%的識別率,在16分類中又提高了0.9%的識別率,最終得出了8分類即可勝任分類問題及豬眼周圖像是識別的關(guān)鍵所在的結(jié)論。Hansen等[7]使用了卷積神經(jīng)網(wǎng)絡(luò)用于牧場豬只識別及動物福利待遇檢測,取得了超過90%的準確率。Marsot等[8]在農(nóng)場條件下通過建立的淺層卷積神經(jīng)網(wǎng)絡(luò)自動檢測到10 頭豬并生成高質(zhì)量圖像,之后運用深層CNN網(wǎng)絡(luò)進行分類,取得了83% 的準確率。何嶼彤等[9]通過結(jié)合SPP單元的方式對基于YOLOv3的豬臉檢測系統(tǒng)進行了改進,平均精度為90.18%,相較原始YOLOv3精度提升了9.87%。秦興等[10]以VGG-16網(wǎng)絡(luò)提取特征,基于現(xiàn)有的雙線性卷積神經(jīng)網(wǎng)絡(luò)(Bilinear-CNN),在200頭豬的2 110張測試圖像集中,識別準確率達到95.73%。吳夢茹等[11]建立基于GoogLeNet、ResNet、SE-ResNet、DenseNet的4種不同深度學習模型的豬臉識別方法。通過對建立的4種模型性能進行對比,結(jié)果表明,DenseNet模型的性能最優(yōu)。在牛面部識別方面,Kim等[12]鑒于以往牛特征識別研究大多針對有花紋特征的荷斯坦牛的現(xiàn)狀,開發(fā)了針對12頭黑毛和牛分類算法,該算法可以在-30~+30度的亮度、-20~+40度的失真、0~60%的噪聲和-20~+30°的角度變換圖像的范圍內(nèi)實現(xiàn)100%識別。Cai等[13]通過應(yīng)用局部二值模式(Local Binary Patterns) 算法,取得了對牛面部圖像的95.2%的識別率。Kumar等[14]把各種特征提取算法和特征降維算法與不同的分類器模型結(jié)合,基于原有神經(jīng)網(wǎng)絡(luò)進行了改進。趙凱旋等[15]對美國荷斯坦奶牛的軀干部特征進行視頻采集,并對其二值圖像進行分段跨度分析,結(jié)果表明,在訓練次數(shù)為10次時,代價函數(shù)收斂至0.006 0,視頻段樣本的識別率為93.33%,單幀圖像樣本的識別率為90.55%。Shuang等[16]利用Keras深度學習框架設(shè)計了基于VGG網(wǎng)絡(luò)改進的牛臉識別的網(wǎng)絡(luò)模型C_F_R NET,實現(xiàn)了對西門塔爾牛98.6%的識別準確率。在羊只識別方面,尚誠等[17]采集了26只薩能奶山羊的全身圖像,采用ResNet18網(wǎng)絡(luò)預(yù)訓練模型并進行遷移學習,最后聯(lián)合三元組損失函數(shù)與交叉熵損失函數(shù)進行參數(shù)調(diào)整,識別的最高精準度為93.077%;張宏鳴等[18]基于改進MobileFaceNet的羊臉識別算法,在羊臉識別上,ECCSA-MFC模型在開集驗證中識別率可達88.06%,在閉集驗證中識別率可達96.73%;魏斌等[19]選取薩能奶山羊數(shù)據(jù)集616張正面羊臉作為訓練集及198張正面羊臉作為測試集時,VGGFace預(yù)訓練模型的識別準確率可達91%以上。甚至在植物識別領(lǐng)域,都有著較為成熟的應(yīng)用,趙艷杰使用殘差網(wǎng)絡(luò)(Residual Network)即“ResNet34”作為基本網(wǎng)絡(luò)提出基于殘差網(wǎng)絡(luò)ResNet34的植物圖像分類識別模型,通過實驗驗證本文方法有效性,在草原藥用植物圖像數(shù)據(jù)集上達到96.8%的訓練準確率和86.3%的驗證準確率。使用遷移學習加速網(wǎng)絡(luò)訓練,網(wǎng)絡(luò)訓練準確率達到98.2%[20]。
以上研究表明,深度學習在非接觸生物特征識別方面有著極高的現(xiàn)實應(yīng)用意義,作為當前人工智能領(lǐng)域的熱門方向,深度學習的分類問題在圖像識別領(lǐng)域的應(yīng)用伴隨著計算機神經(jīng)網(wǎng)絡(luò)研究進一步深入,正表現(xiàn)出勃勃的生命力。然而,馬作為我國畜牧業(yè)的重要組成部分,針對這一家畜類型的面部識別神經(jīng)網(wǎng)絡(luò)訓練的研究卻鮮有提及。通過采用計算機視覺設(shè)計的無接觸識別方式相較傳統(tǒng),不僅能有效減少對馬匹的傷害,避免應(yīng)激等現(xiàn)象發(fā)生,提高動物福利,而且還具有更高的識別效率和準確率,從而杜絕欺詐現(xiàn)象的發(fā)生。基于此,通過應(yīng)用現(xiàn)有神經(jīng)網(wǎng)絡(luò)實現(xiàn)對馬匹的個體進行識別鑒定具有可行性和現(xiàn)實價值。
本文綜合分析了前人的研究成果,選取了DenseNet、EfficientNet、MobileNet、ResNet 4個在圖像識別表現(xiàn)出眾的神經(jīng)網(wǎng)絡(luò)模型,并基于這4種不同的神經(jīng)網(wǎng)絡(luò)模型,以所采集的馬面部圖像進行訓練,最后對不同深度學習模型的測試結(jié)果進行比較,以期為馬生產(chǎn)養(yǎng)殖環(huán)節(jié)中個體識別提供一個思路和方法。
2" 數(shù)據(jù)集制作
2.1" 數(shù)據(jù)采集
本文的圖像數(shù)據(jù)采集自河北唐山萬駿溫血馬繁育基地,拍攝對象為隨機選取的13匹成年溫血馬,圖像采集設(shè)備為索尼26mmf/1.8光圈鏡頭。選取天氣晴好的日子,在中午和下午以快速連拍的方式從不同角度不同距離對馬面部進行拍照,與此同時,為保證馬匹個體識別的實用性,提高識別系統(tǒng)的魯棒性,采集過程中盡可能貼近自然環(huán)境,充分考慮到了鬃毛等遮擋面部、不同光線環(huán)境的情況。每匹馬采集近300張照片,分辨率為3 024×4 032。原始數(shù)據(jù)量采集情況見表1。
2.2" 數(shù)據(jù)縮放
為適應(yīng)訓練模型的輸入大小,將 3 024×4 032像素大小的圖片按比例縮放為384×512像素大小的圖片等待進一步處理。
2.3" 數(shù)據(jù)擴充
海量的圖像數(shù)據(jù)是訓練神經(jīng)網(wǎng)絡(luò)的關(guān)鍵,由于當前缺乏針對馬面部識別的特化數(shù)據(jù)庫,而本次實驗所采集的初始數(shù)據(jù)較少,難以滿足訓練的需要,因此需要對原有數(shù)據(jù)進行增廣以提高神經(jīng)網(wǎng)絡(luò)的識別率。在實際的養(yǎng)殖生產(chǎn)中,馬匹圖像的采集會受到其自身運動及光照、遮擋等環(huán)境因素的影響,很難保證面部出現(xiàn)在圖像中呈居中對齊的姿態(tài),采用pillow庫對原始圖像進行微調(diào),來實現(xiàn)對數(shù)據(jù)的增強便十分有必要。本文所采用的圖像變換方式包括針對X軸和Y軸的錯切操作、針對X軸和Y軸的平移操作、旋轉(zhuǎn)操作、色調(diào)分離、曝光、對比度調(diào)整、亮度調(diào)整和轉(zhuǎn)置等操作,對原始數(shù)據(jù)進行隨機變換,每次加載數(shù)據(jù)前都有一半左右的機會進行增廣,最終會有大約5倍于原始數(shù)據(jù)的增廣量。
2.4" 數(shù)據(jù)集劃分
訓練集,顧名思義是用來訓練神經(jīng)網(wǎng)絡(luò)模型的,為了使欲求得的函數(shù)更好地契合馬個體分類問題,需要運用訓練集進行不斷地訓練來減少泛化誤差;與此同時,在訓練的過程中,模型結(jié)構(gòu)和超參數(shù)需要不斷地調(diào)整,驗證集可以查看其設(shè)置的是否恰當,以確保訓練過程的優(yōu)化;測試集用來評估模型的最終泛化能力。本次實驗訓練集、驗證集及測試集的分配比例為3∶1∶1。
3" 神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)
3.1" 神經(jīng)元
神經(jīng)網(wǎng)絡(luò)的基本組成單位是神經(jīng)元,神經(jīng)元的數(shù)學表達式可以表示為
式中:y是輸出單元;f是非線性可微激活函數(shù),激活函數(shù)的參數(shù)是所有輸入單元xi及閾值。輸入xi可以是數(shù)據(jù)輸入值,也可以是其他單元的輸出。
3.2" 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
由于CNN具有好的容錯能力、并行處理能力和自學習能力,可處理環(huán)境信息復(fù)雜,背景知識不清楚,推理規(guī)則不明確情況下的問題,允許樣品有較大的缺損、畸變,運行速度快,自適應(yīng)性能好,具有較高的分辨率。因此卷積神經(jīng)網(wǎng)絡(luò)是計算機視覺圖像分類任務(wù)中廣泛采用的一種模型,卷積神經(jīng)網(wǎng)絡(luò)是一類包含卷積計算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò),由輸入層、隱藏層和輸出層組成。輸入層主要用于輸入圖像信息的獲取;隱藏層主要進行特征提取然后調(diào)整權(quán)重;輸出層則用來對接隱藏層并將模型結(jié)果進行輸出[21]。在本文中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
本文將在同一數(shù)據(jù)集下建立基于DenseNet、EfficientNet、MobileNet、ResNet的4種模型,探索較優(yōu)的馬面部識別方法。
3.3" 模型結(jié)構(gòu)
3.3.1" DenseNet
2017年Gao等[22]提出DenseNet(Dense Convolutional Network)網(wǎng)絡(luò)結(jié)構(gòu),其以前饋的方式(feed-forward fashion)將每個層與其他層連接起來,在經(jīng)典積神經(jīng)網(wǎng)絡(luò)中,對于L層的網(wǎng)絡(luò)具有L個連接,而在DenseNet中,會有L(L+1)/2個連接,每一層的輸入來自前面所有層的輸出,其神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。和以往CNN結(jié)構(gòu)相比,DenseNet具有減輕梯度消失、加強特征傳遞、鼓勵特征再用和參數(shù)量較少的優(yōu)點。
3.3.2" EfficientNet
EfficientNet是Tan等[23]于2019年發(fā)布的神經(jīng)網(wǎng)絡(luò)算法,該算法的網(wǎng)絡(luò)結(jié)構(gòu)見表2。一般而言,放大卷積神經(jīng)網(wǎng)絡(luò)是提高精度的常用做法,目前通用的幾種方法是放大CNN的深度、寬度和輸入圖片分辨率。該算法復(fù)雜網(wǎng)絡(luò)的量化調(diào)整能力能夠獲得對特定需求的最優(yōu)網(wǎng)絡(luò)參數(shù),使網(wǎng)絡(luò)在提高識別準確率的同時還具備了網(wǎng)絡(luò)規(guī)模的優(yōu)勢。
3.3.3" MobileNetV2
在神經(jīng)網(wǎng)絡(luò)的訓練中,數(shù)據(jù)在卷積層消耗的時間最多,因此基于“木桶效應(yīng)”,神經(jīng)網(wǎng)絡(luò)的的訓練速度可以通過提高卷積層的運算效率來實現(xiàn)。Google于2016提出MobileNet網(wǎng)絡(luò)的初代版本,作為一款輕量化神經(jīng)網(wǎng)絡(luò),其主要創(chuàng)新點在于深度可分離卷積,而整個網(wǎng)絡(luò)實際上也是深度可分離模塊的堆疊,然而MobileNetV1結(jié)構(gòu)過于簡單,無法對圖像特征復(fù)用,難以進行特征融合,同時在處理低維數(shù)據(jù)(比如逐深度的卷積)時,relu函數(shù)會造成信息的丟失。針對其存在的問題,Google于2018年發(fā)布了MobileNetV2,相比之前版本去掉了第二個PW的激活函數(shù)改為線性激活同時在DW卷積之前新加了一個PW卷積,同時保留了V1版本的深度可分離卷積,其網(wǎng)絡(luò)結(jié)構(gòu)見表3。
3.3.4" ResNet
在神經(jīng)網(wǎng)絡(luò)發(fā)展初期,人們普遍認為學習效果與神經(jīng)網(wǎng)絡(luò)的深度呈正相關(guān),然而在實際訓練中發(fā)現(xiàn),在卷積層和池化層數(shù)量的疊加過多后,出現(xiàn)了梯度消失、梯度爆炸以及退化問題。基于解決上述問題的目的,何凱明等人于2015年在Microsoft實驗室研發(fā)出ResNet網(wǎng)絡(luò),BN(Batch Normalization)層被提出用于解決梯度消失和爆炸問題;與此同時為了解決退化問題,人為地讓神經(jīng)網(wǎng)絡(luò)某些層跳過下一層神經(jīng)元的連接,來達到弱化每層之間的強聯(lián)系的作用,這一結(jié)構(gòu)被定義為residual結(jié)構(gòu)。ResNet網(wǎng)絡(luò)結(jié)構(gòu)的原始網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示[24],本文僅采用50層和101層2種不同深度。
4" 運行環(huán)境配置
本文中實驗所用到的計算機硬件配置為AMD 5950X處理器,16核心32進程,主頻3.4 Ghz,內(nèi)存為32 GB;GPU為Nvidia GeForce RTX3090,顯存容量為24 GB。操作系統(tǒng)為Windows10 64位專業(yè)版,在pycharm環(huán)境下應(yīng)用pytorch進行編譯。
5" 模型訓練結(jié)果
本文通過建立混淆矩陣來衡量不同神經(jīng)網(wǎng)絡(luò)模型的性能優(yōu)略。各模型測試的混淆矩陣如圖4所示。通過對比混淆矩陣可得:ResNet在訓練結(jié)束后對于13組馬面部圖像分類效果最好,其中101層的ResNet要優(yōu)于50層的訓練結(jié)果。計算不同模型在混淆矩陣中表現(xiàn)的準確率、精確率、召回率參數(shù)可得表4的參數(shù),其中ResNet101在對13類馬面部數(shù)據(jù)分類時的準確率、精確率、召回率及調(diào)和指標分別為0.935、0.944、0.929及0.932,明顯優(yōu)于其他幾種模型。綜上所述,ResNet101在測試結(jié)果上的表現(xiàn)超過其他模型,能夠基本實現(xiàn)馬面部分類問題。
表4" 不同模型的準確率、精確率、召回率及調(diào)和指標
6" 結(jié)論
1)計算機視覺已經(jīng)在畜牧業(yè)精準化養(yǎng)殖中個體識別領(lǐng)域得到了廣泛的研究和應(yīng)用,同時傳統(tǒng)的識別方式難以滿足現(xiàn)代馬業(yè)健康發(fā)展的需求,因此開發(fā)基于深度學習的馬面部識別系統(tǒng)具有可行性和必要性。
2)基于目前馬面部數(shù)據(jù)庫不足的情況,通過原始數(shù)據(jù)的擴充可以有效提高神經(jīng)網(wǎng)絡(luò)的擬合度。
3)在不改變現(xiàn)有神經(jīng)網(wǎng)絡(luò)初始結(jié)構(gòu)的情況下,101層的ResNet模型在馬面部分類問題的解決中表現(xiàn)最優(yōu),可以為后續(xù)研究中神經(jīng)網(wǎng)絡(luò)的選取提供參考。
參考文獻:
[1] 芒來,白東義.內(nèi)蒙古自治區(qū)馬業(yè)現(xiàn)狀分析[J].北方經(jīng)濟,2019(11):20-25.
[2] 錢建平,楊信廷,吉增濤,等.生物特征識別及其在大型家畜個體識別中的應(yīng)用研究進展[J].計算機應(yīng)用研究,2010,27(4):1212-1215.
[3] PARKHI O M, VEDALDI A, ZISSERMAN A. Deep face recognition[C]// Proceedings of the British Machine Vision Conference, Swansea, UK, 2015:41.1-41.12.
[4] FLORIAN S, DMITRY K, JAMES P. FaceNet:AUnified embedding for face recognition and clustering[J]. CoRR,2015,abs/1503.03832.
[5] H K M, ZHANG X Y, REN S Q, et al. Deep residuallearning for image recognition[C]// IEEE Conferenceon Computer Vision and Pattern Recognition, Las Vegas, NV, USA. IEEE, 2016:770-778.
[6] WADA N, SHINYA M, SHIRAISHI M. Pig face recognition using eigenspace method [J]. ITE Trans.Media Technol. Appl, 2013,1(4):328-332.
[7] HANSEN M F, SMITH M L, SMITH L N, et al. Towards on-farm pig face recognition using convolutional neural networks [J]. Computers in Industry, 2018,98:145-152.
[8] MARSOT M, MEI J, SHAN X, et al. An adaptive pig face recognition approach using ConvolutionalNeural Networks [J]. computers and Electronics in Agriculture, 2020,173:105-112.
[9] 何嶼彤,李斌,張鋒,等.基于改進YOLOv3的馬臉識別[J].中國農(nóng)業(yè)大學學報,2021,26(3):53-62.
[10] 秦興,宋各方.基于雙線性卷積神經(jīng)網(wǎng)絡(luò)的馬臉識別算法[J].杭州電子科技大學學報:自然科學版,2019(2):12-17.
[11] 吳夢茹,謝秋菊,李欣,等.基于深度學習的馬臉識別方法研究[J].智慧農(nóng)業(yè)導刊,2021,1(9):1-8.
[12] KIM H T, CHOI H L, LEE D W, et al. The identification of japanese blackcattle by their Faces [J]. Asian-Australasian Journal of Animal Sciences, 2005(8):1194-1198.
[13] CAI C, LI J. Cattle face recognition using local binary pattern descriptor, In, Signal and information processing association summit and conference[C]// Kaohsiung:IEEE,2014:1-4.
[14] KUMAR S, TIWARI S, SINGH S K. Face recognition of cattle: Can it be Done?[J].Proceedings of the National Academy of Sciences India, 2016,86(2):137-148.
[15] 趙凱旋,何東健.基于卷積神經(jīng)網(wǎng)絡(luò)的奶牛個體身份識別方法[J].農(nóng)業(yè)工程學報,2015(5):181-187.
[16] SHUANG L, XUE M L, ZHENG L. Face" recognition" basedon improved multiscale convolutional neural" network[C]//2020 International Conferenceon Computing, Networksand Internet of Things (CNIOT2020).
[17] 尚誠,王美麗,寧紀鋒,等.聯(lián)合損失優(yōu)化下的高相似度奶山羊身份識別[J].中國圖象圖形學報,2022,27(4):1137-1147.
[18] 張宏鳴,周利香,李永恒,等.基于改進MobileFaceNet的羊臉識別方法[J].農(nóng)業(yè)機械學報,2022,53(5):267-274.
[19] 魏斌,MASUM B,王美麗,等.基于深度學習的羊臉檢測與識別方法[J].家畜生態(tài)學報,2022,43(3):47-50.
[20] 李雅婷.基于殘差網(wǎng)絡(luò)的植物分類識別方法研究與實現(xiàn)[D].呼和浩特:內(nèi)蒙古大學,2021.
[21] BIZHANI M,ARDAKANI O H,LITTLE E. Reconstructing high fidelity digital rock images using deep convolutional neural networks[J]. Scientific Reports,2022,12(1):4264.
[22] GAO H, ZHUANG L, KILIAN Q. Weinberger. Densely connected convolutional networks[J].CVPR,2018:1608.06993v5.
[23] TAN M X,QUOC V L." EfficientNet: Rethinking model scaling for convolutional neural networks[J]. CoRR,2019,abs/1905.11946.
[24] 梁浩鵬,曹潔,趙小強.基于GADF和PAM-Resnet的旋轉(zhuǎn)機械小樣本故障診斷方法[J/OL].控制與決策:1-8[2022-08-04].