






摘要: 隨著紙機車速提升和幅寬加大,紙病出現頻率隨之上升。為根治紙病,需對其有效分類以溯源。但因部分紙病目標小、對比度低,分類效果欠佳。本課題提出了一種基于改進YOLOv7的分類方法,核心思想是在頸部網絡改良快速跨階段特征金字塔池化(SPPFCSPC) 模塊,在感受野不變前提下提升分類速度;使用空間深度卷積替換原有的“卷積+池化層”,增強對紙病的特征提取能力;通過注意力模塊(SimAM),使更多的資源集中于紙病細節,進一步提高低對比度和小目標紙病的識別效率。結果表明,本課題算法的平均精度達0. 97,實時檢測速度26. 5幀/s。相比于原YOLOv7網絡,本算法在小目標和低對比度紙病的平均精度和檢測速度方面均有明顯提升。
關鍵詞:紙病分類;小目標;YOLOv7;SPPFCSPC;SimAM
中圖分類號:TS736+. 2 文獻標識碼:A DOI:10. 11980/j. issn. 0254-508X. 2025. 03. 018
在紙張抄造過程中,受制造工藝或生產環境影響,紙張表面可能會出現不同種類的瑕疵,如孔洞、黑點、劃痕和起皺等,行業內統稱為紙病。紙病的出現會對紙張的加工性能和企業經濟效益產生一定程度的負面影響,需盡可能地克服或消除[1]。為從根源解決紙病問題,需要對紙病進行分類,為紙病溯源提供技術支持。然而,在紙病分類過程中,存在紙病與紙張圖像的尺寸比例lt;0.1 的小目標紙病[2-3],以及對比度低于10∶1 的低對比度紙病,導致分類效果欠佳。因此,如何設計一種能兼顧小目標和低對比度紙病的紙病分類方法是一個亟待解決的痛點問題。
隨著深度學習的發展,基于機器視覺的分類方法在紙病圖像分類領域備受青睞。為了解決紙病圖像分類問題,張學蘭等[4]提出了一種基于圖像變換和BP神經網絡的分類方法,利用動態雙閾值法對孔洞和臟點圖像進行預處理,通過Prewitt算子和形態學閉運算對折痕圖像進行預處理,再利用BP神經網絡對紙病圖像進行分類, 最終識別結果的平均準確率達93.8%,具有算法簡單易實現的優點;但該研究僅討論了3種紙病的分類問題,具有一定的局限性,泛化能力弱,且測試樣本僅涉及80余個紙病缺陷,樣本量較少,導致算法不具有普適性。高樂樂等[5]提出了一項采用卷積神經網絡(CNN) 的紙病識別方法,通過圖像增強和圖像分割的技術對待檢測紙病圖像進行預處理,隨后利用CNN網絡提取紙病特征,并通過Softmax層進行紙病分類,最終識別結果的辨識率為99.6%,具有分類準確率高、識別速度快的優點;但僅通過正確率對結果進行評價,評價指標單一,說服力較弱。張開生等[6]提出了一種基于改進YOLOv5的紙病分類方法,在批量歸一化模塊中引入中心化和縮放校準,在骨干網絡結構中融入坐標注意力機制,并使用CIoU_loss作為邊框回歸的損失函數,所得結果平均精度為99.0%,具有分類精度高的優點;但實驗均未采用小目標樣本,算法實用性較差。
綜上所述,上述方法在分類準確率、評價指標選擇、樣本選擇、泛化性方面均存在一定的不足。本課題受戚玲瓏等[7]使用改進YOLOv7模型對公開數據集FloWImg小目標子數據集檢測的啟發,以實現小目標、低對比度紙病分類研究為出發點,提出一種基于改進YOLOv7的小目標和低對比度紙病分類方法;同時,通過使用Pytorch平臺進行驗證,驗證本課題所提方法的有效性。
1 基于改進YOLOv7 網絡的紙病圖像分類算法
1. 1 傳統YOLOv7網絡
YOLOv7算法旨在改善目標檢測算法在速度上表現出色但精確率較低的問題,結構模型如圖1所示。輸入端使用了Mosaic數據增強技術、自適應錨框計算和圖片尺寸處理進行預處理;骨干網絡是特征提取網絡,包括3種主要模塊,分別為卷積模塊(CBS)、最大池化與卷積結合模塊(MP) 及擴展高效聚合模塊(ELAN);頸部網絡則采用了路徑融合網絡(PANet)的方式[8],將骨干網絡提取的特征層進行拼接。最終通過3組重參數化卷積(RepConv) 模塊,并結合引導式標簽分配策略,高效匹配了圖像與標簽[9];在輸出端以CIoU_loss為損失函數,優化目標邊界框,并利用非極大值抑制(NMS) 技術,以增強對多個目標框重疊情況的檢測能力,輸出結果包括預測圖像中缺陷位置和分類信息向量[10]。但傳統YOLOv7模型沒有針對小尺寸圖像的檢測層,也沒有采用針對低對比度紙病的注意力機制,存在對小目標、低對比度紙病檢測效果比較差的缺點,在實時性方面,雖然已經能夠滿足大部分生產場合,但是對于實時性要求較高的紙病分類任務還有待提高。
為解決上述問題,本課題基于YOLOv7網絡提出一種針對小目標、低對比度紙病的網絡模型,該模型首先借鑒了YOLOv5[11]中空間金字塔池化(spatial pyr?amid pooling-fast,SPPF) 的思想,對跨階段特征金字塔池化(spatial pyramid pooling with cross stage partialconnections,SPPCSPC) 模塊進行優化,得到快速跨階段特征金字塔池化(spatial pyramid pooling with fastcross stage partial connections,SPPFCSPC) 模塊,在保持感受野不變的情況下提升分類速度;其次使用空間深度卷積[12] (space-to-depth non-strided convolution,SPD-Conv) 替換原網絡中的“卷積+池化層”,提高小目標紙病的特征提取能力;最后通過添加基于相似度的注意力模塊(similarity-based attention module,SimAM),使更多注意資源側重于紙病細節,進一步提高小目標、低對比度紙病識別效率。
1. 2 傳統YOLOv7算法中SPPCSPC模塊的改進
圖2表示YOLOv5中的SPPF結構,其將3個5×5的最大池化層進行串聯,并將每一層的輸出進行融合。受此啟發,本課題將YOLOv7中的SPPCSPC模塊(圖3) 改進為SPPFCSPC 模塊(圖4),將SPPCSPC模塊中5×5、9×9、13×13 3個不同大小的最大池化并行關系更改為3個5×5的串行關系,只指定1個卷積核,每次池化后的輸出作為下一個池化的輸入,計算量從原來的((5×5)+(9×9)×(13×13))·W優化至3×(5×5)·W,其中W 代表權重,具有計算量小的優點,可以提升紙病分類速度。
1. 3 SimAM注意力機制的引入
在紙病分類過程中,相機采集到的劃痕、邊裂等紙病屬于低對比度圖像,圖像特征易受背景干擾,YOLOv7在深層卷積過程中容易丟失部分特征,造成分類結果出現漏檢或誤檢等情況,故本算法在骨干特征提取網絡中引入了SimAM模塊,不同于現有的通道(圖5(a)) 或空間注意力(圖5(b)) 模塊,僅單獨地將特征轉化為1D和2D權重;也不同于CBAM注意力[13] (圖5(c)),需要將1D和2D權重組合為3D權重,浪費時間,SimAM模塊可以在不需要額外參數的情況下推導出3D注意力權重,將其加入YOLOv7網絡中不僅不會增加網絡的復雜度,還可以提高網絡對低對比度紙病的提取能力, SimAM 結構圖如圖5(d)所示。