


作者簡介:李歡,工程師;研究方向:人工智能與機器視覺在檢測設備研發中的應用、設備精度與自動化水平的提升。
關鍵詞:紙張塵埃度;卷積神經網絡(CNN);機器視覺;圖像處理中圖分類號:TS77;TP391.41 文獻標識碼:A DOI: 10.11980/j.issn.0254-508X.2025.08.020
Designand Research of Paper Dirt Determination System Based on Convolutional Neural Network andMachineVision
LI Huan*LI Liang (Wuhan Product Quality Testing Institute Co.,Ltd.,Wuhan,Hubei Province,430048) (*E-mail:lihuanWHQT@163.com)
Abstract:Thisstudydesigedapaperdirtdeterinationsystembasedonconvolutionalneuralnetwork (CN)andmachinevisionThesystemwasconstructedwithtwomodules,modeltrainingandtesting.Highresolutionsannerswereusedtoobtaindirtdatasetsandiagesf papersamples.Dieretoptimzatioalgors wereapldtotainteclasificatiomodel,andadagonalmeasurntalgorwas adopted.Asandarddirtpieltableasceaedfgradgandlasifatiosatists,erbycalulatingthdirthsultssodat the precision of the system could reach 0.007mm2 ,which was better than the requirement specified in GB/T 1541—2O13“Paper and board—Determination of dirt\".The classification precision reached 95. 89 % ,enabling full-range determination of various paper products.The repeatabilitydetermiationerorofasinglesapleasO.Compadwitmaualdetetiontesingesapledetectiontestigtieofteste was reduced by about 97% ,realizing efficient and accurate detection of dirt in paper products.
ey words: paper dirt;convolutional neural network (CNN);machine vision;image processin{
紙張塵埃度是判定紙張外觀質量的關鍵指標之一,及時將紙張塵埃度的檢驗結果反饋給生產企業人員,有助于追溯生產環節,改善工藝流程。現行標準GB/T1541—2013《紙和紙板塵埃度的測定》中已給出詳細的塵埃度測定方法。
目前,主流的紙張塵埃度檢測方式有2類。一類是人工目視檢測法,該方法需在特定光照條件下,對每張紙張樣品上的塵埃進行逐一分類,根據不同的類別進行定級,最后完成標記和記錄工作。此方法主觀性強、效率低,且難以識別檢測面積小于 0.05mm2 的塵埃。另一類是基于機器視覺的檢測法,閆東波等2]提出運用計算機檢測紙張塵埃度,但檢測過程中需要手動選擇測量區域,未實現全流程自動化。程江娜等運用視覺系統作紙張塵埃度的定量分析,但未實現塵埃自動分類定級。
在紙張生產過程中,會產生在塵埃度檢測中被判定為塵埃的紙病,如顏色與紙張主體不同的斑點、孔洞周邊的纖維碎屑或因生產問題附著的雜質等。紙病的存在會影響紙張塵埃度的檢測精度,需要研究人員提高對紙病的識別與檢測。高樂樂等使用卷積神經網絡(CNN)進行深層次特征提取紙病辨識;曲蘊慧等通過改進VGG16網絡,提高了紙病識別效率及精度;湯偉等不斷改進診斷算法,提升了紙病檢測分類速度;顧文君等使用MobileNet模型算法,提升了紙病檢測效率和準確性。
本研究參考深度學習在紙病辨識領域的應用及結合機器視覺技術,設計了一種基于模型訓練和檢驗2個模塊構建的紙張塵埃度測量系統,旨在提升紙張塵埃度檢測的精度、提升自動化水平。
1測量系統概述
1.1測量系統的架構設計
本研究設計的紙張塵埃度測量系統架構包括模型訓練和檢驗2個模塊,架構圖如圖1所示。
模型訓練模塊是基于CNN構建,用以提高紙張塵埃分類準確率。人工智能訓練師根據標準塵埃圖,通過掃描儀制作塵埃數據集,使用TensorFlow開源深度學習框架,搭建合適的CNN模型并訓練,實現塵埃形狀的精準分類。在塵埃度測量系統投入運行后,利用本機存儲的實際樣本塵埃圖集,對模型二次訓練,再次提升準確率。
檢驗模塊基于機器視覺技術構建,可自動檢測。檢驗員按照GB/T450—2008《紙和紙板試樣的采取及試樣縱橫向、正反面的測定》制作試樣,放置到掃描儀中,運行內置OpenCV開源計算機視覺庫的塵埃度測試軟件,自動生成試樣圖片、切割塵埃圖片、測量塵埃像素值、計算塵埃度并生成檢驗報告,進一步反饋給生產人員。
1.2 系統測量精度
本設計選用9000F掃描儀(日本佳能公司),其反射稿光學分辨率高達 4800dpi×4800dpi ,理論最小檢測面積為 2.8×10-5mm2 。然而在實際掃描過程中,受像差、噪聲及掃描儀內部圖像處理算法無法分辨低于1個像素因素的影響,最小檢測面積偏大。以復印紙為待測樣,切取4張長度約 214mm 、寬度約293mm 的試樣,通過高分辨率掃描儀掃描后,每張試樣分別得到分辨率為2522像素 ×3504 像素的圖片,按照式(1)計算得到最小檢測面積,為 0.007mm2 。本測量系統所獲取的圖像清晰,測量精度滿足GB/T1541—2013《紙和紙板塵埃度的測定》規定的要求(最小檢測面積 0.05mm2 )。

式中, Smin 表示最小檢測面積, mm2 : L 和 W 分別表示試樣的長度、寬度, mm ; M 和 N 分別表示掃描圖片的長度像素數值、寬度像素數值。
2基于CNN的塵埃圖像分類模型設計
2.1CNN塵埃圖像分類過程
2.1.1 圖像輸入與數據增強
塵埃訓練集采用分辨率為128像素 ×128 像素的RGB彩色圖片,使用維度矩陣[高度(h),寬度 (w) ,通道數(c)]表示,圖片即為[128,128,3],這里的3表示R、G、B3個顏色通道,每個像素點分別存儲
圖1塵埃度測量系統架構圖
Fig.1Architecturediagram of thedirtmeasurement system

3個顏色通道的強度值。
塵埃的色彩多以暗色為主,采用線性變換的方式增加亮度,可使塵埃的輪廓更加清晰,利于后續提取特征。首先,將RGB圖像轉換為HSV圖像,轉換式見式(2)。通過設置系數 k 對亮度值進行調整,計算見式(3)。為避免調整后的亮度值超出正常范圍,需進行截斷處理,計算見式(4)。



式中, IHSV(x,y) 為1副圖像在HSV顏色空間下的數值,其中 H 表示色調, s 表示飽和度, V 表示亮度。
最后,將調整后的
再轉換回RGB空間。對圖像亮度的調整,僅會改變其像素值,圖像的矩陣維度仍為[128,128,3],如圖2所示。
2.1.2 塵埃特征提取
卷積層的作用是對圖像進行特征提取,在圖像的n 個通道中,每個通道均配置1個權重參數各異、大小為 k 像素 ×k 像素的矩陣塊(即卷積核)。這些卷積核維度為 [k,k,n] ,與圖像矩陣進行卷積運算,通過卷積核在輸入數據上滑動相乘求和,提取塵埃在水平、垂直、線條及邊界等不同特征,生成塵埃特征圖。該特征圖與通道數量 n 相同,維度矩陣表示為 [h,w,n] 如特征圖維度矩陣[124,124,64],表示有64張124像素 ×124 像素的特征圖隨后輸入到池化層。
池化層的作用是對特征圖進行下采樣,降低數據維度,減少計算量。池化層使用大小為 p 像素 ×P 像素的矩陣塊(即池化窗),進行最大池化或者平均池化運算,以保留主要特征。如當池化窗設置為2像素 x 2像素,步長為2時,得到的特征圖維度矩陣變為[h/2,w/2,n]
經過多個卷積-池化對后,特征圖中每個元素按照一定順序展平為一維向量。
2.1.3 塵埃分類
長度為 g 的一維向量進入全連接層后,每個元素都與全連接層中的 m 個神經元相連,并進行線性變換。權重矩陣表示連接強度,矩陣維度為 [g,m] ;偏置矩陣用于引入額外的學習參數,矩陣維度為 [m,1] 通過將輸入向量與權重矩陣進行矩陣乘法運算,加上偏置矩陣的值,經過線性公式計算后,輸出1個長度為 m 的一維向量。
全連接層之后接人Softmax層,Softmax激活函數是一種將多個輸入值轉換為對應概率分布的函數,最終輸出18個塵埃類別中最大概率值所對應的類別標簽。
2.2網絡架構搭建策略
本架構融合了分類領域的經典模型LeNet和AlexNet,其中LeNet的結構簡潔、計算高效,AlexNet的特征提取能力強。網絡結構及參數設置如表1所示。
本架構具有收斂速度快、防止過擬合、泛化能力強的3條優點。
1)收斂速度快
卷積層全部采用ReLU激活函數,加快模型收斂速度,函數表達式如式(5)所示。
Yi,j,k=max(0,Xi,j,k)
式中, Xi,j,k∈Rh?w?c 為塵埃特征圖 [h,w,c] 第 i 行、第j 列、第 k 個通道的元素。當 Xi,j,kgt;0 時,函數輸出 Yi,j,k 等于輸入值本身,此時神經元處于激活狀態;當 Xi,j,k ?0 時,函數輸出為0,用以增強重要特征的表達能力,有效緩解因連乘運算梯度在傳播中越來越小,導致的梯度消失問題。
圖2塵埃圖像分類過程
Fig.2Classification process of dirt image

Table1Network structure and parameter settings

2)防止過擬合
最后一個全連接層引入L2正則化,限制全連接層權重矩陣的大小,防止模型過擬合產生。當權重較大時,模型會對輸人數據敏感,從而過度捕捉訓練數據里的噪聲。通過正則化的約束,模型的擬合曲線波動變小,更加平滑。
3)泛化能力強
2個全連接層中間加入1個Dropout層,提高模型的泛化能力。在每次訓練迭代中,會生成不同的掩碼向量 dl-1 ,該向量包含某些為0的元素。第一個全連接層的輸出向量 al-1 中的每個元素,與 dl-1 進行逐元素相乘。結果為0的對應輸出,不會參與下一個全連接層計算。一定比例的神經元被丟棄,打破了神經元間的依賴關系。
2.3模型訓練與評估
2.3.1 數據集的搭建
本設計旨在訓練1個對18種標準塵埃分類的CNN網絡。對標準塵埃圖進行數據增強(旋轉角度)后,共生成1340張分辨率為128像素 ×128 像素的圖片。圖像標注后,按照 7:3 劃分訓練集和測試集。塵埃數據集樣本如圖3所示。
2.3.2 模型評估
本設計選用多分類任務中常用的分類交叉熵損失函數 (L) ,用于預測結果與真實標簽之間的差異,計算見式(6)。
圖3塵埃數據集樣本
Fig.3Samples of the dirt dataset


式中, N 表示類別數; ti 表示真實標簽; yi 表示預測概率。
在模型訓練過程中,隨著損失函數 (L) )值的逐漸減小,意味著預測結果越接近真實類別標簽。
2.3.3模型訓練與調參
使用Adam、RMSprop、指數衰減學習率的RM-Sprop3種優化算法來訓練模型,以準確率和損失值作為評估指標衡量模型性能,結果如表2所示。由表2可知,指數衰減學習率的RMSprop算法在訓練塵埃分類模型表現最好,具有最小的損失值和較高的準確率。
表2不同優化算法的性能比較
Table2Performancecomparisonofdifferentoptimization algorithms

在此優化算法基礎上,對超參數進行調整最終設置:學習率的初始值為0.001,學習率衰減的周期步數為1000,學習率的衰減率為 0.95 。經過300輪訓練后,模型的準確率達 95.89% 。
3圖像處理算法設計
3.1對角線測量算法
本算法用于實現塵埃任意角度呈現時的統一度量,基于數字圖像旋轉過程中,圖形對角線長度不變的原理設計。假設1個矩形塵埃,其頂點坐標矩陣
圍繞原點旋轉角度 θ ,旋轉矩陣
則旋轉后的坐標矩陣 P′=R?P.
原圖對角線長度為 d ,計算見式(7)。旋轉后圖形對角線長度為 d′ ,計算見式(8)。

經化簡
,得到結論 d=d′ ,即無論塵埃以何種角度呈現,其對角線長度保持始終不變。
為進一步驗證,以1張由系統切割的分辨率33像素 ×42 像素塵埃圖為例。在原圖狀態下測得對角線長度為16.40像素;圖片順時針旋轉 75° 后,測得對角線長度為16.97像素;圖片逆時針旋轉 45° 后,測得對角線長度為16.12像素,只存在亞像素級別的誤差,如圖4所示。
3.2標準塵埃像素表
像素表用于將塵埃定級的工作轉換為查值,采用亞像素邊緣檢測算法,利用圖像像素之間的插值、邊緣增強等技術,保障了系統精度。該邊緣檢測方式在Canny算法的基礎上調整了閥值范圍,將高閾值設置為100,低閾值設置為30,用以更好地適應塵埃圖像。塵埃輪廓繪制完成后,再使用對角線測量法進行像素值的測量,測量過程如圖5所示。
將全部形狀、等級的標準塵埃測量,結果匯總生成像素查值表,詳見表3。
4塵埃度測試軟件
4.1 軟件功能架構
基于Python語言,PyCharmCommunityEdition開發的塵埃度測試軟件,包括用戶界面模塊、塵埃分類模塊、圖像處理模塊、數據處理模塊。用戶界面模塊中的“檢測結果”界面(圖6),設計簡潔,包括3個子頁面。“檢測結果”頁與檢驗報告格式一致,設計直觀;“結果顯示”頁具備圖片放大功能,交互感良好;“試驗方法”頁用于新建、修改判定依據,擴展性強。塵埃分類模塊是用于完成分類模型調用的模塊。圖像處理模塊集成塵埃識別與輪廓標記,圖像分割,對角線像素測量等功能。數據處理模塊完成像素表查值,塵埃度計算,生成詳細的檢測報告,并在將檢驗過程中產生的塵埃圖集存儲,為后續模型再訓練提供新的數據集。
圖4對角線測量法結果
Fig.4Results of the diagonal measurement method


圖6檢測結果界面示意圖
Fig.6Schematicdiagramof thedetectionresult interface

Table3Pixellookuptableofpartialstandarddirt

4.2多類別紙品測試分析
為驗證本軟件的適用性,本研究設計了多品類、多色彩紙品的綜合性測試。首先,根據全木漿、進口原紙等原料類別,白、綠、紅等色彩分類,設計5組實驗。然后,參照GB/T450—2008《紙和紙板試樣的采取及試樣縱橫向、正反面的測定》,每組紙品各取樣10張(定量 69.9~81.1g/m2, ,進行制樣及試樣掃描。最后,使用本測試軟件自動完成塵埃度測量、塵埃度等級判定、每個塵埃輪廓標注、塵埃圖片切割操作。
表4為多品類紙品測試結果。由表4可知,本系統使用高清掃描儀獲取圖片試樣,測試過程不受光線干擾,在5類紙品上進行了精準檢測,判定結果符合行業標準。與人眼識別易受光線難易辨識色彩,受疲勞度影響相比,本軟件更具適用性。
表4多品類紙品測試結果 Table 4Test results of multi-category paper products

4.3性能分析
4.3.1 測量范圍
為驗證本軟件的測量范圍,本研究進行了廢紙漿箱紙板塵埃度測試,結果如表5所示。箱紙板的原料來源復雜,含大尺寸的塑料片、中等體積的纖維團、殘留的顏料顆粒,以及微小的細菌等雜質,因此其雜質多樣性,能有效驗證本軟件對不同類型、不同等級塵埃的識別能力。
表5廢紙漿箱紙板測試結果
Table5Test resultsof recycled pulp liner board

依據GB/T13024—2016《箱紙板》,微粒徑不計入塵埃度計算。由表5可知,樣本塵埃度為1804個 ?/m2 其中小粒徑塵埃( ([0.2,1.0]mm2) )占比 74.0% 。本軟件能夠依據GB/T1541—2013《紙和紙板塵埃度的測定》,實現對(0.05~5.0級)塵埃度的全量程測量,適用于高塵埃度、中小粒徑塵埃占比較高的檢測場景。
4.3.2 重復性
為驗證本軟件的重復性,本研究進行了廢紙漿瓦楞芯紙塵埃度測試。由于瓦楞芯紙的表面相比箱紙板更加粗糙,滿布凹凸不平的瓦楞紋路,這種構造會影響光線的反射和散射,增加了塵埃度測量的難度。
對同一組試樣,進行3次重復實驗。結果表明,除在單樣本識別用時稍有差異,各個等級的塵埃數量相同、塵埃度均為18984個 ?/m2 。每組實驗切割得到的5701個塵埃圖片內容相同,原圖標注的位置完全一致,重復性測量誤差為0。以上結果表明,本軟件能夠在表面結構復雜的包裝行業,得到有效應用。
4.3.3 檢測效率
為驗證本軟件的檢測效率,本研究進行了單樣本檢測時間測試。人工檢測識別單樣本,取樣為白色復印紙,其表面平整。在不翻轉樣本、直接定位塵埃的情況下,完成塵埃位置標記需 66.4s ,取近似值60s完成識別。與之相比,本軟件對各類別樣本均能快速識別,結果見表6。由表6可知,取樣為瓦楞芯紙檢測耗時最長,接近2s( 1883ms ),檢測用時縮短了約 97% 。
表6單樣本檢測時間測試結果
Table6Testresultsofsinglesampledetectiontime

5結論
針對紙類產品塵埃度檢驗的高效、精準檢測需求,提出了一種基于模型訓練和檢驗2個模塊構建,采用卷積神經網絡(CNN)與機器視覺結合的檢測系統,改善了檢驗過程中主觀性強、自動化程度低等問題。
5.1使用高清掃描儀制樣,通過線性變換對數據集進行亮度增強處理,保證了測量精度達到 0.007mm2 優于GB/T1541—2013《紙和紙板塵埃度的測定》要求。
5.2模型構建融合LeNet和AlexNet架構,收斂速度快、防止過擬合、泛化能力強。對比Adam、RM-Sprop和指數衰減3種優化算法來訓練模型,采用指數衰減學習率的RMSprop算法訓練模型,其準確率達到 95.89% ,提高了塵埃分類能力。
5.3通過調整Canny算法的閾值范圍,實現了塵埃的亞像素測量;設計利用對角線長度旋轉不變性的算法,將塵埃定級轉化為標準像素表的查值操作,提高了定級準確性。
5.4使用不同紙張類型對軟件進行測試,本系統實現對(0.05~5.0級)塵埃度的全量程測量,軟件重復性測量誤差為0,較人工檢測用時縮短了約 97% ,實現了多類紙制品塵埃度的高效、精準測量。
參考文獻
[1]關昕,鄧華.如何解決高級技術用紙塵埃度高的問題[J].黑龍江造紙,2001,29(4):40.GUANX,DENG H.How to Solve the Problem of High Dirt Count inHigh-grade TechnicalPaper[J].HeilongjiangPulpamp;Paper,2001,29(4): 40.
[2]閆東波,何北海,謝益民.紙漿紙張塵埃度的計算機測量[J].廣東造紙,1997,95(5):92-97.YANDB,HEBH,XIEYM.Computer Measurement of Dirt CountinPulp andPaper[J].GuangdongPulpamp;Paper,1997,95(5):92-97.
[3]程江娜,武書彬,李擘.圖像法分析廢紙漿中膠黏物和塵埃的研究[J].中國造紙,2010,29(5):5-9.CHENGJN,WU SB,LI B.Image Analysis of Stickiesand DirtCountinRecycledPulp[J].ChinaPulpamp;Paper,2010,29(5):5-9.
[4]周強,陳穎,沈天宇,等.基于機器視覺的紙病檢測系統發展綜述[J].中國造紙,2016,35(5):72-79.ZHOUQ,CHENY,SHENTY,et al.Review of PaperDefect De-tection System Based on Machine Vision Technology[J]. China Pulpamp; Paper,2016,5(5): 72-79.
[5]高樂樂,周強,王偉剛.基于CNN的深層次特征提取紙病辨識方法研究[J].中國造紙學報,2019,34(4):52-58.GAOLL,ZHOUQ,WANGWG.PaperDefectsRecognitionBasedon Deep Layer Feature Extraction of CNN[J].Transactions of ChinaPulp and Paper,2019,34(4): 52-58.
[6]曲蘊慧,湯偉,成爽爽.基于深度卷積神經網絡及遷移學習的紙病分類方法研究[J].中國造紙,2021,40(10):63-70.QUYH,TANG W,CHENG S S. Paper Defects ClassificationBased on Deep Convolution Neural Network and Transfer Learning[J].China Pulpamp; Paper,2021,40(10):63-70.
[7]湯偉,劉英偉,王孟效,等.一種基于改進MaskRCNN的紙病診斷算法[J].中國造紙,2024,43(12):164-171.TANGW,LIUYW,WANGMX,etal.AnImprovedMaskRCNNBased Paper Disease Diagnosis Algorithm[J]. China Pulp amp; Paper,2024,43(12): 164-171.
[8]顧文君,譚永濤,李強,等.基于深度學習的紙病檢測系統設計與研究[J].中國造紙,2024,43(8):154-159.GUWJ,TANYT,LIQ,et al.Designand Research ofDeepLearning-based Paper Defect Detection System[J]. China Pulp amp; Paper,2024,43(8): 154-159.
[9]丁雷,杜鵬,孫志杰.基于機器視覺的亞像素邊緣檢測算法研究[J].自動化應用,2024,65(14):180-182.DING L,DU P, SUN Z J. Research on Sub-pixel Edge Detection Al-gorithm Based on Machine Vision[J].Automation Application,2024,65(14):180-182.CPP
(責任編輯:魏琳珊)