王博,楊洪遙,陸逢貴,陳子東,曹振霞,劉登勇,3*
1(渤海大學 食品科學與工程學院,生鮮農產品貯藏加工及安全控制技術國家地方聯合工程研究中心,遼寧 錦州,121013) 2(哈爾濱商業大學 職業技術教育學院,黑龍江 哈爾濱,150028) 3(江蘇省肉類生產與加工質量安全控制協同創新中心,江蘇 南京,210095)
熏雞作為一種典型的傳統特色煙熏肉制品,具有色澤誘人、熏香濃郁、美味適口等特點,深受消費者喜愛[1-2]。顏色、風味等是評價煙熏肉制品的重要指標,其中顏色是影響消費者購買的最重要因素,對于消費者而言,購買時,顏色更為直觀,并且在非接觸狀態下,顏色是消費者評判產品質量的重要依據,同時也是色、香、味、形中最先導的感官要素[3-5]。目前國內關于煙熏肉制品的研究主要集中在風味物質[6-7]和安全性評價等方面[2],對其顏色的識別研究鮮少涉及。煙熏肉制品一般使用果木作為熏材,與此相比,糖熏作為中國北方一種常用的煙熏方式,在肉制品中已有相關應用,如溝幫子熏雞[7]。糖熏能賦予產品與木熏相似的煙熏色澤和氣味,更為重要的是糖熏產品苯并芘含量更低、上色所需時間更短[8],但也因此導致了糖熏的顏色控制較為困難,不利于產品顏色的標準化控制,而對于糖熏顏色識別的研究幾乎未見報道。因此,研究糖熏肉制品的顏色識別方法對于精準控制其顏色,實現標準化生產具有現實意義。
目前關于煙熏肉制品顏色的識別方法大致可以分為兩類:常見的感官評價法在一定程度上可以有效識別樣品的色差,但會受到樣品相似度及評價員狀態等因素的影響,存在主觀性較強、重復性不高等問題,從而影響實驗結果的準確性[3];借助精密儀器進行測定不具備成本效益,且可能存在效率不高或者污染樣品等問題。而機器視覺技術,只需利用圖像傳感器獲取樣本的圖像,再將圖像轉換成數字信息,并利用計算機模擬人的判別準則去識別圖像,從而做出優于人眼的客觀評定[9-11]。隨著機器視覺技術的不斷發展,其圖像分析能力和識別技術被越來越多地應用于食品領域的科學研究[12],其中支持向量機(support vector machine,SVM)模型[13-15]和多層卷積神經網絡(convolutional neural networks,CNN)模型[16-18]的應用較為廣泛,且有效地解決了食品圖像微觀差異的識別問題。近年來,隨著算法進一步的提升和模型的優化,采用精簡CNN網絡結構的范式(Inception[19]、ResNet[20]和Xception[21-22])來提高機器視覺模型運行效率的方法成為主流趨勢,其中Google在2017年提出的Xception-CNN[23]模型,相對于Inception、ResNet等方法來說在體積大小和計算效率等方面有著較大幅度的優化。
本研究以糖熏技術獲取的熏雞腿為實驗樣本,基于機器視覺技術構建Xception-CNN模型,同時應用ResNet-50、Inception和傳統CNN 3種網絡模型識別熏雞腿顏色,對熏雞腿的顏色進行客觀、準確、快速的識別,并以準確率為主,輔以測試時間對比分析4種模型的識別效果,驗證基于機器視覺技術識別熏雞腿顏色的可行性,為精確指導工藝參數優化,標準化生產及開發顏色快速識別技術提供指導依據。
原料:雞腿原料,遼寧溝幫子熏雞集團,雞品種為海蘭褐蛋雞,日齡為(450±50) d,屠宰前12 h禁食供水,雞腿質量為(160±10) g,屠宰后冷卻30 min排酸,冷凍貯藏;白砂糖,南京甘汁園糖業有限公司。
儀器:YXDT1/1型糖熏爐,河北曉進機械制造股份有限公司與渤海大學聯合研制;CR-400型色彩色差計,日本Konica Minolta公司;EOS-M5型照相機,日本佳能公司;Y7000P-拯救者筆記本電腦,中國聯想公司;VGA2USB型圖像采集卡,加拿大艾普飛公司;LED迷你小型攝影棚,深圳市胖牛科技有限公司。
1.2.1 熏雞腿制備及圖像采集
以溝幫子經典糖熏工藝得到不同顏色的熏雞腿樣品,通過控制熏制時間獲取熏雞腿在糖熏過程中可能出現的所有顏色,并使其分布均勻(根據預實驗得出,本文糖熏工藝下熏制16 min,熏雞腿已是不能接受的焦黑色,為此熏制時間控制為0~16 min)。
工藝流程:凍雞腿→解凍→焯水→鹵煮→燜制→煙熏→冷卻→采集圖像。
具體流程:凍雞腿272個,室溫下流水解凍后焯水去除泡沫;設置煮鍋加熱最終溫度為97 ℃,加熱沸騰后加入料包煮制形成鹵湯;將焯水后的雞腿放入鹵湯中煮制2 h;關閉煮鍋電源繼續燜制2 h;設置糖盤溫度為330 ℃和熏箱溫度100 ℃,待實際溫度達到設定值并穩定后,在272個雞腿中隨機選取16個雞腿,設定煙熏時間為16 min,添加白砂糖開始熏制,得到熏制16 min的熏雞腿樣品;室溫下冷卻后去除表面的水漬和油漬,采集整雞腿圖像(每只雞腿采集4張圖像,每水平翻轉90°采集一張圖像),測定L*a*b*值以驗證本文所用的糖熏工藝是否具有良好的穩定性。相同熏制條件下的熏雞腿樣本的色差值差異性越小,工藝越穩定;0~16 min熏制時間下的熏雞腿樣本間的顏色梯度越明顯,工藝越穩定。每只雞腿測定3組,水平放置雞腿的前部、中部及后部3個位置,測其L*a*b*值,測定前以標注白板校正,最終結果取平均值[24],得到熏制16 min的熏雞腿圖像和L*a*b*值。按上述方法,改變熏制時間,分別得到煙熏0、1、2、3…16 min的熏雞腿圖像和L*a*b*值。
1.2.2 圖像采集裝置設計
為避免外界條件對實驗結果的影響,減少實驗誤差,熏雞腿圖像樣本均采集于自行設計的圖像采集裝置(圖1)。由圖1可知,該圖像采集裝置主要由攝影棚(含光源和啞光的白色樣品板)、相機、圖像采集卡及電腦組成,其中光源、相機及樣品板固定在一個黑色的箱體內[25-26]。具體采集過程如下:將裝置放置于水平工作平臺,調整相機鏡頭與樣品表面的距離,開啟設備,采集圖像,采集后的圖像經由圖像采集卡傳入電腦,數據通過基于Python平臺編寫的圖像處理程序進行分析。

圖1 圖像采集裝置示意圖Fig.1 Schematic diagram of image acquisition device
1.2.3 構建圖像識別模型
本研究基于Xception-CNN模型處理熏雞腿圖像,其檢索和分類方法和具體過程如圖2所示,各層卷積的計算如公式(1)所示:
OutputSize=(ImageSize-KernelSize)/Stride+1
(1)
式中:OutputSize表示輸出圖像大小;ImageSize表示輸入圖像大小;KernelSize表示卷積核的大小;Stride表示卷積核的步長,默認為1。

圖2 基于Xception-CNN模型的圖像數據處理方法Fig.2 Image data processing method based on Xception-CNN model
模型最后的神經元輸出經過激活函數SoftMax回歸得出總和為1的概率打分,概率分數最大的節點就是測試的結果,神經元節點0代表的是熏制0 min產生的樣品顏色概率;神經元節點1代表的是熏制1 min產生的樣品顏色概率,以此類推。比如節點4的輸出為0.70,則選取節點4作為最終結果,即該圖的分類結果為熏制4 min產生的熏雞腿顏色[27]。用于評判該神經網絡測試序列與標簽序列之間的距離則被稱為損失函數(loss function,Loss),基礎損失函數有2種,分別是用于解決分類任務的交叉熵損失函數和用于解決回歸任務的均方誤差損失函數(mean squared error,MSE)。MSE計算如公式(2)所示:
(2)
式中:n,一個Batch中的樣本數量;y,期望輸出;y′,實際輸出。
1.2.4 圖像預處理
在圖像采集過程中可能會由于雞腿本身的不規則性、顏色色差等問題,導致部分圖像質量較差、樣本不均衡,進而影響圖像的識別分類效果。為盡可能避免上述問題,在Xception-CNN模型分析前,首先對熏雞腿圖像進行預處理。采用4種增強處理方式:隨機對比度調整、隨機亮度調整、隨機旋轉調整和隨機縮放調整[28-29]。
1.2.5 參數設置
在利用數據對模型進行訓練之前,需要對Xception-CNN模型設置超參數,Batch_size(批尺寸)為128,初始學習率設為0.000 1,使用自適應梯度優化函數作為該模型的優化方法,在訓練集訓練得到Loss值的變化趨勢。
1.2.6 模型評估指標
評估機器視覺模型識別效果的指標主要包括測試集的準確率、誤差率及所需時間等,本研究目的是對熏雞腿顏色進行準確快速的識別,因此選取測試集的識別準確率和測試所需時間作為評估Xception-CNN、ResNet-50、Inception和傳統CNN4種網絡模型識別效果的主要指標。
本研究統計分析均在Python 3.5平臺上完成,使用Python擴展模塊配合計算和繪圖“Pylab”,“Numpy”、“Matplotlib”(數據統計模塊)和“Keras”、“TensorFlow”、“OpenCV”。采用Origin 8.6和SPSS 19.0軟件對數據進行統計處理。
共采集樣品照片1 088張,分辨率均為384×384,在此基礎上,采用前文提及的4種圖像預處理方法,最終得到4 352張圖像,定義為數據集Smoked Chicken,按8∶2隨機分配為訓練集和測試集,其中3 482張作為訓練集用于構建和優化實驗模型,剩余的870張作為測試集用于測試模型的準確性。為美化出圖效果,樣品圖像輸出調整為圓形。
在雞腿的熏制過程中,影響熏雞腿顏色變化的因素主要包括煙熏時間、煙熏溫度以及熏材量等,不同工藝下,同一顏色可能出現在不同時間節點,本研究主要討論的是本課題組的熏制工藝下的顏色變化規律。在本研究中,主要通過控制煙熏時間來控制顏色變化。如圖3所示,隨著熏制時間的增加,熏雞腿表面的亮度值急劇下降,紅度值急劇增加后逐漸趨于平緩,黃度值急劇增加后逐漸減少,最后趨于平緩。這是由于隨著煙熏的進行,雞腿表面逐漸由淡黃色→紅棕色→棕黑色所導致。在煙熏0~16 min的過程中,相同時間節點的熏雞腿顏色波動范圍的誤差值分別是L*值1.70~3.59,a*值0.61~2.17,b*值0.89~4.21。產生這種情況的原因主要是箱溫變化,盡管在實驗初期已設定箱溫,但隨著放入樣品和熏材的開箱操作,箱溫不可避免地在一定范圍內波動。熏雞腿的顏色變化都在可控范圍,相同熏制條件下的樣品顏色差異較小,不同熏制時間下樣品的顏色呈現明顯的梯度變化,說明工藝成熟,具有良好的穩定性。

圖3 L*、a*、b*值變化圖Fig.3 Change chart of L*, a* and b* values 注:同一趨勢線上不同字母表示存在顯著性差異(P<0.05)
為更好地展示圖像預處理的效果,將預處理后的熏雞腿圖像放大后截取局部圖代替雞腿圖像作為展示圖。熏雞腿局部圖像經過隨機對比度、亮度、旋轉和縮放調整等方法預處理后,結果如圖4所示。由圖4可知,在不改變熏雞腿圖像本身屬性的前提下,隨機對比度與隨機亮度調整使得熏雞腿圖像在亮度上呈現出較大差異,有利于獲得大量圖像細節信息;圖像經過隨機旋轉和隨機縮放調整后,改變了圖像的原有位置、方向和量級,從而生成一幅新的圖像,進而增加了樣本的數量,有利于提升測試結果的準確率。

1-原圖;2-隨機對比調整;3-隨機亮度;4-隨機旋轉; 5-隨機圖像縮放調整圖4 熏雞腿圖像預處理結果Fig.4 Image pretreatment results of smoked chicken thighs
損失函數是衡量模型在收斂過程中的重要因素,一般情況下,訓練過程中的Loss值越小模型的準確率可能就越高,研究意義也就越大[30]。因此保證模型準確率最有效的方式就是在其他算法參數不變的情況下,追求較低的Loss值。基于1.2.5設定的超參數對訓練集樣本進行訓練,模型在迭代訓練過程中的Loss值變化如圖5-a所示,模型在迭代訓練過程中的準確率變化如圖5-b所示,其準確率是指當前批次數據在神經網絡的準確率。由圖5可知,該模型訓練軌跡的收斂性良好,可以收斂到全局最優解,即模型隨著迭代次數的增加,其準確率逐漸變高,最終趨于平緩。在初始狀態下,Loss值為5.48,準確率4.2%;在迭代次數為1 500時,Loss值和準確率變化趨勢趨于平緩,此時,Loss值達到0.86,測試集的準確率達到了92%,模型識別效果較好;當迭代次數>1 500時,對準確率影響較小,不需要繼續迭代,且繼續迭代會浪費大量的時間和資源,因此將迭代次數定為1 500次。

圖5 Xception-CNN模型Loss值與準確率的變化Fig.5 Loss value and accuracy of Xception-CNN model
將Xception-CNN模型與ResNet-50、Inception和傳統CNN模型進行性能對比研究,包括識別準確率和測試所需時間對比情況。不同時間點的顏色識別準確率比較結果如圖6所示,Xception-CNN模型的顏色識別準確率僅在9和12 min低于90%,其他時間節點的顏色識別準確率均在90%以上,與模型ResNet-50相比,其顏色識別準確率僅在1、2、9和16 min 表現稍差,其他13個時間節點均表現優異;與模型Inception相比,其顏色識別準確率僅在1和9 min表現稍差,在其他15個時間節點均表現優異;與模型傳統CNN相比,其顏色識別準確率在所有時間點均表現優異。這說明該模型具有良好的穩定性和準確性,能夠精準識別雞腿在熏制過程中產生的所有顏色。此外結合使用線性方法描述的Xception-CNN模型對顏色識別準確率變化的大致趨勢進行分析,結果表明在3、7、8和13 min前后熏制會導致樣品顏色產生劇烈變化,但隨著熏制時間的延長,糖熏雞腿的顏色梯度變化效果會顯著降低;且一直處于過深的狀態,意味著需要進一步擴大樣本量以增加模型識別的準確率。

圖6 不同時間點的模型識別準確率Fig.6 Comparison of model recognition accuracy at different time points
模型的識別準確率主要由模型本身的性能、樣品差異性及測試條件等因素決定,在其他因素基本恒定的情況下,樣品之間的差異性是影響模型識別準確率的主要原因。因0~3 min和13~16 min產生的顏色不屬于正常熏雞應有的顏色,故分析時不作考慮,同時,結合L*值、a*值和b*值結果發現,煙熏過程中,L*值的變化最為顯著,因此為簡化分析過程,以糖熏4~12 min的L*值結合Xception-CNN模型的顏色識別準確率分析,采用LSD結合Duncan分析。由表1可知,糖熏4和5 min(相鄰時間點間)產生的L*值不顯著,說明兩者之間的差異較小,在模型識別時會導致較大誤差,影響最終的識別準確率,糖熏7 min與相鄰時間點之間(6 min和8 min)的差異均顯著,說明熏制7 min產生的顏色與相鄰時間點之間的差異較大,識別準確率較高。對比圖6發現,Xception-CNN模型在4、5、7 min 3個時間點的識別準確率與之相符,說明樣品之間的差異性會影響到模型的識別準確率。

表1 不同熏制時間下樣品的L*值Table 1 L* value of samples under different smoking time
4種模型的平均識別準確率分別為:92%(Xception-CNN),91%(ResNet-50)、89%(Inception),87%(傳統CNN)。總體來說,Xception-CNN模型略優于ResNet-50模型,明顯優于Inception模型和傳統CNN模型。模型測試所需時間是檢測模型識別效果的另一個重要指標,模型和硬件平臺等都會影響到運算的速度,因此應結合不同的需求選擇合適的模型。4種模型的測試所需時間分別是1.36 s(Xception-CNN),0.81 s(ResNet-50),0.98 s(Inception),2.48 s(CNN)。本文選取的Xception-CNN模型因復雜性較高,測試時間比ResNet-50模型和Inception模型多0.55和0.78 s,該差距會因為平臺的運算性能提升而進一步縮小,但同傳統CNN模型相比縮短了1.12 s,僅需要1.36 s即可完成識別。綜上所述,Xception-CNN模型,尺寸更小,測試所需時間少,單點識別準確率及平均識別準確率均高于Inception模型、ResNet-50模型和傳統CNN模型,較為輕便,更適用于熏雞腿圖像的顏色識別。
本文將機器視覺技術引入到熏雞腿圖像的顏色識別領域中,構建了Xception-CNN模型,并將此方法應用到圖像識別任務中,在自建的Smoked Chicken圖像集進行實驗。結果表明:在Xception-CNN、Inception、ResNet-50和傳統CNN 4種模型中,Xception-CNN模型對熏雞腿圖像的顏色識別平均準確率最高,達到92%;測試時間僅需1.36 s,平均用時比ResNet-50模型和Inception模型多0.55 s和0.78 s,但比傳統CNN模型縮短了1.12 s。Xception-CNN模型相較于其他3個模型,在總體性能上得到了改善,對不同顏色的熏雞腿圖像具有識別準確率高、耗時較短等優點,能夠實現對雞腿熏制過程中產生的所有顏色的快速準確識別,說明基于機器視覺技術的熏雞腿顏色識別研究是可行的。本研究可精確指導工藝參數優化,為標準化生產及開發顏色快速識別技術提供指導依據。在實際生產中,由于相關影響因素可能無法保證顏色控制恒定,實際生產應用中該模型需要盡可能控制生產環境、工藝的穩定,進一步擴大樣本量,即增加測試集的樣本量,使計算機視覺能在合理范圍內對可能出現的顏色誤差進行精準識別。