999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經網絡與高光譜的雞肉品質分類檢測

2019-01-07 12:08:24王九清邢素霞王孝義
肉類研究 2018年12期
關鍵詞:分類模型

王九清,邢素霞*,王孝義,曹 宇

(北京工商大學計算機與信息工程學院,食品安全大數據技術北京市重點實驗室,北京 100048)

隨著雞肉在人類日常飲食中的比重日益增加,人們對雞肉品質的重視也在不斷增長,這極大地推動了肉制品品質及安全檢測技術的發展[1]。傳統的檢測方法,如感官分析、理化檢測等,都十分繁瑣,且難以實現對雞肉的快速、無損檢測[2-3]。基于光譜分析的高光譜圖像檢測技術[4]將傳統的成像技術和光譜技術結合起來,光譜數據能夠反映樣本的內部品質,圖像數據能夠反映樣本的外部特征[5-6],將二者結合起來可以實現對雞肉的無損檢測,并且在食品質量評估領域中也得到大量的應用[7-8]。然而,高光譜數據維度高、數據量大,具有非線性和復雜性,如果人為地對高光譜數據進行特征提取和數據重建,過程十分復雜,耗時較長,并且難免會造成有效信息的浪費[9-10]。

卷積神經網絡(convolutional neural network,CNN)是將人工神經網絡和深度學習技術結合產生的一種新型人工神經網絡方法[11-12],可以直接將原始數據作為網絡的輸入,由特征檢測層通過訓練數據進行學習[13-15],避免了前期復雜的人工特征抽取,極大地簡化人為參與的操作過程,在圖像識別領域獲得了廣泛的應用[16-17]。

本研究以雞肉為研究對象,使用CNN結合高光譜成像技術對雞肉進行品質分類檢測。從雞肉高光譜數據中提取光譜、彩色圖像等信息作為并行輸入,建立基于光譜及圖像的綜合CNN模型,實現對雞肉的品質檢測,并探究高光譜數據中的光譜和圖像數據在雞肉品質分類檢測中的作用。

1 材料與方法

1.1 材料與試劑

超市盒裝冰鮮雞肉,500 g/盒,每盒作為1 組(3 個樣品),共90 組、270 個樣品。將每個樣本分為2 份,同時貯存在冷藏室中,以待進行理化檢測和高光譜信息采集。

1.2 儀器與設備

M Sorter肉制品光譜檢測儀 北京卓立漢光有限公司;Matlab軟件(R2014b) 美國MathWorks公司;PyCharm軟件(2017.3 x64) 捷克JetBrains公司;Tensorf l ow框架 美國谷歌公司。

1.3 方法

1.3.1 雞肉理化指標測定

雞肉理化指標委托華測科技有限公司進行測定。參照GB 5009.228—2016《食品安全國家標準 食品中揮發性鹽基氮的測定》[18]中的半微量定氮法測定揮發性鹽基氮(total volatile basic nitrogen,TVB-N)含量;參照GB 4789.2—2016《食品安全國家標準 食品微生物學檢驗菌落總數測定》[19]測定菌落總數。90 組樣本的TVB-N含量及菌落總數如表1所示。

表 1 雞肉樣品的TVB-N含量及菌落總數Table 1 TVB-N content and total bacterial count of chicken samples

1.3.2 高光譜數據采集

采樣時間為貯藏第1、6、7、10、13、16、20、23、27、31天的每天下午2點,共計10 個采樣時間點。每個時間點取出9 組高光譜樣品和9 組理化樣品,同時進行高光譜數據采集和理化指標測定。其中,高光譜樣品貯藏在冷藏箱中,由華測公司在實驗前1 h將樣品送到實驗室。

高光譜數據采集過程:在實驗室內,使用M Sorter肉制品光譜檢測儀采集雞肉的高光譜數據,波長范圍390~1 020 nm,曝光時間3.75 ms。

剛采集到的高光譜數據可能會受到光照不均或鏡頭暗電流的影響,帶有大量噪聲,需要對其進行黑白校正[20]。校正后的雞肉高光譜數據按照公式(1)計算。

式中:R為校正后的雞肉高光譜數據[21];I為原始雞肉高光譜數據;W為鏡頭對準白板時的全白標定圖像;B為鏡頭蓋住時的全黑標定圖像。

1.3.3 高光譜數據提取

高光譜數據有極高的分辨率,其龐大的數據中存在大量冗余的多重共線性信息,其中既包含灰度值、紋理、TVB-N含量及菌落總數等有用信息,也包含無用的噪聲信息[22-23]。使用CNN省略了人為數據降維和特征抽取過程,只需對高光譜數據中的光譜數據及彩色圖像數據進行提取和預處理,主要步驟如下:1)提取感興趣區域[24],并進行非均勻性校正。在雞肉的原始高光譜圖像上隨機提取尺寸為66×66的區域作為感興趣區域,采用光譜標準化的非均勻性校正方法進行處理;2)提取校正后感興趣區域的平均光譜及彩色圖像。采集到的高光譜數據,其光譜范圍為390~1 020 nm,大約每2.47 nm為1 個波段,共分為256 個波段,平均光譜是對感興趣區域的每個波段上的光譜值取平均,即平均光譜是長度為256的一維向量;分別取第107、70、36個波段的灰度圖像作為R、G、B分量,合成彩色圖像;3)對光譜進行去噪預處理,保存處理前后的數據;4)對彩色圖像進行濾波等預處理,保存處理前后的數據。

1.3.4 高光譜數據預處理

光譜數據預處理方法主要有標準化、微分預處理及多元散射校正等[25-27]。標準化能夠消除由微小光程或樣品薄厚不均勻引起的光譜變化;微分預處理可以分辨重疊峰,辨識較小但是較為明顯的特征峰,消除背景層的干擾并提高圖像分辨率,由于該過程中會引入一定的噪聲,故不使用該方法;多元散射校正可以有效消除雞肉樣品顆粒不一致、分布不均勻所導致的散射問題,修正高光譜掃描樣本的光程誤差。因此,本研究使用標準化和多元散射校正對高光譜數據進行預處理。

高光譜圖像的采集過程中難免會帶有一定的噪聲干擾,影響圖像的質量,進而影響模型的分類效果,因此要對采集到的圖像進行濾波,本研究采取均值濾波的方法對雞肉的彩色圖像進行預處理。

CNN的主要結構如圖1所示,其主要由輸入層、若干個卷積層和池化層、全連接層以及輸出層構成[28-29]。

圖1 CNN結構Fig. 1 Structure of CNN

利用從高光譜數據中提取并經過預處理的光譜及圖像數據建立光譜-圖像聯合的綜合CNN模型,模型結構如圖2所示。一維光譜數據輸入到一維卷積部分,提取光譜特征;二維彩色圖像輸入到二維卷積部分,提取圖像特征。通過特征融合層,將光譜特征和圖像特征聯合起來,連接到全連接層,最后通過輸出層得出分類結果。

圖2 綜合CNN模型結構Fig. 2 Structure of integrated CNN model

1.3.5.1 一維卷積部分

圖3 一維卷積部分結構Fig. 3 Structure of one-dimensional convolution

經過預處理的光譜數據長度為256,深度為1,將其作為一維卷積部分的輸入,其結構如圖3所示。其中,設計為三層卷積是為了與二維卷積層數一致,便于對比。3 個卷積層的卷積核尺寸要與輸入數據相匹配,將卷積步長設置為1,設計多種核尺寸組合,如(9,9,9)、(9,5,9)、(9,5,7)等,將分類效果最好的尺寸組合(9,9,9)作為一維卷積部分的核尺寸,各層卷積核的數量根據經驗設置;池化層選擇最大池化,核尺寸均為2,步長為2,即將特征圖的尺寸壓縮為原來的1/2;最后,一維卷積部分輸出結果為120 個長度為25的特征向量。

1.3.5.2 二維卷積部分

經過預處理后的彩色圖像尺寸為66×66,深度為3,將其作為二維卷積部分的輸入,其結構如圖4所示。其中,根據輸入的尺寸將卷積層數設置為3最佳,設置步長為1,3 個卷積層的核尺寸也設計了多種:(3×3,5×5,5×5)、(3×3,5×5,7×7)等,效果最佳的是(3×3,5×5,5×5),各層核數量根據經驗設置;池化層選擇最大池化,核尺寸均為2×2,步長均為2,相當于將特征圖壓縮為原來的1/4;最后,二維卷積部分的輸出結果為270 張尺寸為5×5的特征圖。

圖4 二維卷積部分結構Fig. 4 Structure of two-dimensional convolution

1.3.5.3 特征融合層

從卷積部分得到的圖像特征,其特征值的數量6 750(5×5×270)遠大于光譜特征值的數量3 000(25×120),因此在本層首先要對圖像特征進行壓縮。數據壓縮層就是一個包含3 000 個神經元的全連接層,將6 750 個圖像特征值作為輸入,輸出個數為3 000,即為特征值數量壓縮;然后,將3 000 個光譜特征加上3 000 個圖像特征,組成長度為6 000的高光譜特征,接入到全連接層。

1.3.5.4 全連接層

其次,在實際進行教學內容分層的過程當中,必須要綜合考慮學生的實際接受能力,并在此基礎上保證教學內容的針對性,是每一名學生能夠有效地了解到所講解的具體內容。

全連接層共有2 層,神經元的個數分別設定為2 000和800,即將特征值數量進一步壓縮。為了防止過擬合,在每一層后都增加了Dropout層[30-31],其作用是將全連接層的神經元輸出以一定概率將其暫時置零,這樣每一次訓練的都是不同的網絡。Dropout示意圖如圖5所示,左側為一個正常的神經網絡,右側是引入Dropout層的神經網絡。

圖5 Dropout示意圖Fig. 5 of Dropout

1.3.5.5 模型的主要參數

Dropout層只在訓練時起作用,其將全連接層神經元輸出置零的概率P=1-Keep_prob,如果Keep_prob的值過小,將大大增加訓練時間;其值過大則起不到很好的防止過擬合的效果。訓練時Keep_prob的理想值為0.5,此時Dropout隨機生成的網絡結構最多,實際應用中一般選擇0.5~0.8之間的值,本研究中Keep_prob設置為0.7。測試時,由于Dropout層不起作用,將Keep_prob設置為1.0。

由于Dropout層的存在,使用固定學習率會使得模型精度產生振蕩,不利于精度的收斂。因此,本研究使用指數衰減法,即每經過一定的迭代周期,學習率乘以固定的衰減系數,獲得指數衰減學習率[32],使后期模型的訓練更加穩定。初始學習率為0.001,衰減率為0.96,衰減周期為10,即每訓練10 次,學習率衰減為原來的96%。

1.3.5.6 模型評價標準——準確率和損失函數

準確率是指使用測試集對訓練好的模型進行分類檢測時,分類正確數據的百分比。準確率按照公式(2)計算。

式中:acc為準確率/%;n為測試集的數據總數;a為分類正確的個數。

損失函數表示預測值與實際值的不一致程度[33],損失函數越大表示不一致程度越高,模型的效果越差;反之,模型的魯棒性就越好。本研究使用交叉熵損失,損失函數按照公式(3)計算。

式中:J為損失函數;N為樣本個數;k為類別數;ezi為類別i的網絡輸出指數;yi為類別i的真實標簽。

1.6 模型的訓練

根據測得的TVB-N含量和菌落總數數據以及GB 16869—2005《鮮、凍禽產品》[34]和GB 2707—2016《食品安全國家標準 鮮(凍)畜、禽產品》[35],可將雞肉品質等級劃分為可食用和不可食用2 類,在此基礎上將雞肉品質等級進一步劃分為新鮮、次新鮮、初級腐敗、中度腐敗和重度腐敗5 個等級,劃分依據如表2所示。根據表2中的分類標準,結合采集到的理化指標,將所有樣本分為5 類。

表 2 雞肉品質分級標準Table 2 Chicken quality grading criteria

將分類好的數據按照5∶1的比例隨機分成訓練集和數據集。使用訓練集進行訓練,即將高光譜數據作為輸入,將分類標簽作為輸出來調試模型;使用測試集來檢驗模型的雞肉品質分類預測精度,即將高光譜數據作為輸入預測樣本分類,然后將預測分類與實際分類進行對比。

首先,將光譜和圖像數據作為并行輸入,即將一維光譜數據輸入到一維卷積部分,將二維圖像數據輸入到二維卷積部分,對綜合CNN模型進行訓練,共訓練5 000 次;然后,去掉綜合CNN模型的二維卷積部分,得到1D-CNN模型,將一維光譜數據作為1D-CNN模型的輸入,對模型進行訓練,共訓練5 000 次;去掉其一維卷積部分,形成2D-CNN模型,將二維圖像數據作為2D-CNN模型的輸入,對模型進行訓練,共訓練5 000 次。

2 結果與分析

2.1 高光譜數據標準化

由于采集到的高光譜圖像中或多或少含有曝光過度點,這會對分類產生極大的影響,在提取目標區域后,采用光譜標準化的方法進行非均勻性校正。校正后的三維高光譜數據按照公式(4)計算。

式中:Xij為校正后的三維高光譜數據在(i,j)像元上的光譜;Dij為原始三維高光譜數據在(i,j)像元上的光譜;N為原始高光譜數據D中所有光譜的總均值;n為Dij中256 個光譜值的平均值。

處理前后的彩色圖像如圖6所示,校正前的圖像中亮點即為過曝點。

圖6 非均勻性校正效果圖Fig. 6 Rendering of non-uniformity correction

2.2 經預處理所得高光譜數據

對高光譜數據進行預處理的結果如圖7所示。可見,經過標準化和多元散射校正的光譜,其反射特性得到保留,差異性和平均光譜得到加強。

圖7 光譜預處理效果圖Fig. 7 Raw and pretreated spectra

2.3 彩色圖像的預處理

圖像數據預處理過程如圖8所示,經過均值濾波的圖像雖然濾除了噪聲,但圖像也變得模糊,邊緣輪廓不明顯,因此對濾波后的圖像再進行銳化,銳化后的圖像邊緣輪廓得到了加強,雞肉的紋理更加清晰。

圖8 彩色圖像預處理效果圖Fig. 8 Rendering of color image pretreatment

2.4 模型的測試

表 3 實驗結果Table 3 Experimental results

使用測試集來檢驗模型精度。由表2可知:基于光譜數據的1D-CNN模型準確率為84.97%,損失函數為5.72;基于彩色圖像數據的2D-CNN模型準確率為41.60%,損失函數為33.98;基于處理后光譜數據和彩色圖像數據的綜合CNN模型準確率達93.58%,損失函數為0.30。實驗結果證明了CNN結合高光譜技術在雞肉品質檢測中的可行性,并且聯合使用雞肉的光譜和圖像數據模型準確率更高,損失函數更小,其分類效果優于使用單一數據的分類模型,同時也證明光譜數據所包含的雞肉品質信息遠高于彩色圖像數據。另外,基于預處理之前數據的綜合CNN模型準確率為75.10%,損失函數為9.51,說明對輸入數據進行預處理是十分必要的,這一過程能夠有效提高模型的精度。

3 結 論

以雞肉為研究對象,結合國家生化檢驗標準(TVB-N含量和菌落總數),根據高光譜數據的圖像、光譜等信息,建立CNN模型,對雞肉進行品質分類研究。其中,綜合雞肉高光譜數據中的光譜及圖像信息的綜合CNN模型,分類效果最好,準確率和損失函數分別達93.58%和0.30,而基于光譜信息的1D-CNN模型和基于圖像信息的2D-CNN模型的準確率分別為84.97%和41.60%,損失函數分別為5.72和33.98。這表明綜合使用雞肉的光譜和圖像數據,雞肉的內、外特征得到了充分利用,使信息更加豐富,有效提高了模型的精度;并且,光譜數據可以提供比圖像數據更多的有效信息,在雞肉品質信息中占比重更大,對雞肉品質檢測的影響更大;另外,使用未經過預處理數據的綜合CNN模型準確率為75.10%,略低于基于經過預處理數據的綜合CNN模型,說明CNN雖然省去了人工特征提取的過程,可以直接將原始數據作為輸入進行實驗,但是對數據進行預處理仍然是必不可少的,這一過程可以使模型得到優化,從而更有效地對雞肉品質進行快速、無損的分類檢測。

猜你喜歡
分類模型
一半模型
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 久久久久青草线综合超碰| 嫩草影院在线观看精品视频| 91丨九色丨首页在线播放| 亚州AV秘 一区二区三区| aa级毛片毛片免费观看久| 这里只有精品国产| 日本欧美成人免费| a欧美在线| 日本亚洲国产一区二区三区| 国产在线观看99| 亚洲国产精品日韩av专区| 无码精油按摩潮喷在线播放 | 精品国产香蕉在线播出| 国产精品视频猛进猛出| 免费在线一区| 国产区在线观看视频| 色婷婷天天综合在线| 天堂成人在线| 免费一级α片在线观看| 欧美精品亚洲精品日韩专区va| 午夜国产不卡在线观看视频| 欧美亚洲国产精品久久蜜芽| 久久中文无码精品| 人妻丰满熟妇av五码区| 国产一区二区三区精品久久呦| 刘亦菲一区二区在线观看| 色综合天天综合| 四虎影视库国产精品一区| 国产极品美女在线观看| 狠狠色丁香婷婷综合| 波多野结衣无码中文字幕在线观看一区二区| 超碰色了色| 国产91无毒不卡在线观看| 亚洲AV无码久久精品色欲| 免费人成在线观看视频色| 午夜啪啪网| 国产福利2021最新在线观看| 国产麻豆精品手机在线观看| 国产精女同一区二区三区久| 国产免费久久精品99re丫丫一| 日韩欧美中文字幕在线精品| 久久国产精品77777| 成人在线不卡| 久久精品日日躁夜夜躁欧美| 日韩视频免费| 自偷自拍三级全三级视频| 影音先锋丝袜制服| 国产精品视频久| 欧美日本二区| 亚洲香蕉在线| 在线a网站| 精品精品国产高清A毛片| 一级毛片免费高清视频| 91色在线观看| 亚洲国产精品久久久久秋霞影院| 国产一区二区福利| 最近最新中文字幕在线第一页 | 18禁黄无遮挡网站| 国产资源站| 自慰网址在线观看| 成人a免费α片在线视频网站| 99这里只有精品在线| 免费中文字幕一级毛片| 国产亚洲视频免费播放| 亚洲国产91人成在线| 国产欧美在线观看一区| 日韩美毛片| 国产精品视屏| 97se亚洲| 欧美人人干| 亚洲an第二区国产精品| 亚洲天堂精品视频| 国产人成网线在线播放va| 日本高清成本人视频一区| 超清人妻系列无码专区| 天天色天天操综合网| 91福利在线观看视频| 又污又黄又无遮挡网站| 国产原创第一页在线观看| 婷婷六月综合| 免费人成在线观看成人片| 不卡视频国产|