999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

卷積神經(jīng)網(wǎng)絡(luò)算法在核桃仁分類中的研究*

2022-06-20 03:10:30趙騰飛胡國玉周建平劉廣陳旭東董婭蘭
中國農(nóng)機化學報 2022年6期
關(guān)鍵詞:分類優(yōu)化模型

趙騰飛,胡國玉,周建平, 2,劉廣,陳旭東,董婭蘭

(1. 新疆大學機械工程學院,烏魯木齊市,830047; 2. 新疆維吾爾自治區(qū)農(nóng)牧機器人及智能裝備研究中心,烏魯木齊市,830047)

0 引言

核桃仁,又名胡桃仁、胡桃肉、核桃本品為胡桃科植物胡桃的干燥成熟種子。核桃仁含有豐富的營養(yǎng)素。中國核桃資源十分豐富,在核桃采摘、加工以及儲藏等環(huán)節(jié)中,由于褐變、發(fā)霉和干癟等壞掉的核桃仁嚴重影響著核桃仁的品質(zhì)。隨著國內(nèi)外市場對核桃仁需求量不斷增加,核桃仁的品質(zhì)保證和分類問題已然成了核桃品控中的突出問題,在整個核桃精深加工的過程中,核桃仁色選作為極其重要的工序,在品質(zhì)提升和品質(zhì)管控方面發(fā)揮著重要作用。色選技術(shù)利用被選物料的光學特性差異,通過識別采集的圖像,利用執(zhí)行機構(gòu)進行異色顆粒的分揀[1]。將色選技術(shù)應(yīng)用于核桃仁的精深加工環(huán)節(jié)有利于緩解核桃仁分揀人力資源依賴性過大的難題;取代手工挑選,排除人為因素的干擾,既能提高生產(chǎn)效率,又能降低生產(chǎn)費用,達到優(yōu)選核桃仁的效果,提高核桃仁的品質(zhì)。但是目前已有的核桃仁色選設(shè)備識別精度有限,色選系統(tǒng)在核桃仁分類中的通用性較差。

隨著深度學習技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)等深度學習技術(shù)已經(jīng)被廣發(fā)應(yīng)用于圖像分類、目標檢測等領(lǐng)域[2-5],趙志衡等[6]通過對卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)化設(shè)計了一種實現(xiàn)花生分類的網(wǎng)絡(luò)模型,準確率達到98.18%,有效地提高色選是的實時性與準確率。劉星星等[7]通過利用OpenCV設(shè)計的多通道動態(tài)葡萄干色澤識別設(shè)備,在HSV空間下,對黃、綠、褐色三類葡萄干的識別準確率分別達到92.00%、89.33%、96.67%,此方法很大程度上依賴于物料的顏色特征,無法有效滿足實際工作中不同物料的分類識別。Khodaei[8]將機器視覺算法應(yīng)用于無花果的分類系統(tǒng)中,通過區(qū)域分割以及區(qū)域顏色差進行圖像二值化求出分割面積,然后對無花果進行劃分分級,該方法對無花果的識別準確率達到了95.2%。綜上所述相比人工識別以及傳統(tǒng)識別方法,利用深度學習技術(shù)的分類方法能夠達到較高準確率,能夠較好地應(yīng)用于復(fù)雜多變環(huán)境下分類任務(wù)。

本文將采集的核桃仁圖像分為好仁和壞仁,通過建立卷積網(wǎng)絡(luò)模型結(jié)構(gòu)對核桃仁進行分類識別,然后利用L1和L2正則化、三種優(yōu)化器、修改學習率和卷積核大小等方式進行優(yōu)化,利用不同方式的優(yōu)化方法來提高模型的泛化性以及魯棒性,以期提高卷積神經(jīng)網(wǎng)絡(luò)模型分類準確率,最后通過利用OpenVINOTM加速器進行優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)模型,以期提高識別的實時性。

1 圖像預(yù)處理、數(shù)據(jù)集采集

本文以新疆薄皮核桃仁作為研究對象,建立好仁和壞仁數(shù)據(jù)集,其中好仁與壞仁的判別標準主要依據(jù)LY/T 1992—2010《中華人民共和國林業(yè)行業(yè)標準》和SN/T 0881—2000《中華人民共和國出入境檢驗檢疫行業(yè)標準》中現(xiàn)行標準共同進行確定。圖1所示為濾波前后核桃仁以及不同類別核桃仁圖像,其中好仁與壞仁的區(qū)分主要以是否褐變、是否發(fā)霉、是否干癟等為主,褐變標準的衡量以核桃仁顏色是否呈現(xiàn)黑褐色,果肉是否由白變黃等為主,如圖1(k)所示;霉變標準的衡量首先以重量判別,霉變之后的核桃仁重量輕于好仁,其次以外表是否變黑、出現(xiàn)霉菌以及是否有異味為主,如圖1(i)所示;干癟標準的衡量以核桃仁外表形狀是否有褶皮,果仁干枯少油而薄以及重量比為主,如圖1(j)所示。利用Phantom v9.1相機進行圖像采集,共采集400張分辨率為1 632像素×1 200像素核桃仁數(shù)據(jù)集,為保證分類識別的準確性,其中好仁與壞仁數(shù)量各占數(shù)據(jù)集的一半。在進行數(shù)據(jù)集劃分前,首先進行數(shù)據(jù)集的清洗工作,從中去除掉模糊不合格的數(shù)據(jù)集,將清洗完的數(shù)據(jù)集全部縮放到300像素×300像素,然后將所采集的核桃仁數(shù)據(jù)集按照8∶2的比例劃分為訓練集與測試集。由于在數(shù)據(jù)集采集過程中受到外界環(huán)境因素的干擾,原始數(shù)據(jù)集中經(jīng)常含有各種噪聲[9],噪聲的存在會對數(shù)據(jù)集的分類識別產(chǎn)生影響,因此需要對核桃仁數(shù)據(jù)集進行降噪濾波的預(yù)處理工作。

本文采取均值濾波[10]、高斯濾波[11]、方框濾波、中值濾波[12]、自適應(yīng)中值濾波[13]以及雙邊濾波對核桃仁數(shù)據(jù)集進行降噪濾波,濾波效果如圖1所示,并用信噪比[14](SIGNAL-NOISE RATIO,SNR)進行對比如表1所示,通過對濾波后的圖集效果以及SNR值進行對比顯示,中值濾波能夠較好地保留圖像的特征信息,且中值濾波的SNR值為42.388,通常來說信噪比越高,圖像越清晰,質(zhì)量就越高。因此本文采用中值濾波方法進行核桃仁數(shù)據(jù)集預(yù)處理。

(a) 含噪圖片 (b) 原始圖片 (c) 高斯濾波 (d) 均值濾波

(e) 方框濾波 (f) 中值濾波 (g) 雙邊濾波 (h) 自適應(yīng)中值濾波

(i) 霉變 (j) 干癟 (k) 褐變 (l) 好仁

表1 圖像SNR值Tab. 1 Image SNR values

2 卷積網(wǎng)絡(luò)框架構(gòu)建

2.1 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計

卷積神經(jīng)網(wǎng)絡(luò)[15]是通過模擬特征,然后通過卷積的權(quán)值共享以及池化操作來降低網(wǎng)絡(luò)參數(shù)的數(shù)量級。一個卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[16-17],通常包含輸入層、卷積層、池化層和全連接層,如圖2所示。

1) 輸入層。輸入層為經(jīng)過圖像預(yù)處理的300像素×300像素×3的圖像。

2) 卷積層C1。C1層采用same卷積對輸入圖像進行特征提取,利用32個5×5的卷積核生成32個特征圖。卷積步長為1,擴充值為0,因此卷積后的特征圖大小為296×296,一個卷積核可訓練的參數(shù)的個數(shù)為76個,因此C1層可訓練的參數(shù)的個數(shù)為2 432個。

3) 池化層pool1。pool1層主要是對特征進行降維處理,pool1層使用3×3的過濾器池化C1層生成的特征圖,因此最終生成32個98×98的特征圖。pool1層每個特征圖中都有兩個可訓練的超參數(shù)(權(quán)值參數(shù),偏置參數(shù)),因此該層中共有64個參數(shù)。

4) 卷積層C2。卷積層C2有64個5×5的卷積核,步長為1,擴充值為0,C2層將S1層的32個98×98的特征圖卷積成為64個94×94的特征圖,因此C2層可訓練的參數(shù)的個數(shù)為51 264個。

5) 池化層pool2。pool2層使用3×3的過濾器池化C2層生成的特征圖,因此最終生成64個31×31的特征圖。

6) 卷積層C3。卷積層C3有64個5×5的卷積核,步長為1,擴充值為0,C3層將S2層的特征圖卷積成為64個27×27的特征圖,因此C3層可訓練的參數(shù)的個數(shù)為10 246個。

7) 池化層pool3。pool3層使用3×3的過濾器池化C3層生成的特征圖,因此最終生成64個9×9的特征圖。

8) 卷積層C4。卷積層C4有128個5×5的卷積核,步長為1,擴充值為0,C4層將S3層的特征圖卷積成為128個5×5的特征圖,因此C4層可訓練的參數(shù)的個數(shù)為204 928個。

9) 池化層pool4。pool4層使用3×3過濾器池化C4層生成的特征圖,因此最終生成128個1×1特征圖。

10) 全連接層F1。F1層有512個單元其中單元的個數(shù)與輸出層的設(shè)計有關(guān),C4層有128個單元,F(xiàn)1層每個單元都將容納128個單元的計算結(jié)果,因此F1層的參數(shù)個數(shù)為66 048個。

11) 全連接層F2。F2層有256個單元,F1層有512個單元,F(xiàn)2層每個單元都將容納512個單元的計算結(jié)果,因此F1層的參數(shù)個數(shù)為131 328個。

12) 全連接層F3。F3層有3個單元,因此F3層的參數(shù)個數(shù)為514個。

13) 輸出層。輸出層用于直接輸出分類結(jié)果,本分類任務(wù)中只有2種核桃仁,因此輸出層只有2個輸出。

圖2 卷積神經(jīng)網(wǎng)絡(luò)識別模型

2.2 可視化中間激活

對于已給定的輸入圖像,可視化中間激活通過模型中的每一個卷積層和池化層顯示輸出特征圖。通過中間激活的可視化,能夠觀察到每一個通道都有許多相對應(yīng)的并且相互獨立的特征,同時也可以更加直觀地觀察網(wǎng)絡(luò)模型中核桃仁提取的效果。

核桃仁在C1,S1層和C2,S2層輸出特征圖,如圖3所示。

從圖3中可以得出,前兩層卷積和池化主要學習到的內(nèi)容是核桃仁圖像輪廓邊緣特征信息,隨著層數(shù)的增加,圖像分辨率變小,卷積核學習到的信息也越來越抽象。

(a) 卷積層1 (b) 池化層1 (c) 卷積層2 (d) 池化層2

圖4所示為核桃仁在C3,S3層和C4,S4層輸出特征圖,輸出特圖中圖像輪廓逐漸模糊,隨著網(wǎng)絡(luò)模型層數(shù)的增加,所提取的核桃仁特征信息相對前兩層輸出特征圖更加抽象,關(guān)于核桃仁圖像的信息逐漸變少,進行分類檢測的目標信息越來越多,從而將有用的信息進行了細化和放大化。

(a) 卷積層3 (b) 池化層3

(c) 卷積層4 (d) 池化層4

2.3 核桃仁分類試驗平臺與參數(shù)優(yōu)化設(shè)計

2.3.1 試驗平臺

本試驗的運行環(huán)境為Windows10(64位)操作系統(tǒng),計算機內(nèi)存8 GB,搭載Intel(R) Core CPU i7-6500U @2.50GHz處理器,Anaconda3,Pycharm編程平臺,基于開源深度學習框架TensorFlow開發(fā)環(huán)境,使用Python 3.6編程語言,試驗包括模型訓練、測試和不同方法之間的對比驗證。

2.3.2 參數(shù)優(yōu)化設(shè)計

為了進一步完善網(wǎng)絡(luò)結(jié)構(gòu),提升網(wǎng)絡(luò)的執(zhí)行效率,提高對核桃仁分類的準確性和實時性,需要對本文所建立的卷積神經(jīng)網(wǎng)絡(luò)進行優(yōu)化。

過擬合是指所構(gòu)建的深度學習網(wǎng)絡(luò)結(jié)構(gòu)模型在訓練數(shù)據(jù)集中表現(xiàn)過于優(yōu)秀,導(dǎo)致在進行測試和驗證時,網(wǎng)絡(luò)結(jié)構(gòu)模型表現(xiàn)一般。在網(wǎng)絡(luò)結(jié)構(gòu)模型進行訓練時,過擬合情況經(jīng)常發(fā)生,為了避免過擬合對分類準確率的影響,本文采取dropout和正則化的方法進行優(yōu)化網(wǎng)絡(luò)。

1) dropout層。如圖5所示,首先通過網(wǎng)絡(luò)結(jié)構(gòu)模型對輸入進行前向傳播,然后通過誤差反向傳播對參數(shù)進行更新。dropout層[18-19]在這過程中隨機將隱藏層中的部分神經(jīng)元設(shè)置為零,然后再次執(zhí)行這個過程。從而減輕了不同特征的協(xié)同作用,有效地避免了過擬合的發(fā)生,增強了網(wǎng)絡(luò)的泛化能力。

(1)

式中:λ——正則項系數(shù);

ωi——權(quán)重;

n——數(shù)據(jù)集大小。

(a) 原始網(wǎng)絡(luò)結(jié)構(gòu) (b) dropout操作后網(wǎng)絡(luò)結(jié)構(gòu)

將式中C對ωi求偏導(dǎo),得到參數(shù)更新率η。

(2)

L2正則化與L1正則化的區(qū)別在于L2正則項使用平房項代替了L1正則項中的絕對值。因此損失函數(shù)表達式如式(3)所示。

(3)

(4)

3) 數(shù)據(jù)增強。數(shù)據(jù)集訓練學習時,由于各種條件因素受限,樣本數(shù)據(jù)集是有限的,因此需要對樣本數(shù)據(jù)集進行擴充。通過通數(shù)據(jù)集進行剪切、旋轉(zhuǎn)、翻轉(zhuǎn)變換、對比度變換、顏色變換等一種方式或多種方式組合的方法來進行數(shù)據(jù)集增強。

4) 優(yōu)化器的選擇。本文主要以RMSProp、Adam和Nadam優(yōu)化器進行比較,利用優(yōu)化器對影響模型訓練和模型輸出的參數(shù)進行計算和更新,使網(wǎng)模型不斷逼近最優(yōu)值,從而達到最小化損失函數(shù)和提高精度的目的。

3 優(yōu)化結(jié)果及對比試驗分析

3.1 Dropout層和數(shù)據(jù)增強優(yōu)化結(jié)果

如圖6所示,數(shù)據(jù)增強使得模型結(jié)構(gòu)更具有泛化性,通過數(shù)據(jù)增強后,模型在訓練過程中學習到同一個物料在不同狀態(tài)下的特征,整個過程中既避免了由于數(shù)據(jù)集不足帶來的影響,又使得模型能夠?qū)W習到更多的特征信息;dropout層減少了學習過程中參數(shù)量大大提升了學習時間。通過利用dropout和數(shù)據(jù)增強的模型與原始模型對比發(fā)現(xiàn),優(yōu)化后的模型在訓練過程中相對比較平穩(wěn),且在迭代40次以后,測試準確率基本穩(wěn)定不變,相比初始模型測試準確率有所提高。

(a) Dropout層

(b) 數(shù)據(jù)增強

3.2 優(yōu)化器優(yōu)化結(jié)果

如圖7(a)所示,當學習率初始值設(shè)置為0.000 1時,Adam、Nadam、RMSProp三種優(yōu)化器[20-21]在迭代40次以后的驗證準確率分別為0.960、0.954、0.981,如圖7(b)所示當學習率初始值設(shè)置為0.001時,迭代40次以后三種優(yōu)化器的驗證準確率分別為0.975、0.958、0.989,綜上所述本文選擇優(yōu)化器為學習率初始值為0.001時的RMSProp優(yōu)化器。

(a) 學習率為0.000 1

(b) 學習率為0.001

3.3 正則化優(yōu)化結(jié)果

如圖8(a)所示,當選擇L1,L2正則化參數(shù)為0.01時,驗證集準確率均一直保持在0.5不發(fā)生波動,故此對參數(shù)進行重新賦值,當L1,L2正則化參數(shù)為0.001時,網(wǎng)絡(luò)結(jié)構(gòu)模型訓練效果如圖8(b)所示。其中采用L1_L2正則化時,網(wǎng)絡(luò)模型驗證準確率始終保持在0.5,L1、L2和原始網(wǎng)絡(luò)模型都存在相對波動,但是采用L2正則化優(yōu)化的模型在驗證集上表現(xiàn)的效果更佳。

(a) 正則化系數(shù)為0.01

(b) 正則化系數(shù)為0.001

3.4 綜合優(yōu)化方案

綜合上述優(yōu)化方法對比結(jié)果,本文最終選用L2正則化+Dropout層+RMSprop優(yōu)化器+數(shù)據(jù)增強技術(shù)作為優(yōu)化方法。初始卷積網(wǎng)絡(luò)模型與綜合優(yōu)化卷積網(wǎng)絡(luò)模型測試對比結(jié)果如圖9所示,綜合優(yōu)化的卷積網(wǎng)絡(luò)模型能夠達到的測試正確率為1。

圖9 綜合優(yōu)化后的測試結(jié)果

3.5 卷積核尺寸的調(diào)整

如圖10所示,經(jīng)過優(yōu)化后的網(wǎng)絡(luò)結(jié)構(gòu)模型相比初始模型在準確率上達到提高,卷積核尺寸為3時在整個過程中的數(shù)據(jù)波動較小,卷積核尺寸為5時的數(shù)據(jù)波動相對頻繁且幅度值較大,且卷積核尺寸為3時模型更早達到收斂,卷積核尺寸為3比卷積核尺寸為5時試驗效果更好的原因在于,在進行小物體分類檢測的過程中,淺層網(wǎng)絡(luò)作為主要的特征學習層發(fā)揮著重要作用,卷積核尺寸為3時,淺層網(wǎng)絡(luò)輸出特征圖具有比較高的分辨率有利于進行核桃仁這種小物體的檢測。通過對參數(shù)比較,在卷積核尺寸為3時,總的參數(shù)量為524 674,當卷積核尺寸為5時,總的參數(shù)量為558 978,在需要訓練學習的參數(shù)量上相對較少。因此最終優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)模型如表2所示。

圖10 不同卷積核的測試結(jié)果

3.6 分類模型對比試驗

為了更好地驗證本文所述分類模型對于核桃仁識別的適用性,本文從現(xiàn)有分類模型中選擇經(jīng)典的VGG-16網(wǎng)絡(luò)[22]模型進行對比試驗。VGG-16網(wǎng)絡(luò)模型結(jié)構(gòu)中包括13層卷積結(jié)構(gòu)和3層全連接結(jié)構(gòu),因此能夠較好的學習到分類樣本的特征信息,被廣泛選擇應(yīng)用于圖像分類任務(wù)中。本文通過將最終綜合優(yōu)化后的分類模型與VGG-16進行對比試驗,來驗證本文所述分類模型的有效性。

表2 卷積神經(jīng)網(wǎng)絡(luò)參數(shù)Tab. 2 Parameters of convolutional neural network

由于用于訓練學習圖像數(shù)據(jù)集量比較小,因此選擇利用遷移學習[23-26]代替直接用VGG網(wǎng)絡(luò)模型訓練學習。遷移學習就是將一個已經(jīng)在大規(guī)模數(shù)據(jù)集上訓練好的網(wǎng)絡(luò)結(jié)構(gòu)模型利用數(shù)據(jù)、任務(wù)或模型之間的相似性,將該模型學習到的參數(shù)遷移應(yīng)用于新的模型結(jié)構(gòu)。整個過程保留了特征提取器不變,所以特征提取器不在被訓練,從而大大減少了需要被訓練的參數(shù)的個數(shù)。小數(shù)據(jù)集通過遷移學習的方法可以實現(xiàn)相應(yīng)的分類檢測任務(wù)。

本文通過將VGG-16網(wǎng)絡(luò)結(jié)構(gòu)模型在Image Net圖像數(shù)據(jù)集訓練好的卷積層遷移到本模型中進行學習,如圖11所示,整體結(jié)構(gòu)為:VGG-16卷積層+全局平均池化層+兩層全連接層(512個單元,256個單元)。

圖11 VGG-16遷移學習結(jié)構(gòu)圖

如圖12所示,通過對VGG-16網(wǎng)絡(luò)進行遷移學習應(yīng)用于核桃仁分類識別與本文所述網(wǎng)絡(luò)結(jié)構(gòu)模型相比較,兩種模型結(jié)構(gòu)在驗證集準確率均最后達到了1,且整體訓練學習過程中數(shù)據(jù)波動比較平穩(wěn),能夠滿足分類任務(wù)的要求。但是在同一設(shè)備下進行圖像預(yù)測過程中,相比本文模型而言利用遷移學習的VGG16網(wǎng)絡(luò)所需要的預(yù)測時間為793.9 ms,本文模型需要的時間為430.2 ms。

圖12 遷移學習和卷積核大小為3時的測試結(jié)果對比

3.7 加速器對比試驗

通常情況下,由于檢測設(shè)備以及模型訓練設(shè)備的不同,當訓練好的模型在進行部署應(yīng)用時,往往面臨識別執(zhí)行效率低的問題,為了更好地將本文所述模型應(yīng)用于實際分類任務(wù)中,在不降低已有識別正確率的前提下,大大提高識別效率,本文分別進行了兩組試驗:訓練好的原始模型識別試驗;加速器優(yōu)化的模型識別試驗。試驗過程中,其他參數(shù)條件保持一致,通過對比兩組試驗的結(jié)果來尋求能夠使得本文所述模型更優(yōu)的策略。在加速器選擇中,本文選擇OpenVINOTM工具套件[27]軟件加速的方式來有效避免利用硬件加速時可能出現(xiàn)的不匹配的問題。

OpenVINOTM工具套件主要用于實現(xiàn)神經(jīng)網(wǎng)絡(luò)模型的優(yōu)化與推理計算。包括用于優(yōu)化神經(jīng)網(wǎng)絡(luò)模型的工具Model Optimizer和用于加速推理計算的推理引擎Inference Engine。模型訓練完畢后,將導(dǎo)出的TensorFlow凍結(jié)圖模型文件(*.pb文件),利用OpenVINOTM工具套件中的Model Optimizer工具優(yōu)化模型文件,經(jīng)過Model Optimizer 工具優(yōu)化后的模型,在其不影響精度的情況下,能夠在檢測硬件平臺上更加快速的運行,然后將獲得模型的中間表示IR文件(IR文件主要用來描述神經(jīng)網(wǎng)絡(luò)的拓撲結(jié)構(gòu)以及儲存模型權(quán)重的信息參數(shù)),調(diào)用Inference Engine來完成推理計算,如圖13所示。

圖13 OpenVINOTM優(yōu)化推理流程圖

為了方便模型測試以及更加直觀地顯示對比結(jié)果,利用Python設(shè)計開發(fā)圖形交互界面,圖像數(shù)據(jù)集一部分來源于網(wǎng)絡(luò)圖像,一部分來源在新疆喀什葉城縣新疆果業(yè)集團色選加工車間采集圖像,將本文訓練好的卷積網(wǎng)絡(luò)模型以及OpenVINOTM工具套件優(yōu)化后的模型文件在分類的正確性、分類概率值的大小以及分類運行時間三方面進行試驗對比。如圖14(a)所示,隨機選擇圖像數(shù)據(jù)集中的一幅好仁圖像進行檢測,卷積神經(jīng)模型結(jié)果顯示圖像分類類別為好仁,好仁概率值為0.999 9,分類運行時間為508.00 ms,優(yōu)化后的卷積神經(jīng)模型結(jié)果顯示圖像分類類別為好仁,好仁概率值為1,分類運行時間為29.00 ms。

(a) 好仁識別結(jié)果

(b) 壞仁識別結(jié)果

再次隨機選擇圖像數(shù)據(jù)集中的一幅壞仁圖像進行檢測,卷積神經(jīng)模型結(jié)果顯示圖像分類類別為壞仁,壞仁概率值為0.997 4,分類運行時間為458.99 ms,優(yōu)化后的卷積神經(jīng)模型結(jié)果顯示圖像分類類別為壞仁,壞仁概率值為1,分類運行時間為32.00 ms,如圖14(b)所示。試驗結(jié)果表明利用OpenVINOTM工具套件優(yōu)化后的卷積神經(jīng)模型能夠在不影響檢測精度前提下,在英特爾平臺硬件上可以更快地執(zhí)行檢測任務(wù),經(jīng)過工具套件優(yōu)化后的卷積模型能夠更好地滿足執(zhí)行檢測任務(wù)時的實時性要求,具有較好的應(yīng)用效果。

本文利用召回率(Recall,表示樣本中的正樣本有多少被預(yù)測正確)和精確率(Precision,表示預(yù)測樣本有多少是真正的正樣本)對最終識別正確率進行評價。重新拍攝采集好仁和壞仁圖片各64張,然后從網(wǎng)絡(luò)再各收集20張,一共178張圖片進行識別評價驗證,未優(yōu)化模型以及優(yōu)化后的模型對核桃仁圖像識別效果評價指標如表3所示,未經(jīng)過優(yōu)化的模型對兩類核桃仁的識別正確率98.31%,平均執(zhí)行時間為323.2 ms,通過OpenVINOTM工具套件優(yōu)化后的卷積神經(jīng)模型對兩類核桃仁的識別正確率為99.44%,平均執(zhí)行時間為29.6 ms。從表3可以看出,經(jīng)過推理優(yōu)化的卷積神經(jīng)模型的評價指標均要優(yōu)于為優(yōu)化前,因此評價結(jié)果能夠表明經(jīng)過推理優(yōu)化的卷積神經(jīng)模型具有更好的應(yīng)用效果。

表3 模型分類識別精度Tab. 3 Model classification recognition accuracy

4 結(jié)論

1) 本文針對核桃仁分類識別的需求,提出了一種卷積神經(jīng)網(wǎng)絡(luò)模型進行核桃仁的識別方法,通過對原始結(jié)構(gòu)模型進行參數(shù)優(yōu)化的設(shè)計以及結(jié)構(gòu)調(diào)整,并進行分類驗證,模型在試驗測試評價中總體識別精確率為98.88%。

2) 通過對VGG-16網(wǎng)絡(luò)進行遷移學習解決了少量數(shù)據(jù)集在大型網(wǎng)絡(luò)結(jié)構(gòu)上訓練學習的問題,縮短了訓練時間。與VGG-16網(wǎng)絡(luò)遷移學習進行對比,本文所述網(wǎng)絡(luò)結(jié)構(gòu)在較少訓練參數(shù)量下也能夠達到較好識別的效果。

3) 將參數(shù)優(yōu)化的卷積網(wǎng)絡(luò)模型,利用OpenVINOTM工具套件進行推理優(yōu)化,通過對推理優(yōu)化的模型與未進行推理優(yōu)化的模型進行比較,經(jīng)過推理優(yōu)化的卷積網(wǎng)絡(luò)模型在進行分類識別所執(zhí)行平均時間為29.6 ms左右,未進行推理優(yōu)化所執(zhí)行時間為323.2 ms左右。表明OpenVINOTM工具套件能夠在不降低識別精度的前提下提升識別時間,從而滿足分類識別的實時性,對核桃仁分類識別具有較好的應(yīng)用效果。

猜你喜歡
分類優(yōu)化模型
一半模型
超限高層建筑結(jié)構(gòu)設(shè)計與優(yōu)化思考
民用建筑防煙排煙設(shè)計優(yōu)化探討
關(guān)于優(yōu)化消防安全告知承諾的一些思考
分類算一算
一道優(yōu)化題的幾何解法
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
分類討論求坐標
數(shù)據(jù)分析中的分類討論
主站蜘蛛池模板: 国产女人在线| 亚洲三级色| 国产欧美网站| 一级一级一片免费| 国产欧美日韩免费| 欧美天堂在线| 亚洲最猛黑人xxxx黑人猛交| 4虎影视国产在线观看精品| 亚洲成人精品| 亚洲精品波多野结衣| 欧洲欧美人成免费全部视频 | 亚洲女人在线| 国产制服丝袜91在线| 一本大道东京热无码av| 亚洲精品在线91| 国产精品污污在线观看网站| 国产你懂得| 亚洲色无码专线精品观看| 国产一区二区三区夜色| 久久久久国产精品嫩草影院| 国产成人调教在线视频| 亚洲天堂久久| 人妻精品久久无码区| 亚洲中文字幕无码mv| 鲁鲁鲁爽爽爽在线视频观看 | 在线国产毛片| 直接黄91麻豆网站| 99无码中文字幕视频| 91激情视频| 亚洲有码在线播放| 国产正在播放| 国产成人永久免费视频| 免费一级毛片在线观看| 国产精品无码一二三视频| 国产精品欧美亚洲韩国日本不卡| 全色黄大色大片免费久久老太| 国内精品一区二区在线观看| 久久窝窝国产精品午夜看片| 3344在线观看无码| 欧美国产综合视频| 亚洲人成网站色7799在线播放| 91探花国产综合在线精品| 国产福利在线免费观看| 国产成人h在线观看网站站| 91精品国产91欠久久久久| 丁香五月亚洲综合在线 | 亚洲最大看欧美片网站地址| 成人午夜亚洲影视在线观看| 日韩欧美色综合| 日韩精品毛片| 成人一级免费视频| 青青草一区| 99久久国产精品无码| 国产成人综合欧美精品久久| 亚洲日本韩在线观看| 天天色天天综合| 亚洲精品无码在线播放网站| 天堂在线www网亚洲| 国产精品成人啪精品视频| 在线观看网站国产| 欧美一级在线| 国产精品免费福利久久播放| 青草国产在线视频| 日本人妻丰满熟妇区| 日韩少妇激情一区二区| 亚洲国产综合精品中文第一| 国产精品尤物铁牛tv| 国产亚洲精品自在久久不卡| 国产v精品成人免费视频71pao| 精品1区2区3区| 日韩毛片在线视频| 国产麻豆va精品视频| 国产成人一区| 色噜噜在线观看| 成人午夜天| 国产h视频在线观看视频| 91娇喘视频| 亚洲 欧美 中文 AⅤ在线视频| 免费毛片视频| 成色7777精品在线| 毛片久久网站小视频| 色爽网免费视频|