999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的小龍蝦分級算法

2020-11-02 07:49:48高竟博李曄杜闖
現(xiàn)代計算機 2020年26期
關(guān)鍵詞:深度模型

高竟博,李曄,杜闖

(南京郵電大學自動化學院,南京210046)

0 引言

隨著人工智能技術(shù)的發(fā)展,模式識別、深度學習等技術(shù)日益成熟,在《美國國家科學院院刊》報道了基于深度學習的動物識別計數(shù),能夠進行自主地識別,并且識別率高達99.3%,而人類志愿者的識別率為96.3%[1]。目前,深度學習廣泛應用于各個領(lǐng)域,例如對不同種類魚的分類、指紋識別、車牌識別、人臉識別,以及醫(yī)學圖片的分析等,但對于龍蝦的圖像分級處理卻未有研究。我國有近3 萬億的餐飲市場,小龍蝦占據(jù)了7%~8%的份額[2],而且呈逐年增長的趨勢。從養(yǎng)殖廠到餐桌的過程中,分級是小龍蝦加工前處理的重要工序之一。目前小龍蝦分級多采用人工方式進行,工作量大,工作效率低。依靠人工計數(shù)會消耗很大的人力、物力和財力,如果小龍蝦的數(shù)目較為龐大,還會因為人工計數(shù)的不確定性出現(xiàn)較大誤差。如果將深度學習于小龍蝦的分級分類,則會事半功倍。深度學習通過對外部環(huán)境提供的信息加工為有效信息,并且轉(zhuǎn)化為知識儲存在知識庫中,能夠在學習過程中不斷地修正和完善下一步的學習,最終經(jīng)過不斷地轉(zhuǎn)化、學習,系統(tǒng)能夠根據(jù)已有的知識儲備正確處理外部環(huán)境中的新信息,具有很強的目的性。模式識別從十九世紀五十年代興起,主要在圖像識別、語音識別、圖像分類等方面應用深度學習的研究給模式識別提供了新的方向,有別于模式識別的將特征描述供給機器,深度學習是根據(jù)已知的數(shù)據(jù)集,通過特定的算法訓練學習模型規(guī)律,從而能夠判斷未知的事物。因此,在本文中將深度學習應用于圖像分類能夠很好解決小龍蝦分級過程中的實質(zhì)性問題。

傳統(tǒng)分類方法中,特征值識別算法操作簡單,但是正確率較低。支持向量機算法靈活,但是需要手動選擇特征值。相關(guān)系數(shù)識別算法識別率高,但是適用范圍小。而深度學習技術(shù)的發(fā)展已經(jīng)比較成熟,并且在圖像識別分類這一領(lǐng)域中被廣泛應用,尤其是卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks,CNNs)能夠?qū)μ囟ǖ奶卣鬟M行學習,并且有較強的適應能力[3],相較于傳統(tǒng)方法依賴人工提取圖像特征,深度學習具有更加出眾的靈活度和精度。深度學習通過對數(shù)據(jù)集的計算能夠提取出數(shù)據(jù)集的圖像特征,而優(yōu)質(zhì)的特征提取會對整個分級系統(tǒng)起到?jīng)Q定性的影響,所以卷積神經(jīng)網(wǎng)絡的選取對于分級系統(tǒng)的設計起著至關(guān)重要的作用。1985 年,反向傳播(BP)算法[4]被首次提出,大大提高了神經(jīng)網(wǎng)絡的訓練效率,隨著研究的深入,慢慢演變出了大量的經(jīng)典卷積神經(jīng)網(wǎng)絡,例如ResNet[5]、VGG[6]以及EfficientNet[7]。VGG 是在AlexNet 的基礎(chǔ)上發(fā)展而來的,相較于傳統(tǒng)的卷積神經(jīng)網(wǎng)絡模型,其數(shù)據(jù)增強和Dropout(隨機失活)在防止過擬合方面都有很突出的表現(xiàn),并且其ReLU 函數(shù)能夠很好地解決模型發(fā)散等問題;ResNet 的殘差網(wǎng)絡是其主要創(chuàng)新,解決了梯度消失的問題,在殘差結(jié)構(gòu)中,增加一個恒等映射將一個問題分解為多個尺度的殘差問題,效果顯著。在網(wǎng)絡調(diào)參過程中,調(diào)節(jié)深度、寬度和分辨率三個維度的平衡是至關(guān)重要的,EfficientNet 的提出,將不像傳統(tǒng)實踐中任意縮放這三個因子,而是用一組固定的縮放系數(shù)來進行縮放,大大提升了網(wǎng)絡的計算效率。本文通過遷移學習的方法運用EfficientNet 訓練模型,大大縮短了訓練時間,提高了訓練效率,實現(xiàn)了特征圖的跨通道聚合,增強了模型的魯棒性,為工廠批量分揀龍蝦提供了技術(shù)支持。

由于深度學習能夠通過訓練掌握圖像的特征,并且完成訓練的網(wǎng)絡能夠達到很高的準確率,所以在龍蝦分級系統(tǒng)的設計中的應用有很顯著的效果。,本文利用預訓練的EfficientNet 參數(shù)并通過遷移學習。卷積神經(jīng)網(wǎng)路的訓練需要大量的人工標注的數(shù)據(jù)集,采用遷移學習能夠大大減少人工標注的數(shù)據(jù)量,實現(xiàn)較少的數(shù)據(jù)集便可實現(xiàn)較好的實驗效果,節(jié)省實際工廠應用的成本。為了能夠有效地實現(xiàn)遷移學習,本文采用了2層全連接層來實現(xiàn)EfficientNetB0 特征的遷移。相關(guān)實驗表明,通過對EfficientNetB0 的遷移學習能夠有效地訓練小龍蝦分級網(wǎng)絡,并且對清晰圖像的準確率高達99.7%,并且由于參數(shù)量較少,訓練時間較其他網(wǎng)絡大大減小。本文通過TensorFlow 框架訓練神經(jīng)網(wǎng)絡對圖像采集器傳回的圖像數(shù)據(jù),后端服務器通過智能圖像處理提取出小龍蝦的標志性區(qū)域,并通過一系列的圖像預處理和模式識別技術(shù)對其進行計數(shù),然后通過小龍蝦的標志性區(qū)域的大小將其進行分級。同時,本網(wǎng)絡能夠?qū)嶋H工廠生產(chǎn)過程中產(chǎn)生的噪聲進行很好地處理,有良好的穩(wěn)定性。

1 網(wǎng)絡結(jié)構(gòu)

1.1 卷積神經(jīng)網(wǎng)絡基本知識

2006 年,深度學習的概念首次被Geoffrey Hinton[8]提出,2012 年,AlexNet[9]發(fā)布,其具有8 層的深層神經(jīng)網(wǎng)絡,在圖片識別競賽中性能取得了巨大的性能提升,此后成百上千層的神經(jīng)網(wǎng)絡模型的提出,展現(xiàn)出了深層神經(jīng)網(wǎng)絡學習能力的強大,并被廣泛應用。在圖像識別領(lǐng)域內(nèi),卷積神經(jīng)網(wǎng)絡擁有巨大的優(yōu)勢,其通過卷積核提取圖片的特征,大量的卷積運算可以提取到深層次的圖像特征[10]。卷積神經(jīng)網(wǎng)絡能夠局部連接和參數(shù)共享,比其他一般的神經(jīng)網(wǎng)絡有著更少的參數(shù)。此外,神經(jīng)元間的稀疏鏈接使得其具有良好的泛化能力。

圖1 基本卷積神經(jīng)網(wǎng)絡模型結(jié)構(gòu)

圖1 是一個基本的CNN 模型,包括輸入層、卷積層、ReLU(線性整流函數(shù))激勵層、池化層以及全連接層。輸入層是圖像處理的一個過程,被處理后的圖像會經(jīng)過幾層卷積層對圖像特征進行提取學習,例如輸入是一個二維的3×4 的矩陣,并且卷積核是2×2 的矩陣,那么卷積的順序會按照先對輸入的左上角的2×2 矩陣進行卷積,然后向右平移一個單位,對下一個2×2 的矩陣進行卷積計算,之后轉(zhuǎn)到下一行進行相同的卷積操作。ReLU 激勵層將非線性函數(shù)作為激勵函數(shù),增加神經(jīng)網(wǎng)絡各層之間的非線性關(guān)系。池化層是對各個矩陣的一個壓縮,會將所壓縮的矩陣按照壓縮標準變?yōu)橐粋€元素,最后通過全連接層得到輸出向量。

1.2 EfficientNet網(wǎng)絡模型

本文通過對EfficientNet 的遷移學習[11],來實現(xiàn)分類模型的搭建。EfficientNet 是由谷歌提出的新型卷積網(wǎng)絡,比其他模型小巧快速,準確率高。之前通用的幾種方法是單獨放大卷積神經(jīng)網(wǎng)絡的深度、寬度和分辨率,并且三維的調(diào)節(jié)是隨機的,任意縮放需要繁瑣的人工調(diào)節(jié),這樣造成了不同精度以及效率。而Efficient?Net 驗證了網(wǎng)絡深度、寬度和分辨率之間的平衡對于圖像識別的性能是至關(guān)重要的,并且這種平衡可以通過簡單地以恒定比率縮放每個維度來實現(xiàn)。與傳統(tǒng)的任意縮放三個因子不同,EfficientNet 使用一組固定的縮放系數(shù)均勻地對網(wǎng)絡的寬度、深度和分辨率,實現(xiàn)了利用簡單高效的復合系數(shù)完成了對三個參數(shù)所有維度的統(tǒng)一縮放。

模型壓縮是一種通過提高效率的方法,廣泛地調(diào)整網(wǎng)絡寬度、深度和卷積核的類型和大小,實現(xiàn)了比卷積神經(jīng)網(wǎng)絡更好的效率。縮放網(wǎng)絡深度是許多卷積神經(jīng)網(wǎng)絡最常用的方法,因為更深層的網(wǎng)絡可以捕獲更豐富、更復雜的特征,但是由于梯度消失的原因,更深層的網(wǎng)絡也更難訓練;縮放網(wǎng)絡寬度通常運用于小型模型,更廣泛的網(wǎng)絡往往能夠捕獲更細小的特征,但是寬度很高而很淺的網(wǎng)絡往往難以獲得更高層的特征;對于使用更高分辨率的輸入圖像,卷積神經(jīng)網(wǎng)絡能夠捕獲潛在的細小特征,但對于極高的分辨率,其精度又有所減少。因此三者需要一個平衡來時模型達到最優(yōu)狀態(tài)。EfficientNet 提出了一種新的復合標度的方法利用復合系數(shù)的原則上統(tǒng)一標度網(wǎng)絡的深度、寬度和分辨率:

式(1)中,α,β,γ是通過很小范圍搜索的方法決定的常量。?是由用戶指定的系數(shù)(控制用于模型縮放的額外資源的數(shù)量),α,β,γ則能夠決定額外資源到網(wǎng)絡的寬度、深度和分辨率上的分配。在實際的深度學習的應用中,EfficientNet 充分體現(xiàn)了其高效性和準確性。

2 提出的算法

本文設計的基于卷積神經(jīng)網(wǎng)絡小龍蝦分級算法的總體結(jié)構(gòu)圖如圖2 所示,主要包括三個部分:①卷積神經(jīng)網(wǎng)絡結(jié)構(gòu);②數(shù)據(jù)集準備;③訓練和識別。

圖2 小龍蝦分級算法框圖

2.1 卷積神經(jīng)網(wǎng)絡結(jié)構(gòu)

對于一般的神經(jīng)網(wǎng)絡的訓練會采用隨機初始化,然后通過特征學習接近目標參數(shù),相較于這種從零開始訓練模型的神經(jīng)網(wǎng)絡,遷移學習能夠利用提前在大型數(shù)據(jù)集上訓練的權(quán)重參數(shù),然后根據(jù)目標數(shù)據(jù)集對模型參數(shù)進行微調(diào),從而提高網(wǎng)絡的效率。除此之外,這些預訓練的參數(shù)還能夠?qū)⒛繕藬?shù)據(jù)集中的低層次的特征進行學習,例如點、斑等,提高訓練的準確率,并且加速模型的收斂。本文采用以ImageNet 數(shù)據(jù)集訓練好的EfficientNet-B0 模型進行遷移學習,構(gòu)成預訓練模型。模型采用全局平均池化,對于輸出的圖像特征進行相加求平均,減少卷積的運算次數(shù)的同時保留住了重要的特征信息,很大程度上避免了模型的過擬合,提高了模型的泛化能力。然后對EfficientNet-B0 得到的權(quán)重參數(shù)進行凍結(jié)處理,在之后的訓練過程中不對其進行計算,大大縮減了模型的訓練時間。

在預訓練模型的基礎(chǔ)上,采用Sequential 順序結(jié)構(gòu)由一個特征提卻層、2 個全連接層和1 個線性分類層組成。特征提取層將訓練樣本輸入預訓練的Efficient?Net-B0 網(wǎng)絡。全連接層將預訓練的EfficientNet-B0 特征遷移到小龍蝦樣本空間。全連接對應矩陣乘積,在實際使用中,全連接層可由卷積操作實現(xiàn)。輸出的特征維度分別為512 和128,使用ReLU 激活函數(shù)[12];一個Softmax 分類層將一階張量變?yōu)槿诸惛怕史植?,從而?gòu)成訓練模型。其中使用的ReLU 函數(shù)是非飽和非線性激活函數(shù)。由于卷積運算是線性的,ReLU 函數(shù)能夠提高網(wǎng)絡的表達,削弱網(wǎng)絡參數(shù)之間的聯(lián)合性,從而使網(wǎng)絡具有稀疏性,能夠更好地學習數(shù)據(jù)特征,加速收斂。其中Softmax 激活函數(shù):

Softmax 函數(shù)[13]常用于多分類的邏輯回歸模型,每個輸出映射到了區(qū)間[0,1],并且所有值加起來的和為1。式中為多個輸入,訓練為了逼近最佳的θT,實現(xiàn)歸一化處理。

2.2 數(shù)據(jù)集構(gòu)建

實驗所用小龍蝦全部采購自南京某海鮮市場,考慮到小龍蝦自動分級過程中,在分級的同時,死蝦和空殼蝦也會被單獨分揀出來。先人工挑選合格小龍蝦樣品,剔除不合格小龍蝦避免影響實驗效果,選擇大中小規(guī)格不同的合格小龍蝦試驗樣本各一斤作為實驗樣品,規(guī)格小為234 錢,規(guī)格中為456 錢,規(guī)格大為789 錢。

拍攝小龍蝦,建立訓練數(shù)據(jù)拍攝要求相機距離地面30cm,構(gòu)建原始干凈圖像數(shù)據(jù)集并進行人工標注等級,在原始干凈圖像數(shù)據(jù)集基礎(chǔ)上分別合成高斯噪聲圖像數(shù)據(jù)集和椒鹽噪聲圖像數(shù)據(jù)集,并對構(gòu)建的3 個數(shù)據(jù)集分別進行訓練集/驗證集/測試集的隨機劃分,數(shù)據(jù)集劃分的比率為訓練集:驗證集:測試集=6:2:2。訓練數(shù)據(jù)是等級為“大”、“中”和“小”的小龍蝦,每類采集565 個樣本,共565×3=1695(個)樣本,并把每一類的樣本按照比例6:2:2 隨機劃分成訓練集、驗證集和測試集,即339:113:113 個樣本。椒鹽噪聲是數(shù)字圖像中的常見噪聲,一般是由圖像傳感器、傳輸信道及解碼處理等產(chǎn)生的黑白相見的亮暗點噪聲,常由圖像切割產(chǎn)生。它是一種隨機出現(xiàn)的白點或者黑點,可能是亮的區(qū)域有黑色像素或是在暗的區(qū)域有白色像素(或是兩者皆有)。鹽和胡椒噪聲的成因可能是影像訊號受到突如其來的強烈干擾而產(chǎn)生、類比數(shù)位轉(zhuǎn)換器或位元傳輸錯誤等。例如失效的感應器導致像素值為最小值,飽和的感應器導致像素值為最大值,通過MATLAB加入方差為0.4 的椒鹽噪聲以驗證噪聲對于實驗結(jié)果的影響程度。高斯噪聲是指它的概率密度函數(shù)服從高斯分布(即正態(tài)分布)的一類噪聲,在數(shù)字圖像中的高斯噪聲的主要來源出現(xiàn)在采集期間。由于不良照明或高溫引起的傳感器噪聲。在數(shù)字圖像處理中,可以使用空間濾波器來降低高斯噪聲,但是當對圖像進行平滑時,結(jié)果可能導致精細縮放的圖像邊緣和細節(jié)的模糊,因為它們也對應于被阻擋的高頻。通過MATLAB隨機加入方差為0.1 的高斯噪聲以模擬數(shù)字采集時圖像可能存在的高斯噪聲對于實驗結(jié)果的影響,清晰圖像,加入高斯噪聲、椒鹽噪聲圖像如圖3。

表1 訓練集、驗證集、測試集數(shù)量分布表

圖3 樣本示意圖

2.3 訓練與識別

本文算法采用兩個全連接層實現(xiàn)對預訓練的Effi?cientNet-B0 特征的遷移,因此主要對兩個全連接層和線性分類層進行訓練。采用交叉熵損失函數(shù):

其中y為真實值,?為模型的輸出。

采用Adam 優(yōu)化器[14]對參數(shù)進行優(yōu)化。Adam 優(yōu)化器是計算每個參數(shù)自適應學習率的算法,其每一次迭代中學習率都有一個明確的范圍,使得參數(shù)變化平穩(wěn),有很高的計算效率以及較低的內(nèi)存需求,并且具有梯度對角縮放不變性。其Adam 超參數(shù)的設定值為學習率0.001。

3 實驗結(jié)果與分析

3.1 訓練參數(shù)設置

在訓練模型前設置好超參數(shù),即要輸入的數(shù)據(jù)集圖片尺寸大小、一次訓練所選取的樣本數(shù)、訓練輪次、分類數(shù)目。設置圖片縮放大小即輸入尺寸為(224,224,3),設定單次訓練用的樣本數(shù)為8,分類數(shù)目為大中小3 類,設定訓練輪次為40。

3.2 數(shù)據(jù)增強處理

因數(shù)據(jù)集較小,因此訓練前對數(shù)據(jù)集做數(shù)據(jù)增強處理:歸一化、旋轉(zhuǎn)、平移、剪切、縮放,具體結(jié)束如下:

(1)歸一化

歸一化處理能有效加快模型的收斂速度,本文采用的歸一化方法為:

其中Xmax表示樣本數(shù)據(jù)最大值,Xmin表示樣本數(shù)據(jù)最小值。在本文中Xmax=255,Xmin=0,即將每一個像素點都除以255,使像素值歸一化到[0,1]。

(2)旋轉(zhuǎn)

旋轉(zhuǎn)操作是圖像像素坐標和笛卡爾坐標系之間的2 次轉(zhuǎn)換,圖像的旋轉(zhuǎn)可以用矩陣變換來表示。設(X0,Y0)、(X1,Y1)分別為旋轉(zhuǎn)前后的坐標,(W,H)、(W',H')為旋轉(zhuǎn)前后的寬和高,θ為旋轉(zhuǎn)的角度:

(3)平移

設(X1,Y1)是平移后的坐標,(X0,Y0)是平移前的坐標,?x,?y為偏移量:

(4)剪切

設(X1,Y1)是剪切后的坐標,(X0,Y0)是剪切前的坐標,?x,?y為剪切因子:

(5)縮放

設(X1,Y1)是縮放后的坐標,(X0,Y0)是縮放前的坐標,?x,?y為縮放因子:

3.3 實驗對比分析

繪制訓練集和驗證集準確率和loss 的變化曲線。通過觀察兩種曲線的上升和下降趨勢選擇出泛化能力最優(yōu)的模型,利用驗證集loss 曲線判斷模型是否過擬合。

為了驗證在實際生產(chǎn)中本文模型的泛用性,將干凈圖像數(shù)據(jù)集訓練結(jié)果與椒鹽噪聲、高斯噪聲處理后數(shù)據(jù)集訓練結(jié)果作對比,圖4 給出了三種數(shù)據(jù)集的學習曲線。通過對比可以發(fā)現(xiàn),干凈數(shù)據(jù)集的學習曲線收斂速度最快,準確率也是最高,隨著噪聲的增大,模型的收斂速度逐漸降低,泛化能力也逐漸變差。但是準確率依然在可接受范圍內(nèi)。

圖4 訓練accuracy曲線和loss曲線

為了評估本文算法的有效性,本文采用ResNet50[4]、VGG16[5]和VGG19[5]三個常用網(wǎng)絡進行對比實驗,相關(guān)實驗設置于本文算法實驗設置相同。在實驗設置相同的情況下,這些模型的學習曲線要比Ef?ficientNet 模型要差一點,有的模型驗證集loss 波動較大,不能很好地擬合。

表2、表3 和表4 分別是遷移不同類型網(wǎng)絡的預訓練模型在干凈圖像數(shù)據(jù)集、高斯噪聲圖像數(shù)據(jù)集、椒鹽噪聲圖像數(shù)據(jù)集上的識別效果。通過訓練發(fā)現(xiàn),以上三個網(wǎng)絡的訓練時長均大于EfficientNet-B0 的時長,并且結(jié)果曲線會有波動的現(xiàn)象。

表2 遷移不同網(wǎng)絡模型在干凈圖像數(shù)據(jù)集上的識別效果

表3 遷移不同網(wǎng)絡模型在高斯噪聲數(shù)據(jù)集上的識別效果

表4 遷移不同網(wǎng)絡模型在椒鹽噪聲數(shù)據(jù)集上的識別效果

EfficientNet 預訓練模型在利用測試集339 個圖像樣本進行測試時,干凈圖像數(shù)據(jù)集把338 張小龍蝦圖像成功分類,而把1 張圖像錯誤分類,測得準確率為99.70%,損失值loss 值為1.70%。高斯噪聲數(shù)據(jù)集把317 張小龍蝦圖像成功分類,而把22 張圖像錯誤分類,實驗測得準確率為93.75%,損失值loss 值為17.42%。椒鹽噪聲數(shù)據(jù)集把300 張小龍蝦圖像成功分類,而把39 張圖像錯誤分類,實驗測得準確率為88.41%,損失值loss 值為39.59%。對于干凈圖像數(shù)據(jù)集,在評估模型時發(fā)現(xiàn)有兩幅圖像的判斷不準確,如圖5 所示,總是將在小龍蝦類別中的這兩張圖像判斷為中等大小的龍蝦,根據(jù)猜測,有可能是數(shù)據(jù)集劃分的問題,這兩幅圖像中龍蝦的大小更接近于中等大小的龍蝦,而不是小龍蝦。高斯噪聲數(shù)據(jù)集相對干凈圖像數(shù)據(jù)集識別準確率降低了5.95%,損失值上升了15.72%,所以在實際生產(chǎn)環(huán)境中,采集圖像時由于不良照明或高溫會引起高斯噪聲摻入圖像,進而對圖像識別分級產(chǎn)生一定影響。椒鹽噪聲數(shù)據(jù)集相對于干凈圖像數(shù)據(jù)集識別準確率降低了11.29%,損失值上升了37.89%,所以椒鹽噪聲對圖像識別的影響程度高于高斯噪聲,對圖像識別造成的影響較大。

通過對比可知,三個網(wǎng)絡的訓練效果均不及Effi?cientNet-B0,對于ResNet50、VGG16 和VGG19 這三個網(wǎng)絡來說,所需要的數(shù)據(jù)集不能太小,而我們實驗過程中的數(shù)據(jù)集大小是1695,所以實驗曲線會呈現(xiàn)波動的現(xiàn)象,并且很容易發(fā)生過擬合現(xiàn)象,魯棒性較差,即使使用Dropout 層,有時也會出現(xiàn)過擬合現(xiàn)象。然而,Ef?ficientNet-B0 對于數(shù)據(jù)集數(shù)量的要求就要低很多,并且不會輕易出現(xiàn)過擬合的現(xiàn)象。

圖5 判斷有誤龍蝦原始圖像

相較于EfficientNet-B0,VGG 網(wǎng)絡在訓練的過程中會消耗更多的計算資源[11],并且在第一層全連接層產(chǎn)生了很多的參數(shù),使得訓練耗時過長。VGG19 的訓練結(jié)果雖然比VGG16 的結(jié)果要好,但是仍存在此問題。

綜上,在本文的情境下EfficientNet-B0 無論是在運算速度還是在魯棒性上,都是最適合用作分級系統(tǒng)設計的網(wǎng)絡,并且能夠為其他工業(yè)生產(chǎn)領(lǐng)域提供借鑒的經(jīng)驗。

4 結(jié)語

本文針對小龍蝦分級工業(yè)化問題,提出了基于深度學習的小龍蝦分級系統(tǒng)。通過對EfficientNet-B0 的遷移學習搭建模型,并且證明了卷積神經(jīng)網(wǎng)絡在處理圖像分類,模糊圖像時的學習能力。通過添加ReLU激活函數(shù)和Softmax 激活函數(shù)能夠有效地解決非線性問題,在編譯模型時,采用的采用交叉熵損失函數(shù)和Adam 優(yōu)化器大大提高了模型訓練的效率。最終,對于清晰圖像、高斯噪聲圖像和椒鹽噪聲圖像的準確率分別為99.70%、93.75%和88.41%。通過對比可得出,該模型對噪聲圖像有很高的學習和適應的能力。

猜你喜歡
深度模型
一半模型
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
深度觀察
深度觀察
深度觀察
深度觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
主站蜘蛛池模板: 中文字幕va| 国产美女视频黄a视频全免费网站| 国产精品真实对白精彩久久| 99视频国产精品| 欧美日本在线一区二区三区| 找国产毛片看| 久久人搡人人玩人妻精品| 国产高清又黄又嫩的免费视频网站| 狠狠ⅴ日韩v欧美v天堂| 在线视频亚洲色图| 久青草免费视频| 亚洲成a∧人片在线观看无码| 国产福利在线免费| 欧美A级V片在线观看| 久久精品国产在热久久2019| 国内精品久久人妻无码大片高| 色老头综合网| av在线无码浏览| 欧美三级视频网站| 沈阳少妇高潮在线| 国产一级毛片网站| 精品伊人久久久大香线蕉欧美 | 国产人成网线在线播放va| 久久香蕉国产线看观| 亚洲日本在线免费观看| 国产白浆视频| 国产亚洲视频中文字幕视频 | 欧美国产视频| 国产乱肥老妇精品视频| 免费看久久精品99| 在线看片中文字幕| 91福利片| 国产精品综合色区在线观看| 国产亚洲精品无码专| 久草视频福利在线观看 | 国产网站一区二区三区| 亚洲综合片| 国产视频你懂得| 国产成人精品午夜视频'| 国产啪在线91| 一级不卡毛片| 亚洲精品在线影院| 性做久久久久久久免费看| 538国产在线| 亚洲天堂网视频| 午夜激情婷婷| 精品国产网| 欧美成人综合视频| 免费aa毛片| 国产一级裸网站| 亚洲精品在线观看91| 2019年国产精品自拍不卡| 国产一区二区在线视频观看| 蜜桃视频一区二区三区| 激情五月婷婷综合网| 欧美激情伊人| 尤物成AV人片在线观看| 亚洲人成色77777在线观看| 在线综合亚洲欧美网站| 欧美成人在线免费| 亚洲无码精彩视频在线观看| 美女内射视频WWW网站午夜 | 欧美日韩午夜| 一区二区日韩国产精久久| 精品免费在线视频| 日韩精品无码一级毛片免费| 国产日韩久久久久无码精品| 992Tv视频国产精品| 亚洲品质国产精品无码| 青草视频网站在线观看| 四虎精品国产AV二区| 伊人久久综在合线亚洲2019| 国产精品久久久久久搜索| 无码国内精品人妻少妇蜜桃视频| 色综合天天操| 毛片网站观看| 美女一级毛片无遮挡内谢| 毛片网站观看| 91精品国产91久无码网站| 黄片一区二区三区| 69精品在线观看| 午夜性刺激在线观看免费|