尹顯明 彭邵鋒 程俊媛 陳夢(mèng)秋 張日清 莫登奎 韋維 嚴(yán)恩萍



摘 要:【目的】開發(fā)基于圖像的香花油茶品種識(shí)別技術(shù),快速、準(zhǔn)確識(shí)別香花油茶無性系品種?!痉椒ā窟x擇自然光照條件下生長(zhǎng)的20 個(gè)香花油茶無性系品種的油茶果作為研究對(duì)象,利用紅米K30 Pro、華為P40、華為nova7、iPhone 12、魅族16s 多種品牌型號(hào)的智能手機(jī)對(duì)自然狀態(tài)下油茶果的臍面、側(cè)面進(jìn)行圖像采集,去除低質(zhì)量圖像,通過數(shù)據(jù)增強(qiáng)方法增加圖像數(shù)量,采用深度學(xué)習(xí)網(wǎng)絡(luò)GoogLeNet-V3 對(duì)20 個(gè)品種的香花油茶果圖像進(jìn)行識(shí)別。同時(shí)對(duì)使用多個(gè)設(shè)備采集圖像的品種,進(jìn)行不同設(shè)備型號(hào)及數(shù)量、相同設(shè)備數(shù)量但不同比例等情況可能造成的影響進(jìn)行探討?!窘Y(jié)果】構(gòu)建了圖像數(shù)量為16 832 張的香花油茶果品種數(shù)據(jù)集。使用GoogLeNet-V3模型能滿足基于油茶果圖像的香花油茶品種識(shí)別要求,其中識(shí)別準(zhǔn)確率、召回率、宏觀F1 值和微觀F1 值分別為89.13%、89.31%、89.22% 和94.29%。對(duì)多設(shè)備的研究結(jié)果表明數(shù)據(jù)量的增加能有效提高模型精度,且在保證單設(shè)備采集數(shù)據(jù)量的條件下,使用多種設(shè)備采集數(shù)據(jù)構(gòu)建的模型具有更高的魯棒性。以GoogLeNet-V3 模型為基礎(chǔ)構(gòu)建的移動(dòng)端識(shí)別APP,具有PC 端同等精度,可用于香花油茶果品種的識(shí)別。【結(jié)論】使用深度學(xué)習(xí)網(wǎng)絡(luò)GoogLeNet-V3 模型能夠?qū)崿F(xiàn)香花油茶果的品種識(shí)別。
關(guān)鍵詞:香花油茶;品種識(shí)別;深度學(xué)習(xí);油茶果
中圖分類號(hào):S6-39 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1003—8981(2023)03—0070—12
油茶Camellia spp. 是山茶科Theaceae 山茶屬Camellia 油用物種的總稱[1]。是世界四大木本油料樹種之一。其綜合利用價(jià)值較高,在醫(yī)療、保健、生物農(nóng)藥、生物飼料、殺菌消毒以及化學(xué)工業(yè)等方面應(yīng)用廣泛[2-3]。油茶樹具有保持水土、涵養(yǎng)水源、凈化空氣、調(diào)節(jié)氣候等多種生態(tài)功能,兼?zhèn)浣?jīng)濟(jì)效益和生態(tài)效益[4]。香花油茶C. osmantha 是馬錦林等[5] 于2012 年在廣西南寧發(fā)現(xiàn)的山茶屬新種,具有早熟、產(chǎn)量高、耐澇[6]、耐旱[7] 等特點(diǎn)。香花油茶較晚被發(fā)現(xiàn),無性系育種時(shí)間短,通過審定的品種較少,但有大量表型較好、有申報(bào)良種潛質(zhì)的無性系品種正在培育中。由于不同無性系表型差異較小,難以區(qū)分,給香花油茶無性系的推廣帶來困難,因此研究快速、準(zhǔn)確識(shí)別香花油茶無性系品種的方法具有重要的意義。
隨著人工智能技術(shù)的不斷發(fā)展,將深度學(xué)習(xí)應(yīng)用于圖像識(shí)別場(chǎng)景成為農(nóng)林業(yè)領(lǐng)域的重要研究方向。早期的研究主要采用基于統(tǒng)計(jì)模型的機(jī)器學(xué)習(xí)方法來開展[8]。例如:鄧立苗等[9] 提取23 個(gè)玉米品種的葉片形態(tài)、顏色及紋理特征,使用支持向量機(jī)模型進(jìn)行識(shí)別研究,得到87% 以上的整體識(shí)別率;翟果等[10] 選取20 個(gè)觀賞菊品種提取顏色、紋理及形狀特征,使用KNN 算法分類器進(jìn)行識(shí)別研究,達(dá)到92.17% 的平均識(shí)別率;Avshalom等[11] 基于3D 建模及SSR 分析對(duì)7 個(gè)葡萄品種進(jìn)行識(shí)別研究,結(jié)果表明使用這種方法進(jìn)行品種識(shí)別是可行的。由于卷積神經(jīng)網(wǎng)絡(luò)能自動(dòng)提取圖片特征進(jìn)行識(shí)別并分類,且分類準(zhǔn)確率高,近年來研究者開始使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行品種識(shí)別研究。例如:陳文根等[12] 基于深度卷積網(wǎng)絡(luò)對(duì)9 種小麥進(jìn)行品種識(shí)別研究,采用Softmax 分類器進(jìn)行品種分類,達(dá)到97.78%的平均識(shí)別準(zhǔn)確率;王立國(guó)等[13]基于高光譜提取6 個(gè)品種玉米種子主要的八維光譜信息,使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行識(shí)別研究,像素識(shí)別精度達(dá)到97% 以上,結(jié)合多數(shù)投票策略的識(shí)別精度可達(dá)到100%;李浩[14] 基于Caffe 使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)15 個(gè)品種的茶葉進(jìn)行識(shí)別研究,使用的卷積神經(jīng)網(wǎng)絡(luò)模型分別為8 層深度的傳統(tǒng)淺層CNN 和改進(jìn)后22 層深度的深層CNN,發(fā)現(xiàn)改進(jìn)網(wǎng)絡(luò)的識(shí)別率顯著提升,平均識(shí)別準(zhǔn)確率由80%提升至90% 以上;石洪康等[15] 基于卷積神經(jīng)網(wǎng)絡(luò)MobileNet[16] 對(duì)10 個(gè)家蠶品種的幼蟲圖像進(jìn)行識(shí)別研究,得到96% 的準(zhǔn)確率,并用遷移學(xué)習(xí)方法對(duì)另外5 個(gè)家蠶品種的幼蟲圖像進(jìn)行模型訓(xùn)練,發(fā)現(xiàn)遷移學(xué)習(xí)有助于提高模型品種識(shí)別的穩(wěn)定性;Pereira 等[17] 使用以AlexNet[18] 為基礎(chǔ)的遷移神經(jīng)網(wǎng)絡(luò)對(duì)自然環(huán)境中的6 個(gè)葡萄品種進(jìn)行識(shí)別研究,得到77.30% 的測(cè)試準(zhǔn)確率,證明在自然環(huán)境下使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行識(shí)別具有一定的可行性;曾慶揚(yáng)等[19] 收集了湖南、江西、浙江、廣西4 個(gè)地區(qū)的油茶產(chǎn)量數(shù)據(jù)及氣象數(shù)據(jù)后,采用主成分分析法提取影響較大的主成分,使用BP 神經(jīng)網(wǎng)絡(luò)構(gòu)建油茶產(chǎn)量預(yù)測(cè)模型,得到的模型平均相對(duì)誤差低于3%,并以此為基礎(chǔ)預(yù)測(cè)了2025 年4 個(gè)地區(qū)的油茶單位面積產(chǎn)量;陳偉文等[20] 通過改進(jìn)原始的AlexNet,減輕模型的過擬合現(xiàn)象,在番茄種苗葉片病害的識(shí)別上獲得了95.8% 的準(zhǔn)確率,說明調(diào)整模型結(jié)構(gòu)能有效提升模型的識(shí)別效果。
綜上所述,卷積神經(jīng)網(wǎng)絡(luò)已被廣泛應(yīng)用于農(nóng)林業(yè),基于神經(jīng)網(wǎng)絡(luò)對(duì)物種品種進(jìn)行分類已有一定的研究基礎(chǔ),然而基于果實(shí)的深度學(xué)習(xí)品種分類方法的研究報(bào)道較少。香花油茶的品種選育大多是基于種內(nèi)雜交獲得后代進(jìn)行的,不同的香花油茶品種之間存在一定的性狀差異,油茶的果形、果臍形狀、果臍開裂數(shù)等均存在差異,且表現(xiàn)穩(wěn)定,這是研究通過油茶果識(shí)別香花油茶品種的基礎(chǔ)。為了快速、準(zhǔn)確識(shí)別香花油茶無性系品種,從而減少香花油茶造林時(shí)品種比例配置不當(dāng),或香花油茶林中不同品種種植位置不同導(dǎo)致的培育方法不適等問題,本研究中基于深度學(xué)習(xí)方法使用油茶果對(duì)香花油茶品種進(jìn)行分類研究。
1 材料與方法
1.1 圖像獲取及預(yù)處理
數(shù)據(jù)集的大小、圖像的清晰程度決定神經(jīng)網(wǎng)絡(luò)模型的識(shí)別效果,為提升模型的適用范圍,使用智能手機(jī)實(shí)地采集香花油茶果圖像。為增加模型的時(shí)效性,選擇表現(xiàn)較優(yōu)、預(yù)備申報(bào)良種的無性系種及已審定為良種的香花油茶無性系品種(共20 個(gè))作為研究對(duì)象。采集時(shí)間為2021 年9—10 月,此時(shí)香花油茶果在外觀上已成熟,形態(tài)、顏色等特征穩(wěn)定。
用于圖像采集的智能手機(jī)型號(hào)包括紅米K30Pro、華為P40、華為nova7、iPhone 12、魅族16s 等。為了減少自然環(huán)境下采集圖像可能存在的光照差異、不同大小油茶果聚焦距離不同等因素的影響,確定了統(tǒng)一的油茶果圖像采集方法:選擇健康、表面無遮擋的香花油茶果,使用智能手機(jī)以接近垂直的角度對(duì)油茶果的臍面、側(cè)面分別拍攝圖像,在拍攝過程中由較遠(yuǎn)處緩慢地推進(jìn)智能手機(jī),使攝像頭自動(dòng)聚焦于油茶果,與不同大小的油茶果保持相對(duì)穩(wěn)定的距離,將盡量多的果實(shí)特征加入到數(shù)據(jù)集中,包含油茶果的顏色、形狀等多種特征。采集圖像的長(zhǎng)寬比例為1∶1,每品種采集約200 張圖像。對(duì)采集的圖像進(jìn)行挑選、裁剪等處理,去除低質(zhì)量圖像。
考慮到使用不同設(shè)備采集圖像可能會(huì)影響模型效果,為確定其影響,對(duì)于不同無性系使用不同型號(hào)的智能手機(jī)進(jìn)行采集。在20 個(gè)香花油茶無性系中選取7 個(gè)品種(崇左1401、崇左1402、田陽(yáng)1412、田陽(yáng)1413、雅江1611、雅江1613、雅江1614),同時(shí)使用紅米K30 Pro、華為P40、華為nova7、魅族16s 等4 種設(shè)備進(jìn)行采集。
1.2 數(shù)據(jù)集準(zhǔn)備
將預(yù)處理后的香花油茶果臍面、側(cè)面圖像調(diào)整為299 像素×299 像素,使用旋轉(zhuǎn)、翻轉(zhuǎn)等方法擴(kuò)增數(shù)據(jù)集,按數(shù)量比6∶2∶2 將每品種圖像劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。讀取圖片后,使用TensorFlow[21] 官方提供的函數(shù)將圖片的數(shù)據(jù)轉(zhuǎn)換為字符串,與寬、高及類別信息一起轉(zhuǎn)化為二進(jìn)制格式,存入TFRecords 格式文件,將數(shù)據(jù)制作成3 通道的TFRecords 格式數(shù)據(jù)集。
對(duì)于崇左1401、崇左1402、田陽(yáng)1412、田陽(yáng)1413、雅江1611、雅江1613、雅江1614 等7 個(gè)品種,根據(jù)采集設(shè)備分別使用GoogLeNet 進(jìn)行識(shí)別,將來自同一設(shè)備的數(shù)據(jù)按數(shù)量比6∶2∶2 劃分訓(xùn)練集、驗(yàn)證集和測(cè)試集,并根據(jù)使用不同設(shè)備的情況進(jìn)行組合,用于分析使用不同設(shè)備型號(hào)及數(shù)量采集圖像對(duì)模型效果的影響。
1.3 模型訓(xùn)練
使用GoogLeNet 模型對(duì)訓(xùn)練集、驗(yàn)證集進(jìn)行訓(xùn)練,并自動(dòng)保存訓(xùn)練精度最高的模型及固定訓(xùn)練頻率的模型,使用測(cè)試集檢驗(yàn)訓(xùn)練模型的可行性,調(diào)整數(shù)據(jù)集和模型參數(shù),直到模型準(zhǔn)確率滿足品種識(shí)別的要求。
測(cè)試平臺(tái):操作系統(tǒng)為64 位Windows 10 操作系統(tǒng), 深度學(xué)習(xí)框架為TensorFlow,GPU 為NVIDIA Tesla P4,計(jì)算機(jī)語(yǔ)言為Python。參數(shù)設(shè)置:迭代數(shù)量設(shè)置為480 000 次,初始學(xué)習(xí)率設(shè)置為0.001,每批次迭代訓(xùn)練圖像數(shù)量為16,每迭代100 次測(cè)試訓(xùn)練集的準(zhǔn)確率,每迭代200 次測(cè)試驗(yàn)證集的準(zhǔn)確率,每迭代3 000 次保存1 次模型,且保存最優(yōu)驗(yàn)證集準(zhǔn)確率的模型。在研究不同設(shè)備對(duì)采集圖像的影響時(shí),迭代數(shù)量設(shè)置為18 000 次,其他參數(shù)與上述一致。
模型訓(xùn)練流程如圖1 所示,將油茶果圖像輸入GoogLeNet-V3 神經(jīng)網(wǎng)絡(luò)模型(簡(jiǎn)稱“GoogLeNet-V3模型”),模型提取圖像特征后傳入連續(xù)多個(gè)Inception 模塊進(jìn)行特征學(xué)習(xí),最后進(jìn)行平均池化并輸出分類結(jié)果。訓(xùn)練中模型會(huì)自動(dòng)學(xué)習(xí)油茶果圖像的顏色、形狀、大小等多層次特征信息。
1.4 模型效果評(píng)價(jià)
使用深度學(xué)習(xí)分類中基于混淆矩陣的常用評(píng)價(jià)指標(biāo)準(zhǔn)確率(P)、召回率(R)、F1 值等對(duì)模型效果進(jìn)行評(píng)價(jià)[22]。其中,F1 值是用來對(duì)準(zhǔn)確率和召回率進(jìn)行綜合評(píng)價(jià)的指標(biāo)。
P=nt/(nt+nf)×100%;R=nt/(nt+nf′)×100%;F1=[2×P×R/(P+R)]×100%。
式中:nt 代表實(shí)際品種為目標(biāo)品種,預(yù)測(cè)品種為目標(biāo)品種的樣本數(shù)量;nf 代表實(shí)際品種不為目標(biāo)品種,預(yù)測(cè)品種為目標(biāo)品種的樣本數(shù)量;nf′ 代表實(shí)際品種為目標(biāo)品種,預(yù)測(cè)品種不為目標(biāo)品種的樣本數(shù)量。
對(duì)分類模型進(jìn)行整體評(píng)估時(shí),使用2 種常用的整體F1 計(jì)算方法,分別是宏觀F1 和微觀F1[23]。
其中,宏觀F1 是各類樣本F1 值的平均值,即平均F1 值,該F1 值不受不平衡數(shù)據(jù)影響,但易受識(shí)別性高的品種影響;微觀F1 則是對(duì)所有樣本的召回率與準(zhǔn)確率單獨(dú)計(jì)算求得的F1 值,易受不平衡的數(shù)據(jù)影響,適合數(shù)據(jù)較平衡的數(shù)據(jù)集。
P′=[(nt 1+nt 2+…+nti)/(nt 1+nt 2+…+nti+nf 1+nf 2+…+nfi)]×100%;
R′=[(nt 1+nt 2+…+nti)/(nt 1+nt 2+…+nti+nf 1′+nf 2′+…+nfi′)]×100%;
?F1′=[2×P′×R′/(P′+R′)]×100%;
F1″=(F1 1+F1 2+…+F1i)/i。
式中:P′ 表示微觀準(zhǔn)確率;R′ 表示微觀召回率;F1' 表示微觀F1 值;F1″ 表示宏觀F1 值;nt 1、nt 2、…、nti 分別表示第i 個(gè)類別實(shí)際品種為目標(biāo)品種,預(yù)測(cè)品種為目標(biāo)品種的樣本數(shù)量;nf 1、nf 2、…、nfi分別表示第i 個(gè)類別實(shí)際品種不為目標(biāo)品種,預(yù)測(cè)品種為目標(biāo)品種的樣本數(shù)量;nf 1′、nf 2′、…、nfi′分別表示第i 個(gè)類別實(shí)際品種為目標(biāo)品種,預(yù)測(cè)品種不為目標(biāo)品種的樣本數(shù)量。
2 結(jié)果與分析
2.1 油茶果品種的數(shù)據(jù)集
經(jīng)預(yù)處理后最終獲得3 969 張圖像,各品種圖像數(shù)量及采集設(shè)備見表1,表中無性系的品種名為暫定名。
預(yù)處理后的香花油茶果臍面、側(cè)面圖像如圖2 ~ 3 所示,將其調(diào)整為299 像素×299 像素,使用旋轉(zhuǎn)、翻轉(zhuǎn)等方法擴(kuò)增數(shù)據(jù)集,共獲得15 876張圖像,按數(shù)量比6∶2∶2 將每品種圖像劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,數(shù)量分別為9 519、3 182 和3 175 張(表1)。
2.2 模型的訓(xùn)練損失與測(cè)試精度
基于GoogLeNet-V3 模型識(shí)別香花油茶品種訓(xùn)練損失與驗(yàn)證集測(cè)試精度的變化如圖4 所示。由圖4 中訓(xùn)練損失變化情況可看出,GoogLeNet-V3模型的初始損失約為3.86,變化趨勢(shì)為迭代前20 000 次時(shí)快速下降,迭代20 000 ~ 120 000 次時(shí)緩速下降且較不穩(wěn)定,迭代120 000 ~ 480 000次時(shí)緩慢下降且較為穩(wěn)定,訓(xùn)練結(jié)束時(shí)約為0.5。這說明GoogLeNet-V3 模型的訓(xùn)練損失相對(duì)較低,訓(xùn)練損失下降速度快,且最終訓(xùn)練損失較為穩(wěn)定。
由測(cè)試精度的變化情況可知,在迭代0 ~30 000 次時(shí),GoogLeNet-V3 模型的測(cè)試精度迅速升高;在迭代30 000 ~ 80 000 次時(shí),精度增長(zhǎng)放緩;在迭代80 000 ~ 480 000 次時(shí),精度緩慢增長(zhǎng),浮動(dòng)較大,最終精度在90% 上下波動(dòng)。這說明GoogLeNet-V3 模型收斂較快且較為穩(wěn)定,最終準(zhǔn)確率達(dá)到90%。
2.3 模型識(shí)別效果的評(píng)價(jià)
2.3.1 混淆矩陣
基于GoogLeNet-V3 模型的香花油茶果分類模型混淆矩陣如圖5 所示,同一列的數(shù)值為不同類別圖像被預(yù)測(cè)為該類別的數(shù)量,同一行的數(shù)值實(shí)際為該類別的圖像被預(yù)測(cè)為不同類別圖像的數(shù)量。由圖5 可知,GoogLeNet-V3 模型對(duì)各品種的識(shí)別較為準(zhǔn)確,對(duì)于各品種均能達(dá)到較好的識(shí)別效果。其中有12 張崇左1401 的圖像被錯(cuò)誤預(yù)測(cè)為崇左1402,有10 張老虎嶺1508 的圖像被錯(cuò)誤預(yù)測(cè)為老虎嶺1502,推測(cè)性狀較為接近的品種容易被混淆。
2.3.2 識(shí)別準(zhǔn)確率和召回率
根據(jù)圖5 中的數(shù)據(jù)可以計(jì)算得到基于GoogLeNet-V3 模型識(shí)別香花油茶品種的準(zhǔn)確率和召回率, 結(jié)果如圖6 所示。由圖6 可知,GoogLeNet-V3 模型對(duì)各品種的識(shí)別準(zhǔn)確率高,除對(duì)田陽(yáng)1413 的識(shí)別準(zhǔn)確率僅為76.74% 外,對(duì)其他品種的識(shí)別準(zhǔn)確率均達(dá)到80% 以上,對(duì)品種G-8的識(shí)別準(zhǔn)確率達(dá)到98.84%,平均識(shí)別準(zhǔn)確率達(dá)到89.13%。GoogLeNet-V3 模型對(duì)各品種的識(shí)別召回率高,均達(dá)到80% 以上,最低的老虎嶺1502 的識(shí)別召回率達(dá)到81.61%,對(duì)品種F-10、G-8 的識(shí)別召回率分別達(dá)到95.2% 和94.97%,平均識(shí)別召回率達(dá)到89.31%。GoogLeNet-V3 模型對(duì)各品種的識(shí)別召回率之間的差距較小,與識(shí)別準(zhǔn)確率相比更為穩(wěn)定。
2.3.3F1 值
模型的宏觀F1 值和微觀F1 值分別為89.22%和94.29%,兩者差別較大,說明各品種數(shù)據(jù)差異較大,但兩者均高于89%,說明模型準(zhǔn)確率、召回率可信度高,模型具有一定的識(shí)別效果,能滿足進(jìn)行香花油茶果品種分類的需要。
2.4 智能設(shè)備對(duì)采集效果的影響
使用不同型號(hào)和數(shù)量的設(shè)備采集圖像的模型識(shí)別效果見表2,其中識(shí)別準(zhǔn)確率(All)和識(shí)別召回率(All)是對(duì)4 個(gè)設(shè)備共同測(cè)試集的合并測(cè)試集進(jìn)行模型預(yù)測(cè)得到的識(shí)別準(zhǔn)確率和召回率。由表2 可知,單獨(dú)使用華為nova7、華為P40 采集圖像的識(shí)別準(zhǔn)確率、召回率均高于單獨(dú)使用紅米K30 Pro 及魅族16s,說明使用不同設(shè)備所采集圖像存在一定差異,但使用4 種設(shè)備所采集圖像的識(shí)別準(zhǔn)確率、召回率均超過85%,說明使用不同設(shè)備采集的圖像均能用于品種分類研究。將使用多種設(shè)備采集的圖像混合,對(duì)各組合的識(shí)別準(zhǔn)確率、召回率均降低,說明使用混合設(shè)備采集圖像會(huì)對(duì)品種識(shí)別造成一定的影響,但除對(duì)使用紅米K30 Pro 和魅族16s 組合所采集圖像的識(shí)別準(zhǔn)確率低于85% 外,對(duì)使用其他組合所采集圖像的識(shí)別準(zhǔn)確率、召回率均高于85%,說明使用多臺(tái)設(shè)備混合采集帶來的影響在可接受范圍內(nèi)。在以使用4 種設(shè)備共同采集的數(shù)據(jù)作為測(cè)試集時(shí),以使用單個(gè)設(shè)備采集的數(shù)據(jù)作為訓(xùn)練集,得到的模型識(shí)別準(zhǔn)確率、召回率均大幅下降,隨著訓(xùn)練集設(shè)備數(shù)量的增多,識(shí)別準(zhǔn)確率、召回率有顯著提高,說明使用多種設(shè)備采集的數(shù)據(jù)組成的數(shù)據(jù)集的魯棒性較高,能夠降低使用不同設(shè)備拍攝對(duì)模型識(shí)別的影響。
使用4 種設(shè)備不同比例數(shù)據(jù)的模型識(shí)別效果見表3。由表3 可知:當(dāng)每種設(shè)備采集的數(shù)據(jù)均僅占拍攝數(shù)據(jù)的25% 時(shí),總數(shù)據(jù)量與單個(gè)設(shè)備采集的數(shù)據(jù)量相當(dāng),但模型的訓(xùn)練效果大幅降低;當(dāng)每種設(shè)備采集的數(shù)據(jù)均僅占50% 時(shí),模型的訓(xùn)練效果比僅占25% 時(shí)有一定提升,但仍偏低;當(dāng)每種設(shè)備采集的數(shù)據(jù)均達(dá)到75% 時(shí),模型的訓(xùn)練效果與所有數(shù)據(jù)一起訓(xùn)練時(shí)差別不大。說明混合使用多種設(shè)備采集圖像時(shí),采集的數(shù)據(jù)量會(huì)對(duì)模型訓(xùn)練的結(jié)果帶來較大影響,采集的數(shù)據(jù)量越多,模型訓(xùn)練的結(jié)果越好。
2.5 基于模型的移動(dòng)端APP
為了便于隨時(shí)使用深度學(xué)習(xí)模型對(duì)香花油茶無性系品種進(jìn)行識(shí)別,基于Android Studio 開發(fā)平臺(tái)[24],設(shè)計(jì)并構(gòu)建可用于香花油茶無性系果實(shí)圖像識(shí)別的移動(dòng)端APP。
香花油茶無性系識(shí)別APP 主要包括圖像拍攝、相冊(cè)圖像選取、品種識(shí)別和結(jié)果輸出4 個(gè)模塊。在選好所使用的模型后,軟件調(diào)用相機(jī)進(jìn)行圖像拍攝,或調(diào)用系統(tǒng)相冊(cè)選取圖像,經(jīng)過縮放處理將圖像調(diào)整為299 像素×299 像素,之后調(diào)用Tensorflow 接口進(jìn)行識(shí)別,最后輸出最高概率代表的無性系品種及概率。圖像拍攝模塊主要通過調(diào)用系統(tǒng)相機(jī)來實(shí)現(xiàn),拍攝過程中相機(jī)會(huì)自動(dòng)進(jìn)行聚焦,因此保持移動(dòng)設(shè)備的穩(wěn)定非常重要。
相冊(cè)圖像選取模塊的主要功能是調(diào)用系統(tǒng)權(quán)限獲取相冊(cè)或文件數(shù)據(jù),將得到的相冊(cè)圖像數(shù)據(jù)經(jīng)過OpenCV 處理后傳入模型進(jìn)行識(shí)別。品種識(shí)別模塊是移動(dòng)端APP 最重要的模塊,首先需要提供方法調(diào)用模型,其次,將經(jīng)過OpenCV 處理的圖像傳入后,使用模型進(jìn)行識(shí)別,最后,依據(jù)模型的類別情況使用類別文件,從而輸出正確的識(shí)別結(jié)果。在模型識(shí)別過程中,Android 程序通過inferenceInterface.feed() 接口將模型輸入節(jié)點(diǎn)、名稱、圖像大小等固定,確定模型狀態(tài)為推理,將必要的輸入內(nèi)容提供完畢后,使用inferenceInterface.run() 來運(yùn)行推理模型,得到模型預(yù)測(cè)結(jié)果,最后使用inferenceInterface.fetch() 對(duì)模型的輸出進(jìn)行處理,獲得各類別預(yù)測(cè)概率,再結(jié)合類別文件,找出最大概率類別并輸出。結(jié)果輸出模塊為展示模塊,主要功能是將模型運(yùn)行得到的結(jié)果展示到APP 主界面中,通過彈出新窗口展示拍攝獲得的圖像或點(diǎn)選相冊(cè)使用的圖像、識(shí)別結(jié)果及概率,其中當(dāng)模型概率低于80% 時(shí),會(huì)提示識(shí)別的目標(biāo)類別可能不在本模型使用的香花油茶無性系數(shù)據(jù)庫(kù)中。由于模型直接使用PC 端訓(xùn)練的模型,因此可實(shí)現(xiàn)與PC 端模型一致的識(shí)別準(zhǔn)確率。
香花油茶無性系果實(shí)品種識(shí)別APP 主界面如圖7 所示。其中,左上角的閃電圖標(biāo)為閃光燈按鈕,點(diǎn)按后出現(xiàn)相關(guān)可選項(xiàng),分別為關(guān)閉、自動(dòng)、打開、常亮,調(diào)整后會(huì)變成對(duì)應(yīng)閃光燈狀態(tài),右上角的使用說明圖標(biāo)為APP 使用說明文檔按鈕,中間的非黑色區(qū)域?yàn)閿z像機(jī)預(yù)覽,左下角的中空?qǐng)A形圖標(biāo)為相冊(cè)圖像選取按鈕,在選取相冊(cè)圖像后會(huì)切換為相冊(cè)圖像預(yù)覽,下方的白色圓形為圖像拍攝按鈕,點(diǎn)按后會(huì)調(diào)用相機(jī)模塊進(jìn)行圖像拍攝,右下角帶有翻轉(zhuǎn)線條的圓形圖標(biāo)為前置、后置相機(jī)調(diào)整按鈕,點(diǎn)按后會(huì)從后置相機(jī)切換到前置相機(jī)或從前置相機(jī)切換到后置相機(jī)。
香花油茶無性系果實(shí)品種識(shí)別APP 的識(shí)別結(jié)果展示界面如圖8 所示。該界面會(huì)展示識(shí)別圖像縮放圖、模型預(yù)測(cè)的最可能結(jié)果及相應(yīng)概率,點(diǎn)擊左側(cè)繼續(xù)按鈕可以進(jìn)行下一輪識(shí)別,點(diǎn)擊右側(cè)退出按鈕會(huì)關(guān)閉APP。
3 結(jié)論與討論
本研究中對(duì)將深度學(xué)習(xí)應(yīng)用于香花油茶品種識(shí)別的可行性進(jìn)行了探究,采用GoogLeNet-V3 模型對(duì)20 個(gè)香花油茶品種的果實(shí)進(jìn)行識(shí)別,同時(shí)進(jìn)行精度驗(yàn)證。結(jié)果表明:GoogLeNet-V3 模型的宏觀F1 值和微觀F1 值分別達(dá)到89.22% 和94.29%,能滿足識(shí)別油茶品種的要求;GoogLeNet-V3 模型的識(shí)別準(zhǔn)確率、召回率分別為89.13%、89.31%,識(shí)別效果較好;在保證單設(shè)備數(shù)據(jù)采集量的條件下,使用更多設(shè)備采集數(shù)據(jù)能較多提高模型的魯棒性;基于香花油茶無性系果實(shí)品種識(shí)別模型構(gòu)建的移動(dòng)端識(shí)別APP 能取得較高的識(shí)別準(zhǔn)確率??傮w來說,使用該模型能對(duì)香花油茶果品種進(jìn)行識(shí)別。
3.1 果實(shí)特征識(shí)別的影響因素
光照、環(huán)境、遮擋等因素均會(huì)對(duì)果實(shí)圖像的識(shí)別造成影響[25]。本研究中對(duì)在自然環(huán)境下采集的香花油茶果圖像進(jìn)行品種識(shí)別研究,面臨著復(fù)雜的背景干擾問題,因此選取順光或陰涼處進(jìn)行拍攝,以減少光照影響。采用不同智能手機(jī)對(duì)香花油茶果進(jìn)行數(shù)據(jù)采集時(shí),所采集油茶果圖像的分辨率、拍攝距離、拍攝角度均存在一定差異,這些差異可能對(duì)識(shí)別結(jié)果產(chǎn)生一定影響,因此研究了使用不同智能手機(jī)采集圖像對(duì)識(shí)別效果帶來的影響。后續(xù)的研究中將使用統(tǒng)一的設(shè)備采集各品種的圖像,避免使用不同設(shè)備采集數(shù)據(jù)帶來的影響。
3.2 果實(shí)品種識(shí)別的精度
香花油茶品種表型差異小,難以依靠肉眼進(jìn)行區(qū)分,傳統(tǒng)識(shí)別方法多是依據(jù)專家的經(jīng)驗(yàn)。深度學(xué)習(xí)方法與人工識(shí)別方法相比,具有快速、準(zhǔn)確、客觀等特點(diǎn)?,F(xiàn)有的果實(shí)特征識(shí)別模型多樣,本研究中采用應(yīng)用廣泛的經(jīng)典模型對(duì)香花油茶果進(jìn)行識(shí)別,驗(yàn)證深度學(xué)習(xí)用于香花油茶品種識(shí)別的可行性。基于卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典圖像分類模型有Lenet、AlexNet、VGG、GoogLeNet、ResNet等。通過網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化,GoogLeNet、ResNet 模型從不同的角度提升了網(wǎng)絡(luò)層較深時(shí)模型的性能,模型適用性較廣。使用GoogLeNet、ResNet 模型均能有效識(shí)別油茶品種,但GoogLeNet 的識(shí)別效果更優(yōu),較ResNet 更適用于油茶品種識(shí)別[26]。
GoogLeNet[27] 是Google 在2014 年提出的分類網(wǎng)絡(luò),通過使用Inception 模塊、批歸一化方法[28]和輔助分類器,在不改變網(wǎng)絡(luò)深度和寬度的情況下,減少網(wǎng)絡(luò)參數(shù),達(dá)到提高模型性能的效果。Inception 模塊通過使用多尺寸卷積核提取特征并疊加的方法將不同尺度的特征進(jìn)行融合,在較少參數(shù)情況下獲得較好的模型擬合效果;InceptionV1 模塊通過多個(gè)不同大小的卷積核分別提取上層的特征,添加1×1 的卷積核,并將提取的特征疊加傳入下層,比傳統(tǒng)的單一卷積核有更好的效果,同時(shí)減少網(wǎng)絡(luò)的參數(shù)量;在Inception V3[29] 的部分Inception 模塊使用2 個(gè)3×3 卷積核替代5×5 卷積核,減少了網(wǎng)絡(luò)的參數(shù)量,同時(shí)增加了非線性能力,且部分3×3 卷積核被替換為1×3 與3×1組成的非對(duì)稱卷積核,在進(jìn)一步減少參數(shù)量的同時(shí)等效3×3 卷積核功能。批歸一化是指將一批數(shù)據(jù)的輸入值減去這批數(shù)據(jù)的均值再分別除以這批數(shù)據(jù)的標(biāo)準(zhǔn)差,經(jīng)處理后能夠減少訓(xùn)練過程中內(nèi)部節(jié)點(diǎn)分布的變化,減少網(wǎng)絡(luò)內(nèi)部協(xié)變量移位,進(jìn)而加速深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。為防止網(wǎng)絡(luò)傳播過程中的梯度丟失,GoogLeNet 網(wǎng)絡(luò)訓(xùn)練增加輔助分類器,幫助傳播梯度,同時(shí)提供額外正則化,在訓(xùn)練早期輔助分類器并未提高收斂性,因此可以去除較低的輔助分支。因此,本研究中采用GoogLeNet-V3 深度學(xué)習(xí)框架對(duì)香花油茶果進(jìn)行品種識(shí)別研究,通過在自然環(huán)境下采集油茶果圖像,實(shí)現(xiàn)對(duì)油茶果圖像品種的快速和準(zhǔn)確識(shí)別。
對(duì)模型分類結(jié)果進(jìn)行對(duì)比后發(fā)現(xiàn),GoogLeNet-V3 模型的識(shí)別準(zhǔn)確率及召回率較高,且較低訓(xùn)練數(shù)量條件下即可獲得較優(yōu)模型,說明存在減少模型深度而較少降低模型性能的可能性。添加注意力模塊[30-31],調(diào)整卷積層、Inception 層結(jié)構(gòu)[32-35]等方法均有助于提升神經(jīng)網(wǎng)絡(luò)的識(shí)別效果,因此后續(xù)將嘗試通過添加注意力模塊、調(diào)整模型結(jié)構(gòu)等方法,減少模型深度,以提高模型的識(shí)別速度。
3.3 香花油茶果品種識(shí)別移動(dòng)端APP 的特點(diǎn)
香花油茶果品種識(shí)別移動(dòng)端APP 的優(yōu)點(diǎn):針對(duì)性強(qiáng),可識(shí)別至無性系品種級(jí)別。該移動(dòng)端APP以香花油茶無性系果實(shí)品種識(shí)別模型為基礎(chǔ),可準(zhǔn)確識(shí)別20 種香花油茶的無性系品種,經(jīng)測(cè)試,識(shí)別準(zhǔn)確率與PC 端模型效果無異。而市面上的“形色”“花伴侶”“花伴侶Pro”“曉草”“識(shí)花”等植物識(shí)別APP 多為識(shí)別至物種級(jí)別。香花油茶果品種識(shí)別移動(dòng)端APP 的不足:數(shù)據(jù)庫(kù)較小,僅包含20 個(gè)香花油茶無性系品種。目前的香花油茶無性系圖像數(shù)據(jù)庫(kù)較小,僅使用本研究中采集的數(shù)據(jù)不能保證所有香花油茶無性系的順利識(shí)別,需要采集更多無性系及與香花油茶相似度較高的其他油茶物種的圖像增加數(shù)據(jù)庫(kù)的容量,以保證香花油茶無性系品種的順利推廣。而市面上的植物圖像識(shí)別APP 多與官方合作,數(shù)據(jù)庫(kù)大,包含的物種多,能滿足多數(shù)用戶的日常需求。
參考文獻(xiàn):
[1] 王金鳳, 譚新建, 吳喜昌, 等. 我國(guó)油茶產(chǎn)業(yè)發(fā)展現(xiàn)狀與對(duì)策建議[J]. 世界林業(yè)研究,2020,33(6):80-85.
WANG J F, TAN X J, WU X C, et al. Development status andsuggestions ofCamellia industry in China[J]. World ForestryResearch,2020,33(6):80-85.
[2] 李志鋼, 馬力, 陳永忠, 等. 我國(guó)油茶籽的綜合利用現(xiàn)狀概述[J]. 綠色科技,2018(6):191-194.
LI Z G, MA L, CHEN Y Z, et al. Study on the comprehensiveutilization of oil-teaCamellia seed[J]. Journal of Green Scienceand Technology,2018(6):191-194.
[3] 吳瀟. 我國(guó)油茶產(chǎn)業(yè)發(fā)展影響因素及趨勢(shì)預(yù)測(cè)研究[D]. 北京:中國(guó)林業(yè)科學(xué)研究院,2017.
WU X. Study on influencing factors and trend prediction ofcamellia industry development in China[D]. Beijing: ChineseAcademy of Forestry,2017.
[4] 彭邵鋒, 陸佳, 陳永忠, 等. 油茶品種資源現(xiàn)狀與良種篩選技術(shù)[J]. 經(jīng)濟(jì)林研究,2012,30(4):174-179.
PENG S F, LU J, CHEN Y Z, et al. Current status of varietyresources and selection of improved varieties inCamelliaoleifera[J]. Non-wood Forest Research,2012,30(4):174-179.
[5] 馬錦林, 葉航, 葉創(chuàng)興. 香花油茶: 山茶屬短柱茶組一新種[J]. 廣西植物,2012,32(6):753-755.
MA J L, YE H, YE C X. A new species ofCamellia sect[J].Paracamellia Guihaia,2012,32(6):753-755.
[6] 劉凱, 周招娣, 王東雪, 等. 5 個(gè)油茶物種的耐澇性[J]. 廣西林業(yè)科學(xué),2013,42(4):329-332.
LIU K, ZHOU Z D, WANG D X, et al. Flooding tolerance offiveCamellia species[J]. Guangxi Forestry Science,2013,42(4):329-332.
[7] 周招娣, 張日清, 馬錦林, 等. 6 個(gè)油茶物種苗期抗旱性的初步研究[J]. 經(jīng)濟(jì)林研究,2014,32(2):53-57.
ZHOU Z D, ZHANG R Q, MA J L, et al. Study on droughtresistance in sixCamellia species at seedling stage[J]. Non-woodForest Research,2014,32(2):53-57.
[8] 余凱, 賈磊, 陳雨強(qiáng), 等. 深度學(xué)習(xí)的昨天、今天和明天[J].計(jì)算機(jī)研究與發(fā)展,2013,50(9):1799-1804.
YU K, JIA L, CHEN Y Q, et al. Deep learning: yesterday, today,and tomorrow[J]. Journal of Computer Research and Development,2013,50(9):1799-1804.
[9] 鄧立苗, 馬文杰. 基于支持向量機(jī)的玉米葉片品種識(shí)別[J].江蘇農(nóng)業(yè)科學(xué),2014,42(6):372-374.
DENG L M, MA W J. Corn leaf variety recognition basedon support vector machine[J]. Jiangsu Agricultural Sciences,2014,42(6):372-374.
[10] 翟果, 李志敏, 路文超, 等. 基于圖像處理技術(shù)的觀賞菊品種識(shí)別方法研究[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào),2016,37(2):105-110,115.
ZHAI G, LI Z M, LU W C, et al. Study on varietiesidentification of ornamental chrysanthemum based on imageprocessing[J]. Journal of Chinese Agricultural Mechanization,2016,37(2):105-110,115.
[11] AVSHALOM K, OSHRIT R, MICHAL D, et al. Development ofa 3D seed morphological tool for grapevine variety identification,and its comparison with SSR analysis[J]. Scientific Reports,2018,8(1):6545.
[12] 陳文根, 李秀娟, 吳蘭. 基于深度卷積網(wǎng)絡(luò)的小麥品種識(shí)別研究[J]. 糧食儲(chǔ)藏,2018,47(2):1-4,13.CHEN W G, LI X J, WU L. Research on wheat varietyidentification based on deep convolution network[J]. GrainStorage,2018,47(2):1-4,13.
[13] 王立國(guó), 王麗鳳. 結(jié)合高光譜像素級(jí)信息和CNN 的玉米種子品種識(shí)別模型[J]. 遙感學(xué)報(bào),2021,25(11):2234-2244.
WANG L G, WANG L F. Variety identification model for maizeseeds using hyperspectral pixel-level information combinedwith convolutional neural network[J]. National Remote SensingBulletin,2021,25(11):2234-2244.
[14] 李浩. 基于深度學(xué)習(xí)的鮮茶品種識(shí)別研究[D]. 合肥: 安徽農(nóng)業(yè)大學(xué),2020.
LI H. Research on fresh tea type recognition based on deeplearning[D]. Hefei: Anhui Agricultural University,2020.
[15] 石洪康, 田涯涯, 楊創(chuàng), 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的家蠶幼蟲品種智能識(shí)別研究[J]. 西南大學(xué)學(xué)報(bào)( 自然科學(xué)版),2020,42(12):34-45.
SHI H K, TIAN Y Y, YANG C, et al. Research on intelligentrecognition of silkworm larvae races based on convolutionalneural networks[J]. Journal of Southwest University (NaturalScience Edition), 2020,42(12):34-45.
[16] HOWARD A G, ZHU M L, CHEN B, et al. MobileNets:efficient convolutional neural networks for mobilevision applications[J/OL]. Computer Vision and PatternRecognition,2017[2022-05-20]. https://doi.org/10.48550/arXiv.1704.04861.
[17] PEREIRA C S, MORAIS R, REIS M J C S. Deep learningtechniques for grape plant species identification in naturalimages[J]. Sensors,2019,19(22):4850.
[18] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNetclassification with deep convolutional neural networks[J].Communications of the ACM,2017,60(6):84-90.
[19] 曾慶揚(yáng), 丁楚衡, 谷戰(zhàn)英, 等. 基于BP 神經(jīng)網(wǎng)絡(luò)的油茶產(chǎn)量預(yù)測(cè)模型構(gòu)建[J]. 經(jīng)濟(jì)林研究,2022,40(3):87-95.
ZENG Q Y, DING C H, GU Z Y, et al. BuildingCamelliaoleifera yield prediction model based on BP neural network[J].Non-wood Forest Research,2022,40(3):87-95.
[20] 陳偉文, 鄺祝芳, 王忠偉. 基于卷積神經(jīng)網(wǎng)絡(luò)的種苗病害識(shí)別方法[J]. 中南林業(yè)科技大學(xué)學(xué)報(bào),2022,42(7):35-43.
CHEN W W, KUANG Z F, WANG Z W. Method of seeddisease recognition based on convolutional neural network[J].Journal of Central South University of Forestry & Technology,2022,42(7):35-43.
[21] ABADI M, BARHAM P, CHEN J M, et al. TensorFlow: asystem for large-scale machine learning[C]// Proceedings ofthe 12th USENIX conference on operating systems design andimplementation. Savannah, GA, USA: USENIX Association,2016:265-283.
[22] 楊杏麗. 分類學(xué)習(xí)算法的性能度量指標(biāo)綜述[J]. 計(jì)算機(jī)科學(xué),2021,48(8):209-219.
YANG X L. Survey for performance measure index ofclassification learning algorithm[J]. Computer Science,2021,48(8):209-219.
[23] SOKOLOVA M, LAPALME G. A systematic analysis ofperformance measures for classification tasks[J]. InformationProcessing & Management,2009,45:427-437.
[24] 尹孟征. 基于Android 的APP 開發(fā)平臺(tái)綜述[J]. 通信電源技術(shù),2016,33(4):154-155,213.
YIN M Z. Summary of APP development platform based onAndroid[J]. Telecom Power Technology,2016,33(4):154-155,213.
[25] 張習(xí)之. 基于卷積神經(jīng)網(wǎng)絡(luò)的自然光照下油茶果識(shí)別技術(shù)研究[D]. 長(zhǎng)沙: 中南林業(yè)科技大學(xué),2019.
ZHANG X Z. The research on image recognition technologyofCamellia in the natural light based on convolutional neuralnetwork[D]. Changsha: Central South University of Forestry &Technology,2019.
[26] 尹顯明, 棘玉, 張日清, 等. 深度學(xué)習(xí)在基于葉片的油茶品種識(shí)別中的研究[J/OL]. 南京林業(yè)大學(xué)學(xué)報(bào)( 自然科學(xué)版),2023[2023-04-24]. http://kns.cnki.net/kcms/detail/32.1161.S.20230316.1000.006.html.
YIN X M, JI Y, ZHANG R Q, et al. Research on recognitionofCamellia oleifera leaf varieties based on deep learning[J].Journal of Nanjing Forestry University (Natural SciencesEdition),2023[2023-04-24]. http://kns.cnki.net/kcms/detail/32.1161.S.20230316.1000.006.html.
[27] SZEGEDY C, LIU W, JIA Y Q, et al. Going deeper withconvolutions[C]//Proceedings of the IEEE conference oncomputer vision and pattern recognition. Boston: IEEE,2015:1-9.
[28] IOFFE S, SZEGEDY C. Batch normalization: acceleratingdeep network training by reducing internal covariate shift[C]//Proceedings of International Conference on Machine Learning.Lille: IEEE,2015:448-456.
[29] SZEGEDY C, VANHOUCKE V, IOFFE S, et al. Rethinking theinception architecture for computer vision[C]//Proceedings of theIEEE conference on computer vision and pattern recognition. LasVegas: IEEE,2016:2818-2826.
[30] 崔曉暉, 陳民, 陳志泊, 等. 基于注意力機(jī)制的林木物候期識(shí)別方法[J]. 中南林業(yè)科技大學(xué)學(xué)報(bào),2021,41(7):11-19.
CUI X H, CHEN M, CHEN Z B, et al. Forest phenologyrecognition method based on attention mechanism[J]. Journalof Central South University of Forestry & Technology,2021,41(7):11-19.
[31] 劉敬愛, 王宇紅. 基于改進(jìn)GoogLeNet 卷積神經(jīng)網(wǎng)絡(luò)的冰箱食材檢測(cè)算法研究[C]// 第41 屆中國(guó)控制會(huì)議論文集. 合肥:中國(guó)自動(dòng)化學(xué)會(huì)控制理論專業(yè)委員會(huì),2022:7846-7851.
LIU J A, WANG Y H. Research on refrigerator food detectionalgorithm based on improved GoogLeNet convolutionalneural network[C]//Proceedings of the 41st Chinese ControlConference. Hefei: Technical Committee on Control Theory ofChinese Association of Automation,2022:7846-7851.
[32] 宋晨勇, 白皓然, 孫偉浩, 等. 基于GoogLeNet 改進(jìn)模型的蘋果葉病診斷系統(tǒng)設(shè)計(jì)[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào),2021,42(7):148-155.
SONG C Y, BAI H R, SUN W H, et al. Design of apple leafdisease diagnosis system based on GoogLeNet improvedmodel[J]. Journal of Chinese Agricultural Mechanization,2021,42(7):148-155.
[33] 曹林杰, 任德均, 任秋霖, 等. 基于改進(jìn)GoogLeNet 的玻璃安瓿瓶微孔檢測(cè)[J]. 四川大學(xué)學(xué)報(bào)( 自然科學(xué)版),2022,59(5):052002.
CAO L J, REN D J, REN Q L, et al. Microhole detection of glassampoule based on improved GoogLeNet[J]. Journal of SichuanUniversity (Natural Science Edition),2022,59(5):052002.
[34] 潘衛(wèi)軍, 冷元飛, 吳天祎, 等. 基于改進(jìn)GoogLeNet 的飛機(jī)尾流快速識(shí)別[J]. 兵器裝備工程學(xué)報(bào),2022,43(7):38-44.
PAN W J, LENG Y F, WU T Y, et al. Rapid identification ofaircraft wake based on improved GoogLeNet[J]. Journal ofOrdnance Equipment Engineering,2022,43(7):38-44.
[35] 李少佳, 胡美振, 陳輝東, 等. 基于輕量化GoogLeNet 模型的軌道扣件缺陷狀態(tài)識(shí)別[J]. 北京聯(lián)合大學(xué)學(xué)報(bào),2023,37(1):6-12.
LI S J, HU M Z, CHEN H D, et al. Rail fastener defect statusidentification based on lightweight GoogLeNet model[J]. Journalof Beijing Union University,2023,37(1):6-12.
[ 本文編校:聞 麗]