李頎 陳哲豪

















摘要: 為實現果面缺陷冬棗實時檢測,并解決缺陷的尺寸與位置不同影響檢測精度的問題,提出一種基于改進單次多目標檢測器(Single shot multibox detector,SSD)的果面缺陷冬棗實時檢測方法。以陜西大荔冬棗中的蟲蛀、輪紋和木質化3種缺陷果和正常果為研究對象,在數據采集設備下采集實際分揀圖像,然后通過數據增強由400張擴充至2 000張。改進SSD,建立MobileNetV3-SSD模型,為實時檢測奠定基礎;引入改進感受野塊(RFB)可實現模型多尺寸提取冬棗缺陷特征的能力;用空間注意力模塊(SAM)代替擠壓和激勵通道注意力模塊(SE)增強模型定位冬棗缺陷特征的能力。試驗結果表明,本研究模型在果面缺陷冬棗數據集上的表現均優于目前先進目標檢測網絡模型(RetinaNet和EfficientDet-D0),該模型對4類冬棗的整體檢測精準性(mAP)達到91.89%,檢測速度達到1 s 40.85幀。因此本研究模型較好地平衡了實時性和精準性,可應用于果面缺陷冬棗分揀流水線。
關鍵詞: 冬棗;果面缺陷;實時檢測;單次多目標檢測器;多尺寸;空間注意力模型
中圖分類號: TP391.4 文獻標識碼: A 文章編號: 1000-4440(2022)01-0119-10
Abstract: In order to realize the real-time surface defect detection of winter jujube and solve the problems that different sizes and positions affected the detection accuracy, a real-time surface defect detection method of winter jujube based on improved single shot multibox detector (SSD) was proposed. Three kinds of defective winter jujubes(worm, wheel-pattern and lignification) and normal winter jujubes from Dali(Shaanxi province) were taken as the research objects. The actual sorting images were collected by data acquisition equipment, and then expanded from 400 to 2 000 by data enhancement. The SSD was improved, and MobileNetV3-SSD model was established to lay the foundation for real-time detection. The introduction of improved receptive field block (RFB) could realize the ability of model to extract the defect feature of winter jujube at multiple scales. Spatial attention module (SAM) was used to replace squeeze-and-excitation (SE) block, so the ability of the model to locate the defect feature of winter jujube was enhanced. The test results showed that the performance of the proposed model on the dataset of defective winter jujube was better than the current advanced target detection network models (RetinaNet and EfficientDet-D0). The averall detection accuracy of the model for four types of winter jujube was 91.89%, and the detection speed was 40.85 frames per second. Therefore, the model established in this study can balance the real-time performance and accuracy, and can be applied to sorting pipeline of winter jujube with surface defect.
Key words: winter jujube;surface defect;real-time detection;single shot multibox detector;multi-scale;spatial attention module
2020年陜西大荔冬棗產量超5×105 t[1]。龐大的產量帶來了巨大的果面缺陷冬棗分揀量,而人工應對巨大分揀量時精度驟降且效率低下[2-3]。此外采后冬棗常溫下易失水的缺點會導致其品質受損,所以需要盡快完成分揀以冷藏保鮮,可見實現果面缺陷冬棗實時檢測至關重要[4-5]。
常規的果面缺陷檢測方法包括傳統機器學習和深度學習兩類。Lu等[6]使用主成分分析獲得蘋果第一主成分圖像,基于類內方差法分割圖像,根據非零像素判斷蘋果損傷,準確率為84.20%。孫世鵬等[7]利用降維算法確定冬棗損傷處一致的特征波長,經處理獲得一致波長灰度圖,并用支持向量機分類,檢測準確率為81.80%。
顯然傳統機器學習的精度與所提取的果面缺陷特征息息相關。但是冬棗果面缺陷尺寸不一且位置隨機,傳統機器學習的精度也會因特征提取難度的升高而下降[8]。然而深度學習能夠挖掘到人類難以發現的有效特征,從而在果面缺陷檢測任務中脫穎而出。
薛勇等[9]使用GoogLeNet自動提取蘋果果面缺陷特征,對測試樣本檢測準確率達91.91%。費琦琪等[10]利用CNN自主提取冰糖橙缺陷特征,對測試樣本檢測準確率達96.67%。李小占等[11]通過改進VGG網絡訓練哈密瓜表面缺陷檢測模型,檢測準確率為93.50%,靜態下處理單幅圖像需0.7 s。雖然深度學習在上述任務中表現出色,但是卷積神經網絡的巨大計算量導致模型實時性受限。因此果面缺陷目標檢測模型的實時性和精準性的平衡問題亟待解決。
綜上所述,本研究以產自陜西大荔的蟲蛀、輪紋和木質化3種果面缺陷冬棗和正常冬棗為試驗材料,提出基于改進單次多目標檢測器(Single shot multibox detector,SSD)的果面缺陷冬棗實時檢測模型,對缺陷果和正常果進行實時檢測,使檢測模型兼具實時性和精準性。
1 果面缺陷冬棗實時檢測模型
1.1 SSD目標檢測網絡
單位時間內檢測果面缺陷冬棗個數是決定模型實時性的主要因素之一,這就要求選擇的網絡能應用于圖中存在多個冬棗目標的檢測任務,因此果面缺陷冬棗實時檢測模型應選擇目標檢測網絡。目前目標檢測網絡分為單階段檢測網絡和雙階段檢測網絡。雙階段檢測網絡原理是先獲得若干個建議框,最后在建議框中篩選出預測框。而單階段檢測網絡則跳過獲得建議框的階段,直接獲得預測框。因此單階段網絡相較于雙階段網絡的實時性有一定提升。Liu等[12]學習YOLO的回歸理念,提出先驗框預測機制,使SSD具有出色的實時性和精準性。
1.2 MobileNetV3主干網絡
VGG16的計算量高達14.2 G FLOPs,因此VGG16作為主干網絡與SSD搭配存在計算量過大的缺點,這會減緩果面缺陷冬棗實時檢測模型的檢測速度[13]。但是檢測果面缺陷冬棗的速度是決定模型實時性的另一個主要因素,為了進一步加強模型的實時性,本研究用MobileNetV3代替VGG16作為主干網絡與SSD搭配。
一方面MobileNetV3通過使用深度可分離卷積代替大量標準卷積,有效壓縮了果面缺陷冬棗實時檢測模型的計算量,因而模型的實時性得到加強[14]。
深度可分離卷積與標準卷積的區別是,前者將后者的卷積操作分為2步來執行:
(1)對輸入特征圖各通道應用一個濾波器進行深度卷積但不合成特征圖。
(2)利用逐點卷積計算輸入特征圖的線性組合構建輸出特征圖。
深度可分離卷積由深度卷積和逐點卷積兩部分組成[15]。深度卷積和逐點卷積的計算量分別如公式(1)和公式(2)所示。
NDepthwise=DK×DK×M×DF×DF(1)
式中NDepthwise是深度卷積計算量,DK是輸入特征圖大小,M是輸入特征圖通道數,DF是輸出特征圖大小。
另一方面,MobileNetV3通過使用倒殘差模塊,提高模型學習冬棗果面特征的效率,減少模型冗余計算。
倒殘差模塊由擴張層、深度可分離卷積層和投影層組成。其設計思路是:為了深度可分離卷積層在高維度特征圖中學習到更多冬棗果面缺陷特征,通過使擴張層中的擴張系數factor=6升高特征圖維度,為了有效降低模型向下傳遞特征圖時的計算量,又通過投影層壓縮特征圖維度。
本研究將MobileNetV3的池化層及其之后的卷積層刪除,然后與SSD拼接組成MobileNetV3-SSD。MobileNetV3-SSD將第13個倒殘差模塊和池化層之前的卷積層的輸出作為預測特征層,最后通過預測特征層和SSD附加層得到預測結果(圖1)。
1.3 改進感受野塊
本研究借助OpenCV庫的ContourArea函數計算冬棗果面缺陷面積與果面總面積的比例來分析冬棗果面缺陷尺寸。由圖2可以看出,蟲蛀、輪紋和木質化的尺寸位于6個區間內,分別是(0,0.05],(0.05,0.10],(0.10,0.15],(0.15,0.20],(0.20,0.25]和(0.25,0.30],然而單尺寸感受野無法勝任提取不同尺寸冬棗果面缺陷特征的任務[16]。
針對上述問題,本研究將改進的感受野塊(Receptive field block,RFB)引入果面缺陷冬棗實時檢測模型,讓模型從3個尺寸提取冬棗果面缺陷特征,旨在提高模型分類果面缺陷冬棗的精度[17]。
RFB是一種模仿人眼群體感受野(Population receptive field,pRF)的仿生卷積結構,該結構通過標準卷積和空洞卷積模擬pRF尺寸與偏心率的正相關實現特征圖感受野[18-19]。為了獲得3種尺寸的冬棗果面缺陷特征,引入模型的RFB設置為3個分支卷積結構,其中每個分支由卷積核大小不同的標準卷積和膨脹率不同的空洞卷積組成,前者用于模擬不同尺寸的pRF,后者用于模擬不同偏心率的pRF。由圖3可以看出,空洞卷積核的膨脹率隨著標準卷積核的尺寸增大而增大,兩者的變化關系則復現了pRF的尺寸與偏心率的關系。最后RFB各分支輸出的特征圖都將疊加到一起,以實現多尺寸果面缺陷特征融合。
為了減輕引入RFB對模型實時性的影響,本研究對RFB進行改進:將3×3標準卷積拆分成并聯的1×3標準卷積和3×1標準卷積;將5×5標準卷積拆分成串聯的1×5標準卷積和5×1標準卷積;同時用深度可分離卷積代替標準卷積實現空洞卷積,最后得到改進的RFB模塊(圖4)。由于在淺層特征圖中更容易提取到尺寸普遍偏小的冬棗果面缺陷特征,本研究將改進RFB模塊嵌入MobilenetV3-SSD的第13個倒殘差模塊和分類定位預測層之間。
1.4 空間注意力模塊
通過觀察圖5中3類果面缺陷出現的位置,發現缺陷可能處于果面邊緣,也可能處于果面中央,甚至遍布果面。針對缺陷在冬棗果面上任意分布的問題,本研究引入空間注意力機制幫助果面缺陷冬棗實時檢測模型確定果面缺陷的位置,繼而提高模型定位冬棗果面缺陷位置的精度。
倒殘差模塊中采用了擠壓和激勵模塊(Squeeze-and-Excitation,SE),SE屬于通道注意力機制,該機制利用各通道特征圖之間的關系來提取冬棗果面缺陷特征,最后生成基于果面缺陷特征的通道注意力特征圖。可見通道注意力機制有利于提高模型提取果面缺陷特征的能力[20]。但是冬棗果面缺陷位置不確定影響了模型定位果面缺陷冬棗的精度。解決這個問題需要增強模型定位冬棗果面缺陷的能力,而空間注意力機制恰好能改善模型的定位能力,因此本研究用卷積層注意力模塊(CBAM)中的空間注意力模塊(SAM)取代SE[21-23]。
如圖6所示,本研究將倒殘差模塊中深度可分離卷積層的輸出作為SAM的輸入特征圖,SAM首先通過F推導出空間注意力特征圖MS(F),然后MS(F)與F進行哈達瑪積運算,求得輸出特征圖F′,最后SAM的輸出作為投影層的輸入。
式中F′是輸出特征圖, MS(F)是空間注意力特征圖,F是輸入特征圖。
執行哈達瑪積運算的目的是為F中出現冬棗果面缺陷特征的位置分配相應的關注度。
如圖7所示,為了推導MS(F),首先需要通過最大池化和平均池化整合F的通道信息,生成平均池化特征圖(FSavg)和最大池化特征圖(FSmax),2種池化操作的目的是凸顯冬棗果面缺陷部位特征[24];然后疊加FSavg和FSmax,生成疊加特征圖FSconcat;最后FSconcat依次經過7×7標準卷積和sigmoid激活函數處理生成空間注意力特征圖[MS(F)]。
式中MS(F)是空間注意力特征圖,F是輸入特征圖,FSavg是平均池化特征圖,FSmax是最大池化特征圖。
2 果面缺陷冬棗實時檢測模型訓練
2.1 果面缺陷冬棗數據集建立
2.1.1 數據采集 采集時間為2020年7-11月,采集地點為陜西中農厚樸農業科技有限公司。果面缺陷冬棗數據集以陜西大荔冬棗為數據采集對象。數據集由3類果面缺陷冬棗和正常冬棗組成。如圖8所示,數據集通過數據采集設備完成采集工作,其中電荷耦合器件(Charge coupled device,CCD)工業相機使用杭州海康威視數字技術股份有限公司生產的MV-CE013-50UC相機,最大分辨率為1 280×960,即1.30×1010像素。采集時冬棗隨機擺放,同時CCD工業相機在自然光照下以俯視視角采集圖像。
2.1.2 數據集預處理及生成 原始數據集共400張圖像,本研究使用LabelImg標注數據,標注文件格式參照Pascal VOC。
為了提高果面缺陷冬棗實時檢測模型的檢測精度和泛化能力,本研究使用Python庫函數Imgaug對數據集進行數據增強[25]。考慮到圖像內的冬棗果面特征不會因觀察方向的變化而改變,并且為了增強模型在不同光照下的魯棒性,本研究使用上下翻轉、左右翻轉、鏡像翻轉和亮度增減4種方法實現數據增強。在Imgaug的幫助下,標注框會隨著數據增強而變換,避免再次繪制。
經過增強,數據集共2 000張圖像,按8∶1∶1的比例劃分為訓練集、驗證集和測試集。
2.2 試驗環境
試驗硬件環境選擇Inter(R) Xeon(R) CPU E5-2637 @3.50 Hz和NVIDIA GeForce RTX2070 SUPER 8 G;操作系統為Windows Server 2008 R2 Enterprise 64bit;軟件環境選擇Python3.6.7和Keras 2.1.5。
2.3 模型訓練
本研究模型訓練運用遷移學習策略,需要在Pascal VOC07+12數據集上訓練得到預訓練模型。鑒于豐富的Pascal VOC07+12數據集中必然有數據與本研究數據存在關聯,因此遷移學習能把學到的模型參數應用于本研究數據集訓練,達到加快并優化訓練的目的,避免人工初始化參數直接在數據集上訓練,導致模型表現不佳[26]。
另外模型訓練還運用了凍結訓練策略,即主干網絡MobileNetV3的模型參數不會隨著模型訓練而更新。凍結訓練可以有效避免模型過擬合。本研究將前50次訓練設為凍結訓練階段,輸入圖像大小統一修改為300×300,批數據量為16,學習率為0.000 5。第50次以后訓練進入解凍訓練階段,批數據量減半,學習率降為0.000 1。其中學習率下降以驗證損失為標準,當驗證損失經過3次訓練不下降,學習率減半。訓練使用自適應矩估計優化器,β1=0.900,β2=0.999。Adam優化器可預防學習步長過小導致模型收斂緩慢的問題。
2.4 模型性能評價指標
由于果面缺陷目標檢測模型在實際應用中需要平衡實時性和精準性,因此試驗中模型性能的優劣以這2個性能為衡量標準。每秒幀數(FPS)可表示模型對果面缺陷冬棗檢測的實時性,平均精度(AP)可表示模型對各類冬棗檢測的精準性,mAP可表示模型對4類冬棗的整體檢測精準性。因此本研究將FPS、AP和mAP作為評價指標。
計算AP需求得精度(p)和召回率(r),p和r計算公式如公式(7)和公式(8)所示。
p=TPTP+FP(7)
r=TPTP+FN(8)
式中TP表示分類正確的正樣本數,FP表示分類錯誤的正樣本數,FN表示分類錯誤的負樣本數。
AP和mAP的計算公式如公式(9)和公式(10)所示。
AP=∫10p(r)dr(9)
mAP=∑ni=1AP(i)n(10)
式中n表示冬棗果面類別數,故n=4;AP(i)表示第i類冬棗果面的平均精度。
3 結果與分析
3.1 不同主干網絡對模型性能的影響
為了分析MobileNetV3對模型檢測冬棗果面缺陷速度的影響,本研究對SSD分別搭配VGG16和MobileNetV3的性能進行比較試驗。由表1可知,當主干網絡由VGG16更換為MobileNetV3后,模型計算量減少了43.16 MFLOPs。龐大計算量的減少優化了模型性能,mAP僅損失1.98%,FPS獲得81.22%的提升,達到41.30。因此將MobileNetV3作為主干網絡可為果面缺陷冬棗實時檢測模型的實際應用奠定基礎。
3.2 不同尺寸感受野對模型性能的影響
為了分析應用多尺寸感受野對模型分類冬棗果面缺陷精度的影響,并避免MobileNetV3作為主干網絡對試驗的干擾,本研究對VGG16-SSD的引入是否改進RFB的性能進行試驗,即試驗SSD分別應用多尺寸感受野和單尺寸感受野對模型性能的影響。試驗結果如表2所示,改進的RFB后,模型對正常冬棗、蟲蛀冬棗、輪紋冬棗和木質化冬棗的AP分別提升了0.39、2.23、2.06、1.32個百分點,mAP提升了1.50個百分點。同時改進的RFB為輕量級卷積塊,將其引入模型后,模型計算量僅增加2.75%,FPS僅下降3.20%,說明模型的實時性基本不受影響。
此外多尺寸感受野的應用對于正常冬棗的分類精度提高不明顯,原因是相對于果面缺陷冬棗,正常冬棗的果面不存在多尺寸果面特征,因此多尺寸感受野更適用于提取不同尺寸的冬棗果面缺陷特征。
如圖9所示,應用單尺寸感受野的模型忽略了果面上存在小尺寸輪紋的冬棗,導致分類錯誤。而應用多尺寸感受野的模型可以從多個尺寸提取冬棗果面缺陷特征,因此對果面上存在不同尺寸缺陷的冬棗分類無誤。
3.3 不同注意力模塊對模型性能的影響
為了分析應用空間注意力機制對模型定位冬棗果面缺陷精度的影響,本研究對MobileNetV3-SSD使用不同注意力模塊進行比較試驗。試驗結果(表3)表明,當注意力模塊由SE更換為SAM后,模型對正常冬棗、蟲蛀冬棗、輪紋冬棗和木質化冬棗的AP分別提升了2.63、2.27、3.34、3.18個百分點,mAP提升了2.85個百分點。同時由于刪減掉CBAM中屬于通道注意力機制的CAM,僅將SAM引入模型,模型計算量降低了42.58%,FPS提升了3.70%。
模型對正常冬棗的AP提升的原因是正常冬棗的果面特征單一且分布規律,易被模型定位,因此SAM可提高模型定位正常冬棗的精度。
如圖10所示,應用通道注意力模塊的模型無法定位輪紋特征,導致輪紋冬棗定位不準確。而應用空間注意力模塊的模型具備定位輪紋特征的能力,因此對輪紋冬棗定位無誤。
3.4 不同改進組合對模型性能的影響
本研究分別從主干網絡、感受野尺寸以及注意力模塊3個方面對SSD進行改進。SSD為表4中的模型1。在上述試驗中不同改進單獨與SSD的組合分別記作表4中的模型2至模型4。如表5所示,模型1~模型4 4個模型的性能較好,為了分析所有改進與SSD組合對模型的影響,本研究將所有改進與SSD組成的模型記作模型5,并與其他4個模型進行性能比較試驗。
由表5可知,模型5表現出眾,該模型以MobileNetV3為主干網絡,同時引入改進RFB并選擇SAM取代SE完成組合。在實時性上,模型5的FPS達40.85,僅與檢測速度最快的模型4相差1.98。在精準性上,模型5的mAP位列各模型之首,達到91.89%。模型5有效平衡了模型的實時性與精準性之間的關系,足見所有改進共同作用的有效性,因此本研究將表現最優的模型5作為本研究提出的冬棗果面缺陷實時檢測模型。
圖11為本研究模型在測試集上的表現。
3.5 本研究模型與目前先進目標檢測網絡性能對比
為了分析本研究模型的性能,本研究將所提出的模型與目前先進的目標檢測網絡RetinaNet和EfficientDet-D0在果面缺陷冬棗數據集上進行比較試驗。為保證比較試驗的可靠性,2種比較模型均按本研究模型訓練方式進行訓練。由表6可知,本研究模型的mAP和FPS均排在首位,其中比EfficientDet-D0的mAP和FPS分別高出3.65個百分點和7.15。經分析,EfficientDet-D0采用雙向特征金字塔網絡(BiFPN)結合特征加權策略,這有利于模型重視與冬棗果面缺陷尺寸相符的特征,忽略冗余特征,EfficientDet-D0的性能略優于RetinaNet[27]。
從圖12可知,各模型在訓練過程中收斂迅速,且驗證損失均在第70次訓練中便趨于穩定,這得益于遷移學習策略和Adam優化器的應用。同時由于訓練中使用凍結訓練策略,各模型訓練趨于穩定時驗證損失與訓練損失相近,第100次訓練的驗證損失均低于訓練損失,未出現過擬合現象。
4 結論
本研究針對實時檢測在果面缺陷冬棗分揀中的重要性以及果面缺陷尺寸不一、分布隨機影響檢測精度的問題,對SSD進行改進:SSD通過搭配MobileNetV3,從檢測速度方面提高本研究模型的實時性;SSD通過引入改進RFB和SAM從分類和定位兩方面提高本研究模型的精準性。通過對比試驗,本研究模型的有效性得到驗證,mAP達到91.89%,FPS達到40.85。在組合不同改進的模型中,本研究模型平衡實時性和精準性的能力最強。在與目前先進目標檢測網絡模型的對比中,本研究模型比EfficientDet-D0的mAP和FPS分別高出3.65個百分點和7.15,比RetinaNet的mAP和FPS分別高出4.52個百分點和12.75 。因此本研究模型可以為果面缺陷冬棗實時檢測提供技術支持。經實測,本研究模型 1 h分揀量可達4 t。
參考文獻:
[1] 王春煥,王 瑩,張夢輝. 大荔縣冬棗產業發展建議[J].陜西林業科技,2021,49(2):97-99.
[2] 侯鵬帥,劉玉樂,宋 欣,等. 基于智能視覺識別的冬棗分選檢測系統設計[J].中國農機化學報,2020,41(3):109-114.
[3] GENG L,XU W,ZHANG F,et al. Dried jujube classification based on a double branch deep fusion convolution neural network[J].Japanese Society for Food Science and Technology,2018,24(6):1007-1015.
[4] NTURAMBIRWE J F I, OPARA U L. Machine learning applications to non-destructive defect detection in horticultural products[J].Biosystems Engineering,2020,189:60-83.
[5] BHARGAVA A, BANSAL A. Fruits and vegetables quality evaluation using computer vision: a review[J].Journal of King Saud University-Computer and Information Sciences,2021,33(3):243-257.
[6] LU Y, LU R. Development of a multispectral structured illumination reflectance imaging (SIRI) system and its application to bruise detection of apples[J].Transactions of the ASABE,2017,60(4):1379-1389.
[7] 孫世鵬,彭 俊,李 瑞,等. 基于近紅外高光譜圖像的冬棗損傷早期檢測[J].食品科學,2017,38(2):301-305.
[8] JU J, ZHENG H, XU X,et al. Classification of jujube defects in small data sets based on transfer learning[DB/OL].(2021-01-30)[2022-01-15].https://link.springer.com/article/10.1007/s00521-021-05715-2.
[9] 薛 勇,王立揚,張 瑜,等. 基于GoogLeNet深度遷移學習的蘋果缺陷檢測方法[J].農業機械學報,2020,51(7):30-35.
[10]費琦琪,施 杰,夏 敏,等. 基于CNN的冰糖橙分級系統[J].江蘇農業學報,2020,36(2):513-519.
[11]李小占,馬本學,喻國威,等. 基于深度學習與圖像處理的哈密瓜表面缺陷檢測[J].農業工程學報,2021,37(1):223-232.
[12]LIU W, ANGUELOV D, ERHAN D, et al.SSD: single shot multibox detector[M]. Amsterdam,The Netherlands:Proceedings of the European Conference on Computer Vision,2016.
[13]徐先峰,趙萬福,鄒浩泉,等. 基于MobileNet-SSD的安全帽佩戴檢測方法[J].計算機工程,2021,47(10):298-305,313.
[14]HOWARD A, SANDLER M, CHU G, et al. Searching for mobilenetv3[M]. Soual,Korea:International Conference on Computer Vision,2019.
[15]CHOLLET F. Xception: deep learning with depthwise separable convolutions[M]. Hawaii,United States:Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017.
[16]黃林生,羅耀武,楊小冬,等. 基于注意力機制和多尺度殘差網絡的農作物病害識別[J].農業機械學報,2021,52(10):264-271.
[17]王春山,周 冀,吳華瑞,等. 改進Multi-scale ResNet的蔬菜葉部病害識別[J].農業工程學報,2020,36(20):209-217.
[18]LIU S, HUANG D, WANG Y. Receptive field block net for accurate and fast object detection[M]. Munich,Germany:Proceedings of the European Conference on Computer Vision,2018.
[19]WANDELL B, WINAWER J. Computational neuroimaging and population receptive fields[J].Trends in Cognitive Sciences,2015,19(6):349-357.
[20]HU J, SHEN L, SUN G, et al. Squeeze-and-excitation networks[M]. Salt Lake City,United States:Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2018.
[21]高欽泉,黃炳城,劉文哲,等. 基于改進CenterNet的竹條表面缺陷檢測方法[J].計算機應用,2021,41(7):1933-1938.
[22]WOO S, PARK J, LEE J, et al. CBAM: convolutional block attention module[M]. Munich,Germany:Proceedings of the European Conference on Computer Vision,2018.
[23]CHEN L, ZHANG H, XIAO J, et al. SCA-CNN: spatial and channel-wise attention in convolutional networks for image captioning[M]. Hawaii,United States:Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2017.
[24]ZAGORUYKO S, KOMODAKIS N. Paying more attention to attention: improving the performance of convolutional neural networks via attention transfer[M]. Paris,France:International Conference on Learning Representations,2017.
[25]TSUCHIYA H, FUKUI S, IWAHORI Y, et al. A method of data augmentation for classifying road damage considering influence on classification accuracy[J].Procedia Computer Science,2019,159:1449-1458.
[26]余小東,楊孟輯,張海清,等. 基于遷移學習的農作物病蟲害檢測方法研究與應用[J].農業機械學報,2020,51(10):252-258.
[27]TAN M , PANG R , LE Q V. EfficientDet: scalable and efficient object detection[M]. Virtual:Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2020.
(責任編輯:陳海霞)
2707500783266