






摘要:針對智慧水產養殖中海參自動采捕和高效計量應用需求,提出一種基于YOLOv4的水下海參檢測與計數算法。該算法利用暗通道先驗算法對數據集進行預處理,增強圖像數據的可檢測性;采用遷移學習方法訓練YOLOv4網絡,并用Swish函數替換骨干網絡中的激活函數,提升自建數據集的海參檢測性能;提出基于相近幀目標質心定位偏移的降重計數方法,優化目標計數結果。試驗結果表明:該檢測算法識別水下海參目標的平均檢測精度的平均值mAP達91.0%,分別比原始YOLOv4、YOLOv3、Faster R-CNN和SDD高4.5%、6.9%、5.0%、29.9%;降重計數算法獲得海參數量與人工計數結果間的均方根誤差RMSE為29.8、平均計數精度ACP為95.8%、決定系數R2為0.998。
關鍵詞:海參;暗通道先驗;YOLOv4;遷移學習;降重計數
中圖分類號:TP391.4; S979" " " 文獻標識碼:A" " " 文章編號:2095?5553 (2024) 09?0258?07
Recognition and counting algorithm of underwater sea cucumbers based on
YOLOv4 network
Song Xiaolu Feng Juan Liang Xiangyu Zhou Xixing
(1. College of Information Science and Technology, Hebei Agricultural University, Baoding, 071001, China;
2. Hebei Key Laboratory of Agricultural Big Data, Baoding, 071001, China;
3. College of Mechanical and Electrical Engineering, Hebei Agricultural University, Baoding, 071001, China)
Abstract: In order to meet the requirements of automatic harvesting and high?efficiency measurement of sea cucumbers in intelligent aquaculture, a recognition and counting algorithm of underwater sea cucumbers based on YOLOv4 is proposed in this paper. The algorithm preprocesses the data set by using dark channel prior defogging algorithm to enhance the detectability of image data, YOLOv4 Network is trained with the transfer learning method, and Swish function is used to replace the activation function in the backbone network to improve the detection performance of the self?built data set,a method based on the target centroid positioning offsets of adjacent frames is proposed to optimize target counting result. The experimental results show that the mAP of sea cucumber targets recognized by the algorithm of this paper reaches 91.0%, which is 4.5%、6.9%、5.0% and 29.9% higher than that recognized by original YOLOv4, YOLOv3, Faster R-CNN, and SDD, respectively. The RMSE between the number of sea cucumbers obtained by reducing repeated counts and the manual counting result is 29.8. The average counting precision (ACP) is 95.8% and the coefficient of determination (R2) is 0.998.
Keywords: sea cucumber; dark channel prior; YOLOv4; transfer learning; reducing repeated counts
0 引言
海參的蛋白質含量較高,具有補益養生的功效。隨著經濟發展和生活水平提高,人們對海參的需求量逐年增加,海參養殖業迅速發展[1?3]。目前,海參的捕撈主要依靠人工,這種捕撈方式安全系數低,且需要比較高的捕撈成本,嚴重阻礙了海參養殖業的發展。因此,采用水下捕撈裝置代替捕撈員下水捕撈海參是未來智慧水產養殖業的主要發展趨勢。準確識別海參目標是實現自動捕撈裝置的關鍵前提;其次,為使海參養殖戶可以動態地了解海參的生長情況、掌握海參的產量,需要對海參個體進行精確計數。
海參目標識別主要基于兩種方法:傳統的機器學習和新近發展的深度學習。近年來,國內外學者基于傳統的機器學習針對海參目標檢測做了大量研究。Christensen等[4]提出了一個魚類檢測網絡,試驗表明:該網絡模型可以正確檢測和分類能見度低、運動模糊的水下圖像中的魚類。Cui等[5]使用改進的Sobel算子和形態學處理得到了海參的二值圖像,經過多次膨脹、腐蝕處理結合小目標移除算法處理,鎖定海參目標。由于水下環境的復雜性,傳統的水下目標檢測算法只能適用于特定的環境,泛化能力較差。深度學習的發展為海參目標識別帶來了新的方向。Huang等[6]使用了透視變換等多種數據增強方式擴充海生物的數據集,使Faster R-CNN的海生物的檢測網絡模型精度提升,魯棒性提高。趙德安等[7]使用優化后的Retinex增強算法處理數據集,使用YOLOv3模型訓練數據,識別準確率達到了96.65%。Zhao等[8]使用一種基于復合骨干網絡的魚類檢測網絡模型,通過Cascade R-CNN對模型進行識別和定位,效果較好。然而,復雜的水下環境和較差的訓練樣本質量限制了檢測的精度。本文將水下圖像預處理算法與深度學習模型相結合,以此來提高檢測海參的精度。
通過查閱國內外相關文獻,未見利用水下視頻實時計數海參的研究報道,其他領域的計數研究也僅限于對單個圖像的目標統計。Tan等[9]提出了一種對雜交水稻中粘附谷粒進行精確分割和計數的算法,與人工計數結果相比,平均準確率為94.63%。Cen等[10]使用Fast R-CNN深度學習模型構建了一個芒果圖像識別算法,用于識別和計數單張圖像和一個果園區域的所有圖像中的芒果,計數識別精度達到82.3%。Deng等[11]利用Faster R-CNN模型結合特征金字塔網絡建立了谷物檢測計數模型,與人工計數相比較,該模型的計數準確率達到了99.4%。深度學習將檢測出的錨點框個數作為檢測圖像中的目標數量,但視頻中的目標計數比單幅圖像的目標計數更為復雜,其檢測和計數過程是逐幀完成,會存在同一個目標被重復計數的問題,故需要設計一種有效降重方法以優化計數結果。
綜上所述,本文提出一種基于YOLOv4的水下海參檢測與計數算法。采用暗通道先驗算法對質量較差的水下海參數據集進行預處理,利用遷移學習對YOLOv4網絡進行訓練,并將YOLOv4骨干網絡中的激活函數改為Swish函數;針對視頻目標計數重復的問題,提出基于相近幀目標質心定位偏移的降重計數法。其將為自動捕撈設備實現海參水下識別并為進一步的捕撈打下良好的基礎,也為其他海洋生物例如貝殼、海膽等的自動識別和計數提供借鑒。
1 材料與方法
1.1 海參數據集
1.1.1 海參數據集的采集
本文的海參視頻取自河北省秦皇島市的海參養殖場。該養殖場水深約2 m,水質較清澈,可看到池底除海參外,還有泥沙、巖石及水草。視頻采集系統是由水下攝像機(SW01)、自主巡航無人船(D001)、人工智能平臺(Jetson AGX Xavier,Nvida)組成。水下攝影機鏡頭在距離水面1.5 m左右的深度,對準池底進行拍攝,采集裝置以0.05 m/s的運行速度在水面持續移動。通過網線連接路由器將采集的海參視頻數據傳輸并保存在同一局域網中的人工智能平臺上。考慮到海參的運動行為一般難以肉眼感知[12],可認為視頻中幾乎不出現同一海參因為運動被重復采集的情況。
1.1.2 海參數據集的構建與標注
利用Python程序從視頻中截取圖像數據集,通過手工篩選出含有海參的圖像2 730幅。深度學習網絡的訓練需要大量的數據,而采集的原始數據較少,需要對數據進行增強處理。為了提高模型的泛化能力,避免過擬合問題,本文通過圖像旋轉、鏡像和隨機裁剪等數據增強方式擴充自建水下海參數據集。圖像旋轉是將海參圖像以圖像的中心點為中心旋轉一定的角度,本文的圖像旋轉角度設置為90°和180°;鏡像是將海參圖像以X中軸線或Y中軸線為中心線進行轉換,本文采用水平鏡像和垂直鏡像;隨機裁剪是隨機從海參圖像中選擇區域,將選中的這部分區域進行裁剪,本文裁剪的結果是含有海參目標的區域。采用上述數據增強方法,水下海參圖像數量從2 730幅增加到10 920幅。部分數據集如圖1所示,池底背景較為復雜。
采用LabelImg (Windows版本,python3.7)軟件對海參數據集中的海參進行標注,賦予標注類名sc,并生成相應的標簽文件。標記后,將圖像數據集按7∶3比例隨機分為訓練集和驗證集。
1.1.3 基于暗通道先驗算法的水下海參圖像預處理
光線在空氣和水中的傳播相似,但因為介質的不同,水下成像環境與空氣中相比較會更加復雜。水介質對藍綠色光的吸收能力要比對其他顏色光的吸收能力弱一些,因此會導致水下拍攝的圖像呈現藍綠色[13];并且海水中還會有漂浮生物和懸浮顆粒等,會干擾和阻礙光線在水介質中的傳輸路徑,會使光線在傳播中的能量消耗更大,發生散射,影響水下圖像的成像品質,造成圖像模糊并且含有噪聲[14]。
水下圖像預處理是水下目標檢測過程中的關鍵環節,能有效地改善水下圖像的質量,恢復有用的信息,增強數據的可檢測性,進而提高深度學習目標檢測算法的檢測精度。本文采用基于暗通道圖像先驗算法[15]復原水下海參圖像。先驗知識是指在清晰,無霧且沒有噪聲的原始圖像中的局部區域,在R、G、B顏色通道中至少一個通道的像素值很低或接近于0,所以稱為暗通道。暗通道圖是這些數字偏低的顏色通道按照特定的方式組合起來形成的灰度圖,經過最小值濾波后得到。
水下成像模型如式(1)所示。
透光率是一個常數,假設為t(x),圖像有的區域霧氣濃度大,但正如真實的水下環境中也會有微小的顆粒,對于圖像來說,霧的存在不但會增強其真實性,也會增強對圖片景深的感知度,因此對這些區域中的霧氣不做完全的消除處理。引入參數ω,得到式(5)。
1.2 水下海參檢測與計數算法
1.2.1 YOLOv4網絡模型
YOLOv4[16, 17]網絡是由CSPDarknet53、SPP、PANet、YOLO Head模塊4部分組成,是在YOLOv3的基礎上在數據增強、損失函數、主干網絡等方面進行了改進和優化,實現了更高的精度和更快的檢測速度,對小目標和遮擋目標的檢測有著顯著提高。YOLOv4的檢測速度和檢測精度都有比較好的性能,可以滿足水下海參的目標檢測需要。但自建的水下海參數據集規模較小,傳統訓練方法無法對網絡進行有效的模型訓練,得到泛化性能較高的檢測模型,需對YOLOv4網絡的訓練方式及結構進行相應調整。
1.2.2 遷移學習訓練網絡
訓練深度學習模型往往需要比較大的數據集,才能獲得較好的效果。因此數據集質量的優劣和數量的多少,是判斷一個深度學習檢測模型性能優劣的一個關鍵因素。但當數據集較少、且標注需要大量的人工,消耗大量時間時,需要研究在數據集較少的情況下如何訓練出一個優質模型的訓練方法。其中一種方案就是遷移學習[18],其原理是將現有的知識和技能從任務A遷移到任務B,可以解決不同但又有相關性的任務,也能提升任務B的性能。使用較大數據集訓練YOLOv4網絡模型的參數可以和使用水下海參數據集訓練的模型參數進行共享,故本文在原始YOLOv4的基礎上引入基于參數的遷移學習方法。首先使用公開的VOC數據集作為數據集訓練YOLOv4網絡,使其可以學習到訓練圖片的底層特征信息;將檢測效果較好且去掉全連接分類層的YOLOv4網絡結構,作為水下海參檢測網絡的特征提取器,進行預訓練;然后凍結主干網絡部分,微調其余未被凍結的網絡部分,將梯度進行更新;最后將凍結部分放開,YOLOv4網絡模型進行新的訓練,學習到新的參數。
1.2.3 激活函數的選擇
在神經網絡中,一個神經元是否被激活,取決于激活函數。因此,激活函數的選擇在模型訓練中起著至關重要的作用,會影響模型的目標檢測的結果。原始的YOLOv4網絡使用的是Mish激活函數[19],數學表達式如式(6)所示,可以獲得比較好的預測效果,但訓練時間較長,記憶代價較大。Swish激活函數,如式(7)所示,具有非單調性的特點,不僅可以解決神經網絡模型輸出的均值偏移的問題,還可以使用網絡訓練尋找最優解。Brain等學者在多個神經網絡上,對多個數據集進行訓練,結果表明:Swish激活函數可獲得優于Mish激活函數的分類性能[20]。并且Swish激活函數在中小型數據集[21]上具有較大的性能優勢。與公共數據集相比,海參圖像數據集較小,因此選擇Swish激活函數代替原來的Mish激活函數。
1.2.4 基于相近幀目標質心定位偏移的降重計數方法
通過YOLOv4網絡模型,可實現對海參圖像目標的識別與計數,但在視頻識別計數過程中,由于相鄰幀中的同一海參位置基本不變,直接計數法會將這些不同幀的同一海參目標識別為不同海參目標,導致重復計數。為了避免以上情況的出現,本文提出了一種基于相近幀目標質心定位偏移的降重計數方法。基本思想:類似于單張圖片的目標檢測,結合攝像頭一個方向運動來實現。該方法的流程如圖3所示。
基本過程:使用K-means生成的預選框,然后通過非極大值抑制得到識別框,計數過程會記錄每一幀的海參目標質心坐標,使用式(8)和式(9)對上一幀中海參目標的質心坐標與當前幀的識別框位置依次進行對比,如果有出現在識別框里,則視為同一個海參目標,更新記錄中的質心坐標為當前的海參目標質心坐標,并且海參總數不會增加;沒有出現,則認為是新的海參目標,將海參目標質心坐標放到記錄中,海參總數加一。在記錄中刪除當前幀中未出現上一幀中的海參目標質心坐標,默認該海參已經計數并不會再出現,釋放內存。
2 結果與分析
2.1 評價指標的確定
精確率P、召回率R、準確率Acc和mAP(mean Average Precision)是水下海參目標檢測試驗中的主要評價指標。精確率指正確預測為海參目標的占全部預測為海參目標的比例;召回率是正確預測為海參目標的占全部實際為海參目標的比例;準確率指所有正確檢測為海參目標占全部海參樣本的比例;AP(Average Precision)是平均檢測精度,mAP是AP的平均值,是判斷一個目標檢測網絡模型性能優劣的重要指標。精確率、召回率、準確率、AP、mAP計算如式(10)~式(14)所示。
2.2 訓練策略對YOLOv4網絡性能的影響
本文使用相同的水下海參數據集,采用多種訓練策略,相同的參數依次對YOLOv4網絡模型進行訓練,然后驗證不同訓練策略對水下海參目標檢測性能指標的影響。試驗結果如表1所示。其中,策略A表示引入遷移學習;策略B表示將模型骨干網絡激活函數修改為Swish函數;策略C表示使用通過暗通道先驗算法處理后的數據訓練YOLOv4網絡。
從表1可以看出,直接使用水下海參數據集進行網絡訓練時,模型缺乏泛化能力。使用海參測試集進行測試時,精確率和召回率較低。使用策略A,基于參數的遷移學習,由于充分訓練了卷積神經網絡部分的卷積核,使模型可以提取到更多的特征。在使用海參測試集測試時,顯著提高了準確性。使用策略B,Swish激活函數可以防止在訓練期間梯度接近零時出現過飽和情況,并且函數的平滑度在優化模型和提高泛化能力中起了重要作用。使用海參測試集進行測試時,mAP較更換前提高0.8%。使用策略C提高了水下海參的圖像質量,抑制了無用的信息,使模型可以提取到更多、更有價值的水下海參圖像信息。通過使用海參測試集進行測試,顯著提高了測試結果的召回率。使用策略A+B后,得到了比單獨使用任意一種策略都要高的精確率和召回率。使用A+B+C策略訓練YOLOv4時,精確率為82.6%,召回率為93.1%,mAP為91.0%,分別比未使用任何策略的原始YOLOv4模型的檢測將結果提高了4.8%、7.7%和4.5%。因此本文最終采用策略A+策略B+策略C的YOLOv4網絡模型作為本研究模型,對水下海參進行目標檢測。
為了將模型檢測性能可視化顯示,使用表1中的原始YOLOv4模型和本文模型對不同水下海參圖片進行檢測,試驗結果如圖4所示。由圖4可知,原始YOLOv4模型會出現一定的漏檢情況,在圖4(b)中使用藍色的標志框將漏檢的結果展示出來,并且檢測出海參目標的置信度也較低;使用綜合策略A+策略B+策略C后的YOLOv4模型,較好的解決了原始模型漏檢的問題,并且檢測出的海參目標的置信度與原始模型相比較有很大提高。因此,綜合使用策略A+策略B+策略C的海參目標檢測模型可以增強檢測目標的置信度,并且具有較好的檢測效果和較強的檢測能力,滿足了實際場景中對海參檢測精度的要求。
2.3 不同模型性能指標的比較
為了驗證綜合改進后的YOLOv4模型在復雜水下環境下對海參的檢測優于其他目標檢測方法。將本文模型與原始YOLOv4,YOLOv3、Faster R-CNN和SDD進行比較。
試驗中訓練所用的數據集和參數均為統一的,也采用了相同的測試集對模型進行評價。評價結果如表2所示,本文模型的mAP值為91.0%,分別比原始YOLOv4、YOLOv3、Faster R-CNN和SDD高4.5%、6.9%、5.0%、29.9%;召回率為93.1%,分別比原始YOLOv4、YOLOv3、Faster R-CNN和SDD高7.7%、9.6%、11.8%、30.3%;精確率為82.6%,分別比原始YOLOv4、YOLOv3、Faster R-CNN和SDD高4.8%、2.4%、2.4%、18.3%;準確率為92.1%,分別比原始YOLOv4、YOLOv3、Faster R-CNN和SDD高6.2%、8.3%、8.4%、29.4%。結果表明:本文模型是對自建水下海參數據集的最優檢測模型。
2.4 海參視頻計數試驗結果
基于YOLOv4結合相近幀目標質心定位偏移的降重計數方法包括水下海參目標檢測和視頻目標計數兩部分。使用采用綜合策略后的YOLOv4算法對真實水下環境視頻中的海參進行識別,并利用所提出的計數方法對識別出的海參進行降重計數。采集的水下海參視頻共覆蓋養殖池中約600 m2的面積。共分為6個視頻。圖6顯示序號1視頻內相鄰三幀的計數情況,每幅圖像左上角為計數結果。
原始的計數方法由于按照視頻幀識別計數海參目標,導致同一個海參被重復計數,當視頻中僅有2只海參時,計數顯示為149,誤差過大。使用了本文提出的降重計數法,海參重復計數的問題被有效解決,計數結果更接近真實的水下海參數量。
表3對比了視頻中海參數量的實際值與使用算法后的計數值。實際值是由來自海參養殖場的研究人員對采集視頻中的可見海參分別進行計數,并將計數結果取平均值得到的。實際值與使用本文算法的計數值間的均方根誤差RMSE為29.8,決定系數R2為0.998,兩者之間存在顯著的相關性。根據式(15)可計算得到平均計數精度ACP為95.8%。
從表3可以看出,算法計數結果普遍比實際值要多些,考慮是由于采集水下海參視頻時速度過快,造成中間幀較模糊,其中的海參未被正確檢測,單個海參目標被誤檢為多個。
3 結論
1) 針對原始YOLOv4檢測網絡泛化能力差,海參樣本數據集少的問題,采用遷移學習的方法訓練卷積神經網絡,以提升網絡在不同養殖環境下海參檢測的泛化能力。試驗結果表明,經過遷移學習的YOLOv4網絡mAP達到89.6%,較未使用遷移學習的網絡提升3.1%。
2) 針對自建數據集較小的問題,將YOLOv4骨干網絡中的Mish激活函數替換為在中小規模數據集上性能表現有較大優勢的Swish激活函數。試驗結果表明,替換激活函數之后的網絡相較之前的網絡mAP提升0.8%,表明激活函數的替換可以提高目標檢測的效果。
3) 針對水下環境復雜,圖像中海參與背景相近的問題,利用暗通道先驗去霧算法對數據集進行圖像增強處理,圖像增強后的模型mAP為88.6%,較未進行圖像增強的模型提升2.1%,表明在復雜水下場景的小樣本數據集中,使用的暗通道先驗去霧算法可以提高深度學習模型的檢測效果。經綜合改進后的模型mAP達到91%,比原始YOLOv4、YOLOv3、Faster R-CNN和SDD高4.5%、6.9%、5.0%、29.9%。
4) 針對視頻目標計數出現重復的問題,提出基于相近幀目標質心定位偏移的降重計數法,優化目標計數。本文方法得到的海參數量與人工計數結果之間的RMSE為29.8,決定系數R2為0.998,海參計數的ACP為95.8%,算法計數結果更接近實際的海參數量。
下一步考慮采集不同環境下的海參圖像擴充數據集,以提高模型的檢測精度和魯棒性;考慮引入路徑規劃算法跟蹤、計數海參,用相似度匹配近鄰幀,共享信息降低多幀冗余性;通過對海參目標的大小進行分類,實現海參生物量的統計,向海參養殖戶提供更精確的養殖數據,使養殖戶可以動態監測海參的生長情況,實時掌握海參養殖信息。
參 考 文 獻
[ 1 ] Fang Y C, Zhang H, Chen X. Resources and biological characteristics of sea cucumber [J]. Beijing Aquatic Products, 2017, 2(5): 25-27.
[ 2 ] 胡榮炊, 蔡珠金, 周宸, 等. 福建海參產業發展形勢分析[J]. 中國水產, 2019, 5(1): 57-59.
Hu Rongcui, Cai Zhujin, Zhou Chen, et al. Analysis on sea cucumber industry development situation of Fujian Province [J]. China Fisheries, 2019, 5(1): 57-59.
[ 3 ] Lu K, Liu H, Bao L. Prediction and development of sea cucumber production in Shandong Province during the 13th five years plan [J]. Ocean Development and Management, 2018, 7(1): 94-100.
[ 4 ] Christensen J, Mogensen L, Galeazzi R, et al. Detection, localization and classification of fish and fish species in poor conditions using convolutional neural networks [J]. Autonomous Underwater Vehicle Workshop, 2018, 3(2): 1-6.
[ 5 ] Cui S, Duan Z, Li G, et al. Research on sea cucumber image recognition based on Sobel improved operator [J]. Computer Knowledge and Technology: Academic Exchange, 2018, 14(22): 145-146.
[ 6 ] Huang Y, Zhou H, Yang X, et al. Faster R-CNN for marine organisms detection and recognition using data augmentation [J]. Neurocomputing, 2019, 337(3): 372-384.
[ 7 ] 趙德安, 劉曉洋, 孫月平, 等. 基于機器視覺的水下河蟹識別方法[J]. 農業機械學報, 2019, 50(3): 151-158.
Zhao De'an, Liu Xiaoyang, Sun Yueping, et al. Detection of underwater crabs based on machine vision [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(3): 151-158.
[ 8 ] Zhao Z, Liu Y, Sun X, et al. Composited FishNet: Fish detection and species recognition from low?quality underwater videos [J]. IEEE Signal Processing Society, 2021, 5(30): 4719-4734.
[ 9 ] Tan S, Ma X, Mai Z, Mai Z, et al. Segmentation and counting algorithm for touching hybrid rice grains [J]. Computers and Electronics in Agriculture, 2019, 162(46): 493-504.
[10] Cen G, Hua J, Pan Y, et al. Research on online recognition and counting method for mango images with deep learning [J]. Journal of Tropical Crops, 2020, 41(3): 425-432.
[11] Deng R, Tao M, Huang X, et al. Automated counting grains on the rice panicle based on deep learning method [J]. Sensors, 2021, 21(1): 281-289.
[12] Qiao X, Bao J, Zhang H, et al. An automatic active contour method for sea cucumber segmentation in natural underwater environments [J]. Computers and Electronics in Agriculture, 2017, 135(3): 134-142.
[13] 趙凱. 基于深度學習的海參檢測算法設計及系統實現[D]. 秦皇島: 燕山大學, 2020.
Zhao Kai. The algorithm design and system implement of sea cucumber detection based on deep leaning [D]. Qinhuangdao: Yanshan University, 2020.
[14] 禹志鵬, 龍杜輝, 劉康. 基于色彩模型的水下海參圖像增強方法研究[J]. 農業裝備與車輛工程, 2022, 60(1): 111-115.
Yu Zhipeng, Long Duhui, Liu Kang. Research on underwater sea cucumber image enhancement method based on color model [J]. Agricultural Equipment amp; Vehicle Engineering, 2022, 60(1): 111-115.
[15] He K, Sun J, Tang X. Single image haze removal using dark channel prior [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 33(12): 2341-2353.
[16] Rui S, Fang G, Zhong X, et al. Improved multi?classes kiwifruit detection in orchard to avoid collisions during robotic picking [J]. Computers and Electronics in Agriculture, 2021, 182(1): 46-52.
[17] Lin T Y. Feature pyramid networks for object detection [J]. Journal of Visual Communication and Image Representation, 2021, 79(10): 936-944.
[18] 李新葉, 龍慎鵬, 朱婧. 基于深度神經網絡的少樣本學習綜述[J]. 計算機應用研究, 2020, 37(8): 2241-2247.
Li Xinye, Long Shenpeng, Zhu Jing. Survey of few?shot learning based on deep neural network [J]. Application Research of Computers, 2020, 37(8): 2241-2247.
[19] Misra D. Mish: A self regularized non?monotonic activation function [J]. Statistics, 2019, 14(54): 60-67.
[20] Le V Q, Ramachandran P, Zoph B. Swish: A Self?Gated activation function [J]. Lecture Notes in Computer Science, 2021, 126(9): 237-244.
[21] Rupshali D, Yuvraj S, Sarita N, et al. Performance comparison of benchmark activation function ReLU, Swish and Mish for facial mask detection using convolutional neural network [J]. Intelligent Systems, 2021, 23(10).