










摘 要: 針對(duì)牧場(chǎng)中家畜越界及傳統(tǒng)電子圍欄難以防止家畜越界的問(wèn)題,基于改進(jìn)后的YOLOv5 算法,設(shè)計(jì)了虛擬電子圍欄。采用YOLOv5s 算法作為基礎(chǔ),并進(jìn)行了遷移學(xué)習(xí)和添加ECA 注意力模塊。利用PyTorch 框架進(jìn)行訓(xùn)練,并對(duì)模型進(jìn)行了評(píng)估,相比原版YOLOv5s,改進(jìn)YOLOv5s 算法對(duì)黃牛的檢測(cè)精確率、召回率、平均精度均值分別提升0.2、1.3、0.7 個(gè)百分點(diǎn),單幀推理總耗時(shí)下降0.5 ms。將改進(jìn)后的模型轉(zhuǎn)換為RKNN 格式,并部署在帶有NPU 的RK3588 開(kāi)發(fā)板上,加快模型推理速度。結(jié)果表明,應(yīng)用深度學(xué)習(xí)技術(shù)與ROI 劃定技術(shù),成功設(shè)計(jì)了家畜虛擬電子圍欄,優(yōu)化智慧牧場(chǎng)的管理體系,提高管理效率,降低管理成本,具備一定的實(shí)用價(jià)值。
關(guān)鍵詞:YOLOv5;RK3588;深度學(xué)習(xí);虛擬圍欄;感興趣區(qū)域;智慧牧場(chǎng);家畜
中圖分類號(hào):S126 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1795(2024)04-0041-05
DOI:10.19998/j.cnki.2095-1795.2024.04.007
0 引言
近年來(lái),我國(guó)畜牧養(yǎng)殖規(guī)模持續(xù)擴(kuò)大,牧場(chǎng)養(yǎng)殖中存在家畜越界的問(wèn)題,為生產(chǎn)管理帶來(lái)巨大挑戰(zhàn)。隨著智慧農(nóng)業(yè)的快速發(fā)展,人工智能技術(shù)、物聯(lián)網(wǎng)技術(shù)正在潛移默化地幫助現(xiàn)代養(yǎng)殖產(chǎn)業(yè)更新?lián)Q代,牧場(chǎng)管理方式更加信息化、智能化[1-3]。基于計(jì)算機(jī)視覺(jué)與目標(biāo)檢測(cè)技術(shù),能夠?yàn)榧倚筇摂M電子圍欄提供技術(shù)支撐[4]。
家畜越界一直是困擾牧場(chǎng)的一大問(wèn)題,傳統(tǒng)的木制圍欄安裝麻煩、維護(hù)成本高,廢棄后難以拆除。現(xiàn)有脈沖電子圍欄雖能在一定程度上阻止家畜越界,但是其通電有間隔,并且通電導(dǎo)線較細(xì),家畜有可能會(huì)趁未通電時(shí)間沖撞或越出圍欄,脈沖電子圍欄無(wú)法有效阻止家畜越界。
在國(guó)外,由PARK J K[5] 研究的無(wú)人農(nóng)場(chǎng)虛擬圍欄,是為每個(gè)動(dòng)物佩戴上裝有GPS 模塊和射頻模塊的嵌入式項(xiàng)鏈。虛擬圍欄是由許多基站組合成的多邊形,當(dāng)動(dòng)物接近虛擬圍欄時(shí),基站就會(huì)向動(dòng)物發(fā)出其不喜歡的聲音,使其遠(yuǎn)離虛擬圍欄。然而,此設(shè)計(jì)的缺點(diǎn)也很明顯,每個(gè)動(dòng)物都佩戴特制項(xiàng)鏈,這將大大增加成本,可能高于傳統(tǒng)物理圍欄系統(tǒng)成本。
隨著牧場(chǎng)視頻監(jiān)控設(shè)備的普及,將Faster R-CNN[6]、SSD [7]、YOLO 系列[8-11] 目標(biāo)檢測(cè)算法應(yīng)用于家畜檢測(cè)。本研究基于YOLOv5 算法,使用ROI 作為圍欄,當(dāng)家畜進(jìn)入?yún)^(qū)域后發(fā)出警報(bào),以此構(gòu)建虛擬電子圍欄。
1 數(shù)據(jù)獲取與處理
1.1 數(shù)據(jù)獲取
本研究應(yīng)用場(chǎng)景是在牧場(chǎng)外圍禁止家畜越出圍欄,在此前提下,將目標(biāo)檢測(cè)的圖像分為綿羊和黃牛兩種。在目標(biāo)檢測(cè)中常用的數(shù)據(jù)集為COCO 數(shù)據(jù)集。
COCO 數(shù)據(jù)集作為公開(kāi)數(shù)據(jù)集,可以從官方網(wǎng)站下載。本研究圖像均來(lái)自其最新的COCO2017,其中,綿羊圖像共1 483 張、黃牛圖像共2 839 張。圖像包括不同光照、不同拍攝角度和距離、不同遮擋的情況。
1.2 數(shù)據(jù)集構(gòu)建
將下載的綿羊、黃牛數(shù)據(jù)集進(jìn)行處理,剔除遮擋率高、質(zhì)量差的圖像,并使用LabelImg 軟件進(jìn)行人工標(biāo)注,保證訓(xùn)練數(shù)據(jù)的高質(zhì)量。數(shù)據(jù)集劃分為訓(xùn)練集和驗(yàn)證集,其中,訓(xùn)練集占80%,驗(yàn)證集占20%。最終,數(shù)據(jù)集的圖像數(shù)量分布如表1 所示。
2 研究方法
2.1 YOLOv5 算法
YOLOv5 算法在YOLOv4 的基礎(chǔ)上進(jìn)行了許多改進(jìn),具有輕量、高速、準(zhǔn)確度高的優(yōu)點(diǎn),其應(yīng)用廣泛,技術(shù)成熟。YOLOv5 在輸入端保留了Mosaic 數(shù)據(jù)增強(qiáng)的基礎(chǔ)上,增加了自適應(yīng)圖像縮放與自適應(yīng)錨框計(jì)算方法;在特征提取層上添加了C3 與Focus 結(jié)構(gòu),大幅增強(qiáng)特征表達(dá)能力[12]。
YOLOv5 系列網(wǎng)絡(luò)架構(gòu)有5 種結(jié)構(gòu):YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l 和YOLOv5x。其中,YOLOv5n 的特征圖寬度和網(wǎng)絡(luò)深度最小,其余4 個(gè)版本都是在YOLOv5n 基礎(chǔ)上加深和加寬的網(wǎng)絡(luò)[13]。綜合考慮精度、推理速度、模型體量, 本研究選擇YOLOv5s 作為基礎(chǔ),并在其基礎(chǔ)上進(jìn)行改進(jìn)以滿足設(shè)計(jì)需求。
2.2 改進(jìn)YOLOv5s 目標(biāo)檢測(cè)方法
2.2.1 遷移學(xué)習(xí)
由于準(zhǔn)備的訓(xùn)練集較大,如果從零開(kāi)始訓(xùn)練,容易出現(xiàn)收斂慢的問(wèn)題。因此,使用YOLO 官方提供的YOLOv5s.pt 預(yù)訓(xùn)練權(quán)重,在訓(xùn)練時(shí)能夠加快收斂速度。
2.2.2 添加感興趣區(qū)域
感興趣區(qū)域(ROI)是指從待處理圖像中任意標(biāo)出一個(gè)閉合多邊形區(qū)域,讓程序重點(diǎn)處理ROI 內(nèi)的圖像,簡(jiǎn)化處理過(guò)程。本研究用ROI 作為虛擬圍欄,起到代替實(shí)體圍欄的作用。
為了使程序僅檢測(cè)區(qū)域內(nèi)的目標(biāo),需要對(duì)待處理圖像非ROI 部分進(jìn)行遮罩處理。首先,用鼠標(biāo)選取4個(gè)點(diǎn)作為四邊形的4 個(gè)頂點(diǎn),程序自動(dòng)計(jì)算這4 個(gè)點(diǎn)相對(duì)左邊框與上邊框的距離比例,如圖1 所示。
每個(gè)頂點(diǎn)的位置計(jì)算方法如下
設(shè)第i 個(gè)點(diǎn)的坐標(biāo)為(xi, yi),則可得
式中 di1——第i 個(gè)點(diǎn)與左邊框的距離之比,0lt;di1lt;1
di2——第i 個(gè)點(diǎn)與上邊框的距離之比,0lt;di2lt;1
w——圖像橫向總像素點(diǎn),px
h——圖像縱向總像素點(diǎn),px
xi——第i 個(gè)點(diǎn)與圖像左側(cè)的像素點(diǎn)之差,px
yi——第i 個(gè)點(diǎn)與圖像上側(cè)的像素點(diǎn)之差,px
使用Python 的OpenCV、Numpy 庫(kù),可以很方便地在圖像上畫(huà)出遮罩,如圖2 所示。
使用YOLOv5 自帶的推理函數(shù),得到圖像推理結(jié)果,如圖3 所示。可以發(fā)現(xiàn),在ROI 內(nèi)的綿羊均被檢測(cè)到,而ROI 外的綿羊未被檢測(cè)。至此,ROI 添加完畢。
2.2.3 添加ECA 注意力模塊
ECA(efficient channel attention)模塊是一種高效的通道注意力模塊[14]。ECA 模塊通過(guò)1D 卷積生成通道注意力,其卷積核大小可以通過(guò)通道維度的非線性映射自適應(yīng)確定。ECA 模塊的通道注意力權(quán)重計(jì)算公式為
式中 ωi——第i 個(gè)通道注意力權(quán)重
yj, i——第i 個(gè)通道第j 個(gè)特征圖
wj, i——第i 個(gè)通道第j 個(gè)特征圖的權(quán)重
C——通道數(shù)
σ——sigmoid 函數(shù)
對(duì)于每個(gè)通道i,對(duì)該通道的所有特征圖進(jìn)行加權(quán)求和,得到一個(gè)標(biāo)量值,然后通過(guò)sigmoid 函數(shù)將其映射到[0,1] 的范圍內(nèi),作為該通道的注意力權(quán)重。其中,權(quán)重wj, i 是通過(guò)一個(gè)自適應(yīng)的非線性映射計(jì)算得到的,這個(gè)權(quán)重計(jì)算方式可以捕捉到通道之間的交互關(guān)系,從而提高模型的性能。
ECA 模塊相比于其他注意力模塊,只增加了極少的額外參數(shù)和計(jì)算量,同時(shí)帶來(lái)了顯著的性能提升。本研究將其嵌入YOLOv5s 的特征層中,有效捕獲了跨通道交互的信息,以聚焦于目標(biāo)檢測(cè)。插入ECA 模塊后的改進(jìn)YOLOv5s 模型結(jié)構(gòu)如圖4 所示。
3 模型訓(xùn)練
3.1 訓(xùn)練參數(shù)設(shè)置
試驗(yàn)所使用的顯卡RTX 3 070 Laptop、操作系統(tǒng)Ubuntu 22.04、使用Pytorch 版本2.0.1、CUDA 版本11.7 及CuDNN 版本8.5.0。YOLOv5s 使用像素640×640 圖像作為輸入,迭代周期(Epoch)150,批量大小(Batch-size)16,訓(xùn)練優(yōu)化器選用隨機(jī)梯度下降法(SGD),初始與最終學(xué)習(xí)率均為0.01,動(dòng)量因子0.937,權(quán)重衰減系數(shù)0.000 5,開(kāi)啟Mosaic 數(shù)據(jù)增強(qiáng)。
3.2 評(píng)價(jià)指標(biāo)
選取召回率(recall)、精確率(precision)、平均精度均值(mean average precision,mAP)、單幀推理總耗時(shí)作為評(píng)價(jià)指標(biāo)以衡量模型性能。其中單幀推理總耗時(shí)=前處理(pre-process)耗時(shí)+推理(inference)耗時(shí)+非極大值抑制(non-maximum suppression,NMS)耗時(shí)。
3.3 模型結(jié)果與分析
從訓(xùn)練集與驗(yàn)證集中各隨機(jī)選擇100 張圖片,作為測(cè)試集。對(duì)于黃牛和綿羊的檢測(cè)結(jié)果如表2 所示。改進(jìn)YOLOv5s 對(duì)黃牛的檢測(cè)精確率、召回率和平均精度均值分別提升0.2、1.3 和0.7 個(gè)百分點(diǎn),單幀推理總耗時(shí)下降0.5 ms;雖然改進(jìn)YOLOv5s 對(duì)綿羊的檢測(cè)精確率下降1.8 個(gè)百分點(diǎn),但召回率、平均精度均值分別提升1.5 和0.6 個(gè)百分點(diǎn),單幀推理總耗時(shí)下降1.0 ms ,說(shuō)明改進(jìn)YOLOv5s 有更好的模型性能。因此,本研究的遷移學(xué)習(xí)、添加注意力機(jī)制有效提升了檢測(cè)準(zhǔn)確度,降低推理耗時(shí)。
4 模型本地部署
4.1 準(zhǔn)備工作
4.1.1 模型格式轉(zhuǎn)換
為實(shí)現(xiàn)實(shí)時(shí)檢測(cè)牧場(chǎng)攝像頭畫(huà)面,需要配備體積小、推理性能強(qiáng)的設(shè)備。因此,本研究使用香橙派5開(kāi)發(fā)板,其CPU 為RK3588,內(nèi)置6Tops 算力的神經(jīng)網(wǎng)絡(luò)計(jì)算單元(neural-network processing unit,NPU),可滿足視頻流推理需求。也有許多將YOLO 算法與RK 平臺(tái)相結(jié)合的研究, 張利紅[15] 研究了在RK3399Pro 上的YOLO 目標(biāo)檢測(cè)。胡鵬等[16] 基于YOLO 算法在RK3399 平臺(tái)上研究了實(shí)時(shí)行人檢測(cè)方法。
本研究目標(biāo)檢測(cè)模型是在YOLOv5s 預(yù)訓(xùn)練模型基礎(chǔ)上訓(xùn)練而來(lái)的,訓(xùn)練采用PyTorch 框架,其最終模型是PyTorch 模型,而香橙派5 上的NPU 所支持的是RKNN 模型。因此,需要先將PyTorch 轉(zhuǎn)換為開(kāi)放神經(jīng)網(wǎng)絡(luò)交換(open neural network exchange, ONNX)格式,再將ONNX 轉(zhuǎn)換為RKNN 格式。
上述轉(zhuǎn)換分別使用YOLOv5 項(xiàng)目自帶的export.py與RKNN-toolkit2 自帶的test.py 經(jīng)過(guò)調(diào)整參數(shù)及修改部分內(nèi)容,最后運(yùn)行程序,即可實(shí)現(xiàn)模型轉(zhuǎn)換。
4.1.2 優(yōu)化在RK3588 上的推理速度
ReLU( rectified linear unit conv) [17] 和SiLU(sigmoid linear unit)[18] 都是常用的卷積層激活函數(shù),它們主要區(qū)別在于非線性形狀不同。ReLU 函數(shù)在輸入gt;0 時(shí)直接輸出,否則輸出0。其數(shù)學(xué)表達(dá)式為
f (x) = max(0, x) (4)
SiLU 函數(shù)在接近零時(shí)具有更平滑的曲線,并且由于其使用了sigmoid 函數(shù),可以使網(wǎng)絡(luò)的輸出范圍在0和1 之間,其數(shù)學(xué)表達(dá)式為
對(duì)比二者的數(shù)學(xué)表達(dá)式不難發(fā)現(xiàn), ReLU 函數(shù)的計(jì)算量遠(yuǎn)遠(yuǎn)小于SiLU 函數(shù)的計(jì)算量。在RK3588 平臺(tái)上可以減輕NPU 的計(jì)算壓力,從而獲得更高的FPS。
在訓(xùn)練改進(jìn)后的YOLOv5 模型時(shí), 將卷積層的SiLU 函數(shù)替換為ReLU 函數(shù)。如表3 所示,經(jīng)過(guò)試驗(yàn)對(duì)比,發(fā)現(xiàn)在RK3588 平臺(tái)上,使用2、4、6 線程時(shí),ReLU 做卷積層激活函數(shù)會(huì)比SiLU 推理速度分別快76%、73% 和40%,提高了推理速度。
4.1.3 移植、優(yōu)化主程序
把轉(zhuǎn)換完畢的RKNN 模型傳到香橙派5 上,并從PC 端移植、修改對(duì)應(yīng)的推理程序,重寫ROI 檢測(cè),加入多線程機(jī)制, 提高NPU 使用率, 進(jìn)而提升推理幀數(shù)。
修改RKNN 模型路徑、測(cè)試視頻目錄,運(yùn)行主程序,可查看實(shí)時(shí)推理畫(huà)面、目標(biāo)類型、置信度和FPS。
4.2 部署應(yīng)用
虛擬電子圍欄工作程序如圖5 所示。由于RK3588的NPU 算力強(qiáng),可同時(shí)將多個(gè)攝像頭的視頻畫(huà)面?zhèn)鬏斀o其推理,節(jié)省硬件成本。當(dāng)在ROI 內(nèi)檢測(cè)到目標(biāo)時(shí),揚(yáng)聲器會(huì)自動(dòng)發(fā)出警報(bào)驅(qū)離家畜,同時(shí)推送信息給云端,再由云端通過(guò)微信提醒用戶。
5 結(jié)束語(yǔ)
基于現(xiàn)有的牧場(chǎng)存在家畜越界問(wèn)題,提出了將深度學(xué)習(xí)技術(shù)應(yīng)用于虛擬電子圍欄的方法, 完成了YOLOv5s 改進(jìn)模型的訓(xùn)練、家畜虛擬電子圍欄的設(shè)計(jì)、模型部署等工作,將理論研究落地到實(shí)際項(xiàng)目中。第一,提出了一種基于深度學(xué)習(xí)技術(shù)的虛擬電子圍欄設(shè)計(jì),旨在解決傳統(tǒng)電子圍欄安裝煩瑣、維護(hù)費(fèi)用昂貴等問(wèn)題。第二,引入感興趣區(qū)域(ROI),將其作為虛擬圍欄,當(dāng)家畜進(jìn)入該區(qū)域時(shí),揚(yáng)聲器會(huì)發(fā)出警報(bào)音以驅(qū)離家畜。第三,為了提高模型性能,對(duì)YOLOv5s模型進(jìn)行了改進(jìn),引入了遷移學(xué)習(xí)和ECA 注意力模塊。第四,將改進(jìn)后的模型部署到香橙派5 開(kāi)發(fā)板上,并通過(guò)多線程機(jī)制提高NPU 使用率,從而實(shí)現(xiàn)了高效率推理。
主要?jiǎng)?chuàng)新點(diǎn)有兩個(gè)方面。①創(chuàng)新性地將深度學(xué)習(xí)技術(shù)應(yīng)用于家畜虛擬電子圍欄。本研究設(shè)計(jì)的圍欄與國(guó)外基于GPS、IoT 的虛擬圍欄系統(tǒng)不同,使用計(jì)算機(jī)視覺(jué)+深度學(xué)習(xí)目標(biāo)識(shí)別的方法,大幅減少嵌入式設(shè)備的使用,做到真正低成本建設(shè)。②相比國(guó)內(nèi)基于視頻監(jiān)控的虛擬電子圍欄,本研究集檢測(cè)、識(shí)別、通知和驅(qū)離于一體,功能集成度高,可拓展性強(qiáng)。將深度學(xué)習(xí)技術(shù)應(yīng)用于家畜虛擬電子圍欄,使其具有更高的準(zhǔn)確性和智能性。
綜上所述,所提出的虛擬電子圍欄設(shè)計(jì)結(jié)合深度學(xué)習(xí)技術(shù)和ROI 的應(yīng)用,為牧場(chǎng)管理提供了一種新的智能化解決方案。改進(jìn)的YOLOv5 模型在試驗(yàn)中表現(xiàn)出了較好的性能,并且在RK3588 開(kāi)發(fā)板上的部署能夠滿足實(shí)時(shí)監(jiān)測(cè)和驅(qū)離家畜的需求。本研究不僅優(yōu)化了管理體系,提高了管理效率,降低了管理成本,同時(shí)也具備了一定的實(shí)用價(jià)值和推廣潛力。然而,本研究還有一些局限性,如對(duì)其他類型家畜檢測(cè)的泛化能力有待進(jìn)一步探索,未來(lái)可以在此基礎(chǔ)上進(jìn)行更多深入的研究和優(yōu)化。
參考文獻(xiàn)
[1]黃小平,馮濤,郭陽(yáng)陽(yáng),等.基于改進(jìn)YOLOv5s 的輕量級(jí)奶牛體況評(píng)分方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2023,54(6):287-296.
HUANG Xiaoping,F(xiàn)ENG Tao,GUO Yangyang,et al.Lightweightdairy cow body condition scoring method based on improved YOLOv5s[J]. Transactions of the Chinese Society for Agricultural Machinery,2023,54(6):287-296.
[2]劉生智,李春蓉,劉同金,等.基于YOLOv3 模型的奶牛目標(biāo)檢測(cè)[J].塔里木大學(xué)學(xué)報(bào),2019,31(2):85-90.
LIU Shengzhi, LI Chunrong, LIU Tongjin, et al. Detection of dairycows based on YOLOv3 model[J].Journal of Tarim University,2019,31(2):85-90.
[3]何東健,劉冬,趙凱旋.精準(zhǔn)畜牧業(yè)中動(dòng)物信息智能感知與行為檢測(cè)研究進(jìn)展[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2016,47(5):231-244.
HE Dongjian,LIU Dong,ZHAO Kaixuan.Review of perceiving animalinformation and behavior in precision livestock farming[J].Transactionsof the Chinese Society for Agricultural Machinery, 2016,47(5):231-244.
[4]劉敬.基于視頻監(jiān)控的虛擬電子圍欄系統(tǒng)設(shè)計(jì)研究[D].濟(jì)南:濟(jì)南大學(xué),2020.
LIU Jing. Research and design of virtual electronic fence systembasedon video surveillance[D].Ji'nan:Ji'nan University,2020.
[5]PARK J K.Unmanned farm utilizes virtual fence technology for animaltracking[J]. International Journal of Engineering and Advanced Technology,2019,9(2):1328-1330.
[6]REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards realtimeobject detection with region proposal networks[J].Proceedings ofthe IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[7]LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shotmultiBox detector[C]//European Conference on Computer Vision,2016:21-37.
[8]REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:unified,real-time object detection[C]//Proceedings of the IEEE Conferenceon Computer Vision and Pattern Recognition,2016:779-788.
[9]REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]//Proceedings of the IEEE Conference on Computer Vision and PatternRecognition,2017:7263-7271.
[10]REDMON J, FARHADI A. YOLOv3: an incremental improvement[J].2018.a(chǎn)rXiv:1804.02767.
[11]BOCHKOVSKIY A, WANG C Y, LIAO H Y M. Yolov4: optimalspeed and accuracy of object detection[J].2020.a(chǎn)rxiv:2004.10934.
[12]WANG H,ZHILI S.Improved mosaic:algorithms for more compleximages[J]. Journal of Physics: Conference Series, 2020( 1) : 94-102.
[13]寧紀(jì)鋒,林靖雅,楊蜀秦,等.基于改進(jìn)YOLOv5s 的奶山羊面部識(shí)別方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2023,54(4):331-337.
NING Jifeng, LIN Jingya, YANG Shuqin, et al. Face recognitionmethod of dairy goat based on improved YOLOv5s[J].Transactions ofthe Chinese Society for Agricultural Machinery, 2023, 54( 4) : 331-337.
[14]WANG Q,WU B,ZHU P,et al.ECA-Net:Efficient channel attentionfor deep convolutional neural networks[C]//Proceedings of theIEEE/CVF conference on computer vision and pattern recognition,2020:11534-11542.
[15]張利紅.基于RK3399Pro 和YOLO 的目標(biāo)檢測(cè)應(yīng)用研究[D].成都:中國(guó)科學(xué)院大學(xué)(中國(guó)科學(xué)院光電技術(shù)研究所),2022.
ZHANG Lihong. Research on target detection application based onRK3399Pro and YOLO[D].Chengdu:University of Chinese Academyof Sciences ( The Institute of Optics and Electronics, The ChineseAcademy of Sciences),2022.
[16]胡鵬,張光建.基于YOLO 算法和RK3399 平臺(tái)的行人檢測(cè)實(shí)時(shí)性研究[J].?dāng)?shù)字技術(shù)與應(yīng)用,2020,38(3):78-81.
HU Peng,ZHANG Guangjian.Real-time research of pedestrian detectionbased on the YOLO algorithm and the RK3399 platform[J].DigitalTechnology and Applications,2020,38(3):78-81.
[17]AGARAP A F. Deep learning using rectified linear units ( relu)[J].2018.a(chǎn)rxiv:1803.08375.
[18]ELFWING S, UCHIBE E, DOYA K. Sigmoid-weighted linear unitsfor neural network function approximation in reinforcement learning[J].Neural Networks,2018,107:3-11.