999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于實(shí)例分割和機(jī)器學(xué)習(xí)的育肥豬群體體重估測(cè)方法研究

2025-09-25 00:00:00羅世林何秀歐陽(yáng)夢(mèng)俞正陽(yáng)梁亞茹楊小玲

中圖分類(lèi)號(hào):S828 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-5553(2025)10-0153-08

Abstract:Targeting thelarge-scale production and breeding offatening pigs,traditional pig weighing methods have problems such aslowautomation level,low eficiency,time-consumingand laborintensive,andeasy stresson pigs.A non-contact fatening pig population weight estimation method based on instance segmentation and machine learning is proposed.Two diferent instance segmentation algorithms,Mask R—CNNand Mask2former,were used to obtain the mask contours of pigs,and the results were compared. The segmentation accuracy of Mask R—CNN and Mask2former were 93.86% and 98.98% ,respectively.Finally,the Mask2former instance segmentation model was selected.Combining the image informationof thepig segmentation mask,the relevant feature parametersof themask image were extractedas thedata inputfor the model.Diferent algorithms wereused toconstruct multipleweight estimation models forcomparison.The random forest estimation model is found to have the best performance,with acoeficientof determination R2 of 0.94,an average absolute error of 7.92kg ,and an averagerelative error of 2.58% . The experiment demonstrates that the non-contact Weightestimation method forfatening pig populations based oninstance segmentationand machine learningcan efectively predict body weight,providing technical and theoretical support for achieving automatic weighing of pig populations.

Keywords:fattening pig population;weight estimation;image procesing;instance segmentation;machine learning; feature extraction

0 引言

體重是動(dòng)物關(guān)鍵生長(zhǎng)指標(biāo)之一,其變化趨勢(shì)能夠反映動(dòng)物的健康狀況[1]。在規(guī)模化群豬養(yǎng)殖生產(chǎn)中,傳統(tǒng)的豬只體重測(cè)量方法不僅費(fèi)時(shí)費(fèi)力,容易造成應(yīng)激反應(yīng),還會(huì)使豬只的生產(chǎn)機(jī)能下降3,影響豬只的正常生長(zhǎng)發(fā)育,甚至導(dǎo)致發(fā)病[4]。因此,迫切需要一種非接觸式測(cè)量育肥豬群體重的估測(cè)方法。

隨著機(jī)器視覺(jué)技術(shù)的持續(xù)進(jìn)步,已有研究使用機(jī)器視覺(jué)技術(shù)對(duì)生豬體重進(jìn)行探索。例如,通過(guò)分析豬只的體型特征(如長(zhǎng)度、寬度和高度)[5,獲取豬只圖像信息,結(jié)合機(jī)器學(xué)習(xí)算法,可以準(zhǔn)確地預(yù)測(cè)其體重。此外,研究開(kāi)發(fā)出一種基于圖像步行系統(tǒng)預(yù)測(cè)生豬體重,采用人工神經(jīng)網(wǎng)絡(luò)技術(shù)獲取豬只圖像特征,與豬只體重進(jìn)行相關(guān)聯(lián),其預(yù)測(cè)體重與實(shí)際體重的平均相對(duì)誤差約為 3%[6] 。李卓等[7利用背部投影面積、實(shí)際面積、體高、體長(zhǎng)和體寬等特征信息,建立13種體質(zhì)量估測(cè)模型,其線性模型的效果最好,決定系數(shù)達(dá)到0.996。

目前主要以中、大型動(dòng)物為研究對(duì)象,比如使用深度相機(jī)采集生豬的背部圖像[8],結(jié)合圖像處理方法,提取其投影面積,設(shè)計(jì)一種基于圖像的稱(chēng)重系統(tǒng)9,估測(cè)生豬的體重;研究人員通過(guò)采集豬只的胸圍、臀寬、臀高等體尺信息,構(gòu)建線性回歸或神經(jīng)網(wǎng)絡(luò)體重估測(cè)模型并進(jìn)行預(yù)測(cè),效果顯著[10;楊艷等[11]利用計(jì)算機(jī)視覺(jué)技術(shù),提取種豬投影面積,建立體重回歸預(yù)測(cè)模型,其相關(guān)系數(shù)達(dá)0.94;王志文[12提出一種基于語(yǔ)義分割和雙目視覺(jué)相結(jié)合的非接觸式牦牛體重估測(cè)方法,模型平均誤差為10.78% ;張建龍等[13]利用深度卷積網(wǎng)絡(luò)構(gòu)建4種育肥豬體重估測(cè)模型,經(jīng)對(duì)比得出DenseNet2O1模型體重估測(cè)效果最好,其相關(guān)系數(shù)為0.9939;郭蓓佳等[14采用圖像處理技術(shù)提取蛋雞特征,通過(guò)回歸擬合方法建立多種蛋雞體重估測(cè)模型,發(fā)現(xiàn)MLP神經(jīng)網(wǎng)絡(luò)模型的預(yù)測(cè)效果最好,其決定系數(shù)為0.96;朱讓東等[15使用伊犁馬的胸圍、體高、體長(zhǎng)信息作為特征值,基于RBF神經(jīng)網(wǎng)絡(luò)建立伊犁馬體重估測(cè)模型,其決定系數(shù)為0.917;郝雪萍1利用深度學(xué)習(xí)與人工智能等技術(shù)應(yīng)用于杜泊羊的體重估測(cè)中,估算出10只羊體重的平均誤差為 4.10% 其效果比較理想;Mollah等[在理想的試驗(yàn)環(huán)境中,選擇采用雞的背部投影面積與其體重建立體重估測(cè)線性方程,該方程擬合度為0.999,效果良好,其估測(cè)體重與實(shí)際測(cè)量體重在35天內(nèi)沒(méi)有顯著差異。

目前,對(duì)育肥豬群體體重估測(cè)方面的研究已取得一定進(jìn)展,但現(xiàn)有研究較少,仍存在諸多不足。傳統(tǒng)方法操作復(fù)雜且可能使豬只產(chǎn)生應(yīng)激反應(yīng),影響其正常生長(zhǎng)和健康狀態(tài),難以實(shí)現(xiàn)實(shí)時(shí)監(jiān)測(cè)和大規(guī)模應(yīng)用。

盡管一些研究嘗試通過(guò)機(jī)器視覺(jué)技術(shù)進(jìn)行非接觸測(cè)量,但在圖像處理和數(shù)據(jù)分析方面仍存在挑戰(zhàn),如光照、噪聲等因素的干擾以及存在圖像分割不完整的問(wèn)題。基于此,本文進(jìn)一步研究和優(yōu)化育肥豬群豬體重估測(cè)方法,提出一種基于實(shí)例分割與機(jī)器學(xué)習(xí)相結(jié)合的非接觸式育肥豬群體體重估測(cè)方法,使用MaskR—CNN和Mask2former兩種不同的實(shí)例分割算法對(duì)群豬圖像進(jìn)行分割并對(duì)比,選擇性能較優(yōu)的分割模型提取掩膜圖像特征參數(shù)數(shù)據(jù),建立育肥豬群體體重估測(cè)模型,以提高育肥豬群體體重估測(cè)的準(zhǔn)確性和實(shí)用性。

1材料與方法

1.1 試驗(yàn)材料

試驗(yàn)在江西省某養(yǎng)殖基地5號(hào)豬舍內(nèi)進(jìn)行,從不同的豬欄隨機(jī)挑選5頭豬到固定的采集區(qū)域。數(shù)據(jù)采集時(shí)間為2023年10月17日—11月17日。

1.2 試驗(yàn)儀器

試驗(yàn)選用1080p海康威視攝像頭,型號(hào)為 DS- IPC-T12HV3-IA/POE,焦距為 4mm ,采集的圖像為1920像素 ×1080 像素的彩色圖像,存儲(chǔ)為JPG格式。錄像機(jī)通過(guò)交換機(jī)與攝像頭相連,將采集的視頻數(shù)據(jù)以 mp4 格式保存到錄像機(jī)中,通過(guò)測(cè)量精度為 0.1kg 的電子秤測(cè)得實(shí)際體重?cái)?shù)據(jù)。

1.3 數(shù)據(jù)采集

豬舍內(nèi)環(huán)境溫度為 25°C~28°C ,照明燈光偏白。該豬舍由24個(gè)豬欄組成,每個(gè)豬欄長(zhǎng) 7m 、寬 3m 高1.2m ,其中有4個(gè)空豬欄,剩下的每一個(gè)豬欄約有20頭豬,共約有400頭育肥豬。

在豬舍內(nèi)搭建視頻數(shù)據(jù)采集平臺(tái),采集區(qū)域長(zhǎng)2.6m 寬 2m ;將攝像頭固定在采集區(qū)域的正上方進(jìn)行俯拍,攝像頭距離地面 2.7m ,垂直向下。5頭豬為一組數(shù)據(jù),一共600頭豬,在每頭豬的背上寫(xiě)下數(shù)字標(biāo)記,方便后續(xù)圖像與體重值相對(duì)應(yīng),使用地磅秤測(cè)量豬只的實(shí)際體重。將5頭豬趕到攝像頭區(qū)域內(nèi)進(jìn)行視頻錄制,讓其在拍攝區(qū)域內(nèi)自由活動(dòng),每組視頻采集時(shí)間約為 10min ,獲取站立、行走、吃食等不同行為。

2 圖像特征提取

試驗(yàn)采用MaskR—CNN和Mask2former兩種不同的實(shí)例分割算法對(duì)育肥群豬進(jìn)行目標(biāo)檢測(cè)與實(shí)例分割,將預(yù)測(cè)分割效果進(jìn)行對(duì)比[18],把掩膜圖像轉(zhuǎn)換成為二值化圖像,提取其特征參數(shù)數(shù)據(jù);由于豬只比較活躍,經(jīng)常來(lái)回走動(dòng),對(duì)圖像的影響較大,而育肥豬背部圖像形狀偏橢圓,因此使用圓形核函數(shù)對(duì)圖像進(jìn)行形態(tài)學(xué)處理,以減少對(duì)體重估測(cè)的不利影響[19]。

2.1 模型設(shè)計(jì)

2.1.1 MaskR-CNN

MaskR—CNN是一種實(shí)例分割算法,該算法基于FasterR—CNN框架進(jìn)行擴(kuò)展,增加一個(gè)預(yù)測(cè)實(shí)例分割mask,不僅能夠檢測(cè)圖像中的物體,還能為每一個(gè)檢測(cè)到的物體生成精確的像素級(jí)掩碼,具有較高的分割精度,從而實(shí)現(xiàn)對(duì)每個(gè)實(shí)例的分割[20],其網(wǎng)絡(luò)框架結(jié)構(gòu)如圖1所示。MaskR—CNN網(wǎng)絡(luò)結(jié)構(gòu)由主干網(wǎng)絡(luò)、區(qū)域建議網(wǎng)絡(luò)RPN、ROIAlign層3部分組成。

在MaskR一CNN中,Backbone通常由深度殘差網(wǎng)絡(luò)ResNet和特征金字塔網(wǎng)絡(luò)FPN構(gòu)成[21],ResNet能夠通過(guò)其深層結(jié)構(gòu)有效地提取圖像的復(fù)雜特征;特征金字塔網(wǎng)絡(luò)FPN能夠解決目標(biāo)檢測(cè)中的多尺度問(wèn)題[22],在提升準(zhǔn)確率的同時(shí)保證網(wǎng)絡(luò)的計(jì)算量和速度不受影響。區(qū)域建議網(wǎng)絡(luò)RPN是一個(gè)全卷積網(wǎng)絡(luò),用于提出可能包含物體的區(qū)域建議框,這些區(qū)域建議框?qū)⒈缓罄m(xù)的網(wǎng)絡(luò)部分用于分類(lèi)和邊界框回歸。ROI Align 層取代 Faster R—CNN 中的 ROI Pooling層,能夠更準(zhǔn)確地捕捉ROI內(nèi)部的空間信息,從而有助于提高目標(biāo)檢測(cè)的準(zhǔn)確性。

2.1.2 Mask2former

Mask2former是一種基于Transformer的神經(jīng)網(wǎng)絡(luò)模型,可用于語(yǔ)言建模、機(jī)器翻譯、文本生成等NLP任務(wù)。其原理是將輸入序列中的一部分詞匯(稱(chēng)為“掩碼\")替換成特殊的掩碼標(biāo)記,利用Transformer來(lái)預(yù)測(cè)這些掩碼標(biāo)記所代表的詞匯。在模型訓(xùn)練過(guò)程中,通過(guò)對(duì)不同數(shù)量和位置的掩碼進(jìn)行預(yù)測(cè)和評(píng)估,可以有效地提高模型的表現(xiàn)能力。Mask2former的整體架構(gòu)由骨干網(wǎng)絡(luò)(Backbone)、像素解碼器(PixelDecoder)和Transformer解碼器(TransformerDecoder)組成,其網(wǎng)絡(luò)框架結(jié)構(gòu)如圖2所示。

在整體網(wǎng)絡(luò)架構(gòu)中,骨干網(wǎng)作為初始組成部分,其主要職責(zé)在于從原始輸入圖像中提取出低分辨率的特征。像素解碼器的作用是將主干特征提取器的輸出逐步進(jìn)行上采樣處理,以此將低分辨率的特征轉(zhuǎn)換為高分辨率的每像素嵌人,這一過(guò)程對(duì)于重構(gòu)圖像細(xì)節(jié)和實(shí)現(xiàn)精確分割非常關(guān)鍵。Transformer解碼器進(jìn)一步對(duì)這些圖像特征執(zhí)行操作,以處理針對(duì)對(duì)象的查詢(xún),從而有效地對(duì)圖像中的不同對(duì)象進(jìn)行識(shí)別和分割。

2.2 數(shù)據(jù)集制作

試驗(yàn)共采集120組視頻數(shù)據(jù),通過(guò)python代碼使用OpenCV庫(kù)讀取視頻文件的每一幀圖像,將圖像保存到文件夾。從文件夾中隨機(jī)選取3600張圖像制作COCO數(shù)據(jù)集,使用開(kāi)源軟件Labelme對(duì)圖像進(jìn)行多邊形輪廓標(biāo)注,通過(guò)Labelme2coco進(jìn)行轉(zhuǎn)換,得到該數(shù)據(jù)集對(duì)應(yīng)的annotations.json文件[23]。為提高模型的準(zhǔn)確性和魯棒性,按照7:3的比例將育肥豬圖像數(shù)據(jù)集進(jìn)行劃分,得到訓(xùn)練集2520張,測(cè)試集1080張。

2.3模型參數(shù)設(shè)置

MaskR-CNN模型以 ResNet50+F PN作為骨干網(wǎng)絡(luò)架構(gòu),并在COCO數(shù)據(jù)集上實(shí)施3倍的訓(xùn)練迭代。該模型應(yīng)用多項(xiàng)式學(xué)習(xí)率調(diào)整策略,其中基礎(chǔ)學(xué)習(xí)率設(shè)為0.02,動(dòng)量值設(shè)為0.9,采用0.0001的權(quán)重衰減系數(shù),batch size設(shè)為 32[24] ,最大訓(xùn)練輪數(shù)設(shè)為 200. 。

Mask2former采用ResNet50網(wǎng)絡(luò)結(jié)構(gòu),在COCO數(shù)據(jù)集進(jìn)行8倍訓(xùn)練,共進(jìn)行50個(gè)epoch,使用LSJ數(shù)據(jù)增強(qiáng)策略,學(xué)習(xí)率為0.0001,權(quán)重衰減系數(shù)設(shè)置為0.05。

2.4MaskR一CNN和Mask2former實(shí)例分割模型預(yù)測(cè)結(jié)果

在實(shí)例分割模型中,使用平均精確均值mAP作為指標(biāo)評(píng)價(jià)。從圖片數(shù)據(jù)集中選擇400張未標(biāo)注的圖片作為測(cè)試集對(duì)兩種實(shí)例分割模型進(jìn)行驗(yàn)證,如圖3和圖4所示。可以看出,Mask2former實(shí)例分割模型比MaskR—CNN實(shí)例分割模型的效果更好。

2.5特征參數(shù)獲取

根據(jù)圖3和圖4的分割效果對(duì)比,最終選擇Mask2former實(shí)例分割模型。由于豬只活動(dòng)頻繁,且其姿態(tài)復(fù)雜多變,特別是行走時(shí)對(duì)圖像質(zhì)量會(huì)產(chǎn)生顯著影響,因此,將豬只輪廓中的凸起部分進(jìn)行剔除處理,隨后從處理過(guò)的圖像中提取關(guān)鍵特征參數(shù),這一步驟旨在減少無(wú)關(guān)因素對(duì)體重估計(jì)結(jié)果的干擾,經(jīng)多次調(diào)試,確定使用圓形核函數(shù)的尺寸為90像素 ×90 像素。最終提取出育肥豬的6種參數(shù)特征,分別是二值化圖像像素面積、總離心率、總長(zhǎng)軸長(zhǎng)度、總短軸長(zhǎng)度、凸船體面積和總輪廓周長(zhǎng)。

1)二值化圖像像素面積為形態(tài)學(xué)處理的面積:觀察育肥豬的二值化圖像可以發(fā)現(xiàn)圖像邊緣為不規(guī)則的封閉圖形,因此可建立二元有界函數(shù)。設(shè)二元有界函數(shù)為 g(x,y) ,其 h+k 階矩的計(jì)算如式(1)所示。

式中: g(x,y) —一個(gè)關(guān)于 x 和 y 的函數(shù), x 和 y 分別在區(qū)間[1, N] 和 [1,M] 上取整;

h、k—任意非負(fù)整數(shù)值。

當(dāng) h,k 都為0時(shí), Mhk 值對(duì)應(yīng)群豬圖像的二值化圖像像素面積值為 s ,計(jì)算如式(2)所示。

2)總離心率:通過(guò)橢圓擬合的方法,根據(jù)每頭豬的輪廓實(shí)際情況,對(duì)圖像進(jìn)行橢圓擬合,計(jì)算每一頭豬的離心率,離心率的取值范圍為 0~1 ,將單個(gè)橢圓的離心率相加,得到總離心率 E ,計(jì)算如式(3)和式(4)所示。

式中: a 橢圓的長(zhǎng)軸長(zhǎng)度;

b 一 橢圓的短軸長(zhǎng)度;

i. 橢圓數(shù), i=1 ,2,3,4,5;

ei 1 第 i 個(gè)橢圓的離心率。

3)總長(zhǎng)軸長(zhǎng)度、總短軸長(zhǎng)度:通過(guò)橢圓擬合求得豬只輪廓面積,計(jì)算如式(5)和式(6)所示。

式中: (c,m) 1 一育肥豬質(zhì)心坐標(biāo);

(ci,mi) ———圖像中某像素點(diǎn)坐標(biāo);

2 -區(qū)域內(nèi)點(diǎn)的數(shù)量。

通過(guò)質(zhì)心求得邊緣像素點(diǎn)到質(zhì)心的最短距離 d 以 d 為半徑構(gòu)建擬合圓,掩膜內(nèi)的豬只邊緣點(diǎn)為所需的身體部分的邊緣點(diǎn),即橢圓擬合所需的測(cè)量點(diǎn)。構(gòu)建圓錐曲線方程如式(7)所示。

xi2+p1x1y1+p2yi2+p3xi+p4xi+p5=0 式中: ρ1?P2?P3?P4?P5 ——擬合系數(shù);

Xi,Yi 中 -變量。

根據(jù)最小二乘原理,得到橢圓目標(biāo)函數(shù),具體如式(8)所示。

式中: Nb ——擬合圓的邊緣點(diǎn)數(shù)量;F(ρP) —目標(biāo)函數(shù)。

通過(guò)求導(dǎo)可以得到擬合橢圓的長(zhǎng)軸、短軸,計(jì)算如式(9)~式(12)所示。

B=61+62+63+64+65

式中: ai 1 -第 i 個(gè)橢圓的長(zhǎng)軸長(zhǎng)度;bi 一第 i 個(gè)橢圓的短軸長(zhǎng)度;A 一 一所有橢圓的長(zhǎng)軸長(zhǎng)度之和;B 二 -所有橢圓的短軸長(zhǎng)度之和。

4)凸船體面積:包含豬圖像的最小凸多邊形的區(qū)域即\"凸船體區(qū)域”。

5)總輪廓周長(zhǎng):豬只的輪廓形狀偏向于橢圓,因此使用Canny函數(shù)提取二值化圖輪廓邊界各點(diǎn)坐標(biāo)并保存在向量 Q 中,計(jì)算相鄰兩點(diǎn)之間的歐氏距離,得到 dt ,并將所有的 dt 相加,得到一個(gè)輪廓周長(zhǎng),然后計(jì)算出每一個(gè)輪廓的周長(zhǎng),將每一個(gè)的周長(zhǎng)相加,最終得到總周長(zhǎng),計(jì)算如式(13)和式(14)所示。

式中: dι 一 ?t 時(shí)刻,相鄰兩點(diǎn)之間的歐式距離;d? —總周長(zhǎng);di ——每個(gè)輪廓的周長(zhǎng);(xt,yt) ——t時(shí)刻的坐標(biāo); 時(shí)刻的坐標(biāo);t -時(shí)間索引, t=1~q :q 中 -時(shí)間序列的最大值。

3育肥豬群體體重估測(cè)模型

3.1建立隨機(jī)森林育肥豬群體體重估測(cè)模型

為確保模型具備出色的動(dòng)態(tài)適應(yīng)能力、錯(cuò)誤容忍度以及強(qiáng)健的穩(wěn)定性,使用xgboost回歸算法、AdaBoost回歸算法、LightGBM算法、隨機(jī)森林算法、回歸樹(shù)算法、多層感知機(jī)對(duì)提取的特征參數(shù)數(shù)據(jù)進(jìn)行訓(xùn)練與測(cè)試。對(duì)比后,最終選擇隨機(jī)森林模型作為育肥豬群體體重估測(cè)模型。

隨機(jī)森林RF(RandomForest)是一種集成學(xué)習(xí)算法,采用Bagging方法來(lái)提高模型的預(yù)測(cè)準(zhǔn)確性和穩(wěn)定性。在隨機(jī)森林中,弱學(xué)習(xí)器是指單個(gè)的回歸樹(shù)(DecisionTree),這些回歸樹(shù)通過(guò)特定方式組合起來(lái),形成一個(gè)強(qiáng)大的預(yù)測(cè)模型。從隨機(jī)森林模型初始數(shù)據(jù)集中進(jìn)行隨機(jī)抽樣,創(chuàng)建多個(gè)獨(dú)立的數(shù)據(jù)集。對(duì)于每個(gè)數(shù)據(jù)集,構(gòu)建一個(gè)回歸樹(shù)模型,形成一群多樣化的回歸樹(shù)。當(dāng)進(jìn)行預(yù)測(cè)時(shí),這些回歸樹(shù)的結(jié)果被平均化以產(chǎn)生最終的預(yù)測(cè)結(jié)果。在育肥豬體重估測(cè)的應(yīng)用中,這種集成方法有助于提高預(yù)測(cè)的準(zhǔn)確性和魯棒性。圖5為隨機(jī)森林模型的具體工作原理。

3.2育肥豬群體體重估測(cè)模型評(píng)價(jià)指標(biāo)

為選擇效果最優(yōu)的育肥豬群體體重估測(cè)模型,決定使用決定系數(shù) R2 、平均絕對(duì)誤差 mAE 和平均相對(duì)誤差mRE作為體重估測(cè)模型的評(píng)價(jià)指標(biāo)。具體計(jì)算如式(15)~式(17)所示。

式中: n 樣本數(shù)量;rj 育肥豬體重實(shí)際值; -育肥豬體重估測(cè)值; 體重的平均實(shí)際值。

4 結(jié)果與分析

在PyCharm、Python和Pytorch環(huán)境下,準(zhǔn)備好2400張圖片數(shù)據(jù),通過(guò)實(shí)例分割模型進(jìn)行預(yù)測(cè),將預(yù)測(cè)得到的掩膜圖轉(zhuǎn)換為所需要的二值化圖像,對(duì)二值化圖像進(jìn)行特征參數(shù)提取,把提取到的6種特征參數(shù)作為體重模型的輸入數(shù)據(jù)。通過(guò)2種實(shí)例分割算法的比較發(fā)現(xiàn)Mask2former模型的性能較優(yōu)。在體重估測(cè)模型方面,使用評(píng)價(jià)指標(biāo)對(duì)模型進(jìn)行評(píng)估。

4.1MaskR一CNN和Mask2former性能評(píng)估

使用PyCharmPython和Pytorch搭建mmdetection實(shí)例分割模型。在mmdetection中分別配置MaskR一CNN和Mask2former兩種不同的實(shí)例分割算法,在2個(gè)算法訓(xùn)練結(jié)果中,使用平均精度均值mAP作為最終性能評(píng)價(jià)指標(biāo), mAP 值越高,說(shuō)明算法的分割效果越好; mAP 分為 seg-mAP (分割平均精度均值)和box_mAP(邊界框平均精度均值)。性能評(píng)價(jià)結(jié)果如表1所示,Mask2former的seg_mAP和box_mAP值均比MaskR—CNN高,最終選擇Mask2former實(shí)例分割算法。

4.2育肥群豬圖像特征參數(shù)提取

利用實(shí)例分割模型得到育肥群豬分割預(yù)測(cè)圖,使用OpenCV提取其6個(gè)特征參數(shù)數(shù)據(jù),分別是二值化圖像像素面積、總離心率、總長(zhǎng)軸長(zhǎng)度、總短軸長(zhǎng)度、凸船體面積和總輪廓周長(zhǎng)。部分育肥豬的特征數(shù)據(jù)提取結(jié)果如表2所示,表2中的每一個(gè)特征參數(shù)都需要作為模型的輸入數(shù)據(jù),用來(lái)估測(cè)育肥豬群體體重。

4.3育肥豬群體體重估測(cè)模型的對(duì)比

決定系數(shù) R2 是回歸分析中評(píng)價(jià)模型擬合優(yōu)度的統(tǒng)計(jì)量。決定系數(shù)越高,表示模型預(yù)測(cè)的結(jié)果與實(shí)際結(jié)果的一致性越好。平均絕對(duì)誤差 mAE 是預(yù)測(cè)值與實(shí)際值之間的絕對(duì)誤差的平均值,平均絕對(duì)誤差越小,表示模型預(yù)測(cè)的結(jié)果與實(shí)際結(jié)果之間的差異越小,即模型的預(yù)測(cè)準(zhǔn)確性越高。平均相對(duì)誤差mRE是觀測(cè)值與真實(shí)值之間的相對(duì)誤差的平均值,通常以 % 形式表示。平均相對(duì)誤差越小,表示模型預(yù)測(cè)的結(jié)果與實(shí)際結(jié)果之間的差異越小,但更注重相對(duì)差異而不是絕對(duì)差異。將提取出來(lái)的不同特征參數(shù)數(shù)據(jù)放人各個(gè)模型中進(jìn)行訓(xùn)練與測(cè)試,選擇效果最好的模型作為最終的體重估測(cè)模型。由表3可知,在各個(gè)模型的評(píng)價(jià)指標(biāo)結(jié)果中,發(fā)現(xiàn)只有回歸樹(shù)模型的決定系數(shù)小于0.9,其余模型的決定系數(shù)均大于0.9,而且AdaBoost回歸與隨機(jī)森林的決定系數(shù)相等,LightGBM與xgboost回歸的決定系數(shù)相等,平均絕對(duì)誤差均小于10.4kg ,平均相對(duì)誤差均小于 3.4% 。

表3各個(gè)模型的評(píng)價(jià)指標(biāo)結(jié)果Tab.3Evaluation indexresultsofeach model

表2部分育肥群豬的特征數(shù)據(jù)提取結(jié)果

由表3可知,對(duì)比各模型的評(píng)價(jià)指標(biāo)結(jié)果,發(fā)現(xiàn)隨機(jī)森林模型的評(píng)價(jià)指標(biāo)都優(yōu)于其他模型,說(shuō)明隨機(jī)森林的擬合效果最好,其決定系數(shù)為0.94,平均絕對(duì)誤差為 7.92kg ,平均相對(duì)誤差為 2.58% ,其體重預(yù)測(cè)值與體重實(shí)際值的擬合結(jié)果如圖6所示。因此,最終選擇隨機(jī)森林作為育肥豬群體體重估測(cè)模型。

隨機(jī)森林模型和回歸樹(shù)模型的部分育肥豬測(cè)試樣本體重的預(yù)測(cè)結(jié)果如表4所示。

由表4可知,回歸樹(shù)算法的相對(duì)誤差平均值為8.96% ,預(yù)測(cè)效果較差;隨機(jī)森林算法的相對(duì)誤差平均值為 2.63% ,預(yù)測(cè)效果較好。

5 結(jié)論

1)提出一種基于實(shí)例分割與機(jī)器學(xué)習(xí)進(jìn)行結(jié)合的育肥豬群體體重估測(cè)方法。采用MaskR一CNN和Mask2former兩種不同的實(shí)例分割方法進(jìn)行育肥群豬目標(biāo)檢測(cè)與實(shí)例分割。Mask2former模型能夠在豬舍的復(fù)雜環(huán)境中較好地將豬只分割出來(lái),分割平均精度均值為0.9898。提取6種特征參數(shù)數(shù)據(jù)作為體重估測(cè)模型的輸入,將各模型的結(jié)果進(jìn)行比較,發(fā)現(xiàn)隨機(jī)森林模型取得較好的預(yù)測(cè)結(jié)果,其決定系數(shù) R2 為0.94,平均絕對(duì)誤差為 7.92kg ,平均相對(duì)誤差為 2.58% 。

2)在多變的光照條件和復(fù)雜的環(huán)境因素作用下,傳統(tǒng)的目標(biāo)檢測(cè)與分割技術(shù)常常面臨挑戰(zhàn),難以高精度定位和分離出圖像中的目標(biāo)區(qū)域,主要原因是這些方法在處理圖像受光不均、陰影、反射以及背景雜亂等問(wèn)題時(shí)具有局限性。Mask2former實(shí)例分割算法顯著提高目標(biāo)檢測(cè)與圖像分割的穩(wěn)定性和準(zhǔn)確性。借助這種先進(jìn)的算法,即使在不理想的光照或復(fù)雜的環(huán)境中,也能夠有效地執(zhí)行目標(biāo)檢測(cè)任務(wù),為各種計(jì)算機(jī)視覺(jué)應(yīng)用提供可靠的技術(shù)支持。

參考文獻(xiàn)

[1]何東健,劉冬,趙凱旋.精準(zhǔn)畜牧業(yè)中動(dòng)物信息智能感知與行為檢測(cè)研究進(jìn)展[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2016,47(5):231—244.He Dongjian,Liu Dong,Zhao Kaixuan. Review ofperceiving animal information and behavior in precisionlivestock farming[J].Transactions of the Chinese SocietyforAgriculturalMachinery,2016,47(5):231-244.

[2]沈明霞,劉龍申,閆麗,等.畜禽養(yǎng)殖個(gè)體信息監(jiān)測(cè)技術(shù)研究進(jìn)展[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2014,45(10):245—251.ShenMingxia,Liu Longshen,YanLi,etal.Reviewofmonitoring technology for animal individual in animalhusbandry [J].Transactions of the Chinese SocietyforAgriculturalMachinery,2014,45(10):245—251.

[3]楊艷,滕光輝,李保明,等.基于計(jì)算機(jī)視覺(jué)技術(shù)估算種豬體重的應(yīng)用研究初探[C].中國(guó)數(shù)字農(nóng)業(yè)與農(nóng)村信息化學(xué)術(shù)研究研討會(huì)論文集,2005:450-454.

[4]Jun K,Kim SJ,JiH W.Estimating pig weights fromimages without constraint on posture and illumination [J].Computers and Electronics in Agriculture,2Ol8,153:169—176.

[5]Kongsro J. Estimation of pig weight using a MicrosoftKinect prototype imaging system [J]. Computers andElectronics in Agriculture,2014,109:32—35.

[6]Wang Y,Yang W,Winter P,et al.Walk-throughweighing of pigs using machine vision and an artificialneural network [J]. BiosystemsEngineering, 2008,100(1): 117—125.

[7]李卓,毛濤濤,劉同海,等.基于機(jī)器視覺(jué)的豬體質(zhì)量估測(cè)模型比較與優(yōu)化[J].農(nóng)業(yè)工程學(xué)報(bào),2015(2):155—161.Li Zhuo,Mao Taotao,Liu Tonghai,et al. Comparisonand optimization of pig mass estimation models based onmachine vision [J]. Transactions of the Chinese Society ofAgricultural Engineering,2015(2) : 155—161.

[8]Shi C,Teng G,Li Z.An approach of pig weightestimationusing binocularstereo system basedonLabVIEW[J]. Computers and Electronics in Agriculture,2016,129:37-43.

[9]Pezzuolo A,Guarino M, Sartori L,et al.On-barn pigweight estimation based on body measurements byaKinect v1 depth camera [J]. Computers and Electronics inAgriculture,2018,148:29—36.

[10]李卓.基于立體視覺(jué)技術(shù)的生豬體重估測(cè)研究[D].北京:中國(guó)農(nóng)業(yè)大學(xué),2016.Li Zhuo. Research of pig weight estimation based on stereovisiontechnology[D]. Beijing: ChinaAgriculturalUniversity, 2016.

[11]楊艷,滕光輝,李保明,等.基于計(jì)算機(jī)視覺(jué)技術(shù)估算種豬體重的應(yīng)用研究[J].農(nóng)業(yè)工程學(xué)報(bào),2006(2):127-131.Yang Yan, Teng Guanghui, LiBaoming,et al.Measurement of pig weight based on computer vision [J].Transactions of the Chinese Society of AgriculturalEngineering,2006(2):127—131.

[12]王文志.非接觸式牦牛體尺測(cè)量及體重估測(cè)方法研究[D].西寧:青海大學(xué),2022.

[13]張建龍,冀橫溢,滕光輝.基于深度卷積網(wǎng)絡(luò)的育肥豬體重估測(cè)[J].中國(guó)農(nóng)業(yè)大學(xué)學(xué)報(bào),2021,26(8):111—119.Zhang Jianlong,JiHengyi,Teng Guanghui.Weightestimation of fattening pigs based on deep convolutionalnetwork [J]. Journal of China Agricultural University,2021,26(8): 111—119.

[14]郭蓓佳,籍穎,錫建中,等.基于圖像處理的蛋雞體重估測(cè)方法研究[J].中國(guó)家禽,2021,43(11):68—73.Guo Beijia,Ji Ying,Xi Jianzhong,et al.Study onestimation model of layer weight based on imageprocessing[J]. China Poultry,2021,43(11):68-73.

[15]朱讓東,張?zhí)t,郭斌.基于RBF神經(jīng)網(wǎng)絡(luò)的伊犁馬體重估測(cè)模型[J].計(jì)算機(jī)技術(shù)與發(fā)展,2020,30(3):198—203.ZhuRangdong, Zhang Taihong,Guo Bin. Weightestimation model of Yili horse based on radial basisfunction neural network [J].Computer Technology andDevelopment,2020,30(3):198—203.

[16]郝雪萍.基于圖像處理的杜泊羊體重估算模型研究[D].武漢:武漢理工大學(xué),2015.

[17]MollahRBM,HasanAM,SalamAM,etal.Digitalimage analysisto estimate the live weight of broiler[J].Computers and Electronics in Agriculture,2OlO,72(1):48-52.

[18]陳佳,劉龍申,沈明霞,等.基于實(shí)例分割的白羽肉雞體質(zhì)量估測(cè)方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2021,52(4):266—275.Chen Jia,Liu Longshen,Shen Mingxia,et al. Breedingwhite feather broiler weight estimation method based oninstance segmentation [J].Transactions of the ChineseSociety for Agricultural Machinery,2O21,52(4):266—275.

[19]萬(wàn)世主.基于機(jī)器視覺(jué)與機(jī)器學(xué)習(xí)的育肥豬體重估測(cè)方法研究[D].南昌:江西農(nóng)業(yè)大學(xué),2022.WanShizhu.Research on body weight estimation methodof fattening pigs based on machine vision and machinelearning [D]. Nanchang:Jiangxi Agricultural University,2022.

[20]黃書(shū)琴,黃福樂(lè),羅柳茗,等.基于FasterR—CNN的蔗田雜草檢測(cè)算法研究[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2024,45(6):208-215.Huang Shuqin,Huang Fule,Luo Liuming,etal.Research on weed detection algorithm in sugarcane fieldbased on Faster R—CNN [J]. Journal of ChineseAgriculturalMechanization.2024.45(6):208-215.

[21]董婭蘭,胡國(guó)玉,劉廣,等.基于MaskR—CNN模型的葡萄藤關(guān)鍵結(jié)構(gòu)分割方法[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2024, 45(2):207—214,337. Dong Yalan,Hu Guoyu,Liu Guang,etal. Segmentation method for grapevine critical structure based on Mask RCNNmodel [J]. Journal of Chinese Agricultural Mechanization,2024,45(2):207—214,337.

[22]張平川,胡彥軍,張燁,等.基于改進(jìn)版Faster—RCNN 的復(fù)雜背景下桃樹(shù)黃葉病識(shí)別研究[J].中國(guó)農(nóng)機(jī)化學(xué) 報(bào),2024,45(3):219-225,251. Zhang Pingchuan,Hu Yanjun, Zhang Ye, etal. Recognition of peach tree yellow leaf disease under complex background based onimproved Faster—RCNN[J]. Journal of Chinese Agricultural Mechanization, 2024, 45(3):219-225,251.

[23]莊超,沈明霞,劉龍申,等.基于神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)的 白羽肉雞體重估測(cè)算法[J].中國(guó)農(nóng)業(yè)大學(xué)學(xué)報(bào),2021, 26(7):107—114. Zhuang Chao, Shen Mingxia,Liu Longshen,et al. Weight estimat ion model of breeding chickens based on neural network and machine learning[J]. Journal of China Agricultural University,2021,26(7):107—114.

[24]彭文,蘭玉彬,岳學(xué)軍,等.基于深度卷積神經(jīng)網(wǎng)絡(luò)的水 稻田雜草識(shí)別研究[J].華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2020, 41(6):75-81. PengWen,Lan Yubin,YueXuejun,etal.Research on paddy weed recognition based on deep convolutional neural network [J]. Journal of South China Agricultural University,2020,41(6):75-81.

主站蜘蛛池模板: 在线免费a视频| 2048国产精品原创综合在线| 欧洲熟妇精品视频| 国产呦视频免费视频在线观看| 99热这里都是国产精品| 九九九精品成人免费视频7| 欧美在线伊人| 国产一区二区视频在线| 欧美综合成人| 无码精品福利一区二区三区| 午夜福利无码一区二区| 色妞www精品视频一级下载| 亚洲成人高清在线观看| 国产香蕉在线视频| 国产成人综合在线观看| 国产精品福利在线观看无码卡| 国产精品网址你懂的| 国产精品福利尤物youwu| 国产日韩欧美在线播放| 老熟妇喷水一区二区三区| 五月综合色婷婷| 亚洲福利一区二区三区| 91麻豆精品视频| 在线免费a视频| 97视频免费在线观看| 欧洲成人免费视频| 狠狠久久综合伊人不卡| 欧美日韩一区二区三区四区在线观看 | 四虎国产在线观看| 免费av一区二区三区在线| 高清无码手机在线观看| 日韩精品高清自在线| 波多野结衣久久精品| 日本一区二区不卡视频| 又黄又湿又爽的视频| 网友自拍视频精品区| 精品亚洲国产成人AV| 广东一级毛片| a国产精品| 国产成人亚洲精品无码电影| 国产激情在线视频| 国产精鲁鲁网在线视频| 激情乱人伦| 最新日韩AV网址在线观看| 欧美人在线一区二区三区| 久久久久青草大香线综合精品| 婷婷五月在线| 91在线国内在线播放老师| 毛片国产精品完整版| 久久综合五月婷婷| 香蕉在线视频网站| 成人精品视频一区二区在线 | 国产成人无码Av在线播放无广告| 国产中文在线亚洲精品官网| 久久99国产乱子伦精品免| 欧美日韩国产精品va| AV色爱天堂网| 国产h视频免费观看| 天天综合亚洲| 免费A级毛片无码免费视频| 黄色福利在线| 国产91小视频在线观看| 国产免费福利网站| 亚洲日韩欧美在线观看| 国产午夜福利亚洲第一| 一级香蕉视频在线观看| 欧美日韩另类在线| 亚洲a级在线观看| 国产乱子伦一区二区=| 久久99国产精品成人欧美| 国产日韩欧美视频| 免费A级毛片无码无遮挡| 久久精品亚洲专区| 免费人成在线观看视频色| 四虎在线高清无码| av在线5g无码天天| 成人亚洲视频| 国产精品香蕉| 亚洲国产91人成在线| 91精品专区国产盗摄| 亚洲日本中文字幕乱码中文| 日本高清在线看免费观看|