張?zhí)K楠 田建艷 菅壟 姬政雄



摘要:?在集約化養(yǎng)殖過程中,生豬打斗行為是影響生豬福利養(yǎng)殖的重要因素之一。針對復雜養(yǎng)殖環(huán)境下傳統(tǒng)方法識別圈養(yǎng)生豬打斗行為準確率低的問題,提出1種基于幀間差分法(Frame difference, FD)-單點多框檢測器(Single shot MultiBox detector, SSD)的生豬打斗行為識別方法。首先,利用幀間差分法提取生豬連續(xù)視頻幀中的移動像素,排除光照度變化、地面水漬及尿漬等環(huán)境因素以及靜止生豬對打斗行為識別的干擾。然后,以連續(xù)視頻幀中的移動像素為樣本,采用MobileNet_v2、焦點損失函數(shù)、網(wǎng)絡(luò)參數(shù)遷移學習對單點多框檢測器進行改進,用于檢測發(fā)生劇烈運動的生豬個體,提高SSD對運動生豬個體的檢測精度與速度。最后,針對生豬發(fā)生打斗行為時的特點,設(shè)計精準的生豬打斗行為判別方法,以識別生豬是否發(fā)生打斗行為。試驗結(jié)果表明,該方法對生豬打斗行為的識別準確率、查準率、查全率分別達到93.75%、96.79%、90.50%,可以有效識別圈養(yǎng)生豬的打斗行為,為飼養(yǎng)員判斷生豬異常狀況提供依據(jù)。
關(guān)鍵詞:?生豬;打斗行為;幀間差分法;單點多框檢測器;判別方法
中圖分類號:?TP391.41??文獻標識碼:?A??文章編號:?1000-4440(2021)02-0397-08
Abstract:?Aggressive behavior of live pigs is one of the most important factors influencing welfare breeding of live pigs in the process of intensive breeding. Aiming at the problems of low accuracy rate of traditional methods in detecting aggressive behaviors of live pigs in pigpens under complex breeding environment, an identification method for porcine aggressive behaviors was proposed based on frame difference (FD)-single shot MultiBox detector (SSD). Firstly, FD method was used to extract the moving pixels in continuous video frames of live pigs to eliminate the interference of environmental factors such as illuminance change, surface water stain, urine stain and static pigs on the detecting of aggressive behaviors. Secondly, using the moving pixels in continuous video frames as samples, the SSD was improved by using MobileNet_v2, focal loss function and transfer learning of network parameters to detect the violently moving live pigs and improve the detection accuracy and speed of SSD. Finally, according to the characteristics of live pigs with aggressive behaviors, accurate discriminative method for live porcine aggressive behavior was designed to recognize aggressive behaviors. The experimental results showed that, the accuracy rate, precision rate and recall rate of the proposed method in recognizing porcine aggressive behaviors reached 93.75%, 96.79% and 90.50% respectively. The method can effectively recognize the aggressive behaviors of live pigs in pigpens and provide judgment basis for breeders.
Key words:?live pig;aggressive behaviors;frame difference;single shot MultiBox detector;discriminant method
福利養(yǎng)殖是指在養(yǎng)殖過程中滿足動物最基本的自然需求,使動物免于不必要的痛苦,在現(xiàn)代化養(yǎng)殖系統(tǒng)中,打斗行為是影響生豬集約化養(yǎng)殖福利水平的重要因素之一[1]。在集約化養(yǎng)殖過程中,當生豬攝取的膳食纖維含量低、豬群構(gòu)成發(fā)生變化或活動空間有限時,都可能導致生豬發(fā)生打斗行為[2]。生豬長時間的打斗行為可能導致皮膚損傷、感染,甚至使生豬受到致命傷害[3]。受傷的生豬進食量減少,可能導致生長速度下降[4],而且打斗壓力可能導致母豬繁殖能力下降[5]。因此,識別生豬打斗行為對于提高生豬福利水平、增加養(yǎng)豬場的經(jīng)濟效益至關(guān)重要。
機器視覺技術(shù)具有無接觸、不間斷、快速等優(yōu)點。利用這項技術(shù)檢測生豬打斗行為,可以提高檢測效率、增加動物福利水平、減少經(jīng)濟損失[6]。生豬打斗行為包括頭撞身體、頭撞頭、用頭推擠、咬等動作表現(xiàn)[2]。針對2只生豬在打斗行為中身體大面積、劇烈接觸且持續(xù)一定時間,容易對生豬造成傷害,Viazzi等[7]通過采集豬圈中的生豬視頻計算了生豬的平均運動強度和占空比,采用線性判別分析法檢測生豬的打斗行為。Oczak等[8]計算了生豬的活動指數(shù)特征,利用人工神經(jīng)網(wǎng)絡(luò)檢測生豬的高強度打斗行為和中等強度打斗行為。Lee等[9]以2只站立生豬之間的距離和運動速度作為特征參數(shù),利用2個支持向量機對生豬是否發(fā)生打斗行為以及不同打斗行為類型進行分類。Chen等[10]對生豬打斗行為識別方法進行了深入研究,2017年,將相鄰視頻幀之間2只生豬的加速度作為特征,通過設(shè)置閾值實現(xiàn)了對生豬高強度打斗行為和中等強度打斗行為的識別。2018年,Chen等[11]以幀間2只生豬的動能和動能差作為特征參數(shù),通過設(shè)置閾值實現(xiàn)了生豬打斗行為的識別。2019年,Chen等[12]采用幀間差分法(Frame difference, FD)檢測移動像素,提取每個視頻序列單元中的運動形狀指數(shù)作為特征值,利用支持向量機對生豬打斗行為進行識別。
識別生豬打斗行為需要準確地檢測出生豬個體,當豬圈中光照度發(fā)生變化以及受到水漬、尿漬、排泄物等因素干擾時,傳統(tǒng)圖像分割方法很難精確地分割出生豬個體,從而影響生豬打斗行為的識別精度。由于生豬打斗行為持續(xù)時間越長,對生豬造成傷害的概率越大[7],因此,本研究將2只生豬之間持續(xù)一定時間的具有劇烈接觸、擠壓、撞擊、撕咬的行為統(tǒng)稱為生豬打斗行為,提出基于FD-單點多框檢測器(Single shot MultiBox detector, SSD)的圈養(yǎng)生豬打斗行為識別方法。首先,利用FD提取生豬連續(xù)視頻幀中的移動像素,排除光照度變化、地面水漬、尿漬等環(huán)境因素與靜止生豬對打斗行為識別的干擾;然后,針對傳統(tǒng)目標檢測方法在生豬個體檢測中的局限性,以連續(xù)視頻幀中的移動像素為樣本,通過單點多框檢測器檢測劇烈運動的生豬個體;最后,提出生豬打斗行為的判別方法,識別生豬是否發(fā)生打斗行為。
1?材料與方法
1.1?樣本數(shù)據(jù)集
本試驗使用的生豬視頻采集于山西省某生豬養(yǎng)殖場,圈養(yǎng)生豬視頻采用筒型網(wǎng)絡(luò)攝像機[DS-2CD2T47(D)WD-L],以25 f/s的速度采集,并通過數(shù)據(jù)傳輸線將采集到的視頻傳輸?shù)奖O(jiān)控計算機中保存。視頻采集分辨率為1 920×1 080。1個豬圈中有7只生豬,豬齡均約為3個月,體質(zhì)量均約為60 kg。根據(jù)生豬打斗行為特點與生豬養(yǎng)殖場養(yǎng)殖人員的專家經(jīng)驗,從采集到的視頻中截取生豬打斗行為視頻和生豬正常狀態(tài)(包括躺臥休息、采食飲水、互嗅等行為)的視頻進行分析。從豬圈中采集到的生豬圖像見圖1。
1.2?生豬打斗行為的識別
通過對生豬養(yǎng)殖現(xiàn)場的實地考察,結(jié)合目前生豬打斗行為識別研究現(xiàn)狀,總結(jié)得出生豬打斗行為具有以下特點:①生豬在發(fā)生打斗行為時,會快速、激烈地運動[13];②發(fā)生打斗行為的2只生豬會有持續(xù)大面積的身體接觸;③當豬圈中的部分生豬發(fā)生打斗行為時,其他生豬由于應(yīng)激反應(yīng),會主動避開正在打斗的生豬[11];④生豬的打斗行為持續(xù)時間從數(shù)秒到2 min不等[14],2只生豬靠近5 s內(nèi)會發(fā)生打斗或分開[10]。
根據(jù)上述特點,本研究提出1種圈養(yǎng)生豬打斗行為識別方法。針對上述生豬打斗行為特點①,利用FD提取運動生豬像素;生豬運動幅度越大,提取的移動像素越多,本研究采用改進的SSD檢測劇烈運動的生豬個體,確定每只劇烈運動生豬的位置;在確定每只運動生豬的位置后,設(shè)計生豬打斗行為判別方法。針對上述生豬打斗行為特點②,計算2只運動生豬之間的距離,確定發(fā)生接觸的運動生豬。針對上述打斗行為特點③,判斷發(fā)生接觸的生豬與其他運動生豬間的距離是否接近,并確定生豬的圓形活動區(qū)域,排除其他運動生豬的干擾。針對上述打斗行為特點④,計算疑似生豬打斗行為持續(xù)的視頻幀數(shù),判斷生豬是否真正發(fā)生打斗行為。
1.2.1?基于FD的生豬移動像素提取?在養(yǎng)殖場生豬視頻采集的過程中,當豬圈中光照度較強時,豬圈地面和生豬身體都會產(chǎn)生一定程度的反光,而且豬圈地面通常存在水漬、尿漬、排泄物等,這些干擾因素會嚴重影響傳統(tǒng)圖像分割方法對生豬個體的分割效果。而生豬發(fā)生打斗行為時會劇烈運動,因此,利用幀間差分法[15]提取移動生豬像素,既可以避免豬圈背景環(huán)境的干擾,又可以為運動生豬個體檢測提供依據(jù)。
設(shè)視頻中第n幀、第n+1幀圖像在(x,y)處的灰度值分別為fn(x,y)、fn+1(x,y)。用FD計算差分圖像灰度值的公式如下:
式中,Dn+1(x,y)為差分圖像在(x,y)處的灰度值。
在采集生豬視頻的過程中,幀率為25 f/s,為了更完整地提取生豬移動像素,在視頻中間隔2幀進行差分。由于生豬發(fā)生小幅度運動時提取的移動像素較少,通過形態(tài)學中的開操作,對差分圖像進行先腐蝕后膨脹處理,除去較小的明亮細節(jié),保持較大的明亮區(qū)域不變,即濾除少量移動像素點,從而保留生豬劇烈運動時提取的移動像素。
1.2.2?基于SSD的劇烈運動生豬個體檢測?為了準確確定劇烈運動生豬個體的位置,定位疑似發(fā)生打斗行為的生豬,本研究采用SSD檢測劇烈運動的生豬個體。為了提高模型檢測精度與速度,對經(jīng)典SSD進行改進,改進后的SSD結(jié)構(gòu)如圖2所示。
由圖2可知,本研究將得到的生豬差分圖像轉(zhuǎn)換成寬300、高300、通道數(shù)為3的圖像后作為模型輸入。為了利用有限樣本訓練SSD模型,采用網(wǎng)絡(luò)參數(shù)遷移學習[16]方法,將已經(jīng)訓練好的網(wǎng)絡(luò)參數(shù)運用到SSD中作為初始網(wǎng)絡(luò)參數(shù)。以MobileNet_v2[17]代替VGG16作為基礎(chǔ)網(wǎng)絡(luò),獲取不同大小的特征圖。為了提高模型訓練的效果,采用焦點損失函數(shù)(Focal loss, FL)[18]替代交叉熵函數(shù)(Cross entropy, CE)作為置信度損失函數(shù)。
(1)基礎(chǔ)網(wǎng)絡(luò)MobileNet_v2。為了快速檢測差分圖像中的運動生豬個體,滿足檢測過程中的實時性要求,本研究采用MobileNet_v2代替VGG16作為基礎(chǔ)網(wǎng)絡(luò),以提高運動生豬的檢測效率。MobileNet_v2通過引入倒置殘差(IR)對特征圖進行先升維再降維,減少內(nèi)存占用量,MobileNet_v2主要由不同數(shù)量步長為1的IR和步長為2的IR組合而成。倒置殘差的實現(xiàn)過程見圖3。
(2)焦點損失函數(shù)。經(jīng)典SSD通常采用CE函數(shù)作為模型訓練中的置信度損失函數(shù)。SSD在訓練過程中,將與生豬真實目標標注框匹配成功的先驗框作為正樣本,將匹配不成功的先驗框作為負樣本。CE函數(shù)調(diào)節(jié)正、負樣本比例的能力有限,導致訓練效果受限。本研究采用FL作為置信度損失函數(shù)。引入平衡因子α,α∈[0,1],F(xiàn)L函數(shù)可表示為:
式中,y為樣本類型;p為模型對生豬目標的預測概率;γ為可調(diào)參數(shù);α為平衡因子;p為模型對生豬目標的預測概率。
定義:
式中,α*為不同樣本類型的平衡因子;p*為不同樣本類型的預測概率。
將公式(3)和公式(4)代入公式(2),可得最終FL函數(shù)為
(3)網(wǎng)絡(luò)參數(shù)遷移學習。從圈養(yǎng)生豬視頻中提取的圖像背景、生豬動作單一,重復樣本較多,有效生豬圖像樣本有限。為了利用有限的樣本訓練SSD模型,本研究引入網(wǎng)絡(luò)參數(shù)遷移學習,通過將已經(jīng)訓練好的模型參數(shù)遷移到1個新的網(wǎng)絡(luò)中,從而提高模型訓練時的收斂速度。
本研究在實際訓練過程中,將通過COCO數(shù)據(jù)集訓練好的SSD網(wǎng)絡(luò)遷移到運動生豬個體檢測模型中,然后利用生豬目標數(shù)據(jù)集對模型參數(shù)進行調(diào)整,得到最終運動生豬個體的檢測模型。
1.2.3?生豬打斗行為判別方法?針對生豬打斗行為特點,本研究設(shè)計了生豬打斗行為判別方法,具體判別步驟如下:
步驟1:設(shè)SSD檢測到的劇烈運動生豬數(shù)為n,檢測到第k只劇烈運動生豬的預測框長邊長度為Lk。計算第i只運動生豬與第j只運動生豬之間的歐式距離(dij),其中k=1,2,…,n;i=1,2,…,n;j=1,2,…,n。
步驟2:判斷生豬之間的歐式距離(dij)是否小于距離閾值dth(i,j)。當2只生豬頭對頭打斗時,其質(zhì)心的最大距離為2只生豬預測框長邊長度和的一半,因此,定義距離閾值如下:
具體的距離判別示意見圖4。
如果dij 步驟3:將疑似發(fā)生打斗行為的2只生豬預測框進行合并,取包圍2個預測框的最小外接矩形,構(gòu)建包圍2只疑似發(fā)生打斗行為生豬的矩形框。以新構(gòu)建的矩形框中心為圓心、以矩形框的對角線長度為半徑,構(gòu)建疑似發(fā)生打斗行為生豬的圓形活動區(qū)域(Active region, AR)。 步驟4:讀取下一幀圖像,按照步驟1、步驟2中判斷疑似發(fā)生打斗行為的方法判斷該幀圖像是否包含疑似發(fā)生打斗行為的生豬。如果包含,則判斷疑似發(fā)生打斗行為生豬的質(zhì)心均值是否在AR中;如果不包含,則重新執(zhí)行此步驟。 步驟5:如果疑似發(fā)生打斗行為生豬的質(zhì)心均值在AR中,則num=num+1,按照步驟3的方法更新AR,然后返回步驟4;否則直接返回步驟4。循環(huán)執(zhí)行此過程,直至視頻中所有圖像檢測完畢。由于在劇烈運動生豬目標的檢測與疑似打斗行為判斷過程中存在一定誤差,可能打斗視頻中的各幀圖像不全部符合生豬打斗行為特征,即num<視頻總幀數(shù)(frame_num),但num與frame_num的比值可以表征生豬發(fā)生打斗行為的可能性,比值越大,生豬發(fā)生打斗行為的可能性越大。因此,按下式定義生豬打斗行為比(RAB): 式中,num為疑似發(fā)生打斗行為的幀數(shù);frame_num為視頻總幀數(shù)。 為了增加生豬打斗行為判別的容錯能力,本研究設(shè)置了生豬打斗行為判別閾值(RABth)。如果RAB>RABth,則判斷生豬發(fā)生打斗行為。以某段生豬打斗視頻中連續(xù)4幀圖像為例,生豬打斗行為判別方法中疑似發(fā)生打斗行為幀數(shù)的確定結(jié)果見圖5。圖5a、圖5b、圖5c、圖5d中均有2只生豬的歐式距離小于距離閾值,與第3只生豬的距離大于距離閾值,且前一幀疑似發(fā)生打斗行為生豬的質(zhì)心均值都在后一幀AR中,由此可見,圖5a、圖5b、圖5c均為疑似發(fā)生打斗行為的幀數(shù)(num),圖5d需要根據(jù)下一幀檢測結(jié)果進行判斷。 為了形成完備的圈養(yǎng)生豬打斗行為識別方法,本研究將FD、SSD與生豬打斗行為判別方法相結(jié)合,提出1種基于FD-SSD的生豬打斗行為識別方法。由圖6可知,首先,對生豬視頻中的間隔2幀圖像進行差分,提取移動生豬像素,排除豬圈背景環(huán)境及靜止生豬的干擾。然后,利用SSD檢測劇烈運動的生豬個體,確定運動生豬的位置。最后,通過生豬打斗行為判別方法識別運動生豬是否發(fā)生打斗行為。 2?結(jié)果與分析 本試驗所用分析平臺為戴爾工作站,中央處理器(CPU)為Inter Xeon E5-2603 v4,內(nèi)存大小為16 GB,圖形處理器(GPU)為NVIDIA GTX2070,顯存大小為8 GB。SSD算法在Tensorflow深度學習框架下實現(xiàn)。通過LabelImg標注軟件標注圖像中的運動生豬個體,構(gòu)建生豬目標數(shù)據(jù)集。 2.1?基于FD-SSD的運動生豬個體檢測結(jié)果 通過FD提取生豬移動像素后,采用改進的SSD檢測劇烈運動的生豬個體。本研究采用的訓練樣本為1 000幅經(jīng)過FD提取后的生豬差分圖像,測試樣本為200幅經(jīng)過FD提取后的生豬差分圖像。學習率可以控制損失函數(shù)的收斂速度,學習率過小,損失函數(shù)的收斂速度慢;學習率過大,損失函數(shù)的收斂速度快,但可能導致?lián)p失函數(shù)無法收斂。本研究采用變學習率方法,在模型訓練前期設(shè)置較高的學習率,提高收斂速度;在訓練過程中,學習率逐漸減小,使損失函數(shù)值可以收斂到最優(yōu)。通過大量試驗比較,本研究選定初始學習率為4×10-3,每訓練10 000步,學習率衰減為原來的95%,訓練次數(shù)設(shè)為200 000次。在焦點損失函數(shù)中,α表示正負樣本的重要性,α越大,正樣本的權(quán)重越大;γ可以調(diào)整難區(qū)分樣本和易區(qū)分樣本權(quán)重的差異程度,γ越大,難區(qū)分樣本和易區(qū)分樣本權(quán)重的差異程度越大。通過大量試驗比較,本研究選擇α=0.75,γ=2。
為了定量評價SSD對劇烈運動生豬個體的檢測效果,本研究采用每秒幀數(shù)(FPS)[19]與平均精度均值(mAP)[20]作為運動生豬個體檢測的評價指標。為了驗證本研究采用的基于改進SSD的劇烈運動生豬個體檢測方法的有效性,對不同方法得到的mAP、FPS進行比較。由表1可知,只采用MobileNet_v2作為基礎(chǔ)網(wǎng)絡(luò)時,SSD的mAP與經(jīng)典SSD相比略有降低,但FPS有明顯提升。采用FL函數(shù)時,SSD_MobileNet_v2在FPS基本不變的情況下,mAP有了一定提升,略高于經(jīng)典SSD。采用網(wǎng)絡(luò)參數(shù)遷移學習和FL函數(shù)時,SSD_MobileNet_v2的FPS基本不變,mAP進一步提高,可以滿足運動生豬個體實時檢測對精度、速度的要求。
以某段視頻中經(jīng)過FD處理后的連續(xù)6幀圖像為例,使用本研究方法檢測運動生豬個體。由圖7可知,白色區(qū)域為FD提取的生豬移動像素,生豬移動像素無法完全描述生豬輪廓,且存在陰影,在不同生豬移動像素之間存在粘連,采用改進SSD法可以有效解決上述問題,較為準確地檢測出視頻幀中劇烈運動的生豬個體。
2.2?生豬打斗行為識別結(jié)果
為了驗證本研究提出的生豬打斗行為識別方法的準確性,選取200段生豬打斗行為視頻與200段正常狀態(tài)(包括生豬躺臥休息、采食飲水、互嗅等行為)的生豬視頻作為測試樣本,各段視頻長度為5~110 s。為了定量評價生豬打斗行為的識別精度,采用準確率(A)、查準率(P)和查全率(R)作為評價指標[21]。
在生豬打斗行為識別過程中,打斗行為判別閾值(RABth)對試驗結(jié)果有較大影響。如果RABth過大,會導致無法正確識別生豬打斗行為視頻;如果RABth過小,容易將正常生豬視頻誤識別為生豬打斗行為視頻。通過設(shè)定不同RABth,比較最后生豬打斗行為的識別結(jié)果。由表2可知,當RABth≤0.45時,RABth越小,生豬正常狀態(tài)的視頻被誤識別為打斗行為視頻的數(shù)量越多,導致準確率與查準率降低,生豬打斗行為視頻被正確識別的數(shù)量基本不變,即查全率基本不變。當RABth>0.45時,隨著RABth的提高,生豬打斗行為視頻被誤識別為正常狀態(tài)視頻的數(shù)量逐漸增加,生豬正常狀態(tài)視頻被誤識別為打斗行為視頻的數(shù)量逐漸減小,導致查全率減小。綜合考慮各項指標,本研究選擇RABth=0.45,此時生豬打斗行為的識別準確率、查準率、查全率分別達到93.75%、96.79%、90.50%,可以滿足實際應(yīng)用中對圈養(yǎng)生豬打斗行為識別精度與速度的要求。
3?結(jié)論
為了在復雜養(yǎng)殖環(huán)境下準確、快速地識別圈養(yǎng)生豬的打斗行為,本研究提出1種基于FD-SSD的生豬打斗行為識別方法,通過試驗仿真,得到的結(jié)果如下:(1)由于生豬發(fā)生打斗行為時會劇烈運動,因此采用FD既可以提取移動生豬像素,又可以排除復雜背景與靜止生豬的干擾。本研究利用FD可以清晰、有效提取移動生豬像素,為劇烈運動生豬個體的檢測提供了依據(jù)。(2)為了根據(jù)提取到的移動像素點檢測劇烈運動的生豬個體,本研究采用基于SSD的劇烈運動生豬個體檢測方法。為了提升SSD的檢測精度與速度,采用MobileNet_v2、FL和網(wǎng)絡(luò)參數(shù)遷移對經(jīng)典SSD進行改進。對運動生豬個體的檢測結(jié)果表明,mAP達到了0.910 4,F(xiàn)PS達到了15,可以滿足實際檢測要求。(3)根據(jù)生豬打斗行為特點,設(shè)計了生豬打斗行為判別方法。通過試驗驗證可知,當RABth為0.45時,基于FD-SSD的生豬打斗行為識別方法的識別準確率、查準率、查全率分別達到93.75%、96.79%、90.50%,可以滿足實際應(yīng)用中對圈養(yǎng)生豬打斗行為識別精度與速度的要求。
本研究提出的生豬打斗行為識別方法中,打斗行為判定閾值(RABth)是根據(jù)本研究中特定研究對象確定的,在后續(xù)工作中,還需要對其他年齡階段的生豬打斗行為進行分析,動態(tài)確定打斗行為判定閾值,提高方法的適用性。
參考文獻:
[1]?李?丹,陳一飛,李行健,等. 計算機視覺技術(shù)在豬行為識別中應(yīng)用的研究進展[J].中國農(nóng)業(yè)科技導報,2019,21(7):59-69.
[2]?STUKENBORG A, TRAULSEN I, PUPPE B, et al. Agonistic behaviour after mixing in pigs under commercial farm conditions[J]. Applied Animal Behaviour Science, 2011, 129(1):28-35.
[3]?TURNER S P, FARNWORTH M J, WHITE I M S, et al. The accumulation of skin lesions and their use as a predictor of individual aggressiveness in pigs[J]. Applied Animal Behaviour Science, 2006, 96(3/4):245-259.
[4]?STOOKEY J M, GONYOU H W. The effect of regrouping on behavioral and production parameters in finishing swine[J]. Journal of Animal Science, 1994, 72(11):2804-2811.
[5]?KONGSTED A G. Stress and fear as possible mediators of reproduction problems in group housed sows: a review[J]. Acta Agriculturae Scandinavica, Section A-Animal Science, 2004, 54(2):58-66.
[6]?BRACKE M B M, METZ J H M, SPRUIJT B M, et al. Decision support system for overall welfare assessment in pregnant sows B: validation by expert opinion[J]. Journal of Animal Science, 2002, 80(7):1835-1845.
[7]?VIAZZI S, ISMAYILOVA G, OCZAK M, et al. Image feature extraction for classification of aggressive interactions among pigs[J]. Computers and Electronics in Agriculture, 2014, 104:57-62.
[8]?OCZAK M, VIAZZI S, ISMAYILOVA G, et al. Classification of aggressive behaviour in pigs by activity index and multilayer feed forward neural network[J]. Biosystems Engineering, 2014, 119:89-97.
[9]?LEE J, JIN L, PARK D, et al. Automatic recognition of aggressive behavior in pigs using a Kinect depth sensor[J]. Sensors, 2016, 16(5):631.
[10]CHEN C, ZHU W X, MA C H, et al. Image motion feature extraction for recognition of aggressive behaviors among group-housed pigs[J]. Computers and Electronics in Agriculture, 2017, 142: 380-387.
[11]CHEN C, ZHU W X, GUO Y Z, et al. A kinetic energy model based on machine vision for recognition of aggressive behaviours among group-housed pigs[J]. Livestock Science, 2018, 218:70-78.
[12]CHEN C, ZHU W X, LIU D, et al. Detection of aggressive behaviours in pigs using a RealSence depth sensor[J]. Computers and Electronics in Agriculture, 2019, 166:105003.
[13]JENSEN P, YNGVESSON J. Aggression between unacquainted pigs-sequential assessment and effects of familiarity and weight[J]. Applied Animal Behaviour Science, 1998, 58(1/2):49-61.
[14]MCGLONE J J. A quantitative ethogram of aggressive and submissive behaviors in recently regrouped pigs[J]. Journal of Animal Science, 1985, 61(3):559-565.
[15]王?璐,高?林,閆?磊,等. 基于光流與熵統(tǒng)計法的花卉生長視頻關(guān)鍵幀提取算法[J].農(nóng)業(yè)工程學報,2012,28(17):125-130.
[16]李曉振,徐?巖,吳作宏,等. 基于注意力神經(jīng)網(wǎng)絡(luò)的番茄葉部病害識別系統(tǒng)[J].江蘇農(nóng)業(yè)學報,2020,36(3):561-568.
[17]劉?慧,張禮帥,沈?躍,等. 基于改進SSD的果園行人實時檢測方法[J].農(nóng)業(yè)機械學報,2019,50(4):29-35,101.
[18]任勝男,孫?鈺,張海燕,等. 基于one-shot學習的小樣本植物病害識別[J].江蘇農(nóng)業(yè)學報,2019,35(5):1061-1067.
[19]何東健,劉建敏,熊虹婷,等. 基于改進YOLO v3模型的擠奶奶牛個體識別方法[J].農(nóng)業(yè)機械學報,2020,51(4):250-260.
[20]鄧壯來,汪?盼,宋雪樺,等. 基于SSD的糧倉害蟲檢測研究[J].計算機工程與應(yīng)用,2020,56(11):214-218.
[21]FU L H, DUAN J L, ZOU X J, et al. Banana detection based on color and texture features in the natural environment[J]. Computers and Electronics in Agriculture, 2019, 167:105057.
(責任編輯:徐?艷)