王 凱,劉春紅,2,段青玲,2,3
基于MFO-LSTM的母豬發情行為識別
王 凱1,劉春紅1,2,段青玲1,2,3※
(1. 中國農業大學信息與電氣工程學院,北京 100083;2. 北京市農業物聯網工程技術研究中心,北京 100083;3. 農業農村部精準農業技術集成科學試驗基地(畜牧業),北京 100083)
及時準確識別母豬的發情行為可以有效增加受胎率和產仔量,對提高養殖企業的繁育水平和經濟效益具有重要意義。該研究針對生豬養殖過程中母豬發情行為識別存在主觀性強、智能化水平低、假警報和錯誤率高、識別不及時等問題,提出了一種基于飛蛾撲火算法(Moth-Flame Optimization,MFO)優化長短時記憶網絡(Long Short Term Memory,LSTM)的母豬發情行為識別方法。利用安裝在母豬頸部的姿態傳感器獲得母豬姿態數據,然后使用姿態數據訓練MFO-LSTM姿態分類模型,將母豬姿態分為立姿、臥姿和爬跨3類。通過對姿態分類結果進行分析,確定以爬跨行為和活動量2個特征作為發情行為識別依據,使用MFO-LSTM分類算法判斷母豬是否發情。以山西省太原市杏花嶺區五豐養殖場的試驗數據對該方法進行驗證,結果表明,該方法在以30 min為發情行為識別時間時的識別效果最好,發情行為識別的錯誤率為13.43%,召回率為90.63%,特效性為81.63%,與已有的母豬發情行為識別方法相比錯誤率降低了80%以上。該方法在保證識別準確率的情況下有效降低了錯誤率,可滿足母豬養殖生產過程中發情行為自動識別要求。
行為;監測;算法;母豬;發情;長短時記憶網絡;飛蛾撲火算法
中國是世界養豬大國和豬肉消費大國,2019年中國豬肉產量5 404萬t,占肉類總產量的55.62%,因此,生豬養殖業健康發展對維護國家糧食安全具有重要意義[1]。在生豬養殖中,母豬的繁育能力是影響養殖效益的關鍵因素之一,母豬年均提供斷奶仔豬數(Pigs Weaned Per Sow Per Year,PSY)是衡量母豬繁育能力的重要指標。2018年美國生豬養殖行業平均PSY為24,而中國平均PSY為18,說明中國的生豬養殖水平與發達國家相比還存在明顯差距[2-3]。母豬的繁育能力與發情、配種、妊娠和分娩過程密不可分,其發情期持續時間為20~84 h,而最佳交配和輸精時間在發情后20~30 h[4-5]。因此,及時準確地識別母豬發情行為能夠實現及時配種,提高配種成功率,有效減少空懷和返情情況,有助于提高母豬繁育能力。
當母豬發情時,由于生理變化會產生一系列的行為特征,如臥立不安,啃圈爬欄,走動頻繁,活動量(一段時間內母豬處于活躍狀態的時長)明顯增多,主動接近公豬,公豬經過或“按背測試”時表現出“靜立反射”,食欲略減,出現爬跨行為,體溫較平常有所上升,發出“求偶歌聲”,外陰腫脹呈紅色,流出透明黏液等[4-5]。其中,部分行為特征如采食量變化、母豬頻繁訪問公豬、活動量增加、爬跨行為等可通過物聯網感知設備獲取,從而為母豬發情行為自動識別提供依據。
目前,國內外研究人員對基于物聯網的母豬發情行為識別進行了一些研究,主要是基于母豬訪問公豬頻率[6-7]和母豬采食行為[8]進行識別。Ostersen等[6]使用射頻識別(Radio Frequency Identification,RFID)掃描器記錄通過“瞭望洞”與公豬接觸的母豬耳標號,并統計出24和72 h內母豬訪問公豬的頻率和時長,構建基于一階馬爾可夫概率的多過程動態線性模型進行母豬發情行為識別。以24 h為發情行為識別時間的試驗結果錯誤率95.0%,召回率60.7%,特效性98.8%;72 h的試驗結果錯誤率97.1%,召回率89.2%,特效性96.9%。Cornou等[8]通過自動飼喂器記錄母豬進入自動飼喂器的采食次序、豬群個體數量和每日進食周期等參數,輸入單變量動態線性模型,利用V-mask控制圖識別母豬是否發情,此方法的發情行為識別,召回率75.0%,特效性95.4%。
綜上,目前母豬發情行為識別方法還存在以下問題:一是錯誤率高,其主要原因是信息源過于單一,基于單特征的發情行為識別難以準確識別發情狀況。錯誤率高意味著假警報數量多,過多的假警報會浪費工人的時間來尋找母豬和測試母豬是否發情,高假警報狀況下的檢測成本超過了每天人工監控所有母豬的成本[6]。二是現有研究均需要至少母豬發情24 h后才可以識別,及時性有待提高。
姿態傳感器是一種三維運動姿態測量設備,可以采集運動對象的三軸加速度、角速度、歐拉角、磁場數據和四元數等三維姿態數據,與三軸加速度傳感器相比能夠更加全面、精確地描述運動物體的姿態[9- 10]。目前尚未見使用姿態傳感器在牲畜行為識別領域的研究,但已有基于三軸加速度傳感器進行牲畜行為識別的研究,如哺乳母豬高危活動識別[11]、山羊(躺臥、站立或慢走、采食和跨跳)行為識別[12]、奶牛健康狀況監測[13]、奶牛發情行為識別[13-15]、奶牛(反芻、進食和飲水)行為識別[16]、母豬姿態分類[17-21]以及妊娠母豬產前行為識別和分娩時間估計[22-23]等,但關于母豬發情行為識別還未見應用。
基于此,本文提出了一種基于飛蛾撲火算法(Moth-Flame Optimization,MFO)優化長短時記憶網絡(Long Short Term Memory,LSTM)的母豬發情行為識別方法。首先,通過姿態傳感器采集母豬姿態數據,使用MFO算法優化LSTM模型參數,訓練得到姿態分類器,將母豬姿態分為立姿、臥姿和爬跨3類,從姿態分類結果中提取母豬活動量和爬跨行為特征,輸入并訓練得到發情行為識別模型,以期降低母豬發情行為識別錯誤率,提升母豬繁育水平,提高生豬養殖效益。
生豬姿態數據于2019年4月19—30日采集自山西省太原市杏花嶺區五豐養殖場。安裝試驗設備的圈舍內有10個南北朝向的圈欄,圈欄大小為6 m×5 m×1.2 m,每個圈欄可容納5~6頭母豬。試驗對象為大長白豬,共6頭母豬和6頭公豬,母豬中有4頭處于發情期。試驗共使用6個圈欄,每個圈欄內放置1頭公豬和1頭母豬,試驗期間豬在圈舍內自由活動。
在母豬頸部上安裝型號為WT901WIFIC的維特智能WIFI姿態傳感器,每個傳感器有唯一ID編號,且與母豬的耳標號一一對應。姿態傳感器同時采集三軸加速度、角速度、角度、磁場和四元數5類數據,采集頻率為1次/s。傳感器通過符合IEEE 802.11標準的無線局域網連接到豬舍內布置的無線路由器,該路由器連接因特網,采集到的數據通過無線局域網傳輸到數據服務器,如圖1所示。為避免出現數據碰撞問題,舍內布置2個路由器,每個路由器上綁定的姿態傳感器設備不超過20個。圈舍內安裝型號為DS-2CD3T86FWDV2-I3S的海康威視高清網絡攝像頭,可24 h監視圈舍,視頻內容為人工標記母豬姿態分類標簽提供依據。
采集到母豬姿態數據后對照視頻和人工監控記錄對傳感器數據進行檢查,對傳感器移動、脫落以及部分傳感器損壞狀態下采集的錯誤數據進行刪除,共采集到1 042 207個母豬姿態樣本數據。為避免量綱差異和樣本排列順序影響模型分類效果,采用最小-最大值法對數據集中每個變量進行歸一化處理,采用隨機索引打亂樣本順序。

圖1 傳感器數據傳輸示意圖
1.2.1 算法流程
基于MFO-LSTM的母豬發情行為識別流程如下:
1)數據采集和預處理。利用姿態傳感器采集描述母豬運動狀態的三軸加速度、角速度、角度、四元數和磁場5類數據,對數據進行預處理,構建姿態數據集。
2)基于MFO-LSTM的母豬姿態分類模型構建。采用MFO優化LSTM算法的第一、二層隱含層神經元數目、最大訓練周期、分塊尺寸和學習率;將姿態數據訓練集作為輸入,對照視頻標記的姿態作為標簽,訓練基于MFO-LSTM的母豬姿態分類模型;最終將母豬姿態分為立姿、臥姿和爬跨3類。
3)母豬爬跨行為和活動量特征提取。統計母豬姿態分類結果,得到3類姿態在發情行為識別時間內的累計時長,并從中提取爬跨行為特征和活動量特征。
4)基于MFO-LSTM的母豬發情行為識別模型構建。將提取的發情行為識別特征作為模型輸入,以豬場管理記錄中母豬的發情狀態作為標簽,訓練發情行為識別模型,實現母豬發情行為的識別。
1.2.2 基于MFO-LSTM的母豬姿態分類
爬跨行為和活動量是母豬發情的重要行為特征,而提取這2個特征的前提是對母豬的姿態進行分類。本文采用基于MFO-LSTM的分類算法將母豬姿態分為立姿、臥姿和爬跨3類。立姿是指母豬正常活動中的行走和站立姿態,臥姿是指母豬休息時的立臥姿和側臥姿,爬跨是指發情母豬騎到其他豬脊背上的姿態。3種姿態中立姿和爬跨屬于活躍姿態,臥姿屬于不活躍姿態。
LSTM是一種改進的循環神經網絡,可以有效解決梯度消失和梯度爆炸問題[24],已廣泛應用于時間序列數據的預測[25-27]和分類[28]等領域。本文LSTM神經網絡各層結構如圖2所示。

圖2 LSTM網絡層次結構
由于LSTM使用過程中需要調節多個參數,且參數取值對模型預測和分類效果影響較大,人工搜索參數費時費力,因此需要目標規劃算法輔助參數尋優[27]。MFO算法相對于傳統的遺傳算法、粒子群優化算法等目標規劃算法具有尋優速度快、不容易陷入局部最優的優勢[29]。因此本文使用MFO算法優化LSTM模型參數。
MFO算法優化LSTM參數過程如下:
1)確定待優化參數的個數和值域。設定LSTM中待優化參數為第一層和第二層隱含層神經元數目、最大訓練周期、分塊尺寸和學習率,并依次根據這5個參數值域設置其參數上下限數組和:


式中為待優化參數的個數;lb為第個待優化參數下限;ub為第個待優化參數上限。
2)使用LSTM模型評價指標準確率Accuracy作為適應度函數輸出;
3)使用隨機函數初始化蛾子矩陣。根據飛蛾矩陣和適應度函數計算飛蛾適應度向量;
4)判斷是否達到最大迭代次數,若當前迭代次數超過最大迭代次數轉到步驟5),否則更新種群并繼續尋優。采用文獻[29]中的對數螺旋函數作為飛蛾位置更新機制。對數螺旋函數的計算公式如下:


式中D表示第只飛蛾到第個火焰的距離;M表示第只飛蛾;F表示第個火焰;為的常數;為[-1,1]中的隨機數,該參數定義飛蛾的下一個位置與火焰的距離,= -1為離火焰最近的位置,= 1為離火焰最遠的位置。
5)輸出參數尋優。
經過上述步驟后得到MFO-LSTM姿態分類模型。具體流程如圖3所示。

圖3 MFO優化LSTM算法參數流程圖
在分類模型的訓練過程中,各類樣本數量的均衡性會直接影響模型的泛化性能。母豬姿態數據集中各類樣本數量差異較大,屬于樣本不均衡數據集。為了避免因數據集不均衡導致過擬合問題的出現并減少模型訓練時間,在對數據集進行預處理后,按照立姿、臥姿和爬跨3種姿態樣本數量相同的原則從姿態數據中隨機抽取190 050條母豬姿態數據用于母豬姿態分類模型的訓練和性能驗證。
將隨機抽取的姿態數據按8∶2劃分訓練集和測試集。使用姿態數據訓練集(152 040個姿態樣本)訓練得到基于MFO-LSTM的母豬姿態分類模型。將測試集(38 010個姿態樣本)輸入到模型中,得到姿態分類結果。將模型給出的姿態分類結果和對照視頻標記的標簽進行對比,計算模型評價指標,檢驗姿態分類模型的性能。
1.2.3 母豬發情行為識別特征提取
發情母豬活動量顯著增加并出現爬跨行為,本文使用爬跨行為和活動量2個特征作為發情行為識別依據。
1)姿態分類結果的獲取
在訓練得到基于MFO-LSTM的母豬姿態分類模型并驗證其可靠性之后,使用該模型對采集得到的1 042 207個母豬姿態樣本數據進行姿態分類,將姿態分類結果整理為姿態分類結果矩陣R,用于后續發情行為識別特征提取。

式中0為姿態數據集樣本總數,即1 042 207;T為數據采集時間,格式為“YYYY-MM-dd hh:ss:mm”;P為母豬耳標號;H為姿態分類模型輸出的結果。
2)發情行為識別時間確定
提取母豬發情行為識別的特征需要對母豬姿態分類的矩陣R進行統計。在統計過程中,需要確定發情行為識別時間(以下簡稱“”),該參數控制發情行為識別操作觸發的頻率。越小,說明發情行為識別所需要的時間越短,即模型可以更及時識別發情行為。
的取值影響發情行為識別模型的準確性和及時性。過小的會導致發情行為識別操作頻繁觸發,頻繁的操作會增加計算機負擔,還可能造成大多數爬跨行為無法完整的落在發情識別時間內。過小也會使被用于發情行為特征提取的姿態數據樣本數量減少,使得姿態統計結果不足以反映母豬活動的狀況,從而導致發情行為識別的準確性降低。因此,在保證發情行為檢測準確性的同時也要考慮及時性,過大的如24和72 h)可能會導致發情行為識別不及時。但不可以一味地降低追求高及時性而忽略了準確性。在考慮提高及時性的同時應兼顧錯誤率、召回率和特效性等反映發情行為識別準確性的指標。
為了確定參數下限,本文統計了姿態分類結果中的每次完整爬跨行為的持續時長。本文定義一次完整爬跨行為的識別規則如下:
①在姿態數據集中,若爬跨姿態持續10 s以上,則認為爬跨行為開始;
②將第一條爬跨姿態數據的采集時間(精確到s)作為爬跨行為的開始時刻;
③爬跨行為開始一段時間后,當其他姿態(臥姿、立姿等)出現且持續時間超過10 s時認為爬跨狀態終止,反之則認為爬跨行為一直在持續;
④將最后一條爬跨姿態數據的采集時間作為爬跨行為的終止時刻;
⑤從爬跨行為開始到結束這一段時間內的行為稱為一次完整的爬跨行為。
按照上述規則識別得到母豬的爬跨行為持續時長后,通過繪制散點圖得到其分布規律,按照90%的比例確定下限Tinv。母豬發情周期和配種時間均按小時(h)計算[4-5]。
為盡早識別出發情行為和配種時間推算,確定上限Tinv的規則是

3)爬跨行為特征和活動量特征提取
母豬發情時會出現爬跨行為。本文以母豬發情行為識別時間為頻率對姿態分類結果矩陣R數據進行統計,得出發情行為識別時間內爬跨姿態累計時長D,進而得到爬跨姿態累計時長占發情行為識別時間的百分比(,%)并將其作為爬跨行為特征。

式中為發情行為識別時間長度,s;D為發情行為識別時間內爬跨姿態累計時長,s。
母豬大部分時間都處于趴臥和睡眠狀態,只有少部分時間起身走動、飲水、吃食和進行其他活動,但母豬在發情時會躁動不安,活動量增加。本文對姿態分類結果矩陣R數據進行統計,采用發情行為識別時間內活躍姿態累計時長占發情行為識別時間的百分比(,%)和不活躍姿態的累計時長占發情行為識別時間的百分比(,%)作為活動量特征。


式中D為發情行為識別時間內立姿累計時長,s;D為發情行為識別時間內臥姿累計時長,s。
確定發情行為識別時間的上下限之后,按照上下限Tinv和Tinv,統計發情行為識別時間內3種姿態時長,計算發情行為識別特征矩陣。

式中為姿態統計結果的記錄數,即對1 042 207個姿態數據每進行一次姿態統計,每一次統計得到一條統計結果即為矩陣的一行,矩陣的總行數為;T和T分別為發情行為識別時間的起始和終止時刻;U、A和I分別為從T開始到T結束這段時間內爬跨行為特征和活動量特征的計算結果數值。
1.2.4 基于MFO-LSTM的母豬發情行為識別方法
本文采用爬跨行為和活動量兩個特征識別發情行為。將包含兩個特征的矩陣和發情行為識別標簽合并為模型輸入矩陣。將矩陣作為母豬發情行為識別數據集,對其進行歸一化和無序處理后按照8∶2的比例劃分為訓練集和測試集。

式中Q為根據豬場管理記錄人工標記的發情行為識別結果,用于發情行為識別模型的訓練,其取值范圍為Q={發情,不發情}。
本文算法基于Matlab 2018a在Windows 7 64位操作系統環境下實現。LSTM程序使用Matlab深度學習工具箱完成。MFO程序使用文獻[29]的Matlab工具箱完成。支持向量機(Support Vector Machine,SVM)程序使用Libsvm工具箱完成。
根據機器學習分類問題常用評價指標[16,30]和相關文獻[6,8,31],本文確定母豬姿態分類試驗評價指標為準確率、召回率和F1值,母豬發情行為識別試驗評價指標為錯誤率、召回率和特效性。在母豬姿態分類試驗中,當識別某一種姿態時,正類指目標姿態,負類指除目標姿態外其他所有姿態。在母豬發情行為識別試驗中,正類指母豬發情,負類指母豬不發情。各個指標的含義和計算方式如下:
1)準確率Accuracy:該指標從總體上反映了模型正確分類的能力,既包括對目標類別的分類,又包括對非目標類別的分類。準確率越高說明模型分類效果越好:

2)錯誤率Error Rate:該指標描述了母豬發情識別過程中假發情警告樣本數FP與檢測到的發情樣本數之間的關系,衡量發情行為識別過程中假警報的出現情況。錯誤率越低說明發情行為識別過程中的假警報越少:

3)召回率Recall:部分發情行為識別文獻中將其稱之為靈敏性Sensitivity,該指標反映了目標類別不被漏檢的概率。召回率越高說明模型的分類效果越好:

4)特效性Specificity:該指標反映了目標類別不被誤檢的概率。特效性越高說明模型的分類效果越好:

5)F1值:該指標同時兼顧了分類模型的精度和召回率,是模型精度和召回率的調和平均,該值越高說明模型的分類效果越好:


式中TP為將正類識別為正類的樣本數;FN為將正類識別為負類的樣本數;FP為將負類識別為正類的樣本數;TN為將負類識別為負類的樣本數。
2.2.1 MFO-LSTM姿態分類試驗結果
為了比較使用姿態傳感器進行姿態測量和傳統方法中使用三軸加速度傳感器2種情況下的姿態分類效果,本文使用姿態數據集和三軸加速度數據集進行母豬姿態分類對比試驗。姿態數據集由三軸加速度、三軸角速度、三軸角度(歐拉角)、三軸磁場和四元數(0、1、2和3)組成,三軸加速度數據集僅包含三軸加速度。2個數據集的姿態分類試驗結果如表1所示。
在MFO-LSTM模型中,2個LSTM層的隱藏層單元數取值范圍為[30, 70]、最大訓練周期取值范圍為[50, 100]、分塊尺寸取值范圍為[20, 80]、學習率取值范圍為(0, 10-5]。使用LSTM模型評價指標準確率Accuracy作為適應度函數的返回值。設定MFO算法中參與尋優的參數為20組(即飛蛾數量為20),最大迭代次數為25,待優化參數個數為5(即維度為5)。

表1 基于MFO-LSTM的母豬姿態分類試驗結果
從表1中可以看出,使用姿態數據集進行分類時,各姿態識別的平均準確率為98.02%,平均召回率為96.26%,平均F1為96.18。只使用三軸加速度數據進行姿態分類時,各類姿態的平均識別準確率為82.04%,平均召回率為68.71%,平均F1為68.16。基于本文方法并采用姿態數據集相對于傳統方法采用三軸加速度數據集可以更有效區分立姿、臥姿和爬跨3類姿態,可以為發情行為特征提取提供可靠數據。
2.2.2 與其他方法的姿態識別性能對比
為了驗證本文方法的優越性,使用支持向量機(Support Vector Machine,SVM)、概率神經網絡(Probabilistic Neural Network,PNN)、學習向量量化(Learning Vector Quantization,LVQ)神經網絡和極限學習機(Extreme Learning Machine,ELM)4種方法與本文方法進行了姿態識別對比試驗,結果如表2所示。對比試驗中各個模型參數設定如下:SVM核函數為RBF函數[16]。LVQ競爭層神經元個數為20,學習率為0.1[32]。ELM隱藏層神經元數為100,激活函數為Sigmoid函數[33]。

表2 基于SVM、PNN、LVQ和ELM方法的母豬姿態分類試驗結果
從表1和表2中可以看出,本文方法的各項母豬姿態分類評價指標均優于SVM、PNN、LVQ和ELM方法,與SVM、PNN、LVQ和ELM相比本文方法具有優越性。
通過各方法對爬跨姿態的識別情況可以看出,所有模型對爬跨姿態的識別效果均好于對立姿和臥姿好,這是由于爬跨行為與立姿和臥姿相比特征更明顯,更容易被分類模型學習到。
通過對比使用姿態數據集和三軸加速度數據集的試驗可以看出,使用姿態數據集的姿態分類效果較好,其原因是姿態數據中除了三軸加速度數據外,還提供了三軸角速度、角度、磁場和四元數,磁場數據可以對三軸加速度數據起到一定的輔助校正作用,描述豬只運動情況的數據更加全面和準確,從而有效降低了豬只姿態分類的錯誤率。
為了計算發情行為識別特征矩陣中各個變量,需要統計發情行為識別時間下的各姿態數量,因此必須確定發情行為識別時間的下限Tinv,以確定發情行為識別時間的取值范圍并最終確定其取值。通過對母豬的每一次爬跨行為持續時間長度進行統計,將大部分爬跨行為持續時長的上限作為發情行為識別時間的下限,以便使大多數爬跨行為可以在發情行為識別時間內完整地發生一次。通過對姿態分類結果矩陣R和人工對比視頻分析,確定本文實驗共識別出26次完整的爬跨行為,每次爬跨行為的持續時間統計結果如圖4所示。

圖4 爬跨行為持續時間統計結果
從圖4中可以看出,96.29%的爬跨行為持續時間在600 s內。由于母豬發情周期和配種時間均按小時(h)計算[4-5],為方便配種時間的計算,發情行為別時間最好是60 min(1 h)的倍數或能被其整除。因此,發情行為識別時間下限Tinv取10 min較為合適。結合發情行為識別時間的上限確定發情行為識別時間的范圍為[10 min, 60 min]。
發情行為識別試驗分為準確性驗證和及時性驗證。準確性驗證主要檢驗本文方法的有效性,即能否在保證發情行為識別準確率的同時降低錯誤率;及時性驗證主要是檢驗本文方法能否在配種前識別出母豬發情行為。
根據發情行為識別時間范圍,分別對10、20、30、40、50和60 min的各類姿態數量進行統計,統計結果用于發情行為識別。將不同發情行為識別時間下的矩陣輸入MFO-LSTM模型進行試驗,并比較各個發情行為識別時間下模型的性能,以確定最佳發情行為識別時間,試驗結果如表3所示。

表3 母豬發情行為識別試驗結果
由表3可知,發情行為識別時間為30 min時,發情行為識別錯誤率為13.43%,召回率為90.63%,特效性為81.63%。通過對比本文方法以30 min為發情識別時間下的錯誤率和其他文獻中識別方法的錯誤率可知,本文方法比文獻[6]中以24 h為發情行為識別時間的發情行為識別錯誤率降低了85.86%,比以72 h為發情行為識別時間的發情行為識別錯誤率降低了86.16%,比文獻[8]中的發情行為識別錯誤率降低了86.52%,平均降低了80%以上。本文采用爬跨行為和活動量2個特征進行發情識別,發情行為識別錯誤率與基于單特征的發情行為識別方法相比,在保持較高的召回率和特效性的同時降低了錯誤率,發情行為識別結果的可信度更高。
本文方法每30 min對母豬的姿態數據進行一次統計分析,因此最少在30 min內就可以識別母豬發情行為。文獻[6,8]是基于24或72 h時間內的數據統計分析才可以識別出母豬發情行為。母豬的最佳配種時間為發情后的20~30 h[4-5],如果基于24或72 h后的數據進行發情行為識別,在數據分析得出結論時很可能已經錯過了母豬的最佳配種時機,而使用本文方法可以在最佳配種時機到來之前識別出母豬的發情行為。經過統計和對比豬場管理記錄,使用本文方法進行發情識別,在識別到試驗母豬發情行為18~20 h后豬場開始進行配種工作,為配種工作爭取了更多的準備時間。本文方法可以更早、更及時地識別出母豬發情行為,有利于最優配種時間的推算和配種工作的準備。
針對母豬發情行為識別過程中錯誤率高、識別不及時的問題,本文提出了基于MFO-LSTM的母豬發情行為識別方法,主要結論如下:
1)使用MFO-LSTM分類方法將母豬姿態分為立姿、臥姿和爬跨3種姿態。試驗結果表明使用姿態數據集比只使用三軸加速度數據集姿態分類準確率更高。本文姿態分類方法的平均分類準確率為98.02%,平均召回率為96.26%,平均F1為96.18,為后續發情行為識別奠定基礎;
2)當使用30 min作為發情行為識別時間時,發情行為識別錯誤率為13.43%,召回率為90.63%,特效性為81.63%,與其他已有的母豬發情行為識別方法相比錯誤率降低了80%以上。本文提出的母豬發情行為識別方法具有準確及時、錯誤率低的優點,適合在實際生產中推廣應用。
[1] 國家統計局. 2019年國民經濟和社會發展統計公報[EB/OL]. (2020-02-28) [2020-05-14]. http: //www. stats. gov. cn/tjsj/ zxfb/202002/t20200228_1728913. html.
[2] 豬好多網. 世界各國養豬生產成績比較[EB/OL]. (2020-04-24) [2020-06-09]. https: //www. yangzhu360. com/dianping/20200424/22899. html.
[3] 中華人民共和國農業農村部. 張興旺同志在全國畜牧業機械化現場會上的講話[EB/OL]. (2019-11-25) [2020-05-14]. http: //www. njhs. moa. gov. cn/nyjxhqk/201911/ t20191128_6332485. htm.
[4] 張配配,張濤,Brad Belstra,等. 母豬的發情檢測[J]. 國外畜牧學(豬與禽),2014(6):4-11. Zhang Peipei, Zhang Tao, Brad Belstra, et al. Estrus detection of sow[J]. Foreign Animal Husbandry (Pig and Poultry), 2014(6): 4-11. (in Chinese with English abstract)
[5] 桑潤滋. 實用畜禽繁殖技術[M]. 北京:金質出版社,2008.
[6] Ostersen T, Cornou C, Kristensen A R. Detecting oestrus by monitoring sows’ visits to a boar[J]. Computers and Electronics in Agriculture, 2010, 74(1): 51-58.
[7] Bressers H P M, Brake J H A T, Noordhuizen J P T M. Oestrus detection in group-housed sows by analysis of data on visits to the boar[J]. Applied Animal Behaviour Science, 1991, 31(3/4): 183-193.
[8] Cornou C, Vinther J, Kristensen A R. Automatic detection of oestrus and health disorders using data from electronic sow feeders[J]. Livestock Science, 2008, 118(3): 262-271.
[9] 侯慶余. 基于MEMS的資料浮標姿態傳感器的設計與實現[D]. 青島:中國海洋大學,2014. Hou Qingyu. The Design and Implementation of Data Buoy Posture Sensor Based on MEMS[D]. Qingdao: Ocean University of China, 2014. (in Chinese with English abstract)
[10] 曾唯. 微型慣性傳感器應用于飛行器模型姿態測試的研究[D]. 廈門:廈門大學,2007. Zeng Wei. Research on Micro Inertial Sensor Applied to Attitude Test of Aircraft Model[D]. Xiamen: Xiamen University, 2007. (in Chinese with English abstract)
[11] 閆麗,沈明霞,謝秋菊,等. 哺乳母豬高危動作識別方法研究[J]. 農業機械學報,2016,47(1):266-272. Yan Li, Shen Mingxia, Xie Qiuju, et al. Research on recognition method of lactating sows’ dangerous body movement[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(1): 266-272. (in Chinese with English abstract)
[12] 郭東東. 基于三軸加速度傳感器的山羊行為特征識別研究[D]. 太原:太原理工大學,2015. Guo Dongdong. Research on 3D Acceleration Sensor Recongnition for Goats' Behavior Recognition[D]. Taiyuan: Taiyuan University of Technology, 2015. (in Chinese with English abstract)
[13] 尹令,劉財興,洪添勝,等. 基于無線傳感器網絡的奶牛行為特征監測系統設計[J]. 農業工程學報,2010,26(3):203-208. Yin Ling, Liu Caixing, Hong Tiansheng, et al. Design of system for monitoring dairy cattle’s behavioral features based on wireless sensor networks[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2010, 26(3): 203-208. (in Chinese with English abstract)
[14] 尹令,洪添勝,劉漢興,等. 結構相似子序列快速聚類算法及其在奶牛發情檢測中的應用[J]. 農業工程學報,2012,28(15):107-112. Yin Ling, Hong Tiansheng, Liu Hanxing, et al. Subsequence clustering algorithm based on structural similarity and its application in cow estrus detection[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2012, 28(15): 107-112. (in Chinese with English abstract)
[15] 田富洋,王冉冉,劉莫塵,等. 基于神經網絡的奶牛發情行為辨識與預測研究[J]. 農業機械學報,2013,44(S1):277-281. Tian Fuyang, Wang Ranran, Liu Mochen, et al. Oestrus detection and prediction in dairy cows based on neural networks[J]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(S1): 277-281. (in Chinese with English abstract)
[16] 任曉惠,劉剛,張淼,等. 基于支持向量機分類模型的奶牛行為識別方法[J]. 農業機械學報,2019,50(S1):290-296. Ren Xiaohui, Liu Gang, Zhang Miao, et al. Dairy cattle’s behavior recognition method based on support vector machine classification model[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(S1): 290-296. (in Chinese with English abstract)
[17] 閆麗,沈明霞,姚文,等. 基于MPU6050傳感器的哺乳期母豬姿態識別方法[J]. 農業機械學報,2015,46(5):279-285. Yan Li, Shen Mingxia, Yao Wen, et al. Recognition method of lactating sows’ posture based on sensor MPU6050[J]. Transactions of the Chinese Society for Agricultural Machinery, 2015, 46(5): 279-285. (in Chinese with English abstract)
[18] Cornou C, Lundbye-christensen S. Classification of sows’ activity types from acceleration patterns using univariate and multivariate models[J]. Computers and Electronics in Agriculture, 2010, 72(2): 53-60.
[19] Escalante H J, Rodriguez S V, Cordero J, et al. Sow-activity classification from acceleration patterns: A machine learning approach[J]. Computers and Electronics in Agriculture, 2013, 93: 17-26.
[20] Thompson R, Matheson S M, PL?TZ T, et al. Porcine lie detectors: Automatic quantification of posture state and transitions in sows using inertial sensors[J]. Computers and Electronics in Agriculture, 2016, 127: 521-530.
[21] Oczak M, Maschat K, Berckmans D, et al. Can an automated labelling method based on accelerometer data replace a human labeller? – Postural profile of farrowing sows[J]. Computers and Electronics in Agriculture, 2016, 127: 168-175.
[22] Cornou C, Lundbye-christensen S, Kristensen A R. Modelling and monitoring sows’ activity types in farrowing house using acceleration data[J]. Computers and Electronics in Agriculture, 2011, 76(2): 316-324.
[23] 劉龍申,沈明霞,姚文,等. 基于加速度傳感器的母豬產前行為特征采集與分析[J]. 農業機械學報,2013,44(3):192-196. Liu Longshen, Shen Mingxia, Yao Wen, et al. Acquisition and snalysis of sows’ behavior before farrowing based on acceleration sensor[J]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(3): 192-196. (in Chinese with English abstract)
[24] Graves A. Long Short-Term Memory[M]//Studies in Computational Intelligence. Berlin: Springer-Verlag Berlin, 2012: 37-45.
[25] 楊亮,劉春紅,郭昱辰,等. 基于EMD-LSTM的豬舍氨氣濃度預測研究[J]. 農業機械學報,2019,50(S1):353-360. Yang Liang, Liu Chunhong, Guo Yuchen, et al. Prediction of ammonia concentration in fattening piggery based on EMD-LSTM[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(S1): 353-360. (in Chinese with English abstract)
[26] 陳英義,程倩倩,方曉敏,等. 主成分分析和長短時記憶神經網絡預測水產養殖水體溶解氧[J]. 農業工程學報,2018,34(17):183-191. Chen Yingyi, Cheng Qianqian, Fang Xiaomin, et al. Principal component analysis and long short-term memory neural network for predicting dissolved oxygen in water for aquaculture[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(17): 183-191. (in Chinese with English abstract)
[27] 李萬,馮芬玲,蔣琦瑋. 改進粒子群算法優化LSTM神經網絡的鐵路客運量預測[J]. 鐵道科學與工程學報,2018,15(12):3274-3280. Li Wan, Feng Fenling, Jiang Qiwei. Prediction for railway passenger volume based on modified PSO optimized LSTM neural network[J]. Journal of Railway Science and Engineering, 2018, 15(12): 3274-3280. (in Chinese with English abstract)
[28] 趙明,杜會芳,董翠翠,等. 基于word2vec和LSTM的飲食健康文本分類研究[J]. 農業機械學報,2017,48(10):202-208. Zhao Ming, Du Huifang, Dong Cuicui, et al. Diet health text classification based on word2vec and LSTM[J]. Transactions of the Chinese Society for Agricultural Machinery, 2017, 48(10): 202-208. (in Chinese with English abstract)
[29] Mirjalili S. Moth-flame optimization algorithm: A novel nature-inspired heuristic paradigm[J]. Knowledge-Based Systems, 2015, 89: 228-249.
[30] 袁培森,任守綱,翟肇裕,等. 基于半監督主動學習的菊花表型分類研究[J]. 農業機械學報,2018,49(9):27-34. Yuan Peisen, Ren Shougang, Zhai Zhaoyu, et al. Chrysanthemum phenotypic classification based on semi-supervised active learning[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(9): 27-34. (in Chinese with English abstract)
[31] Cornou C. Automated oestrus detection methods in group housed sows: Review of the current methods and perspectives for development[J]. Livestock Science, 2006, 105(1-3): 1-11.
[32] 梁武科,彭文季,羅興錡. 基于LVQ網絡的水電機組振動多故障診斷方法[J]. 農業機械學報,2007,38(1):208-210. Liang Wuke, Peng Wenji, Luo Xingqi. Multi - fault diagnosis method of hydropower unit vibration based on LVQ network[J]. Transactions of the Chinese Society for Agricultural Machinery, 2007,38(1):208-210. (in Chinese with English abstract)
[33] 宦娟,劉星橋. 基于K-means聚類和ELM神經網絡的養殖水質溶解氧預測[J]. 農業工程學報,2016,32(17):174-181. Huan Juan, Liu Xingqiao. Dissolved oxygen prediction in water based on K-means clustering and ELM neural network for aquaculture[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(17): 174-181. (in Chinese with English abstract)
Identification of sow oestrus behavior based on MFO-LSTM
Wang Kai1, Liu Chunhong1,2, Duan Qingling1,2,3※
(1.,,100083,; 2.,100083,; 3.100083,)
Timely and accurate identification of oestrus behavior of sows can effectively increase the conception rate and litter size, which is of great significance to improve the breeding level and economic benefits of breeding enterprises.The traditional identification methods of oestrus behavior of sows have the problems of high working intensity, strong subjectivity and low automation level. Some identification methods of oestrus behavior of sows based on internet of things also have some problems, such as high false alarm times, high error rate and long recognition time. In order to solve the problems of low identification accuracy and efficiency, a oestrus behavior recognition method of sows based on Moth-Flame Optimization optimized Long Short Term Memory(MFO-LSTM) was proposed in this paper, and the verification test was carried out at WuFeng breeding farm in Xinghualing district, Taiyuan city, Shanxi Province. The posture data of sows were obtained by posture sensors installed on the neck of the sows. The posture data describing the sow's motion state contained three-axis acceleration, three-axis angular velocity, three-axis angle, three-axis magnetic field and quaternion. The collected posture data was manually marked according to the videos, and preprocessed to obtain a posture classification data set. Then, the MFO algorithm was used to optimize the numbers of first and second hidden layer neurons, maximum training period, block size and learning rate, thus, the LSTM network model was built. Postures of sows were divided into three categories, i.e. standing, lying and mounting. Through the statistics of the duration of each complete mounting behavior of the sows, the range of the recognition time of the oestrus behavior was obtained. The sows posture classification results were counted with different oestrus behavior recognition duration, and two characteristics of mounting behavior and activity were then extracted, so as to obtain the recognition feature matrix of oestrus behavior of sows. Finally, the feature matrix was input into the MFO-LSTM classification model to judge whether the sow was oestrus. The experimental results showed that the classification method of sows posture proposed could effectively distinguish the three postures of standing, lying and mounting. The classification effects of proposed method were better than that of the Support Vector Machine (SVM), Probabilistic Neural Network(PNN), Learning Vector Quantization (LVQ) and Extreme Learning Machine(ELM). The average accuracy, recall rate and F1 in the attitude data set were 98.02%, 96.26% and 96.18, respectively. On the basis of accurately identifying the sows’ posture, the effect of oestrus behavior recognition based on MFO-LSTM algorithm was verified. The test results showed that the recognition effect was best when the oestrus recognition duration was 30 min at this time, the error rate, recall rate and specificity of oestrus recognition were 13.43%, 90.63% and 81.63%, respectively. The oestrus behavior of sows recognition method proposed effectively reduced the error rate while maintaining a high recall rate and specificity. Compared with other methods, the error rate was reduced by more than 80%, the oestrus behavior of sow could be recognized after 30 min of oestrus.
behavior; monitoring; algorithms; sows; oestrus behavior; long short-term memory; moth-flame optimization
王凱,劉春紅,段青玲. 基于MFO-LSTM的母豬發情行為識別[J]. 農業工程學報,2020,36(14):211-219.doi:10.11975/j.issn.1002-6819.2020.14.026 http://www.tcsae.org
Wang Kai, Liu Chunhong, Duan Qingling. Identification of sow oestrus behavior based on MFO-LSTM[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(14): 211-219. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2020.14.026 http://www.tcsae.org
2019-12-11
2020-06-09
國家重點研發計劃(2016YFD0700200);國家高技術研究發展計劃(863計劃)資助項目(2013AA102306)
王凱,研究方向為智能信息處理。Email:S20173081212@alu.cau.edu.cn
段青玲,博士,教授,主要從事智能信息處理研究。Email:dqling@cau.edu.cn
10.11975/j.issn.1002-6819.2020.14.026
TP391;S828
A
1002-6819(2020)-14-0211-09