



















摘要:為監測牛只行為狀態和體征信息,設計一種多傳感器融合的牛項圈。選擇基于藍牙5.0的控制芯片,外接3種傳感器設備,實現牛只行為姿態(加速度和角速度值)、體表溫度、室內位置4項基本序列數據以及叫聲(正常情況、發情情況)和吞咽聲3項音頻數據的采集。采用SVM、KNN、RFC對牛只行走、站立、進食和躺臥行為進行分類,其中RFC的準確率最高,達到99.59%,KNN和SVM次之,準確率分別為99.01%、85.23%。使用基于GRU的深度學習算法對牛只叫聲與吞咽聲進行分類,整體準確率達到90.72%。對采集的體表溫度與直腸溫度進行擬合校正,擬合度R2均高于0.9。結果表明,基于多傳感器融合的牛項圈不僅可以有效采集傳統序列數據,還可以同步采集音頻數據,為牛只行為學分析提供多維度的數據支持。
關鍵詞:牛項圈;多傳感器融合;行為分類;聲音識別
中圖分類號:S823; TP391.4" " " 文獻標識碼:A" " " 文章編號:2095?5553 (2024) 08?0077?09
Design of cattle collar based on multi?sensor fusion
Tian Huijuan1, Huang Lüwen1, 2, Tian Xu1, Ren Liehong1
(1. College of Information Engineering, Northwest A amp; F University, Yangling, 712100, China;"2. Key Laboratory of Agricultural Internet of Things, Ministry of Agriculture and Rural Affairs, Yangling, 712100, China)
Abstract: In order to monitor the behavioral status and physical information of cattle, a multi?sensor fusion cattle collar is designed in this paper. The collar selects a control chip based on Bluetooth 5.0, and three kinds of sensor devices are connected to realize the collection of the four basic sequence data of cattle behavior posture (acceleration and angular velocity values), body surface temperature, indoor position, and three audio data of cow calls (normal condition and estrus condition) and swallowing sounds. SVM, KNN and RFC are used to classify the walking, standing, eating and lying behaviors of cattle. Among them, the average accuracy of RFC is the highest, reaching 99.59%, followed by KNN and SVM, and the accuracy rates are respectively 99.01% and 85.23%. The GRU?based deep learning algorithm is used to classify cattle calls and swallowing sounds, and the overall accuracy rate reaches 90.72%. The fitting correction of the collected body surface temperature and rectal temperature shows that the fitting degree [R2] is higher than 0.9. The results show that the cow collar based on multi?sensor fusion can not only effectively collect traditional sequence data, but also collect audio data synchronously. It can provide multi?dimensional data support for cattle behavior analysis.
Keywords: collar; multi?sensor fusion; behavior classification; voice recognition
0 引言
牛只行為是指牛的活動方式、發聲以及外表上可辨認的變化,反映其健康狀況的一種重要表現,是產業繁殖、育種過程中及其重要的性狀參數。依靠人工觀察方式獲取牛只行為信息,主觀性強且精度低。因此,為牛只佩戴智能監測設備在不同時空尺度下準確、高效監測其行為,可以更好地了解其生長、繁殖和對疾病的反應[1],幫助管理者及時準確的做出決策,以優化牛只性能、減少養殖場經濟損失。
對動物的日常行為監測,國內外學者已取得了一定成果。王俊等[2]使用三軸加速度傳感器監測奶牛站立、平躺、慢走、快走等行為,使用決策樹模型對其進行分類,平均準確率達到76.47%。發情行為常使用單一溫度傳感器或與計步器結合監測[3],Higaki等[4]開發了一種附尾裝置,帶有熱敏電阻和三軸加速度計,通過監測牛的體表溫度和活動強度對其發情行為進行監測,準確率為92.0%。準確、實時獲取牛只地理位置對放牧養殖管理非常關鍵,大多數養殖者采用無線傳感器網絡對牛只進行定位[5],且定位信息與加速度傳感器的集成可以更準確的監測牛只行為[6]。
牛只發聲與其情緒狀態、生理健康狀況密切相關[7?10],利用聲音傳感器監測牛只叫聲,進食與反芻產生的吞咽聲[11],可實現牛只健康、福利水平地自動評估[12],提高畜牧場的工作效率。Meen等[13]使用音頻和視頻記錄了牛只的發聲和行為,躺臥和反芻的發聲頻率與其他進食、社交等行為的發聲頻率存在顯著差異,躺臥與反芻的平均最大頻率為83 Hz±4.3 Hz,其他行為的平均最大頻率為298 Hz±8.0 Hz,研究結果表明牛的聲音和行為存在相關性,是福利養殖研究的趨勢。
為更好地解決牛項圈同步監測牛只行為和生命體征的實際需要,本文提出一種多傳感器融合的智能牛項圈,實現4種日常行為(進食、行走、站立、躺臥)、體表溫度、牛只叫聲的信息采集與存儲,為大型家畜行為學研究提供多維度的數據支持。
1 牛項圈設計
1.1 系統硬件設計
為實時監測牛只的日常行為加速度、角速度、體表溫度、活動位置以及日常叫聲(正常、發情)、吞咽聲,以及分析其活動行為和生命體征的變化,設計并提出一種多傳感器融合的智能牛項圈。該裝置以NRF52 832微控制器為核心,用于管理3個外接傳感器(加速度傳感器MPU6 050、溫度傳感器DS18B20和聲音傳感器VS1 053);數據存儲模塊包含數據緩沖區與Micro SD卡;供電模塊由1個充放電管理單元和1節4 000 mAh鋰電池組成,可通過接口Type-C充電,如圖1(a)所示。主控芯片根據接收牛舍中藍牙低功耗信標(Bluetooth Low Energy, BLE)發出的廣播信號(Received Signal Strength Indication, RSSI),計算該牛只的具體位置[14]。6軸加速度計用于獲取3軸加速度和3軸角速度;溫度傳感模塊用于接觸式采集牛只體表溫度;聲音傳感模塊用于收錄牛只叫聲與吞咽聲。
為避免損壞電子元件和電池,用3D打印機設計并生產了一種具有良好機械性能的低成本塑料保護盒。其中一側有圓柱體凹槽,可將溫度傳感器嵌入其中。盒子用一條可調節的柔軟滌綸帶固定在牛只脖子上,最大限度地提高牛只的舒適度。實物圖如圖1(b)所示。
1.2 功能軟件設計
以Keil uVision5為開發環境,通過功能模塊化編程,完成位置、姿態、體溫和聲音4個數據采集模塊的編程,主程序流程如圖2所示。
整個硬件初始化需200 ms,包含軟件延遲,以確保所有傳感器完成初始化。然后開啟定時器,以每秒30幀循環讀取傳感數據,每幀包含位置、加速度、角速度和體溫;同步完成音頻獲取,最后將全部數據存入SD卡。姿態、體表溫度、聲音傳感數據獲取流程如圖3所示。
牛只位置信息獲取采用基于RSSI的三維測距定位算法。牛只項圈和藍牙信標在啟動后建立藍牙協議棧,完成全域廣播和開啟設備接入掃描。如圖4所示,在牛舍固定位置放置4個信標,其位置坐標定義為D1(0,0,h)、D2(w,0,h)、D3(0,l,h)、D4(w,l,h),其中牛只位置為未知待測節點坐標D(x,y,z)。基于式(1),牛項圈根據獲取到的RSSI值可計算出與4個信標的距離[di(i=1,2,3,4)。]
[RSSI=-10nlog10d+A] (1)
式中: n——環境衰減因子,其大小主要取決于所處環境;
RSSI——距離信標d處的信號強度,dBm;
A——距離信標1 m處接收的信號強度,dBm。
根據信標坐標值與距離[di,]基于多重勾股定理可得式(2)。
[d12=(0-x)2+(0-y)2+(h-z)2d22=(w-x)2+(0-y)2+(h-z)2d32=(0-x)2+(l-y)2+(h-z)2d42=(w-x)2+(l-y)2+(h-z)2] (2)
對式(2)轉化求解,可得牛項圈待測節點D(x,y,z)的坐標為
[x=w2+d12-d222wy=l2+d12-d322lz=h-d12-x2-y2] (3)
由于RSSI容易受到干擾和噪聲,預計實際位置的計算會出現誤差。本文使用均方誤(Mean Square Error,MSE)度量測量位置與實際位置之間的誤差,如式(4)所示。
[MSE=(x-xr)2+(y-yr)2+(z-zr)2] (4)
式中: [x、y、z]——牛項圈測量值;
[xr、yr、zr]——實際位置坐標值。
2 數據處理與分類算法
2.1 數據標注
數據集包括牛只行為的序列數據和日常叫聲、吞咽聲的音頻數據。在進行數據標注時,將其與實時錄像數據的時間戳進行同步,依據錄像的牛只行為,標注序列和音頻數據。序列數據主要標注了4種互斥行為,行走、站立、進食和躺臥,共260 084條數據。音頻數據主要標注了牛只叫聲(正常、發情)與吞咽聲,標注完成后,將其截取成長短不一的音頻片段共258條。數據標注結果如表1所示。
2.2 數據增強與降噪
由于項圈佩戴在牛只脖頸上,在站立與躺臥等相對靜止的狀態下,頭部會不可避免的出現不同幅度的擺動。使得部分數據偏離傳統的表達方式,表現出類似進食、行走行為的傳導信號,導致不同類之間存在較大的類內變異性和顯著重疊。同時考慮到牛項圈在佩戴過程中放置的差異性,對標記好的序列數據應用了Um等[15]提到的傳感器數據增強方法,包括縮放、抖動以及隨機旋轉。
養殖場環境聲音繁雜,包括牛叫聲、牛只與喂養設備互作的聲音、清糞車、投喂車等機械設備運行的噪聲以及電流白噪聲。為了確保數據的可用性和有效性,通過使用減譜法、小波去噪法對原始音頻數據進行降噪處理。減譜法適用于加性噪聲,且每一幀的噪聲統計特性均相同,因此,減譜法要求噪聲必須服從平穩隨機過程,根據這一特性可有效去除電流白噪聲。小波去噪方法是一種建立在小波變換多分辨率分析基礎上的算法,適合非平穩信號,而音頻信號屬于非平穩信號。
2.3 數據標準化
由于不同傳感器獲取到的原始數據的量綱不同,數量級差別很大,所以需要對其進行標準化平衡各數據的貢獻。且針對數據集,如果某些特征不遵循正態分布,則這些特征在建模中的性能將很差,這是因為許多機器學習算法的目標函數是基于所有特征的均值為0,且具有相同方差階的假設[16]。因此,通過均值去除來實現特征的去中心化,然后除以標準差將數據歸一化為[0, 1]。
2.4 特征提取與降維
由于傳感器、行為數據的性質以及應用分析方法的不同,因此用于對動物行為進行分類的最佳特征及數量在不同的研究中有很大差異[17]。針對這一不確定的情況,本文沒有根據主觀性自行計算相關特征,而是使用特征工程實現特征生成。針對序列數據,原始的數據通道數為10(3軸加速度、3軸角速度、3個位置信息、1個體表溫度),在此基礎上進行特征生成,共產生7 891維特征。這些特征包括數據的絕對能量(平方和)、均值、絕對值、標準差等統計特征;光譜質心、峰度、偏度、相位、幅值等譜統計量;數據的近似熵、分桶熵等相關信息熵特征。
由于提取到的7 891維特征中包含冗余甚至無用的特征,采用方差過濾法和卡方過濾法進行特征篩選。如果一個特征本身方差很小,表示牛只不同的行為數據在這個特征上基本沒有差異,通過設置方差閾值將沒有太大作用的特征進行篩除;卡方過濾是針對離散型標簽的相關性過濾,可以選出與標簽強相關且有意義的特征。通過以上方法進行特征過濾,最終篩選出430項特征。為簡化模型輸入,消除冗余變量對模型的影響,選用主成分分析(PCA)將特征從430維降到20維,以提高機器學習算法的運行效率。
針對牛只正常叫聲、發情叫聲與吞咽聲的分類,可通過提取梅爾普特征對其進行區分。不同聲音所處的特定頻率范圍內的能量分布不同,而梅爾譜特征表示音頻信號能量在梅爾刻度頻率上的分布,可有效區分牛發出的不同聲音。
2.5 分類算法與評價指標
選擇k近鄰(KNN)、支持向量機(SVM)、和隨機森林(RFC)3種機器學習算法對序列數據標注的4種行為(行走、站立、進食和躺臥)進行分類和比較,訓練集與測試集按照8∶2劃分。選用基于GRU的網絡模型對牛只正常叫聲、發情叫聲與吞咽聲進行識別分類。其中將標注好的長短不一的聲音片段都切割成時長為1 s的單元片段進行試驗,訓練集與測試集按照8∶2劃分。為了研究分類的效果,選用準確性,精確性,召回率和F1分數對不同算法的分類效果進行評估。
3 試驗與結果
3.1 牛場試驗與數據采集
3.1.1 基于RSSI的三維測距定位試驗
信標廣播的RSSI在傳播過程中信號強度隨著距離的增加而減弱,且信號衰落特性受傳播環境影響,如信號被建筑物、樹木等障礙物阻擋出現衰落或放大的多徑效應,導致RSSI的信號波動性較大。因此需要研究該牛場環境下的對數路徑損耗模型。在牛場環境下,固定信號接收器牛項圈,然后使信標和牛項圈相距d,d從0.2開始取值,以0.2的倍數依次取至4.6,同時記錄每個距離d對應的10組RSSI值。為了減小誤差,對RSSI值進行卡爾曼濾波處理,同時對這10組RSSI值進行均值計算,結果如表2所示。
根據式(1)使用最小二乘法對表2中的RSSI均值與距離d進行擬合,如圖5所示,表達式如式(5)所示。
[RSSI=-18.68log10d-63.90] (5)
結合式(1)可知,環境衰減因子n=1.86 8。對式(5)轉換得到距離計算如式(6)所示。
[d=10(-63.90-RSSI18.68)] (6)
求得牛場環境下的具體對數路徑損耗模型后,驗證定位精度。選擇一間牛舍作為測試場地,該牛舍長14 m,寬13 m。由于成年牛體高一般在1.2~1.5 m左右,且考慮到牛爬跨時高度會上升,所以在牛舍四角頂棚高2.5 m處放置信標。在該試驗環境下建立三維立體坐標系,選擇5個測試點,分別為A(7,3.5,0.8)、B(7,6.5,1)、C(7,10,1.2)、D(4,6.5,0)、E(12,6.5,1.5),其中點A與點E靠近人行過道,點C與點D靠近牛舍內墻,點B處于其他4個測試點中心。牛場工作人員將牛項圈分別在5個測試點各放置1 min,每個測試點獲取到基于RSSI的三維定位算法計算出的多條位置估計值。根據式(4)計算每個位置的定位估計最大誤差、最小誤差和平均誤差,如表3所示。
從表3可以看出,位置的平均誤差在1 m上下波動。其中點A與點E的平均誤差較低,點C與點D的平均誤差較高,出現這一原因可能是因為牛只在日常活動時會遠離人行道區域,從而點A、點E所處區域牛只數量較點C、點D少,信號受干擾更少一點。處于牛舍中心位置的點B,誤差最大,這可能是由于信標發送的信號彼此產生了干擾造成定位誤差較大。成年牛只的體長一般在1.5~2.5 m之間,因此該定位產生的誤差在可接受范圍內。
3.1.2 數據采集
2022年7月,在陜西省楊凌國家肉牛養殖中心使用該項圈,對3頭秦川牛完成試驗測試。試驗基地的牛舍為半敞開式的棚舍結構,分為飲食區與運動區。飲食區以室內為主,其具有隔熱、防雨和冬季保溫作用;而運動區為室外,室外部分區域設有頂棚,用于夏季牛只遮陽。牛舍定期進行清糞沖洗和消毒殺菌處理,防止細菌的傳播。
2022年7月8—11日,進行數據采集。將項圈安裝在牛只的脖頸上,其中嵌有溫度傳感器的一側貼向牛只脖頸。等待1~2 h,待牛只徹底適應項圈以后,對牛只進行錄像,以確保數據不是在異常情況下獲得。在牛舍中的監控發現,由于距離遠以及牛只相互靠近時出現遮擋,導致難以識別出帶項圈的牛只,因此采用人工追蹤錄制。項圈中獲取到的數據分為兩部分,一部分為音頻數據,格式為wav,另一部分為序列數據。其中序列數據每個數據點包括來自傳感器的信息和時間戳。具體序列數據格式如表4所示。
2022年7月11日8:00—19:00對牛只進行體表溫度與直腸溫度采集。將項圈安裝在牛只脖頸上,進行連續測溫。同時牛場專業人員采用獸用水銀體溫計每隔1 h對牛只進行直腸測溫,每次測量等待3~5 min后讀取數據。
3.2 采集到的數據特性分析
3.2.1 姿態位置數據特性分析
牛只不同行為的原始加速度值與角速度值會呈現出不同的規律特征。選擇其中一頭牛只作為代表,繪制其站立、躺臥、進食、行走行為的加速度、角速度波形,如圖6~圖9所示,其中X軸表示一連續時間段內的數據點個數,Y軸表示原始數據大小。牛只在站立、躺臥相對靜止的行為狀態下,三軸加速度以及角速度整體變化相對平滑。但是由于項圈佩戴在牛只脖頸上,頭部偶爾會出現不同幅度的擺動,因此監測到的數據會在短時間內出現不規則的波動,如圖6(a)、圖6(b)、圖7(a)、圖7(b)所示。牛只進食期間,頭頸一直處于活動狀態,向各個方向移動,加速度與角速度數據呈現出高頻、較大幅度振動,且波動不規律,如圖8(a)、圖8(b)所示。牛只在行走時三軸加速度、角速度呈現明顯的周期性變化。且相比于進食,波動幅度較小,主要原因在于牛只屬于大型牲畜,行走緩慢,且行走過程中,頭頸部分并不會出現大幅度擺動,如圖9(a)、圖9(b)所示。
位置信息也能反映出牛只的行為狀態。如圖6(c)、圖7(c)所示,站立與躺臥過程中,X軸與Y軸數值變化幅度較小,在1 m內波動,符合牛只此時相對靜止的行為狀態,同時也說明定位存在誤差,如3.1.1節中所描述一樣,約為1 m左右。圖8(c)顯示牛只進食時X軸,Y軸的坐標波動幅度大于站立與躺臥行為,小于行走,這是由于牛只在進食時身體位置基本不變,但是頭頸一直在動,導致接收到的信號相比站立與躺臥更加不平滑。圖9(c)中,行走時的Y軸坐標由0.5 m變化到了8 m,說明牛只在沿著Y軸方向行走。所有行為的Z軸坐標相對平滑,這是因為無論牛只處于哪種行為,Z軸坐標都是其脖子離地面的距離。
3.2.2 音頻數據特性分析
圖10~圖12展示了牛只正常叫聲,發情時的叫聲以及吞咽聲的時域信號及頻域特征。由圖10(a)、圖11(a)、圖12(a)可以看出,牛只正常叫時整體幅度較為平緩穩定,而牛只發情時的叫聲有明顯的起勢與降勢,牛只吞咽聲相比較兩種牛叫聲持續時間更短,不到0.5 s。由圖10(b)、圖11(b)、圖12(b)可以看出,牛只正常叫時頻域信號主要在[0 Hz, 5 000 Hz]內分布,其峰值及主要能量集中在[0 Hz, 1 000 Hz],峰值達到了100 dB;發情時信號值在[0 Hz, 2 000 Hz]內分布,其峰值及主要能量集中在[0 Hz, 500 Hz],峰值高達1 000 dB,遠遠高于牛只正常叫時的峰值;牛只吞咽聲音信號在[0 Hz,1 000 Hz]區域,但是其峰值只有40 dB。上述說明牛發出的不同聲音,信號分布不完全相同,且特定頻率范圍內的能量分布不同,因此本文提取音頻數據的梅爾普特征對其進行分類是可行的。
3.2.3 體表溫度與直腸溫度校正
牛只正常直腸溫度在38 ℃~39 ℃之間,而牛項圈測得的體表溫度受環境影響,相較于直腸溫度有較大波動。圖13為采集到的不同時間點牛只體表溫度和直腸溫度變化情況。從圖13可以看出,體表溫度隨時間變化幅度較大,而直腸溫度的變化幅度較小。因此,對體表溫度校正時,選用不考慮時間的二元曲線擬合以及考慮時間的三維多項式曲面擬合。
圖14(a)為不考慮時間因素,單獨分析牛只體表溫度與直腸溫度的關系,得到擬合方程為[F=40.42-0.17T+0.003 4T2,]其中[T]為體表溫度,F為直腸溫度。該方程擬合度[R2]為0.903 4,校正后的最大差值為0.21 ℃。考慮時間因素,分析牛只體表溫度、時間與直腸溫度的關系,擬合方程為F=-77.66-6.337t+12.13T+0.148 5t2+0.269 4Tt-0.394 8T2-0.004 733t2T-0.002 141tT2+0.004 02T3,其中[t]為時間點。該方程擬合度[R2]為0.985 4,校正后的最大差值為0.18 ℃,擬合效果如圖14(b)所示,該方法取得了更為理想的效果,因此選用該擬合方程對體表溫度進行校正。
3.3 算法性能結果
3.3.1 行為分類結果
SVM、KNN、RFC三種機器學習算法在牛只行走、站立、進食和躺臥行為上的分類性能如表5所示。
SVM的分類準確率為85.23%,KNN為99.01%,RFC最高為99.59%。且RFC在召回率、精確度和F1分數3個性能指標上的整體表現最佳。KNN的分類效果略低于RFC,其中行走的F1分數下降了1%,站立的F1分數下降了1.48%。SVM的整體分類效果最差,其中站立與躺臥的F1分數最低,分別為0.730 5、0.749 4;且站立的精確度只有0.576 4,躺臥的召回率只有0.599 3。
圖15為SVM、KNN、RFC三種算法對應的混淆矩陣。結合混淆矩陣分析,SVM的分類效果不理想主要是由于其誤識別率較高,其中有5.24%行走測試樣例、2.24%的進食樣例、7.2%的躺臥樣例被誤識別為站立,因此站立的精確度只有0.576 4。KNN相較于SVM,整體準確度提升了13.78%,從圖15(b)可以看出,出現顯著提升是因為行走、進食和躺臥誤分類為站立的樣本減少到只有2個。RFC分類效果最好,相比較KNN,行走與站立行為的F1分數有了進一步的提升,結合圖15(c)可以看出,主要是由于將站立行為誤分為行走的樣本比例從0.865%下降到了0.23%。
3.3.2 聲音分類結果
表6顯示了通過GRU模型對牛只正常叫聲、發情時的叫聲以及吞咽聲3種音頻信息的分類結果。
整體的分類準確率為90.72%,吞咽聲F1分數最高為0.938 7。其中正常叫聲的召回率和F1分數都最低,分別為0.842 1,0.876 6。發情叫聲的三個性能指標相較正常叫聲都有所提高。吞咽聲召回率最高,為0.938 7,但是其精確率最低,只有0.884 6,這是因為吞咽聲全部識別正確,但是存在11.53%的正常叫聲的測試用例被誤識別為了吞咽聲。出現這種誤識別的情況,分析其原因可能是完整牛叫聲(正常、發情)時長通常大于1 s,將音頻片段切割為1 s進行訓練,提取出的特征不能很好的表征完整叫聲的特點,從而不能很好的對其進行區分。
4 結論
1) 設計一種多傳感器融合的牛項圈,該項圈選擇基于藍牙5.0的控制芯片,外接3種傳感器設備,可實現牛只行為姿態(加速度和角速度值)、體表溫度、室內位置4項基本序列數據,以及叫聲(正常情況、發情情況)和吞咽聲3項音頻數據的同步采集。
2) 利用該項圈采集到的數據,使用SVM、KNN、RFC三種機器學習算法,對牛只行走、站立、進食和躺臥進行分類,其中RFC分類效果最好,整體準確率為99.59%,KNN次之,為99.01%,SVM最差只有85.23%。使用GRU深度學習算法對牛只叫聲和吞咽聲進行分類,準確率達到90.72%。同時對體表溫度與直腸溫度進行校正,[R2]達到0.9以上。
3) 試驗結果表明,該項圈采集的數據是有效可用的,可以為牛只行為分析以及牛只聲音分析提供數據支持。未來研究,可以將序列數據與音頻數據進行多模態融合,通過增加分類器輸入的多樣性,進一步獲得性能的改進。
參 考 文 獻
[ 1 ] González L A, Bishop?Hurley G J, Handcock R N, et al. Behavioral classification of data from collars containing motion sensors in grazing cattle [J]. Computers and Electronics in Agriculture, 2015, 110: 91-102.
[ 2 ] 王俊, 張海洋, 趙凱旋, 等. 基于最優二叉決策樹分類模型的奶牛運動行為識別[J]. 農業工程學報, 2018, 34(18): 202-210.
Wang Jun, Zhang Haiyang, Zhao Kaixuan, et al. Cow movement behavior classification based on optimal binary decision?tree classification model [J]. Transactions of the Chinese Society of Agricultural Engineering, 2018, 34(18): 202-210.
[ 3 ] 段青玲, 王凱, 劉春紅. 基于MFO-LSTM的母豬發情行為識別[J]. 農業工程學報, 2020, 36(14): 211-219.
Duan Qingling, Wang Kai, Liu Chunhong. Identification of sow oestrus behavior based on MFO-LSTM [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(14): 211-219.
[ 4 ] Higaki S, Okada H, Suzuki C, et al. Estrus detection in tie?stall housed cows through supervised machine learning using a multimodal tail?attached device [J]. Computers and Electronics in Agriculture, 2021, 191: 106513.
[ 5 ] Handcock R N, Swain D L, Bishop?Hurley G J, et al. Monitoring animal behaviour and environmental interactions using wireless sensor networks, GPS collars and satellite remote sensing [J]. Sensors, 2009, 9(5): 3586-3603.
[ 6 ] Barker Z E, Diosdado J A V, Codling E A, et al. Use of novel sensors combining local positioning and acceleration to measure feeding behavior differences associated with lameness in dairy cattle [J]. Journal of Dairy Science, 2018, 101(7): 6310-6321.
[ 7 ] Manteuffel G, Puppe B, Sch N P C. Vocalization of farm animals as a measure of welfare [J]. Applied Animal Behaviour Science, 2004, 88(1-2): 163-182.
[ 8 ] Watts J M, Stookey J M. Vocal behaviour in cattle: The animal's commentary on its biological processes and welfare [J]. Applied Animal Behaviour Science, 2000, 67(1-2): 15-33.
[ 9 ] Marchant J N, Marchant?Forde R M, Weary D M. Responses of dairy cows and calves to each other's vocalisations after early separation [J]. Applied Animal Behaviour Science, 2002, 78(1): 19-28.
[10] Schnaider M A, Heidemann M S, Silva A H P, et al. Vocalization and other behaviors as indicators of emotional valence: The case of cow?calf separation and reunion in beef cattle [J]. Journal of Veterinary Behavior, 2022, 49: 28-35.
[11] Vanrell S R, Chelotti J O, Galli J R, et al. A regularity?based algorithm for identifying grazing and rumination bouts from acoustic signals in grazing cattle [J]. Computers and Electronics in Agriculture, 2018, 151: 392-402.
[12] Kim N Y, Kim S J, Jang S Y, et al. Characteristics of vocalisation in Hanwoo cattle (Bos taurus coreanae) under different call?causing conditions [J]. Animal Production Science, 2018, 59(12): 2169-2174.
[13] Meen G H, Schellekens M A, Slegers M H M, et al. Sound analysis in dairy cattle vocalisation as a potential welfare monitor [J]. Computers and Electronics in Agriculture, 2015, 118: 111-115.
[14] Spachos P, Plataniotis K N. BLE beacons for indoor positioning at an interactive IoT?based smart museum [J]. IEEE Systems Journal, 2020, 14(3): 3483-3493.
[15] Um T T, Pfister F, Pichler D, et al. Data augmentation of wearable sensor data for parkinsons disease monitoring using convolutional neural networks [J]. ACM, 2017(10): 216-220.
[16] Shen W, Cheng F, Zhang Y, et al. Automatic recognition of ingestive?related behaviors of dairy cows based on triaxial acceleration [J]. Information Processing in Agriculture, 2020, 7(3): 427-443.
[17] Riaboff L, Shalloo L, Smeaton A F, et al. Predicting livestock behaviour using accelerometers: A systematic review of processing techniques for ruminant behaviour prediction from raw accelerometer data [J]. Computers and Electronics in Agriculture, 2022, 192: 106610.