999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于光流注意力網(wǎng)絡的梅花鹿攻擊行為自動識別方法

2022-11-03 10:42:20侯鵬飛熊家軍許學林
農(nóng)業(yè)機械學報 2022年10期
關(guān)鍵詞:特征

高 云 侯鵬飛 熊家軍 許學林 陳 斌 李 康

(1.華中農(nóng)業(yè)大學工學院, 武漢 430070; 2.生豬健康養(yǎng)殖協(xié)同創(chuàng)新中心, 武漢 430070;3.華中農(nóng)業(yè)大學動物科技學院, 武漢 430070)

0 引言

人工集約化養(yǎng)殖梅花鹿作為我國一種半馴化的特種經(jīng)濟動物,其鹿茸有著極高的藥用價值[1]。雄性梅花鹿在發(fā)情期間,攻擊行為發(fā)生次數(shù)劇增,極易造成鹿茸損傷,打斗激烈時,還會造成鹿只傷殘,甚至死亡,給鹿業(yè)養(yǎng)殖戶造成巨大的經(jīng)濟損失[2]。目前實際生產(chǎn)中,主要依靠人工觀察鹿只的攻擊行為并進行人為干涉。人工觀察攻擊行為費時費力,難以實現(xiàn)長時間監(jiān)控,且容易漏判,不適合大規(guī)模采用。

近年來,機器視覺技術(shù)在動物動作監(jiān)測和識別領(lǐng)域得到長足的發(fā)展。在傳統(tǒng)攻擊行為識別算法研究中,支持向量機(SVM)和聚類算法等模式識別方法被用于區(qū)分畜禽攻擊行為。改進SVM算法區(qū)分生豬攻擊行為正確率[3]達到95.70%[4]、97.50%[4]、97.60%[5]。SVM算法也被用于區(qū)分鹿的采食行為,正確率為90.00%[6]。基于分層聚類改進生豬攻擊行為識別算法正確率達85.43%[7],高度攻擊行為識別正確率達95.80%[8]、97.04%[9],中度正確率能夠達92.30%[8]、95.82%[9]。聚類算法中的K-means算法可實現(xiàn)種雞打斗、采食、飲水、交配、振翅等行為的識別,正確率達84.03%[10]。此外,也有學者選用線性分類器,即采用線性混合模型實現(xiàn)生豬攻擊行為識別,正確率為73.90%和89.00%[11]。隨著神經(jīng)網(wǎng)絡和深度學習的高速發(fā)展,其在動物行為識別研究中的應用也成為近年來的熱點[12-16]。

注意力機制于20世紀90年代初次被引入傳統(tǒng)機器視覺。2014年后,注意力機制與深度學習相結(jié)合在工業(yè)和農(nóng)業(yè)上都得到了較好應用[17]。注意力機制中自注意力和軟注意力應用廣泛。自注意力也稱為內(nèi)部注意力,目的是計算序列的表達形式。軟注意力更關(guān)注區(qū)域或通道,包含空間域、通道域和混合域(融合空間和通道)等類別。在相關(guān)研究中[18-23],注意力機制被加入到深度網(wǎng)絡,分別應用于圖像中的目標識別、圖像分割和視頻中的表情識別,與未加入注意力機制的網(wǎng)絡對比,注意力機制能夠提取重點特征,明顯提升網(wǎng)絡識別的正確率。如果將注意力機制加入到動作和行為識別網(wǎng)絡,將會有效提升重點特征的提取,使識別效果更好。

梅花鹿的攻擊行為特征相比其它動物有其特殊性,如常采用鹿角或鹿蹄等部位進行攻擊。在行為識別算法的研究中需要專門針對其特點研究可行的識別網(wǎng)絡。本文結(jié)合光流法和注意力機制,在長期循環(huán)卷積網(wǎng)絡(Long-term recurrent convolutional networks, LRCN)[24]的基礎(chǔ)上進行改進,研究梅花鹿行為的分類算法,行為包括攻擊、采食、躺臥和站立等,其中攻擊行為包括角斗、腳踢等特有攻擊性行為動作。本文基于該算法設(shè)計鹿只行為自動識別系統(tǒng),以實現(xiàn)各項行為在線自動監(jiān)測和記錄。

1 數(shù)據(jù)采集與數(shù)據(jù)集構(gòu)建

1.1 數(shù)據(jù)采集

試驗數(shù)據(jù)采集于2020年11月20日至2021年3月10日,采集地點為湖北省某鹿業(yè)有限公司。試驗圈舍尺寸為30 m×12 m(長×寬),其中休息區(qū)96 m2、活動區(qū)264 m2,外墻高2.2 m。圈舍中設(shè)料槽,圈內(nèi)飼養(yǎng) 5~6歲齡、體況相近的42頭雄性梅花鹿。試驗對接種了KISS1-GnRH雙表達DNA去勢疫苗的雄性梅花鹿的攻擊行為進行了測試,42頭雄性梅花鹿隨機均分為2組,一組進行疫苗肌肉注射(試驗組),另一組不做處理(對照組),關(guān)于該疫苗試驗內(nèi)容另撰文描述[25]。

視頻采集選用海康威視網(wǎng)絡紅外攝像頭(3T56WD-I3型),鏡頭采用8 mm焦距,F(xiàn)1.6定焦光圈鏡頭。攝像頭通過網(wǎng)線連接到服務器,安裝MySQL數(shù)據(jù)庫服務器(MySQL 8.0.24,MySQL AB公司,瑞典),同時連接移動硬盤(WDBU6Y0050BBK-WESN 4TB,西部數(shù)據(jù),美國),服務器可通過瀏覽器對攝像頭和數(shù)據(jù)進行訪問。采集圖像尺寸為2 560像素×1 920像素,幀率為4 f/s,以avi格式存儲于移動硬盤。

由于梅花鹿圈舍分為休息區(qū)和活動區(qū)兩部分,為了獲取梅花鹿白天主要的活動,試驗期間攝像頭選擇安裝在鹿只主要活動區(qū)域,即活動區(qū)一角,可以俯視拍攝到院內(nèi)鹿只所有活動。攝像頭安裝位置距圈舍圍墻水平距離6 m,距地面高度約8 m,以俯視15°拍攝,水平視場角為37.5°,垂直視場角為27.8°,對角線視場角為47.5°。為了方便進行每日對比,試驗拍攝時間為07:00—18:00,以采集鹿只白天院內(nèi)所有活動。

1.2 雄鹿攻擊行為定義

雄鹿在發(fā)情期間,攻擊行為發(fā)生次數(shù)劇增。鹿只在進食時,會頻繁用角頂撞其他鹿只的身體;在站立時,會發(fā)生角斗,即鹿只用鹿角撞擊另一只鹿的角。攻擊期間,鹿只間會前腳互踢,或一只鹿用前腳踢另一只鹿的身體。攻擊末期,還會發(fā)生追逐行為。根據(jù)攻擊發(fā)生的部位和發(fā)生的階段將鹿只的攻擊性行為細分為撞擊、腳踢、追逐。同時,本文為區(qū)分鹿只的攻擊行為和非攻擊行為,將非攻擊行為細分為采食、躺臥、站立,各行為的細分說明如表1所示。

表1 鹿行為定義Tab.1 Definition of deer’s behavior

1.3 數(shù)據(jù)集制作

梅花鹿RGB行為數(shù)據(jù)集采用行為優(yōu)先級(Attacking precedence,AP)的方法制作,優(yōu)先標注攻擊行為,其次標注采食、站立和躺臥等行為。由于梅花鹿是群居動物,一般表現(xiàn)出群體性行為,而攻擊行為發(fā)生在不少于兩只鹿只之間的小群體性特異行為,持續(xù)時間較短,并且通常發(fā)生于采食、站立和躺臥行為中,采用AP法標注有助于訓練模型提高對攻擊行為的識別正確度。本研究中采用該方法分別對試驗組和對照組截取圖像的行為進行標注,網(wǎng)絡模型優(yōu)先對視頻段中的攻擊行為進行學習。標注鹿群其他日常行為時,多數(shù)鹿只同時發(fā)生的行為標注為該群體性行為。由于視頻鄰幀間,鹿只運動幅度較小,所以以1 f/s截取視頻幀。標注結(jié)果如圖1所示。上一行為視頻中直接截取的圖像幀,下一行為圖像幀放大后的行為圖像。本次試驗共標注視頻10 942段,共310 574幀,標注時長5 175.95 min。

圖1 鹿的行為幀F(xiàn)ig.1 Frames of deer’s behavior

針對鹿只運動時身體的變化,采用LK光流算法(Lucas kanade optical flow algorithm)進行識別,這是一種計算相鄰圖像幀鹿只運動所產(chǎn)生像素點變化的計算方法。用此方法制作光流數(shù)據(jù)集,并按照3∶1∶1隨機劃分為訓練集、驗證集和測試集,如表2所示。

表2 光流數(shù)據(jù)集劃分Tab.2 Division of optical flow dataset

2 行為攻擊識別算法

2.1 算法設(shè)計

梅花鹿攻擊行為相比其它動物有其特殊性,如常采用鹿角或鹿蹄等部位進行攻擊。為了區(qū)分鹿只攻擊行為與非攻擊行為,解決鹿只之間的遮擋問題,提升視頻識別效率和正確率,在算法中加入光流算法和注意力機制。設(shè)計光流注意力網(wǎng)絡(Optical flow attention attacking recognition network, OAAR),改進攻擊行為監(jiān)測網(wǎng)絡來對攻擊行為和其它行為進行識別,該網(wǎng)絡包括前置網(wǎng)絡、基礎(chǔ)網(wǎng)絡和時序網(wǎng)絡。前置網(wǎng)絡由LK光流算法組成,提取RGB數(shù)據(jù)光流信息;基礎(chǔ)網(wǎng)絡采用自注意力模塊將ResNet-152網(wǎng)絡改造為ARNet152(Attention ResNet-152),用于將RGB、光流數(shù)據(jù)集提取特征后輸入時序網(wǎng)絡;時序網(wǎng)絡采用添加注意力模塊的長短記憶序列(Attention long short term network,ALST),并通過分類器輸出行為得分和分類結(jié)果。

2.1.1前置網(wǎng)絡

觀察鹿只日常情況可知,相比于背景鹿只的運動,發(fā)生攻擊行為的鹿只前后幀圖像變化較激烈。為了從背景中提取鹿只,并區(qū)分攻擊行為與非攻擊行為,在前置網(wǎng)絡中設(shè)計LK光流算法,計算鹿只相鄰圖像幀(圖2中相鄰的3幀圖像)之間光流數(shù)據(jù)V。提取光流信息前,先排除圖像不清晰、場景光線暗,或有拖尾的行為幀,共排除435個。將剩余文件接入前置網(wǎng)絡接口后,根據(jù)鹿只行為發(fā)生時身體上重點發(fā)生變化的位置,計算兩幀之間光流V關(guān)于X、Y兩個方向的信息。

IxVx+IyVy+It=0

(1)

式中Ix、Iy、It——圖像中像素點灰度關(guān)于X、Y、T方向偏導數(shù)

Vx、Vy——X、Y方向光流向量

圖2 光流提取過程示意圖Fig.2 Extracted optical flow

結(jié)合相鄰m×m范圍內(nèi)的像素點,采用最小二乘法計算出最終光流信息,并保存光流幀,如圖2中Flow_X幀和Flow_Y幀。將X、Y方向光流信息結(jié)合生成輸出矢量V并在前一幀圖像上顯示,即圖2中LK Flow幀。將LK Flow幀放大后,黃色點(圖2右圖中小圓點)表示像素起始位置,引出線表示像素點的光流方向。可以直觀看到,RGB幀經(jīng)前置網(wǎng)絡處理后,輸出的光流幀能夠捕獲到運動的鹿只。由此可知,LK光流法能夠關(guān)注行為的位置變化,忽略計算背景光流信息,有效節(jié)約制作光流數(shù)據(jù)集的時間成本。

2.1.2基礎(chǔ)網(wǎng)絡和時序網(wǎng)絡

為了快速提取攻擊行為特征信息,如攻擊行為發(fā)生時鹿角、鹿蹄等位置變化,減少背景等非行為特征計算,節(jié)省網(wǎng)絡計算成本,從而提升視頻識別的效率和正確率,在基礎(chǔ)網(wǎng)絡和時序網(wǎng)絡中引入了注意力機制。基礎(chǔ)網(wǎng)絡和時序網(wǎng)絡在長期遞歸卷積網(wǎng)絡(Long-term recurrent convolutional networks, LRCN)[24]的基礎(chǔ)上針對鹿的攻擊行為進行改進和搭建(圖3a中基礎(chǔ)網(wǎng)絡和ALST)。長期遞歸卷積網(wǎng)絡是一種將卷積神經(jīng)網(wǎng)絡和長短時序網(wǎng)絡相結(jié)合的網(wǎng)絡,能夠提取序列視頻或圖像特征,并預測目標動作信息。基礎(chǔ)網(wǎng)絡負責計算RGB、光流數(shù)據(jù)集中的行為特征值;時序網(wǎng)絡基于長短記憶序列建模時序信息,并輸出得分;最終通過分類器按特征權(quán)重的差異分類,輸出攻擊、采食、躺臥和站立4種行為得分。

由于網(wǎng)絡訓練長視頻時,隨著時間維變化會遺忘最初的行為信息,所以本文通過ALST提取行為時序信息。輸入數(shù)據(jù)集視頻幀尺寸為320像素×240像素,每段視頻選取首尾2幀以及中間隨機的3幀進行訓練。對數(shù)據(jù)集中每一段RGB幀、光流幀進行transformer處理后,尺寸裁剪為3×224×224和2×224×224(深度×幀長×幀寬),并通過pytorch框架的dataloader接口分別傳入基礎(chǔ)網(wǎng)絡中,調(diào)用forward函數(shù)進行訓練。

圖3 OAAR結(jié)構(gòu)示意圖Fig.3 Structure diagram of OAAR

基礎(chǔ)網(wǎng)絡由空間網(wǎng)絡(Spatial ARNet152)和時間網(wǎng)絡(Temporal ARNet152)構(gòu)成。RGB幀和光流幀分別經(jīng)過由ARNet152搭建的空間網(wǎng)絡和時間網(wǎng)絡提取特征權(quán)重,并將權(quán)重傳入ALST網(wǎng)絡。ARNet152在ResNet152網(wǎng)絡基礎(chǔ)上插入自注意力卷積模塊[26](Attention key),即自注意力卷積模塊替換ResNet152中的3×3卷積鍵,自注意力模塊可建模動、靜態(tài)上下文信息,提取鹿只攻擊行為特征,提高鹿只行為識別的精度,如圖3b所示。ARNet152網(wǎng)絡中,數(shù)據(jù)先經(jīng)過3個卷積核為3×3的卷積鍵卷積計算,第1個2Dconv步長為2,其余卷積層步長為1,填充像素(padding)均為(1,1)。卷積鍵(Convolution key)包含1層2Dconv卷積層、1層GN(Group normalization)層、1層ReLU層,卷積層左邊綠色框為通道數(shù),右邊橙色框為特征圖輸入、輸出尺寸。數(shù)據(jù)依次經(jīng)過包含3、8、36、3個Bottleneck的殘差塊(Blocks)提取特征權(quán)重。經(jīng)過4個循環(huán)提取特征后,通過自適應池化層(AvgPool)輸出3×1×1特征圖,并輸入ALST網(wǎng)絡中。第1至第4循環(huán)的第1個Bottleneck的自注意力卷積模塊和下采樣步長均為2,填充像素均為(1,1),以減少輸入?yún)?shù)量,防止參數(shù)太多數(shù)據(jù)爆炸。Bottleneck由主路徑(main path)和捷徑(shortcut)組成。主路徑包括2個1×1 conv卷積鍵和1個自注意力卷積模塊。自注意力卷積模塊輸入的特征值X重新定義為Key Map、Query和Value Map 3個值。先將Key值進行3×3卷積,輸出靜態(tài)上下文建模矩陣K1。融合計算K1和Query值后,進行2次1×1卷積計算,輸出動態(tài)上下文Attention矩陣。經(jīng)Attention矩陣與Value值卷積計算后,由Softmax輸出自注意力特征值Y。每個循環(huán)中第1個Bottleneck的捷徑由1個1×1 conv卷積鍵構(gòu)成(圖3b虛線框),實現(xiàn)對數(shù)據(jù)降維,輸出維度即卷積鍵通道數(shù),其余捷徑(圖3b實線框)不經(jīng)過降維,直接將主路徑輸入數(shù)據(jù)與輸出結(jié)果相加,blocks下的數(shù)字表示循環(huán)次數(shù)。

ALST網(wǎng)絡由2層512個LSTM單元組成的時序結(jié)構(gòu)和1層注意力機制層組成,注意力機制層計算公式為

(2)

式中at——源端對齊位置(aligned position)向量

ht——decoder隱狀態(tài)

hs——源端隱狀態(tài)

align()——對齊函數(shù)

每個LSTM單元由輸入門、遺忘門和輸出門構(gòu)成,實現(xiàn)對數(shù)據(jù)特征時序信息的提取計算,注意力機制層的作用是為了減少遺忘門遺忘量。時序信息建模完成后輸入分類器。分類器(Classifier)由1層全連接層和1層softmax層構(gòu)成,將雙流信息融合計算后,對不同類別的特征權(quán)重分類,最終輸出4類行為得分。

OAAR網(wǎng)絡的主要改進包括:①加入前置網(wǎng)絡。前置網(wǎng)絡由LK光流算法提取前后幀中的動作形成光流數(shù)據(jù)幀,增強后續(xù)網(wǎng)絡輸入的運動信息,減少背景的影響。②用自注意力模塊替換ResNet152網(wǎng)絡中殘差結(jié)構(gòu)的3×3卷積鍵,同時用GN層替換BN層,加上ReLU層和dropout層組成新的殘差結(jié)構(gòu)。自注意力模塊可建模動、靜態(tài)上下文信息,提取鹿只攻擊行為特征,提高鹿只行為識別的精度。③LSTM層中間插入注意力機制層,減少LSTM單元中遺忘門的遺忘量,改進時序網(wǎng)絡,加強對時序信息的提取。除了對網(wǎng)絡結(jié)構(gòu)進行改進外,本文在網(wǎng)絡訓練方式中也進行了改進,每段訓練樣本視頻選取首尾2幀以及中間隨機3幀進行訓練,突出行為視頻中關(guān)鍵動作特征的提取,同時節(jié)省網(wǎng)絡訓練成本。

2.2 網(wǎng)絡參數(shù)設(shè)置

2.2.1損失函數(shù)設(shè)置

OAAR結(jié)合雙流信息得分通過標準分類交叉熵損失(Cross-entropy loss)得到損失函數(shù)。采用交叉熵損失函數(shù)的優(yōu)勢在于,輸出值和真實值的差值僅與最后一層權(quán)重梯度成正比,能夠加快網(wǎng)絡收斂速度。同時,網(wǎng)絡反向傳播的連乘計算,會加快更新整個權(quán)重矩陣。另外,多分類交叉熵損失函數(shù)求導更易求解,其損失率僅與正確類別的概率相關(guān),降低了網(wǎng)絡的計算量。損失函數(shù)公式為

(3)

式中yi——類別i的真實值

C——總類別數(shù)L——損失函數(shù)

2.2.2網(wǎng)絡參數(shù)初始化

網(wǎng)絡訓練平臺使用64位ubantu18.04系統(tǒng),搭建GPU版pytorch框架,采用單GPU(GeForce GTX 1080 12GB,NVIDIA,美國)進行訓練。網(wǎng)絡采用隨機梯度下降法 (SGD) 作為優(yōu)化器,動量設(shè)為0.9,能夠有效抑制振蕩,加快收斂速度。批量大小(Batch size)設(shè)為8,批量大小過小會導致訓練速度太慢,過大會導致顯卡占用內(nèi)存溢出。迭代周期(Epoch)設(shè)為100,初始學習率設(shè)為1×10-3,Dropout設(shè)為0.8,增加迭代次數(shù),降低學習率,能夠使網(wǎng)絡輸出模型識別效果更精確,提升訓練速度。但網(wǎng)絡訓練到一定程度時,模型趨于飽和且學習停滯,所以在第30和第60個迭代周期,學習率為原來的1/10。

3 結(jié)果與分析

3.1 模型訓練過程分析

為解決網(wǎng)絡深度增大時魯棒性差的問題,在正式訓練前,先預訓練OAAR網(wǎng)絡。將空間網(wǎng)絡加載ImageNet預訓練權(quán)重初始化網(wǎng)絡,輸出空間網(wǎng)絡權(quán)重后,時間網(wǎng)絡加載該權(quán)重完成初始化訓練。采用pytorch自帶tensorboardX記錄模型訓練過程,模型正確率和損失值如圖4所示。由于設(shè)置訓練迭代次數(shù)到達第30和第60個迭代周期時,學習率下降至原來的1/10,所以在第30個迭代周期時,正確率出現(xiàn)大幅增加,損失值大幅減小;在到達第60個迭代周期前訓練集正確率和損失值逐漸趨于穩(wěn)態(tài);第60個迭代周期后,訓練集正確率繼續(xù)小幅提高,損失值小幅下降。驗證集驗證過程中的正確率、損失值和訓練集對應的值貼合較好,較為近似。在模型中適當調(diào)低學習率有助于網(wǎng)絡加快學習速度和對特征點細節(jié)的繼續(xù)學習。最終得出OAAR網(wǎng)絡模型在訓練集上正確率為99.16%,損失值為0.026 4,在驗證集上正確率為97.91%,損失值為0.061 2。

圖4 OAAR網(wǎng)絡識別正確率和損失值Fig.4 Recognition accuracy and loss value of OAAR

3.2 行為識別評價指標與結(jié)果

采用正確率(Accuracy)、召回率(Recall)、精確率(Precision)和F1值(F1 score)[15]作為評價模型性能的指標。

正確率常被用于評價鹿只所有行為識別正確的比重,但當樣本不平衡時,僅依靠正確率不能正確評價模型。因此采用召回率、精確率和F1值對模型進行綜合評價。PR曲線中的平衡點(BEP)對應F1值的計算結(jié)果,表示模型的綜合性能。

測試集中每類行為包含500段視頻,合計2 000段視頻,其中共1 949段視頻被正確識別,51段視頻未能被正確識別,OAAR網(wǎng)絡混淆矩陣如圖5所示。模型對攻擊、采食、躺臥、站立行為識別精確率分別為96.00%、96.60%、100%、97.20%。

圖5 OAAR分類結(jié)果混淆矩陣Fig.5 Confusion matrix of OAAR

由圖5可知,攻擊行為的精確率較其它3種行為略低。原因可能是:①鹿只嚴重重疊或遮擋時,識別較為困難。部分視頻幀中出現(xiàn)鹿只之間嚴重重疊、遮擋問題,如鹿只的頭部、腳部被其他鹿只或樹等物體全程遮擋時,模型未能檢測到鹿只攻擊動作。②攻擊行為發(fā)生時間極短時難以識別。當鹿只攻擊行為持續(xù)時間太短,部分視頻只持續(xù)1~2幀攻擊動作,這部分行為較難被模型識別。③發(fā)生行為時前后幀圖像變化幅度較小時較難識別。攻擊動作發(fā)生的前后兩幀變化幅度很小時,前置網(wǎng)絡難以獲取其動作,模型的注意力在鹿只的其他行為,導致攻擊行為的置信度低于其他行為,所以分類結(jié)果輸出為非攻擊行為。

從特征可視化角度驗證OAAR網(wǎng)絡識別效果,如圖6所示。圖中第1行為測試集中隨機選取的一段連續(xù)的攻擊行為幀,第2行為通過網(wǎng)絡最后一層卷積操作輸出的特征可視化結(jié)果,第3行在第2行基礎(chǔ)上通過特征注意力機制生成熱力圖,顏色越偏近暖色表示攻擊動作越激烈。從熱力圖中可以觀察到,高亮部分集中在發(fā)生不同程度攻擊行為的3個區(qū)域。因此,驗證了自注意力模塊能夠有效識別鹿只攻擊行為。

圖6 特征可視化Fig.6 Feature visualization

將網(wǎng)絡最后1層特征映射在二維空間,如圖7所示。圖中每個點代表測試集的1段視頻,每個行為類別采用一種顏色表示,類別A(攻擊)、F(采食)、L(躺臥)和S(站立)特征映射點分別采用紅色、綠色、藍色、紫色表示,圖7中不同行為分別聚集于4個角,攻擊行為與躺臥、站立、采食有很少量混雜,且每種行為自身的聚集度較高。特征嵌入圖說明了OAAR網(wǎng)絡對攻擊、采食、躺臥和站立行為類別的區(qū)分度較高。

圖7 特征嵌入Fig.7 Feature embedding

圖8 ROC曲線Fig.8 ROC curve

4種行為的受試者特性(ROC)曲線如圖8所示。ROC曲線均位于隨機猜測線左上方,曲線距左上角越近,顯示分類結(jié)果越準確。采用宏平均和微平均綜合評價網(wǎng)絡分類性能。宏平均先計算每類行為ROC值,再計算算術(shù)平均值;微平均先計算所有類真正率和假正率的平均值,再作ROC插值。從圖8可知,采食、躺臥和站立行為接近理想指標,即對某類識別效果極好,攻擊行為趨于理想指標,各分類的曲線下方面積(AUC)均趨于1。綜上所述,OAAR能夠?qū)Ω黝愋袨檫M行較好的識別和分類。

3.3 不同網(wǎng)絡對比分析

為了驗證OAAR網(wǎng)絡對梅花鹿行為識別的有效性,選取長短時記憶網(wǎng)絡(Long short term memory network,LSTM)[27]、雙流I3D網(wǎng)絡(Two-stream inflated 3d convNets)[28]和雙流ITSN網(wǎng)絡(Improvement temporal segment network)[29]與OAAR網(wǎng)絡進行對比驗證。LSTM采用decoder和encoder兩個環(huán)節(jié)配合完成行為識別。雙流I3D網(wǎng)絡采用膨脹3D卷積計算RGB、光流數(shù)據(jù)特征,利用空間感受野融合時間感受野,實現(xiàn)特征信息識別和分類。雙流ITSN基于長范圍時間建模,在原本TSN網(wǎng)絡的基礎(chǔ)上替換2D卷積為3D卷積。用視頻數(shù)據(jù)集分別訓練各網(wǎng)絡,并將各網(wǎng)絡在測試集上的識別結(jié)果與本文中的OAAR網(wǎng)絡的分類結(jié)果進行對比分析。結(jié)果如表3所示,各網(wǎng)絡模型正確率分別為82.65%(LSTM)、84.33%(雙流I3D)、96.80%(雙流ITSN)和97.45%(OAAR)。

表3 當前常用網(wǎng)絡模型比較Tab.3 Comparisons with state-of-the-art results

由表3可知,OAAR識別單個視頻的平均時間明顯短于LSTM、雙流I3D和雙流ITSN。由于雙流I3D網(wǎng)絡基于3D卷積的InceptionV1網(wǎng)絡提取特征[28],網(wǎng)絡的參數(shù)量和浮點運算次數(shù)劇增,同時識別單個視頻的時間也會增加。雙流ITSN網(wǎng)絡中,采用視頻分段的形式訓練模型網(wǎng)絡[29],并使用Resnet3d-50作為提取特征的基礎(chǔ)網(wǎng)絡,基礎(chǔ)網(wǎng)絡中的殘差結(jié)構(gòu)能夠有效降低實際訓練的參數(shù)量和浮點運算次數(shù),同時提升網(wǎng)絡的識別正確率。LSTM的基礎(chǔ)網(wǎng)絡采用傳統(tǒng)2D卷積的CNN網(wǎng)絡[27],提取單幀圖像特征后,傳入LSTM單元中關(guān)聯(lián)前后行為特征信息,參數(shù)量和浮點運算次數(shù)在4種網(wǎng)絡中最小,但由于基礎(chǔ)網(wǎng)絡沒有提取到有效的攻擊行為特征,該網(wǎng)絡的識別正確率較其他網(wǎng)絡略低。在OAAR網(wǎng)絡中,基礎(chǔ)網(wǎng)絡基于注意力機制模塊和殘差結(jié)構(gòu)搭建的ARNet152,側(cè)重提取鹿角、鹿蹄等攻擊行為特征,同時時序網(wǎng)絡中的注意力機制能夠有效減少遺忘門的遺忘量,從而提高了視頻行為識別的效率和正確率,驗證了注意力機制的有效性。

表4分別列出了4種網(wǎng)絡對測試集識別的結(jié)果,OAAR精確率為97.45%,召回率為97.46%,遠高于LSTM精確率(82.65%)、召回率(83.65%)和雙流I3D精確率(86.57%)、召回率(86.58%),略高于雙流ITSN精確率(96.81%)、召回率(96.74%)。相比于LSTM網(wǎng)絡、雙流I3D網(wǎng)絡和雙流ITSN網(wǎng)絡,OAAR網(wǎng)絡主要從4方面優(yōu)化了其性能:①前置網(wǎng)絡提取了行為隨時間變化的動作特征。前置網(wǎng)絡提取鹿只身體的位置變化,抑制背景噪聲的影響。通過訓練雙流網(wǎng)絡后,取空間和時間網(wǎng)絡輸出得分的均值,有效提升網(wǎng)絡行為識別的準確度。②自注意力模塊使發(fā)生攻擊行為的鹿只更加突顯。由于在基礎(chǔ)網(wǎng)絡中使用自注意力卷積模塊加工動、靜態(tài)上下文信息,提取鹿只攻擊行為特征,較大提升了鹿只攻擊行為識別正確率。③殘差結(jié)構(gòu)能夠獲取更多行為特征信息。殘差結(jié)構(gòu)保留了更多的低層特征信息,在網(wǎng)絡加深的過程中,有效避免了過擬合、梯度爆炸和消失等問題,加快網(wǎng)絡訓練進程。④每段視頻選取首尾2幀以及中間隨機的3幀進行稀疏訓練。為避免行為視頻過長時導致重要行為特征削弱的現(xiàn)象,每段視頻選取首尾2幀以及中間隨機的3幀進行訓練,以便在訓練過程中突出視頻中的關(guān)鍵動作特征,節(jié)省訓練成本。

表4 各模型性能統(tǒng)計Tab.4 Performance statistics of models %

用精確率-召回率曲線直觀比較4種網(wǎng)絡識別效果,如圖9所示。點A、B、C、D為4種網(wǎng)絡的精確率-召回率曲線的平衡點,對應各網(wǎng)絡的F1值。圖9中, OAAR網(wǎng)絡的平衡點D高于點A、B、C,說明OAAR網(wǎng)絡識別效果優(yōu)于LSTM網(wǎng)絡、雙流I3D網(wǎng)絡和雙流ITSN網(wǎng)絡。

圖9 精確率-召回率曲線Fig.9 Precision-recall curves

圖10 鹿只行為自動識別系統(tǒng)Fig.10 Sika deer behaviors’ automatically recognition system

4 模型部署及應用

基于OAAR網(wǎng)絡搭建的鹿只行為自動識別系統(tǒng)如圖10所示。該系統(tǒng)采用攝像頭獲取視頻上傳至服務器,后端框架調(diào)用服務器中部署的OAAR網(wǎng)絡模型,計算視頻鹿群中是否發(fā)生包括攻擊、采食、站立、躺臥行為,并進行置信度打分,并將鹿群中發(fā)生的行為打上時間戳存儲在服務器中的MySQL數(shù)據(jù)庫中,相關(guān)信息可通過網(wǎng)頁發(fā)布,并供用戶遠程訪問。

5 結(jié)論

(1)新增了前置網(wǎng)絡提取光流數(shù)據(jù)。前置網(wǎng)絡采用LK光流算法計算光流數(shù)據(jù)幀,提取前后幀中鹿只身體位置的變化,抑制背景噪聲的影響。其輸出的光流數(shù)據(jù)幀與RGB數(shù)據(jù)幀共同作為基礎(chǔ)網(wǎng)絡的輸入數(shù)據(jù),進一步加強了行為特征,削弱了背景噪聲,試驗證明了本文方法能夠有效解決行為被遮擋的問題。

(2)將注意力機制分別加入基礎(chǔ)網(wǎng)絡和時序網(wǎng)絡。基礎(chǔ)網(wǎng)絡中將自注意力卷積模塊替換為ResNet152中的3×3卷積層,分別加工動、靜態(tài)上下文信息。時序網(wǎng)絡在2層LSTM層中加入注意力機制層,減少LSTM單元中遺忘門的遺忘量,提升網(wǎng)絡處理時序信息的能力。

(3)OAAR網(wǎng)絡在測試集上的識別正確率高達97.45%,高于LSTM正確率(82.65%)、雙流I3D正確率(84.33%)和雙流ITSN正確率(96.80%)。OAAR精確率和召回率也分別優(yōu)于其它3個網(wǎng)絡。受試者特性曲線和特征嵌入圖均顯示了OAAR網(wǎng)絡具有較好的區(qū)分性、泛化和抗干擾能力。

(4)集成OAAR網(wǎng)絡的鹿只行為自動識別采集系統(tǒng)實現(xiàn)了梅花鹿行為的自動識別功能,為提高梅花鹿養(yǎng)殖生產(chǎn)管理水平和生產(chǎn)效率提供了可行的途徑。

猜你喜歡
特征
抓住特征巧觀察
離散型隨機變量的分布列與數(shù)字特征
具有兩個P’維非線性不可約特征標的非可解群
月震特征及與地震的對比
如何表達“特征”
被k(2≤k≤16)整除的正整數(shù)的特征
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
詈語的文化蘊含與現(xiàn)代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 中国国产A一级毛片| 欧美特黄一级大黄录像| 午夜小视频在线| 大香网伊人久久综合网2020| 97视频在线精品国自产拍| 99精品视频播放| 国产精品v欧美| 国产国产人成免费视频77777 | 国产小视频在线高清播放| 国产精欧美一区二区三区| 国内精品小视频在线| 亚洲天堂2014| 五月婷婷精品| 欧美一区二区啪啪| 亚洲啪啪网| 国产偷国产偷在线高清| 九九视频在线免费观看| 美女亚洲一区| 一本一道波多野结衣一区二区| 这里只有精品在线| 精品小视频在线观看| 国产男女免费完整版视频| 亚洲最黄视频| 国产成年女人特黄特色大片免费| 国产成人无码Av在线播放无广告| 国产chinese男男gay视频网| 久久综合激情网| 特级毛片8级毛片免费观看| 呦系列视频一区二区三区| 91视频国产高清| 亚洲欧洲一区二区三区| 午夜久久影院| 少妇被粗大的猛烈进出免费视频| 国产精品黄色片| 亚洲精品国产自在现线最新| 88av在线播放| 88av在线| 亚洲动漫h| 国产一级一级毛片永久| 91美女视频在线观看| 色悠久久久久久久综合网伊人| 亚洲成人网在线播放| 国产亚洲精品va在线| 久久久久国色AV免费观看性色| 欧美日韩精品一区二区在线线| 国产女人爽到高潮的免费视频| 久久人搡人人玩人妻精品| 日韩天堂网| 六月婷婷综合| 亚洲精品国偷自产在线91正片| 在线看国产精品| 日韩欧美国产区| 97国产在线观看| 多人乱p欧美在线观看| 最新日韩AV网址在线观看| 九九九国产| 亚洲不卡无码av中文字幕| 精品久久国产综合精麻豆| 国产人成在线视频| 欧美成人区| 久久精品国产精品国产一区| 男人天堂亚洲天堂| 91午夜福利在线观看精品| 91久久偷偷做嫩草影院电| 黄色在线网| 国产精品美女免费视频大全| 无码aaa视频| 国产精品久久久久久久伊一| 99精品国产高清一区二区| 亚洲日韩高清在线亚洲专区| 操美女免费网站| 在线日韩一区二区| 日本人又色又爽的视频| 国产精品女在线观看| a天堂视频在线| 99手机在线视频| www中文字幕在线观看| 亚洲国产中文欧美在线人成大黄瓜 | 97在线视频免费观看| 一本无码在线观看| 国产极品美女在线| 高潮毛片无遮挡高清视频播放|