999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度學習的足球球員跟蹤算法研究

2018-08-02 02:49:02馬月潔馮爽王永濱
關鍵詞:模型

馬月潔,馮爽,王永濱

(中國傳媒大學協同創新中心,北京100024)

1 引言

在現代生活中,體育視頻尤其是足球視頻深受廣大觀眾喜愛。球員跟蹤具有很強的實用價值和現實意義。盡管在過去的十年中跟蹤算法取得很大進展[1][2][3],但設計一個能夠處理嚴重遮擋、顯著外觀變化的健壯跟蹤器仍然存在巨大的挑戰。

對于物體跟蹤,很多研究者提出了較為有效的辦法。Henriques[4]制定了核相關濾波器(KCF),運用它訓練一個判別式分類器,使用循環矩陣生成樣本的方式去訓練分類。DLT[5]和SO-DLT[6]使用輔助圖像數據離線訓練深度模型,并在在線跟蹤階段進行微調。FCNT[7]和DeepSRDCF[8]通過使用在大規模分類數據集上預訓練好的CNN網絡來提取特征,解決了缺少訓練數據的問題。MDNet[9]使用視頻代替圖像來預先訓練CNN,以獲得目標的通用表達能力。RTT[10]通過搭建多方向遞歸神經網絡模型來發掘對跟蹤有用的可靠目標部分。

在足球比賽視頻中進行球員的跟蹤存在很大挑戰,第一,同隊球員相似度高,肉眼尚且區分困難;第二,運動員在傳球、運球過程中形變較大,遮擋嚴重。

針對以上問題,本文提出了一種基于全卷積孿生神經網絡的球員跟蹤方案。

2 全卷積孿生神經網絡

孿生神經網絡是一類包含兩個甚至更多個具有相同參數和權重子網絡的神經網絡架構。孿生神經網絡擅長處理涉及相似性或兩個可比較事物之間關系的任務。學習跟蹤任意對象可以看作在下一幀中尋找和當前幀目標具有最大相似性的位置,因而能夠使用相似性學習的方式來處理。

2.1 網絡模型

本文通過一個嵌入函數將模板圖像x1和搜索圖像x2映射到特定的特征空間,并用x1路得到的特征對x2路的特征空間進行卷積,得到一個代表搜索圖像中不同位置與模板圖像相似度值的得分圖。具體框圖如圖1所示。

圖1 網絡模型框圖

圖中灰色部分為嵌入函數部分,這里采用與Alexnet[11]類似結構,該結構包括五個卷積層,并使用ReLU作為非線性激活函數。因為網絡沒有全連層,全為卷積結構,且左右兩部分嵌入函數(子網絡)相同,共享參數和權重(W),因此我們的模型叫做全卷積孿生神經網絡模型。該模型的前兩個卷積層后面增加了最大池化層,最大池化層的加入使網絡在保留主要特征的同時減少了參數個數,提升了模型速度,并防止過擬合的產生,提高了模型的泛化能力。

我們的網絡體系結構比VGG-Nets[12][13]等體系結構小。這是因為空間信息會隨著網絡的加深而逐漸淡化,不利于目標的精確定位。且圖像的輸入較小,這自然要求降低網絡的層數。

2.2 算法原理

算法通過比較搜索區域和目標模板的相似度來實現球員的跟蹤,這種方法類似于基于相關濾波的方法,只不過我們將逐點平移計算相似度的方法改成卷積操作來進行搜索區域與模板的匹配,然后得到搜索區域的得分圖,得分圖中得分最高的點對應的位置即為目標的位置。

實驗中首先離線訓練卷積網絡得到匹配函數,離線訓練通過采用隨機梯度下降算法最小化目標損失函數來完成。具體損失函數形式如下:

1(y,s)=log(1+e(-ys))

(1)

其中s代表得分圖中每個點的值,而y對應于此點的標簽,其中 +1代表正樣本,-1代表負樣本,以上是得分圖中每一點的損失值。對于得分圖的整體損失,使用所有點損失的平均值,即:

(2)

其中u∈D代表在得分圖中的位置。

然后在在線跟蹤階段,通過匹配函數選擇與初始幀標定目標最為匹配的位置作為跟蹤的結果。

3 實驗

3.1 實驗步驟

3.1.1 訓練數據

由兩部分組成,第一部分是ILSVRC15(Large Scale Visual Recognition Challenge 2015)數據集的4417個視頻,其被分為30個類,包含了200多萬個帶標簽的邊界框,在訓練中我們忽略了視頻中對象的類別信息;第二部分是62個2016年歐洲杯足球視頻片段,包含了2萬多個帶標簽的邊界框。

3.1.2 數據預處理

模板圖像和搜索圖像是從兩個相隔T幀之外的視頻幀中提取的,兩者都包含對象。為了簡化訓練,實現批量輸入,我們在不破壞圖像縱橫比的基礎上設定模板圖像的大小為127×127像素,搜索圖像的大小為255×255像素。為了讓網絡獲得更多信息,我們添加了一定數量的上下文信息,更精確地說,邊界框的擴展將滿足以下等式:

s(w+ 2p)×s(h+ 2p)=A

(3)

其中A表示模板圖像或待搜索圖像的大小,w表示邊界框的寬度,h表示邊界框的高度,p表示上下文邊距,s表示比例因子,實驗中我們將上下文邊距設置為平均尺寸 p =(w + h)/4 的一半,具體示例如圖2所示。

圖2 模板圖像和搜索圖像示例

3.1.3 網絡模型訓練學習

在模型訓練過程中,嵌入函數的參數初始值符合高斯分布,并根據改進的Xavier 方法[6]進行縮放。小批量的大小設置為2,學習率使用退火算法從10-2到10-5。

在跟蹤過程中,我們只搜索對象大小約五倍的對象,并在得分圖上添加一個余弦窗口,以懲罰大位移。

3.2 實驗結果與分析

本文算法使用了MatConvNet工具箱[14],運行環境為 Matlab2014a,Intel(R)Core(TM)i7-4720HQ CPU @2.60GHz 2.59GHz 和 NVIDIA GeForce GTX 960M GPU。

測試數據來自2016年歐洲杯足球視頻中17個包含了快速運動,遮擋,光照等難處理情況的視頻片段。評估基于兩個指標:準確率(文中選取的閾值是20像素,即距離中心位置誤差小于20像素則判斷跟蹤準確)和邊界框重疊比(IOU)。

表1是經過本文算法得到的實驗統計數據結果。

表1 實驗統計數據

從表中可以看出,當卷積層數為5時,跟蹤的準確率最高,達到93%以上,當卷積層數為2時,跟蹤的準確率次之。經過歐洲杯數據集微調過的網絡能更好的適應測試集,擁有更高的跟蹤準確率。

同時本文對不同卷積層進行了可視化操作,如圖3所示,從左到右依次為卷積層(conv)1至5層。從圖中可以看出,conv1、conv 2學習到的特征基本上是邊緣、顏色等底層特征;conv3開始卷積核逐漸學習到紋理,具有辨別性的關鍵特征等。當卷積層數為2時,網絡學習到底層特征,更適合進行類間的區分,即解決不同隊球員間的遮擋問題;當卷積層數為5層時,網絡學習到了更具有辨別性的關鍵特征,更適合進行類內的區分,即同隊隊員的遮擋問題。

4 結論

本文采用離線訓練的方式在大型目標檢測數據集和足球視頻集上對全卷積孿生神經網絡進行訓練,提取具有深層次信息的CNN特征用于跟蹤。從實驗結果來看,算法對球員的跟蹤是有效的。在將來的工作中,將考慮融合不同卷積層的深度信息,解決現在得分圖每個位置貢獻一致的問題,進一步提升算法的準確率。

圖3 卷積層可視化

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 日韩精品无码不卡无码| 色窝窝免费一区二区三区 | 爆操波多野结衣| av在线无码浏览| 久青草免费在线视频| 精品国产成人国产在线| 香蕉精品在线| 国产特级毛片aaaaaa| 亚洲人成影视在线观看| 国产白浆在线| 国产好痛疼轻点好爽的视频| 久久一日本道色综合久久| 性69交片免费看| 免费又黄又爽又猛大片午夜| 国产亚洲高清在线精品99| 亚洲综合色婷婷| 亚洲av无码专区久久蜜芽| 午夜一区二区三区| 色妞www精品视频一级下载| 国产丝袜精品| 国产91小视频在线观看| yy6080理论大片一级久久| 精品夜恋影院亚洲欧洲| 国产尤物jk自慰制服喷水| 久久女人网| 激情综合图区| a毛片免费观看| 亚洲三级影院| 丁香综合在线| a亚洲视频| 一区二区午夜| 经典三级久久| 波多野结衣在线se| 人人艹人人爽| 四虎成人精品在永久免费| 久久国产香蕉| 日韩区欧美区| 成人午夜精品一级毛片 | 久久精品国产免费观看频道| 极品尤物av美乳在线观看| 亚洲人在线| 国产v欧美v日韩v综合精品| 97狠狠操| 亚洲人成色77777在线观看| 亚洲精品日产精品乱码不卡| 亚洲综合二区| 亚洲国产综合精品一区| 日本草草视频在线观看| 四虎国产永久在线观看| 国产成人AV男人的天堂| 国产免费福利网站| 国产一区二区三区精品久久呦| 日韩中文无码av超清| 永久在线精品免费视频观看| 久久99国产视频| 国产十八禁在线观看免费| 91热爆在线| 老熟妇喷水一区二区三区| 亚洲人成日本在线观看| 欧美日本中文| 国产成人艳妇AA视频在线| 久久久久久久97| 中国一级特黄视频| 伊人色在线视频| 国产理论最新国产精品视频| 国产69囗曝护士吞精在线视频| 亚洲成aⅴ人片在线影院八| 欧美日韩理论| 中文字幕亚洲无线码一区女同| 午夜成人在线视频| 制服丝袜亚洲| 精品国产99久久| 五月婷婷导航| 欧美亚洲香蕉| 国产人人乐人人爱| 国产av剧情无码精品色午夜| 午夜视频在线观看区二区| 国产黄网站在线观看| 在线免费观看a视频| 鲁鲁鲁爽爽爽在线视频观看 | 亚洲黄色视频在线观看一区| 成人毛片免费在线观看|