999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于預測的跟蹤方法研究

2018-01-06 12:34:51梁志達
電腦知識與技術 2017年35期

梁志達

摘要:該文提出了一種新型預測方法,將運動目標的運動模型考慮其中,可以有效縮小目標有效搜索區域,從而達到提高搜索效率的目的。在目標匹配方法上采用主成分分析法和灰度值差值兩種方法的有機結合,有效降低誤差率。從實驗效果上看,該文提出算法能夠準確跟蹤目標。

關鍵詞:目標跟蹤;預測;主成分分析;灰度值

中圖分類號:TP391 文獻標識碼:A 文章編號:1009-3044(2017)35-0224-03

Target Tracking Based on Prediction Method

LIANG Zhi-da

(Information Department of Dalian Sanatorium, Dalian 116013, China)

Abstract: In this paper, a new prediction method is proposed. The motion model of moving object is taken into account, which can effectively reduce the effective search area of target, so as to improve the search efficiency. In the method of target matching, the combination of principal component analysis and gray value two method can effectively reduce the error rate. From the experimental results, this paper proposes that the algorithm can track the target accurately.

Key words: Object tracking; prediction; principal component analysis; gray value

1 背景

本文在經典跟蹤方法的基礎上,利用精確預測的方法,首先構建目標的運動模型,使下一幀的搜索中心點更靠近目標真實位置,從而提高搜索效率。在計算候選同目標模板的相似性上,在利用PCA矢量構建字典的稀疏表示方法[6]基礎上,融入圖像灰度值誤差判斷方法,通過分析兩者誤差的均值和方差,設定自適應閾值門限,綜合判斷確定目標位置。第四節中多個測試視頻的跟蹤結果驗證了本文方法的有效性。

2 基于PCA稀疏表示跟蹤的改進方法

2.1 在目標跟蹤搜索上的改進方法

本文在目標跟蹤搜索上采用了先預測再搜索的方法,預測模型的建立借鑒了卡爾曼濾波的思想,卡爾曼濾波[11]是一種高效的遞歸濾波器,由魯道夫.E.卡爾曼于1960年提出,卡爾曼濾波由狀態方程和觀測方程來描述,如式(1)、(2):

(1)

(2)

式(1)是狀態預測方程,可以預測系統下一時刻的狀態,(2)是狀態觀測方程,可以在多項變量中提取我們感興趣的變量。

針對目標跟蹤問題,如何利用卡爾曼濾波思想建立模型,是問題關鍵,由于一般視頻為25bps,兩幀之間的時間只有40ms,所以,我們首先假設目標是作勻速運動,在視頻圖像內需要確定橫縱坐標及橫縱方向速度,我們就可以預測目標下一時刻出現的大概位置,在這里將目標跟蹤過程看成一個系統預測和更新的過程,在建立模型時,時刻的系統狀態由一個四維向量構成,因為假設目標的瞬時速度為勻速運動,所以對應時刻橫坐標方向速度為

, (3)

縱坐標方向速度為

, (4)

系統預測時刻目標中心點橫坐標為:

(5)

系統預測時刻目標中心點縱坐標為:

(6)

跟蹤系統的狀態方程為

(7)

根據(7)和(8)式,我們可以推算狀態轉移矩陣

(8)

將狀態方程式(7)展開即為(5)和(6)式

時刻系統的觀測值為一個二維向量,這里的觀測值是在所有候選中通過相似性計算得到最佳匹配值,觀測值的二維向量取狀態向量中的前兩項,所以對應的觀測方程為

(9)

所以系統的觀測矩陣為

(10)

噪聲和的協方差矩陣和分別取單位矩陣。由于在跟蹤問題中,我們將匹配值看做最終的跟蹤結果,所以就不需要卡爾曼濾波中的迭代公式對結果進行校正,直接將匹配值對下一幀進行預測。利用卡爾曼濾波思想的目標跟蹤問題建模流程圖如圖1所示:

在以預測中心點為中心,搜索半徑設定為自適應的,首先計算前20幀預測點同匹配點的歐式距離的平均值,然后由計算機按高斯分布產生600個均值為0,方差為1的隨機數,將600個數乘以2倍的作為橫縱坐標搜索的范圍,這樣每一幀的搜索半徑就會根據不同視頻目標運動快慢自適應調整。乘以的系數,經過多次實驗,取2實驗結果最為理想。在跟蹤過程中,將新的一幀預測值同匹配值得距離乘以0.2加上原平均值乘以0.8作為新的搜索半徑,即如式(11)

(11)

代表原搜索半徑平均值,代表新的一幀預測值同匹配值得距離,代表最終確定該幀的搜索半徑。

通過這種預測模型的預測結果在第3節中給出。

2.2 在目標匹配上的改進方法

本節在PCA稀疏表示方法的基礎上,加入了圖像灰度值誤差判斷方法,綜合比較分析兩者的誤差,加權定位目標坐標位置。

圖像灰度值誤差判斷方法首先是通過前20幀選取目標模板集,取其歸一化像素值的均值,然后將跟蹤圖像同這個均值做差值并取2范數平方,如式(12)endprint

(12)

其中為第個跟蹤目標均值,為目標模板均值,為加權值,取值同文獻[6]中的方法,為懲罰系數。通過式(12)來判斷,選取值最小的候選為該幀的目標位置。

兩種匹配方法得出的結果可能不同,需要進行邏輯判斷,分別將PCA稀疏方法同圖像灰度值誤差方法設定一個門限閾值,這個閾值的取值是動態的,采用統計的方法,計算兩種方法的均值和標準差,在綜合判斷上區分為4種情況:

表示圖像灰度值誤差方法得到最優候選的匹配誤差,主成分分析法得到的誤差值,表示前者的門限閾值,表示后者的門限閾值。區分為4種情況

(1) 當且,則采用PCA稀疏表示方法得到的匹配結果;

(2) 當且,則采用圖像灰度值誤差方法得到的匹配結果;

(3) 當且,則采用二者匹配誤差的加權平均來確定目標位置,即權值設定為

, (13)

根據權值來確定當前幀目標中心點坐標為:

, (14)

其中和為圖像灰度值誤差方法判斷的匹配目標中心點橫坐標和縱坐標值,和為PCA稀疏表示方法判斷的匹配目標中心點橫坐標和縱坐標值。

(4) 當且,則提高門限閾值為均值加上3倍標準差,判斷目標匹配結果方法策略同(1)(2)(3)方法;

通過這種選取策略,我們可以將誤差小的方法增加其權值,誤差大的方法減小權值,從而防止單一方法目標丟失情況,從而提高了目標跟蹤的準確性。

3 實驗結果及分析

本節對本文跟蹤方法進行有效性評估,并同當前流行的典型算法進行了對比。采用MATLAB 2010b運行進行仿真實驗。選取了遮擋、復雜背景、運動模糊、姿態變化等具有挑戰性的4組視頻,并同目標跟蹤領域經典方法及最近流行方法進行結果對比,誤差曲線見圖2。

從測試結果上可以看到,本文目標跟蹤算法,在不同的測試序列中,誤差值要小于其他方法,目標跟蹤效果優于其他方法。

4 結束語

本文提出一種新型預測跟蹤方法,通過構建預測模型使當前幀搜索目標的中心點更加靠近目標真實位置,從而使搜索到目標的可能性大大提高,通過計算相鄰幀目標運動距離自適應調整搜索半徑,防止因搜索范圍沒覆蓋目標而丟失目標。主成分分析和灰度值判斷兩種方法的智能結合,構建了兩套計算匹配方法,通過統計誤差的均值和標準差設定一個可變動的閾值門限,及時選取兩套方法中的最優解,防止目標丟失。與其他幾種方法的測試對比表明該方法有較好跟蹤效果。

參考文獻:

[1] Yilmaz A, Javed O, Shah M. Object tracking:a survey[J]. ACM Computing Surveys, 2006, 38(4):1-45.

[2] MEI X, LING H. Robust visual tracking using L1 minimization[C]. In Proceedings of the IEEE International Conference on Computer Vision. Kyoto, Japan, 2009: 1436-1443.

[3] Bao C, Wu Y, Ling H, et al. Real time robust l1 tracker using accelerated proximal gradient approach[C]. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 1830-1837.

[4] Zhang S, Yao H,et al.Robust visual tracking Based on online learning sparse representation[J]. Neurocomputing, 2013, 100: 31-40.

[5] ROSS D A, LIM J, LIN R S, et al. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision, 2008, 77(1-3):125-141.

[6] Wang D,lu H,Yang M H. Online objiect tracking with sparse prototypes[J]. IEEE Ttansactions on Image Processing, 2013, 22(1):314-325.

[7] Xie Y, Zhang W, Li C,et al. Discriminative objiect tracking via sparse representation and online dictionary learning[J]. IEEE Transactions on Cybernetics, 2014, 44(4):539-553.

[8] Zhong W, Lu H,Yang M H.Robust object tracking via sparsity-based collaborative model[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 1838-1845.

[9] Dong W,Chang F, Zhao Z.Visual tracking with multi-feature joint sparse representation[J]. Journal of Electronic on Imaging, 2015, 24(4):013006.

[10] Dong W,H Lu, Z X. Inverse Sparse Tracker With a Locally Weighted Distance Metric[J]. IEEE Transactions on Image Processing, 2015, 24(9).endprint

主站蜘蛛池模板: 午夜少妇精品视频小电影| a级毛片免费看| 国产在线精品香蕉麻豆| 日韩中文字幕亚洲无线码| 欧美啪啪网| 午夜精品久久久久久久2023| 国产黄色免费看| 国产精品私拍在线爆乳| 波多野结衣在线se| julia中文字幕久久亚洲| 日本中文字幕久久网站| 伊人精品视频免费在线| 亚洲性视频网站| 国产精品免费露脸视频| 亚洲av片在线免费观看| 九一九色国产| a级毛片视频免费观看| 欧美成人免费午夜全| 国产精品林美惠子在线观看| 91视频青青草| 国产极品美女在线播放| 欧美一道本| 亚洲资源站av无码网址| 中文字幕在线不卡视频| 国产精品无码久久久久久| 久久婷婷国产综合尤物精品| 国产精品真实对白精彩久久 | 91视频精品| 国产清纯在线一区二区WWW| 99这里只有精品在线| 伊人色在线视频| 成人年鲁鲁在线观看视频| 亚洲综合天堂网| 欧美激情网址| 亚洲免费成人网| 国模极品一区二区三区| 国产日韩AV高潮在线| 中文字幕免费在线视频| 国产后式a一视频| 中文字幕伦视频| 欧美成a人片在线观看| 婷婷综合色| 天堂在线亚洲| 青青网在线国产| 国产呦视频免费视频在线观看| 玖玖精品在线| 国产乱人伦AV在线A| 暴力调教一区二区三区| 国产免费久久精品44| 欧洲亚洲欧美国产日本高清| 日韩专区欧美| 国产福利小视频在线播放观看| 亚洲第一中文字幕| 毛片网站在线播放| 日韩欧美91| 午夜性刺激在线观看免费| 丁香婷婷激情网| 亚洲一区二区三区国产精品 | 五月婷婷精品| 国产日韩欧美黄色片免费观看| 欧美一级黄色影院| 亚洲综合18p| 色窝窝免费一区二区三区 | 国产午夜精品一区二区三区软件| 国产激情影院| 亚洲精品黄| 91久久性奴调教国产免费| 国产91丝袜在线播放动漫 | 国产高清在线观看91精品| 亚洲aaa视频| 欧美黑人欧美精品刺激| 免费AV在线播放观看18禁强制| 最新国产麻豆aⅴ精品无| 欧美精品在线免费| 国产精品手机在线观看你懂的| 欧美成人精品在线| 国产主播福利在线观看| 亚洲区欧美区| 日韩午夜伦| 91成人在线观看视频| 国产成人久久777777| 亚洲欧美日韩精品专区|