999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

均值偏移算法在擴展目標跟蹤技術上分析?

2018-05-29 11:50:24李湘文尹福成
艦船電子工程 2018年5期

李湘文 周 玲 尹福成

(1.成都理工大學工程技術學院 樂山 614000)(2.內江師范學院 內江 641000)

1 引言

隨著計算機技術的不斷發展,計算能力的大幅提高,計算機視覺技術成為了計算機領域最熱門的重要課題之一[1~7]。計算機視覺的目的是實現計算機對人類的模擬,實現計算機對景物環境的感知、理解和解釋[6~13]。運動目標跟蹤技術是運動目標跟蹤領域的一個重要課題,它是一項融合圖像處理[14~16]、模式識別[15~18]、人工智能[18~21]、自動控制等多種不同領域的先進技術。形成了一種能從圖像信號中實時提取目標位置、自動跟蹤目標的技術[22~25]。其任務可以概述為:對運動目標最終形成的運動軌跡進行確認之后獲得目標的個數以及每個目標的狀態,包括位置、速度、加速度等運動參數,并進一步獲知目標的特征參數,關鍵在于完整地分割目標、合理地提取特征和準確地識別目標,同時要考慮算法實現時間,保證實時性[26~30]。

然而擴展目標跟蹤技術,又是運動目標跟蹤技術中一個非常重要、跟蹤非常困難的重要課題之一[1~11]。由于它所具有的復雜背景干擾性、被遮擋性、目標尺度變化明顯等一系列特性,現有的算法幾乎都無法做到較好地跟蹤目標;從而目標在跟蹤過程中丟失的情況特別常見。找到一種普適性的擴展目標跟蹤算法是擴展目標跟蹤領域一個亟需解決的問題[1~7]。均值偏移算法以其獨有的抗尺度變化、旋轉變化、人工干預系數少而逐步成為擴展目標跟蹤領域一個較好的方法。

2 均值偏移算法

均 值 偏 移(mean-shift)[1]是 Fukunaga 和Hostetler提出的一種計算最優解的實用的算法,具有計算量小和搜索快速的特點,Dorin Comaniciu等將其有效地運用到目標分割[2]和目標跟蹤中[3]。

以二值圖像為例的均值偏移算法的迭代過程如下:

目標函數為圖像中“1”值點的密度,其估計式為

當為收斂的域值)時,即當兩次求得的窗口中心距離足夠小時,迭代停止。如圖1所示,均值偏移過程實質上是使目標函數迭代收斂到最大的過程(Initial→Final)。

圖1 均值偏移迭代過程示意圖

3 擴展目標跟蹤技術

3.1 目標模型

目標直方圖模式是基于檢測區域內包含目標的各個成像灰度級所對應的概率密度,灰度概率密度的求取采用非參數估計技術。假設目標跟蹤點為y,檢測區域是以y為中心、窗寬為h的矩形,區域內像素的位置以表示,像素位置的特征如灰度、紋理、邊緣或者小波濾波響應等以b()xi表示,b()xi可以是一種特征形成的標量,也可以是幾種特征形成的矢量。本文中僅考慮利用灰度特征,并將其值量化為m值,即函數為xi像素的灰度索引映射。由于目標可能受到背景和遮擋的影響,周邊像素的可靠性較低,因而離中心越遠的像素分配的權值應該越小,灰度概率密度是像素位置的函數:

其中C1為歸一化常數,可由條件求出;為像素位置權值分配函數,其定義如下:

3.2 相似性度量

不失一般性,將目標中心標記為0,候選目標中心為y,由式定義的目標模式可確定目標與候選目標的直方圖模式分別為

目標:

候選目標:

相似函數定義了目標和候選目標相似程度的一種度量,為了調和不同目標之間的區別,需要定義一種距離測度,我們定義兩個離散分布之間的距離為

其中

是Bhattacharyya系數的樣本估計值。其幾何意義是m為單位矢量的夾角的余弦值。

4 均值偏移在擴展目標跟蹤的應用

均值偏移以其獨有的特性在圖像跟蹤領域展現著重要的作用,下面分別對彩色和灰度擴展目標進行一些測試。找出其在跟蹤領域的優勢和不足。

4.1 彩色目標跟蹤實例

彩色目標跟蹤技術是現代視屏監控技術中比較常見的一種技術。在超市視屏監控,道路監控,警務系統里面應用比較常見。因此彩色目標跟蹤技術也是一項比較貼近生活實際的技術。

圖2 第1幀

圖3 第8幀

圖4 第25幀

圖5 第50幀

經過試驗得到50幀圖像總計用時150ms,單幀處理時間3ms。50幀偏移量在0~4個像素之間。由此說明,彩色目標由于具有豐富的顏色特征,從而在建立圖像的顏色直方圖時提供了大量的信息。因此在圖像跟蹤過程中,圖像呈現的結果是跟蹤精確,速度快。能夠達到實時跟蹤的需求。

4.2 灰度目標的跟蹤實例

圖6 第1幀

圖7 第8幀

圖8 第25幀

圖9 第50幀

灰度成像跟蹤是現代軍事領域的一個重要課題之一,以紅外目標跟蹤技術最為明顯。由于它可以抗光線明暗的干擾因而成為夜視跟蹤領域中一個重要的技術。

經過試驗得到50幀圖像總計用時145ms,單幀處理時間約3ms。但是50幀偏移量大部分在4~10個像素,當物體存在虛影時,偏移量甚至超過了窗寬,目標直接丟失。由此說明,灰度目標由于顏色信息不夠豐富,加上背景干擾性太強,因此單純的均值偏移算法對灰度目標跟蹤是比較困難的。特別是背景干擾性太強的情況下。

為此,要想讓均值偏移算法在灰度目標跟蹤中也得到彩色目標如此的效果,需要利用一些方法來提高灰度目標的信息量。以此提高目標跟蹤的精度。

5 結語

均值偏移是目標跟蹤領域一個極其重要的算法,由于它獨有的半自動跟蹤特性。在彩色目標跟蹤領域已經得到了很好的應用。但由于灰度成像圖像色彩信息不夠的事實,目標與背景的成像特征差異小,常規直方圖模式易陷于局部相似性,導致跟蹤點漂移或抖動的問題。此單純的均值偏移算法跟蹤灰度圖像是不可取的。在跟蹤灰度目標利用均值偏移算法,必須還要提取一些圖像的信息量,比如圖像的灰度梯度,特征點等來彌補色彩信息的不足。

參考文獻

[1]K.Fukunaga,L.D.Hostetler,The Estimation of the Gradi?ent of a Density Function with Applications in Pattern Rec?ognition[J].IEEE Trans.Information Theory,1975,21(5):32-40.

[2]Dorin Comaniciu,Peter Meer,Mean Shift:a Robust Ap?proach toward Feature Space Analysis[J].IEEE Trans.Pattern Anal.Mach.Intell.,2002,24(5):603-619.

[3]Dorin Comaniciu,Visvanathan Ramesh,Peter Meer,Ker?nel-based Object Tracking[J].IEEE Trans.Pattern Anal.Mach.Intell.,2003,24(5):564-577.

[4]T.Kailath.The Divergence and Bhattacharyya Distance Measures in Signal Selection[J].IEEE Trans.Comm.Technology,1999,15(2):253-259.

[5]Richard O.Duda,Peter E.Hart,David G.Stork,Pattern Classification,Second Edition[M].China Machine Press,2003:132-140.

[6]Lowe D.G.,Object recognition from local scale-invariantfeatures[C]//The Proceedings of the 7th IEEE Internation?al Conference on Computer Vision.Corfu,Greece.Sept.1999,2:1150-1157.

[7]Lowe D.G.,Distinctive image features from scale-invari?ant keypoints[J].International Journal Computer Vision,2004,60(2):91-110.

[8]Ranade S.and Rosenfeld A.,Point pattern matching by re?laxation[J].Pattern Recognition,1980,12(4):269-275.

[9]Stockman G.,Kopstein S.,Benett S.,Matching images to models for registration and object detection via clustering[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1982,4(3):229-241.

[10]Goshtasby A.and Stockman G.,Point pattern matching using convex hull edges[J].IEEE Transactions on Sys?tems,Man,and Cybernetics,1985,15(5):631-637.

[11]Huttenlocher D.P.,Klanderman G.A.,Rucklidge W.A.,Comparing images using the hausdorff distance[J].IEEE Transactions on Pattern Analysis and Machine Intelli?gence,1993,15(9):850-863.

[12]Burt P.J.,The pyramid as a structure for efficient compu?tation[C]//Multiresolution Image Processing and Analy?sis.Springer-Verlag,Berlin,1984:6-35.

[13]Adelson E.H.,Depth-of-Focus Imaging Process Method[D].United States Patent 4,661,986.1987.

[14]Ajjimarangsee P.and Huntsberger T.L.,Neural network model for fusion of visible and infrared sensor outputs[J].SPIE,1988,1003:153-160.

[15]Nandhakumar N.and Aggarwal J.K.,Integrated analysis of thermal and visual images for scene interpretation[J].IEEE Transactions on Pattern Analysis and Machine In?telligence,1988,10(4):469-481.

[16]Toet A.,Image fusion by a ratio of low-pass pyramid[J].Pattern Recognition Letters,1989,9(4):245-253.

[17]Toet A.,Ruyven J.J.V.,Valeton J.M.,Merging thermal and visual images by a contrast pyramid[J].Optical Engi?neering,1989,28(7):789-792.

[18]Rogers S.K.,Tong C.W.,Kabrisky M.,et al,Multisen?sor fusion of ladar and passive infrared imagery for target segmentation[J].Optical Engineering,1989,28(8):881-886.

[19]Abidi A.and Gonzalez R.C.,Data Fusion in Robotics and Machine Intelligence[M].New York:Academic Press,1992.

[20]Dasarathy B.V.,Fusion strategies for enhancing decision reliability in multi-sensor environments[J].Optical En?gineering,1996,35(3):603-616.

[21]Li H.,Manjunath B.S.,Mitra S.K.,Multi-sensor image fusion using the wavelet transform[C]//IEEE Internation?al Conference on Image Processing,1994,1:51-55.

[22]Chipman L.J.,Orr Y.M.,Graham L.N.,Wavelets and image fusion[C]//Proceedings of the International Con?ference on Image Processing.Washington,USA,1995:248-251.

[23]Koren I.,Laine A.,Taylor F.,Image fusion using steer?able dyadic wavelet transform[C]//Proceedings of the In?ternational Conference on Image Processing.Washing?ton,DC,USA,1995:232-235.

[24]Waxman A.M.,Fay D.A.,Gove A.N.,et al,Color night vision:fusion of intensified visible and thermal IR imag?ery[J].SPIE.1995,2463:58-68.

[25]Waxman A.M.,Gove A.N.,Fay D.A.,et al,Color night vision:opponent processing in the fusion of visible and IR imagery[J].Neural Networks.1997,10(1):1-6.

[26]Toet A.and Walraven J.,New false color mapping for im?age fusion[J].Opt.Eng.1996,35(3):650-658.

[27]Lim E.T.,Shue L.,Ronda V.,Multi-mode fusion algo?rithm for robust dim point-like target detection[J].SPIE,2003,5082:94-102.

[28]Borghys D.,Verlinde P.,Perneel C.,etc.Multi-level da?ta fusion for the detectionof targets using multi-spectral image sequences[J].Optical Engineering.1998,37(2):477-484.

[29]Yang J.,Lu Z.G.,Guo Y.K.,Target recognition and tracking based on data fusion of Radar/Infrared image sensors[EB/OL].www.paper.edu.cn.

[30]Xue Z.,Blum R.S.,Li Y.,Fusion of visual and IR imag?es for cancealed weapon detection[C]//Proceedings of the Fifth International Conference of Information Fusion.Annapolis,2002,2:1198-1205.

主站蜘蛛池模板: 成人国产免费| 色悠久久久久久久综合网伊人| 欧美国产菊爆免费观看| 亚洲中文字幕av无码区| 亚洲欧洲日产无码AV| 人妻精品久久无码区| 91视频区| 国内精品视频在线| 中文字幕无码av专区久久 | 国产性猛交XXXX免费看| 永久免费无码成人网站| 熟妇丰满人妻| 国产日韩久久久久无码精品| 亚洲一本大道在线| 国产毛片片精品天天看视频| 在线国产欧美| 国产女主播一区| h视频在线播放| 亚洲国产精品一区二区高清无码久久| 国产乱子伦手机在线| 香蕉精品在线| 久久午夜夜伦鲁鲁片无码免费| 五月丁香伊人啪啪手机免费观看| 久久精品一卡日本电影| 欧美a在线看| 亚洲av综合网| www.av男人.com| 日韩av高清无码一区二区三区| 911亚洲精品| 国产一级毛片在线| 欧美成人精品在线| 国产精品页| 中文字幕亚洲电影| 亚洲AV色香蕉一区二区| 国产国产人成免费视频77777| 996免费视频国产在线播放| 91精品综合| 日本伊人色综合网| 国产又色又爽又黄| 亚洲av中文无码乱人伦在线r| 视频在线观看一区二区| 在线精品欧美日韩| 热热久久狠狠偷偷色男同| 免费又爽又刺激高潮网址| 少妇精品久久久一区二区三区| 国产精品视频3p| 99中文字幕亚洲一区二区| 九九免费观看全部免费视频| 国产成人91精品免费网址在线| 日本高清有码人妻| 五月天丁香婷婷综合久久| 国产成人AV综合久久| 一区二区午夜| 国产一级毛片yw| 97视频免费在线观看| 青青青草国产| 97影院午夜在线观看视频| 亚洲综合片| 国产精品欧美激情| 日本色综合网| 一级毛片在线播放| 国产男女免费完整版视频| 国产精品无码AⅤ在线观看播放| 欧美专区在线观看| 内射人妻无码色AV天堂| 米奇精品一区二区三区| 国产精品毛片一区| 国产免费久久精品99re不卡| 综合色区亚洲熟妇在线| 成人午夜视频免费看欧美| 99热这里只有精品免费国产| 日韩欧美中文| 波多野结衣爽到高潮漏水大喷| 久久亚洲黄色视频| 亚洲青涩在线| 四虎AV麻豆| 亚洲第一福利视频导航| 国产第八页| 亚洲αv毛片| 九九香蕉视频| 国产丝袜精品| a级毛片免费看|