摘要: 提出一種自動(dòng)視頻分割方法,分為運(yùn)動(dòng)對(duì)象檢測、對(duì)象跟蹤、模型更新、分水嶺輪廓提取四個(gè)階段。與變化檢測方法不同,該基于塊的運(yùn)動(dòng)分類器能夠檢測背景具有一致運(yùn)動(dòng)情況下的運(yùn)動(dòng)對(duì)象。自動(dòng)得到運(yùn)動(dòng)對(duì)象的二值模型并在隨后幀中使用Hausdorff距離進(jìn)行跟蹤。將視頻對(duì)象運(yùn)動(dòng)分為慢變和快變兩部分,分別結(jié)合背景邊緣模型進(jìn)行匹配更新。最后提出彩色多尺度梯度修正的分水嶺算法提取對(duì)象的輪廓。實(shí)驗(yàn)證明了算法的有效性。
關(guān)鍵詞:仿射運(yùn)動(dòng)分類器; K-S假設(shè)檢驗(yàn); Hausdorff跟蹤; 分水嶺變換
中圖分類號(hào):TP391文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1001-3695(2008)04-1084-03
隨著多媒體技術(shù)的發(fā)展,人們對(duì)多媒體信息的需求也由簡單的播放轉(zhuǎn)向基于對(duì)象的壓縮、檢索和交互功能。這些新興的應(yīng)用強(qiáng)烈依靠于對(duì)視覺內(nèi)容的描述,為此MPEG-4標(biāo)準(zhǔn)采納了基于對(duì)象的編碼技術(shù)。所謂對(duì)象,是指圖像中具有一定物理、視覺或語義的區(qū)域。通過對(duì)各個(gè)對(duì)象采用不同的壓縮方法和壓縮比可以在一定碼率的要求下提供更好的圖像質(zhì)量。基于對(duì)象的編碼和交互首先需要分割出圖像中的各個(gè)對(duì)象,為了推動(dòng)MPEG-4 標(biāo)準(zhǔn)的廣泛應(yīng)用,基于對(duì)象的分割技術(shù)目前已成為一個(gè)重要的研究課題。
視頻分割根據(jù)人工參與程度分為半自動(dòng)分割和全自動(dòng)分割。在不要求實(shí)時(shí)性,但是對(duì)視頻對(duì)象邊界精度要求較高的應(yīng)用場合,可以采用人工交互的方式[1]確定分割對(duì)象,提高視頻分割的精度。全自動(dòng)分割沒有人工參與,完全根據(jù)序列中的運(yùn)動(dòng)特征和空間信息實(shí)現(xiàn)運(yùn)動(dòng)對(duì)象的提取,主要有時(shí)空聯(lián)合法[2]、運(yùn)動(dòng)分割法[3,4]、變化檢測法[5,6]。
在運(yùn)動(dòng)對(duì)象檢測階段,本文提出一種基于塊仿射優(yōu)勢運(yùn)動(dòng)分類的運(yùn)動(dòng)對(duì)象檢測方法。該方法結(jié)合了基于塊的仿射運(yùn)動(dòng)方法和優(yōu)勢運(yùn)動(dòng)分類方法兩者的優(yōu)點(diǎn),使用K-S假設(shè)檢驗(yàn)融合具有相同運(yùn)動(dòng)的塊。在對(duì)象跟蹤階段,使用局部Hausdorff距離跟蹤對(duì)象的位移和輪廓變化;在模型更新階段,將視頻對(duì)象運(yùn)動(dòng)分為慢變和快變兩部分,分別進(jìn)行跟蹤,并在匹配公式中結(jié)合背景邊緣模型,提高了匹配的速度和精度;最后使用基于彩色多尺度梯度修正的分水嶺算法提取對(duì)象的輪廓,能夠得到準(zhǔn)確、封閉的對(duì)象輪廓。
1運(yùn)動(dòng)對(duì)象檢測
文獻(xiàn)[2,3]提出一種基于分塊的優(yōu)勢分類運(yùn)動(dòng)對(duì)象檢測方法。該方法結(jié)合了基于塊的仿射運(yùn)動(dòng)方法和優(yōu)勢運(yùn)動(dòng)分類方法兩者的優(yōu)點(diǎn),能夠提取初始的運(yùn)動(dòng)對(duì)象,用于隨后幀的自動(dòng)跟蹤。幀間差變化檢測的方法確定運(yùn)動(dòng)對(duì)象,要求背景是靜止的。本文提出的分塊仿射優(yōu)勢運(yùn)動(dòng)分類方法(block-based affine dominant motion classifier)通過計(jì)算得到背景的仿射運(yùn)動(dòng)模型,利用該模型進(jìn)行前景/背景分類,能夠檢測背景具有一致運(yùn)動(dòng)情況下的運(yùn)動(dòng)對(duì)象。
5實(shí)驗(yàn)與分析
本文提出的算法應(yīng)用到CIF格式的測試序列hall monitor、akiyo、mother daughter。圖2是對(duì)hall monitor的實(shí)驗(yàn)結(jié)果。該序列是典型的監(jiān)控序列,背景靜止但紋理復(fù)雜,受噪聲和光照影響大,前景運(yùn)動(dòng)對(duì)象較小且有較大的形變。實(shí)驗(yàn)顯示,本文的跟蹤和更新方法能夠得到完整的視頻對(duì)象。但是當(dāng)目標(biāo)由行走變?yōu)榱⒍ㄇ乙匝繛檩S作轉(zhuǎn)身彎腰運(yùn)動(dòng)時(shí),由于形變太大,Hausdorff跟蹤會(huì)暫時(shí)失效,腰部以上和腰部以下被檢測為兩個(gè)對(duì)象。不過,模型更新階段不會(huì)讓誤差擴(kuò)散,隨后幀仍然能正確跟蹤目標(biāo)。由于使用了分水嶺算法提取VOP,所得對(duì)象輪廓比較準(zhǔn)確。
圖3 是典型頭肩序列Akiyo的分割結(jié)果,背景有較為復(fù)雜的紋理,目標(biāo)運(yùn)動(dòng)幅度小,整個(gè)頭肩可以當(dāng)做一個(gè)非剛體看待,分割算法取得了令人滿意的結(jié)果。圖4也是頭肩序列,背景簡單,有兩個(gè)視頻對(duì)象,運(yùn)動(dòng)較小可以視為一個(gè)視頻對(duì)象。雖然daughter臉的右部與鄰接座椅的亮度非常相近,但本文在VOP提取時(shí)使用了彩色多尺度梯度,使得右臉邊緣的定位比較準(zhǔn)確。
6結(jié)束語
實(shí)現(xiàn)基于內(nèi)容的功能是新的視頻標(biāo)準(zhǔn)MPEG-4、MPEG-7、MPEG-21的重要內(nèi)容,而自動(dòng)的視頻對(duì)象提取是基于內(nèi)容的功能得以實(shí)現(xiàn)的前提。與變化檢測方法要求背景靜止的情況不同,本文基于塊的優(yōu)勢分類運(yùn)動(dòng)對(duì)象檢測方法能夠在具有一致性運(yùn)動(dòng)背景的情況下檢測到運(yùn)動(dòng)對(duì)象。二值模型由邊緣信息得到,然后使用具有容錯(cuò)能力的局部Hausdorff距離跟蹤對(duì)象的位移和輪廓變化。將視頻對(duì)象運(yùn)動(dòng)分為慢變和快變兩部分。在匹配更新公式中結(jié)合了背景邊緣模型,顯著地提高了匹配的速度和精度。最后使用基于彩色多尺度梯度修正的分水嶺算法提取對(duì)象的輪廓,能夠得到準(zhǔn)確的封閉對(duì)象輪廓。本文方法不僅能夠產(chǎn)生視頻對(duì)象平面和對(duì)象邊緣模型,還能夠輸出對(duì)象的運(yùn)動(dòng)軌跡和分水嶺算法得到的封閉的對(duì)象輪廓。這更加有利于提高基于對(duì)象的編碼、檢索和監(jiān)控的效率。
參考文獻(xiàn):
[1]SUN Shi-jun, HAYNOR D R, KIM Y M. Semi-automatic video object segmentation using VSnakes[J]. IEEE Trans on Circuits Syst Video Technol,2003,13(1):75-82.
[2]余江明. 一種時(shí)空聯(lián)合的視頻運(yùn)動(dòng)目標(biāo)提取與跟蹤新算法[J]. 計(jì)算機(jī)應(yīng)用研究,2006,23(4):140-142.
[3]XU Hai-feng, YOUNIS A A, KABUKA M R. Automatic moving object extraction for content-based applications[J]. IEEE Trans on Circuits Syst Video Technol,2004,14(6):796-812.
[4]WANG J Y A, ADELSON E H. Representing moving images with layers[J]. IEEE Trans on Image Processing,1994,3(5):625-638.
[5]KIM C, HWANG J N. Fast and automatic video object segmentation and tracking for content-based applications [J]. IEEE Trans on Circuits Syst Video Technol, 2002, 12(2):122-129.
[6]MEIER T, NGAN K N. Video segmentation for content-based coding[J]. IEEE Trans on Circuits Syst Video Technol,1999, 9(8):1190-1203.
[7]HORN B, SCHUNCK B. Determining optical flow[J]. Artificial Intelligence,1981,17:185-203.
[8]VINCENT L U C.Morphological grayscale reconstruction in image analysis:applications and efficient algorithms[J].IEEE Trans on Image Processing,1993,2(2):176-201.
“本文中所涉及到的圖表、注解、公式等內(nèi)容請(qǐng)以PDF格式閱讀原文”