崔盼盼


摘 要:我們提出一個(gè)從超像素組來(lái)生成對(duì)象分割的建議。我們的目標(biāo)是對(duì)圖像中的所有對(duì)象準(zhǔn)確分割。我們的方法在超像素集結(jié)合了全局和局部搜索。局部搜索通過(guò)貪婪地合并相鄰超像素去建立一個(gè)自底向上的分層次分割。通過(guò)分層得到的區(qū)域直接提供了我們區(qū)域建議的一部分。全局搜索通過(guò)從層次結(jié)構(gòu)中間層獲得的超像素組上采用圖割法生成建議的另一部分。實(shí)驗(yàn)結(jié)果表明,我們提出的分割建議在準(zhǔn)確性和消耗上都有很大的改進(jìn)。
關(guān)鍵詞:超像素組;局部搜索;全局搜索;物體分割
最近幾年,對(duì)于圖像中自動(dòng)檢測(cè)和識(shí)別對(duì)象的研究已經(jīng)有了很大的提升。比較傳統(tǒng)的方法有采用滑動(dòng)窗口框架及直方圖的方向梯度HOG。后來(lái)也出現(xiàn)了如多級(jí)串聯(lián)結(jié)構(gòu)或通過(guò)采樣不一致的邊界盒子和獨(dú)立分類方式或進(jìn)一步考慮了使用計(jì)算量小的特性和分類器。雖然,他們的性能比傳統(tǒng)的方法好,但仍然存在分割慢、效率低、耗費(fèi)大的缺陷。這里,我們描述一個(gè)通過(guò)超像素組生成分割的快速方法。該方法可以用作一般物體分類識(shí)別框架的第一階段,去限制傳遞給進(jìn)一步的處理階段的區(qū)域數(shù)量,使分割更快完成。
1 方法概述
本節(jié)將詳細(xì)描述我們的方法。我們首先將給定的圖像過(guò)分割成超像素,之后得到分割提案,使用局部搜索和全局搜索兩種方式進(jìn)行超像素合并,最終得到分割圖。
1.1 生成超像素和特征提取
作為該方法的第一階段,我們使用SLIC方法來(lái)生成超像素。SLIC方法產(chǎn)生相對(duì)緊湊大致相等大小的超像素。我們?cè)O(shè)置參數(shù),進(jìn)行過(guò)分割。一旦生成超像素,我們計(jì)算它們的特征向量。我們使用SIFT描述符號(hào)(在密集常規(guī)網(wǎng)格上計(jì)算得到的)和RGB值(從每個(gè)像素中提取的)。
1.2 超像素優(yōu)化
在第二階段,我們計(jì)算每一對(duì)相鄰超像素的相似性得分。超像素對(duì)(i,j)的這個(gè)分?jǐn)?shù)定義為:
1.3 局部搜索
局部搜索的方法類似于貪婪超像素合并技術(shù),不過(guò)我們使用了不同的特征。在這種方法中,每一對(duì)相鄰超像素被分配一個(gè)分?jǐn)?shù),代表超像素的視覺(jué)相似性。最相似的一對(duì)然后合并成一個(gè)單一超像素并保存為一個(gè)分割建議。這個(gè)新超像素與相鄰超像素相似的分?jǐn)?shù)被更新。合并過(guò)程不斷迭代最終收集所有的分割建議。
1.4 全局搜索
為了克服局部搜索方法的局限性,我們提出,當(dāng)決定下一個(gè)對(duì)象的建議時(shí),同時(shí)考慮所有超像素。我們通過(guò)在圖上定義一個(gè)優(yōu)化問(wèn)題。在這個(gè)圖上,每個(gè)superpixel代表一個(gè)節(jié)點(diǎn),在每一對(duì)相鄰superpixels之間有一個(gè)的聯(lián)系。詳細(xì)如下:對(duì)每個(gè)超像素,定義一個(gè)標(biāo)簽li標(biāo)簽可以帶一個(gè)值{ fg,bg},分別代表前景和背景。此外,定義能量函數(shù)的一般形式:
2 實(shí)驗(yàn)與分析
使用上述的方法,我們每一階段得到一個(gè)實(shí)驗(yàn)結(jié)果,如圖1所示:
從左到右分別為:原始圖像;SLIC生成的初始超像素;超像素優(yōu)化;最終建議。
3 結(jié)論
在本文中,我們提出了一種在超像素組上的基于全局和局部搜索的圖像分割建議。該方法的主要?jiǎng)?chuàng)新之一是結(jié)合全局與和局部超像素組技術(shù),以這樣一種方式可以用相對(duì)較少的地區(qū)獲得對(duì)象的高召回率。
我們實(shí)驗(yàn)表明生成的區(qū)域建議對(duì)各種各樣的對(duì)象提供了準(zhǔn)確的分割。考慮到以后的工作,我們需要不斷優(yōu)化結(jié)構(gòu)模型,以便生成適用更大數(shù)據(jù)集的分割策略。
參考文獻(xiàn):
[1] A. Vedaldi, V. Gulshan, M. Varma, and A. Zisserman. Multi plekernels for object detection. In ICCV,2009.
[2] P.F.Felzenszwalb, R. B. Girshick, D. A. McAllester, and D. Ramanan. Object detection with discriminatively trained part-based models. TPAMI,2010.
[3] B. Alexe, T. Deselaers, and V. Ferrari. What is an object? In CVPR,2010.
[4] E. Rahtu, J. Kannala, and M. Blaschko. Learning a category independent object detection cascade. In ICCV,2011.
[5] K.E.A. van de Sande,J.R.R.Uijlings,T.Gevers,and A.W.M. Smeulders. Segmentation as selective search for object recognition. In ICCV,2011.
[7] I.Endres and D.Hoiem.Category independent object proposals.In ECCV,2010.
[6] J. Carreira and C. Sminchisescu. Constrained parametric min-cuts for automatic object segmentation.In CVPR,2010.