李京衛++董水龍++張朝立
摘要:隨著數字圖像數據急劇增長,圖像分類識別領域得到了廣泛關注,是當前計算機視覺領域的研究熱點。本文針對圖像分類識別領域,重點對近幾年國際上有影響的自底向上的圖像顯著性檢測算法進行了分類介紹,并且利用目前最為流行的兩個顯著性檢測數據庫MSRA1K和ECSSD對這些算法分別進行了實驗,最終對比得出目前算法的優勢與不足。
關鍵詞:圖像顯著性檢測 全局對比度 局部對比度 背景先驗知識
中圖分類號:TP391.41 文獻標識碼:A 文章編號:1007-9416(2014)12-0220-02
1 引言
計算機通過圖像理解周邊環境是目前計算機視覺研究的首要目標, 要實現此目標,獲得圖像視覺顯著性信息是最為基礎的一步。
通常情況下,由于圖像中包含有效目標區域的特殊視覺刺激分布模式,導致其擁有較高優先級,當我們將僅由外界環境視覺刺激所驅動的自底向上的選擇性視覺注意機制,引入圖像顯著性檢測過程中時,我們發現是非常有用的。自底向上的圖像顯著性檢測就是在這種思想基礎上提出來的。
2 自底向上的圖像顯著性檢測
自底向上的圖像顯著性檢測方法關鍵是求每個像素或超像素與其他像素或超像素之間的差別。二者差別越大,顯著性越大。目前求對比度的方法主要分為三大類:局部對比度先驗知識、全局對比度先驗知識和背景先驗知識。
2.1 局部對比度先驗知識
局部對比度先驗知識的基本思想是:每個像素或超像素,只與圖像局部中某些像素或超像素比較,從而獲得對比度。常見的有三種形式:(1)將像素或超像素,僅和他相鄰的像素或超像素比較。(2)將目標像素運用滑動窗口的方法與窗口內其他像素求差異度。(3)利用多尺度方法求得對比度。此外還有中心—周邊區域對比度,由于其也是在局部進行對比,因此本文也將其納入局部對比。近幾年比較具有代表性的算法主要有:
(1)IT算法:1998年,Itti等人[1]提出基于中央-周邊環繞算子的顯著模型(IT 模型),其主要包括特征提取、最終顯著性圖像合成、視覺注意焦點選擇和轉移三個階段。
(2)GB算法:2000年Wang[2]等人通過在馬爾科夫鏈上的隨機游走獲得檢測結果。
(3)SR算法:2006年Harel等人[3]通過歸一化Itti等人[1]的特征圖,突出了圖像的顯著區域,并且計算所得的顯著圖可與其它顯著圖像進行結合。
(4)FT算法:2009年,Achanta等人[4]提出一種基于頻率調整的算法,以此獲取多尺度的顯著性區域檢測結果。
2.2 全局對比度先驗知識
全局對比度的基本思想是:將目標像素或超像素與圖像中其余所以像素或超像素進行特征差異度計算,最后將這些差異度累加作為目標像素或超像素的全局對比度。近幾年主要的全局對比度算法有:
(1)SF算法:2012年Perazzi等人[5]提出基于顏色對比度的顯著目標檢測算法,該算法將原來僅在值域空間計算顏色對比度的方法,改進為在值域和空域上,有效結合了全局對比度和局部對比度。
(2)GC算法:2013年由Cheng[6]等人提出,其首先使用高斯混合模型對圖像像素點進行聚類,然后對得到的區域二次聚類,獲得更大區域,最后分別在高斯混合模型得到的區域上計算全局對比度。
2.3 背景先驗知識
2012年Y.C.Wei[7]等人首先提出了背景先驗,并將區域的顯著性定義為該區域到圖像四周的最短距離。算法的主要思想就是首先檢查出背景區域,進而得到目標區域。
(1)GS算法[7]:假定圖像的邊緣節點即是背景節點,然后分別計算各個節點與邊緣節點在顏色特征上的差異獲得各節點的顯著性值。
(2)AMC算法:2013年Jiang等人[8]將圖像中邊緣節點定義為吸收節點,內部節點定義為轉移節點,利用在吸收馬爾科夫鏈上的隨機游走,將各個節點的吸收時間定義為圖像超像素節點的顯著性。
(3)MR算法:2013年Yang[9]等人同時利用背景和前景先驗,流行排序分別以圖像的四邊的節點為基準,進行第一輪排序,再將得到的顯著圖進行二值化作為第二輪排序的基準,最終得到顯著圖。
(4)SO算法:2014年Zhu[10]等人定義了邊緣連續性,同時對超像素區域與圖像邊緣的關系進行了定義,利用背景先驗知識對圖像的顯著性進行了定義。
此外,還有LR算法:2013年 Fu等人[4]提出了新的適用于多幅圖像的聯合顯著性檢測方法
3 實驗結果與分析
為了對各種主要算法的性能有更加清晰的直觀認識,我們對上述算法進行了綜合對比,結果如圖1。
實驗中我們采用公開的MSRA1K和ECSSD顯著性檢測數據庫,其中MSRA1K包含一千張圖片,是目前最常用的顯著性目標監測數據庫之一;ECSSD也包含一千張圖片,但是其結構相比MSAR1K要復雜。參照我們上述實驗結果我們可以得知,目前對于簡單圖像我們是可以達到較好的檢測效果的,但相同算法用于復雜圖像,則還有較大改進空間。
參考文獻
[1]Itti L,Koch C, Niebur E. A model of saliency-based visual attention for rapid scene analysis.IEEE Transactions on Pattern Recognition and Machine Intelligence (PAMI),1998,20(11):1254-1259.
[2]Wang J, Zucker J D. Solving multiple-instance problem: A lazy learning approach[C] 2000:1119-1125.endprint
[3]J. Harel, C. Koch, and P. Perona, “Graph-based visual saliency,” in proc. NIPS. MIT,2006:545-552.
[4]R. Achanta, S. Hemami, F. Estrada,“Frequency-tuned salient region detection,” in CVPR,2009:1597-1604.
[5]F. Perazzi, P.Krahenbuhl, and Y. Pritch,“Saliency filters: Contrast based filtering for salient region detection” in CVPR,2012:733-740.
[6]M.-M. Cheng, J. Warrell, W.-Y. Lin, S. Zheng, and N. Crook, “Efficient salient region detection with soft image abstraction,” in ICCV,2013:1529-1536.
[7]Y. Wei, F. Wen, W. Zhu, and J. Sun, “Geodesic saliency using background priors,” in ECCV,2012,vol.7574,:29-42.
[8]B. Jiang, L. Zhang, H. Lu, and M.-H. Yang,“Saliency detection via absorbing markov chain,”inproc.ICCV.IEEE,2013:1665-1672.
[9]C. Yang, L. Zhang, H. Lu, and M.-H. Yang,“Saliency detection via graph-based manifold ranking,”in proc. CVPR. IEEE,2013:3166-3173.
[10]W. Zhu, S. Liang, Y. Wei, and J. Sun, “Saliency optimization from robust background detection,”in proc. CVPR.IEEE,2014:2814-2821.
[11]Fu H, Cao X, Tu Z. Cluster-based co-saliency detection[J]. IEEE Transactions on Image Processing, 2013:3766-3778.endprint