王 晨, 樊養(yǎng)余
(1. 西北工業(yè)大學(xué)電子信息學(xué)院, 陜西 西安 710072;2. 空軍工程大學(xué)航空航天工程學(xué)院, 陜西 西安 710038)
顯著性檢測(cè)研究源于人類(lèi)視覺(jué)的獨(dú)特性、不可預(yù)測(cè)性、稀缺性以及奇異性。利用計(jì)算機(jī)模擬人眼視覺(jué)的這項(xiàng)功能就是如何在獲取圖像的第一步就定位顯著性物體并將它從場(chǎng)景中突顯出來(lái)。早期顯著性檢測(cè)研究是基于認(rèn)知心理學(xué)和神經(jīng)學(xué)發(fā)展起來(lái)的。隨著計(jì)算機(jī)視覺(jué)技術(shù)的日新月異,圖像的顯著性區(qū)域檢測(cè)技術(shù)已經(jīng)成為這個(gè)領(lǐng)域研究的一個(gè)熱點(diǎn)。這項(xiàng)技術(shù)被應(yīng)用到圖像處理的多個(gè)領(lǐng)域,例如圖像分割[1]、目標(biāo)識(shí)別[2]、圖像壓縮[3],以及圖像檢索[4]等。目前人們將顯著性檢測(cè)方法大致分為兩類(lèi),一類(lèi)為自下而上的方法[5-8]。這類(lèi)方法的特點(diǎn)是不需要人的干預(yù)就可以自動(dòng)檢測(cè),由數(shù)據(jù)驅(qū)動(dòng)。它關(guān)注的是如何利用已有的視覺(jué)理論來(lái)定位圖像和場(chǎng)景中的顯著性區(qū)域。另一類(lèi)為自上而下的方法[9-10]。這類(lèi)方法更關(guān)注在人的主觀意識(shí)干預(yù)下的顯著性檢測(cè)。本文的研究屬于由數(shù)據(jù)驅(qū)動(dòng)的顯著性檢測(cè)方法。
在眾多的顯著性檢測(cè)算法中應(yīng)用最早,也是最成功的是基于對(duì)比度的顯著性檢測(cè)方法。對(duì)比度是影響視覺(jué)顯著性的最重要因素。在現(xiàn)有研究成果中,絕大部分算法都加入了像素或區(qū)域之間的對(duì)比度信息來(lái)建模。基于對(duì)比度的顯著性檢測(cè)方法大致也可以分為兩類(lèi):一類(lèi)是基于局部對(duì)比度的;另一類(lèi)是基于全局對(duì)比度的。其中利用局部對(duì)比度的顯著性檢測(cè)方法是通過(guò)計(jì)算像素或區(qū)域的鄰域?qū)Ρ榷葋?lái)衡量自身的顯著程度[11-12]。不同算法中鄰域大小的選取方法也不盡相同。由于進(jìn)行的是局部對(duì)比,此類(lèi)算法更趨向于突顯邊緣周?chē)鷧^(qū)域,并不能有效突顯整個(gè)顯著區(qū)域。這會(huì)使顯著性圖中,邊緣比顯著性區(qū)域內(nèi)部具有更高的顯著性值。另一類(lèi)基于全局對(duì)比度的方法則是將整個(gè)場(chǎng)景或整幅圖像作為基準(zhǔn)來(lái)計(jì)算像素或區(qū)域的顯著性[13-15]。但是由于算法使用的全局信息是圖像的平均信息,因而處理效果一般。當(dāng)顯著性區(qū)域非常大或者圖像背景復(fù)雜時(shí),此類(lèi)方法就會(huì)趨向于強(qiáng)調(diào)背景區(qū)域,而非真實(shí)的顯著性區(qū)域。因此,在顯著性圖中會(huì)存在“圖像背景顯著”的問(wèn)題。
近年來(lái)有研究者將雙邊濾波(bilateral filtering, BF)引入到顯著性檢測(cè)領(lǐng)域,提出新的顯著性檢測(cè)方法[16-18]。雙邊濾波[16]是一種非線性的濾波方法,是結(jié)合圖像的空間鄰近度和像素值相似度的一種折中處理,同時(shí)考慮了空域信息和灰度相似性,達(dá)到保邊去噪的目的。但是由于雙邊濾波本身的計(jì)算量較大,圖像進(jìn)行一次雙邊濾波需要較長(zhǎng)的時(shí)間,所以它并不適合圖像的預(yù)處理。
基于此,本文提出了一種新的基于動(dòng)態(tài)指導(dǎo)濾波的顯著性檢測(cè)方法。相對(duì)于雙邊濾波而言,指導(dǎo)濾波是一種更簡(jiǎn)單且高效的濾波器,它可以在保證濾波效果的同時(shí),大大縮減濾波的時(shí)間。本文算法從以下幾方面對(duì)以往檢測(cè)算法進(jìn)行了改進(jìn):
(1) 設(shè)計(jì)簡(jiǎn)單的動(dòng)態(tài)迭代指導(dǎo)濾波器,采用動(dòng)態(tài)指導(dǎo)圖像,有效地將圖像中的主要顯著性區(qū)域保留下來(lái),使指導(dǎo)濾波更適合進(jìn)行顯著性檢測(cè);
(2) 指導(dǎo)濾波兼顧了像素間的鄰近度和灰度之間的相似性,可以有效地改善傳統(tǒng)基于對(duì)比度算法“不一致顯示”和“突出背景”的問(wèn)題;
(3) 利用顯著性檢測(cè)的結(jié)果建立關(guān)鍵點(diǎn)集合,通過(guò)生態(tài)學(xué)方法可以獲得更完整的顯著性區(qū)域,實(shí)現(xiàn)顯著性區(qū)域的準(zhǔn)確提取。
指導(dǎo)濾波[19](guided filtering, GF),又稱為引導(dǎo)濾波,是基于局部且保持邊緣的圖像平滑濾波方法。它是需要指導(dǎo)圖的濾波方法,且指導(dǎo)圖可以是單獨(dú)的圖像或者原始輸入圖像本身。設(shè)濾波結(jié)果圖像為q,輸入圖像為p,指導(dǎo)圖像為I,則GF可以定義為
qi=∑jWij(I)pj
(1)
式中,i與j為像素的索引值;濾波核Wij為I的函數(shù)且獨(dú)立于p。
GF的濾波過(guò)程實(shí)際上可以看成是輸入圖像p的一個(gè)線性變換,濾波核函數(shù)[19]定義為
(2)
式中,μk和σk分別為指導(dǎo)圖像I在窗口ωk中的均值與方差;ε是控制圖像平滑程度的參數(shù),ε越大,平滑程度越大。從核函數(shù)的表達(dá)式可以看出它也只與指導(dǎo)圖像有關(guān)。若指導(dǎo)圖像不是原始圖像,則此核函數(shù)就與原始圖像無(wú)關(guān)。
與雙邊濾波不同,GF的算法運(yùn)行時(shí)間與窗口半徑無(wú)關(guān)。因此濾波核的尺寸不會(huì)影響濾波器的計(jì)算效率。另外,GF的圖像濾波效果與雙邊濾波相當(dāng),但比雙邊濾波的處理速度要快。
利用GF的上述特點(diǎn),本文提出了基于動(dòng)態(tài)GF的顯著性檢測(cè)算法。該算法采用濾波的結(jié)果更新指導(dǎo)圖像,使指導(dǎo)圖像由靜態(tài)變成動(dòng)態(tài),從而實(shí)現(xiàn)結(jié)構(gòu)信息的更好傳遞。相對(duì)于其他濾波方法,本文方法可以使顯著性目標(biāo)的內(nèi)部得到高效均勻地顯示。
GF的目標(biāo)是將指導(dǎo)圖像(或信號(hào))的結(jié)構(gòu)傳遞給待濾波圖像(或信號(hào))。它的顯著缺陷就是這種數(shù)據(jù)依賴型的框架不能很好地處理指導(dǎo)圖像與待濾波圖像結(jié)構(gòu)上的不同之處。因此,文獻(xiàn)[20]設(shè)計(jì)了新的迭代GF器,將圖像的濾波問(wèn)題變成一個(gè)非凸的優(yōu)化問(wèn)題。該方法利用了靜態(tài)和動(dòng)態(tài)指導(dǎo)圖像的聯(lián)合正則化,其中靜態(tài)指導(dǎo)圖像在優(yōu)化過(guò)程中是不變的,算法利用由它確定的相似矩陣來(lái)影響濾波結(jié)果。動(dòng)態(tài)指導(dǎo)圖像考慮了輸入圖像與指導(dǎo)圖像之間的關(guān)系,由輸入圖像影響的相似矩陣確定指導(dǎo)圖像。該濾波方法可以成功地應(yīng)用到深度超分辨率圖像和尺度濾波及去紋理等場(chǎng)合。但是由于迭代次數(shù)過(guò)多、計(jì)算復(fù)雜度高,使得該濾波方法的時(shí)間成本過(guò)大。借助上述算法的思想,在滿足顯著性檢測(cè)的精度要求下,本文在經(jīng)典GF的基礎(chǔ)上,設(shè)計(jì)了一種更簡(jiǎn)單動(dòng)態(tài)迭代GF方法。
設(shè)第t次GF的結(jié)果為qt,用原始圖像p作為第一次GF的指導(dǎo)圖像I,則濾波結(jié)果圖像為q1。然后,將濾波結(jié)果圖像q1作為新的指導(dǎo)圖像進(jìn)行再一輪的GF。利用每次濾波圖像與上一次濾波結(jié)果之間的差異性判斷濾波器是否需要再次濾波, 這個(gè)差異性定義為
(3)
式中,bw()表示圖像的二值化。因?yàn)镚F是低通濾波器的一種,濾波的過(guò)程會(huì)平滑圖像中原有的一些細(xì)節(jié)信息,所以隨著濾波次數(shù)的增加,濾波圖像與原始圖像的差異會(huì)越來(lái)越大,如圖1所示。當(dāng)兩次濾波圖像的差異小于等于實(shí)驗(yàn)中給定的閾值時(shí),可以近似認(rèn)為濾波已經(jīng)將背景和目標(biāo)內(nèi)部的紋理和細(xì)節(jié)平滑完成。此時(shí),迭代結(jié)束。

圖1 迭代GFFig.1 Iterated GF
另一方面,重復(fù)的GF在得到圖像大體輪廓的同時(shí)也可能丟失一些十分重要的結(jié)構(gòu)信息。為了防止過(guò)度平滑,本文將在閾值的控制上加入顯著性區(qū)域的指導(dǎo)信息進(jìn)行閾值的設(shè)定。在圖像數(shù)據(jù)庫(kù)ASD和ECSSD上進(jìn)行顯著性區(qū)域在圖像中占比的統(tǒng)計(jì),如圖2所示。

圖2 顯著性區(qū)域在不同數(shù)據(jù)庫(kù)圖像上的占比統(tǒng)計(jì)Fig.2 Proportion of salient region in images on different databases
可以看出,ASD數(shù)據(jù)庫(kù)中顯著性區(qū)域不超過(guò)圖像面積40%的圖像占數(shù)據(jù)庫(kù)總量的98%,在ECSSD數(shù)據(jù)庫(kù)中由于圖像的背景大多復(fù)雜,這個(gè)指標(biāo)有所下降,但也超過(guò)85%。因此,本文假設(shè)大多數(shù)圖像的顯著性區(qū)域不超過(guò)圖像面積的40%,即顯著性區(qū)域在圖像面積中的占比小于等于0.4,因此,迭代的停止標(biāo)準(zhǔn)修正為

(4)
式中,N表示圖像中像素的數(shù)量。本文將不同濾波結(jié)果圖像之間的差異度控制在10%左右,因此設(shè)定th1=0.1。在式(4)中第2項(xiàng)表示從第t+1次濾波圖像中粗略提取的顯著性,設(shè)其應(yīng)不大于圖像總面積的40%,即th2=0.4. 如式(4)所示,當(dāng)兩項(xiàng)中有任意一項(xiàng)為真時(shí),變量T都為真,則迭代停止。當(dāng)變量T為假時(shí),將濾波結(jié)果圖像作為新的指導(dǎo)圖像進(jìn)行下一次GF,即
(5)

(6)
利用新定義的濾波核進(jìn)行GF時(shí),在圖像像素強(qiáng)度變化不大的區(qū)域(或單色區(qū)域),核函數(shù)括號(hào)中第2項(xiàng)近似為0,這時(shí)相當(dāng)于均值濾波。而在變化大的區(qū)域,即物體的邊緣輪廓時(shí),當(dāng)像素位于邊緣的不同邊時(shí),核函數(shù)括號(hào)中的值近似為0,對(duì)圖像的平滑濾波效果減弱,邊緣保持下來(lái)。上述兩種情況下,像素在原始圖像p與濾波結(jié)果qt中的值相近,濾波會(huì)使均勻區(qū)域變得更均勻,邊緣區(qū)域突顯。另一方面,當(dāng)p與qt中像素值差異較大時(shí),也就是說(shuō)經(jīng)過(guò)t次GF后,原始圖像的某些紋理被平滑掉,這時(shí)濾波圖像qt與原始圖像p差異可能會(huì)變大,由于平滑的作用,此時(shí)核函數(shù)中(qt-μk)的值會(huì)很小,仍近似相當(dāng)于均值濾波,這一點(diǎn)與傳統(tǒng)GF不同。顯然,迭代動(dòng)態(tài)GF比傳統(tǒng)GF更有助于保留圖像基本結(jié)構(gòu)和平滑紋理。當(dāng)然,與傳統(tǒng)GF的定義類(lèi)似,ε的作用還是界定什么是變化大,什么是變化小。在窗口大小不變的情況下,隨著ε增大,濾波效果越明顯。
在這個(gè)改進(jìn)的GF器中,本文利用了動(dòng)態(tài)指導(dǎo)圖像和輸入圖像的聯(lián)合結(jié)構(gòu)信息設(shè)計(jì)新的核函數(shù)Wij,所以它可以很好地保證指導(dǎo)圖像對(duì)原輸入圖像的結(jié)構(gòu)傳遞性。顯著性檢測(cè)通常是其他具體圖像處理領(lǐng)域相關(guān)算法的預(yù)處理技術(shù),它的目標(biāo)是準(zhǔn)確定位顯著性目標(biāo)區(qū)域即可。因此,為了節(jié)約算法的時(shí)間成本,參考文獻(xiàn)[20]中實(shí)驗(yàn)數(shù)據(jù),本文提前預(yù)設(shè)迭代的最大次數(shù)為5。如圖1所示,隨著迭代次數(shù)的增加,圖像中的細(xì)節(jié)逐漸被平滑,顯著性區(qū)域逐漸突顯出來(lái),本文利用最終的濾波結(jié)果生成顯著性圖為
(7)
式中,q表示迭代GF的結(jié)果;S表示得到的顯著圖。
綜上所述,本文利用動(dòng)態(tài)指導(dǎo)圖像與原始圖像的聯(lián)合結(jié)構(gòu)信息,通過(guò)迭代的方式設(shè)計(jì)簡(jiǎn)單的動(dòng)態(tài)指導(dǎo)濾波器來(lái)實(shí)現(xiàn)圖像的視覺(jué)顯著性檢測(cè)。雖然本文設(shè)定了最高的迭代次數(shù)來(lái)防止過(guò)多迭代造成的細(xì)節(jié)損失與時(shí)間消耗,但是迭代的引入還是會(huì)帶來(lái)時(shí)間成本的上升。因此,本文為設(shè)計(jì)的濾波器進(jìn)行以下的加速處理。
為了進(jìn)一步節(jié)約算法的時(shí)間成本,本文將設(shè)計(jì)的GF器進(jìn)行改進(jìn)。如式(5)和式(6)所示,在GF器中主要的計(jì)算量是核函數(shù)。然而,事實(shí)上它并不需要在全分辨率下進(jìn)行,本文通過(guò)下采樣的方式縮小計(jì)算所需圖像,進(jìn)而降低計(jì)算中需要的計(jì)算量。設(shè)圖像的像素?cái)?shù)量為N,下采樣的比率為s,此方法可以將Boxfilter的計(jì)算量從O(N)降到O(N/s2)。最后再用雙線性插值方法將得到的濾波結(jié)果圖像恢復(fù)到原始圖像尺寸,如圖3所示。其中圖3(c)和圖3(d)是分別使用比率為2和4時(shí)GF的結(jié)果,與正常圖像尺寸GF結(jié)果相比,圖像質(zhì)量有一些下降,但并不明顯,對(duì)于顯著性區(qū)域檢測(cè)來(lái)說(shuō)是可以接受的。

圖3 GF的加速Fig.3 Acceleration of GF
算法的整體框架如圖4所示。

圖4 本文算法結(jié)構(gòu)Fig.4 Framework of the proposed algorithm
其基本步驟如下:
步驟1以原始圖像作為指導(dǎo)圖像對(duì)圖像進(jìn)行第1次初始GF,再以濾波結(jié)果圖像作為新的指導(dǎo)圖像,通過(guò)新的核函數(shù)進(jìn)行下一次濾波(見(jiàn)圖5)。
步驟2將兩次的濾波結(jié)果進(jìn)行相似性評(píng)價(jià),當(dāng)差異度大于設(shè)定閾值或粗糙顯著性區(qū)域的面積大于設(shè)定面積時(shí),以本次濾波結(jié)果作為新的指導(dǎo)圖像,進(jìn)行再次GF。直到上述條件滿足其一,迭代結(jié)束。
步驟3利用濾波結(jié)果和式(7)計(jì)算顯著圖。
步驟4基于顯著圖,通過(guò)生態(tài)學(xué)膨脹得到關(guān)鍵顯著性窗口,并進(jìn)一步提取圖像的完整顯著性目標(biāo)區(qū)域。

圖5 關(guān)鍵顯著性目標(biāo)區(qū)域提取Fig.5 Key salient object region extraction
經(jīng)過(guò)迭代GF的結(jié)果圖像,初步突顯了顯著性目標(biāo),如圖1(f)所示。但是若圖像中存在大的背景干擾區(qū)域,上述方法并不能消除或減弱其對(duì)顯著性目標(biāo)的影響,通常干擾背景區(qū)域會(huì)和顯著性目標(biāo)一樣被突顯出來(lái)。為了解決這一問(wèn)題,本文引入了關(guān)鍵顯著性目標(biāo)檢測(cè),通過(guò)簡(jiǎn)單的閾值技術(shù)聚焦目標(biāo)區(qū)域。
Gestalt原理[21-22]指出人類(lèi)的視覺(jué)觀察一般只關(guān)注場(chǎng)景中的一個(gè)或幾個(gè)中心區(qū)域,而對(duì)其他區(qū)域關(guān)注程度較差。但事實(shí)上,通過(guò)不同的顯著性檢測(cè)算法得到的顯著性圖中往往會(huì)呈現(xiàn)出多個(gè)顯著區(qū)域。因此,這項(xiàng)研究是指如何在圖像中突顯關(guān)鍵目標(biāo)的區(qū)域,同時(shí)弱化非關(guān)鍵目標(biāo)區(qū)域的過(guò)程。
基于此,本文對(duì)得到的初級(jí)顯著性圖進(jìn)行進(jìn)一步處理,從而保證關(guān)鍵區(qū)域的顯著性盡可能多的高于其他區(qū)域。也就是在顯著性檢測(cè)方法中加入顯著區(qū)域關(guān)鍵性判別過(guò)程,形成關(guān)鍵顯著性檢測(cè)方法。關(guān)鍵性的確定是通過(guò)簡(jiǎn)單閾值的方法,即
(8)
式中,N是顯著性圖像中像素的數(shù)量。式(8)保證了閾值TH在均值和最大值之間。α越大,TH越接近均值,關(guān)鍵點(diǎn)越多。在實(shí)驗(yàn)中,α=0.5是一個(gè)很好的選擇,如圖5(c)和圖5(d)所示。
然后通過(guò)生態(tài)學(xué)膨脹算法將修正的關(guān)鍵點(diǎn)集合擴(kuò)大,得到關(guān)鍵區(qū)域范圍,通過(guò)定位的關(guān)鍵區(qū)域可以將顯著性目標(biāo)完整提取:
O=BW⊕t
(9)
式中,t為膨脹半徑;BW為通過(guò)閾值得到的關(guān)鍵點(diǎn)集合的二值圖像;O為關(guān)鍵區(qū)域圖像,如圖5(e)所示。
利用關(guān)鍵區(qū)域圖像進(jìn)一步提取原圖的顯著性區(qū)域e(x),即
e(x)=extract(p,O)

(10)
本文在文獻(xiàn)[23]提供的公開(kāi)測(cè)試集ASD上測(cè)試了提出算法。測(cè)試集不僅提供了較多的測(cè)試圖像,并且由人工精確標(biāo)注了顯著性區(qū)域。
本文實(shí)驗(yàn)內(nèi)容分為3部分。第1部分:與傳統(tǒng)基于對(duì)比度方法的對(duì)比實(shí)驗(yàn),可以從得到的灰度顯著性檢測(cè)結(jié)果圖像比較檢測(cè)的效果。第2部分:與近期發(fā)表的基于雙邊濾波的顯著性檢測(cè)方法進(jìn)行對(duì)比實(shí)驗(yàn),從得到的顯著性區(qū)域提取結(jié)果比較檢測(cè)的有效性。第3部分:將檢測(cè)結(jié)果進(jìn)行二值分割,用得到的二值結(jié)果比較算法的準(zhǔn)確性,并在測(cè)試數(shù)據(jù)庫(kù)上計(jì)算平均準(zhǔn)確率、召回率、F值。
本文將提出算法與FT(frequency tuned)[14]、SR(spectal residual)[24]、LC(large contrast)[13]、HC(histogram contrast)[15]和RC(region contrast)[15]等5種經(jīng)典的基于對(duì)比度的方法進(jìn)行對(duì)比實(shí)驗(yàn),檢測(cè)結(jié)果如圖6所示。其中圖6(h)表示的是由人工標(biāo)注的真實(shí)圖(ground truth, GT),實(shí)驗(yàn)將以它作為標(biāo)準(zhǔn)衡量檢測(cè)結(jié)果的優(yōu)劣。從結(jié)果圖可以看出,本文方法比其他方法更突顯顯著性目標(biāo),更有效地去除了干擾目標(biāo)或背景,而且顯著性目標(biāo)內(nèi)部更均勻高亮。

圖6 不同算法的顯著性檢測(cè)結(jié)果Fig.6 Saliency detection results of different algorithms
顯著性目標(biāo)區(qū)域檢測(cè)技術(shù)屬于許多圖像處理算法的預(yù)處理技術(shù),在不同的應(yīng)用場(chǎng)合對(duì)顯著性檢測(cè)算法的要求也不盡相同。本文關(guān)注的是如何將目標(biāo)區(qū)域定位并提取,為后續(xù)進(jìn)一步的圖像處理過(guò)程做準(zhǔn)備。文獻(xiàn)[18]提出算法是通過(guò)雙邊濾波進(jìn)行顯著性檢測(cè),它利用散度計(jì)算定義凸包,并成功地提取顯著性目標(biāo)所在區(qū)域。但是,凸包的特點(diǎn)決定了它并不能很好地向顯著性目標(biāo)區(qū)域收斂。如圖7所示,本文共選擇了4幅圖像進(jìn)行實(shí)驗(yàn),從顯著性區(qū)域提取結(jié)果來(lái)看,本文利用生態(tài)學(xué)膨脹算法可以提取到更貼近真實(shí)目標(biāo)的顯著性區(qū)域,其漏檢率和誤檢率都更低。
將本算法與基于雙邊濾波的顯著性檢測(cè)算法進(jìn)行運(yùn)行時(shí)間的對(duì)比。在本文的運(yùn)行環(huán)境中,取圖7中4幅測(cè)試圖像的平均運(yùn)行時(shí)間,如表1所示。實(shí)驗(yàn)的運(yùn)行環(huán)境為:Inter(R)Core(TM) id-2410M CPU, 2G內(nèi)存的筆記本電腦。由于傳統(tǒng)雙邊濾波的計(jì)算復(fù)雜度較高,利用它進(jìn)行圖像濾波時(shí)需要較長(zhǎng)的時(shí)間,表1中第2列顯示的是文獻(xiàn)[18]算法所需時(shí)間。第3列是使用權(quán)重表優(yōu)化方法對(duì)文獻(xiàn)[18]算法加速的結(jié)果。第4列和第5列分別為本文算法在全分辨率下和取采樣率s=2時(shí)的結(jié)果。從表1可以明顯地看出,相對(duì)于基于雙邊濾波的顯著性檢測(cè)方法,本文算法大大減少了運(yùn)行所需時(shí)間。

圖7 顯著性區(qū)域提取實(shí)驗(yàn)Fig.7 Experiments of salient region extraction

算法文獻(xiàn)[18]文獻(xiàn)[18]加速本文1本文2代碼工具M(jìn)atlabMatlabMatlabMatlab時(shí)間/s10.6701.5400.5920.151
分割實(shí)驗(yàn)是顯著性檢測(cè)中一項(xiàng)重要的實(shí)驗(yàn)內(nèi)容。如圖8所示,是本文對(duì)不同算法的顯著性圖分別進(jìn)行均值分割的結(jié)果。為了更好地比較算法的性能,在實(shí)驗(yàn)中加入了LC、HC和RC 3種算法,很顯然,本文方法的結(jié)果與真實(shí)值更為接近。為了更可靠地對(duì)比幾種方法的分割結(jié)果,本實(shí)驗(yàn)將閾值從單一的圖像均值變化為從0到255的區(qū)間,從而得到256個(gè)分割結(jié)果。然后計(jì)算每幅分割圖像的精度和召回率,如圖9(a)所示。從曲線圖可以很明顯地看出在不同召回率水平時(shí),本文算法的精度都是最高的。

圖8 顯著區(qū)域的分割結(jié)果Fig.8 Segmentation result of saliency regions
圖9(b)表示的是相應(yīng)的精度-召回率-F測(cè)量值的柱狀圖。F測(cè)量值[8]是精度與召回率的加權(quán)平均,它可以在考慮這兩個(gè)因素的基礎(chǔ)上對(duì)相應(yīng)的算法給出一個(gè)綜合評(píng)價(jià)。從圖上可以看到本文方法的準(zhǔn)確率、召回率與F測(cè)量值都超過(guò)了其他方法。
本文提出了一種簡(jiǎn)單的動(dòng)態(tài)迭代GF設(shè)計(jì)思路,并將其用于顯著性檢測(cè)。迭代GF的使用降低了濾波結(jié)果對(duì)指導(dǎo)圖像的依賴,利用指導(dǎo)圖像和原圖像的聯(lián)合結(jié)構(gòu)信息進(jìn)行濾波的迭代控制,使濾波結(jié)果的結(jié)構(gòu)更好與指導(dǎo)圖像和原圖像一致。通過(guò)不斷迭代可以得到細(xì)節(jié)平滑且邊緣保留的濾波圖像。平滑的過(guò)程去除了一些干擾細(xì)節(jié)和紋理,邊緣保留可以更準(zhǔn)確地定位顯著性目標(biāo)區(qū)域。本文算法的顯著性檢測(cè)結(jié)果是要實(shí)現(xiàn)顯著性區(qū)域的提取,為后續(xù)的圖像分割或摳圖等應(yīng)用提供更準(zhǔn)確,更完整的目標(biāo)區(qū)域。從對(duì)比實(shí)驗(yàn)中可以得出,本文算法優(yōu)于其他幾種顯著性檢測(cè)算法。
參考文獻(xiàn):
[1] 郭傳鑫,李振波,喬曦, 等. 基于融合顯著圖與GrabCut算法的水下海參圖像分割[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2015,46(1): 147-152.
GUO C X, LI Z B, QIAO X, et al. Image segmentation of underwater sea cucumber using grabcut with saliency map[J]. Transactions of the Chinese Society for Agricultural Machinery, 2015, 46(1): 147-152.
[2] 薛夢(mèng)霞,彭暉,劉士榮,等. 基于視覺(jué)顯著性的場(chǎng)景目標(biāo)識(shí)別[J]. 控制工程,2016,23(5): 687-692.
XUE M X, PENG H, LIU S R, et al. Scene object recognition based on visual saliency[J]. Control Engineering of China, 2016, 23(5): 687-692.
[3] 李然,李艷靈,崔子冠,等.視覺(jué)顯著性導(dǎo)向的圖像壓縮感知測(cè)量與重建[J].華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2016,44(5):13-18.
LI R, LI Y L, CUI Z G, et al. Visual saliency oriented compressive sensing measurement and reconstruction of images [J].Journal of Huazhong University of Science and Technology (Natural Science Edition), 2016, 44(5): 13-18.
[4] 趙宏偉,李清亮,劉萍萍, 等. 特征點(diǎn)顯著性約束的圖像檢索方法[J]. 吉林大學(xué)學(xué)報(bào)(工學(xué)版),2016,46(2): 542-548.
ZHAO H W, LI Q L, LIU P P, et al. Feature saliency constraint based image retrieval method[J]. Journal of Jinlin University (Engineering and Technology Edition), 2016,46(2): 542-548.
[5] PERAZZI F, KRAHENBUHUL P, PRITCH Y, et al. Saliency filters: contrast based filtering for salient region detection[C]∥Proc.of the Computer Vision and Pattern Recognition, 2012: 733-740.
[6] WEI Y C, WEN F, ZHU W J,et al. Geodesic saliency using background priors[C]∥Proc.of the European Conference on Computer Vision, 2012:29-42.
[7] YANG C, ZHANG L H, LU H C, et al. Saliency detection via graph-based manifold ranking[C]∥Proc.of the Computer Vision and Pattern Recognition, 2013: 3166-3173.
[8] ZHU W J, LIANG S, WEI Y C, et al. Saliency optimization from robust background detection[C]∥Proc.of the Computer Vision and Pattern Recognition, 2014: 2814-2821.
[9] LIU T, SUN J, ZHENG N N, et al. Learning to detect a salient object [C]∥Proc.of the Computer Vision and Pattern Recognition.Minneapolis, 2007: 353-367.
[10] YANG J M and YANG M S. Top-down visual saliency via joint CRF and dictionary learning[C]∥Proc.of the Computer Vision and Pattern Recognition, 2012: 2296-2303.
[11] ITTI L, KOCH K, LI, et al. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Trans.on Pattern Analysis and Machine Intelligence, 1998,20(11), 1254-1259.
[12] ACHANTA R, ESTRADA F, WILS P, et al. Salient region detection and segmentation[C]∥Proc.of the 6th International Conference on Computer Vision System, 2008: 66-75.
[13] ZHAI Y, SHAH M. Visual attention detection in video sequences using spatiotemporal cues[C]∥Proc.of the 14th Annual ACM International Conference on Multimedia, 2006: 815-824.
[14] ACHANTA R, HEMANMI S, ESTRADA F J, et al. Frequency-tuned salient detection[C]∥Proc.of the 2009 IEEE Conference on Computer Vision and Pattern Recognition, 2009: 1597-1604.
[15] CHENG M M, ZHANG G X, MITRA N J, et al. Global contrast based salient region detection[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition,2011:409-416.
[16] TOMASI C, MANDUCHI R. Bilateral filtering for gray and color images[C]∥Proc.of the International Conference on Computer Vision, 2002.
[17] DAO N. Inverse bilateral filter for saliency[J]. International Journal of Computer Applications, 2016, 118(10): 975-8887.
[18] DAO N. Divergence filter for saliency[C]∥Proc.of the 7th International Conference on Knowledge & System Engineering, 2016: 238-243.
[19] HE K M, SUM J, AND TANG X O. Guided image filtering[J].IEEE Trans.on Pattern Analysis & Machine Intelligence, 2013, 35(6): 1397-1409.
[20] BUMSUB H, MINSU C, JEAN P. Robust image filtering using joint static and dynamic guidance[C]∥Proc.of the IEEE Computer Visio and Pattern Recognition, 2015: 4823- 4831.
[21] HARMANN G. Gestalt psychology: a survey of facts and principles[M].Kessinger Publishing, 2006.
[22] KOFFKA K. Principles of Gestalt psychology[M].Routledge and Kegan Paul, 1955.
[23] ACHANTA R, SHAJI A, SMITH K, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE Trans.on Pattern Analysis and Machine Intelligence,2012,34(11): 2274-2282.
[24] HOU X D, ZHANG L Q. Saliency detection: a spectral residual approach[C]∥Proc.of the IEEE Computer Visio and Pattern Recognition, 2007: 1-8.
[25] YAN Q, XU L, SHI J P, et al. Hierarchical saliency detection[C]∥Proc.of the IEEE Computer Visio and Pattern Recognition, 2013: 1155-1162.