郭少軍,婁樹理,劉 峰
(海軍航空工程學院 控制科學與工程系,山東 煙臺 264001)
?
應用顏色聚類圖像塊的多艦船顯著性檢測
郭少軍*,婁樹理,劉峰
(海軍航空工程學院 控制科學與工程系,山東 煙臺 264001)
由于多艦船目標顯著性檢測過程容易將邊界像素作為背景處理, 本文提出了應用顏色聚類圖像塊的多艦船顯著性檢測方法。該方法首先檢測鄰域 像素是否具有顏色相似性,并將臨近的具有相似顏色的像素聚集在一起作為一個圖像塊。接著,對獲得的圖像塊進行擴展,使圖像塊包含很多其他圖像塊的像素以提高圖像塊內像素間的對比強度;對邊緣像素進行背景索引標記,計算圖像塊中像素的顯著性強度,采用閾值分割方法獲得目標顯著性區域。最后,基于顏色聚類的圖像塊存在部分重疊的特點,利用權值對存在疊加的顯著性圖像進行融合,從而獲得多艦船目標整幅圖像的顯著性檢測結果。對獲得的多艦船目標圖像進行了實驗測試,并對本文算法結果和當前比較先進的其它顯著性檢測算法進行了效果對比。結果顯示:提出的利用顏色聚類圖像塊的艦船顯著性檢測方法的查全率達到78%以上,準確率達到92%以上,綜合評價指標Fβ≥0.7;無論考慮單個指標還是整體指標,本文算法均優于其他對比算法。
多目標檢測;顯著性檢測;艦船;圖像塊;顏色聚類
顯著性檢測用于識別場景中最重要最具信息價值的部分,已廣泛應用于圖像分割[1],目標識別[2],圖像壓縮[3],基于內容的圖像檢索[4]等。通常用方框將顯著性區域標記出來[5-6],同時將背景與前景進行二值化[7-10]。Liu[8]等提出結合圖像特征訓練條件隨機場來估計顯著性二值化模型;Wang[10]等人在統一能量最小化框架下分析多重索引,并利用圖模型[11]進行顯著性計算;Lu[9]等提出了分層圖模型,并利用模型計算圖節點之間的權值;Achanta[12]等通過計算每個像素與其周邊像素的對比強度獲得顯著性值;Cheng[13]等改進了Achanta等人的工作,計算每個像素與整幅圖像其它像素的對比強度來評估顯著性;Goferman[1]等基于人眼視覺注意機制,提出通過場景感知和K散度[14]計算提取目標的顯著性區域;Xie[15]等人結合中低等級的索引,利用貝葉斯框架構建一種自下而上的顯著性檢測模型;Sun[16]等人改進了Xie等人的模型,引入了邊界軟分割的概念;文獻[17]中利用高維高斯濾波器來計算顯著性強度;Itti[18]等提出了基于視覺注意機制的顯著性模型;Hou[19]等提出稀疏顯著性區域提取算法; Koch[20]等人結合神經系統工作原理和視覺注意機制提出了顯著性計算模型;Chen MM[21]通過檢測場景中的圖像顯著性和相似性進行場景分析,并提出了基于直方圖的全局對比度分析方法;Achanta[22]提出了基于頻率調諧的顯著性區域檢測算法,該算法根據顯著性區域在頻域中的不同進行顯著性檢測;在文獻[23]中,Hou等人提出了基于光譜殘留法進行顯著性區域檢測;Guo[24]等人通過計算傅里葉變換相位譜來進行顯著性檢測;Castelhano[25]等人提出了一種基于自然統計數據的自上而下的顯著性檢測方法。在文獻[26]中,Chen MM提出了一種基于全局對比度的顯著性區域檢測方法;文獻[27]中,Zhang等人提出了一種基于布爾方法的顯著性檢測算法。Chuan Yang[28]等人基于超像素理論[29]和圖論生成了全分辨率的顯著性映射圖像,該算法能夠檢測到圖像中較大的目標但是容易將小目標吞沒,在多艦船目標檢測中無法應用;文獻[30]提出構建多個測量區域來計算顯著性區域;文獻[31]提出了一種自動顯著性檢測方法,其結合了自底而上和目標形狀優先的顯著性方法的優點。為了滿足海面多艦船目標的顯著性檢測,本文首先檢測圖像中相似的色彩圖像塊,然后擴展圖像塊區域并利用圖模型計算區域顯著性映射,最后將圖像塊顯著性映射加權融合獲得最終多目標顯著性區域。另外,還進行了實驗,實驗結果見第5節。
在一幅數字圖像中,邊緣輪廓通常具有較強的梯度值或者較強的顏色變化。對于多艦船圖像,背景通常為藍色,艦船的邊緣顏色和背景明顯不同。當艦船在海上編隊航行時,艦船之間是存在間隙的。所以具有強梯度值的像素可以認為是艦船的邊界或者輪廓區域,而在強梯度像素之間的像素應該是艦體或者艦橋等部位。本節將通過計算區域內的顏色相似性來獲得小圖像塊,并通過重構小圖像塊的顯著性圖像獲得大圖像的目標顯著性映射圖像。流程圖如圖1所示。

圖1 算法流程圖
輸入一幅數字圖像,對每一個顏色通道都以0~255作為遞增閾值進行分割,獲得各個小圖像塊,當閾值遞增到某個值時,小圖像塊的面積不再變化,則認為這個圖像塊中的所有像素具有顏色相似性,將這個圖像塊作為一個顯著性計算候選區域,圖2(彩圖見期刊電子版)是對圖像塊的說明。如果圖像塊面積不再變化或變化極小時,圖像塊內的灰度值的總和將不會發生大的變化。

(a)圖像塊(a)Image block

(b)圖像塊邊緣(藍色)(b)Image block boundary
設灰度值和的變化率為GT,每個圖像塊中像素為E={e1,e2,…,eN},則像素灰度和可表示為等式(1):

(1)
其中Gray(*)是像素的灰度值,灰度值和的變化可表示為ΔGT。
ΔGT=GT+1-2×GT+GT-1.
(2)
在一系列閾值T{t|T1,T2,…,Tk}中,圖像塊應該滿足ΔGT 3.1圖像塊顯著性等級與索引優化 (3) 將數據集元素按照顯著性進行等級排序的過程實質上是一個優化過程,優化問題可表示為等式(4): (4) 其中μ用來平衡平滑約束。等式(4)可以變形為等式 (5)。 f*=(I-αS)-1y, (5) 其中:I是識別矩陣,α=1/(1+μ),S是標準化拉普拉斯矩陣,S=D-1/2WD-1/2,代入等式(5)得到等式(6)。 f*=(D-αW)-1y. (6) 本文在實驗中利用等式(6)進行圖像塊像素顯著性等級計算,令A=(D-αW)-1,f*=Ay。f*(i)是第i個像素或數據點相對所有索引點的相關強度值的和。由于索引點的標記可能出錯,因此需要計算索引點的可信度。首先將矩陣A的對角線元素都置為0以消除索引點自身相關性造成的影響,進一步,將索引點中與其他索引點相關值低的數據點從索引點集中去除。通過這一步驟可以完成對索引點集的優化,因為標記點中大部分是正確的,如果索引點集中出現與其它索引點綜合相關值低的情況,則這個索引點可能是目標數據點,將其標記為背景索引則是錯誤的。 3.2圖像塊顯著性檢測 首先對每一個圖像塊進行一定范圍的擴展,使其擴展后能夠包含一部分其他圖像塊的內容,將擴展圖像塊中靠近邊界的一定范圍內的像素作為背景索引點。大部分像素或數據點之間是沒有直接聯系的,因此W中大部分元素值為0,按照等式(7)計算數據點之間的邊的權值。 (7) 其中:ci,cj是第i,j個像素點在CIELAB顏色空間中的坐標,權值按照像素點之間的顏色空間距離進行計算[32-34]。σ是權重控制因子。本文將每個圖像塊中4個邊界附近的像素標記為4組背景索引點集,因為每組索引點集間存在的特征不同,所以針對每一組邊界背景索引點集圖像塊都會獲得相對應的顯著性映射圖像。將對應4組索引點集的顯著性映射圖像分別記為ST(頂部),SB(底部),SL(左側),SR(右側),計算4個顯著性映射矩陣的點積作為圖像塊的最終顯著性映射Sbq,如等式(8)所示。 Sbq(i)=ST(i)×SB(i)×SL(i)×SR(i), (8) 其中:Sbq(i)表示第i個像素基于背景索引的綜合顯著性值,ST(i),SB(i),SL(i),SR(i)表示第i個像素和對應的索引組的顯著性強度,取值在0~1之間。基于背景索引的顯著性映射為Sbq,則基于前景的顯著性映射為Sfq=1-Sbq。 在艦船顯著性檢測時,統計分析Sfq的值域發現,顯著性映射圖像中的大部分像素屬于背景像素,本文根據文獻[35]進行圖像背景擬合,擬合閾值公式如等式(9)所示。 T=Cu+σ(C=1,2,2.5), (9) 其中:C的取值越大,獲得的圖像顯著性精確度越高,但是查全率會相應降低。u的值在數值上略小于圖像顯著性的均值,為了計算簡便,本文按式(10)計算閾值。 T=C·mean(Sfq)(C=1,2,2.5). (10) 當圖像中的目標在整幅圖像占較大比例,為大目標時,由于目標顏色的多樣性,每個小圖像塊包含的區域邊界可能是不同顏色的另一塊目標區域,顏色距離與空間距離都不如與背景像素的差距大,因此獲得的顯著性區域面積會相應變大。適當增大閾值能夠提高檢測精度。 圖3給出了本文算法的大目標顯著性檢測結果圖。從結果來看,當閾值過小時,顯著性結果會包含大量背景像素,隨著閾值增大,背景像素被過濾,閾值過大則會造成目標像素丟失。 在本文實驗中,對所有艦船目標均取C=2。圖像塊顯著性檢測示例結果如圖4所示。 圖3 不同閾值下大艦船目標顯著性檢測結果 圖4 目標真實位置與顯著性檢測結果 在每個圖像塊獲得顯著性映射結果中往往只包含目標艦船的一部分。如圖4所示,而多目標顯著性檢測的目標是檢測更多更完整的目標顯著性區域。 圖 5 擴展的圖像塊 圖5中方框是對圖像中顏色相似區域擴展后的標記,圖像塊之間存在共同區域,如果認為在共同區域,每個圖像塊的顯著性值具有相同的貢獻,則共同區域中每個圖像塊的權重為Wx,y=1/nx,y,nx,y是共同區域中圖像塊的個數,則圖像中某像素點(x,y)的顯著性值可通過等式(11)來求取。 (11) 其中:n是對最終顯著性值有貢獻的圖像塊個數,wi是第i個圖像塊的貢獻權重。Si是第i個圖像塊的顯著性值。實驗結果表明,通過本文對圖像塊顯著性區域的融合能夠獲得較好的多目標顯著性區域,并且包含很少的背景區域。本文算法概述為算法1. 算法1多艦船目標顯著性檢測 輸入:圖像和相應參數 (1)計算圖像塊的超像素,以超像素為數據點構造圖G。計算圖的相關對角矩陣D和邊的權重矩陣W; (2)計算(D-αW)-1并將對角元素設置為0; (3)將圖像塊的4個邊緣像素分為4個背景索引組,計算圖像塊對應4組索引的顯著性映射; (4)計算圖像塊4個顯著性映射矩陣的點積,獲得每個圖像塊的顯著性映射矩陣Sbq; (5)計算圖像塊的前景顯著性矩陣Sfq=1-Sbq; (6)利用權值矩陣W融合圖像塊的前景顯著性映射矩陣獲得Sfinal; 輸出:多艦船目標顯著性映射圖像。 5.1顯著性結果對比 實驗在互聯網上獲得的一系列多艦船目標圖像中進行,并將本文算法結果和當前比較先進的其它顯著性檢測算法進行了效果對比。對比的方法主要有GBMR[28], ITTI[18], GB[11], IR[19], AIM[20], RC, HC, LC[21], FT[22], SR[23], PQFT[24], SUN[25], GC[26], CA[1], BMS[27],圖6,圖7和圖8是處理圖像集中具有代表性的部分結果對比。 (a)原始圖像(a)Original images (b)真實目標(b)Real targets (c)ITTI(c)ITTI (d)AIM(d)AIM (e)RC(e)RC (f)HC(f)HC (a)原始圖像(a)Original images (b)LC(b)LC (c)FT(c)FT (d)SR(d)SR (e)PQFT(e)PQFT (f)GBMR(f)GBMR (a)原始圖像(a)Original images (b)SUN(b)SUN (c)GC(c)GC (d)CA(d)CA (e)BMS(e)BMS (f)Ours(f)Ours 由于ITTI[18]利用像素鄰域內的對比度進行顯著性計算,漏檢了較多目標顯著性像素;AIM[20]是基于視覺注意機制進行計算的,對所有造成視覺差異的像素都進行保留,故包含了很多背景像素; RC[21]首先采用Grabcut進行目標區域獲取,然后進行顯著性檢測,當目標間存在較大間隙時,具有較好的表現,然而對于較小目標Grabcut存在嚴重漏檢;FT[22]在頻域上對圖像像素進行分類,具有高頻率的像素區域將被保留,目標邊界位置保留較好,但平滑目標區域存在大量漏檢;PQFT[24]是基于FT的一種改進算法,存在和FT同樣的弱點,即對頻域變換較為敏感,顯著性結果存在大量零散碎片,目標間的區分度也不明顯;GBMR[28]將整幅圖像作為一個檢測區域,只利用了圖像中4個邊界的像素作為背景索引,對多目標圖像中顏色多樣性利用不足,容易將邊界目標作為背景處理,從而造成嚴重漏檢;SUN[25]以空間場景作為引導,利用人眼運動機制對圖像中顯著性像素進行檢測,對噪聲異常敏感;GC[26]利用圖像全局區域內的像素做顯著性對比計算,能夠很好地檢測圖像中的顯著區域,但是對于大片背景區域,顯著性計算值同樣較大,易將大片背景作為目標顯著性區域;CA[1]算法利用上下文感知進行顯著性檢測,而海面艦船場景中,天空與海面的高亮部分內容感知與目標區域十分相似,從檢測結果來看,顯著性檢測結果并不理想;BMS[27]首先利用隨機閾值對圖像進行二值化,獲得二值化圖像序列并對序列圖像進行顯著性檢測,再將顯著性結果加權疊加獲得圖像顯著性結果。算法降低了目標與周邊目標差異的重要性,導致弱小目標在二值化過程中被濾除從而漏檢,如圖8中BMS處理結果所示,邊緣目標幾乎沒有檢測到。 從對比實驗結果來看,本文算法考慮到了圖像不同區域顏色的多樣性,并有效結合了圖的結構進行像素相關性計算,能夠很好地檢測到圖像中的多目標顯著性區域,盡管在多目標顯著性檢測結果中帶有少量的背景像素,但相比其他算法來說這些像素的數量少之又少。在所有對比方法中,本文算法獲得了最好的結果。 本文還采用檢測準確率(Precision),召回率(Recall)和綜合評測方法(F-score)來評價算法的優劣,設參數σ2=0.1,α=0.99。檢測準確率定義為檢測到的顯著性區域中屬于目標的像素占所有顯著性區域像素數的比例,如等式(12)所示: (12) 其中:Precision是檢測準確率,NStarget是顯著性區域中屬于目標的像素數,Nsalience為顯著性區域中所有像素數的總和。召回率函數如等式(13)所示: (13) Ntarget是真實目標位置所包含的像素總數量。 在實際實驗中,檢測結果的準確率與召回率是一對矛盾體,準確率高召回率就低,而理想結果應該是兩者都高,本文提出用F-score來進行綜合評價,表達式如等式(14)所示。 (14) 本文更強調檢測的準確率,參考文獻[34],設β=0.3。 圖9(a)(彩圖見期刊電子版)給出了各種對比方法的準確率與召回率對應值曲線,圖9(b)(彩圖見期刊電子版)展示了各種方法正確檢測與錯誤檢測的對應曲線圖。從曲線結果來看,本文算法具有最優秀的表現。圖10(a)(彩圖見期刊電子版)給出了幾種對比方法在實驗圖像集的準確率Precision,召回率Recall與F-score的柱狀圖。從對比結果來看,本文算法準確率高達92%以上,回調率在78%以上,F-score評價值大于0.7,綜合對比,本文算法的效果最優。同時,圖10(b)(彩圖見期刊電子版)給出的各種對比方法的平均誤差值柱狀圖也顯示,本文算法的誤差值最低,低于0.05。文中其他幾種方法的3種參數的數值對比結果如表1所示,其中RC,SR,AIM,PQFT,SUN等幾種方法在正確率上較本文算法稍高,但這幾種算法的查全率最高為66.7%,較本文算法的78.2%低了11.5%,綜合能力不如本文算法。 表1 對比方法參數評價值 (a)Precision-recall曲線 (a)Precision-recall curves (b)False-positive 曲線 (a) Precision, recall and F-score柱狀圖 (b)顯著性檢測結果平均誤差柱狀圖 5.2運行時間 影響本文算法運行時間的因素有兩個,一是圖像中目標的數量,數量越多耗時越多,二是可能提取的背景圖像塊,比如對于光照和艦船航行造成的海雜波形成的圖像塊同樣需要時間進行處理。本文實驗使用CPU Intel(R) Core(TM) i5-3317U CPU @1.70GHz的計算機和MATLAB2014a進行計算。幾種對比方法耗時如表1所示。 從耗時表來看,運算速度最快的是HC[21]算法,HC的不足之處是其多艦船目標顯著性檢測結果包含的背景像素過多。盡管本文算法對每幅圖像的平均處理時間為10.91 s,但是本文算法具有最好的顯著性檢測結果及參數曲線和最低的平均誤差。從準確性優先來考慮,利用本文算法對多艦船目標進行顯著性檢測具有更加實際意義。本文算法主要利用Matlab代碼進行計算,優化成C++代碼并利用多線程運算能夠獲得更快的運算速度。這也是下一步需要進行的工作。 表2 顯著性檢測方法耗時,代碼類型及來源 5.3算法適應性 由于處于海天線上的艦船由于受到天空與海面背景的雙重影響,而且海面環境又復雜多變,這些都為艦船目標的顯著性檢測增加了難度,并且天氣和光照的不同都會對算法結果有影響,本節對不同天氣條件下海天線附近艦船進行了顯著性檢測實驗,實驗參數和其它圖像實驗一致,實驗結果如圖11所示。 圖11本文算法對海天線附近艦船顯著性檢測結果 Fig.11Saliency results of ships near sea-sky line by proposed method 從圖11中發現,利用本文算法在不同天氣條件下對海天線附近艦船進行顯著性檢測時,目標顯著性區域的檢測效果較好,然而對于海天線上目標過小且存在多目標重疊的情況,存在一定程度的漏檢,而且無法將多目標區分開,但顯著性檢測區域覆蓋率較全,目標區域檢測精度較高(如圖11第4行第一列圖像處理結果)。實驗結果表明本文算法具有較強的適應性,這主要源于算法核心思想是計算圖像塊內目標區域與4組邊界像素之間的相關性,即使圖像存在一定程度的模糊或不清晰,只要目標與背景存在顏色和亮度差異,本文算法就能夠有效區分背景與目標像素,完成顯著性區域檢測。 本文提出了一種針對多艦船目標的顯著性區域檢測算法,首先利用顏色相似性將圖像中的相鄰區域聚類為多個圖像塊,然后對各圖像塊進行區域擴展,將邊緣像素進行背景索引標記,并計算圖像塊中像素的顯著性強度,采用閾值分割方法獲得目標顯著性區域。最后,利用圖像塊之間存在相互重疊的特點,采用加權融合多個顯著性圖像塊的方法進行顯著性結果融合,獲得多艦船目標顯著性圖像結果。 本文算法準確率達到92.6%以上,查全率達到78%以上,F-score評價得分為0.7,平均誤差低于0.05,幾種指數均滿足多艦船目標顯著性檢測的各方面要求。然而本文耗時相對較多,每幅圖像的平均處理時間約為10 s,這是下一步需要改進的地方,設想利用C++重新編碼并引入并行多線程處理方法對算法進行優化,以提高算法運行效率。 [1]GOFERMAN S, ZELNIK-MANOR L, TAL A. Context-aware saliency detection[J].IEEETransactionsonSoftwareEngineering, 2012,34(10):1915-1926. [2]RAMIK D M, SABOURIN C, MORENO R,etal.. A machine learning based intelligent vision system for autonomous object detection and recognition[J].AppliedIntelligence, 2014, 40(2):358-375. [3]ITTI L. Automatic foveation for video compression using a neurobiological model of visual attention[J].IEEETransactionsonImageProcessingAPublicationoftheIEEESignalProcessingSociety, 2004,13(10):1304-1318. [4]CHEN T, CHENG M M, TAN P,etal.. Sketch2Photo: internet image montage[J].ACMTransactionsonGraphics, 2010, 28(5):89-97. [5]RUAN X C O C. Image saliency map determination device, method, program, and recording medium: EP2797051[P]. 2014. [6]WEI Y, FENG J, TAO L,etal.. Salient object detection by composition: US, US8989437[P]. 2015. [7]GOPALAKRISHNAN V HU YQ, RAJAN D. Random walks on graphs for salient object detection in images[J].IEEETransactionsonImageProcessing, 2011,19(12):3232-3242. [8]LIU T, YUAN Z J, SUN J,etal.. Learning to detect a salient object[J].PatternAnalysis&MachineIntelligence, 2010,33(2):353-367. [9]LU Y, ZHANG W,LU H,etal.. Salient object detection using concavity context[C].IEEEInternationalConferenceonComputerVision.Milpitas,CA,2011:233-240. [10]WANG L, XUE R, ZHENG N N,etal.. Automatic salient object extraction with contextual cue[C].IEEEInternationalConferenceonComputerVision(ICCV),Barcelona,Spain, 2011:105-112. [11]HAREL J, KOCH C, PERONA P: Graph-based visual saliency[J].AdvancesinNeuralInformationProcessingSystems, 2006,19:545-552. [12]ACHANTA R, ESTRADA F, WILS P,etal.. Salient region detection and segmentation[J].LectureNotesinComputerScience, 2008:66-75. [13]CHENG M M, ZHANG G X, MITRA N J,etal.. Global contrast based salient region detection[C].IEEEInternationalConferenceonComputerVision.Milpitas,CA, 2011:409-416. [14]ECONOMOU P, TZAVELAS G. Kullback-Leibler divergence measure based tests concerning the biasness in a sample[J].StatisticalMethodology, 2014, 21(11):88-108. [15]XIE Y L, LU H C, YANG M H. Bayesian saliency via low and mid level cues[J].IEEETransactionsonImageProcessing, 2012,22(5):1689-1698. [16]FRANCOIS A R J,SCHULTZ J. Image processing based on depth information and color data of a scene:US, US8823745[P]. 2014. [17]WU B, XU L. Integrating bottom-up and top-down visual stimulus for saliency detection in news video[J].MultimediaTools&Applications, 2014, 73(3):1053-1075. [18]ITTI L, KOCH C, NIEBUR E. A model of saliency-based visual attention for rapid scene analysis[J].IEEETransactionsonPatternAnalysis&MachineIntelligence, 1998,20(11):1254-1259. [19]HOU X D, HAREL J, KOCH C. Image signature: highlighting sparse salient regions[J].IEEETransactionsonPatternAnalysis&MachineIntelligence, 2012,34(1):194-201. [20]ITTI L, KOCH C. Computational modelling of visual attention.NatureReviewsNeuroscience[J],2001, 2:194-203. [21]CHENGM M.Saliencyandsimilaritydetectionforimagesceneanalysis[D]. [Ph.D. dissertation], Tianjin:Nan Kai University, 2012: 33-56. [22]ACHANTA R, HEMAMI S, ESTRADA F,etal.. Frequency tuned salient region detection[C].IEEEInternationalConferenceonComputerVisionandPatternRecognition,Miami,Florida,USA,2009:1597-1604. [23]HOU X, ZHANG L. Saliency detection: a spectral residual approach[C].IEEEConferenceonComputerVisionandPatternRecognition.Portland,Oregon,USA, 2013:1-8. [24]GUO C, MA Q, ZHANG L. Spatio-temporal Saliency detection using phase spectrum of quaternion fourier transform [C].IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition,Anchorage,Alaska,USA,2008: 1-8. [25]CASTELHANO M S, HEAVEN C. Scene context influences without scene gist: Eye movements guided by spatial associations in visual search [J].PsychonomicBulletin&Review, 2011, 18(5):890-896. [26]CHENG M M, ZHANG G X, MITRA N J,etal.. Global contrast based salient region detection [J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2015, 37(3):409-416. [27]ZHANG J, SCLAROFF S. Exploiting surroundedness for saliency detection: a boolean map approach [J].IEEETransactionsonPatternAnalysis&MachineIntelligence, 2015:1-1. [28]YANG C, ZHANG L H, LU H C,etal.. Saliency detection via graph-based manifold ranking [C].IEEEConferenceonComputerVisionandPatternRecognition.,Portland,Oregon,USA, 2013:3166-3173. [29]ZHANG X, CAHILL N D. SLIC superpixels for efficient graph-based dimensionality reduction of hyper spectral imagery [C].SPIEDefense+Security,InternationalSocietyforOpticsandPhotonics,Baltimore, USA. 2015:1-4. [30]BAHETI P K, BARMAN K K, KRISHNAMOORTHI R,etal.. Identifying a maximally stable extremal region by skipping comparison of pixels in the region, WO 2014014687 A1[P]. 2014:23-35. [31]XU M, ZHANG H. Saliency detection with color contrast based on boundary information and neighbors[J].VisualComputer, 2014, 31(3):355-364. [32]LI B, LI R H, KING I,etal.. A topic-biased user reputation model in rating systems [J].Knowledge&InformationSystems, 2015, 44(3):581-607. [33]ANDREW Y NG, MICHAEL I. Jordan and YAIR Weiss. on spectral clustering: analysis and an algorithm [P]. 2002,2:849C856.[34]ZHANG W J, XIONG Q Y. Image salient region detection algorithm based on contrast and spatial location[J].JoumalofUniversity:EngineeringandTechnologyEdition, 2015, 45(5):1709-1716. [35]陳維真, 張春華, 周曉東. 基于局部直方圖高斯擬合的星圖背景性質研究[J]. 紅外技術, 2008, 30(4):230-233. CHEN W ZH,ZHANG CH H, ZHOU X D. Study of star-sky image background characteristics based on local-histogram gaussian fitting method[J].InfraredTechnology, 2008, 30(4):230-233.(in Chinese) 郭少軍(1985-),男,湖南洞口人,助理工程師,博士研究生,2008年、2011年于海軍航空工程學院分別獲得學士、碩士學位,主要從事目標檢測與識別,計算機視覺等方面的研究。E-mial: guoba2000@163.com 婁樹理(1976-),男,山東蒙陰人,博士,副教授,2004年、2011于海軍航空工程學院分別獲得碩士、博士學位,主要從事多源目標成像技術,目標檢測與識別等研究。E-mail:shulilou@sina.com. (版權所有未經許可不得轉載) Multi-ship saliency detection via patch fusion by color clustering GUO Shao-jun*, Lou Shu-li, LIU Feng (DepartmentofControlEngineering,NavyAeronauticalEngineeringUniversity,Yantai264001,China) *Correspondingauthor,E-mail:guoba2000@163.com Because the boundary pixels are easy to be classified as a background in the multi ship target detecting processing, this paper proposes a multi-ship saliency detection method based on patch fusion by color clustering. Firstly, this method detects the color similarity of the pixels in the neighbourhood, and the adjacent pixels with the similar color are gathered as an image patches. Then, the image patches are expanded to make them include some pixels of other patches, so as to enhance the contrast value of the pixels of patches. Then, edge pixels are marked in the background index to calculate the saliency ability of the pixels in image patches and the threshold segmentation method is used to obtain the saliency region of the target. As the image patches have the features of partial overlap, the weight values are used to fuse the saliency images with the partial overlaps, so that the saliency detection results on a whole image for the multi-ship targets are obtained. The experimental tests are carried out for the multi-ship target images, and the results from the proposed algorithm in this paper and the current advanced detection algorithms are compared. The results show that the proposed method based on patch fusion by color clustering has the recall rate more than 78%, the accurate above 92%, and its comprehensive evaluation indexFβis more than 0.7. Both for comparisons of the single index or the entire indexes in this experiments, the algorithm is superior to other methods. multi-target detection; saliency detection; ships; image patch; color clustering 2016-04-27; 2016-05-31. 國家自然科學基金資助項目(No.61303192) 1004-924X(2016)07-1807-11 TP391 Adoi:10.3788/OPE.20162407.18073 圖像塊的顯著性檢測






4 多艦船目標的顯著性檢測


5 實驗與分析




























6 結 論

