999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種圖像感興趣區域提取方法研究

2017-09-01 15:54:44范向陽
計算機技術與發展 2017年8期
關鍵詞:區域方法

王 誠,范向陽

(南京郵電大學 通信與信息工程學院,江蘇 南京 210003)

一種圖像感興趣區域提取方法研究

王 誠,范向陽

(南京郵電大學 通信與信息工程學院,江蘇 南京 210003)

關于圖像感興趣區域(ROI)提取,改進的Stentiford視覺模型方法與傳統的Stentiford視覺模型方法以及其他視覺模型方法相比,具有提取的圖像區域清晰、邊緣明顯、效率高等優點,但在圖像背景較為復雜時,會提取到目標區域以外的區域。鑒于實際研究中對準確度的要求,需要從已提取區域中挑選出目標區域。為此,在所涉及的圖像處理過程中,提出了多種圖像新特征的提取方法,并引入數據挖掘領域中的經典FP-Growth算法,在改進的Stentiford視覺模型方法對訓練集圖像處理后,提取圖像顯著熵、顯著熵密度等眾多圖像特征,并應用FP-Growth算法挖掘圖像特征和目標區域的關聯規則,同時將獲取到的規則應用于測試集的大量實驗驗證之中。實驗結果表明,采用了所提出的方法后,提取到的圖像區域準確度有顯著提高,表明該方法是可行有效的。

圖像感興趣區域;Stentiford視覺模型;FP-Growth算法;圖像特征

0 引 言

基于人眼視覺模型的人眼感興趣區域提取有多種經典方法,例如Itti視覺模型[1]、GBVS視覺模型[2]、譜剩余模型[3]、Stentiford模型[4-5]等。通過對比,Stentiford模型提取的效果最為清晰和準確。但是Stentiford模型有提取結果隨機性過大,對圖片細節過于敏感,計算量大造成耗時等問題。為此,對Stentiford方法加以改進。

雖然改進的Stentiford方法明顯提高了圖像提取的質量和效率,使得提取的圖像區域清晰,邊緣明顯,但同時也帶來了新的問題。當圖像背景不單一、不均勻時,會得到眾多的與目標無關的區域,這些區域大小不一,分布無規律,簡單的去噪操作達不到要求。因此,在以上方法得到提取區域的基礎上,需要挑選出目標區域,即區域選擇的過程,來進一步精確提取。主要步驟如下:

(1)將訓練集圖像通過改進Stentiford方法生成顯著圖,作為特征提取的研究對象。

(2)將顯著圖進行分割,得到獨立的分割區域。這里選用了經典的圖像分割算法—Otsu算法[6]進行處理。

(3)為了解決噪聲,在微小無關細節區域干擾的前提下,提取位置等相關特征,提取分割圖像骨架,生成骨架圖像,作為特征提取研究對象。

(4)生成的骨架圖像結合輸入的訓練集圖像和分割的顯著圖大量提取圖像特征,包括首次引入的顯著度熵、顯著度熵密度的特征。

(5)通過FP-Growth算法挖掘頻繁項集。

(6)將提取的頻繁項集應用到測試集中,與其他方法進行對比。

1 理論基礎

1.1 改進的Stentiford模型

(1)通過灰度變換將輸入的彩色圖像轉變成灰度圖像。

(2)對灰度圖像的像素點進行雙線性插值,得到像素點八鄰域值。

(3)計算圖像的Uniform LBP[7-9]矩陣:根據像素點八鄰域值,對比Uniform LBP的59模式,從而得到Uniform LBP矩陣。

(4)對得到的矩陣進行直方圖統計:以等級、像素值、坐標點作為參數,構建三維數組。

(5)計算顯著度矩陣,根據統計的個數比例生成顯著度矩陣。

(6)生成顯著圖。將顯著度矩陣按比例轉換到灰度空間,以取得較好的視覺效果。

1.2 Otsu算法二值化

假設一幅圖像共有K個灰度級(0,1,…,K-1),用N(m)表示灰度值為m的像素點數。

則圖像總的像素數為:

N=N0+N1+…+NK-1

(1)

灰度值為m的點的概率為:

(2)

門限t將整幅圖像分為暗區S1和亮區S2,類間方差σ是t的函數:

σ=A1×A2(U1-U2)2

(3)

其中,Aj(j∈[1,2])為類Sj的面積與圖像總面積之比。

A1=SUM(P(m))m→t

(4)

A2=1-A1

(5)

Uj為類Sj的均值。

(6)

(7)

取σ最大值時t的值,令U=U1-U2,有:

σ=max{A1(t)×A2(t)U2}

(8)

1.3 顯著度熵、顯著度熵密度、顯著度熵和

引入顯著度熵的概念,并將其值作為圖像眾多特征之一。由于顯著度矩陣代表著感興趣度,點值在區間(0,1)內,數值與興趣度成反比,也就是說數值越小表示興趣度越高,數值越大興趣度越低,這是將其計算熵的前提,也符合熵的概念。因此,為了定量分析興趣度與顯著度的關系,通過式(9)獲得顯著度熵。由于要解決圖像區域選擇的問題,在此基礎上,為了表征分割后的區域興趣度的和及平均興趣度,分別按式(10)、式(11)計算。

H(x,y)=log2p(x,y)

(9)

其中,p(x,y)為ImageB的點值;(x,y)為坐標;H(x,y)為ImageD的點值。

(10)

(11)

其中,S為對應圖像各個分割后的區域。

1.4 頻繁項目集

頻繁項集的相關概念出自于數據挖掘中的關聯規則算法[10-11],而關聯規則[12]相關概念如下:

設D是事務數據庫,n個不同的項目元素組成集合I={i1,i2,…,in},I中項目的集合構成具體的每一個事務T,即T?I,記為TID{T}。事務TID{Ti}組成事務數據庫D={T1,T2,…,Tn}。對于項目集X∈I,若X∈T,則稱T支持X。如果X中有k個項目,X可以稱為k-項目集。

項集X?T的支持度表示為:

(12)

關聯規則表示數據間的隱含關系。例如,X→Y,X?I,Y?I,X∩Y≠?,則X→Y的支持度為:

(13)

X→Y的置信度為:

(14)

根據實際需要,人為設定最小支持度Minsup和最小置信度Minconf兩個閾值。若Sup(X)≥Minsup,則稱項集X是頻繁項集。對于任意Y?X,Sup(Y)≥Minsup恒成立,則此時的X可稱為最大頻繁項集。

1.5 FP-Growth算法

FP-Growth算法[13-15]描述如下:

(1)掃描數據庫,對1項項目集次數降序排列,刪除小于最小支持度的項。

(2)分別對新構建的FP-tree重復此過程,直到新構造的FP-tree只包含一條路徑,或者為空。

(3)若構造的FP-tree為空,其前綴即為頻繁模式;若FP-tree只包含單一路徑,枚舉所有可能組合并與此樹的前綴。

2 算法應用

2.1 改進模型

設原圖像為ImageA,通過改進的Stentiford模型進行計算處理:

(1)將輸入的彩色圖像灰度變換為灰度圖像,對灰度圖像的像素點進行雙線性插值,得到像素點八鄰域值;

(2)計算圖像的Uniform LBP矩陣;

(3)對得到的矩陣進行直方圖統計;

(4)計算顯著度矩陣,根據統計的個數比例生成顯著度矩陣ImageB;

(5)生成顯著圖ImageC。

2.2 圖像分割

針對ImageC,通過Otsu算法獲取閾值,對于大于閾值的區域為白色,對于小于閾值的區域變為黑色,最終圖像被分割成多個黑白相間區域。也就是黑色區域較白色有較高的興趣度,接下來就是實現從眾多分割后的黑色區域中挑選出目標區域。

2.3 圖像骨架提取

在圖像ImageE的起始處,適當大小矩形模塊(長l,寬w)表示如下:

(15)

(16)

其中,L、W分別為ImageE的長和寬的像素點數;理論上c取值沒有嚴格限制,但取值過小,使得圖像骨架提取過于粗糙,過大會使骨架過于敏感,沒有較好回避噪聲點干擾。

這里c=20,逐行掃描,處理ImageE,按式(17)計算:

(17)

其中,N為模塊大小,單位像素點;K為當前模塊下像素點為0的個數。

設定閾值t=0.5:

Ifλ>t記為0

Else記為1

得到矩陣ImageF。對ImageF分兩次進行四鄰域分塊處理,最終得到分割矩陣ImageG。

2.4 圖像特征提取

I1:ImageA目標區域顏色x1,x1由{紅、橙、黃、綠、青、藍、紫}組成;

I2:圖像結構(通過計算ImageG中目標區域、背景區域的面積、位置關系分為四類,對于圖像主要目標區域和單一背景組成的可分為三類:包含,半包含,上下左右,記為I2a、I2b、I2c。背景不均勻單一的圖像,統計為I2d);

I3:ImageA背景區域顏色(這里將除目標以外的圖像所有部分認作背景區域);

I4:ImageA目標區域Red顏色分量總和占整幅圖像比例區間,將區間等分為3段 [0,1/3),[1/3,2/3),[2/3,1],標記為I4a、I4b、I4c;

I5:ImageA目標區域Green顏色分量總和占整幅圖像比例,將區間等分為3段 [0,1/3),[1/3,2/3),[2/3,1],標記為I5a、I5b、I5c;

I6:ImageA目標區域Blue顏色分量總和占整幅圖像比例,將區間等分3段 [0,1/3),[1/3,2/3),[2/3,1],標記為I6a、I6b、I6c;

I7:三個顏色分量占比最大值,區間等分為3段 [0,1/3),[1/3,2/3),[2/3,1],標記為I7a、I7b、I7c;

I8:圖像的一階顏色矩:

(18)

其中,i代表顏色通道數,由于是彩色圖像所以i∈[1,3],依次對應(Red,Green,Blue);pij代表第j個點,第i個顏色通道的顏色值;N代表圖像總像素點數。

i=1,將區間(0,255)等分為3段,(0,85),(85,170),(170,255),標記為I8a、I8b、I8c;

I9:圖像的一階顏色矩i=2,將區間(0,255)等分為3段,(0,85),(85,170),(170,255),標記為I9a、I9b、I9c;

I10:圖像的一階顏色矩i=3,將區間(0,255)等分為3段,(0,85),(85,170),(170,255),標記為I10a、I10b、I10c;

I11:圖像的一階顏色矩最大值,將區間(0,255)等分為3段,(0,85),(85,170),(170,255),標記為I11a、I11b、I11c;

I12:圖像的二階顏色矩[16]:

(19)

i=1,將取值區間(0,125)等分為3段(0,42),(42,84),(84,125),標記為I12a、I12b、I12c;

I13:圖像的二階顏色矩i=2,將取值區間(0,125)等分為3段(0,42),(42,84),(84,125),標記為I13a、I13b、I13c;

I14:圖像的二階顏色矩i=3,將取值區間(0,125)等分為3段(0,42),(42,84),(84,125),標記為I14a、I14b、I14c;

I15:圖像的二階顏色矩最大值,將取值區間(0,125)等分為3段(0,42),(42,84),(84,125),標記為I15a、I15b、I15c;

I16:圖像的三階顏色矩:

(20)

i=1,將取值絕對值區間(0,125)等分為3段(0,42),(42,84),(84,125),標記為I16a、I16b、I16c;

I17:圖像的三階顏色矩i=2,將取值絕對值區間(0,125)等分為3段(0,42),(42,84),(84,125),標記為I17a、I17b、I17c;

I18:圖像的三階顏色矩i=3,將取值絕對值區間(0,125)等分為3段(0,42),(42,84),(84,125),標記為I18a、I18b、I18c;

I19:圖像的三階顏色矩最大值,將取值區間(0,125)等分為3段(0,42),(42,84),(84,125),標記為I19a、I19b、I19c;

I20:由于ImageD是ImageB的骨架,也是一種映射,而ImageD是已分割的圖像,所以,對ImageD已分割的塊,通過式(21)計算各個塊對應在ImageB區域的熵,求取全局平均熵密度。

H(x,y)=log2p(x,y)

(21)

由于概率范圍[0,1]對應熵1區間[0,+∞],所以等分概率區間[0,1/3],[1/3,2/3],[2/3,1],從而得到熵密度區間(0,log23),(log21.5,log23),(log23,+∞)。

(22)

(23)

其中,S為對應在ImageB區域的區域;N為S的點數。

I21:ImageD圖像,分割得到的區域塊數x21,x21∈N*;

I22:求取各個塊平均的熵密度,目標熵密度的排名x22,x22∈N*:

I23:目標區域熵密度;

I24:目標區域熵密度,平均熵密度兩者的大小關系,大于、小于、等于分別標記為I24a、I24b、I24c;

I25:目標區域熵密度,在大于平均熵密度的熵和的排名x25,x25∈N*;

I26:目標區域熵密度,在小于平均熵密度的熵和的排名x26i,i∈N*;

I27:目標區域熵和的排名,x27,x27∈N*。

對圖片填入數據庫,以圖1為例。

圖1 示例圖

I1:a:黃、青;b:黃

I2:a:包含,記為I2a;b:背景復雜,記為I2d

I3:a:綠;b:藍、白

I4:a:0.36,0.36∈(1/3,2/3)記I4b;b:0.285,0.285∈(0,1/3)記I4a

I5:a:0.65,0.65∈(1/3,2/3)記I5b;b:0.67,0.67∈(2/3,1)記I5c

I6:a:0.347,0.347∈(1/3,2/3)記I6b;b:0.57,0.57∈(1/3,2/3)記I6b

I7:a:0.65,0.65∈(1/3,2/3)記I7b;b:0.67,0.67∈(2/3,1)記I7c

I8:a:98,98∈(85,170)記I8b;b:107,107∈(85,170)記I8b

I9:a:160,160∈(85,170)記I9b;b:98,98∈(85,170)記I9b

I10:a:108,108∈(85,170)記I10b;b:227,227∈(170,255)記I10c

I11:a:160,160∈(85,170)記I11b;b:227,227∈(170,255)記I11c

I12:a:90.5,90.5∈(84,125)記I12c;b:115.9,115.9∈(84,125)記I12c

I13:a:36,36∈(0,42)記I13a;b:87,87∈(84,125)記I13c

I14:a:37.3,37.3∈(0,42)記I14a;b:34.8,34.8∈(0,42)記I14a

I15:a:90.5,90.5∈(84,125)記I15c;b:115.9,115.9∈(84,125)記I15c

I16:a:95.2,95.2∈(84,125)記為I16c;b:88.4,88.4∈(84,125)記I16c

I17:a:40.5,40.5∈(0,42)記I17a;b:-34,34∈(0,42)記I17a

I18:a:36.6,36.6∈(0,42)記I18a;b:34.1,34.1∈(0,42)記I18a

I19:a:95.2,95.2∈(84,125)記為I19c;b:88.4,88.4∈(84,125)記I19c

I20:a:0.76,0.76∈(log21.5,log23)記I20b;b:0.79,0.79∈(log21.5,log23)記I20b

I22:a:12,記I2212;b:3,記I223

I23:a:1.92,1.92∈(log23,log250)記I21c;b:1.81,1.81∈(log23,log250)記I21c

I24:a:大于,記I24a;b:大于,記I24a

I25:a:1,記I251;b:1,記I251

I26:a:null,記I26φ;b:null,記I26φ

I27:a:2,記I272;b:1,記I271

2.5 FP-Growth應用

按照FP-Growth[17-18]算法步驟,依次將200幅測試集圖像存入數據庫D,構造FP樹階段:

掃描數據庫D,獲取1項頻繁項目集L,并對L降序排列。

部分數據見表1。

表1 降序排列表 次

創建FP-tree樹的根節點,記為“null”,按照獲取的L中的排序,對每個事務進行插入FP-tree操作,從而完成FP-tree構建過程。

FP-Growth通過對FP-tree的搜索遍歷,實現函數FP_Growth(FP_tree,null)的詳細過程如下:

FP_Growth(FP_tree,α),α為條件基,初始為空。

if FP-tree含有單個路徑為P

then{

for路徑中節點的所有組合(記作β)

可以產生的模式是m=β∪α,支持度計數等于用β中節點最小支持度計數supmin=20,如果其超過最小閾值,將其輸出到集合M={m0…mk},k表示個數

}

else{

for FP_tree的頭表中每個αi{

產生模式β=αi∪α,αi的支持數為其支持數

然后,建立β的條件模式基,構造β的條件FP-treeβ;

ifFP-treeβ≠? then

FP_Growth(FP-treeβ,α)

}

對M={m0…mk}集合每個元素計算

conf(X→Y)=supp(X∪Y)/supp(X)=P(Y|X)

(24)

其中,Y:I251;X:條件模式基βk。

mk=βk∪I251

(25)

取閾值conf=70%

輸出到集合H。

滿足條件的項集見表2。

表2 滿足條件的項集

頻繁模式支持度置信度I2d、I7c、I15c、I24a、I251、I26φ480.83I2b、I24a、I251、I26φ360.89I2a、I24a、I251、I26φ320.88I2c、I24a、I251、I26φ320.88

按照以上規則:

(1)規則I2d、I7c、I15c、I24a、I251、I26φ,可以理解為:對圖像結構比較復雜,背景不單一,不均勻,其I7、I15比值較高,表明目標區域在圖像中有足夠大小,圖像中某種顏色集中在目標區域,I24a、I251說明目標區域顯著熵密度大于平均,并在大于平均的分類中熵和最大。

(2)規則I2a、I24a、I251、I26φ理解為:對于結構為半包圍的背景單一、均勻圖像,目標區域顯著熵密度大于平均,并在大于平均的分類中熵和最大。

(3)規則I2b、I24a、I251、I26φ理解為:對于結構為半包圍的背景單一、均勻圖像,目標區域顯著熵密度大于平均,并在大于平均的分類中熵和最大。

(4)規則I2c、I24a、I251、I26φ理解為:對于結構為半包圍的背景單一、均勻圖像,目標區域顯著熵密度大于平均,并在大于平均的分類中熵和最大。

根據上述頻繁項集制定下述規則:

(1)若I2d、I15c成立,圖像某一區域滿足I7c、I24a、I251,則將該塊區域作為目標區域;

(3)若I2a成立,圖像某一區域滿足I24a、I251,則將該塊區域作為目標區域;

(3)若I2b成立,圖像某一區域滿足I24a、I251,則將該塊區域作為目標區域;

(4)若I2c成立,圖像某一區域滿足I24a、I251,則將該塊區域作為目標區域(關于I2的特征取值研究對象為ImageG)。

將上述規則應用到測試集上。

3 實驗結果及其分析

算法在Matlab仿真實現,機器處理器為I3,RAM=2 G。

選取Corel數據庫中花、牛、蝴蝶、車等20類形色各異的圖像,每類20幅,共計400幅進行測試。其中圖像(b)是通過人工的方法,把圖像目標區域手工設置為1,將背景手工設置為0的二值圖像。為了對比各算法的視覺效果,分別在改進的Itti視覺模型[19]、GBVS視覺模型[2]、譜剩余模型[3]得到的顯著圖基礎上,將顯著圖像灰度區間由[0,1]按比例轉換到[0,255],并將得到的圖像進行如下變換:

S=255-S*

(26)

從而最終顯著圖是[0,255]區間的灰度圖像,目標區域為黑色,區域越深表示顯著度越高。結果圖分別對應(e)、(f)、(g)。最終各類對比圖如圖2所示。

圖2 效果對比圖

通過觀察效果圖可知,圖(c)方法效果整體顯著優于其他方法。與圖(d)的效果對比,表明改進方法較好地實現了區域選擇的問題。為了定量對比各類算法的處理效果,參照文獻[20]進行計算。

(1)計算圖像Precision、Recall和F-measure(簡單起見分別記為P,R,F)。

P=∑((1-S)×B)/∑(1-S)

(27)

R=∑((1-S)×B)/∑B

(28)

F=2×P×R/(P+R)

(29)

其中,S為各類算法生成的(0,255)灰度顯著圖按比例轉換到(0,1)區間的顯著圖;B為人工分割圖;∑代表所有像素點灰度值求和;(1-S)×B為兩圖像像素點值相乘得到的灰度圖。

可以理解為F值越大,顯著圖顯示目標效果越理想。各類算法通過計算數據庫每幅圖像的Precision、Recall、F-measure,統計并求平均值,具體結果見圖3。

圖3 結果對比圖

4 結束語

為了解決圖像背景較復雜時改進Stentiford方法提取圖像多個非目標區域中存在的問題,提出了一種感興趣區域提取方法。該方法從圖像中提取一些新的特征和大量常見的特征,并應用FP-Growth算法數據挖掘特征與目標區域的關聯規則。將得到的規則應用在測試集上,同時與多種經典的視覺模型方法分別進行定性和定量的對比實驗。實驗結果表明:該方法的視覺效果和性能數據指標都優于其他方法,實現了多區域中選取目標區域,提高圖像提取準確度的目標。未來,可以提取更多的圖像特征、增大數據庫樣本容量、細化相關數據指標分段來增加提取規則,研究具有廣闊的前景。

[1] 黃傳波,金 忠.基于視覺注意的彩色圖像檢索方法[J].光子學報,2011,40(7):1025-1030.

[2] 王 星,邵振峰.基于視覺顯著點特征的遙感影像檢索方法[J].測繪科學,2014,39(4):34-38.

[3] 尹春霞,徐 德,李成榮,等.基于顯著圖的SIFT特征檢測與匹配[J].計算機工程,2012,38(16):189-191.

[4] Stentiford F W M. An estimator for visual attention through competitive novelty with application to image compression[C]//Picture coding symposium.[s.l.]:[s.n.],2001:1-4.

[5] Stentifold F W M.Automatic identification of interest with application to the quantification of DNA damage in cell[C]//Proceeding of SPIE.[s.l.]:[s.n.],2002:244-253.

[6] 陳文達,白瑞林,吉 峰,等.基于機器視覺的軸承防塵蓋表面缺陷檢測[J].計算機工程與應用,2014,50(6):250-254.

[7] Arasteh S,Hung C C.Color and texture image segmentation using uniform local binary patterns[J].International Journal of Machine Graphics & Vision,2006,15(3):265-274.

[8] Fehr J.Rotational invariant uniform local binary patterns for full 3D volume texture analysis[C]//Finnish signal processing symposium.[s.l.]:[s.n.],2007.

[9] Lahdenoja O,Poikonen J,Laiho M.Towards understanding the formation of uniform local binary patterns[J].Machine Vision,2013,2013:1-20.

[10] 鐘 曉,馬少平,張 鈸,等.數據挖掘綜述[J].模式識別與人工智能,2001,14(1):48-55.

[11] 王光宏,蔣 平.數據挖掘綜述[J].同濟大學學報:自然科學版,2004,32(2):246-252.

[12] 文 拯.關聯規則算法的研究[D].長沙:中南大學,2009.

[13] 張 健.基于頻繁模式挖掘的不良消息文本檢測方法研究與實現[D].上海:復旦大學,2012.

[14] 李曉卿.數據流中閉頻繁項集挖掘算法的研究[D].沈陽:東北大學,2009.

[15] 李仁澤.基于數據挖掘方法的綜合癥—藥物關系挖掘[D].南京:南京大學,2013.

[16] 張少博,全書海,石 英,等.基于顏色矩的圖像檢索算法研究[J].計算機工程,2014,40(6):252-255.

[17] 彭佳紅.一種新的多層關聯規則算法[J].計算機工程,2006,32(9):70-71.

[18] 徐 龍.基于約束的最大頻繁項目集挖掘算法與實現[D].西安:西安科技大學,2008.

[19] 宋 侃.基于改進視覺注意模型的顯著區域區檢測[J].計算機技術與發展,2015,25(7):234-236.

[20] 馬儒寧,涂小坡,丁軍娣,等.視覺顯著性凸顯目標的評價[J].自動化學報,2012,38(5):870-876.

Investigation on Extraction of Interests Region in Image

WANG Cheng,FAN Xiang-yang

(College of Telecommunications & Information Engineering,Nanjing University of Posts and Telecommunications,Nanjing 210003,China)

Concerning extraction of Region Of Interest (ROI) for image,the enhanced Stentiford visual modeling method has the advantages of clear image regions,obvious edges,and high efficiency compared with traditional Stentiford or other visual modeling methods.However,when the image background is relatively complex,regions outside the target would be extracted.Because of requirements on accuracy in actual research,it is necessary to pick out target regions from extracted regions.For this reason,during image processing,an extraction method with multiple new image features has been proposed and the classic FP-Growth algorithm in data mining has been introduced.After the training set have been processed by the enhanced Stentiford visual modeling method,image features such as significant entropy and significant entropy density are extracted and the FP-Growth algorithm is employed to find the association rules between image features and target regions.The obtained rules have been applied to a lot of experimental for verifications.The experimental results show that after the enhanced method,the accuracy of the extracted image regions have been improved significantly which indicates its feasibility and effectiveness.

ROI;Stentiford visual model;FP-Growth algorithm;image features

2016-06-16

2016-09-29 網絡出版時間:2017-06-05

國家自然科學基金資助項目(61071167)

王 誠(1970-),男,碩士,副教授,碩導,研究方向為數據挖掘、嵌入式技術;范向陽(1991-),男,碩士研究生,研究方向為圖像處理與多媒體通信。

http://kns.cnki.net/kcms/detail/61.1450.TP.20170605.1506.030.html

TP391

A

1673-629X(2017)08-0030-07

10.3969/j.issn.1673-629X.2017.08.007

猜你喜歡
區域方法
永久基本農田集中區域“禁廢”
今日農業(2021年9期)2021-11-26 07:41:24
分割區域
學習方法
關于四色猜想
分區域
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: h视频在线播放| 国产91无码福利在线| 国产精品福利一区二区久久| 免费Aⅴ片在线观看蜜芽Tⅴ| 亚洲国产一区在线观看| 伦伦影院精品一区| 色有码无码视频| 狠狠色丁婷婷综合久久| 日韩精品一区二区三区中文无码| 青青操视频在线| 久久久91人妻无码精品蜜桃HD| 青青操视频在线| 国产第四页| 免费毛片全部不收费的| 91亚洲精品第一| 无码粉嫩虎白一线天在线观看| 久久免费成人| 中文无码精品A∨在线观看不卡| 欧美三级日韩三级| 欧美伦理一区| 91精品国产91欠久久久久| 中文精品久久久久国产网址| 欧美三级视频在线播放| 日本欧美午夜| 色香蕉影院| 国产欧美视频一区二区三区| 超碰aⅴ人人做人人爽欧美| yjizz视频最新网站在线| 一级成人a毛片免费播放| 九色免费视频| 日韩免费无码人妻系列| 国产在线精彩视频二区| 狠狠ⅴ日韩v欧美v天堂| 日本国产在线| 成人年鲁鲁在线观看视频| 欧美性精品| 97无码免费人妻超级碰碰碰| 69综合网| 午夜精品一区二区蜜桃| 丁香五月婷婷激情基地| 青青草原国产| 亚洲国产精品成人久久综合影院| 91伊人国产| 免费观看精品视频999| 日本一区二区不卡视频| 婷婷六月激情综合一区| 人妻中文久热无码丝袜| 欧美性久久久久| 噜噜噜综合亚洲| 国产玖玖视频| 日韩欧美中文| 亚洲国产成人久久精品软件| 国产亚洲精品自在久久不卡| 国产小视频免费| 欧美精品高清| 亚洲男人在线| 成人国产小视频| 国产成人精品18| 国产欧美日韩在线在线不卡视频| 日本五区在线不卡精品| 亚洲视频免费播放| 人妻丰满熟妇av五码区| 国产精品无码久久久久久| 99精品高清在线播放| 国产欧美日韩另类| 色一情一乱一伦一区二区三区小说 | 激情综合图区| 欧洲欧美人成免费全部视频| 国产理论精品| 欧美啪啪一区| 呦女精品网站| 精品伊人久久久香线蕉| 欧美在线综合视频| 精品亚洲麻豆1区2区3区| 青青青国产精品国产精品美女| 国产sm重味一区二区三区| 亚洲男人天堂久久| 国产精品99一区不卡| www亚洲天堂| 国产激情无码一区二区APP | 波多野结衣一区二区三区四区视频| 亚洲一级色|