999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種基于圖的彩色圖像分割算法*

2016-10-29 07:42:00沃焱金璇
關鍵詞:區域差異

沃焱 金璇

(華南理工大學 計算機科學與工程學院, 廣東 廣州 510006)

?

一種基于圖的彩色圖像分割算法*

沃焱金璇

(華南理工大學 計算機科學與工程學院, 廣東 廣州 510006)

為了解決圖像分割中容易出現的過分割問題,提出了一種基于圖的彩色圖像分割算法.該算法在區域合并的基礎上,首先用Mean shift方法進行預處理,得到初始過分割區域后對其構造鄰接圖,然后計算鄰接區域的顏色、紋理及邊緣特征相似性以判斷區域是否需要合并直到所有滿足條件的區域都被合并.為了保持圖像的全局屬性,文中通過查找最優合并成本的方式進行區域合并.實驗結果表明:即使在圖像目標和背景區域顏色比較相似時,文中算法也能較好地實現對目標區域的完整分割;與其他4種算法相比,文中算法具有更好的分割性能.

圖像分割;Gabor濾波器;紋理;邊緣;區域相似性

圖像分割的目的是將整個圖像分成若干個互不相交的非空子區域,每個子區域的內部是連通的,同一區域在亮度、顏色等特征上具有相似性,而相鄰區域之間不具有相似性.分割問題是圖像處理、計算機視覺中一個基礎性和挑戰性的問題,在圖像識別、目標檢測等技術中有重要的作用.該問題在20世紀70年代就受到了廣泛的關注,人們提出了多種圖像分割方法,如閾值方法[1]、聚類方法[2-3]、圖論方法[4-5]、基于區域的方法[6-7]等.而基于圖的分割方法[8-12]因能考慮到所有像素點攜帶的特征和空間信息而備受關注.在構造的圖中,圖頂點表示圖像的像素點或區域,頂點之間用邊連接,邊的權值可以表示像素點或區域之間的不相似性.最早提出基于圖的分割方法是Zahn[8]的基于最小生成樹方法.該方法的分割標準是消除最小生成樹中權值較大的邊,權值為像素點之間的亮度差異,由于突變區域亮度大于穩定區域亮度,采用固定閾值和局部測量方式進行分割可能使突變區域被分成多個區域,或亮度較低區域被合并.為解決這個問題,Urquhart[9]提出了用最小權值對邊進行歸一化的分割方法,此方法容易導致錯誤分割,并且難以保持圖像的全局屬性.Felzenswalb等[10]提出了通過計算區域內部和區域之間的顏色差異來預測邊界是否存在,從而進行區域合并.在這些以像素點為頂點的的圖方法中,圖像越大,頂點越多,且每個頂點需與周圍的多個頂點建立鄰接關系,使得圖像處理復雜度較高.為解決這個問題,Rezvanifar等[11]先用Mean shift方法進行預處理,然后結合Ncut和AverageCut進行圖像分割.Bo等[12]先用分水嶺分割,再結合連續概率比測試和最大可能性標準進行合并預測,并動態合并滿足條件的區域.這些方法中,圖的頂點表示一個小的區域,每個頂點只需與周圍少部分頂點建立連接,提高了圖像處理速度.但這些方法僅根據顏色進行分割,當圖像目標和背景區域顏色相似時,難以得到好的分割結果.

針對這些問題,文中結合圖像的顏色、紋理和邊緣特征,提出了一種基于圖的彩色圖像分割算法.為提高圖像的分割速度,文中先使用Mean shift[13]進行預處理得到初始過分割區域,并利用這些區域構造相應的鄰接圖.為保持圖像的分割完整性,文中提取了圖像的邊緣輪廓,并計算鄰接區域的邊緣相似性.為減少圖像目標和背景顏色相似時的過分割現象,文中利用Gabor濾波提取圖像的紋理特征,并通過統計鄰接區域的紋理分布來計算其紋理相似性.為了保持圖像的全局屬性,文中根據查找最優合并成本的方式進行區域合并.

1 區域相似性度量

文中利用區域合并來分割圖像.由于區域比像素點攜帶更多的信息,并且基于區域的處理方法能提高圖像分割效率,因此文中先用Mean shift預處理得到初始過分割區域集合R={R1,R2,…,RN},然后通過度量區域相似性將相似的區域進行合并.文中從顏色、紋理和邊緣3個特征來度量區域相似性.

1.1顏色相似性

為度量區域顏色相似性,先將圖像分成R、G、B三個通道,鄰接區域Ri與Rj(Ri,Rj?R)的顏色差異Diff(Ri,Rj)可表示為

(1)

式中,pi′∈Ri,pj′∈Rj,cζ(pi′)、cζ(pj′)分別為像素點pi′、pj′在第ζ通道的顏色值,NRi、NRj分別為區域Ri、Rj的像素點個數.Diff(Ri,Rj)越大,Ri、Rj顏色相似的概率越小;反之,其顏色相似的概率越大.則鄰接區域Ri、Rj顏色相似性條件可表示為

(2)

ε1為閾值.通過比較ε1與區域顏色差異大小來判斷顏色相似性,因此ε1的取值應與圖像顏色差異及分布相關.當區域顏色差異較大時,圖像顏色分布比較分散,為避免過分割現象,ε1需相應地增大;當區域差異較小時,為避免欠分割現象,ε1需相應地減小.由于顏色的標準差能反映顏色的分布情況,因此文中利用圖像顏色的標準差來計算ε1:

ε1=2[(stdR+stdG+stdB)/3]×max(Diff)

(3)

式中,max(Diff)為鄰接區域對的最大顏色差異,stdR、stdG、stdB分別為圖像在R、G、B通道歸一化后的標準差.stdR、stdG、stdB越小,說明圖像顏色分布越集中,顏色差異越小,對應的ε1值也越?。环粗?,stdR、stdG、stdB越大時,說明顏色分布越分散,對應的顏色差異越大,ε1值也越大.

1.2邊緣相似性

為了較好地保證分割圖像的完整性,合并前需考慮區域間是否有較強的邊緣輪廓.Arbelaez等[14]利用局部多尺度信息和全局邊緣信息提出了一種有效的提取邊緣輪廓的方法.局部多尺度邊緣信息和全局邊緣信息的結合,既能提取出圖像的邊緣輪廓,又能凸顯出顯著的邊緣,有效地對圖像進行描述.基于這些優點,文中使用該方法來提取圖像的邊緣輪廓.

1.2.1邊緣輪廓提取

對于局部邊緣提取,該方法通過計算在LAB顏色空間中的L、a、b通道以及紋理通道的方向梯度信號G(x,y,θ)來預測像素點在θ方向存在邊緣的概率.對于L、a、b通道的方向梯度,該方法先在像素點p′(x,y)處放置一圓盤,并在θ方向將圓盤劃分成兩半,然后求出兩個半圓盤的亮度或者顏色直方圖分布.兩個半圓盤直方圖h、h′的χ2距離就是像素點p′的方向梯度:

(4)

(5)

式中:mPb(x,y,θ)為像素點在(x,y)處θ方向的局部多尺度邊緣概率;s為尺度;Gch,σ(ch,s)(x, y, θ)是顏色通道ch上以(x、y)為圓心、σ(ch,s)為圓盤半徑,從角度θ上進行切分的兩個半圓盤直方圖的差異;αch,s為權值,用來衡量不同通道尺度下的概率分布.像素點的局部多尺度邊緣能量可表示為

(6)

對于全局邊緣檢測,可用譜聚類將局部多尺度信息結合到全局框架.首先根據局部多尺度邊緣概率定義相似矩陣Wij,

(7)

(8)

μ×sPb(x,y,θ)

(9)

式中,βch,s和μ為權值.對于像素點的全局邊緣能量,可以用像素點的最大gPb邊緣概率來表示:

(10)

1.2.2邊緣相似性判斷

由于gPb用邊緣梯度信號描述,梯度越大,存在邊緣的可能性越大.而鄰接區域的邊緣相似性主要在于檢測鄰接區域邊界之間是否存在邊緣,因此文中根據鄰接區域間相鄰邊界點的梯度概率來度量邊緣相似性.

在圖1所示的示例中,Ri、Rj為鄰接區域.Ri、Rj的相鄰邊界點集合P={pm|1≤m≤NP},NP為Ri、Rj之間的相鄰邊界點個數.根據邊界點的梯度幅值可將Ri、Rj間的邊緣梯度概率Grad(Ri,Rj)表示為

圖1鄰接區域分布圖

Fig.1Distributionofadjacentregions

邊界點集合P的邊緣概率平均值:

式中,pm(x)、pm(y)表示第m個邊界點的x、y坐標.Grad(Ri,Rj)越大,Ri、Rj之間存在邊緣的可能性越大,兩區域邊緣特征越不相似;反之,Grad(Ri,Rj)越小,Ri、Rj之間存在邊緣的可能性越小,邊緣相似的概率越大.因此,Ri、Rj的邊緣相似性條件可表示為

(12)

式中,ε2為閾值.當區域邊界點的梯度概率小于ε2時,鄰接區域具有邊緣相似性;反之,則不具有邊緣相似性.

1.3紋理相似性

紋理是圖像處理中的常用特征.在文獻[10-12]方法中,僅用顏色特征來進行圖像分割,當背景和目標區域顏色相似時,難以得到較好的分割結果,因此在合并時需要考慮區域間的紋理相似性.

Gabor濾波[15]是一種常用的提取紋理的方法,能有效提取不同方向和尺度的紋理信息.因此,文中用Gabor濾波器來提取紋理特征.二維Gabor濾波器表示為

(13)

式中,x′=xcosθ′+ysinθ′,y′=-xsinθ′+ycosθ′,?為波長,θ′為Gabor核函數方向,ψ為相位偏移,δ為高斯標準差,γ為空間縱橫比.

(14)

(15)

(16)

當Ri中所有像素點投完票,可獲得圖2(a)所示的紋理分布.直方圖在θ′方向上的能量分布可表示為

(17)

式中,E′(x(k),y(k),θ′)為Ri中第k個像素點在θ′方向上的權值.同理,對區域Rj紋理統計后,可得到圖2(b)所示的紋理分布.

(a)Ri紋理分布(b)Rj紋理分布

圖2圖1中Ri、Rj的區域紋理分布

Fig.2Texture distribution of regionsRiandRjin Fig.1

統計鄰接區域Ri、Rj的紋理分布后,其紋理差異可以表示為

(18)

tDist(Ri,Rj)越大,Ri與Rj紋理相似的概率越小,反之紋理相似的概率越大.因此,區域Ri、Rj的紋理相似條件可表示為

(19)

ε3為參數.當兩區域之間的紋理差異小于ε3時,兩個區域在紋理上有相似性,反之不具有相似性.

1.4區域合并條件

合并條件是區域合并的關鍵.文中度量了圖像顏色、紋理以及邊緣特征的相似性,如果僅把顏色相似性作為合并條件,當目標和背景區域顏色相似時,容易將目標和背景區域融合.同理,如果僅把紋理或者邊緣相似性作為最終合并條件,也難以獲得較好的分割結果.若利用顏色和紋理或者顏色和邊緣相似性作為合并條件,與之前單一特征相比,合并效果應該要好,但如果將顏色、紋理和邊緣特征相結合,使得合并條件更加嚴格,既能使相似的區域被合并,又能夠有效地減少過分割現象.因此,文中結合顏色、紋理以及邊緣特征相似性,將構造的區域合并條件表示為

C′(Ri,Rj)=C1(Ri,Rj)C2(Ri,Rj)C3(Ri,Rj) (20)

僅當C′(Ri,Rj)=1時才進行合并,此時C1(Ri,Rj)、C2(Ri,Rj)、C3(Ri,Rj)均為1,表明區域Ri、Rj在顏色、紋理和邊緣特征上都具有相似性.

2 基于圖的區域合并

2.1鄰接圖的構造

為了更好地描述圖像,文中對Mean shift[13]產生的過分割區域集合R構建鄰接圖.令G′=(V,e)表示一個無向圖,V是圖的頂點集合,對圖進行初始化時V=R.(vi,vj)∈e,e是邊集合,(vi,vj)表示連接頂點vi和vj的邊,該邊的上的權值w((vi,vj))用于衡量vi、vj的不相似性.結合區域在顏色、紋理和邊緣特征上的差異,可將連接vi、vj的邊的權值w((vi,vj))表示為

w((vi,vj))=Diff(vi,vj)+Grad(vi,vj)+

tDist(vi,vj)

(21)

2.2區域合并過程

在區域合并過程中,合并順序的優劣能反映算法能否保持圖像全局屬性.由于區域之間的差異性,合并時會產生合并成本,記為costF,差異越大,costF越大.為使合并順序最優,每次合并時costF應最小.由于邊的權值能反映區域間的差異,因此區域Ri和Rj之間的costF可用權值表示,即

costF(Ri,Rj)=w((Ri,Rj))

(22)

在合并過程中,選擇costF最小的邊(Ri,Rj),若Ri、Rj滿足合并條件就將Ri、Rj合并,并更新與Ri、Rj相關聯的邊.若Ri、Rj不滿足合并條件,因其他邊的costF比costF(Ri,Rj)大,表明其他區域間的顏色、紋理以及邊緣上的特征差異更大,因而不會滿足合并條件,此時區域合并可以終止.

合并算法的步驟如下:

1)利用式(22)計算出鄰接圖中所有邊的合并成本costF.

2)在邊集合e中選擇合并成本costF最小的邊(Ri,Rj),利用式(20)計算C′(Ri,Rj).

3)若C′(Ri,Rj)=1,則將Ri合并入Rj,并對鄰接圖作以下更新.

(a)刪除Ri與Rj間的邊(Ri,Rj);

(b)對于所有從Ri出發的邊(Ri,Rkk),刪除邊(Ri,Rkk),若在集合e中不存在邊(Rj,Rkk),則建立邊(Rj,Rkk);

(c)對于所有從Rj出發的邊(Rj,Rll),利用式(22)重新計算costF(Rj,Rll);

(d)返回步驟2).

4)若C′(Ri,Rj)=0,則終止區域合并,輸出分割結果.

2.3區域合并屬性

文中利用查找最優合并成本的方式進行合并,可以保持圖像的一些全局屬性,既不產生過分割也不產生欠分割.

為證明文中算法滿足這一屬性,文中參照文獻[10]方法中精細和粗糙分割的概念定義過分割和欠分割.若分割S中包含一些滿足合并條件但沒合并的區域對,則稱S過分割;若S存在另一個分割S′,S′中鄰接區域之間有明顯的邊界,且S′的每個區域都包含在S的一些塊中,S′能通過S的一次或多次劃分得到,則稱S是欠分割的.另外,若兩區域的邊緣特征不相似,則區域之間存在邊界.

如果S是欠分割,則S中存在另一個分割S′,S′的鄰接區域之間存在邊界.令區域C∈S,鄰接區域A,B∈S′,A?C,B?C,且A和B之間有最小costF.由文中算法可知,在A和B合并之前不會和C中其他區域合并,與C包含A、B矛盾.因此S不是欠分割.

綜上所述,文中算法在區域合并過程中能保持圖像的全局屬性,既不產生過分割也不產生欠分割.

3 實驗分析

3.1分割評估數據庫

為驗證文中算法的分割性能,文中采用分割評估數據庫(SED)[16]進行實驗.該數據庫包含100幅彩色圖像及對應的標準分割結果,每幅圖像含有單一目標區域,且背景和目標亮度、紋理等特征都有所不同.

為評估分割質量,文中采用式(23)計算F值[17]來評估分割結果與標準分割結果的一致性.

(23)

式中:r1為查全率;r2為查準率;F為兩個指標的綜合,反映了算法的分割性能,F越大,分割質量越好.

3.2實驗參數設置

實驗參數設置如下:Gabor濾波器相位偏移ψ為0,空間縱橫比γ為1,波長?和標準差δ分別為4和3.度量邊緣、紋理相似性的閾值ε2和ε3需適當調整.ε2較小可使少數區域被合并而形成欠分割,ε2較大可能導致過分割.為得到較好的分割效果,文中ε2取為53.對于ε3,先用標準差求得圖像在8個方向上的紋理分布,標準差越大,紋理差異越大.實驗中當標準差大于0.32時,圖像的紋理差異明顯,為使紋理相似區域能合并,ε3取0.3;反之,當標準差小于0.32時,圖像平滑紋理差異不明顯,若ε3取值與前者一致,則可能使目標和背景融合導致過分割,此時ε3取0.2.

3.3分割結果

3.3.1圖像分割結果

對圖3(a)所示原圖進行圖像分割,原圖邊緣輪廓如圖3(b)所示.圖3(c)為Mean shift[13]預處理的結果.為完整地分割出目標區域,文中利用過分割區域構造鄰接圖,并迭代合并具有相似性的區域,迭代70和150次的結果分別如圖3(d)和3(e)所示,與圖3(c)相比,區域個數明顯減少,目標區域邊緣逐漸清晰,仍有需合并的區域;迭代合并300和325次的結果如圖3(f)和3(g)所示,圖中背景相似區域被合并,目標區域基本分割完成;最終的分割結果如圖3(h)所示,其目標邊緣輪廓與圖3(b)中顯著邊緣輪廓一致,說明文中算法能較好地實現對目標區域的完整分割.

圖3圖像分割結果

Fig.3Results of image segmentation

3.3.2紋理、邊緣對分割效果的影響

為驗證紋理、邊緣對分割效果的影響,采用文中算法從顏色、顏色+紋理、顏色+邊緣、顏色+紋理+邊緣4種情況對圖4(a)、5(a)進行分割實驗,結果如圖4和5所示.

圖4強紋理、弱邊緣分割結果

Fig.4Segmentation results of strong texture and weak contour

圖5弱紋理、強邊緣分割結果

Fig.5Segmentation results of weak texture and strong contour

由于圖4(a)的目標和背景顏色相似,若僅用顏色,則目標與背景融合,分割結果如圖4(c)所示;因原圖部分邊緣模糊(見圖4(b)),故未能分割出完整的邊緣(見圖4(e));引入紋理后,能較好地分割出目標區域(見圖4(d));顏色、紋理和邊緣的結合能獲得完整的邊緣,還能消除一些細小的區域(見圖4(f)).圖5(a)的目標和背景區域顏色相似且紋理差異較小,僅用顏色同樣使目標區域與背景融合(見圖5(c)),紋理的引入也不能獲得完整的邊緣輪廓(見圖5(d)).因圖5(b)的邊緣輪廓完整,故加入邊緣后圖5(e)、5(f)能完整地提取目標區域.

顏色、顏色+紋理、顏色+邊緣、顏色+紋理+邊緣的分割評估結果分別為0.611、0.665、0.693、0.784.可知,引入紋理和邊緣能提高文中算法的分割性能,顏色、紋理和邊緣的結合,可使目標區域輪廓完整,分割效果更優.

3.3.3分割結果評估與比較

(a)目標與背景有相似顏色及紋理情況下的分割結果

(b)目標與背景的顏色及紋理差異較大情況下的分割結果

(c)目標與背景的顏色相似、紋理不同情況下的分割結果

為評估算法的分割性能,文中利用式(23)計算F值對以上5種算法進行評估,文中算法、HIS[14]、EGS[10]、DRM[12]、Mean shift[13]的F值分別為0.784、0.781、0.602、0.460、0.440.由此可知,同其他的分割算法相比,文中算法有更好的分割性能.

4 結論

文中提出了一種基于圖的彩色圖像分割算法.該算法采用區域合并的方式,先用Mean shift預處理得到初始過分割區域,并利用這些區域構造鄰接圖;然后通過度量圖像在顏色、紋理和邊緣特征的相似性來構造區域合并條件.為了獲得較優的合并順序,文中采用查找最優合并成本的方式進行區域合并,以保持圖像的全局屬性.在SED數據庫上的實驗結果表明,與現有算法相比,文中算法具有更好的分割性能,在目標和背景區域顏色較相似的情況下,能較好地實現對目標區域的完整分割.

[1]楊震倫,閔華清,羅榮華.基于改進量子粒子群優化的多閾值圖像分割方法 [J].華南理工大學學報(自然科學版),2015,43(5):126-138.

YANG Zhen-lun,MIN Hua-qing,LUO Rong-hua.Multi-threshold image segmentation algorithm based on improved quantum-behaved particle swarm optimization [J].Journal of South China University of Technology(Natural Science Edition),2015,43(5):126-138.

[2]GONG Mao-guo,LIANG Yan,SHI Jiao,et al.Fuzzyc-means clustering with local information and kernel metric for image segmentation [J].IEEE Transactions on Image Processing,2013,22(2):573-584.

[3]周曉明,李釗,劉雄英.一種基于改進FCM的自動圖像分割 [J].華南理工大學學報(自然科學版),2014,42(3):1-7.

ZHOU Xiao-ming,LI Zhao,LIU Xiong-ying.An automatic image segmentation algorithm based on improved FCM [J].Journal of South China University of Technology(Natural Science Edition),2014,42(3):1-7.

[4]BO Peng,ZHANG L,ZHANG D.A survey of graph theoretical approaches to image segmentation [J].Pattern Recognition,2013,46(3):1020-1038.

[5]SHI J,MALIK J.Normalized cuts and image segmentation [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(8):888-905.

[6]LI Tai-yong,XIE Zhi-long,WU Jiang,et al.Interactive object extraction by merging regions withk-global maximal similarity [J].Neurocomputing,2013,120(23):610-623.

[7]TAN Xiao,SUN Chang-ming,SIRAULT X,et al.Stereo matching using cost volume watershed and region merging [J].Signal Processing:Image Communication,2014,29(10):1232-1244.

[8]ZAHN C T.Graph-theoretic methods for detecting and describing gestalt clusters [J].IEEE Transactions on Computers,1971,20(1):68-86.

[9]URQUHART R.Graph theoretical clustering based on limited neighborhood sets [J].Pattern Recognition,1982,15(2):173-187.

[10]FELZENSWALB P,HUTTENLOCHER D.Efficient graph-based image segmentation [J].International Journal of Computer Vision,2004,59(2):167-181.

[11]REZVANIFAR A,KHOSRAVIFARD M.Including the size of regions in image segmentation by region-based graph [J].IEEE Transactions on Image Processing,2014,23(2):635-644.

[12]BO Peng,ZHANG L,ZHANG D.Automatic image segmentation by dynamic region merging [J].IEEE Tran-sactions on Image Processing,2011,20(12):3592-3605.

[13]COMANICIU D,MEER P.Mean shift:a robust approach toward feature space analysis [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(5):603-619.

[14]ARBELAEZ P,MICHAEL M,FOWLKES C,et al.Contour detection and hierarchical image segmentation [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(5):898-916.

[15]FORGEL I,SAGI D.Gabor filters as texture discriminator [J].Biological Cybernetics,1989,61(2):103-113.

[16]ALPERT S,GALUN M,BASRI R.Image segmentation by probabilistic bottom-up aggregation and cue integration [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(2):315-327.

[17]HRIPCSAK G,ROTHSCHILD A S.Agreement,the F-measure,and reliability in information retrieval [J].Journal of the American Medical Informatics Association,2005,12(3):296-298.

s: Supported by the National Natural Science Foundation of China(61472145),the Natural Science Foundation of Guangdong Province(2016A030313472) and the Special funds for University-Industry Cooperation of Guangdong Province and the Ministry of Education of China(2013B090500015)

A Graph-Based Color Image Segmentation Algorithm

WOYanJINXuan

(School of Computer Science and Engineering, South China University of Technology, Guangzhou 510006, Guangdong, China)

In order to solve the over-segmentation problem in the image segmentation, a graph-based color image segmentation algorithm is proposed. In the algorithm, on the basis of the region-merging method, the over-segmentation regions are obtained by using Mean shift to preprocess an image, and for the over-segmentation regions, a region adjacency graph is constructed. Then, the color, texture and edge contour similarities between adjacency regions are measured to judge if adjacency regions need to be merged, until all the satisfactory regions are merged. Besides, the regions are merged by searching the optimal merging-cost, so as to preserve some global prosperity of the image. Experimental results indicate that the proposed algorithm can completely segment object regions even when the color features between background regions and object regions of an image are similar, and it has a better segmentation performance in comparison with four state-of-the-art segmentation algorithms.

image segmentation; Gabor filters; textures; edge; regional similarity

1000-565X(2016)09-0001-08

2015-11-15 20

國家自然科學基金資助項目(61472145);廣東省自然科學基金資助項目(2016A030313472);華南理工大學中央高?;究蒲袠I務費專項資金資助項目(2015ZZ031);廣東省-教育部產學研合作專項(2013B090500015)

沃焱(1975-),女,博士,教授,主要從事多媒體應用技術研究.E-mail:woyan@scut.edu.cn

TP 391.41

10.3969/j.issn.1000-565X.2016.09.001

猜你喜歡
區域差異
相似與差異
音樂探索(2022年2期)2022-05-30 21:01:37
永久基本農田集中區域“禁廢”
今日農業(2021年9期)2021-11-26 07:41:24
分割區域
找句子差異
DL/T 868—2014與NB/T 47014—2011主要差異比較與分析
生物為什么會有差異?
關于四色猜想
分區域
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
M1型、M2型巨噬細胞及腫瘤相關巨噬細胞中miR-146a表達的差異
主站蜘蛛池模板: 极品国产一区二区三区| 亚洲无码视频一区二区三区| 亚洲欧美另类日本| 亚洲天堂视频网站| 亚洲美女一级毛片| 亚洲色图欧美在线| 四虎永久在线| 又爽又黄又无遮挡网站| 日本伊人色综合网| 亚洲电影天堂在线国语对白| 久久精品国产亚洲麻豆| 无码视频国产精品一区二区| 久久久久国产精品嫩草影院| 国产黄色爱视频| 精品久久久无码专区中文字幕| 午夜国产精品视频| 久操中文在线| 亚洲午夜综合网| 在线观看亚洲天堂| 日韩成人在线视频| 丁香五月激情图片| 国产精品视频公开费视频| 91无码人妻精品一区| 亚洲va欧美ⅴa国产va影院| 蜜臀av性久久久久蜜臀aⅴ麻豆| 国产亚洲高清视频| 无码人妻热线精品视频| 久久国语对白| 亚洲日本中文字幕乱码中文 | 国产高清色视频免费看的网址| 福利国产在线| 久久国产精品麻豆系列| 在线观看国产一区二区三区99| 亚洲色图另类| 国产啪在线91| 国产男女免费视频| 99这里只有精品在线| 国产激情在线视频| 欧美日韩亚洲国产| 国产美女免费| 久久精品国产精品国产一区| 亚洲精品图区| 久久中文字幕av不卡一区二区| 欧美成人区| 青青青国产免费线在| 成人欧美日韩| 国产一区二区网站| 午夜日b视频| 狠狠色成人综合首页| 日韩在线观看网站| 精品超清无码视频在线观看| 天天干天天色综合网| 久久精品只有这里有| 中文字幕va| 日韩人妻少妇一区二区| 国产精品亚洲精品爽爽 | 91成人在线免费视频| 国产精鲁鲁网在线视频| 亚洲精品第一在线观看视频| 伊人久久婷婷五月综合97色| www欧美在线观看| 在线高清亚洲精品二区| 在线观看视频一区二区| 久久香蕉国产线看观看精品蕉| 欧美在线视频不卡| 911亚洲精品| 欧美国产在线一区| 欧美日韩激情在线| 亚洲成肉网| 91破解版在线亚洲| 五月婷婷亚洲综合| 亚洲中文无码h在线观看| 欧美啪啪精品| 欧美精品亚洲精品日韩专区va| 亚洲AV无码一二区三区在线播放| 91小视频版在线观看www| 一本大道香蕉中文日本不卡高清二区| 亚洲日本中文综合在线| 成人小视频在线观看免费| 国内毛片视频| 99国产精品一区二区| 九九热在线视频|