999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于區域非均勻空間采樣特征的圖像分類方法

2014-11-18 03:15:50嵇朋朋閆勝業劉青山
電子與信息學報 2014年11期
關鍵詞:分類特征區域

嵇朋朋 閆勝業 李 林 劉青山

(南京信息工程大學信息與控制學院 南京 210044)

1 引言

詞袋(Bag-of-Words, BoW)表示模型[17]-在圖像分類[814]-中已經得到非常廣泛的應用。一般地,BoW表示模型包括4個關鍵部分:局部特征抽取、生成詞典、特征編碼、特征聚合。(1)局部特征抽取。典型的局部特征有哈爾特征、尺度不變特征轉換(Scale-Invariant Feature Transform, SIFT)特征、梯度方向直方圖(HOG)特征等等。文獻[1]提出只對興趣點進行局部特征采樣。在文獻[8]中,對一幅圖像所有位置進行空間均勻密集采樣[25]-,從而大大提高了分類精度。另外,文獻[12]用仿射 SIFT 特征處理手勢和視覺點的變化。文獻[13]基于SIFT特征的局部組合提出了中間層特征。(2)生成詞典。通常用K平均(K-means)算法或K近鄰(K-NN)算法對局部特征進行聚類生成詞典。為了得到更精確的詞典,文獻[15]提出基于稀疏表示的監督詞典學習方法。文獻[16]利用在線魯棒學習的方法建立詞典。文獻[2]提出用稀疏編碼進行詞典學習以及向量量化。(3)特征編碼。特征編碼有3種方式:(a)二元編碼硬關聯[1],局部特征只投票給與其最近的一個中心點,只能近似編碼,容易產生誤差。(b)多元編碼軟關聯[17],允許局部特征投票給多個中心點,這能夠保存更多的信息,得到比二元編碼更好的執行效果。(c)基于編碼的特征重建:文獻[2]提出用稀疏編碼對局部特征進行重建,局部特征和學習得到的詞典的相關程度是用稀疏編碼的重建系數控制。(4)特征聚合。經典的聚合操作有最大聚合(max pooling)和平均聚合(average pooling),即保留所有響應的最大值或平均值。文獻[18]陳述相鄰局部聚合操作能夠有效地處理更長的詞典。文獻[19]提出幾何聚合,即在不同幾何位置賦予不同權重。為了引入空間信息,空間金字塔匹配(Spatial Pyramid Matching, SPM)[20]被廣泛地應用到圖像分類中。文獻[21]把重疊空間區域加入到原始空間金字塔的非重疊網格,從而能抓住更多的空間信息。最近,VOC 2007[22]的獲勝者使用一種新的空間金字塔層倍受幾個最新方法的關注[2325]-。文獻[26]用扇形聚合取代傳統空間金字塔中的矩形區域聚合。

局部特征抽取是詞袋表示模型的基礎,局部特征抽取方式可以分為兩類:一類是基于興趣點檢測,另一類是空間均勻密集采樣方式。早期的方法主要是基于興趣點檢測的方法[1],興趣點檢測算法通過特征描述子來選擇比較明顯的像素點、邊緣、角點、區塊等,最常用的興趣點檢測算子有Harris角點檢測算子,FAST 算子,LoG, DoG等。近年來,使用最多的則是空間均勻密集采樣的特征抽取方式[25]-。其主要思想是從圖像中按固定的步長、尺度抽取出大量的局部特征,如:SIFT, HOG, LBP等。大量實驗證明空間均勻密集采樣方式可以得到比興趣點檢測更好的性能。

空間均勻密集采樣是通過控制X方向步長和Y方向步長方法來實現的,得到的局部特征是均勻地散布在整幅圖像上。因此,空間均勻密集采樣抽取的局部特征不僅冗余度高,而且往往只是概括了一幅圖像的大概內容。一般來說,要得到更好的分類精度,就需要更密集的采樣,從而抽取更多的局部特征,但計算復雜度也會隨之上升,并會加入大量的噪聲信息。然而,具有固定步長均勻采樣并不能完全抓住位于目標物體的邊緣或角點,必然會錯失一些重要的局部細節。在一幅圖像中,目標物體的邊緣、輪廓等信息都更具有判別和描述力,如圖3(b)所示。因此,圖像中物體邊緣、顯著區域更應該得到關注。在自然場景分類中,采用稀疏編碼對特征進行信號重建,它關注的是具有代表性的特征,對圖像來說,最具代表性的特征往往都在邊界周圍,因此區域內部并不需要稠密采樣。根據這一思想,本文提出一種新的非均勻空間采樣策略,即在保持抽取的局部特征個數以及計算復雜度不變的情況下,與空間均勻密集采樣方式得到的局部特征的分類性能作比較。在本文中,先過分割圖像得到若干個分割區域,然后使用顯著性檢測技術估計每個過分割區域的重要性。在不增加局部特征個數的情況下,在分割邊界根據區域的重要性實行密集均勻采樣,并在區域內部根據區域大小以及重要性實行隨機采樣。這樣在分割邊界上密集均勻抽取的局部特征在某種程度上被認為是表示形狀信息。而在分割區域內部隨機采樣抽取的局部特征被看作是表示紋理信息。通過基于區域非均勻空間采樣策略,能夠很好地抓住圖像中目標物體的邊緣、輪廓區域的重要信息,并通過顯著性檢測技術降低特征冗余度,減弱背景噪聲對物體分類系統的影響,從而得到比空間均勻密集采樣更好的分類效果。在兩個廣泛應用的數據庫(UIUC Sports和Caltech-256)上對基于區域非均勻空間采樣策略進行實驗驗證。

本文方法完全獨立于詞典學習、特征編碼、特征聚合部分,有很強的可移植性。本文結構安排如下。第2節內容是基于區域的非均勻空間采樣方法,主要包括顯著性區域分割邊界密集均勻采樣和分割區域內部隨機采樣兩個部分;第3節實驗給出了不同方法以及不同參數下,在兩個圖像分類通用數據庫上的實驗結果的對比;第4節總結全文。

2 基于區域非均勻空間采樣

圖1 給出了基于區域非均勻空間采樣特征抽取工作的流程圖。如圖1中的虛線框所示,主要包括過分割圖像、顯著性區域檢測以及局部特征采樣等環節。特征采樣主要包括在分割邊界密集均勻采樣以及分割區域內部隨機采樣兩個部分。

圖1 BoW表示模型的特征抽取框架

2.1圖像過分割

理想情況下,如果能夠準確地從圖像中分割出語義目標物體,就可以很容易地得到這幅圖像屬于哪一類。然而,迄今為止,語義目標物體的分割在圖像處理領域中仍然是很開放的問題,沒有一個統一有效的解決方案。但是,相比于基于像素的圖像分析,基于區域的圖像分析方法變得更為流行,因為區域通常包含一些中間語義特征。如圖1中圖像分割所示,首先用圖像分割算法將一幅圖像分割成若干個區域。本文采用最常用的正則化分割算法[27]。對樣本圖像進行的過分割效果如圖2所示,圖2(a)是包含不同目標物體的原始圖像,圖 2(b)給出相應圖像的分割區域以及每個區域的分割邊界。圖 2(c)是顯示分割邊界的二元視圖。從圖2中,能夠清晰地觀察到目標物體的輪廓外形。

2.2顯著性區域檢測

在過分割得到若干個分割區域之后,用顯著性檢測算法估計每個分割區域的重要性。本文采用自底向上的貝葉斯顯著性模型[28]來估計圖像中每個像素v的后驗概率,如式(1)所示。

先驗概率分布是通過超像素聚類(cluster)組合和粗略顯著性區域(hull)兩個部分計算得到的。其中,超像素聚類組合是對超像素聚類到若干個子空間的聚類過程。本文中,用過分割算法將圖像分割成N個超像素(分割區域),亦可以把N個超像素看作是來自n個子空間數據點的集合。接著利用稀疏子空間聚類算法將N個超像素聚類成n個子空間組合。粗略顯著性區域是根據檢測突出點計算得到近似顯著性區域。每個超像素聚類中包含多少像素屬于粗略顯著性區域,其顯著性的先驗概率為

圖2 對Caltech-101/256 數據庫中樣本圖片進行過分割及顯著性檢測

其中,C表示一個超像素聚類組合,H表示粗略顯著性區域包含的顯著點個數,表示集合中所包含的元素總數。若超像素聚類和粗略顯著性區域沒有重疊,則先驗概率就為0。

像素的觀測似然函數是由像素的顏色分布計算得到,給定帶有興趣點的粗略顯著性區域,便可以計算出每個像素的顯著性概率。粗略顯著性區域把圖像分割成兩個部分:前景區域obj和背景區域bkg。單一像素的顯著性則用其顏色直方圖(CIELab顏色空間)與粗略顯著性區域像素的相似程度來估計得到,每個像素v的特征表示為[(),l v。每個像素v的觀測似然函數則為

2.3 非均勻空間采樣

對圖像進行過分割之后,便可得到N個分割區域及相應的分割邊界。對每條分割區域的邊界來說,都可能接近目標物體的外形或者輪廓。因此,在目標物體邊界周圍的像素對描述圖像來說非常重要,并且這些像素都將轉換為具有很好判別力的特征描述子。如圖 3(a)所示,傳統的利用具有固定步長的空間均勻密集采樣方式,并不能完全抓住位于區域邊界或目標輪廓周圍的每一個突出點,除非把采樣步長設置為1個像素。為了解決這個問題,本文提出非均勻空間采樣在分割邊界周圍密集均勻地抽取局部特征,在分割區域內部根據分割區域大小及其重要性抽取局部特征。非均勻空間采樣的方法如圖3(c), 3(d)所示,只在分割邊界及顯著性區域內實施采樣,其他區域內不采樣。與圖 3(a)相比,可以得到位于邊界周圍的像素分布,邊界采樣點如圖3(c),3(d)中細十字所示。與此同時,在顯著性區域內部隨機采樣抽取局部特征,采樣點如圖3(c), 3(d)中粗十字所示。圖3(b)已經給出在分割邊界采樣特征與均勻采樣的不同之處。

為了更好地理解基于區域非均勻空間采樣和形狀信息的相關程度,本文給出了邊界周圍采樣以及分割區域內部隨機采樣提取的特征數目的分析。如圖3所示的圖像,圖像大小是300200×像素。對于空間均勻密集采樣方法,如果要對每個像素都采樣,就會提取出60000個局部特征。對于基于區域的非均勻空間采樣策略,特征個數的分析如表1所示,本文以20, 40, 60, 80以及100過分割數目為例,那么在邊界周圍提取的局部特征數目相應為713, 848,985, 1117和1175,如表1第2行所示。考慮到采樣數目要與空間均勻密集采樣數目一致,而空間均勻密集采樣數目是受 X方向步長和 Y方向步長控制的。在本文實驗中,采樣步長設置為6個像素,這樣非均勻空間采樣及空間均勻密集采樣所提取的局部特征個數分別為 1667(60000/6 1667= )。因此,在分割區域內部隨機采樣的特征個數fN分別為954,819, 682, 550, 492,如表1第3行所示。

圖3 空間采樣策略示意圖

表1 非均勻特征采樣數目分布

然而,在非均勻空間采樣+顯著性檢測方法中,在顯著性分割區域內部隨機采樣的個數,顯著性分割區域內部所含像素個數以及分割區域顯著性均值來決定,即

在抽取分割邊界上局部特征的同時,用分割區域內部隨機抽取的特征作為補充。對分割邊界及區域內部進行非均勻采樣的原因,主要是邊界上的突出點包含更有價值的信息,而區域內部提取的局部特征是描述紋理信息。然而,通過邊界檢測得到的邊界點或通過興趣點檢測得到興趣點僅僅聚焦一個特征,即都是由幾個相鄰像素反映出來(例如拐角或者分界線)。然而,利用超像素原理的圖像分割技術得到的區域邊界,能夠更好地抓住目標層次的特征信息。另外,視覺認知研究表現,背景或者噪聲通常都是雜亂的,而顯著性目標通常都是相對于雜亂的背景或噪聲而言的,在顏色、亮度等視覺特征方面都存在較大的對比度。顯著性模型就是基于這一視覺認知研究,檢測圖像中有別于雜亂背景或者噪聲的典型關鍵區域,避免背景或噪聲區域對進一步分析的影響。

3 實驗

在本節,對基于區域非均勻空間采樣方法進行評估,在UIUC Sports[29], Caltech-256[2]數據庫中進行實驗。在相同實驗設置下,比較非均勻采樣、空間均勻密集采樣和非均勻采樣+顯著性區域檢測 3個采樣方法的實驗結果。

3.1 實驗設置

在數據庫UIUC Sports和Caltech-256上,為了方便和其他工作比較,先把原始的彩色圖像轉化為灰度范圍的圖像。把UIUC Sports中圖像壓縮到不大于400400×像素大小,把Caltech-256中圖像分別壓縮到不大于300300×像素大小。

本文以文獻[2]系統框架作為參考基準,對BoW特征表示實驗設置如下:

(1)局部特征提取:SIFT[8]特征是常用局部特征之一。提取SIFT特征的塊大小是1616×像素,通過特征提取即可得到128維的特征向量。在分割邊界上及區域內部提取 SIFT特征的步長均設置為 6個像素。

(3)特征聚合:最大聚合是空間金字塔中最常用,也是最有效的聚合方法。兩個數據庫中均采用3層的空間金字塔,即。最后表示圖像特征維度為字典長度102421×,即經過特征聚合之后的特征維度為21504。

(4)分類器:將聚合之后的圖像特征表示送入線性支持向量機(SVM)分類器中。

3.2 UIUC Sports數據庫

在UIUC Sports數據庫中有8類體育項目:羽毛球、室外滾球、滑雪板、攀巖、槌球、賽艇、馬球以及帆船。這個數據庫總共包括 1579 張圖像,并且圖像平均大小為12001000×像素。對于數據庫中圖像,最少的一類有137張圖像,最多的一類250張圖像。對于每張圖像,都包含一名或者多名運動員。本文按照文獻[29]的實驗設置,隨機地選取 70張圖像作為訓練圖像,隨機地選取60張圖像作為測試圖像。

如表2所示,在UIUC Sports數據庫上,非均勻空間采樣方法中分割區域數目為20,得到的分類精度為86.40%。隨著分割區域數目的增加,在分割區域數目為100時,得到的分類精度為88.19%。顯然,非均勻空間采樣方法得到的分類精度也在不斷地上升。結合表1中數據可得,隨著分割區域數目增大,提取邊界周圍 SIFT點的個數就越多,從而得到更多的分割邊界位置的圖像信息。這意味著,在邊界上提取局部特征越多,就越可以獲得圖像上的重要信息,并最終得到較好的分類結果。結合表3可知,當非均勻空間采樣方法中分割區域數目為20,相應的分類精度為86.40%,基本可以達到空間均勻密集采樣的實驗分類效果。分割區域數目為60,得到的分類精度是87.29%,與空間均勻密集采樣相比,分類精度提高了 0.21%,已經進入最好的分類結果行列。分割區域數目為 100,得到的分類精度是88.19%,與空間均勻密集采樣相比,分類精度提高了 1.11%。空間均勻密集采樣方法已經證實有較好的實驗結果,然而,加入顯著性區域檢測的非均勻空間采樣方法,在采樣的策略上更能抓住圖像中的目標信息,減少冗余信息。結合表3可知,當非均勻空間采樣+顯著性檢測采樣方法中分割區域數目為20,相應的分類精度為86.87%,雖然空間均勻密集采樣的實驗結果低一點,但是與分割數目20的非均勻空間采樣的結果相比,分類精度提高了0.47%。隨著分割數目的增加,也就是邊界采樣點數的增加,分類精度也在不斷地增加。當分割區域數目為100時,得到的分類精度是89.13%,與空間均勻密集采樣相比,分類精度提高了 2.05%,比表 3中最好的結果[29]還高出 1.90%。如圖 4所示,給出非均勻空間采樣+顯著性檢測采樣方法中分割區域數目為100的分類結果混淆矩陣。在混淆矩陣中,每一行代表模型的測試值;每一列代表每一類所對應的真實值。從混淆矩陣中可以看出,有4類分類精度是高于90%,說明這些圖片的輪廓比較容易獲取,因此驗證實驗中能夠獲得更多的邊界突出信息。

表2 各數據庫上分割區域數目對應的分類精度(%)

通過實驗證明,在UIUC Sports數據庫上,非均勻空間采樣+顯著性檢測采樣方法可以得到有競爭力的實驗結果。這樣的結果可能證實,本文所提出的采樣方法能很好地抓住圖像的形狀信息,減少對背景信息的過度采樣。

表3 UIUC Sports 數據庫上(訓練數目70,測試數目60)與其他方法的分類精度比較(%)

圖4 UIUC sports 分類精度為89.13%時的混合矩陣

3.3 Caltech-256數據庫

Caltech-256數據庫總共包含29780張圖像,256類目標物體,其物體種類更多,數據更豐富復雜。每類至少包括80張圖像,且每張圖像的大小基本都是300300×像素。跟文獻[2]中保持一致,每類隨機取30和60張圖像作為訓練,剩余的圖像作為測試。

如表2所示,在Caltech-256數據庫上,我們對非均勻空間采樣以及非均勻空間采樣+顯著性檢測得到的實驗室結果進行了評估。結合表 4,在非均勻空間采樣方法中,訓練樣本為30及60時,分割區域數目為 20,相應的分類精度分別為 35.37%和41.43%,已經達到與空間均勻密集采樣相競爭的實驗結果。當分割區域數目為 100,得到的分類精度分別為 37.21%和 42.63%,與空間均勻密集采樣相比,分別提高了 0.75%和 0.63%。然而,非均勻空間采樣+顯著性檢測中,當分割數目為 100時,分類精度分別為 37.94%和 43.31%,與非均勻空間采樣相比,分類精度也有明顯的提高。這說明非均勻空間采樣+顯著性檢測,能很好地減少噪聲的影響。實驗證明,非均勻空間采樣方法,比傳統的空間均勻密集采樣更能獲得圖像的重要信息,并能夠得到有競爭力的分類結果。

表4 Caltech-256數據庫上與其他方法的分類精度比較(%)

4 結束語

為了能夠更好地提取圖像中的局部稠密特征,本文提出了非均勻空間采樣策略,先對自然圖像進行過分割,得到分割邊界圖譜以及若干個區域。然后,用顯著性檢測技術估計每個分割區域的重要性,根據重要性大小分別在分割邊界密集均勻地抽取局部特征以及在分割區域內隨機地抽取局部特征。在特征總數不變的情況下,實驗結果證明本文提出的基于區域的非均勻稠密局部特征能有效地提高圖像分類性能。

[1] Csurka G, Dance C, Fan L, et al.. Visual categorization with bags of keypoints[C]. Computer Vision-ECCV 2004, 8th European Conference on Computer Vision, Prague, Czech Republic, 2004: 1-22.

[2] Yang Jian-chao, Yu Kai, Gong Yi-hong, et al.. Linear spatial pyramid matching using sparse coding for image classification[C]. 2009 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2009),Miami, Florida, USA, 2009: 1794-1801.

[3] Wang Jin-jun, Yang Jian-chao, Yu Kai, et al.. Localityconstrained linear coding for image classification[C]. 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2010), San Francisco, CA, USA, 2010:3360-3367.

[4] Grauman K and Darrell T. The pyramid match kernel:discriminative classification with sets of image features[C].10th IEEE International Conference on Computer Vision(ICCV 2005), Beijing, China, 2005: 1458-1465.

[5] Zhang E and Mayo M. Improving bag-of-words model with spatial information[C]. 25th International Conference of Image and Vision Computing New Zealand (IVCNZ 2010),Queenstown, New Zealand, 2010: 1-8.

[6] Chandra S, Kumar S, and Jawahar C V. Learning hierarchical bag of words using naive bayes clustering[C].11th Asian Conference on Computer Vision (ACCV 2012),Daejeon, Korea, 2012: 382-395.

[7] Khan R, Barat C, Muselet D, et al.. Spatial orientations of visual word pairs to improve Bag-of-Visual-Words model[C].British Machine Vision Conference(BMVC 2012), Surrey,UK, 2012: 89.1-89.11.

[8] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004,60(2): 91-110.

[9] Yan Sheng-ye, Xu Xin-xing, Xu Dong, et al.. Beyond spatial pyramids: a new feature extraction framework with dense spatial sampling for image classification[C]. Computer Vision-ECCV 2012, 12th European Conference on Computer Vision, Florence, Italy, 2012: 473-487.

[10] Jia Yang-qing, Huang Chang, and Darrell T. Beyond spatial pyramids: receptive field learning for pooled image features[C]. 2012 IEEE Conference on Computer Vision and Pattern recognition (CVPR 2012), Providence, RI, USA,2012: 3370-3377.

[11] Sinha A, Banerji S, and Liu Cheng-jun. Gabor-Based novel local, shape and color features for image classification[C].19th International Conference on Neural Information Processing (ICONIP 2012), Doha, Qatar, 2012: 299-306.

[12] Kulkarni N and Li Baoxin. Discriminative affine sparse codes for image classification[C]. 2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2011),Colorado Springs, CO, USA, 2011: 1609-1616.

[13] Boureau Y L, Bach F, LeCun Y, et al.. Learning mid-level features for recognition[C]. 2010 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2010),San Francisco, CA, USA, 2010: 2559-2566.

[14] Shaban A, Rabiee H R, Farajtabar M, et al.. From local similarity to global coding: an application to image classification[C]. 2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2013), Portland, OR, USA,2013: 2794-2801.

[15] Mairal J, Bach F, Ponce J, et al.. Supervised dictionary learning[C]. 22nd Annual Conference on Neural Information Processing Systems (NIPS 2008), Vancouver, British Columbia, Canada, 2008, 1033-1040.

[16] Lu Ce-wu, Shi Jia-ping, and Jia Jia-ya. Online robust dictionary learning[C]. 2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2013), Portland, OR,USA, 2013: 1-8.

[17] Van Gemert J C, Geusebroek J M, Veenman C J, et al..Kernel codebooks for scene categorization[C]. Computer Vision - ECCV 2008,10th European Conference on Computer Vision, Marseille, France, 2008: 696-709.

[18] Boureau Y L, Le Roux N, Bach F, et al.. Ask the locals:multi-way local pooling for image recognition[C]. IEEE 13th International Conference on Computer Vision (ICCV 2011),Barcelona, Spain, 2011: 2651-2658.

[19] Feng Jia-shi, Ni Bing-bing, Tian Qi, et al.. Geometric pnorm feature pooling for image classification[C]. 2011 IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2011), Colorado Springs, CO, USA, 2011: 2609-2704.

[20] Lazebnik S, Schmid C, and Ponce J. Beyond bags of features:Spatial pyramid matching for recognizing natural scene categories[C]. 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2006),New York, NY, USA, 2006: 2169-2178.

[21] Wu Jian-xin and Rehg J M. Beyond the euclidean distance:creating effective visual codebooks using the histogram intersection kernel[C]. IEEE 12th International Conference on Computer Vision (ICCV 2009), Kyoto, Japan, 2009:630-637.

[22] Marszalek M, Schmid C, Harzallah H, et al.. Learning object representations for visual object class recognition[C]. 11th IEEE International Conference on Computer Vision (ICCV 2007), Rio de Janeiro, Brazil, 2007: 1-8.

[23] Sharma G, Jurie F, and Schmid C. Discriminative spatial saliency for image classification[C]. 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2012),Providence, RI, USA, 2012: 3506-3513.

[24] Wu Zi-feng, Huang Yong-zhen, Wang Liang, et al.. Group encoding of local features in image classification[C]. 21st International Conference on Pattern Recognition (ICPR 2012), Tsukuba, Japan , 2012: 1505-1508.

[25] Malinowski M and Fritz M. Learnable pooling regions for image classification[C]. International Conference on Learning Representations (ICLR 2013), Scottsdale, Arizona, USA,2013: 1-10.

[26] Wang Xing-gang, Bai Xiang, Liu Wen-yu, et al.. Feature context for image classification and object detection[C]. 2011 IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2011), Colorado Springs, CO, USA, 2011:961-968.

[27] Ladicky L, Russell C, Kohli P, et al.. Graph cut based inference with co-occurrence statistics[C]. Computer Vision -ECCV 2010, 11th European Conference on Computer Vision,Heraklion, Crete, Greece, 2010: 239-253.

[28] Xie Yu-lin, Lu Hu-chuan, and Yang Ming-Hsuan. Bayesian saliency via low and mid level cues[C]. 2013 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2013),Portland, OR, USA, 2013: 1689-1698.

[29] Shabou A and LeBorgne H. Locality-constrained and spatially regularized coding for scene categorization[C]. 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2012), Providence, RI, USA, 2012:3618-3625.

[30] Gao Sheng-hua, Tsang I W, Chia Liang-tien, et al.. Local features are not lonely–Laplacian sparse coding for image classification[C]. 2010 IEEE Conference on Computer Vision and Pattern Recognition(CVPR 2010), San Francisco, CA,USA, 2010: 3555-3561.

[31] Zhang Chun-jie, Liu Jing , Tian Qi, et al.. Image classification by non-negative sparse coding, low-rank and sparse decomposition[C]. 2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2011), Colorado Springs, CO, USA, 2011: 1673-1680.

[32] Griffin G, Holub A, and Perona P. Caltech-256 object category dataset[R]. California Institute of Technology, USA,2007.

猜你喜歡
分類特征區域
分類算一算
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
抓住特征巧觀察
關于四色猜想
分區域
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: 国产福利小视频在线播放观看| 国产一级二级三级毛片| 欧洲极品无码一区二区三区| 久久精品91麻豆| 欧美精品啪啪一区二区三区| 国产在线欧美| 国产乱子伦视频三区| 亚洲an第二区国产精品| av午夜福利一片免费看| 色视频国产| 亚洲欧美激情小说另类| 国产精品白浆在线播放| 99久久免费精品特色大片| 国产一级小视频| 国产精品人成在线播放| 国产产在线精品亚洲aavv| 亚洲无限乱码| 国产欧美在线| 91精品专区| 日韩av手机在线| 亚洲精品成人福利在线电影| 国产精品区视频中文字幕| 99视频在线看| 亚洲精品午夜天堂网页| 国产JIZzJIzz视频全部免费| 五月婷婷综合在线视频| 无码中文字幕精品推荐| 欧美综合中文字幕久久| 四虎成人精品在永久免费| 久久精品视频亚洲| 色综合婷婷| 日韩美毛片| 欧美激情,国产精品| 特黄日韩免费一区二区三区| 免费国产不卡午夜福在线观看| 中文字幕在线欧美| 国产SUV精品一区二区6| 红杏AV在线无码| 亚洲国产中文在线二区三区免| 日韩 欧美 国产 精品 综合| 亚洲成人黄色网址| 久久成人18免费| 一级毛片无毒不卡直接观看| 一级一级特黄女人精品毛片| 免费国产好深啊好涨好硬视频| 在线免费观看AV| 国产极品美女在线观看| 伦精品一区二区三区视频| 亚洲天堂777| 日韩在线视频网| 亚洲精品国产精品乱码不卞| 久青草网站| 麻豆精品在线视频| 亚洲天堂区| 日韩资源站| 亚洲人成网站18禁动漫无码| 国产色网站| 精品国产自在现线看久久| 午夜精品福利影院| 国产成人综合亚洲网址| 国产精品原创不卡在线| 国产精品手机在线播放| www精品久久| 天天操精品| 亚洲日韩高清无码| 中文字幕av一区二区三区欲色| 欧美黄网站免费观看| 999精品在线视频| 国产黄网站在线观看| 人妻丰满熟妇av五码区| 在线看片中文字幕| 在线观看精品国产入口| 国产激爽大片高清在线观看| 久久男人资源站| 狠狠色噜噜狠狠狠狠色综合久| 亚洲日韩图片专区第1页| 免费国产小视频在线观看| 久久久久九九精品影院| 欧美区一区| 国产精品无码AⅤ在线观看播放| 国产黄色片在线看| 波多野结衣国产精品|