999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合深度及邊界信息的圖像目標(biāo)識(shí)別

2017-04-24 10:24:59原彧鑫周向東
關(guān)鍵詞:深度特征區(qū)域

原彧鑫 周向東

(復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院 上海 200433)

融合深度及邊界信息的圖像目標(biāo)識(shí)別

原彧鑫 周向東

(復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院 上海 200433)

為精確定位候選目標(biāo),提高目標(biāo)識(shí)別效果,提出一種融合圖像邊界信息和深度信息的目標(biāo)識(shí)別方法,該方法可以產(chǎn)生數(shù)量更少、定位更準(zhǔn)確的圖像候選目標(biāo)。然后提取深度學(xué)習(xí)特征,通過(guò)支持向量機(jī)分類模型,實(shí)現(xiàn)目標(biāo)識(shí)別。在兩個(gè)常用數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn)顯示,與Baseline和選擇性搜索等方法相比,該方法顯著地提高了目標(biāo)識(shí)別的性能。

目標(biāo)識(shí)別 區(qū)域融合 深度信息 深度學(xué)習(xí) 支持向量機(jī)

0 引 言

目標(biāo)識(shí)別技術(shù)在安全監(jiān)控、人機(jī)交互、醫(yī)學(xué)、國(guó)防及公共安全領(lǐng)域具有十分重要的應(yīng)用價(jià)值和發(fā)展前景。圖像目標(biāo)識(shí)別,旨在從二維圖像或視頻中精準(zhǔn)地定位目標(biāo)對(duì)象的位置,并自動(dòng)賦予類別標(biāo)簽。

目標(biāo)識(shí)別的過(guò)程主要包括提取候選目標(biāo)和對(duì)目標(biāo)進(jìn)行分類。其中,如何準(zhǔn)確地定位目標(biāo)物體是目標(biāo)識(shí)別技術(shù)的重要組成部分。基于梯度方向直方圖(HOG)的行人檢測(cè)[1]以及基于形變部件模型(DPM)[2]的目標(biāo)檢測(cè)都采用了滑動(dòng)窗口檢測(cè)方式,其本質(zhì)是通過(guò)窮舉檢索提取候選集。但滑動(dòng)窗口方法產(chǎn)生的候選目標(biāo)集過(guò)大,影響目標(biāo)識(shí)別的效率和性能。特別是目前最受關(guān)注的深度學(xué)習(xí)特征的提取往往具有較大的時(shí)間開(kāi)銷,因此,利用深度特征的目標(biāo)識(shí)別更進(jìn)一步要求目標(biāo)候選區(qū)域的選取更加精簡(jiǎn)、準(zhǔn)確。

“選擇性搜索”[3]縮減了候選目標(biāo)集的大小,取得了較好的目標(biāo)定位效果,但目標(biāo)區(qū)域的選取依然不夠準(zhǔn)確,會(huì)產(chǎn)生較多的錯(cuò)誤檢測(cè)。為此,文獻(xiàn)[4]首先通過(guò)一次粗糙的分割得到候選目標(biāo)集,然后對(duì)這些候選集上的檢測(cè)結(jié)果使用監(jiān)督下降方法進(jìn)行一次自上而下的搜索,進(jìn)而獲得更準(zhǔn)確的目標(biāo)定位;而文獻(xiàn)[5]使用貝葉斯優(yōu)化調(diào)整選擇性搜索方法得到的候選集的位置,得到更準(zhǔn)確的候選集。然而,上述方法仍然是根據(jù)圖像外觀特征,對(duì)原始候選集進(jìn)行位置調(diào)整,忽略了圖像是3D世界的二維投影等問(wèn)題。圖像蘊(yùn)含的3D信息,可以幫助我們進(jìn)行更加準(zhǔn)確的目標(biāo)定位與識(shí)別。

本文在發(fā)掘圖像蘊(yùn)含的3D信息的基礎(chǔ)上提出了一種新目標(biāo)識(shí)別方法,即首先基于“超像素”融合的思想,根據(jù)圖像邊界信息和深度信息以及傳統(tǒng)的顏色、紋理特征,對(duì)“超像素”進(jìn)行更準(zhǔn)確的融合,產(chǎn)生候選目標(biāo)集。為了避免或消除圖像的“過(guò)分割”狀態(tài),本文方法利用顏色、紋理特征進(jìn)行二次融合。然后,提取深度特征并訓(xùn)練支持向量機(jī)分類模型。在PASCAL VOC及ImageNet數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,本文方法產(chǎn)生的候選目標(biāo)數(shù)量遠(yuǎn)少于選擇性搜索方法,而且獲得了更好的目標(biāo)定位效果,在整體上較為明顯地提升了目標(biāo)識(shí)別的性能。

1 相關(guān)工作

在圖像中直接搜索目標(biāo)物體的方法是窮舉搜索。雖然窮舉搜索可以很好地找到目標(biāo)的位置,但隨著圖像數(shù)量及圖像分辨率地提升,其候選窗口的數(shù)量將成倍地增加,如此一來(lái)窮舉搜索的計(jì)算代價(jià)十分巨大并且非常低效。因此,如果能過(guò)濾掉一些無(wú)用的候選區(qū)域,不但能提升識(shí)別速度,而且對(duì)分類準(zhǔn)確率也會(huì)產(chǎn)生積極的影響。

因此,早期的目標(biāo)識(shí)別研究采用規(guī)則網(wǎng)格、固定尺寸和固定長(zhǎng)寬比的滑動(dòng)窗口來(lái)減少搜索空間,但候選集的質(zhì)量會(huì)差很多。為此,文獻(xiàn)[6]提出用多尺度掃描窗口對(duì)圖像進(jìn)行搜索,提出候選目標(biāo),但該方法搜索空間依然很大。

雖然滑動(dòng)窗口效果較好,但其計(jì)算量大、速度慢,并且沒(méi)有考慮圖像本身所包含的信息。因此,根據(jù)圖像的信息,將圖像分割成有意義的若干個(gè)連通區(qū)域,各個(gè)區(qū)域有其獨(dú)特的性質(zhì),然后從中提取出感興趣的目標(biāo)區(qū)域,這就是基于圖像分割進(jìn)行目標(biāo)提取的基本思路。但是,如何定義圖像區(qū)域間的邊界卻是一個(gè)十分復(fù)雜的問(wèn)題。通常的算法[7-10]都是依賴于圖像的亮度、灰度、顏色、紋理等特征的相似性將圖像像素聚類成多個(gè)區(qū)域,各個(gè)區(qū)域內(nèi)部有其特定的一致性,區(qū)域之間卻存在著一定的差異性。例如,文獻(xiàn)[10]提出的一種基于圖表示的圖像分割方法,使用RGB顏色的距離來(lái)衡量?jī)牲c(diǎn)的相似性,并建立了一個(gè)自適應(yīng)閾值的算法來(lái)確定相鄰區(qū)域是否合并。該算法實(shí)現(xiàn)簡(jiǎn)單,速度較快,但是容易產(chǎn)生過(guò)分割,所以一般不直接將其作為分割結(jié)果,而需進(jìn)一步處理。

基于分割的目標(biāo)提取方法,使用圖像自身的特征、結(jié)構(gòu)來(lái)指導(dǎo)分割過(guò)程,盡可能地將目標(biāo)區(qū)域分割出來(lái),但分割結(jié)果往往表現(xiàn)為過(guò)分割或欠分割,無(wú)法對(duì)應(yīng)到真實(shí)的目標(biāo)區(qū)域,造成分割不夠精確。受到從細(xì)節(jié)到整體的分割方式的啟發(fā),文獻(xiàn)[3]綜合了分割與窮舉檢索的思想,提出了選擇性搜索的方法。該方法大幅降低候選目標(biāo)數(shù)量,提高了程序效率:先利用文獻(xiàn)[10]提出的分割算法生成初始的候選目標(biāo)區(qū)域位置;同時(shí)結(jié)合窮舉檢索,將初始分割得到的目標(biāo)區(qū)域不斷融合,盡可能地獲得候選目標(biāo)的位置。而且,該方法與目標(biāo)類別無(wú)關(guān),僅與圖像自身有關(guān)。

2 融合3D信息的圖像目標(biāo)識(shí)別

在圖像目標(biāo)提取方法中,選擇性搜索方法速度快、效果較好,近幾年在目標(biāo)識(shí)別領(lǐng)域被廣泛應(yīng)用。但是,實(shí)際圖像中的物體是3D世界中的實(shí)體的投影,僅僅通過(guò)顏色、尺寸、紋理等圖像外觀特征往往難以很好地劃分目標(biāo)區(qū)域。因此,本文提出利用3D信息,如通過(guò)引入邊界及深度信息,在區(qū)域融合時(shí),使區(qū)域的優(yōu)先融合更符合目標(biāo)的真實(shí)情況,產(chǎn)生更高質(zhì)量的候選目標(biāo)集。本文進(jìn)行目標(biāo)識(shí)別的流程如圖1所示。

圖1 本文目標(biāo)識(shí)別流程圖

2.1 目標(biāo)提取

現(xiàn)實(shí)世界映射到圖像平面時(shí)產(chǎn)生的一個(gè)重要結(jié)果就是物體之間的遮擋邊界:當(dāng)物體遮擋住位于它后面的物體時(shí),兩物體之間產(chǎn)生的分界線。其本質(zhì)上是由三維信息中的深度信息造成的,即物體的深度不一致造成的。因此邊界特征與深度信息對(duì)于圖像目標(biāo)識(shí)別與場(chǎng)景理解都是十分重要的。

2.1.1 圖像3D信息

1) 邊界信息

一般情況下,圖像中較長(zhǎng)的平滑邊界很可能是物體之間的邊界。所以,圖像的邊界本身就包含很多的信息。

(1) 邊界長(zhǎng)度,這里是相對(duì)長(zhǎng)度,與邊界分隔的兩個(gè)區(qū)域中周長(zhǎng)較短的區(qū)域進(jìn)行比較:

Bl=L/min(Ci,Cj)

(1)

其中,L為邊界長(zhǎng)度,Ci、Cj分別為該邊界兩邊區(qū)域的周長(zhǎng)。該特征描述了邊界與區(qū)域之間包圍的程度。

(2) 邊界方向,即邊界兩端點(diǎn)之間夾角。

(3) 邊界平滑度,其本質(zhì)上就是計(jì)算邊界曲線的平滑度,計(jì)算公式如下:

(2)

其中, (x1,x2)、(y1,y2)為邊界端點(diǎn)坐標(biāo)。

(4) 邊界連續(xù)性,計(jì)算與其相鄰邊界夾角的最小值。

此外,還使用了文獻(xiàn)[11]提出的平均邊界概率值作為邊界特征的一部分。這些信息組合在一起,構(gòu)成圖像中一條邊的邊界特征。

2) 深度信息

通過(guò)深度信息可以更好地判斷兩個(gè)相鄰區(qū)域是否屬于一個(gè)物體,例如,如果可以確定相鄰區(qū)域在深度上差距較大,則這個(gè)邊界更有可能是真正的邊界。雖然僅僅從單幅圖像中,無(wú)法得到圖像的絕對(duì)深度信息,但通過(guò)很多算法可以估算出圖像的相對(duì)深度。

T-junction被廣泛用于基于圖像的深度恢復(fù)技術(shù)中,T-junction是由三條邊界組成的“T”型節(jié)點(diǎn),是三條邊界和其對(duì)應(yīng)的三個(gè)區(qū)域交界的點(diǎn)。如圖2 所示。

圖2 T-junction示意圖

T-junction描述了相鄰物體邊界線之間的相交關(guān)系。一個(gè)理想的T-junction就是一個(gè)標(biāo)準(zhǔn)的“T”字形,即有兩條邊界構(gòu)成180度夾角,標(biāo)志著這兩條邊之間的區(qū)域在最前面,另兩個(gè)區(qū)域在后面(如圖2中A區(qū)域,由邊e1和e3所構(gòu)成的夾角接近180度,表明A區(qū)域在B區(qū)域和C區(qū)域的前面)。

結(jié)合其他特征,獲得相鄰區(qū)域的前景/背景標(biāo)簽后,可以確定邊界的方向(確定準(zhǔn)則:邊界左側(cè)為前景)[12]。這樣在T-junction中,若其為物體的邊界,則其方向不可能是任意的,至少有一個(gè)出junction的方向及一個(gè)進(jìn)junction的方向,否則作為物體的邊界,就會(huì)出現(xiàn)矛盾。

2.1.2 融合3D信息的候選目標(biāo)定位

根據(jù)邊界特征、深度信息以及區(qū)域的顏色、紋理等外觀特征,本文采用文獻(xiàn)[12]的條件隨機(jī)場(chǎng)模型,使得邊界和外觀標(biāo)簽[13]取得一致性,公式如下:

(3)

這里φj表示junction因子,γe表示外觀因子;Nj表示junction數(shù)目,Ne表示圖中邊的數(shù)目。對(duì)于無(wú)效的junctions(如:沒(méi)有邊界出junction),給其較大的懲罰;同樣對(duì)于屬于不同外觀類別的兩個(gè)區(qū)域,邊界卻屬于“虛邊界”的(即要將兩個(gè)不同外觀類別的區(qū)域融合的)給予其較大的懲罰。

這樣可以確定初始分割中真正的邊界,將“虛邊界”去除,即區(qū)域融合。直至所有的邊界都是真正邊界后,圖像分割完成,獲得圖像初始候選目標(biāo)集。

在經(jīng)過(guò)上述基于邊界信息與深度信息的融合之后,得到區(qū)域目標(biāo)候選集。但此時(shí)依然存在“過(guò)分割”的情況,如圖3所示。

圖3 融合邊界與深度信息的圖像分割情況

這時(shí)為了獲得更好的候選目標(biāo),本文采用顏色、紋理這兩種外觀特征作為區(qū)域相似性評(píng)價(jià)標(biāo)準(zhǔn),進(jìn)行區(qū)域融合,獲得更加準(zhǔn)確的候選目標(biāo)集。

相對(duì)于RGB顏色空間,HSV空間更接近于人類對(duì)顏色的主觀認(rèn)識(shí),所以本文采用HSV顏色空間對(duì)圖像顏色特征進(jìn)行描述。紋理特征方面,本文選取局部二值模式(LBP)作為紋理特征,該特征具有旋轉(zhuǎn)不變性和灰度不變性等顯著的優(yōu)點(diǎn),并且計(jì)算簡(jiǎn)便高效,能夠有效地描述圖像局部紋理。

在獲得各個(gè)區(qū)域的顏色及紋理特征直方圖后,先將特征向量進(jìn)行L1歸一化,然后使用χ2距離:

(4)

計(jì)算相鄰區(qū)域的顏色直方圖及紋理直方圖的距離。則相鄰區(qū)域ri和rj的相似度計(jì)算公式為:

(5)

這樣,在上一步候選集的基礎(chǔ)上,每次將最相似的兩個(gè)區(qū)域合并,形成一個(gè)新的候選目標(biāo)區(qū)域,不停地融合,直至整幅圖像融合成一個(gè)區(qū)域?yàn)橹埂?/p>

2.2 特征提取與目標(biāo)分類

本文通過(guò)Caffe[14]框架提取圖像的深度學(xué)習(xí)特征作為候選目標(biāo)圖像的描述符,使用SVM模型進(jìn)行分類任務(wù)。

Caffe是一個(gè)深度學(xué)習(xí)的開(kāi)發(fā)框架,具有輕便性、易用性和速度快的優(yōu)勢(shì)。深度學(xué)習(xí)可以逐層提取圖像的特征,通過(guò)組合低層特征形成更加抽象的高層特征,語(yǔ)義從低到高,對(duì)圖像的扭曲、偏移、縮放等形變更加適應(yīng)。近年來(lái),深度學(xué)習(xí)發(fā)展迅猛,在圖像的各個(gè)領(lǐng)域都取得了不錯(cuò)的成績(jī),為圖像特征描述提供了新的思路。

SVM是一種監(jiān)督學(xué)習(xí)模型,被廣泛地應(yīng)用于機(jī)器學(xué)習(xí)分類和回歸任務(wù)中。SVM的決策函數(shù)來(lái)源于線性分類模型的決策函數(shù):

f(x)=(ωTx+b)≥1

(6)

帶有松弛變量的軟間隔SVM模型目標(biāo)函數(shù)為:

(7)

s.t.

yi(ωTxi+b)≥1-ξ,ξi≥0 i=1,2,…,n

(8)

3 實(shí)驗(yàn)及分析

3.1 實(shí)驗(yàn)數(shù)據(jù)集

3.1.1PASCALVOC

PASCALVOC數(shù)據(jù)集是計(jì)算機(jī)視覺(jué)分類、識(shí)別和檢測(cè)的一個(gè)基準(zhǔn)測(cè)試,提供了標(biāo)準(zhǔn)圖像注釋數(shù)據(jù)集。該數(shù)據(jù)集要求研究者僅通過(guò)圖像內(nèi)容將其分類并識(shí)別目標(biāo)物體。

本實(shí)驗(yàn)從PASCALVOC2007數(shù)據(jù)集中隨機(jī)抽取了aeroplane、bird、bottle、car、cow、dog、motorbike、sheep、sofa、train等10個(gè)類共1 161幅圖像作為實(shí)驗(yàn)數(shù)據(jù)集一。其中訓(xùn)練圖像583幅,測(cè)試圖像578幅。

3.1.2ImageNet

ImageNet是目前世界上最大的圖像識(shí)別數(shù)據(jù)庫(kù),是根據(jù)詞匯層次結(jié)構(gòu)組織的圖像數(shù)據(jù)庫(kù)。詞匯網(wǎng)中的每個(gè)有意義的概念可能被多個(gè)單詞或詞組表述,即“同義詞集合”。在ImageNet數(shù)據(jù)集中,每個(gè)“同義詞集合”通過(guò)多幅圖像來(lái)對(duì)其進(jìn)行描述,其中,每幅圖像都是經(jīng)過(guò)篩選及人工標(biāo)注的。

本實(shí)驗(yàn)從ImageNet數(shù)據(jù)集中隨機(jī)抽取了10個(gè)類別圖像:antelope、bus、cucumber、guitar、lion、monkey、winebottle、hairdryer、refrigerator、Mushroom等10個(gè)類共2 091幅圖像作為本實(shí)驗(yàn)數(shù)據(jù)集二,其中訓(xùn)練圖像1 046幅,測(cè)試圖像1 045幅。

3.2 實(shí)驗(yàn)結(jié)果

目標(biāo)檢測(cè)不但要求正確識(shí)別出物體的類別,而且需要較好地定位目標(biāo)的位置。PASCALVOC定義目標(biāo)定位的標(biāo)準(zhǔn)是重合度(Overlap),要求候選目標(biāo)區(qū)域與真實(shí)目標(biāo)之間要有最大重合度,公式如下:

(9)

即候選目標(biāo)Bp與groundtruthBgt的重合區(qū)域與兩者全部區(qū)域的面積之比。PASCALVOC評(píng)價(jià)標(biāo)準(zhǔn)要求只有當(dāng)目標(biāo)區(qū)域Bp與groundtruth的重合率超過(guò)50%時(shí),才能認(rèn)為是正確的檢測(cè)。

本文利用F1綜合評(píng)價(jià)目標(biāo)分類的效果,公式為:

F1=2PR/(P+R)

(10)

其中,P是準(zhǔn)確率(precision),R是召回率(recall)。

表1與表2分別比較了本文方法與采用滑動(dòng)窗口的基準(zhǔn)(Baseline)方法、選擇性搜索[3]方法在兩個(gè)數(shù)據(jù)集上的分類結(jié)果(三種方法均使用deepfeature特征和SVM分類器)。

表1 數(shù)據(jù)集一F1

表2 數(shù)據(jù)集二F1

3.3 實(shí)驗(yàn)分析

通過(guò)實(shí)驗(yàn)結(jié)果對(duì)比,本文方法相比于選擇性搜索在目標(biāo)識(shí)別的效果上有很大提高。在數(shù)據(jù)集一中,Baseline的平均F1為0.29,選擇性搜索方法為0.44,而本文的方法達(dá)到0.51,并且大部分類別的識(shí)別效果都好于Baseline與選擇性搜索方法。在數(shù)據(jù)集二上也得到了一樣的結(jié)果(Baseline為0.40,選擇性搜索方法為0.54,而本文方法為0.63)。本文方法可以取得更好的分類效果,根本原因在于,本文方法可以更準(zhǔn)確地定位目標(biāo)。如圖4中所示,本文方法的定位效果更加準(zhǔn)確,尤其在對(duì)白馬的目標(biāo)定位。

圖4 實(shí)驗(yàn)效果圖1

因?yàn)槌跏挤指罘椒╗10]只根據(jù)顏色特征將圖像分為上百塊“超像素”,而選擇性搜索只根據(jù)外觀特征進(jìn)行融合,這樣很容易將屬于白馬的區(qū)域與旁邊欄桿的白色區(qū)域先行融合,對(duì)后續(xù)的融合產(chǎn)生連鎖影響,造成目標(biāo)定位不準(zhǔn)確。相比于選擇性搜索,本文加入深度信息與邊界信息,使區(qū)域的融合更加符合物體在三維空間上的定義,而不僅僅是外觀上的相似性,進(jìn)而獲得更加準(zhǔn)確的目標(biāo)定位,改善了最后分類的效果。更多實(shí)驗(yàn)效果如圖5所示。

圖5 實(shí)驗(yàn)效果圖2

4 結(jié) 語(yǔ)

針對(duì)目標(biāo)識(shí)別中的目標(biāo)提取過(guò)程,本文通過(guò)融入深度信息與邊界特征,獲得了更加準(zhǔn)確的候選目標(biāo)集,最后利用圖像的深度學(xué)習(xí)特征訓(xùn)練SVM模型對(duì)候選目標(biāo)進(jìn)行分類。通過(guò)在PASCAL VOC和ImageNet數(shù)據(jù)集上的實(shí)驗(yàn)驗(yàn)證了本文方法的效果。下一步將研究如何避免或解決邊界錯(cuò)誤定義產(chǎn)生的問(wèn)題。

[1] Dalal N,Triggs B.Histograms of oriented gradients for human detection[C]//Computer Vision and Pattern Recognition,2005 IEEE Computer Society Conference on.IEEE,2005:886-893.

[2] Felzenszwalb P F,Girshick R B,McAllester D,et al.Object detection with discriminatively trained part-based models[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(9):1627-1645.

[3] Uijlings J R R,Sande K E A V D,Gevers T,et al.Selective search for object recognition[J].International Journal of Computer Vision,2013,104(2):154-171.

[4] Long C,Wang X,Hua G,et al.Accurate object detection with location relaxation and regionlets re-localization[C]//12th Asian Conference on Computer Vision.Springer International Publishing,2014:260-275.

[5] Zhang Y,Sohn K,Villegas R,et al.Improving object detection with deep convolutional networks via Bayesian optimization and structured prediction[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition,2015:249-258.

[6] Viola P,Jones M J.Robust real-time face detection[J].International Journal of Computer Vision,2004,57(2):137-154.

[7] Shi J,Malik J.Normalized cuts and image segmentation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(8):888-905.

[8] Martin D,Fowlkes C,Tal D,et al.A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics[C]//Computer Vision,2001 8th IEEE International Conference on.IEEE,2001:416-423.

[9] Ren X,Malik J.Learning a classification model for segmentation[C]//Computer Vision,2003 9th IEEE International Conference on.IEEE,2003:10-17.

[10] Felzenszwalb P F,Huttenlocher D P.Efficient graph-based image segmentation[J].International Journal of Computer Vision,2004,59(2):167-181.

[11] Martin D,Fowlkes C,Malik J.Learning to find brightness and texture boundaries in natural images[C]//Advances in Neural Information Processing Systems,2002.

[12] Hoiem D,Stein A N,Efros A A,et al.Recovering occlusion boundaries from a single image[C]//Computer Vision,2007.ICCV 2007.IEEE 11th International Conference on.IEEE,2007:1-8.

[13] Hoiem D,Efros A A,Hebert M.Recovering surface layout from an image[J].International Journal of Computer Vision,2007,75(1):151-172.

[14] Donahue J,Jia Y,Vinyals O,et al.DeCAF:A deep convolutional activation feature for generic visual recognition[J].Computer Science,2013,50(1):815-830.

OBJECT RECOGNITION COMBINED WITH DEPTH AND BOUNDARY INFORMATION

Yuan Yuxin Zhou Xiangdong

(SchoolofComputerScienceandTechnology,FudanUniversity,Shanghai200433,China)

In order to locate the candidate object accurately and improve the target recognition effect, an object recognition method combined with depth and boundary information is proposed. The proposed method can generate less but better object candidates with more accurate location. Then the depth learning feature is extracted, and the SVM classification model is used to realize the target recognition. Experimental results on two common data sets show that compared with Baseline and selective search, this method improves the performance of object recognition significantly.

Object recognition Region merge Depth information Deep learning SVM

2016-03-18。國(guó)家自然科學(xué)基金項(xiàng)目(61370157)。原彧鑫,碩士生,主研領(lǐng)域:計(jì)算機(jī)視覺(jué)。周向東,教授。

TP3

A

10.3969/j.issn.1000-386x.2017.04.031

猜你喜歡
深度特征區(qū)域
深度理解一元一次方程
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
深度觀察
深度觀察
深度觀察
抓住特征巧觀察
關(guān)于四色猜想
分區(qū)域
基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
主站蜘蛛池模板: 日韩毛片免费观看| 国产成人精品视频一区二区电影| 亚洲第一成网站| 国产精品久久久久久久久久久久| 一本久道热中字伊人| 日本一区二区不卡视频| 日日噜噜夜夜狠狠视频| 99精品视频九九精品| 久久婷婷色综合老司机| 毛片网站在线播放| 久久这里只有精品23| 国产午夜福利亚洲第一| 福利姬国产精品一区在线| 国产尤物jk自慰制服喷水| 亚洲中文字幕av无码区| 国产精品网曝门免费视频| 亚洲欧美人成人让影院| 少妇精品久久久一区二区三区| 欧美一级高清免费a| 青青操国产| 国产免费自拍视频| 国产91九色在线播放| 99视频精品在线观看| 99久久国产综合精品女同| 一级毛片在线播放| 久久久久无码精品国产免费| 成人国内精品久久久久影院| 亚洲床戏一区| 欧美精品在线免费| 欧美在线综合视频| 亚洲免费福利视频| 国产成人永久免费视频| 亚洲成aⅴ人片在线影院八| 欧美一区二区人人喊爽| 国产精品一线天| 亚洲一级毛片免费观看| 香蕉精品在线| 国产一区二区在线视频观看| 欧美日韩国产精品va| 亚洲精品无码日韩国产不卡| 亚洲欧洲日韩综合色天使| 无码高潮喷水在线观看| 综合色天天| 91啪在线| 色天天综合| 毛片视频网| 亚洲熟女偷拍| 91精品人妻互换| 广东一级毛片| 久久99蜜桃精品久久久久小说| 亚洲精品桃花岛av在线| 国产成人高清在线精品| 日本精品视频| 国产精品视频导航| 在线精品视频成人网| 一级香蕉人体视频| 中文字幕人成乱码熟女免费| 在线观看亚洲人成网站| 国产喷水视频| 国产成人91精品| 亚洲一区精品视频在线| 一本一道波多野结衣一区二区| 亚洲天堂777| 天天爽免费视频| 久久不卡精品| 中文字幕首页系列人妻| 伊人五月丁香综合AⅤ| 亚洲高清中文字幕在线看不卡| 久久久亚洲色| 欧美精品亚洲二区| 亚洲欧美综合在线观看| 高清无码不卡视频| 91区国产福利在线观看午夜| 日韩毛片免费观看| 国产成人综合日韩精品无码首页 | 精品第一国产综合精品Aⅴ| 内射人妻无套中出无码| 国产毛片久久国产| 国产特级毛片aaaaaaa高清| 72种姿势欧美久久久久大黄蕉| 欧美性天天| 精品1区2区3区|