999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CUDA架構(gòu)的高速RGBD場景解析算法研究

2018-04-26 06:35:15沈超王斌吳曉峰
微型電腦應(yīng)用 2018年3期
關(guān)鍵詞:深度信息

沈超, 王斌, 吳曉峰

(復(fù)旦大學(xué) 信息科學(xué)與工程學(xué)院, 上海 200433)

0 引言

隨著深度傳感器的不斷發(fā)展成熟,普通用戶可以使用手機(jī)、廉價(jià)深度相機(jī),例如蘋果iPhone X、微軟Kinect等設(shè)備獲取周圍場景的深度信息。深度信息可以反映周圍場景的空間拓?fù)浣Y(jié)構(gòu),是色彩信息的有力補(bǔ)充。根據(jù)獲取的場景RGBD信息,可以對RGBD數(shù)據(jù)進(jìn)行場景解析。這在場景識別,增強(qiáng)現(xiàn)實(shí),三維重建等計(jì)算機(jī)視覺應(yīng)用中有著重要應(yīng)用。受場景復(fù)雜度、紋理噪聲、光照條件等因素的影響,目前使用的場景解析算法還存在較多問題。

場景解析作為計(jì)算機(jī)視覺任務(wù)的前端一環(huán),對算法效果和運(yùn)算速度都有較高的要求。現(xiàn)有的高速場景解析算法[1-3]大多數(shù)只處理場景圖像的色彩數(shù)據(jù),沒有考慮深度信息。而已有的面向RGBD場景的解析算法大多要對法向量、重力方向等進(jìn)行計(jì)算優(yōu)化,難以保證算法的實(shí)時(shí)性。另外,現(xiàn)有場景解析算法基本都難以達(dá)到30 Hz以上的運(yùn)行速度。為此難以滿足解析算法可以實(shí)時(shí)運(yùn)行、面向RGBD場景的需求。

本文的主要工作是提出了一種新的高速RGBD場景解析算法。使用加入空間平滑約束和邊緣支持、含深度信息的高速過分割算法,對場景的RGBD圖像進(jìn)行過分割,并將過分割塊構(gòu)成無向圖。然后運(yùn)用層級結(jié)構(gòu)的多特征求權(quán)Felzen-Hutten算法[2]進(jìn)行無向圖圖割優(yōu)化,完成場景解析。本文在RGBD場景數(shù)據(jù)集上對算法進(jìn)行了實(shí)驗(yàn),并得出實(shí)驗(yàn)結(jié)果。接下來從整體架構(gòu)和步驟細(xì)節(jié)兩方面論述整個(gè)算法,之后進(jìn)行實(shí)驗(yàn)驗(yàn)證,最后給出文章結(jié)論。

1 算法論述

1.1 整體架構(gòu)

本文提出的算法整體架構(gòu)主要分為兩大部分,一是高速RGBD場景過分割,二是過分割塊的層級圖割歸并,都在CUDA架構(gòu)上實(shí)現(xiàn)。具體如圖1所示。

整個(gè)算法的輸入數(shù)據(jù)為場景的RGBD信息。每個(gè)場景的RGBD信息由色彩信息(RGB)和深度信息(D)兩部分組成,具體為一組色彩與深度圖像對。本文結(jié)合圖像的色彩和深度四個(gè)維度的信息,首先運(yùn)用提出的超高速過分割算法BSD-gSLICr,對場景圖像對進(jìn)行過分割,將圖像分解為過分

圖1 算法整體框架

割塊。然后將過分割塊視為頂點(diǎn),結(jié)合過分割塊間相鄰關(guān)系構(gòu)建無向圖,并根據(jù)塊間特征計(jì)算相鄰邊權(quán)重。最后應(yīng)用層次結(jié)構(gòu)的Felzen-Hutten算法,對過分割塊組成的無向圖進(jìn)行多層次圖割分塊,從而得到最終的場景解析結(jié)果。

我們之所以使用過分割與層級Felzen-Hutten圖割的兩步架構(gòu),一方面是利用BSD-gSLICr超高速的過分割能力,降低后續(xù)算法運(yùn)算量,保證算法實(shí)時(shí)性,同時(shí)削弱噪聲的影響。另一方面,對處理后的過分割塊,采用層級結(jié)構(gòu)的Felzen-Hutten算法進(jìn)行圖割歸并,可以實(shí)現(xiàn)在不同層級注重不同的分塊特征,從而應(yīng)用不同的圖割策略,這也具有現(xiàn)實(shí)的物理意義。總之,本文提出的架構(gòu)在底層可以緩解噪聲干擾,在高層可以改變算法策略,具有高度的靈活性和適應(yīng)性。

1.2 步驟細(xì)節(jié)

1.2.1 BSD-gSLICr算法

本文提出的BSD-gSLICr算法是高速RGBD場景過分割部分的核心。2015年,牛津動(dòng)視實(shí)驗(yàn)室開發(fā)了gSLICr算法[4],在GPU上實(shí)現(xiàn)了250Hz的圖像過分割速率。

本文在參考gSLICr架構(gòu)的基礎(chǔ)上,進(jìn)一步引入場景深度信息,并添加了空間平滑約束。同時(shí)加入了邊緣支持,減輕了空間信息比重增加造成的不利影響。我們精心設(shè)計(jì)了運(yùn)算架構(gòu),用CUDA技術(shù)實(shí)現(xiàn)了BSD-gSLICr算法。具體如圖2所示。

圖2 CUDA架構(gòu)下實(shí)現(xiàn)的BSD-gSLICr算法流程

除了讀取圖像部分,其余操作步驟都在GPU上處理。

(1) 空間平滑約束

gSLICr算法本質(zhì)是一種快速SLIC算法[5],通過對像素點(diǎn)進(jìn)行聚類形成超像素,達(dá)到過分割圖像的效果。gSLICr算法中的距離度量公式?jīng)Q定了像素聚類策略,是整個(gè)算法的關(guān)鍵。我們在距離度量公式中,加入了場景深度信息,并創(chuàng)新地添加了三維空間平滑約束項(xiàng),以提升分割效果和魯棒性。具體改進(jìn)的距離度量式如式(1)~式(4)。

(1)

(2)

(3)

(4)

其中dc、ds分別為像素點(diǎn)與聚類中心間的lab色彩空間距離、xy坐標(biāo)位置距離。dge為像素點(diǎn)深度距離,其中根式內(nèi)第一項(xiàng)即為添加的三維空間平滑約束,式中cn,fn是場景拍攝相機(jī)的內(nèi)參。D為像素點(diǎn)到聚類中心的總加權(quán)距離,其中N是像素總數(shù)量,K是聚類中心數(shù)量,m為緊密度,λ為深度信息權(quán)重。

(2) 邊緣支持

由于距離度量公式中添加了深度信息,增強(qiáng)了空間因素在像素聚類中的作用。這導(dǎo)致圖像中某些實(shí)體間的顏色邊緣會(huì)因?yàn)樯疃刃畔⒌母蓴_被聚類到同一個(gè)塊中,這對后面場景解析中具體實(shí)體的分割有較大影響。為此,在算法中引入了邊緣支持。分別對RGB圖像和深度圖像,用canny算子檢測邊緣,合并形成邊緣支持圖。同時(shí)在距離度量公式中加入懲罰項(xiàng)如式(5)、(6)。

Dbs=D+Penalty(path((x,y)->(xc,yc)))

(5)

(6)

根據(jù)像素點(diǎn)與超像素中心的方位,采用分段的曼哈頓式折線形成連通路徑。如圖3所示。圖3如果路徑上存在邊緣支持點(diǎn),則在距離公式中添加懲罰項(xiàng),使得像素點(diǎn)不會(huì)聚類到邊緣另一邊的超像素中心。這可以改善添加深度信息以后,聚類時(shí)空間因素過度優(yōu)先的問題。

圖3 根據(jù)像素點(diǎn)和超像素中心選擇連通路徑的選擇

1.2.2 層級Felzen-Hutten圖割歸并

在第一部分,場景RGBD圖像對BSD-gSLICr算法被分解為了超像素的過分割塊。我們把每個(gè)過分割塊看作一個(gè)頂點(diǎn),塊間相鄰關(guān)系作為邊,鄰接塊特征的不相似程度作為邊權(quán)值,形成一個(gè)以超像素的過分割塊為單位的無向圖。并采用層次結(jié)構(gòu)的Felzen-Hutten算法對無向圖進(jìn)行快速圖割歸并,完成超像素分割塊的聚類,達(dá)到高速場景解析的目的。

Felzen-Hutten算法偽代碼如下:

Felzen-Hutten算法:

輸入:超像素?zé)o向圖G=(V,E,W),

輸出:分割結(jié)果S=(C1,…,Cr)

初始化:將所有邊權(quán)值w按從小到大排序P=(w1,…,wm)

forq=1,…,mdo

for eachwq=w(vi,vj) do

end if

end if

end for

end for

原始的FH算法中,無向圖中邊的權(quán)值只由相鄰分塊間的均色差異來決定。我們在RGBD場景解析的背景下,提出了新的邊權(quán)值計(jì)算方法。充分利用RGBD場景提供的深度信息,在相鄰分塊間均色差異的基礎(chǔ)上,引入邊緣均色梯度、邊緣均深梯度、分塊位置差異,來共同決定相鄰邊的權(quán)值。其中,分塊均色差異distmc計(jì)算相鄰過分割塊間的平均lab空間顏色距離,

distmc(sp1,sp2)=‖mColorsp1-mColorsp2‖2

(7)

分塊位置差異distmp計(jì)算相鄰過分割塊中心間的二維坐標(biāo)距離,

distmp(sp1,sp2)=‖mPositionsp1-mPositionsp2‖2

(8)

邊緣均色梯度mBGc計(jì)算相鄰過分割塊間共同邊緣上,每個(gè)像素與周圍像素的色差,如式(9)。

(9)

邊緣均深梯度mBGd計(jì)算相鄰過分割塊間共同邊緣上,每個(gè)像素與周圍像素的深度差異,為式(10)。

(10)

相鄰過分割塊間總的邊權(quán)值w,由上述四個(gè)部分加權(quán)組成,為式(11)。

(11)

其中加權(quán)權(quán)值ω根據(jù)預(yù)訓(xùn)練集,采用線性svm預(yù)測回歸的方法訓(xùn)練得到。考慮到在過分割塊歸并整合的不同階段,各個(gè)塊特征的重要性也應(yīng)該不同。所以對不同層的訓(xùn)練,采用上一層得到的結(jié)果更新數(shù)據(jù)集,然后進(jìn)行訓(xùn)練得到每層特有的加權(quán)權(quán)值。

得到每層的邊權(quán)計(jì)算公式之后,我們就可以使用層次結(jié)構(gòu)的方式,逐次對過分割塊組成的無向圖,采用Felzen-Hutten算法進(jìn)行優(yōu)化歸并。經(jīng)層級Felzen-Hutten算法優(yōu)化之后,最終可以得到場景的解析結(jié)果。

2 仿真結(jié)果

我們用CUDA架構(gòu)實(shí)現(xiàn)了本文提出的算法并進(jìn)行測試,測試平臺使用的CPU為Intel i7-6700K,使用的GPU為NVIDIA GTX1070。我們在紐約大學(xué)深度場景數(shù)據(jù)集v2[6]、明德雙目視數(shù)據(jù)集[7]等RGBD場景數(shù)據(jù)庫上做了測試。我們與一些快速分割及場景解析算法進(jìn)行了比較,主要包括經(jīng)典的分水嶺算法、Felzen-Hutten算法、MeanShift算法,以及近期出現(xiàn)的快速場景解析算法如FGBOS算法[8]、HFS算法。最后得到了實(shí)驗(yàn)結(jié)論。

2.1 場景解析效果及拓展性

(1) 在明德雙目視數(shù)據(jù)庫上對算法進(jìn)行了仿真,效果如圖4所示。

圖4 明德雙目視數(shù)據(jù)庫算法測試結(jié)果

圖4中從第2列至第7列依次為分水嶺算法、Felzen-Hutten算法、MeanShift算法、FGBOS算法、HFS算法和本文提出的算法。

(2) 在紐約大學(xué)深度場景數(shù)據(jù)集v2中對上述算法進(jìn)行了測試,部分場景解析效果圖,如下圖5所示:

可以看到相對其他方法,本文提出的算法能夠?qū)?fù)雜場景進(jìn)行有效分解,分離出其中的具體實(shí)體,取得較好的場景解析效果。同時(shí)可以看到,本文提出的算法相對其他算法,能較好地避免過分割和欠分割現(xiàn)象,對于各個(gè)完整實(shí)體的區(qū)分度也更高。

另外,由于綜合考慮了色彩和深度信息等多個(gè)特征,本

圖5 Nyu Depth Dataset v2數(shù)據(jù)庫算法測試結(jié)果

文提出的算法不易受到高頻紋理變化的干擾,例如對原始場景1中幕墻上的光點(diǎn)和桌面上的紋理就有很好的抑制作用。同時(shí)即使在光照條件惡劣,場景顏色區(qū)分度差的極端情況下,如原始場景2中,前景物體與背景幾乎難以區(qū)分,本文提出的算法在其他算法幾乎失效時(shí),場景解析的魯棒性依然較強(qiáng)。

值得指出的是,本文算法根據(jù)應(yīng)用場景的不同,也可以方便的拓展到單張RGB場景圖像或單張深度場景圖像上。例如在只有場景深度信息時(shí),在BSD-gSLICr算法分割部分,只需根據(jù)場景深度圖像檢測邊緣,計(jì)算(2)、(3)兩式,同時(shí)將(4)式修改為式(12)。

(12)

然后在層級Felzen-Hutten圖割歸并部分,把邊權(quán)值計(jì)算公式中的色彩特征項(xiàng)distmc、mBGc消除,只計(jì)算深度特征項(xiàng),并調(diào)整相應(yīng)權(quán)值,將(11)式修改為式(13)。

w=ωmpdistmp(sp1,sp2)+ωdmBGd(sp1,sp2)

(13)

就形成了本文提出的算法針對單深度場景的簡約版本。以此類推,只需將算法中深度信息項(xiàng)消除,也可以形成本文算法針對單RGB色彩場景的簡約版本。當(dāng)然可以根據(jù)需要,在簡約版算法的邊權(quán)值計(jì)算公式中,加入更多色彩或者深度的塊特征項(xiàng),以提高算法效果。

2.2 算法復(fù)雜度及運(yùn)行速度

表1 不同算法平均運(yùn)行速度(ms)

由表1可見,本文提出的算法由于在CUDA架構(gòu)上經(jīng)優(yōu)化實(shí)現(xiàn),在保證算法精度的前提下,速度有較大提高,與目前最快速的HFS算法基本接近。對于常見的640*480的圖像分辨率,本文提出的算法運(yùn)行速度平均在25 ms左右。特別在高圖像分辨率的情況下,本文算法由于應(yīng)用了過分割算法降低復(fù)雜度,相對傳統(tǒng)算法速度有明顯優(yōu)勢。由于滿足實(shí)時(shí)要求,本文算法可以廣泛應(yīng)用在各類計(jì)算機(jī)視覺任務(wù)中,提升運(yùn)算速度。

3 總結(jié)

本文提出了并在CUDA架構(gòu)上實(shí)現(xiàn)一種新的高速RGBD場景解析算法。在gSLICr算法基礎(chǔ)上,引入了帶空間平滑約束的深度信息,并加入邊緣支持,提出了BSD-gSLICr算法。并使用BSD-gSLICr算法對RGBD場景圖像進(jìn)行過分割,然后采用改進(jìn)邊權(quán)計(jì)算方式的Felzen-Hutten算法,將過分割塊構(gòu)成的無向圖進(jìn)行多層級的圖割歸并,得到最終的場景解析結(jié)果。在多個(gè)RGBD數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果表明,本文提出的算法兼具速度和效果優(yōu)勢。相對一些傳統(tǒng)算法,在速度及效果上均有較大的提高。而與目前先進(jìn)水平的算法相比,在處理高頻紋理或者光照條件惡劣的場景時(shí),本文算法也有獨(dú)有優(yōu)勢。未來會(huì)針對場景深度信息缺失、噪聲等情況,考慮添加置信度,進(jìn)一步增加算法的魯棒性。

[1] Cheng MM,YUN Liu, Qibin Hou. et al. (2016) HFS: Hierarchical Feature Selection for Efficient Image Segmentation[C]∥Eccv 2016 Amsterdam Netherlands. Lecture Notes in Computer Science[M]. V. 9907. Springer.

[2] Felzenszwalb PF, Huttenlocher DP. Efficient graph-based image segmentation[J]. IJCV, 2004,59(2), 167-181.

[3] Jean Cousty, Gilles Bertrand, Laurent Najman, and Michel Couprie. Watershed Cuts: Minimum Spanning Forests and the Drop of Water Principle[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(8): 1362-1374.

[4] Ren, Carl & Prisacariu, Victor & D Reid, Ian. gSLICr: SLIC superpixels at over 250 Hz[R]. arXiv preprint arXiv:1509.04232,2015.

[5] Achanta R, Shaji A, Smith K, et al. SLIC Superpixels Compared to State-of-the-Art Superpixel Methods[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11): 2274-2282.

[6] Silberman N, Hoiem D, Kohli P, et al. Indoor Segmentation and Support Inference from RGBD Images∥Lecture Notes in Computer Science (vvl 7576)[M]. Berlin: Springer.

[7] Scharstein, C. Pal. Learning conditional random fields for stereo[C]∥In IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2007), Minneapolis, 2007.pp1-8.

[8] Toscana G, Rosa S, Bona B. Fast Graph-Based Object Segmentation for RGB-D Images[C]. Intellisys 2016, London, UK. pp42-58.

猜你喜歡
深度信息
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
深度觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
提升深度報(bào)道量與質(zhì)
新聞傳播(2015年10期)2015-07-18 11:05:40
展會(huì)信息
信息
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 亚洲 欧美 日韩综合一区| 亚洲综合二区| 免费午夜无码18禁无码影院| 国产凹凸视频在线观看| 亚洲国产AV无码综合原创| 亚洲人成网站色7777| 久草国产在线观看| 国产免费好大好硬视频| 免费黄色国产视频| 精品色综合| 日本黄色a视频| 中文字幕有乳无码| 精品久久久久久久久久久| 97超爽成人免费视频在线播放| 国产成人91精品免费网址在线| 国产手机在线ΑⅤ片无码观看| 亚洲精品无码抽插日韩| 无码精品国产dvd在线观看9久| 青青青国产在线播放| 波多野结衣视频网站| 91香蕉国产亚洲一二三区| 夜精品a一区二区三区| a免费毛片在线播放| 无码日韩视频| 日本色综合网| 日韩精品无码免费专网站| 又粗又大又爽又紧免费视频| 午夜精品福利影院| 毛片大全免费观看| 色综合天天操| 国产精品理论片| 在线观看视频99| 精品国产三级在线观看| 九九热这里只有国产精品| 91久久夜色精品国产网站| 激情综合激情| 欧美va亚洲va香蕉在线| 88av在线播放| 大学生久久香蕉国产线观看| swag国产精品| 午夜无码一区二区三区| 精品无码视频在线观看| 国产黄网站在线观看| 成人在线综合| 91在线播放国产| 免费不卡视频| 久久这里只有精品免费| 日本五区在线不卡精品| 激情无码字幕综合| 国产剧情一区二区| 国产日韩精品一区在线不卡| 九九免费观看全部免费视频| 伊伊人成亚洲综合人网7777| 亚洲天堂啪啪| 97av视频在线观看| 亚洲日韩精品伊甸| 最新国产你懂的在线网址| AV无码国产在线看岛国岛| 无码福利视频| 中日韩欧亚无码视频| 国产女人水多毛片18| 久久精品人妻中文系列| 久久夜夜视频| 色偷偷男人的天堂亚洲av| 国产美女叼嘿视频免费看| 日韩成人高清无码| 色综合中文字幕| 国产一二三区视频| 夜夜操天天摸| 国产91熟女高潮一区二区| 日本a∨在线观看| 一级全免费视频播放| 91国内在线视频| 波多野结衣一区二区三区四区视频 | 特级做a爰片毛片免费69| 亚洲第一视频网| 国内熟女少妇一线天| 亚洲日韩Av中文字幕无码| 国产欧美自拍视频| 老司机午夜精品网站在线观看| 亚洲天堂精品视频| 99精品视频九九精品|