999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

三維場(chǎng)景分割中多模態(tài)數(shù)據(jù)融合的2D-3D耦合網(wǎng)絡(luò)*

2023-01-30 04:08:06李曉霞
計(jì)算機(jī)時(shí)代 2023年1期
關(guān)鍵詞:語(yǔ)義模態(tài)特征

李曉霞,陳 強(qiáng)

(廣東第二師范學(xué)院計(jì)算機(jī)學(xué)院,廣東 廣州 510303)

0 引言

場(chǎng)景分割,是計(jì)算機(jī)圖像處理的關(guān)鍵任務(wù)之一。由于場(chǎng)景遮擋和光照變化等因素的影響,對(duì)于復(fù)雜的場(chǎng)景,僅僅使用RGB 彩色圖像很難達(dá)到很高的分割精度。隨著三維傳感器技術(shù)的發(fā)展,三維數(shù)據(jù)逐漸應(yīng)用在計(jì)算機(jī)圖像處理領(lǐng)域。將二維數(shù)據(jù)和三維數(shù)據(jù)融合可以彌補(bǔ)各自的不足,使分割結(jié)果具有較高的精度和魯棒性。但是,多種模式的數(shù)據(jù)融合面臨著許多的技術(shù)挑戰(zhàn),比如點(diǎn)云數(shù)據(jù)和圖像數(shù)據(jù)處理手段上差異巨大,直接將點(diǎn)云數(shù)據(jù)和圖像數(shù)據(jù)融合就不能很好地利用圖像數(shù)據(jù)提供的高分辨率信息。因此如何有效地融合RGB 二維數(shù)據(jù)和三維數(shù)據(jù)成為了三維場(chǎng)景分割的關(guān)鍵。

近些年,大量關(guān)于語(yǔ)義分割的研究中開(kāi)始應(yīng)用多模態(tài)融合技術(shù)。多模態(tài)融合技術(shù)將來(lái)自不同傳感器的數(shù)據(jù)進(jìn)行多級(jí)特征融合,通過(guò)此方法可以提高三維場(chǎng)景的分割精度。文獻(xiàn)[1,2]將深度圖像作為附加通道,采用類似于RGB 語(yǔ)義分割的方法實(shí)現(xiàn)RGBD 語(yǔ)義分割。文獻(xiàn)[3]在RedNet網(wǎng)絡(luò)中設(shè)計(jì)了RGB 輸入和深度輸入兩種神經(jīng)網(wǎng)絡(luò)分支,并在采樣之前將其合并。然而,這些工作僅為顏色和深度通道建立了卷積神經(jīng)網(wǎng)絡(luò)模型,并將兩者簡(jiǎn)單拼接在一起,由全卷積神經(jīng)網(wǎng)絡(luò)輸出結(jié)果。這種架構(gòu)忽略了顏色通道和深度通道之間存在較強(qiáng)相關(guān)性的事實(shí),從而丟失了圖像的語(yǔ)義信息。

為了充分利用三維幾何信息和RGB 圖像信息,本文提出了一種基于多模態(tài)數(shù)據(jù)融合的2D-3D 耦合網(wǎng)絡(luò)。此網(wǎng)絡(luò)可以有效地利用空間和外觀信息從而較好地理解真實(shí)場(chǎng)景的語(yǔ)義信息。相比于之前那些更加關(guān)注不同模態(tài)數(shù)據(jù)的方法,本文采用平行的網(wǎng)絡(luò)架構(gòu)分別處理圖像數(shù)據(jù)和點(diǎn)云數(shù)據(jù),并提取全局信息輔助兩種模態(tài)信息融合,從而提高了場(chǎng)景分割性能。

1 相關(guān)研究工作

近年來(lái)許多研究提出在場(chǎng)景中直接處理三維點(diǎn)云數(shù)據(jù)。點(diǎn)云數(shù)據(jù)主要包含結(jié)構(gòu)特征,提供的信息有限。比如對(duì)于表面形狀變化不大的物體,僅憑形狀數(shù)據(jù)很難區(qū)分。如若將RGB 圖像與點(diǎn)云融合,可以充分利用顏色信息和幾何信息,使模型具有更強(qiáng)的魯棒性。文獻(xiàn)[4]介紹了一種用于RGB-D 分割的雙流網(wǎng)絡(luò),首先分別從RGB 和深度圖像中提取特征,然后使用變換網(wǎng)絡(luò)學(xué)習(xí)不同的模態(tài)特征。同樣地,F(xiàn)useNet網(wǎng)絡(luò)基于SegNet 網(wǎng)絡(luò)建立的兩個(gè)分支同時(shí)從深度和RGB 圖片提取特征[5],然后將他們?nèi)诤显谝黄稹_€有一些方法先將二維圖片信息映射到三維空間,然后與點(diǎn)云數(shù)據(jù)融合后再進(jìn)行特征提取[6]。

Luca Caltagirone 等[7]將三維數(shù)據(jù)映射到RGB 圖像平面并將其融合后提出了一種不同時(shí)期的融合策略。Dai 等[8]先從RGB 圖像中提取了二維特征,再將他們投射回三維體素。在這些方法中,雖然RGB 數(shù)據(jù)和點(diǎn)云數(shù)據(jù)可以用相似的格式表達(dá),就像(R,G,B)和(X,Y,Z),但他們具有不同的內(nèi)在屬性,表示了不同特征空間中的信息。這些方法不能充分利用RGB 圖像數(shù)據(jù)中豐富的外觀特征信息,導(dǎo)致提取的特征細(xì)節(jié)不夠充分,缺乏系統(tǒng)的特征融合。在大多數(shù)情況下,RGB 相機(jī)比三維傳感器具有更高的空間分辨率。在二維數(shù)據(jù)升級(jí)為三維數(shù)據(jù)之前,通過(guò)從高分辨率的圖像提取信息可以顯著提高融合算法的性能。

2 本文方法

本節(jié)介紹一種基于輸入的RGB 圖像和點(diǎn)云數(shù)據(jù)預(yù)測(cè)語(yǔ)義分割的新方法。雖然點(diǎn)云和RGB 圖像具有相似的輸入格式,但是處理方法卻非常不同的。點(diǎn)云數(shù)據(jù)是不規(guī)則的、無(wú)序的,而RGB 圖像則是規(guī)則的,有序的。如何有效地從兩種不同格式的數(shù)據(jù)中提取有用特征是非常關(guān)鍵的。本文提出了一個(gè)多模態(tài)數(shù)據(jù)融合的2D-3D 耦合網(wǎng)絡(luò),有效地利用空間信息和外觀信息,更好地理解真實(shí)場(chǎng)景的三維信息。

本文設(shè)計(jì)了一個(gè)異構(gòu)雙流式結(jié)構(gòu),如圖1所示,給出了網(wǎng)絡(luò)的總體框架。網(wǎng)絡(luò)主要包含三大部分:①二維分支,用來(lái)提取圖像特征;②三維分支,從原始的點(diǎn)云數(shù)據(jù)中提取特征信息;③特征融合,整合前兩個(gè)輸出的結(jié)果,預(yù)測(cè)最終結(jié)果。此結(jié)構(gòu)簡(jiǎn)單、高效,充分利用了兩種數(shù)據(jù)源各自的優(yōu)點(diǎn),并且在數(shù)據(jù)處理上不會(huì)引起偏差。

圖1 本文方法整體結(jié)構(gòu)圖

2.1 輕量級(jí)RGB特征提取路徑

與現(xiàn)有方法中直接將二維圖像和三維點(diǎn)云數(shù)據(jù)融合不同,本文采用并行的雙分支結(jié)構(gòu)來(lái)處理二維和三維數(shù)據(jù),可幫助網(wǎng)絡(luò)更加充分的利用不同空間內(nèi)的數(shù)據(jù)信息。二維分支的功能是提取二維圖像的特征。通常,二維圖像相機(jī)具有更高的空間分辨率,因此對(duì)其進(jìn)行獨(dú)立特征提取可以獲得更詳細(xì)的信息。本文采用U-Net 模型對(duì)RGB 圖像特征進(jìn)行提取,因?yàn)閁Net 簡(jiǎn)單快速并有利于網(wǎng)絡(luò)對(duì)模型進(jìn)行端到端的聯(lián)合訓(xùn)練。設(shè)輸入圖像為I∈RH×W×3,其中H和W分別表示圖像的高度和寬度,圖像的通道數(shù)為3。通過(guò)U-Net提取到的圖像特征如下:

其中,Θ1∈RH×W×C,C代表了圖像特征的維度。

不同于傳統(tǒng)方法中的將3D 點(diǎn)云數(shù)據(jù)轉(zhuǎn)換成體素或映射為二維視圖,本文直接使用無(wú)序的點(diǎn)云作為三維點(diǎn)云分支的輸入,避免了數(shù)據(jù)轉(zhuǎn)換造成的信息丟失。對(duì)于輸入的點(diǎn)集x∈RN×3,N代表了點(diǎn)的數(shù)量。在三維點(diǎn)云分支中,為了提高模型的適用性,減少數(shù)據(jù)旋轉(zhuǎn)、轉(zhuǎn)換和其他更改的影響,本文采用PointNet中的T-Net網(wǎng)絡(luò)使數(shù)據(jù)與原點(diǎn)坐標(biāo)對(duì)齊。

2.2 特征融合

多模式特征學(xué)習(xí)的目標(biāo)是在不同模式之間以可控的方式傳遞和融合特征,使不同模式的信息相互補(bǔ)充,從而有效地提高方法的性能。為了整合二維和三維空間的特征,首先基于投影原理和相機(jī)內(nèi)外部參數(shù)建立RGB 特征空間到3D 特征空間的映射。設(shè)為原始圖像特征,θk∈為映射后的圖像特征,其中,NI≤H×W是采樣像素?cái)?shù)。預(yù)測(cè)輸入點(diǎn)云是進(jìn)行語(yǔ)義識(shí)別和分割的必要步驟,因此建立了輸入點(diǎn)云相應(yīng)的RGB 特征。對(duì)于點(diǎn)云中的一點(diǎn)i,在θk域內(nèi)可找到n個(gè)相鄰點(diǎn)來(lái)提取新特征為:

首先,將RGB特征與點(diǎn)云特征點(diǎn)對(duì)點(diǎn)融合后,得到:

其中,θP為通過(guò)三維分支提取的特征,θF∈,C1和C2分別表示二維空間和三維空間的特征向量維度,Γ()表示串聯(lián)操作。

接著,從二維分支和三維分支中提取的全局特征為

最后,將融合后的特征進(jìn)行1×1 的卷積操作,以提高局部和全局特征的融合性并對(duì)不相關(guān)的噪聲信息進(jìn)行過(guò)濾。對(duì)于融合后的特征,采用MLP層來(lái)預(yù)測(cè)語(yǔ)義標(biāo)簽。MLP 層的通道數(shù)為512、128 和C,其中C是最終為點(diǎn)云中的每個(gè)點(diǎn)輸出語(yǔ)義標(biāo)簽的數(shù)量。

3 實(shí)驗(yàn)與分析

3.1 數(shù)據(jù)集

本文的主要任務(wù)是基于三維點(diǎn)云數(shù)據(jù)和RGB 圖片數(shù)據(jù)進(jìn)行語(yǔ)義理解。因此,需要在數(shù)據(jù)采集過(guò)程中獲取攝像頭的參數(shù)。本文使用目前在2D和3D語(yǔ)義分割最具挑戰(zhàn)性的室內(nèi)場(chǎng)景數(shù)據(jù)集——Scannet 數(shù)據(jù)集[9]。該數(shù)據(jù)集主要基于辦公和居住場(chǎng)所,包含1513個(gè)室內(nèi)掃描場(chǎng)景數(shù)據(jù),其中的1201 個(gè)場(chǎng)景用于訓(xùn)練,312 個(gè)用于測(cè)試。當(dāng)訓(xùn)練過(guò)程中整個(gè)場(chǎng)景的標(biāo)記點(diǎn)超過(guò)30%時(shí),就從場(chǎng)景中隨機(jī)選取一個(gè)與地面平行的1.5m×1.5m區(qū)域,從該區(qū)域隨機(jī)采集8192點(diǎn)作為一個(gè)訓(xùn)練或者測(cè)試的輸入樣本。與此同時(shí),為了增加訓(xùn)練樣本數(shù)可將整個(gè)區(qū)域沿著Z軸進(jìn)行隨機(jī)旋轉(zhuǎn)。

3.2 具體實(shí)現(xiàn)步驟

⑴訓(xùn)練過(guò)程

在訓(xùn)練過(guò)程中采用Adam 優(yōu)化算法。初始學(xué)習(xí)速率設(shè)置為10-3,批大小設(shè)置為6。本文提出的模型基于Python 3.6 和PyTorch 0.4.1 實(shí)現(xiàn),以端到端的方式進(jìn)行訓(xùn)練,并利用帶權(quán)重的交叉熵?fù)p失解決樣本類別不均衡的問(wèn)題。

⑵評(píng)價(jià)指標(biāo)

本文采用總體準(zhǔn)確度(OA)和平均交并比(mIoU)評(píng)價(jià)所提出模型的性能。在進(jìn)行語(yǔ)義分割中,OA表示每一類預(yù)測(cè)正確數(shù)量的占比,IoU 表示目標(biāo)類的分割域和真實(shí)路面語(yǔ)義類的交集率,平均IoU 級(jí)可以測(cè)量整個(gè)數(shù)據(jù)集中所有語(yǔ)義類的交并比。準(zhǔn)確度和交并比可表示為:

其中,變量TP,FP,TN,FN分別表示檢測(cè)對(duì)的正樣本、檢測(cè)錯(cuò)的正樣本,檢測(cè)對(duì)的負(fù)樣本、檢測(cè)錯(cuò)的負(fù)樣本。

3.3 結(jié)果

表1 給出了ScanNet 數(shù)據(jù)集中的模型采用不同方法計(jì)算得到的性能對(duì)比。由表1 可知,本文所提出方法的mIoU 值在大多數(shù)類別上要優(yōu)于基于點(diǎn)云的方法和基于數(shù)據(jù)融合的方法。這驗(yàn)證了將二維圖像特征升級(jí)到三維空間進(jìn)行融合的有效性,對(duì)于椅子、桌子之類的具有平面特征的物體,效果更加明顯。采用本文方法可達(dá)到較好性能的原因在于:①本文模型直接使用三維點(diǎn)云數(shù)據(jù),消除了數(shù)據(jù)轉(zhuǎn)化過(guò)程中存在的量化誤差;②本文在特征融合過(guò)程中利用了全局特征;③在進(jìn)行特征提取時(shí),平行分支保留了兩種數(shù)據(jù)原有的維度。圖2給出了可視化結(jié)果,可以看出,該方法對(duì)大多數(shù)語(yǔ)義類都有很好的分割效果,比如沙發(fā)、門、地面、桌子、椅子等。

圖2 ScanNet數(shù)據(jù)集可視化結(jié)果

表1 ScanNet數(shù)據(jù)集中不同模型間的性能對(duì)比情況

4 結(jié)論

由于點(diǎn)云數(shù)據(jù)不受環(huán)境光的影響,使機(jī)器能夠較好地感知周圍信息,被廣泛應(yīng)用于各種智能系統(tǒng)中。但是點(diǎn)云數(shù)據(jù)中包含的信息極其有限,其中的幾何信息不能將復(fù)雜場(chǎng)景完全表達(dá),而RGB 圖像中包含的顏色和紋理信息可以對(duì)點(diǎn)云信息進(jìn)行補(bǔ)償。為了能充分利用兩種類型的數(shù)據(jù)來(lái)提高算法的性能,本文提出了一個(gè)端到端的3D 的語(yǔ)義理解網(wǎng)絡(luò),將點(diǎn)云和RGB圖像聯(lián)合輸入,用以預(yù)測(cè)三維場(chǎng)景中的稠密語(yǔ)義標(biāo)簽。首先,提出了一種平行的異步結(jié)構(gòu)分布處理圖像特征和點(diǎn)云特征,保留了數(shù)據(jù)的原始特征。然后,采用密集特征融合和全局特征融合相結(jié)合的方式,建立特征融合網(wǎng)絡(luò),利用多模態(tài)數(shù)據(jù)實(shí)現(xiàn)場(chǎng)景語(yǔ)義分割。本文提出的方法能夠?qū)μ卣鬟M(jìn)行密集融合,有效地利用了整個(gè)場(chǎng)景中的二維圖像特征、幾何結(jié)構(gòu)和全局先驗(yàn)信息。實(shí)驗(yàn)結(jié)果表明,本文方法具有較好的精度,在ScanNet數(shù)據(jù)集的mIoU值達(dá)到了0.622。

猜你喜歡
語(yǔ)義模態(tài)特征
語(yǔ)言與語(yǔ)義
如何表達(dá)“特征”
不忠誠(chéng)的四個(gè)特征
抓住特征巧觀察
“上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
國(guó)內(nèi)多模態(tài)教學(xué)研究回顧與展望
基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識(shí)別
認(rèn)知范疇模糊與語(yǔ)義模糊
由單個(gè)模態(tài)構(gòu)造對(duì)稱簡(jiǎn)支梁的抗彎剛度
線性代數(shù)的應(yīng)用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 国内精品九九久久久精品| 熟妇丰满人妻| 精品综合久久久久久97超人该| 国产欧美一区二区三区视频在线观看| 青草视频免费在线观看| AV老司机AV天堂| 精品天海翼一区二区| 制服丝袜亚洲| 欧美成人午夜在线全部免费| 免费人成黄页在线观看国产| 日本人又色又爽的视频| 免费人成又黄又爽的视频网站| 在线五月婷婷| 少妇精品在线| 高清无码手机在线观看| 真人高潮娇喘嗯啊在线观看| 国产91蝌蚪窝| 成年人视频一区二区| 香蕉国产精品视频| 99精品影院| 高清色本在线www| 亚洲a级毛片| 九九精品在线观看| 久久精品电影| 日韩二区三区无| 亚洲无卡视频| 国产成人夜色91| 激情無極限的亚洲一区免费| 另类专区亚洲| 国产精品精品视频| 最新国产在线| 成人久久18免费网站| 久久不卡精品| 97免费在线观看视频| 亚洲国产精品美女| 人妻一本久道久久综合久久鬼色| 免费一级毛片| 亚洲一区二区日韩欧美gif| 色丁丁毛片在线观看| 亚洲大尺度在线| 国产一级毛片在线| 在线观看无码av免费不卡网站| 亚洲国产成人在线| 92精品国产自产在线观看 | 美女视频黄又黄又免费高清| 国产91小视频| 国产欧美日韩在线在线不卡视频| 欧美在线导航| 中日韩一区二区三区中文免费视频| 全免费a级毛片免费看不卡| 好吊日免费视频| 久久精品人人做人人综合试看| 亚洲欧美日韩动漫| 老司国产精品视频91| 国产成人综合日韩精品无码首页| 青草91视频免费观看| 最新国产精品第1页| 亚洲系列无码专区偷窥无码| 26uuu国产精品视频| 丁香亚洲综合五月天婷婷| 伊人欧美在线| 国产精品午夜福利麻豆| 国产精品美女免费视频大全| 看你懂的巨臀中文字幕一区二区 | 国产成人精品视频一区二区电影 | 日韩乱码免费一区二区三区| 亚洲综合久久一本伊一区| 亚洲高清在线播放| 亚洲国产亚综合在线区| 国内精品视频在线| 精品国产福利在线| 午夜丁香婷婷| 狠狠色丁香婷婷综合| 国产在线精品99一区不卡| 久久精品电影| 国产男女免费视频| 日韩免费中文字幕| 妇女自拍偷自拍亚洲精品| 中文字幕欧美成人免费| 亚洲性影院| 亚洲欧美精品日韩欧美| 蝴蝶伊人久久中文娱乐网|