999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于膠囊網(wǎng)絡(luò)的三維模型識(shí)別

2020-06-07 07:06:28曹小威曲志堅(jiān)徐玲玲劉曉紅
計(jì)算機(jī)應(yīng)用 2020年5期
關(guān)鍵詞:模型

曹小威,曲志堅(jiān),徐玲玲,劉曉紅

(山東理工大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,山東淄博255000)

(?通信作者電子郵箱lxhsdut@163.com)

0 引言

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)不僅在傳統(tǒng)的二維圖像識(shí)別領(lǐng)域展現(xiàn)了強(qiáng)大的特征提取能力,在三維模型識(shí)別領(lǐng)域也被廣泛應(yīng)用:王慧[1]使用投影提取三維模型的形狀特征,并使用一種可以同時(shí)計(jì)算三個(gè)側(cè)面投影圖的權(quán)值優(yōu)化深度卷積網(wǎng)絡(luò),從而對(duì)三維模型信息進(jìn)行深層次加工處理,進(jìn)而對(duì)三維模型進(jìn)行分類識(shí)別;侯宇昆[2]提取三維模型的12個(gè)角度視圖以及全景式圖,并將兩種視圖融合,輸入到搭建好的13層的卷積神經(jīng)網(wǎng)絡(luò)中從而實(shí)現(xiàn)對(duì)三維模型的識(shí)別,在ModelNet10上取得了94%的平均識(shí)別準(zhǔn)確率;Hegde等[3]融合了基于體素的V-CNNⅠ、V-CNNⅡ以及基于視圖的MV-CNN(Multi-View Convolutional Neural Network),得到FusionNet,并在ModelNet10的識(shí)別中得到了93.1%的識(shí)別準(zhǔn)確率;Bu等[4]首先將低層三維形狀描述符編碼成幾何詞袋,從中發(fā)現(xiàn)中層模式,探索詞與詞之間的幾何關(guān)系。在此基礎(chǔ)上,通過深度信念網(wǎng)絡(luò)學(xué)習(xí)高級(jí)形狀特征,實(shí)驗(yàn)證明該方法對(duì)三維模型分類任務(wù)具有較強(qiáng)的識(shí)別能力。盡管在卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)中使用池化層在一定程度上增大了神經(jīng)元的感受野以及降低了樣本訓(xùn)練的開銷,但是大量池化層的使用會(huì)造成原始數(shù)據(jù)結(jié)構(gòu)信息的丟失,從而對(duì)最終的識(shí)別結(jié)果造成不良影響。

Hinton等[5]于2017年提出的膠囊網(wǎng)絡(luò)創(chuàng)新地使用向量膠囊取代傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的標(biāo)量神經(jīng)元,舍棄了池化層,并提出了動(dòng)態(tài)路由(Dynamic Routing,DR)算法更新膠囊之間的連接權(quán)重,從而較好地保留了特征的空間信息,在MINIST手寫數(shù)字識(shí)別上達(dá)到了99.2%識(shí)別準(zhǔn)確率。自膠囊網(wǎng)絡(luò)誕生之后,人們將其應(yīng)用到了很多領(lǐng)域,如人類行為識(shí)別[6]、人工聲音事件檢測[7]、乳腺癌識(shí)別[8]等。在三維模型識(shí)別領(lǐng)域,Ahmad等[9]于2018年提出了3D Capsule Networks,證明了同樣深度的膠囊網(wǎng)絡(luò)比卷積網(wǎng)絡(luò),不僅對(duì)于二值體素化的三維模型具有更好的識(shí)別能力,而且在使用40%的訓(xùn)練集進(jìn)行訓(xùn)練時(shí),膠囊網(wǎng)絡(luò)也能得到91.37%的識(shí)別率。Ryan[10]將二維膠囊網(wǎng)絡(luò)加以改變,使之能夠識(shí)別三維體素化數(shù)據(jù),通過調(diào)優(yōu),在ModelNet10的識(shí)別中達(dá)到了93%的識(shí)別準(zhǔn)確率。在驗(yàn)證旋轉(zhuǎn)敏感性方面,通過將測試集的體素化數(shù)據(jù)進(jìn)行轉(zhuǎn)置并輸入訓(xùn)練好的膠囊網(wǎng)絡(luò)中進(jìn)行識(shí)別之后,發(fā)現(xiàn)膠囊網(wǎng)絡(luò)對(duì)該測試集中的模型并不能很好地識(shí)別。然而膠囊網(wǎng)絡(luò)利用向量的方向存儲(chǔ)特征的相對(duì)空間信息,理論上應(yīng)該對(duì)旋轉(zhuǎn)模型具有良好的識(shí)別能力。此外,為了保留了特征的空間信息,現(xiàn)有的基于膠囊網(wǎng)絡(luò)的三維模型識(shí)別網(wǎng)絡(luò)通常都舍棄了池化層的設(shè)計(jì),但是池化層本身在特征降維、壓縮數(shù)據(jù)、減少過擬合、提高模型容錯(cuò)性等方面具有優(yōu)良表現(xiàn),適當(dāng)?shù)匾胍粚硬介L和較小的池化層不會(huì)導(dǎo)致特征空間信息的大量丟失。

本文以 Ryan[10]模型為 Basemodel,引入 VoxNet[11]作對(duì)比,從提高識(shí)別率和探索旋轉(zhuǎn)敏感性兩個(gè)方面作了相關(guān)研究:在提高識(shí)別率方面,本文提出了一種新的基于膠囊網(wǎng)絡(luò)的結(jié)構(gòu)3DSPNCapsNet,引入了一層步長和尺寸都較小的池化層;同時(shí)改進(jìn)了動(dòng)態(tài)路由協(xié)議,將向量長度加入迭代過程中,使得網(wǎng)絡(luò)模型在ModelNet10上的識(shí)別準(zhǔn)確率得到提高;在探索旋轉(zhuǎn)敏感性方面,本文對(duì)三維模型的旋轉(zhuǎn)進(jìn)行了可視化,并分別在原訓(xùn)練集和擴(kuò)充了部分旋轉(zhuǎn)模型的訓(xùn)練集上進(jìn)行訓(xùn)練,在旋轉(zhuǎn)測試集上測試,達(dá)到了良好效果。

1 3DSPNCapsNet

CapsNet最早由Hinton提出,利用向量保存特征信息。用向量不同維度上的值分別表示不同的屬性,向量的模表示這個(gè)實(shí)體出現(xiàn)的概率。Basemodel是對(duì)Hinton提出的二維膠囊網(wǎng)絡(luò)的三維擴(kuò)展,在兩個(gè)膠囊層之前僅僅使用了一個(gè)卷積層,并沒有在網(wǎng)絡(luò)設(shè)計(jì)中增加太多的層次結(jié)構(gòu)。而傳統(tǒng)的GoogleNet具有高達(dá)22層的深度網(wǎng)絡(luò)結(jié)構(gòu)。通常情況下,更深的結(jié)構(gòu)意味著網(wǎng)絡(luò)能提取到更具有代表性的特征,然而層數(shù)過多也容易導(dǎo)致過擬合、梯度爆炸等情況的出現(xiàn)。

基于此,本文提出了一種基于膠囊網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)3DSPNCapsNet(3D Small Pooling No dense Capsule Networks),該網(wǎng)絡(luò)由雙CNN間連接一個(gè)最大池化層,以及初級(jí)膠囊層、次級(jí)膠囊層和輸出膠囊層構(gòu)成。與Basemodel的結(jié)構(gòu)相比,3DSPNCapsNet增加了一層池化層和卷積層,在提取到更具代表性的特征的同時(shí),利用一層步長和大小都較小的池化層減少了冗余特征。雖然池化層的引入會(huì)在一定程度上損失部分信息,不過一層步長和較小的池化層損失的信息有限,而其在擴(kuò)大感知野、減少過擬合等方面的作用,會(huì)使網(wǎng)絡(luò)學(xué)習(xí)到的特征更具有代表性。將該網(wǎng)絡(luò)優(yōu)化參數(shù)配置后用于三維模型識(shí)別,其結(jié)構(gòu)如圖1所示。

圖1 3DSPNCapsNet結(jié)構(gòu)Fig.1 Structureof 3DSPNCapsNet

如圖1,體素化后大小為30×30×30的三維模型數(shù)據(jù)首先被第一個(gè)由256個(gè)三維卷積核構(gòu)成,大小為9×9×9、步長為1×1×1、激活函數(shù)為Relu的卷積層提取基礎(chǔ)特征,得到22×22×22×256的輸出。經(jīng)過大小為2×2×2、步長為2的最大池化層處理,將得到的21×21×21×256的結(jié)果通過第二個(gè)由大小為5×5×5、步長為1×1×1、96個(gè)卷積核構(gòu)成的卷積層進(jìn)行卷積操作,得到17×17×17×96的輸出。然后使用32個(gè)步長為2的9×9×9×256的卷積核對(duì)其進(jìn)行8通道卷積,將每個(gè)8通道卷積結(jié)果封裝成8維向量,并使用Squash激活函數(shù)處理膠囊,得到7×7×7×32×8的輸出,構(gòu)成了初級(jí)膠囊層。Squash函數(shù)保證向量的長度在0~1,從而使向量在高維空間中的方向體現(xiàn)實(shí)體的不同屬性,其表達(dá)式如式(1):

其中:u j為輸出向量,s j為輸入向量。公式右邊的s j‖‖s j是單位向量。如果s j→∞,則如果s j→ 0,則這種方式增加了模長較大的向量的權(quán)重[12]。

初級(jí)膠囊層的輸出向量分別與8×48的姿態(tài)矩陣W ij點(diǎn)積之后,得到48維的向量,如式(2):

其中:u i為初始膠囊層的輸出向量;W ij為姿態(tài)矩陣,由反向傳播算法訓(xùn)練。點(diǎn)積之后的48維向量與次級(jí)膠囊層的10個(gè)1×48的向量全連接,使用第2章的DRL(Dynamic Routing-based algorithm with Length information)算法對(duì)該過程的參數(shù)進(jìn)行更新。得到的預(yù)測向量構(gòu)成次級(jí)膠囊層,最后輸出膠囊層通過計(jì)算次級(jí)膠囊層的向量長度,取其中模長最大的向量作為最終預(yù)測。

由于重構(gòu)網(wǎng)絡(luò)的損失權(quán)重只有0.005,所以本文無論是訓(xùn)練還是預(yù)測過程,都舍棄了重構(gòu)網(wǎng)絡(luò)以及誤差,從而降低了模型復(fù)雜度,有助于提升模型的訓(xùn)練效率。對(duì)于有10個(gè)類別、批訓(xùn)練的大小為N的數(shù)據(jù)集,新的誤差計(jì)算方式如式(3)、(4):

根據(jù)Hinton提出的膠囊網(wǎng)絡(luò),Lk為每個(gè)膠囊的margin loss,其中m-=0.1、m+=0.9、λ=0.5。當(dāng)模型被正確識(shí)別為種類k時(shí),Tk為1,否則為0。分別計(jì)算每個(gè)膠囊的Lk,再對(duì)所有膠囊的損失求和得到總體損失loss。

2 DRL算法

原有的動(dòng)態(tài)路由算法僅僅使用余弦相似度來度量向量之間的相似度,但是這可能會(huì)導(dǎo)致網(wǎng)絡(luò)訓(xùn)練時(shí)收斂速度較慢以及丟失部分信息。最近有一些膠囊網(wǎng)絡(luò)的相關(guān)應(yīng)用研究了新的動(dòng)態(tài)規(guī)劃算法,DRDL(Dynamic Routing-based algorithm with Direction and Length information)[13]就 是 其 中 的 一 個(gè) 。DRDL在動(dòng)態(tài)路由的基礎(chǔ)上將向量長度和方向信息引入算法中。不過將該方法引入3DSPNCapsNet后,訓(xùn)練結(jié)果不收斂,所以本文在其基礎(chǔ)上做了一些修改,舍棄了其中對(duì)聚類中心向量s i取L2正則化以及使用預(yù)測向量u?j|i和目標(biāo)向量v j的模長之差更新bij的步驟,提出了DRL算法。

定 義 多 維 空 間 的 兩 個(gè) 向 量A=(A1,A2,…,An),B=(B1,B2,…,Bn),二者夾角的余弦:

j囊層的第j個(gè)膠囊的輸出向量,bij為兩個(gè)膠囊之間的連接權(quán)重。此外,Squash只在最后一輪迭代的時(shí)候使用。算法如圖2所示。

首先初始化bij為0,其中bij表示上一層的膠囊i與本層的膠囊j之間的相關(guān)性,其值越大,表示兩膠囊之間相關(guān)性越強(qiáng)。然后開始迭代,每次迭代開始時(shí)都先判斷當(dāng)前迭代是不是最后一輪,如果不是,就利用Softmax函數(shù)得到cij,Softmax函數(shù)如式(7):

cij為動(dòng)態(tài)路由過程中的耦合系數(shù),然后對(duì)式(2)中的預(yù)測向量進(jìn)行聚類,得到預(yù)測向量的聚類中心s j,并使用式(8)對(duì)bij進(jìn)行更新:

如果上一層的預(yù)測向量u?j|i的單位向量與本層的聚類中心向量s j的單位向量的夾角在(-90°,90°),則bij為正;如果夾角為±90°,則bij變?yōu)?;如果夾角在(90°,270°),則bij為負(fù)。如果是最后一輪迭代,計(jì)算出聚類中心s j之后,通過Squash函數(shù)輸出最終的預(yù)測向量。

圖2 DRL算法流程Fig.2 Flowchart of DRL algorithm

迭代過程結(jié)束,最后得到10個(gè)1×48的向量v j構(gòu)成次級(jí)膠囊層,其長度表示實(shí)體出現(xiàn)的概率。

3 實(shí)驗(yàn)分析與結(jié)果

普林斯頓大學(xué)提供了兩個(gè)大規(guī)模的標(biāo)準(zhǔn)三維模型數(shù)據(jù)集,分別為ShapeNet數(shù)據(jù)集和ModelNet數(shù)據(jù)集,其中ModelNet數(shù)據(jù)集包含了來自662類的127 915個(gè)三維模型,其子集ModelNet10包含了來自10類的4 899個(gè)三維模型。本文選取ModelNet10的模型作為實(shí)驗(yàn)數(shù)據(jù)庫。

實(shí)驗(yàn)平臺(tái)和開發(fā)工具有:CPU為Intel Xeon E3-1231 3.40 GHz,內(nèi)存為 8 GB,顯卡 Quadro K620,編程環(huán)境為Python3.5,基于Keras搭建的實(shí)驗(yàn)驗(yàn)證本文方法的有效性。

3.1 3DSPNCapsNet在標(biāo)準(zhǔn)訓(xùn)練集和測試集上的性能比較

本節(jié)分別使用融合了DRL算法的3DSPNCapsNet以及使用原始 DR 算法的 3DSPNCapsNet、Basemodel、VoxNet在標(biāo)準(zhǔn)的ModelNet10的訓(xùn)練集和測試集上訓(xùn)練和測試。將原始三維模型的.off文件體素化為.binvox文件,使用上采樣解決類間不平衡問題之后,輸入網(wǎng)絡(luò)中使用5折交叉驗(yàn)證,每折訓(xùn)練5輪;學(xué)習(xí)率初始化為0.003,最后取交叉驗(yàn)證結(jié)果的平均值作為最終的識(shí)別率。訓(xùn)練期間根據(jù)輸出膠囊的預(yù)測準(zhǔn)確率對(duì)學(xué)習(xí)率進(jìn)行動(dòng)態(tài)調(diào)整,影響因子為0.5,學(xué)習(xí)率最低不小于0.000 1;batch size取10,使用1個(gè)GPU加速計(jì)算。幾種方法在標(biāo)準(zhǔn)訓(xùn)練集和測試集上的識(shí)別率折線圖如圖3,融合了DRL算法的3DSPNCapsNet的混淆矩陣如圖4,Basemodel的混淆矩陣如圖5,使用原始DR算法的3DSPNCapsNet的混淆矩陣如圖6,VoxNet的混淆矩陣如圖7所示。

實(shí)驗(yàn)結(jié)果顯示,融合DRL算法的3DSPNCapsNet平均識(shí)別率達(dá)到95%、使用原始DR算法的3DSPNCapsNet為94%、Bsaemodel為93%、VoxNet為88%,平均識(shí)別準(zhǔn)率方面融合DRL算法的3DSPNCapsNet最高。從具體的模型識(shí)別分類來看,與Basemodel相比,融合DRL算法的3DSPNCapsNet除了sofa、table、toliet、bathtub 略低 1~3 個(gè)百分點(diǎn)之外,monitor、chair、bed高了 1~6個(gè)百分點(diǎn),dresser、night_stand、desk高了12~18個(gè)百分點(diǎn)。與VoxNet相比,除了table類的識(shí)別率略低于VoxNet,其他類別的模型識(shí)別率都取得了與VoxNet相同或者更好的效果。平均識(shí)別率達(dá)到了95%以上。融合DRL算法的3DSPNCapsNet(以下簡稱3DSPNCapsNet)表現(xiàn)出了良好的特征提取能力和識(shí)別能力。

圖3 使用DRL的3DSPNCapsNet與使用DR的3DSPNCapsNet、Basemodel、VoxNet的結(jié)果對(duì)比Fig.3 Resultscomparison of 3DSPNCapsNet with DRL,3DSPNCapsNet with DR,Basemodel,VoxNet

圖4 3DSPNCapsNet混淆矩陣Fig.4 Confusion matrix of 3DSPNCapsNet

圖5 Basemodel混淆矩陣Fig.5 Confusion matrix of Basemodel

圖6 3DSPNCapsNet with DR混淆矩陣Fig.6 Confusion matrix of 3DSPNCapsNet with DR

圖7 VoxNet混淆矩陣Fig.7 Confusion matrix of VoxNet

3.2 3DSPNCapsNet在旋轉(zhuǎn)敏感性方面的性能比較

3.2.1 不增加旋轉(zhuǎn)訓(xùn)練集時(shí),三種方法對(duì)旋轉(zhuǎn)的敏感性對(duì)比

膠囊網(wǎng)絡(luò)通過向量膠囊的形式既保存了特征信息,又記錄了不同特征之間的空間位置信息,理論上來說對(duì)于模型的旋轉(zhuǎn)應(yīng)該具有較高的識(shí)別準(zhǔn)確率。為了驗(yàn)證這一特點(diǎn),本文使用Meshlab將測試集的模型先繞z軸分別旋轉(zhuǎn)30°、60°、90°、120°、150°、180°、210°、240°、270°、300°、330°,再體素化為.binvox文件,最后使用viewvox將其可視化。使用在原始的訓(xùn)練集上訓(xùn)練的模型分別在上述旋轉(zhuǎn)測試集上測試。旋轉(zhuǎn)體素化結(jié)果如圖8,旋轉(zhuǎn)測試結(jié)果如圖9。

實(shí)驗(yàn)結(jié)果顯示,當(dāng)前實(shí)驗(yàn)條件下,3DSPNCapsNet對(duì)原始測試集模型識(shí)別率達(dá)到95%、Basemodel為93%、VoxNet為88%。然而3DSPNCapsNet對(duì)旋轉(zhuǎn)模型的識(shí)別能力并沒有達(dá)到預(yù)期效果,平均旋轉(zhuǎn)識(shí)別率僅48%,與Basemodel的48%以及Voxnet的49%相似。這是由于網(wǎng)絡(luò)沒有學(xué)習(xí)到相關(guān)的旋轉(zhuǎn)信息。將訓(xùn)練集進(jìn)行擴(kuò)展,重新訓(xùn)練網(wǎng)絡(luò)之后再在旋轉(zhuǎn)測試集上測試。

3.2.2 增加旋轉(zhuǎn)訓(xùn)練集時(shí),三種方法對(duì)旋轉(zhuǎn)的敏感性對(duì)比

將原始訓(xùn)練集分別旋轉(zhuǎn)30°、60°、90°和原有的訓(xùn)練集共同組成了新的訓(xùn)練集,在新的訓(xùn)練集上使用三種方法分別訓(xùn) 練,并在旋轉(zhuǎn)測試集測試。實(shí)驗(yàn)結(jié)果如圖10。

圖8 先繞z軸旋轉(zhuǎn),再體素化的測試集Fig 8 Test set first rotated around the z-axis,then voxelized

圖9 在原訓(xùn)練集訓(xùn)練、旋轉(zhuǎn)測試集測試的準(zhǔn)確率比較Fig.9 Test accuracy comparison of rotation test set with original training set training

圖10 在旋轉(zhuǎn)訓(xùn)練集訓(xùn)練、旋轉(zhuǎn)測試集測試的準(zhǔn)確率比較Fig.10 Test accuracy comparison of rotation test set with rotation trainingset training

由圖10可以直觀地看出,擴(kuò)展了旋轉(zhuǎn)訓(xùn)練集之后,三種方法對(duì)旋轉(zhuǎn)三維模型都表現(xiàn)出了更好的識(shí)別能力,其中3DSPNCapsNet在30°、60°、90°這三個(gè)角度上的旋轉(zhuǎn)識(shí)別率達(dá)到了91%以上,Basemodel也達(dá)到了90%以上,VoxNet達(dá)到87%以上。相對(duì)于沒有增加旋轉(zhuǎn)訓(xùn)練集的情況,3DSPNCapsNet對(duì)于旋轉(zhuǎn)模型的平均識(shí)別率提升了24個(gè)百分點(diǎn),Basemodel提升了21個(gè)百分點(diǎn),VoxNet提升了15個(gè)百分點(diǎn)。雖然3DSPNCapsNet平均達(dá)到了72%的識(shí)別準(zhǔn)確率,但是識(shí)別率的方差偏大,數(shù)據(jù)分布不均衡,在30°、60°、90°的識(shí)別率明顯高于其他旋轉(zhuǎn)角度的識(shí)別率。從實(shí)驗(yàn)結(jié)果還可以看出,三個(gè)模型在識(shí)別率的變化趨勢上保持了一致性:在120°和150°上逐漸下降,這是因?yàn)樾D(zhuǎn)角度逐漸變大時(shí),與原有模型的差異性也逐漸增加,導(dǎo)致識(shí)別率下降;而180°時(shí)識(shí)別率反而提高了,并在210°、240°、270°的旋轉(zhuǎn)模型上保持了幾乎一致的識(shí)別率。通過多次實(shí)驗(yàn)發(fā)現(xiàn),這種情況出現(xiàn)的原因是三種網(wǎng)絡(luò)對(duì)于原始訓(xùn)練集具有最高的識(shí)別準(zhǔn)確率。相對(duì)于其他旋轉(zhuǎn)角度,三種網(wǎng)絡(luò)對(duì)原始訓(xùn)練模型的中心對(duì)稱模型也具有一定的識(shí)別能力,所以網(wǎng)絡(luò)在旋轉(zhuǎn)300°時(shí)識(shí)別率重新下降,而旋轉(zhuǎn)330°時(shí)的識(shí)別率與120°的識(shí)別率相當(dāng),這是因?yàn)?20°與90°的旋轉(zhuǎn)訓(xùn)練集相差30°,同330°與原始訓(xùn)練集相差的角度一致。基于此,本文重新調(diào)整了旋轉(zhuǎn)訓(xùn)練集的構(gòu)成,將原始訓(xùn)練集分別旋轉(zhuǎn)90°、150°、240°和原有的訓(xùn)練集共同組成了新的訓(xùn)練集,在新的旋轉(zhuǎn)訓(xùn)練集上使用三種網(wǎng)絡(luò)分別訓(xùn)練,并在旋轉(zhuǎn)測試集測試。實(shí)驗(yàn)結(jié)果如圖11。

圖11 在新的旋轉(zhuǎn)訓(xùn)練集訓(xùn)練、旋轉(zhuǎn)測試集測試的準(zhǔn)確率比較Fig.11 Test accuracy comparison of rotation test set with new rotation trainingset training

實(shí)驗(yàn)結(jié)果顯示,調(diào)整了旋轉(zhuǎn)訓(xùn)練集之后,三種方法在旋轉(zhuǎn)模型的識(shí)別方面整體都有了較大的提升。3DSPNCapsNet和Basemodel在原始測試集上的識(shí)別準(zhǔn)確率都達(dá)到了96%,在其他旋轉(zhuǎn)測試集上,3DSPNCapsNet的總體平均識(shí)別率達(dá)到了81%,高于 Basemodel的 78%和VoxNet的73%;相對(duì)于30°、60°、90°的旋轉(zhuǎn)訓(xùn)練集實(shí)驗(yàn),平均識(shí)別率提高了9個(gè)百分點(diǎn),Basemodel提高了9個(gè)百分點(diǎn),VoxNet提高了10個(gè)百分點(diǎn),識(shí)別準(zhǔn)確率方差較小,數(shù)據(jù)分布更加均衡。3DSPNCapsNet整體對(duì)于旋轉(zhuǎn)模型具有更好的識(shí)別能力。

3.3 池化層對(duì)識(shí)別率的影響

Hinton提出膠囊網(wǎng)絡(luò)的初衷是因?yàn)槌鼗瘜拥脑O(shè)計(jì)會(huì)導(dǎo)致特征信息的丟失,尤其是特征之間的空間位置信息很容易在池化的過程中被丟棄。基于此,本文實(shí)驗(yàn)比較分析了池化層對(duì)模型的旋轉(zhuǎn)識(shí)別的影響。將3DSPNCapsNet的池化層舍棄,并與未舍棄池化層的網(wǎng)絡(luò)分別在旋轉(zhuǎn)訓(xùn)練集和測試集上訓(xùn)練和測試,并進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如圖12。

圖12顯示,兩種方法對(duì)于旋轉(zhuǎn)都具有較好的識(shí)別能力,其中有池化層的網(wǎng)絡(luò)在原始數(shù)據(jù)集上取得了更高的96%的識(shí)別準(zhǔn)確率,而除了在旋轉(zhuǎn)210°的模型識(shí)別率上低了5個(gè)百分點(diǎn),其他的角度都與無池化層的模型識(shí)別率相似,說明兩種膠囊網(wǎng)絡(luò)都具有良好的特征提取能力,而且一層大小和步長都較小的池化層的加入并不會(huì)導(dǎo)致特征信息的大量丟失。池化層在降維、實(shí)現(xiàn)非線性、擴(kuò)大感知野等方面都有積極作用,所以不必在新架構(gòu)的探索中完全舍棄池化層的設(shè)計(jì),池化與膠囊網(wǎng)絡(luò)相結(jié)合可能會(huì)有更好的效果。

圖12 池化層對(duì)旋轉(zhuǎn)準(zhǔn)確率的影響Fig.12 Effect of pooling layer on rotation recognition accuracy

4 結(jié)語

本文提出了一種基于膠囊網(wǎng)絡(luò)的三維模型識(shí)別算法,通過在卷積網(wǎng)絡(luò)中增加卷積層、池化層得到相對(duì)于原始網(wǎng)絡(luò)結(jié)構(gòu)更好的特征提取效果,舍棄重構(gòu)網(wǎng)絡(luò)減少參數(shù)數(shù)量,以及使用新的動(dòng)態(tài)路由算法得到在原始測試集上95%的識(shí)別準(zhǔn)確率。通過增加一定數(shù)量的旋轉(zhuǎn)訓(xùn)練集,得到對(duì)旋轉(zhuǎn)三維模型更有識(shí)別力的膠囊網(wǎng)絡(luò),并驗(yàn)證了一層大小和步長較小的池化層的引入不會(huì)損失太多的信息,反而有可能在一定程度上產(chǎn)生更好的結(jié)果。在后續(xù)的研究中,可以探索更深的網(wǎng)絡(luò)結(jié)構(gòu)來進(jìn)一步提高識(shí)別準(zhǔn)確率;另外還可以探索如何使膠囊網(wǎng)絡(luò)學(xué)習(xí)到更具有旋轉(zhuǎn)方面的代表性的特征,從而不需要通過擴(kuò)充訓(xùn)練集的方式,就能對(duì)三維空間內(nèi)任意方向任意角度的旋轉(zhuǎn)都具有更好的識(shí)別能力。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 国产喷水视频| 久久永久视频| 中文字幕 91| 国产成人久久综合一区| 国产免费看久久久| 国产精选自拍| 免费 国产 无码久久久| 91精品国产一区自在线拍| 亚洲天堂高清| 亚洲第一页在线观看| 亚洲精品第一页不卡| 青青热久免费精品视频6| 中文无码影院| h网址在线观看| 欧美精品在线视频观看| 国产一级妓女av网站| 美女高潮全身流白浆福利区| 国产主播喷水| 欧美va亚洲va香蕉在线| 中国成人在线视频| 成人字幕网视频在线观看| 成人亚洲国产| 久久成人18免费| 日韩欧美网址| 91精选国产大片| 欧美精品啪啪| 全免费a级毛片免费看不卡| 无码专区在线观看| 国产交换配偶在线视频| 亚洲综合在线最大成人| 欧美日韩综合网| 欧美一区二区丝袜高跟鞋| 91人妻日韩人妻无码专区精品| 久久精品丝袜| 国产一区免费在线观看| 欧美午夜小视频| 亚洲精选无码久久久| 欧美黄色a| 国产一级毛片网站| 国国产a国产片免费麻豆| 亚洲,国产,日韩,综合一区| 欧美亚洲激情| 国产精品自在在线午夜区app| 2021亚洲精品不卡a| 99视频在线精品免费观看6| 国产白浆视频| 在线精品亚洲国产| 国产免费观看av大片的网站| 亚洲欧洲综合| 免费在线色| 欧美a级完整在线观看| 四虎综合网| 男女性色大片免费网站| 91免费国产高清观看| 欧美亚洲中文精品三区| 一级爆乳无码av| 欧美另类视频一区二区三区| 成人免费一区二区三区| 97视频免费在线观看| 精品自窥自偷在线看| 国产成人综合日韩精品无码不卡| 狠狠操夜夜爽| 亚洲无码视频喷水| 精品99在线观看| 丁香婷婷综合激情| 精品伊人久久久大香线蕉欧美| 久久无码高潮喷水| 欧美a在线视频| 亚洲区欧美区| 91年精品国产福利线观看久久 | 精品1区2区3区| 亚洲成人播放| 爆乳熟妇一区二区三区| 人妻21p大胆| 亚洲国产精品日韩欧美一区| 在线看AV天堂| 青青操视频免费观看| 夜夜拍夜夜爽| 国产区人妖精品人妖精品视频| 欧美性猛交一区二区三区| 嫩草在线视频| 中文字幕2区|