999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于設計草圖的零配件檢索算法

2023-01-01 00:00:00鮑玉茹劉雨豪陳睿東常日灝聶為之
計算機應用研究 2023年3期

摘 要:在機械制造智能化進程中不可避免地產生了海量零配件模型信息,給數據的高效檢索帶來了巨大的挑戰。考慮到設計草圖具備用戶友好且輕量級的特性,方法通過構造深度跨域表征模型進行基于設計草圖的機械零配件模型檢索。針對草圖和三維模型的跨模態信息關聯問題,提出特征聯合學習方法,旨在控制檢索對象類內及類間差異的過程中,使特征描述符習得單一域特征的同時融合跨域信息,建立跨模態數據在共嵌空間下的一致性關聯表征。最后,利用哈希編碼構建索引表實現海量數據的快速檢索。在零部件數據上的實驗結果表明,所提出的基于設計草圖的零配件檢索方法在同期方法中既能實現最準確的檢索結果,也具備較高的檢索效率。方法在提升跨模態零配件信息檢索準確性的同時提高了數據管理效率,從而間接提升了產品設計的效率和便捷性,相關系統已經在部分企業落地應用且獲得良好反饋。

關鍵詞:三維模型檢索;設計草圖;特征提取;相似性度量;跨模態檢索

中圖分類號:TP391 文獻標志碼:A

文章編號:1001-3695(2023)03-046-0919-06

doi:10.19734/j.issn.1001-3695.2022.06.0318

Retrieval algorithm for parts and accessories based on design sketch

Bao Yuru1,Liu Yuhao2,Chen Ruidong1,Chang Rihao1,Nie Weizhi1

(1.School of Electrical Automation amp; Information Engineering,Tianjin University,Tianjin 300072,China;2.Tianjin Navigation Instrument Research Institute,Tianjin 300130,China)

Abstract:In the intelligent transformation of the mechanical manufacturing,a large amount of spare parts models is inevitably generated,which brings huge challenges to the efficient retrieval of data.Considering the user-friendly and lightweight characteristics of design sketches,this paper conducted model retrieval of mechanical parts based on design sketches by constructing a deep cross-domain representation model.Aiming at the problem of cross-modal information association between sketches and 3D models,this paper proposed a feature joint learning method,which controlled the differences within and between classes of retrieved models.By this method,feature descriptors could acquire single-domain features as well as fuse the cross-domain information,and thus,the method established a consistent association representation of cross-modal data in a co-embedding space.Finally,it constructed the index table by using hash coding to realize fast retrieval of massive data.The experimental results on the parts data show that the proposed retrieval method based on the design sketch can not only achieve the most accurate retrieval results,but also have higher retrieval efficiency among the comparison methods.The method not only improves the accuracy of cross-modal spare parts information retrieval,but also improves the efficiency of data management,thereby indirectly improving the efficiency and convenience of product design.The related systems have been applied in some enterprises and have received good feedback.

Key words:3D model retrieval;design sketch;feature extraction;similarity measurement;cross-modal retrieval

0 引言

隨著計算機信息處理技術的發展,計算機輔助設計和數字化設計的發展極大便利了工業機械零部件的設計研發,更快的產品設計和更便利的研發方式有效地提高了產品迭代效率,但與此同時,迅速增長的模型數量給數據管理帶來了極大的挑戰。由于缺乏有效的管理策略,設計人員及管理人員為了找到合適的零件模型往往需要在零件庫中進行大量重復的查詢工作,極大地影響了工作效率。由于設計工作的持續進行,這一問題呈現出愈演愈烈的趨勢,所以如何通過有效的技術手段實現數據的快速檢索和有效關聯,是如今科研工作者亟待解決的技術問題。

近年來,隨著智能制造轉型的加快,基于草圖的形狀檢索在計算機視覺和計算機圖形學中越來越受到關注。以前的工作[1,2]更傾向于先將三維形狀渲染成線渲染[3],再獲取投影和草圖的手工提取特征以測量它們的相似性。Saavedra等人[1]提取投影和草圖的外部輪廓,然后應用三種描述符來描述輪廓。隨后,曼哈頓距離被用于相似性匹配。Eitz等人[2]從多個角度使用遮擋輪廓和暗示輪廓渲染三維形狀,他們通過特征袋方法來提取投影和草圖的特征并計算其余弦相似度。由于手工設計的特征以及淺層學習特征的識別能力有限,傳統的基于草圖的三維形狀檢索方法的性能并不理想。

隨著深度學習方法在計算機視覺領域的大量普及,一些基于深度學習的草圖—三維模型檢索方法得到了廣泛研究,主要分為基于表示的檢索方法和基于匹配的檢索方法[4]。

基于表示的檢索方法傾向于學習一種映射方式,將草圖特征和三維模型特征映射到共同的特征空間。Furuya等人[5]采用跨模態的流形學習(CDMR)來彌合域之間的差距,從而使模型的三維形狀特征可以與流形上的草圖特征進行比較。Lei等人[6]提出了一種深點到子空間的度量學習(DPSML),首先將草圖投影到特征向量中,再將三維形狀投影到由幾個選定的基礎特征向量張成的子空間中,最后,通過實時求解優化問題,將兩個特征空間之間的相似度定義為查詢特征向量與其在子空間中的最近點之間的距離。Yassee等人[7]使用動態時間規整算法,利用圖像輪廓的視覺突出部分來描述二維形狀。然而,由于草圖和三維形狀的異質性,很難學習一種既不受多模態數據影響又能夠具備較強區分能力的表征。

基于匹配的檢索方法通過建立草圖—模型對,并不斷優化匹配對之間的距離度量實現檢索[8]。Wang等人[9]提出了包含兩個卷積神經網絡的Siamese網絡來提取草圖和投影的特征,同時,該方法結合了域內和域間的損失函數以約束網絡訓練。 Zhu等人[10]提出了一種跨域神經網絡(CDNN)和金字塔跨域神經網絡(PCDNN)方法,可以減小草圖特征和三維形狀特征之間的差異。Xie等人[11]提出從三維形狀學習二維投影深度特征的Wasserstein平均,然后通過構建度量網絡學習具有判別性和緊湊性的三維形狀和草圖特征。在Shape2Vec[12]中,三維形狀特征、草圖特征和相機圖像特征都被映射到共嵌空間中以進行跨域比較。Dai等人[13]提出了深度相關度量學習(DCML)和深度相關整體度量學習(DCHML),通過訓練兩個不同的深度神經網絡,利用判別性損失來最小化類內距離并最大化類間距離,同時設計了相關損失以最小化不同域之間的分布差異。Ha等人[14]在Sketch-RNN中將一張草圖看做是筆畫序列,每個筆畫又看做一個點序列,進行草圖識別。Xu等人在SketchMate[15]中既將草圖視為一系列點,同時又保有它本身圖像層面的特征,以增強習得的特征。Xie等人[16]提出基于Wasserstein距離學習三維形狀的平均表示, 并應用另一個網絡來提取草圖的特征,最后使用歐幾里德距離計算相似度。Chen等人[17]提出了一種深度交叉模態自適應(DCA)算法。 首先,他們在兩個深度卷積神經網絡之后設計了兩個度量網絡,這兩個網絡利用基于重要性感知的度量學習來獲取特定模態的判別特征,然后,他們引入基于對抗性學習的跨模態轉換網絡,從而彌補兩種模態信息之間的差異。文獻[18]對基于內容和語義的檢索任務[19]及三維模型體素表達的特征提取[20]兩方面進行了研究,通過集成二維形狀和全局特征實現檢索。在算法效率方面,文獻[21]提出深度草圖—模型哈希算法,該算法提出基于隨機視角的三維模型切片網絡,以習得高辨識度的三維模型表征,同時,算法提出困難樣本二進制編碼方法以保持編碼結果的語義緊湊性,從而在檢索準確性和檢索效率上得到權衡。

在海量模型數據檢索的應用方面,部分國外公司已經開發了相關的產品。德國的Cadenas公司開發的標準庫零件檢索系統整合了超過300家公司的模型庫,并對海量模型構建了目錄,方便用戶對模型信息進行整合和采購。法國的TraceParts公司開發了針對制造業的零配件產品目錄,實現了類似的功能。上述檢索系統都有了一定的市場基礎,但都僅僅能夠檢索標準件模型,無法做到對開放域條件下的非標件檢索。另一方面,兩者都支持草圖的檢索,但不支持常規圖片的檢索,其應用場景有一定的局限性。

本文關注于利用設計草圖進行零配件模型檢索,旨在利用跨媒體檢索技術實現產品設計階段的高效信息獲取。但是,三維模型的結構信息與草圖的像素信息存在天然的模態語義鴻溝,而且產品設計人員的查詢意圖也千差萬別,這都給實現準確的檢索帶來了極大的困難和挑戰。因此,如何獲取草圖與目標模型的共性信息及其數字化表征,如何構建高效索引以實現基于草圖數據的零配件模型精準快速檢索,成為本文著重解決的關鍵問題。

近年來,在深度度量學習的加持下,基于匹配的檢索方法往往能夠取得比基于表示的檢索方法更準確的檢索效果,但是,現有大部分方法都停留于算法研究,且更關注通用三維模型的檢索,忽略了工業零配件特有的規范性和嚴謹性為三維模型檢索帶來的隱形紅利,同時,在眾多現有研究方法中也缺乏成熟的商用產品。尤其是缺乏國產軟件和系統,繼續對技術進行落地和相關平臺的開發,彌補了市場的不足。

1 算法介紹

針對工業零配件的結構特性,本文從結構性描述和數字化描述兩個方面入手,進行多模態信息提取和相似度計算,系統結構如圖1所示。首先,網絡利用圖形學方法捕捉草圖和零配件模型的結構性信息,以進行粗略篩選。其次,通過度量學習獲取草圖和模型的跨域共性表征,以實現精細化檢索。本文將方法命名為基于設計草圖的零配件檢索算法(parts retrieval based-on design sketch,PRDS)。

1.1 結構性描述信息提取

由于輸入草圖和部分三維模型具備視覺感知的對應關系,在利用深度度量學習進行特征匹配前,可以使用傳統計算機視覺方法對數據施加約束性匹配條件,達到數據粗略篩選的效果,以提高檢索效率。開孔是機械零件最常見和最常用的特征,在多種機械結構中起著不同的作用和用途,本方法在構建草圖數據時,預先對三維模型的圓形開孔進行了標注,作為篩選標簽,具體實現方式如下:

首先,本方法將輸入圖像進行二值化處理,由于不可見的開孔在設計草圖中用虛線標示,本算法采用形態學中的閉操作(先腐蝕,再膨脹)對二值化圖像中的虛線進行彌合,此時,圖像上各個區域已經成為封閉的連通域,本方法提取當前各個連通域的輪廓以進一步檢測開孔,由于草圖中多層嵌套的輪廓中僅有內輪廓參與構成開孔,所以本方法僅提取內輪廓并計算其周長P及面積S。根據圓形度計算公式:

α=(4π×S)/P2(1)

通過圓形度α對圖像中的開孔進行鑒別,最后統計各個角度草圖中的總開孔數并進行獨熱編碼作為結構描述信息cI。為了保證數據的豐富性,利用cI對數據集中具備相近開孔數量(編碼記做cM)的三維模型進行篩選,并通過式(2)利用歐氏距離進行實例級的相似度計算,獲取草圖與模型的粗略相似度g0。

為了驗證系統的性能,本文在系統搭建過程中利用網絡爬蟲技術獲取了30萬余個零部件三維模型數據,同時,通過幾何調整和噪聲融合等方式對模型進行微調,以增加模型的數據量,最終得到約300萬個模型數據用來構建三維模型庫。經測試,該系統具備對海量三維模型進行高效檢索的能力,相關測評結果在2.8節中詳細描述。

2 實驗分析

2.1 數據集

實驗采用ESB(engineering shape benchmark) 數據集[27]驗證本文算法性能。ESB數據集包含867個模型,劃分為三個大類(平薄壁組件、直角立方棱柱和旋轉體),并細分為圓盤類零件、T形零件和支架式零件等42類零件,另外仍有66個模型被分類在三個雜項類中,由于雜項包含多種無法專項細分的模型,會嚴重誤導模型的訓練,本實驗予以忽略。在此基礎上,本方法利用數據增強手段對數據集進行擴充,并在增強后的2 403個模型上開展實驗。本方法對輸入數據進行如下預處理操作:

本文在VTK(visualization toolkit)[28,29]的基礎上對.STL格式的三維模型進行處理,提取.PCD格式點云模型數據開展實驗。

考慮到其他方法大多利用多視圖數據代表三維模型作為網絡輸入,本文根據各方法采用的不同多視圖渲染方式對ESB數據集中的三維模型提取多視圖表征。

由于該數據集不提供設計草圖,本文在實驗所需的模型文件基礎上根據工程制圖原則繪制了對應的三視圖作為實驗輸入,提供設計草圖信息。

2.2 實施細節

本文所有實驗均在配備Intel i7 CPU、32 GB內存和一張NVIDIA 1080Ti GPU的服務器上進行,軟件環境為Python 3.6.13以及PyTorch 1.9.0。

實驗將數據集劃分為訓練集1 683條,測試集720條,批數據大小設置為24。在訓練過程中,視圖數據分辨率調整為224×224×3,并使用ResNet-34[22]作為視圖描述符提取主干網絡;點云大小設置為2 048,使用PointNet[23]作為三維點云描述符提取主干網絡,提取后的特征維度均設置為1 024。

訓練過程將輸入數據劃分為錨定正負組來進行數據組織,并將度量學習和基于softmax的分類器用于控制域特征以及跨域數據的分布。此外,在訓練時將學習速率設置為0.001,并使用SGD進行優化。

2.3 評價指標

為全面表現模型檢索性能,本文使用三維模型檢索常用的六種評價指標[30,31]進行評估:

a)最近鄰(nearest neighbor,NN),表示當前檢索結果中最準確結果所占的檢索精度。

b)第一批次(first tier,FT),前K個匹配樣本的召回率,其中K是查詢類別基數。

c)第二批次(second tier,ST),前2K個匹配樣本的召回率,其中K是查詢類別基數。

d)E度量(E-measure,E),前n個檢索結果的準確率和召回率的調和平均值。

e)折扣累計增益(discounted cumulative gain,DCG),一種以相關性作為正比例系數為檢索結果分配權重的統計方法。

f)平均精度均值(mean average precision,mAP),對于一組查詢,mAP是每個查詢平均精度分數的平均值。

2.4 對比實驗

為體現模型檢索效果的優越性,實驗在ESB數據集上與當前多種典型方法進行了對比,包括跨模態流形評價算法(CDMR)以及深度交叉模態自適應算法(DCA)等,并在上述評價指標上進行了詳細比較,結果匯總于表1中。

表1中PRDS-16和PRDS-512表示不同哈希編碼長度的實驗結果,對比可知本文算法在采用16 bit哈希編碼時檢索性能已優于近期方法,而采用512 bit哈希編碼能夠實現最佳檢索性能。

由表1可知,本文提出的PRDS在各項指標上都能實現較理想的效果。由于跨模態流形評價算法(CDMR)采用傳統方式對草圖和三維模型的多視圖分別提取描述符,受到草圖—三維模型的域間差異性、草圖域內多樣性和三維模型復雜性的多重干擾,使人工提取合適的特征尤為困難;基于分段三維隨機視圖的深度草圖—模型散列算法(DSSH)雖然利用深度度量學習和散列編碼解決了特征提取的效果和效率問題,但對三維模型進行多視圖提取不可避免地造成了三維空間的信息損失,會對共嵌空間匹配的準確性產生消極影響。

本文算法在多個指標上均有提升,例如,對比DCA方法,在NN指標上有5%的提升;對比LWBR方法在FT指標上有12.6%的提升;對比Siamese方法在ST指標上有50.6%的提升。同樣地,在E、DCG以及mAP指標上,本文算法也具備明顯的效果提升。當前最先進的方法或利用度量學習進行數據對齊,或利用最佳視角提取來提高跨域相似性學習能力,相比之下,PRDS不僅關注跨域檢索中不同域間的數據一致性,也著重區別特定域內的數據分布以增強特征描述符的分辨特性,從而能在草圖—三維模型檢索上表現出一定的優越性。

圖5中展示了有關方法的查準率—查全率曲線(precision-recall curves),由圖可知,PRDS在查全率0.95以下均能夠達到同期最佳查準率。

2.5 相似度重要性分析

相似度是檢索任務的基本依據,參照式(7) ,本方法綜合了初篩相似度g0和聯合學習相似度g1進行相似度衡量,不同相似度權值對檢索效果有顯著的影響,通過對比實驗證明了這一觀點。不同權值下檢索的mAP指標如圖6所示。

從圖6中可以看出,在權值系數為β=0.7時檢索效果最好,而通過初篩相似度g0實現檢索任務的mAP指標僅達到利用聯合學習相似度g1進行檢索的54.5%。可見,本文算法的相似度衡量中,聯合學習相似度重要性更高,在檢索效果中起主要作用。但是,初步篩選出的模型范圍能夠為聯合學習創造一個較為獨立且純凈的數據環境,從而使聯合學習能夠達到更好的區分度,提高檢索任務的整體準確率,最終實現完整的算法效果預期。

2.6 特征分布分析

在特征學習過程中,本方法在域內采用分類損失函數LCL和度量學習損失函數LML進行特征的監督學習,并對域間學習應用跨域損失函數LCA進行監督,為驗證本訓練策略能夠增強特征的域間表征能力和類間區分能力,采用t-SNE特征降維方式[33,34]可視化了不損失函數監督下的特征分布,如圖7所示。

如圖7(a),跨域原始數據間具備較顯著的差別,且不同類別數據的區分度很低;如圖7(b),在LCL監督下進行特征學習后,特征間出現了略明顯的類間分化,但是邊界仍然模糊,表明當前特征對不同類別的區分能力不足;如圖7(c),同時使用LCL和LML監督訓練,不同類別的數據出現了明顯邊界,類內數據間的距離也隨之縮小,提高了特征對不同類別的區分能力,但是不同域的特征間沒有充分的關聯;如圖7(d),在聯合學習損失LCL、LML和LCA的監督下,特征既保留了類別間的區分度,也建立了不同域間的充分關聯,保證了網絡的檢索效果。相關的消融實驗結果如表2所示,實驗結果進一步驗證了以上結論,證明了提出各個損失函數的必要性。

2.7 定性實驗結果

本文將基于設計草圖的檢索方法在ESB數據集上進行了實驗,并將部分檢索結果展示在表3中。可見,本算法能在簡單機械部件(如T型零件和管狀零件等)上實現準確的檢索效果,同時,得益于結構性特征抽取模塊的篩選能力,本文算法還能檢索到結構復雜且易混淆的模型(如齒輪類零件和輻條輪類零件)。因此,本文算法具備準確捕捉目標視覺特征和拓撲結構的能力,具備優良的檢索能力。

2.8 海量模型管理系統性能測試

為了驗證海量數據環境下的算法及系統檢索性能,本文方法在包含300萬個模型的數據庫上進行系統性能測試。測試采用標準的系統測試方案,對檢索功能的響應速度、系統支持的并發量和吞吐量等指標進行了測試,結果如表4所示。

為保證在不同訪問量下測試結果的有效性及可靠性,本文統計了多個時間段下多次系統性能評估的平均值作為測試結果。

經驗證,系統基本滿足小規模公司、百萬量級數據下的檢索和管理工作,系統已經過專業第三方的測試,證明了本文算法的實用性、可靠性并已經實現落地應用。

3 結束語

二維圖像和三維模型之間的模態語義鴻溝使得利用兩者各自的共性信息進行檢索成為一項極具難度和挑戰的任務。本文提出一種基于設計草圖實現機械零部件三維模型檢索的算法。首先,算法利用計算機視覺方法對輸入二維圖像的結構特征進行提煉并作為三維模型數據庫的一種粗糙篩選條件,得到粗匹配三維模型樣本集。其次,本文提出一種聯合學習算法,一方面利用二維圖像與三維模型的類間差異進行相同域信息的區別和提取,以提高模型的分辨力;另一方面將不同域的特征信息映射到共嵌特征空間,算法利用深度度量學習方法將跨域數據在共嵌空間中對齊。為了衡量本算法的檢索性能,本文在工程模型數據集(ESB)上進行了大量實驗,并用多種三維模型檢索指標對實驗效果進行量化評估和比較,實驗結果展示了本算法在眾多基于草圖的三維模型檢索方法中的優越性。在未來的工作中,還應針對不同類型的零配件探究更加精確而高效的初步篩選條件,也應針對不同類型的零配件設計草圖進行廣泛的實驗以提高模型在更多工程應用場景下的適應性。

參考文獻:

[1]Saavedra J M,Bustos B,Schreck T,et al.Sketch-based 3D model retrieval using keyshapes for global and local representation[C]//Proc of the 5th Eurographics Workshop on 3D Object Retrieval.Pisca-taway,NJ:IEEE Press,2012:47-50.

[2]Eitz M,Richter R,Boubekeur T,et al. Sketch-based shape retrieval[J].ACM Trans on Graphics,2012,31(4):1-10.

[3]Xu Yongzhe,Hu Jiangchuan,Wattanachote K,et al. Sketch-based shape retrieval via best view selection and a cross-domain similarity measure[J].IEEE Trans on Multimedia,2020,22(11):2950-2962.

[4]Zakaria M M,Tabia H,Ait E O.Dual independent classification for sketch-based 3D shape retrieval[C]//Proc of International Confe-rence on Image Processing.Washington DC:IEEE Computer Society,2020:2676-2680.

[5]Furuya T,Ohbuchi R.Ranking on cross-domain manifold for sketch-based 3D model retrieval[C]//Proc of International Conference on Cyberworlds.Washington DC:IEEE Computer Society,2013:274-281.

[6]Lei Yinjie,Zhou Ziqin,Zhang Pingping,et al. Deep point-to-subspace metric learning for sketch-based 3D shape retrieval[J].Pattern Recognition,2019,96:106981.

[7]Yassee Z,Verroust-Blondet A,Nasri A.View selection for sketch-based 3D model retrieval using visual part shape description[J].The Visual Computer,2017,33(5):565-583.

[8]Kuwabara S,Ohbuchi R,Furuya T.Query by partially-drawn sketches for 3D shape retrieval[C]//Proc of International Conference on Cyberworlds.Piscataway,NJ:IEEE Press,2019:69-76.

[9]Wang Fang,Kang Le,Li Yi.Sketch-based 3D shape retrieval using convolutional neural networks[C]//Proc of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2015:1875-1883.

[10]Zhu Fan,Xie Jin,Fang Yi.Learning cross-domain neural networks for sketch-based 3D shape retrieval[C]//Proc of the 30th AAAI Confe-rence on Artificial Intelligence.Palo Alto,CA:AAAI Press,2016:3683-3689.

[11]Xie Jin,Dao Guoxian,Zhu Fan,et al.DeepShape:deep-learned shape descriptor for 3D shape retrieval[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2017,39(7):1335-1345.

[12]Ponjou T F,Dodgson N.Shape2Vec:semantic-based descriptors for 3D shapes,sketches and images[J].ACM Trans on Graphics,2016,35(6):208.

[13]Dai Guoxian,Xie Jin,Fang Yi.Deep correlated holistic metric learning for sketch-based 3D shape retrieval[C]//Proc of the 6th International Conference on Learning Representations.Piscataway,NJ:IEEE Press,2018:3374-3386.

[14]Ha D,Eck D.A neural representation of sketch drawings[C] //Proc of the 6th International Conference on Learning Representations.[S.l.]:ICLR,2018.

[15]Xu Peng,Huang Yongye,Yuan Tongtong,et al.SketchMate:deep ha-shing for million-scale human sketch retrieval[C]//Proc of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2018:8090-8098.

[16]Xie Jin,Dai Guoxian,Zhu Fan,et al. Learning barycentric representations of 3D shapes for sketch-based 3D shape retrieval[C]//Proc of the 30th IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2017:3615-3623.

[17]Chen Jiaxin,Fang Yi.Deep cross-modality adaptation via semantics preserving adversarial learning for sketch-based 3D shape retrieval[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2018:624-640.

[18]邱泳鋒,高雪瑤,劉嘉源,等.基于手繪草圖的三維模型檢索[J].科學技術創新,2021(6):64-65.(Qiu Yongfeng,Gao Xueyao,Liu Jiayuan,et al. Three-dimensional model retrieval based on hand-drawn sketches[J].Innovation in Science and Technology,2021(6):64-65.)

[19]裴焱棟,顧克江.基于內容和語義的三維模型檢索綜述[J].計算機應用,2020,40(7):1863-1872.(Pei Yandong,Gu Kejiang.Summary of 3D model retrieval based on content and semantics[J].Journal of Computer Applications,2020,40(7):1863-1872.)

[20]陳瑞清.基于體素化的三維形體特征提取與匹配[D].上海:上海交通大學,2015.(Chen Ruiqing.Three-dimensional shape feature extraction and matching based on voxelization[D].Shanghai:Shanghai Jiaotong University,2015.)

[21]Chen Jiaxin,Qin Jie,Lyu Li,et al. Deep sketch-shape hashing with segmented 3D stochastic viewing[C]//Proc of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2019:791-800.

[22]He Kaiming,Zhuang Xiangyu,Ren Shaoqing,et al.Deep residual learning for image recognition[C]//Proc of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2016:770-778.

[23]Qi C R,Su Hao,Mo Kaichun,et al.PointNet:deep learning on point sets for 3D classification and segmentation[C]//Proc of the 30th IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2017:77-85.

[24]Gormley C,Tong Z.ElasticSearch:the definitive guide[M].1st ed.[S.l.]:O’Reilly Media,2015.

[25]Wold S,Esbensen K,Geladi P.Principal component analysis[J].Chemometrics and Intelligent Laboratory Systems,1987,2(1-3):37-52.

[26]Jolliffe I T.Principal component analysis[J].Journal of Marketing Research,2002,87(4):513.

[27]Jayanti S,Kalyanaraman Y,Iyer N,et al.Developing an engineering shape benchmark for CAD models[J].CAD Computer Aided Design,2006,38(9):939-953.

[28]Schroeder W J,Avila L S,Hoffman W.Visualizing with VTK:a tutorial[J].IEEE Computer Graphics and Applications,2000,20(5):20-27.

[29]Schroeder W,Martin K,Lorensen B.The visualization toolkit[M]//Visualization Handbook.[S.l.]:Kitware Inc.,2004:593-614.

[30]劉安安,李天寶,王曉雯,等.基于深度學習的三維模型檢索算法綜述[J].數據采集與處理,2021,36(1):1-21.(Liu An’an,Li Tianbao,Wang Xiaowen,et al.Overview of 3D model retrieval algorithms based on deep learning[J].Data Acquisition and Proces-sing,2021,36(1):1-21.)

[31]楊育彬,林琿,朱慶.基于內容的三維模型檢索綜述[J].計算機學報,2004,27(10):1297-1310.(Yang Yubin,Lin Hui,Zhu Qing.Overview of content-based 3D model retrieval[J].Chinese Journal of Computers,2004,27(10):1297-1310.)

[32]Li B,Lu Y,Godil A,et al.SHREC’13 track:large scale sketch-based 3D shape retrieval[C]//Proc of Eurographics Workshop on 3D Object Retrieval.Goslar,Germany:Eurographics Association,2013:89-96.

[33]Van Der Maaten L,Hinton G.Visualizing non-metric similarities in multiple maps[J].Machine Learning,2012,87(1):33-55.

[34]Van Der Maaten L.Accelerating t-SNE using tree-based algorithms[J].Journal of Machine Learning Research,2014,15(1):3221-3245.

收稿日期:2022-06-18;修回日期:2022-08-11 基金項目:國家重點研發計劃項目(2020YFB1711700);國家自然科學基金資助項目(61772359,61525206,61872267);天津市新一代人工智能重大專項(19ZXZNGX00110,18ZXZNGX00150);天津市青年基金資助項目(19JCQNJC00500)

作者簡介:鮑玉茹(1997-),女,碩士,主要研究方向為計算機視覺、多媒體信息分析;劉雨豪(1995-),男,助理工程師,碩士;陳睿東(1998-),男(通信作者),碩士,主要研究方向為多媒體內容分析、人工智能(chenruidong@tju.edu.cn);常日灝(1998-),男,碩士,主要研究方向為計算機視覺、跨媒體信息檢索;聶為之(1987-),男,副教授,博導,博士,主要研究方向為計算機視覺、多媒體信息分析、跨媒體信息檢索、人工智能.

主站蜘蛛池模板: 中文字幕av无码不卡免费| 18禁不卡免费网站| 91麻豆久久久| 操操操综合网| 亚洲国产精品日韩av专区| 欧美色亚洲| 国产三级国产精品国产普男人| 无码日韩视频| 亚洲最黄视频| 国产精品香蕉| 国产精品丝袜视频| 国产日韩精品欧美一区喷| 国内精品一区二区在线观看| 亚洲色无码专线精品观看| 亚洲综合亚洲国产尤物| 五月婷婷丁香综合| 亚洲制服丝袜第一页| 999精品在线视频| 亚洲国产av无码综合原创国产| 亚洲精品大秀视频| 欧美无遮挡国产欧美另类| 亚洲精品国产综合99| 另类综合视频| 国产精品亚洲精品爽爽| 婷婷色中文| 91青青草视频在线观看的| AV片亚洲国产男人的天堂| AV网站中文| 国产永久无码观看在线| 亚洲中文字幕无码爆乳| 国产成人高清在线精品| 成年A级毛片| 亚洲精品国产精品乱码不卞| 国产福利在线免费| 久青草免费在线视频| 日韩精品毛片人妻AV不卡| 欧美日韩一区二区在线播放 | 久久精品国产精品国产一区| 亚洲成人免费在线| 国产裸舞福利在线视频合集| 最新国产精品鲁鲁免费视频| 一级毛片免费观看不卡视频| 免费 国产 无码久久久| 操美女免费网站| 91外围女在线观看| 91精品国产91久无码网站| 日韩精品一区二区深田咏美| 青青草原国产免费av观看| 亚洲日韩第九十九页| 天天综合网色中文字幕| 在线观看国产精美视频| 国产午夜在线观看视频| 欧美伦理一区| 国产乱子伦视频在线播放| 亚洲一道AV无码午夜福利| 日韩第八页| 欧美国产综合色视频| 亚洲色图另类| 亚洲成人77777| 欧美日韩国产在线人| 国产麻豆aⅴ精品无码| 亚洲中久无码永久在线观看软件| 国产在线一区视频| 极品国产一区二区三区| 在线观看精品自拍视频| AⅤ色综合久久天堂AV色综合| 中文字幕无线码一区| 午夜精品久久久久久久无码软件| 欧美一级99在线观看国产| 国产真实乱子伦精品视手机观看| 伊人五月丁香综合AⅤ| 91黄色在线观看| 久热精品免费| 精品小视频在线观看| 午夜成人在线视频| 波多野结衣中文字幕一区| 日韩区欧美区| 午夜成人在线视频| 狠狠色丁婷婷综合久久| 丁香六月激情综合| 玩两个丰满老熟女久久网| 97se综合|