999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于三維VR技術的小區域目標重建研究

2017-10-12 08:42:12郭亮
現代電子技術 2017年19期

郭亮

摘 要: 針對當前重建目標區域缺失圖像信息時局限性較大,提出一種結合三維VR技術的小區域目標重建方法。對小區域目標進行相機標定,在相機標定過程中,引入小區域目標二維圖像物理參數組建相機成像模型,利用直接法求解小區域目標成像參數,結合相機標定的結果利用SURF算法對小區域目標二維圖像提取特征點。尋找小區域目標圖像內任意一個主方向,構成各個特征點的圖像旋轉不變量,以該不變量為依據利用歸一化互相關方法計算出小區域目標兩圖像塊之間的近似程度,通過對極幾何的性質約束小區域目標特征匹配點計算基礎矩陣,以獲得的小區域目標投影矩陣和特征點的匹配關系為依據,完成小區域目標空間點的三維重建。實驗結果表明該方法準確率及實用價值較高。

關鍵詞: 三維VR技術; 小區域目標重建; 相機標定; 特征點匹配

中圖分類號: TN948.4?34; TP391 文獻標識碼: A 文章編號: 1004?373X(2017)19?0094?04

Research on small?area target reconstruction based on 3D VR technology

GUO Liang

(College of Electrical Information, Changchun Guanghua University, Changchun 130000, China)

Abstract: The current reconstruction of the target area has strong limitation while image information is missing, so a small?area target reconstruction method combining with 3D VR technology is proposed. The small?area target is performed with camera calibration, in which the 2D image′s physical parameters of small?area target are introduced to establish the camera imaging model, the direct method is used to solve the imaging parameters of small?area target, and the SURF algorithm is adopted to extract the feature points of 2D image of small?area target according to the camera calibration results. The arbitrary main direction within the small?area target image is found out to compose the image rotation invariant of each feature point. On this basis, the normalized cross?correlation method is used to calculate the approximation degree between two image blocks of small?area target. According to the property of epipolar geometry, the feature matching points of small?area target is restrained to calculate the basis matrix. The matching relation between the obtained small?area target projection matrix and feature points is taken as the basis to realize the 3D reconstruction of small?area target spatial points. The experimental results show that the method has high accuracy and high practical value.

Keywords: 3D VR technology; small?area target reconstruction; camera calibration; feature points matching

0 引 言

隨著計算機技術的快速發展,三維技術日益完善,計算機技術不斷突破,虛擬現實、三維技術動畫等三維VR技術均獲得了較大的發展。三維重建[1]不僅在制造業、建筑行業,軍事技術科技、地理信息位置系統等一些領域獲得了廣泛的應用,而且快速地融入了大眾生活。

三維技術以虛擬的形式出現,文獻[2?3]不僅可以利用觀察數據,并且可以與數據相互交換,而且這種區域觀察具有從內而外和從外而內的重建空間特征。文獻[4?5]利用三維技術來表示數據和過程,能夠讓用戶走進一個視覺效果逼真的三維虛擬世界,因此如何加快進行三維VR技術的小區域目標重建是當前急需解決的問題。

當前也存在一些相關研究成果。文獻[6]提出一種利用尺度不規則變化的特征檢驗算法,該算法檢測特征點的實時性較好,準確性較高,魯棒性特點強,被廣泛地利用在圖像拼接、紋理識別和圖像復原等領域。其描述部分利用代替圖像的表述方式對其研究進行了改良。雖然改良效果好,但是特征提取速度比較慢。

文獻[7]研究一種利用空間點進行分類的三維景物重建方法。首先剔除局外點,這樣可以提高重建的精確度,由于在后續的三維技術重建過程中不需要再對局外點的重建數據進行三維技術重建計算,所以減少了重建技術的計算時間。改進的范數重建方法可以不斷去調整搜索的上下方向,減少了調整次數,提高了調整效率,但局限性較大。

文獻[8]提出一種具有區域尺度特征的提取方法,此方法以區域尺度為基礎,將空間和區域尺度確定為角點;為了滿足不同區域尺度下提取特征的要求,對圖像亮度相關矩陣增加了自適應區域尺度;針對特征點匹配的視圖問題,利用區域匹配算法獲得的視圖實驗結果可知,所研究的聯合匹配算法可得出視圖,證明了算法的有效性和可行性,但該算法復雜性比較強。

針對上述所存在的問題,研究一種結合三維VR技術對小區域目標進行重建的方法。首先進行相機標定、重建特征點的提取與匹配,計算三維技術信息。將該方法應用到重建小區域,實現快速重建小區域建筑物三維模型,可以有效縮短重建時間,同時提高三維VR技術小區域的重建精度。

1 三維VR技術的小區域目標重建研究

1.1 三維VR技術的小區域目標匹配

在進行三維VR技術的小區域重建過程中,先利用相機標定得到坐標系與空間坐標系之間的關系,把求出的坐標系與坐標點的關系應用到空間點的三維重建中,這對三維VR技術的小區域空間重建有著重要的意義。

相機標定分為兩部分,先是代入物理參數去建立相機圖像模型,再用直接法求解相機參數。在坐標系下,相機標定坐標點可以表示為:

[Tcw=Rcwtcw] (1)

式中,世界坐標系轉為相機坐標系[cw,][Rcw,][tcw]可表示為:

[Rcw tcw0 0=e] (2)

式(2)為坐標系下的相機坐標,對該軸方向的轉換量[?]描述如下:

[?=0μ6-μ6μ1-μ60μ4μ2μ5-μ10μ30000] (3)

利用相機的坐標位姿建立相機坐標系點[p]與世界坐標系點的轉換關系為:

[p=Tcwpw] (4)

小區域重建的特征點提取與匹配利用文獻[9]中的SURF算法,是由Herbert Bay提出的新型特征提取算法。利用SURF算法對小區域目標二維圖像進行特征點提取,通過尋找小區域目標圖像內任意一個主方向,構成各個特征點的圖像旋轉不變量。對特征點的檢測是Hessian近似矩陣,根據Hessian矩陣行列的最大值檢測特征點。對Hessian矩陣進行計算,將高斯微分模板與區域圖像相結合,為簡化高斯微分模板,將模板與區域圖像結合轉化成盒子濾波計算,確定簡化后的模板是由幾個矩形區域組成。

對于盒子濾波表述的值,可以簡單地利用積分圖像來求得,積分圖像定義為:

[IΣ(x,y)=i=0x j=0yI(i,j)] (5)

利用積分圖像能求出任意大小區域的灰度值,即能求盒子濾波的回應值。所以,Hessian矩陣行列式可表示為:

[det=DxxDyy-(0.9Dxy)2] (6)

由矩陣行列式求出的區域值來計算圖像中某點的回應值。在一個尺度下,圖像中的每個像素點計算特征點得出回應值,就形成了在該確定的尺度下特征點檢測的回應圖像,依據盒子濾波不同的模板尺寸,就形成了在不同尺度下特征點的回應圖像,確定最終的金字塔圖像。對金字塔區域圖像進行抑制非極大值,通過像素插值得到實際圖像極值點的高精確坐標:

[x=?2H-1?x2-?H?x] (7)

最終利用SURF算法提取特征點子維向量,進行歸一化處理。

根據上述SURF算法,以給出的不變量為依據,利用歸一化互相關方法表征小區域目標兩圖像塊之間的近似程度,通過對極幾何的性質約束小區域目標特征匹配點計算基礎矩陣,以獲得小區域目標投影矩陣和特征點的匹配關系。計算兩幅圖片中的匹配代價[NCC(v0,v1)],并對此求平均值:

[NCC(v0,v1)=j=0n-1v0(j)-v0?v1(j)-v1xp2IΣ(x,y)] (8)

式中:[v0(j)]和[v1(j)]分別代表窗口[v0]和[v1]中第[j]個像素的像素值;[v0]和[v1]代表窗口圖像像素平均值。

1.2 小區域目標空間點的三維重建

結合上述SURF 算法求出像素值,由一個空間圖像點反射投影到三維技術空間形成一條空間射線,兩條空間射線相交便能確定空間射線點的位置,由此得出射線投影矩陣和射線圖像點的匹配關系以及重建空間點的坐標位置。假定,空間上的任意點能夠在兩個圖像中分別表示出來,即空間上的任意點的坐標,還有兩個相機的效果平面上的成像點、圖像點上的像素坐標在投影矩陣上顯示為:

[M=m111m112m113m114m121m122m123m124m131m132m133m134] (9)

根據投影矩陣變換公式得出:

[μ1ν11=m111m112m113m114m121m122m123m124m131m132m133m134] (10)

其中空間點分別在兩個相機坐標系中繞光線軸方向的坐標分別是其在各自圖像中的圖像坐標,展開式(10)得:

[μ1=m111xw+m112yw+m113+m114ν1=m121xw+m122yw+m123+m124] (11)

整理式(11)可得:

[(μ1m131-m111)xw+(μ1m132-m112)yw+(μ1m133-m113) =m114-μ1m134(ν1m131-m121)xw+(μ1m132-m122)yw+(μ1m133-m123) =m124-ν1m134] (12)

式(12)中的兩個線性方程是空間中兩個表示平面的方程,兩個表示平面的方程相結合為空間的直線方程,即為兩個平面的交線。同理可得出式(12)是一個空間內的直線方程。

三維空間區域的平面方程為線性方程,由于空間點有交點,所以它必定同時滿足式(10)~式(12)。

由上述求出的空間重建坐標,假設相機中照片的投影矩陣為:

[Q=A-1M=(RI-RT)] (13)

由旋轉和平移向量可得:

[Q=(UWVTI-μ3)] (14)

式(14)為矩陣正確解。

以投影矩陣為例,設:

[Q=qq11q12q13q14q21q22q23q24q31 q32q33q34] (15)

得出下列式子:

[Zeu=q11Xw+q12Yw+q13Zw+q14Zev=q21Xw+q22Yw+q23Zw+q24Ze=q31Xw+q32Yw+q33Zw+q34] (16)

消去[Ze]得:

[q11Xw+q12Yw+q13Zw+q14-q31uXw-q32uYw-q33uZw=q34uq21Xw+q22Yw+q23Zw+q24-q31vXw-q32vYw-q33vZw=q34v] (17)

該方程組表達兩個平面相交成為一條直線。在兩張照片中找一個相同匹配點,求出其相應的投影矩陣,即為區域重建的三維坐標。由上述得出的結論可知,把該方法應用到三維VR技術的小區域重建目標中能夠取得重大的成果。

2 實驗與分析

對本文提出的SURF算法在VC 6.0 環境下用多組立體圖像進行實驗,驗證本文提出的SURF匹配算法精確度較高,可用于小區域目標的三維重建。圖1是SURF算法檢測提取的角點和改進的SURF算法檢測提取到的角點的對比效果圖。這組原圖圖像是384×288的立體匹配圖像。

由圖1能夠看出改進后的SURF算法可以減弱角點聚集的現象。同時對圖1中的建筑圖像的點數進行提取,將統計結果表示在表1中。從表1的統計結果能夠發現特征點大量減少,但圖1中反映重建物體的外貌特征點并沒有丟失,仍很好地反映出物體的結構特征,這樣在后期的匹配中可以有效地減小誤差匹配率,并且還能提高匹配的速度。

不能準確確定重建物體的坐標,將對重建物體對應線段的長度重建方法進行誤差分析,重建物體線段長度誤差結果對比如圖2,圖3所示。

圖2,圖3中的實驗數據對比分析發現,以三角形重心為約束條件,對多張圖像信息特征點進行三維VR技術重建,可以取得較高的區域重建精準度,并且在算法的穩定性方面具有較大的改進。

3 結 論

本文針對傳統的三維重建技術環境構建困難、成本偏高、靈活性較低,難以適應動態變化的建筑模型對象,提出一種以相機獲取設備圖像的方式,對重建的小區域目標進行特征點的提取與匹配和三維VR技術重建的空間計算。本文方法具有設備圖像獲取便利,特征點信息易于提取、應用范圍受限小等優勢,在利用三維VR技術進行小區域目標重建等領域具有廣闊的應用前景。

參考文獻

[1] 盧毅,李曉艷,徐熙平.雙目立體視覺三維重建技術[J].長春工業大學學報,2015,36(6):678?682.

[2] 顧剛,袁杰.基于超分辨率圖像重建技術的運動估計研究[J].現代電子技術,2015,38(10):80?86.

[3] 張紀滿,韓宇鵬,周振華,等.基于二維圖形數據的三維模型重建[J].電子技術與軟件工程,2014(21):122.

[4] 席小霞,宋文愛,邱子璇,等.基于RGB?D值的三維圖像重建系統研究[J].測試技術學報,2015,27(5):409?415.

[5] 鄭金鑫,湯幟,王勇濤.基于單幅線條圖的三維立體重建方法綜述[J].計算機科學,2014,41(1):43?47.

[6] 魏楚亮,羅培羽,洪曉斌,等.基于單張照片模式的三維圖像重建新方法研究[J].中國測試,2014,40(2):23?26.

[7] 韓寶玲,朱穎,徐博,等.一種基于場景輪廓特征的三維地形重建方法[J].光學技術,2015,41(4):322?326.

[8] 賀濤.基于雙目立體攝像機圖像的三維建模方法設計及實現[J].電子技術與軟件工程,2014(10):123?126.

[9] 鄭立國,劉楊,羅江林.基于PCL的人體實時3D重建技術的研究與實現[J].電子技術與軟件工程,2015(10):95?97.

主站蜘蛛池模板: 国模极品一区二区三区| 在线色综合| 婷婷激情五月网| 国产成年无码AⅤ片在线| 日韩精品一区二区三区中文无码| 婷婷在线网站| 国产美女在线观看| 亚洲an第二区国产精品| 免费视频在线2021入口| 亚洲视频欧美不卡| 丁香婷婷久久| 欧美自慰一级看片免费| 亚洲人成高清| 青青草91视频| 免费在线a视频| 午夜性爽视频男人的天堂| 美女免费精品高清毛片在线视| 专干老肥熟女视频网站| 成人福利在线观看| 国产成人精品第一区二区| 久久永久视频| 欧美日本中文| 亚洲日韩AV无码一区二区三区人| 老色鬼久久亚洲AV综合| 久久久久青草大香线综合精品| 无码AV高清毛片中国一级毛片 | 亚洲黄网视频| 成年片色大黄全免费网站久久| 又爽又大又黄a级毛片在线视频 | 亚洲第一成年网| 国产在线一二三区| 大乳丰满人妻中文字幕日本| 欧美国产日韩在线| 亚洲成a人片77777在线播放 | 日韩免费视频播播| 无码丝袜人妻| 91精品国产91久久久久久三级| 午夜老司机永久免费看片| 久久综合五月| 亚洲一区第一页| 成人免费网站久久久| 亚洲水蜜桃久久综合网站| 青青青国产视频手机| 亚洲最大福利网站| 亚洲v日韩v欧美在线观看| 国产真实乱子伦视频播放| 欧美色99| 91久久偷偷做嫩草影院电| 精品一区二区三区无码视频无码| 精品国产香蕉在线播出| 欧美成人综合视频| 日本精品中文字幕在线不卡| 欧美精品啪啪一区二区三区| 正在播放久久| 五月婷婷综合色| 亚洲精品在线91| 亚洲swag精品自拍一区| 亚洲精品麻豆| 就去色综合| 69免费在线视频| 91久久国产综合精品女同我| 亚洲成人高清在线观看| 免费全部高H视频无码无遮掩| 第一页亚洲| 九九热精品免费视频| 91精品国产福利| 亚洲91精品视频| 91福利一区二区三区| 白浆视频在线观看| 中文无码精品A∨在线观看不卡 | 毛片在线区| 亚洲va欧美va国产综合下载| 国产精品成| 亚洲水蜜桃久久综合网站| 漂亮人妻被中出中文字幕久久 | 国产午夜无码专区喷水| 波多野结衣视频网站| 成色7777精品在线| 99久久国产精品无码| 久久99这里精品8国产| 99偷拍视频精品一区二区| a毛片免费看|