999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于參照物和深度估計的建筑物體尺度估算

2021-05-28 12:38:00丁曉鳳熊赟暉林祖軒
現(xiàn)代計算機 2021年10期
關(guān)鍵詞:深度檢測

丁曉鳳,熊赟暉,林祖軒

(華南理工大學(xué)數(shù)學(xué)學(xué)院,廣州510640)

0 引言

單目圖像中物體的尺度估算是計算機視覺領(lǐng)域的經(jīng)典研究方向,在建筑保護(hù)與重建[1]、場景理解[2]、圖像合成[3]等領(lǐng)域應(yīng)用廣泛。目前,對建筑物的保護(hù)和重建大多是對已有建筑進(jìn)行3D掃描后進(jìn)行建筑物外部和內(nèi)部信息的重建。大部分重建工作集中在建筑物外部輪廓[4],也有對室內(nèi)空間信息的重建工作[5]。這些重建工作的一個關(guān)鍵基礎(chǔ)就是需要建筑物的3D點云數(shù)據(jù)。但是,在對已損毀建筑的重建工作上就會遇到困難。由于歷史原因,也許只保留了這些建筑的歷史圖像信息,而實物蕩然無存,也就無法通過掃描的方式獲取它們的三維數(shù)據(jù)。因此,需要從這些圖像中恢復(fù)出一些關(guān)鍵物體的尺度信息來重建已損毀的建筑及建筑間的空間布局,這是建筑群布局復(fù)原流程的關(guān)鍵[6]。

目前蘋果和谷歌公司都有開發(fā)有關(guān)測距的測距儀App,但是這些軟件存在較多的限制條件,例如:拍攝相機的所有相機參數(shù)已知,只能測量近距離的小物體尺度等,對于圖像中尺度信息稍大的建筑物,物體尺度信息的計算容易造成較大的偏差。因此,本文的工作集中在對單目圖像場景的建筑物尺度估算上。建筑物尺度估算的關(guān)鍵是需要獲取單目圖像中各像素點的深度信息,但目前對單目圖像的深度信息估計還是存在一定的偏差,影響場景中各物體尺度的計算準(zhǔn)確度。這就需要引入先驗知識來改善計算精度。根據(jù)這樣的思路,提出了檢測圖像中已知尺度的參考物體,并用它來修正圖像中的其他建筑物尺度。從實驗效果來看,在增加了先驗信息的情況下,能有效地提高建筑物尺度計算的精度。

1 相關(guān)工作

目前,3D LIDAR等基于結(jié)構(gòu)光的深度獲取設(shè)備獲取到的深度信息為最準(zhǔn),但也存在數(shù)據(jù)噪聲的問題,獲取物體的三維數(shù)據(jù)的過程也相對復(fù)雜。而單目圖像的獲取成本相對來說較低,設(shè)備也比較普及。特別是早期古建筑或園林只保留了少量圖像資料,要對它們進(jìn)行重建恢復(fù),就只能從已有的單目圖像中進(jìn)行深度估計。

1.1 單目圖像深度估計

Lecun等人[7]在LeNet架構(gòu)中提出的CNN可以對高維圖像數(shù)據(jù)進(jìn)行處理,CNN利用卷積神經(jīng)核提取圖像特征,通過深度神經(jīng)網(wǎng)絡(luò)對特征層抽象來完成高級的視覺任務(wù),如基于深度學(xué)習(xí)的單幅圖像深度估計方法。Saxena等人[8]在最大化后驗概率框架下以超像素為單元,利用馬爾可夫隨機場(MRF)擬合特征與深度、不同尺度的深度之間的關(guān)系,進(jìn)而實現(xiàn)對深度的估計。

Eigen等人[9]首次將深度神經(jīng)網(wǎng)絡(luò)用于單目深度估計,使用兩個尺度的神經(jīng)網(wǎng)絡(luò)對單張圖片的深度進(jìn)行估計:粗尺度網(wǎng)絡(luò)預(yù)測圖片的全局深度,細(xì)尺度網(wǎng)絡(luò)優(yōu)化局部細(xì)節(jié)。Liu等人[10]將深度卷積神經(jīng)網(wǎng)絡(luò)與連續(xù)條件隨機場結(jié)合,提出深度卷積神經(jīng)場,用以從單幅圖像中估計深度。對于深度卷積神經(jīng)場,使用深度結(jié)構(gòu)化的學(xué)習(xí)策略,在統(tǒng)一的神經(jīng)網(wǎng)絡(luò)框架中學(xué)習(xí)連續(xù)CRF的一元勢能項和成對勢能項。Garg等人[11]利用立體圖像對實現(xiàn)無監(jiān)督單目深度估計,不需要深度標(biāo)簽,其工作原理類似于自動編碼機。訓(xùn)練時利用原圖和目標(biāo)圖片構(gòu)成的立體圖像對,首先利用編碼器預(yù)測原圖的深度圖,然后用解碼器結(jié)合目標(biāo)圖片和預(yù)測的深度圖重構(gòu)原圖,將重構(gòu)的圖片與原圖對比計算損失。Jin Han Lee等人[12]提出了一種基于多尺度局部平面制導(dǎo)層的從小到大的端到端的單目圖像深度估計方法。Katrin Lasinger等人[13]提出了一種對于深度的范圍和尺度具有不變性的訓(xùn)練方法,從而可以在訓(xùn)練期間混合多個數(shù)據(jù)集,利用3D電影構(gòu)建了一個數(shù)據(jù)集并進(jìn)行訓(xùn)練,然后對未在訓(xùn)練數(shù)據(jù)集中出現(xiàn)過的數(shù)據(jù)進(jìn)行評測。這個方法的主要特點是將不同類型的數(shù)據(jù)集混合在一起進(jìn)行訓(xùn)練,從而改善圖像深度估計的精度。

1.2 目標(biāo)檢測

在得到了圖像深度估計值后,由于深度估計算法存在一定的誤差,這樣會導(dǎo)致計算圖像物體間距離也產(chǎn)生偏差。解決這個問題的一個思路是檢測圖像中參照物:已知尺度的物體(如墻面上一塊已知尺度的方磚),用深度估計值得到一個估計距離,再和精度值比較得到一個尺度修正系數(shù),重新調(diào)整圖像物體間的距離,從而提高圖像中物體尺度的計算精度。因此要利用參照物的真實尺度,必須先從圖像中檢測出已知的參照物。

傳統(tǒng)目標(biāo)檢測的方法一般分為三個階段:首先在給定的圖像上選擇一些候選的區(qū)域,然后對這些區(qū)域提取特征,常用的特征有SIFT[14]、HOG[15],最后使用訓(xùn)練的分類器進(jìn)行分類。SSD[16]檢測算法使用不同階段不同分辨率的下采樣特征圖進(jìn)行預(yù)測,表征能力較弱。FSSD[17]檢測算法也是使用不同階段不同分辨率的特征圖進(jìn)行預(yù)測,相比于SSD,F(xiàn)SSD多了一個特征融合處理,將網(wǎng)絡(luò)較低層的特征引入到網(wǎng)絡(luò)的較高層,在檢測的時候能夠同時考慮不同尺度的信息,使得檢測更加準(zhǔn)確。R-CNN[18]生成區(qū)域的方法是傳統(tǒng)方法Se-lective Search,主要思路是通過圖像中的紋理、邊緣、顏色等信息對圖像進(jìn)行自底向上的分割,然后對分割區(qū)域進(jìn)行不同尺度的合并,每個生成的區(qū)域即一個候選區(qū)域。這種方法基于傳統(tǒng)特征,速度較慢。后來就有了速度較快的Faster R-CNN[19]和RFCN[20]算法。

YOLO算法是端到端的目標(biāo)檢測算法,目前已有4個進(jìn)化版本。YOLOv1[21]開創(chuàng)性提出了目標(biāo)檢測中的anchor-free,在速度上得到了很大的提升,但在精度上與兩階段的算法還有差異。YOLOv2[22]采用DarkNet-19作為特征提取網(wǎng)絡(luò),增加了批量標(biāo)準(zhǔn)化(Batch Nor-malization)的預(yù)處理,并借鑒了Fast R-CNN的思想,引入Anchor機制,利用K-means聚類的方式在訓(xùn)練集中聚類計算出更好的Anchor模板,在卷積層使用Anchor Boxes操作,增加區(qū)域提議的預(yù)測,同時結(jié)合圖像細(xì)粒度特征,將淺層特征與深層特征相連,有助于對小尺寸目標(biāo)的檢測。YOLOv3[23]在v1和v2基礎(chǔ)上做了一些改進(jìn),主要包括三點:新的backbone基礎(chǔ)網(wǎng)絡(luò)、多尺度預(yù)測和損失函數(shù)的調(diào)整。2020年YOLOv4[24]設(shè)計了一種有效的策略用于擴展大目標(biāo)檢測器,使其更有效、更適合GPU訓(xùn)練。我們采用了YOLOv3算法,其在穩(wěn)定性、速度和精度上都達(dá)到了較好的平衡。

2 尺度估算流程及其關(guān)鍵算法

單目圖像尺度估算的流程主要是,采用已有的深度估計算法對單目圖像進(jìn)行深度估計,再結(jié)合目標(biāo)檢測確定已知尺度的參照目標(biāo)物,引入先驗知識進(jìn)行尺度的修正,最后通過尺度估算公式得到單目圖像中建筑的真實尺度估算值。如圖1所示。

圖1 本文主要流程

在整個流程中,關(guān)鍵步驟如下:

(1)單目圖像的深度估計。對獲取的單目圖像用文獻(xiàn)[13]深度學(xué)習(xí)算法來對單目圖像進(jìn)行深度估計,得到每一像素點的深度估計值。

(2)圖像中參照物的檢測。在獲取單目圖像后,需要對圖像中已知尺度的參照目標(biāo)物進(jìn)行檢測??紤]到檢測精度和檢測效率,采用YOLOv3來進(jìn)行參照目標(biāo)物的目標(biāo)檢測。將單目圖像作為神經(jīng)網(wǎng)絡(luò)的輸入,然后獲取參照目標(biāo)物的檢測框,將參照目標(biāo)物估計尺度和真實尺度信息相對應(yīng),就能獲得相應(yīng)的修正系數(shù)。

(3)建筑真實尺度估算。將單目圖像的深度信息和目標(biāo)檢測中得到的修正系數(shù)相結(jié)合,通過尺度估算公式來實現(xiàn)對單目圖像中的建筑進(jìn)行真實尺度估算。

3 算法具體實現(xiàn)過程

整個算法分三步驟完成:①先對單目圖像進(jìn)行深度估計,得到每一像素點的深度信息,通過坐標(biāo)轉(zhuǎn)化得到每一像素點的空間坐標(biāo)。②再對圖像進(jìn)行參照物目標(biāo)檢測,結(jié)合參照物真實尺度得到修正系數(shù)。③最后通過修正系數(shù)和尺度估算公式得到建筑物體尺度的估算值。

圖2 參照物目標(biāo)檢測

3.1 單目圖像深度估計

對圖像各像素點深度信息的估計采用了文獻(xiàn)[13]的算法,這是一種基于遷移學(xué)習(xí)的無監(jiān)督單目深度估計的算法。先利用Pareto-optimal算法將五種互補訓(xùn)練集進(jìn)行混合訓(xùn)練:ReDWeb、MegaDepth、WSVD、DIML Indoor和3D movies數(shù)據(jù)集,使算法具備一定的尺度不變性特征。然后根據(jù)魯棒性損失函數(shù)來預(yù)測圖像深度:

式中,Nl表示訓(xùn)練集的大??;M表示圖像中像素的個數(shù);Um表示一幅圖像中修正了20%最大殘差的像素點個數(shù);d表示預(yù)測深度;d*表示相對應(yīng)的真實深度;K=4表示4個等級,每一個等級圖像分辨率減半;Ri=di-,α=0.5。通過對尺度和位移不變的損失函數(shù)約束最后得到單目圖像的深度估計。在此深度估計圖的基礎(chǔ)上,再通過轉(zhuǎn)化函數(shù)得到圖像相對深度矩陣,從而獲取每一像素的深度估計值。

3.2 單目圖像參照物體目標(biāo)檢測

在目標(biāo)檢測領(lǐng)域,基于深度學(xué)習(xí)的目標(biāo)檢測算法主要分為Region-Proposal和End-to-End,前者需要對原始圖像進(jìn)行特征提取,找到可能含有目標(biāo)的候選框;再結(jié)合CNN進(jìn)行檢測,輸出目標(biāo)類別和位置。后者是輸入原始圖像到深度學(xué)習(xí)網(wǎng)絡(luò)中,直接輸出圖像中目標(biāo)類別和位置。從便捷性和檢測效果上來看,采用端對端的算法能直接獲得檢測結(jié)。YOLO算法正是這種算法的典型代表,在目標(biāo)檢測中有更好的精度和速度。

將單目圖像作為YOLO算法的輸入,輸出為類別標(biāo)簽和包圍框信息。在得到的圖像中標(biāo)定目標(biāo)參照物的位置(Mleft,Mright,Mtop,Mbot)之后,確定可以表示參照物尺度的像素點坐標(biāo)(x,y),如圖2所示M1=(x1,y1),M2=(x2,y2)。

3.3 建筑真實尺度估算

通過圖像的深度和像素坐標(biāo)轉(zhuǎn)化得到像素的空間坐標(biāo),再對圖像目標(biāo)檢測得到參照目標(biāo)物的估算尺度與真實尺度相結(jié)合的修正知識,然后把修正知識引入尺度估算,最后對建筑真實尺度估算公式進(jìn)行構(gòu)建,從而獲取圖像中建筑的真實尺度估算值。

3.3.1像素坐標(biāo)系與相機坐標(biāo)系之間的轉(zhuǎn)換

像素坐標(biāo)系[u,v]向相機坐標(biāo)系[Xc,Yc,Zc]進(jìn)行轉(zhuǎn)換的實質(zhì)是先由像素坐標(biāo)系轉(zhuǎn)化為圖像坐標(biāo)系,再由圖像坐標(biāo)系轉(zhuǎn)化為相機坐標(biāo)系。

以圖像左上角為原點建立以像素為單位的直角坐標(biāo)系u-v,像素的橫坐標(biāo)u與縱坐標(biāo)v分別表示圖像數(shù)組中所在的列數(shù)與所在的行數(shù)。將相機光軸與圖像平面的交點(一般位于圖像平面的中心處,也稱為圖像的主點)定義為圖像坐標(biāo)系的原點O1,且x軸與u軸平行,y軸與v軸平行,假設(shè)(u0,v0)代表O1在u-v坐標(biāo)系下的坐標(biāo),dx與dy分別表示每個像素在橫軸x和縱軸y上的物理尺寸,則圖像中每個像素在u-v坐標(biāo)系中的坐標(biāo)和在x-y坐標(biāo)系中的坐標(biāo)之間存在如下關(guān)系:

式中,假設(shè)圖像坐標(biāo)系的單位為毫米,dx的單位為:毫米/像素。x/dx的單位為:像素。矩陣形式表示為:

圖像坐標(biāo)系和像素坐標(biāo)系如圖3所示。

圖3 像素和圖像坐標(biāo)系

根據(jù)針孔成像原理如圖4所示,以平面π為攝像機的像平面,點Oc為攝像機中心,f為攝像機的焦距,以O(shè)c為端點且垂直于像平面的射線為光軸或主軸,主軸與像平面的交點p為圖像的主點。

圖4 圖像和相機坐標(biāo)系

由圖4可得,圖像坐標(biāo)系為o-xy,攝像機坐標(biāo)系為Oc-xcyczc。記空間點Xc攝像機坐標(biāo)系中的齊次坐標(biāo)為:Xc=[xc yc zc1]T。它的像點m在圖像坐標(biāo)系中的齊次坐標(biāo)為:m=[x y1]T。根據(jù)三角形相似原理:.矩陣形式表示為:

當(dāng)前大部分?jǐn)?shù)碼相機拍攝的照片屬性里面都有焦距的信息,早期的35mm膠片相機拍攝的圖片,相片大小為36mm×24mm,可以假設(shè)視角范圍是45°,這樣也能近似得到焦距信息。因此,根據(jù)公式(5)可以實現(xiàn)從像素坐標(biāo)系到相機坐標(biāo)系之間的轉(zhuǎn)化。

3.3.2 基于映射原理的尺度估算公式定義

單目攝像機拍攝的圖像滿足透視投影的原理[25],如圖5所示。

圖5 針孔成像原理

我們可以建立一個估算尺度和真實值之間的比例關(guān)系,用來修正建筑的真實尺度估算。根據(jù)透視投影的原理和三角形相似定理,假設(shè)從深度估計算法中得到深度信息zc的與真實深度值ztrue之間存在一個比例關(guān)系,則根據(jù)公式(5)可計算出來的兩點間距離也存在這樣相同的比例。如圖6所示,由于圖像中物體真實尺度與估算尺度之間的比例一致,我們可以利,其中dtrue是參照物da的真實尺度,da是參照物通過深度估計算法計算出來的尺度。

進(jìn)而構(gòu)建尺度估算的修正公式。以db為例,其修正后的尺度估算值為D=db·k,詳細(xì)推導(dǎo)過程見附錄。

算法1.步驟如下:

輸入.圖像像素點的深度估計值和基于目標(biāo)檢測的參照物修正系數(shù)k。

輸出.圖像建筑尺度估算值。

(1)計算參照物的估算尺度,從圖像中參照物位置,選取已知尺度dtrue參照物的兩個像素點,再結(jié)合相機參數(shù)焦距f獲取空間坐標(biāo)(xai,yai,zai)和(xaj,yaj,zaj),通過歐氏距離公式計算得到參照物的估算尺度:用參照物定義一個修正系數(shù)

式中i,j=1,…,m,m為圖像像素點個數(shù)。這樣就可以得到修正系數(shù)。

(2)計算建筑目標(biāo)物的估算尺度,從圖像中建筑目標(biāo)物的位置,選取表示建筑尺度的兩個像素點,獲取空間坐標(biāo)(xbi,ybi,zbi)和(xbj,ybj,zbj),通過歐氏距離公式計算得到建筑物的粗估算尺度:

(3)計算D=db·k,將其作為圖像中建筑真實尺度估算值并返回。

圖6展示了從圖像中計算建筑尺度的方法。首先確定參照物目標(biāo)位置,然后選取已知尺度dtrue的兩個像素點A和B,計算圖像中參照物的估算尺度da,接著選取表示圖像中建筑物尺度的兩個像素點C和D,計算建筑物的估算尺度db;最后在真實尺度估算公式中計算得到建筑物M-N間的真實尺度。

4 實驗及結(jié)果分析

實驗運行環(huán)境是基于Windows 10系統(tǒng),采用Python 3.7實現(xiàn),目標(biāo)檢測算法YOLOv3的訓(xùn)練是在TensorFlow下基于DarkNet框架下進(jìn)行,深度估計算法的訓(xùn)練是在PyTorch下進(jìn)行,在實驗過程中還用到了OpenCV等圖像處理庫。

圖6 真實尺度修正算法

4.1 數(shù)據(jù)類型及來源

算法處理的數(shù)據(jù)有室外場景單目建筑圖像和用于深度估計的混合訓(xùn)練集。

有兩組帶有建筑物體的單目圖像數(shù)據(jù),這些圖像中都帶有焦距信息。一個來自于園林場景數(shù)據(jù)集,包括閣樓、船廳、涼亭、祠堂等建筑物;另一個是日常場景的數(shù)據(jù)集,包括樓房、車庫、走廊、體育館、仿古建筑等建筑物。用于深度估計的混合訓(xùn)練集包括:ReDWeb、MegaDepth、WSVD、DIML Indoor和3D movies。

4.2 參照物檢測對應(yīng)點優(yōu)化

如算法實現(xiàn)過程所述,所提出的尺度估算公式與建筑物的相機坐標(biāo)有直接的關(guān)系,而建筑物的相機坐標(biāo)是通過參照物檢測獲取的對應(yīng)像素點坐標(biāo)和圖像的深度估計得到的。因此,參照物檢測對應(yīng)點的選擇對尺度估算結(jié)果有著重要影響。

以任一像素點M為例,假設(shè)檢測的像素點的像素坐標(biāo)為M(x,y),對應(yīng)的空間坐標(biāo)為M(xc,yc,zc)。如圖7所示,選取以點M為中心,步長α為半徑的矩形框中所有的像素點,使得更新后的像素點M的空間坐標(biāo)為:。

剔除異常數(shù)據(jù)。利用Z-分?jǐn)?shù)統(tǒng)計量檢測異常值并剔除異常點和以M為中心的對稱點。Z-分?jǐn)?shù)為:,其中σ為矩形框中像素點深度值數(shù)據(jù)的標(biāo)準(zhǔn)差。若矩形框中存在一點,其Z-score>τ,其中τ為閾值,則剔除該點及其關(guān)于M的對稱點,然后再根據(jù)上述步驟重新計算M的空間坐標(biāo)。若剔除點為M,則跟據(jù)算法1重新獲取參照物坐標(biāo)。建筑物坐標(biāo)優(yōu)化和上述方法同理。

圖7 用于坐標(biāo)優(yōu)化的所有像素點

4.3 誤差定義

通過人工標(biāo)注的方式得到圖像參照物的真實尺度值,再利用算法1的計算結(jié)果得到圖像建筑物的真實尺度估算值。用建筑尺度估算值與真實值之間的相對誤差和整體誤差來評估本文算法的有效性。誤差函數(shù)定義如下:

相對誤差函數(shù):

整體誤差函數(shù):

整體誤差為同一圖像內(nèi)多個物體尺度估算的均方誤差,用來表示圖像的整體尺度估算誤差,其中c表示建筑尺度估算值;gt表示建筑尺度真實值;eabs=|c-gt|表示絕對誤差;i=1,…,n表示一組可以表示建筑尺度的估算值數(shù)目。

4.4 結(jié)果分析

對于修正系數(shù)的有效性,從10個不同場景中選取了3個樣例在表1中展示。圖8為這10個不同場景用了修正系數(shù)下的尺度估算的對比結(jié)果。由圖7的對比結(jié)果顯示,修正算法對尺度估算具有更好的準(zhǔn)確性,誤差更小。

接下來所有表中出現(xiàn)的“尺度估算”都是經(jīng)過修正系數(shù)修正過的尺度估算值。

表1 修正系數(shù)下的估算結(jié)果

圖8 添加修正系數(shù)前后對比的結(jié)果

表2為同一單目圖像內(nèi),相同場景內(nèi)不同測量尺度下的估算效果。第1列是采集的單目建筑圖像;第2列是YOLOv3參照目標(biāo)物檢測結(jié)果,其中藍(lán)色框標(biāo)定的是已知真實尺度的參照物;第3列是對應(yīng)的深度估計圖,有深度估計圖轉(zhuǎn)化可得到深度估計矩陣,從而知道像素點對應(yīng)的相對深度值,得到相應(yīng)的空間坐標(biāo);第4列是由尺度估算公式得到的建筑尺度估算值。表3為同場景內(nèi)不同測量尺度下的整體誤差。A、B、C為單目圖像中三個不同的建筑物,D、E為單目圖像中兩個不同的參照物磚塊,其中A為建筑右起第一個門,B為建筑右起第二個C為建筑總長,D、E為建筑表面的不同磚塊。實驗表明修正后的尺度估算值離實際尺度的偏差較小。

表2 相同場景內(nèi)不同測量尺度的估算

表3 同場景內(nèi)的整體誤差

表4比較了在不同尺度的不同場景尺度估算的效果,表5顯示了在不同尺度下的建筑物估算誤差,結(jié)果顯示在0-5m和5-10m的尺度下估算誤差較小,20m以上的大尺度估算誤差較大,由此可見算法1對于20m以下具有較好的魯棒性,對于超大尺度的估算則有待優(yōu)化。

表4 不同尺度下建筑物估算

表5 不同尺度下估算誤差

表6中顯示了本文建筑物尺度估算與其他方法的比較結(jié)果,其中TBMDE出自文獻(xiàn)[13],F(xiàn)CRN出自文獻(xiàn)[26],表明了本文算法的建筑物尺度估算誤差較小,性能最好。

表6 不同方法建筑尺度的誤差

5 結(jié)語

單目圖像尺度估算對于場景理解,建筑物重建和復(fù)原有重要研究價值。由于受限于已有深度估計算法對場景尺度分析不足,引入了參照物已知尺度的先驗信息,得到一個尺度修正系數(shù),最后得到圖像中物體的真實尺度估算。對于在相同相機參數(shù),相似環(huán)境下拍攝的多幅圖像,從一張存在已知尺度參照物的圖像中提取修正參數(shù),也可以適用于其他不存在已知尺度參照物的圖像中。實驗結(jié)果表明,提出的算法1能有效地估算建筑物的真實尺度。

但算法也存在一些局限。如果建筑物出現(xiàn)空洞較大或者植物、車子、大型景觀石等物體大面積遮擋建筑物時,會造成深度估計嚴(yán)重偏差,則無法準(zhǔn)確地估計出建筑物的真實尺度。早期膠片相機拍攝的照片是用近似計算的方法得到焦距和像素信息也會對計算準(zhǔn)確性帶來一定的影響。算法對于中小尺度的建筑物尺度估算具有較好的魯棒性,尺度估算誤差??;但對于尺度很大超過20m的建筑物則會出現(xiàn)誤差較大的情況。

本文下一步工作將繼續(xù)研究參照物估算尺度和真實尺度之間更復(fù)雜的關(guān)系,優(yōu)化焦距和像素信息的計算,改進(jìn)修正系數(shù)的設(shè)定,得到更準(zhǔn)確的物體尺度估算。

附錄

尺度估算公式的推導(dǎo)過程。由公式(5)可知,

令:

由ztrue=kzc

假設(shè)p和q是修正前兩點的相機坐標(biāo),dpq為修正前兩點間尺度值,ptrue和qtrue則是修正后的相機坐標(biāo),則這兩點間修正后p,q的真實尺度為:

猜你喜歡
深度檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
深度理解一元一次方程
深度觀察
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: 欧美日韩综合网| av在线无码浏览| 成AV人片一区二区三区久久| v天堂中文在线| …亚洲 欧洲 另类 春色| 天堂岛国av无码免费无禁网站| 色视频国产| 欧美亚洲日韩中文| 好紧太爽了视频免费无码| 国产在线高清一级毛片| 久久一本日韩精品中文字幕屁孩| 国产高清在线丝袜精品一区| 亚洲中文字幕23页在线| 国产丝袜一区二区三区视频免下载| 日本91视频| 欧美日本在线一区二区三区| 激情综合五月网| 国产亚洲精品91| 亚洲视频无码| 欧美日韩成人| 亚洲日韩AV无码一区二区三区人| 亚洲国产天堂在线观看| 无码'专区第一页| 狠狠五月天中文字幕| 中文字幕色在线| 亚洲床戏一区| 久热精品免费| 国产主播在线一区| 尤物亚洲最大AV无码网站| 久久国产拍爱| 一级毛片在线免费看| 久久激情影院| 欧美日韩国产精品综合 | 成人一区在线| 亚洲大尺度在线| 国产精品区网红主播在线观看| 国产特级毛片aaaaaaa高清| 亚洲伊人天堂| 亚洲日本在线免费观看| 在线精品亚洲国产| 国产亚洲精品va在线| 2020亚洲精品无码| 伊人天堂网| 色综合天天综合中文网| 日本成人在线不卡视频| 国产永久无码观看在线| 五月天久久婷婷| 波多野结衣亚洲一区| 久久国产精品夜色| 亚洲第一在线播放| 国产办公室秘书无码精品| 亚卅精品无码久久毛片乌克兰| 免费看美女毛片| 欧美另类视频一区二区三区| 婷婷午夜影院| 国产精品对白刺激| 国产在线无码av完整版在线观看| 99在线小视频| 一本久道久综合久久鬼色| 人人爽人人爽人人片| 欧美性猛交一区二区三区 | 午夜福利免费视频| 又粗又大又爽又紧免费视频| 国产三级国产精品国产普男人| 精品国产99久久| 久久中文字幕av不卡一区二区| 波多野结衣国产精品| 亚洲第一黄色网址| 亚洲第一成网站| 亚洲无码熟妇人妻AV在线| 久久国语对白| 在线国产三级| 国产精品尹人在线观看| 亚洲成人播放| 日日拍夜夜嗷嗷叫国产| 88av在线| 国产白浆视频| 在线一级毛片| 大学生久久香蕉国产线观看| 色天堂无毒不卡| 九九香蕉视频| 久久久久国产精品免费免费不卡|