薄單 李宗春 王曉南 喬涵文



摘 要:針對(duì)傳統(tǒng)正攝影像的特征提取算法處理傾斜影像匹配效果不佳的問(wèn)題,在已有特征提取算法的基礎(chǔ)上,提出了一種適用于傾斜影像的特征提取算法——加速KAZE-尺度不變特征變換(AKAZE-SIFT)算法。首先,為保證特征檢測(cè)的準(zhǔn)確性與獨(dú)特性,采用充分保留圖像輪廓信息的加速KAZE(AKAZE)算子進(jìn)行特征檢測(cè);其次,為提升特征描述的穩(wěn)定性,采用穩(wěn)健的尺度不變特征變換(SIFT)算子進(jìn)行特征描述;然后,依據(jù)目標(biāo)特征向量和候選特征向量間的歐氏距離確定粗匹配點(diǎn)對(duì);最后,采用隨機(jī)抽樣一致性算法進(jìn)行單應(yīng)性約束,提高匹配純度。模擬影像在傾斜攝影條件下的模糊、旋轉(zhuǎn)、亮度、視角和尺度變化,對(duì)特征提取算法性能進(jìn)行評(píng)估,實(shí)驗(yàn)結(jié)果表明,AKAZE-SIFT算法相比SIFT算法和AKAZE算法召回率分別提高了12.8%和5.3%,精準(zhǔn)率提高了6.5%和6.1%,F(xiàn)1值提升了13.8%和5.6%;提取效率優(yōu)于SIFT算法,略遜于AKAZE。AKAZE-SIFT算法具有良好的檢測(cè)和描述能力,更適用于傾斜影像特征提取。
關(guān)鍵詞:加速KAZE算法;尺度不變特征變換算法;傾斜影像;特征提取;特征匹配
Abstract: Concerning that traditional vertical image feature extraction algorithms have poor effect on oblique image matching, a feature extraction algorithm, based on Accelerated KAZE (AKAZE) and Scale Invariant Feature Transform (SIFT) algorithm called AKAZE-SIFT was proposed. Firstly, in order to guarantee the accuracy and distinctiveness of image feature detection, AKAZE operator, which fully preserves the contour information of image, was utilized for feature detection. Secondly, the robust SIFT operator was used to improve the stability of feature description. Thirdly, the rough matching point pairs were determined by the Euclidean distance between object feature point vector and candidate feature point vectors. Finally, the homography constraint was applied to improve the matching purity by random sample consensus algorithm. To evaluate the performance of the feature extraction algorithm, the blur, rotation, brightness, viewpoint and scale changes under the condition of oblique photography were simulated. The experimental results show that compared with SIFT algorithm and AKAZE algorithm, the recall of AKAZE-SIFT is improved by 12.8% and 5.3% respectively, the precision of AKAZE-SIFT is increased by 6.5% and 6.1% respectively, the F1 measure of AKAZE-SIFT is elevated by 13.8% and 5.6% respectively and the efficiency of the proposed algorithm is higher than that of SIFT and slightly worse than that of AKAZE. For the excellent detection and description performance, AKAZE-SIFT algorithm is more suitable for oblique image feature extraction.
Key words: Accelerated KAZE (AKAZE) algorithm; Scale Invariant Feature Transform (SIFT) algorithm; oblique image; feature extraction; feature matching
0 引言
傾斜攝影測(cè)量技術(shù)通過(guò)多視角攝影獲取建筑物頂部和側(cè)面信息,克服了傳統(tǒng)垂直攝影測(cè)量因拍攝視角單一,只能獲得建筑物的高度和頂部紋理信息的不足,得到了迅猛的發(fā)展。常用無(wú)人機(jī)搭載5臺(tái)相機(jī),從1個(gè)下視方向和4個(gè)側(cè)視方向采集影像,并由定位定姿系統(tǒng)(Position and Orientation System, POS)記錄攝影位置、飛行航高、航速和航向等信息。傾斜影像經(jīng)過(guò)特征匹配、多視影像聯(lián)合平差、密集匹配,構(gòu)建地物三維模型。
由于傾斜影像受多相機(jī)焦距和傾角不一致影響,圖像尺度和亮度差異明顯;受旋偏角和視角影響,圖像旋轉(zhuǎn)和視角變化劇烈;受云霧、光線和視線影響,模糊、陰影和遮擋現(xiàn)象突出,導(dǎo)致影像特征難以實(shí)現(xiàn)良好的重現(xiàn)性和高度的獨(dú)特性。簡(jiǎn)單應(yīng)用傳統(tǒng)基于垂直正攝影像的特征匹配算法,往往出現(xiàn)匹配數(shù)量少且匹配正確率低,嚴(yán)重影響影像聯(lián)合平差的精度[1-3],故對(duì)傾斜影像提取優(yōu)質(zhì)高效的特征是傾斜攝影測(cè)量技術(shù)的關(guān)鍵。
1 相關(guān)工作
自Lowe[4-5]提出尺度不變特征變換(Scale Invariant Feature Transform, SIFT)算法以來(lái),眾多學(xué)者在其基礎(chǔ)上提出了一系列的特征提取算法,如加速穩(wěn)健特征(Speeded Up Robust Feature, SURF)[6]、ORB(Oriented FAST and Rotated BRIEF)[7]、KAZE[8]、加速KAZE(Accelerated KAZE, AKAZE)[9]算法等,用來(lái)解決圖像特征匹配的問(wèn)題。
SIFT算法很好地保持了尺度、旋轉(zhuǎn)和亮度不變性,作為主流算法,廣泛應(yīng)用在遙感圖像的自動(dòng)配準(zhǔn)中,但該算法計(jì)算量大、耗時(shí)長(zhǎng)。SURF算法在SIFT算法的基礎(chǔ)上進(jìn)行了改進(jìn),引入積分圖像的概念,對(duì)高斯差分進(jìn)行了簡(jiǎn)化,把卷積運(yùn)算轉(zhuǎn)化為簡(jiǎn)易的加減運(yùn)算,降低了算法復(fù)雜度,在提高程序運(yùn)行速度的同時(shí),提取效果與SIFT算法相當(dāng)。SIFT和SURF算法使用高斯濾波構(gòu)建圖像尺度空間時(shí),對(duì)圖像的輪廓和噪聲同時(shí)進(jìn)行了高斯平滑,模糊了輪廓信息,造成邊界模糊和細(xì)節(jié)丟失,影響特征定位的獨(dú)特性和準(zhǔn)確性。為解決上述問(wèn)題,KAZE特征算法引入非線性擴(kuò)散濾波的方法,構(gòu)建非線性尺度空間,具有魯棒性強(qiáng)、匹配效果好的優(yōu)點(diǎn),但運(yùn)行效率明顯低于其他算法,限制了其在工程實(shí)踐中的應(yīng)用。AKAZE算法作為KAZE算法的加速版本,采用改進(jìn)的局部差分二值描述符(Modified-Local Difference Binary descriptor, M-LDB),大幅縮短了特征提取的時(shí)間。AKAZE算法通過(guò)非線性濾波構(gòu)建尺度空間,自適應(yīng)濾除噪聲和細(xì)枝末節(jié)的同時(shí),保留圖像輪廓的關(guān)鍵特征信息,但由于M-LDB描述符的穩(wěn)定性弱于SIFT描述符,使得AKAZE算法總體表現(xiàn)不如SIFT算法[10]。
文獻(xiàn)[11]針對(duì)無(wú)人機(jī)影像受拍攝條件或區(qū)域復(fù)雜環(huán)境的影響,匹配效果不佳的問(wèn)題,提出了SURF算法和單應(yīng)性約束結(jié)合的方法,對(duì)無(wú)人機(jī)影像進(jìn)行特征匹配。文獻(xiàn)[12]為了穩(wěn)定、高效、精確地進(jìn)行無(wú)人影像匹配,提出一種改進(jìn)的AKAZE算法,首先利用AKAZE算法構(gòu)造非線性尺度空間檢測(cè)特征點(diǎn),然后利用學(xué)習(xí)安排的三元組(Learned Arrangements of Three patCH, LATCH)描述符對(duì)獲取的特征點(diǎn)進(jìn)行描述。文獻(xiàn)[13]對(duì)近景影像和普通影像數(shù)據(jù)進(jìn)行研究,評(píng)估了幾種特征提取算法在旋轉(zhuǎn)、亮度及尺度等方面的性能。文獻(xiàn)[14]對(duì)遙感影像進(jìn)行研究,在光譜、時(shí)相及尺度方面分析了特征提取算法的穩(wěn)定性。文獻(xiàn)[15]對(duì)密集城區(qū)、稀疏城區(qū)、平原及高山的正攝影像進(jìn)行特征匹配實(shí)驗(yàn),指出SURF-SIFT算法具有良好的性能,AKAZE算法次之。
上述文獻(xiàn)主要研究無(wú)人機(jī)正攝影像,缺少針對(duì)傾斜影像特征提取算法的性能評(píng)估研究。傾斜影像的影像配準(zhǔn),更加注重特征提取質(zhì)量和匹配效果,為此,結(jié)合高性能特征提取算法,本文提出一種適用于傾斜影像的AKAZE-SIFT特征提取算法。首先,為保證特征檢測(cè)的獨(dú)特性和準(zhǔn)確性,在非線性尺度空間中,采用AKAZE算子檢測(cè)特征;其次,采用穩(wěn)健的SIFT算子描述特征向量;然后,根據(jù)特征向量的歐氏距離進(jìn)行粗匹配;最后,采用單應(yīng)性約束的隨機(jī)抽樣一致性(RANdom SAmple Consensus, RANSAC)[16-18]算法提高匹配純度。本文提出的特征匹配算法流程如圖1所示。
2 AKAZE-SIFT算法
2.1 AKAZE特征檢測(cè)
AKAZE作為加速的KAZE算法,采用快速顯式擴(kuò)散 (Fast Explicit Diffusion, FED)算法替代加性算子分裂(Additive Operator Splitting, AOS)算法構(gòu)建非線性尺度空間。既保留了非線性尺度空間特征檢測(cè)的獨(dú)特性和準(zhǔn)確性的優(yōu)點(diǎn),又較KAZE算法提高了計(jì)算速度。AKAZE算法首先通過(guò)FED算法構(gòu)建非線性尺度空間,然后利用Hessian矩陣行列式檢測(cè)特征點(diǎn)位置。
2.1.1 構(gòu)建非線性尺度空間
AKAZE算法使用各向異性擴(kuò)散公式,通過(guò)非線性擴(kuò)散濾波器構(gòu)造尺度空間,使得亮度在平緩區(qū)域擴(kuò)散快,在邊緣處擴(kuò)散慢,充分保留了圖像邊緣和細(xì)節(jié)。非線性擴(kuò)散濾波的各向異性擴(kuò)散公式可表示為:
式中:L為圖像亮度矩陣;div、c(x,y,t)和分別表示散度函數(shù)、傳導(dǎo)函數(shù)和梯度函數(shù);(x,y)為圖像坐標(biāo);時(shí)間t為尺度參數(shù)。
傳導(dǎo)函數(shù)c(x,y,t)可表示為:
式中:Lσ表示圖像L經(jīng)過(guò)尺度因子σ高斯平滑后的梯度圖像;g(·)為傳導(dǎo)函數(shù),默認(rèn)采用優(yōu)先保留寬度較大區(qū)域的g2函數(shù)。g2函數(shù)可表示為:
式中:參數(shù)λ為控制擴(kuò)散程度的對(duì)比度因子。
對(duì)比度因子λ依據(jù)梯度圖像Lσ直方圖的分位值計(jì)算,可表示為:
式中:NumberofBins為梯度直方圖的分位數(shù)量;MaxGradient為梯度直方圖的最大梯度;bin為梯度直方圖達(dá)到70%時(shí)的分位值。
對(duì)輸入圖像進(jìn)行高斯濾波,將平滑后的影像降采樣2倍形成下一組影像,重復(fù)降采樣過(guò)程,構(gòu)建影像金字塔(O組S子層)。圖像尺度因子σi可表示為:
由于非線性擴(kuò)散濾波模型是以時(shí)間為單位,需要建立尺度σi到擴(kuò)散時(shí)間ti之間的轉(zhuǎn)換關(guān)系,可表示為:
根據(jù)各向異性擴(kuò)散式(1),顯式構(gòu)建非線性尺度空間,可表示為:
式中:I為單位矩陣;A(Li)為L(zhǎng)i的傳導(dǎo)矩陣;τ為時(shí)間步長(zhǎng)。
根據(jù)先驗(yàn)估計(jì)Li+1,0=Li,不斷迭代生成Li+1,n,迭代過(guò)程可表示為:
2.1.2 特征檢測(cè)
非線性尺度空間構(gòu)建后,采用Hessian矩陣檢測(cè)特征點(diǎn)位置,此處采取與SIFT相同的檢測(cè)策略,即尋找歸一化后不同尺度的Hessian矩陣行列式LHessian的局部極值點(diǎn),LHessian可表示為:
式中:Lxx、Lyy分別為水平方向和垂直方向的二階導(dǎo)數(shù);Lxy為二階交叉導(dǎo)數(shù)。
在非線性尺度空間內(nèi),比較當(dāng)前點(diǎn)與上下兩層及當(dāng)前層(3×3鄰域)的26個(gè)點(diǎn)的值,判斷其是否為極值點(diǎn),從而確定特征點(diǎn)的位置,如圖2所示。
2.2 SIFT特征描述
首先,在非線性尺度空間內(nèi),建立梯度方向直方圖,求取特征點(diǎn)的主方向;其次,以特征點(diǎn)為中心,將特征點(diǎn)鄰域內(nèi)圖像梯度的位置和方向旋轉(zhuǎn)至主方向,實(shí)現(xiàn)描述符的旋轉(zhuǎn)不變性;然后,在特征點(diǎn)鄰域內(nèi)對(duì)影像特征進(jìn)行描述,把12×12的鄰域劃分成4×4個(gè)等間隔子區(qū)域,計(jì)算每個(gè)子區(qū)域8個(gè)方向的梯度方向直方圖,形成128維SIFT特征向量。由于關(guān)于SIFT特征描述的研究[15-16,19-20]較多,此處不再贅述。
2.3 特征匹配與提純
特征向量生成后,根據(jù)向量間的歐氏距離E進(jìn)行特征匹配。E值越小,表明兩個(gè)向量越相似。歐氏距離E可表示為:
式中:特征向量a=(a1,a2…,a128);b=(b1,b2,…,b128)。
由于相似的紋理特征,在匹配的特征點(diǎn)對(duì)中,存在大量的誤匹配點(diǎn)對(duì),需要對(duì)匹配結(jié)果提純,減少錯(cuò)誤匹配數(shù)量,提高特征匹配效果。本文采用單應(yīng)性約束的RANSAC算法[16-18]對(duì)匹配結(jié)果進(jìn)行提純。
3 匹配評(píng)價(jià)標(biāo)準(zhǔn)
3.1 點(diǎn)對(duì)匹配正確的判斷
在參考圖像和待匹配圖像上,若兩個(gè)特征向量間的歐氏距離E很小,判斷這兩個(gè)特征點(diǎn)對(duì)應(yīng)同一場(chǎng)景,認(rèn)為是同名點(diǎn)對(duì),坐標(biāo)分別為(x1,y1)和(x2,y2)。參考圖像特征點(diǎn)(x1,y1)經(jīng)理論單應(yīng)性矩陣映射到待匹配圖像的理論點(diǎn)位為(1′,1′),可表示為:
在待匹配圖像上,理論點(diǎn)位(1′,1′)與實(shí)際匹配點(diǎn)位(x2,y2)存在偏差,即重投影誤差d,可表示為:
若d小于經(jīng)驗(yàn)閾值 (本文設(shè)為3像素),則認(rèn)為點(diǎn)對(duì)匹配正確;否則認(rèn)為點(diǎn)對(duì)匹配錯(cuò)誤。
3.2 召回率
召回率(Recall)為兩幅相似影像中的正確匹配點(diǎn)對(duì)數(shù)n與理論特征點(diǎn)對(duì)數(shù)量M的比值,反映了特征檢測(cè)的性能,可表示為:
3.3 精準(zhǔn)率
精準(zhǔn)率(Precision)即匹配正確率,為兩幅圖像中正確匹配點(diǎn)對(duì)數(shù)量n與特征匹配點(diǎn)對(duì)數(shù)量N的比值,反映了特征描述的穩(wěn)定性,可表示為:
3.4 F1值
F1值(F1-measure)為召回率和精準(zhǔn)率的加權(quán)調(diào)和均值,同時(shí)兼顧了召回率和精準(zhǔn)率,可表示為:
3.5 提取用時(shí)
每個(gè)特征提取的平均用時(shí)Point_Time為每幅圖像提取特征平均用時(shí)TIME與提取特征點(diǎn)的數(shù)目均值NUM的比值,反映了特征提取算法的運(yùn)行效率,可表示為:
4 實(shí)驗(yàn)結(jié)果與分析
為測(cè)試本文算法效果,在Windows 7操作系統(tǒng),CPU為Intel Core i7-4790M,內(nèi)存為8GB,編程平臺(tái)為Microsoft Visual Studio 2013的實(shí)驗(yàn)環(huán)境下,基于OpenCV 3.3.1進(jìn)行實(shí)驗(yàn)。以云南玉溪某地傾斜攝影的前視影像作為研究對(duì)象,相機(jī)為SONY ILCE-5100,傾角45°,焦距16mm,光圈值f/5.6,曝光時(shí)間1/2000s,拍攝時(shí)間上午10時(shí)許,天氣晴朗無(wú)風(fēng),影像尺寸為6000×4000。由于原圖像較大,為減少計(jì)算時(shí)間,對(duì)原圖像進(jìn)行降采樣,壓縮后的影像尺寸為1500×1000。
選取應(yīng)用廣泛、性能高的SIFT、SURF、AKAZE算法進(jìn)行對(duì)比實(shí)驗(yàn)。此次實(shí)驗(yàn)中,上述4種算法的特征檢測(cè)子和描述子均采用OpenCV的默認(rèn)參數(shù)。
4.1 模擬傾斜攝影的圖像變化
為評(píng)價(jià)各種算法的穩(wěn)健性,模擬傾斜攝影條件下的5種圖像變化,分別描述如下:
a)高斯模糊。模擬拍攝時(shí)受到噪聲影響引起的模糊變化,對(duì)原始影像進(jìn)行高斯模糊,模糊半徑從0變化到10,步長(zhǎng)為1,得到11張影像作為a組。
b)旋轉(zhuǎn)變化。模擬不同相機(jī)朝向和航向變化造成的影像旋轉(zhuǎn)變化,把影像順時(shí)針旋轉(zhuǎn)0°至180°,步長(zhǎng)20°,得到10張影像作為b組。
c)亮度變化。模擬影像因光照強(qiáng)度改變引起的亮度變化,圖像亮度增量從-125至125,步長(zhǎng)25,得到11張影像作為c組。
d)視角變化。模擬不同視角或相機(jī)傾角下,相同地物在影像上的差異,將影像沿垂直方向翻轉(zhuǎn)-50°至50°,步長(zhǎng)10°,得到11張影像作為d組。
e)尺度變化。模擬航高變化和相機(jī)傾角造成的影像地物尺寸變化,縮放系數(shù)從0.25變化至2.0,步長(zhǎng)0.25,得到8張影像作為e組。
通過(guò)模擬得到5組圖像,如圖3所示(為簡(jiǎn)化只顯示部分圖像)。
4.2 結(jié)果分析
對(duì)原始前視影像分別與上述模擬圖像進(jìn)行特征匹配與提純實(shí)驗(yàn),采用召回率、精準(zhǔn)率、F1值和運(yùn)行時(shí)間評(píng)估各種特征提取算法的性能。
4.2.1 特征提取效果分析
F1值兼顧了召回率和精準(zhǔn)率,綜合反映了算法的檢測(cè)和描述質(zhì)量。統(tǒng)計(jì)4種算法在上述5種模擬條件的F1值,結(jié)果如圖4所示。
在圖4(a)中,隨著高斯平滑半徑的增大,圖像愈發(fā)模糊,F(xiàn)1值逐漸降低。由于AKAZE算法采用非線性擴(kuò)散濾波的方式建立尺度空間,增強(qiáng)了圖像輪廓局部特征的表現(xiàn)能力,使得特征顯著性更高,AKAZE和AKAZE-SIFT算法的F1值高于另兩種算法。
在圖4(b)中,在處理圖像旋轉(zhuǎn)變化時(shí),采用局部不變特征的4種算法都能出色地描述圖像特征信息,取得了較好的匹配效果,但由于SURF算法引入積分圖像對(duì)高斯差分進(jìn)行了簡(jiǎn)化,降低了描述向量的維度,在處理旋轉(zhuǎn)變化時(shí),匹配效果差于其他算法。
在圖4(c)中,在面對(duì)亮度均勻變化時(shí),由于4種算法都采用差分的方法解決了亮度均勻變化的問(wèn)題,提取效果相當(dāng)。
在圖4(d)中,在處理圖像視角變化時(shí),隨著圖像翻轉(zhuǎn)角度的增加,4種算法的匹配效果都明顯變差,表明圖像視角變化是影響匹配效果的關(guān)鍵因素。其中,本文算法的F1值高于其他算法。
在圖4(e)中,引入尺度空間構(gòu)建影像金字塔,能夠很好解決尺度變化的問(wèn)題,4種算法的匹配效果相當(dāng)。隨著圖像尺寸的縮小,圖像的信息量變小,特征點(diǎn)的提取數(shù)量減少,且描述向量的顯著性變差,匹配效果明顯下降;尺寸放大時(shí),圖像的信息量沒(méi)有明顯丟失,特征匹配效果緩慢變差。
為定量分析4種算法的匹配效果,統(tǒng)計(jì)召回率、精準(zhǔn)率、F1值在上述5種模擬變化下的均值,結(jié)果如表1所示。
從表1可以看出,旋轉(zhuǎn)和亮度變化對(duì)匹配效果影響較小;視角和尺度變化是影響匹配效果的主要因素,這也正是傾斜攝影與垂直攝影的主要差異。其中,AKAZE-SIFT較SIFT算法召回率提高了12.8%,精準(zhǔn)率提高了6.5%,F(xiàn)1值提升了13.8%;較SURF算法召回率提升了35.2%,精準(zhǔn)率提升了23.4%,F(xiàn)1值提升了31.9%;較AKAZE算法召回率提升了5.3%,精準(zhǔn)率提升了6.1%,F(xiàn)1值提升了5.6%。AKAZE-SIFT算法的召回率、精準(zhǔn)率、F1值均高于另3種算法,表明其針對(duì)上述變化具有較強(qiáng)的穩(wěn)健性。
SIFT算法計(jì)算量大,提取時(shí)間約1.39ms,用時(shí)最長(zhǎng);SURF算法較SIFT算法,運(yùn)行效率有明顯提升,提取時(shí)間約0.85ms;由于AKAZE采用了加速的FED算法,每個(gè)特征點(diǎn)的提取時(shí)間約0.50ms,運(yùn)行時(shí)間最短;AKAZE-SIFT算法作為AKAZE和SIFT的組合算法,每點(diǎn)特征提取時(shí)間為0.80ms,約為SIFT和AKAZE算法的均值。本文算法運(yùn)行效率低于AKAZE,但優(yōu)于SIFT和SURF。
綜合考慮影像5個(gè)方面的變化,AKAZE-SIFT算法的召回率、精準(zhǔn)率和F1值均高于其他算法,具有良好的檢測(cè)和描述能力,匹配效果最好,AKAZE和SIFT算法次之。
5 結(jié)語(yǔ)
本文針對(duì)傾斜影像與正攝影像的差異,在研究已有特征提取算法的基礎(chǔ)上,設(shè)計(jì)了一種AKAZE-SIFT特征提取算法。考慮模糊、旋轉(zhuǎn)、亮度、視角及尺度變化的影響,把AKAZE-SIFT與現(xiàn)有的特征提取算法進(jìn)行了對(duì)比,以特征匹配召回率、精準(zhǔn)率、F1值和提取用時(shí)作為評(píng)價(jià)標(biāo)準(zhǔn),評(píng)估了4種算法在多視角此處是否應(yīng)該為“多視角”?請(qǐng)明確?;貜?fù):英文表達(dá)為multiple-view ,可譯作“多視”,也可作“多視角”。查閱他人文獻(xiàn),二者均有使用。為表達(dá)流暢,建議使用“多視角”傾斜影像上的特征提取性能。模擬實(shí)驗(yàn)結(jié)果表明:視角和尺度變化是影響傾斜影像特征匹配效果的關(guān)鍵因素;而旋轉(zhuǎn)和亮度均勻變化對(duì)匹配效果的影響較小。AKAZE-SIFT算法在傾斜影像特征提取時(shí),具有較高的檢測(cè)和描述穩(wěn)定性,匹配效果優(yōu)于典型的SIFT、SURF和AKAZE算法,可作為一種實(shí)用的傾斜影像特征提取算法。
由于本文實(shí)驗(yàn)為傾斜影像受各種因素影響的模擬變化,而真實(shí)情況要遠(yuǎn)復(fù)雜于模擬影像,如模擬時(shí)未考慮到地物遮擋和光照不均勻的情況,故實(shí)驗(yàn)時(shí)各種算法的匹配正確率要高于真實(shí)情況,下一步考慮在真實(shí)數(shù)據(jù)庫(kù)上測(cè)試提取效果。
參考文獻(xiàn) (References)
[1] 楊國(guó)東,王民水.傾斜攝影測(cè)量技術(shù)應(yīng)用及展望[J]. 測(cè)繪與空間地理信息,2016,39(1):13-15,18.(YANG G D, WANG M S. The tilt photographic measuration technique and expectation [J]. Geomatics and Spatial Information Technology, 2016, 39(1): 13-15, 18.)
[2] 邢帥,徐青,劉軍,等.多源衛(wèi)星遙感影像的光束法區(qū)域網(wǎng)平差[J].測(cè)繪學(xué)報(bào),2009,38(2):125-130.(XING S, XU Q, LIU J, et al. Bundle block adjustment with multi-source satellite remote sensing images [J]. Acta Geodaetica et Cartographica Sinica, 2009, 38(2): 125-130.)
[3] 張祖勛,張劍清.城市建模的途徑與關(guān)鍵技術(shù)[J].世界科技研究與發(fā)展,2003(3):23-29.(ZHANG Z X, ZHANG J Q. Solutions and core techniques of city modeling [J]. World Science-Technology Research and Development, 2003(3): 23-29.)
[4] LOWE D G. Object recognition from local scale-invariant features [C]// Proceedings of the 7th IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 1999: 1150-1157.
[5] LOWE D G. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer Vision, 2004, 60(2): 91-110.
[6] BAY H, TUYTELAARS T, GOOL L V. SURF: speeded up robust features [C]// Proceedings of the 2006 European Conference on Computer Vision, LNCS 3951. Berlin: Springer, 2006: 404-417.
[7] BRADSKI G, KONOLIGE K, RABAUD V, et al. ORB: an efficient alternative to SIFT or SURF [C]// Proceedings of the 2011 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2011: 2564-2571.
[8] ALCANTARILLA P F, BARTOLI A, DAVISON A J. KAZE features [C]// Proceedings of the 2012 European Conference on Computer Vision, LNCS 7577. Berlin: Springer, 2012: 214-227.
[9] ALCANTARILLA P F, NUEVO J, BARTOLI A J. Fast explicit diffusion for accelerated features in nonlinear scale spaces [C]// Proceedings of the 2013 British Machine Vision Conference. Durham, UK: BMVA Press, 2013: 1-11.
[10] 張一.無(wú)人機(jī)遙感影像點(diǎn)特征匹配算法研究[D].鄭州:解放軍信息工程大學(xué),2015:39.(ZHANG Y. Research on point feature matching algorithms of UAV remote sensing images [D]. Zhengzhou: PLA Information Engineering University, 2015: 39.)
[11] 王曉紅,鄧仕雄,何志偉,等.結(jié)合SURF算法和單應(yīng)性矩陣的無(wú)人機(jī)影像匹配[J].測(cè)繪通報(bào),2018(7):38-42.(WANG X H, DENG S X, HE Z W, et al. Study of UAV image matching based on SURF algorithm and homography matrix [J].Bulletin of Surveying and Mapping, 2018(7): 38-42.)
[12] 宋偉,王永波.基于改進(jìn)AKAZE算法的無(wú)人機(jī)影像匹配[J].電子測(cè)量與儀器學(xué)報(bào),2018,32(8):96-102.(SONG W, WANG Y B. UAV image registration based on improved AKAZE algorithm [J]. Journal of Electronic Measurement and Instrumentation, 2018, 32(8): 96-102.)
[13] 張春美,龔志輝,黃艷.幾種特征點(diǎn)提取算法的性能評(píng)估及改進(jìn)[J].測(cè)繪科學(xué)技術(shù)學(xué)報(bào),2008,25(3):231-234.(ZHANG C M, GONG Z H, HUANG Y. Performance evaluation and improvement of several feature point detectors [J]. Journal of Geomatics Science and Technology, 2008, 25(3): 231-234.)
[14] 葉沅鑫,慎利.面向遙感影像匹配的特征點(diǎn)檢測(cè)算子性能評(píng)估[J].西南交通大學(xué)學(xué)報(bào),2016,51(6):1170-1176.(YE Y X, SHEN L. Performance evaluation of interest point detectors for remote sensing image matching [J]. Journal of Southwest Jiaotong University, 2016, 51(6): 1170-1176.)
[15] 胡佳怡,趙棟梁,劉榮,等.基于特征的影像匹配算法性能評(píng)估[J].北京測(cè)繪,2018,32(2):179-185.(HU J Y, ZHAO D L, LIU R, et al. Performance evaluation of feature-based image matching algorithms [J]. Beijing Surveying and Mapping, 2018, 32(2): 179-185.)
[16] 賈雯曉,張貴倉(cāng),汪亮亮,等.基于SIFT和改進(jìn)的RANSAC圖像配準(zhǔn)算法[J].計(jì)算機(jī)工程與應(yīng)用,2018,54(2):203-207.(JIA W X, ZHANG G C, WANG L L, et al. Image registration algorithm based on SIFT and improved RANSAC [J]. Computer Engineering and Applications, 2018, 54(2): 203-207.)
[17] 陳藝蝦,孫權(quán)森,徐煥宇,等.SURF算法和RANSAC算法相結(jié)合的遙感圖像匹配方法[J].計(jì)算機(jī)科學(xué)與探索,2012,6(9):822-828.(CHEN Y X, SUN Q S, XU H Y, et al. Matching method of remote sensing images based on SURF algorithm and RANSAC algorithm [J]. Journal of Frontiers of Computer Science and Technology, 2012, 6(9): 822-828.)
[18] 高帥華,安巧絨.RANSAC在影像匹配中的應(yīng)用[J].中國(guó)科技信息,2018(6):69-70.(GAO S H, AN Q R. Application of RANSAC in image matching [J]. China Science and Technology Information, 2018(6): 69-70.)
[19] 代玉強(qiáng),楊絮,熊昊,等.SIFT特征算法改進(jìn)研究[J].現(xiàn)代計(jì)算機(jī)(專業(yè)版),2018(17):55-59.(DAI Y Q, YANG X, XIONG H, et al. Research on the improvement of SIFT feature algorithm [J]. Modern Computer (Professional Edition), 2018(17): 55-59.
[20] 陳虹,肖越,肖成龍,等.基于SIFT算子融合最大相異系數(shù)的自適應(yīng)圖像匹配算法[J].計(jì)算機(jī)應(yīng)用,2018,38(5):1410-1414.(CHEN H, XIAO Y, XIAO C L, et al. Adaptive image matching algorithm based on SIFT operator fused with maximum dissimilarity coefficient [J]. Journal of Computer Applications, 2018, 38(5): 1410-1414.)