999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種改進(jìn)的OSID的圖像匹配算法*

2021-06-25 09:46:08陳雪松唐錦萍
關(guān)鍵詞:特征

陳雪松,雷 嫚,畢 波,唐錦萍

(1.東北石油大學(xué)電氣信息工程學(xué)院,黑龍江 大慶 163318;2.東北石油大學(xué)數(shù)學(xué)與統(tǒng)計(jì)學(xué)院,黑龍江 大慶 163318;3.海南醫(yī)學(xué)院公共衛(wèi)生學(xué)院,海南 ???571101;4.黑龍江大學(xué)數(shù)據(jù)科學(xué)與技術(shù)學(xué)院,黑龍江 哈爾濱 150080)

1 引言

盡管 SIFT(Scale Invariant Feature Transform)算法的關(guān)鍵點(diǎn)檢測(cè)器及描述符[1 - 4]已有十幾年的歷史,在很多基于視覺(jué)特性的應(yīng)用中,包括對(duì)象識(shí)別[1]、圖像拼接[5]和圖像映射[6]等,都非常成功,但它也伴隨著大量的計(jì)算負(fù)擔(dān),尤其是對(duì)于實(shí)時(shí)系統(tǒng)而言,例如視覺(jué)測(cè)定器或者低功耗設(shè)備手機(jī)等,因此需要找到計(jì)算成本較低的替代方案。而且隨著科學(xué)技術(shù)的進(jìn)步,數(shù)據(jù)處理的需求也日益增加,對(duì)算法的復(fù)雜性和魯棒性要求也越來(lái)越高,對(duì)于低復(fù)雜度、低存儲(chǔ)空間的特征描述算法的需求也越來(lái)越迫切。所以,研究人員已經(jīng)開(kāi)始對(duì)高維浮點(diǎn)型描述子進(jìn)行降維處理。

于是二進(jìn)制位串描述子就產(chǎn)生了,它和實(shí)值描述子最大的不同就是,不是采用歐氏距離作為度量距離,而是采用漢明距離,其優(yōu)點(diǎn)就是計(jì)算量比歐氏距離的小。

2013年,Wang等[7]采用一種新的快速魯棒不變特征FRIF (Fast Robust Invariant Feature)進(jìn)行特征檢測(cè)和描述。其基本思想是利用快速逼近的Log檢測(cè)器來(lái)選擇尺度不變的關(guān)鍵點(diǎn),并結(jié)合局部模式和模式間信息來(lái)構(gòu)造獨(dú)特的二進(jìn)制描述符。2014年,Xu等[8]提出了區(qū)域不變量的序數(shù)和空間信息OSRI(Ordinal and Spatial Information of Regional Invariants)算法,該算法將特征點(diǎn)的局部鄰域擴(kuò)展到多層范圍,并對(duì)每層鄰域按像素強(qiáng)度值和梯度方向順序劃分為多層子區(qū)域;按圓形區(qū)域中的像素強(qiáng)度值或者梯度方向值將劃分范圍進(jìn)行多次旋轉(zhuǎn)(移位),構(gòu)建多組層的子區(qū)域集合;最后通過(guò)子區(qū)域中多種不變特征的比較結(jié)果形成二進(jìn)制描述向量。2016年,譚躍生等[9]針對(duì)傳統(tǒng)局部特征提取算法在提取特征點(diǎn)時(shí)效率不高,生成描述子需要計(jì)算主方向等問(wèn)題,結(jié)合SURF(Speeded-Up Robust Features)算法和RGT(Radial Gra- dient Transform)[10],在精度損失盡可能小的情況下提高局部不變特征提取速度,提出一種改進(jìn)的加速?gòu)较騍URF算法AR-SURF。實(shí)驗(yàn)結(jié)果表明,AR-SURF算法節(jié)省了時(shí)空損耗,提升了定位速度,提取效果更好,更加適合海量圖像處理。2018年,于達(dá)[11]對(duì)目前常用的局部不變特征匹配算法進(jìn)行研究,分析比較各算法的旋轉(zhuǎn)不變性、尺度不變性、定位精度和匹配效率。利用Grab Cut算法對(duì)識(shí)別出的目標(biāo)物體進(jìn)行圖像分割,針對(duì)圖像分割過(guò)程中需要人機(jī)交互的問(wèn)題,將特征匹配算法與圖像分割算法連接起來(lái),提高算法的自動(dòng)化程度。其次,在完成目標(biāo)物體圖像分割的基礎(chǔ)上,基于圖像矩計(jì)算出目標(biāo)的質(zhì)心,利用極線約束提高質(zhì)心匹配效率。2019年,趙愛(ài)罡等[12]提出了一種基于兩層策略的特征點(diǎn)匹配方法。首先根據(jù)特征點(diǎn)響應(yīng)的閾值對(duì)實(shí)時(shí)圖和參考圖分別提取一級(jí)特征點(diǎn)和二級(jí)特征點(diǎn),然后依據(jù)二級(jí)特征點(diǎn)到一級(jí)特征點(diǎn)的距離使二級(jí)特征點(diǎn)隸屬于距離最近的一級(jí)特征點(diǎn),由此達(dá)到對(duì)二級(jí)特征點(diǎn)進(jìn)行分組的目的。仿真實(shí)驗(yàn)結(jié)果表明,特征點(diǎn)匹配速度大幅提升。

本文提出的特征建立在最近開(kāi)發(fā)的一種基于旋轉(zhuǎn)的快速提取特征的描述子ORB (Oriented FAST and Rotated BRIEF)[13,14]特征檢測(cè)和序數(shù)空間強(qiáng)度分布OSID(Ordinal Spatial Intensity Distribution)[15]描述子上。由于它們的優(yōu)良性能和低成本,這2種技術(shù)都是有吸引力的。本文討論了SIFT技術(shù)和OSID的幾個(gè)局限性,其中最明顯的是匹配時(shí)間成本高。

2 序數(shù)空間強(qiáng)度分布

OSID的特征描述子的主要思想是在亮度逐漸增加的情況下,局部塊像素強(qiáng)度的相對(duì)順序保持不變或穩(wěn)定。OSID是通過(guò)對(duì)二維直方圖進(jìn)行柵格化來(lái)構(gòu)造的,在序數(shù)空間和空間強(qiáng)度中對(duì)像素分組(或組合)。在序數(shù)空間中對(duì)像素進(jìn)行綁定,可以確保特征不受復(fù)雜亮度變化的影響,同時(shí)在空間上綁定像素可以捕獲圖像塊的結(jié)構(gòu)信息:如果特征是從像素的樸素直方圖中獲得的,就會(huì)丟失。為了提取特征及其描述子,通過(guò)預(yù)處理步驟和特征檢測(cè)步驟對(duì)特征點(diǎn)進(jìn)行定位。

2.1 預(yù)處理與特征檢測(cè)

在計(jì)算特征之前,目標(biāo)圖像和配準(zhǔn)圖像需要用高斯濾波器進(jìn)行平滑處理,以達(dá)到消除噪聲的目的,因?yàn)橄袼貜?qiáng)度的相對(duì)順序可能對(duì)噪聲很敏感。所以,要為特征點(diǎn)劃分局部區(qū)域, 具體過(guò)程為:對(duì)于每個(gè)檢測(cè)到的特征點(diǎn),提取大小為d*d的局部塊,其中d的典型選擇為41,但它可能隨圖像分辨率和尺度的變化而變化。

2.2 序號(hào)和空間標(biāo)號(hào)

對(duì)于序數(shù)分布,塊中的像素被分組到n個(gè)箱子中,每個(gè)箱子中的像素都具有相似的像素強(qiáng)度。與具有n個(gè)箱子的常規(guī)直方圖不同,每個(gè)箱子表示順序范圍,而不是原始像素強(qiáng)度的范圍,因?yàn)樵枷袼乜赡苡捎趲淖兓瘜?dǎo)致像素值發(fā)生改變。像素被標(biāo)記為它們所屬的箱號(hào)。在空間分布中,d*d圖像塊中的像素基于n個(gè)扇形空間細(xì)分來(lái)標(biāo)記。將像素分配給子圖像塊是預(yù)先計(jì)算的,以節(jié)省計(jì)算時(shí)間。

2.3 二維直方圖和柵格化

為每個(gè)局部塊創(chuàng)建一個(gè)二維直方圖,其中,直方圖中的x軸表示按相對(duì)順序編碼的像素強(qiáng)度,y軸表示空間分布。在二維直方圖中,位置(x,y)處的數(shù)值表示在y細(xì)分區(qū)域中像素點(diǎn)的個(gè)數(shù),像素點(diǎn)的排序?yàn)閤。

二維直方圖中的每一行都是一維直方圖,它表示像素在給定子塊的序號(hào)空間中的分布情況。它是一個(gè)n維向量,每個(gè)維表示有多少像素具有序號(hào)空間標(biāo)簽。二維直方圖中的每一列表示相似強(qiáng)度的像素在子塊中的分布情況。

在為每個(gè)圖像塊構(gòu)造了有序空間的二維直方圖之后,需要對(duì)圖像中每個(gè)圖像塊構(gòu)造的直方圖進(jìn)行柵格化處理,形成一個(gè)n*m維向量作為d*d塊的描述符。柵格化的起始庫(kù)和方向(或順序)可以是任意的,但是需要預(yù)先定義。最后,根據(jù)塊中的像素個(gè)數(shù)對(duì)特征向量進(jìn)行歸一化處理,消除特征向量對(duì)描述符的影響。因此,圖像塊的大小可能因特征點(diǎn)的不同而不同。OSID描述符的具體步驟如圖1所示。

Figure 1 Workflow of OSID descriptor

3 改進(jìn)的OSID算法

本節(jié)首先介紹改進(jìn)OSID精度的方法,對(duì)OSID描述子進(jìn)行改進(jìn),OSID描述符構(gòu)建的過(guò)程中,根據(jù)關(guān)鍵點(diǎn)信息(像素強(qiáng)度)區(qū)域的密集程度設(shè)置m的值,并對(duì)描述子的表現(xiàn)形式進(jìn)行轉(zhuǎn)換,將直方圖描述子轉(zhuǎn)換為二進(jìn)制描述子,提高算法運(yùn)行速度。

3.1 對(duì)OSID描述子的改進(jìn)

OSID將強(qiáng)度順序信息編碼為描述符,然后對(duì)局部圖像塊中不同子區(qū)域的強(qiáng)度順序的直方圖進(jìn)行計(jì)算。這是OSID描述符的基本思想。簡(jiǎn)單地說(shuō),它既捕獲了局部圖像塊中像素的序數(shù)分布,又捕獲了像素的空間分布,并使用它們的聯(lián)合分布作為特征描述符。具體來(lái)說(shuō),在特征點(diǎn)周圍取一個(gè)41*41大小的圖像塊,將圖像塊分成16個(gè)等大的扇形,再對(duì)每個(gè)扇形內(nèi)的像素進(jìn)行排序,并放入8個(gè)箱子中(0~32,32~64,…,223~255),每個(gè)特征點(diǎn)生成16*8的直方圖子描述子,將每個(gè)特征點(diǎn)的子描述子連接構(gòu)成OSID描述子。然后,在特征點(diǎn)41*41圖像塊范圍內(nèi),可能存在其他特征點(diǎn),為更好地表達(dá)多個(gè)特征點(diǎn)的圖像塊信息,本文提出將m(扇形個(gè)數(shù))自適應(yīng),在保證圖像信息的前提下節(jié)省儲(chǔ)存空間并提高算法計(jì)算速度。

快速檢測(cè)特征點(diǎn)算法FAST(Features from Accelerated Segment Test)[16,17]的提出者Rosten等將FAST的原理表述為:若某像素與其周圍鄰域內(nèi)足夠多的像素點(diǎn)相差較大,則該像素可能是角點(diǎn)。ORB描述子的特征提取是由FAST算法改進(jìn)的,稱為oFAST(FAST Keypoint Orientation)[9],即在使用FAST提取出特征點(diǎn)之后,給其定義一個(gè)特征點(diǎn)方向,以此來(lái)實(shí)現(xiàn)特征點(diǎn)的旋轉(zhuǎn)不變性。本文使用ORB算法檢測(cè)特征點(diǎn),再對(duì)特征點(diǎn)構(gòu)建描述子;在構(gòu)建描述子的過(guò)程中,一個(gè)特征點(diǎn)的圖像塊里有多個(gè)特征點(diǎn),則這個(gè)圖像塊中有多個(gè)像素點(diǎn)與其周圍鄰域內(nèi)足夠多的像素點(diǎn)相差較大,本文認(rèn)為此特征點(diǎn)的局部圖像塊信息較為豐富,因此考慮將此局部圖像塊進(jìn)行更細(xì)化的處理,增加扇形個(gè)數(shù)m,以更好地表達(dá)該區(qū)域圖像塊的信息。

OSID描述符構(gòu)建的過(guò)程中,圖像塊的扇形個(gè)數(shù)m的選擇是固定的,因此本文嘗試將扇形個(gè)數(shù)的值自適應(yīng),對(duì)特征點(diǎn)個(gè)數(shù)大于1的區(qū)域的m設(shè)置得更大,以保證圖像塊的信息被更好地表達(dá),對(duì)特征點(diǎn)個(gè)數(shù)小于或等于1的區(qū)域的m設(shè)置得更小,在保證圖像信息能夠被表達(dá)的前提下節(jié)省儲(chǔ)存空間并提高算法速度。具體步驟:當(dāng)某個(gè)特征點(diǎn)的41*41圖像塊內(nèi)除它本身外另有1~2個(gè)特征點(diǎn)時(shí),將扇形個(gè)數(shù)設(shè)置為18;當(dāng)某個(gè)特征點(diǎn)的41*41圖像塊內(nèi)除它本身外另有3~4個(gè)特征點(diǎn)時(shí),將扇形個(gè)數(shù)設(shè)置為20;當(dāng)某個(gè)特征點(diǎn)的41*41圖像塊內(nèi)除它本身外另有5個(gè)以上特征點(diǎn)時(shí),將扇形個(gè)數(shù)設(shè)置為22。

3.2 對(duì)OSID匹配效果的改進(jìn)

OSID最后生成的描述子是直方圖描述子。對(duì)每個(gè)特征點(diǎn)局部塊都創(chuàng)建一個(gè)二維直方圖,其中,直方圖中的x軸按照像素強(qiáng)度的相對(duì)順序編碼像素強(qiáng)度分布,y軸編碼空間分布。在為每個(gè)圖像塊構(gòu)造了有序空間的二維直方圖之后,對(duì)直方圖進(jìn)行柵格化,形成一個(gè)n*m維向量作為d*d塊的描述符。然后,根據(jù)塊中的像素個(gè)數(shù)對(duì)特征向量進(jìn)行歸一化處理,消除特征向量對(duì)描述符的影響。因此,圖像塊的大小可能因特征點(diǎn)的不同而不同。

由于目標(biāo)圖像和配準(zhǔn)圖像中的每一個(gè)特征點(diǎn)都會(huì)生成一個(gè)直方圖描述子,因此在圖像匹配的過(guò)程中,目標(biāo)圖像中的任一直方圖描述子都需要與配準(zhǔn)圖像中的所有直方圖描述子進(jìn)行歐氏距離的計(jì)算,將歐氏距離數(shù)值最小的直方圖描述子對(duì)應(yīng)的特征點(diǎn)判定為匹配特征點(diǎn),因此計(jì)算復(fù)雜度高,運(yùn)算時(shí)間長(zhǎng)。二進(jìn)制描述符比傳統(tǒng)描述符(即浮點(diǎn)向量描述符)所需的存儲(chǔ)空間要小得多。同時(shí),計(jì)算用于評(píng)估二進(jìn)制描述符之間的相似度的漢明距離比計(jì)算浮點(diǎn)向量描述符之間的歐氏距離快得多。因此,二進(jìn)制描述符正在成為需要實(shí)時(shí)處理或內(nèi)存資源有限的應(yīng)用程序的流行解決方案。

在此,本文將直方圖描述子編碼為二進(jìn)制描述子,當(dāng)生成改進(jìn)OSID的直方圖描述子后,首先比較直方圖中直方條的數(shù)值 :(1)當(dāng)前直方條數(shù)值大于或等于后一個(gè)直方條數(shù)值時(shí)記為1,否則記為0;(2)直方圖最后一個(gè)直方條的數(shù)值與第一個(gè)直方條的數(shù)值進(jìn)行比較,以保證描述子轉(zhuǎn)換后的二進(jìn)制描述符維度與直方圖維度相同。這樣,每個(gè)特征點(diǎn)的局部圖像塊描述子就編碼成了二進(jìn)制描述子,最后用漢明距離匹配特征點(diǎn)。

4 實(shí)驗(yàn)

4.1 數(shù)據(jù)集

本文在標(biāo)準(zhǔn)數(shù)據(jù)集[18]上與多個(gè)著名的描述符進(jìn)行性能比較,該數(shù)據(jù)集包含具有不同幾何和光度轉(zhuǎn)換的真實(shí)圖像(例如,視點(diǎn)變化、圖像模糊、JPEG壓縮),本文對(duì)參考圖像(第1幅圖像)與相比變化較大的第4幅圖像,以及變化最大的第6幅圖像進(jìn)行對(duì)比(對(duì)像素強(qiáng)度進(jìn)行歸一化,使其最大值為1)。

4.2 實(shí)驗(yàn)結(jié)果

實(shí)驗(yàn)平臺(tái)和環(huán)境為CPU 1.8 GHz,內(nèi)存4 GB,Windows 7系統(tǒng),Python 3.7.6,將本文算法與OSID算法、SIFT算法、SURF算法[19,20]、BRISK(Binary Robust Invariant Scalable Keypoints)算法[21 - 23]、改進(jìn)ORB算法[24]和FAST算法在準(zhǔn)確率和運(yùn)行時(shí)間上進(jìn)行對(duì)比。在每個(gè)數(shù)據(jù)集上給出3個(gè)算法的匹配連線圖,分別是改進(jìn)OSID算法、除改進(jìn)OSID算法外準(zhǔn)確率最高的算法和除改進(jìn)OSID算法外準(zhǔn)確率最低的算法。

(1)視點(diǎn)更改。改進(jìn)OSID描述符在wall數(shù)據(jù)集上進(jìn)行了視點(diǎn)更改測(cè)試,結(jié)果如表1和表2所示。表1和表2為7種算法準(zhǔn)確率和運(yùn)行時(shí)間的對(duì)比,其中找到的特征點(diǎn)數(shù)包含2個(gè)數(shù)值,分別是目標(biāo)圖像中的特征點(diǎn)數(shù)和配準(zhǔn)圖像中的特征點(diǎn)數(shù)。

Table 1 Comparison of matching performance between the first and fourth images on wall dataset

Table 2 Comparison of matching performance between the first and sixth images in the wall dataset

由表1可以看出,由于改進(jìn)OSID算法的特征點(diǎn)檢測(cè)部分與原算法一樣,所以二者找到的特征點(diǎn)數(shù)一樣,原算法準(zhǔn)確率只有88.03%,運(yùn)行時(shí)間為12.67 s。FAST算法找到的特征點(diǎn)數(shù)最多,但錯(cuò)誤匹配點(diǎn)數(shù)量也最多,正確匹配率為83.65%,SIFT、SURF和BRISK算法找到的特征點(diǎn)數(shù)次之,改進(jìn)ORB算法找到的特征點(diǎn)數(shù)較少,運(yùn)行速度相對(duì)于SURF、BRISK和FAST算法較快。但是,改進(jìn)后OSID算法找到的特征點(diǎn)數(shù)最少,誤匹配數(shù)量也最少,準(zhǔn)確率為91.40%,運(yùn)行時(shí)間為5.87 s。比SURF、BRISK、FAST和改進(jìn)ORB等算法快5 s以上,比SIFT快70多秒。BRISK算法匹配點(diǎn)數(shù)最多,準(zhǔn)確率為88.12%。由表2可以看出,在嚴(yán)重的視點(diǎn)變化時(shí)本文算法與對(duì)比算法的正確匹配率都有所下降,尤其是FAST算法,準(zhǔn)確率只有51.83%,6種對(duì)比算法的表現(xiàn)也有所下降,但本文算法依然表現(xiàn)良好,準(zhǔn)確率為86.64%,運(yùn)行時(shí)間為6.01 s??梢钥吹?,本文改進(jìn)的描述子不管是在適當(dāng)數(shù)量的視點(diǎn)變化時(shí)還是在嚴(yán)重的視點(diǎn)變化時(shí)表現(xiàn)得都很好。

由圖2~圖4可以直觀地看出,在wall數(shù)據(jù)集的第1幅與第4幅圖像匹配性能對(duì)比中,本文改進(jìn)后的OSID算法匹配效果最好,BRISK算法次之,SIFT算法的匹配連線混亂,準(zhǔn)確率最低。而由圖5~圖7觀察到,在wall數(shù)據(jù)集的第1幅與第6幅圖像匹配性能對(duì)比中,視角變化很大,本文改進(jìn)后的OSID算法匹配效果雖然準(zhǔn)確率有所下降,但依然是表現(xiàn)最好的,BRISK算法依舊次之,而FAST算法的匹配連線混亂,準(zhǔn)確率最低。

Figure 2 Line matching diagram of the first and fourth images in wall dataset using improved OSID algorithm

Figure 3 Line matching diagram of the first and fourth images in wall dataset using BRISK algorithm

Figure 4 Line matching diagram of the first and fourth images in wall dataset using SIFT algorithm

Figure 5 Line matching diagram of the first and sixth images in wall dataset using improved OSID algorithm

Figure 6 Line matching diagram of the first and sixth images in wall dataset using BRISK algorithm

Figure 7 Line matching diagram of the first and sixth images in wall dataset using FAST algorithm

(2)圖像模糊。本文也在bikes數(shù)據(jù)集的模糊圖像上進(jìn)行了描述符測(cè)試,結(jié)果如表3和表4所示,F(xiàn)AST、SIFT、SURF和BRISK等算法找到的特征點(diǎn)數(shù)都較多,但錯(cuò)誤匹配點(diǎn)數(shù)量也較多,且在圖像模糊程度高時(shí),SIFT、BRISK和改進(jìn)ORB算法的表現(xiàn)也有所下降。原算法匹配點(diǎn)數(shù)和改進(jìn)OSID的差不多,但是準(zhǔn)確率低于改進(jìn)OSID算法的。改進(jìn)后的OSID算法在圖像模糊程度較高時(shí)準(zhǔn)確率雖然也有所下降,但總體表現(xiàn)良好??梢杂^察到,雖然改進(jìn)OSID算法不是為了解決圖像模糊問(wèn)題而提出的, 但是它也表現(xiàn)得比其他描述子優(yōu)異。

Table 3 Comparison of matching performance between the first and the fourth images on bikes dataset

Table 4 Comparison of matching performance between the first and the sixth images on bikes dataset

由圖8~圖10可以直觀地看出,在bikes數(shù)據(jù)集的第1幅與第4幅圖像匹配性能對(duì)比中,本文改進(jìn)后的OSID算法匹配效果明顯良好,F(xiàn)AST算法居于第2,SIFT算法匹配效果最差。而由圖11~圖13觀察到,在bikes數(shù)據(jù)集的第1幅與第6幅圖像匹配性能對(duì)比中,模糊程度較高,本文改進(jìn)后的OSID算法匹配效果依然表現(xiàn)良好,F(xiàn)AST算法依舊次之,而B(niǎo)RISK算法的匹配連線雜亂,準(zhǔn)確率最低。

Figure 8 Line matching diagram of the first and fourth images in bikes dataset using improved OSID algorithm

Figure 9 Line matching diagram of the first and fourth images in bikes dataset using FAST algorithm

Figure 10 Line matching diagram of the first and fourth images in bikes dataset using SIFT algorithm

Figure 11 Line matching diagram of the first and sixth images in bikes dataset using improved OSID algorithm

Figure 12 Line matching diagram of the first and sixth images in bikes dataset using FAST algorithm

Figure 13 Line matching diagram of the first and sixth images in bikes dataset using BRISK algorithm

(3)JPEG壓縮。本文也在不同級(jí)別的JPEG壓縮下使用UBC數(shù)據(jù)集測(cè)試了描述符,結(jié)果如表5和表6所示??梢杂^察出,在不同壓縮級(jí)別下SIFT算法都表現(xiàn)較好,準(zhǔn)確率分別為88.12%和84.37%,但運(yùn)行時(shí)間較慢,而改進(jìn)后OSID描述子無(wú)論在何種壓縮級(jí)別下運(yùn)行時(shí)間都最快,且在JPEG壓縮級(jí)別適中的情況下表現(xiàn)最好,在JPEG壓縮級(jí)別較高的情況下表現(xiàn)良好。

Table 5 Comparison of matching performance between the first and fourth images on UBC dataset

Table 6 Comparison of matching performance between the first and sixth images on UBC dataset

由圖14~圖16可以直觀地看出,在UBC數(shù)據(jù)集的第1幅與第4幅圖像匹配性能對(duì)比中,本文改進(jìn)后的OSID算法匹配效果最優(yōu),改進(jìn)ORB算法次之,SURF算法匹配效果最差。而由圖17~圖19觀察到,在UBC數(shù)據(jù)集的第1幅與第6幅圖像匹配性能對(duì)比中,本文改進(jìn)后的OSID算法和對(duì)比算法的準(zhǔn)確率都有所下降,但改進(jìn)OSID算法依然表現(xiàn)良好,F(xiàn)AST算法次之,而SURF算法的匹配連線雜而亂,準(zhǔn)確率最低。

Figure 14 Line matching diagram of the first and fourth images in UBC dataset using improved OSID algorithm

Figure 15 Line matching diagram of the first and fourth images in UBC dataset using improved ORB algorithm

Figure 16 Line matching diagram of the first and fourth images in UBC dataset using SURF algorithm

Figure 17 Line matching diagram of the first and sixth images in UBC dataset using improved OSID algorithm

Figure 18 Line matching diagram of the first and sixth images in UBC dataset using FAST algorithm

Figure 19 Line matching diagram of the first and sixth images in UBC dataset using SURF algorithm

5 結(jié)束語(yǔ)

針對(duì)OSID算法同一個(gè)圖像塊多個(gè)特征點(diǎn)、實(shí)時(shí)性較差的問(wèn)題,本文提出了一種基于局部二進(jìn)制模式的快速匹配算法。該算法采用改進(jìn)的局部二進(jìn)制模式對(duì)ORB特征進(jìn)行描述,并對(duì)構(gòu)建描述子的扇形個(gè)數(shù)采用自適應(yīng)的方法,豐富描述子所包含的信息,提高了算法的準(zhǔn)確率。實(shí)驗(yàn)表明,本文算法計(jì)算復(fù)雜度低、魯棒性好,并且該描述子在復(fù)雜視點(diǎn)變化、圖像模糊等情況下的特征匹配是非常有效的。下一步將著重考慮對(duì)特征點(diǎn)檢測(cè)的速度與精度進(jìn)行研究,以進(jìn)一步提高圖像匹配算法性能。

猜你喜歡
特征
抓住特征巧觀察
離散型隨機(jī)變量的分布列與數(shù)字特征
具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
月震特征及與地震的對(duì)比
如何表達(dá)“特征”
被k(2≤k≤16)整除的正整數(shù)的特征
不忠誠(chéng)的四個(gè)特征
詈語(yǔ)的文化蘊(yùn)含與現(xiàn)代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 国产欧美日韩在线一区| 欧美在线导航| 色欲不卡无码一区二区| 国产亚洲精品无码专| 91精品国产麻豆国产自产在线| 国产爽爽视频| 国产91av在线| 国产一区二区三区免费| 九九久久精品免费观看| 啪啪啪亚洲无码| 9久久伊人精品综合| 四虎永久在线| 午夜欧美在线| 欧美翘臀一区二区三区| 欧美成人精品在线| 无码中字出轨中文人妻中文中| 久久久91人妻无码精品蜜桃HD| 亚洲国产欧美国产综合久久 | 免费观看国产小粉嫩喷水| 国产精品99在线观看| 毛片网站在线看| 国产精品国产三级国产专业不| 午夜国产精品视频| 欧美a级在线| 亚洲国产清纯| 国产一在线| 亚洲欧美在线综合一区二区三区| 国产精品熟女亚洲AV麻豆| 日韩123欧美字幕| 亚洲成人动漫在线观看 | 国产精品三级av及在线观看| 在线观看欧美精品二区| 欧美日韩动态图| 亚洲综合久久成人AV| 玩两个丰满老熟女久久网| 亚洲高清国产拍精品26u| 成人伊人色一区二区三区| 久久久久久久久18禁秘| 国产精品专区第1页| 国产无码高清视频不卡| 国产高清在线精品一区二区三区 | 国产一级小视频| 国产高清不卡视频| 国产日韩欧美在线视频免费观看| 国产久操视频| 久久综合伊人77777| 91精品人妻互换| 国产乱子伦精品视频| 国产熟睡乱子伦视频网站| 亚洲高清资源| 国产成人91精品免费网址在线| 在线免费不卡视频| 中文字幕人成乱码熟女免费| 99尹人香蕉国产免费天天拍| 欧美天堂在线| 99久久精品免费视频| 亚洲三级a| 在线国产毛片| 永久天堂网Av| 欧美精品在线观看视频| 99999久久久久久亚洲| 色综合天天娱乐综合网| 久久精品人人做人人爽| 国产高潮视频在线观看| 国产在线视频自拍| 国产美女叼嘿视频免费看| av午夜福利一片免费看| 日韩一区二区在线电影| 亚洲国产精品不卡在线| 国产色图在线观看| 久久国产精品77777| 一本色道久久88综合日韩精品| 另类重口100页在线播放| 国产精品一老牛影视频| 免费人成视网站在线不卡| 亚洲系列无码专区偷窥无码| 3344在线观看无码| 国产精品偷伦视频免费观看国产 | 色悠久久久久久久综合网伊人| 天天激情综合| 精品少妇人妻无码久久| 色国产视频|