999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于局部聚類的改進運動網(wǎng)格統(tǒng)計算法的研究

2022-01-01 00:00:00邱云飛王媛媛
計算機應用研究 2022年2期

摘 要: "針對常用的匹配點篩選算法效率低、對具有角度和尺度變化匹配圖像穩(wěn)定性差等問題,提出一種基于局部聚類的改進網(wǎng)格運動統(tǒng)計特征點篩選算法。首先,通過局部區(qū)域抑制算法篩選響應強度較高且成對出現(xiàn)特征點作為種子點,并以種子點為聚類中心分割圖像,得到最小外接矩形作為運動網(wǎng)格;隨后把運動網(wǎng)格劃分為3×3鄰域支持估計量網(wǎng)格,計算運動網(wǎng)格在不同方向上的梯度最大值,作為運動網(wǎng)格的主方向;最后,把待匹配圖像鄰域支持估計量網(wǎng)格旋轉(zhuǎn)至目標圖像運動網(wǎng)格的主方向位置,借助網(wǎng)格運動統(tǒng)計算法篩選匹配。實驗表明:對具有JPEG壓縮變換、光照變化、模糊變換的匹配圖像,所提算法匹配正確率在90%以上;對具有旋轉(zhuǎn)和尺度變換圖像,所提算法匹配正確率相較運動網(wǎng)格統(tǒng)計算法提高10%左右,高達40%以上;算法耗時僅為13 min,效率較高;所提算法可穩(wěn)定高效地篩選正確的匹配點。

關鍵詞: "運動網(wǎng)格統(tǒng)計算法; 局部區(qū)域抑制算法; 種子點; 局部聚類; 運動網(wǎng)格梯度主方向

中圖分類號: "TP391 """文獻標志碼: A

文章編號: "1001-3695(2022)02-052-0618-05

doi:10.19734/j.issn.1001-3695.2021.06.0261

Research on improved grid-based motion algorithm based on local clustering

Qiu Yunfei, Wang Yuanyuan

(School of Software Engineering, Liaoning Technology University, Huludao Liaoning 125105, China)

Abstract: "To solve the problems of low efficiency and poor stability of image matching with angle and scale changes,this paper proposed an improved mesh motion statistical feature point screening algorithm based on local clustering.Firstly,as seed points by local region suppression algorithm could screen feature points with high response intensity and paired appearance,and with seed points as the clustering center to obtain the minimum enclosing rectangle as the moving grid could segment images.Then,it divided the motion grid into 3×3 neighborhood supporting estimator grids,and it could calculate the maximum gradient value of the motion grid in eight directions as the main direction of the motion grid.Finally,it rotated the neighborhood support estimator grid of the image to be matched to the main direction of the target image motion grid,and the mesh motion statistics algorithm usually screened the matches.The experimental results show that the matching accuracy rate of the proposed algorithm is above 90% for matching images with JPEG compression transform,light change and fuzzy transform.For images with rotation and scale transformation,the matching accuracy of the proposed algorithm is about 10% higher than that of the moving grid statistic algorithm,up to more than 70%.The algorithm takes only 13 min and has high efficiency.It shows that the proposed algorithm can screen the correct matching points stably and efficiently.

Key words: "grid-based motion statistics algorithm; local region suppression algorithm; seed point; local clustering; main direction of the grid-based motion gradient

0 引言

特征匹配是許多計算機視覺的最基本輸入算法,因此圖像匹配的效率、精度和魯棒性都至關重要。完成特征匹配后,有很多錯誤匹配點需通過內(nèi)點篩選算法篩選正確匹配點,故內(nèi)點篩選算法至關重要。

Lowe[1]提出尺度不變算法,使用隨機采樣一致性算法篩選內(nèi)點[2],該方法可有效剔除誤匹配點,但當樣本中內(nèi)點數(shù)量較少時,RANSAC算法[2]迭代計算最佳參數(shù)模型效率會降低,且篩選后的內(nèi)點中仍會存在大量錯誤匹配點。在RANSAC算法基礎上,眾多學者提出了PROSAC(progressive sample consensus)[3]、SCRAMSAC(spatially consistent random sample consensus )[4]、USAC universal framework for random sample consensus)[5]等方法,該類方法篩選內(nèi)點效果較好,但對正確匹配較少和具有仿射性的圖像穩(wěn)定性較差。Lin等人[6]提出全局運動建模的雙邊函數(shù)算法(bilateral functions for global motion modeling,BF),該方法利用雙邊函數(shù)構造分段光滑作為運動建模約束構建模型,分段平滑約束在雙邊域上篩選正確匹配點,該算法對具有寬基線圖像匹配效果較好,但耗時較長。Ma等人[7]提出向量場一致性算法,把特征點篩選問題轉(zhuǎn)換為解向量場最小能量化函數(shù)問題,迭代計算參數(shù)模型篩選正確匹配點。Lin等人[8]提出CODE算法,該方法根據(jù)運動具有平滑性,對成對特征點構建非線性全局運動模型,該算法穩(wěn)定性較好,但解非線性函數(shù)耗時較長且算法效率較低。Ma等人[9]提出局部保持匹配算法(locality preserving matching,LPM),該算法根據(jù)運動具有平滑性,正確匹配點周圍有潛在大量正確匹配點構建模型,該方法篩選內(nèi)點效率較高。Yi等人[10]提出PointCN深度學習方法,將特征點篩選問題轉(zhuǎn)換為離散點分類和基本矩陣回歸問題,利用PointNet結構輸入已標記內(nèi)點和外點數(shù)據(jù)集,并且引入八點加權算法計算基本回歸模型。Zhang等人[11]在PointCN的基礎上提出OANet篩選匹配點的方法,該算法先提出了特征點假定對應關系,然后使用Order-Aware網(wǎng)絡推斷成對特征點是否正確并回歸計算匹配圖像的基本矩陣。上述兩種深度學習方法篩選內(nèi)點的效果較好,但需大量樣本訓練模型,對計算機硬件要求較高且可遷移性差。Bian等人[12]提出了網(wǎng)格運動統(tǒng)計算法(grid-based motion statistics,GMS),由運動具有平滑性,正確匹配點附近的正確匹配點數(shù)應該大于錯誤匹配點附近的正確匹配點數(shù),故GMS算法將匹配圖像劃分為20×20個網(wǎng)格,再把網(wǎng)格細分為3×3個小網(wǎng)格,統(tǒng)計小網(wǎng)格內(nèi)特征點分布,依次篩選特征點。文獻[13~17]均使用或改進GMS算法,但均未解決GMS算法對具有旋轉(zhuǎn)變換的匹配圖像效果較差、鄰域支持估計量網(wǎng)格構造簡單、未引入圖像紋理信息等問題。

針對GMS算法中使用的網(wǎng)格劃分方式較粗糙并且不具有較好的旋轉(zhuǎn)不變性,本文提出一種基于聚類的網(wǎng)格運動統(tǒng)計算法。首先對已匹配的成對特征點作均勻化處理,得到響應較強且成對存在的匹配點作為種子點。然后以種子點為中心聚類分割圖像并找到最小外接矩形作為運動網(wǎng)格,再把運動網(wǎng)格劃分為3×3鄰域支持估計量網(wǎng)格并計算運動網(wǎng)格的主方向。最后把待匹配圖像鄰域支持估計量網(wǎng)格旋轉(zhuǎn)至目標圖像運動網(wǎng)格主方向位置,篩選匹配點。

1 傳統(tǒng)GMS算法

網(wǎng)格運動統(tǒng)計算法根據(jù)運動的光滑性,把匹配點的鄰域作為支持估計區(qū)域,判斷匹配點是否為正確匹配點的方法。圖1表明了正確匹配點和錯誤匹配點的支撐區(qū)域, I a為左側(cè)待匹配圖像,I b 為右側(cè)待匹配圖像。若是圖1中支撐區(qū) a、b上存在n對匹配點x={x 1,x 2,…,x n} ,其中 x i={M i,N i} 為一對匹配點, M、N分別為區(qū)域a、b上的匹配點。根據(jù)運動的光滑性可知,正確匹配點附近具有相似的幾何關系,可假設在區(qū)域a上一特征點M i匹配到b區(qū)域中的點N i,x i為正確匹配點對,x j為錯誤匹配點對。對于圖1的區(qū)域a,用s i 表示 x i 鄰域支持估計量,則

s i=|x i|-1 ""(1)

其中:-1表示去除區(qū)域 a中原始特征點M i 。

在匹配過程中,為了計算區(qū)域 a中到b 中特征點的匹配正確率,圖2表示匹配點篩選過程的事件空間,圖2(a)表示 區(qū)域a與b 正確匹配事件,圖2(b)為區(qū)域 a與b為錯誤匹配事件。若區(qū)域a上某一特征點為f a ,事件 f b a表示為f a匹配到區(qū)域b,若不在區(qū)域b上記為事件f b a - 。若f a匹配到區(qū)域b 上的特征點為正確匹配點對,記為事件 f t a ,反之記為 f f a 。事件 Tab、Fab分別為區(qū)域a與b正確匹配和錯誤匹配,則事件f f a發(fā)生時事件f b a 發(fā)生的概率為

p(f b a|f f a)= βn N "β∈(0,1) ""(2)

其中: n為區(qū)域b 特征點個數(shù); N 為匹配圖像 I b 特征點總數(shù); β 為權重值。

若區(qū)域 a中某個特征點與b 上的一個特征點正確和錯誤匹配概率分別為 p t、p f ,令事件 f t a 的概率為 p(f t a)=t,則P t、P f 分別為

p t=p(f b a|Tab)=p(f t a|Tab)+p(f f a,f b a|Tab)= p(f t a)+p(f f a)p(f b a|f f a)=t+(1-t)βn/N ""(3)

p f=p(f b a|Fab)=p(f f a,fb a|Fab)=β(1-t)(n/N) ""(4)

由式(3)(4),鄰域支持估計量 s i和x i 的二項分布為

s i~ "B(n,p t) x i匹配正確

B(n,p f) x i匹配錯誤 """"(5)

為了快速區(qū)分正確和錯誤匹配點,把匹配圖像劃分為 G=g×g 個網(wǎng)格,如圖3所示,每一個網(wǎng)格為一個鄰域支持估計量,通過計算周圍相鄰網(wǎng)格的估計量,可加速篩選匹配點。由式(1)可得到網(wǎng)格區(qū)域支持估計量 s i 為

s i=∑ K k=1 |x akbk| ""(6)

其中: K 表示與匹配 x i 一起連續(xù)的不相交區(qū)域網(wǎng)格數(shù)目; x akbk∈x 表示在 x i 預測周圍區(qū)域?qū)钠ヅ渥蛹?{ak,bk} ,相鄰網(wǎng)格區(qū)域的鄰域支持估計量 s i 二項分布為

s i~ "B(Kn,p t) x akbk匹配正確

B(Kn,p f) x akbk匹配錯誤 """"(7)

由式(7)可得到 s i 的均值和標準差為

m t=Knp,s t= Knt(1-p t) "x akbk匹配正確

m f=Knp,s f= Knt(1-p f) "x akbk匹配錯誤 """"(8)

由于運動網(wǎng)格劃分,使得正確匹配與錯誤匹配概率相差越來越大,即 s i 的值逐漸增大。按照計算的均值和標準差,可得到區(qū)域匹配對 {ak,bk} 的二值化為

cell-pair{i,j}∈ "F "if "s ij≤τ=m f+αs f

T "if "s ijgt;τ=m f+αs f """"(9)

其中: i、j分別表示圖像I a、I b的第i和j個網(wǎng)格域;pair{i,j}為匹配圖像網(wǎng)格域;α表示為權重;τ 是個近似值為

τ≈αa f ""(10)

將鄰域估計量 s i 大于 τ 的網(wǎng)格區(qū)域匹配對保留下來,可得到正確匹配點。

2 基于局部聚類的改進GMS算法

GMS算法為了加快特征點篩選速度,把匹配圖像劃分為 g×g 個網(wǎng)格,單個網(wǎng)格作為鄰域支持估計量,根據(jù)網(wǎng)格相鄰估計量判斷特征點是否為正確匹配點;該方法可加速區(qū)分匹配點,但網(wǎng)格劃分方式過于簡單,未有效地使用圖像紋理信息。GMS算法構建網(wǎng)格作為鄰域支持估計量,若匹配圖像具有角度變換,圖3中網(wǎng)格鄰域?qū)呐判驎l(fā)生變化,導致內(nèi)外點判斷錯誤。針對上述兩個問題,本文提出改進方法如下:

a)首先選擇局部響應最大且成對存在的特征點作為種子點;然后以種子點局部聚類分割圖像;最后計算分割圖像最小外接矩形作為運動網(wǎng)格。

b)把運動網(wǎng)格劃分為3×3個鄰域支持估計量網(wǎng)格,運動網(wǎng)格在八個方向上最大梯度值對應的方向作為網(wǎng)格的主方向,并把待匹配圖像上以中心網(wǎng)格為鄰域的八個鄰域支持估計量網(wǎng)格旋轉(zhuǎn)至目標圖像運動網(wǎng)格主方向位置。

2.1 基于局部聚類的網(wǎng)格構建

特征點匹配主要通過判斷目標圖像上與待匹配圖像的特征采樣區(qū)域相似程度,若運動是平滑的,則鄰域的像素點和特征會共同移動。運動的平滑性會導致正確匹配點附近一個范圍內(nèi)擁有相似的幾何關系,而錯誤匹配點對之間往往不會有這種一致性關系。由于運動具有平滑性,鄰域的像素點和特征會共同移動,則把具有相似紋理的區(qū)域作為運動網(wǎng)格,可進一步提高GMS算法的魯棒性。

2.1.1 種子點提取

實驗需要檢測特征點,提取局部特征描述符,借助OpenCV庫函數(shù)中的FLANN函數(shù)完成匹配。在本節(jié)中通過局域區(qū)部抑制算法,分別對目標和待匹配圖像上已匹配特征點均勻化處理,減少匹配圖像過程中穩(wěn)定性差問題,選擇局部響應最強且成對存在的特征點作為種子點。對圖像網(wǎng)格劃分,每個網(wǎng)格 G r 寬度固定為

c=ε r×r/ 2 """(11)

其中: ε r 為閾值; r 為二進制搜索抑制半徑。兩兩特征點的歐氏距離 |p i-p j| 可用特征點之間的網(wǎng)格數(shù)量表示。計算特征點響應,并依次排列得到集合 P ,則種子點提取的偽代碼如下:

輸入:圖像尺寸 cols×rows ;特征點集合 P 。

輸出:篩選后特征點集合 P′ 。

初始化: h=cols ;

二進制搜索抑制半徑 r=1+(cols-1)/2 ;

設置特征點網(wǎng)格 G w,寬度為c=ε r×r/ 2 ,ε r 為閾值,本文取0.25,預設點數(shù) k ;

while "resultgt;k

r=1+(h-1)/2

for "p i∈P

i+ "+;

if格內(nèi)特征點 p i 未被包含

保留特征點: P′=p i∪P′

end if

result + +

end for

h=r-1 ;

2.1.2 聚類的網(wǎng)格劃分

先選擇成對且局部響應最大的特征點作為種子點;然后分別對目標圖像和待匹配圖像局部聚類操作;最后計算最小外接矩形作為運動網(wǎng)格。主要過程如下:

a)以特征點為中心計算 n×n 鄰域內(nèi)梯度值,并將種子點移至該區(qū)域內(nèi)梯度最小處。

b)對種子點周圍 2S×2S 鄰域內(nèi)的像素點分配類標。

c)對目標由RGB色彩空間轉(zhuǎn)換為Lab色彩空間。

d)計算 2S×2S 鄰域內(nèi)的像素點與種子點的距離,為

d c= (l j-l i)2+(a j-a i)2+(b j-b i)2 """(12)

d s= (x j-x i)2+(y j-y i)2 """(13)

D′= ( d c m )2+( d s N s )2 """(14)

其中: d c 表示顏色距離; d s 表示歐氏距離; m 為固定常數(shù); N s 為類內(nèi)最大空間距離,定義為

N s =sqrt (N/P′) ""(15)

其中: N 為圖像像素點數(shù); P′ 為保留特征點數(shù)量。

e)迭代計算,獲得較好的局部聚類圖像。

f)計算每個聚類分割區(qū)域的最小外接矩形作為運動網(wǎng)格。

2.2 構建運動網(wǎng)格主方向

原GMS算法構建網(wǎng)格后,以網(wǎng)格作為鄰域支持量,用相鄰鄰域支持估計量判斷該網(wǎng)格內(nèi)特征點是否為正確匹配點。但若匹配圖像具有角度變換,會導致目標圖像與匹配圖像相鄰鄰域支持估計量對應關系發(fā)生變化,導致匹配點篩選失敗。為了使GMS算法具有較好的旋轉(zhuǎn)不變性,提出對鄰域支持估計量網(wǎng)格構建主方向,并把待匹配圖像的鄰域支持網(wǎng)格旋轉(zhuǎn)至目標圖像運動網(wǎng)格的主方向位置。

把2.1節(jié)構建的局部聚類運動網(wǎng)格分為3×3個子網(wǎng)格,中心子網(wǎng)格相鄰的八個子網(wǎng)格作為鄰域支持估計域網(wǎng)格,然后計算目標圖像和待匹配圖像運動網(wǎng)格在八個方向上的梯度值,梯度值最大的方向為運動網(wǎng)格的主方向,如圖4所示。為了使目標圖像和待匹配圖像的鄰域支持估計量網(wǎng)格順序一致,需把待匹配圖像的鄰域支持估計量網(wǎng)格旋轉(zhuǎn)至目標圖像運動網(wǎng)格主方向位置。若是目標圖像主方向為 θ ,待匹配圖像的主方向為 θ′,則主方向差值t 為

t=θ′-θ ""(16)

把運動網(wǎng)格分為9份,每一份占45°,然后對 {i 1,i 2,…,i 9} 鄰域支持估計量網(wǎng)格旋轉(zhuǎn)變換,每次旋轉(zhuǎn)角度為45°,如圖5所示。若把鄰域支持估計量網(wǎng)格 {i 1,i 2,…,i 9} 旋轉(zhuǎn)45°,可得到 {j 4,j 1,j 2,j 7,j 3,j 8,j 9,j 6} ,如圖5(2)所示。依此類推可得到其他旋轉(zhuǎn)后的網(wǎng)格,具體如圖5所示。若是 t =90°,則待匹配圖像網(wǎng)格上3×3網(wǎng)格點將順時針移動兩個位置,得到圖5(3)。

3 實驗

為了證明所提算法優(yōu)越性,使用RANSAC、VFC、GMS、OAnet、改進GMS算法[14]與本文算法對比實驗;RANSAC 算法使用OpenCV3中的findFundamentalMat()函數(shù),GMS算法使用OpenCV3中的matchGMS()函數(shù),OANet算法使用PyTorch+OpenCV3庫實現(xiàn)。除OANet算法硬件平臺為CPU Intel i7-8700、1080ti顯卡外,其他算法硬件平臺均為CPU Intel i-8700。

3.1 匹配正確率

圖6為本文改進GMS算法與未經(jīng)過內(nèi)點篩選的ORB、RANSAC、VFC、GMS、改進GMS[14]、OAnet在Oxford數(shù)據(jù)集上的對比實驗,得到匹配正確率折線圖。Oxford數(shù)據(jù)集包含具有尺度和旋轉(zhuǎn)變換實驗圖像(bark、boat)、衡量匹配算法光照魯棒性的Leuven圖像、具有視角變換的wall圖像、JPEG壓縮變化的UBC圖像和具有模糊變換的bike圖像。

由圖6(a)(b)可知,本文算法在具有旋轉(zhuǎn)和尺度變換圖像相較其他五種方法魯棒性更高;隨著待匹配圖像尺度和旋轉(zhuǎn)角度的增加,對內(nèi)點篩選算法的魯棒性要求逐漸增加,故上述算法的匹配正確率呈斷崖式下降;在bark組匹配圖像,VFC算法匹配正確率接近0,GMS和RNASAC算法匹配正確率均低于15%,改進GMS和OANet算法匹配正確率在20%左右;在boat組圖像中,在第四張匹配圖像上各種算法的匹配正確率急劇下降;本文算法對運動網(wǎng)格構建主方向,使改進后的GMS算法具有較好的旋轉(zhuǎn)不變性,故算法的匹配正確率最高。

圖6(c)為UBC圖像匹配正確率,UBC組圖像具有JPEG壓縮變換,但圖像形變較小,故RANSAC、VFC、GMS、改進GMS、OANet算法和本文算法匹配正確率相差較大,均大于90%。圖6(d)為具有光照變化圖像Leuven的匹配正確率,上述五種算法匹配正確率差別較小。圖6(e)衡量不同內(nèi)點篩選算法的仿射不變性,RANSAC、VFC、GMS、改進GMS和OAnet算法在第五張圖像的匹配正確率急劇下降,RANSAC、VFC、GMS、改進GMS算法匹配正確率接近0,OANet算法匹配正確率僅為30%左右,本文算法匹配正確率高于60%。圖6(f)為bike組圖像匹配正確率折線圖,上述六種算法對具有模糊變化圖像內(nèi)點篩選效果較好,匹配正確率相差較小,但本文算法仍具有些許優(yōu)勢。

為了更好地對比上述六種算法,下面針對具有尺度和旋轉(zhuǎn)變換的boat數(shù)據(jù)集,第六張圖像匹配詳細數(shù)據(jù)進行比較分析。圖7為未經(jīng)過內(nèi)點篩選的ORB、RANSAC、VFC、GMS、改進GMS、OAnet和本文算法在boat組目標與第六張待匹配圖像配準效果圖,綠色線條連接了一對匹配點(見電子版)。boat組圖像同時具有角度和尺度變換,是Oxford數(shù)據(jù)集中匹配難度最大的一組圖像,該組圖像可很好地衡量內(nèi)點篩選算法的魯棒性,表1為上述七種算法的匹配數(shù)據(jù)統(tǒng)計。

由圖7(a)匹配效果圖可知,未經(jīng)過內(nèi)點篩選的ORB算法得到匹配點數(shù)最多,但是匹配連接線雜亂無章,錯誤匹配點較多;圖7(c)匹配點數(shù)多,但錯誤匹配點較多,可表明VFC算法對具有尺度和角度變化圖像匹配效果較差;圖7(f)圖像為OANet算法匹配效果圖,連接線數(shù)量也較多,但存在清晰可見的錯誤匹配點;圖7(b)為RANSAC算法篩選后效果圖,匹配效果較好,未有明顯錯誤匹配點;圖7(e)為GMS算法內(nèi)點篩選效果圖,篩選后匹配點數(shù)量較少,未有明顯錯誤匹配點;圖7(d)為改進GMS算法匹配效果圖,該算法將GMS算法與RANSAC算法結合使用,可有效提高匹配精度;圖7(g)為本文所提算法特征點篩選效果圖,篩選后特征點數(shù)量明顯超過GMS算法,也未有可見錯誤匹配點。

3.2 算法效率

通過表1可知,所提改進GMS算法相較原GMS算法匹配正確率提高22%左右,正確匹配點數(shù)和匹配點數(shù)均有很大提高,耗時增加9.4 ms。RANSAC和VFC算法均需迭代解最佳參數(shù)模型,故耗時較長;RANSAC算法僅根據(jù)最優(yōu)參數(shù)模型篩選內(nèi)點,易把正確匹配點誤判為外點,故匹配點數(shù)最少;VFC算法利用期望最大化算法解參數(shù)模型,保留了更多匹配點,但正確匹配率較低。改進GMS算法先借助GMS算法區(qū)分正確和錯誤匹配點,再使用RANSAC算法篩選匹配點,可有效增加內(nèi)點篩選算法的準確率,但疊加兩種算法耗時較長。OANet算法通過訓練OANet深度學習模型篩選內(nèi)點,該算法在不同場景下需重新訓練模型,可移植性差,對硬件要求較高,在GPU 1080ti運行該算法耗時約為1 s。綜上所述,綜合考慮匹配正確率和運行效率,本文所提改進GMS算法優(yōu)于其他五種內(nèi)點篩選方法。

4 結束語

本文針對于一般GMS算法為了加快特征點篩選速度,加速區(qū)分匹配點,致使原圖像紋理信息得不到充分利用等問題,提出基于局部聚類的網(wǎng)格運動統(tǒng)計正確匹配點篩選算法。該算法利用局部聚類算法構建最小外接矩形作為運動網(wǎng)格,把矩形網(wǎng)格劃分為3×3個子網(wǎng)格并計算運動網(wǎng)格主方向,將待匹配圖像的鄰域支持網(wǎng)格旋轉(zhuǎn)至目標圖像運動網(wǎng)格的主方向位置,完成特征點篩選,提高了對具有旋轉(zhuǎn)和尺度變換圖像匹配的正確率,但不可避免地降低了算法的效率。在進一步的研究中,將著重研究如何提高篩選匹配點的效率。

參考文獻:

[1] "Lowe D G.Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60 (2):91-110.

[2] Fischler M A,Bolles R C.Random sample consensus:a paradigm for model fitting with applications to image analysis and automated carto-graphy[J]. Communications of the ACM, 1981, 24 (6):381-395.

[3] Chum O,Matas J.Matching with PROSAC progressive sample consensus[C]//Proc of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2005:258-267.

[4] Sattler T,Leibe B,Kobbelt L.SCRAMSAC:improving RANSAC’s efficiency with a spatial consistency filter[C]//Proc of the 12th IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2009:125-132.

[5] Raguram R,Chum O,Pollefeys M, et al .USAC:a universal framework for random sample consensus[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2013, 35 (8):2022-2038.

[6] Lin W Y D,Cheng Mingming,Lu Jiangbo, et al .Bilateral functions for global motion modeling[C]//Proc of European Conference on Computer Vision.Cham:Springer,2014:341-356.

[7] Ma Jiayi,Zhao Ji,Tian Jinwen, et al .Robust point matching via vector field consensus[J]. IEEE Trans on Image Processing, 2014, 23 (4):1706-1721.

[8] Lin Wenyan,Wang Fan,Cheng Mingming, et al .CODE:coherence based decision boundaries for feature correspondence[J]. IEEE Trans on Pattern Recognition and Machine Intelligence ,2018, 40 (1):34-47.

[9] Ma Jiayi,Zhao Ji,Jiang Junjun, et al .Locality preserving matching[J]. International Journal of Computer Vision ,2019, 127 (5):512-531.

[10] Yi K M,Trulls E,Ono Y, et al .Learning to find good correspondences[C]//Proc of IEEE Conference on Computer Vision Pattern Recognition.2018:2666-2674.

[11] Zhang Jiahui,Sun Dawei,Luo Zixin, et al .Learning two-view correspondences and geometry using order-aware network[C]//Proc of International Conference on Computer Vision.2019:120-128.

[12] "Bian Jiawang,Lin Wenyan,Liu Yun.Grid-based motion statistics for fast,ultra-robust feature correspondence[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:197-205.

[13] 陳方杰,韓軍,王祖武,等.基于改進GMS和加權投影變換的圖像配準算法[J].激光與光電子學進展,2018, 55 (11):180-186. (Chen Fangjie,Han Jun,Wang Zuwu, et al .Image registration algorithm based on improved GMS and weighted projection transformation[J]. Laser amp; Optoelectronics Progress ,2018, 55 (11):180-186.)

[14] 朱成德,李志偉,王凱,等.基于改進網(wǎng)格運動統(tǒng)計特征的圖像匹配算法[J].計算機應用,2019, 39 (8):2396-2401. (Zhu Chengde,Li Zhiwei,Wang Kai, et al .Image matching algorithm based on improved RANSAC-GMS[J]. Journal of Computer Applications, 2019, 39 (8):2396-2401.)

[15] 羅守品,楊濤,梅艷瑩.基于改進ORB和網(wǎng)格運動統(tǒng)計的圖像匹配算法[J].傳感器與微系統(tǒng),2019, 38 (7):125-127,130. (Luo Shoupin,Yang Tao,Mei Yanying.Image matching algorithm based on improved ORB and grid-base motion statistics[J]. Transducer and Microsystem Technologies ,2019, 38 (7):125-127,130.)

[16] 王曉華,方琪,王文杰.基于網(wǎng)格運動統(tǒng)計的改進快速魯棒特征圖像匹配算法[J].模式識別與人工智能,2019, 32 (12):1133-1140. (Wang Xiaohua,F(xiàn)ang Qi,Wang Wenjie.Image matching algorithm combining improved surf algorithm with grid-based motion statistics[J]. Pattern Recognition and Artificial Intelligence ,2019, 32 (12):1133-1140.)

[17] 丁輝,李麗宏,原鋼.融合GMS與VCS+GC-RANSAC的圖像配準算法[J].計算機應用,2020, 40 (4):1138-1143. (Ding Hui,Li Lihong,Yuan Gang.Image registration algorithm combining GMS and VCS+GC-RANSAC[J]. Journal of Computer Applications, 2020, 40 (4):1138-1143.)

主站蜘蛛池模板: 亚洲欧洲自拍拍偷午夜色无码| 国产在线观看91精品亚瑟| 无码aaa视频| 永久成人无码激情视频免费| 成人在线视频一区| 国产成人a在线观看视频| 久久亚洲日本不卡一区二区| 天天色综网| 成人国产一区二区三区| 日韩精品久久无码中文字幕色欲| 欧美伦理一区| 九色在线视频导航91| 国产成人a毛片在线| 久久永久精品免费视频| 亚洲成aⅴ人在线观看| 亚洲AV无码不卡无码| 国产精品永久免费嫩草研究院| 欧美一级99在线观看国产| 国产激情无码一区二区免费 | 2019国产在线| 夜夜操国产| 久久伊人色| 国产成人免费高清AⅤ| 99热在线只有精品| 区国产精品搜索视频| 麻豆精品在线| 亚洲精品在线91| 国产精品女主播| 欧美人人干| 亚洲 欧美 日韩综合一区| 97狠狠操| 黄色网在线| 亚洲国产成人麻豆精品| 中文字幕av一区二区三区欲色| 97视频在线精品国自产拍| 欧美69视频在线| 欧美三级日韩三级| 在线看免费无码av天堂的| 青青草国产免费国产| 天天综合天天综合| 国产美女91呻吟求| 国产美女在线免费观看| 国产福利免费在线观看| 成人福利在线观看| 激情无码视频在线看| 亚洲欧美另类色图| 国产麻豆aⅴ精品无码| 欧美国产三级| 欧美性爱精品一区二区三区| 亚洲无码精品在线播放| 精品国产aⅴ一区二区三区| 天堂在线www网亚洲| 国产内射一区亚洲| 中文字幕免费在线视频| 114级毛片免费观看| 波多野一区| 91综合色区亚洲熟妇p| 国产无码高清视频不卡| 2021国产精品自拍| 欧美成人a∨视频免费观看| 色婷婷狠狠干| 日韩av高清无码一区二区三区| 国产在线视频二区| 免费激情网址| 男女精品视频| 亚洲精品无码高潮喷水A| 国产成人亚洲欧美激情| 国产不卡一级毛片视频| 永久在线精品免费视频观看| 日本三级精品| 欧美综合区自拍亚洲综合天堂| 第九色区aⅴ天堂久久香| 亚洲午夜综合网| 国产91精品调教在线播放| 视频国产精品丝袜第一页| 国产无吗一区二区三区在线欢| 亚洲区第一页| 国产精品不卡永久免费| 女人18毛片久久| 99这里只有精品在线| 亚洲国产日韩欧美在线| 99热国产在线精品99|