摘要:針對大視差無人機航拍圖像拼接中出現(xiàn)的錯位、偽影問題,提出一種基于質(zhì)量評價尋找最佳拼接縫的方法QEB-U。首先通過常規(guī)拼接縫估計得到初始拼接縫,然后根據(jù)無人機航拍圖像的特點,綜合考慮結(jié)構(gòu)相似性、色差、紋理復(fù)雜度,提出一種新的質(zhì)量評價函數(shù)對拼接縫上的每個像素進行評價,進而根據(jù)評價結(jié)果更新差異代價,之后再重新估計拼接縫。估計和評價過程重復(fù)執(zhí)行,直到拼接縫趨于穩(wěn)定則停止迭代,最后通過梯度融合生成最終結(jié)果。實驗結(jié)果表明,所提方法可以避免大視差無人機航拍圖像拼接中出現(xiàn)錯位、偽影,優(yōu)于目前幾種無人機航拍圖像拼接方法,且得到的拼接縫優(yōu)先穿過道路、林地等區(qū)域,更加符合人類視覺感知,在常見的圖像清晰度評價指標上表現(xiàn)良好。
關(guān)鍵詞:圖像拼接;拼接縫估計;質(zhì)量評價;無人機航拍圖像
中圖分類號:TP391.41文獻標志碼:A
文章編號:1001-3695(2022)08-047-2511-04
doi:10.19734/j.issn.1001-3695.2022.02.0039
Quality evaluation-based image stitching for UAV images
Wang Huana,Zhou Yingyuea,b,Wang Xueyuana,Wang Xinyua
(a.School of Information Engineering,b.Robot Technology Used for Special Environment Key Laboratory of Sichuan Province,Southwest University of Science amp; Technology,Mianyang Sichuan 621010,China)
Abstract:Aiming at solving problems of dislocation and artifacts in the stitching of large parallax UAV images,this paper proposed a method to find the best stitching seam based on quality evaluation called QEB-U.Firstly,it estimated the initial seam by conventional seam estimation.Then,it proposed a new quality evaluation function for evaluating each pixel on the seam according to the characteristics of the UAV image like the structural similarity,color difference,and texture complexity.It updated the difference cost according to the evaluation result and acquired the seam after that.
It repeated the estimation and evaluation process until the seam became stable and then stopped iterating.Finally,it generated the stitching UAV images by gradient fusion.The experimental results show that the proposed method can avoid dislocation and artifacts in the stitching of large parallax UAV images,which is superior to several current UAV image stitching methods.Besides,the obtained stitching seam can preferentially pass through roads,woodlands,etc.It is more in line with human visual perception and performs well in common image clarity evaluation indicators.
Key words:image stitching;stitching seam estimation;quality evaluation;UAV images
0引言
隨著無人機遙感技術(shù)的發(fā)展,其研究已廣泛應(yīng)用于地理信息學、災(zāi)害監(jiān)測與評估、國防等領(lǐng)域,尤其是災(zāi)害應(yīng)急響應(yīng)和災(zāi)害調(diào)查[1]。無人機遙感能夠在短時間內(nèi)獲得目標區(qū)域最直觀的高分辨率圖像,為決策提供視覺依據(jù)。然而受無人機飛行高度和相機性能的限制,很難從單幅無人機航拍圖像中獲取整個感興趣區(qū)域的景象。因此,有必要研究將具有重疊區(qū)域的無人機航拍圖像快速拼接成具有更大視野的高分辨率圖像的技術(shù)[2]。
圖像拼接一般來說有兩種方法:a)基于單應(yīng)變換的對齊技術(shù),使圖像盡可能精確對齊[3~7];b)基于拼接縫引導的切割技術(shù),即根據(jù)預(yù)定義的能量函數(shù)尋找一條使得能量函數(shù)達到最小的拼接縫[2,8~12]。基于單應(yīng)變換的對齊技術(shù)最終目的都是讓圖像盡可能對齊,但是當遇到大視差的環(huán)境,該類方法會產(chǎn)生局部偽影或失真的情況。基于拼接縫引導的圖像拼接方式最早是由Gao等人[8]提出,首先通過隨機抽樣一致性算法得到若干單應(yīng)變換矩陣,對每個單應(yīng)變換矩陣計算拼接縫,然后根據(jù)質(zhì)量評價結(jié)果選擇最好的拼接縫作為最終結(jié)果。Lin等人[9]通過自適應(yīng)特征加權(quán)將局部對齊計算和拼接縫估計緊密耦合,并通過超像素特征分組有效減少迭代時間。Li等人[10]將人類感知的非線性和非均勻性考慮到能量最小化中,用顯著性權(quán)重來模擬人眼更傾向于關(guān)注的對象,使得拼接結(jié)果更符合人類視覺感知。Liao等人[11]指出以往拼接縫驅(qū)動的方法都是評估拼接縫的平均性能,無法找到人類視覺感知上最佳的拼接縫,因此他們更加細致地評估拼接縫上的每一個像素,并引入混合成本來評估拼接縫沿線的像素,然后根據(jù)評估結(jié)果重新估計拼接縫,結(jié)果顯示該方法避免了偽影,并且總體上效果更好。Yuan等人[2]提出一種基于超像素的無人機航拍圖像拼接方法,拼接時間得到顯著提升,并在能量函數(shù)中融入紋理復(fù)雜度信息,使得拼接縫穿過特定的低紋理復(fù)雜度區(qū)域,拼接結(jié)果更加符合人類視覺感知。Fang等人[12]在圖像拼接的融合階段進行創(chuàng)新,提出一種顏色混合方法來消除拼接結(jié)果中的顏色不一致問題,并利用超像素分割大大降低計算復(fù)雜度,提高拼接效率。Zhao等人[13]則利用多個平面代替映射點進行優(yōu)化,將重構(gòu)結(jié)果直接用于圖像融合,實現(xiàn)了一種新的具有較高精度和較快速度的航拍圖像拼接方法。Pham等人[14]首先根據(jù)航拍圖像的地理位置信息估計出重疊區(qū)域,然后將特征匹配限制在該區(qū)域,以避免不必要的計算和誤差累計,使得拼接更加精確快速。Ren等人[15]利用航拍圖像的位置信息進行粗配準計算出全局變換矩陣,并通過多層感知機將全局變換矩陣進行快速校正,因此該方法很好地結(jié)合了基于參數(shù)和基于特征的方法,實現(xiàn)了拼接速度和精度的理想折中。Guo等人[16]結(jié)合局部配準技術(shù)提出了一種全局的對齊策略,使得拼接結(jié)果在保持形狀的前提下獲得較好的對齊精度。Mo等人[17]利用神經(jīng)網(wǎng)絡(luò)進行深度特征的提取與匹配,實現(xiàn)了一種新的具有魯棒性的航拍圖像拼接方法,為其他學者探索結(jié)合深度學習的圖像拼接方法提供幫助。
通常接縫驅(qū)動的方法都是根據(jù)預(yù)定義的拼接縫質(zhì)量指標找到一條最佳的拼接縫,但是這些方法中定義的質(zhì)量指標都是評估拼接縫的整體質(zhì)量。文獻[11]已證明,在許多情況下,整體質(zhì)量最好的拼接縫不一定符合人類視覺感知。本文針對大視差無人機航拍圖像,提出一種新的拼接縫迭代估計方法(quality evaluation-based image stitching for UAV images,QEB-U),其中迭代過程由拼接縫上的每個像素來引導。首先進行常規(guī)拼接縫估計得到初始拼接縫,然后根據(jù)無人機航拍圖像的特點,綜合考慮結(jié)構(gòu)相似性、色差、紋理復(fù)雜度的特點,提出一種新的質(zhì)量評價函數(shù)對拼接縫上的每個像素進行評價,進而根據(jù)評價結(jié)果更新差異代價并重新估計拼接縫。估計和評價過程重復(fù)執(zhí)行,直到拼接縫趨于穩(wěn)定則停止迭代,最后通過梯度融合生成最終結(jié)果。
1QEB-U方法
針對大視差無人機航拍圖像這種特殊情況下的圖像拼接,為了找到符合人類視覺感知的最佳拼接縫,更加細致地去評估拼接縫上的每個像素,提出一種新的基于質(zhì)量評價尋找最佳拼接縫的方法QEB-U,在解決錯位偽影問題的同時使得拼接縫更加符合人類視覺感知。
1.1方法流程
本文提出的方法流程如圖1所示。首先采用常規(guī)拼接縫估計[8]得到初始拼接縫,之后對拼接縫進行質(zhì)量評價。以往的質(zhì)量評價方法都是基于拼接縫的整體質(zhì)量,本文則是對拼接縫上的每個像素進行質(zhì)量評價,不符合期待的像素會具有較大成本,符合期待的像素則具有較小成本。成本較大的像素是拼接縫應(yīng)避免穿過的,因此后續(xù)拼接縫重新估計中,在能量函數(shù)中對它們進行更大的懲罰。當拼接縫趨于穩(wěn)定則停止迭代,通過梯度融合[18]生成最終結(jié)果。
1.2常規(guī)拼接縫估計
設(shè)兩幅初步配準的待拼接圖像分別為I0和I1,L∈(0,1)是一個標簽集。令p代表重疊區(qū)域P中任意一個像素點,拼接縫的意義是將一個標簽lp∈L賦給每個像素p。lp=0代表p的值是從I0復(fù)制過來的,而lp=1代表p的值是從I1復(fù)制過來的。常規(guī)拼接縫搜索的過程就是能量函數(shù)最小化的過程,能量函數(shù)定義為
E(l)=∑p∈PDp(lp)+∑(p,q)∈NSp,q(lp,lq)(1)
其中:N代表四鄰域;q是p的相鄰像素點。常規(guī)拼接縫估計的平滑項定義為
Sp,q(lp,lq)=12|lp-lq|(Id(p)+Id(q))(2)
Id(·)=‖I0(·)-I1(·)‖2(3)
其中:差異代價Id代表歐幾里德色差[19]。數(shù)據(jù)項Dp(lp)用來衡量標簽分配給像素p的代價,更多細節(jié)請參考文獻[10]。最后通過圖割[20]最小化能量函數(shù)E(l)來估計拼接縫。
1.3拼接縫迭代估計
1.3.1質(zhì)量評價
本文結(jié)合無人機航拍圖像特點,綜合考慮結(jié)構(gòu)相似性、色差、紋理復(fù)雜度的特點提出一種新的質(zhì)量評價函數(shù)。首先重疊區(qū)域未對齊部分結(jié)構(gòu)上通常不一致,因此在質(zhì)量評價函數(shù)中引入結(jié)構(gòu)相似性指數(shù)(SSIM)[21]來評估拼接縫;其次引入接縫兩側(cè)的色差來更加細致地評估拼接縫;最后對于無人機航拍圖像,可以發(fā)現(xiàn)符合人類視覺感知的拼接縫更傾向穿過一些特定區(qū)域,如道路、林地、湖泊等,根據(jù)這些區(qū)域紋理較弱的事實,在質(zhì)量評價中引入紋理復(fù)雜度,使得在低紋理復(fù)雜區(qū)域的像素具有更小的成本,引導拼接縫穿過這些區(qū)域。考慮到Gabor濾波器[22]可以很好地表征基礎(chǔ)紋理信息,因此本文采用Gabor特征描述符[23]來描述紋理復(fù)雜度。圖2展示了Gabor特征的一些可視化示例,圖像的亮度代表紋理復(fù)雜度(見電子版)。對于拼接縫上的像素pi,混合成本E(pi)定義為
E(pi)=λ·Epatch(pi)·Epoint(pi)·Egabor(pi)(4)
其中:λ是一個常數(shù),保持E(pi)總體的大小;Epatch(pi)表示以像素pi為中心的局部面片在I0與I1之間的SSIM指數(shù);Epoint(pi)表示像素pi與其相鄰像素qi的色差;Egabor(pi)表示像素pi的Gabor特征。
SSIM的取值為[-1,1],當兩個局部區(qū)域越相似,SSIM會趨向于1,顯然拼接縫上未對齊的像素會具有較大的值。Epatch(pi)的表達式如下:
Epatch(pi)=1-SSIM(pi)2(5)
Epoint(pi)具體計算如下:
Epoint(pi)=‖I0(pi)-I1(pi)‖2+‖I0(qi)-I1(qi)‖22(6)
1.3.2更新差異代價
通常,拼接縫上未對齊的像素或者位于較復(fù)雜區(qū)域的像素具有較大的混合成本E(pi),利用像素pi的混合成本E(pi)對差異代價Id(pi)進行修正,得到新的差異代價Id(pi)為
Id(pi)=f(E(pi))·Id(pi) pi∈N(seam)
Id(pi)otherwise(7)
f(E(pi))=eσ(E(pi)-ε)(8)
其中:N(seam)是包含接縫在內(nèi)的帶狀區(qū)域,通過向接縫左右擴展5個像素生成;σ是一個控制f變化幅度的常數(shù);ε是合理成本的閾值。當混合成本E(pi)越小時,f(E(pi))會趨近于0,新的差異代價Id(pi)也會越小;若混合成本E(pi)越大時,f(E(pi))會增大,新的差異代價Id(pi)也會越大。然后利用新的差異代價重新計算能量函數(shù),并通過圖割重新估計拼接縫。估計和評價過程反復(fù)進行,直到拼接縫趨于穩(wěn)定。這里的“穩(wěn)定”意味著當前拼接縫可以完全包含在先前拼接縫的帶狀區(qū)域。得到最佳拼接縫后,通過梯度融合[18]生成最終結(jié)果。
算法1QEB-U
輸入:兩幅初步配準的圖像I0和I1。
輸出:最終的拼接縫Sf。
初始化B=;
計算差異代價矩陣Id,計算平滑項Sp,q,并通過圖割最小化能量函數(shù)E(l)得到初始拼接縫S1;
while S1B
計算拼接縫S1上每個像素的混合成本Ep;
將接縫S1擴展為帶狀區(qū)域N(S1),并重新計算該帶狀區(qū)域像素的差異代價d;
將新的差異代價d代入計算平滑項Sp,q,并通過圖割最小化能量函數(shù)E(l)得到新的拼接縫S2;
令B=B∪N(S1),S1=S2;
end
return Sf=S1;
2實驗及結(jié)果分析
為了驗證所提方法的有效性,本文選用公開的具有較大視差的無人機航拍圖像來進行算法性能測試,其中數(shù)據(jù)來源于文獻[2,24]中共290幅圖像。為了獲得最優(yōu)性能,實驗將相關(guān)參數(shù)設(shè)置如下:在計算局部片面間的結(jié)構(gòu)相似性時,將局部片面大小設(shè)置為21×21,式(4)中的λ設(shè)為10,式(8)中的σ和ε設(shè)為5和0.12。首先通過文獻[9]提供的對齊方法將輸入圖像初步對齊,然后采用所提方法進行拼接縫迭代估計得到最終拼接縫,最后通過梯度融合[18]生成最終結(jié)果。算法實現(xiàn)平臺為MATLAB R2020a,主機為2.9 GHz八核CPU筆記本電腦。
2.1與其他拼接方法的視覺比較
將本文方法分別與APAP(as-projective-as-possible)[3]、SPHP(shape-preserving half-projective)[5]、AANAP(adaptive as-natural-as-possible)[6]、ELA(parallax-tolerant image stitching based on robust elastic warping)[25]以及SPW(single-perspective warps in natural image stitching)[26]方法進行比較。圖3中,(a)是一組具有較大視差的機場無人機航拍圖像,(b)~(g)分別是APAP、SPHP、AANAP、ELA、SPW算法以及
本文算法所得到的拼接結(jié)果。從圖3可以明顯看出,圖3(b)~(f)的機翼和機尾有明顯的偽影(紅框部分)以及明顯的分界(綠框部分),本文方法獲得的圖3(g)所對應(yīng)的拼接結(jié)果清晰無偽影,且更加自然(見電子版)。
圖4是一組具有較大視差的房屋無人機航拍圖像及幾種方法的拼接結(jié)果圖。可以看出,圖4(b)~(f)的房屋出現(xiàn)了偽影和失真模糊(紅框部分),圖4(b)(d)(e)出現(xiàn)了明顯分界(綠框部分),而圖4(g)所對應(yīng)的拼接結(jié)果清晰自然,無偽影無失真(見電子版)。
2.2與其他拼接縫搜索算法的視覺比較
為了驗證本文所提拼接縫搜索策略的有效性,本文與最新的拼接縫搜索算法進行了對比,主要包括perception-based(PB)[10]、quality evaluation-based(QEB)[11]和fast and robust(FARSE)[27]方法。如圖5所示,紅線標記了各個方法檢測到的最佳拼接縫位置(見電子版)。可以看到,由PB、QEB、FARSE方法尋找到的最佳拼接縫會穿過凸出物體,例如房屋等建筑物(綠框部分),而所提方法尋找到的拼接縫可以避開房屋等凸出物體,優(yōu)先穿過道路、林地等,使得拼接效果更加符合人類視覺感知。
2.3與其他拼接縫搜索算法的效率比較
同時,將本文方法與最新的拼接縫搜索算法PB、QEB、FARSE在拼接時間上進行了對比。選用文獻[24]提供的三組分辨率為3 680×2 456的高清航拍圖像進行對比實驗分析。表1是三組實驗的具體數(shù)據(jù),可以看出在對4k高分辨率航拍圖像進行拼接時,PB、QEB、FARSE以及本文方法的拼接用時都在1 min以上。本文方法在拼接效率上與PB和QEB相似,但不及FARSE,因此所提方法的拼接效率還有待提高,后續(xù)考慮使用超像素分割來減少迭代計算量,從而提高拼接效率。
2.4客觀指標評價
為了更加精準客觀地比較不同方法拼接后的圖像質(zhì)量優(yōu)劣,本文使用一些常見的圖像清晰度評價指標,如Brenner梯度函數(shù)、Tenengrad梯度函數(shù)、Laplacian梯度函數(shù)、灰度方差函數(shù)以及能量梯度函數(shù)。上述幾種函數(shù)計算的值越大,表明拼接圖像的清晰度越高,拼接效果越好。下面對這幾個函數(shù)的計算進行簡要描述。Brenner梯度函數(shù)DB(f)定義為
DB(f)=∑y∑x|f(x+2,y)-f(x,y)|2(9)
其中:f(x,y)表示圖像f對應(yīng)像素點(x,y)的灰度值。
Tenengrad梯度函數(shù)DT(f)定義如下:
DT(f)=∑y∑x|T(x,y)|T(x,y)gt;T(10)
T(x,y)的定義如下:
T(x,y)=G2x(x,y)+G2y(x,y)(11)
其中:T是給定的邊緣檢測閾值;Gx和Gy分別是像素點(x,y)處Sobel水平和垂直方向邊緣檢測算子的卷積。
Laplacian梯度函數(shù)DL(f)定義如下:
DL(f)=∑y∑x|L(x,y)|L(x,y)gt;T(12)
其中:L(x,y)是像素點(x,y)處Laplacian算子的卷積。
灰度方差函數(shù)DS(f)定義如下:
Ds(f)=∑y∑x(|f(x,y)-f(x,y-1)|+|f(x,y)-f(x+1,y)|)(13)
能量梯度函數(shù)DE(f)定義如下:
DE(f)=∑y∑x(|f(x+1,y)-f(x,y)|2+|f(x,y+1)-f(x,y)|2)
對圖3和4的拼接結(jié)果分別進行清晰度指標計算并進行線性歸一化處理,實驗結(jié)果如表2、3所示。可以看出,本文算法幾乎在所有評價指標上都比其他方法具有更高的數(shù)值,這意味著所提出的方法可以獲得更加清晰的拼接圖像。
3結(jié)束語
本文針對無人機航拍圖像拼接提出一種基于質(zhì)量評價尋找最佳拼接縫的策略,不僅可以解決大視差無人機航拍圖像拼接中錯位偽影的問題,而且得到的拼接縫在內(nèi)容復(fù)雜的無人機航拍圖像中優(yōu)先穿過道路、林地等區(qū)域。實驗表明,所提方法適合于無人機航拍圖像拼接,拼接結(jié)果更符合人類視覺感知。
參考文獻:
[1]李德仁,李明.無人機遙感系統(tǒng)的研究進展與應(yīng)用前景 [J].武漢大學學報:信息科學版,2014,39(5):505-513,540.(Li Deren,Li Ming.Research advance and application prospect of unmanned aerial vehicle remote sensing system [J].Geomatics and Information Science of Wuhan University,2014,39(5):505-513,540.)
[2]Yuan Yiting,F(xiàn)ang Faming,Zhang Guixu.Superpixel-based seamless image stitching for UAV images [J].IEEE Trans on Geoscience and Remote Sensing,2020,59(2):1565-1576.
[3]Zaragoza J,Chin T J,Tran Q H,et al.As-projective-as-possible image stitching with moving DLT [J].IEEE Trans on Pattern Analysis and Machine Intelligence,2014,36(7):1285-1298.
[4]Zhang Fan,Liu Feng.Parallax-tolerant image stitching[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2014:3262-3269.
[5]Chang C H,Sato Y,Chuang Y Y.Shape-preserving half-projective warps for image stitching[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2014:3254-3261.
[6]Lin C C,Pankanti S U,Ramamurthy K N,et al.Adaptive as-natural-as-possible image stitching[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Washington DC:IEEE Computer Society,2015:1155-1163.
[7]Chen Yusheng,Chuang Y Y.Natural image stitching with the global similarity prior[C]//Proc of the 14th European Conference on Computer Vision.Cham:Springer,2016:186-201.
[8]Gao Junhong,Li Yu,Chin T J,et al.Seam-driven image stitching[C]//Proc of the 34th Annual Conference of the European Association for Computer Graphics.2013:45-48.
[9]Lin Kaimo,Jiang Nianjuan,Cheong L F,et al.SEAGULL:seam-guided local alignment for parallax-tolerant image stitching[C]//Proc of the 14th European Conference on Computer Vision.Cham:Sprin-ger,2016:370-385.
[10]Li Nan,Liao Tianli,Wang Chao.Perception-based seam cutting for image stitching [J].Signal,Image and Video Processing,2018,12(5):967-974.
[11]Liao Tianli,Chen Jing,Xu Yifang.Quality evaluation-based iterative seam estimation for image stitching[J].Signal,Image and Video Processing,2019,13(6):1199-1206.
[12]Fang Faming,Wang Tingting,F(xiàn)ang Yingying,et al.Fast color blending for seamless image stitching [J].IEEE Geoscience and Remote Sensing Letters,2019,16(7):1115-1119.
[13]Zhao Yong,Liu Guochen,Xu Shibiao,et al.Fast georeferenced aerial image stitching with absolute rotation averaging and planar-restricted pose graph[J].IEEE Trans on Geoscience and Remote Sen-sing,2021,59(4):3502-3517.
[14]Pham N T,Park S,Park C S.Fast and efficient method for large-scale aerial image stitching[J].IEEE Access,2021,9:127852-127865.
[15]Ren Moxuan,Li Jianan,Song Liqiang,et al.MLP-based efficient stitching method for UAV images [J].IEEE Geoscience and Remote Sensing Letters,2022,19:2503305.
[16]Guo Donghai,Chen Jun,Luo Linbo,et al.UAV image stitching using shape-preserving warp combined with global alignment[J].IEEE Geoscience and Remote Sensing Letters,2021,19:8016005.
[17]Mo Yan,Kang Xudong,Duan Puhong,et al.A robust UAV hyperspectral image stitching method based on deep feature matching [J].IEEE Trans on Geoscience and Remote Sensing,2021,60:5517514.
[18]Pérez P,Gangnet M,Blake A.Poisson image editing [J].ACM Trans on Graphics,2003,22(3):313-318.
[19]Kwatra V,Schdl A,Essa I,et al.Graphcut textures:image and video synthesis using graph cuts[J].ACM Trans on Graphics,2003,22(3):277-286.
[20]Boykov Y,Kolmogorov V.An experimental comparison of min-cut/max-flow algorithms for energy minimization in vision [J].IEEE Trans on Pattern Analysis and Machine Intelligence,2004,26(9):1124-1137.
[21]Wang Zhou,Bovik A C,Sheikh H R,et al.Image quality assessment:from error visibility to structural similarity [J].IEEE Trans on Image Processing,2004,13(4):600-612.
[22]Gupta R K,Chia A Y S,Rajan D,et al.Image colorization using similar images[C]//Proc of the 20th ACM International Conference on Multimedia.New York:ACM Press,2012:369-378.
[23]Manjunath B S,Ma W Y.Texture features for browsing and retrieval of image data[J].IEEE Trans on Pattern Analysis and Machine Intelligence,1996,18(8):837-842.
[24]https://github.com/YuhuaXu/UAV-image-mosaicing-dataset[DB/OL].
[25]Li Jing,Wang Zhengming,Lai Shiming,et al.Parallax-tolerant image stitching based on robust elastic warping [J].IEEE Trans on Multimedia,2017,20(7):1672-1687.
[26]Liao Tianli,Li Nan.Single-perspective warps in natural image sti-tching[J].IEEE Trans on Image Processing,2019,29:724-735.
[27]Hejazifar H,Khotanlou H.Fast and robust seam estimation to seamless image stitching[J].Signal,Image and Video Processing,2018,12(5):885-893.
收稿日期:2022-02-12;修回日期:2022-03-28基金項目:國家自然科學基金資助項目(61401379);四川省科技計劃資助項目(2021YFG0383)
作者簡介:王歡,男,內(nèi)蒙古包頭人,碩士,主要研究方向為圖像處理、人工智能;周穎玥,女(通信作者),四川馬爾康人,副研究員,碩導,博士,主要研究方向為計算機視覺與模式識別(zhouyingyue@swust.edu.cn);王學淵,男,四川成都人,教授,碩導,博士,主要研究方向為信號處理;王欣宇,男,四川德陽人,碩士,主要研究方向為人工智能.