陳珺 高海寬 李梓賢



摘 要:為了解決無人機圖像在拼接過程中出現的錯位、重影等造成圖像失真的問題,提出一種基于半投影翹曲的無人機圖像拼接方法。首先估計圖像的全局投影變換矩陣;然后根據待拼接圖像的重疊情況,以及投影變換和相似性變換的連續性,求解出過渡變換矩陣和相似性變換矩陣,得到最終的半投影變換矩陣;最后構建圖像重疊區域的差異矩陣,以此為基礎獲取重疊區域的差異性區域。使用分區融合策略,在差異性區域進行單采樣,在其他區域進行距離加權融合。實驗結果表明,該方法可以很好地拼接由于視角變化、地勢起伏等造成視差的無人機圖像,得到的拼接結果自然清晰,效果優于其他先進算法。該方法有效地解決了無人機圖像拼接錯位、重影的問題,在多項定量指標上表現良好。
關鍵詞:圖像拼接;無人機圖像;圖像失真;半投影翹曲
中圖分類號:TP391.41?? 文獻標志碼:A?? 文章編號:1001-3695(2024)01-048-0301-05
doi:10.19734/j.issn.1001-3695.2023.05.0229
UAV image stitching method based on half-projection warping
Abstract:To solve the problems of distortion and ghosting in the stitching of UAV images,this paper proposed a UAV image stitching method based on half-projection warping.Firstly,it estimated the global projection transformation matrix of the image.Then it solved the transition transformation matrix and the similarity transformation matrix according to the overlap of the images,the continuity of the projection transformation and the similarity transformation,and obtained the final semi-projection transformation matrix.Finally,it constructed the difference matrix of the overlapping region of the images and obtained the different regions of the overlapping region based on the difference matrix.Using the partition fusion strategy,it performed single sampling in the different regions and distance-weighted fusion in other regions.The experimental results show that this method can splice the images caused by parallax due to the change of perspective and relief,and the result of the splicing is natural and clear,and the effect is better than other advanced algorithms.The method effectively solves the problems of misalignment and double image stitching of UAV images and performs well in many quantitative indexes.
Key words:image stitching;UAV image;image distortion;half-projection warping
0 引言
無人機遙感技術具有數據采集便捷、成本低、實時性強、靈活度高等優勢,被廣泛應用于目標檢測[1]、工程測繪[2]和環境監測[3]等多個領域。由于無人機飛行高度的限制以及成像設備視野范圍的局限,單張無人機遙感圖像覆蓋的地面區域有限,需要借助圖像拼接技術獲取含有全局信息的全景圖像。然而,受到視角轉換、場景中物體的深度差及地形起伏等因素的影響,通過無人機成像系統獲取的圖像數據通常存在較大視差。這將導致拼接生成的全景圖像中出現過大的形變和明顯的錯位及重影,進而影響后續的測繪、環境監測、跟蹤識別等任務。因此,研究如何快速準確地將具有重疊區域的無人機圖像拼接成無重影、無過大形變的全景圖像具有重要的實際應用價值。
現有的圖像翹曲模型可以分為單視角和多視角兩類。單視角翹曲使用投影的方法將對齊的圖像在同一坐標系下進行變換。AutoStitch[4]是一種經典的基于全局投影模型的自動拼接方法,但是該方法難以處理視角變換較大的無人機圖像。Zaragoza等人[5]提出了APAP (as-projective-as-possible)翹曲模型,它對圖像進行網格化劃分,重疊部分的每個網格單元都獨立計算單應矩陣來指導局部的翹曲對齊。Chen等人[6]提出了一種基于角度一致性的翹曲方法,它使用特征之間的角度限制對模型進行約束來提高模型的對齊能力,最后使用加權的方式融合圖像,然而這種方法更適用于無視差的簡單場景。線特征[7,8]也被應用于單視角翹曲,以保持圖像的線性結構。最近,Nie等人[9]提出了基于深度學習的全局翹曲模型,使用神經網絡進行深度特征的提取和匹配,并進行單應性矩陣的估計。然而,單視角翹曲在處理非剛性的透視畸變時會產生較大誤差,導致圖像非重疊區域的縱向形變失真,不適合解決無人機圖像的拼接問題。
為了獲得更加自然的全景圖像,多視角翹曲的方法被提出。Chang等人[10]以APAP模型為基礎提出了SPHP (shape-preserving half-projective warps)翹曲模型,在重疊區域使用單應性翹曲,在非重疊區域使用相似翹曲,但是該方法過渡生硬、痕跡明顯。文獻[11]使用薄板樣條函數對SPHP方法進行了改進,增強了模型的對齊能力。文獻[12]提出了一種無人機圖像拼接重影消除算法,該算法將單應性局部變換和旋轉角度最小的全局相似變換結合在一起,適合處理高重疊率圖像的拼接任務。Li等人[13]采用預翹曲對圖像進行處理,并結合相似性翹曲得到自然的拼接結果。Wan等人[14]提出一種基于網格化和保形變換的模型,通過局部單應性實現更加準確的對齊,并使用保形變換減輕了無人機圖像的失真。準單應性翹曲[15]通過平衡非重疊區域的透視失真和投影失真,從而產生多視角拼接結果。多視角翹曲雖然限制了非重疊區域的形變,但是當無人機圖像中物體深度差異較大時,此類方法仍然難以精確對齊,結果中易出現錯位和重影。
在處理無人機圖像時,適當地使用融合技術可以減少重影現象[16]。目前多種圖像融合方法被應用于智能手機全景[17]和航拍圖像[18]的拼接。基于深度學習的圖像重建框架[19,20]也被應用到圖像拼接中來,它通過圖像顏色、紋理等差異損失的約束來規劃重疊區域的融合權重,達到了消除重影的效果。最優接縫算法也能較好地消除視差和對準引起的錯位和重影。FARSE(fast and robust seam estimation)[21]通過定義灰度加權距離和差分梯度域作為差異代價來搜索最優接縫。一些基于最優接縫的算法[22,23]可以一定程度地避開視差區域,但是當視差區域較大時,最優接縫的方法也會失敗。
綜上所述,目前無人機圖像拼接中出現失真現象主要有以下原因。首先,由于無人機低空遙感圖像拍攝視角偏差較大,同一物體在圖像中呈現不同的紋理細節,難以進行對齊,導致拼接結果出現明顯的錯位和重影。其次,無人機低空遙感圖像中的一些物體由于深度差異明顯,無法被視為處于同一平面,不滿足傳統圖像拼接的限制條件。SPHP算法通過線性約束實現投影翹曲和相似翹曲的過渡,來消除非重疊區域的縱向拉伸失真。然而,SPHP在變換矩陣計算和區域劃分階段使用固定數量的網格進行參數估計的方法存在一些不足之處,尤其在處理不同類型和大小的圖像時,這種方法可能導致重影和錯位現象,并且半投影模型過渡時會產生生硬痕跡。本文提出自適應動態網格的方法,使用大小處于一定范圍內、數量動態選擇的網格來進行參數估計,提高了模型的投影對齊能力和穩定性,并且使得半投影模型的過渡更加平滑;本文還提出了一種新的融合策略,通過構造重疊區域的差異矩陣,將該區域自動劃分為大視差和小視差兩個部分,在大視差區域進行像素單采樣,并使用線性加權方法在小視差區域進行融合,最終生成無重影和錯位的拼接結果。
1 無人機圖像拼接方法
1.1 方法流程
本文方法的流程如圖1所示,總體分為投影變換估計和融合重建兩個階段。首先估計輸入圖像間的投影變換矩陣,并進行坐標系調整以及根據重疊情況進行區域劃分;其次估計非重疊部分的相似性變換矩陣,通過連續性及線性約束求得過渡區域的過渡變換矩陣,實現由投影變換到相似性變換的平滑過渡,獲得最終的半投影變換矩陣;之后構建重疊部分的差異矩陣,視差小的區域具有較小的差異值,視差大的區域具有較大的差異值,根據該矩陣來判斷各像素使用單采樣或者加權融合來獲得最終結果。
1.2 投影變換估計
在圖像的配準階段,使用尺度不變特征變換(scale-invariant feature transform,SIFT)特征描述符進行初始特征的提取和匹配,得到圖像間特征點的對應關系。對于兩個重疊的圖像I和I′,根據它們的匹配點對x=(x,y)T,y=(x′,y′)T來估計圖像之間的全局投影變換,公式表示為
為了投影變換和相似性變換能夠平滑過渡,需要適當調整對齊的坐標系。通過角度θ將原坐標系(x,y)轉換到新坐標系(u,v)下,θ以及(x,y)和(u,v)可以從式(3)(4)求得。
θ=atan2(-h7,-h8)(3)
x=u cos θ-v sin θ,y=u sin θ+v cos θ(4)
將式(4)代入式(2)可以得到(x′,y′)與(u,v)之間的映射關系。
1.3 半投影翹曲
由投影變換引導的翹曲只有在圖像滿足相機光學中心穩定的情況下才能很好地拼接圖像。然而,在大多數情況下,無人機遙感獲取的圖像不滿足該條件,造成拍攝的大視差圖像拼接時在非重疊區域產生嚴重的變形失真。
為了解決這個問題,本文引入了半投影翹曲模型。單應矩陣H通常對應投影變換,導致圖像的拉伸變形。相似變換只對圖像進行旋轉和縮放,保持了圖像原有的形狀。半投影翹曲利用兩條翹曲線將已配準的圖像劃分成三部分。對重疊區域進行投影變換來進行嚴格對齊,對非重疊區域進行相似變換來抑制圖像形變,并在這兩個區域之間進行平滑過渡。
變換到新坐標系(u,v)下之后,根據圖像的重疊情況選取兩過渡邊界u=uHT和u=uTS,將目標圖像劃分為三部分,每部分應用不同的翹曲函數。對于整個圖像翹曲函數可以定義為
其中:T(u,v)是過渡變換函數;S(u,v)是相似性變換函數。整體翹曲函數w(u,v)可以確保圖像平滑地由投影變換過渡到相似性變換。以上兩個函數可以定義為
其中:fx、fy、gx、gy是u的二次函數;t1~t4是常量參數。當u是常量時,H(u,v)、T(u,v)以及S(u,v)可以被看成關于v的線性函數。在經線u=uHT和u=uTS處,翹曲函數仍然是連續的,因此有足夠的線性約束來求取上述二次函數和常數參數,求取公式如下:
因為t2是常量,fx是u的二次函數,通過以上四個線性約束可以求解出t2和fx。同樣也可以根據線性約束求解出t1和fy。使用相同的策略還可以得到t3和gx的約束關系。
由于t1已經被求出,所以以上線性約束足夠支持對t3和gx的求解。t4和gy也可以通過相同的方式求得。綜上所述,可以構建出能夠平滑過渡的半投影翹曲函數w(u,v)。
由于半投影翹曲與投影變換的區別是使圖像非重疊區域盡可能地進行相似變換,對于目標圖像I,其邊界線u=uHT和u=uTS可以由翹曲函數w(u,v)與Frobenius范數更接近相似變換的偏差確定,偏差E由式(13)獲得。
其中:E(uHT,uTS)是uHT和uTS的非線性函數,通過網格采樣空間(uHT,uTS)來獲取最優的uHT和uTS。
網格化劃分的目的是降低運算復雜度,提升運行效率。傳統的SPHP方法在網格化劃分時,無論圖像大小如何,均將圖像使用20×20的網格進行劃分,這導致算法在不同圖像上展現的性能不穩定,結果中會存在錯位和重影的情況。本文使用自適應動態網格的方法,不對網格的數量進行限制,而是根據輸入圖像的大小將每個網格的長寬限制在50~60像素,能夠保持網格內容信息量的穩定。該方法使得模型在處理不同數據時克服了視差,展現了良好的對齊效果和平滑過渡效果。
半投影翹曲方法的具體實現如圖3所示。對于待拼接圖像I1和I2,首先估計其投影變換矩陣H12;隨后使用自適應動態網格的方法得到過渡邊界uHT和uTS,從而求取半投影翹曲矩陣w;最后使用翹曲矩陣w指導圖像的半投影變換,通過融合獲得最終的結果。
1.4 融合策略
半投影翹曲雖然解決了非重疊部分的變形失真,但由于視差較大,重疊部分仍然難以完美對齊。現有方法采用多波段融合重建、平均加權或尋找最優接縫來處理重疊部分,但這很容易造成圖像的錯位和重影。本文提出了一種新的拼接策略來消除錯位和重影。
對于兩幅具有重疊區域的待拼接圖像,首先要獲取它們的重疊區域φ和φ′。重疊區域的差異矩陣可以表示為
E=|φ′R-φR|+|φ′G-φG|+|φ′B-φB|(14)
其中:φR、φG、φB分別是區域φ的RGB通道值;φ′R、φ′G、φ′B分別是區域φ′的RGB通道值。
根據差異矩陣E尋找一條經線x=x0,將重疊區域分為兩部分,x0通過式(15)計算。
其中:x0、y0是要尋找的目標點;pij是差異矩陣每個像素點的值;pφ是差異矩陣各元素值的總和;λ是常數,本文通過實驗測定設置為0.3。經過計算可以獲得需要的經線x=x0。
使用獲得的經線x=x0,將重疊區域劃分為過渡區和大視差區域。在大視差區域采取單采樣的策略獲取像素值,在過渡區域使用距離加權的方式實現平滑過渡。權重ωi可以由式(16)計算。
其中:xi是每個像素在坐標系中所處位置的橫坐標。通過該策略獲得的差異矩陣圖像和融合權重圖像如圖4所示。圖4(a)是重疊區域的差異矩陣圖像;圖4(b)是根據差異矩陣自動劃分得到的,虛線為劃分邊界,其有效地劃分了差異區域;圖4(c)(d)分別是一般加權融合和本文融合策略對于圖像重疊部分的融合結果,可以清楚看到本文方法在視差大的建筑區域沒有重影和錯位,優于一般融合方法。
2 實驗結果及分析
本文方法的實現平臺為MATLAB R2016b,硬件配置為Intel Core i7 8th Gen CPU,運行內存為16 GB。為了檢驗本文方法的有效性,從現有方法的數據集中選取無人機圖像并利用四旋翼無人機采集低空遙感圖像構建擁有500幅圖像的無人機圖像數據集。該數據集包括山地、水域、建筑等多樣信息,包含視角變換、地面起伏等大部分視差情況。
2.1 定性視覺比較
將本文方法與AutoStitch[4]、基于束調整與保形變換的無人機圖像拼接方法(LBASPT)[14]、基于最優縫合線和半投影翹曲的無人機圖像拼接方法(OSHP)[22]和無監督深度學習的圖像拼接方法(UDIS)[19]進行比較。圖5和6展示了兩組無人機低空建筑圖像的拼接結果。
從圖5中可以明顯看出,圖5(c)中所有紅框高光部分均出現了明顯的重影,圖5(e)雖然使用基于深度學習重建的方式得到最終結果,但是只起到減輕重影的效果,紅框高光部分仍然可以看到重影的存在。圖5(b) (d)分別使用多頻段融合和縫合線的方式構建拼接結果,雖然消除了重影,但是在部分紅框高光區域存在明顯的錯位(參見電子版)。本文方法獲得的圖5(f)則清晰自然,沒有重影和形變失真。
圖6展示的是第二組無人機建筑低空圖像的拼接結果。可以從結果中看到,圖6(c)(e)中的紅框高光區域存在明顯的重影現象,圖6(b)是使用多頻段重建方式獲得的結果,雖然消除了重影,但是錯位現象明顯,并且一些平行的線性結構也扭曲變形。圖6(d)是基于最優縫合線的結果,從部分紅框高光區域可以看到縫合線穿過了視差區域造成了錯位現象。而圖6(f)則展現了清晰的拼接結果,不存在重影和錯位。
為了驗證本文方法在多幅圖像拼接時仍然具有令人滿意的效果,選取具有多幅拼接能力的方法AutoStitch、LBASPT和OSHP與本文方法進行對比。源圖像來自使用無人機平臺獲取的連續圖像數據。圖7是對一系列具有重疊區域的山地圖像的拼接,地面的起伏和落差造成這組圖像具有較大視差。圖7(b)中黃框高光部分存在明顯的錯位,圖7(c)中紅框和黃框區域均存在明顯重影(參見電子版),而圖7 (d)(e)的結果不存在重影和錯位,并且從圖7 (e)中可以看到本文方法限制了圖像形變失真。
通過圖5~7三組實驗可以看到,幾種先進算法的結果都存在變形失真以及錯位重影的現象,而本文的半投影翹曲和拼接策略更適合處理由于視角變化、地勢起伏引起的視差,獲得了更加自然的無人機圖像拼接結果。
選取更多的視差情況對本文方法進行測試,其中包括大視角變化、小重疊區域,測試結果如圖8所示。由圖8(c)可以看到,在圖片存在較大的視角變化或者重疊區域很小的情況下,本文方法的結果維持了圖片的原始結構狀態沒有縱向形變,并且在重疊區域沒有重影和錯位。
為了驗證本文方法的泛化性,也測試了其他場景的多幅無人機圖像拼接,結果如圖9所示。從圖9中可以看到,對于8幅無人機低空遙感圖像的拼接,圖9(b)~(d)的結果整體存在較大的拉伸形變且紅框中的建筑物存在扭曲錯位(參見電子版),而圖9(e)的結果限制了圖像的形變。
2.2 客觀定量評價
首先,本文在拼接效率上與幾種先進算法進行了對比,通過測定所展示的三組實驗的處理時間來進行判斷。表1是三組實驗的具體數據,可以看到本文方法擁有更高的效率。
為了能夠更加客觀地比較不同方法拼接結果的優劣,本文使用峰值信噪比(PSNR)和結構相似度(SSIM)來對結果的重疊區域進行評價。上述函數的值越大,說明拼接結果的錯位、重影等失真越少,拼接效果越好。PSNR函數定義為
其中:MSE表示輸入圖像的均方誤差,定義為
其中:H、W是輸入圖像的高度和寬度;X(i,j)、Y(i,j)是對應坐標處的像素值。
SSIM通過衡量輸入圖像的亮度、對比度和結構來評判拼接結果的失真程度,它可以定義為
其中:μx、μy、σ2x、σ2y和σxy分別是輸入樣本x和y的均值、方差和協方差;c1和c2是非零常數。
對圖5~7的拼接結果分別進行PSNR指標的計算,結果如表2所示。可以看到,本文方法在所有視差情況下都獲得了高于其他方法的數值,這表示本文方法獲取的結果更加清晰、噪點更少,更適合處理大視差圖像的拼接。
對圖5~7的拼接結果分別進行SSIM指標的計算,結果如表3所示。可以看到,本文方法在所有視差情況下都獲得了高于其他方法的數值,說明本文方法得到的結果扭曲變形更少,圖像結構得到更大程度的保留,在人眼判斷中更加趨近于源圖像。
本文與作為本文baseline的SPHP算法[10],以及同類半投影翹曲算法LBASPT和OSHP在圖像的平均梯度(AG)上進行對比,該評價指標被用來衡量拼接結果的清晰程度,平均梯度越大,圖像的清晰程度越高。實驗對圖8的多種視差場景進行對比。
圖10直觀地展示了同類算法的AG拼接指標,由圖10可知,本文方法的拼接質量高于基準方法和最新的半投影方法。表4是對圖8中不同場景的平均梯度的數值測定,通過表4可以得出,本文方法的拼接結果表現出更好的清晰程度,優于其他同類算法的結果。
3 結束語
本文提出了基于半投影翹曲的大視差圖像拼接方法,該方法使用線性約束將投影變換與相似性變換相結合并實現平滑過渡,同時所提出的融合策略能消除錯位與重影。本文方法不僅解決了圖像非重疊部分在拼接過程中容易變形失真的問題,對于視角變換和地勢起伏等視差因素的處理也有優秀的表現,能夠處理無人機遙感圖像等大視差圖像的拼接任務。定性與定量的實驗結果表明,本文方法與同類算法相比,顯著提高了拼接結果的質量,擁有更好的視覺效果。
參考文獻:
[1]Ma Jiayi,Jiang Xingyu,Fan Aoxiang,et al.Image matching from handcrafted to deep features:a survey[J].International Journal of Computer Vision,2021,129:23-79.
[2]Shao Zhenfeng,Cheng Gui,Li Deren,et al.Spatio-temporal-spectral-angular observation model that integrates observations from UAV and mobile mapping vehicle for better urban mapping[J].Geo-Spatial Information Science,2021,24(4):615-629.
[3]徐旭,康青,陳善靜,等.基于Agisoft Metashape圖像拼接的無人機環境熱像監測應用研究[J].紅外技術,2023,45(1):49-55.(Xu Xu,Kang Qing,Chen Shanjing,et al.Application of UAV environmental thermography monitoring based on Agisoft Metashape image mosaic[J].Infrared Technology,2023,45(1):49-55.)
[4]Brown M,Lowe D G.Automatic panoramic image stitching using invariant features[J].International Journal of Computer Vision,2007,74:59-73.
[5]Zaragoza J,Chin T J,Brown M S,et al.As-projective-as-possible image stitching with moving DLT[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2013:2339-2346.
[6]Chen Yinqi,Zheng Huicheng,Ma Yiyan,et al.Image stitching based on angle-consistent warping[J].Pattern Recognition,2021,117:article ID 107993.
[7]Liao Tianli,Li Nan.Single-perspective warps in natural image stitching [J].IEEE Trans on Image Processing,2020,29:724-735.
[8]Jia Qi,Li ZhengJun,Fan Xin,et al.Leveraging line-point consistence to preserve structures for wide parallax image stitching[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Pisca-taway,NJ:IEEE Press,2021:12186-12195.
[9]Nie Lang,Lin Chunyu,Liao Kang,et al.Learning edge-preserved image stitching from multi-scale deep homography[J].Neurocomputing,2022,491:533-543.
[10]Chang C H,Sato Y,Chuang Y Y.Shape-preserving half-projective warps for image stitching[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2014:3254-3261.
[11]趙輝,杜雅欣,王紅君,等.改進保形半投影的無人機遙感圖像拼接算法[J].現代電子技術,2021,44(20):133-136.(Zhao Hui,Du Yaxin,Wang Hongjun,et al.UAV remote sensing image stitching algorithm with improved SPHP[J].Modern Electronics Technique,2021,44(20):133-136.)
[12]胡育誠,芮挺,楊成松,等.無人機航拍圖像拼接重影消除技術研究[J].計算機應用研究,2021,38(5):1586-1589.(Hu Yucheng,Rui Ting,Yang Chengsong,et al.Research on eliminate ghosting technique of UAV image mosaic[J].Application Research of Compu-ters,2021,38(5):1586-1589.)
[13]Li Jing,Wang Zhengming,Lai Shiming,et al.Parallax-tolerant image stitching based on robust elastic warping[J].IEEE Trans on Multimedia,2017,20(7):1672-1687.
[14]Wan Qi,Chen Jun,Luo Linbo,et al.Drone image stitching using local mesh-based bundle adjustment and shape-preserving transform[J].IEEE Trans on Geoscience and Remote Sensing,2020,59(8):7027-7037.
[15]王懷,王展青.非線性約束下的準單應變換圖像拼接算法[J].計算機應用,2021,41(8):2318-2323.(Wang Huai,Wang Zhanqing.Nonlinear constraint based quasi-homography warps for image stitching[J].Journal of Computer Applications,2021,41(8):2318-2323.)
[16]Zhang Zhe,Ren Xuhong,Xue Wanli,et al.Object-aware ghost identification and elimination for dynamic scene mosaic[J].IEEE Trans on Circuits and Systems for Video Technology,2021,32(4):2025-2034.
[17]Zhao Yili.Fast image blending for high-quality panoramic images on mobile phones[J].Multimedia Tools and Applications,2021,80(1):499-516.
[18]Fang Faming,Wang Tingting,Fang Yingying,et al.Fast color blending for seamless image stitching[J].IEEE Geoscience and Remote Sensing Letters,2019,16(7):1115-1119.
[19]Nie Lang,Lin Chunyu,Liao Kang,et al.Unsupervised deep image stitching:reconstructing stitched features to images[J].IEEE Trans on Image Processing,2021,30:6184-6197.
[20]Dai Qinyan,Fang Faming,Li Juncheng,et al.Edge-guided composition network for image stitching[J].Pattern Recognition,2021,118:108019.
[21]Hejazifar H,Khotanlou H.Fast and robust seam estimation to seamless image stitching[J].Signal,Image and Video Processing,2018,12:885-893.
[22]Chen Jun,Li Zixian,Peng Chengli,et al.UAV image stitching based on optimal seam and half-projective warp[J].Remote Sensing,2022,14(5):1068.
[23]王歡,周穎玥,王學淵,等.基于質量評價的無人機航拍圖像拼接方法[J].計算機應用研究,2022,39(8):2511-2514.(Wang Huan,Zhou Yingyue,Wang Xueyuan,et al.Quality evaluation-based image stitching for UAV images[J].Application Research of Computers,2022,39(8):2511-2514.)