999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于GAN 的紅外與可見光單應性估計方法

2023-03-17 07:28:06羅銀輝王星怡吳岳洲魏嗣杰
無線電工程 2023年3期
關鍵詞:特征

羅銀輝, 王星怡, 吳岳洲, 魏嗣杰

(中國民用航空飛行學院 計算機學院, 四川 廣漢 618307)

0 引言

單應性模型主要用于實現2 幅圖像間的幾何變換,被廣泛用于圖像配準領域[1]。 紅外和可見光圖像所具有的互補性克服了單傳感器系統所固有的缺陷,二者的配準具有深遠的研究意義[2]。

生成對抗網絡(Generative Adversarial Network,GAN)因自身優勢逐漸被應用到圖像配準中,通過對抗來提升配準精度。 Hong 等[3]將GAN 用于預測掩碼,以對預測的單應性施加共面約束。 但該方法并未直接將GAN 用作單應性矩陣輸出的框架,僅是作為一個組件來對單應性進行約束。 Tanner 等[4]通過GAN 學習對稱模態轉換器,以將單模態圖像配準算法用于多模態配準中。 Wang 等[5]提出二階段變壓器對抗網絡(Transformer Adversarial Network,TAN),利用對抗性提升紅外圖像和可見光圖像配準精度。 Kumari 等[6]利用具有空間變換器的GAN 實現了紅外與可見光圖像配準。

以上方法主要利用GAN 作為模態轉換器或起約束作用的組件,并未將其直接用于單應性矩陣輸出的框架。 因此,本文從另一個角度出發,直接將GAN 用作單應性矩陣輸出的框架,以證明GAN 在單應性估計中的可用性,并可有效提升單應性估計的精度。 本文的主要貢獻包括:

① 將GAN 直接用于單應性矩陣輸出的主框架;

② 使用精細特征作為判別器的輸入,而非像一般GAN 那樣直接使用圖像對作為輸入,以將穩健的特征作為主要判決對象。

1 方法

1.1 單應性估計框架

本文提出了一個以GAN 為主框架的單應性估計方法,以有效實現紅外與可見光圖像的配準任務,網絡框架如圖1 所示。 單應性估計整體框架主體由3 部分構成:淺層特征提取網絡f(·)、生成器G 和判別器D。 首先,給定一對大小為W×H的灰度紅外圖像Ir和可見光圖像Iv作為網絡輸入,將其輸入到淺層特征提取網絡中得到圖像的精細特征Gr和Gv,并用于后續的單應性估計和損失計算。 其次,將Gr和Gv在通道維度上進行級聯,以作為生成器的輸入,并分別輸出單應性矩陣Hrv和Hvr。 然后,對單應性矩陣Hrv運用到灰度紅外圖像Ir上得到扭曲的紅外圖像I′r,并將其輸入到淺層特征網絡中得到精細扭曲特征G′r。 最后,將可見光特征Gv和扭曲紅外特征G′r分別送入到判別器網絡中,其目的是區分Gv和G′r。 同理,將紅外特征Gr和扭曲可見光特征G′v輸入到判別器中得到對應的預測標簽。

圖1 基于GAN 的單應性估計總體框架Fig.1 Overall framework of GAN-based homography estimation

1.1.1 淺層特征提取網絡f(·)

淺層特征網絡由特征提取塊(Feature Extraction Block,FEB)、特征細化塊(Feature Refinement Block,FRB) 和特征整合塊( Feature Integration Block,FIB)組成,以產生精細特征Gr和Gv。 特別地,4 個特征淺層提取網絡均共享權重,網絡框架如圖2 所示。

圖2 淺層特征提取網絡Fig.2 Shallow feature extraction network

特征提取塊由4 個卷積塊和3 個殘差密集塊(Residual Dense Block,RDB)[7]組成,以提取紅外與可見光圖像的深層次特征,網絡結構如圖3 所示。具體來說,首先,通過2 個3×3 的卷積塊提取圖像的淺層特征。 其次,利用3 個RDB 提取圖像的深層次特征,并且每個RDB 均進行局部特征融合以自適應地學習來自先前和當前局部特征中的更有效特征。 最后,利用全局性融合將多個RDB 的分層特征融合到一起,并利用全局殘差學習將淺層特征和深層特征結合到一起以得到全局密集特征。 這一過程的計算如下:

圖3 特征提取塊Fig.3 Feature extraction block

式中,F-1表示淺層特征映射;Fi表示第i個RDB 提取到密集特征映射,i∈{1,2,3};HGFF(·)表示所有RDB 的融合計算。

特征細化塊由卷積注意力機制模塊(Convolutional Block Attention Module,CBAM)[8]構成,它對通道和空間2 個維度進行注意力映射,以得到密集特征中對單應性求解有意義的特征。 具體來說,特征細化塊首先利用特征的通道間關系生成通道注意力映射,以使網絡集中于輸入圖像中有意義的地方。其次,利用特征之間的空間關系生成空間注意力,以側重于圖像中的信息部分。 這一過程的計算為:

式中,Mck和Msk分別表示空間注意力和通道注意力。

特征整合塊由1 個卷積塊組成,其主要目的是將多通道特征的通道數轉換為1,以降低后續網絡中的運算量。

1.1.2 生成器G

本文將文獻[9]中單應性估計器用作GAN 的生成器G,以產生單應性矩陣,網絡框架如圖4 所示。 生成器以ResNet-34[10]作為主干,通過將紅外圖像和可見光圖像的精細特征Gr和Gv進行通道級聯以作為輸入。 然后,生成器以4 個集合向量作為輸出,并利用直接線性變換(Direct Linear Transformation,DLT)[11]得到單應性矩陣。

圖4 生成器網絡框架Fig.4 Generator network framework

1.1.3 判別器D

受紅外與可見光圖像融合方法的啟發,本文使用文獻[12]中的判別器作為單應性估計方法中的判別器D,網絡框架如圖5 所示。 相較于文獻[12]中的判別器,本文刪除了其倒數第2 個模塊,其中包含2 個通道數為512 的卷積。 同時,還將最后一個模塊的輸出通道數修改為1,用于判斷輸入精細特征映射對齊的概率。

圖5 判別器網絡框架Fig.5 Discriminator network framework

判別器D 的本質是一個分類器,通過從輸入圖像中提取特征映射來對其進行分類。 首先,通過淺層特征提取網絡分別提取扭曲圖像和目標圖像的精細特征;然后,將精細特征作為判別器D 的輸入,以對扭曲圖像和目標圖像進行區分;最后,通過在生成器G 和判別器D 之間建立對抗性博弈,使得扭曲圖像和目標圖像間的精細特征位置越來越接近。 在訓練階段,一旦生成器生成了判別器無法辨別的樣本,本文就得到了可以配準的扭曲圖像。

1.2 損失函數

1.2.1 配準損失

配準損失將鼓勵扭曲圖像的精細特征更加接近于目標圖像的精細特征。 受文獻[9]中Triplet Loss的啟發,本文直接利用圖像對的精細特征進行損失計算,以判別精細特征的對齊情況。 配準損失描述為:

式中,Ir和Iv分別表示灰度紅外圖像和灰度可見光圖像;I′r表示對Ir使用單應性矩陣Hrv進行扭曲所得的圖像;Gr和Gv分別表示Ir和Iv經過淺層特征提取網絡后得到的精細特征;G′r表示I′r經過淺層特征提取網絡后得到的精細特征。 同理,可得到另一配準損失Lreg(I′v,Ir)。

1.2.2 單應性損失

受文獻[9]的啟發,本文利用單應性損失來迫使Hrv和Hvr互為逆矩陣。 單應性損失描述為:

式中,Hvr表示由Ir和Iv的精細特征求解的單應性矩陣;Hrv表示交換Ir和Iv的精細特征后所求解的單應性矩陣;E 表示三階恒等矩陣。

1.2.3 對抗損失

受文獻[13]的啟發,本文將圖像融合中的生成器對抗損失遷移到圖像配準任務中,以生成更能對齊的扭曲圖像。 生成器中的對抗損失Ladv(G)是根據所有訓練樣本中判別器的概率確定的,其被描述為:

式中,G′r表示扭曲紅外圖像精細特征;logDθD(·)表示扭曲圖像精細特征與目標圖像精細特征對齊的概率;N表示網絡中batch 的個數。 同理,可以得到另一生成器的對抗損失Ladv(G,G′v)。

受圖像融合算法[12]中對判別器損失函數設計的啟發,本文方法中判別器D 的對抗損失被描述為:

式中,a和b分別表示目標圖像和扭曲圖像的標簽;Ladv(D,Gr,G′v)表示紅外圖像精細特征Gr和扭曲可見光圖像精細特征G′v之間的損失函數;同理,可以得到另一對抗損失Ladv(D,Gv,G′r)。 在實驗中,標簽a設置為0.95~1 的隨機數,標簽b設置為0~0.05 的隨機數。

1.3 目標函數

1.3.1 更新生成器G 的目標函數

生成器G 以一對精細特征Gv和Gr作為輸入,并輸出單應性矩陣。 模型根據損失函數的變化,使得扭曲圖像中和目標圖像之間的精細特征盡可能對齊,從而達到欺騙判別器的效果。 生成器G 的損失函數主要由3 部分組成:配準損失、單應性損失和生成器對抗損失。 因此,最終生成器的目標函數描述為:

式中,λ和μ表示平衡超參數。 在實驗中,λ設置為0.01,μ設置為0.005。

1.3.2 更新判別器D 的目標函數

判別器D 作為二分類來區分真和假,以輸出圖像精細特征可以得到對齊的概率。 判別器應該盡可能地區分扭曲圖像和目標圖像之間精細特征的差異。 判別器D 的損失函數主要由判別器對抗損失組成。 因此,最終判別器的損失函數描述為:

2 實驗設置與評價指標

2.1 數據集

針對目前紅外與可見光場景下未配準的數據集較少、已配準的數據集較多的情況,本文選取了圖像融合任務中較為著名的紅外與可見光數據集用作本文的數據源。 特別地,這些數據集中圖像對普遍較少,因此使用OSU Color-Thermal Database[14],INO 和TNO 三個公開數據集作為本文的數據源,從中共選取了115 對和42 對紅外與可見光圖像用于基礎訓練集和測試集。

同時,為了獲得豐富的數據集,本實驗采用了旋轉、平移和剪切等數據增廣的方式擴充訓練集,最終共得49 736 對紅外與可見光圖像。 其次,為了獲得未配準的數據,實驗采用了DeTone 等[15]方法來制作數據集,最終產生大小為150×150 的未配準紅外與可見光圖像Ir和Iv以及紅外真值圖像IGT。

2.2 訓練策略

網絡框架基于 Pytorch 實現, 并在 NVIDIA GeForce RTX 3090 進行訓練。 采用基于自適應動量估計(Adaptive Momentum Estimation,Adam)[16]作為網絡優化器,指數衰減學習率初始化為1. 0×10-4,衰減因子為0. 8,衰減步長為1 個epoch。 另外,訓練過程中設置了50 個epoch,batch_size 設置為8。

2.3 評價指標

為了驗證所提算法的有效性,選取了平均角點誤差(Average Corner Error,ACE)[17-18]和結構相似性(Structural Similarity,SSIM)[19]作為評估指標。

ACE 通過估計單應性和真值單應性來變換角點,然后計算角點之間的平均距離誤差作為評估值。距離誤差越小,表明配準效果越好。 ACE 描述為:

式中,ci和c′i分別表示估計單應性和真值單應性所變換的角點坐標。

SSIM 使用了圖像亮度、對比度以及結構來衡量圖像相似度,其值屬于[0,1],值越大表示配準結果越好。 SSIM 描述為:

式中,x和y分別表示扭曲圖像和真值圖像;μx和μy分別表示x和y中所有像素點均值;σx和σy分別表示x和y中的標準差;σxy表示2 個圖像的協方差;C1和C2表示維持穩定的常數。

3 實驗結果及分析

3.1 主觀評價

在測試集上與SIFT[20]+RANSAC[21],ORB[22]+RANSAC[21],BRISK[23]+ RANSAC[21],AKAZE[24]+RANSAC[21]以及CADHN[9]等算法進行了對比實驗。 在對比算法中,僅CADHN 是基于深度學習的算法,其余均是基于特征的算法。 特別地,部分基于深度學習的方法難以在紅外與可見光數據集上進行擬合,例如Nguyen 等[25]所提方法在紅外與可見光場景下無法收斂。 Ye 等[1]和Hong 等[3]所提方法均使用了單應性流的思想,但紅外與可見光圖像本身所存在的較大灰度和對比度差異會造成單應性流變化不穩定,使得網絡難以收斂。 因此,在基于深度學習的方法中,本文僅采用CADHN 作為對比算法。

圖6 顯示了不同算法的扭曲圖像對比,可以清晰地看出,基于深度學習的算法明顯優于基于特征的算法。 如圖6 所示,在這類測試場景下,AKAZE+RANSAC 完全失效,無法預測得出扭曲圖像。 其余3 個基于特征的對比算法配準性能較差,扭曲圖像發生嚴重畸變。 相比之下,基于深度學習的算法可得到完整的扭曲圖像,且配準性能更優。

圖6 不同算法扭曲圖像對比Fig.6 Comparison of warp images of different algorithms

圖7 顯示了3 種場景下不同算法的配準結果,其配準結果是將扭曲紅外圖像的藍色通道和綠色通道與真值紅外圖像的紅色通道進行融合所得,其中紅色重影和綠色重影代表未實現配準。 圖7 中的“-”表示配準失效。 由圖7 可知,SIFT+RANSAC 在這3 種場景下是完全失效的,而其余基于特征的算法僅在第3 種場景下完全失效,剩余2 種場景雖然可以產生扭曲圖像,但配準效果較差。 造成這一結果的主要原因是紅外圖像和可見光圖像具有較大的灰度差異,基于特征的算法難以獲得足夠較高質量的特征點對。 另外,由圖7 可知,本文算法在這3 種場景下明顯略優于CADHN,可以得到更多對齊的像素點。

圖7 不同算法配準結果對比Fig.7 Comparison of registration results of different algorithms

3.2 客觀評價

為了定量驗證本文算法的有效性,本文使用評價指標ACE 對42 組測試圖像進行評估,并說明了每類算法的失效率,結果如表1 所示。 失效率是由測試圖像失效數與測試圖像總數的比值所求得。 如表1 所示,基于深度學習的方法明顯優于基于特征的方法。 傳統基于特征的算法不僅有較高的算法失效率,而且ACE 較高,無法實現配準。 特別地,SIFT+RANSAC 雖然失效率是最高的,但其ACE 明顯優于其余基于特征的算法。 另外,相較于CADHN而言,本文方法的ACE 從5.25 明顯下降至5.15。但本文方法的SSIM 略低于CADHN,其主要原因是本文方法中扭曲圖像的黑邊多于CADHN,從而影響了SSIM 的計算。

表1 不同算法的配準評估結果Tab.1 Registration evaluation results of different algorithms

同時,基于特征的算法耗時明顯低于基于深度學習的算法,但其算法失效率和配準性能較差,難以適用于紅外與可見光場景。 雖然CADHN 的耗時比本身算法低80.32 ms,但其ACE 卻明顯低于本文算法。 因此,本文所提模型可得到較好性能,且優于其余傳統基于特征和基于神經網絡的算法。

4 結束語

本文提出了一種將GAN 作為單應性估計主框架的紅外與可見光單應性估計方法。 把圖像的精細特征作為生成器和判別器的輸入,使得網絡更加關注于圖像中的重要特征。 同時,通過在生成器和判別器之間建立對抗性博弈,使得扭曲圖像和目標圖像之間的精細特征越來越接近,從而提升單應性估計性能。 實驗結果表明,相較于次優算法CADHN,本文方法不僅能夠得到更為準確的扭曲圖像,而且評估指標ACE 從5.25 明顯下降至5.15。 未來將嘗試在GAN 框架下對生成器進行進一步改進,以繼續提升單應性估計性能。

猜你喜歡
特征
抓住特征巧觀察
離散型隨機變量的分布列與數字特征
具有兩個P’維非線性不可約特征標的非可解群
月震特征及與地震的對比
如何表達“特征”
被k(2≤k≤16)整除的正整數的特征
中等數學(2019年8期)2019-11-25 01:38:14
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
詈語的文化蘊含與現代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 性色生活片在线观看| 18禁黄无遮挡网站| 四虎在线高清无码| 国产丝袜无码精品| 美女黄网十八禁免费看| 亚洲精品欧美重口| 91午夜福利在线观看精品| 无码aaa视频| 国产精品偷伦在线观看| 女人18毛片水真多国产| 玖玖精品视频在线观看| 婷婷亚洲最大| 日韩精品一区二区三区大桥未久| 久久一日本道色综合久久| 精品无码国产一区二区三区AV| 久久久噜噜噜| 国产精品中文免费福利| 97青草最新免费精品视频| 久热re国产手机在线观看| 亚洲精品无码人妻无码| 真人高潮娇喘嗯啊在线观看| 四虎国产永久在线观看| 免费无遮挡AV| 国产欧美精品专区一区二区| 亚洲天堂免费| 精品无码一区二区三区电影| 国产99免费视频| 激情视频综合网| 2020国产精品视频| 国产精品人人做人人爽人人添| 国产精品第一区在线观看| 91麻豆精品视频| 91在线日韩在线播放| 国产精品区视频中文字幕| 国产专区综合另类日韩一区| 午夜a级毛片| 国产不卡网| 国产九九精品视频| 爆操波多野结衣| 国产成年女人特黄特色毛片免 | 99无码熟妇丰满人妻啪啪 | 国产乱码精品一区二区三区中文 | 天天操精品| www亚洲天堂| 草草线在成年免费视频2| 超清人妻系列无码专区| 无码内射在线| 色妞www精品视频一级下载| 99精品在线视频观看| 久久黄色小视频| 欧美激情第一欧美在线| 三级视频中文字幕| 被公侵犯人妻少妇一区二区三区 | 亚洲九九视频| 欧美一区二区三区国产精品| 欧美精品黑人粗大| 亚洲综合网在线观看| 国产99精品久久| 99免费视频观看| 亚洲中文字幕精品| 国产乱人乱偷精品视频a人人澡| 国产一二三区在线| a毛片免费观看| 久久综合婷婷| 青青青国产视频| 久青草网站| 亚洲成a∧人片在线观看无码| 亚洲成人精品| 国产精品永久不卡免费视频| 日韩国产欧美精品在线| 国产乱子伦手机在线| 成人免费网站在线观看| 国产在线观看精品| 91精品啪在线观看国产60岁| 亚洲av片在线免费观看| 亚洲欧洲一区二区三区| 手机永久AV在线播放| 成人午夜在线播放| 欧美日韩亚洲综合在线观看| 国产亚洲欧美在线专区| 亚洲中文字幕97久久精品少妇| 欧美日韩激情|