999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于輕量級金字塔密集殘差網絡的紅外圖像超分辨增強

2021-03-26 01:22:32楊秀杰
紅外技術 2021年3期
關鍵詞:深度模型

左 岑,楊秀杰,張 捷,王 璇

基于輕量級金字塔密集殘差網絡的紅外圖像超分辨增強

左 岑1,楊秀杰2,張 捷3,王 璇2

(1. 重慶電子工程職業學院 人工智能與大數據學院,重慶 401331;2. 重慶望江工業集團有限公司,重慶 400071;3. 中國人民解放軍陸軍重慶軍代局,重慶 400050)

現有的紅外制導武器嚴重依賴操作手對目標的捕獲,其捕獲的精度與目標的紋理細節正相關。為了提升弱小區域的顯示質量,滿足現有導引頭小型化、模塊化、低成本的設計要求,本文設計了一種基于輕量級金字塔密集殘差網絡的圖像增強模型,該模型在密集殘差網絡基礎上通過密集連接層和殘差網絡來學習不同尺度圖像之間的非線性映射,充分利用多尺度特征進行高頻殘差預測。同時,采用深度監督模塊指導網絡訓練,有利于實現較大上采樣因子的超分辨增強,提高其泛化能力。大量仿真實驗結果表明本文所提出的超分辨模型能夠獲得高倍率的超分辨增強效果,其重建質量也優于對比算法。

超分辨增強;輕量級;紅外圖像;深度學習;特征級聯;損失函數;恒等映射

0 引言

紅外熱像儀是光電設備不可或缺的成像模塊,通過采集熱輻射生成紅外圖像,能夠實現全天候、全天時目標搜索、跟蹤與識別、實現導航制導、態勢感知、威脅告警、對地觀瞄等功能[1]。由于紅外設備作用距離遠,初始目標的對比度低、尺寸小,如何能快速發現目標是克敵制勝的關鍵。然而,紅外熱像儀易受大氣湍流、氣溶膠散射等干擾的影響,導致獲取的紅外圖像退化且分辨率較低,很難從圖像中分辨出目標細節[2]。因此,只有將低分辨紅外圖像進行超分辨增強才能看清楚目標,進而實現目標的高精度鎖定。

隨著大數據處理與硬件性能提升,深度學習模型已經在視覺任務中獲得了成果的應用,并展現了強大的學習性能,如圖像分割[3]、目標檢測與識別[4]、地物分類等[5]。2016年,Dong等人[6]首次將深度模型應用于超分辨領域,通過對雙三次插值結果進行端到端深度學習,獲取到高分辨率與低分辨率之間的非線性映射關系,實現圖像重建;Riegler等人[7]提出將深度卷積網絡與與總廣義變分方法相結合,在總變差正則化約束下提升超分辨的重建質量。在此基礎上,國內外學者提出了許多優秀的改進方法,通過引入不同的先驗信息作為正則化約束條件,利用深度模型得到潛在的隱藏特征,先驗約束確保學習到細節信息與基準一致。文獻[8]設計了一種兩階段深度網絡的重建模型,首先利用深度網絡檢測單幀圖像中的邊緣結構,然后在邊緣結構引導下逐漸微調深度模型的參數,最終實現高質量的超分辨圖像。由于紅外圖像存在大量的團狀噪聲,導致深度網絡獲取的高分辨圖像存在偽影與劃痕[9]。為了實現超分辨增強并抑制住噪聲,文獻[10]在SRCNN(super-resolution convolutional neural network)[6]重建模型中增加了一路圖像增強分支,利用高頻特征與低頻特征的一致性,有效地恢復出超分辨后的高頻信息?;赟RCNN的改進算法都是將圖像插值一定的倍數作為輸入圖像,再通過不同的網絡模型實現低質量圖像塊的非線性映射,然而插值圖可能會引入噪聲并大大增加計算復雜度,同時存在上采樣二義性。楊明等人[11]重新設計卷積神經網絡的結構,通過將低層次特征和高層次特征聚合連接形成新的特征,以此提高圖像放大的性能,項目組對該方法仿真結果表明,該方法雖然增加了圖像的顯示效果,但引入了太多的虛假場景,尤其是在空中背景重建出規則紋理,不適合觀瞄應用。不同于前面提出的深度模型,Hui等人[12]提出了一種基于多尺度引導網絡的超分辨模型,該模型直接使用低分辨圖作為輸入,通過反卷積進行上采樣,通過兩個連續的卷積層進行特征融合,以重構丟失的細節信息。文獻[13]設計了一個拉普拉斯金字塔深度網絡,可以生成多種分辨率的高分辨結果。隨著拉普拉斯金字塔結構的引入,超分辨網絡可以進行有監督學習,并隨即提出了許多改進的深度模型[14-15]。然而,現有的深度模型超分辨增強算法大都是通過堆疊卷積層使得模型更深更寬[16],忽視了圖像內部的層次結構,導致模型不適合低成本的嵌入式平臺。而且,大多數深度網絡都在單一層次上生成高分辨圖像,主要應用于低倍率圖像放大,對高倍率超分辨應用的重建效果差。

針對深度網絡超分辨增強模型存在的不足,本文提出了一種基于輕量級金字塔密集殘差網絡,該模型并不直接預測高分辨圖像,而是通過密集連接與殘差網絡直接學習出具有任意放大倍率的高頻殘差圖像,所有特征提取操作均在低分辨空間域中進行。通過使用金字塔結構,該網絡可以生成各種尺度因子的高分辨圖,利用不同層次的特征逐步生成多層次高頻圖,降低模型訓練難度,并進一步提高重建性能。在訓練階段,通過一次前向傳播逐步生成各種層次的超分辨圖,這使得網絡更加靈活。實驗結果表明,與現有對比方法相比,本文模型的重建效果具有顯著提升。

1 本文提出的超分辨網絡模型

現有的深度模型超分辨增強算法大都是通過堆疊卷積層使得模型更深更寬,雖然一定程度上增強了超分辨重構的性能,但都是以大量的計算資源為代價。對于硬件余量有限的武器裝備,很難直接將超分辨模型運用于型號產品。

由于現有的深度模型忽視了圖像內部的層次結構,僅僅在單一層次上生成高分辨圖像,對高倍率超分辨應用的重建效果差。因此,本文提出了一個具有金字塔結構的深度密集殘差網絡,充分利用密集連接和殘差學習實現高頻殘差預測。同時,采用深度監督模塊指導網絡訓練,實現較大上采樣因子的超分辨增強。該模型不需要構建更深更寬的深度網絡就能實現任意尺度高精度的超分辨增強。本章將詳細描述所提出的單幀圖像超分辨率網絡結構。

1.1 密集殘差模塊

密集殘差模塊的結構如圖1所示,該結構包含兩個分支:高頻殘差圖預測和圖像重建,其中高頻殘差圖預測的核心功能是使用多層次卷積從輸入的低分辨圖中提取深度特征;圖像重建則是利用低頻圖與高頻殘差圖一起重構出高分辨圖。假定SF表示卷積運算,sf是密集模塊的輸入,高頻殘差圖可以表示為如下等式:

sf=SF(l) (1)

式中:l表示低分辨圖。密集模塊由個密集連接卷積層[17]和瓶頸層[18]組成。顯然,密集模塊中第個Conv層的輸出可以表示成如下等式:

式中:bn是瓶頸層的權值矩陣。在此基礎上,增加兩個以上的Conv層以提取深度特征,如等式(4)所示:

式中:DF表示深度特征提取。本文提出的模型采用殘差學習[15]來組合多尺度特征得到高頻殘差rf。針對以上分析,我們能得到rf=df+sf。由于卷積層的前向傳播過程就是反卷積層的反向傳播過程,因此低分辨圖可以由反卷積層進行尺度放大,即:

式中:UP表示反卷積操作。因此,高分辨圖和雙三次插值圖之間的殘差圖像r可以由卷基層RI表示,即:

r=RI(up) (6)

由于圖像重建則是使用雙三次插值法將低頻圖放大2倍,然后與高頻殘差圖一起重構出高分辨圖,即biscubic=(l),其中表示雙三次插值,其結果通過與預測的殘差圖合并(逐元素求和)以生成高分辨圖。

h=r⊕biscubic(7)

1.2 輕量級超分辨增強模塊

本文模型除了瓶頸層[18]和反卷積層(卷積核大小分別為1×1和4×4)之外,其他卷基層Conv的大小都設置為3×3。密集模塊具有8個Conv層,得到16個特征圖,其他Conv層具有16個濾波器。所有濾波器的權重和偏置均通過文獻[18]的策略進行初始化。本文選擇PReLU(parametric rectified linear unit)作為非線性激活函數,實驗結果表明它比ReLU更魯棒。為了保持所有層次輸出的結果大小不變,本文采用零填充進行處理。由于瓶頸層采用1×1卷積可以降低特征維數,以更少的信息損失進行更快的計算,大大降低網絡參數量。首先使用卷積模塊和像素重整模塊搭建深度殘差網絡,使用獨立的卷積層和數據疊加層得到圖像殘差信號,然后中間數據經過像素重整模塊,里面的上采樣操作將輸入圖像的清晰度提高,該模型可以處理不同尺寸圖像的超分辨率增強,提高紅外圖像的清晰度和分辨率。

1.3 損失函數

2 實驗仿真及掛飛驗證

為了驗證本文提出的超分辨增強算法的有效性,本章將從靜態仿真與動態外場掛飛進行評價分析。

2.1 實驗數據

由于紅外圖像很少有基準高/低分辨率數據庫。為了便于定量性能分析,本文采用制冷型銻化銦紅外探測器采集高分辨圖像,其對應的低分辨紅外圖像是由雙線性下采樣獲取。本文將每個訓練庫的圖像按照尺度因子生成不同尺度的塊作為訓練樣本,并排除了沒有紋理信息的塊,最終得到大約有190000個訓練樣本對。為了進一步擴大訓練集,本文通過雙三次插值對高分辨子圖像進行下采樣以獲得低分辨樣本。由于實際的紅外圖像沒有對應的高分辨的圖像用做定量分析,采用低成本非制冷探測器采集的低分辨紅外圖像(320×240)進行超分辨增強,從邊緣銳度、對比對、紋理特性等角度定量分析重建性能。

2.2 網絡模型參數設置及評價指標

網絡在初始化后,采用更多的迭代(大約100 Epoch)來訓練模型,以獲得更準確的特征表示。每個卷積層設置的步幅為1,反卷積層設置的步幅為2。學習率設置為0.001,Dropout參數設置為0.8,最高迭代次數設置為10000次;為了提高優化效率,本文采用ADAM迭代地更新神經網絡參數。本文針對2×、4×、8×和16×比例因子訓練了網絡,所提出的模型在TensorFlow框架下進行訓練和測試,其中2×、4×、8×和16×超分辨的訓練時間分別約為3h、6h、13h和16h。本文硬件平臺采用Core i5 7600處理器:主頻 3.94GHz,內存32G,GPU GTX1080Ti。本算法掛飛硬件平臺是采用基于ARM的開發板。

為了分析密集連接,殘差學習和深度監督的有效性,選用峰值信噪比(peak signal-to-noise ratio, PSNR)和結構相似性(structural similarity index measurement, SSIM)進行定量描述.

2.3 模型分析

本文提出了一種基于金字塔密集殘差網絡的單幀圖像超分辨增強模型,該模型的基本框架是密集殘差塊,通過密集連接層和殘差學習來模擬高頻殘差和低分辨圖像之間的非線性映射。表1展示了殘余學習(residual learning,RL),密集連接(dense connection,DC)和深度監督(deep supervision,DS)模塊對低分辨紅外圖像放大4倍的重建效果,其中黑色方塊表明基準網絡中替換掉的模塊,無黑色方塊則表示該模塊與基線網絡一致。首先,將沒有3種模塊的超分辨網絡作為重建基準進行了訓練與優化,其超分辨效果僅優于雙線性插值。然后,將密集連接,殘余學習與深度監督模塊分別替換掉基準網絡。從表1的結果可以看出密集連接模塊和殘差學習模塊的性能都優于基準網絡,但深度監督模塊改進網絡的性能有限。這些比較表明了密集連接和殘差學習的有效性,同時也說明簡單地堆疊卷積層以使網絡更深更寬并不能增強網絡的性能。若同時替換基準網絡中兩個模塊,可以看出采用任意個模塊的性能要優于僅采用一個模塊的性能。值得注意的是具有密集連接網絡的性能總是比具有殘差學習網絡的性能更好,這是由于在預測高頻殘差時,殘差學習僅利用淺層特征來轉換成高層次深度特征,而密集連接則利用分層結構提取多尺度特征。實驗結果也表明具有深度監督的網絡比沒有深度監管的網絡表現更好,這是由于深度監督可以指導網絡預測不同級別的高頻殘差。當上采樣因子較大時,可以解決邊緣模糊問題。當密集連接,殘差學習和深度監督同時使用時,它們各自對超分辨網絡都有不同的貢獻,最終提升網絡的整體性能。

表1 不同模塊性能分析

2.4 仿真結果與分析

本文選用了目前最新的5種超分辨方法進行定性定量比較:EDSR(enhanced deep-networks for super-resolution)[19],SRCNN[6],SRMD(super- resolution with multiple degradations)[20],GANSR(super-resolution using a generative adversarial network)[21]和Meta-SR(magnification-arbitrary network)[22]。其中Meta-SR可以通過輸入縮放因子動態地預測網絡的權重,實現任意縮放因子問題。SRMD是采用維度拉伸策略使得卷積神經網絡可以處理維度不同的輸入,實現多退化模型的圖像SR增強;GANSR是利用生成對抗網絡實現紅外人臉圖像超分辨增強。所有的代碼均從Github下載,并按配置要求進行設置,部分程序修改過配置參數,但不影響算法性能分析。為了客觀公正地進行比較,所有基于深度學習模型的超分辨算法都采用相同的訓練數據集進行重新訓練。與以前的工作類似,采用SSIM與PSNR來定量分析重建的高分辨圖的質量,其結果在表2中顯示??梢钥闯?,本文提出的超分辨網絡在所有尺度因子下均獲得較高的SSIM與PSNR,尤其是在Image6圖像的PSNR比SRCNN高0.48。同時,本文提出的方法與MSG-Net性能相當,大部分結果比GANSR高0.3dB左右,一些結果甚至超過0.51dB左右,充分說明本文模型具有一定的優勢,適合復雜紅外背景下低對比度區域超分辨增強。

定量分析結果表明基于生成對抗網絡的超分辨方法感知損失函數作為優化目標,有效解決了SRCNN基于2損失函數導致重建圖像模糊的問題,但由于紅外圖像中存在大量模糊區域,通過對抗學習丟失的細節,會造成重構偏差。雖然一定程度上提升了視覺效果,但重構的圖像與實際不符,嚴重影響武器裝備的可靠性。另外,生成器與鑒別器的復雜度也較大,不滿足實時需求。本文提出的模型在實際應用中能更有效地抑制噪聲并增強細節特征。

表2 不同算法的重建指標對比

在對空的紅外圖像中,由于圖像大部分區域都是空中背景且背景噪聲較大,GANSR本文提出的算法將圖像中存在的隨機斑點噪聲進行了重建,導致獲得的高分辨圖像存在很多劃痕,放大了背景噪聲。而本文算法引入了深度監督模塊,在超分辨的同時也完成了圖像去噪增強,其性能也有顯著提升。

圖2是Image 1與Image 6圖像下,不同算法的超分辨增強效果。從實驗結果可以看出,所有算法的重建質量相比雙線性插值有一定的提升,對于具有明顯邊界的區域夠得到清晰的紋理。圖2(a)是SRCNN的結果,是最早利用深度模型學習非線性映射函數,并成功應用在超分辨率重建中,由于網絡只有3層,其結果在均勻區域容易出現偽影,尤其是第一行圖像中空中區域出現大量虛假紋理信息;圖2(b)是EDSR的結果,該網絡堆疊更多的殘差層或者使每層提取更多的特征,從而得到更好的性能表現。由于本文是處理紅外灰度圖像,只選擇了單通道進行重建,刪除了多通道轉移層,但實際效果也優于SRCNN模型。圖2(c)中,Meta-SR模型對部分勻質區域過于平滑,而缺少一些細節上的真實感。圖2(d)中,GANSR是基于對抗網絡的重建模式,其結果容易重建出一些虛假的紋理。圖2(e)中,SRMD并不假設退化的圖像服從某種先驗分布,可對任意退化圖像進行超分辨增強,實際結果中,該模型也優于其他4種對比算法。本文所提模型的結果如圖2(f)所示,該模型也適用于任意復雜退化先驗,同時在深度監督模塊約束下進行網絡訓練,有利于實現較大上采樣因子的超分辨增強。超分辨結果中,圖像細節明顯,尤其是建筑邊緣等具有規則紋理區域的重建效果較好。

圖3展示了不同模型對低分辨紅外圖像的重建效果。可以看出,本文提出的網絡對復雜的雜亂紋理的重建效果較好,尤其是建筑旁邊柵欄、樹枝等區域。草地上的雜亂區域也重建效果較好,細節比較清晰。得益于密集連接,殘差學習和深度監督模塊的引入,本文所提出的模型可以獲得更加理想的高分辨圖像,解決了不規則紋理的模糊問題。另外,通過采用金字塔結構,該網絡可以生成不同尺度的高分辨圖像而不需要額外加寬加深網絡結構,降低了硬件資源的需求。

2.5 掛飛視頻對比分析

本文提出超分辨模型已經移植到Hi3559AV100嵌入式系統中,該平臺可以將工作站上訓練好的最優模型,以及對應的配置文件遷移到該框架下的對應目錄中,實現紅外圖像超分辨重構。工程研制的硬件機械結構采用了ATX機箱,內置母版、信號處理板、主控接口板、電源板,其中信號處理板可以完成目標輔助識別與電子變倍等功能。該機箱接收非制冷紅外熱像儀采集的紅外數字圖像,其圖像比較模糊,細節不明顯,對比度也較低。通過本文設計的超分辨平獲得的高分辨圖像比較清晰,一些模糊的區域也呈現出一些細節特征,有利于增強目標鎖定的精度。本文掛飛的視頻不便于論文展示。為了便于性能分析,本節對中科院技物所團隊開源的SITP-Infra數據集進行對比分析。由于該數據集與掛飛熱像儀的輸出CameraLink圖像都是14位原始圖像,因此所有對比算法都相同非線性拉伸模型下進行8位轉換并顯示,最后對局部區域的超分辨結果進行對比,其結果如圖3所示。圖3所展示的數據已經在可以看出本文提出的方法對局部區域放大后的性能較好,生成具有豐富細節而清晰的高分辨紅外圖像。

圖3 不同算法對CASIA數據集中真實紅外定性分析

3 結論

針對深度網絡超分辨增強模型存在的不足,本文提出了一種基于金字塔密集殘差網絡的單幀圖像超分辨增強模型,該模型充分利用密集連接和殘差學習進行高頻殘差預測,并在深度監督模塊約束下進行網絡訓練,有利于實現較大上采樣因子的超分辨增強。實驗仿真與外場掛飛結果表明本文模型能夠生成具有豐富細節而清晰的高分辨紅外圖像,重建效果具有顯著提升。在海思嵌入式深度學習平臺上實現了高質量的超分辨增強,具有較高的工程應用價值。

[1] 廖小華, 陳念年, 蔣勇, 等. 改進的卷積神經網絡紅外圖像超分辨率算法[J]. 紅外技術, 2020, 42(1): 075-80. LIAO Xiaohua, CHEN Niannian, JIANG Yong, et al. Infrared image super-resolution using improved convolutional neural network[J]., 2020, 42(1): 075-80.

[2] 田廣強. 一種新穎高效的紅外動態場景多目標檢測跟蹤[J]. 紅外技術, 2018, 40(3): 259-263. TIAN Guangqiang. A novel algorithm for efficient multi-object detection and tracking for infrared dynamic frames[J]., 2018, 40(3): 259-263.

[3] 曾金發, 吳恩斯, 李能勇. 基于雙核協同學習模型的紅外目標跟蹤算法[J]. 紅外技術, 2018, 40(5): 438-443. ZENG Jinfa, WU Ensi, LI Nengyong. Infrared object-tracking algorithm based on dual-kernelized collaborative learning[J]., 2018, 40(5): 438-443.

[4] 韓團軍, 尹繼武. 一種魯棒的自適應更新策略的彈載計算機紅外目標跟蹤算法[J]. 紅外技術, 2018, 40(7): 625-631. HAN Tuanjun, YIN Jiwu. Robust adaptive updating strategy for missile-borne infrared object-tracking algorithm[J]., 2018, 40(7): 625-631

[5] 艾志偉, 嵇建波, 李靜, 等. 快速反射鏡狀態模型構建方法及其控制系統設計[J]. 紅外技術, 2020, 42(1): 40-45. AI Zhiwei, JI Jianbo, LI Jing, et al. State model construction method for fast steering mirror and its control system design[J]., 2020, 42(1): 040-45.

[6] DONG C, Loy C C, He K, et al. Learning a deep convolutional network for image super-resolution[C]//, 2014: 184-199.

[7] Riegler G, Rther M, Bischof H. ATGV-Net: accurate depth super resolution[C]//2016: 268-284.

[8] SHI Y, LI S, LI W, et al. Fast and Lightweight Image Super-resolution based on dense residuals two-channel network[C]//2019(ICIP), 2019: 2826-2830.

[9] WANG Wei, JIANG Yongbin, LUO Yanhong, et al. An advanced deep residual dense network(DRDN) approach for image super-resolution[J]., 2019, 12(2): 1592-1601.

[10] WU Y, JI X, JI W, et al. CASR: a context-aware residual network for single-image super-resolution[J]., 2019: 1-16.

[11] 楊明, 王璇, 高宏偉. 基于多級深度網絡的高清晰度紅外電子變倍算法[J]. 彈箭與制導學報, 2020, 40(4): 14-19.

YANG Ming, WANG Xuan, GAO Hongwei. High-definition infrared electronic zooming algorithm based on multi-level deep network[J].,,, 2020, 40(4): 14-19.

[12] HUI T, Loy C C, TANG X. Depth map super-resolution by deep multi-scale guidance[C]//, 2016: 353-369.

[13] QIU Y, WANG R, TAO D, et al. Embedded block residual network: a recursive restoration model for single-image super – resolution [C]//, 2019: 4180-4189.

[14] CAO Y, HE Z, YE Z, et al. Fast and accurate single image super -resolution via an energy-aware improved deep residual network[J]., 2019, 162: 115-125.

[15] Anwar S, Barnes N. Densely residual Laplacian super-resolution[J/OL].[2020-09-20]( DOI:10.1109/TPAMI.2020.3021088).

[16] WANG Z, Chen J, Hoi S C H. Deep learning for image super-resolution: a survey[J/OL].[2020-09-20]. https://ieeexplore.ieee.org/document/9185010(doi: 10.1109/ TPAMI. 2020. 2982166).

[17] LONG J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[C]//, 2015: 3431-3440.

[18] HE K, ZHANG X, REN S, et al. Delving deep into rectifiers: Surpassing human-level performance on image net classification[C]//, 2015: 1026-1034.

[19] Lim B, Son S, Kim H, et al. Enhanced deep residual networks for single image super-resolution[C]//, 2017: 136-144.

[20] HUI T W, Loy C C, TANG X. Depth map super-resolution by deep multi-scale guidance[C]//,, 2016: 353-369.

[21] Guei A C, Akhloufi M. Deep learning enhancement of infrared face images using generative adversarial networks[J]., 2018, 57(18): 98-107.

[22] ZHANG X, LI C, MENG Q, et al. Infrared image super resolution by combining compressive sensing and deep learning[J]., 2018, 18(8): 2587-2599.

Super-resolution Enhancement of Infrared Images Using a Lightweight Dense Residual Network

ZUO Cen1,YANG Xiujie2,ZHANG Jie3,WANG Xuan2

(1.,,401331,;2...,400071,; 3.,400050,)

Existing infrared-guided weapons heavily rely on operators to acquire targets, and the accuracy of acquisition is positively correlated with a target’s texture details. To improve the display quality of weak small regions and meet the design requirements of miniaturization, modularization, and low-cost seekers, an image super-resolution(SR) reconstruction algorithm based on a pyramid dense residual network is proposed. The dense residual network is the basic framework of the proposed model. Through the dense connection layer and the residual network, the model can learn the non-linear mapping between images of different scales, and the multi-scale feature can be used to predict the high-frequency residual. In addition, using the deep supervision module to guide network training is conducive to the realization of SR reconstruction with a larger upper-sampling factor and improvements to its generalization ability. A large number of simulation results show that our proposed model outperforms comparison algorithms and that it has a high engineering application value.

SR reconstruction, lightweight, infrared image, dense residual-network, loss function, deep supervision

TP391

A

1001-8891(2021)03-0251-07

2019-05-19;

2020-03-23.

左岑(1986-),女,漢族,重慶墊江人,碩士,高級實驗師,研究方向:計算機技術、模式識別等。E-mail:xuzq1979@outlook.com。

重慶市教委課題(KJ1729409);重慶市教委教改重點項目(162072);裝備預研船舶重工聯合基金。

猜你喜歡
深度模型
一半模型
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
深度觀察
深度觀察
深度觀察
深度觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 成人av手机在线观看| 亚洲天堂免费| 中文无码精品A∨在线观看不卡 | 亚洲成aⅴ人在线观看| 国产又黄又硬又粗| 国产打屁股免费区网站| 国产无码精品在线| 久久夜夜视频| 午夜视频免费试看| 国产成人精彩在线视频50| julia中文字幕久久亚洲| 亚洲天堂区| 亚洲第一黄片大全| 国产美女精品一区二区| 国产性生大片免费观看性欧美| 亚洲中文字幕国产av| 国产第四页| av无码久久精品| 亚洲无码高清一区| 欧美特黄一级大黄录像| 亚洲中文字幕久久无码精品A| a天堂视频在线| 日韩欧美中文字幕在线韩免费| 永久成人无码激情视频免费| 青青草原国产免费av观看| 四虎国产永久在线观看| 亚洲视频免费在线| 91在线精品免费免费播放| 中文字幕亚洲乱码熟女1区2区| 亚洲色欲色欲www网| 精品国产Av电影无码久久久| 人妻丰满熟妇啪啪| 国产在线观看一区精品| 国产大片黄在线观看| AV在线天堂进入| 亚洲成a人在线播放www| 国产激情无码一区二区免费 | 午夜视频免费一区二区在线看| 中文字幕第1页在线播| 久久99久久无码毛片一区二区| 成人福利在线看| 黄色免费在线网址| аv天堂最新中文在线| 国产AV毛片| 欧美视频在线第一页| 精品久久久久成人码免费动漫| 亚洲va欧美ⅴa国产va影院| 亚洲精品无码成人片在线观看| 97久久精品人人| 夜夜高潮夜夜爽国产伦精品| av在线手机播放| 一本久道热中字伊人| 国产亚洲视频中文字幕视频| 国产精品v欧美| 免费国产高清视频| 免费看美女自慰的网站| 欧美中文字幕无线码视频| 精品色综合| 日本在线视频免费| 最新国语自产精品视频在| 亚洲欧洲日产国码无码av喷潮| 日本不卡在线| 亚洲综合狠狠| 超碰精品无码一区二区| 激情乱人伦| 国产精品3p视频| 亚洲成aⅴ人在线观看| aa级毛片毛片免费观看久| 中文字幕有乳无码| 亚洲成aⅴ人片在线影院八| 亚洲午夜国产精品无卡| 成人免费一级片| 欧美区一区| 凹凸国产分类在线观看| 亚洲成人在线免费观看| 91色国产在线| 亚洲天堂视频网站| 成人国产精品网站在线看| 国产素人在线| 国产精品自拍合集| 亚洲福利视频网址| 国产美女精品一区二区|