崔浩然 苗壯 王家寶 余沛毅 王培龍



摘 要:大氣湍流是影響遠距離成像質量的重要因素。雖然已有的深度學習模型能夠較好地抑制大氣湍流引起的圖像像素幾何位移與空間模糊,但是這些模型需要大量的參數和計算量。為了解決該問題,提出了一種輕量化的基于生成逆推的大氣湍流退化圖像復原模型,該模型包含了去模糊、去偏移和湍流再生成三個核心模塊。其中,去模糊模塊通過高維特征映射塊、細節特征抽取塊和特征補充塊,抑制湍流引起的圖像模糊;去偏移模塊通過兩層卷積,補償湍流引起的像素位移;湍流再生成模塊通過卷積等操作再次生成湍流退化圖像。在去模糊模塊中,設計了基于注意力的特征補充模塊,該模塊融合了通道注意力機制與空間混合注意力機制,能在訓練過程中關注圖像中的重要細節信息。在公開的Heat Chamber與自建的Helen兩個數據集上,所提模型分別取得了19.94 dB、23.51 dB的峰值信噪比和0.688 2、0.752 1的結構相似性。在達到當前最佳SOTA方法性能的同時,參數量與計算量有所減少。實驗結果表明,該方法對大氣湍流退化圖像復原有良好的效果。
關鍵詞:大氣湍流; 退化圖像復原; 深度學習; 注意力機制
中圖分類號:TP391?? 文獻標志碼:A?? 文章編號:1001-3695(2024)01-045-0282-06
doi:10.19734/j.issn.1001-3695.2023.07.0267
Restoration method for atmospheric turbulence degraded images based on generative inversion
Abstract:Atmospheric turbulence is a crucial factor that affects the quality of long-distance imaging. Though current deep learning models can effectively suppress geometric displacement and spatial blurring caused by atmospheric turbulence, such models require a large number of parameters and computational resources. To tackle this problem, this paper proposed a lightweight atmospheric turbulence degraded image restoration model based on generative inversion that entailed three core mo-dules: the DeBlur module, the remove shift module, and the turbulence regeneration module. The DeBlur module used high-dimensional feature mapping blocks, detail feature extraction blocks, and feature compensation blocks to suppress image blurring caused by turbulence. The remove shift module compensated for pixel displacement caused by turbulence using two convolutional layers. The turbulence regeneration module regenerated turbulence degraded images through convolutional operations. In the DeBlur module, it designed an attention-based feature compensation module that integrated the channel attention mechanism and the spatial mixed attention mechanism to focus on essential detail information in the image during training. The proposed model achieved peak signal-to-noise ratios of 19.94 dB and 23.51 dB, and structural similarity values of 0.688 2 and 0.752 1 on publicly available dataset Heat Chamber and self-built dataset Helen, respectively. Furthermore, it reduced the number of parameters and computational resources, compared to the current state-of-the-art (SOTA) method. The experimental results demonstrate the effectiveness of this method in restoring atmospheric turbulence degraded images.
Key words:atmospheric turbulence; degraded image restoration; deep learning; attention mechanism
0 引言
大氣湍流產生的原因主要受溫度與距離的影響,由于空氣中氣流的溫度、海拔、風速、霧等因素的變化,使得大氣折射率產生時空上的隨機波動,該現象導致捕獲的圖像內容出現形變扭曲和模糊[1,2]。圖像分類、目標檢測、目標跟蹤等計算機視覺領域的下游任務以及遠距離光學成像、激光雷達成像等應用都受到大氣湍流的嚴重困擾。相比于霧化、噪聲等干擾因素,大氣湍流引起的圖像幾何失真和空間模糊更難修復,亟待提出更高效的大氣湍流退化圖像復原方法。
現有針對大氣湍流退化圖像信息復原的方法可以分為基于光學處理的方法[3~5]和基于圖像處理的方法[6~11]。基于光學處理的方法通過實時監測大氣湍流的影響,利用變形鏡或變焦鏡對光線進行實時調整,從而補償大氣湍流對光線的擾動,并改善成像質量,但是該類方法大多需要昂貴的光學硬件設備,同時計算量大且操作復雜。現有的大部分基于圖像處理的方法都是基于幸運幀的思想[7~10],通過利用拍攝獲取多幀圖像中受影響較小的幀(幸運幀)來抑制湍流影響。但是幸運幀在長曝光與存在運動目標的場景下出現的概率十分低,所以這些方法很難在實際中應用。比如卷積去模糊的計算方法[6,11],都假設物體和照相機處于靜止的狀態,但在存在物體運動應用場景中的效果不理想。現有基于圖像處理的深度學習方法[12~15]針對大氣湍流引起的人臉圖像退化問題取得了很好的效果,但未能推廣到一般的場景之中。基于Diffusion[16]和Transformer[17~19]的方法在圖像復原任務中往往表現出很好的性能,但需要消耗大量的內存與計算資源。
針對以上問題,設計了一種輕量化的基于生成逆推的圖像復原模型來加速處理湍流引起的圖像退化問題,從湍流生成的角度出發來消除其對圖像質量的影響。該模型包括去模糊模塊、去偏移模塊和湍流再生成模塊。同時設計了基于注意力的特征補充模塊,該模塊融合了通道注意力機制與空間混合注意力機制,在訓練過程中關注圖像中重要的細節,達到更好的湍流退化圖像復原效果。實驗結果表明,該方法在主觀的視覺感受和定性評價指標上與當前SOTA方法相比,達到了同樣的性能,同時減少了參數量與計算量。
1 相關工作
1.1 大氣湍流圖像復原方法
光學界和計算機視覺領域在關于大氣湍流退化圖像復原方法上的研究已經有幾十年。光學界對于大氣湍流圖像復原處理主要基于自適應光學元器件的補償方法,如相干光自適應(coherent optical adaptive)[3]和基于波前時域譜(wave-front temporal spectra)[4]方法。但是此類方法大多需要昂貴的物理器件,成本很高。計算機視覺領域的傳統方法大多基于幸運區域多幀成像的策略[6~11],這些方法利用每幀中被湍流影響最小的區域來融合一張干凈銳利的圖像,但是在長曝光的情況下,運動模糊使得幸運區域減少,這些方法就不再適用了。現階段隨著人工智能的發展,出現了許多基于深度學習方法的大氣湍流退化圖像復原方案。Yasarla等人[12,13]利用基于CNN的方法來重建湍流退化的圖像,提出了Monte Carlo[13]的手段幫助網絡訓練。Lau等人[14]采用GAN的方法,設計了三個生成器分別用來去模糊、去變形、融合圖像,并配有判別器來幫助重建圖像。最近,Mao等人[17]提出一種基于Transformer模型的大氣湍流圖像復原網絡架構,同時利用湍流的物理特性來訓練網絡,但是該模型需要大量的參數參與計算,將消耗大量計算資源。同樣地,文獻[15,16,18,19]中也存在計算量大,難以訓練的問題。
1.2 用于圖像處理的注意力
注意力機制的思想是關注神經網絡訓練過程中更重要的信息。Hu等人[20]最早提出SENet(squeeze-and-excitation networks),針對特征通道的關系,根據損失來學習特征權重。Woo等人[21]進一步提出了通道融合空間的注意力機制。為了提升文本序列中的交互關系,Vaswani等人[22]提出了多頭注意力機制,同時該方法在計算機視覺上也有所應用。圖像復原任務中,鄔開俊等人[23]在UNet中的每一層編碼器和解碼器之間增加了改進之后的注意力機制來更好地復原大面積破損區域。Qin等人[24]設計了融合通道與像素注意力機制模塊實現去霧任務。Li等人[25]基于Transfomer的架構提出條紋自注意力來實現特征全局依賴,但在Transfomer所提及的結構中,對圖像進行自注意力操作時,需要大量的參數量進行計算。Chen等人[26]發現在圖像復原領域,簡單的通道注意力機制就可以實現Transfomer長程依賴的效果。因此本文提出了基于注意力的特征補充模塊,訓練時主要關注圖像中重要的細節信息,對背景等低頻信息賦予較小的權重。
2 基于生成逆推的大氣湍流圖像復原方法
2.1 湍流退化過程建模
大氣湍流造成圖像內容產生幾何形變與模糊,在假設場景與成像傳感器為靜止的情況下,由大氣湍流所引起的圖像退化建模過程可表示為
xt=f(xc)+n(1)
f(·)=bg(2)
其中:f(·)表示湍流退化函數;n表示噪聲。湍流退化函數f由像素幾何位移函數g(·)和模糊卷積函數b(·)聯合構成。給定一幅干凈圖像xc,經過函數f操作(依次經過像素幾何位移函數g的操作和模糊卷積函數b的操作),再疊加噪聲n,則生成大氣湍流退化后的圖像xt。根據上述退化建模過程可知,要想將退化后的xt還原為退化前的xc,則需要構建像素幾何位移函數g(·)和模糊卷積函數b(·)的逆函數g-1(·)和b-1(·),并通過xc=g-1(b-1(xt-n))將湍流退化圖像xt復原為干凈圖像xc。不幸的是,現實中幾何位移函數g(·)和模糊卷積函數b(·)的操作雖然可以數學建模,但是逆過程的操作很顯然無法實現唯一復原,因此擬采用深度卷積神經網絡手段近似擬合逆函數g-1(·)和b-1(·)的過程,并基于大數據學習這一映射過程參數。
2.2 基于生成逆推的大氣湍流退化圖像復原模型
為了有效地抑制大氣湍流在成像過程中對圖像造成的退化,基于2.1節的分析,設計并提出了一種基于生成逆推的大氣湍流退化圖像復原模型(atmospheric turbulence degraded ima-ge restoration model based on generative inversion propagation,ATDIR)。如圖1所示,該模型主要包括去模糊模塊(deblur module,DBM)、去偏移模塊(remove shift module,RSM)和湍流再生成模塊(turbulence regeneration module,TRM)。其中,DBM模塊用于近似擬合模糊卷積函數b(·)的逆操作b-1(·),RSM模塊用于近似像素位幾何移函數g(·)的逆操作g-1(·),TRM模塊利用逆推的思想來模擬大氣湍流生成的過程,輔助神經網絡的學習。給定一幅湍流退化圖像xt,經過DBM和RSM模塊可以得到復原圖像x′c,其中經過DBM模塊的中間結果經過TRM模塊,可以再次生成模擬湍流退化的圖像x′t。通過在x′c與xc、x′t與xt之間增加監督損失,可監督模型從數據中進行參數的有效學習。
2.2.1 去模糊模塊DBM
去模糊模塊的目的就是讓受湍流影響的圖像細節更清晰,該模塊采用已有的圖像去模糊方法[24]進行設計,利用基于CNN的深度殘差網絡結構,其中局部的殘差連接允許低頻信息傳輸至深層,與經過神經網絡去模糊重構的信息融合得到干凈圖片。不過,為了處理這種不同于一般情況下導致的模糊,本文設計了能更有效適配湍流的去模糊模塊,且與后續去偏移模塊聯合進行湍流的抑制。如圖1所示,該模塊包括一個基本的高維特征映射塊(high-dimensional feature mapping block,HFMB)、三組由殘差模塊構建的細節特征抽取塊(fine-grained feature extraction block,FFEB),以及一個基于注意力的特征補充塊(attention-based feature compensation block,AFCB)。給定一幅湍流退化圖像xt,依次經過HFMB、FFEB和AFCB的處理,輸出模糊圖像補充特征Fb。
1)HFMB 如圖1所示,高維特征映射模塊GH僅由一個卷積層組成。給定圖像xt∈RAp3×H×W,則輸出高維特征F0b∈RApC×H×W,計算過程為
其中:W0∈RAp3×C×3×3為卷積操作的卷積核參數; C為特征通道數;H為圖像高度;W為圖像寬度。為了保持處理前后圖像尺寸不變,3×3卷積核步長為1,且padding為1。
2)FFEB 如圖1所示,該模塊由三個具有跳接結構的基本組塊構成,前一個組塊的輸出作為后一個組塊的輸入,依次計算,對應輸出的特征為
Fib=GiF(Fi-1b) i=1,2,3(4)
其中:每個組塊GiF又由六個類似殘差塊結構{gij}6j=1組成,前一個結構的輸出作為后一個組塊的輸入,依次計算。具體地,每個結構如圖2所示,給定輸入特征Fi,j-1b,先經過一個卷積層和ReLU激活層,與輸入特征加和后,再經過一個卷積層和一個基于注意力的特征補償塊GA,對應輸出的特征Fi,jb,整個計算過程如下:
其中:Wi,j1∈RApC×C×3×3、Wi,j2∈RApC×C×3×3分別為兩個卷積操作的卷積核參數;C為特征通道數;δ(·)表示ReLU激活函數;GA(·)表示AFCB模塊操作過程。通過上述類似殘差模塊結構的跨層連接,可以使得模型直接學習退化圖像的細節,降低模型參數學習訓練難度。
3)AFCB 如圖1所示,該模塊由通道注意力(channel attention,CA)和空間混合注意力(spatial mixed attention,SMA)聯合構成。
2.2.2 基于注意力的特征補充塊AFCB
圖3展示了AFCB模塊的內部結構,該模塊提高了深度殘差網絡的表現力和處理不同信息時的靈活性。該模塊主要分為通道注意力與空間混合注意力兩個步驟。
1)通道注意力計算過程 CA將每個通道特征圖壓縮為一個值作為通道的注意力權重,并與原通道特征圖進行乘積加權。給定輸入特征Fin∈RApC×H×W,首先,對特征圖的每個通道執行全局均值池化操作:
其中:Fin(c,a,b)表示Fin在通道c、位置(a,b)上的值;輸出fmid∈RApC×1×1為一個通道數為C的一維特征。
然后,計算權重:
其中:w1ca∈RAp3×1×1和w2ca∈RAp3×1×1為一維卷積核參數,卷積步長和padding均為1;δ(·)表示ReLU激活函數;σ(·)表示sigmoid函數;輸出wca∈RApC×1×1表示為不同通道賦予不同的權重。
最后,對輸入特征Fin進行元素級點乘操作,得到通道加權的輸出為
2)空間混合注意力計算過程 SMA將每個空間位置上不同通道的特征值壓縮為一個權重,并與原通道特征圖進行乘積加權。給定輸入特征Fmid∈RApC×H×W,首先,對Fmid分別在通道維執行最大值池化與平均值池化的操作:
其中:Fin(c,a,b)表示Fin在通道c、位置(a,b)上的值;輸出favg∈RAp1×H×W和fmax∈RAp1×H×W為二維特征。
然后,計算權重:
其中:fcat=[favg;fmax]∈RAp2×H×W為通道級的平均值特征favg和最大值特征fmax拼接后的特征;w1sma∈RAp2×1×3×3和w2sma∈RAp1×1×3×3為二維卷積核參數,卷積步長和padding均為1;δ(·)表示ReLU激活函數;σ(·)表示sigmoid函數,輸出wsma∈RAp1×H×W表示為不同空間位置賦予不同的權重。
最后,對輸入特征Fmid進行元素級點乘操作,得到空間加權的輸出為
2.2.3 去偏移模塊RSM
RSM模塊的目的是用來抑制大氣湍流對圖像造成的像素偏移,用卷積神經網絡的手段來近似擬合像素幾何位移函數的逆變換g-1(·)。如圖1所示,RSM模塊由兩個卷積層和殘差連接傳輸的低層圖像信息組成。湍流退化圖像xt經過DBM后輸出模糊圖像補充特征Fb∈RApC×H×W,再經過RSM模塊后得到最終的干凈圖像xc。具體計算過程為
其中:Wr∈RApC×3×3×3為第一層卷積操作的卷積核參數;Wf∈RAp3×3×3×3為第二層卷積操作的卷積核參數;C為特征通道數;H為圖像高度;W為圖像寬度。為了恢復原始通道大小且保持圖像尺寸不變,3×3卷積核步長為1,且padding為1。在ATDIR訓練的過程中,網絡通過學習不斷地更新卷積參數,以矯正幾何像素位移給圖像帶來的影響,從而達到去偏移的效果。
2.2.4 湍流再生成模塊TRM
為了逆推湍流形成的過程,如圖1所示,利用自監督學習的思想設計了湍流再生成模塊TRM。TRM模塊由通道恢復卷積和湍流抑制后的干凈圖像x′c組成。湍流退化圖像xt經過DBM后輸出模糊圖像補充特征Fb∈RApC×H×W。首先,經過一層通道恢復卷積得到模擬湍流效應的特征圖xfm:
接著,與經過DBM與RSM后得到的重建干凈圖像x′c進行像素相乘操作,再次生成模擬湍流退化的圖像x′t:
最后,模擬湍流退化圖像與真實場景中的湍流退化圖像xt之間增加監督損失,逆推真實湍流生成的過程,輔助ATDIR的訓練。
2.2.5 湍流退化圖像復原模型的監督學習損失
假設輸入湍流退化圖像xt,其對應的無湍流圖像xc,經模型輸出的復原圖像x′c和生成的模擬湍流退化圖像x′t,則在x′t與xt、x′c與xc之間增加監督學習損失,具體損失采用平滑L1損失[27],計算過程如下:
LAp=αLApsupervised_loss+(1-α)LApself_loss(16)
其中:LApsupervised_loss=LApsmooth_L1(xc,x′c)計算的是復原的x′c與ground truth xc之間的損失,最小化該損失的目的是使湍流退化圖像可以逼近真實無湍流的圖像;LApself_loss=LApsmooth_L1(xt,x′t)負責計算模擬湍流退化圖像x′t與真實湍流退化圖像xt之間的損失,最小化該損失的目的是讓模型學習到可有效逆推建模湍流生成過程。實驗中,平衡兩種損失的權重α設為0.9。
3 實驗結果及分析
3.1 實驗設置
1)數據集 在公開的Heat Chamber[17]數據集和自制的Helen[28]數據集上評估本文方法。自制的Helen數據集包含2 300張干凈的人臉數據,使用文獻[29]的方法來合成湍流退化后的人臉圖像。Heat Chamber數據集是真實場景下拍攝的,包含200個場景的18 000張圖像。該數據集通過改變溫度與距離兩個因素來拍攝真實的湍流退化圖像。
2)參數設置 在兩塊NVIDIA RTX 3090 GPU上使用PyTorch 1.11.0實現ATDIR。采用Adam優化器[30]優化網絡參數,其參數設置為默認值。將初始學習率設置為0.000 1,使用余弦退火策略對學習率進行調整。訓練與測試時將批量大小設置為2,在合成人臉數據集上訓練20代,在合成的52 700對真實場景數據集中訓練50代。
3)對比方法與評估指標 將ATDIR與基于CNN的方法(TDNR[12]、MPRNet[31]、MTRNN[32]),和目前主流的基于Transformer的方法(Restormer[18]、UFormer[19]、TurbNet[17])相比較。采用圖像評估中的指標峰值信噪比(peak signal-to-noise ratio,PSNR)和結構相似度(structural similarity index,SSIM)。PSNR是基于像素點之間的誤差,數值越大代表失真的效果越小。SSIM是兩張圖像之間相似性的度量,其數值為[0,1],數值越大表示圖像之間相似性越高,在此可用于反映復原后的圖像與干凈圖像的結構相似性。
3.2 實驗結果分析
為了驗證本文方法的優越性,在Heat Chamber數據集上進行評估,結果如表1所示。表1展示了基于CNN與基于Transfomer的幾種主流圖像復原方法的PSNR與SSIM值,同時對比了不同方法之間的參數量和乘加累積操作數(multiply-accumulate operations,MACs)。
從結果可以發現,基于CNN的方法中,PSNR與SSIM指標中最優方法的MPRNet為18.68 dB與0.657 7,較TDNR分別提升了0.26 dB和0.015 3。在總參數量與GMACs的評估指標中,基于CNN的最優方法的TDNR分別消耗了0.992 M的參數量與72.91 G的計算量,較MPRNet分別減少了2.648 M與17.76 G。ATDIR與上述基于CNN的方法相比,PSNR、SSIM和GMACs指標均有所提升。ATDIR與MPRNet相比,PSNR與SSIM分別提升了1.28 dB與0.030 5,并且在總參數量與GMACs上分別減少了2.17 M與31.76 G。同時,ATDIR較參數量取得最優的TDNR,PSNR與SSIM分別提升了1.54 dB與0.045 8,MACs減少14.00 G,而總參數量僅多出了0.478 M。
在基于Transfomer的幾種主流圖像復原方法中,TurbNet在PSNR與SSIM指標中取得了最優效果,分別為19.94 dB與0.693 4,較其中的次優方法UFormer分別提高了0.82 dB與0.009 4,比Restormer分別提高了0.93 dB與0.007 7。Restormer在基于Transfomer的方法中消耗了最少的總參數量與MACs,分別為26.13 M與86.05 G,較UFormer分別減少了24.75 M與3.41 G,較TurbNet分別減少了0.47 M與18.91 G。
與所有方法對比中,在PSNR指標上,ATDIR取得了最好的性能19.96 dB。在SSIM指標上,ATDIR取得了次優性能,比TurbNet僅僅低了0.005 2。在總參數量上,ATDIR消耗了1.47 M的內存容量,比最優方法TDNR僅多出了0.478 M,但是在PSNR、SSIM和GMACs指標中遠高于TDNR和其他基于CNN的方法。在計算量上,本文方法也取得了最優性能。雖然TurbNet在SSIM和PSNR指標中分別取得了最優與次優的效果,但是其開銷所需的參數量是ATDIR的18倍,計算量是ATDIR的1.8倍。綜合來看,ATDIR在湍流抑制的同時,在性能上也表現出了很好的效果。
為了驗證ATDIR對圖片中重要信息的恢復能力,本文對比了在PSNR上表現最優的TurbNet和ATDIR,部分結果如圖4所示。其中第一行代表干凈的圖像,第二行代表湍流退化后的圖像,第三行是TurbNet對湍流退化圖像復原效果,第四行是ATDIR對湍流退化圖像復原效果。由圖4中方框所選部分的細節可知,在第一列飛機圖片的車輪陰影處和第三列飛機的尾翼處,ATDIR明顯比TurbNet有著更好的去模糊與去偏移效果。在第二列和第四列圖的建筑中方框所選部分,ATDIR復原了建筑物關鍵細節信息。盡管TurbNet有著很好的全局圖片復原效果,但是在細節處復原的圖像信息并沒有ATDIR多,例如在第五列圖片中的風車扇葉中,ATDIR在紅框中所復原的細節信息比TurbNet多(參見電子版)。
為了驗證ATDIR的魯棒性,本文在自制的Helen與Heat Chamber 數據集上進行測試。圖5中給出了本文方法對湍流退化圖進行復原的效果圖,其中第一行代表湍流擾動后的圖片,第二行表示經過ATDIR復原后的湍流退化圖像。在前三列的建筑物場景中,ATDIR很好地抑制了由湍流引起的模糊與像素位移,復原的圖像中突出了建筑的邊緣輪廓與關鍵信息細節。在后三列的人臉湍流圖像中,ATDIR復原了人臉中的五官特征和面部表情信息,整體提高了圖片的視覺質量。ATDIR可以更準確地復原湍流模糊圖像中的細節和紋理,從而使修復的圖像質量更高。此外,ATDIR對于噪聲和其他圖像偽影也更具魯棒性。因此,ATDIR是一種非常有潛力的圖像復原方法,適用于各種湍流環境下的圖像復原和相關領域的研究。
為了驗證本文AFCB與TRM的作用,在自制的Helen與Heat Chamber數據集中進行了消融實驗。第一個實驗,ATDIR-AFCB表示在殘差結構中去除AFCB模塊,第二個實驗,ATDIR-TRM表示去除湍流再生成模塊TRM。實驗結果如表2所示。
在去除這兩個模塊后,模型的性能均有所下降。在第一個實驗ATDIR-AFCB中,在自制的Helen與Heat Chamber數據集中,PSNR分別下降了0.19 dB、0.28 dB,在SSIM上分別下降了0.003、0.006 2,這說明AFCB模塊使網絡聚焦圖像中的重要信息更好地復原了湍流退化后的圖像。在第二個實驗ATDIR-TRM中,在自制的Helen與Heat Chamber數據集中,PSNR分別下降了0.1 dB、0.13 dB,在SSIM上分別下降了0.001 3、0.009 5,實驗結果表明TRM對網絡的訓練必不可少,該模塊通過模擬湍流生成來提高模型的泛化能力。
4 結束語
針對大氣湍流對成像的影響,提出了一種輕量化的基于生成逆推的大氣湍流退化圖像復原模型。為了使模型在訓練過程中更加聚焦圖像中的關鍵信息,設計了一個基于注意力的特征補充模塊。同時利用湍流再生成模塊輔助訓練,進一步提升了模型抑制湍流的性能。實驗表明,本文方法能減輕圖像的像素幾何位移和空間模糊,提高了復原后圖像的視覺質量。今后的工作中,希望在提升網絡復原湍流退化圖像性能的同時獲得分辨率更高的圖像。
參考文獻:
[1]徐斌,葛寶臻,呂且妮,等.基于二次二維經驗模態分解去噪的湍流退化圖像復原算法[J].計算機應用研究,2020,37(5):1582-1586.(Xu Bin, Ge Baozhen, Lyu Qieni, et al. Turbulence-degraded image restoration algorithm based on twice bi-dimensional empirical mode decomposition denoising[J].Application Research of Computers,2020,37(5):1582-1586.)
[2]Tatarski V I. Wave propagation in a turbulent medium[M].[S.l.]:Courier Dover Publications,2016.
[3]Pearson J E. Atmospheric turbulence compensation using coherent optical adaptive techniques[J].Applied Optics,1976,15(3):622-631.
[4]Conan J M, Rousset G, Madec P Y. Wave-front temporal spectra in high-resolution imaging through turbulence[J].Journal of the Optical Society of America A,1995,12(7):1559-1570.
[5]Diament P, Teich M C. Photodetection of low-level radiation through the turbulent atmosphere[J].Journal of the Optical Society of America A,1970,60(11):1489-1494.
[6]Metari S, Deschenes F. A new convolution kernel for atmospheric point spread function applied to computer vision[C]//Proc of the 11th International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2007:1-8.
[7]Lau C P, Lai Y H, Lui L M. Restoration of atmospheric turbulence-distorted images via RPCA and quasiconformal maps[J].Inverse Problems,2019,35(7):074002.
[8]Hirsch M, Sra S, Schlkopf B, et al. Efficient filter flow for space-variant multiframe blind deconvolution[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2010:607-614.
[9]Anantrasirichai N, Achim A, Kingsbury N G, et al. Atmospheric turbulence mitigation using complex wavelet-based fusion[J].IEEE Trans on Image Processing,2013,22(6):2398-2408.
[10]Mao Z, Chimitt N, Chan S H. Image reconstruction of static and dynamic scenes through anisoplanatic turbulence[J].IEEE Trans on Computational Imaging,2020,6:1415-1428.
[11]Zhu X, Milanfar P. Removing atmospheric turbulence via space-invariant deconvolution[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2012,35(1):157-170.
[12]Yasarla R, Patel V M. Learning to restore a single face image degra-ded by atmospheric turbulence using CNNs[EB/OL].(2020-07-16).https://arxiv.org/abs/2007.08404.
[13]Yasarla R, Patel V M. Learning to restore images degraded by atmospheric turbulence using uncertainty[C]//Proc of IEEE International Conference on Image Processing.Piscataway,NJ:IEEE Press,2021:1694-1698.
[14]Lau C P, Castillo C D, Chellappa R. ATFaceGAN: single face semantic aware image restoration and recognition from atmospheric turbulence[J].IEEE Trans on Biometrics,Behavior,and Identity Science,2021,3(2):240-251.
[15]劉洪瑞,李碩士,朱新山,等.風格感知和多尺度注意力的人臉圖像修復[J].哈爾濱工業大學學報,2022,54(5):49-56.(Liu Hong-rui, Li Shuoshi, Zhu Xinshan, et al. Face image restoration with style perception and multi-scale attention[J].Journal of Harbin Institute of Technology,2022,54(5):49-56.)
[16]Nair N G, Mei K, Patel V M. AT-DDPM:restoring faces degraded by atmospheric turbulence using denoising diffusion probabilistic models[C]//Proc of IEEE/CVF Winter Conference on Applications of Computer Vision. Piscataway,NJ:IEEE Press,2023:3434-3443.
[17]Mao Zhiyuan, Jaiswal A, Wang Zhangyang, et al. Single frame atmospheric turbulence mitigation:a benchmark study and a new physics inspired transformer model[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2022:430-446.
[18]Zamir S W, Arora A, Khan S, et al. Restormer: efficient Transfor-mer for high-resolution image restoration[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:5728-5739.
[19]Wang Zhendong, Cun Xiaodong, Bao Jianmin, et al. UFormer: a general U-shaped transformer for image restoration[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:17683-17693.
[20]Hu Jie, Shen Li, Albanie S. Squeeze-and-excitation networks[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Re-cognition.Piscataway,NJ:IEEE Press,2018:7132-7141.
[21]Woo S, Park J, Lee J Y, et al. CBAM: convolutional block attention module[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2018:3-19.
[22]Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Proc of the 31st Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2017:6000-6010.
[23]鄔開俊,單宏全,梅源,等.基于注意力和卷積特征重排的圖像修復[J].計算機應用研究,2023,40(2):617-622.(Wu Kaijun, Shan Hongquan, Mei Yuan, et al. Image restoration based on attention and convolution feature rearrangement[J].Application Research of Computers,2023,40(2):617-622.)
[24]Qin Xu, Wang Zhilin, Bai Yuanchao, et al. FFA-Net:feature fusion attention network for single image dehazing[C]//Proc of AAAI Conference on Artificial Intelligence.Palo Alto,CA:AAAI Press,2020:11908-11915.
[25]Li Yawei, Fan Yuchen, Xiang Xiaoyu, et al. Efficient and explicit modelling of image hierarchies for image restoration[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2023:18278-18289.
[26]Chen Liangyu, Chu Xiaojie, Zhang Xiangyu, et al. Simple baselines for image restoration[C]//Proc of the 17th European Conference on Computer Vision.Berlin:Springer,2022:17-33.
[27]Girshick R. Fast R-CNN[C]//Proc of IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2015:1440-1448.
[28]Le V, Brandt J, Lin Zhe, et al. Interactive facial feature localization[C]//Proc of the 12th European Conference on Computer Vision.Berlin:Springer,2012:679-692.
[29]Mao Zhiyuan, Chimitt N, Chan S H. Accelerating atmospheric turbulence simulation via learned phase-to-space transform[C]//Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2021:14759-14768.
[30]Kingma D P, Ba J. Adam: a method for stochastic optimization[EB/OL].(2017-01-30).https://arxiv.org/abs/1412.6980.
[31]Zamir S W, Arora A, Khan S, et al. Multi-stage progressive image restoration[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:14821-14831.
[32]Park D, Kang D U, Kim J, et al. Multi-temporal recurrent neural networks for progressive non-uniform single image deblurring with incremental temporal training[C]//Proc of the 16th European Confe-rence on Computer Vision.Berlin:Springer,2020:327-343.
[33]He Kaiming, Zhang Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:770-778.