宋東翰,王斌,朱友強,劉鑫
(1.中國科學院 長春光學精密機械與物理研究所,吉林 長春 130033;2.中國科學院大學,北京 100049;3.拉彭蘭塔-拉赫蒂理工大學 工程科學學院計算機視覺與模式識別實驗室,芬蘭 拉赫蒂 15210)
在光學成像系統中,空間帶寬積(Space Band width Product,SBP)[1]表示系統傳遞信息的能力。然而高分辨率和大視場在光學成像系統中相互制約[2],使得高空間帶寬積的成像需求難以滿足。傳統的解決方法是通過機械設備移動高數值孔徑(Numerical Aperture,NA)的透鏡,獲取物體不同區域的高分辨率信息[3],并利用算法進行圖像拼接,實現高空間帶寬積的成像。但此方法對設備的精度要求高、成本高昂、成像速度慢。傅里葉疊層成像(Fourier Ptychography,FP)[4]是一種兼顧高分辨率和大視場的計算成像技術。在傅里葉疊層顯微成像(Fourier Ptychography Microscope,FPM)[5]中,LED陣列提供角度變化的平面波對物體進行照明,將超過光學系統衍射極限的頻域信息轉移至顯微物鏡內,得到一系列低分辨率圖像。最后通過相位恢復算法,將低分辨率圖像包含的信息在頻域中拼接、融合,重建出物體的高分辨率、大視場復圖像。該技術已在數字成像、生物顯微等領域被廣泛研究與應用[6-8]。
盡管FP技術已經發展了近10年,但是依然面臨兩個問題:一是采樣效率低。在FP的重建過程中,樣本頻譜上相鄰子孔徑間需要存在一定程度的重疊,才能保證最終的頻譜收斂。如果不存在重疊,則采集的圖像間毫無聯系,最終會導致相位恢復問題的固有模糊性[9]。因此,高重疊率的低分辨率圖像集是FP高質量重建的基礎。二是重建效率低。FP的重建算法是在空間域和頻域內對樣本的振幅和相位信息進行交替更新,收斂速度較慢,算法迭代時間長。為了彌補以上缺陷,目前多項研究成果被提出。在提升采樣效率方面,Jason等[10]將相機陣列引入宏觀FP成像系統中,可以同時采集所有低分辨率樣本,但成像系統過于復雜,設計困難。Tian等[11]對FPM成像系統的LED點光源進行編碼控制,每次采樣時隨機使用多個LED照明,大幅度降低了采樣次數。然而其重建算法是基于二階梯度的序列更新并且需要對采集圖像進行低分辨率圖像解耦,復雜度高、運行時間長。Kappeler等[12]結合深度學習的方法,嘗試降低FP采樣中的孔徑重疊率。但由于提出的模型只包含3層卷積,因此難以提取精細的特征信息,重建效果不理想。此外,在加快重建速度方面,Bian等[13]設計的Wirtinger flow優化法,在重建過程中舍棄部分高頻信息以提升算法運行效率。Zhang等[14]提出的多尺度深度殘差網絡,采用端對端的模型實現快速重建。Jiang等[15]利用神經網絡的反向傳播機制求解樣本的高分辨率復振幅,加速了傳統算法的迭代過程。雖然這些方法都從不同程度上減少了重建時間,但都需要采集大量的樣本,采樣效率低。
隨著近年來人工智能科學的快速發展,神經網絡算法已經在光學成像的多個領域被廣泛應用[16-18]。在一定的成像條件下,神經網絡模型可以通過大量的訓練數據,學習輸入和輸出圖像之間的映射關系,能夠快速且準確地處理圖像信息。因此,本文提出基于多尺度特征融合的FP成像算法(Fourier Ptychography Based on Multi-feature Fusion Network,FPMFN),利用深度學習中的特征金字塔模塊[19],從FP采樣的多張低分辨率圖像中提取不同尺度的特征信息。為了確保特征信息的準確性和完整性,加入稠密連接[20]以增強信息在網絡間的流動,并且引入通道注意力機制[21],使網絡更好地分配高低頻信息的訓練權重。特征金字塔模塊的解碼器部分能夠將不同尺度的特征信息進行融合,采用亞像素卷積[22]完成圖像從低分辨率到高分辨率的轉變。通過不同孔徑重疊率下的對比實驗,驗證了在孔徑重疊率相同時,FPMFN比傳統算法有更好的重建效果,而且重建速度更快。FPMFN在25%重疊率時的重建結果能夠媲美傳統算法在50%重疊率時的結果。實驗結果表明,本文算法能有效減少重建所需的樣本數,提升采樣的效率,并大幅減少重建所需的時間。
FP計算成像方法由成像過程和重建過程組成。典型的FP成像模塊如圖1所示,樣品與LED陣列的距離足夠遠,因此不同角度的入射波可以近似地視為平面波。樣品的出射場經過透鏡傳輸,被圖像傳感器(Charge Coupled Device,CCD)接收,輸出低分辨率強度圖像。最后經過重建過程,將低分辨率強度圖像恢復為高分辨率復圖像。

圖1 FP的成像模塊裝置圖Fig.1 Imaging module diagram of FP
在成像過程中,使用復振幅分布o(r)表示樣品,其中r=(x,y)是空間域的二維坐標。在第m個LED點光源照明的條件下,樣品的出射場為o(r)·exp(ikmr)。其中“·”表示點乘,k=表示照明光源的入射波矢。經過傅里葉變換,能夠獲得樣品出射場的頻譜,此過程表示為:

式中:F為傅里葉變換運算符,k=(kx,ky)為傅里葉域的二維坐標。經過物鏡時,透鏡會對樣品頻譜進行低通濾波,最終CCD接收的低分辨率圖像可以表示為:

式中:Im(r)為CCD平面接收到的強度信息,F-1為傅里葉逆變換運算符,P(k)為物鏡的相干傳遞函數(Coherent Transfer Function,CTF),可以表示為:

交替投影法(Alternate Project,AP)是經典的FP重建算法,圖2為算法的重建流程。

圖2 FP重建流程圖Fig.2 Flowchart of FP reconstruction
以AP算法為基準的FP圖像重建流程如下:
(1)使用中心位置的LED作為照明光源,采集低分辨率圖像并進行上采樣處理。處理后的圖像經過傅里葉變換后得到高分辨率頻譜O0(k),作為初始估計解。當迭代進行至第j輪,高分辨率頻譜表示為Oj(k)。
(2)選擇第m個LED照明樣品,得到此時低分辨率的傅里葉頻譜為:

Om,j(k)經過逆傅里葉變換得到空間域的低分辨率圖像om,j(r)=F-1{Om,j(k)}。
(3)不改變Om,j(k)的相位信息,用CCD采集的低分辨率強度圖像Im(r),更新Om,j(k)的振幅,表示為:

(4)振幅更新后,將當前照明條件下子孔徑區域內的頻譜替換為

(5)重復上述(2)~(4)的過程,直到LED陣列中所有光源完成照明。
(6)重復上述(2)~(5)的過程,直到完成所有迭代輪次,將最后更新的頻譜逆傅里葉變換至空域獲取高分辨率復圖像。
現有的FP神經網絡大多通過單層的特征信息變換實現輸入與輸出圖像之間的映射求解。這種網絡結構對高頻信息的關注度較低,需要從大量的低分辨率圖像中提取充足的高頻信息。因此,本文基于深度學習中的特征金字塔網絡,結合稠密連接、通道注意力(Channel Attention,CA)模塊和亞像素卷積(Sub-Pixel Convolution,SP-Conv),提出一種多尺度特征融合的FP神經網絡。網絡為串行的跳層連接結構,利用卷積層在不同的感受野下提取并融合多尺度的特征信息。神經網絡的輸入為多張低分辨率強度圖像,最終輸出是單張高分辨率復圖像。
為了獲取網絡的輸入,需要先在訓練集中隨機選擇樣本的振幅圖像IG和相位圖像φG,合成復圖像CG。經過FP的成像模塊,得到低分辨率圖像集IL,m。如圖3所示,網絡整體由淺層卷積模塊、特征金字塔模塊、上采樣模塊以及重建模塊組成。網絡結構如下:

圖3 本文提出的網絡模型結構圖Fig.3 Structure diagram of the proposed network model
首先將IL,m輸入淺層卷積模塊,而淺層卷積模塊中包含兩個卷積層:第一個1×1卷積層將輸入數據的通道數進行壓縮,減少神經網絡的參數量和后續卷積核的尺寸,提高神經網絡的訓練效率;第二個3×3卷積層可以從壓縮后的數據中生成含有粗略信息的特征圖。
從淺層卷積模塊的輸出中提取振幅和相位信息,輸入至特征金字塔模塊。該模塊分為編碼器和解碼器。在編碼器中,多層的稠密連接通道注意力(Densely connected with channel attention,DCCA)模塊進行疊加,自底向頂地提取不同尺度的特征圖,采樣尺度因子為2,每層特征圖的行列分辨率都是前一層的1/2。頂層的特征圖經過了更深層的卷積神經網絡,因此包含豐富的語義信息,但位置信息是不準確的;相反,準確的位置信息需要從底層的特征圖中獲取。為了盡可能完整地利用特征信息,編碼器中每一層的特征圖都會經過1×1卷積。在解碼器中,按位相加進行融合,不同特征圖的尺度對齊通過雙三次插值上采樣實現。
解碼后的全局特征圖需要進行超分辨處理,達到與CG相同的尺寸。常見的上采樣選擇有插值上采樣、反卷積上采樣等,為了實現更有效的超分辨,參考高效亞像素卷積神經網絡(Efficient Sub-Pixel Convolutional Neural Network,ESPCNN)[22]。本文選用計算量更小且超分性能更佳的SP-Conv對全局特征圖進行上采樣,通過2次亞像素卷積,最終達到4倍上采樣的效果。
最后使用一個3×3卷積層作為重建模塊,完成特征圖到高分辨率復圖像CH的轉變。整體的神經網絡以輸出的CH盡可能接近CG為目標進行訓練。
常見的卷積神經網絡通常選擇多個卷積層疊加的設計,以此提升網絡提取特征的能力。這種方式需要依賴大量的數據進行訓練,且模型的參數量龐大。因此,本文提出DCCA模塊,通過加強卷積層之間的聯系,提高特征信息的利用率,獲取高質量的重建效果。模塊包含兩個部分:稠密連接層和CA模塊,如圖4所示。

圖4 稠密連接通道注意力模塊Fig.4 Densely connected channel attention module
稠密連接層能夠使特征和梯度信息在卷積層之間更加有效地傳遞。局部特征信息通過卷積和非線性激活函數Relu后,與之前所有層提取的特征信息進行融合作為當前卷積層的輸入,有效提高網絡的泛化能力,同時避免了梯度消失的問題。
假設Qn表示第n層的卷積和激活函數運算,該層的輸出為:

本文通過消融實驗確定神經網絡對4種不同尺度的特征圖進行提取和融合時的重建效果最好,因此設置特征金字塔模塊的編碼器部分由4層DCCA組成。考慮到深層的稠密連接會造成計算復雜度過高,不利于整個神經網絡的訓練與測試,本文選用5個卷積層和1個CA模塊共同組成單個DCCA模塊。DCCA的稠密連接層能從粗略的特征圖中提取更詳細的特征信息,不同的高低頻分量信息被儲存在不同的通道。由于低頻特征更容易被神經網絡表達,因此均勻分配特征通道的權重會降低神經網絡對高頻特征的重建質量。為了增強對特征通道權重的分配能力,在稠密連接層之后設置了CA模塊,使神經網絡在訓練的過程中自適應地調整不同特征通道的權重,從而提升對高頻特征信息的關注。模塊整體采用殘差結構對輸入和CA模塊的輸出進行連接,提升信息在模型內部的流動,改善網絡的映射能力,同時可以確保在多個卷積疊加的過程中,網絡不會因為復雜的結構而產生退化。最后經過一個3×3卷積和激活函數,得到DCCA的輸出。
CA模塊包含5部分:全局池化層、特征通道壓縮層、特征通道擴張層、Relu非線性激活層和Sigmoid非線性激活層,模塊結構如圖5所示。形狀為H×W×C的特征張量首先經過全局池化層,在H和W的維度上被壓縮為1×1×C的向量,這種形式有利于在通道維度上計算權重。接著用1×1的卷積在通道維度上進行壓縮,假設壓縮系數為t(t<1),壓縮后的向量形狀變為1×1×tC。經過激活函數Relu后,再通過第二個1×1卷積進行通道擴張,形狀恢復為1×1×C。然后通過激活函數Sigmoid,將不同通道的權重系數用(0,1)的數值表示。最后對原始的特征張量按權重系數進行通道維度的加權分配。

圖5 通道注意力模塊Fig.5 Channel attention module
對于本文提出的神經網絡,1×1尺寸的卷積核應用于淺層卷積模塊中輸入特征的通道壓縮、特征金字塔模塊中編解碼器的橫向連接以及CA模塊中的通道壓縮和擴張。網絡中的其他卷積核的尺寸都為3×3。淺層卷積模塊、DCCA模塊的稠密鏈接層、重建模塊在進行3×3卷積計算前,對輸入做0數值填充處理,以此維持特征圖的尺寸。網絡的輸入和輸出都是單通道的灰度圖像,但同樣適用于彩色圖像的重建任務。網絡的損失函數使用平均絕對值誤差(L1損失),假設本文的算法為R,高分辨率復圖像的像素總數為N,訓練的優化目標可以表示為

本研究基于深度學習開源框架Pytorch 1.10搭建神經網絡模型,訓練及實驗的硬件環境為:Intel(R)Core(TM)i7-8700 CPU,32G RAM及NVIDIA GeForce 1080 GPU。對于不同條件下獲得的實驗結果,采用圖像結構相似度(SSIM)和峰值信噪比(PSNR)作為圖像重建質量的評價指標,使用Matlab進行測量。其中PSNR與圖像的均方誤差(Mean Square Error,MSE)成反比,SSIM與PSNR越大,重建結果越接近真值圖像。
神經網絡的訓練需要大規模的數據集,直接通過光學成像系統獲得是困難的。因此本文基于文獻[18]提供的DIV2K數據集制作仿真訓練集。該數據集共包含1000張不同場景下的高分辨率圖像,其中前800張為訓練圖像,后200張為驗證及測試圖像。為了獲得真值復圖像集CG,首先將800張訓練圖像批量處理為8位的單通道格式,然后對2k分辨率的高清灰度圖像按照尺寸128×128進行分塊裁剪,并隨機挑選兩張不同的圖像合成一張復圖像。利用2.1節中敘述的FP成像原理,將CG作為仿真成像系統的輸入,獲得低分辨率圖像集IL,m,其中每一張高分辨率復圖像與相對應的m張低分辨率圖像構成一組訓練對。在測試集方面,本文使用4個基準數據集:Set5[23]、Set14[24]、B100[25]和Urban100[26],共 含 有219張高清圖像,與訓練集的處理過程相同。訓練集和測試集的不同來源提升了實驗結果的準確性。
在對FP成像系統的設置中,LED光源為SMD3528,發光尺寸為3.5 mm×2.8 mm,波長λ為630 nm,與樣品相距80 mm。系統的放大倍率為4倍,數值孔徑NA為0.1,采樣的相機為Lumenra公司的Infinity-4(2650像素×4600像素),像元尺寸9 μm。為了系統地比較不同方法中FP的孔徑重疊率對重建結果的影響以及探索在稀疏采樣條件下的重建效果,相鄰LED點光源之間距離分別為10,5,3,2 mm。根據Dong等[27]的研究結果,孔徑重疊率需要保證在35%以上才能實現傳統FP方法的有效重建。在實際低分辨率圖像的采樣過程中,考慮到重建算法的恢復效果,通常會將孔徑重疊率設置在60%~75%的區間內[28]。不同重疊率下的孔徑排列如圖6所示,每一個圓形代表相應LED在頻譜上對應的子孔徑范圍,其中亮度高的部分為相鄰子孔徑的重疊區域。圖6表示LED數量分別為25,49,81,121時孔徑的重疊情況,4種采樣方式的孔徑重疊率[28]分別為25%,50%,62.5%,70%,最終的合成孔徑NAsyn都為0.5。

圖6 4種不同孔徑重疊率的示意圖Fig.6 Schematic of four different aperture overlap ratio
神經網絡訓練過程中使用Adam優化器對損失函數進行更 新,其 中β1設置為0.9,β2設 置 為0.999。網絡整體的初始學習率設置為10-4,權重衰減系數設置為0,批尺寸(Batchsize)設置為8。每經過100個反向傳播周期學習率減半,最后經過400個周期完成訓練。
本文通過消融實驗,探究了多尺度特征圖數量對重建效果的影響。并且分別對稠密連接模塊、通道注意力模塊以及DCCA模塊的重建效果進行探究。在改變孔徑重疊率的條件下,使用本文方法(FPMFN)、AP算法、PtychNet和Jiang等學者提出的迭代算法(FP Neural Network,FPNN)進行重建測試,對圖像重建質量和算法運行時間做對比實驗分析,同樣也在實際的數據上進行重建實驗。本文還將探究高斯噪聲對不同方法重建結果的影響。
表1為設置不同數量的多尺度特征圖時,使用相同的訓練集和訓練周期,FPMFN重建50%重疊率測試集的平均PSNR和SSIM。當多尺度特征圖數量少于4個時,神經網絡的深度有限,特征金字塔模塊的編碼器對頂層的語義信息提取不充分,導致重建結果不佳。而多尺度特征圖數量過多時,神經網絡的參數量隨之增加,在訓練過程中容易導致過擬合現象,影響最終的重建效果。因此,本文選用重建效果最佳的4層特征結構搭建網絡。

表1 5種特征圖數量的網絡在測試集上的平均PSNR和SSIMTab.1 Average PSNR and SSIM on the test datasets for networks with 5 feature map numbers
對分別使用DCCA模塊與3×3卷積層的神經網絡比較了訓練過程中的損失收斂情況。對比組將DCCA模塊替換為5個標準卷積加激活函數模塊,在50%的孔徑重疊率下,對49張低分辨率圖像進行重建。如圖7所示,曲線的橫坐標表示訓練周期,縱坐標表示損失函數返回值(Loss)。與標準卷積相比,DCCA模塊的Loss曲線在100個訓練周期附近達到了良好的收斂效果,而使用標準卷積則需要大約150個訓練周期,而且DCCA模塊在訓練中始終維持更低的Loss值,因此具有更好的收斂性能。

圖7 DCCA模塊與標準卷積在訓練中的收斂性Fig.7 Convergence of DCCA module and standard convolution in training
表2為使用不同模塊在4個基準測試集上得到振幅圖像的PSNR和SSIM平均值。“ConvCA”代表在使用標準卷積的基礎上,增加了如3.2節中描述的通道注意力機制,而DCCA模塊則進一步增加了卷積之間的稠密連接。由表2可以看出,DCCA模塊在不同的基準數據集上都取得了最好的重建效果,稠密連接提高了信息在神經網絡中的利用率,有利于特征金字塔模塊充分提取有效的特征信息。與標準卷積模塊相比,DCCA在4個測試數據集上的平均PSNR分別提升了0.62,1.12,0.24,0.55 dB。同時,在多層卷積操作之后增加通道注意力機制,有效地分配了通道間的權重信息,使神經網絡對不同頻率的特征信息進一步細化,提升了最終的重建質量。

表2 不同模塊在測試數據集上的PSNR和SSIM測量值Tab.2 PSNR and SSIM of different module on test datasets
為了研究低分率圖像樣本數與重建效果的關系,以及進一步探索所需樣本數目更低的采樣方式,本文在4種孔徑重疊率條件下,對不同方法重建的振幅圖像進行對比,孔徑重疊率的選擇如4.2節敘述,固定合成孔徑NAsyn尺寸,分別使用5×5,7×7,9×9,11×11的LED陣列實施照明采樣。對于FPMFN和PtychNet,隨著低分辨率樣本數目改變,需要通過調整仿真成像系統參數獲取相應的訓練數據集,并訓練不同的神經網絡模型。
不同方法在不同孔徑重疊率下,對重建振幅圖像的測量結果如表3所示。通過PSNR的變化可以得知,所有方法的重建誤差都會隨著重疊率的增加而減小,說明足夠的重疊率是實現有效重建所不可或缺的。PtychNet的PSNR平均值比AP算法低4.88 dB,重建的誤差是由于網絡使用了3層的卷積和激活函數,其結構比較簡單,對低分辨率圖像的特征信息提取不充分。FPNN的PSNR平均值與AP算法接近,相差1.03 dB。FPNN使用神經網絡中的反向傳播完成重建過程,但是針對不同的圖像都需要重新訓練,泛化能力差,導致與AP算法的測量結果間存在誤差。而FPMFN在4種孔徑重疊率下,測量值都優于傳統算法,相比于PtychNet、AP算法和FPNN,PSNR的平均值分別提升了7.07,2.19,3.32 dB,與真值圖像之間的誤差更小。此外,FPMFN模型在25%重疊率下的測試結果與AP算法在50%重疊率下的結果相差無幾,證明FPMFN能夠有效減少樣本數目,實現更高效率的采樣。這是因為FPMFN能夠利用DCCA模塊對高頻部分的頻譜信息進行有效提取,從而減小重建誤差,在更低的重疊率下實現精細的重建。

表3 不同重疊率下各個方法的PSNR和SSIMTab.3 PSNR and SSIM of each method with different overlap ratio
表4記錄了重建128×128灰度圖像所消耗的時間。孔徑重疊率和所需的低分辨率圖像數量成正比,隨著輸入圖像的增多,各個算法的數據量與計算量也隨之增加,延長了重建所需時間。PtychNet和FPMFN同為端對端模型,雖然訓練過程需要消耗大量的時間,但是極大地減少了重建的時間成本,兩種算法在70%的重疊率下也能在0.1 s內完成重建。由于FPMFN的模型相對復雜,所以重建速度稍慢一些。AP算法與FPNN都是基于迭代求解的方法,FPNN在每次重建前都需要對網絡重新進行訓練。當輸入圖像個數為121時,FPNN重建所需時間達到了28.59 s,AP算法則需要2.51 s。端對端形式的FPMFN與基于迭代的AP算法相比,減少了90%以上的重建消耗時間,將重建速度提升了20倍以上。4種算法在相同的硬件設備上運行,因此重建速度更快的FPMFN和PtychNet在算法功耗方面同樣具有優勢。相比于傳統重建算法,FPMFN不僅能有效降低25%的孔徑重疊率和50%的樣本數目,并且在相同的孔徑重疊率下,該算法所需功耗更低,運行速度更快、重建質量更優。

表4 不同方法重建128×128圖像的時間Tab.4 Time consumption of reconstructing 128×128 image in different methods (ms)
圖8為不同重建方法在25%和50%孔徑重疊率下對仿真數據重建的結果展示,其中第一列為原始的振幅和相位圖像。在PtychNet的方法中沒有引入相位信息,模型的重建結果出現較多的模糊和扭曲,圖像的細節信息丟失過多。AP算法相比于PtychNet和FPNN在圖像細節上有更好的修復效果,但重建后的輪廓信息仍有不同程度的缺失。對比其他的方法,FPMFN的重建有更佳的視覺效果,圖像細節處的邊緣銳度和清晰度都有較大提升。本文提出的特征金字塔模塊能夠提取不同感受野范圍內的多層特征,并通過卷積神經網絡的自適應融合,強化了對細節和輪廓信息的重建,使FPMFN能更加充分利用圖像的低頻與高頻信息,在不同的場景下也有更高質量的重建結果。

圖8 各個方法在不同重疊率時對仿真數據集的重建結果。(a)25%;(b)50%。Fig.8 Reconstruction on simulation datasets of each method with different overlap ratio.(a)25%;(b)50%.
此外,為了探究各算法在不同噪聲條件下的重建效果,本文將均值為0的高斯噪聲加入測試數據集中,噪聲的標準差在[2×10-5,3×10-4]范圍內變化,圖9(a)和圖9(b)的橫坐標為高斯噪聲的標準差,縱坐標分別為重建后振幅圖像的平均PSNR和SSIM。

圖9 不同方法高斯噪聲的魯棒性分析。(a)PSNR;(b)SSIM。Fig.9 Robustness analysis of different methods to Gaussian noise.(a)PSNR;(b)SSIM.
FPMFN的重建效果受噪聲的影響最小,隨著高斯噪聲的標準差增加,重建后的PSNR在測試范圍內波動最大值為3.32 dB,SSIM的波動最大值為0.0825,而其他方法受噪聲的影響較大。端對端形式的FPMFN具有更出色的普適性,因此能夠有效抵抗噪聲的干擾。
在上述對仿真數據的重建結果中,不同方法在25%和50%重疊率時的差異更加明顯,且FPMFN與AP算法的重建效果最好。因此在實際系統的采樣中,設置LED間距為10 mm和5 mm,并使用FPMFN和AP算法進行重建。圖10為兩種算法分別在25%和50%重疊率下對實際獲取的25張和49張USAF低分辨率圖像的重建結果,其中最右側的LR Image為中心處LED照明時采集到的低分辨率圖像。FPMFN對振幅和相位圖像的重建結果都比AP算法更清晰。通過放大的細節部分可以看出,FPMFN對噪聲有更好的抑制能力,并且對于條紋細節和輪廓處的重建效果更佳。

圖10 AP與FPMFN算法在實際USAF數據集上的重建結果Fig.10 Reconstruction on actual USAF datasets by AP and FPMFN
本文提出一種基于多尺度特征融合網絡的傅里葉疊層成像算法。該算法利用深度學習的卷積神經網絡搭建模型FPMFN,通過稠密連接和通道注意力機制組成核心模塊DCCA,4個DCCA共同構成了特征金字塔模塊的編碼器,能夠高效地從低分辨率圖像中提取高頻和低頻特征信息,并經過解碼器進行融合。使用亞像素卷積對經過多尺度融合后的特征圖進行上采樣,完成FPMFN的高分辨率重建。DCCA模塊有利于加強信息在網絡間的流動,提升模型的收斂效率以及抗噪性能。為了驗證網絡同樣適用于低樣本數目的重建任務,本文在不同孔徑重疊率的條件下進行實驗,結果表明,FPMFN能有效降低FP中25%的孔徑重疊率,減少50%的采樣數量,提升重建與采樣速度,同時實現效果更出色的重建。但是,在實際應用中,孔徑掃描式的樣本采集過程較為復雜,因此利用神經網絡進一步降低孔徑重疊率,使用更高效的采集方式仍然需要深入探索。