














摘要:針對現有的聚焦程度評價方法在圖像場景內容改變時不能正確評價圖像聚焦程度的問題,基于“分類+擬合”的思想,提出了一種與高斯模糊標準差完全等價的圖像聚焦程度評價方法。首先,建立了以有限高斯模糊標準差為標記的圖像聚焦程度分類數據集;然后,構建了用于提取圖像高斯模糊標準差分類分數的非對稱核卷積神經網絡(AKC-net);最后,采用三次樣條插值函數擬合AKC-net全連接層輸出的分類分數以及對應的高斯模糊標準差,以最大分數對應的標準差作為圖像的聚焦程度評價結果,并在Waterloo數據集和實際拍攝圖像上分別進行仿真實驗和實拍實驗。結果表明:所提方法在不同聚焦圖像上分類的平均準確率可達到97.7%,得到的評價結果與高斯模糊標準差真值的均方根誤差和平均絕對誤差均小于0.07,且實際拍攝圖像的聚焦測度值與圖像內容無關,實現了圖像聚焦程度的絕對評價。
關鍵詞:聚焦程度評價;高斯模糊標準差;非對稱核卷積神經網絡;三次樣條插值
中圖分類號:TP399"文獻標志碼:A
DOI:10.7652/xjtuxb202501011"文章編號:0253-987X(2025)01-0116-09
Focus Evaluation Method with Independent of Image Content
XIA Xiaohua, CHAI Yulin, YUE Pengju, YANG Zhi, QIN Xufang
(Key Laboratory of Road Construction Technology and Equipment of MOE, Chang’an University, Xi’an 710000, China)
Abstract:In response to the challenge where current focus evaluation methods struggle to accurately assess image focus amidst fluctuations in image scene content, a focus evaluation method, fully equivalent to Gaussian blur standard deviation, is introduced based on the “classification + fitting” concept. Firstly, a dataset for image focus classification, annotated with finite Gaussian blur standard deviations, is established. Subsequently, an asymmetric kernel convolution neural network (AKC-net) is developed to derive image Gaussian blur standard deviation classification scores. Finally, a cubic spline interpolation function is applied to fit the classification score of the AKC-net fully connected layer output and the corresponding Gaussian blur standard deviation, using the standard deviation linked to the maximum score as the focus evaluation for the images. Simulation experiments and real shooting experiment are carried out on the Waterloo dataset and real shooting images respectively. The experimental findings indicate that the proposed method achieves an average classification accuracy of up to 97.7% across various focus images. The root mean square error and mean absolute error between the obtained evaluation results and the true Gaussian blur standard deviation values are less than 0.07. Furthermore, the focus measurement values derived from real shooting images are independent of the image content, enabling the absolute evaluation of the image focus.
Keywords:degree of focus evaluation; Gaussian blur standard deviation; asymmetric kernel convolution neural network; cubic spline interpolation
聚焦程度評價方法在自動對焦[1-2]、多聚焦圖像融合[3-4]、聚焦形貌恢復[5]等領域中應用廣泛,其性能決定了應用效果。一個理想的聚焦程度評價方法應滿足獨立于圖像內容、具有良好的噪聲魯棒性、計算效率高、對離焦區域敏感等要求[6]。近些年,國內外大量文獻報道了提高抗噪性[7]、計算效率[4]和對離焦區域敏感[8]的聚焦程度評價方法。但是,上述方法對圖像內容有很強的依賴性,當圖像內容發生改變時,不能正確評價其聚焦程度。
目前,盡管已有一些針對圖像內容無關的聚焦程度評價方法研究,但相對較少。Bahrami等[9]利用廣義高斯分布對圖像內容感知總變化進行參數化,提取標準差和內容參數兩個特征,對這兩個特征進行權重分配得到與圖像內容無關的聚焦程度評價方法。Zhan等[10]通過對最大梯度和梯度的可變性這兩個梯度特征參數進行加權幾何平均來評價不同圖像內容的聚焦程度,其中最大梯度表示圖像的聚焦位置,梯度的可變性表示圖像內容的變化,然而該方法只能計算圖像的聚焦位置,且需要對圖像進行分塊處理。Liu等[11]提出利用邊緣方向檢測算法得到圖像的邊緣寬度,建立寬度直方圖,通過與距離因子加權求和得到不同圖像內容的聚焦程度。上述方法在評價圖像聚焦程度上受人為提取特征的影響[12],評價準確性不高。Li等[13]提出了一種基于語義特征聚合的聚焦程度評價方法,利用預訓練的分類卷積神經網絡獲取圖像固有的內容感知特性,提取深度語義特征,通過線性回歸模型進行擬合評價圖像的聚焦程度,對不同內容的圖像有較好的評價效果。然而,該方法是基于主觀評價值來判斷圖像的聚焦程度,對于無法實時獲得主觀評價值的實際拍攝圖像,只通過聚焦測度值并不能判斷圖像的聚焦程度,無法實現對不同圖像內容聚焦程度的絕對評價,且該方法使用的卷積神經網絡中卷積結構為普通的方形卷積核,提取圖像特征的能力較弱,線性回歸模型對于離散型變量如分類網絡的類別擬合精度低。高斯模糊雖然能夠很好地模擬圖像離焦效果,但是對于聚焦程度未知的圖像,現有的聚焦程度評價方法無法直接測量其高斯模糊值。
針對現有聚焦程度評價方法存在的上述問題,考慮到卷積神經網絡可識別圖像的聚焦區域和離焦區域[4],本文提出了一種非對稱核卷積神經網絡(AKC-net)與數據擬合相結合的聚焦程度評價方法。該方法以高斯模糊標準差作為聚焦程度的評價標準,可以實現不同場景內容圖像聚焦程度的絕對評價,且AKC-net中的非對稱卷積核[14]增強了模型對圖像的特征提取能力,在不增加計算量的前提下提高網絡的分類準確率,之后利用提取的網絡中相關參數,通過數據擬合計算極值,評價圖像的聚焦程度,實驗驗證了本文方法的有效性和優越性。
1"提出方法
考慮到高斯模糊能模擬圖像離焦[6],本研究以高斯模糊標準差作為圖像聚焦程度的評價標準,首先建立以有限高斯模糊標準差為標記的圖像聚焦程度分類數據集,然后構建用于提取圖像高斯模糊標準差分類分數的AKC-net,最后采用三次樣條插值函數擬合AKC-net全連接層輸出的分類分數以及對應的高斯模糊標準差,以最大分數對應的標準差作為圖像的聚焦程度評價結果。聚焦程度評價方法流程如圖1所示。
1.1"圖像聚焦程度分類數據集
假定待檢測圖像離焦程度所對應的高斯模糊標準差范圍為[0,σmax],圖像聚焦程度分類數據集將其劃分為n個類別,則每個類別對應的高斯模糊標準差依次為0、σmaxn-1、2σmaxn-1、…、(n-2)σmaxn-1、σmax。將拍攝的聚焦圖像或公共數據集中的聚焦圖像依次進行高斯模糊標準差為σmaxn-1、2σmaxn-1、…、(n-2)σmaxn-1、σmax的離焦模糊,以高斯模糊標準差作為分類標簽對圖像數據進行標記,聚焦圖像的高斯模糊標準差記為0,建立圖像聚焦程度分類數據集。
數據集的高斯模糊標準差范圍[0,σmax]和分類數量n關系到最終圖像聚焦程度的檢測精度,分類高斯模糊標準差的間隔和平均檢測誤差應滿足以下經驗公式
σmaxn-1=μ (1)
式中:μ取經驗值5~10。
1.2"聚焦程度分類網絡
不同的卷積神經網絡結構對圖像分類影響很大。為了提高分類準確率,本文設計了AKC-net模型,其結構如圖2所示。該模型結構包含6個卷積單元, 每一個卷積單元包括非對稱卷積塊、 Rule激活層和最大池化層3部分。非對稱卷積塊是用3個并行的尺寸3×3、1×3和3×1卷積核代替3×3方形卷積核,其示意圖如圖3所示。新網絡結構卷積核數是舊網絡的3倍,極大地提高了網絡對圖像特征的提取能力,新網絡通過對并行的3個卷積核結果進行融合,獲得非對稱卷積塊的最終輸出。卷積核過濾器尺寸為3×3,第1個卷積單元中卷積核數為32,卷積后獲得32個尺寸為224×224的特征圖。
在非對稱卷積塊之后連接Rule激活層,卷積單元中最后一層為最大池化層,對非對稱卷積塊輸出的特征圖計算最大池化,設置濾波尺寸為2×2,步長為2。最大池化層采用下采樣的方式,減小特征圖的大小并刪除冗余的空間信息,池化后得到32個尺寸112×112的特征圖。輸入圖像經過最后一個卷積單元后得到512個尺寸為7×7的特征圖,將512個特征圖進行全連接運算得到一維特征向量F1,使用Softmax函數對F1進行運算,得到大小為[5,1]的特征向量F2,F2表示圖像分屬于每個標簽的概率。
在AKC-net模型訓練過程中,采用前向傳播和反向傳播兩個階段表示卷積參數的傳遞和優化。在前向傳播中讀取輸入圖像的特征信息,根據卷積神經網絡的稀疏特性,只有輸入層的局部神經元與下一層的卷積神經元相連接。同時,引入非線性函數作為激活函數,使一部分神經元輸出為0,減少層參數之間的依存關系。卷積層和最大池化層的前向傳播表達式分別為
Xj=f∑ci=1XiKij+bj(2)
Wj=f(βjdown(Xj)+αj) (3)
式中:Xi表示第i個輸入特征圖;K表示對應的卷積核;bj表示第j個輸出特征圖的偏置值;c為輸入特征圖的個數;f()為Rule激活函數;βj和αj分別表示每個輸出特征圖的乘性偏置和加性偏置;down()為下采樣函數。
反向傳播主要是對網絡參數進行更新優化,通過鏈式法則求出每個參數的梯度。網絡參數的更新量Δαi可以描述為
Δαi=ηLai=ηLziziai"(4)
式中:η表示學習率;L表示損失函數;zi表示層對應的輸出;ai為層的參數。
1.3"聚焦程度擬合計算
分類網絡僅能得到圖像有限的離散聚焦程度。為了實現圖像連續聚焦程度的檢測,本研究在上述分類結果的基礎上采用三次樣條插值法,通過圖像在有限聚焦程度處的分類分數,估算出圖像的實際聚焦程度。設在區間[0,σmax]上給定一組節點,0=x0lt;x1=σmaxn-1lt;x2=2σmaxn-1lt;…lt;xn=σmax,令f(xi)=yi,yi為全連接層輸出的分類分數,若函數F(x)在子區間[xi,xi+1]上為不超過3次的多項式、F(x)的二階導數在[0,σmax]連續、F(xi)=yi,則利用F(x)對yi和高斯模糊標準差進行擬合計算,得到分數最大值對應的高斯模糊標準差,以此作為圖像的聚焦程度評價結果。
2"實驗與性能測試
2.1"實驗設置
本研究在處理器為Intel(R)Core(TM)i7-9750H CPU、內存為8GB、顯卡為NVIDIA GeForce GTX1650的計算機上進行實驗??紤]到仿真實驗能夠獲取圖像高斯模糊標準差的真值,因此采用仿真實驗驗證所提方法的有效性,最終通過實拍實驗進一步檢驗該方法對實際拍攝圖像的聚焦程度評價效果。
仿真實驗采用全為聚焦圖像的Waterloo數據集[15]作為原始數據集,對比實驗選擇常用的LIVE數據集[16]和TID2008數據集[17]中的聚焦圖像。對3個數據集中所有圖像進行灰度化處理,圖像像素設置為224×224。從Waterloo數據集中隨機選擇1000張圖像進行高斯模糊標準差為0.5、1.0、1.5、2.0的離焦處理,得到的圖像構成網絡的訓練集和驗證集,再從灰度化處理后的Waterloo數據集中另選500張圖像進行高斯模糊標準差分別為0.1、0.2、…、1.9和2.0的離焦處理構成測試集。圖4中第1列表示Waterloo數據集中部分灰度化原圖,其余列表示對原圖進行高斯模糊標準差分別為0.5、1.0、1.5、2.0的離焦處理后的圖像。后續實驗分別對構建的分類網絡模型優越性、采用的數據擬合方法有效性、整個聚焦程度評價方法的優越性以及對實際離焦圖像的有效性進行驗證。
2.2"分類網絡優越性驗證實驗
為了驗證本文方法構建的AKC-net模型在模糊圖像分類性能上的優越性,將AKC-net模型與廣泛應用的AlexNet[18]、VGGNet-16[19]、GoogLeNet[20]、ResNet50[21]、SqueezeNet[22]、MobileNetV2[23] 等網絡模型和先進的ACNet[14]、Swin-T[24]、ConvNeXt[25]等網絡模型進行對比。其中,各網絡的動量初始化設置為0.9,求解器選擇帶動量的隨機梯度下降優化器,初始學習率設置為0.005,每次訓練迭代的最小批次設置為32,訓練輪數40輪。表1展示了各網絡在測試集上的平均準確率和損失值,可以看到其他網絡在測試集中的平均準確率最高為92.4%,而AKC-net的平均準確率可達97.7%,比其他網絡最高準確率高出5.3個百分點,且損失值最小,分類效果得到顯著提升。因此,AKC-net在模糊圖像分類性能方面優于其他網絡。
2.3"數據擬合有效性驗證實驗
為驗證三次樣條插值法擬合效果的有效性,將三次樣條插值法與三次多項式、四次多項式等擬合方法進行對比,采用最大絕對誤差(Emax)和平均絕對誤差(Emean)作為數據擬合的評價標準。為了避免隨機選擇圖像所引起的實驗不確定性,每次實驗任意選取測試集中100張圖像,共進行了3次實驗,結果如表2所示。從表2可以看出,在3次實驗中,三次樣條插值法的Emax和Emean均是最小的,表明三次樣條插值法與全連接層輸出的分類分數擬合效果較好,在評價圖像聚焦程度上具有較高的準確性。
2.4"與圖像內容無關的聚焦程度評價方法優越性驗證實驗
為驗證本文提出的“分類+數據擬合”思想與聚焦程度評價方法的優越性,將本文方法與單純AKC-net分類的聚焦程度評價方法(F-AKCnet)、基于AKC-net回歸的聚焦程度評價方法(R-AKCnet)以及文獻[10-11]、文獻[13]和文獻[26]的與圖像內容無關的聚焦程度評價方法進行對比。
考慮到各方法聚焦測度值的量綱不一致,對所有數值進行歸一化處理。采用均方根誤差(ERMS)、平均絕對誤差(Emean)、Pearson相關系數(P)、Spearman等級相關系數(S)作為聚焦程度評價標準。ERMS和Emean越小,P越大,表示圖像聚焦程度評價準確率越高。ERMS和P表達式如下
ERMS=1m∑mk=1(fk-f*k)2"(5)
P=∑mk=1(fk-k)(f*k-*k)∑mk=1(fk-k)2∑mk=1(f*k-*k)2"(6)
式中:m為數據集的圖像數量;fk表示第k張圖像歸一化后的真實聚焦測度值;f*k表示第k張圖像歸一化后的預測聚焦測度值;k和*k分別表示所有圖像的fk和f*k的平均值。
S表示圖像聚焦程度評價方法的預測單調性,S越大表明f*k隨著fk的增大而增大的趨勢越明顯,其表達式為
S=1-6∑mk=1d2km(m2-1) (7)
式中:dk表示第k張圖像的fk和f*k對應的等級排序位置的差。
表3展示了各方法在測試集、LIVE數據集和TID2008數據集中的評價結果,可以看出,在3個數據集中,Final[10]、CEWD[11]和PSI[26]方法的ERMS和Emean較大,P和S較小,說明這3種方法在圖像內容變化時對聚焦測度值影響較大。從表3可以看到,SFA[13]方法在多個評價指標中取得了僅次于本文方法的效果,但存在網絡模型參數量大的問題,其參數量為24.42MB,遠大于本文方法的參數量14.11MB,且本文在測試集中ERMS和Emean均小于0.07,因此本文方法在評價不同內容圖像的聚焦程度性能方面要優于其他評價方法。此外,本文方法在3個數據集中的表現優于基于分類的方法F-AKCnet和基于回歸的方法R-AKCnet,證明了“分類+數據擬合”思想在與圖像內容無關的聚焦程度評價方面優于分類思想和回歸思想。
2.5"統計顯著性實驗
為驗證2.4節中各方法的比較結果是否具有顯著性,對各方法的評價結果與高斯模糊標準差真值之間的殘差進行統計學顯著性檢驗。
利用不同方法對3個數據集中的圖像進行聚焦測度值的計算,以1%的顯著性水平進行雙樣本t檢驗。表4展示了本文方法對其他方法的統計學顯著性檢驗結果,其中,1表示本文方法在統計上優于比較方法,0表示本文方法在統計上與比較方法相當。從表4可以看出,在測試集中,本文方法優于其他方法;盡管在LIVE和TID2008數據集上,SFA和R-AKCnet方法取得了與本文方法相當的性能,但是與圖像內容無關的性能不應局限于某個特定的數據集,因此本文方法優于對比的6種方法。
2.6"計算效率
為比較不同方法的計算效率,對測試集中的500張聚焦圖像進行聚焦程度評價,表5展示了每張圖像在不同方法上的平均計算時間??梢钥闯觯疚姆椒ǖ挠嬎銜r間遠低于所對比的方法,表明其計算效率要高于其他方法,計算速度更快,具有更好的實時性。
2.7"實拍實驗
為進一步檢驗本文方法對實拍圖像聚焦程度的評價效果,利用移動鏡頭的對焦系統分別拍攝5個物體(依次為分辨率板、印刷盒、咖啡盒、測量儀盒、打印盒)。首先,調節系統使其準確對焦到第1個平面物體上,拍攝第1幅圖像,然后等間距移動鏡頭并將拍攝目標依次更換為第2~5個平面物體(物體位置保持不變),拍攝第2~5幅圖像,實驗拍攝的5幅圖像如圖5所示。
由于實驗拍攝的第1幅圖像處于對焦狀態,后續圖像都是通過移動等間距的鏡頭拍攝得到,由幾何光學可知,這5幅圖像的彌散圓直徑存在線性關系,由于高斯模糊標準差與彌散圓直徑也存在線性關系[27],因此這5幅圖像的高斯模糊標準差也存在線性關系。利用本文方法計算5幅圖像的聚焦測度值,結果如圖6所示。由圖6可知,本文方法計算5幅圖像的聚焦測度值近似為線性關系,與理論結果一致,并且不隨圖像內容的改變而變化,說明本文提出的聚焦程度評價方法與圖像內容無關,驗證了方法的有效性。
3"結"論
本文針對現有聚焦程度評價方法對圖像內容有較大依賴性的問題,研究了與圖像內容無關的聚焦程度評價方法,主要結論如下。
(1)構建了用于提取圖像高斯模糊標準差分類分數的卷積神經網絡模型AKC-net,采用非對稱卷積核增強模型對圖像的特征提取能力,平均準確率可達97.7%,比對比模型的最高準確率高5.3個百分點,驗證了所構建模型在模糊圖像分類性能上的優越性。
(2)基于“分類+擬合”思想,提出了一種非對稱核卷積神經網絡與數據擬合相結合的聚焦程度評價方法,采用三次樣條插值函數擬合AKC-net全連接層輸出的分類分數以及對應的高斯模糊標準差,以最大分數對應的標準差作為圖像的聚焦程度評價結果。仿真與實拍實驗結果表明,本文提出的方法對不同內容圖像具有更好的聚焦程度評價性能且適用于對實時性要求更高的場合。
本文方法評價的是固定尺寸的圖像,在未來的工作中,有必要對變尺寸圖像的聚焦程度評價方法進行研究。
參考文獻:
[1]HELMY I, CHOI W. Machine learning-based automatic focusing for high magnification systems [J]. Engineering Applications of Artificial Intelligence, 2023, 118: 105648.
[2]楊夢雪, 李祝蓮, 李榮旺, 等. 基于1.2m望遠鏡系統實時自動調焦的清晰度評價算法 [J]. 光學學報, 2023, 43(6): 0612006.
YANG Mengxue, LI Zhulian, LI Rongwang, et al. Sharpness evaluation algorithm based on real-time automatic focusing of 1.2m telescope system [J]. Acta Optica Sinica, 2023, 43(6): 0612006.
[3]蔣留兵, 張點, 潘波, 等. 基于生成對抗網絡的多聚焦圖像融合 [J]. 計算機輔助設計與圖形學學報, 2021, 33(11): 1715-1725.
JIANG Liubing, ZHANG Dian, PAN Bo, et al. Multi-focus image fusion based on generative adversarial network [J]. Journal of Computer-Aided Design amp; Computer Graphics, 2021, 33(11): 1715-1725.
[4]TANG Han, XIAO Bin, LI Weisheng, et al. Pixel convolutional neural network for multi-focus image fusion [J]. Information Sciences, 2018, 433-434: 125-141.
[5]韋號, 崔海華, 程筱勝, 等. 一種用于評價聚焦形貌恢復算法的圖像離焦仿真技術 [J]. 光學學報, 2019, 39(11): 1111001.
WEI Hao, CUI Haihua, CHENG Xiaosheng, et al. Image defocus simulation technology applied to evaluation of focused morphology recovery algorithm [J]. Acta Optica Sinica, 2019, 39(11): 1111001.
[6]XIA Xiaohua, YIN Lijuan, YAO Yunshi, et al. Combining two focus measures to improve performance [J]. Measurement Science and Technology, 2017, 28(10): 105401.
[7]LI Qiaoyue, LI Leida, LU Zhaolin, et al. No-reference sharpness index for scanning electron microscopy images based on dark channel prior [J]. KSII Transactions on Internet and Information Systems, 2019, 13(5): 2529-2543.
[8]周汶, 李旦, 張建秋. 評價彩色圖像自動聚焦清晰度的互補色小波測度 [J]. 自動化學報, 2020, 46(8): 1615-1627.
ZHOU Wen, LI Dan, ZHANG Jianqiu. A complementary color wavelet-based measure on color image sharpness assessment for autofocus [J]. Acta Automatica Sinica, 2020, 46(8): 1615-1627.
[9]BAHRAMI K, KOT A C. Efficient image sharpness assessment based on content aware total variation [J]. IEEE Transactions on Multimedia, 2016, 18(8): 1568-1578.
[10]ZHAN Yibing, ZHANG Rong. No-reference image sharpness assessment based on maximum gradient and variability of gradients [J]. IEEE Transactions on Multimedia, 2018, 20(7): 1796-1808.
[11]LIU Zhaoyang, HONG Huajie, GAN Zihao, et al. An improved method for evaluating image sharpness based on edge information [J]. Applied Sciences, 2022, 12(13): 6712.
[12]LIU Yu, CHEN Xun, PENG Hu, et al. Multi-focus image fusion with a deep convolutional neural network [J]. Information Fusion, 2017, 36: 191-207.
[13]LI Dingquan, JIANG Tingting, LIN Weisi, et al. Which has better visual quality: the clear blue sky or a blurry animal? [J]. IEEE Transactions on Multimedia, 2019, 21(5): 1221-1234.
[14]DING Xiaohan, GUO Yuchen, DING Guiguang, et al. ACNet: strengthening the kernel skeletons for powerful CNN via asymmetric convolution blocks [C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV). Piscataway, NJ, USA: IEEE, 2019: 1911-1920.
[15]MA Kede, DUANMU Zhengfang, WU Qingbo, et al. Waterloo exploration database: new challenges for image quality assessment models [J]. IEEE Transactions on Image Processing, 2017, 26(2): 1004-1016.
[16]SHEIKH H R, SABIR M F, BOVIK A C. A statistical evaluation of recent full reference image quality assessment algorithms [J]. IEEE Transactions on Image Processing, 2006, 15(11): 3440-3451.
[17]PONOMARENKO N. TID2008-a database for evaluation of full-reference visual quality assessment metrics [J]. Adv Modern Radioelectron, 2009, 10(4): 30-45.
[18]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks [J]. Communications of the ACM, 2017, 60(6): 84-90.
[19]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [EB/OL].(2015-04-10)[2022-02-04]. https://arxiv.org/abs/1409.1556.
[20]SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going deeper with convolutions [C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ, USA: IEEE, 2015: 1-9.
[21]HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ, USA: IEEE, 2016: 770-778.
[22]IANDOLA F N, HAN Song, MOSKEWICZ M W, et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and lt;0.5MB model size [EB/OL].(2016-11-04)[2024-05-01]. https://arxiv.org/abs/1602.07360.
[23]HOWARD A G, ZHU Menglong, CHEN Bo, et al. MobileNets: efficient convolutional neural networks for mobile vision applications [EB/OL]. (2017-04-17)[2024-05-01]. https://arxiv.org/abs/1704.04861.
[24]LIU Ze, LIN Yutong, CAO Yue, et al. Swin transformer: hierarchical vision transformer using shifted windows [C]//2021 IEEE/CVF International Conference on Computer Vision (ICCV). Piscataway, NJ, USA: IEEE, 2021: 9992-10002.
[25]LIU Zhuang, MAO Hanzi, WU Chaoyuan, et al. A ConvNet for the 2020s [C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ, USA: IEEE, 2022: 11966-11976.
[26]FEICHTENHOFER C, FASSOLD H, SCHALLAUER P. A perceptual image sharpness metric based on local edge gradient analysis [J]. IEEE Signal Processing Letters, 2013, 20(4): 379-382.
[27]SUBBARAO M, SURYA G. Depth from defocus: a spatial domain approach [J]. International Journal of Computer Vision, 1994, 13(3): 271-294.
(編輯"亢列梅)