收稿日期:2021-08-04;修回日期:2021-10-02
基金項目:四川省科技計劃重點研發項目(2019YFG0112);浙江省科技計劃重大科技專項重點工業項目(2014C01047);四川省科技計劃重點研發項目(2022YFG0206)
作者簡介:李礁(1981-),男,四川宜賓人,高級工程師,碩士,主要研究方向為軟件工程、計算機視覺;鐘樂海(1963-),男(通信作者),四川廣安人,教授,碩導,博士,主要研究方向為計算機網絡、計算機視覺(lhzhong@mypt.edu.cn);包曉安(1973-),男,浙江海鹽人,教授,碩導,碩士,主要研究方向為軟件工程、計算機視覺;張娜(1977-),女,浙江杭州人,副教授,碩導,碩士,主要研究方向為軟件工程、數據挖掘;邢偉寅(1975-),男,四川綿陽人,高級工程師,碩士,主要研究方向為軟件工程、計算機應用;韓正勇(1984-),男,黑龍江牡丹江人,講師,碩士,主要研究方向為軟件工程、數據分析與挖掘.
摘 要:針對紅外線CCD攝像頭采集指靜脈圖像較為模糊造成指靜脈識別誤檢率高的問題,提出了基于分頻和多感受野殘差密集的指靜脈圖像超分辨率重建方法。該方法構建了圖像高低頻信息處理子網絡,并將RRFDB結構集成到高頻子網絡中,以RFB為核心的殘差密集塊設計提升了感受野并降低計算復雜度,更好地保留了原始指靜脈圖像的線狀紋理特征。實驗結果表明,該方法能有效改善指靜脈圖像質量,與SRCNN、VDSR、DRRN等超分辨率重建方法在FV-USM和MMCBNU-6000數據集上進行對比實驗,該方法對指靜脈特征提取效果好,重建的圖像質量高,PSNR與SSIM均優于其他方法。
關鍵詞:指靜脈識別; 頻域分離; 多感受野殘差密集; 超分辨率重建
中圖分類號:TP391"" 文獻標志碼:A
文章編號:1001-3695(2022)06-051-1897-04
doi:10.19734/j.issn.1001-3695.2021.08.0441
Super resolution reconstruction of digital vein image based on frequency division and residual of multi receptive field density
Li Jiao1, Zhong Lehai1, Bao Xiao’an2, Zhang Na2, Xing Weiyin1, Han Zhengyong1
(1.School of Electronics amp; Information, Mianyang Polytechnic, Mianyang Sichuan 621000,China; 2.School of Information, Zhejiang Sci-Tech University, Hangzhou 310018,China)
Abstract:Aiming at the problem that the finger vein image collected by infrared CCD camera is fuzzy, resulting in high error detection rate of finger vein recognition, this paper proposed super resolution reconstruction of digital vein image based on frequency division and residual of multi receptive field density. This method constructed the image high and low frequency information processing sub network, and integrated the RRFDB structure into the high frequency sub network. The residual dense block design with RFB as the core improved the receptive field, reduced the computational complexity, and better retained the linear texture features of the original digital vein image. The experimental results show that this method can effectively improve the image quality of finger vein. Compared with SRCNN, VDSR, DRRN and other super-resolution reconstruction methods on FV-USM and MMCBNU-6000, this method has good effect on finger vein feature extraction, high reconstructed image quality, and PSNR and SSIM are better than other methods.
Key words:finger vein recognition; frequency domain separation; residual of multi receptive field density; super resolution reconstruction
0 引言
指靜脈識別是一種高度防偽、快速識別、高準確度的活體檢測技術,其基本原理是通過紅外線CCD攝像頭對手指進行照射,利用血管中血紅蛋白與周圍肌肉、組織等對近紅外光的透射性差異,形成指靜脈圖像,再運用濾波、二值化、細化手段對數字圖像特征進行提取和增強[1],將提取的特征值數據與存儲的特征值數據進行比對,完成身份認證。由于指靜脈這種生物特征終身不變,且兩個人手指靜脈結構恰好相同的幾率是34億分之一,具有非常好的穩定性和唯一性;指靜脈隱藏在皮膚下,沒有個人的主動參與和近紅外光照射不會被輕易獲取,具有高度私密性和安全性;當手指離開活體后,靜脈中血液特征會發生變化,無法通過驗證,還能很好地防御非人類材質假體的欺詐。因此,與其他生物識別方式相比,指靜脈識別具有其自身的獨特優勢,已被廣泛應用于金融支付、安防門禁、智慧樓宇、醫保社保、智慧校園、智能家居、教育考試等領域。但是,由于采集硬件的客觀條件限制,同時受背景區域噪聲、手指按壓位置等的影響,采集的圖像常常不夠清晰,圖像退化性模糊,對比度不強,指靜脈網絡細節結構不明顯,局部缺失[2],且獲取的圖片質量不高,為進一步指靜脈信息的識別帶來困難。
為此,本文提出了基于分頻和多感受野殘差密集的指靜脈圖像超分辨率重建方法。采用校正和感興趣區域(region of interest,RoI)提取方法,正確提取手指部分RoI以及消除干擾,結合數字圖像頻域濾波分離圖像高低頻域,分別送入高低頻信息處理子網絡。高頻子網絡集成了RRFDB結構,以RFB為核心的殘差密集塊設計提升了感受野并降低計算復雜度,可以更好地保留原始指靜脈圖像的線狀紋理特征。
1 相關研究
低質量指靜脈圖像制約著指靜脈識別技術的應用和發展,為此人們采用一些經典算法從對比度、紋理等方面進行圖像增強,這些算法各有優缺點。自適應的直方圖均衡(adaptive histogram equalization,AHE)和Retinex圖像增強技術能保留圖像的大部分指靜脈特征,但不能增強微弱的指靜脈特征。主成分分析技術(principal component analysis,PCA)可以描述圖像紋理和背景的相對分布情況,但無法突出局部細節特征。方向濾波、圖像閾值分割、Hessian 矩陣分割等較好地保留了圖像的紋理細節與線性特征,但圖像對比度低,線性特征無法準確提取[3]。近些年,國內外學者一直在探索進一步增強圖像質量的方法。Kim等人[4]提出了一種自適應改進的直方圖均衡化增強對比度方法(AMHE),該方法在保持原始圖像的色調的同時能有效增強對比度。Qin [5]提出了一種基于Retinex的圖像增強算法,使用最大平坦濾波器對圖像進行平滑處理,克服高斯濾波邊緣信息以及特征信息丟失問題,保留了圖像更多的細節信息。Jin等人[6]將圖像的方向信息與多分辨率分析相結合,提出了基于拉普拉斯金字塔定向濾波器組的融合圖像增強方法,使得圖像紋理細節充分保留,并具有較好的可行性和有效性。Tang等人 [7]則提出一種基于局部像素分組(LPG)的主成分分析(PCA)方法,基于塊匹配的局部像素分組過程能確保在主成分分析域中的噪聲去除過程之后,圖像的局部特征能夠被很好地保留下來。
與傳統的圖像增強技術不同,超分辨率重建除了提高圖像清晰度以外,還能將同一場景中的低分辨率圖像轉換成高分辨率圖像。超分辨率重建技術根據輸入圖像的數量分為單幅低分辨率圖像生成高分辨率圖像技術和多幅低分辨率圖像生成高分辨率圖像技術。單幅圖像超分辨率重建技術(single image super-resolution,SISR)憑借其靈活性、簡便性以及高實用性,被普遍應用于醫學成像[8~10]、遙感成像[11]、公共安防[12]等領域。SISR方法主要分為基于插值的超分算法、基于建模的超分算法、基于學習的超分算法三類。近年來,基于深度學習的圖像超分辨率重建技術得到了很好的發展。2014年,Dong等人[13]提出了SRCNN算法,使用雙三次插值將低分辨率圖像放大至目標尺寸大小,再用9×9的卷積核進行圖像塊提取與表示,1×1的卷積核進行非線性映射,5×5的卷積核完成高分辨率圖像重建,其網絡結構圖如圖1所示。網絡中通過使用大的卷積核來使淺層網絡(三層卷積網絡)獲得較大的感受野,從而獲得了較好的SR重建效果。為解決SRCNN訓練速度慢的問題,研究人員提出了FSRCNN[14]、ESPCN[15]方法,使網絡的計算量降低,訓練速度有了成倍的提升,但這些方法均存在網絡加深加寬時因參數變多導致的網絡訓練難度大、難以收斂的問題。
針對SRCNN等存在的網絡加深導致性能退化問題,Kim等人[16]提出VDSR算法,在單幅圖像超分辨率方法中引入殘差網絡,其網絡結構如圖2所示。與SRCNN一樣,VDSR也是先將低分辨率輸入雙三次插值到高分辨率,再進行模型的預測。模型每一層卷積中均使用帶padding的3×3卷積層,并且添加一個ReLU來增強模型的非線性,最后使用殘差學習將預測結果以element-wise的形式相加得到最終的結果。在VDSR的基礎上,研究人員相繼提出了DRCN[17]、DRRN[18]、EDSR[19]算法,加深網絡的同時沒有帶來更多的計算量,加快了收斂速度。
上述方法中,有的網絡結構相對比較簡單,性能較差,有的過于復雜,增加了額外的計算開銷。分層特征融合可以充分利用網絡中不同層提取的圖像特征信息,簡單高效,能重建更準確的高分辨率圖像。2017年,Lai等人[20]首次使用分層融合方法實現了LapSRN,如圖3所示。LapSRN分為特征提取分支和圖像重構分支,特征提取分支使用卷積進行特征提取,使用反卷積提升分辨率,再將特征提取分支輸出與原始圖像逐像素相加,逐層遞進構成圖像重構分支,重建更為清晰的超分辨圖像。
隨著網絡深度的增加,梯度消失越來越明顯。密集連接能有效緩解這類問題,密集連接中每一層的輸入都會結合前面所有層的輸出,利用不同卷積層提取到的細節特征信息,使輸出層得到更多的信息來重建超分辨率圖像。2017年,基于密集塊網絡的SRDenseNet[21]首次將密集連接網絡應用于圖像重建,受益于低層特征和高層特征的結合,超分辨率重建的性能得到了提升。后來Zhang等人[22]在SRDenseNet的基礎上提出了殘差密集網絡RDN,該方法在密集塊結構的首尾增加殘差連接和卷積來進行特征降維,模型重建圖像的質量更好。Haris等人[23]在密集連接的基礎上又提出了深度反投影網絡D-DBPN,該網絡構建了多個上下投影單元來進行淺層特征到深層特征的映射,同時使用密集連接的方法使淺層網絡和投影網絡的輸出堆疊到迭代單元的輸入,使最終恢復圖像的效果優于SRDenseNet。2020年,Zhou等人[24]在一種顏色引導的域映射網絡中構建了高頻網絡和低頻網絡,確保生成器不僅關注高頻特征,同時更好地保持低頻特征。針對高頻網絡,采用高斯濾波器提取圖像高頻信息,利用判別器對高頻成分進行有針對性的判別,使得整個GAN的訓練更穩定、更快收斂。
2 算法設計
本文結合數字圖像頻域濾波和卷積神經網絡,提出基于分頻和多感受野殘差密集的指靜脈圖像超分辨率重建方法,算法流程如圖4所示。
2.1 圖像RoI提取
由于手指存在一定的自由度,可能會有旋轉、平移,使得同一個手指的兩次采集圖像差別較大。另外,由于按壓用力不均及關節位置空隙,圖像背景以及手指輪廓的邊緣區域會出現噪聲和過度曝光,在高分辨率重建前應該對圖像進行預處理,正確提取手指部分RoI以及消除干擾,預處理過程如圖5所示。
將指靜脈圖像轉換為灰度圖,采用GrabCut算法進行圖像前景的提取;利用骨架提取算法[25]獲得指靜脈結構并去除干擾噪聲;根據手指左右輪廓線擬合中位線,利用中位線對圖像進行旋轉校正。由于紅外成像后指骨關節區域的圖像亮度較高,利用經過水平投影的指靜脈像素和的分布曲線中峰值所在的水平坐標作為指靜脈圖像縱向切割線,兩條內切線作為橫向切割線,切割后進行歸一化操作,獲得指靜脈RoI圖片[26]。
2.2 高低頻分離
對提取到的RoI指靜脈圖像矩陣F進行高低頻分解。
為集中低頻信息,利用二維DFT的平移性質對頻譜進行中心化,如式(1)所示。
f(x,y)(-1)x+yFu-M2,v-N2(1)
其中:f(x,y)表示大小為M×N的矩陣F;(x,y)表示F中每一像素點位置,其中x=0,1,2,…,M-1和y=0,1,2,…,N-1。F(u,v)定義了M×N的頻域矩陣。
接下來對圖像塊進行二維離散傅里葉變換,如式(2)所示。
F(u,v)=∑M-1x=0∑N-1y=0f(x,y)e-j2π(uxM+vyN)(2)
根據卷積定理,為在空間域中得到濾波后圖像,需計算頻率域中F(u,v)與濾波傳遞函數H(u,v)乘積,如式(3)所示。
f(x,y)×h(x,y)F(u,v)×H(u,v)(3)
H(u,v)為巴特沃斯低通濾波器傳遞函數,如式(4)所示。
H(u,v)=11+D(u,v)D02n(4)
其中:D0為像素點到圖像中心點的歐氏距離;n表示巴特沃斯濾波次數;D(u,v)是頻域中一點(u,v)與頻域矩形中心之間的距離。
對濾波后的圖像進行二維離散傅里葉反變換,如式(5)所示。
f(x,y)=1MN∑M-1x=0∑N-1y=0F(u,v)ej2π(uxM+vyN)(5)
取結果的實部并乘以(-1)x+y,得到高分辨率圖像的低頻圖像塊Flow,則高頻圖像塊Fhign=F-Flow。將高低頻圖像塊分別作為高頻子網絡和低頻子網絡的輸入。
2.3 高低頻子網絡設計
指靜脈圖像紋理細節變化大,深度學習方法容易造成線狀紋理特征丟失,兼顧指靜脈識別實時性要求,因此構建的模型應側重于紋理特征增強且結構相對簡單。
本文在高頻子網絡設計中使用了多感受野殘差密集塊(residual of receptive field dense block,RRFDB)[27],網絡結構如圖6所示。RRFDB通過感受野密集層(receptive field dense block,RFDB)之間連續記憶機制傳遞狀態,充分利用低分辨率圖像的所有分層特征。
RFDB包含四個殘差密集塊,每一個殘差密集塊包含一個感受野塊(receptive field block,RFB)[28]和一個LReLU塊。其結構如圖7所示。
RFB是一個多分支卷積模塊,主要由小尺度卷積構成,最早被用于目標檢測領域提升輕量型網絡的特征表達能力,充分利用多分支池化與卷積調整不同分支的感受野,并取得了不錯的性能。模型中采用的RFB結構如圖8所示。它主要由小尺度卷積構成,這種變尺度卷積有助于提升感受野并降低計算復雜度,對指靜脈這種線狀紋理特征較多的圖像非常有效,能抽取更多細節特征。
上采樣層由conv層和shuffle組成。基于卷積層得到特征圖像尺寸與輸入圖像一樣,但是特征通道為r2(r是圖像的目標放大倍數)的特征圖。在shuffle層將特征圖切割,并相互拼接使得尺寸擴大一倍,得到高分辨率的特征圖。
由于低分辨率圖像攜帶的低頻信息與高分辨率圖像攜帶的低頻信息相近,所以低頻子網絡的設計比較簡單,由三個卷積層與三個正則化層交替連接。最后經過上采樣層和卷積層,輸出和原始圖像同樣分辨率的結構特征圖,獲取特征值數據。子網絡結構如圖9所示。
最后,整個模型采用L1-loss損失函數,如式(6)所示。
L1=∑ni=1|yi-f(xi)|(6)
3 結果與分析
3.1 數據集
實驗使用了馬來西亞理工大學指靜脈集FV-USM[29]和韓國全北國立大學指靜脈數據集MMCBNU-6000[30]。FV-USM數據集共有5 904張指靜脈圖片;MMCBNU-6000數據集共有6 000張指靜脈圖片。將FV-USM和MMCBNU-6000數據集合并后按照8∶2比例分離訓練集和測試集。對數據集中的圖像進行雙三次插值得到其對應的LR圖像,構成訓練神經網絡所需的LR-HR圖像對。
3.2 環境與設置
實驗的硬件環境:CPU為Intel CoreTM i7-4790K CPU @4.00 GHz;內存為32 GB;顯卡為GeForce GTX970;顯存為4 GB。網絡環境及參數設置:實驗所有模型在 Ubuntu 16.04環境下基于開源框架 PyTorch實現,CUDA 版本為8.0,編程語言為Python 3.6。
3.3 結果分析
3.3.1 視覺效果
將本文方法與現有同類方法SRCNN、VDSR、DRRN進行對比,如圖10所示。本文算法重建的指靜脈圖像較其他算法而言更為清晰,由于本文在高頻子網絡設計中采用了RRFDB結構,所以重建圖像的紋理細節效果也優于現有方法,可以很好地恢復圖像的線狀紋理細節。實驗的視覺效果證明,本文方法抽取細節特征的能力更強,重建圖像的效果更為逼真。
3.3.2 定量分析
采用峰值信噪比(peak signal-to-noise ratio,PSNR)作為評價指標,它是最普遍和使用最廣泛的一種圖像客觀評價指標,然而由于它是基于誤差敏感的圖像質量評價,并未考慮到人眼的視覺特性,所以常會出現與人的主觀評價不一致的情況。于是本文結合了結構相似度(structural similarity,SSIM)[31]評價指標,它在圖片質量評價上更能匹配人眼的判斷標準。
經過實驗,與三個算法進行兩倍放大重建的PSNR與SSIM對比結果如表1所示。
由此可見,本文方法由于采用了高低頻分離訓練,且在高頻子網絡中集成了RRFDB結構,所以在線狀紋理特征較多的指靜脈圖像超分辨率重建上效果明顯,在客觀評價指標與重建視覺效果方面均優于現有算法。
4 結束語
本文提出了基于分頻和多感受野殘差密集的指靜脈圖像超分辨率重建方法。首先對低分辨率圖像提取手指部分RoI,再采用數字圖像頻域濾波分離高頻和低頻圖像。圖像高頻信息代表著細節特征和紋理特征,因此高頻子網絡對高頻信息的處理尤為重要。據此,本文在高頻子網絡中集成了RRFDB結構,該結構能較明顯地提升輕量型網絡的特征表達能力,可以更好地保留原始指靜脈圖像的線狀紋理特征。實驗結果證明,基于分頻和多感受野殘差密集的指靜脈圖像超分辨率重建方法具有較好的重建能力,在客觀評價指標與重建視覺效果方面均優于現有算法,重建的指靜脈圖像質量高,對指靜脈特征提取效果好。在接下來的研究中優化損失函數,更好地促進邊緣細節恢復仍有進一步的空間。雖然RRFDB結構已經減小了網絡模型的規模,但在保證重建精度的前提下持續將模型小型化,仍將是未來研究的重點方向。
參考文獻:
[1]秦德虎.指靜脈識別技術的最新發展與應用[J].中國安防,2014(11):59-63.(Qin Dehu. The latest development and application of finger vein recognition technology[J].China Security amp; Protection,2014(11):59-63).
[2]張亞,許敏敏,張智,等.指靜脈識別技術研究[J].中國人民公安大學學報:自然科學版,2021,27(1):18-27.(Zhang Ya, Xu Minmin, Zhang Zhi, et al. Research on finger vein recognition technology[J].Journal of People’s Public Security University of China:Science and Technology,2021,27(1):18-27.)
[3]曹偉.指靜脈圖像增強算法與識別算法[D].合肥:安徽大學,2018.(Cao Wei. Digital vein image enhancement algorithm and recog-nition algorithm[D].Hefei:Anhui University,2018.)
[4]Kim H J, Lee J M, Lee G A, et al. Contrast enhancement using adaptively modified histogram equalization[C]//Advances in Image and Video Technology.2006:1150-1158.
[5]Qin Guang. The research on a new image enhancement algorithm based on retinex theory[M].Berlin:Springer,2011.
[6]Jin Haiyan, Yang Xiaohui, Jiao Licheng, et al. Image enhancement via fusion based on Laplacian pyramid directional filter banks[C]//Proc of the 2nd International Conference on Image Analysis and Re-cognition.2005:239-246.
[7]Tang Hanyang, Muda A K, Choo Y H, et al. Historic document image de-noising using principal component analysis (PCA) and local pixel grouping (LPG)[M]//Ma-Dureira A, Abraham A, Gamboa D, et al. Intelligent Systems Design and Applications.Cham:Sprin-ger,2016:77-87.
[8]Tsai R Y, Huang T S. Multiframe image restoration and registration[J].Advances in Computer Vision and Image Processing,1984,1(2):317-339.
[9]Greenspan H. Super-resolution in medical imaging[J].The Computer Journal,2009,52(1):43-63.
[10]Isaac J S, Kulkarni R. Super resolution techniques for medical-image processing[C]//Proc of International Conference on Technologies for Sustainable Development.Piscataway,NJ:IEEE Press,2015:1-6.
[11]Huang Yawen, Shao Ling, Frangi A F. Simultaneous super-resolution and cross-modality synthesis of 3D medical images using weakly-supervised joint convolutional sparse coding[C]//Proc of IEEE Confe-rence on Computer Vision and Pattern Recognition.2017:5787-5796.
[12]Thornton M W, Atkinson P M, Holland D A. Sub-pixel mapping of rural land cover objects from fine spatial resolution satellite sensor ima-gery using super-resolution pixel swapping[J].International Journal of Remote Sensing,2006,2703(4):473-497.
[13]Dong Chao, Chen Change, He Kaiming, et al. Learning a deep convo-lutional network for image super-resolution[C]//Proc of IEEE European Conference on Computer Vision.2014:184-199.
[14]Shi Wenzhe, C’aballero J, Huszar F, et al. Real-time single image and video super-resolution using an efficient sulrpixel convolutional neural network[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.2016:1874-1883.
[15]He Kaiming, Ren Shaoqing, Sun Jian, et al. Deep residual learning for image recognition[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.2016:770-778.
[16]Kim J, Lee J K, Lee K M. Accurate image super-resolution using very deep convolutional networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.2016:1646-1654.
[17]Tai Ying, Yang Jian, Liu Xiaoming. Image super-resolution via deep recursive residual network[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.2017:2790-2798.
[18]Lim B, Son S, Kim H, et al. Enhanced deep residual networks for single image super-resolution[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.2017:1132-1140.
[19]Lai Weisheng, Huang Jiabin, Ahuja N, et al. Deep Laplacian pyramid networks for fast and accurate super resolution[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.2017:5835-5843.
[20]Lai Weisheng, Huang Jiabin, Ahuja N, et al. Fast and accurate image super-resolution with deep Laplacian pyramid networks[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2019,41:2599-2613.
[21]Tong Tong, Li Gen, Liu Xiejie, et al. Image super-resolution using dense skip connections[C]//Proc of IEEE International Conference on Computer Vision.2017:4809-4817.
[22]Zhang Yulun, Tian Yapeng, Kong Yu, et al. Residual dense network for image super-resolution[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.2018:2472-2481.
[23]Haris M, Shakhnarovich G, Ukita N. Deep back projection networks for super-resolution[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.2018:1664-1673.
[24]Zhou Yuanbo, Wei Deng, Tong Tong, et al. Guided frequency separation network for real-world super-resolution[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops.2020:1722-1731.
[25]張晉陽,孫懋珩.手背靜脈圖像骨架特征提取的算法[J].計算機應用,2007,27(1):152-154.(Zhang Jinyang, Sun Maohang. Study on algorithm for skeleton features extraction of hand vein image[J].Journal of Computer Applications,2007,27(1):152-154.)
[26]包曉安,易芮,徐璐,等.改進殘差網絡的指靜脈識別[J].西安工程大學學報,2020,34(3):67-74.(Bao Xiao’an, Yi Rui, Xu Lu, et al.Finger vein recognition based on improved residual network[J].Journal of Xi’an Polytechnic University,2020,34(3):67-74.)
[27]Rakotonirina N C, Rasoanaivo A. ESRGAN+: further improving enhanced super-resolution generative adversarial network[C]//Proc of IEEE International Conference on Acoustics,Speech and Signal Processing.2020:3637-3641.
[28]Liu Songtao, Huang Di, Wang Yunhong. Receptive field block net for accurate and fast object detection[M].Cham:Springer,2018.
[29]Asaari M S M, Suandi S A, Rosdi B A. Fusion of band limited phase only correlation and width centroid contour distance for finger based biometrics[J].Expert Systems with Applications,2014,41(7):3367-3382.
[30]Lu Y, Xie S J, Yoon S, et al. An available database for there search of finger vein recognition[C]//Proc of the 6th International Congress on Image and Signal Processing. 2013: 410-415.
[31]Wang Zhou, Bovik A C, Sheikh H R, et al. Image quality assessment: from error visibility to structural similarity[J].IEEE Trans on Image Processing,2004,13(4):600-612.