999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于SRDenseNet的指紋超分辨率重建研究

2023-07-07 03:10:18劉滿華
計算機應用與軟件 2023年6期
關鍵詞:結構

錢 鵬 劉滿華,2*

1(上海交通大學儀器科學與工程系 上海 200240) 2(上海交通大學人工智能研究院 上海 200240)

0 引 言

生物特征識別是如今進行身份識別的重要手段,相較于其他身份識別技術,生物特征識別不易被篡改、偽造,并且具有唯一不變性[1]。指紋識別作為生物特征識別的重要組成部分,研究起步早,發展迅速,現在已經得到了廣泛的研究和應用。盡管如此,指紋識別技術仍然存在許多挑戰性問題,比如現有的自動指紋識別系統對多種低質量和低分辨率的指紋并不能很好地完成識別。雖然現在已有許多針對低質量指紋進行增強的算法被提出[2-6],但針對低分辨率指紋的研究并不常見[7]。目前針對低分辨率或者嬰幼兒指紋,自動指紋識別系統仍然采用上采樣的方式提高圖像分辨率,圖像在上采樣過程中會出現明顯的信息不足和模糊,影響識別精度。如何在提高指紋圖像分辨率的同時不丟失指紋細節信息是解決該問題的關鍵。

超分辨率任務主要是通過計算機圖像處理技術,將一幅低分辨率圖像轉換成一幅高分辨率圖像。超分辨率算法目前廣泛應用于醫療圖像和遙感圖像等領域[8-9]。該任務最具挑戰性的問題是如何重建在低分辨率圖像中丟失的細節。傳統的圖像插值上采樣算法(如最近鄰插值、雙線性插值和雙三次插值)無法重建細節,放大的圖像通常比較模糊。目前已經有大量經典的超分辨率算法被提出[10],主要有基于預測的方法[20]、基于邊緣的方法[21]、基于統計的方法[22]、基于圖像塊的方法[23]和稀疏表示方法[8,24]等。

隨著深度學習算法的快速發展,已經有多種基于深度學習的超分辨率方法被提出。SRCNN[11]首次將深度卷積神經網絡應用于超分辨率任務。近幾年,大量基于卷積神經網絡的超分辨率算法被提出。文獻[12]提出了一種改進的FSRCNN,它可以將圖像從低分辨率直接轉換為高分辨率。文獻[13]提出使用PixelShuffle層代替反卷積作為上采樣層以提高效率。文獻[14]將ResNet[15]結構引入了超分辨率網絡,并提出了VDSR。他們認為低分辨率圖像和高分辨率圖像在很大程度上共享相同的信息,因此使用殘差網絡可以更充分地利用低分辨率圖像信息以提高超分辨率重建效果。除此之外,文獻[19]提出將條件生成式對抗網絡引入圖像超分辨率任務。

指紋超分辨率任務相關研究仍然較少,文獻[7]和文獻[16]提出了基于字典學習的指紋超分辨率重建算法,該方法使用高分辨率指紋圖像塊作為基本特征構建字典,通過字典稀疏表示重建指紋高分辨率特征,效率和效果并不是特別理想。

本文參考其他領域基于深度學習的圖像超分辨率算法,提出了一種基于密集連接卷積神經網絡(SRDenseNet)的指紋超分辨率重建方法。首先采集大量高分辨率指紋圖像作為訓練數據,然后搭建SRDenseNet學習指紋低分辨率到高分辨率的重建,最后將低分辨率指紋圖像輸入已訓練好的SRDenseNet,從而完成端到端的指紋圖像超分辨率重建。

1 基于SRDenseNet的指紋超分辨率

基于SRDenseNet的指紋超分辨率重建是將低分辨率指紋圖像輸入經過訓練的SRDenseNet,輸出重建后的高分辨率指紋圖像。圖1展示了基于SRDenseNet的指紋超分辨率重建算法的具體流程,主要分為離線訓練和在線測試部分。離線訓練部分使用低分辨率和高分辨率圖像對訓練SRDenseNet,訓練過程網絡將學習如何從低分辨率圖像中重建高分辨率特征。在線測試部分使用訓練好的SRDenseNet,將待測試數據庫低分辨率圖像作為輸入,輸出對應高分辨率圖像。

圖1 基于SRDenseNet的指紋超分辨率重建流程

1.1 訓練數據

作為有監督學習算法的一種,SRDenseNet的訓練需要大量訓練數據。為保證訓練數據和測試數據保持獨立,本文采集了大量高分辨率指紋圖像用于訓練,測試數據采用國際公開FVC指紋數據庫[25]。圖2展示了部分采集的高分辨率指紋圖像,為保證神經網絡能夠充分學習到各種指紋圖像的高分辨率特征,采集過程中對重壓、輕壓、干濕狀態等情況進行了模仿。由圖1可知,網絡訓練所需的低分辨率輸入圖像由高分辨率圖像下采樣獲得,與原始高分辨率圖像組成訓練數據對。為增加訓練數據量,對采集的指紋圖像進行了裁剪、平移和灰度變換等數據增強操作。

圖2 訓練用高分辨率指紋圖像

1.2 網絡結構

SRDenseNet參考了DenseNet[17]結構,網絡結構如圖3所示,其中圖3(a)展示了基礎的SRCNN[11]基本結構,圖3(b)展示了本文改進的SRDenseNet結構。表1展示了Dense塊內部網絡結構參數。

表1 Dense塊內部網絡結構

圖3 SRDenseNet指紋超分辨率網絡結構圖

SRCNN中卷積層采用3×3卷積核。本文所提出的SRDenseNet將SRCNN中卷積層替換成Dense塊并在Dense塊外部加入Dense跳連接。Dense塊結構如表1所示,每個Dense塊中含有6個卷積層,Dense塊中每個卷積層的輸入是該Dense塊中該層前序所有卷積層輸出的級聯。例如第6個卷積層的輸入為該Dense塊中前序所有卷積層輸出在第3維度的級聯,前序總計6個128×128×32輸出層,因此輸入尺寸為128×128×192。多層跳連接的加入可以充分利用各層級提取出的特征信息,同時減輕深度網絡所產生的梯度消失和過擬合現象。每個卷積層包含了一組卷積核大小為1×1的卷積和一組卷積核大小為3×3的卷積,每組含有32個卷積核。由于Dense塊中每個卷積層的輸入為前序所有卷積層輸出的級聯,1×1卷積層可以在融合各層信息的同時減少計算量,之后通過3×3卷積層進一步提取特征信息。激活函數使用LeakyReLU,并且在激活函數前使用批歸一化以加快收斂速度。另外,本文在每個Dense塊外部加入了跳連接,與Dense塊內部相似,每個Dense塊的輸入由之前所有Dense塊輸出的級聯,同樣起到了與Dense塊類似的作用。

網絡經過3個Dense塊后,經過一組上采樣卷積層擴大圖像尺寸。上采樣卷積層包含了一組3×3的卷積層和PixelShuffle層[13],PixelShuffle層通過將卷積輸出的特征圖矩陣進行重新排布,擴大輸出尺寸。例如一個尺寸為32×32×4的特征圖可以通過PixelShuffle層轉換為一個64×64×1的特征圖。相較于反卷積層,PixelShuffle層計算量更小,同時可以避免生成圖像產生棋盤效應。最后經過Sigmoid激活層輸出最終超分辨率圖像。

1.3 損失函數

損失函數用于計算當前網絡輸出與目標之間的差異,通過損失函數值計算更新網絡參數以達到訓練網絡目的。作為回歸任務的一種,超分辨率任務常用損失函數為均方差損失(MSE),其計算公式如下:

(1)

式中:(x,y)為像素坐標,S為生成網絡生成圖像,H為真實高分辨率圖像;w和h分別為圖像的寬和高。

均方誤差損失函數將生成圖像與真實圖像按像素逐一計算誤差,最終計算全圖的方差均值。均方差損失關注生成圖像與真實圖像之間全局灰度值之間的差異。

除均方誤差外,指紋圖像還需要關注圖像脊線結構和局部細節之間的差異。因此,本文將平均結構相似度損失(MSSIM)[26]引入SRDenseNet的訓練。平均結構相似度損失公式如下:

(2)

(3)

最后圖像損失函數線性組合均方誤差損失和平均結構相似度損失,計算如下:

loss=λ1MSE(S,H)+λ2[1-MSSIM(S,H)]

(4)

式中:λ1和λ2為MSE和MSSIM權重。需要注意的是,式(3)計算獲得的局部結構相似度范圍為[0,1],數值越大,圖像結構越相似,因此在計算損失函數時需要將其反轉,保證圖像越相似損失函數值越小且接近0。平均結構相似度損失的加入可以使SRDenseNet在訓練過程中學習如何重建圖像灰度信息的同時學習如何重建指紋紋理結構信息,保證指紋最重要的紋理結構和特征點信息不丟失。

1.4 網絡訓練

SRDenseNet訓練主要包含數據生成、前向傳播和反向傳播,步驟如下。

步驟1加載高分辨率指紋訓練數據作為目標,對該數據進行下采樣作為輸入,并對輸入和輸出圖像做歸一化處理;

步驟2輸入數據經過神經網絡計算超分辨率輸出圖像,根據式(4)計算輸出超分辨率圖像與真實高分辨率圖像之間的損失函數值;

步驟3由損失函數值計算神經網絡參數梯度,更新神經網絡參數;

步驟4重復上述步驟,直至損失函數值收斂至穩定。

SRDenseNet采用PyTorch神經網絡架構進行搭建和訓練,采用Adam優化器,初始學習率設置為0.001,訓練塊大小設置為8,總共迭代50次,采用NVIDIA RTX 2080Ti GPU進行訓練,大約6個小時完成訓練。

2 實驗結果與分析

在SRDenseNet模型訓練后,為對比驗證所提出超分辨率算法的有效性,本文對算法進行了相關實驗。實驗內容主要包含網絡結構消融實驗和指紋匹配準確率比較實驗。

2.1 實驗數據

實驗數據選取FVC公開指紋數據庫[25],該數據庫包含大量子數據庫,為方便與其他文獻進行對比,本文選取了文獻[16]中使用的FVC2004DB3進行對比實驗。該數據庫包含10個不同的手指,每個手指采集8幅圖像,總計80幅指紋圖像。

2.2 網絡結構消融實驗

為驗證網絡結構有效性,采用對網絡結構進行消融裁剪的方式進行對比實驗。消融實驗采用圖像相似度作為評價指標,主要包含結構相似度(SSIM)和峰值信噪比(PSNR)。結構相似度和峰值信噪比廣泛應用于圖像超分辨率任務,反映了超分辨率重建圖像與真實高分辨率圖像之間的相似度。其中結構相似度由式(2)計算獲得,峰值信噪比計算公式如下:

(5)

式中:MAX為圖像灰度值最大值,本文中該值為255;MSE(S,H)由式(1)計算得到。為保證消融實驗公平性,除對比所改變的網絡結構外,其余數據和參數均保持一致。結構相似度范圍為[0,1];峰值信噪比范圍為[0,+∞),均為值越大相似度越高。

網絡結構消融實驗部分主要對比三種不同的網絡參數結構對生成圖像效果的影響,其中結構1采用圖3(a)所示的SRCNN結構,損失函數采用式(1)的均方差損失;結構2如圖3(b)所示,在結構1的基礎上將卷積層替換為Dense塊,Dense塊的內部和外部均加入大量Dense跳連接,損失函數相較于結構1不變;結構3在結構2的基礎上將損失函數修改為式(4),將平均結構相似度損失引入損失函數,該結構為本文所提出的最終結構。圖4展示了不同結構超分辨率圖像的結果,并展示了真實高分辨率指紋圖像作為對比參考。表2展示了不同結構超分辨率結果的圖像相似度指標,其中包含了相似度指標的絕對數值和相較于上一個結構的相對提升。

表2 不同網絡結構的圖像相似度和峰值信噪比性能比較

圖4 基于不同網絡結構的指紋超分辨率結果比較

從圖4可以看出,圖4(b)由結構1生成的圖像擁有一定的超分辨率重建能力,對于指紋脊線清晰的部分能夠成功提高分辨率并重建紋理,但對于脊線密集部分并不能很好地重建,甚至出現了嚴重的紋理結構錯誤。圖4(c)由結構2生成的圖像相較于結構1有著更強的重建能力,圖像大部分區域能夠正確地重建,由此證明Dense塊的加入可以很好地提升網絡的抗噪和重建能力,但圖中框選區域仍出現了紋理結構錯誤的情況。圖4(d)由結構3生成的圖像相較于結構2擁有了更強的超分辨率重建能力,圖像框選區域紋理結構走向沒有出現錯誤,能夠很好地完成超分辨率重建,由此證明平均局部結構損失的加入能夠提高網絡對于圖像結構的重建能力。

從表2中可以看到結構2相較于結構1,結構相似度和峰值信噪比均有明顯提升,證明了Dense塊的加入能夠在整體上很好地提升網絡超分辨率重建能力。結構3相較于結構2,結構相似度和峰值信噪比均有一定的提升,其中結構相似度的相對提升比峰值信噪比更大,證明平均局部結構損失的加入能夠提升網絡超分辨率重建的能力,并且對圖像結構重建能力的提升更明顯。

2.3 匹配準確率比較實驗

除網絡結構消融實驗外,本文還通過實驗測試了指紋匹配準確率,并與其他文獻進行了比較。為與其他文獻保持相同的實驗環境,本文采用開源的指紋匹配算法架構(http://www.codeproject.com)進行指紋匹配,指紋匹配算法采用由文獻[18]提出的M3gl指紋匹配算法。由于該算法只能處理500 dpi的指紋圖像,因此本文采用文獻[16]中提出的先下采樣降低分辨率,然后使用超分辨率算法將分辨率重新提升至500 dpi的方式進行匹配測試。匹配方案與其他文獻保持一致:相同手指之間匹配,總計280對匹配指紋;不同手指之間同一編號匹配,總計360對不匹配指紋。

指紋自動匹配系統將輸入兩幅待匹配指紋,輸出對應匹配分數,通過設定匹配閾值確定待匹配指紋是否匹配。指紋匹配算法性能一般通過檢測誤差曲線(DET)和等錯誤率(EER)評判。DET曲線橫坐標為錯誤接受率(FMR),縱坐標為錯誤拒絕率(FNMR)。

DET曲線展示了當匹配閾值變化時,錯誤接受率和錯誤拒絕率之間的變化關系。當錯誤接受率等于錯誤拒絕率時,此時的值稱為等錯誤率。實驗過程中,本文使用不同的超分辨率算法對相同數據庫進行超分辨率,并使用相同的指紋匹配算法進行性能驗證。最終不同超分辨率算法之間的性能將通過匹配錯誤率進行評價,匹配錯誤率越低,超分辨率算法效果越好。

本文使用雙三次插值上采樣算法作為對比的基準方法,并選取了來自文獻[7-8,16]的指紋超分辨率算法進行對比。圖5展示了低分辨率圖像和不同算法超分辨率之后的圖像,圖6展示了FVC2004DB3中使用不同超分辨率算法放大不同倍率的DET曲線,表3展示了圖6中DET曲線不同放大倍率對應的EER相關結果。

表3 不同方法在不同放大倍率下EER結果(%)

圖5 不同超分辨率算法結果比較

圖6 不同倍率超分辨率DET曲線

從圖5中可以看出,雙三次插值上采樣獲得的圖像模糊,細節點區分困難。文獻[7-8]提出的方法生成的圖像相較于雙三次插值上采樣圖像有明顯的清晰度提升,但白框中細節點仍然存在模糊的情況。文獻[16]方法生成的圖像脊線更加清晰,但脊線灰度值平滑嚴重,且白框中細節點仍然無法還原。本文提出的基于SRDenseNet的指紋超分辨率重建算法生成的圖像更加清晰,保留了指紋脊線的灰度信息,白框中細節點能夠很好地還原,圖像整體效果和細節點還原都更好。由圖6可以看出,SRDenseNet生成的高分辨率圖像在后續指紋匹配結果錯誤率明顯低于其他算法,DET曲線更低。從表3中可以看到,SRDenseNet在2、3、4倍率下的匹配等錯誤率從相較于目前最好的文獻[16]的5.456%、8.730%和16.091%下降至4.762%、7.500%和12.540%,并且放大倍率越高,優勢越明顯。實驗證明,本文提出的基于SRDenseNet的指紋超分辨率算法能夠有效地提升圖像質量以及指紋匹配準確率。

3 結 語

本文提出了一種基于SRDenseNet的超分辨率算法,該算法通過對大量高分辨率指紋圖像進行學習,重建低分辨率指紋圖像紋理結構。網絡結構中加入Dense塊和Dense跳連接以充分利用卷積網絡各層級信息,并在損失函數中加入平均局部結構相似度。該網絡結構能夠在提升指紋圖像分辨率的同時,重建指紋紋理脊線,保留指紋特征點信息。實驗結果表明,本文方法生成的超分辨率指紋圖像更加清晰,細節更完整。Dense塊和平均局部結構相似度的加入能夠有效提升網絡超分辨率重建和抗噪能力。相較于其他超分辨率算法,后續匹配錯誤率更低,且放大倍數越大,優勢越明顯。下一步的工作將在本文工作基礎上,進一步提高指紋圖像質量,以提高指紋匹配準確率。

猜你喜歡
結構
DNA結構的發現
《形而上學》△卷的結構和位置
哲學評論(2021年2期)2021-08-22 01:53:34
論結構
中華詩詞(2019年7期)2019-11-25 01:43:04
新型平衡塊結構的應用
模具制造(2019年3期)2019-06-06 02:10:54
循環結構謹防“死循環”
論《日出》的結構
縱向結構
縱向結構
我國社會結構的重建
人間(2015年21期)2015-03-11 15:23:21
創新治理結構促進中小企業持續成長
現代企業(2015年9期)2015-02-28 18:56:50
主站蜘蛛池模板: 国产靠逼视频| 91av国产在线| 99久久国产综合精品女同| 亚洲福利一区二区三区| 色综合网址| 98超碰在线观看| 亚洲成人在线免费观看| 一本大道在线一本久道| 亚洲AⅤ综合在线欧美一区| 99久视频| 免费人成又黄又爽的视频网站| 国产素人在线| 免费视频在线2021入口| 国产成人资源| 亚洲狼网站狼狼鲁亚洲下载| 亚洲精品第五页| 91欧洲国产日韩在线人成| 理论片一区| 国内精品久久久久久久久久影视| 欧美精品成人一区二区在线观看| 国产亚洲精| 伊伊人成亚洲综合人网7777| 激情综合五月网| 美女国内精品自产拍在线播放| 在线观看亚洲国产| 一级毛片在线直接观看| 91亚洲免费视频| 国产欧美日韩另类| 在线另类稀缺国产呦| 亚洲美女一区| 三上悠亚一区二区| 一区二区理伦视频| 亚洲欧美成人在线视频| 国产理论最新国产精品视频| 国产亚洲一区二区三区在线| 久无码久无码av无码| 激情在线网| 亚洲精品色AV无码看| jizz国产视频| 国产精品无码AV中文| 国产精品丝袜视频| 真实国产精品vr专区| 国产在线啪| 黄片一区二区三区| 久久这里只有精品2| jizz在线观看| 中文字幕一区二区人妻电影| 久久99精品久久久久纯品| 五月天综合网亚洲综合天堂网| 国产99精品视频| 久久婷婷国产综合尤物精品| 国产成人精品第一区二区| 九九热在线视频| 成人小视频在线观看免费| 国产精品观看视频免费完整版| 亚洲永久精品ww47国产| 五月天丁香婷婷综合久久| 国产高清又黄又嫩的免费视频网站| 一本一道波多野结衣av黑人在线| 熟女日韩精品2区| 国产男女免费完整版视频| 伊人久久精品无码麻豆精品| 91黄色在线观看| 91免费观看视频| 欧美全免费aaaaaa特黄在线| 日韩午夜福利在线观看| 在线a视频免费观看| 国产拍在线| 亚洲一级毛片| 国产一区二区三区免费观看| 亚洲无码熟妇人妻AV在线| 精品无码国产一区二区三区AV| 日本午夜精品一本在线观看| 国产网站免费| 再看日本中文字幕在线观看| 欧美在线视频a| 真人高潮娇喘嗯啊在线观看| 精品一区二区三区自慰喷水| 综合色88| 国产精欧美一区二区三区| www.亚洲天堂| 久操线在视频在线观看|