賈丁丁,沈文忠
上海電力大學 電子與信息工程學院,上海 201200
虹膜識別是基于虹膜豐富的紋理特征進行身份鑒別的一種生物識別技術,具有穩定性、普遍性、安全性的優點。
完整的虹膜識別流程一般包括虹膜圖像采集、圖像預處理、特征提取和識別驗證四部分,其中特征提取是虹膜識別算法的核心部分。現在應用較廣泛的虹膜特征提取方法是由Daugman開創的技術:通過將個體的虹膜投影到Gabor小波上并將向量響應轉換為二進制代碼,再基于漢明碼距計算向量的相似度,根據一定閾值對相似度分數進行歸類,最終達到鑒別身份的目的[1]。這種特征提取策略因其具有計算復雜度低、較高的匹配效率和準確率的特點而占據了虹膜識別的主導地位。在Daugman開創性研究的啟發下,近10年來,基于一維Log-Gabor[2]、離散余弦變換(discrete cosine transform,DCT)[3]、離散傅立葉變換(discrete Fourier transform,DFT)[4]、序數度量[5]等多種特征描述方法在虹膜識別任務上均表現出不俗的性能。但是這些方法多基于特定的特征提取器,即需要進行繁瑣的人工調節參數來適應不同的識別對象,并且對虹膜采集的圖像有較高的約束要求,存在靈活性和困難樣本效果差的問題。
近些年來,隨著深度學習和計算機視覺的深入發展,許多研究結果表明,使用卷積神經網絡提取的通用描述符能夠更好地表達復雜的圖像特征。近些年來,在虹膜特征提取方面已經有不少出色的研究結果。Boyd等人[6]提出問題:Gabor內核是否是虹膜編碼的最佳選擇?作者使用單層卷積網絡,模擬基于虹膜代碼的算法,試圖通過神經網絡訓練的方法尋找出用于虹膜識別的內核。最終發現:網絡不會收斂于Gabor內核,而是收斂于邊緣檢測器、斑點檢測器和簡單波的混合體。Gangwar等人[7]對卷積神經網絡應用于虹膜識別的一系列問題(CNN網絡輸入尺寸、CNN網絡規模、不同虹膜分割方法的影響、跨數據集測試等)進行了詳細的實驗和討論,為CNN應用在虹膜識別領域做了很好的開創性工作。Gangwar等人[8]提出了一個用于表達可見光和近紅外光虹膜圖像的CNN框架DeepIrisNet2,并且應用Spatial Transformer對虹膜圖像進行了數據增強,并提出了一種二進制編碼策略。Nguyen等人[9]探索了當時比較流行的CNN模型(VGG、Inception、ResNet、DenseNet等)在虹膜識別方面的性能表現,最終在CASIA-Iris-Thousand上訓練并測試,結果最佳的網絡模型是DenseNet,在錯誤接受率(false accept rate,FAR)為0.001的條件下,達到了TAR=98.8%的水平。Radimpetlík等人[10]介紹了一種新穎的“UnitCircle層”,它取代了CNN管道中的特征提取步驟,并通過網絡訓練更新參數,在多個數據集上均超越了多個傳統的虹膜識別算法。Boyd等人[11]從網絡訓練的角度出發,基于ResNet50在下面三種訓練方式下探索最佳的網絡訓練策略:(1)僅使用預訓練參數;(2)使用預訓練參數并微調虹膜數據集;(3)僅在虹膜數據集上訓練。最終,通過實驗證明最佳的訓練策略是第二種。
在以上研究成果的啟發下,本文設計了結合Additive Margin Softmax Loss[12]的新的虹膜特征編碼網絡IrisCodeNet。為了說明該網絡突出的虹膜識別性能,本文在虹膜圖像預處理輸入形式、網絡輸入圖像分辨率、數據增強以及損失函數參數設置等方面對提出的IrisCodeNet進行了細致的研究和討論。
近些年來,基于深度學習的虹膜識別研究工作大多基于神經網絡的設計,比如文獻[9-10,13]均使用了殘差網絡并取得了一定的虹膜識別效果,而在損失函數的選取和設計方面沒有太多的研究。本文考慮到基于深度學習的虹膜識別的特殊性——并不只是經典的分類任務而是以計算特征向量距離或相似度的策略來進行身份鑒別的任務,對Additive Margin Softmax進行了研究,并成功應用到虹膜特征編碼網絡IrisCodeNet。
IrisCodeNet和ResNet18[14]同樣采用18層設計,但針對虹膜識別任務的特殊性,在以下方面做了創新和改進:
(1)首個卷積層采用更小的卷積核和移動步長;
(2)激活函數用Mish[15]代替ReLU;
(3)使用改進的BasicBlock;
(4)使用Additive Margin Softmax Loss;
(5)對IrisCodeNet進行了可視化分析。
IrisCodeNet的一個卷積層使用了具有小感受野的3×3卷積核,而不是采用原始殘差網絡的7×7大核,移動步長也從2個像素減小為1個像素。這意味著首個卷積操作對輸入圖像的每一個像素進行了卷積運算。由于虹膜紋理豐富且細微,采用以上策略可以避免在網絡一開始就因過大的卷積核和步長丟失過多的虹膜紋理信息。
無論是在IrisCodeNet的主干通道還是在殘差塊內,激活函數均采用Mish,其表達式見式(1)。和ReLU函數相比,Mish對負值的輕微允許會通過更好的梯度流,而不是像ReLU中那樣存在硬性的零邊界。不同于ReLU,Mish在零處的導數存在,平滑的函數曲線允許更好的信息進入神經網絡,從而得到更好的準確性和泛化性[15]。

IrisCodeNet采用改進的殘差塊。如圖1(b)所示,將BasicBlock中的激活函數ReLU替換為Mish,并且在第一個卷積層前面增加了一個Batch Normalization層來加速網絡收斂。設置第二個卷積層中的卷積核的移動步長為2,進行下采樣,不同的是,一般BasicBlock的下采樣過程設置在第一個卷積層。改進的BasicBlock被稱為ImprovedBlock。
IrisCodeNet詳細的網絡結構見表1,其對應的網絡結構如圖1(c)所示。訓練階段,IrisCodeNet對虹膜做一般的分類任務;測試階段,去掉最后的分類層,加載訓練好的網絡權重,輸入虹膜圖像,從全連接層輸出并保存512維的特征向量,即使用IrisCodeNet對該幅虹膜圖像完成了一次特征編碼。

圖1 IrisCodeNet網絡結構圖Fig.1 IrisCodeNet network structure diagram

表1 IrisCodeNet網絡結構細節Table 1 Network structure details of IrisCodeNet
Additive Margin Softmax Loss和Softmax Loss相比具有更大的優勢:在分類任務中,改進后的AM-Softmax Loss可以更好地聚合同類樣本,縮小同類距離,在客觀上分離異類樣本,擴大異類距離。
近些年來,AM-Softmax Loss在人臉識別中已經有很好的應用,而虹膜識別和人臉識別同屬身份驗證的生物識別技術,即本質上是以計算特征向量相似度的策略來鑒別身份,本文首次在虹膜識別中應用margin函數AM-Softmax Loss。接下來對此函數做簡要說明。
AM-Softmax Loss是對Softmax Loss的改進,原始的Softmax Loss公式如下:

其中,f i是最后一個全連接層的輸入(f i表示第i個樣本),W j是最后一個全連接層參數矩陣W的第j列。WTyi f i稱為第i個樣本的目標邏輯[16]。
文獻[12]提出了一個特殊的函數φ(θ),它為Softmax Loss引入了一個附加的間隔,公式如下:

值得注意的是,在這個Margin方案中,因為Ψ′(x)=1,即自變量的導數為1,所以并不需要計算反向傳播的梯度,在訓練過程中參數的更新易于實現。
總的來說,在Softmax Loss的基礎上,將特征歸一化和權重歸一化同時應用到內積層構建了一個余弦層,然后使用超參數s縮放余弦值,最終形成了AM-Softmax Loss,公式為:

為了說明IrisCodeNet突出的虹膜識別性能,本章將對損失函數參數設置、圖像預處理輸入形式、網絡輸入尺寸、數據增強等幾個方面做細致的實驗和分析。
首先簡要介紹實驗所涉及到的評價指標、數據集、分割工具、可視化工具、向量匹配等幾個概念。
評價指標:本文采用等錯誤率(EER)和在錯誤接受率(FAR)為0.001水平下的真實陽性率(即TAR@FAR=1E-3)以及類內類間相似度分數分離度指標作為評價IrisCodeNet性能的依據。另外,根據需要,部分實驗采用了更加嚴格的TAR@FAR=1E-5。
CASIA-Iris-Thousand:該數據集[17]是中國科學院自動化研究所虹膜數據庫中的一個子集。該子集一共有1 000個受試者的20 000張虹膜圖像,左眼虹膜和右眼虹膜看作兩類虹膜,即該數據庫總共有2 000個虹膜類別。
CASIA-Iris-Distance:該數據集[17]包含來自142個對象的2 446個臉部圖像,每個圖像包含兩只眼睛。由于原始圖像是上半部分的人臉信息,需要使用眼睛檢測算法對人眼及其周圍區域進行定位。
IITD:該數據集[18]由印度理工學院德里分校提供,一共包括來自224個受試者的2 240個虹膜圖像。
分割工具:選擇OSIRIS[19]作為虹膜圖像的分割工具。開源工具OSIRIS能夠對采集到的人眼圖像進行預處理,定位瞳孔和虹膜邊界,分割出圓環狀的虹膜區域,并生成尺寸為512×64的歸一化虹膜。
Grad-CAM[20]:通過生成視覺解釋可以使任何基于CNN的模型更加透明,突出顯示圖像中用于預測概念的重要像素區域。本文采用Grad-CAM來驗證IrisCodeNet是否真正關注于虹膜細致的紋理特征以區分不同類別。
特征向量匹配:窮舉測試集中所有虹膜圖像兩兩之間的匹配對情況并標定每對的同異源,使用訓練好的IrisCodeNet對所有匹配對做編碼,之后使用余弦相似度計算匹配對中兩個編碼向量的相似度。基于所有同源和異源相似度分數可以得到不同閾值下的FRR和FAR,進而得到EER。
為了證明IrisCodeNet和AMS-Softmax Loss在虹膜數據集上的有效性。在不同的實驗組合下,測試在CASIA-Iris-Thousand上的EER和TAR水平。
數據處理方式或實驗方法為:虹膜數據集CASIAIris-Thousand沒有進行數據增強;使用OSIRISv4.1分割并歸一化虹膜,網絡輸入尺寸為112×112,有效虹膜的訓練集和測試集的比例為13 992∶5 999。經實驗測試,IrisCodeNet和AM-Softmax與ResNet18和Softmax在CASIA-Iris-Thousand數據集上的EER和TAR水平如表2所示。

表2 不同實驗方法的EER和TAR水平Table 2 EER and TAR levels of different experimental methods %
實驗1對比實驗2、實驗3對比實驗4說明使用了改進殘差塊的IrisCodeNet比使用了BasicBlock的ResNet18有更高的虹膜識別水平。實驗1對比實驗3、實驗2對比實驗4說明結合AMS-Softmax Loss比Softmax Loss有更好的實驗效果。
由式(5)可以看出,AM-Softmax Loss有s和m兩個參數。為了加速并穩定loss的優化過程,參考文獻[12]的設置,s被固定為30.0;并且文獻[12]在人臉數據集上對m的取值進行了實驗并得出結論,m最佳取值區間為0.35到0.40。但是為了更好地應用于虹膜領域,本文對m的取值做了相應的實驗。使用沒有進行數據增強的虹膜數據集IITD、CASIA-Iris-Thousand、CASIA-Iris-Distance進行評估,m的取值從0.25到0.75,取值變化間隔為0.10。
由表3可以看出,實驗結果并沒有像文獻[12]的實驗結果那樣隨著m的增大,評價指標整體上先是變好再變差,而是出現了飽和現象:EER和TAR水平在m增加的后期基本不再變化。出現這種現象的可能原因是:無論是類別的多樣性還是單個類別樣本的豐富程度,這三個虹膜數據集均遜于規模可觀的人臉數據集。所以在本文的實驗中,即使設置更大的margin裕度,在相對較少的類別和圖像總數下,AM-Softmax Loss依然可以優化得很好。不過,經過反復實驗,發現m大于等于0.55情況下,損失函數曲線會有較大的震蕩,且需要較長時間才能收斂,因此為了訓練的穩定性和快速收斂,在后面的實驗設置中,AM-Softmax Loss的參數m均設置為0.45。

表3 三個數據集上不同m設置下的EER和TAR水平Table 3 EER and TAR levels under different m settings on three datasets %
為了進一步說明損失函數AM-Softmax Loss的優勢,統計了表2的IrisCodeNet+AM-Softmax和IrisCodeNet+Softmax兩組不同的實驗設置分別在CASIA-Iris-Thousand測試集上5 998個類內相似度分數和17 985 003個類間相似度分數的分布圖,如圖2。

圖2 兩種損失函數對應的相似度分數分布情況Fig.2 Distribution of similarity scores corresponding to two loss functions
在圖2中,紅色部分對應于AM-Softmax Loss的相似度分布;紫色部分對應于Softmax Loss的相似度分布。由于采用余弦距離來評估向量相似度,兩個向量相似度越高,夾角越小,余弦值就越大,圖2中的右半部分區域表示的是類內相似度分數的分布情況。
可以明顯看出,使用AM-Softmax Loss的紅色類內的相似度分數在0.7到1.0區間內的輪廓更加“陡峭”,分數集中分布在0.8以上。而紫色類內部分,即對應于Softmax Loss的類內分數分布,則多集中在0.5到0.9區間內,分布相對均勻,并且仍有不少分數分布在0.3到0.4區間內,模糊的“邊界”將增加異類被判斷為同類的風險,從而導致更大的誤識率。而紅色類內區域的分數分布更加“緊湊”,極少的類間分數分布在右邊界,AMSoftmax Loss把類內和類間的邊界控制得更加清晰。
另外,分別計算了在兩種損失函數下,類內、類間相似度分數的均值μ和標準差σ,并通過式(6)計算了二者的分離度d′,表達式如下:

其中,μ1和σ1分別表示在某個損失函數下類內相似度分數的均值和標準差;μ2和σ2表示類間相似度分數的均值和標準差。
由表4可知,AM-Softmax Loss的分離度8.74大于Softmax的6.03,d′越大,不同類別分開得越明顯,分類效果就越好。

表4 在AM-Softmax Loss和Softmax Loss下匹配分數的分離度Table 4 Degree of separation of matching scores under AM-Softmax Loss and Softmax Loss
虹膜預處理是將傳感器采集到的包含人眼和眼周的原始圖像進行信息處理的過程:先把虹膜ROI定位出來,再把虹膜與眼瞼、睫毛、鞏膜等干擾信息分割開來,一般還要將分離出來的虹膜圓環進行歸一化處理。圖像預處理是虹膜識別系統中的關鍵步驟,在虹膜識別系統中,圖像預處理的好壞將直接影響特征提取算法的有效性,進而影響虹膜識別的準確率。
為了探究IrisCodeNet在不同虹膜圖像預處理程度下的性能表現,本文把預處理結果分為“ROI裁剪”“ROI掩碼”“虹膜歸一化”三種形式,為表述方便,分別用ROICrop、ROIMasked、IrisNormalized表示。
ROICrop是指僅僅定位并裁剪出虹膜ROI區域。如圖3(a)所示,該矩形區域除了含有能夠用來提取特征的虹膜有效信息,還包含有瞳孔、鞏膜,以及一些眼瞼等干擾信息,ROICrop本質上是對眼球的一種初步定位。
ROIMasked是指在ROICrop的基礎上加上了掩碼。如圖3(b),掩碼遮擋住了瞳孔、鞏膜、眼瞼等非重要信息,其意義在于在一定程度上“幫助”IrisCodeNet更加專注于對虹膜紋理進行特征提取。
IrisNormalized對應于傳統算法中必不可少的歸一化步驟。首先使用霍夫變換圓等方法把瞳孔和虹膜之間的內橢圓以及虹膜和鞏膜之間的外橢圓檢測出來,之后使用彈性模型將包含有虹膜的橢圓環映射到極坐標下,掩碼也做相應的變換。最終,歸一化的圓環區域結合歸一化的掩碼生成歸一化虹膜。歸一化虹膜圖像如圖3(c)所示。

圖3 不同預處理程度下的虹膜圖像及Grad-CAMFig.3 Iris images and Grad-CAM under different preprocessing levels
2.2.1 ROICrop和ROIMasked識別實驗
經過上述實驗和討論,網絡輸入尺寸設置為112×112,并且使用本文提出的數據增強方式,最后在數據庫CASIA-Iris-Thousand上評估。
實驗結果如表5所示,ROICrop和ROIMasked的EER和TAR水平相當,各自分別為0.25%和99.65%、0.22%和99.72%。從評價指標上可以得出結論:即使存在干擾信息,IrisCodeNet依然可以很好地關注虹膜的紋理區域。為了進一步直觀體現IrisCodeNet的特征提取效果,使用Grad-CAM對ROICrop和ROIMasked進行可視化,如圖3所示,顏色冷暖程度代表了圖像像素被特征提取器索引的頻率,索引頻率從高到低對應的顏色依次為紅色>黃色>綠色>藍色。可以發現,在瞳孔周圍的虹膜區域,紅色斑塊較多,而綠色或藍色斑塊多分布于虹膜和鞏膜圓形邊界和邊界以外的區域。Grad-CAM從可視化的角度再次證明了即使識別的是初步定位的虹膜ROI,IrisCodeNet依然可以很好地對虹膜特征進行表達。這在一定程度上降低了對分割精度的要求,甚至可能沒有必要再進行更為細致的分割步驟。這具有深遠的意義,將大大減少圖像預處理時間,從而提高整個虹膜識別系統的工作效率。同時還發現,如圖3(b),ROIMasked的熱力圖顏色的輪廓更加清晰,紅色區域即索引較多的像素密集分布在靠近瞳孔邊緣側,這和掩碼對干擾信息的遮擋有密不可分的關系。
2.2.2 IrisNormalized和ROIMasked識別實驗
為探究不同分辨率的歸一化虹膜圖像對識別精度的影響,遵循文獻[7]的歸一化圖像處理方法:先使用OSIRISv4.1工具將虹膜歸一化為160×40、224×56、320×80的不同尺寸的圖像,再將圖像裁剪并拼接為80×80、112×112和160×160三種尺寸,如圖4所示。

圖4 不同歸一化尺寸圖像的處理過程Fig.4 Processing process of different IrisNormalized size images
實驗結果如表5所示。在三個網絡輸入尺寸中,IrisNormalized-80的效果最差,這可以解釋為過度的下采樣丟失了大量的虹膜信息;相反的,為了送入網絡更多的虹膜紋理信息,試圖增大網絡的輸入分辨率,但是實驗發現,更大分辨率的IrisNormalized-160和IrisNormalized-112相比虹膜識別效果卻稍微變差,這個現象和文獻[7]關于網絡輸入尺寸實驗所得結果一致。對IrisCodeNet來說,可以認為112×112是相對最優的歸一化尺寸。

表5 Thousand不同實驗方法下的實驗結果Table 5 Experimental results under different experimental methods of Thousand %
IrisNormalized-112和IrisNormalized-160實驗組的EER均低于ROIMasked的0.22%;TAR均高于ROIMasked的99.72%。網絡輸入尺寸為112×112時,即IrisNormalized-112取得了最佳的虹膜識別水平:EER=0.12%,TAR=99.88%。這和ROIMasked相比性能水平有了較大的提升,說明基于CNN的特征提取算法和傳統虹膜識別算法一樣,在預處理階段非常有必要對虹膜圖像進行歸一化處理。這可以解釋為:在虹膜圖像采集過程中,瞳孔因光照會發生縮放,并且按照放射方向較大范圍地影響虹膜紋理的分布,將會影響在相似度匹配時卷積核沿水平方向進行濾波的結果,而虹膜歸一化將沿瞳孔邊緣呈放射狀分布的虹膜紋理映射為沿著水平軸分布的細帶狀紋理,在很大程度上解決了因瞳孔縮放帶來的相似度匹配時存在的配準問題。
2.2.3 和現有算法的比較
實驗組IrisNormalized-112達到了EER=0.12%,TAR=99.88%的最高識別水平。無論是和基于Gabor的IrisCode[13]傳統算法相比較,還是近些年來同樣使用卷積神經網絡的新型算法相比較,IrisCodeNet-IrisNormalized-112均具有更低的EER和更高的TAR水平。特別地,即使不進行歸一化步驟,單純考慮ROIMasked和ROICrop,其虹膜水平都遠遠優于傳統算法,甚至也優于使用歸一化虹膜圖像的ResNet50[11]、DeepIris[21]、FeatNet[22]、ResNet18[13]等深度神經網絡算法。
在虹膜采集過程中,往往因為光照、被拍攝者頭部的移動和一定角度的旋轉等非協作因素導致圖像質量參差不齊;另外現有的虹膜數據集的豐富程度和體量規模受到一定限制,因此,非常有必要針對訓練集進行數據增強,以滿足神經網絡參數的訓練。
本文沒有使用線上增強對歸一化的虹膜圖像直接進行圖像增強操作,因為這并不符合實際;而是對未進行任何預處理的人眼原圖進行本地數據增強,選擇了改變亮度、增加噪聲、圖像模糊、角度旋轉四種變換方式來模擬圖像采集的真實場景。增強后樣本再使用OSIRISv4.1工具進行預處理,根據網絡訓練任務的需要,生成不同預處理程度的虹膜圖像。表6展示了三種不同預處理形式的數據集統計信息。

表6 Thousand不同預處理形式下的統計信息Table 6 Statistics under different preprocessing levels of Thousand
下面展示了在CASIA-Iris-Thousand上詳細的數據處理流程:
(1)遵循文獻[10]的做法,將CASIA-Iris-Thousand數據集的20 000張原始虹膜圖像按類別7∶3分割為原始訓練集和測試集,總數比例為14 000∶6 000。
(2)原始訓練集經過本地數據增強,每個樣本擴增5張,最終得到有60 000張圖像的增強訓練集。
(3)把60 000張增強訓練集圖像、14 000張原始訓練集圖像、6 000張測試集圖像送入OSIRISv4.1工具,進行圖像預處理,并剔除掉預處理失敗的樣本,分別生成有效增強訓練集、有效原始訓練集和有效測試集。
(4)將有效的增強訓練集和有效的原始訓練集合并為有效訓練集,用于網絡特征提取器的訓練;6 000張測試樣本經過OSIRISv4.1工具預處理并經過篩選之后,生成了用于匹配測試的有效測試集。由測試集生成的類內匹配對以及類間匹配對的數量信息見表6。
最終的實驗結果統計于表5中,對比進行了樣本數據增強的IrisNormalized-112和沒有進行樣本數據增強的IrisNormalized-NoAug,發現前者有更好的識別性能,證明了本文提出的本地數據增強方式的有效性。
值得注意的是,無論是含有大量干擾信息的ROICrop還是在其基礎上加了掩碼的ROIMasked以及進一步歸一化的IrisNormalized,甚至沒有數據增強的IrisNormalized-NoAug,所有的實驗指標均優于本文所列出的傳統算法和新型的神經網絡算法。對應于表6的ROC曲線如圖5所示。其中,符號“×”是文獻[11]使用ResNet50網絡得到的最佳識別結果,TAR=99.38%;符號“*”是文獻[9]使用DenseNet網絡得到的最佳識別結果,TAR=98.80%。其他算法的TAR水平均低于本文所有實驗方法得到的結果,由于坐標限制,并沒有在圖中體現。

圖5 Thousand不同實驗方法下的ROCFig.5 ROC under different experimental methods of Thousand
對于CASIA-Iris-Distance、IITD數據集,本文遵循文獻[22]的實驗設置:全部的右眼虹膜用于訓練,全部的左眼用于測試。因為CASIA-Iris-Distance原始圖像是整張人臉,所以先使用文獻[23]的定位算法定位眼睛及其眼周區域,再使用本文提出的本地數據增強方法進行數據增強,然后送入OSIRISv4.1進行歸一化,并剔除掉預處理失敗的樣本。
在兩個數據集上,用于訓練和測試的有效樣本數量以及測試集產生的同類驗證對、異類驗證對信息如表7所示。

表7 Distance、IITD分配和驗證對統計信息Table 7 Allocation and verification pair statistics of Distance and IITD
實驗結果如表8所示,在CASIA-Iris-Distance、IITD數據上,無論EER還是TAR,IrisCodeNet和傳統算法OSIRIS和log-Gabor以及Ordinal相比顯示出更加優異的分數。唯一的是,在兩個數據集上的EER好于ICCV17的算法,TAR水平略低于其算法。

表8 在Distance、IITD上的實驗結果Table 8 Experimental results on Distance and IITD%
為了實現對虹膜紋理準確的特征表達,針對虹膜識別任務的特點,提出了一種新的虹膜特征編碼網絡IrisCodeNet。該網絡結合了改進BasicBlock網絡結構和可以擴大決策邊界的margin損失函數AM-Softmax Loss。
本文進行了多組對比實驗,評估了損失函數AMSoftmax Loss參數m、虹膜圖像預處理輸入形式、網絡輸入尺寸、數據增強等多個因素對IrisCodeNet性能的影響。結果發現,IrisCodeNet在多個數據集上均取得了卓越的虹膜識別效果。本文得出結論:
(1)由于可以增加擴大決策邊界,聚合同類樣本,AM-Softmax Loss比Softmax Loss更加適用于基于特征向量相似度匹配的虹膜識別任務。
(2)IrisCodeNet在預處理程度為ROICrop的CASIAIris-thousand數據庫上,表現出了比傳統經典算法和新型算法更高的性能水平,并結合梯度熱力圖,說明了IrisCodeNet生成的特征提取器對粗略定位的虹膜ROI也有很強的特征描述能力。另外,因為匹配驗證存在模板間的配準問題,所以無論是傳統算法的Gabor算法還是基于CNN訓練的特征提取器,虹膜歸一化依然是最佳的預處理方式。
(3)適當地對歸一化圖像進行降采樣,即減小網絡輸入尺寸,將提高IrisCodeNet的特征提取性能。
(4)為了增加訓練樣本的豐富性,模擬實際采集場景,采用改變亮度、增加噪聲和模糊、平移和旋轉圖像的方式豐富了訓練數據,在一定程度上提高了IrisCodeNet的虹膜識別效果。
(5)IrisCodeNet在CASIA-Iris-Thousand、IITD、CASIA-Iris-Distance三個虹膜數據集上的EER和TAR@FAR=1E-3水平均優于傳統算法和一些深度神經網絡的算法。