999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于梯度模板匹配的眉毛識別方法

2018-09-10 14:30:28李厚君
廣西科技大學(xué)學(xué)報 2018年3期

李厚君

摘 要:針對基于快速傅里葉變換的眉毛識別方法(FFTER)識別速度較慢的問題,設(shè)計了一種新的基于梯度模板匹配的眉毛識別方法(GTMER).該方法識別速度更快,更能夠適合于實時應(yīng)用.首先,利用圖像梯度特征,快速匹配出純眉毛模板的最相似區(qū)域;然后,通過小范圍內(nèi)的精準(zhǔn)調(diào)整,得到一個準(zhǔn)確的匹配位置;最后,利用傅里葉頻譜距離,將待處理眉毛圖像識別出來.實驗表明:GTMER的識別速度最高比FFTER提升約38%,同時在BJUTED眉毛數(shù)據(jù)庫上的識別正確率也達(dá)到98.12%.

關(guān)鍵詞:眉毛識別;模板匹配;圖像梯度;傅里葉頻譜距離;生物特征識別

中圖分類號: TP317.4 DOI:10.16375/j.cnki.cn45-1395/t.2018.03.010

0 引言

生物特征識別作為一項有用的身份驗證技術(shù),以其準(zhǔn)確性、安全性和實用性得到了廣泛的認(rèn)可,尤其是指紋識別、人臉識別和虹膜識別等都已經(jīng)大量應(yīng)用于現(xiàn)實生活中[1].隨著研究的不斷深入,人體的各個方面特征,如步態(tài)[2]、耳朵[3]、掌紋[4]、指關(guān)節(jié)[5]等,都已經(jīng)被使用并作為一種獨立的生物特征進(jìn)行研究.

在眾多的生物特征識別技術(shù)里,虹膜識別被認(rèn)為是準(zhǔn)確性和安全性較高的一種技術(shù).但是,要在開放環(huán)境中對虹膜實現(xiàn)自然采集是困難的.因為虹膜處于易移動的物體(眼球、頭部)上,成像需要使用近紅外光;并且它的尺寸很小,要求近距離的采集[6].此外,一旦出現(xiàn)閉眼或眨眼的情況,被采集的虹膜信息的完整性將難以保證.為此,Park等[6]提出了眼周生物特征識別的概念.相比于虹膜,眼周可以通過可見光,在一個相對遠(yuǎn)的距離下實現(xiàn)自然的采集,它甚至可以使用已有的人臉采集設(shè)備與人臉圖像一起被采集到.眼周識別可以在人臉鼻子及以下部分被遮擋時,替代人臉識別.Park等使用了568人的模板庫以及1 136幅測試圖像進(jìn)行眼周識別實驗,正確率最高達(dá)到81.60%;但是當(dāng)虹膜或眼睛被遮擋時,其平均識別正確率分別下降了3.65%和15.95%[6].可見,Park等所討論的眼周識別方法對眼睛的依賴較強(qiáng),一旦被采集者閉上眼睛,它的識別正確率將明顯降低.雖然Park等預(yù)想在進(jìn)一步研究中將眼睛輪廓作為一個特征加入眼周識別中,但眼睛的形狀變化是多種多樣的,這為特征提取帶來不少困難.而另一方面,將眉毛包含在眼周識別區(qū)域內(nèi)時,平均識別正確率提高了10.66%[6].可見眉毛對于眼周識別的重要性.事實上,眉毛在人臉中的作用不亞于眼睛[7];而且Li等[8]已經(jīng)證明了眉毛是具有強(qiáng)可區(qū)分性的,其在801人的數(shù)據(jù)庫中眉毛識別的正確率最高為75.66%,600人時最高達(dá)到78.50%,這與Park等討論的眼周識別正確率很接近.因此,單獨使用眉毛進(jìn)行身份識別是可行和有效的.

眉毛識別作為一種獨立的生物特征識別技術(shù),仍不被廣泛接受,相關(guān)的研究也十分有限[8-13].之前的眉毛識別方法[9-13],均是在檢測識別框架下提出的,它們的識別正確率在80%~94%之間,而且需要從采集圖像中手動圈選出眉毛區(qū)域.Li等[8]提出了一種匹配識別框架的思想,它使用快速傅里葉變換的模板匹配方法(Fast Fourier Transform,F(xiàn)FT),將匹配和識別有效結(jié)合在一起,實現(xiàn)了一種全自動的眉毛識別方法.并且在109人的公開眉毛數(shù)據(jù)庫BJUTED[14]中,取得了98.12%的高識別正確率.但是,使用FFT并不是最佳的模板匹配方法,而它較低的匹配速度也影響到眉毛識別的效率.因此,有必要使用更加高效的模板匹配方法來替代FFT.高效的模板匹配方法很多,如快速正交Haar變換模板匹配算法(Fast Orthogonal Haar Transform,F(xiàn)OHT)[15],它是一種全搜索等價算法,能取得與FFT一致的匹配結(jié)果,并且在多模板匹配時優(yōu)勢顯著.但是,F(xiàn)OHT在匹配篩選過程中需要預(yù)先設(shè)定閾值,這在自動眉毛識別過程中是困難的.梯度模板匹配算法(Gradient Template Matching,GTM)[16],是另一種高效的模板匹配方法,它使用圖像梯度特征來進(jìn)行匹配處理,但是其匹配結(jié)果可能會與FFT不一致,即GTM可能得不到精確的匹配結(jié)果,從而可能導(dǎo)致識別正確率的下降.

圖像的梯度已經(jīng)被證明是一種區(qū)分性很強(qiáng)的特征表示方法[17-18],并且具有一定的抗噪聲和光照干擾能力[19].為此,本文仍使用梯度模板匹配方法,但是對匹配結(jié)果進(jìn)行微調(diào)處理,以確保能獲得很高的識別正確率.由于在使用圖像梯度進(jìn)行匹配時,對梯度值進(jìn)行了過濾及量化處理,所以這種眉毛識別方法非常高效.本文將詳細(xì)討論這種基于梯度模板匹配的眉毛識別方法(GTMER).

1 梯度模板匹配方法

梯度模板匹配方法(GTM)是一種十分高效的模板匹配方法,它使用圖像梯度特征,使得匹配過程具有一定的抗光照及噪聲干擾能力.因此在模板不發(fā)生較大形變情況下,是一種理想的模板匹配方法.GTM的基本思路是:首先,將圖像表征為其梯度特征圖;然后,將圖像梯度特征圖進(jìn)行過濾、量化以及拓展處理;最后,構(gòu)建圖像的梯度響應(yīng)圖,并最終完成模板匹配任務(wù).注意到,由于在匹配過程中對圖像的梯度進(jìn)行了過濾、量化及拓展處理,因此GTM的匹配結(jié)果可能與FFT不一致,為此它也是一種非全搜索等價算法.

1.1 圖像梯度

圖像的梯度計算方法會影響到GTM的匹配效率和準(zhǔn)確度,因此找到一種好的梯度計算方法很有必要.另一方面,圖像的平滑操作也有利于產(chǎn)生更好的梯度特征,因為平滑操作能壓制、弱化或消除圖像中的細(xì)節(jié)、突變、邊緣和噪聲,從而更有利于梯度準(zhǔn)確地表現(xiàn)出物體邊緣[16,20].為此,在實驗部分測試了不同尺度模板的高斯平滑和均值平滑對圖像梯度特征的影響.事實上,對于眉毛圖像而言,使用7×7大小的均值平滑模板能得到最佳的結(jié)果.高斯平滑之所以不如均值平滑,原因可能是它是一種加權(quán)模糊方法,這對采集的眉毛圖像細(xì)節(jié)模糊不足,所以產(chǎn)生了過多的干擾梯度特征值.

對于圖像的梯度計算,為了增強(qiáng)梯度特征值的魯棒性,本文考慮了圖像的各個顏色分量,并且令圖像某一點位置上的梯度等于其幅值最大的顏色梯度分量.即,對于RGB圖像P,其(i,j)點上的梯度分別表示為:

1.2 拓展梯度特征圖

對圖像梯度特征值進(jìn)行過濾將有助于進(jìn)一步減少噪聲干擾,并提高梯度匹配的效率.過濾的原則是:設(shè)定一個較小閾值threshold,當(dāng)M(i,j) < threshold時,令Px(i,j) = 0和Py(i,j)= 0;否則保持Px(i,j)和Py(i,j)的值不變.threshold值的設(shè)定會根據(jù)不同的梯度計算方法有所不同.第3節(jié)給出了針對BJUTED眉毛數(shù)據(jù)庫不同梯度計算方法的一個最優(yōu)threshold取值.

進(jìn)一步地,需要對非零梯度特征值進(jìn)行量化處理.首先,將非零梯度特征值的方向角度轉(zhuǎn)到0~180o的范圍空間內(nèi).圖像(i,j)位置的梯度方向角度θ可按式(4)計算,

其中,符號“[?]”表示向上取整運算;Binary(k,n)表示將整數(shù)k轉(zhuǎn)換為一個n位的二進(jìn)制數(shù),并且其第k位為1,其余位為0.例如,binary(1,3) = ‘001,binary(2,3) = ‘010,binary(3,3) =‘100.由于n是預(yù)先指定的,因此為了描述簡單,本文余下部分將把Binary(k,n)記為Bk.

為了進(jìn)一步增強(qiáng)量化后圖像特征的抗噪能力,圖像中每個位置上的量化值q(i,j)將被重新設(shè)定為其3×3鄰域中出現(xiàn)次數(shù)最多的量化值,即:

[qs(i, j)=argmaxk∈{1, 2, …, n}{static(Bk, D3×3)}] , (7)

其中D3×3表示圖像(i,j)位置的3×3鄰域,即D3×3 =[i-1,i+1]×[j-1,j+1];static(Bk,D3×3)表示在鄰域D3×3內(nèi),量化值Bk出現(xiàn)的次數(shù).

圖像梯度特征值的量化雖然有利于進(jìn)行快速的匹配處理,但是由于經(jīng)過了過濾處理,這使得圖像梯度特征值變得非常稀疏,從而增大了匹配錯誤的可能性.因此需要對量化特征值進(jìn)行拓展處理,并構(gòu)造出圖像的拓展梯度特征圖.

拓展梯度特征圖通過將每一點的梯度量化值向它的T×T鄰域拓展而得到.拓展的另一個目的,是可以將匹配時的逐點移動變成在x和y方向上分別以T為步長進(jìn)行移動,這大大提高了匹配計算的效率.如果用Q表示圖像的拓展梯度特征圖,則Q中的每個元素都可以表示成其T×T鄰域所有的梯度量化值qs的或位運算,即:

其中,符號“?|?”表示或運算;式(8)等號的右邊則表示了圖像拓展梯度特征圖中的每個元素Q(i,j),都由其鄰域[D[i-T2, i+T2]×[j-T2, j+T2]]內(nèi)的T×T個梯度量化值進(jìn)行或運算后得到.

1.3 圖像梯度

圖像的梯度響應(yīng)圖是為了加快圖像匹配而使用的一種技術(shù),它將相似性計算轉(zhuǎn)換為簡單的檢索操作.由于梯度量化值的有限性——只有n個不同的梯度量化值,因此可以預(yù)先計算出每一個梯度量化值與圖像拓展梯度特征圖Q之間的相似性矩陣,這些相似性矩陣便被稱為梯度響應(yīng)圖.可見,每個輸入圖像都只對應(yīng)n個不同方向的梯度響應(yīng)圖,利用它們可以進(jìn)一步加速梯度匹配的過程.

2 基于梯度模板匹配的眉毛識別方法

匹配識別框架[8]是一種集匹配與識別為一體的生物特征識別框架,它不需要對識別目標(biāo)進(jìn)行定位,避免了由于定位不準(zhǔn)確而導(dǎo)致的識別誤差,如圖1所示.事實上,匹配識別框架可以被分為匹配和識別兩個階段,而且這兩個階段存在一一對應(yīng)關(guān)系.其中匹配階段主要使用“匹配器”匹配出模板的最佳匹配區(qū)域,然后再在識別階段利用最佳匹配區(qū)域進(jìn)行判別距離的計算,從而獲得最終識別結(jié)果.

2.1 匹配器的構(gòu)造

利用GTM可以設(shè)計出高效的模板匹配方法,但是GTM無法保證獲得與FFT一致的匹配結(jié)果.為此,有必要在(im,jm)的一個較小鄰域內(nèi),進(jìn)一步使用歸一化相關(guān)系數(shù)(Normalized Cross-Correlation,NCC)作為相似性度量,計算出精確的匹配位置.其實際就是在一個較小的范圍內(nèi),使用FFT來定位出精確的匹配位置,即:

對于眉毛圖像識別而言,匹配位置的調(diào)整很有效果,圖2展示了GTM的匹配結(jié)果,以及對它進(jìn)行微調(diào)后的結(jié)果.可以看出,微調(diào)后的匹配位置更加精確.事實上,根據(jù)實驗發(fā)現(xiàn),經(jīng)過調(diào)整處理后,更可以將眉毛識別的正確率提高2%左右.此外,圖2的結(jié)果是在[-2T,2T]×[-2T,2T]鄰域中調(diào)整得到的,這主要是因為在實驗中發(fā)現(xiàn)如果該鄰域取得較小,有些圖像得到的精確匹配位置與實際仍有偏差,這有可能是因為圖像所受光照強(qiáng)度變化較劇烈所引起的.因此,本文在后面的實驗中,均在[-2T,2T]×[-2T,2T]大小的鄰域內(nèi)進(jìn)行微調(diào)操作.

在識別階段,使用匹配相似度作為識別判定時,識別正確率較低[8],因此需要引入健壯性更好的判別距離,以提高識別正確率.本文采用了Li等提出的處理方法,即:首先,將模板及其匹配得到的精確匹配的子區(qū)域歸一化至相同的尺寸,如256×512;然后,再分別計算它們的一維頻譜距離L1_FSD;最后,根據(jù)各個模板的L1_FSD距離值,可以識別出待識別圖像的身份[8],即:

2.2 算法描述

基于梯度模板匹配的眉毛識別方法(GTMER)是匹配識別框架下構(gòu)造的一種眉毛識別方法,其基本思想是:匹配階段使用GTM,且匹配結(jié)束后使用FFT進(jìn)行精確匹配位置微調(diào);而識別階段使用L1_FSD作為判別距離,并據(jù)此得出識別結(jié)果.具體算法描述如下:

Step 1 (匹配過程):

對于所有模板ti∈Gallery執(zhí)行如下循環(huán):

Step 1.1 使用GTM匹配出ti的匹配子區(qū)域si;

Step 1.2 使用FFT在si的一個較小領(lǐng)域中,匹配出ti的精確匹配子區(qū)域oi;

Step 2 (識別過程):

對于所有模板ti及其精確匹配子區(qū)域oi,計算它們的L1_FSD距離值.最終識別結(jié)果判別為R=argmin{L1_FSD(oi,ti)}.

雖然基于梯度匹配的眉毛識別方法在GTM的基礎(chǔ)上再次使用了FFT,如Step 1.2 所示,但是,由于FFT僅在si的一個較小鄰域內(nèi)進(jìn)行,該過程十分快速,因此,Step 1的整個計算效率并沒有下降太多.

3 實驗結(jié)果及分析

文中的實驗均在BJUTED眉毛數(shù)據(jù)庫[14]中進(jìn)行.數(shù)據(jù)庫包含109個樣本的1 118幅BMP格式圖像,這些圖像均是以眉毛為中心,大小為576×768,且被分為閉眼和睜眼兩類,每類各包含圖像559幅,如圖3所示.數(shù)據(jù)庫中每個樣本均對應(yīng)有這兩類圖像,且平均每類的圖像不少于5幅.從閉眼圖像中每個樣本隨機(jī)抽取一幅圖像,并手動地在圖像中圈選出其純眉毛區(qū)域以構(gòu)成模板庫,記為CTG.CTG中的眉毛模板平均大小約為166×437,共109個,分別對應(yīng)109個樣本.同時,構(gòu)建一個更小規(guī)模的測試集,它包含109個樣本的109幅睜眼圖像,記為PS.使用CTG和PS,針對GTMER中可能存在的問題:圖像模糊、匹配位置微調(diào)和梯度計算方法的影響,分別進(jìn)行了實驗分析.實驗代碼均使用C++語言進(jìn)行編寫,并使用一臺配有i5-2400 CPU的微機(jī),在Win7環(huán)境下使用VS2010進(jìn)行編譯和運行.

3.1 圖像平滑操作對識別結(jié)果的影響

從1.1節(jié)的討論可以了解到,不同的圖像平滑方法直接影響到眉毛圖像的梯度計算值,從而導(dǎo)致最終識別正確率的變化.為了分析圖像平滑操作對識別正確率的影響,本文針對兩種常用的平滑方法:高斯平滑和均值平滑,進(jìn)行了不同尺度平滑卷積核的實驗.實驗使用Schaar算子計算圖像的梯度,結(jié)果如圖4所示.

圖4中,mblur和gblur分別表示使用均值平滑和高斯平滑的方法對圖像進(jìn)行處理,mblur和gblur標(biāo)記后緊跟的“_5”和“_7”分別表示圖像平滑操作所使用的卷積核的大小:5×5或7×7;R和T分別表示識別正確率和平均每幅圖像的識別時間(時間單位:s);G-N則表示梯度化后平均每個眉毛模板的有效梯度值數(shù)量,它直接影響到識別效率的高低.結(jié)果顯示,對圖像使用均值平滑操作總要優(yōu)于高斯平滑.在相同條件下,均值平滑處理能獲得更高的識別正確率和更快的識別速度.

另外,當(dāng)使用5×5的卷積核進(jìn)行圖像平滑處理時,識別正確率明顯低于使用7×7卷積核的情況,識別速度也更慢.在BJUTED眉毛數(shù)據(jù)庫中,所采集到的圖像許多都有明顯的光照強(qiáng)度變化,直接計算圖像梯度時,這些光照變化強(qiáng)烈的地方往往會產(chǎn)生較大的梯度值.圖像的平滑操作剛好能模糊圖像的這些變化,減少光照的影響.但是,使用5×5的卷積核對圖像的模糊程度不足,致使圖像仍保留有過多因光照強(qiáng)度變化而產(chǎn)生的細(xì)節(jié),因此也使得圖像計算得到更多的有效梯度值,從而干擾了匹配的準(zhǔn)確性,降低了匹配效率,如圖5所示.因此,本文余下的實驗均使用7×7的卷積核對圖像進(jìn)行均值平滑處理.

3.2 梯度計算方法對識別結(jié)果的影響

圖像梯度的計算方法有很多,它們都各有特點,計算得到的梯度特征也各不同.為了確定哪種方法更適合于眉毛識別,本實驗在CTG和PS下測試了多種梯度計算方法,分別是:1-D的無中心算子(Uncentred)[-1,1]、中心算子(Centred)[-1,0,1]和3次修正算子(Cubic-corrected)[1,-8,0,8,-1],2-D的2×2對角算子(Diagonal1:[0,1;-1,0]和Diagonal2:[-1,0;0,1])、3×3的Sobel算子和Scharr算子.由于不同梯度計算方法在進(jìn)行梯度篩選時,需要設(shè)定不同的閾值threshold,而threshold的選取對識別正確率和識別效率都有一定的影響.為找出最佳的閾值threshold,本實驗分別對每種梯度計算方法測試了10個不同的閾值,如表1所示.對這些梯度計算方法采取不同的閾值threshold進(jìn)行的實驗結(jié)果如圖6所示.

從圖6可以看出,在選擇適當(dāng)?shù)膖hreshold值時,除了使用Sobel算子的方法外,其余方法均能達(dá)到98.17%的識別正確率.換言之,Sobel算子計算得到的梯度匹配結(jié)果不如其他算子計算得到的梯度更準(zhǔn)確.雖然其他梯度計算方法所得到的最高眉毛識別正確率并沒有差別,但是從圖7的結(jié)果看,簡單的計算方法在一定的threshold取值時,具有更快的識別速度,如threshold=3.2時的Uncentred算子、threshold=3.8時的Diagonal2算子和threshold=11.0時的Cubic-corrected算子,它們平均識別每幅圖像的時間為0.48 s、0.50 s和0.50 s.因此,對于眉毛識別,在多數(shù)情況下簡單而貼近于眉毛走勢的梯度算子將是更好的選擇.

3.3 BJUTED眉毛數(shù)據(jù)庫上的性能比較實驗

本實驗選擇目前在BJUTED數(shù)據(jù)庫上識別率較高的FFTER方法[8]進(jìn)行比較.使用CTG首先在PS測試集上進(jìn)行實驗,然后再在完整的BJUTED眉毛數(shù)據(jù)庫上進(jìn)行對比實驗.實驗使用了3.2節(jié)中除了Sobel算子外的其余所有梯度算子,它們的篩選閾值threshold分別設(shè)為圖6中標(biāo)記的最佳值.算法FFT均采用了OpenCV 3.0所提供的函數(shù).

表2展示了在PS測試集上各方法的實驗結(jié)果.其中,加速比(Speedup Ratio)的計算如下:

式中,TFFTER和TGTMER分別表示FFTER和GTMER的運行時間.可見,GTMER在使用Uncentred算子計算梯度時,要比FFTER快30.43%;即使是使用Diagnonal1算子時速度最慢,但也要比FFTER快7.25%.由此可見,GTMER的運行效率要高于FFTER.

表2的實驗結(jié)果同時也顯示,F(xiàn)FTER的識別正確率最高,達(dá)99.08%,高于GTMER的98.17%,多識別正確了一幅圖像.進(jìn)一步分析可知,GTMER之所以識別正確率低于FFTER,是因為GTMER將第105號樣本圖像識別成了第77號模板,而FFTER則能正確識別出第105號樣本圖像.如圖7所示,第105號樣本圖像的眉毛顏色較淡,而圖像中額頭區(qū)域有較強(qiáng)的光照變化,因此經(jīng)過平滑處理后,眉毛區(qū)域保留的有效梯度值較少,而額頭區(qū)域保留的有效梯度值較多.在圖7中,降低threshold值將得到更加明顯的對比效果.雖然降低threshold值使得眉毛區(qū)域保留了更多有效梯度特征值,但它的匹配結(jié)果仍然不正確,這或許是梯度方向角量化方式所導(dǎo)致的結(jié)果.因為,每個梯度方向角都被量化為n位有效的二進(jìn)制數(shù),實驗中取n=8,這使得量化的范圍很有限,也進(jìn)一步降低了額頭區(qū)域與眉毛區(qū)域的辨識度,最終導(dǎo)致錯誤的梯度匹配結(jié)果.這也是梯度匹配的一個不足.此外,通過對識別錯誤的幾個樣本的分析發(fā)現(xiàn),GTMER與FFTER一樣,在圖像發(fā)生明顯的縮放時,也不能對圖像做出正確的識別.這應(yīng)該是使用FFT進(jìn)行匹配位置微調(diào)所導(dǎo)致的結(jié)果,它雖然使得識別正確率提高了,但也造成了GTMER的一些局限性.

圖8展示了BJUTED眉毛數(shù)據(jù)庫中的實驗結(jié)果.為使實驗結(jié)果更清晰,本實驗將BJUTED眉毛數(shù)據(jù)庫劃分為3部分:PCS、POS和PT.其中,PCS由除了生成CTG的圖像外,所有的閉眼圖像圖組成;POS由所有睜眼圖像組成;PT由PCS和POS的所有圖像組成.從實驗結(jié)果看,所測試的GTMER幾種梯度算子,識別速度均要快于FFTER.其中使用Diagonal2算子的最快約0.48 s,相比于FFTER的0.78 s快了38%左右.另外,在PT測試集中Diagonal2的識別正確率也最高,約為98.12%,高于FFTER的97.82%.事實上,在PT測試集中,除了Diagonal1的識別正確率約97.72%低于FFTER,及Cubic-corrected的識別正確率與FFTER一樣外,其他算子的識別正確率均要高于FFTER,分別為:Uncentred約98.02%,Scharr和Centred約97.92%.由圖8看,對于PCS測試集的實驗,除Cubic-corrected外,其他方法的識別正確率均要高于FFTER的98.44%,其中Centred的最高,約98.89%;而對于POS測試集的實驗,Diagonal2和Cubic-corrected的識別正確率最高,約97.67%,而Centred和Diagonal1的則要明顯低于FFTER的97.32%.因此,可以得到這樣的結(jié)論:GTMER是一種比FFTER更快速的眉毛識別方法,并且多數(shù)情況下能獲得比FFTER更高的識別正確率,如使用Diagonal2算子作為圖像梯度計算方法時.

4 結(jié)論

利用圖像梯度特征,本文在匹配識別框架下設(shè)計了一種快速的眉毛圖像匹配識別算法,即基于梯度模板匹配的眉毛識別方法.該方法首先利用圖像梯度,快速匹配出與純眉毛模板最相似的區(qū)域;然后,通過微調(diào)得到精確的模板匹配位置;最后,使用L1_FSD作為判別距,識別出所輸入眉毛圖像的身份.在BJUTED眉毛數(shù)據(jù)庫中的實驗表明,基于梯度模板匹配的眉毛識別方法具有更快的識別速度,以及更高的識別正確率.但是實驗也指出:基于梯度模板匹配的眉毛識別方法的不足,即圖像光照強(qiáng)度變化特別強(qiáng)烈的地方,容易被誤認(rèn)為是物體的邊緣,從而獲得較多的梯度特征值,影響最終的匹配和識別正確性.要克服這一缺點,或許可以在圖像采集階段加以一定的約束,保證采集的圖像沒有特別強(qiáng)烈的光照變化;再或者可以通過視頻圖像進(jìn)行識別認(rèn)證,這都將有待于在未來的工作中加以研究.

參考文獻(xiàn)

[1]王鵬濤,王智文. 基于PSO-LDA的人臉識別算法[J].廣西科技大學(xué)學(xué)報,2017,28(1):85-90.

[2]HAYFRONACQUAH J B,NIXON M S,CARTER J N. Automatic gait recognition by symmetry analysis[J]. Pattern Recognition Letters,2003,24(13):2175-2183.

[3]CHEN H,BHANU B. Human ear recognition in 3D[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2007,29(4):718-737.

[4]DAI J,ZHOU J. Multifeature-based high-resolution palmprint recognition[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2011,33(5):945.

[5]KUMAR A,ZHOU Y. Human identification using Knucklecodes[C].IEEE,International Conference on Biometrics:Theory,Applications,and Systems.IEEE,2009:1-6.

[6]PARK U,JILLELA R R,ROSS A,et al. Periocular biometrics in the visible spectrum[J]. IEEE Transactions on Information Forensics & Security,2011,6(1):96-106.

[7]SINHA P,BALAS B,OSTROVSKY Y,et al. Face recognition by humans:nineteen results all computer vision researchers should know about[J].Proceedings of the IEEE,2007,94(11):1948-1962.

[8]LI Y,LI H,CAI Z. Human eyebrow recognition in the matching-recognizing framework ☆[J]. Computer Vision & Image Understanding,2013,117(2):170-181.

[9]LI Y,F(xiàn)U C. Eyebrow recognition:a new biometric technique[C].Iasted International Conference on Signal and Image Processing. ACTA Press,2007:506-510.

[10]LI Y,LI X. HMM Based Eyebrow Recognition[C]. International Conference on International Information Hiding and Multimedia Signal Processing.IEEE Computer Society,2007:135-138.

[11]LI Y,WANG L. Eyebrow recognition based on principal component analysis[J]. Computer Engineering & Science,2008,30(11):28-28.

[12]YANG X,XU X,LIU C. Eyebrow recognition based on sparsity preserving projections[C]. Conference Anthology,IEEE.IEEE,2014:1-4.

[13]XU X,YANG X,LI Y,et al. Eyebrow recognition using radon transform and sparsity preserving projections[C].International Conference on Automatic Control and Artificial Intelligence.IET,2013:1028-1033.

[14]LI Y,LI H. The BJUT eyebrow database[OL]. 2015. http://mpccl. bjut.edu.cn/EyebrowRecognition/BJUTEyebrowDatabase/BJUTED.html.

[15]LI Y,LI H,CAI Z. Fast orthogonal haar transform pattern matching via image square sum[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2014,36(9):1748.

[16]HINTERSTOISSER S,CAGNIART C,ILIC S,et al.Gradient response maps for real-time detection of textureless objects[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2012,34(5):876-888.

[17]LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision,2004,60(2):91-110.

[18]楊曉云,梁郁,梁鑫.基于LiDAR點云的城市地區(qū)植被提取算法研究[J].廣西科技大學(xué)學(xué)報,2015,26(3):73-77.

[19]HINTERSTOISSER S,LEPETIT V,ILIC S,et al. Dominant orientation templates for real-time detection of texture-less objects[C]. Computer Vision and Pattern Recognition.IEEE,2010:2257-2264.

[20]DALAL N,TRIGGS B. Histograms of oriented gradients for human detection[C]. IEEE Computer Society Conference on Computer Vision & Pattern Recognition. IEEE Computer Society,2005:886-893.

主站蜘蛛池模板: 国产黄色片在线看| 国产乱码精品一区二区三区中文 | 91久久夜色精品国产网站| 欧美性久久久久| 精品福利视频网| 永久免费无码日韩视频| 免费午夜无码18禁无码影院| 亚洲成AV人手机在线观看网站| 日韩精品亚洲精品第一页| 国产超碰一区二区三区| 亚洲精品你懂的| 亚洲国产综合精品一区| 国产亚洲精品无码专| 国产精品久线在线观看| 国产精品刺激对白在线| 久久精品无码中文字幕| 熟妇丰满人妻| 日韩免费毛片视频| 人妻无码一区二区视频| 亚洲性一区| 国产日韩欧美在线播放| 99久久国产综合精品2023 | 亚洲日韩图片专区第1页| 欧美不卡视频一区发布| a色毛片免费视频| 免费国产福利| 欧美一区福利| 性网站在线观看| 亚洲成aⅴ人片在线影院八| 国产小视频网站| 久久99精品久久久久久不卡| 2021精品国产自在现线看| 亚洲精选无码久久久| 国产色婷婷视频在线观看| 波多野一区| 狠狠色丁婷婷综合久久| 欧美在线视频不卡| 欧类av怡春院| 亚洲无码91视频| 国产综合精品一区二区| 中文字幕 欧美日韩| 国内精自视频品线一二区| 日韩专区欧美| 思思热精品在线8| 18黑白丝水手服自慰喷水网站| 亚洲毛片网站| 欧美啪啪精品| 国产午夜不卡| 国产不卡一级毛片视频| 91国内在线观看| 久久亚洲美女精品国产精品| 亚洲无码不卡网| 亚洲婷婷丁香| 98精品全国免费观看视频| 亚洲欧美日韩成人高清在线一区| 人妻丰满熟妇啪啪| 久久男人资源站| 国产九九精品视频| 免费观看亚洲人成网站| 亚洲欧美成aⅴ人在线观看| 国产一区在线观看无码| 国产精品漂亮美女在线观看| 亚洲天堂成人在线观看| 人禽伦免费交视频网页播放| 精品成人免费自拍视频| 67194成是人免费无码| 亚洲视频影院| 国产一级毛片yw| 婷婷99视频精品全部在线观看| 精品亚洲麻豆1区2区3区| 欧美激情一区二区三区成人| 亚洲天堂视频网站| 青青青草国产| 在线免费看片a| 嫩草国产在线| 91福利免费| 凹凸国产分类在线观看| 精品无码一区二区在线观看| 91精品专区国产盗摄| 8090成人午夜精品| 露脸真实国语乱在线观看| 欧美精品一区二区三区中文字幕|