999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于尺度自適應(yīng)與增量式學(xué)習(xí)的人臉對齊方法

2018-08-27 10:57:48平,龔
計(jì)算機(jī)應(yīng)用 2018年7期
關(guān)鍵詞:特征實(shí)驗(yàn)模型

陳 平,龔 勛

(西南交通大學(xué) 信息科學(xué)與技術(shù)學(xué)院,成都 611756)(*通信作者電子郵箱xgong@swjtu.edu.cn)

0 引言

人臉對齊是在給定的人臉圖像上自動(dòng)精確定位人臉特征點(diǎn),如瞳孔、嘴角、鼻尖等。人臉對齊的應(yīng)用很廣泛,比如人臉識(shí)別、表情識(shí)別以及人臉動(dòng)畫自動(dòng)合成等。人臉對齊大致可以分成三個(gè)子問題:1)對人臉表觀圖像建模;2)對人臉形狀建模;3)建立人臉表觀圖像與人臉形狀的關(guān)聯(lián)。基于模型的人臉對齊研究也圍繞著這三個(gè)方面開展:基于統(tǒng)計(jì)學(xué)習(xí)的主動(dòng)形狀模型(Active Shape Model, ASM)[1]提出利用點(diǎn)分布模型表示人臉形狀信息,并結(jié)合主成分分析(Principal Component Analysis, PCA)[2]進(jìn)行降維,建立了可以通過加權(quán)表示人臉形狀變分段化的形狀模型。主動(dòng)外觀模型(Active Appearance Model, AAM)[3]方法考慮如何建模整張人臉的表觀信息,此方法是在ASM模型的基礎(chǔ)上建立形狀模型和紋理模型,并將兩個(gè)模型進(jìn)行有機(jī)的結(jié)合。局部約束模型(Constrained Local Model, CLM)[4]方法分別繼承了ASM的高效性和AAM的準(zhǔn)確性,使得人臉對齊效果得到了進(jìn)一步提升。隨著人臉對齊技術(shù)的發(fā)展,基于級(jí)聯(lián)形狀回歸模型級(jí)聯(lián)姿態(tài)回歸(Cascaded Pose Regression, CPR)被Dollr等[5]在2010年首次提出,并用于人臉形狀的預(yù)測。接著,具有魯棒性的級(jí)聯(lián)姿態(tài)回歸(Robust Cascaded Pose Regression, RCPR)[6]在實(shí)現(xiàn)特征點(diǎn)定位的同時(shí),還可以對特征點(diǎn)的可見性進(jìn)行判斷。

近些年來,監(jiān)督下降方法(Supervised Descent Method,SDM)[7]從考慮如何使用監(jiān)督梯度下降的方法來求解非線性最小二乘問題,推動(dòng)了人臉對齊在現(xiàn)實(shí)工程中的應(yīng)用。SDM認(rèn)為相同特征點(diǎn)位置之間的尺度不變特征變換(Scale-Invariant Feature Transform, SIFT)[8]特征應(yīng)該相似,從而利用牛頓法建立級(jí)聯(lián)回歸模型,在人臉上取得較好的定位效果。接著,Ren等[9]用隨機(jī)森林模型學(xué)習(xí)局部二值特征(Local Binary Feature, LBF);劉袁緣等[10]提出非約束人臉特征點(diǎn)精確定位;張海艷等[11]提出應(yīng)用姿態(tài)估計(jì)的人臉特征點(diǎn)定位方法;賈項(xiàng)南等[12]提出改進(jìn)的顯式形狀回歸定位算法。除了基于回歸的人臉對齊方法,基于深度學(xué)習(xí)的方法也大放光彩,如多任務(wù)級(jí)聯(lián)卷積網(wǎng)絡(luò)(Multi-Task Cascaded Convolutional Network, MTCNN)[13],實(shí)現(xiàn)了高精度的人臉檢測和特征點(diǎn)定位。

以上這些基于級(jí)聯(lián)回歸人臉對齊訓(xùn)練過程中都要對原始圖片數(shù)據(jù)進(jìn)行尺度變換的處理。一方面,圖片的變換會(huì)導(dǎo)致紋理的損失和形狀的微調(diào),會(huì)影響到特征的準(zhǔn)確提取;另一方面,坐標(biāo)尺度選擇不適合,會(huì)直接影響人臉對齊的精度。同時(shí),當(dāng)發(fā)現(xiàn)已有模型的泛化能力不夠時(shí),通常的解決辦法是把新的數(shù)據(jù)集加入到原來的數(shù)據(jù)集中,重新訓(xùn)練模型。這樣直接丟掉原有模型,不僅否定了自己以前的實(shí)驗(yàn)結(jié)果,而且重新訓(xùn)練帶來的訓(xùn)練時(shí)長、模型不收斂等問題,甚至在面對龐大的數(shù)據(jù)集時(shí),回歸求解根本不可計(jì)算。針對這些問題,本文提出一種基于增量式學(xué)習(xí)(Incremental Learning, IL)和尺度自適應(yīng)的人臉對齊方法:在增量式學(xué)習(xí)方面,通過充分利用原模型的預(yù)測結(jié)果與真實(shí)值帶來的偏差,按照一定的學(xué)習(xí)率增加原模型的參數(shù)值,快速有效地提高原模型的泛化能力。在人臉尺度自適應(yīng)方面,利用在人臉框內(nèi)投影而來的初始人臉與標(biāo)準(zhǔn)人臉建立對應(yīng)的映射關(guān)系,在迭代求解時(shí),把任意尺度的人臉特征點(diǎn)映射歸一到標(biāo)準(zhǔn)尺度,實(shí)現(xiàn)人臉尺度的自適應(yīng);在特征提取時(shí),計(jì)算當(dāng)前預(yù)測特征點(diǎn)在原始圖片的位置,實(shí)現(xiàn)特征在原圖上的提取。實(shí)驗(yàn)結(jié)果表明,本文所提方法有效地解決了已有模型泛化能力不夠就要被丟棄的尷尬,并且可以大幅度提升人臉的對齊精度。

本文主要工作如下。

1)利用不同人臉框的初始特征點(diǎn)與標(biāo)準(zhǔn)人臉特征點(diǎn)建立映射關(guān)系,將不同尺度的人臉統(tǒng)一到標(biāo)準(zhǔn)尺度,避免了圖片歸一化帶來的紋理損失,同時(shí)分析不同尺度下對模型預(yù)測的影響,并給出了最佳的人臉尺度。

2)提出一種增量式學(xué)習(xí)的回歸訓(xùn)練方法。該方法在原有模型的基礎(chǔ)上,在新的數(shù)據(jù)集上進(jìn)行訓(xùn)練,避免了丟棄原模型和全部重新訓(xùn)練帶來的模型訓(xùn)練時(shí)間長、不收斂甚至不可計(jì)算等問題,能夠快速、有效地提高原模型的泛化能力。

1 人臉特征點(diǎn)與特征的關(guān)系建立

在人臉圖像中,特征點(diǎn)是描述人臉形狀的重要信息,特征描述子是根據(jù)特征點(diǎn)在圖像位置提取而來。優(yōu)秀的特征描述子具有人臉尺度、縮放、光照等不變性,因此不同人臉相同特征點(diǎn)位置的特征描述整體上應(yīng)該相似。圖1顯示不同人臉在鼻尖處的特征直方圖。

如圖1所示,根據(jù)特征直方圖可以看出不同人在相同位置提取出來的特征在整體上是相似的,因此推導(dǎo)出特征與特征點(diǎn)的關(guān)系函數(shù):

(1)

其中:x為當(dāng)前預(yù)測特征點(diǎn)(人臉形狀),h(x)表示從x處提取特征的函數(shù),當(dāng)Δx趨近0的時(shí)候,相同位置的特征值相同,因此引入一個(gè)關(guān)系函數(shù)r(t)消除特征與特征點(diǎn)的量綱:Δx=h(x)(r(t)),令R=r(t),建立特征與特征點(diǎn)偏移量間的最小化目標(biāo)函數(shù):

(2)

其中x*代表人臉的手工標(biāo)注點(diǎn)。式(2)通過不斷最小化Δx使得預(yù)測特征點(diǎn)的坐標(biāo)逼近手工標(biāo)注點(diǎn)的坐標(biāo)。由于這個(gè)方程式非二次的,不可能一步迭代完成。為了進(jìn)行線性回歸,令Φ=h(x),建立線性回歸方程:

(3)

其中:k代表第k次迭代,根據(jù)式(3)可以利用特征Φ來進(jìn)行特征點(diǎn)位置的預(yù)測。

圖1 不同人臉的相同位置有相似特征

但是進(jìn)行算法訓(xùn)練時(shí),為了統(tǒng)一人臉尺度對原始圖片進(jìn)行歸一化處理,導(dǎo)致特征不能在原圖上進(jìn)行準(zhǔn)確提取,因此,如何在統(tǒng)一人臉尺度的同時(shí)實(shí)現(xiàn)特征在原圖上的提取是一個(gè)值得研究的問題。

2 尺度自適應(yīng)與增量式學(xué)習(xí)對齊算法

為了在方法訓(xùn)練時(shí),在保證人臉尺度統(tǒng)一的同時(shí)也能在原圖上進(jìn)行特征提取,本文提出一種任意尺度的人臉自動(dòng)投影到標(biāo)準(zhǔn)尺度人臉的方法,簡稱人臉投影變換(Face Projection Transformation, FPT)。該方法巧妙地避開了圖片預(yù)處理階段,通過建立任意人臉與標(biāo)準(zhǔn)尺度人臉的特征點(diǎn)映射關(guān)系,實(shí)現(xiàn)人臉尺度的自適應(yīng)和原圖紋理的無損失。同時(shí)本文提出了一種基于增量式學(xué)習(xí)訓(xùn)練方法:在原有模型的基礎(chǔ)上,在新的數(shù)據(jù)集上進(jìn)行訓(xùn)練,這樣避免了丟棄原模型和全部重新訓(xùn)練帶來的模型訓(xùn)練時(shí)間長、不收斂甚至不可計(jì)算等問題,能夠快速、有效地提高原模型的泛化能力。

2.1 FPT

FPT方法的核心是將任意尺度的人臉自動(dòng)投影到標(biāo)準(zhǔn)尺度人臉。在實(shí)現(xiàn)人臉尺度自適應(yīng)時(shí),為了探究尺度對人臉對齊的影響,分別選擇100×100、200×200、400×400、600×600這4種不同的尺度人臉。對于每種尺度,選取多張帶有手工標(biāo)注點(diǎn)的相同尺度正臉圖片,對標(biāo)注點(diǎn)集進(jìn)行對齊,采用Procrustes Analysis[14]算法,得到該尺寸下的標(biāo)準(zhǔn)人臉,如圖2所示。

選取一個(gè)標(biāo)準(zhǔn)人臉,對于任意尺度人臉的特征點(diǎn)坐標(biāo)進(jìn)行投影變換。假定人臉的一個(gè)特征點(diǎn)為p=[uv1]T,對應(yīng)的標(biāo)準(zhǔn)人臉的特征點(diǎn)為pstd=[u′v′ 1]T,根據(jù)平面投影變換可以得到:

T[uv1]T=[u′v′ 1]T

(4)

(5)

圖2 不同標(biāo)準(zhǔn)人臉的尺度

根據(jù)式(5)得到任意尺度人臉與標(biāo)準(zhǔn)尺度人臉間的變換矩陣T,建立任意尺度人臉在標(biāo)準(zhǔn)尺度人臉下的表示,如式(6):

x′=FPT(x)=Tx

(6)

其特征點(diǎn)在標(biāo)準(zhǔn)尺度人臉下的形象表示如圖3所示。

圖3 FPT坐標(biāo)變換

從圖3可以看出,原始人臉的特征點(diǎn)在經(jīng)過FPT后,不僅在坐標(biāo)尺度和標(biāo)準(zhǔn)人臉xstd的坐標(biāo)尺度一致,而且在形狀上逼近了標(biāo)準(zhǔn)人臉xstd。

2.2 基于FPT的人臉自適應(yīng)對齊

本文將FPT應(yīng)用到人臉對齊,簡稱人臉投影變換對齊(Face Projection Transformation Alignment, FPTA)。在訓(xùn)練階段,選擇標(biāo)準(zhǔn)尺度下的人臉xstd,引入FPT方法。令x*′=FPT(x*),xk′=FPT(xk),根據(jù)式(3)得到FPTA的線性回歸方程:

(7)

其中:xk+1=FPT-1(xk+1′);Φk為當(dāng)前預(yù)測的特征點(diǎn)在原圖提取出來的特征;R為特征與偏移量間的關(guān)系矩陣,該關(guān)系矩陣的最優(yōu)化求解函數(shù)如下:

(8)

算法1 FPTA算法。

2)用式(5)建立臉特征點(diǎn)x*在標(biāo)準(zhǔn)人臉xstd下的映射關(guān)系及其表現(xiàn)形式x*′;

3)利用xk在原圖上進(jìn)行特征提取;

4)利用式(8)求得對應(yīng)的Rk和xk+1′;

5)利用xk+1=FPT-1(xk+1′)求出特征點(diǎn)在原圖的位置;

6)重復(fù)步驟3)~5)直到達(dá)到指定次數(shù)K。

通過實(shí)驗(yàn)仿真發(fā)現(xiàn),當(dāng)K≥4時(shí)算法收斂。

從圖4看出,F(xiàn)PTA算法在計(jì)算Δx時(shí)利用FPT方法實(shí)現(xiàn)人臉尺度的自適應(yīng),在迭代更新的時(shí)候利用FPT逆運(yùn)算得到預(yù)測特征點(diǎn)在原圖的位置,從而實(shí)現(xiàn)特征在原圖上的提取。通過實(shí)驗(yàn)仿真發(fā)現(xiàn),當(dāng)?shù)螖?shù)達(dá)到4時(shí)算法收斂。

圖4 人臉對齊實(shí)例

2.3 基于增量式學(xué)習(xí)的FPTA人臉對齊

通過式(8)可以看出,當(dāng)模型泛化能力不夠時(shí),只能把新的數(shù)據(jù)集加入到原有數(shù)據(jù)集中,重新訓(xùn)練,以得到滿足要求的新模型;但是數(shù)據(jù)量的增大會(huì)直接導(dǎo)致模型訓(xùn)練時(shí)間增加與不收斂,甚至當(dāng)數(shù)據(jù)集過大的時(shí)候,求解時(shí),龐大的矩陣將會(huì)出現(xiàn)不可計(jì)算等問題,因此在FPTA算法的模型基礎(chǔ)上,進(jìn)行增量式學(xué)習(xí)(IL)訓(xùn)練:

(9)

其中:lr是微調(diào)系數(shù),稱為學(xué)習(xí)率,初始由人工設(shè)定。式(9)可以通過最小二乘法解決ΔRk,進(jìn)行模型的微調(diào):

(10)

通過式(10)的求解可以很快讓原模型在新的數(shù)據(jù)集上進(jìn)行多次微調(diào),從而到達(dá)對新姿態(tài)也有較好泛化能力的模型。本文將此方法簡稱為增量式學(xué)習(xí)的FPTA算法,具體描述如算法2。

算法2 基于增量式學(xué)習(xí)的FPTA算法。

1)fork=1 toKdo

2)對于每張圖片利用Rk和式(7)進(jìn)行特征點(diǎn)xk′的估計(jì);

3)利用式(10)計(jì)算ΔRk,并求出Rk′;

4)利用式(9)和Rk′評估出xk+1′;

5)利用xk+1=FPT-1(xk+1′)反解算出特征點(diǎn)在原圖的位置。

通過實(shí)驗(yàn)發(fā)現(xiàn),有時(shí)在新數(shù)據(jù)集上進(jìn)行一次模型的微調(diào)并不能達(dá)到模型對該數(shù)據(jù)集的泛化要求時(shí),可以設(shè)置較小的學(xué)習(xí)率對模型進(jìn)行多次微調(diào)。

3 實(shí)驗(yàn)結(jié)果與分析

本章通過5個(gè)實(shí)驗(yàn)來說明本文的主要工作與貢獻(xiàn)。所有實(shí)驗(yàn)都是Intel i5- 7500 CPU@3.40 GHz的Windows 10平臺(tái)下進(jìn)行的,實(shí)驗(yàn)選取的數(shù)據(jù)集如表1。

表1 實(shí)驗(yàn)用人臉數(shù)據(jù)集

其中LFPW(Labeled Face Parts in the Wild)包含811張訓(xùn)練圖片和224張測試圖片;Helen有2 000張訓(xùn)練圖片和330張測試圖片;AFW和IBUG具有大姿態(tài)的人臉;CelebA(CelebFaces Attributes)包含20多萬名人的大規(guī)模人臉數(shù)據(jù)集,其圖像涵蓋大姿態(tài)、復(fù)雜的背景,非常適合用于算法魯棒性的檢測。

同時(shí),實(shí)驗(yàn)特征提取可以使用SIFT、方向梯度直方圖(Histogram of Oriented Gradient, HOG)[15]等特征,本文從速度考慮,實(shí)驗(yàn)選用HOG特征。在求解最小二乘優(yōu)化時(shí)可以使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)進(jìn)行求解。實(shí)驗(yàn)發(fā)現(xiàn)當(dāng)?shù)螖?shù)K=4時(shí),算法收斂效果較好。

3.1 人臉歸一化尺度選擇

為了快速研究不同歸一化尺度對人臉對齊算法影響,本節(jié)分別選擇尺度為100×100、200×200、400×400和600×600的標(biāo)準(zhǔn)人臉,用FPTA算法在LFPW訓(xùn)練集上進(jìn)行訓(xùn)練,單次訓(xùn)練迭代4次用時(shí)1.5 h,并在Helen、AFW、LFPW上進(jìn)行測試分析。測試的分析結(jié)果如表2所示。

表2 不同標(biāo)準(zhǔn)人臉下的FPTA結(jié)果 %

根據(jù)表2的結(jié)果可以分析出,坐標(biāo)尺度在400×400時(shí)對齊精度最好。通過實(shí)驗(yàn)數(shù)據(jù)分析發(fā)現(xiàn),當(dāng)選取的尺度過小時(shí),人臉框與標(biāo)準(zhǔn)人臉產(chǎn)生的初始人臉特征點(diǎn)集存在更多的重合,會(huì)導(dǎo)致模型泛化能力減弱;當(dāng)尺度過大的時(shí)候,初始人臉特征點(diǎn)集尺度離散較大,導(dǎo)致求解最小二乘時(shí),模型的參數(shù)數(shù)值差過大,從而影響到模型的魯棒性,所以在后面的實(shí)驗(yàn)中都選擇400×400的標(biāo)準(zhǔn)人臉。

3.2 基于增量式學(xué)習(xí)的FPTA與同類算法比較

本節(jié)共有兩個(gè)實(shí)驗(yàn),第1個(gè)實(shí)驗(yàn)是把LFPW、Helen、IBUG結(jié)合為一個(gè)數(shù)據(jù)集(共2 946張)進(jìn)行單獨(dú)的FPTA訓(xùn)練,得到了modelA;第2個(gè)實(shí)驗(yàn)是先在LFPW、Helen訓(xùn)練集上進(jìn)行FPTA算法的訓(xùn)練集,得到初始modelB,考慮到modelB對大姿態(tài)人臉沒有較好的泛化能力,所以利用增量式學(xué)習(xí)在IBUG(135張)上進(jìn)行模型的微調(diào),得到對大姿態(tài)有較好泛化能力的modelC,并對modelA、modelB、modelC進(jìn)行了實(shí)驗(yàn)分析。三個(gè)模型的對齊誤差分析結(jié)果如表3。

表3增量式學(xué)習(xí)的對齊平均誤差分析

%

Tab. 3 Alignment average error analysis of incremental learning

%

通過表3分析可以看出,通過增量式學(xué)習(xí)得到的modelC比modelB具有更好的泛化能力,而且其泛化能力比直接利用全部數(shù)據(jù)集訓(xùn)練得到modelA的要更強(qiáng)一些;并且modelC的訓(xùn)練時(shí)間比modelA的更短。同時(shí)在保證實(shí)驗(yàn)環(huán)境相同的前提下,用開源的LBF算法和集成回歸樹(Ensemble of Regression Trees, ERT)[16]算法在Helen、AFW、LFPW測試集上進(jìn)行68個(gè)特征點(diǎn)的對齊誤差測試分析,分析結(jié)果如表4所示。

表4 68個(gè)特征點(diǎn)的平均誤差比較 %

根據(jù)表4分析得出,本文方法在3個(gè)數(shù)據(jù)集上表現(xiàn)最好,對齊誤差都在4%以下。特別是在姿態(tài)變化較大的AFW數(shù)據(jù)集上,本文方法的對齊精度比ERT高2個(gè)百分點(diǎn),比LBF高4個(gè)百分點(diǎn),這充分說明了增量式學(xué)習(xí)的優(yōu)勢。圖4為本文方法的一些定位實(shí)例,從圖中看出,本文方法對姿態(tài)、遮擋有很好的魯棒性。

3.3 魯棒性測試

算法的魯棒性是評價(jià)算法好壞的標(biāo)準(zhǔn),魯棒性分析是在對齊誤差的基礎(chǔ)上進(jìn)行進(jìn)一步的分析,因此,本節(jié)在3.2節(jié)的實(shí)驗(yàn)基礎(chǔ)上選取了68個(gè)特征點(diǎn)中的15個(gè)關(guān)鍵點(diǎn)(每個(gè)眼睛邊緣6個(gè)點(diǎn)、鼻尖1個(gè)、2個(gè)嘴角)和基于深度學(xué)習(xí)的MTCNN、由粗到精的自編碼網(wǎng)絡(luò)(Coarse-to-Fine Auto-encoder Networks, CFAN)[17]和深度神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Network, DCNN)[18]進(jìn)行5個(gè)關(guān)鍵點(diǎn)(兩個(gè)瞳孔、兩個(gè)嘴角、一個(gè)鼻尖)的對齊誤差分析。其中每個(gè)瞳孔的坐標(biāo)由每個(gè)眼睛邊緣的6個(gè)點(diǎn)平均得來。MTCNN和DCNN是目前基于深度學(xué)習(xí)的最主流的人臉對齊方法,CFAN是人臉識(shí)別框架Seetaface中的人臉對齊方法。對齊誤差如圖5所示。

圖5 對齊誤差分析

通過圖5可以知道,在本文算法的對齊誤差都穩(wěn)定在0.03左右,MTCNN、CFAN和DCNN波動(dòng)相對較大。匯總各數(shù)據(jù)集的測試結(jié)果后,F(xiàn)PTA的平均對齊精度比MTCNN高了2.79個(gè)百分點(diǎn),比CFAN高了1.37個(gè)百分點(diǎn),比DCNN高了2.37個(gè)百分點(diǎn)。在對齊誤差的基礎(chǔ)上,本文采用標(biāo)準(zhǔn)差對算法進(jìn)行魯棒性分析,圖6為本文算法與基于深度學(xué)習(xí)的算法的分析結(jié)果。

圖6 不同算法的魯棒性分析

從圖6可以看出,基于深度學(xué)習(xí)的算法的標(biāo)準(zhǔn)差在AFW上都最大,且大于2%,但是本文算法的標(biāo)準(zhǔn)差還是在2%以下。結(jié)合其他兩個(gè)數(shù)據(jù)集的結(jié)果,本文算法的魯棒性比MTCNN高了1.39個(gè)百分點(diǎn),比CFAN高了0.97個(gè)百分點(diǎn),與DCNN近似,因此本文算法在68個(gè)點(diǎn)的訓(xùn)練模型中選取出來的5個(gè)特征點(diǎn)在小數(shù)據(jù)集上無論在對齊精度上還是算法的魯棒性上都要優(yōu)于目前基于深度學(xué)習(xí)的人臉對齊算法。

為了進(jìn)一步測試算法魯棒性,本文在大數(shù)據(jù)集上作人臉的5個(gè)關(guān)鍵點(diǎn)測試。為了縮短大數(shù)據(jù)集的測試時(shí)間,本實(shí)驗(yàn)利用按照3.2節(jié)的第2個(gè)實(shí)驗(yàn)選取7個(gè)點(diǎn)(兩個(gè)嘴角、四個(gè)眼角、一個(gè)鼻尖)進(jìn)行增量式學(xué)習(xí)模型訓(xùn)練。在測試的時(shí)候把兩個(gè)眼角的平均坐標(biāo)作為該眼的瞳孔坐標(biāo)。同時(shí),在相同實(shí)驗(yàn)環(huán)境下,對開源的MTCNN和CFAN也作了相應(yīng)的測試,與本文方法的對比分析如表5所示。

表5 大數(shù)據(jù)集上5個(gè)特征點(diǎn)的比較 %

本實(shí)驗(yàn)中,CelebA是標(biāo)準(zhǔn)化后的數(shù)據(jù)集,有202 599張,去掉人臉框檢測錯(cuò)誤帶來定位誤差比較大的人臉后,MTCNN、CFAN和本算法測試了相同的人臉一共181 509張。從表5結(jié)果可以看出,本文算法對齊精度略低于基于深度學(xué)習(xí)的對齊算法;但是從標(biāo)準(zhǔn)差來看,本文算法具有更強(qiáng)的魯棒性。圖7顯示的是對齊誤差較大的樣例,實(shí)驗(yàn)發(fā)現(xiàn),當(dāng)樣本姿態(tài)較大時(shí),對齊誤差相對較大。這是因?yàn)橛?xùn)練樣本的大姿態(tài)占比較少,導(dǎo)致算法模型對大姿態(tài)人臉沒有較好的泛化能力。

圖7 CelebA中錯(cuò)誤大的樣本

4 結(jié)語

本文從不同人臉相同特征點(diǎn)位置的特征描述子大致相似出發(fā),建立特征與特征點(diǎn)偏移量的關(guān)系方程,并提出一種基于尺度自適應(yīng)與增量式學(xué)習(xí)的人臉對齊方法:通過利用人臉框生成初始預(yù)測點(diǎn)與標(biāo)準(zhǔn)的人臉點(diǎn)建立映射關(guān)系,實(shí)現(xiàn)紋理特征在原圖上的提取和人臉尺度的歸一化;接著建立增量式學(xué)習(xí)方程,利用已有的模型在新的數(shù)據(jù)集上進(jìn)行增量式的學(xué)習(xí),快速有效地增強(qiáng)了原模型的泛化能力。實(shí)驗(yàn)證明:本文的人臉尺度的選擇與增量式學(xué)習(xí)的方式,在人臉對齊上取得了很好的效果;同時(shí)該方法不僅適用于人臉對齊,還適用于其他回歸模型的求解。

猜你喜歡
特征實(shí)驗(yàn)模型
一半模型
記一次有趣的實(shí)驗(yàn)
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
做個(gè)怪怪長實(shí)驗(yàn)
不忠誠的四個(gè)特征
抓住特征巧觀察
3D打印中的模型分割與打包
NO與NO2相互轉(zhuǎn)化實(shí)驗(yàn)的改進(jìn)
主站蜘蛛池模板: 国产成人在线无码免费视频| 日韩欧美国产三级| 亚洲国产精品人久久电影| 精品福利网| 国产午夜精品鲁丝片| 国产福利免费视频| 国产H片无码不卡在线视频 | 中国一级特黄视频| 成人国产精品视频频| 四虎国产精品永久一区| 免费可以看的无遮挡av无码| 色网站在线免费观看| 精品天海翼一区二区| 国产亚洲欧美日韩在线一区| 女人18毛片水真多国产| 久久无码高潮喷水| 久久精品视频亚洲| Jizz国产色系免费| 国产成人区在线观看视频| 99热6这里只有精品| 一级毛片免费的| 日本黄色不卡视频| 亚洲欧美成人网| 手机在线国产精品| 99久久精品免费看国产电影| 日韩精品中文字幕一区三区| 亚洲人成网站色7777| 国产精品福利社| 福利姬国产精品一区在线| 国产日韩丝袜一二三区| 成人一级免费视频| 国产欧美日韩一区二区视频在线| 一级爱做片免费观看久久| 色婷婷亚洲十月十月色天| 国产精品视频白浆免费视频| 亚洲精品国产精品乱码不卞| 无码在线激情片| 欧美亚洲综合免费精品高清在线观看| 九九久久99精品| 国产在线观看精品| 色婷婷啪啪| 国产成人综合日韩精品无码首页| 日韩欧美中文字幕在线精品| 日本一区高清| 88国产经典欧美一区二区三区| 日本成人精品视频| 国产美女在线观看| 亚洲人成成无码网WWW| 伊人久久综在合线亚洲91| 国产原创第一页在线观看| 国产欧美精品一区aⅴ影院| 免费毛片全部不收费的| 欧美三级日韩三级| 亚洲精品你懂的| 黄色不卡视频| 91精品亚洲| 日韩精品亚洲人旧成在线| 最新午夜男女福利片视频| 99在线视频免费| 国产99视频精品免费视频7| 日韩高清欧美| 久久永久视频| 亚洲无码高清一区二区| 欧美午夜视频在线| 国产91麻豆免费观看| 国产区成人精品视频| 国产三级毛片| 日本人妻一区二区三区不卡影院| 欧美日韩亚洲综合在线观看| 国产欧美在线观看一区| 日韩精品免费一线在线观看| 亚洲综合专区| 久久国产精品77777| 国产制服丝袜91在线| 亚洲国产亚洲综合在线尤物| 操国产美女| 黄色一级视频欧美| 五月天在线网站| 久久www视频| 精品超清无码视频在线观看| 亚洲AV色香蕉一区二区| 日韩中文精品亚洲第三区|