999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種Face—age判定方法的設計

2015-12-25 08:56:31周楓李德強黃達毅徐永紅李千目
軟件 2015年7期

周楓++李德強++黃達毅++徐永紅++李千目

摘要:通過人臉圖像對年齡進行識別具有很大的挑戰。年齡識別會受到諸多干擾因素的影響,如性別、健康、生活方式等等。本文設計了一種基于主成份分析人臉圖片的年齡識別方法,選用FG-NET數據庫的圖片作為測試樣本,挑選了測試集和訓練集。論文對選擇的圖片作直方圖均衡化,直接計算圖片的歐氏距離并判別近鄰,之后,對圖片進行人臉提取矯正等預處理后進行測試,最后使用本文方法對人臉提取后的圖片進行測試和實驗。

關鍵詞:面部年齡判別;圖像處理;主成份分析

中圖分類號:TP391. 41

文獻標識碼:A

DOI:10.3969/j.issn.1003-6970.2015.07.010

0 引言

在圖像處理領域非常重要的一個組成部分就是人臉,通過對人臉面部圖像處理,可以產生很多實際應用,包括進行人臉檢測、人臉識別和表情分析等。人臉圖像的處理,尤其是年齡屬性分析,日益被眾多科研機構關注,在多媒體通信、人機交互和信息安全中起到重要作用。例如,通過面部年齡屬性判定方法,一家公司想要針對某年齡段的消費者進行產品設計,只要通過購物區的監控設備,非常容易地捕獲消費者的年齡統計信息。同樣,面部年齡屬性判定方法也可以監督購買煙酒顧客中有沒有出現可能的未成年人。

目前主流的基于圖像年齡識別方法主要包括:利用顱頜面發展理論與面部皮膚皺紋分析用來創建人體模型,該方法適用于年輕人的粗年齡估計;利用老化圖案子空間方法表示衰老的人臉圖像,該方法根據在子空間的投影來重建的面部圖像;利用回歸方法,其回歸系數根據帶有如二次模型的回歸函數的訓練數據估計,通過制定一個半定規劃問題或EM算法來處理年齡的不確定性。

事實上,目前面部年齡判別方法的準確率普遍偏低,原因在于隨著年齡的增長,人臉部的變化難以預測,并且因人而異,比如,健康狀況、面部保養和化妝都會使得人的外貌發生潛移默化的變化,這些為識別模型的建立帶來許多未知的因素。

本文選用FG-NET數據庫的圖片作為測試樣本,挑選了部分作為測試集和訓練集,引入主成份分析等算法進行了面部年齡判別設計,并對實驗結果進行分析。

1 面部年齡屬性判定方法的設計

主成份分析( Principal Component Analysis)算法,是一種對變量進行線性變換,并根據貢獻率選出數貢獻率較高的變量作為測試依據的一種多元統計分析方法。

面部年齡屬性判定就是當給定一張人臉圖像(測試圖片),就可以根據已有的人臉數據庫(訓練圖片),利用特定的方式將給定的測試圖片和每一張訓練圖片作比較。比較的方式有直接計算歐氏距離,或是將它們投影到計算出的空間中,得到投影向量再比較歐氏距離,歐式距離較小者即為近鄰。然后根據近鄰的年齡類別,得出測試樣本所屬的類別,然后判別樣本測試所得的類別與其實際所屬類別是否一致。最后將測試結構進行記錄,整合。

本文方法的思路是:使用主成份分析算法對數據進行降維處理,利用K-L變換提取人臉圖像的主成份,構成特征臉空間,將測試集的圖像投影到特征臉空間,得到投影向量,然后計算其與訓練圖片投影得到的向量的歐氏距離,取較小值為近鄰。

(1)訓練

假設訓練圖片的對應的矩陣大小為MxN,數量為n,設它們為xi(0T設xi拉伸后對應的矩陣為yi(0i依次排列,組成一個MxNxn的矩陣y=[y1 y2 y3…… yn]將矩陣拉伸后將得到的向量y取平均數,得到平均臉:

計算每一張人臉與平均臉的差值:

因此得到協方差矩陣:

求協方差矩陣的特征值和特征向量,并根據此構建特征臉空間。

由于協方差矩陣的維度是(MN)2,這部分實驗的圖片尺寸為60×160(不包括嘴)和90×160(包括嘴)。以不包括嘴的圖片為例,此時構成的協方差矩陣的數據量就是(60×l60)2≈9.2×107,求解這樣一個大矩陣的特征值和特征向量,若用常規的方法,普通的計算機的運算速度根本無法支撐。因此采用一種非常巧妙的方法來完成這項任務,也就是奇異值分解(SingularValue Decomposition,SVD)定理。奇異值分解是一種十分重要的矩陣分解方式,是矩陣分析中正規矩陣酋對角化的推廣。

設A為mxn階復矩陣,則存在m階酋陣U和n階酋陣V,使得 ,

我們的目的是利用svd分解求得一個非常大的協方差矩陣C的特征值以及對應的特征向量。而由已知條件

因此采用另一種間接的方式,通過計算ATA的特征值和特征向量來得到AAT的特征值和特征向量。

因為AAT的維數為15200×15200,而ATA的維數為480×480,兩者相差1000倍,計算效率的差別可想而知。

首先,我們通過直接計算得到ATA,然后使用matlab自帶的函數——eig得到AAT的特征值和特征向量。

在matlab中,使用語句 就能得到ATA的特征值和特征向量。其中,D(i,i)為ATA的第i個特征值,而V(:,i)為其對應的特征向量。同時,ATA的所有特征值D(i,i)也是AAT的所有非零特征值。di和vi為ATA的第i個特征值及特征向量,則我們可以得到AAT的第i個特征向量ui 在利用SVD方法求得協方差矩陣C的特征值 和其對應的正交歸一化特征向量 后,根據特征值的貢獻率選取前p個最大特征值對應的特征向量,這里的貢獻率 是指:

其中,a為設定好的貢獻率閾值。特征值 根據下標i以降序排列。a百分比的選擇意味著訓練樣本在前p個特征向量集上的投影擁有對應百分比的能量。 由于

可以根據求得的特征向量構建特征臉空間:

之后將訓練集拉伸后的人臉圖像與平均臉的差值di投影到特征臉空間上

(2)測試 將測試集的圖片以相同方式處理,拉伸成M*N的列向量,與平均臉作差,然后投影到特征臉空間上,設得到的投影向量為Ωj,計算它和所有Ωj的歐式距離,之后根據KNN算法判斷最近鄰。

2 實驗與分析

FG-NET數據庫是包含了一定數量的臉部圖像的圖片數據庫,圖像中的人物年齡從0歲到69歲不等。這個數據庫的建立是為了幫助研究人員研究調查人類老化對臉部容貌的影響。數據庫被分成兩部分,A塊和B塊。A塊用來作人臉識別,而B塊依然在開發。數據庫負責人要求用戶在使用A塊的同時,也能傳輸圖片為B塊的發展作貢獻。A塊的數據庫包含了82個人的1002幅圖像,其中每個人都有6~18張的人臉正面圖像,這些圖像或是彩色圖或是灰度圖,并且附有圖像中人物的準確年齡。所有的人臉圖像均是西方人,且82個人中有34位女性和48位男性,年齡從0歲到69歲不等。圖像的獲取途徑主要是對老舊圖片的掃描。圖1是部分FG-NET數據庫的原始圖片。

本文將年齡段進行劃分,并從FG-NET的1002張圖片中選取600張,每個年齡段都有一定數量的測試圖片和訓練圖片。并且每個年齡段的訓練圖片數量均為測試圖片的4倍,具體的劃分見表1。

本文分別對兩種圖片類別進行識別,并運用K=l,3,5所對應的KNN方法所得到的結果全部列出。表2和表3分別是僅做直方圖均衡化圖片類別和進行人臉提取后做直方圖均衡化的圖片類別得到的實驗結果。對于僅僅做直方圖均衡化的圖片類別,可以看出識別率并不是很高,就算是識別率最高的K=3的組別,識別率也只有29.16%,識別圖片35張。而上述的完全隨機的識別率和識別圖片分別是26.06%和31.26張。這里的識別效果僅僅比完全隨機的情況好了一點。因此,K值的帶來的識別差異,不同年齡組別的識別差異,都很難從數據中說明。

對于將人臉提取后做直方圖均衡化的圖片類別,相比未提取人臉的實驗,識別率提高了將近10%,因此基本可以斷定人臉提取對于識別率的上升非常有幫助。

不包括嘴和包括嘴的組別的識別率,在K=l和K=3的時候取得最大值,分別為41.66%和40.83%。并且在K=5的時候都有較低的識別率(35.83%,38.33%)。

同時,可以發現,在不管是K的值如何,在低齡段的識別率都遠遠高于高齡段。0-9歲和10-19歲兩個類的識別率都差不多達到了50%,而20-29歲類的識別率約為25%,而剩下的3個高齡的類的識別率都非常的低。這個現象有兩個可能的原因。第一,訓練集中從6個年齡類從低齡到高齡的圖片數為160,160,80,40,24,16,也就是不同年齡段的訓練圖片數量非常不均勻,0-9歲和10-19歲類別的訓練圖片比例都為33.33%,而最低的50-69類別的訓練圖片比例僅為3.33%。第二,人在剛出生的時候臉部的差異較小,而隨著年齡的增大所表現出的老化現象因人而異,因此年齡較大的人臉圖片之間差距相對于低齡人臉圖片的差距要大很多。

由于經過人臉提取之后,識別效果明顯變好,因此將其作為后續實驗所需的圖片。

根據本文的主成份分析算法的步驟,將包括嘴和不包括嘴的人臉提取圖片庫分別作為實驗圖片,我們可以得到兩種圖片類別的平均臉,如圖2所示。

由于訓練集里低齡圖片占多數,因此平均臉看起來像是一個低齡的人。在得到平均臉后,按主成份分析的步驟執行,構建出投影空間,對訓練圖片和測試圖片進行投影,得到投影矩陣之后進行比對,比對的方法與上一章實驗類似(計算歐氏距離)。得到實驗結果后同樣列表表示,表4,5,6分別表示K=l,K=3,K=5的情況。

從實驗結果可以看出,包括嘴的組別的識別率較之前部分的識別率有了很明顯的提高,但包括嘴的組別還是處于較低的識別率。因此可以基本認為,在人臉圖像的年齡估計,將嘴的部分去除會使得圖像的識別率大幅度提高。

再來看看K值對實驗結果的影響。這次的實驗結果和之前區別非常大,在所有實驗條件下,(包括嘴或者不包括嘴,a的值為0.98或是0.9),總的識別率基本上是隨著K的增大,識別率逐漸上升,在K=5時基本達到最大值。而之前的實驗在K=5的識別率是最差的。可能是因為在主成份分析算法下,去除掉了部分貢獻率非常低的因素,使得識別率上升,因此在測試階段計算得到的每一張圖片的前幾個近鄰都更加的可靠。這就使得在K值較高的情況下,因為計算偶然使得個別近鄰錯誤的風險大大降低了。因此可以初步認為,在識別率較高的情況下,更高的K值能夠得到更好的實驗結果。相反,在識別率較低的情況下,K值過高會反而使得識別率下降。所以說,在設定K值的時候,應該估計一下實驗的識別率,根據此選擇最優的K值。

同樣,貢獻率閾值的選擇也會對實驗的識別率產生影響。可以看出,在上面的實驗結果中,a=0.9和a=0.98會使得實驗結果產生非常細微的波動,在K值不同,圖片不同的情況下都有高有高有低,并且差別都非常小。因此很難判斷哪個a值的設定能使實驗結果更加好。但是在a=0.9的時候,所被采用的特征向量的數量會少很多,因此形成的投影矩陣就更加小,這回導致識別的速度更快。因此就識別速度這一點來說,在主成份分析算法中,a=0.9的選擇是更優的。

3 結論

本文引入主成份分析算法實現了面部年齡屬性判定,并且對不包括嘴的圖片庫進行了實驗。主成份分析算法有明顯更高的識別率和更高的識別速度,但是主成份分析也存在著協方差矩陣維數高等問題,這些需要后續深入研究。endprint

主站蜘蛛池模板: 亚洲国产精品一区二区第一页免| 干中文字幕| 亚洲v日韩v欧美在线观看| 热99re99首页精品亚洲五月天| av色爱 天堂网| 亚洲人成网7777777国产| 成人福利在线视频免费观看| 国产伦精品一区二区三区视频优播 | 欧美日韩免费在线视频| 真实国产乱子伦高清| h网站在线播放| 美女免费黄网站| 一级毛片免费播放视频| 亚洲第一成年网| 国产在线视频二区| 青青草a国产免费观看| 亚洲人成网站日本片| 久草网视频在线| 国产成人啪视频一区二区三区| 亚洲免费播放| 国产性精品| 成人毛片在线播放| 一级毛片无毒不卡直接观看| 欧美一级高清片欧美国产欧美| 亚洲精品视频免费| a级毛片毛片免费观看久潮| 国产福利影院在线观看| 国产香蕉在线| 欧美在线三级| 九九热在线视频| 在线观看国产黄色| 国产小视频免费观看| 久久综合婷婷| 激情无码视频在线看| 国产日韩欧美视频| 国产高清在线观看91精品| 亚洲v日韩v欧美在线观看| 一级毛片不卡片免费观看| 97视频免费在线观看| 亚洲欧美激情另类| 99青青青精品视频在线| 国产成人精品一区二区秒拍1o| 99在线国产| 欧美国产日产一区二区| 色精品视频| 国产玖玖玖精品视频| 午夜视频在线观看免费网站| 青青草原国产| 国产尤物在线播放| 五月天在线网站| 超清无码一区二区三区| 国产av一码二码三码无码| 国国产a国产片免费麻豆| 国产一区二区三区免费观看| 成人中文在线| 国产激情国语对白普通话| 日本高清在线看免费观看| 久久人人爽人人爽人人片aV东京热 | 国产特级毛片| 午夜福利视频一区| 亚洲欧美日韩天堂| 国产免费福利网站| 久久精品娱乐亚洲领先| 日韩在线播放欧美字幕| 色窝窝免费一区二区三区| 在线观看免费人成视频色快速| 亚洲高清在线播放| 精品福利网| 亚洲黄色网站视频| 日韩AV无码一区| 欧洲欧美人成免费全部视频| 91国内视频在线观看| 国产97色在线| 女同国产精品一区二区| 欧美日韩在线国产| 一区二区理伦视频| 色哟哟国产成人精品| 秋霞一区二区三区| 中文字幕调教一区二区视频| 免费观看成人久久网免费观看| 欧美一级片在线| 免费国产黄线在线观看|