999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于殘差網(wǎng)絡(luò)的人臉圖像年齡識(shí)別研究

2024-10-19 00:00:00張會(huì)影圣文順袁海榮周子倡
物聯(lián)網(wǎng)技術(shù) 2024年10期
關(guān)鍵詞:深度學(xué)習(xí)

摘 要:針對(duì)目前基于深度學(xué)習(xí)的人臉年齡識(shí)別訓(xùn)練集數(shù)據(jù)量小、識(shí)別精度不高的問(wèn)題,提出了一種基于殘差網(wǎng)絡(luò)的遷移學(xué)習(xí)人臉年齡識(shí)別方法。將在ImageNet數(shù)據(jù)集上訓(xùn)練的殘差網(wǎng)絡(luò)ResNet模型遷移到人臉年齡識(shí)別任務(wù)中進(jìn)行了分析、處理。所提方法在人臉數(shù)據(jù)集MORPH和FG-NET上的實(shí)驗(yàn)結(jié)果表明,殘差網(wǎng)絡(luò)與遷移學(xué)習(xí)結(jié)合能夠有效提高年齡識(shí)別的準(zhǔn)確性。

關(guān)鍵詞:深度學(xué)習(xí);遷移學(xué)習(xí);殘差網(wǎng)絡(luò);平均絕對(duì)誤差;年齡識(shí)別;卷積神經(jīng)網(wǎng)絡(luò)

中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2024)10-00-03

0 引 言

人臉能夠傳遞與重要個(gè)人特征相關(guān)的可感知信息,包括身份、性別、種族和年齡等。目前,年齡在許多應(yīng)用中扮演著重要的角色,例如,基于年齡的訪問(wèn)控制可幫助監(jiān)控系統(tǒng)準(zhǔn)確判斷目標(biāo)對(duì)象的年齡段,推薦與年齡適應(yīng)的目標(biāo)營(yíng)銷、商品和個(gè)性化服務(wù);在社交媒體和娛樂(lè)領(lǐng)域,年齡識(shí)別技術(shù)用于美顏相機(jī)等軟件后,可根據(jù)用戶的年齡段自動(dòng)調(diào)整相機(jī)濾鏡和美化效果,提高用戶的拍攝體驗(yàn)等。

人臉年齡識(shí)別的發(fā)展可以追溯到20世紀(jì)80年代。早期的方法主要基于傳統(tǒng)的機(jī)器學(xué)習(xí)算法,如支持向量機(jī)(SVM)、樸素貝葉斯分類器等。傳統(tǒng)的機(jī)器學(xué)習(xí)方法主要依靠手工提取人臉圖像的特征,如皺紋、皮膚顏色等,然后利用分類器進(jìn)行年齡分類預(yù)測(cè)。這個(gè)時(shí)期提取人臉特征圖的方法主要有Local Binary Patterns(LBP)[1]、Scale Invariant Feature Transform(SIFT)[2]等,傳統(tǒng)的機(jī)器學(xué)習(xí)算法對(duì)圖像質(zhì)量要求較高,對(duì)光照變化、遮擋和噪聲敏感且計(jì)算復(fù)雜度高。

隨著深度學(xué)習(xí)技術(shù)的興起,深度神經(jīng)網(wǎng)絡(luò)模型,如卷積神經(jīng)網(wǎng)絡(luò)(CNN)、殘差網(wǎng)絡(luò)(ResNet)等被廣泛應(yīng)用于各種計(jì)算機(jī)視覺(jué)識(shí)別任務(wù)中。目前,人臉年齡識(shí)別的研究主要基于CNN展開(kāi)。例如,文獻(xiàn)[3]將人臉?lè)指畛扇舾蓚€(gè)模塊,并送至較淺的網(wǎng)絡(luò)架構(gòu),將各卷積網(wǎng)絡(luò)提取的特征通過(guò)全連通層組合后識(shí)別年齡。文獻(xiàn)[4]用16層CNN(VGG-16)提取人臉特征,并利用年齡之間的模糊性和多義性,將標(biāo)記分布學(xué)習(xí)融入VGG框架中。文獻(xiàn)[5]提出個(gè)體受內(nèi)外因素影響形成個(gè)體老化模式,利用CNN-LSTM深度學(xué)習(xí)模型來(lái)學(xué)習(xí)個(gè)體老化模式,其中CNN用來(lái)提取人臉特征,LSTM用來(lái)學(xué)習(xí)人臉時(shí)間序列圖像中的個(gè)體老化模式。深度學(xué)習(xí)技術(shù)可以提高年齡識(shí)別的準(zhǔn)確度,但需要大量的數(shù)據(jù)和計(jì)算資源來(lái)進(jìn)行模型訓(xùn)練。因?yàn)槟挲g是一個(gè)相對(duì)復(fù)雜且多變的屬性,因此對(duì)于年齡識(shí)別任務(wù)而言,模型需要從大量樣本中學(xué)習(xí)年齡的特征和變化規(guī)律。當(dāng)訓(xùn)練數(shù)據(jù)有限或者不足以代表所有數(shù)據(jù)分布狀態(tài)時(shí),深度學(xué)習(xí)模型可能會(huì)出現(xiàn)過(guò)擬合現(xiàn)象,導(dǎo)致模型在處理新任務(wù)或者新數(shù)據(jù)時(shí)表現(xiàn)不佳[6]。

遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,它通過(guò)已經(jīng)訓(xùn)練好的模型來(lái)改善系統(tǒng)性能。具體而言,遷移學(xué)習(xí)將已經(jīng)學(xué)到的知識(shí)和經(jīng)驗(yàn)應(yīng)用到類似的問(wèn)題上,從而加速和改善學(xué)習(xí)過(guò)程。在遷移學(xué)習(xí)過(guò)程中,通常會(huì)有一個(gè)稱為源領(lǐng)域的任務(wù)和一個(gè)稱為目標(biāo)領(lǐng)域的任務(wù)。源領(lǐng)域是已經(jīng)訓(xùn)練好的模型所學(xué)習(xí)的領(lǐng)域,而目標(biāo)領(lǐng)域則是我們希望在其中應(yīng)用遷移學(xué)習(xí)的新任務(wù)。將源領(lǐng)域的知識(shí)遷移到目標(biāo)領(lǐng)域,利用源領(lǐng)域的數(shù)據(jù)和經(jīng)驗(yàn)來(lái)改善目標(biāo)領(lǐng)域的學(xué)習(xí)效果。

深度學(xué)習(xí)技術(shù)雖然提高了年齡識(shí)別的準(zhǔn)確度,但是缺少標(biāo)注年齡的人臉數(shù)據(jù)集是目前人臉年齡識(shí)別面臨的一大問(wèn)題[7-8]。為了解決這一問(wèn)題,我們提出使用遷移學(xué)習(xí)技術(shù)來(lái)提高模型的性能。將在ImageNet數(shù)據(jù)集上訓(xùn)練的殘差網(wǎng)絡(luò)ResNet34模型遷移到人臉年齡識(shí)別任務(wù)中,并在人臉年齡數(shù)據(jù)集上進(jìn)一步訓(xùn)練ResNet34模型,以提高人臉年齡識(shí)別模型的性能。

1 人臉年齡識(shí)別方法

1.1 殘差模塊

殘差模塊(Residual Blocks)通過(guò)跨層連接(Shortcut Connection)來(lái)構(gòu)建殘差網(wǎng)絡(luò),使得網(wǎng)絡(luò)可直接將某層的輸入傳至后續(xù)層,從而保留未損失的信息,并且允許網(wǎng)絡(luò)學(xué)習(xí)恒等映射。具體而言,殘差模塊內(nèi)部有2個(gè)卷積層,通過(guò)跨層連接,最終輸出借助恒等映射或者降采樣得到。如圖1所示,將輸入數(shù)據(jù)跨層傳輸,與經(jīng)過(guò)一系列卷積操作之后得到的特征結(jié)果相加。假設(shè)在輸入主分支上輸入為x,在主分支上經(jīng)過(guò)卷積操作后輸出為F(x),最終的輸出為H(x)=F(x)+x。采用殘差塊和跨層連接的方式解決了深層網(wǎng)絡(luò)中的梯度問(wèn)題。

1.2 深度殘差模型

深度殘差模型(Deep Residual Model)是常用的深度學(xué)習(xí)模型結(jié)構(gòu),該模型通過(guò)引入殘差連接(Residual Connection)來(lái)解決深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失和梯度爆炸問(wèn)題。在傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)中,每一層輸入都通過(guò)非線性激活函數(shù)得到,則每一層的輸出都是對(duì)輸入的變換。而深度殘差模型引入了殘差模塊,將輸入與網(wǎng)絡(luò)輸出相加。深度殘差模型可選擇性地學(xué)習(xí)殘差變換,而非完全依賴多層網(wǎng)絡(luò)的堆疊。

ResNet34是一個(gè)深度殘差網(wǎng)絡(luò)(Residual Network),它由殘差模塊組成。ResNet34擁有34個(gè)卷積層,包括堆疊的殘差模塊和全局平均池化層。ResNet34網(wǎng)絡(luò)結(jié)構(gòu)能夠有效解決深度神經(jīng)網(wǎng)絡(luò)的退化問(wèn)題。通過(guò)引入殘差連接,ResNet34能夠有效傳播和學(xué)習(xí)特征。

本文提出了一個(gè)改進(jìn)的深度殘差模型,即對(duì)ResNet34進(jìn)行改進(jìn),將最后一層的全連接層改為年齡類別,如圖2所示。

1.3 基于遷移學(xué)習(xí)的分類模型

遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,它通過(guò)將一個(gè)已經(jīng)訓(xùn)練好的模型應(yīng)用于不同但相關(guān)的任務(wù)上,來(lái)提高新任務(wù)的性能。在傳統(tǒng)的機(jī)器學(xué)習(xí)中,每個(gè)任務(wù)都需要訓(xùn)練模型。然而,這樣的方法通常需要大量數(shù)據(jù)和計(jì)算資源,并且可能導(dǎo)致模型無(wú)法很好地泛化到新任務(wù)上。而遷移學(xué)習(xí)則可以利用之前學(xué)習(xí)的知識(shí)和模型,快速適應(yīng)并改進(jìn)。

圖3給出了本文中人臉年齡識(shí)別遷移學(xué)習(xí)模型的結(jié)構(gòu),我們將保存在ResNet34模型上基于120萬(wàn)張圖片的ImageNet數(shù)據(jù)集訓(xùn)練的權(quán)重參數(shù),然后將其分別遷移到基于人臉年齡的數(shù)據(jù)集MORPH和FG-NET,MORPH和FG-NET采用8∶2的比例分別進(jìn)行訓(xùn)練和測(cè)試。

2 實(shí)驗(yàn)與結(jié)果分析

本文采用平均絕對(duì)誤差(Mean Absolute Error, MAE)作為評(píng)估標(biāo)準(zhǔn),計(jì)算如式(1)所示:

實(shí)驗(yàn)環(huán)境配置:操作系統(tǒng)為64位Windows 10,深度學(xué)習(xí)框架為Tensorflow,集成開(kāi)發(fā)環(huán)境為PyCharm,編程語(yǔ)言為Python3.7。改進(jìn)的ResNet參數(shù)權(quán)重來(lái)自ImageNet的預(yù)訓(xùn)練權(quán)重。遷移后各參數(shù)的設(shè)置如下:優(yōu)化算法選擇隨機(jī)梯度下降,丟棄率為0.8,MORPH和FG-NET的學(xué)習(xí)率為0.001,訓(xùn)練次數(shù)為50。MORPH和FG-NET人臉數(shù)據(jù)集中年齡標(biāo)記分別為16~78歲和0~69歲,將MORPH分為62個(gè)類,F(xiàn)G-NET分為70個(gè)類。

將本文方法和IIS-LDL[9]、CPNN[9]、BFGS-ALDL[10]、IIS-ALDL[10]、DEX(IMDB-WIKI)[11]方法進(jìn)行對(duì)比,MAE(平均絕對(duì)誤差)見(jiàn)表1所列。

從表1可知,深度學(xué)習(xí)方法的年齡絕對(duì)誤差比傳統(tǒng)的機(jī)器學(xué)習(xí)方法小,而基于遷移學(xué)習(xí)的方法優(yōu)于深度學(xué)習(xí)方法。在2種數(shù)據(jù)集中,基于MORPH數(shù)據(jù)集的MAE優(yōu)于FG-NET,是因?yàn)镸ORTPH比FG-NET數(shù)據(jù)集中包含的人臉圖像更多,而數(shù)據(jù)集的大小對(duì)深度學(xué)習(xí)的效果至關(guān)重要。

3 結(jié) 語(yǔ)

采用深度學(xué)習(xí)方法進(jìn)行人臉年齡識(shí)別需要將大量標(biāo)注數(shù)據(jù)進(jìn)行訓(xùn)練,而人臉年齡訓(xùn)練集數(shù)據(jù)量小是當(dāng)前深度學(xué)習(xí)面臨的問(wèn)題,限制了人臉年齡識(shí)別的準(zhǔn)確度。我們提出一種基于殘差網(wǎng)絡(luò)的遷移學(xué)習(xí)人臉年齡識(shí)別方法,將在ImageNet數(shù)據(jù)集上訓(xùn)練的殘差網(wǎng)絡(luò)ResNet34模型遷移到人臉年齡識(shí)別任務(wù)中。實(shí)驗(yàn)結(jié)果表明,殘差網(wǎng)絡(luò)與遷移學(xué)習(xí)結(jié)合,能有效提高年齡識(shí)別的準(zhǔn)確度。如何開(kāi)發(fā)出更高效的深度學(xué)習(xí)算法,減少對(duì)標(biāo)注數(shù)據(jù)的依賴,是我們下一步研究的重點(diǎn)。

參考文獻(xiàn)

[1] AHONEN T,HADID A,PIETIKINEN M. Face description with local binary patterns:application to face recognition [J]. IEEE transactions on pattern analysis and machine intelligence,2007,28(12):2037-2041.

[2] LOWE D G. Distinctive image features from scale-invariant keypoints [J]. International journal of computer vision,2004(2):60.

[3] YI D,LEI Z,LI S Z. 2014 Age estimation by multi-scale convolutional network [J]. Computer science,2014(12):144-158.

[4] GAO B B,XING C,XIE C W,et al. Deep label distribution learning with label ambiguity [J]. IEEE transactions on image processing,2017,26(6):2825-2838.

[5] ZHANG H Y,ZHANG Y,GENG X. Recurrent age estimation [J]. Pattern recognition letters,2019,125:271-277.

[6] OTHMANI A,TALEB A R,ABDELKAWY H,et al. Age estimation from faces using deep learning:A comparative analysis [J]. Computer vision and image understanding,2020,196:102961.

[7] MEI S,GENG Y,HOU J,et al. Learning hyperspectral images from RGB images via a coarse-to-fine CNN [J]. Information sciences,2022,65(5):152-162.

[8]張會(huì)影,圣文順,曾耀徵.基于標(biāo)記分布學(xué)習(xí)的人臉年齡識(shí)別算法[J].江蘇大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,44(2):180-185.

[9] GENG X,SMITH-MILES K,ZHOU Z H. Facial age estimation by learning from label distributions [J]. IEEE transactions on pattern analysis and machine intelligence,2013,35(10):2401-2412.

[10] GENG X,WANG Q,XIA Y. Facial age estimation by adaptive label distribution learning [C]// Proceedings of the 2014 22nd International Conference on Pattern Recognition. Stockholm,Sweden:IEEE,2014:4465-4470.

[11] ROTHE R,TIMOFTE R,VAN GOOL L. Deep expectation of real and apparent age from a single image without facial landmarks [J]. International journal of computer vision,2018,126(2):144-157.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 欧美精品一区在线看| 中国一级毛片免费观看| 亚洲日韩精品综合在线一区二区| 久久99国产乱子伦精品免| 天天综合色网| 色丁丁毛片在线观看| 天天综合色网| 97se亚洲综合在线韩国专区福利| 大香伊人久久| 99ri精品视频在线观看播放| 亚洲熟女偷拍| 国产大片喷水在线在线视频| 国产精品任我爽爆在线播放6080| 香蕉蕉亚亚洲aav综合| 白浆视频在线观看| 午夜影院a级片| 国产91高清视频| 91福利片| 久久动漫精品| 亚洲男人的天堂在线观看| 日a本亚洲中文在线观看| 91国内外精品自在线播放| 三级毛片在线播放| 国产欧美视频综合二区| 亚洲综合专区| 制服丝袜亚洲| 亚洲成人免费看| 国产精品免费p区| 国产无码高清视频不卡| 亚洲V日韩V无码一区二区| 久996视频精品免费观看| 亚洲欧美日韩成人在线| 九九九精品成人免费视频7| 欧美精品v| 高清无码手机在线观看| 91丝袜在线观看| 青青久久91| 亚洲视屏在线观看| 色婷婷在线播放| 香蕉伊思人视频| 亚洲色图欧美视频| 国产成人精品18| 91小视频在线观看免费版高清| 91精品人妻互换| 久热re国产手机在线观看| 亚洲婷婷丁香| 男女性色大片免费网站| 久久国产精品影院| 一级成人a毛片免费播放| 亚洲中文久久精品无玛| 亚洲va欧美va国产综合下载| 日韩欧美国产区| 亚洲高清无码久久久| 欧美亚洲国产精品第一页| 国产一区二区免费播放| 亚洲av日韩综合一区尤物| 成人亚洲视频| 国产一级无码不卡视频| 伊人色天堂| 亚洲综合经典在线一区二区| 久久国产精品国产自线拍| 沈阳少妇高潮在线| 视频二区中文无码| 一级毛片在线免费看| 中文字幕乱妇无码AV在线| 欧美亚洲一区二区三区导航| 亚洲成a人片77777在线播放| 亚洲中文精品人人永久免费| 欧美午夜理伦三级在线观看| 92精品国产自产在线观看| 久久性视频| 手机精品福利在线观看| 国产欧美又粗又猛又爽老| a欧美在线| 三上悠亚一区二区| www.91在线播放| 一级爆乳无码av| 伊人久久精品无码麻豆精品| 久久夜夜视频| 国产办公室秘书无码精品| h视频在线播放| 啪啪啪亚洲无码|