999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于殘差網(wǎng)絡(luò)的人臉圖像年齡識(shí)別研究

2024-10-19 00:00:00張會(huì)影圣文順袁海榮周子倡
物聯(lián)網(wǎng)技術(shù) 2024年10期
關(guān)鍵詞:深度學(xué)習(xí)

摘 要:針對(duì)目前基于深度學(xué)習(xí)的人臉年齡識(shí)別訓(xùn)練集數(shù)據(jù)量小、識(shí)別精度不高的問(wèn)題,提出了一種基于殘差網(wǎng)絡(luò)的遷移學(xué)習(xí)人臉年齡識(shí)別方法。將在ImageNet數(shù)據(jù)集上訓(xùn)練的殘差網(wǎng)絡(luò)ResNet模型遷移到人臉年齡識(shí)別任務(wù)中進(jìn)行了分析、處理。所提方法在人臉數(shù)據(jù)集MORPH和FG-NET上的實(shí)驗(yàn)結(jié)果表明,殘差網(wǎng)絡(luò)與遷移學(xué)習(xí)結(jié)合能夠有效提高年齡識(shí)別的準(zhǔn)確性。

關(guān)鍵詞:深度學(xué)習(xí);遷移學(xué)習(xí);殘差網(wǎng)絡(luò);平均絕對(duì)誤差;年齡識(shí)別;卷積神經(jīng)網(wǎng)絡(luò)

中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-1302(2024)10-00-03

0 引 言

人臉能夠傳遞與重要個(gè)人特征相關(guān)的可感知信息,包括身份、性別、種族和年齡等。目前,年齡在許多應(yīng)用中扮演著重要的角色,例如,基于年齡的訪問(wèn)控制可幫助監(jiān)控系統(tǒng)準(zhǔn)確判斷目標(biāo)對(duì)象的年齡段,推薦與年齡適應(yīng)的目標(biāo)營(yíng)銷、商品和個(gè)性化服務(wù);在社交媒體和娛樂(lè)領(lǐng)域,年齡識(shí)別技術(shù)用于美顏相機(jī)等軟件后,可根據(jù)用戶的年齡段自動(dòng)調(diào)整相機(jī)濾鏡和美化效果,提高用戶的拍攝體驗(yàn)等。

人臉年齡識(shí)別的發(fā)展可以追溯到20世紀(jì)80年代。早期的方法主要基于傳統(tǒng)的機(jī)器學(xué)習(xí)算法,如支持向量機(jī)(SVM)、樸素貝葉斯分類器等。傳統(tǒng)的機(jī)器學(xué)習(xí)方法主要依靠手工提取人臉圖像的特征,如皺紋、皮膚顏色等,然后利用分類器進(jìn)行年齡分類預(yù)測(cè)。這個(gè)時(shí)期提取人臉特征圖的方法主要有Local Binary Patterns(LBP)[1]、Scale Invariant Feature Transform(SIFT)[2]等,傳統(tǒng)的機(jī)器學(xué)習(xí)算法對(duì)圖像質(zhì)量要求較高,對(duì)光照變化、遮擋和噪聲敏感且計(jì)算復(fù)雜度高。

隨著深度學(xué)習(xí)技術(shù)的興起,深度神經(jīng)網(wǎng)絡(luò)模型,如卷積神經(jīng)網(wǎng)絡(luò)(CNN)、殘差網(wǎng)絡(luò)(ResNet)等被廣泛應(yīng)用于各種計(jì)算機(jī)視覺(jué)識(shí)別任務(wù)中。目前,人臉年齡識(shí)別的研究主要基于CNN展開(kāi)。例如,文獻(xiàn)[3]將人臉?lè)指畛扇舾蓚€(gè)模塊,并送至較淺的網(wǎng)絡(luò)架構(gòu),將各卷積網(wǎng)絡(luò)提取的特征通過(guò)全連通層組合后識(shí)別年齡。文獻(xiàn)[4]用16層CNN(VGG-16)提取人臉特征,并利用年齡之間的模糊性和多義性,將標(biāo)記分布學(xué)習(xí)融入VGG框架中。文獻(xiàn)[5]提出個(gè)體受內(nèi)外因素影響形成個(gè)體老化模式,利用CNN-LSTM深度學(xué)習(xí)模型來(lái)學(xué)習(xí)個(gè)體老化模式,其中CNN用來(lái)提取人臉特征,LSTM用來(lái)學(xué)習(xí)人臉時(shí)間序列圖像中的個(gè)體老化模式。深度學(xué)習(xí)技術(shù)可以提高年齡識(shí)別的準(zhǔn)確度,但需要大量的數(shù)據(jù)和計(jì)算資源來(lái)進(jìn)行模型訓(xùn)練。因?yàn)槟挲g是一個(gè)相對(duì)復(fù)雜且多變的屬性,因此對(duì)于年齡識(shí)別任務(wù)而言,模型需要從大量樣本中學(xué)習(xí)年齡的特征和變化規(guī)律。當(dāng)訓(xùn)練數(shù)據(jù)有限或者不足以代表所有數(shù)據(jù)分布狀態(tài)時(shí),深度學(xué)習(xí)模型可能會(huì)出現(xiàn)過(guò)擬合現(xiàn)象,導(dǎo)致模型在處理新任務(wù)或者新數(shù)據(jù)時(shí)表現(xiàn)不佳[6]。

遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,它通過(guò)已經(jīng)訓(xùn)練好的模型來(lái)改善系統(tǒng)性能。具體而言,遷移學(xué)習(xí)將已經(jīng)學(xué)到的知識(shí)和經(jīng)驗(yàn)應(yīng)用到類似的問(wèn)題上,從而加速和改善學(xué)習(xí)過(guò)程。在遷移學(xué)習(xí)過(guò)程中,通常會(huì)有一個(gè)稱為源領(lǐng)域的任務(wù)和一個(gè)稱為目標(biāo)領(lǐng)域的任務(wù)。源領(lǐng)域是已經(jīng)訓(xùn)練好的模型所學(xué)習(xí)的領(lǐng)域,而目標(biāo)領(lǐng)域則是我們希望在其中應(yīng)用遷移學(xué)習(xí)的新任務(wù)。將源領(lǐng)域的知識(shí)遷移到目標(biāo)領(lǐng)域,利用源領(lǐng)域的數(shù)據(jù)和經(jīng)驗(yàn)來(lái)改善目標(biāo)領(lǐng)域的學(xué)習(xí)效果。

深度學(xué)習(xí)技術(shù)雖然提高了年齡識(shí)別的準(zhǔn)確度,但是缺少標(biāo)注年齡的人臉數(shù)據(jù)集是目前人臉年齡識(shí)別面臨的一大問(wèn)題[7-8]。為了解決這一問(wèn)題,我們提出使用遷移學(xué)習(xí)技術(shù)來(lái)提高模型的性能。將在ImageNet數(shù)據(jù)集上訓(xùn)練的殘差網(wǎng)絡(luò)ResNet34模型遷移到人臉年齡識(shí)別任務(wù)中,并在人臉年齡數(shù)據(jù)集上進(jìn)一步訓(xùn)練ResNet34模型,以提高人臉年齡識(shí)別模型的性能。

1 人臉年齡識(shí)別方法

1.1 殘差模塊

殘差模塊(Residual Blocks)通過(guò)跨層連接(Shortcut Connection)來(lái)構(gòu)建殘差網(wǎng)絡(luò),使得網(wǎng)絡(luò)可直接將某層的輸入傳至后續(xù)層,從而保留未損失的信息,并且允許網(wǎng)絡(luò)學(xué)習(xí)恒等映射。具體而言,殘差模塊內(nèi)部有2個(gè)卷積層,通過(guò)跨層連接,最終輸出借助恒等映射或者降采樣得到。如圖1所示,將輸入數(shù)據(jù)跨層傳輸,與經(jīng)過(guò)一系列卷積操作之后得到的特征結(jié)果相加。假設(shè)在輸入主分支上輸入為x,在主分支上經(jīng)過(guò)卷積操作后輸出為F(x),最終的輸出為H(x)=F(x)+x。采用殘差塊和跨層連接的方式解決了深層網(wǎng)絡(luò)中的梯度問(wèn)題。

1.2 深度殘差模型

深度殘差模型(Deep Residual Model)是常用的深度學(xué)習(xí)模型結(jié)構(gòu),該模型通過(guò)引入殘差連接(Residual Connection)來(lái)解決深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失和梯度爆炸問(wèn)題。在傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)中,每一層輸入都通過(guò)非線性激活函數(shù)得到,則每一層的輸出都是對(duì)輸入的變換。而深度殘差模型引入了殘差模塊,將輸入與網(wǎng)絡(luò)輸出相加。深度殘差模型可選擇性地學(xué)習(xí)殘差變換,而非完全依賴多層網(wǎng)絡(luò)的堆疊。

ResNet34是一個(gè)深度殘差網(wǎng)絡(luò)(Residual Network),它由殘差模塊組成。ResNet34擁有34個(gè)卷積層,包括堆疊的殘差模塊和全局平均池化層。ResNet34網(wǎng)絡(luò)結(jié)構(gòu)能夠有效解決深度神經(jīng)網(wǎng)絡(luò)的退化問(wèn)題。通過(guò)引入殘差連接,ResNet34能夠有效傳播和學(xué)習(xí)特征。

本文提出了一個(gè)改進(jìn)的深度殘差模型,即對(duì)ResNet34進(jìn)行改進(jìn),將最后一層的全連接層改為年齡類別,如圖2所示。

1.3 基于遷移學(xué)習(xí)的分類模型

遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,它通過(guò)將一個(gè)已經(jīng)訓(xùn)練好的模型應(yīng)用于不同但相關(guān)的任務(wù)上,來(lái)提高新任務(wù)的性能。在傳統(tǒng)的機(jī)器學(xué)習(xí)中,每個(gè)任務(wù)都需要訓(xùn)練模型。然而,這樣的方法通常需要大量數(shù)據(jù)和計(jì)算資源,并且可能導(dǎo)致模型無(wú)法很好地泛化到新任務(wù)上。而遷移學(xué)習(xí)則可以利用之前學(xué)習(xí)的知識(shí)和模型,快速適應(yīng)并改進(jìn)。

圖3給出了本文中人臉年齡識(shí)別遷移學(xué)習(xí)模型的結(jié)構(gòu),我們將保存在ResNet34模型上基于120萬(wàn)張圖片的ImageNet數(shù)據(jù)集訓(xùn)練的權(quán)重參數(shù),然后將其分別遷移到基于人臉年齡的數(shù)據(jù)集MORPH和FG-NET,MORPH和FG-NET采用8∶2的比例分別進(jìn)行訓(xùn)練和測(cè)試。

2 實(shí)驗(yàn)與結(jié)果分析

本文采用平均絕對(duì)誤差(Mean Absolute Error, MAE)作為評(píng)估標(biāo)準(zhǔn),計(jì)算如式(1)所示:

實(shí)驗(yàn)環(huán)境配置:操作系統(tǒng)為64位Windows 10,深度學(xué)習(xí)框架為Tensorflow,集成開(kāi)發(fā)環(huán)境為PyCharm,編程語(yǔ)言為Python3.7。改進(jìn)的ResNet參數(shù)權(quán)重來(lái)自ImageNet的預(yù)訓(xùn)練權(quán)重。遷移后各參數(shù)的設(shè)置如下:優(yōu)化算法選擇隨機(jī)梯度下降,丟棄率為0.8,MORPH和FG-NET的學(xué)習(xí)率為0.001,訓(xùn)練次數(shù)為50。MORPH和FG-NET人臉數(shù)據(jù)集中年齡標(biāo)記分別為16~78歲和0~69歲,將MORPH分為62個(gè)類,F(xiàn)G-NET分為70個(gè)類。

將本文方法和IIS-LDL[9]、CPNN[9]、BFGS-ALDL[10]、IIS-ALDL[10]、DEX(IMDB-WIKI)[11]方法進(jìn)行對(duì)比,MAE(平均絕對(duì)誤差)見(jiàn)表1所列。

從表1可知,深度學(xué)習(xí)方法的年齡絕對(duì)誤差比傳統(tǒng)的機(jī)器學(xué)習(xí)方法小,而基于遷移學(xué)習(xí)的方法優(yōu)于深度學(xué)習(xí)方法。在2種數(shù)據(jù)集中,基于MORPH數(shù)據(jù)集的MAE優(yōu)于FG-NET,是因?yàn)镸ORTPH比FG-NET數(shù)據(jù)集中包含的人臉圖像更多,而數(shù)據(jù)集的大小對(duì)深度學(xué)習(xí)的效果至關(guān)重要。

3 結(jié) 語(yǔ)

采用深度學(xué)習(xí)方法進(jìn)行人臉年齡識(shí)別需要將大量標(biāo)注數(shù)據(jù)進(jìn)行訓(xùn)練,而人臉年齡訓(xùn)練集數(shù)據(jù)量小是當(dāng)前深度學(xué)習(xí)面臨的問(wèn)題,限制了人臉年齡識(shí)別的準(zhǔn)確度。我們提出一種基于殘差網(wǎng)絡(luò)的遷移學(xué)習(xí)人臉年齡識(shí)別方法,將在ImageNet數(shù)據(jù)集上訓(xùn)練的殘差網(wǎng)絡(luò)ResNet34模型遷移到人臉年齡識(shí)別任務(wù)中。實(shí)驗(yàn)結(jié)果表明,殘差網(wǎng)絡(luò)與遷移學(xué)習(xí)結(jié)合,能有效提高年齡識(shí)別的準(zhǔn)確度。如何開(kāi)發(fā)出更高效的深度學(xué)習(xí)算法,減少對(duì)標(biāo)注數(shù)據(jù)的依賴,是我們下一步研究的重點(diǎn)。

參考文獻(xiàn)

[1] AHONEN T,HADID A,PIETIKINEN M. Face description with local binary patterns:application to face recognition [J]. IEEE transactions on pattern analysis and machine intelligence,2007,28(12):2037-2041.

[2] LOWE D G. Distinctive image features from scale-invariant keypoints [J]. International journal of computer vision,2004(2):60.

[3] YI D,LEI Z,LI S Z. 2014 Age estimation by multi-scale convolutional network [J]. Computer science,2014(12):144-158.

[4] GAO B B,XING C,XIE C W,et al. Deep label distribution learning with label ambiguity [J]. IEEE transactions on image processing,2017,26(6):2825-2838.

[5] ZHANG H Y,ZHANG Y,GENG X. Recurrent age estimation [J]. Pattern recognition letters,2019,125:271-277.

[6] OTHMANI A,TALEB A R,ABDELKAWY H,et al. Age estimation from faces using deep learning:A comparative analysis [J]. Computer vision and image understanding,2020,196:102961.

[7] MEI S,GENG Y,HOU J,et al. Learning hyperspectral images from RGB images via a coarse-to-fine CNN [J]. Information sciences,2022,65(5):152-162.

[8]張會(huì)影,圣文順,曾耀徵.基于標(biāo)記分布學(xué)習(xí)的人臉年齡識(shí)別算法[J].江蘇大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,44(2):180-185.

[9] GENG X,SMITH-MILES K,ZHOU Z H. Facial age estimation by learning from label distributions [J]. IEEE transactions on pattern analysis and machine intelligence,2013,35(10):2401-2412.

[10] GENG X,WANG Q,XIA Y. Facial age estimation by adaptive label distribution learning [C]// Proceedings of the 2014 22nd International Conference on Pattern Recognition. Stockholm,Sweden:IEEE,2014:4465-4470.

[11] ROTHE R,TIMOFTE R,VAN GOOL L. Deep expectation of real and apparent age from a single image without facial landmarks [J]. International journal of computer vision,2018,126(2):144-157.

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
基于自動(dòng)智能分類器的圖書(shū)館亂架圖書(shū)檢測(cè)
搭建深度學(xué)習(xí)的三級(jí)階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 色综合天天综合中文网| 亚洲国产精品人久久电影| 久久伊人操| 国产香蕉在线| 天天躁日日躁狠狠躁中文字幕| 97视频免费在线观看| 无码国产伊人| 丁香六月综合网| 亚洲欧美日韩中文字幕在线| 欧美日韩理论| 欧美日韩久久综合| 乱系列中文字幕在线视频| 区国产精品搜索视频| 欧美一级在线| 成人国产免费| 波多野结衣一区二区三区88| 欧美在线黄| 欧美影院久久| 精品乱码久久久久久久| 国产成人精品18| 无码有码中文字幕| 国产亚洲男人的天堂在线观看| 亚洲成在线观看| 精品色综合| 伊人无码视屏| 91在线视频福利| 少妇高潮惨叫久久久久久| 国产最新无码专区在线| 在线视频97| 亚洲精品少妇熟女| 波多野结衣亚洲一区| 久久a毛片| 亚洲精品中文字幕午夜| www.91中文字幕| 日韩精品毛片人妻AV不卡| 综合色在线| 亚洲综合经典在线一区二区| 国产激情无码一区二区三区免费| 国产成人福利在线视老湿机| 国产精品妖精视频| av在线5g无码天天| 国产天天射| 欧美精品v欧洲精品| 成年人久久黄色网站| 国产一级α片| 成人综合在线观看| 欧美97欧美综合色伦图| 老司机精品久久| 少妇人妻无码首页| 国产性爱网站| 999国内精品视频免费| 黄色网站不卡无码| 99精品高清在线播放| 精品国产免费观看| 人妻丝袜无码视频| AV不卡在线永久免费观看| 自拍偷拍欧美日韩| 欧美一区日韩一区中文字幕页| 夜色爽爽影院18禁妓女影院| 久久特级毛片| 91啦中文字幕| 久久久久免费精品国产| 亚洲综合色婷婷中文字幕| 很黄的网站在线观看| 黄片在线永久| 国产在线98福利播放视频免费| 免费观看成人久久网免费观看| 久久午夜夜伦鲁鲁片无码免费 | 成人午夜视频免费看欧美| 69国产精品视频免费| 国产第二十一页| 久久黄色免费电影| 色综合成人| 精品国产美女福到在线直播| 欧美国产成人在线| 欧美a级完整在线观看| 亚洲中文字幕av无码区| 欧美成人一级| 有专无码视频| 自拍偷拍欧美日韩| 成人在线观看不卡| 精品国产乱码久久久久久一区二区|