999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度特征融合的面部表情智能識別技術

2021-05-25 10:04:18馬輝
科學技術創新 2021年11期
關鍵詞:深度特征智能

馬輝

(河南質量工程職業學院 現代教育技術中心,河南 平頂山467000)

面部表情智能識別技術(Facial Expression Recognition,簡稱FER),是憑借當下現有的計算機技術,所進行的有關人工智能方面新型技術探索。人的面部表情在日常生活情緒的傳達當中有著極為重要的地位。人類面部表情識別技術的開發,除了能夠應用于日常生活當中,由于計算機對人類表情的識別本身極具復雜性,故而對表情識別技術的研究與創新,也有助于對其它類似研究方向進行探索。其在計算機科學技術方面的科研價值同樣不容忽視,面部表情智能識別有助于拓展計算機數據庫、建模以及相關視覺系統[1]。深度特征融合的概念,對于各項科學技術和算法的發展都提供了極大助力。基于這樣的方法,面部表情智能識別技術在實際開發和應用過程中,衍生出了多種人臉數據收集的方法。對需要識別的人臉進行檢測和面容數據分割,然后利用算法對收集到的面容數據進行快速且準確的計算[2]。這對于算法的運算速度和準確性都有很高要求,一個合格的算法需要做到在光線不足、檢測背景復雜、人臉位置偏斜的情況下,仍然可以準確地捕捉到面容并得出所需數據。而利用先進的、性能極高的面部表情智能識別技術,在當前主要目的是為了給動畫制作領域、個人情緒的綜合判斷研究以及方興未艾的人工心理學領域研究提供更好的技術條件。

1 基于深度特征融合的面部表情智能識別技術

1.1 基于膚色分辨和模板匹配采集面部表情數據

結合當前的技術跟進情況,我們可以發現其實并沒有一種識別方式特別被全社會所公認。不過專業的教授學者們卻在一些流程分類上能夠達成共識。當前的情況就是,面部表情智能識別的相關技術被分為了三大塊,分別是人臉檢測、特征提取、表情分類。而基于被采集者的膚色進行分割檢測,是一種十分基礎且常用的檢測方法。皮膚顏色作為一種常見面部特征,是可以被外界快速感知和獲取的。利用膚色來確定面容位置,依據顏色分布來進一步分割檢測到的人臉,也就是說利用膚色分辨技術,是可以將人臉檢測和特征提取這兩個大的步驟快速完成的,因為膚色作為最容易識別的面部特征,具有很強的直觀性,但該方法的缺點也非常明顯,當攝像頭捕捉到類似膚色的物體,可能會做出錯誤的識別動作,并且膚色很容易受光照變化的影響,直接導致特征提取和檢測動作的失敗。而比面部膚色分辨更進一步的采集方案,就是利用模板匹配的方法,來進行一個類似于搜索對比的動作。涉及到具體的操作,就是將使用模板對比的識別設備,在投入使用以前就錄入一些具有代表性的人臉圖像,或者直接設定一個“標準臉”的模板。后期在進行人臉識別檢測的過程時,設備通過攝像頭或者后臺上傳的圖像,與已有模板進行對比。如果匹配的程度高達一定的閾值,就可以做到成功識別。不過該方法在原理解釋上十分簡單,但在運算量上卻不具有任何優勢,同時在圖像錄入的過程中,不能適應“近大遠小”的人臉變化,對面容的尺寸和位置要求十分嚴格。這樣來看,模板匹配并不能很好地滿足“智能識別”的要求,性能上有所欠缺[3]。

1.2 設計多級聯分類智能識別方案

基于多級聯分類的智能識別方案的主要原理和核心就是分類器,其級聯的原則是從前至后越來越復雜。在實際應用過程中,人臉或人臉圖像能被級聯上所有的強分類器識別,數據才最終能夠被識別和匯總,成功完成一次識別。如果想要順利做出識別動作,就離不開專用分類器作為支撐[4]。分類器又分為強分類器和弱分類器,幾個弱分類器通過被分配到不同的權重,組成強分類器。假設我們設置樣本有n 個,那么(x1,y1)……(xn,yn),然后yi=1(1 個正樣本),共有p 個,yi=0(0 個負樣本),共有q 個。兩種樣本初始權重相同,正樣本的權重就是1/2p,負樣本權重為1/2q。由此權重歸一為wi。

y 代表測試輪數,而在某一識別時收集面容的矩形特征q出現測試誤差時,選擇誤差最小的分類器,則權重值更新為:

則樣本的權重分類值為β=θ/(1-θ),如果β>1 則分類器分類正確,如果β≤1 則分類器分類錯誤。最終得到一個強分類器:

在疊加計算得到強分類器過后,結合前面提到的從前到后越來越復雜的順序,通過順序級聯最終形成一個性能高效的面部檢測分類器,以及更加智能的識別方案。

圖1 特征為H1 的臨近深度融合模塊示意圖

表1 對比實驗結果

1.3 基于深度特征融合識別面部表情模態特征

在識別面部表情的過程當中,必然就會提到深度特征融合的概念。所謂深度特征融合[5],是通過構建臨近深度融合模塊,進一步得到面部表情識別的相關模態特征。再對多級聯模態中,所具備的全部特征進行捕捉,從而找到多模態特征之間跨通道關聯性。為解釋深度特征融合概念下[6],怎樣對捕捉識別面部表情模態進行協助。現將生成特征用H1 表示,個體間不同深度的特征用F 表示,得出圖1 的深度融合模塊示意圖。

由圖1 可知,每個模塊當中都會存在3 個卷積操作和1 個反卷積操作。這代表著每個模塊當中都有兩個卷積層和一個反卷積層,這三個層面分別作用于不同的特征通道,進一步保證面部表情識別的極高空間分辨率,做到更為精準的雙向信息傳遞。最后,依照深度特征融合下形成的模塊,根本上是為了解決輔助面部表情識別流程的算法問題,進一步優化現有算法的性能。

2 實驗論證分析

實驗選取了本文算法,將其與運算流程上極其相似的LBP算法進行對比。在人臉數據的選取上,隨機抽取了MIT 人臉數據庫和ORL 人臉數據庫作為實驗的工具。并在兩個數據庫當中,均選擇相同數量的人臉圖像作為測試樣本,再分別利用本文算法和傳統算法進行了共計528 次的識別測試,實驗結果如表1 所示。

根據實驗結果表1 得知,使用本文算法在人臉數據庫當中進行識別測試,所得出的平均識別率要比使用傳統算法得出的平均識別率高出2%。盡管利用本文算法進行識別時,出現了運算時間長于傳統算法的情況。但考慮到MIT 數據庫當中收集的面部數據,在光照、配飾等因素上改變更多,傳統算法又極易受光照的影響,識別率會受到嚴重削弱。故而綜合比對來看,在環境光照變化等復雜因素影響下,依舊是本文算法更具有優勢。

3 結論

本文旨在通過總結和分析,基于深度特征融合概念所進行的對于面部智能識別技術及其相關算法的列舉。結合識別測試實驗進行了對比和分析,比較出了LDP 算法在具體應用過程當中的明顯優勢。但由于文章只進行了對多級聯、多模態算法特征的淺顯分析,因此在面部智能識別技術領域的具體開發和算法應用過程中,本文所得出的結論并不能作為方法論使用,實際結論僅供參考。

猜你喜歡
深度特征智能
深度理解一元一次方程
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
深度觀察
深度觀察
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
智能前沿
文苑(2018年21期)2018-11-09 01:22:32
深度觀察
主站蜘蛛池模板: 91美女视频在线| 亚洲人成人伊人成综合网无码| 亚洲一区二区三区中文字幕5566| 久久久久夜色精品波多野结衣| 九色91在线视频| 久久精品无码专区免费| 曰韩免费无码AV一区二区| 日本在线欧美在线| 国产精品3p视频| 国产区人妖精品人妖精品视频| 综合亚洲网| 91国内视频在线观看| 国产超薄肉色丝袜网站| 亚洲精品午夜无码电影网| 国产精品亚欧美一区二区| 69综合网| 午夜一级做a爰片久久毛片| 国产精品极品美女自在线| 日韩欧美国产综合| 亚洲中文字幕在线精品一区| 国产精品香蕉| 国内精品一区二区在线观看| 国产二级毛片| 亚洲高清中文字幕| 青草精品视频| Jizz国产色系免费| 2018日日摸夜夜添狠狠躁| 国内熟女少妇一线天| 无码又爽又刺激的高潮视频| 国产新AV天堂| 免费激情网址| 亚洲第一天堂无码专区| 日韩在线中文| 日韩a级毛片| 欧美激情第一欧美在线| 大学生久久香蕉国产线观看| 99免费在线观看视频| 国产精品主播| 欧美日韩高清在线| 91精品人妻互换| 国产精品自拍露脸视频| 欧美在线视频不卡第一页| 99re热精品视频中文字幕不卡| 国产自产视频一区二区三区| 不卡无码h在线观看| 亚洲成a人在线播放www| 亚洲精品国产首次亮相| 国产大片黄在线观看| 无码中文字幕精品推荐| 一区二区午夜| 在线亚洲精品福利网址导航| 在线视频精品一区| 亚洲国产看片基地久久1024| 91久久偷偷做嫩草影院免费看| 国产成人精品免费视频大全五级| 成人在线第一页| 日本人又色又爽的视频| 97久久精品人人| 日韩A∨精品日韩精品无码| 97在线观看视频免费| 久久www视频| 26uuu国产精品视频| 国产91丝袜在线播放动漫| 亚洲国产欧洲精品路线久久| 无码免费视频| 爆乳熟妇一区二区三区| 国产精品无码久久久久久| 在线观看免费黄色网址| 欧美三级日韩三级| 九色视频线上播放| 国产成人精品2021欧美日韩| 亚洲欧美另类久久久精品播放的| 久久影院一区二区h| 国产精品第一区在线观看| 波多野结衣视频一区二区| 亚洲中久无码永久在线观看软件| 日韩二区三区无| 成人久久精品一区二区三区| 国产乱人伦精品一区二区| 久久久久久久97| а∨天堂一区中文字幕| 波多野衣结在线精品二区|