999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器人視覺的面部表情識別技術分析

2021-02-28 07:30:09劉業輝宋玉娥朱賀新
現代信息科技 2021年16期

劉業輝 宋玉娥 朱賀新

摘? 要:在信息技術應用逐漸成熟的背景條件下,機器人視覺方案開始走入各行各業。為使機器人視覺面部表情識別達到理想的識別效果,研究了采用機器人視覺方式進行處理,對人類面部表情進行精準識別,進而為相關功能實現提供支撐,如學校課堂管理、安防工作等。該文主要針對基于機器人視覺的面部表情識別技術進行深入研究,以供參考。

關鍵詞:機器人視覺;面部表情;識別技術

中圖分類號:TP391.4? ? ? ? ? ? ? ? ? 文獻標識碼:A文章編號:2096-4706(2021)16-0102-03

Analysis of Facial Expression Recognition Technology Based on Robot Vision

LIU Yehui, SONG Yu’e, ZHU Hexin

(Beijing Polytechnic College, Beijing? 100042, China)

Abstract: Under the background of the gradual maturity of information technology application, robot vision scheme begin to enter all walks of life. In order to achieve the ideal recognition effect of robot visual facial expression recognition, the robot visual processing method is studied to accurately recognize human facial expression, so as to provide the supports for the realization of relevant functions,, such as school classroom management, security work, etc. This paper mainly studies the facial expression recognition technology based on robot vision for reference.

Keywords: robot vision; facial expression; identification technology

0? 引? 言

智能化解決方案正在廣泛應用,對面部表情進行識別的技術需求日益增多。為達到理想識別效果,需要合理采用機器人視覺面部表情識別技術,通過相關技術手段對人類表情進行深入分析,最終以高識別效率輸出高質量結果。通過研究相關技術細節,可以為后續應用機器人視覺方案打下堅實基礎,具有正面影響意義。

1? 表情識別方法分類

在機器人視覺方案應用階段,面部表情自動化識別屬于常用類型之一,其主要針對人類面部狀態進行采集,并對比數據庫內部表情數據,獲得特征加以分析。通過此類方式,可有效識別目標情緒傾向,有利于相關內容的聯想、整合與分析,快速識別特征面部表情。常規情況下,完整識別系統需要包含人臉檢測、定位跟蹤、特征提取、表情識別四個模塊[1]。

在針對人臉進行檢測的過程中,需要首先通過圖像采集模塊獲取數據信息,隨后利用序列處理方法,檢測目標人臉位置,并開展定位與跟蹤活動如圖1所示。

針對人臉進行檢測與定位的措施主要分為兩種,即知識措施與特征措施。知識措施需要對人臉存在的基礎條件進行規則化處理,使后續能夠利用知識數據庫完成粗檢測、精檢測流程,實現定位目標人臉位置的目標。粗檢測與精檢測的主要區別與分辨率、幀率存在關聯,因此需要根據環境條件與硬件條件的差異進行針對化處理。目前,主流應用方案采用灰度圖像積分投影曲線處理方式進行操作,其能夠根據局部區域極值數據,判斷人臉器官所處位置,整體魯棒性較高[2]。除此之外,基于特征的檢測方法也具有理想應用價值,其在處理階段需要借助人臉所具備的相關特征進行操作,如膚色情況、紋理狀態、邊緣位置等。但是,相對于知識檢測方法,特征檢測可能會受到其他條件干擾,因此應當避免在精細化要求較高的場合應用。為達到理想識別效果,應當針對面部表情信息進行分類處理。通常情況下,分類工作主要利用設計機制展開預先定義的類別處理。常用分類措施主要分為兩種,即模板匹配、神經網絡[3]。

2? 人臉圖形獲取與預處理

對針對人臉圖形進行獲取并完成預處理操作時,需要首先補償光照條件,避免信息出現亮度過低、模糊等影響識別的問題。通常情況下,人類面部膚色容易受到光源顏色、采集設備色差等問題影響,出現偏離實質色彩的情況。因此,需要利用參考白算法完成圖像補償措施,使光照條件產生的負面影響能夠得到有效控制。

光照條件補償糾正結束后,應當對圖像信息進行中值濾波平滑處理。中值濾波屬于非線性濾波類型,其能夠有效排除噪聲像素,為后續進一步識別提供重要基礎。在實踐階段,應當對圖像內部像素周邊灰度差距較大的位置進行糾正,使其能夠與周邊像素實現平均化表現狀態。

3? 面部表情識別系統的實現與實驗結果

3.1? 面部表情識別系統設計

面部表情識別系統設計基本結構如圖2所示。

在設計面部表情識別系統的過程中,需要首先準備系統應用設備并合理規劃界面布局。本次應用實驗平臺為臺式計算機設備,并結合USB攝像頭裝置完成視頻圖像采集。臺式計算機配置為AMD RYZEN 5600X處理器,內存配置為16 GB,能夠有效承載面部識別計算壓力與數據存儲需求。表情識別系統采用C++編寫,并基于開源視覺庫OPEN GL完成處理模塊設計[4]。在界面規劃階段,中央顯示窗口應當與攝像頭連接,顯示視頻信息內容。窗口內采用紅色矩形標記目標人臉位置,為調試跟蹤模塊提供基礎條件。表情識別信息需要顯示于紅色矩形標記下方,并在界面右側控制區域輸出幀數狀態與識別結果保存位置。面部表情識別處理如圖3所示。

首先利用檢測定位方式對視頻圖像幀進行檢查、處理,隨后將人臉區域從攝像頭信息中分離(割)。若在單幀內成功檢測到目標人臉,則啟動人臉跟蹤處理模塊。

3.2? 人臉檢測定位及跟蹤實驗

人臉檢測與定位屬于機器人視覺識別方案的核心模塊,通過從人類基本表情視頻流內抽取相關圖像進行對比,并采用雙眼定位與視覺瞳孔拾取方法進行處理,能夠有效明確定位方案應用效果。實驗過程中,主要針對X與Y方向的雙眼瞳孔定位進行分析,并明確誤差情況。結果顯示,瞳孔定位誤差極限數據不超過4像素,具有應用可靠性。同時,對虹膜半徑識別誤差極限不超過5像素,單幀定位耗時僅523毫秒,實時性良好。

在跟蹤實驗開展階段,主要應用中值濾波、開啟閉合等像素操作方案,整體時間消耗較長。通過采用1 000幀人臉識別圖像數據進行粗定位實時檢測,對結果進行分析能夠發現,針對單幀圖像的定位耗時極限達到了72毫秒,實用性較低。為解決此類問題,應當采用粒子濾波跟蹤應用算法,使人臉檢測與識別裝置能夠得到有效補充,進一步強化實時性特征,跟蹤計算時采用式(1)進行處理[5]。

yt=2yt-1-yt-2? ? ? ? ? ? ? ? ? ? ? ? ? ? ?(1)

本式中,y代表二維向量{r,c},r,c分別代表此粒子在目標圖像內的行列坐標狀態。yt代表第t次粒子濾波初始階段所處位置,yt-1代表第t-l次確定的跟蹤目標位置,yt-2代表第t-2次確定的跟蹤目標位置。完成改造后再次進行相關識別測試發現,跟蹤算法耗時僅為人臉粗定位算法耗時的二分之一。人臉區域檢測定位與跟蹤主要算法流程如圖4所示。

3.3? 面部表情識別實驗

在針對面部表情進行識別時,為明確系統應用效果,需要展開相關測試實驗。實驗工作主要依靠訓練分類表情數據進行處理,相關數據內容來源于5名隨機人員在穩定環境條件下展現面部表情。通過對比相關實驗數據能夠發現,本次構建的表情識別系統能夠對特定目標面部情況實現高效識別,與人工鑒定表情類型結果具有趨同性,可判定為準確度較高。同時,針對實驗結果進行分析能夠發現,本次應用系統對相關特征表情的識別率超過85%,平均可識別效果相對接近,均處于85%以上。針對特定表情進行識別時,由于面部特征明顯,因此識別率會產生上升趨勢,如開心、驚訝、憤怒等,識別率能夠達到95%以上。此類面部表情特征與其他常見表情存在顯著差異,在面部器官位置出現改變時,識別敏感區域相對位置與狀態變化顯著,如面部眉毛、眼睛、嘴部等。因此,針對相關表情的識別效果較為良好,能夠在特定要求下進行應用。除此之外,針對厭煩、害怕、悲傷三種表情的識別效果相對較差,容易出現判斷錯誤或結果混淆等情況。導致此類問題出現的主要原因與三種表情敏感區域變化不顯著有關,同時此類負面表情共同特征較多,容易導致人臉識別系統出現誤判斷問題。因此,需要重視對負面表情識別的優化工作,確保不同類型面部特征能夠得到有效區分,避免影響整體識別準確率與穩定性。

除常規識別實驗外,還應當展開非特定人類表情識別實驗工作。通過此類實驗方式,能夠明確本次設立的表情識別系統能否使用多種差異人群類型識別需求場景。通過選擇四名非特定人選開展識別工作,并利用與常規面部識別系統完全一致的分類裝置進行處理,能夠在排除特定圖像信息的情況下展開客觀識別活動。四名非特定測試人員需要在穩定環境條件下展現多種面部表情,如厭煩、害怕、開心、悲傷等[6]。在表情分類裝置內部不存在對應樣本的情況下,整體工作穩定性大幅降低,但是整體分析表情識別效果與人工識別仍然存在顯著趨同性,平均識別率達到了80%,可以認為非特定人類表情識別效果仍然較為理想,能夠明確整體識別效果具有較為穩定的趨勢。因此,本次識別系統具有顯著實用性,能夠在多種情況條件下進行應用。用訓練過和為訓練過的人分別做測試,初步結果如表1所示。

4? 結? 論

綜上所述,在針對人類面部表情進行識別的過程中,機器人視覺解決方案具有良好應用效果。在落實系統處理架構時,需要重視相關技術應用細節,確保面部表情能夠得到穩定識別,盡可能提高應用質量與效率,為后續多種場景應用打下堅實基礎,進一步拓展計算機識別應用功能推廣范圍。

參考文獻:

[1] 潘光良.機器人人臉表情識別技術研究 [J].智能機器人,2019(1):50-52.

[2] 李蕭瑋.基于智能服務機器人表情識別技術研究 [J].中國新通信,2018,20(23):76.

[3] 王鍇.挑戰條件下的人臉表情識別 [D].中國科學院大學(中國科學院深圳先進技術研究院),2020.

[4] 何志超,趙龍章,陳闖.用于人臉表情識別的多分辨率特征融合卷積神經網絡 [J].激光與光電子學進展,2018,55(7):370-375.

[5] 姚麗莎,徐國明,趙鳳.基于卷積神經網絡局部特征融合的人臉表情識別 [J].激光與光電子學進展,2020,57(4):338-345.

[6] 崔鳳焦.表情識別算法研究進展與性能比較 [J].計算機技術與發展,2018,28(2):145-149.

作者簡介:劉業輝(1969.12—),男,漢族,四川省開縣人,教授,碩士研究生,主要研究方向:電子通信、移動互聯應用、人工智能應用;宋玉娥(1981.02—),女,漢族,山東省曹縣人,副教授,信號處理學博士,主要研究方向:移動通信工程、信息安全與對抗、人工智能應用;朱賀新(1983.06—),女,漢族,河南省南陽人,副教授,通信與信息系統碩士,主要研究方向:移動通信工程、移動互聯應用、人工智能應用。

主站蜘蛛池模板: 69精品在线观看| 亚洲成人高清无码| 无遮挡国产高潮视频免费观看| 国产一级小视频| av天堂最新版在线| 天堂va亚洲va欧美va国产| 亚洲国产天堂久久综合| 免费在线色| 中文精品久久久久国产网址| 超碰aⅴ人人做人人爽欧美| 国产精品自在拍首页视频8| 伊人精品成人久久综合| 五月天丁香婷婷综合久久| 亚洲综合狠狠| 国产打屁股免费区网站| 狠狠色香婷婷久久亚洲精品| 丰满的熟女一区二区三区l| 国产欧美在线观看视频| 免费在线视频a| 视频一本大道香蕉久在线播放| 国产欧美在线观看一区| 激情在线网| 日本午夜影院| 国产精品久久久久婷婷五月| 一级毛片在线免费看| 久996视频精品免费观看| 中文字幕人妻av一区二区| 亚洲天堂首页| 国产精品成人观看视频国产| 亚洲人成成无码网WWW| 国产成人精品视频一区二区电影 | 不卡无码网| 四虎AV麻豆| 无码AV动漫| 国产日韩欧美一区二区三区在线| 色妞www精品视频一级下载| 国产欧美精品专区一区二区| 亚洲欧美不卡视频| 国产一区二区福利| 真人免费一级毛片一区二区| 欧美日韩第二页| 亚洲中文字幕无码mv| 黑色丝袜高跟国产在线91| 国产在线拍偷自揄观看视频网站| 欧美日本在线一区二区三区| 国产微拍一区二区三区四区| 国内毛片视频| 国产精品自在自线免费观看| 天天做天天爱夜夜爽毛片毛片| 人妻丝袜无码视频| 亚洲三级a| 国产a网站| 欧美中文字幕在线播放| 亚洲成人精品| 欧美成人日韩| 97在线公开视频| 香蕉久久永久视频| 99久久国产自偷自偷免费一区| 一本久道久久综合多人| 97国内精品久久久久不卡| 国产无码性爱一区二区三区| 婷婷综合色| 3p叠罗汉国产精品久久| 狠狠亚洲五月天| 在线毛片网站| 亚洲综合经典在线一区二区| 无码电影在线观看| 久久国产精品77777| 欧美国产在线一区| 成人午夜免费视频| 91精品啪在线观看国产| 四虎国产永久在线观看| 特级毛片免费视频| 99精品视频播放| 久久久久免费看成人影片| 天天干天天色综合网| 日韩在线中文| 成人va亚洲va欧美天堂| 欧洲高清无码在线| 国产成人久视频免费| 国产精品任我爽爆在线播放6080 | 欧美精品1区|