999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于視頻圖像的人體異常情緒識別算法研究

2024-01-12 02:54:22
大理大學學報 2023年12期
關鍵詞:分類情緒特征

陳 斌

(麗江文化旅游學院,云南麗江 674100)

隨著信息技術的飛速發展,人臉識別技術已經在眾多領域內充分應用,使得場景變得更加智能化。運用人臉識別技術,能夠快速明確企業運營的數字化發展方向,提升企業的管理效率,保障信息的安全性與實時性〔1〕。通過人臉識別算法開發高性能識別軟件,可對人體行為特征和面部表情進行識別,并應用于身份認證、監控、訪問控制等方面。云計算、大數據技術快速發展,將識別數據通過云端進行儲存,使得識別效果更加精準。然而,不同特征對應著不同的圖像或幀,不同幀之間的相似性計算隨著數據集增大,問題也隨之而來,諸如復雜度增加、內存消耗增大、計算效率降低,而且還存在擴容問題。加之面對光照強度、表情與姿態等因素使得人臉算法無法正確識別〔2〕。對于如何正確識別人臉情緒,如何建立超大規模人臉數據庫集進行識別的問題,還沒有得到有效解決。因此,本研究以人體異常情緒識別算法為研究對象,研究此算法在不同規模測試數據集下的魯棒性及時效性。

1 人體異常情緒識別

1.1 人臉面部表情及身體動作特征圖像預處理對人臉面部表情及身體動作特征進行檢測,完成對于圖像的預處理。建立包含100 個樣本的訓練表情樣本庫和測試人臉庫,得到100 種訓練和測試樣本庫進行命名并保存〔3〕。通過A/D 轉換得到圖像的數組形式,在RGB 空間中,使用一個二維數組進行表示,將不同數據的元素定義為一個三維坐標點,通過RGB 分別表示不同分量的大小。由于組合形式的不同,通過顏色進行區分,得到的種類可以表示為255×255×255。由于像素值不同,對噪聲數據進行濾波處理。運用高斯濾波器平滑圖像,將初始數據與高斯平滑模板進行卷積,獲得的圖像與初始圖像進行比較。高斯平滑函數的公式為:

同時,將初始圖像表示為f(x,y),出現之后的濾波圖像為:

圖像中的邊緣可能會指向不同方向,將初始圖像和不同mask 的卷積存儲起來。對于每個點都標識在這個點上的最大值和生成的邊緣方向,這樣就從原始圖像生成了圖像中每個點的亮度梯度圖以及亮度梯度的方向。將一階差分卷積模板表示為沿著每個點的最大值和生成邊緣方向:H1 =,其中的梯度公式表示為:

其中H1、H2 表示垂直與水平梯度中的卷積;Ψ 為垂直梯度中的圖像;Ψ(m,n)為幅值〔4〕。運用梯度方向,設定不同扇區,并依次標號,獲得4×4 的鄰域,得到g=0。構建人臉表情及身體動作特征的對象梯度直方圖,提供對應局部圖像的編碼。保證訓練模板與測試模板的表情姿勢相同。將初始圖像進行劃分,同時假定每一個模塊的面積為6×7。將不同模塊中不同像素的梯度信息進行統計。為了得到目標的分類向量,把初始樣本的圖像進行劃分,生成不同像素的細胞單元L。設定容器P 的數值為n,將梯度的方向在360°中劃分為相同大小的n 個部分,每個部分的度數范圍對應不同的梯度方向。為得到一個n 維的特征向量,在不同P 的方向區間上進行直方圖的統計〔5〕。模塊m 的面積為3×3,每個L 包含了m 個L。計算不同塊的特征向量是k 維,把k 個L 的維特征向量串聯生成n 維的特征向量。在掃描圖像的時候,以塊為單位,掃描步長為每次塊所移動的像素個數。將像素個數進行統計設定為一個細胞單元。掃描完成后,獲得掃描塊的特征向量,得到目標圖像對應的分類特征。

1.2 深度學習算法提取表情和動作特征深度學習提取人臉特征,運用MLP 分層架構,自動學習完成特征提取,將信息從MLP 的輸入層“前向傳播”后通過隱藏層進行傳送〔6〕。將層與層之間的感知系數進行組合分割,獲得感知器的數學模型。設置權值的初始值為s,將權重中的不同分量設置為隨機自然數,并表示為s(0),s1(0),…,sn(0)。其中sn(0)為對應時刻的閾值。將樣本進行輸入,得到期望值為h。同時根據公式得到數據輸出值與初始值的誤差g 為:

當第一個樣本的輸出值與期望輸出值h 相等時,開始對第二個樣本進行上述操作,直到所有樣本都穩定輸出。全連接層用來感知網絡的全局信息,在卷積神經網絡層中〔7〕,但是采用非線性分類效果緩慢,所以需要設計新的算法來優化結果。將通過深度學習提取人臉面部表情和身體動作特征及卷積神經網絡提取全局特征,作為MLP 的輸入層,再將尺寸歸一化的圖像輸入到net 結構中,建立卷積神經網絡。先對網絡中第一個塊的卷積層進行卷積,然后完成偏置處理,再使用RELU 激活函數對得到的特征進行映射處理,將特征傳送到處理層,利用采集的參照樣本中的值進行計算,獲取平均值,完成抽樣處理。再將從第一個塊的處理層中提取到的特征向量傳輸到第二個塊中,不斷重復此過程。通過3 次重復操作,得到的高清圖像變成低清圖像。最后再將卷積神經網絡特征向量提取到MLP 結構中,通過運用BP 神經網絡反向進行傳輸,在輸入特征信息后經過不同網絡層之間的計算獲得實際輸出值,其公式為:

將網絡誤差作為權重的依據反向輸出回去,并不斷更新不同網絡層之間的權值。將網絡誤差值不斷重復操作,獲得最終的神經網絡權值,實現訓練分類目的。將量化過的人體表情及動作圖像數據進行歸一化處理,并在卷積神經網絡中進行參數設置,設定對應的學習率和迭代次數〔8〕。讀取表情圖像文件,獲得對應圖像的二維訓練數據集,截圖視頻中的有效圖片尺寸歸一化為100×100。同時將輸入數據輸入卷積層,使用卷積核進行加權處理,隨機選取d 個輸入樣本及對應期望進行輸出:

其中,g 為最大學習次數。計算隱藏層的神經元輸入與輸出,獲得實際值與期望值的差值,將其做對應偏導處理,直到計算出不同層的誤差值為止。

1.3 分類識別人體情緒選擇一個人臉表情特征對應樣本進行分類,不斷進行遞歸。在樣本中對信息熵進行度量,熵的值越大,說明純度越低,理想狀態下,所有數據的類別相同,熵為0。熵的表達式為:

為降低復雜性,通過二分類人臉表情識別的特征進行選擇〔9〕。設定異常情緒為目標情感,其他為干擾情緒。選擇FRP 為評估分類的分類性能。設定所有樣本數為Y,識別的目標樣本為X,得到的FRP公式為:

在一定程度上,FRP 的值越小,分類識別的效果越好。深度卷積神經網絡DNET(dense NET)將每兩層之間進行直接連接。在網絡中,每一層使用前面所有層特征的映射作為輸入,使其自身特征的映射作為所有后續層的輸入。設定網絡層數為n,連接數為。DNET 連接模型見圖1。

圖1 網絡DNET 模型

DNET 通過連接不同層的特征圖實現特征傳遞,使得特征得到有效識別。與此同時,DNET 將所有層進行連接,即相當于每一層將輸入與損失直接連接,減少梯度消失現象。同時建立DNET 預訓練,利用DNET 進行空間特征提取。在分類識別過程中,DNET 峰值速度大于50 r,迅速將網絡結構進行識別,對人體情緒進行特征提取。設定模型的分類層數,前兩層提取淺層特征,比如人體表情、圖像邊緣信息〔10〕。由于容易受到不同干擾環境因素影響,噪聲比較多,所以最后兩層提取抽象特征圖,用以增加網絡的計算量,解決存在的特征圖尺寸問題。再將不同模塊進行融合,通過特征值進行加權分配,設定輸入值為x,沿著水平與垂直的坐標命名不同通路,得到的輸出公式為:

其中,c 為第c 條通路;h 為長度,w 為寬度。通過計算生成特征圖,并結合1×1 卷積轉換函數進行特征融合,獲得輸出圖像的尺寸,將特征圖輸送到網絡連接層進行降維,得到時空特征并輸入到分類設備中,完成對視頻中人體異常情緒的分類識別。

2 實驗測試與分析

2.1 搭建實驗環境收集目標識別數據集并進行識別。圖片由單攝像機,固定鏡頭進行拍攝。數據集中每個場景的鏡頭位置不同,光照情況不同,能夠保證模型的充分訓練。結合視頻幀大小,Batch size為64,迭代次數為100 次。采用預先訓練好的DNET 網絡提取特征,輸出層設置為860、640、514,隱藏層單元參數設置為660。分類設備為SMAX。實驗所用到的軟硬件平臺環境及參數見表1。

表1 實驗軟硬件平臺

建立檢測樣本,使得人臉表情的分類信息足夠多,圖像盡量變得更小,可以節約一定的計算量。同時需要將圖像區域邊界標注明顯,使得計算機能夠快速對圖像完成提取,在訓練完人臉樣本后,建立人臉樣本庫和測試人臉樣本集合,集合中也包括100 個異常情緒人臉樣本。

2.2 實驗結果與分析將實驗采集的不同情緒數據進行歸一化處理,同時在卷積層后附加一個池化層。通過設定卷積核為5×5 來實現細節特征的提取。激活非線性函數,將卷積結果進行映射,得到函數為f(x)=max(0,x)。網絡中加入SMAX 函數解決多分類問題,將n 維向量中的元素設定為樣本的識別失誤率p=p(y=i|x),其中SMAX 函數公式為:

圖2 人體異常情緒識別失誤率隨迭代次數變化曲線

由結果可知,采用卷積神經網絡識別人體異常情緒的過程中,對照1 組和對照2 組的識別失誤率相對較高。在迭代次數為200 次時,對照2 組出現最高識別失誤率,識別失誤率為15%。而實驗組的識別失誤率最低,在迭代次數增加時,識別失誤率也均在5%以下。

為驗證數據的容錯性,在訓練集中加入噪聲因素,如高斯噪聲、泊松噪聲。對比本研究神經網絡訓練模型與傳統訓練模型在加噪后,測試集中數據的測試情況,見圖3。

圖3 信噪比識別結果

由結果可知,實驗組的識別失誤率為3 組中最低,卷積神經網絡對加噪后的測試集識別效果顯著,在信噪比不斷升高的條件下,識別失誤率呈下降趨勢。說明該模型具有良好的抗噪性能,能準確且有效地提取圖像特征,使得整體的識別效果達到了預期的目標。增加噪聲前后圖像的效果對比見圖4。

圖4 加入噪聲前后圖像的效果對比

由圖4 可知,實驗組和兩個對照組加入噪聲前的圖像更加清晰,細節更加豐富,顏色更加鮮艷。而加入噪聲之后,圖像出現模糊、失真、色彩不真實甚至部分像素點混淆等問題,影響圖像質量。相比兩個對照組,實驗組的圖像識別結果更加清晰。

本研究從人體異常情緒識別入手,結合圖像視頻與深度學習方法,探究了基于視頻圖像的人體異常情緒識別算法。通過卷積神經網絡對模型的訓練重建,有效提高識別的準確率,使得在人體異常情緒識別與表情分析中能夠有極大突破,完成對整體人體圖像的匹配,獲得準確情緒信息,滿足算法對于特征定位的需求。通過算法不斷優化,在識別目標時,應用圖像視頻深度學習技術,實現了對人體異常情緒更有效、更準確的識別。但方法中還存在一些不足之處,例如像素點識別精度問題、損失函數的驗證問題、識別率優化問題等需要進一步繼續研究。

猜你喜歡
分類情緒特征
分類算一算
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
分類討論求坐標
數據分析中的分類討論
小情緒
小情緒
小情緒
教你一招:數的分類
抓住特征巧觀察
主站蜘蛛池模板: 久久久精品无码一二三区| 草草线在成年免费视频2| 狠狠色成人综合首页| 欧美一区二区精品久久久| 欧美不卡视频在线观看| 免费观看国产小粉嫩喷水| 国产电话自拍伊人| 日韩精品亚洲精品第一页| 亚洲动漫h| 国产主播一区二区三区| 国产无码在线调教| 日韩毛片免费| 精品福利网| 亚洲国产日韩在线成人蜜芽| 精品三级在线| 亚洲最大福利视频网| 久久成人国产精品免费软件| 免费女人18毛片a级毛片视频| 欧美激情视频二区| 久久国产精品影院| 久久五月天国产自| 成人免费网站在线观看| 婷婷综合在线观看丁香| 国产在线精品人成导航| 日韩精品无码免费专网站| 国产高清在线精品一区二区三区| 在线无码九区| 国产精品妖精视频| 国产亚洲欧美在线专区| 亚洲国产成人自拍| 99精品国产高清一区二区| 国产精品区网红主播在线观看| 天堂亚洲网| 国产欧美日本在线观看| 99精品免费在线| 在线日韩日本国产亚洲| 黄片一区二区三区| 在线观看亚洲精品福利片| 日韩无码黄色| 免费在线a视频| 亚洲欧美成人综合| 亚洲中文无码h在线观看 | 亚洲成在人线av品善网好看| 久久美女精品国产精品亚洲| 久久公开视频| 国产女人18水真多毛片18精品| 亚洲国产精品日韩av专区| 欧美激情视频在线观看一区| a亚洲视频| 久久精品国产91久久综合麻豆自制| 一本久道久综合久久鬼色| 亚洲精品中文字幕无乱码| 欧美福利在线播放| 日韩大乳视频中文字幕| 日韩美女福利视频| 成人免费午夜视频| 色综合婷婷| 国产性生大片免费观看性欧美| 国产精品专区第1页| 3p叠罗汉国产精品久久| 欧美在线网| 极品尤物av美乳在线观看| 亚洲AV无码精品无码久久蜜桃| 91久久国产综合精品女同我| 九九线精品视频在线观看| 亚洲日韩在线满18点击进入| 国产精品区网红主播在线观看| 国产农村精品一级毛片视频| 国产青青操| 女人18毛片一级毛片在线| 国产欧美中文字幕| 无码高潮喷水在线观看| 在线观看免费黄色网址| 国产成人亚洲无吗淙合青草| 中文字幕资源站| a级毛片网| 国产在线视频福利资源站| 青青青视频蜜桃一区二区| 欧美成人亚洲综合精品欧美激情| 中文字幕无码电影| 亚洲欧洲国产成人综合不卡| 国内精品久久久久鸭|