999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合臉部紅外信息與深度信息的駕駛員路怒表情識別方法

2017-11-02 22:46:31劉鵬劉峰
軟件導刊 2017年10期

劉鵬++劉峰

摘要:駕駛員“路怒癥”是影響安全駕駛的一個重要因素,近年來得到了廣泛關注。在情感識別領域,可通過駕駛員表情識別其情感。融合臉部紅外信息和深度信息(InfraredD),提出一種駕駛員路怒表情識別方法,對駕駛員“路怒癥”進行識別。實驗結果表明,基于PCANet的方法可以提高駕駛員路怒表情識別的準確率,從而更有效地預防交通事故發生。

關鍵詞:路怒癥;表情識別;PCANet;InfraredD

DOIDOI:10.11907/rjdk.171634

中圖分類號:TP317.4

文獻標識碼:A文章編號:16727800(2017)010019804

0引言

“路怒癥”的定義為:“路怒”是形容在交通阻塞情況下開車壓力與挫折所導致的憤怒情緒,“路怒癥”發作者會襲擊他人汽車,有時無辜的同車乘客也會遭殃。近年來,由“路怒癥”引起的交通事故呈顯著上升趨勢。交通管理局數據顯示,2015年以來全國查處的由“路怒癥”引起的違法行為達1 733萬起,同比上升了2.8%,可見“路怒癥”已經成為影響安全駕駛的一個重要因素。因此,研究“路怒癥”并提出有效應對措施,對于預防交通事故發生具有重要意義。

1駕駛員路怒癥研究現狀

目前,針對“路怒癥”的文獻研究有:韓振[1]指出只有養成良好的出行習慣才能從根本上消除“路怒癥”,駕車時需要注意“不要將不良情緒帶上車,開車前調節好情緒,營造舒適的車內環境”;王浩穎[2]提出“首先要有包容心,允許別人犯錯,然后要學會調節不良情緒,可以采用一些解壓的小方法,如聽一首放松的音樂、做一下深呼吸等。其次,養成良好的開車習慣,如在駕駛過程中時常打開窗戶透透氣,在情緒不好的情況下不要駕駛車輛等”;騫憲忠、鄭建中[3]認為可以根據“路怒癥”的癥狀輕重情況,通過心理調節和藥物治療控制駕駛員路怒癥,對于患有重度“路怒癥”的駕駛員發作時需要及時就醫用藥;金金[4]把“路怒”行為看作是一種對社會公共秩序的挑釁,主張通過自我約束和社會約束兩種手段解決駕駛員“路怒”行為。可見目前的這些措施主要集中在個人和社會層面,而要提高個人素質和整個社會氛圍也將是一個漫長過程。

由以上分析可知,針對路怒癥的研究主要集中在兩個方面:①研究駕駛員路怒癥與安全駕駛之間的關系;②研究如何從政策、法規等規章制度上預防和消除駕駛員路怒癥。而針對駕駛員路怒癥的自動識別研究還未見報道。但是在情感計算領域,表情識別是一個非常熱門的話題,本文考慮到駕駛員的特殊環境,提出一種基于PCANet融合臉部InfraredD圖像的駕駛員路怒表情識別方法。首先,使用駕駛員臉部的紅外圖像和深度圖像對應的表情(非路怒表情和路怒表情)訓練PCANet過濾器;之后,通過訓練得到的過濾器提取臉部紅外圖像和深度圖像的表情特征,再進行哈希編碼并提取直方圖特征;最后,通過提取的特征訓練得到SVM,進行駕駛員路怒表情和非路怒表情識別。該方法可以識別駕駛員路怒癥,從而可以在駕駛員出現路怒現象時,及時進行提醒(可以是一句安慰的話或者播放一段愉快的音樂),防止因駕駛員的過激行為造成交通事故。

2駕駛員路怒表情識別方法

本文的駕駛員路怒表情識別是通過將臉部的紅外圖像和深度圖像進行融合。如圖1所示,具體步驟為:①同時把臉部紅外圖像和臉部深度圖像作為PCANet第一層濾波器(特征向量矩陣w1\-l)的訓練樣本,訓練得到w\+1\-l,將訓練樣本去除均值后乘以w\+1\-l得到PCANet第一層的輸出;②將輸出的特征矩陣作為PCANet第二層濾波器的訓練樣本,訓練得到w\+2\-l,將第一層的輸出乘以w\+2\-l得到PCANet第二層的輸出;③將第二層的特征矩陣進行哈希編碼;④將臉部紅外圖像和深度圖像編碼后的矩陣對應加和;⑤將加和后的每個編碼矩陣通過滑動口提取直方圖特征,并且將其串接在一起組成表情識別特征;⑥通過支持向量機(SVM)進行分類。

圖1駕駛員路怒表情特征提取模型

其中,N個訓練樣本表示為{IR\-i,Depth\-i}\+N\-\{i=1\},每個樣本的patch數目為2m×n,每個patch的大小為k1×k2。

基于PCANet的臉部InfraredD圖像特征提取具體如下:

(1)融合InfraredD圖像的PCANet第一層。對于輸入圖片{IR\-i,Depth\-i}\+N\-\{i=1\}(臉部紅外圖像和深度圖像作為一個樣本),滑動窗采用k1×k2大小的patch,patch之間的交集設為overlap(相當于步長,該階段步長一般選1),如圖2所示。輸入圖片{IR\-i,Depth\-i}的patch向量為:xIi,1,xIi,2,xIi,3,…,xIi,mn∈Rk1k2和xDi,1,xDi,2,xDi,3,…,xDi,mn∈Rk1k2,為了方便計算,用矩陣Xi表示:Xi=\[xIi,1,xIi,2,xIi,3,…,xIi,mn,xDi,1,xDi,2,xDi,3,…,xDi,mn\],然后由式(1)(以一張圖片的所有patch為例,而紅外和深度兩張圖片要除以2mn)求協方差矩陣Convi。

Convi=(X\+Ti-avg\+T)(Xi-avg)/2mni=1,2,3,…,N(1)

其中,avg為所有patch向量的每一維均值。

然后由式(2)對協方差矩陣加和(ConvSum):

ConSum=∑Ni=1ConvI(2)

并除以N,得到所有樣本協方差的均值(Conv):

Conv=ConvSumN(3)

對其求特征值和特征向量(eigvals,sigVects):

eigvals,eigVects=eig(Conv)(4)endprint

然后取特征值大的前L\-1個特征向量組成w\+1\-l(根據實驗結果選取適當的特征向量數量):

w1l=eigVects\[0:L1\](5)

最后由式(6)得到PCANet第一層的輸出:

{IRLi,Depthli}={{Ii,1,Ii,2,Ii,3,…,Ii,mn}×w1l,

{Di,1,Di,2,Di,3,…,Di,mn,}×w1l}

i=1,2,3…,Nl=1,2,3,…,L1(6)

其中Ii,j和Di,j是去除均值的patch向量,L1為特征向量的數量(決定PCANet第一層的輸出)。

(2)融合InfraredD圖像的PCANet第二層。將PCANet第一層的輸出作為第二層的輸入,按照式(1)中的方法得到w2l,最后求得第二層的輸出為:{OIRlki,ODepthlki}(i=1,2,3,…,N;l=1,2,3,…,L1;k=1,2,3,…,L2)。

(3)融合InfraredD圖像的PCANet輸出層:哈希編碼和直方圖處理。哈希編碼過程,按照式(7),將紅外圖像和深度圖像PCANet第二層的輸出圖像對應相加,然后經過哈希編碼生成哈希矩陣,并將其相加,產生L1個哈希矩陣:

Tli=∑L2k=12k-1(H(OIRlki)+H(ODepthlk\-i))

i=1,2,3,…,N;l=1,2,3,…,L1(7)

其中H(·)是哈希函數,而輸出的每個像素是在范圍[0,2L2-1]中的整數。

對哈希矩陣提取直方圖特征:將每一個哈希圖像通過滑動窗口,對產生的每個patch統計直方圖然后拼接在一起,之后將所有哈希圖像的直方圖特征拼接在一起組成最終的特征向量,如式(8)所示:

f\-i=\[Bhist(Tli),…,Bhist(TL1i)\]Ti=1,2,3,…,N(8)

3實驗結果與分析

3.1數據庫及實驗設置

受駕駛員駕駛條件的限制,一般選用紅外圖像作為信息的輸入,考慮到深度圖像對光照變化不敏感,能反映出臉部深度信息,故本文駕駛員表情數據庫采集的是臉部紅外圖像和臉部深度圖像。設備依靠kinect選取駕駛員,跟蹤其臉部并提取紅外圖像和深度圖像信息,并建立對應的數據庫(紅外圖像和深度圖像分別為1 200張)。之后將駕駛員表情分為兩組:一組為路怒表情,一組為非路怒表情。實驗在Intercore,3.4GHz CPU和4G RAM的計算機上進行。

將本文方法(I+DPCANet)與3種方法進行了比較:基于PCANet臉部紅外圖像的駕駛員路怒表情識別方法(IPCANet)、基于PCANet臉部深度圖像的駕駛員路怒表情識別方法(DPCANet)、基于PCANet臉部紅外圖像和臉部深度圖像單獨訓練PCANet濾波器的駕駛員路怒表情識別方法(IDPCANet)。其中,基于PCANet臉部紅外圖像的駕駛員路怒表情識別方法僅使用紅外圖像訓練PCANet濾波器;基于PCANet的臉部深度圖像的駕駛員路怒表情識別方法僅使用深度圖像訓練PCANet濾波器;基于PCANet的臉部紅外圖像和臉部深度圖像單獨訓練PCANet濾波器的駕駛員路怒表情識別方法采用臉部紅外和臉部深度圖像單獨訓練PCANet濾波器,之后用于各自圖像的卷積。

3.2參數設置

patch大小選擇:通過固定其它參數,選擇不同大小的patch進行實驗,圖3顯示不同patch對于分類結果的影響,而且7×7大小的patch能提供更好的性能。因此,選擇7×7作為訓練PCANet濾波器的大小。

L1和L2選擇:由圖4可知選擇不同輸出個數對于分類結果的影響。第一層和第二層的輸出個數選為8,8具有更好的性能。因此,第一層的輸出數量和第二層的輸出數量都為8。

圖3patch大小對分類準確率的影響

圖4L1和L2對分類準確率的影響

求直方圖時滑動窗大小和重疊率的選擇:由圖5、圖6可知,這兩個參數對實驗結果的影響不是很大,分別選擇:10×10和0。

圖5求直方圖時滑動窗大小對分類準確率的影響

圖6求直方圖時滑動窗重疊率對分類準確率的影響

3.3SVM分類器參數選擇

對臉部紅外圖像和臉部深度圖像提取完特征后,進行臉部表情的識別,本文選用的分類器是libSVM,其中采用了兩種人臉表情:駕駛員非路怒表情和駕駛員路怒表情。

LIBSVM使用的一般步驟為:①按照LIBSVM軟件包要求的格式準備數據集; ②對數據進行簡單的縮放操作;③首先考慮選用RBF 核函數;④采用交叉驗證選擇最佳參數C與g (懲罰系數和核函數中的gamma函數設置);⑤采用最佳參數C與g 對整個訓練集進行訓練,獲取支持向量機模型;⑥利用獲取的模型進行測試與預測。

在實驗中,選擇的SVM設置類型為CSVC,使用交叉驗證計算各種參數搭配的分類精度,以便得到解決問題的最佳參數搭配。C和g是 SVM 中的重要參數,針對選定的訓練集,選用7折交叉驗證選取最佳的C和g參數搭配,以訓練分類模型。

3.4性能比較

白天和夜間紅外圖像和深度圖像變化不大,可以一同進行性能比較。表1顯示了對測試集中路怒表情(road rage)和非路怒表情(else)進行識別的比較結果。顯然,I+DPCANet方法準確率最高,其次是IDPCANet 方法。圖7顯示對路怒表情(road rage)和非路怒表情(else)識別的詳細比較結果,可見4種方法普遍對路怒表情的識別準確率會低一些。

4結語

本文基于PCANet提出了一種融合臉部紅外和深度圖像的駕駛員路怒表情識別方法。首先使用駕駛員

臉部的紅外圖像和深度圖像對應的表情(非路怒表情和路怒表情)訓練PCANet過濾器;之后,通過訓練得到的過濾器提取臉部紅外圖像和深度圖像的表情特征,再進行哈希編碼并提取直方圖特征;最后,通過提取的特征訓練得到SVM,進行駕駛員非路怒表情和路怒表情的識別。實驗結果表明,本文提出的方法能夠更有效地識別駕駛員路怒表情,從而判斷路怒癥,以防止因駕駛員的過激行為造成交通事故。

參考文獻參考文獻:

[1]韓振.遠離“路怒癥”[J].家庭科技,2015(6):3839.

[2]王浩穎.路怒癥:怒從何來[J].婚姻與家庭:社會紀實,2015(7):2426.

[3]騫憲忠,鄭建中.生理心理社會醫學模式視角下的路怒癥剖析[J].中國社會醫學雜志,2011(4):269271.

[4]金金.交通文明行“路怒”需約束[J].青春期健康,2015(12):2426.

責任編輯(責任編輯:黃健)endprint

主站蜘蛛池模板: 国产精品999在线| 精品国产一区二区三区在线观看| 欧美精品在线视频观看| 免费无遮挡AV| 国产麻豆va精品视频| 亚洲人成高清| 久久精品aⅴ无码中文字幕| 日韩av资源在线| 国产特级毛片| 激情综合网址| 亚洲无码在线午夜电影| 国产成人久久综合777777麻豆| 日本欧美成人免费| 国语少妇高潮| 亚洲国产天堂久久综合226114| 91青青草视频在线观看的| 国产高清又黄又嫩的免费视频网站| 亚洲中文字幕无码爆乳| 99re66精品视频在线观看| 国产黄网永久免费| 四虎亚洲国产成人久久精品| 精品三级网站| 亚洲欧美激情另类| 成人亚洲视频| 国产91导航| 国产另类视频| 国产美女免费| 日韩欧美在线观看| 四虎影视国产精品| 亚洲免费黄色网| 日韩国产一区二区三区无码| 美女一级毛片无遮挡内谢| 久久久久人妻一区精品色奶水| 国内老司机精品视频在线播出| 在线欧美a| 亚洲激情99| 88av在线播放| 成人午夜久久| 国产青青操| 无码粉嫩虎白一线天在线观看| 四虎国产永久在线观看| 国产欧美日韩综合在线第一| 精品人妻无码区在线视频| 欧美三级视频在线播放| 亚洲日本中文综合在线| 狠狠综合久久久久综| 中文字幕无码av专区久久| 亚洲女同一区二区| 欧美亚洲第一页| 成人在线观看一区| 性视频久久| 亚洲精品成人福利在线电影| 精品剧情v国产在线观看| 99精品福利视频| 2024av在线无码中文最新| 久久青草视频| 亚洲最猛黑人xxxx黑人猛交| 成年A级毛片| 精品成人免费自拍视频| 国产女主播一区| 国产导航在线| 色综合国产| 国产在线无码av完整版在线观看| 好吊色妇女免费视频免费| 波多野结衣无码视频在线观看| a毛片基地免费大全| a毛片在线| 国产无码制服丝袜| 国内精品视频区在线2021| 中国一级毛片免费观看| 亚洲最黄视频| 欧洲亚洲一区| 在线中文字幕日韩| 玖玖精品视频在线观看| 欧美成人a∨视频免费观看| 日韩无码真实干出血视频| 久久久噜噜噜| 18黑白丝水手服自慰喷水网站| 国产黄在线免费观看| 亚洲日韩精品无码专区| 日韩午夜片| 天天干天天色综合网|