萬富強 謝凱 李先苦


摘要:為了提高危險駕駛檢測的準確性,我們提出了基于面向對象程序設計的危險駕駛檢測方法。該方法用紅外攝像頭采集駕駛員的視頻幀,首先利用OpenCV DNN對視頻幀中采集到的人臉關鍵點定位,在通過CNN卷積神經網絡算法降低數據計算復雜度提取人臉中的眼睛和嘴巴特征,最后用LSTM網絡關聯駕駛員前后狀態數據判斷危險駕駛檢測結果。實驗結果表明,通過基于面向對象程序設計的危險駕駛方法,與傳統的用opencv、dlib庫等危險駕駛檢測方法成本低,速度較好,準確率略高。
關鍵詞:危險駕駛;計算機視覺;圖像識別
中圖分類號:TP391.41? ? ? 文獻標識碼:A
文章編號:1009-3044(2019)16-0199-02
開放科學(資源服務)標識碼(OSID):
目前對駕駛員進行危險駕駛檢測的方法分為主觀檢測和客觀檢測。主觀檢測方式包括兩類方法:評價性檢測和生理反應檢測。主觀檢測方式實時性較差,存在個體差異,準確性差;因此主觀檢測在現實中應用推廣難度大。客觀檢測方式分為:基于生理信息、基于操控行為、基于行車狀態、基于機器視覺以及基于信息融合等五大類別識別方法。基于生理信息檢測對個體具有很強的干擾性和安全隱患,這些因素限制了這類方法的發展。基于操控行為檢測因為缺少操控行為和危險駕駛行為之間相關性的基礎理論研究,難以確定識別算法閾值,在低速駕駛中識別準確率低,因此這些因素限制了其發展。基于行車狀態檢測因為受環境條件的影響較大,識別準確率不高。基于機器視覺檢測識別準確性受環境以及算法效率影響較大。基于信息融合[1]的檢測是將上述幾種方法進行組合,解決了單一特征檢測方法的準確度和可靠度上的不足,此類危險駕駛判別方法的關鍵是設計合理的信息融合方法。近年來,隨著深度學習的不斷發展,深度學習理論與實踐給現今很多問題提供了很好的解決思路,利用抽象出來的神經網絡模型來模擬人腦的學習過程,能夠借鑒人腦的多層抽象機制來實現對數據(圖像、語音及文本等)的抽象表達,對具有復雜特征的大規模數據處理比以往更加簡單靈活。視頻人臉的處理非常復雜[2]。現實中檢測人臉關鍵點有opencv[3]、dlib等方法,但是這些方法對光照變化、對象遮擋處理得不是很好。而OpenCV DNN是針對人臉定位提出的,它可以快速準確的定位不同尺度的人臉和在復雜環境下工作等優點。深度學習中的卷積神經網絡[4]延續了一般神經網絡所擁有較好容錯性、自動學習以及自適應等特點,同時實現了自動獲取圖像特征以及權值間共享,使得整個卷積神經網絡復雜度降低,這些優點在圖像處理中十分明顯。將深度學習的卷積神經網絡運用到危險駕駛檢測中,能夠很好地完成復雜駕駛環境下的危險駕駛狀態的檢測,對完善危險駕駛檢測系統具有重要的現實意義。對于這些問題,本文采用了一種基于面向對象程序設計的危險駕駛檢測方法,假設已經在圖像中檢測出了駕駛員的臉,用OpenCV DNN替代sobel算子完成對人臉關鍵點定位,把得到的人眼和嘴部輪廓和位置特征利用深度學習中的CNN網絡中,再把得到眼部和嘴部特征送到設計好的LSTM中,完成對駕駛員是否處于危險駕駛狀態的判斷。
1 危險駕駛檢測方法研究
對于危險駕駛檢測方案研究如圖1,并且設計了PyQt界面如圖2。本文針對人臉的關鍵點定位,采用的是OpenCV DNN進行特征點定位,這樣可以減少計算成本,并結合深度學習中CNN網絡中得到的特征送到LSTM中判斷是否處于危險駕駛狀態。
2 實驗結果與分析
本文采用的是OpenCV DNN來進行人臉關鍵點的定位,OpenCV DNN在CPU上能夠實時運行,可以快速定位出人臉關鍵點。我們知道危險駕駛檢測,人眼和嘴巴閾值的選擇是非常重要的。經過多次試驗,從圖3中可以看出,為了提高準確率,我們選擇的眼睛和嘴巴閾值分別是在2.5處和10處時,危險駕駛檢測的準確率最高。在相同的閾值條件下,本文OpenCV DNN比其他方法具有更高的準確性。
3 結論
本文提出的基于面向對象程序設計的危險駕駛檢測方法,我們采用的是紅外攝像頭采集實時視頻,用OpenCV DNN對人臉關鍵點定位,加快了系統的檢測速度,采用CNN卷積神經網絡替代了傳統方式特征提取帶來的計算復雜度大的問題,最后用LSTM網絡關聯駕駛員前后兩個時序數據,從而完成危險駕駛檢測。與傳統方式相比,該方法極大節約了成本,加快了檢測速度,同時提高了危險駕駛檢測的準確率。
參考文獻:
[1] 李娟,王富.基于數據融合的危險駕駛行為識別與車輛跟蹤算法研究[D].武漢工程大學,2017.
[2] 田桂,謝凱.LSTM-RBM-NMS模型下的視頻人臉檢測方法研究[J].電腦知識與技術,2018,15(4):176.
[3] 尚麗娜,石晴瑤,方健.基于OpenCV的人眼檢測及疲勞判斷[J].電子世界,2018,(21):19-20+23.
[4] 李旭冬,葉茂,李濤.基于卷積神經網絡的目標檢測研究綜述[J].計算機應用研究,2017, 34(10):2881-2886.
【通聯編輯:李雅琪】