



















摘要:針對不同屈光度人員使用穿戴式近眼眼球追蹤設(shè)備無法自由更換鏡片的問題,研發(fā)出一套插片式近眼眼球追蹤系統(tǒng)設(shè)備。該系統(tǒng)是由近眼采集硬件平臺和眼動特征提取算法兩部分構(gòu)成:硬件平臺是根據(jù)插片驗光試鏡架結(jié)構(gòu)設(shè)計的圖像采集模塊;眼動特征提取算法是通過機器學(xué)習(xí)訓(xùn)練眼睛檢測器和眼部特征點檢測器,再結(jié)合候選瞳孔擬合篩選策略得到瞳孔直徑、中心點和眨眼頻次。實驗結(jié)果表明,系統(tǒng)算法中瞳孔檢測正確率為97.24%,眨眼檢測正確率為91.59%。該設(shè)備可滿足屈光不正人群眼動追蹤檢測和研究的需求,同時提供準確可靠的眼動數(shù)據(jù)。
關(guān)鍵詞:屈光不正;眼球追蹤設(shè)備;眼動數(shù)據(jù);瞳孔檢測;眨眼檢測
中圖分類號:TP391文獻標志碼:A
Plug-in wearable eye-tracking system
LI Guanglin,JIN Tao
(School of Optical-Electrical and Computer Engineering, University of Shanghai for Science and Technology, Shanghai200093, China)
Abstract: Aiming at the problem that people with different diopters cannot freely change lenses when using wearable near-eye eye-tracking devices, this paper developed a set of plug-in near-eye eye-tracking system equipment. The system is composed of two parts: a near-eye acquisition hardware platform and an eye movement feature extraction algorithm. The hardware platform is an image acquisition module designed according to the structure of the optometry trial frame. The eye movement feature extraction algorithm is to train the eye detector and eye feature point detector based on machine learning, and then combines the candidate pupil fitting screening strategy to obtain the pupil diameter, center point, and blink frequency. The experimental results show that in this system algorithm, the correct rate of pupil detection is97.24%, and the correct rate of blink detection is91.59%. The device can meet the needs of eye-tracking detection and research for people with ametropia, and provide accurate and reliable eye-movement data.
Keywords: refractive error; eye tracking device; eye tracking data; pupil detection; blink detection
引 言
眼動跟蹤技術(shù)通過記錄人的眼球運動軌跡和瞳孔變化等特征,收集并分析視覺認知方面的重要信息。這項技術(shù)在認知心理學(xué)、神經(jīng)科學(xué)和用戶體驗設(shè)計等領(lǐng)域中應(yīng)用廣泛[1-6]。在上述領(lǐng)域中,眼動追蹤技術(shù)都需要使用眼動儀和配套軟件記錄和分析被試者的眼球動作。眼動儀可分為桌面式和頭戴式。桌面式眼動儀通過紅外線或攝像頭捕捉眼睛位置和瞳孔大小,一般放置在電腦屏幕下方或是內(nèi)置到顯示器中[7-8]。頭戴式眼動儀一般由眼鏡和內(nèi)置的眼動追蹤器組成,佩戴者能夠自由移動并環(huán)顧四周[9-10]。
在實際應(yīng)用中,上述設(shè)備暴露出一些問題。桌面式眼動儀在使用過程中,被試者要求坐在顯示器前,與屏幕內(nèi)容進行交互。整個過程中被試者的自然行為被約束,頭部姿勢也被固定,這樣會對研究條件造成限制,導(dǎo)致相關(guān)研究結(jié)果不夠準確。穿戴式眼動儀通常戴在頭部或者面部,這樣導(dǎo)致屈光不正的被試者無法佩戴眼鏡,無法滿足其進行眼動追蹤檢測和研究的需求,直接使用也會導(dǎo)致測試結(jié)果不可靠。目前,瑞典公司Tobii 最新產(chǎn)品 Tobii Pro Glasses3,外觀非常接近常規(guī)眼鏡,支持后加式視力矯正鏡片,能夠滿足屈光度不正人群的使用。但是該產(chǎn)品價格昂貴、無法提供原始數(shù)據(jù)進行擴展性實驗,并且矯正鏡片需要定制化,無法滿足需要大量試驗人員數(shù)據(jù)的研究要求,新配的矯正鏡片佩戴者也會出現(xiàn)眼部不適的情況。在此情況下,進行測試獲取的研究結(jié)果可能是不準確的。
針對上述問題,希望在不限制被試者自由活動的同時,保證測試結(jié)果不被干擾的情況下增加設(shè)備的通用性。本文研發(fā)出一款插片式近眼眼球追蹤系統(tǒng)設(shè)備,外觀接近于眼鏡。該設(shè)備能夠得到近眼采集眼動圖像,屈光度不正人員可以在專業(yè)人員指導(dǎo)下選擇最適合自己的鏡片安裝插片,并根據(jù)真實瞳距進行調(diào)節(jié),確保設(shè)備佩戴過程中眼睛的舒適性和良好的視覺效果。該設(shè)備可以適配不同屈光不正人員,降低了定制化的成本,能夠快速地進行相關(guān)研究測試,與其相配套的眼動特征提取算法也能夠很好地獲取眼動數(shù)據(jù)。
1 實驗設(shè)備
近眼眼球追蹤系統(tǒng)設(shè)備外觀采用了驗光試鏡架主體,安裝了近眼采集模塊,并獲取眼球運動圖像,鏡架可安裝替換鏡片、瞳距也可調(diào)節(jié),滿足各類屈光度不正的佩戴者。系統(tǒng)設(shè)備如圖1所示,近眼采集模塊實現(xiàn)了雙路圖像采集,其中相機模塊有攝像頭和紅外光源。紅外光源均勻分布在圓形鏡框上,一方面是提供光照;另一方面是產(chǎn)生“暗瞳”現(xiàn)象,便于后續(xù)圖像處理。攝像頭位置位于鏡框底部、鏡片后面,這樣既不會影響佩戴者的視野,又不會受到來自鏡片的光學(xué)干擾,便于拍攝眼部運動。
系統(tǒng)設(shè)備基本參數(shù):鏡框圈的直徑為48mm,中梁的長度為19mm,鏡架的整體傾斜角為7°,鏡片的后頂點距離眼球12mm,雙眼瞳距調(diào)節(jié)范圍48~80mm,鏡框上可安裝鏡片插槽,被試者能夠根據(jù)自己眼睛度數(shù)選擇合適的鏡片進行屈光度矯正。
系統(tǒng)硬件平臺由于受到試鏡架結(jié)構(gòu)的限制,為了滿足多路圖像采集要求,硬件要既小又輕,且高性能和低功耗。硬件系統(tǒng)框架如圖2所示:在硬件系統(tǒng)中,通過光源模塊和攝像頭模塊獲得眼部圖像,光源采用波長850nm 的紅外LED 燈,攝像頭模塊采用小體積、大視場角高集成度的虹膜相機模塊,該模塊對紅外光源具有較好的感光特性可實現(xiàn)低功率紅外照明。處理單元用于處理攝像機輸出的圖像信號,在選型上為了兼顧功耗和性能,選用了基于“無內(nèi)部互鎖流水級的微處理器(microprocessor without interlocked pipeline stages,MIPS)”架構(gòu)的具有低功耗、高性能和高集成度的處理器。
2 眼動特征提取
2.1 眼部圖像裁剪
為了獲得比較完整的眼部圖像,眼部捕捉設(shè)備的眼睛攝像頭拍攝的眼部圖像區(qū)域會遠大于眼睛區(qū)域,如圖3所示,其中包括了眉毛等非眼睛區(qū)域。
圖像裁剪是為了獲取眼睛區(qū)域,眼睛區(qū)域內(nèi)容簡單、特征明顯。為此,通過 Dlib 訓(xùn)練人眼檢測器的方法對圖像中的眼睛區(qū)域進行定位,對圖像進行裁剪得到眼睛區(qū)域,減少后續(xù)圖像處理的計算量。
Dlib 是一個用于圖像處理的開源庫,除了可以進行高品質(zhì)的人臉識別,還可以進行目標檢測器的訓(xùn)練。在使用眼部捕捉設(shè)備采集了一段眼部視頻,每一幀提取大小為400×400的圖像,作為原始數(shù)據(jù)集。通過 Dlib 里的標記工具 imglab對原始數(shù)據(jù)集打標簽,標簽對應(yīng)的是在數(shù)據(jù)集圖像上框出的眼睛區(qū)域。
Dlib 核 心 原 理 是 使 用 方 向 梯 度 直 方 圖(histogram of oriented gradient, HOG)特征來表示待測物體[11-13]。與其他特征算子相比,HOG 特征算子對圖像的幾何特征和光學(xué)的形變有著很好的不變性。該特征提取算子搭配支持向量機(support vector machines, SVM)使用,進行物體檢測。
2.1.1訓(xùn)練數(shù)據(jù)參數(shù)設(shè)置
Dlib 目標檢測器訓(xùn)練的超參數(shù)是由檢測訓(xùn)練類設(shè)定,該類包含參數(shù) C,add_left_right_image_flips,detection_window_size,epsilon 參數(shù)詳情如表1所示。
訓(xùn)練過程中使用支持向量機(SVM)對數(shù)據(jù)集進行分類,由于存在部分分類錯誤的情況,為了將誤差降到最低,添加一個懲罰項進行浮動,模型求解可以表示為約束最優(yōu)化問題,表達式為
式中:ξi是第i個樣本點的分類誤差,表征該樣本不滿足約束的程度; 是總分類誤差,這個值越小表示對訓(xùn)練集的分類越準確;C 是懲罰系數(shù),數(shù)值越大,對總分類誤差的關(guān)注度越高,訓(xùn)練集的擬合效果越好,抗噪聲的能力越差,越容易過擬合,因此需要選擇合適的C 值,不同 C 值對應(yīng)的訓(xùn)練效果如圖4所示。
從圖4可以看出,在懲罰系數(shù) C 為15時,訓(xùn)練指標中的精確率、召回率最高分別是1和0.998,訓(xùn)練指標高說明訓(xùn)練效果好。因此,本文懲罰系數(shù) C 設(shè)置為15,檢測窗口大小設(shè)置為80×80,訓(xùn)練終止條件 epsilon 設(shè)置為0.01。
2.2 眨眼檢測
進行眨眼檢測前,先確定人眼區(qū)域后,再通過訓(xùn)練眼部特征點模型文件,得到眼部特征點坐標信息如圖5(a)所示,藍點即為識別的眼部特征點。Soukupova 等[14] 提出了眼睛縱橫比概念,構(gòu)造函數(shù)計算眼睛縱橫比 EAR,設(shè)定閾值統(tǒng)計眨眼情況。
在確定眼睛區(qū)域后,使用6個點來表示眼睛特征點,從左眼角開始,順時針進行標號1、2、3、4、5、6,如圖5(a)所示。
圖5(a)中標定的6個點表示眼睛睜開和閉合的狀態(tài)。處于睜眼狀態(tài)時,垂直距離變大;處于閉眼狀態(tài)時,垂直距離變小。單從這一狀態(tài)判斷人眼狀態(tài)較容易出現(xiàn)誤差,所以通過 Soukupova等[14]推導(dǎo)出眼睛縱橫比(eye aspect ratio,EAR)表達式為
式中:P1~P6表示標注的6個特征點的坐標;EAR 表示縱橫比。
如圖5(b)EAR 曲線所示,當眼睛睜開和閉合時,縱橫比 EAR 會有不同的數(shù)據(jù)值范圍,故當 EAR 低于某個閾值 N,眼睛處于閉合狀態(tài),本文 N 值取0.25。完整的眨眼過程如圖6所示,眨眼動作完成一般需要 M(2~3幀),所以算法在檢測眨眼次數(shù)時,在判斷 EAR 是否低于閉眼閾值的同時,還需要統(tǒng)計連續(xù)閉眼幀數(shù),其中 N 值、M 值都是根據(jù)大量實驗數(shù)據(jù)進行設(shè)定。
2.3 圖像預(yù)處理
在得到裁剪后的眼睛區(qū)域圖像,對圖像進行預(yù)處理,一般先將圖像進行灰度化,灰度圖像只有8位的圖像深度,處理速度較快,雖然丟失了顏色等級,但圖像的亮度等級描述與彩色圖像一致,圖像灰度化原理的表達式為
GRAY = B?0.114+G ?0.587+R?0.299(3)
式中:B,G,R 代表了彩色圖像的三通道;GRAY是單通道灰度圖。
為了更好分辨出圖像中瞳孔信息,采用直方圖均衡化來增強圖像對比度,調(diào)整圖像的灰度級分布,使得每個灰度級出現(xiàn)的頻率盡量均衡,圖像中暗的部分變得更亮,原本亮的部分變得暗一些,提高圖像的可讀性,直方圖均衡化的對比結(jié)果如圖7所示。
圖像傳感器拍攝時亮度不夠均勻,以及電路元器件自身和相互影響產(chǎn)生的噪聲,其幅度分布服從高斯分布,使用高斯濾波消除噪聲,選用高斯模板對圖像所有像素進行卷積,濾波效果如圖8(a)所示;對于圖像中隨機出現(xiàn)的噪點,使用中值濾波消除這些噪點,并保持圖像邊緣特性,中值濾波的效果如圖8(b)所示。
圖像去噪后,先利用灰度參數(shù)閾值對圖像進行二值化分割,分割結(jié)果如圖9(a)所示,再利用 Canny 算子進行邊緣檢測,得到候選瞳孔輪廓邊緣如圖9(b)所示。
2.4 瞳孔擬合篩選策略
瞳孔檢測當中存在睫毛、眼瞼邊緣,環(huán)境光照等信息,一方面增加了瞳孔檢測的計算量,另一方面會產(chǎn)生一些錯誤瞳孔擬合,造成瞳孔的錯誤識別。
在進行圖像處理后獲得圖像邊緣輪廓信息,利用直接最小二乘法擬合算法進行橢圓擬合[15]。橢圓擬合只需要6個點進行擬合,在實際圖像邊緣信息中包含了大量的邊緣點,導(dǎo)致擬合出多個橢圓信息,其中就包含了錯誤的瞳孔擬合信息。
對于這些錯誤瞳孔擬合信息,通過瞳孔形狀、運動特征進行篩選,排除錯誤瞳孔擬合信息,其中的灰度參數(shù)、長短軸參數(shù)、面積參數(shù)與瞳孔特征、機器設(shè)備參數(shù)有關(guān)。攝像頭的焦距,分辨率會影響長短軸參數(shù),攝像頭與眼睛的相對位置影響面積參數(shù),紅外補光燈的光照強度影響灰度參數(shù)。上述參數(shù)對每位測試者都不同,采用多位測試者進行實驗,選擇合適的數(shù)值作為參數(shù)閾值。
2.4.1灰度參數(shù)閾值
當從近眼相機中觀察,可以看出人眼的組成由內(nèi)向外分別是瞳孔、虹膜和鞏膜,對應(yīng)的灰度值由瞳孔、虹膜到鞏膜逐漸升高,可見瞳孔的灰度值最低。根據(jù)這樣灰度分布特性,可以通過設(shè)置合適的灰度閾值將瞳孔區(qū)域分割出來[16-17]。
灰度閾值的選擇在閾值分割中十分重要,合適的閾值可以很好地將瞳孔區(qū)域分割出來,不合適的閾值會影響瞳孔區(qū)域的提取效果[18-19]。過低的閾值會造成瞳孔區(qū)域的缺失,過高的閾值會造成含有干擾區(qū)域的瞳孔區(qū)域。圖10(a)是人眼圖像的灰度直方圖,從灰度直方圖中可以看出瞳孔區(qū)域的灰度值很低且比較集中。從整體直方圖看,瞳孔和虹膜的灰度分布滿足“雙峰一谷”特性,可以通過閾值分割的方法提取瞳孔區(qū)域。本文將直方圖中的第一個波峰后出現(xiàn)的波谷對應(yīng)的灰度值標記為閾值 T,對于不同的人眼圖像閾值 T 不同,通過自適應(yīng)閾值 T 對人眼圖像進行分割得到瞳孔區(qū)域。
如圖10(b)所示,通過閾值分割得到瞳孔區(qū)域,由于存在部分區(qū)域灰度值相似,可能包含了部分錯誤瞳孔區(qū)域,產(chǎn)生了較多錯誤輪廓邊緣點,在進行橢圓擬合時就會出現(xiàn)錯誤瞳孔擬合情況。
2.4.2長短軸參數(shù)閾值及面積參數(shù)閾值
視頻中收集到的瞳孔無論是放大還是縮小,其形狀基本都是接近于正圓,正常人的瞳孔大小在2~5mm,平均約為4mm。由此可以認為在視頻中對瞳孔輪廓進行橢圓擬合得到的橢圓長軸和短軸應(yīng)在相對固定的像素距離范圍內(nèi),擬合后瞳孔輪廓接近正圓,計算出來的長短軸的比值也在一定范圍內(nèi),此外擬合面積也在相應(yīng)區(qū)間范圍內(nèi)。因此將長短軸的長度分布,長短軸的比值,橢圓擬合區(qū)域的像素面積作為正確瞳孔輪廓的篩選條件,最終得到正確的瞳孔輪廓。在實驗中統(tǒng)計了6位測試人員的3000張眼睛圖像的瞳孔橢圓擬合對應(yīng)長軸和短軸的長度分布相對頻率情況。根據(jù)圖11(a)和圖11(b)長度分布情況以及曲線擬合情況,舍棄一些錯誤信息,長軸主要在35到60之間,短軸主要分布在30到55之間,所以長軸閾值設(shè)置為65,短軸閾值設(shè)置為25,將長軸小于長軸閾值、短軸大于短軸閾值的橢圓保留,其余舍棄。
圖11(c)表示上述長軸和短軸的比值計算。圖中長短軸的比值主要分布在1.0~1.3之間。這種情況是由于眼球旋轉(zhuǎn)和相機角度問題而發(fā)生的,導(dǎo)致拍攝瞳孔呈橢圓形。為了確保瞳孔輪廓準確識別,長短軸比閾值設(shè)置在1.0~1.3范圍內(nèi)。圖11(d)表示橢圓擬合面積(瞳孔面積)的分布,它集中在1000~2000區(qū)間內(nèi)。測試人員瞳孔散大后,集中在2000~4000區(qū)間,小部分區(qū)域為4000~4800。在實驗中,面積參數(shù)閾值范圍設(shè)置為900~5000。
在候選瞳孔輪廓中進行篩選,同時滿足上述3個參數(shù)要求的瞳孔輪廓信息確定為正確的瞳孔輪廓,只要不滿足任何一個參數(shù)要求的候選瞳孔輪廓舍棄。
3 實驗設(shè)計
3.1 軟件平臺
軟件平臺是基于 Window10環(huán)境下,電腦配置為 Core i5CPU2.40GHz 的四核處理器,程序?qū)崿F(xiàn)工具為 PyCharm,在 Python 語言環(huán)境中應(yīng)用 OpenCV(open source computer vision library)計算機視覺庫進行編程。
3.2 實驗流程
隨機選擇幾位試驗者,采集每位試驗者在注視不同方向的眼睛視頻,以保證捕捉到眼睛注視屏幕的不同姿態(tài)。
視頻處理過程,按照實驗流程進行瞳孔檢測和眨眼檢測,統(tǒng)計眼部圖像裁剪的正確率、瞳孔檢測的正確率和眨眼檢測的正確率。
(1)通過設(shè)備采集眼部圖像視頻,由機器學(xué)習(xí)訓(xùn)練生成檢測眼睛圖像區(qū)域模型。導(dǎo)入訓(xùn)練模型檢測眼睛圖像區(qū)域,得到眼睛區(qū)域坐標信息,在眼部圖像裁剪出眼睛區(qū)域,以此除去與眼睛區(qū)域無關(guān)的冗余部分;(2)將眼睛區(qū)域圖像轉(zhuǎn)為灰度圖,進行高斯濾波,二值化等圖像預(yù)處理操作;通過設(shè)定自適應(yīng)瞳孔二值化閾值,對二值化后的眼睛圖像進行邊緣檢測,得到邊緣區(qū)域;(3)通過候選瞳孔篩選策略,排除錯誤瞳孔,將正確瞳孔橢圓擬合中心作為瞳孔中心;其次通過上述訓(xùn)練獲得的眼部特征點模型計算眼睛縱橫比,統(tǒng)計眨眼次數(shù)。
4 實驗結(jié)果分析
4.1 圖像裁剪
6位測試者的眼部圖像采集效果如圖12所示,其中綠色矩形框內(nèi)為裁剪區(qū)域,裁剪區(qū)域內(nèi)包含上下眼瞼,左右眼瞼就表示裁剪正確??梢钥闯霾煌瑴y試者的眼睛區(qū)域裁剪正確率都在100%,保留了詳細的瞳孔信息,去除了眼部圖像中的冗余信息。
對6位試驗者的一張眼部圖像分別進行有圖像裁剪和無圖像裁剪的瞳孔檢測,時間對比如表2所示。
從表中可以看到進行有圖像裁剪后,瞳孔檢測的時間減少了13.61%,有效提高了檢測時間。
4.2 瞳孔定位擬合情況
錯誤瞳孔篩選后得到正確的瞳孔擬合情況,橢圓擬合邊界與瞳孔邊緣很好的重合度被視為正確瞳孔擬合圖像。
圖13(a)為錯誤擬合瞳孔圖,圖13(b)為正確瞳孔擬合圖,從圖中可以看出在經(jīng)過瞳孔篩選策略篩選后去掉了眼角位置的錯誤擬合,得到了正確的瞳孔擬合。在不同位置下的瞳孔都有正確擬合。
統(tǒng)計了6位測試者的眼圖,對每位測試者的2000張眼圖進行測試,統(tǒng)計瞳孔檢測的正確率如表3所示。
從表3中可以看出,瞳孔檢測平均正確率在97.24%,不同測試者個體之間存在差異。相較而言,2號測試者的瞳孔檢測正確率偏低,是由于眼圖中存在瞳孔位置相對相機位置過偏,導(dǎo)致拍攝瞳孔變形,不符合瞳孔特征;還有一部分瞳孔與上眼瞼重合??傮w上錯誤瞳孔篩選方法對多數(shù)測試者來說具有較高的正確率。
在相同條件下,將基于霍夫圓變換定位瞳孔中心的算法與本文提出的算法進行了對比[20]。統(tǒng)計結(jié)果如表4所示。該文算法在人眼圖像中定位瞳孔中心,準確率為97.24%,基于 Hough 圓變換算法的準確率為96.71%。兩種算法定位瞳孔中心的平均時間為0.1865s 和0.3862s。由此可見,本文算法在保證高準確率的前提下,在定位時間方面也具有優(yōu)勢。
4.3 眨眼情況
實驗中分別統(tǒng)計了多位試驗者視頻中眨眼情況,將算法統(tǒng)計的眨眼次數(shù)與真實統(tǒng)計的眨眼情況進行比較分析,數(shù)據(jù)如表5所示,從數(shù)據(jù)中得出,不同試驗者在眨眼情況的不確定性下,算法統(tǒng)計的結(jié)果準確率在91.59%。其中5號測試者眨眼正確率在65%,是由于測試者在拍攝過程中存在瞇眼狀態(tài),導(dǎo)致判斷眨眼動作出現(xiàn)錯誤統(tǒng)計。
5 結(jié) 論
本文設(shè)計了一款近眼眼球追蹤系統(tǒng)設(shè)備,在保證相配套的眼動特征提取算法魯棒性的同時,設(shè)備自身可以適配不同類型人群。針對屈光度不正人群,設(shè)備通過插片的方式,對不同鏡片進行試戴,根據(jù)被試者的真實瞳距進行調(diào)節(jié),保證被試者佩戴設(shè)備中眼睛的舒適性和清晰度。大大降低了穿戴式眼動追蹤設(shè)備中鏡片定制化的限制,增強了設(shè)備的普適性,減少了研究過程眼部不適帶來的干擾,提高了相關(guān)研究數(shù)據(jù)結(jié)果的可靠性。相配套的特征提取算法中瞳孔檢測正確率達到了97.24%,眨眼檢測正確率達到了91.59%。因此本文的眼動跟蹤系統(tǒng)設(shè)備,可以為心理學(xué)、神經(jīng)學(xué)、用戶體驗設(shè)計等領(lǐng)域應(yīng)用研究提供可靠性數(shù)據(jù)支持。
參考文獻:
[1]THOMPSON C, PASQUINI A, HILLS P J. Carry-over of attentional settings between distinct tasks: a transient effect independent of top-down contextual biases[J].Consciousness and Cognition,2021,90:103104.
[2]NAJAR S A, SANJRAM P K. Gaze behavior and human error in distracted driving: Unlocking the complexity of articulatory rehearsal mechanism[J].Transportation Research Part F:Traffic Psychology and Behaviour,2018,59:12–23.
[3]BISZAK A M, BABBAGE D R. Facial affect recognition difficulties in traumatic brain injury rehabilitation services[J]. Brain Injury,2014,28(1):97–104.
[4]AKHAND O, RIZZO J R, RUCKER J C, et al. History and future directions of vision testing in head trauma[J]. Journal of Neuro-Ophthalmology,2019,39(1):68–81.
[5]LARRAZABAL A J, GARCíA CENA C E,MARTíNEZ C E. Video-oculography eye tracking towards clinical applications: a review[J]. Computers in Biology and Medicine,2019,108:57–66.
[6]VAN DER LANS R, PIETERS R, WEDEL M. Online advertising suppresses visual competition during planned purchases[J]. Journal of Consumer Research,2021,48(3):374–393.
[7]HENNESSEY C, FISET J. Long range eye tracking:bringing eye tracking into the living room[C]//Proceedings of the Symposium on Eye Tracking Research and Applications. Santa Barbara: ACM,2012.
[8]MORGANTE J D, ZOLFAGHARI R, JOHNSON S P.A critical test of temporal and spatial accuracy of the Tobii T60XL eye tracker[J]. Infancy,2012,17(1):9–32.
[9]COGNOLATO M, ATZORI M, MüLLER H. Head mounted eye gaze tracking devices: An overview of modern devices and recent advances[J]. Journal of Rehabilitation and Assistive Technologies Engineering,2018,5:205566831877399.
[10]WAN Z H, XIONG C H, CHEN W B, et al. Robust and accurate pupil detection for head-mounted eye tracking[J]. Computers amp; Electrical Engineering,2021,93:107193.
[11]劉曉悅, 王云明. 基于 HOG-SVM 的改進跟蹤-學(xué)習(xí)-檢測算法的目標跟蹤方法 [J]. 科學(xué)技術(shù)與工程,2019,19(27):266–271.
[12]CALERO M J F, ALDáS M, LáZARO J, et al.Pedestrian detection under partial occlusion by using logic inference, HOG and SVM[J]. IEEE Latin America Transactions,2019,17(9):1552–1559.
[13]田 耘 , 甄 雯 , 趙 海 軍 . 基 于 改 進 的 SIFT 算 子 和SVM 分類器的瞳孔中心定位 [J]. 液晶與顯示,2017,32(6):499–505.
[14]SOUKUPOVá T, ?ECH J C. Real-time eye blink detection using facial landmarks[C]//Proceedings of the21st Computer Vision Winter Workshop. Rimske Toplice,2016.
[15]師露, 王長元, 賈宏博, 等. 雙重 Haar-like 特征瞳孔檢測方法 [J]. 西安工業(yè)大學(xué)學(xué)報,2020,40(5):493–498.
[16]胡艷紅, 魏江. 紅外圖像中瞳孔定位算法 [J]. 電子設(shè)計工程,2019,27(1):189–193.
[17]顧可可, 付威威, 董月芳, 等. 基于改進輪廓跟蹤的瞳孔快速檢測 [J]. 紅外技術(shù),2017,39(6):574–578.
[18]王延年, 姬樂樂. 基于閾值分割及邊緣檢測的虹膜定位算法 [J]. 微處理機,2016,37(6):34–37.
[19]趙浩然, 季淵, 穆廷洲, 等. 面向近眼式應(yīng)用的快速瞳孔中心定位算法 [J]. 電訊技術(shù),2020,60(9):1102–1107.
[20]張宏薇, 王仕洋, 李憲龍, 等. 基于 Hough 變換的瞳孔識別方法研究與實現(xiàn) [J]. 液晶與顯示,2016,31(6):621–625.
(編輯:張 磊)