999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于眼動(dòng)追蹤技術(shù)的數(shù)字閱讀系統(tǒng)設(shè)計(jì)與應(yīng)用*

2020-06-02 09:23:36張賽男劉恩濤張牣彧曹雪霏
圖書(shū)館學(xué)刊 2020年4期
關(guān)鍵詞:眼動(dòng)方法模型

張賽男 王 瑜 劉恩濤 張牣彧 曹雪霏

(北京科技大學(xué)圖書(shū)館,北京 100083)

1 引言

眼動(dòng)追蹤技術(shù),即利用光學(xué)、電子、機(jī)械等現(xiàn)代化研究方式和檢測(cè)手段來(lái)取得閱讀者視覺(jué)注意點(diǎn)的位置的技術(shù)。根據(jù)眼球運(yùn)動(dòng)與閱讀規(guī)律分析,眼球的注視方向極大地包含了讀者在閱讀時(shí)感興趣的信息。眼睛盯視方向、時(shí)間、眼跳頻率、瞳孔參數(shù)、注視點(diǎn)軌跡等往往被認(rèn)定為蘊(yùn)含心理因素與思維因素的重要特征點(diǎn)。因此,通過(guò)對(duì)讀者閱讀時(shí)觀測(cè)所得一系列眼動(dòng)信息進(jìn)行跟蹤,可以作為分析人們心理活動(dòng)與思維方式的有效憑據(jù)[1]。

近年來(lái),隨著移動(dòng)技術(shù)與數(shù)字閱讀的興起,眼動(dòng)追蹤技術(shù)逐漸在閱讀研究中顯現(xiàn)其優(yōu)勢(shì),并成為研究讀者閱讀心理與深度學(xué)習(xí)的重要依據(jù)。眼動(dòng)追蹤技術(shù)通過(guò)嵌入式移動(dòng)設(shè)備測(cè)量眼睛的運(yùn)動(dòng)情況,從而建立起眼球光學(xué)模型并由此計(jì)算出視線(xiàn)方向與注視點(diǎn)位置,進(jìn)而實(shí)現(xiàn)AR/VR注視點(diǎn)渲染,達(dá)到輔助閱讀及分析的目的。

人類(lèi)通過(guò)眼睛獲得80%到90%的外界信息,眼動(dòng)追蹤作為一種全新的閱讀交互技術(shù),其特有的雙向性不僅有利于更自然地輸入,也使得對(duì)閱讀中有價(jià)值信息的提取成為可能。而隨著AR/VR技術(shù)對(duì)感官的集成度越來(lái)越高,未來(lái)通過(guò)人體感知進(jìn)行交互的方式也變得越來(lái)越重要,并將在教育、助老、助殘、醫(yī)療等方面逐漸顯現(xiàn)出重要意義。

2 眼動(dòng)追蹤系統(tǒng)的技術(shù)類(lèi)型及特點(diǎn)

眼動(dòng)追蹤系統(tǒng)按照采用的學(xué)科方法可以分為機(jī)械方法、電磁學(xué)方法和光學(xué)方法;按照系統(tǒng)結(jié)構(gòu)和采用的跟蹤方式不同又分為侵入式方法與非侵入式方法;而根據(jù)是否需要穿戴設(shè)備,又具體細(xì)分為穿戴式方法與非穿戴式方法[2]。

1898年,Delabarre第一次利用角膜的凸球面特點(diǎn),用一個(gè)連接桿傳遞并記錄受試者在閱讀狀態(tài)下眼睛運(yùn)動(dòng)的軌跡,這成為機(jī)械法研究眼動(dòng)追蹤的最早嘗試[3]。另外,也有研究者通過(guò)眼球轉(zhuǎn)動(dòng)時(shí)周?chē)つw的電位差的變化來(lái)跟蹤眼睛運(yùn)動(dòng)軌跡。這類(lèi)方法叫電流記錄法(EOG法)[4]。20世紀(jì)以后,隨著光學(xué)材料和攝影技術(shù)的迅速發(fā)展,在1901年,Dodge和Cline第一次利用角膜反射的光線(xiàn)以及普通攝像技術(shù)記錄下了受試者的眼睛運(yùn)動(dòng)軌跡,從此這種被稱(chēng)為光學(xué)記錄法(VOG法)的方法被廣泛使用并不斷發(fā)展[5]。1922年,在芝加哥研制成功的“GuyThomasBuswellinChicago”成為世界上第一臺(tái)非侵入式眼動(dòng)追蹤設(shè)備。使用者通過(guò)人眼光束反射于膠片來(lái)實(shí)現(xiàn)記錄與位置判定[6]。20世紀(jì)70年代,眼動(dòng)追蹤技術(shù)在閱讀和心理學(xué)研究中飛速發(fā)展。20世紀(jì)80年代開(kāi)始,眼動(dòng)追蹤技術(shù)開(kāi)始應(yīng)用化,人們逐漸使用眼動(dòng)追蹤來(lái)解決人機(jī)交互問(wèn)題。2010年3月,德國(guó)雷根斯堡大學(xué)研究人員根據(jù)用戶(hù)如何使用眼球運(yùn)動(dòng)信息在電腦菜單中檢索命令并將眼動(dòng)搜索結(jié)果實(shí)時(shí)使用進(jìn)行了一項(xiàng)調(diào)查,開(kāi)發(fā)出一款僅用“目光”控制電腦從而達(dá)到幫助殘疾用戶(hù)閱讀并進(jìn)行操作的軟件系統(tǒng)[7]。此外,斯坦福大學(xué)HCI組Kumar等人于2007年提出的研究“EyeScrolling”在人類(lèi)心理學(xué)研究基礎(chǔ)上通過(guò)對(duì)文件導(dǎo)航和瀏覽操作進(jìn)行控制,從而得出一種特定的“讀書(shū)模型”,可以確定讀者閱讀時(shí)的翻頁(yè)速度和注視區(qū)域[8]。

上述方法中,機(jī)械法和電磁學(xué)方法(侵入式方法)由于裝置與人眼直接接觸,對(duì)受試者具有一定的侵害性和干擾性,已經(jīng)不再使用。而基于光學(xué)攝像機(jī)(VOG)的眼動(dòng)追蹤方法,采用相機(jī)對(duì)人眼進(jìn)行無(wú)害化的影像拍攝,從得出的視頻信息中提取眼睛特征參數(shù),對(duì)受試者具有較小的干擾性,且可操作性強(qiáng),成為目前應(yīng)用最為廣泛的一種方法[9]。

3 眼動(dòng)追蹤系統(tǒng)在數(shù)字閱讀中的應(yīng)用現(xiàn)狀

隨著虛擬現(xiàn)實(shí)技術(shù)、計(jì)算機(jī)技術(shù)及機(jī)械輔助設(shè)計(jì)的發(fā)展,目前眼動(dòng)追蹤已經(jīng)逐漸擴(kuò)展到電子閱讀、信息檢索、人因分析等新興領(lǐng)域,并對(duì)社會(huì)認(rèn)知領(lǐng)域、文化研究、信息發(fā)展研究等工作領(lǐng)域產(chǎn)生重大的影響。大量研究數(shù)據(jù)表明,在虛擬閱讀環(huán)境中,使用眼動(dòng)追蹤交互技術(shù)比指點(diǎn)式交互技術(shù)效率會(huì)更高。尤其在遠(yuǎn)距離使用時(shí)發(fā)揮出的優(yōu)勢(shì)更加明顯,也更貼近人類(lèi)的自然交流。綜上所述,眼動(dòng)追蹤技術(shù)在目前的數(shù)字閱讀及移動(dòng)閱讀領(lǐng)域越來(lái)越體現(xiàn)出強(qiáng)大的研究意義與實(shí)用價(jià)值。

3.1 輔助電子閱讀

2014年安卓開(kāi)發(fā)者大會(huì)上,TheEyeTribe公司發(fā)布一款尺寸僅為20×1.9×1.9厘米,僅使用眼球運(yùn)動(dòng)就能控制平板電腦的配件設(shè)備,成為目前世界上最小的眼動(dòng)追蹤器。通過(guò)該產(chǎn)品,用戶(hù)可以通過(guò)眼動(dòng)控制電子書(shū)及網(wǎng)頁(yè)閱讀方式,達(dá)到下拉、翻頁(yè)、標(biāo)注、搜索等功能。在此項(xiàng)成果發(fā)布之前,基于Windows系統(tǒng)配套的TheEyeTribe相關(guān)配件已經(jīng)提前發(fā)布,所有使用Windows系統(tǒng)的臺(tái)式機(jī)、筆記本電腦以及平板電腦都可以支持此類(lèi)追蹤技術(shù)。2016年10月,TobiiTechnology公司在“FACTORY2016Fall”上,展出了眼動(dòng)追蹤智能眼鏡“TobiiProGlasses2”。當(dāng)讀者閱讀文章達(dá)到底部時(shí),屏幕會(huì)自動(dòng)向下滾動(dòng)并按照預(yù)期反彈回來(lái)。此外,三星、蘋(píng)果、微軟等公司在部分Ios、Android系統(tǒng)移動(dòng)閱讀終端也配備了眼動(dòng)追蹤的功能。

3.2 網(wǎng)頁(yè)評(píng)估與設(shè)計(jì)

眼動(dòng)追蹤技術(shù)可以幫助研究者記錄用戶(hù)在瀏覽網(wǎng)頁(yè)中的眼部運(yùn)動(dòng)。從而推算出用戶(hù)的網(wǎng)頁(yè)瀏覽順序、注意力分配,以及閱讀感興趣區(qū)域分布,最終得出視線(xiàn)熱點(diǎn)圖將會(huì)標(biāo)記出設(shè)計(jì)元素的“熱點(diǎn)區(qū)域”,以及頁(yè)面什么位置最受用戶(hù)關(guān)注[10]。Owens(2008)的網(wǎng)站瀏覽模式研究和Nielsen(2006)的網(wǎng)頁(yè)閱讀模式研究提出,利用自然習(xí)慣,用戶(hù)在網(wǎng)頁(yè)瀏覽中的注視焦點(diǎn)呈EF型,熱點(diǎn)位于頁(yè)面左上角。該研究對(duì)網(wǎng)頁(yè)內(nèi)容的編排提供了啟示,例如德國(guó)的軟件智能設(shè)計(jì)公司EyeQuant根據(jù)上述理論幫助用戶(hù)改進(jìn)網(wǎng)頁(yè)設(shè)計(jì),在幾秒鐘內(nèi)就可以確認(rèn)設(shè)計(jì)結(jié)果。

3.3 V-Learning深度學(xué)習(xí)

自2016年開(kāi)始,虛擬現(xiàn)實(shí)技術(shù)在全世界掀起了新的高潮。而以眼動(dòng)追蹤為技術(shù)基礎(chǔ)的VR+教育也引發(fā)更多投資者的關(guān)注和教育人士的探討。AI時(shí)代的研究應(yīng)更多關(guān)注人因自然交互及情感交互在現(xiàn)代教育技術(shù)的發(fā)展上,在經(jīng)歷廣播電視DLearning、互聯(lián)網(wǎng)E-Learning以及移動(dòng)終端MLearning之后,包括現(xiàn)在推廣的MOOCs,上述教學(xué)過(guò)程缺乏真實(shí)情境浸入,教師與學(xué)生、學(xué)生與學(xué)生、學(xué)生與環(huán)境之間缺乏交互,教學(xué)方式及評(píng)價(jià)方式都還有待提高。而V-Learning采用可視化技術(shù)與虛擬現(xiàn)實(shí)結(jié)合的新型教學(xué)模式,主要致力于教學(xué)內(nèi)容、教學(xué)過(guò)程的改革以及教學(xué)效果的評(píng)價(jià)[11]。

3.4 閱讀心理與讀者研究

當(dāng)人們閱讀時(shí),眼球運(yùn)動(dòng)的特點(diǎn)表現(xiàn)為一系列的眼跳活動(dòng)和注視點(diǎn)。通過(guò)對(duì)眼球運(yùn)動(dòng)進(jìn)行跟蹤,實(shí)時(shí)記錄讀者眼球運(yùn)動(dòng)數(shù)據(jù),再對(duì)應(yīng)到閱讀認(rèn)知過(guò)程,研究者可以有效地進(jìn)行心理活動(dòng)的詳細(xì)分析和對(duì)個(gè)體的認(rèn)知過(guò)程進(jìn)行評(píng)估。研究人員嘗試使用電生理/腦成像技術(shù)來(lái)進(jìn)行閱讀中的認(rèn)知過(guò)程研究,并探索兩種技術(shù)的更有效結(jié)合。例如,利用ERP技術(shù)和眼動(dòng)研究漢語(yǔ)閱讀理解的句法啟動(dòng)效應(yīng),結(jié)果表明,兩種方法提供了漢語(yǔ)閱讀理解啟動(dòng)效應(yīng)相對(duì)恒定一致的證據(jù)[12]。俄羅斯國(guó)立高等經(jīng)濟(jì)大學(xué)官方網(wǎng)站于2018年8月30日發(fā)布,俄羅斯和德國(guó)參與創(chuàng)建了第一個(gè)俄語(yǔ)閱讀眼動(dòng)數(shù)據(jù)庫(kù)。該數(shù)據(jù)庫(kù)不僅可用于語(yǔ)言搜索,還可用于診斷和糾正語(yǔ)言障礙。總之,利用眼動(dòng)追蹤技術(shù)搜索語(yǔ)言和閱讀已成為認(rèn)知研究的新趨勢(shì)。

4 基于單攝像機(jī)眼動(dòng)追蹤的數(shù)字閱讀系統(tǒng)構(gòu)架

4.1 VOG非接觸式眼動(dòng)追蹤原理

目前主流的眼動(dòng)追蹤輔助閱讀產(chǎn)品主要分為穿戴式單攝像機(jī)眼動(dòng)追蹤系統(tǒng)和非穿戴式多攝像機(jī)眼動(dòng)追蹤系統(tǒng)。在使用過(guò)程中通過(guò)拍攝人臉(人眼)圖像識(shí)別檢測(cè)視線(xiàn)特征參數(shù)(例如虹膜中心與眼角點(diǎn)之間的矢量),然后構(gòu)建視線(xiàn)特征參數(shù)到視線(xiàn)屏幕落點(diǎn)之間的映射模型,從而計(jì)算出屏幕盯視點(diǎn)的位置坐標(biāo),進(jìn)而指導(dǎo)一系列閱讀操作。整個(gè)過(guò)程流程如圖1所示。

圖1 VOG非接觸式眼動(dòng)追蹤原理

在實(shí)際應(yīng)用中,為了達(dá)到精確的追蹤效果,往往需要穿戴頭顯或眼鏡設(shè)備來(lái)進(jìn)行頭眼部定位從而矯正偏差,讀者的使用體驗(yàn)感與自由度相應(yīng)地就會(huì)受到一定的限制。若不采用穿戴設(shè)備,則需要至少兩臺(tái)以上攝像機(jī)進(jìn)行位置標(biāo)定,成本也相應(yīng)隨之增加。綜上所示,如何使系統(tǒng)的體驗(yàn)感與開(kāi)發(fā)成本兼容,仍然是目前眼動(dòng)追蹤技術(shù)發(fā)展不容忽視的問(wèn)題。針對(duì)這個(gè)問(wèn)題,筆者設(shè)計(jì)相應(yīng)實(shí)驗(yàn),探討在非穿戴式單攝像機(jī)眼動(dòng)追蹤技術(shù)中通過(guò)算法優(yōu)化來(lái)減小實(shí)驗(yàn)誤差,從而優(yōu)化系統(tǒng)結(jié)構(gòu),增強(qiáng)讀者使用體驗(yàn)。

4.2 基于Adaboost算法的視線(xiàn)特征參數(shù)提取

閱讀活動(dòng)描述與閱讀心理變化反映在系統(tǒng)架構(gòu)中就是讀者的眼部運(yùn)動(dòng)過(guò)程。因此人眼特征參數(shù)提取就成為實(shí)現(xiàn)眼動(dòng)追蹤技術(shù)的前提和關(guān)鍵,且提取質(zhì)量的差異直接關(guān)系到結(jié)果判別的精度。人眼特征參數(shù)的定義依不同的追蹤實(shí)現(xiàn)技術(shù)而確定,單攝像機(jī)法通常采用瞳孔角膜向量反射技術(shù)(PCCR,thepupilcentercorneareflectiontechnique),選擇近紅外光源照射下用戶(hù)眼睛的角膜和瞳孔上產(chǎn)成反射向量作為人眼參數(shù)。而作為這種方法的簡(jiǎn)化,在自然光條件下可以采用虹膜中心與眼角點(diǎn)之間的向量來(lái)作為人眼參數(shù)。筆者實(shí)驗(yàn)采用自然光條件,視線(xiàn)特征參數(shù)提取的過(guò)程如圖2所示。

圖2 視線(xiàn)特征參數(shù)提取過(guò)程

本方法首先使用Haar-like特征表示人臉(人眼),采用Adaboost算法選擇最能代表人臉(人眼)的矩形特征弱分類(lèi)器,通過(guò)加權(quán)投票將弱分類(lèi)器構(gòu)造成強(qiáng)分類(lèi)器,訓(xùn)練完成后,將得到的多個(gè)強(qiáng)分類(lèi)器進(jìn)行串聯(lián),形成用于人臉(人眼)檢測(cè)的層疊分類(lèi)器的級(jí)聯(lián)結(jié)構(gòu);然后采用自適應(yīng)閾值分割法將檢測(cè)的人眼圖像進(jìn)行虹膜和鞏膜分割:分割后的虹膜圖像經(jīng)濾波處理,之后采用cannny算子進(jìn)行邊緣檢測(cè),經(jīng)最小二乘算法橢圓擬合之后計(jì)算出虹膜中心坐標(biāo)(x1,y1),分割后的鞏膜圖像經(jīng)濾波處理后進(jìn)行SUSAN角點(diǎn)檢測(cè)計(jì)算出眼角點(diǎn)中心坐標(biāo)(x2,y2)。最后將計(jì)算出的中心坐標(biāo)向量化為特征參數(shù)(xs,ys)。建立特征參數(shù)與視線(xiàn)實(shí)際落點(diǎn)的映射模型之后,即可得到閱讀者眼睛在屏幕中的注視方向,進(jìn)而指導(dǎo)后續(xù)學(xué)習(xí)操作。

4.3 基于多項(xiàng)式映射模型的視線(xiàn)落點(diǎn)估計(jì)

讀者的閱讀視線(xiàn)估計(jì)目前運(yùn)用最多的是基于多項(xiàng)式映射模型的視線(xiàn)落點(diǎn)估計(jì)方法[13-17]。在實(shí)驗(yàn)中將上文中得到的特征參數(shù)帶入視線(xiàn)映射函數(shù),從而計(jì)算出視線(xiàn)落點(diǎn)在閱讀器屏幕上的映射點(diǎn)。在頭部靜止不動(dòng)的情況下,假設(shè)特征參數(shù)與視線(xiàn)落點(diǎn)之間具有如下關(guān)系:

視線(xiàn)映射函數(shù) pm(xSyS)→S(xeye)其中 xe和ye表示視線(xiàn)屏幕落點(diǎn)的橫坐標(biāo)和縱坐標(biāo);xS和yS表示特征參數(shù)向量的橫坐標(biāo)和縱坐標(biāo)。首先需要進(jìn)行系統(tǒng)標(biāo)定來(lái)確定系數(shù)a。當(dāng)使用者盯視屏幕上9個(gè)標(biāo)定點(diǎn)得到得到多元回歸方程,再進(jìn)行最小二乘回歸得到系數(shù)a0-a11。得到系數(shù)后帶入原模型,即可得到每次讀者眼睛進(jìn)行運(yùn)動(dòng)時(shí)視線(xiàn)在閱讀器上的實(shí)時(shí)落點(diǎn)S(xeye)。

上述映射模型只適用于頭部靜止不動(dòng)的情況下。一旦頭部發(fā)生偏移,映射模型的參數(shù)就會(huì)不準(zhǔn)確,從而導(dǎo)致計(jì)算得出的視線(xiàn)落點(diǎn)產(chǎn)生偏差,無(wú)法正確地得到讀者的注視軌跡。如何在頭部運(yùn)動(dòng)的前提下減小誤差的產(chǎn)生是研究單攝像機(jī)眼動(dòng)追蹤技術(shù)必須面對(duì)的問(wèn)題。

5 頭動(dòng)狀態(tài)下的視線(xiàn)落點(diǎn)補(bǔ)償算法

5.1 特征參數(shù)補(bǔ)償算法

一旦發(fā)生頭部的運(yùn)動(dòng)偏離標(biāo)定位置,檢測(cè)出的特征參數(shù)就不能被認(rèn)為再適用于標(biāo)定位置的映射模型。這樣就需要求出偏離位置與標(biāo)定位置之間特征參數(shù)的偏差量,然后對(duì)偏離位置的特征參數(shù)進(jìn)行補(bǔ)償。

文獻(xiàn)[18]根據(jù)頭動(dòng)后特征參數(shù)與頭部位置變化的關(guān)系對(duì)視線(xiàn)參數(shù)進(jìn)行了改進(jìn)補(bǔ)償。當(dāng)閱讀者頭部平行移動(dòng)時(shí),使用者的瞳距是固定值。但是當(dāng)使用者頭部發(fā)生轉(zhuǎn)動(dòng)時(shí),圖像瞳距在不同的位置上就會(huì)發(fā)生變化[19-21]。文獻(xiàn)[18]通過(guò)補(bǔ)償頭部轉(zhuǎn)動(dòng)的瞳距值得到標(biāo)準(zhǔn)位置的特征參數(shù)值,這樣就消除了頭部運(yùn)動(dòng)帶來(lái)的視線(xiàn)估計(jì)誤差量。但是此種方法存在一定不合理之處。整個(gè)推導(dǎo)過(guò)程都只考慮了矢量的大小,并沒(méi)有過(guò)多地涉及到方向。這樣補(bǔ)償出來(lái)的特征參數(shù)僅僅反映的是大小的變化,而實(shí)際上頭部發(fā)生運(yùn)動(dòng)后特征參數(shù)的方向以及角度也會(huì)相應(yīng)發(fā)生改變。以下筆者就頭部運(yùn)動(dòng)后特征參數(shù)的角度變化進(jìn)行分析,以作出更加嚴(yán)謹(jǐn)?shù)难a(bǔ)償形式。特征參數(shù)以及瞳孔角度在頭部運(yùn)動(dòng)過(guò)程中的變化如圖3所示。

圖3 頭部位置對(duì)特征參數(shù)角度及瞳孔角度的影響

其中參數(shù)定義為:

p2g2:標(biāo)定位置圖像中的視線(xiàn)參數(shù);p2g2:偏離位置圖像中的視線(xiàn)參數(shù)標(biāo)定位置圖像瞳孔中心連線(xiàn)偏離位置圖像瞳孔中心連線(xiàn);θ1:標(biāo)定位置視線(xiàn)參數(shù)角度;θ2:偏離位置視線(xiàn)參數(shù)角度;γ1:標(biāo)定位置角度;γ2:偏離位置角度;S1:三角形的面積;S2:三角形的面積。

即要求得θ1與θ2之間的關(guān)系。假設(shè)T為屏幕盯視點(diǎn)S到鏡頭中心的距離,d為角膜曲率中心到盯視點(diǎn)之間的距離:由圖3可知T1/d1=tanγ2,T2/d2=tanγ2,可得tanγ1d1/d2+ΔT/d2=tanγ2。根據(jù)成像關(guān)系有ΔTf/d2Δt,其中Δt為圖像距離,f為鏡頭焦距。則

當(dāng)使用者處于不同位置時(shí),瞳距在圖像上的值L1,L2與角膜曲率中心到盯視點(diǎn)之間的距離d1,d2成反比L1/L2。所以

由三角形面積公式可知

代入公式(4)得

同理

將 γ1γ2代入公式(3)得到

θ1與θ2之間的關(guān)系可得。

由上文推導(dǎo)出在頭部運(yùn)動(dòng)情況下的一種將偏移位置補(bǔ)償至標(biāo)定位置的特征參數(shù)補(bǔ)償算法。在實(shí)驗(yàn)環(huán)境中將文獻(xiàn)[18]中眼動(dòng)追蹤項(xiàng)目補(bǔ)充上文頭動(dòng)偏移算法,在估計(jì)視線(xiàn)落點(diǎn)之前運(yùn)用提前反饋的思想對(duì)視線(xiàn)特征參數(shù)進(jìn)行補(bǔ)償,調(diào)整由于頭部運(yùn)動(dòng)帶來(lái)的估計(jì)誤差。閱讀終端電子屏幕上9個(gè)對(duì)應(yīng)點(diǎn)為標(biāo)準(zhǔn)進(jìn)行試驗(yàn),對(duì)比補(bǔ)償算法加入前后視線(xiàn)落點(diǎn)情況如圖4所示。

圖4 未補(bǔ)償前與補(bǔ)償后視線(xiàn)落點(diǎn)估計(jì)

由圖4可以直觀地看出文獻(xiàn)[18]補(bǔ)充特征參數(shù)補(bǔ)償方法之后在頭動(dòng)狀態(tài)下視線(xiàn)估計(jì)更加準(zhǔn)確穩(wěn)定,視線(xiàn)估計(jì)落點(diǎn)基本位于標(biāo)定點(diǎn)附近。從補(bǔ)償前后誤差方面分析補(bǔ)償算法的特性見(jiàn)表1。

表1 補(bǔ)償算法加入前后9個(gè)標(biāo)定點(diǎn)的平面特征參數(shù)以及誤差比較

續(xù)表1

由表1可以看出針對(duì)平面閱讀視線(xiàn)參數(shù)模型,對(duì)于頭動(dòng)情況下出現(xiàn)誤差進(jìn)行視線(xiàn)特征參數(shù)補(bǔ)償,實(shí)驗(yàn)結(jié)果顯示,補(bǔ)償之后視線(xiàn)落點(diǎn)相對(duì)穩(wěn)定,沒(méi)有出現(xiàn)比較大的波動(dòng),相對(duì)于未補(bǔ)償?shù)膶?shí)驗(yàn)效果有了很大改善,符合應(yīng)用要求。

5.2 多變量灰色預(yù)測(cè)GM(1,N)模型的建立

將信息清晰的系統(tǒng)稱(chēng)為白色系統(tǒng),信息無(wú)法獲知的系統(tǒng)稱(chēng)為黑色系統(tǒng),只有一部分信息清晰的系統(tǒng)稱(chēng)為灰色系統(tǒng)?;疑到y(tǒng)的研究方法是:離散數(shù)據(jù)在其變化過(guò)程中被看作是連續(xù)變量的離散值,采用對(duì)其進(jìn)行差分對(duì)齊處理而不是直接利用原始數(shù)據(jù)。利用微分方程模型生成累積數(shù)和序列,從而抵消大部分隨機(jī)誤差,展示出規(guī)律性?;疑到y(tǒng)理論已成為系統(tǒng)分析、評(píng)價(jià)、建模、預(yù)測(cè)、決策、控制和選擇優(yōu)化的技術(shù)系統(tǒng)[22]。

設(shè)對(duì)于N個(gè)變量,X1,X2,…,XN,其中X1表示視線(xiàn)預(yù)測(cè)值,而X2,…XN表示影響視線(xiàn)落點(diǎn)的原因,每個(gè)變量都有m個(gè)相互對(duì)應(yīng)的歷史數(shù)據(jù),于是形成N個(gè)原始數(shù)列:

對(duì) X(0)i 做累加生成,得到生成數(shù)列:

這個(gè)微分方程模型記為GM(1,N)。方程(8)的參數(shù)列記為 a=(a,b1,b2…,bn-1)τ,再設(shè) YN=將方程(8)按差分法離散,可得到線(xiàn)性方程組,形如:

按照最小二乘法,有:

其中,利用兩點(diǎn)滑動(dòng)平均的思想[24],最終可得矩陣:

采用表2數(shù)據(jù)進(jìn)行GM(1,N)預(yù)測(cè),實(shí)驗(yàn)環(huán)境為MATLAB?;疑A(yù)測(cè)實(shí)驗(yàn)?zāi)P蜑橥ㄟ^(guò)實(shí)驗(yàn)得到參數(shù)估計(jì)值如下:

表2 部分實(shí)驗(yàn)視線(xiàn)參數(shù)數(shù)據(jù)

因此可以得到視線(xiàn)落點(diǎn)的預(yù)測(cè)模型。根據(jù)得到的預(yù)測(cè)模型進(jìn)行估計(jì),實(shí)驗(yàn)者在自然頭動(dòng)情況下依次盯視屏幕上9個(gè)標(biāo)定點(diǎn),通過(guò)視線(xiàn)參數(shù)檢測(cè)得到瞳孔以及普爾欽斑數(shù)據(jù),將這些數(shù)據(jù)帶入已知的灰色預(yù)測(cè)模型進(jìn)行視線(xiàn)落點(diǎn)估計(jì),得到盯視點(diǎn)與估計(jì)落點(diǎn)之間對(duì)應(yīng)數(shù)據(jù)列表,見(jiàn)表3。

表3 盯視點(diǎn)與視線(xiàn)估計(jì)落點(diǎn)數(shù)據(jù)對(duì)比

5.3 實(shí)驗(yàn)總結(jié)

上文中采用多項(xiàng)式映射模型進(jìn)行視線(xiàn)落點(diǎn)估計(jì),對(duì)頭動(dòng)狀態(tài)下的特征參數(shù)進(jìn)行了補(bǔ)償。實(shí)驗(yàn)結(jié)果表明對(duì)比于不加以補(bǔ)償,誤差減小明顯,改進(jìn)的補(bǔ)償算法具有顯著效果。而采用灰色預(yù)測(cè)模型進(jìn)行視線(xiàn)落點(diǎn)預(yù)測(cè),與上述兩種方法相比誤差進(jìn)一步減小,三種方法誤差比較結(jié)果如圖5所示。

圖5 三種方法平均誤差(像素)比較

6 總結(jié)與展望

隨著人工智能技術(shù)發(fā)展,利用基于眼動(dòng)姿態(tài)跟蹤的眼動(dòng)追蹤技術(shù)來(lái)實(shí)現(xiàn)人機(jī)交互進(jìn)行閱讀成為當(dāng)前數(shù)字閱讀領(lǐng)域的一項(xiàng)新興手段。如何簡(jiǎn)化系統(tǒng)結(jié)構(gòu)、優(yōu)化使用體驗(yàn),使眼動(dòng)追蹤系統(tǒng)更貼近讀者自然的閱讀狀態(tài)成為目前該項(xiàng)技術(shù)研究的關(guān)鍵點(diǎn)。本研究基于特征參數(shù)的補(bǔ)償算法和多變量灰色預(yù)測(cè)GM(1,N)模型兩種方式對(duì)此進(jìn)行了改進(jìn),實(shí)驗(yàn)平均像素誤差降低,取得一定的改進(jìn)效果?;趯?shí)驗(yàn)條件,由于角膜曲率中心到視線(xiàn)落點(diǎn)的距離在單攝像機(jī)眼動(dòng)追蹤系統(tǒng)中無(wú)法完全測(cè)量,文獻(xiàn)[18]提出的頭動(dòng)補(bǔ)償和本文中基于此方法的改進(jìn)算法均采用受試者在不同位置時(shí)攝像機(jī)測(cè)量的瞳距值進(jìn)行瞳孔橢圓的曲率估計(jì),精確性有待提高。下一步工作需要精確頭動(dòng)補(bǔ)償算法中各眼部參數(shù)與視線(xiàn)特征參數(shù)回歸關(guān)系,以得到更高的補(bǔ)償精度。同時(shí),通過(guò)進(jìn)一步實(shí)驗(yàn),完善基于三維視線(xiàn)方向模型的視線(xiàn)落點(diǎn)估計(jì)方法以及單點(diǎn)標(biāo)定方法,以期得到一種在完全頭動(dòng)情況下依然適用的具有普適性與高精度的視線(xiàn)落點(diǎn)估計(jì)方法。

猜你喜歡
眼動(dòng)方法模型
一半模型
基于眼動(dòng)的駕駛員危險(xiǎn)認(rèn)知
基于ssVEP與眼動(dòng)追蹤的混合型并行腦機(jī)接口研究
載人航天(2021年5期)2021-11-20 06:04:32
重要模型『一線(xiàn)三等角』
重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
國(guó)外翻譯過(guò)程實(shí)證研究中的眼動(dòng)跟蹤方法述評(píng)
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚(yú)
主站蜘蛛池模板: 亚洲欧州色色免费AV| 国产精品无码AV片在线观看播放| 久久国产拍爱| 日韩视频福利| 欧美.成人.综合在线| 日韩在线第三页| 99国产精品国产| 亚洲精品片911| 亚洲免费播放| 午夜一区二区三区| a国产精品| 日韩不卡高清视频| 无码精品国产VA在线观看DVD| 久久久久中文字幕精品视频| 国产成人毛片| 国产福利影院在线观看| 无码一区中文字幕| 婷婷色婷婷| 免费一看一级毛片| 视频国产精品丝袜第一页| 亚洲一区二区无码视频| 久久人体视频| 国产资源站| 亚洲第七页| 91麻豆国产视频| 韩国自拍偷自拍亚洲精品| 欧美精品啪啪一区二区三区| 99在线国产| 久久精品视频一| 萌白酱国产一区二区| 国国产a国产片免费麻豆| 依依成人精品无v国产| www精品久久| 国产AV毛片| 无码区日韩专区免费系列| 精品在线免费播放| 午夜福利视频一区| 成人小视频网| 久久 午夜福利 张柏芝| 精品国产美女福到在线直播| 成人av手机在线观看| 欧美激情视频一区二区三区免费| 亚洲区一区| 亚洲精品国产综合99| 一级一级特黄女人精品毛片| 亚洲中文无码av永久伊人| 无码福利视频| 好久久免费视频高清| 国产小视频a在线观看| 国产成人乱码一区二区三区在线| 亚洲视频色图| 无码一区二区三区视频在线播放| 欧洲欧美人成免费全部视频| 国产亚洲欧美在线中文bt天堂| 亚洲国产成人精品无码区性色| 久久精品波多野结衣| 欧美在线国产| 日韩天堂视频| 午夜欧美在线| 中文字幕在线播放不卡| 欧美综合区自拍亚洲综合绿色| 午夜精品福利影院| 国产va在线观看免费| 国内精自视频品线一二区| 国产又粗又猛又爽视频| 在线观看国产精美视频| 凹凸精品免费精品视频| 欧美成人精品高清在线下载| 久久久久久久久久国产精品| 国产丝袜精品| 国产精品永久久久久| 日本久久久久久免费网络| 综合色婷婷| 欧美一级夜夜爽www| 亚洲 日韩 激情 无码 中出| 九九热在线视频| 亚洲日韩AV无码精品| 99无码中文字幕视频| 久久一级电影| 欧洲极品无码一区二区三区| 99久久精彩视频| 午夜激情婷婷|