版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
1、近年來基于移動設備的眼動跟蹤技術逐漸成為一個研究熱點,并得到了迅速發(fā)展和應用推廣。但是由于受到移動設備軟硬件性能的限制,眼動跟蹤精度和效率較低,通常還需要外部硬件設備的支持。這不僅提高了開發(fā)成本,也增加了使用難度,極大降低了其實際應用價值。為此,本文基于眾包機制研究用戶注視點自我回憶和報告方法,開發(fā)了移動設備上的眼動跟蹤數據獲取系統(tǒng)。具體研究工作包括以下三個方面:
(1)用戶注視點回憶任務的眾包方法研究。在上下文感知環(huán)境下,應
2、用眾包技術實現(xiàn)用戶注視點回憶任務的發(fā)布和結果回收。任務發(fā)布用戶通過眾包平臺發(fā)布注視點回憶任務,并回收任務結果,以可視化形式查看任務結果;工人用戶在眾包平臺上查詢、接受并完成注視點回憶任務。
(2)基于上下文感知的任務分發(fā)研究。為了提高用戶注視點回憶的眼動數據計算精度,并減少噪聲數據,基于位置和速度上下文感知技術進行注視點回憶任務的分發(fā)。根據用戶當前在室內、外所處的不同位置向用戶分發(fā)難度合適的任務,并同時適當增加或減少測試圖片數
3、量;在用戶處于不同運動速度時,根據運動速度的快慢,相應的進行不同難度任務的分發(fā)。將使用上下文感知技術和不使用上下文感知技術的眼動注視點數據進行對比,結果顯示,使用上下文感知技術之后,完成任務的效率得到提高,平均每張測試圖片用時減少1-1.3秒,注視點回憶數據精度提高25%~30%。
(3)基于支持向量回歸的誤差補償模型研究。為了進一步減小注視點回憶數據的誤差,基于支持向量回歸方法建立用戶注視點回憶數據與眼動儀獲取的真實注視點數
4、據之間的映射關系,并通過標定方法訓練眼動數據誤差補償模型,對用戶回憶注視點數據進行誤差補償,從而減小其與真實注視點數據之間的誤差,提高注視點回憶精度。將使用誤差補償模型和不使用誤差補償模型的注視點回憶數據進行對比,結果顯示,使用誤差補償模型后,注視點回憶數據的精度有所提高,對于不同類型的任務和測試圖片,精度提高了15%~40%。
在上述工作基礎上,設計與開發(fā)了基于智能手機的眼動注視點數據獲取原型系統(tǒng),并針對用戶注視點回憶精度和
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 面向移動設備人機交互的眼動跟蹤系統(tǒng).pdf
- 基于眾包的數據標注系統(tǒng).pdf
- 自由頭動式眼動跟蹤系統(tǒng).pdf
- 基于眼動跟蹤的多設備人機交互技術研究.pdf
- 基于FPGA的眼動跟蹤系統(tǒng)研究與實現(xiàn).pdf
- 眼動跟蹤系統(tǒng)算法研究與實現(xiàn).pdf
- 基于DSP的嵌入式眼動跟蹤系統(tǒng)設計與實現(xiàn).pdf
- 基于平滑跟蹤眼動的認知機制的研究.pdf
- 桌面式眼動跟蹤系統(tǒng)研究.pdf
- 基于內存數據庫Redis的眾包系統(tǒng)性能優(yōu)化.pdf
- 基于眾包的數據清洗關鍵技術的研究.pdf
- 從WEB頁中獲取數據到移動設備的研究.pdf
- 基于非侵入式的眼動跟蹤研究與實現(xiàn).pdf
- 眼動跟蹤技術研究.pdf
- 基于眼動數據的網頁美學因素研究.pdf
- 基于眾包模式的城市事件分析系統(tǒng).pdf
- 基于網絡數據包的郵件信息獲取系統(tǒng)實現(xiàn)技術研究.pdf
- 基于眼動數據測量認知負荷水平.pdf
- 基于眼動跟蹤的智能家居控制器.pdf
- 基于眼動數據的分類視覺注意模型.pdf
評論
0/150
提交評論