版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著計(jì)算機(jī)與互聯(lián)網(wǎng)的發(fā)展和普及,使得人機(jī)交互與日常生活息息相關(guān),成為了人們生活和工作中的重要一部分。人機(jī)交互技術(shù)以實(shí)現(xiàn)自然、和諧、便捷的交互為目標(biāo),從傳統(tǒng)的以計(jì)算機(jī)為中心逐漸轉(zhuǎn)移到以人為中心。手勢(shì)是人類表達(dá)自己以及與外界進(jìn)行交互的重要手段,手勢(shì)交互作為人機(jī)交互領(lǐng)域里的一種自然、直觀和易于學(xué)習(xí)的交互手段,有著十分廣闊的應(yīng)用前景。
基于視覺的手勢(shì)交互是當(dāng)前人機(jī)交互領(lǐng)域里的一個(gè)重要研究方向,該交互具有遠(yuǎn)距離和非接觸式的特點(diǎn),符合人們
2、的日常交流習(xí)慣?;谝曈X的手勢(shì)識(shí)別、手勢(shì)跟蹤與手勢(shì)交互是新一代人機(jī)交互不可或缺的關(guān)鍵技術(shù)?;谝曈X的手勢(shì)跟蹤是指通過(guò)輸入設(shè)備獲得人手運(yùn)動(dòng)的視頻信息,由圖像分割技術(shù)獲取每一幀的人手分割,在此基礎(chǔ)上實(shí)現(xiàn)人手姿態(tài)的預(yù)測(cè)和跟蹤,并通過(guò)三維虛擬人手模型來(lái)實(shí)時(shí)顯示跟蹤結(jié)果。本文在分析與總結(jié)國(guó)內(nèi)外相關(guān)研究的基礎(chǔ)上,針對(duì)基于Kinect的人手分割和基于認(rèn)知行為模型的人手跟蹤進(jìn)行了研究,進(jìn)而設(shè)計(jì)一種實(shí)時(shí)性好、魯棒性和精度高的三維手勢(shì)跟蹤方法。主要研究?jī)?nèi)容
3、和創(chuàng)新點(diǎn)體現(xiàn)在以下幾個(gè)方面:
(1)研究認(rèn)知行為模型,建立人手運(yùn)動(dòng)特征的微觀結(jié)構(gòu)庫(kù)
在特定的交互情景下,人手的運(yùn)動(dòng)是有規(guī)律可循的。本文以認(rèn)知理論為指導(dǎo),在沒有人為干預(yù)的情況下,在基于數(shù)據(jù)手套的跟蹤平臺(tái)上進(jìn)行實(shí)驗(yàn)。對(duì)實(shí)驗(yàn)中人手的運(yùn)動(dòng)規(guī)律進(jìn)行分析、歸納和總結(jié),對(duì)手勢(shì)交互過(guò)程中的認(rèn)知過(guò)程、交互階段以及每個(gè)階段的人手運(yùn)動(dòng)微觀結(jié)構(gòu)進(jìn)行研究,形成認(rèn)知行為模型庫(kù)。進(jìn)而,揭示手勢(shì)的運(yùn)動(dòng)規(guī)律和交互特征,為設(shè)計(jì)手勢(shì)的跟蹤和交互算法提供一
4、個(gè)新的角度和依據(jù)。
(2)基于人手運(yùn)動(dòng)特征的微觀結(jié)構(gòu),改進(jìn)預(yù)測(cè)和采樣方法,提出基于微觀結(jié)構(gòu)特征的三維手勢(shì)跟蹤方法
目前基于粒子濾波的手勢(shì)跟蹤方法一般利用當(dāng)前幀手勢(shì)的圖像和上一幀手勢(shì)的狀態(tài)信息來(lái)獲取當(dāng)前手勢(shì)的狀態(tài)。與此相比,本文算法的創(chuàng)新點(diǎn)在于以行為分析和過(guò)程建模為切入點(diǎn),探討建立微觀結(jié)構(gòu)模型與當(dāng)前手勢(shì)之間的數(shù)學(xué)聯(lián)系。把獲取當(dāng)前幀手勢(shì)的狀態(tài)建立在認(rèn)知行為模型的基礎(chǔ)上,而不僅僅以少數(shù)局部幀的信息為基礎(chǔ),為粒子濾波算法中的
5、預(yù)測(cè)和粒子生成過(guò)程提供了一種統(tǒng)一高效的數(shù)據(jù)結(jié)構(gòu)和方法,提高了跟蹤的精度和速度,實(shí)現(xiàn)了實(shí)時(shí)、高效的手勢(shì)交互。
(3)基于Kinect的人手分割
因?yàn)榛趥鹘y(tǒng)RGB攝像頭的人手分割魯棒性較差,容易受到光照和復(fù)雜背景的影響,本文采用微軟的Kinect傳感器來(lái)獲取深度數(shù)據(jù),通過(guò)使用OpenNI自帶的類獲取人手所在的位置,然后在人手坐標(biāo)領(lǐng)域的三維空間內(nèi)提取出手的部位,接著運(yùn)用膚色模型的分割方法對(duì)獲得的人手部位再進(jìn)行處理,最后對(duì)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于認(rèn)知行為模型的語(yǔ)義手勢(shì)識(shí)別算法與應(yīng)用研究.pdf
- 實(shí)時(shí)手勢(shì)檢測(cè)跟蹤算法及其應(yīng)用研究.pdf
- 基于Kinect深度圖像的手勢(shì)識(shí)別算法研究.pdf
- 基于Kinect的三維手勢(shì)識(shí)別算法研究.pdf
- 基于Kinect的人體檢測(cè)和跟蹤算法研究.pdf
- 基于認(rèn)知行為和敏捷開發(fā)的互聯(lián)網(wǎng)交互模式庫(kù)設(shè)計(jì).pdf
- 認(rèn)知行為
- 基于網(wǎng)絡(luò)的機(jī)電產(chǎn)品虛擬模型庫(kù)與實(shí)時(shí)交互系統(tǒng).pdf
- 基于視覺的手勢(shì)識(shí)別和人體姿態(tài)跟蹤算法研究.pdf
- 基于粒子濾波的手勢(shì)跟蹤算法研究.pdf
- 手勢(shì)檢測(cè)和跟蹤算法的VLSI設(shè)計(jì)研究.pdf
- 基于ARM的Kinect手勢(shì)識(shí)別研究.pdf
- 基于XML的模型庫(kù)系統(tǒng)研究.pdf
- 基于Kinect的動(dòng)態(tài)手勢(shì)識(shí)別.pdf
- 基于Kinect深度信息的手勢(shì)識(shí)別研究.pdf
- 基于KINECT的多粒度手勢(shì)識(shí)別研究.pdf
- 基于Kinect的手勢(shì)識(shí)別技術(shù)研究.pdf
- 基于Android平臺(tái)的手勢(shì)跟蹤技術(shù)研究.pdf
- 認(rèn)知行為理論
- 基于智能模型庫(kù)的石化企業(yè)SDSS研究.pdf
評(píng)論
0/150
提交評(píng)論