

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、近年來(lái),手勢(shì)識(shí)別逐漸變成人機(jī)交互中的一種重要手段。相對(duì)于靜態(tài)手勢(shì)識(shí)別而言,動(dòng)態(tài)手勢(shì)識(shí)別在現(xiàn)實(shí)應(yīng)用中更加廣泛。而手勢(shì)軌跡是運(yùn)動(dòng)特征中的一種,其簡(jiǎn)單、魯棒的特性使其廣泛地應(yīng)用于行為識(shí)別中。論文從自然、直觀(guān)、實(shí)時(shí)的人機(jī)交互角度出發(fā),結(jié)合手勢(shì)圖像序列的冗余特性和手勢(shì)軌跡序列的特征,基于隱馬爾科夫模型(Hidden Markov Model,HMM)對(duì)動(dòng)態(tài)手勢(shì)軌跡識(shí)別中的關(guān)鍵問(wèn)題展開(kāi)研究。針對(duì)動(dòng)態(tài)手勢(shì)序列中存在著大量的冗余信息,重點(diǎn)研究了簡(jiǎn)單、快
2、捷的關(guān)鍵幀提取方法和手勢(shì)特征提取方法來(lái)識(shí)別動(dòng)態(tài)手勢(shì),實(shí)現(xiàn)了動(dòng)態(tài)手勢(shì)軌跡的實(shí)時(shí)識(shí)別。具體研究工作如下:
1.針對(duì)傳統(tǒng)動(dòng)態(tài)手勢(shì)識(shí)別方法的計(jì)算復(fù)雜度高、實(shí)時(shí)性差、識(shí)別率低等問(wèn)題,提出一種基于幀間差異度(Degree of Difference between Frames,DDF)和HMM的實(shí)時(shí)動(dòng)態(tài)手勢(shì)軌跡識(shí)別方法。該方法無(wú)需跟蹤動(dòng)態(tài)手勢(shì)的所有微小細(xì)節(jié),僅通過(guò)DDF來(lái)提取關(guān)鍵幀,再對(duì)關(guān)鍵幀圖像通過(guò)基于膚色的手勢(shì)分割方法獲得目標(biāo)區(qū)域。
3、計(jì)算手勢(shì)目標(biāo)區(qū)域的中心到軌跡序列中心的距離作為軌跡的數(shù)據(jù)流,軌跡數(shù)據(jù)流經(jīng)過(guò)時(shí)間規(guī)整得到 HMM模型的輸入向量。再構(gòu)造 HMM模型來(lái)建立動(dòng)態(tài)手勢(shì)模型,最后使用訓(xùn)練得到的最佳轉(zhuǎn)移概率來(lái)識(shí)別未知的動(dòng)態(tài)手勢(shì)類(lèi)別。實(shí)驗(yàn)結(jié)果表明,該方法具有非常好的魯棒性及實(shí)時(shí)性,數(shù)字0~9的平均識(shí)別率達(dá)到87.67%、平均時(shí)間效率為0.46s。
2.針對(duì)關(guān)鍵幀提取算法得到的圖像中包含信息不足而導(dǎo)致可識(shí)別的種類(lèi)少以及識(shí)別率低等問(wèn)題,提出一種基于分塊特征(B
4、lock Feature of DDF,BF_DDF)的關(guān)鍵幀提取方法和膚色聚類(lèi)的手勢(shì)分割相結(jié)合的動(dòng)態(tài)手勢(shì)軌跡識(shí)別方法。該方法首先計(jì)算動(dòng)態(tài)手勢(shì)序列間的差異度,通過(guò)BF_DDF提取得到比較準(zhǔn)確的關(guān)鍵幀序列。使用基于膚色聚類(lèi)的方法對(duì)關(guān)鍵幀序列圖像進(jìn)行手勢(shì)分割得到目標(biāo)區(qū)域。最終,選取軌跡角度作為特征,使用HMM方法進(jìn)行動(dòng)態(tài)手勢(shì)建模和識(shí)別。實(shí)驗(yàn)結(jié)果表明,該方法在選取關(guān)鍵幀的同時(shí),可以準(zhǔn)確獲取動(dòng)態(tài)手勢(shì)信息,提高了動(dòng)態(tài)手勢(shì)識(shí)別的實(shí)時(shí)性,同時(shí)保證了手
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于HMM的運(yùn)動(dòng)手勢(shì)軌跡識(shí)別.pdf
- 基于時(shí)空軌跡特征的HMM動(dòng)態(tài)手勢(shì)識(shí)別研究.pdf
- 基于HMM和ANN的基因識(shí)別方法.pdf
- 膚色和手勢(shì)識(shí)別方法研究.pdf
- 基于運(yùn)動(dòng)軌跡的手勢(shì)識(shí)別研究及應(yīng)用.pdf
- 基于SVM和HMM混合模型的動(dòng)態(tài)手勢(shì)識(shí)別技術(shù)研究.pdf
- 基于HMM模型的眉毛識(shí)別方法研究.pdf
- 基于視頻的手勢(shì)識(shí)別方法研究.pdf
- 基于形狀特征的手勢(shì)識(shí)別方法研究.pdf
- 基于視覺(jué)的動(dòng)態(tài)手勢(shì)跟蹤與軌跡識(shí)別研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)和HMM的眉毛識(shí)別方法研究.pdf
- 基于Kinect手勢(shì)識(shí)別方法的研究與實(shí)現(xiàn).pdf
- 基于HMM模型的人臉識(shí)別方法研究.pdf
- 手形特征與運(yùn)動(dòng)軌跡相結(jié)合的動(dòng)態(tài)手勢(shì)識(shí)別.pdf
- 基于小波MFCC和HMM的列車(chē)?guó)Q笛識(shí)別方法研究.pdf
- 基于BP_Adaboost和HMM的湖南方言識(shí)別方法研究.pdf
- 基于運(yùn)動(dòng)跟蹤的動(dòng)態(tài)手勢(shì)識(shí)別算法研究.pdf
- 面向家庭服務(wù)機(jī)器人的動(dòng)態(tài)手勢(shì)識(shí)別方法研究.pdf
- 基于HMM模型的順式調(diào)控模塊識(shí)別方法的研究.pdf
- 基于Kinect深度信息的靜態(tài)手勢(shì)識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論