基于Kinect的虛擬機器人的運動設(shè)計方法研究.pdf_第1頁
已閱讀1頁,還剩95頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、近些年來,機器人開始走進人們的日常生活中,日益改善著人們的生活方式。而目前機器人與人的人機交互卻沒有與之相應(yīng)發(fā)展起來。目前人與機器人交互方式仍然是鼠標、鍵盤、遙控器等傳統(tǒng)方式,交互方式單一且不靈活,難以滿足機器人日益增長的需求,人機交互的問題在一定程度上制約了機器人的發(fā)展。
  虛擬機器人作為真實機器人的數(shù)字化形態(tài),其運動方式與真實機器人相同,在機器人仿真等方面有著得天獨厚的優(yōu)勢。本文通過研究虛擬機器人的運動設(shè)計與控制來分析研究真

2、實機器人的人機交互。其中涉及到運動數(shù)據(jù)的捕獲問題,目前常用的運動捕獲方法如機械式、光學(xué)式、電磁式等方法成本高、環(huán)境要求高,使用很不方便。因此,本文采用深度圖像,提出一種新的運動數(shù)據(jù)提取方法。本文用 Kinect設(shè)備來獲取深度圖像,深度圖像中包含了空間三維信息,并且不受光照等環(huán)境因素的影響。本文的主要工作和內(nèi)容主要集中在以下幾個方面:
  首先,本文對提取出的深度圖像進行了預(yù)處理,由于本文場景固定,因此采用背景差分的方法,提取出運動

3、人體的前景深度圖像。對于提取出來的運動人體深度圖像,對其進行中值濾波進行降噪和邊緣平滑,為后續(xù)處理打下基礎(chǔ)。
  其次,本文基于深度圖,提出了一種新的運動數(shù)據(jù)獲取方法,即通過對帶有三維信息的運動人體深度圖像進行骨架提取,通過骨架定位關(guān)節(jié)點,從而根據(jù)各個關(guān)節(jié)點的三維信息計算出各個關(guān)節(jié)的運動信息,并驗證了該方法的有效可行性。
  再次,針對骨架的提取方法,本文將基于細化的骨架提取方法和基于距離的骨架提取方法相結(jié)合,結(jié)合了二者各自

4、的優(yōu)點。在骨架提取中遇到的遮擋問題,本文提出通過深度信息提取遮擋部位,并結(jié)合Hough變換和初始人體標定對人體運動骨架進行修復(fù)。針對本文出現(xiàn)的毛刺問題,提出基于連通長度與斜率的方法,快速有效的解決該問題。并且對上述方法進行了實驗分析與對比。
  然后,對于關(guān)節(jié)點定位,我們提出了一種基于初始人體標定的解決方法,有效解決了肩關(guān)節(jié)下沉等問題。并且詳細介紹了本文關(guān)節(jié)運動數(shù)據(jù)的計算方法和過程,對兩幀之間的運動進行插值,使運動平滑,提出了一種

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論