版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、人體行為識(shí)別是計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn)和難點(diǎn),在智能監(jiān)控、高級(jí)人機(jī)交互、體育運(yùn)動(dòng)分析和基于語義的視頻檢索等方面有著重要的意義和廣闊的應(yīng)用前景。計(jì)算機(jī)理解人體動(dòng)作和行為將成為未來高層計(jì)算機(jī)視覺技術(shù)發(fā)展的重要方向。
目前,人體行為識(shí)別的研究尚處于初級(jí)階段,盡管在單一背景的簡單動(dòng)作識(shí)別上取得了一定的進(jìn)展,但是由于人體行為的復(fù)雜性、特征提取的時(shí)間復(fù)雜度高等問題,真實(shí)場景下的人體行為識(shí)別仍然面臨著許多困難,如實(shí)時(shí)性差、識(shí)別率未達(dá)到實(shí)
2、際應(yīng)用等。針對上述情況,本文圍繞基于視頻的人體行為識(shí)別展開研究,進(jìn)行了以下三個(gè)方面的工作:
1.查閱了大量文獻(xiàn),對現(xiàn)有的基于局部時(shí)空特征的人體行為識(shí)別方法的進(jìn)展的進(jìn)行詳細(xì)概述,重點(diǎn)介紹了局部時(shí)空特征的檢測算子和描述算子。
為本文后續(xù)工作的展開提供理論支持。
2.提出了一種基于CUDA的HOG特征算子的快速計(jì)算方法。針對HOG特征提取的時(shí)間復(fù)雜度高的問題,根據(jù)CPU下的HOG特征算子,研究了GPU
3、下的HOG特征快速計(jì)算方法。在GPU下分別對HOG特征的梯度計(jì)算、直方圖統(tǒng)計(jì)、歸一化處理、線性SVM分類器檢測部分,特征提取的五個(gè)關(guān)鍵步驟都分別設(shè)計(jì)了相應(yīng)的并行模塊。實(shí)驗(yàn)結(jié)果表明GPU下的HOG特征計(jì)算相較于CPU下的HOG特征計(jì)算平均提高了約10倍的速度。
3.提出了一種基于表觀碼本同現(xiàn)的特征包模型算法。針對傳統(tǒng)特征包模型中的缺點(diǎn),即簡單的用單個(gè)碼本來表示每個(gè)聚類中心的做法,本文引入了表觀碼本同現(xiàn)的方法來增加碼本之間的相
4、關(guān)性。首先利用局部特征檢測算子和特征描述算子計(jì)算出特征向量。接著利用k-means(k-均值聚類)算法對所有的訓(xùn)練視頻特征向量進(jìn)行聚類,構(gòu)建k個(gè)碼本項(xiàng)。然后對k個(gè)碼本計(jì)算共現(xiàn)碼本矩陣和共現(xiàn)碼本相關(guān)度矩陣,根據(jù)共現(xiàn)碼本相關(guān)度矩陣得出相關(guān)度最大的k對共現(xiàn)碼本。然后對訓(xùn)練視頻和測試視頻分別計(jì)算k個(gè)碼本的原碼本直方圖和k對共現(xiàn)碼本的直方圖。最后合并原碼本直方圖和共現(xiàn)碼本直方圖組成一個(gè)新的碼本直方圖,這樣每個(gè)視頻特征向量由原碼本直方圖和表觀碼本共
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于局部時(shí)空興趣點(diǎn)的人體行為識(shí)別方法研究.pdf
- 基于局部時(shí)空特征碼本的人體行為識(shí)別方法研究及實(shí)現(xiàn).pdf
- 基于視頻局部時(shí)空特征的人體行為識(shí)別.pdf
- 基于時(shí)空局部特征的人體行為識(shí)別方法研究.pdf
- 基于局部時(shí)空特征的人體行為切分與識(shí)別方法若干關(guān)鍵技術(shù)研究.pdf
- 基于局部時(shí)空特征的人體行為識(shí)別以及打架行為檢測.pdf
- 局部時(shí)空特征及部件的視頻人體動(dòng)作識(shí)別方法研究.pdf
- 基于局部時(shí)空特征的視頻人體動(dòng)作識(shí)別研究.pdf
- 基于時(shí)空興趣點(diǎn)的人體行為識(shí)別方法研究.pdf
- 基于形狀特征的人體行為識(shí)別方法研究.pdf
- 基于分層時(shí)空特征模型的人體動(dòng)作識(shí)別方法研究.pdf
- 行為識(shí)別中基于局部時(shí)空關(guān)系的特征模型研究.pdf
- 基于稀疏時(shí)空特征的人體行為識(shí)別研究.pdf
- 基于模型的人體行為識(shí)別方法研究.pdf
- 基于多特征融合的人體基本行為識(shí)別方法研究.pdf
- 基于視頻流的人體行為識(shí)別方法研究.pdf
- 基于Kinect相機(jī)的人體行為識(shí)別方法研究.pdf
- 基于時(shí)空特征和分層模型的人體行為識(shí)別研究.pdf
- 基于局部特征的人臉識(shí)別方法研究與實(shí)現(xiàn).pdf
- 基于改進(jìn)稠密軌跡的人體行為識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論