版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、情感計(jì)算是國(guó)際上近幾年剛剛興起的、試圖使計(jì)算機(jī)能夠像人類那樣具有理解和表達(dá)情感能力的一個(gè)多學(xué)科交叉的新研究領(lǐng)域,在智能人機(jī)交互中起著重要作用。由于人的面部表情是情緒重要的外在表現(xiàn)方式,所以人臉表情識(shí)別成為情感計(jì)算的重要組成部分。人臉表情識(shí)別是一個(gè)人工智能、計(jì)算機(jī)視覺、圖像處理、心理學(xué)、認(rèn)知學(xué)等多學(xué)科交叉的研究領(lǐng)域。通過表情識(shí)別的研究可以有效地促進(jìn)人機(jī)交互系統(tǒng)的發(fā)展和計(jì)算機(jī)圖像自動(dòng)理解的研究。 本文的研究重點(diǎn)是對(duì)于靜態(tài)圖像的表情識(shí)
2、別方法。在分析和學(xué)習(xí)了一些常用的表情識(shí)別技術(shù)的基礎(chǔ)上,本文提出了一種新的表情識(shí)別的方法,該方法以表情識(shí)別中經(jīng)典方法--PCA算法為算法基礎(chǔ),是一種基于PCA重建方法的表情識(shí)別方法。 該方法的總體思想是將表情識(shí)別的訓(xùn)練集按表情分類形成不同表情子集,然后在子集上進(jìn)行PCA算法,分別得到對(duì)應(yīng)的正交基。對(duì)于待測(cè)圖像,在不同表情子集生成的正交基上分別進(jìn)行投影,之后利用投影坐標(biāo)重建,然后通過比較待測(cè)圖像與哪幅重建圖像最相似來確定待測(cè)圖像的表
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于PCA的人臉識(shí)別方法.pdf
- 基于PCA的人臉識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的表情識(shí)別方法研究.pdf
- 基于Kinect的面部表情識(shí)別方法研究.pdf
- 面部表情識(shí)別方法研究.pdf
- 基于數(shù)據(jù)融合的表情識(shí)別方法研究.pdf
- 人臉表情識(shí)別方法的研究.pdf
- 面部表情識(shí)別方法的研究.pdf
- 基于ND-PCA的人臉識(shí)別方法研究.pdf
- 基于小波變換的PCA人臉識(shí)別方法研究.pdf
- 基于PCA和傅里葉變換的眉毛識(shí)別方法研究.pdf
- 基于小波變換的PCA人臉識(shí)別方法.pdf
- 基于稀疏表示的人臉表情識(shí)別方法研究.pdf
- 基于PCA和SVM的車標(biāo)識(shí)別方法研究.pdf
- 基于改進(jìn)LBP的人臉表情識(shí)別方法.pdf
- 基于局部特征的面部遮擋表情識(shí)別方法研究.pdf
- 基于變換域和PCA的人臉識(shí)別方法研究.pdf
- 任意姿態(tài)人臉表情識(shí)別方法研究.pdf
- 基于卷積網(wǎng)絡(luò)集成的面部表情識(shí)別方法.pdf
- 基于SAE-PCA模型的ASL字母識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論