版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、作為圖像處理、模式識(shí)別等領(lǐng)域最成功的應(yīng)用之一,人臉識(shí)別由于無(wú)需識(shí)別對(duì)象配合、可遠(yuǎn)程隱蔽操作、識(shí)別過(guò)程友好等特點(diǎn)備受關(guān)注。除了純粹的科研意義,在商業(yè)和執(zhí)法中也有著諸多應(yīng)用,如監(jiān)管、安全、通訊和人機(jī)交互等。經(jīng)過(guò)30年的研究,各種各樣的人臉識(shí)別方法被研究者相繼提出。
隨著壓縮感知理論的興起,作為其核心技術(shù)的稀疏表示,不僅可以降低數(shù)據(jù)分析和處理的成本,而且可以提高數(shù)據(jù)的壓縮效率,因而基于稀疏表示的方法由于其出色的分類性能以及對(duì)噪聲和遮
2、擋的魯棒性受到了研究者的廣泛關(guān)注,紛紛將科研方向?qū)W⒂诨谙∈璞硎镜娜四樧R(shí)別研究上,實(shí)現(xiàn)人臉識(shí)別的更加精準(zhǔn)化,提高人臉識(shí)別技術(shù)。
本文對(duì)基于稀疏表示的人臉識(shí)別方法展開深入研究,并在此基礎(chǔ)上,對(duì)稀疏編碼加入局部敏感性、分組稀疏性以及混合稀疏性的約束,從而提高人臉圖像的分類性能。本論文的主要內(nèi)容和創(chuàng)新點(diǎn)如下:
1)首先介紹了本文所涉及領(lǐng)域與其相關(guān)技術(shù)的研究現(xiàn)狀,概述了本文研究方法所在的人臉識(shí)別框架平臺(tái),繼而歸納總結(jié)了本文
3、主要研究重點(diǎn),即稀疏表示的相關(guān)基礎(chǔ)知識(shí)。
2)提出了基于局部敏感性分組稀疏表示的人臉識(shí)別分類方法。該方法通過(guò)對(duì)稀疏編碼加以局部約束性,保留了測(cè)試樣本和相鄰訓(xùn)練數(shù)據(jù)間的相似性,以獲得更多包含判別信息的有效稀疏表示系數(shù),并分別與兩種分組稀疏方法相結(jié)合,解決了訓(xùn)練樣本字典內(nèi)部結(jié)構(gòu)性問(wèn)題。實(shí)驗(yàn)將在ORL人臉庫(kù),AR人臉庫(kù)以及Extended Yale B人臉庫(kù)上分別進(jìn)行,以驗(yàn)證該方法有效性。
3)提出基于核局部敏感性分組稀疏
4、的極限學(xué)習(xí)機(jī)人臉識(shí)別分類方法。該方法將首先對(duì)于稀疏表征加以局部敏感性與分組稀疏性的雙重約束,既考慮了訓(xùn)練數(shù)據(jù)的字典結(jié)構(gòu)性問(wèn)題,也保留了對(duì)稀疏編碼的局部約束性,并在考慮局部約束性時(shí)加入高斯核函數(shù)以提高約束性能,再將其與極限學(xué)習(xí)機(jī)相結(jié)合。彌補(bǔ)了擁有較快學(xué)習(xí)速度的極限學(xué)習(xí)機(jī)在應(yīng)用于分類時(shí)由于對(duì)噪聲敏感以致準(zhǔn)確性較低,而分類性能較好且對(duì)光照、噪聲等魯棒的稀疏表示方法卻較為耗時(shí)的不足,實(shí)現(xiàn)了在擁有較快識(shí)別速度的同時(shí),保持較好分類識(shí)別性能。本文將在
5、ORL人臉庫(kù),AR人臉庫(kù)以及Extended Yale B人臉庫(kù)上進(jìn)行多組對(duì)比實(shí)驗(yàn),分別測(cè)試該方法的識(shí)別率與分類時(shí)間。
4)提出基于非級(jí)聯(lián)Gabor特征的混合稀疏表示人臉識(shí)別分類方法。該方法將對(duì)光照、姿態(tài)及表情等變化具有較好魯棒性的Gabor特征應(yīng)用到稀疏表征方法中,并充分考慮5尺度和8方向上的所有Gabor特征信息,即用提取得到的人臉圖像的多尺度多方向的Gabor局部特征替換稀疏表征中原先使用的全局特征,并使用主成分分析方法
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于稀疏表示的代價(jià)敏感性人臉識(shí)別算法研究.pdf
- 基于稀疏表示的人臉識(shí)別
- 基于稀疏表示和局部描述的人臉識(shí)別算法研究.pdf
- 基于分組稀疏和權(quán)重稀疏表示的人臉識(shí)別研究.pdf
- 基于稀疏表示的人臉識(shí)別.pdf
- 基于稀疏表示和LGTP的人臉表情識(shí)別.pdf
- 基于稀疏表示的人臉表情識(shí)別.pdf
- 基于稀疏和低秩表示的人臉識(shí)別研究.pdf
- 基于稀疏表示的人臉表情識(shí)別研究.pdf
- 基于稀疏表示的人臉識(shí)別軟件系統(tǒng).pdf
- 基于核稀疏表示的人臉識(shí)別算法研究.pdf
- 基于虛擬樣本和稀疏表示的人臉識(shí)別算法研究.pdf
- 基于低秩分解和稀疏表示的人臉識(shí)別研究.pdf
- 基于稀疏表示和特征提取的人臉識(shí)別算法研究.pdf
- 基于稀疏表示的人臉表情識(shí)別方法研究.pdf
- 基于稀疏表示改進(jìn)的人臉識(shí)別方法研究.pdf
- 基于稀疏表示的人臉識(shí)別的研究及應(yīng)用.pdf
- 基于稀疏表示和子空間的人臉識(shí)別方法研究.pdf
- 基于改進(jìn)的稀疏表示的人臉識(shí)別算法研究.pdf
- 基于核稀疏表示的人臉識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論