2023年全國(guó)碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩178頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、本文所開展的基于線性特征子空間和環(huán)形對(duì)稱Gabor變換的人臉識(shí)別方法的研究,主要從兩個(gè)方面進(jìn)行,一方面是對(duì)主成分分析和線性判別分析等基于線性特征子空間的人臉識(shí)別方法的研究,另一方面是對(duì)基于環(huán)形對(duì)稱Gabor變換特征的人臉識(shí)別方法的研究。研究的主要目的,是提高算法對(duì)于人臉成像過程中存在的諸多變化因素的魯棒性,這些因素包括成像環(huán)境的光照和成像角度的變化、識(shí)別對(duì)象的表情和姿態(tài)的變化,以及人臉圖像的旋轉(zhuǎn)和平移等。 本文中所做的主要工作包

2、括: 對(duì)基于線性特征子空間的人臉識(shí)別方法進(jìn)行了深入的理論和方法研究,其中包括主成分分析方法和線性判別分析方法,在此基礎(chǔ)上,分別提出了基于加權(quán)主成分分析的方法、基于圖像校正和位平面融合的廣義主成分分析方法、特征塊方法以及結(jié)合主成分分析與分步線性判別分析的方法等四種人臉識(shí)別的新方法;在對(duì)基于Gabor變換特征的人臉識(shí)別方法的研究基礎(chǔ)上,從理論和實(shí)驗(yàn)方面對(duì)環(huán)形對(duì)稱Gabor變換進(jìn)行了詳細(xì)的研究,分析了其用于人臉識(shí)別的可能性,提出了采用

3、環(huán)形對(duì)稱Gabor變換的人臉識(shí)別方法。通過在ORL、AR、Yale和UMIST等人臉數(shù)據(jù)庫(kù)上的實(shí)驗(yàn),驗(yàn)證了本文所提出的改進(jìn)方法或新方法相對(duì)于現(xiàn)有方法的優(yōu)越性。 本文的創(chuàng)新之處在于: 1)提出了基于加權(quán)主成分分析的人臉識(shí)別方法通過深入研究主成分分析方法,我們從理論和實(shí)驗(yàn)出發(fā),觀察分析了特征臉空間中不同的特征分量,即特征臉對(duì)于人臉圖像的重建和分類的作用的不同,提出了在加權(quán)的主成分空間中進(jìn)行人臉識(shí)別的改進(jìn)方法。 通過對(duì)

4、傳統(tǒng)的主成分空間進(jìn)行與本征值矩陣有關(guān)的加權(quán),使各分量具有相等的方差,從而歸一化的加權(quán)主成分空間,從而使判別性能得以改善。我們證明了加權(quán)主成分空間中的一些有用性質(zhì),指出,在加權(quán)的主成分分析中,采用歐氏距離測(cè)度進(jìn)行分類,等價(jià)于在傳統(tǒng)主成分分析空間中采用馬氏距離測(cè)度進(jìn)行分類,這就從理論上給出了所提出的方法能夠提高識(shí)別性能的原因,此外,用于重建目的時(shí),采用較大的本征值所對(duì)應(yīng)的本征向量構(gòu)成變換矩陣,其重建與傳統(tǒng)的主成分分析相同。 通過實(shí)驗(yàn)

5、,我們還分析了不同特征分量分別在傳統(tǒng)的主成分分析和加權(quán)的主成分分析中的分布情況,并指出,在傳統(tǒng)的主成分分析中,某些對(duì)分類意義不大但取值很大的分量,主導(dǎo)了特征距離的計(jì)算,使其它取值較小但對(duì)分類重要的分量的作用被淹沒。另外,實(shí)驗(yàn)結(jié)果也說明,即使在加權(quán)的主成分分析中,特征的選取也要按照本征值由大到小的順序進(jìn)行。在AR和ORL兩個(gè)數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果說明,本文所提出的方法在識(shí)別率方面明顯超過傳統(tǒng)方法; 2)提出了基于圖像校正和位平面融合的

6、廣義主成分分析人臉識(shí)別方法根據(jù)人臉的左右對(duì)稱特性,提出了對(duì)圖像中光照方向的變化進(jìn)行校正和補(bǔ)償?shù)姆椒?,從圖像預(yù)處理的角度對(duì)人臉圖像在成像過程中存在的光源向左或右偏移引起光照左右強(qiáng)弱變化的問題進(jìn)行初步校正和補(bǔ)償。同時(shí),通過對(duì)人臉圖像的位平面分解,分析了各個(gè)位平面不同的特性,及其對(duì)于圖像結(jié)構(gòu)和紋理的不同貢獻(xiàn),并將其與類間和類內(nèi)差異相聯(lián)系。我們指出,經(jīng)過了直方圖均衡處理的圖像,其0、1、5、6、7位平面主要表現(xiàn)結(jié)構(gòu)特征,而2、3、4位平面主要表

7、現(xiàn)紋理特征。結(jié)構(gòu)特征代表了同一個(gè)體所有不同圖像的共性,即類間差異,而紋理特征則代表了同一個(gè)體不同圖像間的差異,即類內(nèi)差異。以此為基礎(chǔ),本文提出了一種基于圖像校正和位平面融合的廣義主成分分析方法。我們?cè)谟?xùn)練階段構(gòu)造出主要由樣本的結(jié)構(gòu)信息形成的只與類別有關(guān)的類標(biāo)志,并結(jié)合紋理信息將樣本投影到復(fù)數(shù)空間,并在此空間中形成虛擬人臉樣本,最終通過在該復(fù)數(shù)空間上的廣義主成分分析實(shí)現(xiàn)有效的特征提取,從而提高了算法對(duì)于光照和表情等的不變性; 3

8、)提出了人臉識(shí)別的特征塊方法由于需要將人臉圖像表示為向量形式,傳統(tǒng)的主成分分析方法會(huì)遇到大規(guī)模的矩陣和向量相乘等復(fù)雜的計(jì)算問題,同時(shí),作為一種基于整幅人臉圖像的方法,傳統(tǒng)的主成分分析方法對(duì)于遮擋和表情變化等局部變形非常敏感。為此,我們研究了基于圖像分塊的主成分分析方法,仿照特征臉方法的概念,提出了人臉識(shí)別的特征塊方法。通過實(shí)驗(yàn)驗(yàn)證,在適當(dāng)尺寸的圖像分塊下,算法的速度得到了顯著的提高,同時(shí),結(jié)合我們提出的與此配合的基于塊匹配的分類規(guī)則,在

9、一定程度上提高了算法對(duì)于遮擋和表情等局部變形的魯棒性; 4)提出了結(jié)合主成分分析與分步線性判別分析的人臉識(shí)別方法通過對(duì)線性判別分析方法的深入研究,分析了其存在的兩個(gè)主要問題,首先是小樣本問題,即在訓(xùn)練樣本的數(shù)目小于圖像的像素?cái)?shù)目時(shí),類內(nèi)散布矩陣為奇異矩陣,因此,線性判別分析中的廣義本征方程無法求解的問題,其次是由于類間散布矩陣的經(jīng)典定義中不區(qū)分不同類的貢獻(xiàn)大小,從而導(dǎo)致通常的線性判別分析準(zhǔn)則函數(shù)的最優(yōu)化與識(shí)別率的最大化不直接相關(guān)

10、的問題。 解決上述兩個(gè)問題的有效方法之一就是采用基于加權(quán)類間散布矩陣的變形的準(zhǔn)則函數(shù)。但是,研究中發(fā)現(xiàn),系統(tǒng)的識(shí)別性能在很大程度上依賴與加權(quán)函數(shù)的選擇,為此,我們借助于近來提出的解決加權(quán)Fisher準(zhǔn)則函數(shù)權(quán)函數(shù)選擇問題的分步線性判別分析方法,結(jié)合主成分分析降維方法,提出了結(jié)合主成分分析與分步線性判別分析的人臉識(shí)別方法,解決了F-LDA方法由于計(jì)算復(fù)雜性問題不能直接用于人臉識(shí)別的問題,在實(shí)驗(yàn)中取得了優(yōu)于現(xiàn)有方法的識(shí)別結(jié)果;

11、 5)提出了采用環(huán)形對(duì)稱Gabor變換的人臉識(shí)別方法由于其良好的空域和頻域局部分析特性,以及與哺乳動(dòng)物視覺響應(yīng)特性的一致性,Gabor變換在人臉識(shí)別中受到了人們的廣泛關(guān)注。 我們深入研究了現(xiàn)有的基于Gabor變換特征的人臉識(shí)別方法,分析了其中兩種主要的特征提取方法,即首先進(jìn)行亞取樣,然后形成增廣矩陣的方法和提取關(guān)鍵點(diǎn)或基準(zhǔn)點(diǎn)的方法。作為一種有意義的探討,我們?cè)诒疚闹惺状翁岢隽瞬捎铆h(huán)形對(duì)稱Gabor變換的人臉識(shí)別方法。在對(duì)環(huán)形對(duì)

12、稱Gabor變換的定義、概念和性質(zhì)進(jìn)行全面分析和討論的基礎(chǔ)上,我們對(duì)人臉圖像在環(huán)形對(duì)稱Gabor變換域中的表現(xiàn)性質(zhì)進(jìn)行了比較全面的理論和實(shí)驗(yàn)分析與觀察,并與傳統(tǒng)的Gabor變換進(jìn)行了對(duì)比分析,通過采用環(huán)形對(duì)稱Gabor。變換進(jìn)行簡(jiǎn)單的眼睛定位等實(shí)驗(yàn),發(fā)現(xiàn)環(huán)形對(duì)稱Gabor變換比傳統(tǒng)的Gabor變換在變換的旋轉(zhuǎn)不變性和數(shù)據(jù)的冗余性方面都具有明顯的優(yōu)勢(shì)。 在此基礎(chǔ)上,我們對(duì)采用環(huán)形對(duì)稱Gabor變換的人臉識(shí)別方法進(jìn)行了全面深入的研究

13、,提出了按照變換域中的局部極點(diǎn)的大小或高度確定人臉模型圖基準(zhǔn)點(diǎn)或節(jié)點(diǎn)的研究思路,并給出了基于對(duì)稱Gabor變換的人臉識(shí)別系統(tǒng)的概念框圖,進(jìn)一步地,本文提出了基于環(huán)形對(duì)稱Gabor變換的三種具體的人臉識(shí)別實(shí)現(xiàn)方案,分別是按圖像分塊局部極值排序的單通道識(shí)別算法、按圖像分塊局部極值排序的多通道特征融合識(shí)別算法和按圖像分塊局部極值排序的多通道分類器融合識(shí)別算法,在ORL人臉庫(kù)上的識(shí)別實(shí)驗(yàn)中,最高識(shí)別率高達(dá)98.5﹪,比采用傳統(tǒng)Gabor變換的算

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論