人臉識(shí)別中的深度特征學(xué)習(xí)方法研究.pdf_第1頁(yè)
已閱讀1頁(yè),還剩101頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、人臉識(shí)別是根據(jù)人的臉部特征信息進(jìn)行身份確認(rèn)的過程。伴隨著人工智能技術(shù)的發(fā)展,人臉識(shí)別技術(shù)越來越受到學(xué)術(shù)界和產(chǎn)業(yè)界的廣泛關(guān)注。人臉識(shí)別的關(guān)鍵就在于怎樣學(xué)習(xí)區(qū)分性和魯棒性的人臉特征表達(dá)。目前,基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的人臉表達(dá)學(xué)習(xí)是人臉識(shí)別領(lǐng)域的主流方法,該方法利用CNN的深度結(jié)構(gòu)通過逐層非線性映射的方式學(xué)習(xí)有效的人臉表達(dá),在條件受控的人臉識(shí)別任務(wù)(LFW)中已經(jīng)達(dá)到甚至超過了人

2、工識(shí)別的結(jié)果,然而在復(fù)雜環(huán)境下的人臉識(shí)別任務(wù)(IJB-A)中仍然面臨著嚴(yán)峻的挑戰(zhàn),仍需進(jìn)一步研究新的技術(shù)和方法來學(xué)習(xí)區(qū)分性和魯棒性更強(qiáng)的人臉特征表達(dá),以提升復(fù)雜環(huán)境下的人臉識(shí)別性能。
  本文針對(duì)復(fù)雜環(huán)境下的人臉識(shí)別問題,借助于CNN卷積層輸出高效地提取人臉局部深度特征(Local Deep Features,LDF)集合,在此基礎(chǔ)上從統(tǒng)計(jì)建模的角度出發(fā)有效聚合人臉LDF,從而得到有效的人臉表達(dá)并應(yīng)用于人臉識(shí)別系統(tǒng)中。主要研究?jī)?nèi)容

3、包含如下:
  首先,本文有效利用CNN網(wǎng)絡(luò)的局部感知特性,卷積層輸出特征映射圖的每個(gè)空間單元都對(duì)應(yīng)人臉圖像中特定的局部感受域,每個(gè)空間單元上提取的特征向量可以表征原始圖像中某個(gè)局部區(qū)域的特性。借助于CNN的卷積層激活輸出能夠高效地提取人臉LDF集合,不僅有效地克服人臉全局深度特征缺乏幾何不變性的問題,并且緩解了局部特征學(xué)習(xí)過程中對(duì)臉部特征點(diǎn)精確定位算法的依賴。
  其次,本文提出了結(jié)合CNN不同卷積層信息的概率視覺碼本建模

4、的FisherVector(FV)編碼方法實(shí)現(xiàn)對(duì)LDF的有效聚合,其中一個(gè)卷積層用作人臉LDF提取,緊接著一個(gè)卷積層用作LDF的指示變量,指導(dǎo)LDF按照不同的視覺單元進(jìn)行聚類,每個(gè)聚類中的特征分布采用單高斯建模,得到基于CNN的混合高斯模型(Gaussain Mixture Model,GMM)視覺碼本(CNN-GMM),有效改善了傳統(tǒng)GMM模型對(duì)高維LDF分布的建模能力,顯著提升人臉識(shí)別系統(tǒng)的性能。鑒于CNN-GMM模型沒有對(duì)人臉LD

5、F的維間相關(guān)性信息進(jìn)行有效建模,本文還提出了基于混合因子分析(Mixtures Factor Analyzers,MFA)模型的FV編碼方法,利用具有全協(xié)方差矩陣的GMM模型對(duì)人臉LDF分布進(jìn)行建模,并推導(dǎo)得到MFA模型,將其作為概率視覺碼本提取人臉FV表達(dá),進(jìn)一步提升識(shí)別系統(tǒng)的性能。
  再者,為了有效聚合人臉LDF的同時(shí)降低人臉表達(dá)的維度,本文提出了基于全變量建模(Total Variability Modelling,TVM

6、)的人臉低維子空間特征表達(dá)學(xué)習(xí)方法。采用不同的通用背景模型分別構(gòu)建TVM系統(tǒng),將人臉高斯超矢量表達(dá)轉(zhuǎn)換成低維子空間中的全變量因子表示(iVector),維持性能優(yōu)勢(shì)的同時(shí)極大降低特征表達(dá)的維數(shù)。
  最后,本文提出一種交叉雙線性網(wǎng)絡(luò)結(jié)構(gòu)有效結(jié)合CNN不同層信息,將前端LDF提取和后端人臉表達(dá)學(xué)習(xí)集成到統(tǒng)一的CNN中,并通過BP算法有監(jiān)督地對(duì)兩個(gè)模塊進(jìn)行同步優(yōu)化,優(yōu)勢(shì)互補(bǔ),較人臉全局深度特征表達(dá),該方法學(xué)習(xí)得到的人臉表達(dá)性能優(yōu)勢(shì)明顯

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論