版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
1、人臉識別在安防、訪問控制、人機交互和數(shù)字娛樂產(chǎn)業(yè)等領(lǐng)域有廣泛的應(yīng)用前景。目前,無約束人臉識別,即識別存在姿態(tài)、表情、光照和遮擋等變化的人臉圖像,還沒有完全解決,阻礙了人臉識別的進一步應(yīng)用。無約束人臉基準點定位(UFLL)或稱為無約束人臉對齊,通過定位人臉基準點將人臉圖像變換至一個標準姿態(tài),能顯著地降低識別難度,提高識別精度,是無約束人臉識別的重要處理步驟。無約束人臉基準點定位的關(guān)鍵是綜合利用各個人臉基準點局部的紋理特征和全局的形狀約束。
2、深度學(xué)習(xí),特別是深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN),通過層級結(jié)構(gòu)能有效地提取數(shù)據(jù)的高層語義特征,已經(jīng)成功應(yīng)用于多個計算機視覺領(lǐng)域。然而,因為訓(xùn)練耗時和有效的訓(xùn)練數(shù)據(jù)缺乏等原因,DCNN目前在人臉基準點定位領(lǐng)域的應(yīng)用還相對較少。本文以無約束人臉識別為應(yīng)用背景,以非特定人的無約束人臉基準點定位為研究對象,探索如何采用新的DCNN元素和訓(xùn)練方式進行人臉基準點定位,在提高訓(xùn)練速度的同時不降低性能,主要研究內(nèi)容和創(chuàng)新性成果包括:
?。?)首次采
3、用修正線性單元(ReLU)、填充卷積層(PCL)和局部響應(yīng)歸一化(LRN)等新的模型結(jié)構(gòu)元素構(gòu)造DCNN應(yīng)用于稀疏人臉基準點定位問題。并提出了基于同一數(shù)據(jù)增強程序的簡便有效的多模型平均方法。采用直接回歸方式訓(xùn)練各個DCNN。利用多層級聯(lián)方式組合多個DCNN提升定位精度。該方法解決了已有DCNN級聯(lián)算法訓(xùn)練耗時的問題,在不降低預(yù)測精度的前提下,相比同等規(guī)模的方法訓(xùn)練速度提升了五倍。并通過細致的實驗說明了 ReLU響應(yīng)具有分布稀疏和生命周期
4、稀疏的性質(zhì)。
?。?)提出了遷移DCNN特征的算法框架,將人臉辨識任務(wù)上訓(xùn)練的DCNN遷移至稠密人臉基準點定位問題,將DCNN作為特征提取器嵌入至局部正則化的級聯(lián)回歸框架,解決了帶標簽的稠密人臉基準點數(shù)據(jù)較少,無法直接訓(xùn)練DCNN的問題?;谠从蚝湍繕擞虻南嗨菩詫w移性能有巨大影響的假定,提出了級聯(lián)遷移的DCNN特征遷移方法以充分利用級聯(lián)框架的特點,并通過與直接使用、普通精調(diào)兩種遷移方式對比,驗證了該假定。級聯(lián)遷移方法在300-
5、W數(shù)據(jù)集上獲得了和當(dāng)時最好方法相當(dāng)?shù)男阅?。進一步,基于參數(shù)化修正線性單元(PReLU)構(gòu)造DCNN應(yīng)用于提出的遷移框架,驗證了該框架對不同模型結(jié)構(gòu)具有適應(yīng)性。
?。?)為了解決級聯(lián)DCNN框架結(jié)構(gòu)復(fù)雜和計算復(fù)雜度高的問題,采用批歸一化(BN)構(gòu)造DCNN以抑制訓(xùn)練時DCNN各層輸入的數(shù)值范圍的變化,從而更快速地訓(xùn)練網(wǎng)絡(luò);采用多任務(wù)學(xué)習(xí)方式,聯(lián)合優(yōu)化稀疏人臉基準點定位和頭部姿態(tài)估計等問題,在多任務(wù)監(jiān)督信號約束下學(xué)習(xí)表達能力更強的特
6、征。然后將DCNN遷移至稠密人臉基準點定位問題。最終可采用單個網(wǎng)絡(luò)直接進行稀疏或稠密人臉基準點定位,從而大大簡化了算法框架,獲得了較快的預(yù)測速度,并獲得了和級聯(lián)DCNN方法相似的定位精度。
?。?)實現(xiàn)了基于DCNN的人臉檢測、人臉確認和人臉辨識算法,與本文提出的人臉基準點定位算法構(gòu)成了完整的人臉識別系統(tǒng)。通過該系統(tǒng)在標準數(shù)據(jù)集上驗證了本文提出的人臉基準點定位算法對人臉識別的促進作用。為后續(xù)繼續(xù)研究基于DCNN的人臉識別算法提供
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識別研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測算法研究.pdf
- 基于面部基準點對齊的人臉識別方法研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識別的研究與應(yīng)用.pdf
- 基于不變量約束的人臉基準點提取算法研究.pdf
- 基于端到端深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識別算法.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉深度特征提取與應(yīng)用方法研究.pdf
- 基于卷積特征的人臉征點定位研究.pdf
- 基于級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測方法研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人體姿勢估計研究.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的人臉識別算法研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉圖像識別研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識別研究與實現(xiàn).pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情和性別識別.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測和性別識別研究.pdf
- 貼片機基準點定位視覺系統(tǒng)關(guān)鍵技術(shù)研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識別及硬件實現(xiàn).pdf
- 基于全卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測算法研究.pdf
- 基于輕量級卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測算法.pdf
- 基于自編碼和卷積神經(jīng)網(wǎng)絡(luò)的人臉識別算法研究.pdf
評論
0/150
提交評論