基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情和性別識(shí)別.pdf_第1頁
已閱讀1頁,還剩58頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、人臉包含性別、表情、身份、年齡等大量信息,在公共社會(huì)安全、經(jīng)濟(jì)財(cái)產(chǎn)安全、軍事、反恐刑偵、人機(jī)交互等電子信息安全領(lǐng)域發(fā)展的迫切驅(qū)動(dòng)下,人臉表情和性別識(shí)別技術(shù)已經(jīng)成為一項(xiàng)極具發(fā)展?jié)摿Φ那把丶夹g(shù),也是當(dāng)前計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn)。讓計(jì)算機(jī)具有人的智能,代替人類進(jìn)行記憶、識(shí)別,實(shí)現(xiàn)真正的智能時(shí)代具有十分重要的應(yīng)用價(jià)值。然而人臉表情和性別識(shí)別技術(shù)也是計(jì)算機(jī)視覺領(lǐng)域的難點(diǎn)所在,其主要原因是人臉圖像在獲取過程中,受到光照、表情、姿態(tài)、遮擋物等環(huán)境因素

2、以及拍攝行為等因素的影響。因而,一個(gè)出色的人臉表情和性別識(shí)別算法應(yīng)該對(duì)這些因素不敏感。
  卷積神經(jīng)網(wǎng)絡(luò)是一種新型的神經(jīng)網(wǎng)絡(luò),它將傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)技術(shù)相結(jié)合,具有局部感受野區(qū)域、層次結(jié)構(gòu)化、特征提取和分類過程相結(jié)合的全局訓(xùn)練特點(diǎn),在圖像處理領(lǐng)域取得了巨大的成功。卷積神經(jīng)網(wǎng)絡(luò)主要有兩個(gè)特性,第一個(gè)是神經(jīng)元之間采用局部連接策略,第二個(gè)是同一層之間的神經(jīng)元權(quán)值共享,采取局部連接和權(quán)值共享的網(wǎng)絡(luò)結(jié)構(gòu)降低了模型本身的復(fù)雜度,減少

3、了需要訓(xùn)練的參數(shù)個(gè)數(shù),這種網(wǎng)絡(luò)結(jié)構(gòu)可以獲得某種程度上的平移、尺度和形變不變性。
  本論文的主要工作如下:
  1、首先系統(tǒng)的闡述了當(dāng)前人臉表情識(shí)別和性別識(shí)別的國內(nèi)外研究現(xiàn)狀,概述了深度學(xué)習(xí)的起源以及取得的一些成果。然后介紹了神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程,著重介紹了卷積神經(jīng)網(wǎng)絡(luò)的算法原理和經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)。
  2、本論文主要研究了基于卷積神經(jīng)網(wǎng)絡(luò)下的人臉表情和性別識(shí)別。針對(duì)表情識(shí)別,首先根據(jù)人臉表情任務(wù)的特點(diǎn),修改了AlexNe

4、t網(wǎng)絡(luò)結(jié)構(gòu),設(shè)計(jì)了一個(gè)新的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并在網(wǎng)絡(luò)中添加了批規(guī)范化層,使得準(zhǔn)確率有3%左右的提升;然后根據(jù)表情識(shí)別采用的數(shù)據(jù)集樣本數(shù)量,采用了微調(diào)的訓(xùn)練機(jī)制,在GoogLeNet上,與從頭訓(xùn)練的方式相比,準(zhǔn)確率有了2%左右的提升,并且在使用VGGNet進(jìn)行微調(diào)時(shí),準(zhǔn)確率達(dá)到了最高的71.27%,證明了針對(duì)本文使用的數(shù)據(jù)集,微調(diào)的策略優(yōu)于重新訓(xùn)練;在利用GoogLeNet進(jìn)行微調(diào)實(shí)驗(yàn)時(shí),還比較了Hinge損失函數(shù)和Softmax損失函數(shù)

5、的性能,發(fā)現(xiàn)后者優(yōu)化前者;最后針對(duì)現(xiàn)在的研究趨勢(shì),設(shè)計(jì)了一個(gè)多網(wǎng)絡(luò)來進(jìn)行融合,通過實(shí)驗(yàn)發(fā)現(xiàn),在較小的數(shù)據(jù)集上,多網(wǎng)絡(luò)的性能比單網(wǎng)絡(luò)差。針對(duì)性別識(shí)別,在VGGNet的基礎(chǔ)上,設(shè)計(jì)了一個(gè)3層的卷積神經(jīng)網(wǎng)絡(luò),在adience數(shù)據(jù)集上,準(zhǔn)確率達(dá)到了90.82%,在mygender數(shù)據(jù)集上準(zhǔn)確率達(dá)到了97.10%;然后利用VGGNet在mygender數(shù)據(jù)集上進(jìn)行微調(diào),準(zhǔn)確率達(dá)到了99.44%。
  3、本文使用卷積神經(jīng)網(wǎng)絡(luò)在人臉表情和性別

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論