版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、人體行為識(shí)別是智能視頻實(shí)時(shí)監(jiān)控中非常重要的一部分,該研究對(duì)于維護(hù)公共安全、打擊犯罪、國(guó)家防衛(wèi)都有著巨大意義。人體行為識(shí)別的研究涉及到圖像處理技術(shù)、計(jì)算機(jī)視覺技術(shù)、模式識(shí)別技術(shù)等多個(gè)領(lǐng)域知識(shí)。傳統(tǒng)人體識(shí)別技術(shù)需要預(yù)先進(jìn)行圖像的特征提取,然后使用機(jī)器學(xué)習(xí)算法對(duì)其進(jìn)行識(shí)別和分類,主要缺點(diǎn)是需要對(duì)每個(gè)要提取的特征都要有較為深入的先驗(yàn)知識(shí),在不同的應(yīng)用場(chǎng)景下,需要人為設(shè)計(jì)提取不同的特征。
深度學(xué)習(xí)理論的發(fā)展,給圖像處理等領(lǐng)域帶來了嶄新的
2、思路和無限可能。其中最為代表之一的卷積神經(jīng)網(wǎng)絡(luò)更是以其可以直接輸入圖像本身、無需另外設(shè)計(jì)特征等優(yōu)勢(shì)成為新的研究熱點(diǎn)。卷積神經(jīng)網(wǎng)絡(luò)通過將網(wǎng)絡(luò)稀疏連接以及共享權(quán)值等方式,有效降低網(wǎng)絡(luò)的復(fù)雜度,增強(qiáng)了模型的訓(xùn)練效果,從而廣泛地應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域中的目標(biāo)識(shí)別、人臉識(shí)別和圖像分類等問題中。
本文的主要研究工作有:
設(shè)計(jì)了一個(gè)隨機(jī)Dropout卷積神經(jīng)網(wǎng)絡(luò)模型用于人體行為識(shí)別任務(wù)。針對(duì)卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練樣本較少時(shí)存在的過擬合現(xiàn)
3、象,對(duì)深度學(xué)習(xí)理論中幾種實(shí)現(xiàn)模型平均的方法進(jìn)行總結(jié),并對(duì)其中之一的Dropout方法進(jìn)行改進(jìn),改進(jìn)后的方法稱為隨機(jī)Dropout。將隨機(jī)Dropout應(yīng)用到卷積神經(jīng)網(wǎng)絡(luò)模型的分類器階段,在網(wǎng)絡(luò)訓(xùn)練過程中隨機(jī)選擇“凍結(jié)”一定比例的神經(jīng)元權(quán)值,使每次網(wǎng)絡(luò)更新時(shí)神經(jīng)元的連接次序都發(fā)生變化,從而使網(wǎng)絡(luò)權(quán)值的更新不再依賴于有固定關(guān)系隱含節(jié)點(diǎn)的共同作用。在Weizmann人體行為識(shí)別數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),將加入隨機(jī)Dropout的卷積神經(jīng)網(wǎng)絡(luò)與未加入的
4、進(jìn)行比較,加入隨機(jī)Dropout的網(wǎng)絡(luò)在各類行為識(shí)別上均取得了較高的識(shí)別率,可以有效防止過擬合。
在隨機(jī)Dropout卷積神經(jīng)網(wǎng)絡(luò)模型的基礎(chǔ)上,進(jìn)一步優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)。包括兩方面內(nèi)容:一方面,調(diào)整網(wǎng)絡(luò)模型在特征提取階段的神經(jīng)元類型,結(jié)合使用Maxout激活函數(shù)神經(jīng)元,加入Maxout隱含層,從而增長(zhǎng)卷積神經(jīng)網(wǎng)絡(luò)模型的長(zhǎng)度;另一方面,在本文設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)模型的采樣層部分,進(jìn)行不同采樣方式的對(duì)比實(shí)驗(yàn),分析卷積神經(jīng)網(wǎng)絡(luò)的不同采樣方式
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人體行為識(shí)別研究.pdf
- 基于3D卷積神經(jīng)網(wǎng)絡(luò)的人體行為識(shí)別.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人體行為檢測(cè)研究.pdf
- 視頻監(jiān)控系統(tǒng)中基于神經(jīng)網(wǎng)絡(luò)的人物行為識(shí)別研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人體姿勢(shì)估計(jì)研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人體檢測(cè)方法研究.pdf
- 基于人工神經(jīng)網(wǎng)絡(luò)的人體行為識(shí)別技術(shù)研究.pdf
- 基于時(shí)空流卷積神經(jīng)網(wǎng)絡(luò)的行為識(shí)別研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉圖像識(shí)別研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究與實(shí)現(xiàn).pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情和性別識(shí)別.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)和性別識(shí)別研究.pdf
- 基于多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)的視頻目標(biāo)屬性識(shí)別.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別及硬件實(shí)現(xiàn).pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的車型識(shí)別研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別的研究與應(yīng)用.pdf
- 基于自編碼和卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別算法研究.pdf
- 視頻中的人體動(dòng)作行為識(shí)別研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的視覺識(shí)別研究.pdf
評(píng)論
0/150
提交評(píng)論