版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、場(chǎng)景識(shí)別是計(jì)算機(jī)視覺(jué)領(lǐng)域重要的研究方向,場(chǎng)景圖片的類間相似性和類內(nèi)差異性使得場(chǎng)景識(shí)別極具挑戰(zhàn)性。深度學(xué)習(xí)技術(shù)的迅速發(fā)展給場(chǎng)景識(shí)別算法研究提供了新的研究思路。本文旨在通過(guò)對(duì)場(chǎng)景識(shí)別的傳統(tǒng)方法與深度學(xué)習(xí)技術(shù)的發(fā)展現(xiàn)狀的研究,提出基于深度學(xué)習(xí)在場(chǎng)景識(shí)別技術(shù)中應(yīng)用的解決方案。本文首先融合傳統(tǒng)識(shí)別方法與深度網(wǎng)絡(luò)提出了混合深度場(chǎng)景識(shí)別網(wǎng)絡(luò);此外,基于場(chǎng)景識(shí)別過(guò)程中的類別顯著性機(jī)制,提出了改進(jìn)的多任務(wù)場(chǎng)景識(shí)別框架。
本文首先結(jié)合傳統(tǒng)場(chǎng)景識(shí)別
2、方法和深度學(xué)習(xí)方法的優(yōu)缺點(diǎn),提出了混合深度場(chǎng)景識(shí)別方法,該模型首先在混合識(shí)別的Fisher編碼層和判別層之前用深度直連自編碼器作為圖像局部特征提取層,完善了整個(gè)混合深度識(shí)別框架。采用直連非監(jiān)督深度網(wǎng)絡(luò)輸出直接重構(gòu)輸入,能夠提取更有判別性的中尺度局部特征。此外,通過(guò)改變場(chǎng)景圖片對(duì)應(yīng)局部圖像塊的構(gòu)成實(shí)現(xiàn)場(chǎng)景數(shù)據(jù)擴(kuò)充。引入圖片所在類中出現(xiàn)概率低的圖像塊作為類內(nèi)干擾加入原圖像塊中,減少類內(nèi)差異誤判。為了減少類間相似性影響,通過(guò)信息熵度量引入相似
3、類中特有的關(guān)鍵圖像塊,替換原先圖片中類別相關(guān)的圖像塊,同時(shí)改變對(duì)應(yīng)標(biāo)簽,突出關(guān)鍵圖像塊對(duì)相似類別判斷的決定性。實(shí)驗(yàn)表明該算法具有魯棒性,可以有效權(quán)衡識(shí)別效率與準(zhǔn)確率。
針對(duì)訓(xùn)練數(shù)據(jù)中大量的有標(biāo)簽場(chǎng)景圖片,可以反演出場(chǎng)景圖片類別相關(guān)的顯著性區(qū)域,提出了一種基于類別顯著性的多任務(wù)場(chǎng)景識(shí)別框架。該算法使用選擇搜索與粗分類器去生成類別相關(guān)的顯著性場(chǎng)景圖像作為重構(gòu)目標(biāo),選擇搜索用來(lái)生成場(chǎng)景圖片的局部區(qū)域,對(duì)應(yīng)局部圖像輸入到粗分類器得到整
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度學(xué)習(xí)的自然場(chǎng)景文字識(shí)別.pdf
- 復(fù)雜場(chǎng)景下基于深度學(xué)習(xí)的物體檢測(cè)與識(shí)別算法研究.pdf
- 基于深度學(xué)習(xí)的動(dòng)作識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的氣體識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的Logo識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的說(shuō)話人識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的維語(yǔ)語(yǔ)音識(shí)別研究.pdf
- 基于多尺度的深度卷積網(wǎng)絡(luò)的場(chǎng)景識(shí)別.pdf
- 基于深度特征的跨場(chǎng)景行人識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)框架的動(dòng)作識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的目標(biāo)識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的肝硬化識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的車輛型號(hào)識(shí)別.pdf
- 基于深度學(xué)習(xí)的表情識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的車型識(shí)別分析與研究.pdf
- 基于深度學(xué)習(xí)的說(shuō)話人識(shí)別建模研究.pdf
- 基于深度學(xué)習(xí)的字符識(shí)別.pdf
- 基于深度學(xué)習(xí)的特定場(chǎng)景下的行人檢測(cè)方法研究.pdf
- 基于深度學(xué)習(xí)的漢語(yǔ)否定信息識(shí)別研究.pdf
- 基于深度學(xué)習(xí)的自然場(chǎng)景文本檢測(cè)算法研究.pdf
評(píng)論
0/150
提交評(píng)論