版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、語義目標(biāo)解析和場景分析是計(jì)算機(jī)視覺中重要的研究方向,其主要目的是對圖像和視頻中的目標(biāo)和場景進(jìn)行分析、理解,在視頻監(jiān)控、自動(dòng)駕駛、智能交通等方面均有廣泛的應(yīng)用。語義目標(biāo)解析涉及對行人、車輛等目標(biāo)的檢測、識別及分析過程。其中行人細(xì)粒度分析是很多計(jì)算機(jī)視覺應(yīng)用的基礎(chǔ),其目的是將行人圖像分割成語義部件,并識別其屬性。場景分析主要包括對場景的深度估計(jì)、運(yùn)動(dòng)分析以及結(jié)構(gòu)分析等。場景的深度估計(jì)是指從圖像中得到場景的深度信息,有助于恢復(fù)場景的三維結(jié)構(gòu)。
2、場景的運(yùn)動(dòng)分析則主要是指從連續(xù)視頻幀中得到光流信息,被用于運(yùn)動(dòng)目標(biāo)的行為識別和異常事件的檢測分類。因此,有效的行人細(xì)粒度分析、圖像深度估計(jì)和光流估計(jì)算法具有重要的現(xiàn)實(shí)意義,本文也主要關(guān)注這三個(gè)任務(wù)。近年來,深度學(xué)習(xí)已在目標(biāo)檢測、人臉識別、場景標(biāo)注等計(jì)算機(jī)視覺任務(wù)上取得突破,設(shè)計(jì)以任務(wù)為導(dǎo)向的網(wǎng)絡(luò)模型受到學(xué)術(shù)界和工業(yè)界越來越多的關(guān)注。本文將針對行人細(xì)粒度分析、單張圖像深度估計(jì)和光流估計(jì)這三個(gè)任務(wù),分別提出不同的基于深度學(xué)習(xí)的模型。
3、 本研究主要內(nèi)容包括:⑴對于單張圖像深度估計(jì)任務(wù),首先回顧了已有的相關(guān)方法,然后針對目前基于深度學(xué)習(xí)的深度估計(jì)模型在建??臻g上下文關(guān)系上存在的不足,本文分別提出基于數(shù)據(jù)驅(qū)動(dòng)的上下文特征學(xué)習(xí)模型和基于全變分模型的損失函數(shù)模型。前者通過數(shù)據(jù)學(xué)習(xí)和像素位置相關(guān)的上下文關(guān)系權(quán)值將鄰域特征融合到深度值預(yù)測,而后者則能夠有效地壓制噪聲并在保留邊緣的同時(shí)使結(jié)果更加的平滑。最后本文將這兩種模型融合,得到更有效的方法。⑵在光流估計(jì)任務(wù)中,相對于傳統(tǒng)的光
4、流估計(jì)方法,基于深度學(xué)習(xí)的方法具有效率高、易擴(kuò)展的優(yōu)點(diǎn)。然而目前基于深度學(xué)習(xí)的方法并不多,同時(shí)已有的深度模型在大位移光流預(yù)測問題上存在不足。提出一種基于多尺度的相關(guān)性學(xué)習(xí)的深度卷積網(wǎng)絡(luò)結(jié)構(gòu),能夠有效地處理大位移情況。在一些大位移光流數(shù)據(jù)集上,相對于基準(zhǔn)算法,本文提出的框架的表現(xiàn)有很明顯的改善。另外,由于預(yù)測的結(jié)果含有較多的噪聲和較大的誤差,提出將遞歸神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合對預(yù)測的結(jié)果進(jìn)一步修正并得到更加精細(xì)的結(jié)果。⑶對于行人細(xì)粒度
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于高階CRFs和稀疏字典學(xué)習(xí)的場景語義解析.pdf
- 基于語義結(jié)構(gòu)和視覺焦點(diǎn)的場景目標(biāo)識別.pdf
- 基于深度學(xué)習(xí)的城市交通場景目標(biāo)檢測算法研究.pdf
- 基于深度學(xué)習(xí)和語義分析的藥物不良反應(yīng)發(fā)現(xiàn).pdf
- 基于深度學(xué)習(xí)的場景識別研究.pdf
- 基于深度學(xué)習(xí)的無監(jiān)督型圖像語義分析.pdf
- 基于深度學(xué)習(xí)的圖像語義理解和分類研究.pdf
- 基于深度學(xué)習(xí)的自然場景文字識別.pdf
- 基于深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的多目標(biāo)檢測跟蹤.pdf
- 基于深度學(xué)習(xí)的圖像語義分割研究.pdf
- 基于目標(biāo)與場景的用例驅(qū)動(dòng)需求分析技術(shù)研究.pdf
- 基于深度學(xué)習(xí)和上下文語義的視覺內(nèi)容識別與分析研究.pdf
- 面向動(dòng)態(tài)場景理解的時(shí)空深度學(xué)習(xí)算法.pdf
- 基于深度數(shù)據(jù)和圖像語義分割的三維場景重建技術(shù)研究.pdf
- 場景的解析——大學(xué)教學(xué)建筑場景分析.pdf
- 單目圖像中的場景深度結(jié)構(gòu)分析和估計(jì).pdf
- 基于深度學(xué)習(xí)和渲染數(shù)據(jù)的目標(biāo)對象摳取.pdf
- 基于深度學(xué)習(xí)的圖像語義理解研究.pdf
- 基于深度學(xué)習(xí)的目標(biāo)檢測研究.pdf
- 基于深度學(xué)習(xí)的圖像語義分割算法研究.pdf
評論
0/150
提交評論