版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、逼真場景的生成是虛擬現(xiàn)實(shí)研究的核心內(nèi)容。從現(xiàn)有場景的幾幅離散圖像合成任意視點(diǎn)新視圖,就是根據(jù)虛擬現(xiàn)實(shí)的應(yīng)用需求而誕生的。視圖合成技術(shù)研究如何使用兩幅或多幅關(guān)于某個場景的圖像,生成該場景在新視點(diǎn)下的相應(yīng)圖像。
基于深度圖像的視圖合成研究的內(nèi)容主要包括深度圖像的獲取和視圖合成算法的研究。本文研究使用計(jì)算機(jī)視覺的相關(guān)算法獲取圖像的深度信息。主要包括相機(jī)定標(biāo)、基礎(chǔ)矩陣估計(jì)、立體匹配和深度估計(jì)等內(nèi)容。本文首先研究了當(dāng)前的相機(jī)定標(biāo)方法,提
2、出了改進(jìn)的基于液晶顯示器的相機(jī)快速定標(biāo)方法。然后使用基于角點(diǎn)的特征匹配獲得視圖的稀疏匹配,通過使用改進(jìn)M-Estimators方法計(jì)算得到魯棒的基礎(chǔ)矩陣F,再使用基于雙閾值的分階段立體匹配獲取兩幅視圖的稠密匹配。最后通過對應(yīng)點(diǎn)的匹配信息計(jì)算得到匹配點(diǎn)的三維信息。
基于深度圖像的視圖合成是本文研究的重點(diǎn)。本文基于物體表面深度的連續(xù)性,利用對應(yīng)共軛極線的整體匹配性和保序性,以及深度圖像中隱含的基于廣義視差的圖像邊界點(diǎn)信息,提出了基
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度圖像繪制的視圖合成研究.pdf
- 基于深度圖像的繪制技術(shù)研究.pdf
- 基于深度圖的圖像無縫拼接技術(shù)研究.pdf
- Kinect深度圖像修復(fù)技術(shù)研究.pdf
- 基于深度圖像的拼接技術(shù)研究與實(shí)現(xiàn).pdf
- 基于深度圖像的拼接技術(shù)研究與實(shí)現(xiàn)(1)
- 基于視點(diǎn)合成的深度圖編碼技術(shù)研究.pdf
- 基于深度圖像的三維建模技術(shù)研究.pdf
- 基于彩色與深度圖像的唇讀技術(shù)研究.pdf
- 基于光場相機(jī)的深度圖像生成技術(shù)研究.pdf
- 基于深度圖像的三維重建技術(shù)研究.pdf
- 基于多深度圖像的三維重建技術(shù)研究.pdf
- 基于深度圖像信息的手勢識別技術(shù)研究與應(yīng)用.pdf
- 三維視頻深度圖像編碼技術(shù)研究.pdf
- 基于Kinect深度圖像的三維人臉識別技術(shù)研究.pdf
- 基于深度圖像繪制的自由視點(diǎn)視頻關(guān)鍵技術(shù)研究.pdf
- 基于RGB-D信息的深度圖像增強(qiáng)關(guān)鍵技術(shù)研究.pdf
- 基于雙目視覺相機(jī)的深度圖像恢復(fù)技術(shù)研究與應(yīng)用.pdf
- 基于深度圖像序列的三維人手運(yùn)動跟蹤技術(shù)研究.pdf
- 基于GPU的深度圖像后期繪制與合成系統(tǒng).pdf
評論
0/150
提交評論