版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、空間定位技術(shù)在智能機(jī)器人、無(wú)人機(jī)、AR等領(lǐng)域有著重要的作用,其定位精度直接影響著使用性能與用戶(hù)體驗(yàn)。隨著計(jì)算機(jī)技術(shù)的快速發(fā)展,基于視覺(jué)里程計(jì)的空間定位技術(shù)逐漸成為了研究熱點(diǎn),然而由于視覺(jué)的局限性,其單獨(dú)定位的精度不高并且穩(wěn)定性差,因此尋求一種更加可靠的基于視覺(jué)的空間位姿計(jì)算方法非常重要。
針對(duì)純視覺(jué)里程計(jì)空間定位方法易受環(huán)境干擾,定位不精確,可靠性與魯棒性不高的情況,本文提出了融合慣性與視覺(jué)的多傳感器空間位姿計(jì)算方法,建立優(yōu)化
2、模型并對(duì)算法進(jìn)行對(duì)比實(shí)驗(yàn)。本文主要完成了以下三個(gè)方面的內(nèi)容:
?、賵D像特征提取與匹配是計(jì)算機(jī)視覺(jué)中最基本也是最首要的問(wèn)題,本文首先研究了三種主流的圖像特征提取與匹配算法—SIFT(Scale-invariant feature transform)、SURF(Speeded Up Robust Features)、ORB(Oriented FAST and Rotated BRIEF)算法,通過(guò)實(shí)驗(yàn)對(duì)比了三種算法,針對(duì)視覺(jué)里程計(jì)
3、對(duì)時(shí)間效率的要求,選擇了ORB算法作為本文的圖像特征提取算法;針對(duì)視覺(jué)里程計(jì)中容易出現(xiàn)的因掉幀而導(dǎo)致的定位失敗的問(wèn)題,本文采用建立局部地圖的方式,并使用關(guān)鍵幀與重定位兩種方法增強(qiáng)視覺(jué)里程計(jì)的穩(wěn)定性與魯棒性。最后,使用圖優(yōu)化的方法對(duì)視覺(jué)里程計(jì)進(jìn)行了局部?jī)?yōu)化以提高其定位精度,減小累計(jì)誤差。
?、卺槍?duì)視覺(jué)里程計(jì)位姿計(jì)算不準(zhǔn)確,誤差波動(dòng)較大的問(wèn)題,本文提出一種融合慣性元件的視覺(jué)里程計(jì)的優(yōu)化方法,將IMU信息加入到連續(xù)的兩幀圖像之間進(jìn)行約
4、束。IMU信息在相鄰兩幀或相鄰兩個(gè)關(guān)鍵幀之間的測(cè)量值通過(guò)預(yù)積分計(jì)算出一個(gè)近似高斯分布的“偽”測(cè)量量,把這個(gè)“偽”測(cè)量量作為相鄰兩幀間的觀測(cè)量加入到優(yōu)化模型中。同時(shí)預(yù)積分方法能給出“偽”測(cè)量量相對(duì)于IMU零偏變化的雅克比矩陣,在IMU零偏有修正時(shí)可以直接計(jì)算雅可比矩陣的一階近似而不用算積分,從而減小計(jì)算量;另外在計(jì)算陀螺儀與加速度計(jì)的偏差時(shí)加入了重力信息以增強(qiáng)算法的魯棒性。最后用重投影誤差與IMU誤差建立圖優(yōu)化模型,用牛頓‐高斯法來(lái)求解得
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 多傳感器的融合方法
- 無(wú)線(xiàn)傳感器網(wǎng)絡(luò)中多傳感器數(shù)據(jù)融合方法的研究.pdf
- 多傳感器集成與動(dòng)態(tài)融合方法的研究.pdf
- 基于單目視覺(jué)的剛體空間位姿估計(jì)研究.pdf
- 視覺(jué)與傾角傳感器組合相對(duì)位姿測(cè)量方法研究.pdf
- 多傳感器圖像融合方法研究與實(shí)現(xiàn).pdf
- 基于信息融合理論的多MEMS慣性傳感器數(shù)據(jù)處理方法研究.pdf
- 基于多雷達(dá)傳感器的航跡融合方法研究.pdf
- 多傳感器圖像融合方法的研究及應(yīng)用.pdf
- 基于多MEMS傳感器數(shù)據(jù)融合的組合測(cè)姿系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn).pdf
- 多傳感器圖像彩色融合方法研究.pdf
- 基于PHD濾波的多傳感器融合方法研究.pdf
- 大直徑多傳感器數(shù)據(jù)融合方法研究.pdf
- 多傳感器圖像融合方法研究及實(shí)現(xiàn).pdf
- 像素級(jí)多傳感器圖像融合方法研究.pdf
- 空間慣性傳感器的擾動(dòng)力分析.pdf
- 基于多傳感器融合的銑刀破損監(jiān)測(cè)方法研究.pdf
- 面向多傳感器融合的手勢(shì)視覺(jué)特征提取與識(shí)別.pdf
- 基于無(wú)線(xiàn)傳感器網(wǎng)絡(luò)的多傳感器信息融合.pdf
- 基于多傳感器融合的列車(chē)測(cè)速定位方法
評(píng)論
0/150
提交評(píng)論