

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、航天器之間的相對(duì)位置和姿態(tài)(統(tǒng)稱(chēng)為位姿)精確測(cè)量是空間交會(huì)對(duì)接、空間碎片回收、在軌維修等重大航天任務(wù)的先決條件。基于光學(xué)成像敏感器的視覺(jué)測(cè)量技術(shù)具有精度高和自主性強(qiáng)等優(yōu)勢(shì),已經(jīng)成為空間操作最后逼近段相對(duì)位姿測(cè)量的主要手段。目標(biāo)航天器按照是否安裝了合作標(biāo)志,分為合作目標(biāo)和非合作目標(biāo)。非合作目標(biāo)按照是否已知目標(biāo)結(jié)構(gòu)先驗(yàn)知識(shí)又分為模型已知的非合作目標(biāo)和完全非合作目標(biāo)??臻g合作目標(biāo)的視覺(jué)測(cè)量方法已經(jīng)得到了深入的研究和成功的應(yīng)用,相對(duì)而言,對(duì)空間
2、非合作目標(biāo)進(jìn)行視覺(jué)測(cè)量頗具挑戰(zhàn)性。盡管空間人造目標(biāo)紋理較為簡(jiǎn)單,但是它們具有大量能夠很好反應(yīng)目標(biāo)幾何信息的直線(xiàn)特征。由于直線(xiàn)特征提取可靠,屬性豐富,受光照,噪聲等影響小,因此利用直線(xiàn)特征進(jìn)行位姿測(cè)量具有較大的技術(shù)優(yōu)勢(shì)。
為滿(mǎn)足該需求,本文研究了基于直線(xiàn)特征的空間非合作目標(biāo)位姿估計(jì)方法,研究?jī)?nèi)容包括四大部分:一是直線(xiàn)特征提取及匹配方法;二是基于直線(xiàn)模型的相機(jī)標(biāo)定方法;三是基于直線(xiàn)模型的非合作目標(biāo)位姿估計(jì)方法;四是基于直線(xiàn)特征的完
3、全非合作目標(biāo)位姿估計(jì)方法。概況起來(lái),本文的創(chuàng)新性主要體現(xiàn)在如下幾點(diǎn):
1、針對(duì)受復(fù)雜光照影響的弱紋理目標(biāo)匹配問(wèn)題,提出了一種基于直線(xiàn)局部鄰域梯度信息和全局結(jié)構(gòu)信息的直線(xiàn)特征匹配算法。算法首先結(jié)合像素點(diǎn)梯度信息和局部對(duì)比度信息構(gòu)建直線(xiàn)支撐區(qū)域,并根據(jù)赫爾姆霍茨準(zhǔn)則抑制虛假直線(xiàn),相對(duì)于已有的基于邊緣圖的直線(xiàn)檢測(cè)算法,本文方法無(wú)需過(guò)多進(jìn)行參數(shù)設(shè)置,對(duì)復(fù)雜光照、噪聲、模糊等具有更強(qiáng)的魯棒性;然后利用圖像直線(xiàn)鄰域梯度分布構(gòu)建方向直方圖描
4、述符,并用于初始匹配;接著利用直線(xiàn)間的全局拓?fù)潢P(guān)系濾除誤匹配,最后迭代利用拓?fù)錇V波尋找更多的匹配,同時(shí)引入全局角度約束提高算法效率并進(jìn)一步濾除錯(cuò)誤匹配。相比傳統(tǒng)方法,本文方法對(duì)光照變換、噪聲、色差、模糊、視點(diǎn)變化等具有更強(qiáng)的魯棒性,同時(shí)算法對(duì)尺度變化也有一定的魯棒性。
2、針對(duì)無(wú)控制標(biāo)志條件下的相機(jī)參數(shù)自動(dòng)標(biāo)定問(wèn)題,提出了基于輪廓模型的弱紋理平面目標(biāo)單應(yīng)識(shí)別優(yōu)化算法。算法隨機(jī)選取四條滿(mǎn)足一定幾何約束的直線(xiàn)段進(jìn)行假設(shè)變換關(guān)系的求
5、解,并在假設(shè)檢驗(yàn)框架下通過(guò)選取使得投影誤差最小的變換關(guān)系作為單應(yīng)初值。為了解決復(fù)雜背景條件下單應(yīng)的優(yōu)化問(wèn)題,算法將目標(biāo)輪廓模型采樣為模型點(diǎn)序列,并通過(guò)優(yōu)化模型點(diǎn)投影同圖像對(duì)應(yīng)點(diǎn)的法向距離平方和實(shí)現(xiàn)單應(yīng)的優(yōu)化求解。另外基于提出的單應(yīng)識(shí)別優(yōu)化算法,設(shè)計(jì)了利用邊緣信息進(jìn)行相機(jī)內(nèi)外參數(shù)標(biāo)定的方法。相比傳統(tǒng)方法,本文方法無(wú)需制備平面靶板,利用具有標(biāo)準(zhǔn)尺寸的物件便能實(shí)現(xiàn)相機(jī)內(nèi)外參數(shù)的估計(jì),標(biāo)定過(guò)程更為靈活。
3、針對(duì)傳統(tǒng)方法僅利用直線(xiàn)端點(diǎn)
6、信息,忽略了端點(diǎn)間的相關(guān)性的缺點(diǎn),提出了基于直線(xiàn)間積分距離度量的位姿估計(jì)算法。首先設(shè)計(jì)了一種直線(xiàn)間積分距離度量準(zhǔn)則;然后基于該距離度量,根據(jù)圖像直線(xiàn)是否被看作無(wú)限長(zhǎng),提出了多種基于直線(xiàn)的位姿估計(jì)算法,相對(duì)于傳統(tǒng)方法,本文算法對(duì)直線(xiàn)段間斷噪聲和方向噪聲具有更強(qiáng)的魯棒性;最后從圖像直線(xiàn)最小二乘擬合過(guò)程出發(fā),給定邊緣點(diǎn)的噪聲信息(原始圖像),首次推導(dǎo)了圖像直線(xiàn)段端點(diǎn)定位的誤差模型。在此基礎(chǔ)上,給出了基于直線(xiàn)對(duì)應(yīng)位姿參數(shù)的極大似然估計(jì)。通過(guò)證明
7、發(fā)現(xiàn)提出的直線(xiàn)間積分距離函數(shù)同從推導(dǎo)的誤差模型出發(fā)得到的距離函數(shù)的形式一致。
4、證明了兩類(lèi)基于直線(xiàn)模型的目標(biāo)位姿跟蹤方法的等價(jià)性。首先從圖像觀測(cè)噪聲出發(fā),在概率框架下證明了本文提出的基于直線(xiàn)對(duì)應(yīng)的位姿估計(jì)方法和基于最小化法向距離的模型跟蹤方法(第一類(lèi)方法需要檢測(cè)圖像中的直線(xiàn),第二類(lèi)方法直接在原始圖像上進(jìn)行法向搜索得到模型圖像對(duì)應(yīng))內(nèi)在的等價(jià)性;然后從優(yōu)化函數(shù)的物理意義出發(fā),證明了兩類(lèi)方法對(duì)應(yīng)的直線(xiàn)間距離函數(shù)形式的一致性;最后
8、從效率、精度、魯棒性等多個(gè)角度對(duì)兩類(lèi)方法進(jìn)行了對(duì)比和評(píng)測(cè),并通過(guò)在模型圖像配準(zhǔn)階段引入亞像素定位技術(shù),提高了傳統(tǒng)基于最小化法向距離的模型跟蹤方法的精度和魯棒性。
5、針對(duì)結(jié)構(gòu)先驗(yàn)信息未知條件下的完全非合作目標(biāo)的位姿估計(jì)問(wèn)題,提出了基于直線(xiàn)的序列圖像目標(biāo)關(guān)鍵結(jié)構(gòu)重建和位姿估計(jì)方法。算法首先利用提出的直線(xiàn)匹配算法確定序列圖像間直線(xiàn)對(duì)應(yīng)關(guān)系,并線(xiàn)性求解相機(jī)位姿參數(shù)和目標(biāo)直線(xiàn)參數(shù);然后根據(jù)提出的直線(xiàn)間積分距離度量構(gòu)建目標(biāo)函數(shù);最后通過(guò)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 面向空間非合作目標(biāo)捕獲的位姿測(cè)量方法研究.pdf
- 基于雙目立體視覺(jué)的GEO非合作目標(biāo)位姿測(cè)量方法研究.pdf
- 基于TOF相機(jī)的非合作目標(biāo)位姿測(cè)量方法研究.pdf
- 非合作航天器視覺(jué)位姿測(cè)量方法的研究.pdf
- 基于雙目立體視覺(jué)的空間非合作目標(biāo)的位姿測(cè)量.pdf
- 基于單目視覺(jué)的目標(biāo)位姿參數(shù)測(cè)量方法研究.pdf
- 基于視覺(jué)的位姿估計(jì)與點(diǎn)目標(biāo)運(yùn)動(dòng)測(cè)量方法研究.pdf
- 基于計(jì)算機(jī)視覺(jué)的多目標(biāo)位姿測(cè)量方法研究.pdf
- 具有圓面特征的非合作目標(biāo)雙目視覺(jué)位姿測(cè)量.pdf
- 單目視覺(jué)位姿測(cè)量方法的研究.pdf
- 基于雙目手眼視覺(jué)的位姿測(cè)量方法的研究.pdf
- 基于單目視覺(jué)的空間非合作單軸旋轉(zhuǎn)目標(biāo)位姿測(cè)量與跟蹤控制.pdf
- 非合作目標(biāo)視覺(jué)測(cè)量方法研究及系統(tǒng)實(shí)現(xiàn).pdf
- 基于視覺(jué)和激光的空間非合作目標(biāo)相對(duì)位姿測(cè)量技術(shù)研究.pdf
- 單目視覺(jué)空間目標(biāo)位姿測(cè)量算法研究.pdf
- 基于雙目視覺(jué)的并聯(lián)機(jī)構(gòu)位姿測(cè)量方法研究.pdf
- 大視距非合作目標(biāo)視覺(jué)位姿測(cè)量系統(tǒng)關(guān)鍵技術(shù)研究.pdf
- 基于單目視覺(jué)的位姿測(cè)量方法及仿真系統(tǒng)研究.pdf
- 空間翻滾非合作目標(biāo)位姿及運(yùn)動(dòng)參數(shù)視覺(jué)識(shí)別技術(shù)研究.pdf
- 基于雙目視覺(jué)的并聯(lián)機(jī)構(gòu)末端位姿測(cè)量方法的研究.pdf
評(píng)論
0/150
提交評(píng)論