

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、隨著計(jì)算機(jī)視覺技術(shù)和圖像處理技術(shù)的發(fā)展,目標(biāo)識(shí)別技術(shù)被廣泛的運(yùn)用在在工業(yè)、軍事、航空等領(lǐng)域,成為了自動(dòng)控制、計(jì)算機(jī)視覺和模式識(shí)別領(lǐng)域的研究熱點(diǎn)。
特征提取是物體目標(biāo)識(shí)別的重要環(huán)節(jié),有手動(dòng)提取特征和自動(dòng)提取特征兩種方式。傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是一種自動(dòng)提取特征的方式,但是由于網(wǎng)絡(luò)訓(xùn)練是全局連接導(dǎo)致訓(xùn)練參數(shù)過多而產(chǎn)生過擬合。本課題中使用的深度學(xué)習(xí)算法則是一種分層次的自動(dòng)提取特征的方法,它采用逐層訓(xùn)練的方式,逐步提取物體從低層到高層的特征,這
2、種特征更有區(qū)分性。本文中首先通過物體的檢測、分割和基本的圖像處理獲得大量物體樣本,然后利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行了訓(xùn)練,最后對(duì)目標(biāo)物體進(jìn)行識(shí)別。通過對(duì)比,卷積神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)的正確識(shí)別率達(dá)到了95.9%,而傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確識(shí)別率只有93.4%。另外,為了解決圖像識(shí)別中遇到的圖像的“二義性”問題,文中提出了雙深度置信網(wǎng)絡(luò)(DBN)的深度神經(jīng)網(wǎng)絡(luò)架構(gòu),采取信息融合的方式,經(jīng)實(shí)驗(yàn)可知采用雙DBN網(wǎng)絡(luò)的目標(biāo)識(shí)別正確率較采用卷積神經(jīng)網(wǎng)絡(luò)提高到
3、97.3%。
同時(shí),已有的多機(jī)器人編隊(duì)研究成果中并不能很好的解決復(fù)雜環(huán)境下的自適應(yīng)編隊(duì)問題。本課題中將基于深度學(xué)習(xí)的目標(biāo)識(shí)別方法與當(dāng)下機(jī)器人研究熱點(diǎn)多機(jī)器人編隊(duì)進(jìn)行結(jié)合,用于解決多機(jī)器人編隊(duì)過程中的避障和隊(duì)形變換決策問題。通過將機(jī)器人的編隊(duì)與其所處環(huán)境障礙物的分布結(jié)合起來,設(shè)計(jì)了一種多機(jī)器人離線訓(xùn)練學(xué)習(xí)和在線實(shí)施目標(biāo)識(shí)別的,自主避障和隊(duì)形變換的算法,即機(jī)器人首先能夠通過傳感器學(xué)習(xí)到當(dāng)前所處環(huán)境遇到的障礙物,然后結(jié)合編隊(duì)算法進(jìn)行
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于機(jī)器視覺的機(jī)器人目標(biāo)識(shí)別跟蹤方法.pdf
- 基于深度學(xué)習(xí)的目標(biāo)識(shí)別研究.pdf
- 基于視覺的機(jī)器人目標(biāo)識(shí)別及定位研究.pdf
- 基于深度學(xué)習(xí)的圖像目標(biāo)識(shí)別研究.pdf
- 多機(jī)器人編隊(duì)技術(shù)的研究與應(yīng)用.pdf
- 基于視覺的輪椅機(jī)器人目標(biāo)識(shí)別與定位研究.pdf
- 基于全景視覺的機(jī)器人目標(biāo)識(shí)別及定位研究.pdf
- 基于智能優(yōu)化的蘋果采摘機(jī)器人目標(biāo)識(shí)別研究.pdf
- NAO機(jī)器人的目標(biāo)識(shí)別與定位研究.pdf
- 足球機(jī)器人目標(biāo)識(shí)別與跟蹤研究.pdf
- 基于機(jī)器視覺的分揀機(jī)器人目標(biāo)識(shí)別與定位的研究.pdf
- 基于視覺的服務(wù)機(jī)器人目標(biāo)識(shí)別和定位研究.pdf
- 基于機(jī)器視覺和深度學(xué)習(xí)的目標(biāo)識(shí)別與抓取定位研究.pdf
- 采摘機(jī)器人目標(biāo)標(biāo)識(shí)別及定位研究.pdf
- 基于全景視覺的機(jī)器人目標(biāo)識(shí)別與跟蹤.pdf
- 基于視覺的工業(yè)機(jī)器人目標(biāo)識(shí)別定位方法的研究.pdf
- 移動(dòng)機(jī)器人的目標(biāo)識(shí)別研究.pdf
- 基于全景視覺的機(jī)器人目標(biāo)識(shí)別及定位研究(1)
- 基于全景視覺的移動(dòng)機(jī)器人目標(biāo)識(shí)別.pdf
- 足球機(jī)器人目標(biāo)識(shí)別與自定位研究.pdf
評(píng)論
0/150
提交評(píng)論