版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、隨著機(jī)器視覺在模式識(shí)別、圖像處理以及人工智能等技術(shù)領(lǐng)域的應(yīng)用愈加廣泛,對(duì)其研究的內(nèi)容也層出不窮。圖像分類技術(shù)是圖像處理和理解的基本問題,是計(jì)算機(jī)視覺和模式識(shí)別核心研究領(lǐng)域之一。在現(xiàn)實(shí)世界中,我們用人眼去認(rèn)知外界的事物,通過人眼捕獲外界傳來的視覺信息,然后將這些信息交給大腦處理,即使其中某些圖像信息會(huì)受光線、視角和尺寸等因素影響,但仍然能夠通過大腦中已有的信息對(duì)其進(jìn)行分類識(shí)別。相應(yīng)的,在計(jì)算機(jī)視覺鄰域,攝像機(jī)或者其他成像設(shè)備代替人眼,用計(jì)
2、算機(jī)模擬大腦,通過對(duì)攝像機(jī)獲取的數(shù)據(jù)信息進(jìn)行處理和分析,從而得出正確的圖像內(nèi)容。近年來,該技術(shù)被廣泛應(yīng)用在機(jī)器人視覺和觸覺識(shí)別上,大大提高了機(jī)器人感知識(shí)別物體的能力。
機(jī)器視覺作為機(jī)器人獲得環(huán)境信息的重要手段之一,它可以增加機(jī)器人的自主能力,提高機(jī)器人的靈活性。人們希望機(jī)器人可以智能的感知周圍環(huán)境和事物的信息,例如快速的識(shí)別出呈現(xiàn)在其眼前的事物以及通過觸摸物體來感知物體表面的屬性,從而更好的服務(wù)人類。典型的機(jī)器人識(shí)別方法一般是
3、引入深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),例如CNNs,該方法雖然效果很好但是耗時(shí)巨大,效率不高。近年來,黃廣斌等人提出了一種新型的單層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)極限學(xué)習(xí)機(jī)(ELM),該結(jié)構(gòu)訓(xùn)練時(shí)間大大減小,分類精度也大大提高。在 ELM基礎(chǔ)上,黃廣斌等人引入了局部感受野并結(jié)合 CNN傳統(tǒng)的卷積和池化操作提出一種新型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)即基于局部感受野的極限學(xué)習(xí)機(jī)(ELM-LRF),該模型輸入與隱藏層間的連接是稀疏的,且由相應(yīng)的局部感受野(對(duì)連續(xù)概率分布采樣得到)包圍,實(shí)驗(yàn)證明
4、該模型不僅大大縮短了訓(xùn)練時(shí)間,而且也提高了算法的穩(wěn)定性。因此,針對(duì)該新型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的進(jìn)一步研究具有十分重要的理論意義。
本文以ELM-LRF為核心模型,將該算法應(yīng)用于機(jī)器人目標(biāo)識(shí)別和觸覺識(shí)別當(dāng)中,并在此基礎(chǔ)上加以擴(kuò)展研究進(jìn)行改進(jìn),極大的提高了識(shí)別效率并且大幅度縮短運(yùn)算時(shí)間。本文的主要?jiǎng)?chuàng)新點(diǎn)有:
(1)針對(duì)當(dāng)前目標(biāo)識(shí)別研究現(xiàn)狀,提出多模態(tài)模型進(jìn)行目標(biāo)識(shí)別,進(jìn)一步提高對(duì)目標(biāo)識(shí)別的準(zhǔn)確率。通過前期分通道獨(dú)立提取特征,減少
5、外界噪聲影響,之后將特征組合進(jìn)行分類,很大程度上可以提高分類的穩(wěn)定性和準(zhǔn)確性。
(2)考慮到目標(biāo)圖像高層特征的復(fù)雜性以及單層的 ELM-LRF已不能滿足海量圖像的分類處理需求,因此,將單層ELM-LRF進(jìn)行深度擴(kuò)展成多層深度ELM-LRF(HELM-LRF),進(jìn)行多次卷積與池化操作。該深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)不僅可以提取深度圖像的抽象信息,而且保證了數(shù)據(jù)特征屬性的位移不變性,很大程度上提升了對(duì)圖像的分類處理能力。
(3)提出
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于聯(lián)合稀疏和局部線性的極限學(xué)習(xí)機(jī)及應(yīng)用.pdf
- 極限學(xué)習(xí)機(jī)的研究與應(yīng)用.pdf
- 深度極限學(xué)習(xí)機(jī)的研究與應(yīng)用.pdf
- 基于局部三值模式與極限學(xué)習(xí)機(jī)的微表情識(shí)別.pdf
- 基于深度學(xué)習(xí)的極限學(xué)習(xí)機(jī)算法研究.pdf
- 基于非平衡與在線學(xué)習(xí)的極限學(xué)習(xí)機(jī)算法研究與應(yīng)用.pdf
- 基于極限學(xué)習(xí)機(jī)的圖像標(biāo)注研究.pdf
- 基于集成學(xué)習(xí)的極限學(xué)習(xí)機(jī)的算法研究.pdf
- 基于穩(wěn)健估計(jì)的極限學(xué)習(xí)機(jī)方法研究.pdf
- 基于主成分估計(jì)的極限學(xué)習(xí)機(jī)及其應(yīng)用研究.pdf
- 基于極限學(xué)習(xí)機(jī)的多示例算法研究.pdf
- 基于極限學(xué)習(xí)機(jī)的移動(dòng)視覺搜索研究與優(yōu)化.pdf
- 基于極限學(xué)習(xí)機(jī)的半監(jiān)督分類.pdf
- 基于極限學(xué)習(xí)機(jī)的目標(biāo)識(shí)別算法研究.pdf
- 基于Hadoop的差分進(jìn)化極限學(xué)習(xí)機(jī)研究.pdf
- 基于極限學(xué)習(xí)機(jī)的風(fēng)電功率預(yù)測(cè)研究.pdf
- 極限學(xué)習(xí)機(jī)結(jié)構(gòu)優(yōu)化及其應(yīng)用研究.pdf
- 基于深度極限學(xué)習(xí)機(jī)的K-SVD算法研究及其應(yīng)用.pdf
- 基于極限學(xué)習(xí)機(jī)的實(shí)物期權(quán)定價(jià)模型研究
- 基于極限學(xué)習(xí)機(jī)的實(shí)物期權(quán)定價(jià)模型研究.pdf
評(píng)論
0/150
提交評(píng)論