版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、場(chǎng)景目標(biāo)檢測(cè)與分類(lèi)技術(shù)是機(jī)器視覺(jué)研究領(lǐng)域的熱點(diǎn)問(wèn)題。目標(biāo)的檢測(cè)、分類(lèi)以及語(yǔ)義分析是實(shí)現(xiàn)場(chǎng)景理解的先決條件。場(chǎng)景理解的主要信息來(lái)源有圖像和視頻,再結(jié)合需要檢測(cè)的處理對(duì)象不同,將場(chǎng)景目標(biāo)檢測(cè)分為基于視頻序列和基于單幀圖像的目標(biāo)檢測(cè)。前者常利用多幀圖像信息檢測(cè)出動(dòng)態(tài)變化的區(qū)域,再進(jìn)行目標(biāo)分類(lèi)和跟蹤。后者是在單幅圖像中識(shí)別并提取出所有已學(xué)習(xí)過(guò)的感興趣類(lèi)別目標(biāo)。目標(biāo)正確識(shí)別及在原圖中的精準(zhǔn)定位是高層次視覺(jué)分析任務(wù)的基礎(chǔ)步驟之一。近年來(lái),深度卷積神
2、經(jīng)網(wǎng)絡(luò)具有通過(guò)對(duì)大數(shù)據(jù)樣本的學(xué)習(xí)而自主獲取物體特征的特性,避免了傳統(tǒng)識(shí)別算法中復(fù)雜的特征提取和數(shù)據(jù)重建過(guò)程,是解決各類(lèi)計(jì)算機(jī)視覺(jué)問(wèn)題的一類(lèi)有效方法。本文主要研究?jī)?nèi)容如下:
(1)提出了基于卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)的動(dòng)態(tài)目標(biāo)分類(lèi)方法。在整個(gè)方法中利用邏輯性分析解決了高斯混合模型(GMM)提取的運(yùn)動(dòng)區(qū)域存在多目標(biāo)融合的情況,得到較為完整且獨(dú)立的運(yùn)動(dòng)目標(biāo)。再利用深度卷積神經(jīng)網(wǎng)絡(luò)去學(xué)
3、習(xí)運(yùn)動(dòng)目標(biāo)的固有靜態(tài)特征,結(jié)合softmax回歸分類(lèi)器進(jìn)行分類(lèi)。該方法通過(guò)實(shí)驗(yàn)說(shuō)明在運(yùn)動(dòng)目標(biāo)區(qū)域檢測(cè)不完整和同類(lèi)別重疊等情況仍能準(zhǔn)確分類(lèi),同時(shí)擁有分類(lèi)精度高、處理速度快的優(yōu)點(diǎn)。
?。?)提出基于ACF(Aggregated Channels Feature)及卷積神經(jīng)網(wǎng)絡(luò)的圖像目標(biāo)檢測(cè)方法。針對(duì)ACF檢測(cè)圖像行人和車(chē)輛目標(biāo)存在部分誤檢的問(wèn)題,利用經(jīng)卷積神經(jīng)網(wǎng)絡(luò)對(duì)候選框進(jìn)行二次識(shí)別,剔除誤檢的背景框。該方法既利用了ACF召回率高的
4、特點(diǎn),也結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)高識(shí)別率的特點(diǎn)。最后通過(guò)實(shí)驗(yàn)說(shuō)明了改進(jìn)方法在不影響檢測(cè)實(shí)時(shí)性和召回率的同時(shí)大大提升了檢測(cè)準(zhǔn)確率。
?。?)提出基于ACF及多任務(wù)式學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)的圖像目標(biāo)檢測(cè)方法。此方法不僅能夠準(zhǔn)確快速的檢測(cè)出圖像中的目標(biāo),還可以根據(jù)多任務(wù)式學(xué)習(xí)的特點(diǎn)對(duì)目標(biāo)增加豐富的語(yǔ)義信息。通過(guò)行人和車(chē)輛檢測(cè)實(shí)驗(yàn),說(shuō)明了該方法在提高檢測(cè)準(zhǔn)確率的同時(shí)可以獲得行人、車(chē)輛目標(biāo)的混合行為語(yǔ)義。如一個(gè)候選框在判別為是一個(gè)行人的基礎(chǔ)上,還可
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于機(jī)器視覺(jué)的目標(biāo)分類(lèi)與場(chǎng)景定位研究.pdf
- 基于機(jī)器視覺(jué)的場(chǎng)景目標(biāo)識(shí)別方法研究.pdf
- 基于機(jī)器視覺(jué)的瓷器檢測(cè)分類(lèi)系統(tǒng)研究與實(shí)現(xiàn).pdf
- 基于機(jī)器人視覺(jué)的場(chǎng)景圖像分類(lèi)的應(yīng)用研究.pdf
- 復(fù)雜場(chǎng)景中視覺(jué)運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤.pdf
- 基于機(jī)器視覺(jué)的運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)的研究.pdf
- 交通場(chǎng)景中運(yùn)動(dòng)目標(biāo)檢測(cè)與分類(lèi)算法研究.pdf
- 基于區(qū)域分類(lèi)與目標(biāo)檢測(cè)相融合的交通場(chǎng)景分析.pdf
- 基于機(jī)器視覺(jué)的水下目標(biāo)檢測(cè)與跟蹤技術(shù)研究.pdf
- 基于機(jī)器視覺(jué)的實(shí)時(shí)目標(biāo)檢測(cè)系統(tǒng)研究.pdf
- 基于激光與視覺(jué)信息融合的運(yùn)動(dòng)目標(biāo)檢測(cè)與場(chǎng)景重建方法研究.pdf
- 基于NAO機(jī)器人的視覺(jué)目標(biāo)檢測(cè)與跟蹤.pdf
- 基于機(jī)器視覺(jué)的自然目標(biāo)特征學(xué)習(xí)與即時(shí)檢測(cè).pdf
- 基于雙目視覺(jué)的機(jī)器人目標(biāo)檢測(cè)與控制研究.pdf
- 復(fù)雜場(chǎng)景下運(yùn)動(dòng)目標(biāo)檢測(cè)與分類(lèi)算法研究.pdf
- 機(jī)器人視覺(jué)與目標(biāo)檢測(cè)技術(shù)的研究.pdf
- 基于機(jī)器視覺(jué)的目標(biāo)檢測(cè)定位與路徑控制方法研究.pdf
- 基于雙目視覺(jué)的機(jī)器人目標(biāo)檢測(cè)與跟蹤研究.pdf
- 基于雙目視覺(jué)的機(jī)器人目標(biāo)檢測(cè)與跟蹤研究
- 基于機(jī)器視覺(jué)的目標(biāo)表面瑕疵檢測(cè)系統(tǒng)研究.pdf
評(píng)論
0/150
提交評(píng)論