

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、圖像分類能夠有效地管理和組織圖像,為圖像處理的多個(gè)領(lǐng)域的工作奠定良好的基礎(chǔ)。伴隨互聯(lián)網(wǎng)技術(shù)和社交網(wǎng)絡(luò)的興起,數(shù)字圖像數(shù)量上急劇增加應(yīng)用也越來越多,人們在情感和信息表達(dá)的時(shí)候也更多采用直觀的圖片來代替文字。大量的數(shù)字圖像需要管理、分析、檢索,這迫切需要效率更高、更準(zhǔn)確的圖像分類技術(shù)。深度學(xué)習(xí)是對傳統(tǒng)神經(jīng)網(wǎng)絡(luò)進(jìn)行擴(kuò)展的一種學(xué)習(xí)方法,模擬人腦認(rèn)知逐步抽象的過程,加深了隱含層數(shù)量,可以自動(dòng)學(xué)習(xí)特征。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Ne
2、ural Networks)是深度學(xué)習(xí)結(jié)構(gòu)中在圖像分類領(lǐng)域里應(yīng)用最多、成績最突出的一種,與傳統(tǒng)的淺層學(xué)習(xí)算法相比,在圖像分類效果上有顯著的提升,因而受到了廣泛關(guān)注。
深度學(xué)習(xí)模型雖然在圖像分類領(lǐng)域取得令人矚目的分類效果,但一直無法用數(shù)學(xué)理論來證明其問題求解過程,這使得研究局限于通過實(shí)驗(yàn)來調(diào)整模型結(jié)構(gòu)和參數(shù),從而設(shè)計(jì)出更為有效的模型。除了對模型本身的研究,深度學(xué)習(xí)與其它的機(jī)器學(xué)習(xí)方法的融合,引入其他方法的優(yōu)點(diǎn)解決相應(yīng)的問題也是研
3、究的一個(gè)熱點(diǎn)。本文介紹了卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用與研究熱點(diǎn),引入遷移學(xué)習(xí)、支持向量機(jī)、多尺度空間模型、模糊分類等方法與卷積神經(jīng)網(wǎng)絡(luò)模型融合,著重研究模型結(jié)構(gòu)和參數(shù)設(shè)計(jì),以獲得在具體圖像分類問題中更準(zhǔn)確、有效的結(jié)果。具體內(nèi)容如下:
(1)針對小樣本圖像分類問題,將圖像小樣本分類應(yīng)用于小范圍的圖像定位。結(jié)合問題特點(diǎn)設(shè)計(jì)了一種基于遷移學(xué)習(xí)的混合CNN結(jié)構(gòu)(TCNN-SVM),通過遷移學(xué)習(xí)使得小型數(shù)據(jù)庫可以在利用大型數(shù)據(jù)庫訓(xùn)練所得到的更有區(qū)
4、分度和魯棒性更高的特征,并且利用特征遷移通過固定特征抽取部分參數(shù),重新訓(xùn)練分類器部分參數(shù)適應(yīng)新的數(shù)據(jù)集,在一定程度上降低了訓(xùn)練的時(shí)間成本和訓(xùn)練復(fù)雜度?;旌夏P椭幸肓酥С窒蛄繖C(jī)作為分類器,避免由于樣本類別數(shù)過少導(dǎo)致全連接層間神經(jīng)單元數(shù)量陡降的問題。同時(shí)采用了符合場景識別定位的小樣本數(shù)據(jù)擴(kuò)增技術(shù),通過切割和小角度旋轉(zhuǎn),使得采集的樣本數(shù)不需要太多也能獲得比較好的分類效果。
(2)針對精細(xì)圖像分類問題,主要研究電商平臺(tái)中女裝商品的精
5、細(xì)分類。借鑒空間金字塔模型的思想提出基于多尺度異構(gòu)CNN的學(xué)習(xí)模型(MHI-CNN)。與單個(gè)CNN的結(jié)構(gòu)相比,采用異構(gòu)的CNN結(jié)構(gòu)學(xué)習(xí)到的特征差異性更大,能夠更為有效地解決精細(xì)分類問題中特征差異化的問題。設(shè)計(jì)多尺度的輸入,避免了CNN結(jié)構(gòu)輸入維數(shù)固定的問題,這使得輸入圖像不會(huì)因?yàn)閱我坏那懈疃鴵p失重要信息。采用投票機(jī)制計(jì)算權(quán)值來混合多個(gè)CNN結(jié)構(gòu),避免使用平均的方式弱化區(qū)分性能強(qiáng)的CNN結(jié)構(gòu)。同時(shí)將前景分割、顏色通道變化作為一種數(shù)據(jù)擴(kuò)增的
6、手段。前景分割在精細(xì)分類中通常是作為預(yù)處理手段,實(shí)踐表明,其對分類結(jié)果有明顯的提升作用,但也會(huì)帶來部分信息損失。這些信息在某些情況下可能是很重要的。而作為CNN數(shù)據(jù)擴(kuò)增的方式,既增加了樣本的數(shù)量更符合CNN訓(xùn)練要求,同時(shí)保留了背景中有價(jià)值的信息。
(3)針對低質(zhì)量圖像和難分辨圖像分類問題,主要研究電商平臺(tái)中買家秀中的低質(zhì)量和難分辨圖像的分類管理。借鑒人工處理低質(zhì)量圖像的思路,提出了一個(gè)基于模糊分類的卷積神經(jīng)網(wǎng)絡(luò)模型。采用CNN
7、模型,沒有預(yù)先對圖像做增強(qiáng)或者是超分辨率重建的操作,減少了計(jì)算的時(shí)間復(fù)雜度。在分類過程中,引入了模糊隸屬度的概念,對每個(gè)分類先通過卷積神經(jīng)網(wǎng)絡(luò)的特征提取獲得類模板,計(jì)算與類模板的貼近度,最后輸出一個(gè)類別標(biāo)簽的模糊度。這樣解決了低質(zhì)量和難分類圖像的分類結(jié)果硬性判定的問題。
以上所提出的方法的有效性都在相應(yīng)的數(shù)據(jù)庫上進(jìn)行了實(shí)驗(yàn)驗(yàn)證,實(shí)驗(yàn)結(jié)果表明,上述所提方法是有效的。
最后,在總結(jié)全文的基礎(chǔ)上,提出了有待進(jìn)一步研究的課題
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度學(xué)習(xí)的圖像分類的研究.pdf
- 基于深度學(xué)習(xí)模型的圖像分類研究.pdf
- 基于深度學(xué)習(xí)的圖像情感分類研究.pdf
- 基于深度學(xué)習(xí)的圖像分類方法研究.pdf
- 基于深度學(xué)習(xí)的醫(yī)學(xué)圖像分類方法研究.pdf
- 基于深度學(xué)習(xí)的醫(yī)學(xué)圖像模式分類研究.pdf
- 基于深度學(xué)習(xí)的圖像分類技術(shù)研究.pdf
- 基于深度學(xué)習(xí)的問題分類的研究.pdf
- 基于深度學(xué)習(xí)的干涉SAR圖像分類.pdf
- 基于主動(dòng)深度學(xué)習(xí)的遙感圖像分類.pdf
- 基于深度學(xué)習(xí)的自然圖像分類方法的研究.pdf
- 基于深度學(xué)習(xí)的稻飛虱圖像分類識別的研究.pdf
- 深度學(xué)習(xí)在圖像分類中的應(yīng)用研究.pdf
- 基于深度學(xué)習(xí)的高光譜遙感圖像分類.pdf
- 基于深度學(xué)習(xí)的問題分類組合模型研究.pdf
- 深度學(xué)習(xí)在圖像語義分類中的應(yīng)用.pdf
- 基于深度學(xué)習(xí)的服裝圖像分類與檢索.pdf
- 基于深度學(xué)習(xí)的高光譜圖像分類算法的研究.pdf
- 基于深度學(xué)習(xí)的圖像語義理解和分類研究.pdf
- 基于深度層次特征學(xué)習(xí)的大規(guī)模圖像分類研究.pdf
評論
0/150
提交評論