版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、服裝屬性研究包括在一張指定圖片上識(shí)別衣服的款式、檢測(cè)服裝部件以及檢索相似服裝等內(nèi)容。由于傳統(tǒng)手工特征提取算法的局限性,公開(kāi)測(cè)試的數(shù)據(jù)庫(kù)樣本少等問(wèn)題,服裝屬性研究在實(shí)際應(yīng)用中的效果面臨著巨大的挑戰(zhàn)。因此本文提出了基于深度卷積神經(jīng)網(wǎng)絡(luò)模型在服裝屬性方面的研究及應(yīng)用,具體工作總結(jié)如下:
基于服裝款式的分類檢索任務(wù)中提出了基于深度卷積神經(jīng)網(wǎng)絡(luò)的分類檢索模型。首先本文建立十萬(wàn)數(shù)量級(jí)的B_Dat Clothing的不同衣服款式的圖像數(shù)據(jù)庫(kù)
2、,通過(guò)訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)模型,并對(duì)數(shù)據(jù)庫(kù)測(cè)試集驗(yàn)證。提取所有服裝數(shù)據(jù)的卷積特征,利用迭代量化的方法構(gòu)建哈希索引。實(shí)驗(yàn)表明,提出的基于深度卷神經(jīng)網(wǎng)絡(luò)的分類方法、卷積特征構(gòu)建哈希索引的檢索方式,在構(gòu)建的服裝數(shù)據(jù)庫(kù)上具有分類準(zhǔn)、檢索快、效果好等特點(diǎn)。
基于服裝部件的檢測(cè)模型主要采用區(qū)域卷積神經(jīng)網(wǎng)絡(luò)的基本思想,采用快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(fast-rcnn)與更快區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(faster-rcnn)的基本框架應(yīng)用在服裝部件與人體
3、部件的檢測(cè)。行人街景照片待檢測(cè)的任務(wù)細(xì)分為包、腰帶、人臉等12個(gè)類別,在fast-rcnn與faster-rcnn基本框架下,調(diào)整了模型全連接層參數(shù)。實(shí)驗(yàn)結(jié)果表明,兩者在識(shí)別精度上相近,速度上faster-rcnn已經(jīng)基本能達(dá)到了檢測(cè)的實(shí)時(shí)性。能從復(fù)雜背景的圖片中定位服裝位置,去除復(fù)雜背景,有助于提高服裝款式的分類結(jié)果。
基于服裝屬性的系統(tǒng)應(yīng)用主要包括服裝分類檢索的PC機(jī)客戶端、服裝部件實(shí)時(shí)檢測(cè)、網(wǎng)頁(yè)版服裝檢索。PC機(jī)客戶端的
4、系統(tǒng)實(shí)現(xiàn)了用戶上傳衣服圖片后對(duì)其進(jìn)行屬性檢測(cè)、離線檢索、在線檢索等功能。服裝部件實(shí)時(shí)檢測(cè)系統(tǒng)幫助用戶實(shí)時(shí)檢測(cè)服裝部件、形體部件。網(wǎng)頁(yè)版服裝檢索系統(tǒng)通過(guò)本地上傳圖片或者網(wǎng)絡(luò)圖片地址實(shí)現(xiàn)快速檢索相似圖片。實(shí)驗(yàn)結(jié)果表明,設(shè)計(jì)的基于服裝屬性的系統(tǒng)應(yīng)用均取得不錯(cuò)的實(shí)驗(yàn)效果。
本文針對(duì)傳統(tǒng)手工特征算法在服裝屬性分類檢索方面的缺陷,采用基于深度卷積神經(jīng)網(wǎng)絡(luò)的基本框架。實(shí)驗(yàn)結(jié)果表明,卷積特征結(jié)合哈希索引,能夠快速準(zhǔn)確分類與檢索相似圖片,對(duì)服裝
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的車型識(shí)別.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤.pdf
- 卷積神經(jīng)網(wǎng)絡(luò)及其應(yīng)用.pdf
- 基于FPGA的深度卷積神經(jīng)網(wǎng)絡(luò)加速研究.pdf
- 基于免疫卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的場(chǎng)景分類研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的語(yǔ)義圖像檢索研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像檢索算法研究.pdf
- 基于Caffe深度學(xué)習(xí)框架的卷積神經(jīng)網(wǎng)絡(luò)研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的離線筆跡鑒別研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的顏值計(jì)算研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別的研究與應(yīng)用.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類方法研究及應(yīng)用.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的實(shí)體關(guān)系抽取.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的熟料顆粒方法研究.pdf
- 基于深度卷積神經(jīng)網(wǎng)絡(luò)的人體姿勢(shì)估計(jì)研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的電商數(shù)據(jù)深度挖掘.pdf
- 基于多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)的視頻目標(biāo)屬性識(shí)別.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的光場(chǎng)圖像深度估計(jì).pdf
評(píng)論
0/150
提交評(píng)論