![](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/14/17/b09bd272-fb72-403f-b6a5-4821d1d99e30/b09bd272-fb72-403f-b6a5-4821d1d99e30pic.jpg)
![基于距離度量學(xué)習(xí)和多視圖學(xué)習(xí)的服裝主觀風(fēng)格識(shí)別方法.pdf_第1頁(yè)](https://static.zsdocx.com/FlexPaper/FileRoot/2019-3/14/17/b09bd272-fb72-403f-b6a5-4821d1d99e30/b09bd272-fb72-403f-b6a5-4821d1d99e301.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著電子商務(wù)的發(fā)展,如何正確識(shí)別服裝風(fēng)格成為一項(xiàng)意義深遠(yuǎn)的工作。服裝風(fēng)格的準(zhǔn)確識(shí)別可為如下研究提供基礎(chǔ):自動(dòng)化的服裝標(biāo)注、基于內(nèi)容的服裝檢索、個(gè)性化的服裝推薦、風(fēng)格統(tǒng)一的服裝搭配。而現(xiàn)有服裝風(fēng)格識(shí)別方法主要基于客觀風(fēng)格,較少基于主觀風(fēng)格,且缺乏對(duì)多個(gè)主觀風(fēng)格同時(shí)識(shí)別的工作,因此本文提出一種基于多個(gè)主觀風(fēng)格的服裝識(shí)別方法。
我們首先從互聯(lián)網(wǎng)上爬取多張帶有多個(gè)主觀風(fēng)格的服裝圖片及其主、客觀風(fēng)格信息;然后對(duì)這些圖片進(jìn)行姿勢(shì)估計(jì)和特征
2、提取;其次為了能夠得到更有區(qū)分度的特征,我們提出一種多標(biāo)簽距離度量學(xué)習(xí)模型,并將該模型運(yùn)用到已獲得的特征上,得到新的距離度量學(xué)習(xí)特征。之后為了進(jìn)一步提高服裝主觀風(fēng)格的識(shí)別效果,我們結(jié)合服裝圖片的客觀風(fēng)格文本描述信息,將已有的單標(biāo)簽多視圖學(xué)習(xí)模型改進(jìn)成為多標(biāo)簽多視圖學(xué)習(xí)模型,得到多視圖學(xué)習(xí)的新特征。最后對(duì)多視圖學(xué)習(xí)特征集進(jìn)行多標(biāo)簽分類,得到服裝多個(gè)主觀風(fēng)格的識(shí)別結(jié)果。
實(shí)驗(yàn)結(jié)果表明,本文提出的基于距離度量學(xué)習(xí)和多視圖學(xué)習(xí)的服裝主
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于度量學(xué)習(xí)的人臉識(shí)別方法研究.pdf
- 基于多視圖流形鑒別學(xué)習(xí)的單樣本人臉識(shí)別方法研究.pdf
- 基于仿射弧多流形距離度量的人臉識(shí)別方法研究.pdf
- 基于SIFT特征和距離度量學(xué)習(xí)的圖像檢索方法.pdf
- 基于距離度量學(xué)習(xí)的目標(biāo)跟蹤方法研究.pdf
- 基于深度學(xué)習(xí)和遷移學(xué)習(xí)的語音情感識(shí)別方法研究.pdf
- 基于改進(jìn)多度量學(xué)習(xí)的人臉識(shí)別.pdf
- 基于字典學(xué)習(xí)的對(duì)象識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的表情識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的視頻人臉識(shí)別方法.pdf
- 基于度量學(xué)習(xí)和深度學(xué)習(xí)的行人重識(shí)別研究.pdf
- 基于距離度量學(xué)習(xí)的軟件缺陷預(yù)測(cè)方法研究.pdf
- 基于深度學(xué)習(xí)的植物葉片識(shí)別方法研究.pdf
- 基于機(jī)器學(xué)習(xí)的道路區(qū)域識(shí)別方法研究.pdf
- 基于集成學(xué)習(xí)的人臉識(shí)別方法研究.pdf
- 基于類比學(xué)習(xí)的人名識(shí)別方法研究.pdf
- 基于多核多示例學(xué)習(xí)的洗車行為識(shí)別方法研究.pdf
- 基于流型學(xué)習(xí)的動(dòng)態(tài)車牌識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的圖像特征識(shí)別方法研究.pdf
- 基于組稀疏和字典學(xué)習(xí)的人體行為識(shí)別方法.pdf
評(píng)論
0/150
提交評(píng)論