版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著互聯(lián)網(wǎng)技術(shù)和智能硬件設(shè)備的高速發(fā)展,豐富的多媒體數(shù)據(jù)出現(xiàn)在網(wǎng)絡(luò)上。視頻和文本作為兩類重要的媒體信息載體,是多媒體信息處理領(lǐng)域中的重要研究對(duì)象。嵌入學(xué)習(xí)在多媒體數(shù)據(jù)存儲(chǔ)、檢索和分類等領(lǐng)域已被廣泛應(yīng)用,其旨在發(fā)掘并利用數(shù)據(jù)的本質(zhì)特性生成其對(duì)應(yīng)的低維向量表示。論文以近重復(fù)視頻檢索和跨域情感分類為研究課題,提出一些新穎的基于嵌入學(xué)習(xí)的視頻和文本表示方法,挖掘數(shù)據(jù)的內(nèi)容信息并生成準(zhǔn)確的數(shù)據(jù)簽名。
近重復(fù)視頻檢索主要研究如何搜索與查詢
2、視頻相同或相近的視頻,其核心任務(wù)是視頻信息的準(zhǔn)確提取與表示。它是多媒體信息處理領(lǐng)域中一個(gè)重要的研究課題,其相關(guān)應(yīng)用包括視頻搜索、視頻推薦和版權(quán)保護(hù)等。隨著網(wǎng)絡(luò)視頻數(shù)量的增加,除了傳統(tǒng)的準(zhǔn)確性指標(biāo)外,許多近重復(fù)視頻檢索系統(tǒng)越來(lái)越關(guān)注系統(tǒng)的高效性和可擴(kuò)展性??缬蚯楦蟹诸惖娜蝿?wù)是通過(guò)依靠源域中的監(jiān)督數(shù)據(jù)來(lái)獲得能夠適用于目標(biāo)域的情感分類器,其主要研究如何減小不同領(lǐng)域間單詞分布的差異和如何生成準(zhǔn)確描述文本數(shù)據(jù)的簽名。
為了解決上述問(wèn)題,
3、同時(shí)考慮視頻和文本數(shù)據(jù)的特性,論文提出了基于嵌入學(xué)習(xí)的數(shù)據(jù)表示方法,包括三種用于近重復(fù)視頻檢索的哈希方法和一種用于跨域情感分類的嵌入方法。本論文的主要工作總結(jié)如下:
1.基于高斯分布的隨機(jī)多視角哈希方法
為了提高大規(guī)模近重復(fù)視頻檢索的準(zhǔn)確率和速度,論文采用基于高斯分布的隨機(jī)多視角哈希方法將多種視頻關(guān)鍵幀的底層特征進(jìn)行融合,并結(jié)合關(guān)鍵幀間的結(jié)構(gòu)信息和可利用的監(jiān)督信息,生成視頻的最終哈希碼序列表示。該方法通過(guò)最大化廣義的
4、檢索準(zhǔn)確率和召回率來(lái)學(xué)習(xí)可靠的映射函數(shù)。并且,方法采用復(fù)合的Kullback-Leibler(KL)散度測(cè)度來(lái)近似估計(jì)此檢索分?jǐn)?shù),其隨機(jī)地匹配了原始特征空間和準(zhǔn)哈希碼空間的近鄰結(jié)構(gòu)。實(shí)驗(yàn)結(jié)果表明,與其他近重復(fù)視頻檢索方法相比,本文的方法獲得了更好的檢索性能和更高的檢索效率。
2.基于t分布的隨機(jī)多視角哈希方法及其深度哈希擴(kuò)展
為了提升非監(jiān)督學(xué)習(xí)的魯棒性,論文提出基于t分布的隨機(jī)多視角哈希方法。該方法采用基于高斯估計(jì)獲
5、得的連續(xù)相似度和基于互惠鄰居獲得的離散相似度來(lái)融合多種視頻特征,并通過(guò)最小化原始特征空間和準(zhǔn)哈希碼空間的概率相似度結(jié)構(gòu)的KL散度來(lái)學(xué)習(xí)哈希函數(shù)。為了減小遠(yuǎn)距離映射對(duì)象對(duì)尺度變化的敏感性,方法采用學(xué)生t分布來(lái)估計(jì)關(guān)鍵幀的準(zhǔn)哈希碼向量間的相似度,以便將原始空間中的非監(jiān)督近鄰結(jié)構(gòu)更準(zhǔn)確地保存到準(zhǔn)哈希碼空間中。此外,為了思考非監(jiān)督深度學(xué)習(xí)的問(wèn)題和促進(jìn)大規(guī)模檢索的發(fā)展,論文將該方法擴(kuò)展到非監(jiān)督的深度學(xué)習(xí)上。通過(guò)應(yīng)用相同的優(yōu)化目標(biāo)方程和構(gòu)建基于一個(gè)
6、深度神經(jīng)網(wǎng)絡(luò)的哈希映射函數(shù),開(kāi)發(fā)一種用于訓(xùn)練深度哈希網(wǎng)絡(luò)的魯棒非監(jiān)督的訓(xùn)練策略。
3.基于嵌入的跨域情感分類方法
為了實(shí)現(xiàn)跨域情感分類任務(wù),論文提出一種基于嵌入的文本映射方法。該方法采用若干個(gè)軸點(diǎn)(pivot)連接源域和目標(biāo)域,通過(guò)構(gòu)建三個(gè)概率相似度匹配模型來(lái)學(xué)習(xí)文本數(shù)據(jù)的映射函數(shù),并最終生成兩個(gè)領(lǐng)域中單詞和文檔數(shù)據(jù)的嵌入向量表示。軸點(diǎn)被用來(lái)減小源域和目標(biāo)域中單詞分布的差異,而三個(gè)概率相似度匹配模型則被用來(lái)保存文本數(shù)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于關(guān)鍵幀的近重復(fù)視頻檢索.pdf
- 基于多特征的近重復(fù)圖像判斷和檢索.pdf
- 基于運(yùn)動(dòng)信息的視頻分類和檢索.pdf
- 基于內(nèi)容的大規(guī)模近似重復(fù)視頻檢索研究.pdf
- 基于跨領(lǐng)域分類學(xué)習(xí)的產(chǎn)品評(píng)論情感分析.pdf
- 跨域的圖片情感分析.pdf
- DCT域上基于主顏色的圖像和視頻檢索.pdf
- 近重復(fù)視頻檢測(cè)算法研究.pdf
- 基于h.264壓縮域的視頻檢索研究
- 基于深度學(xué)習(xí)的重復(fù)視頻檢測(cè).pdf
- 基于特征極性的跨領(lǐng)域情感分類方法研究.pdf
- 基于壓縮域特征的視頻檢索技術(shù)研究.pdf
- 面向跨域分類的圖像視覺(jué)屬性學(xué)習(xí)方法研究.pdf
- 基于特征關(guān)聯(lián)的跨領(lǐng)域情感分類方法研究.pdf
- 基于內(nèi)容的視頻檢索與分類方法研究.pdf
- 基于語(yǔ)言模型和機(jī)器學(xué)習(xí)的文本情感分類研究.pdf
- 基于深度學(xué)習(xí)的文本情感分類研究.pdf
- 基于主動(dòng)學(xué)習(xí)的情感分類方法研究.pdf
- 基于特征極性傳遞的跨領(lǐng)域情感分類方法研究.pdf
- 基于多核學(xué)習(xí)和圖正則化的跨模態(tài)哈希檢索研究.pdf
評(píng)論
0/150
提交評(píng)論