2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩75頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、基于用戶時(shí)空數(shù)據(jù)對(duì)用戶間社交鏈接進(jìn)行預(yù)測(cè)(即預(yù)測(cè)任意兩個(gè)用戶之間是否有社交鏈接)是重要的研究方向之一,吸引了大量學(xué)者對(duì)其進(jìn)行研究和探索。本文提出了一種新的預(yù)測(cè)用戶社交鏈接關(guān)系的方法,該方法充分挖掘了用戶的共現(xiàn)特征。本研究主要內(nèi)容包括:
 ?、裴槍?duì)傳統(tǒng)方法基本上只注重用戶與地點(diǎn)共現(xiàn)特征而忽略用戶與時(shí)間共現(xiàn)特征的問(wèn)題,提出了一種基于主題模型LatentDirichlet Allocation(LDA)的特征提取方法,不僅能夠獲得用戶與

2、地點(diǎn)的共現(xiàn)特征(Co-location Feature),還能同時(shí)獲得用戶與時(shí)間的共現(xiàn)特征(Co-time Feature)。研究發(fā)現(xiàn),經(jīng)常在相同的地方或者相同的時(shí)間發(fā)生簽到行為的用戶間存在社交鏈接關(guān)系的可能性較大。根據(jù)每位用戶在各個(gè)地點(diǎn)出現(xiàn)的頻率,通過(guò) LDA深層挖掘用戶的主題特征(即用戶與地點(diǎn)的共現(xiàn)特征,Co-location Feature)。該主題特征本質(zhì)上是由用戶與地點(diǎn)的共現(xiàn)產(chǎn)生,從而充分刻畫了用戶與地點(diǎn)的共現(xiàn)信息。同理,根據(jù)

3、每位用戶在各個(gè)時(shí)段出現(xiàn)的頻率,通過(guò)LDA模型獲取用戶的主題特征(即用戶與時(shí)間的共現(xiàn)特征,Co-time Feature)。在Brightkite數(shù)據(jù)集中,基于 LDA的特征方法預(yù)測(cè)用戶社交鏈接關(guān)系的(Precision,Recall)最高可達(dá)(72.6%,72.7%)。在 Gowalla數(shù)據(jù)集中,基于 LDA的特征方法預(yù)測(cè)用戶社交鏈接關(guān)系的(Precision,Recall)最高可達(dá)(75.8%,66.4%)。
 ?、芁DA沒(méi)有同

4、時(shí)考慮用戶簽到的時(shí)間特征和空間特征,它是一種粗粒度的特征提取方法。因此,本文還提出了一種基于詞向量算法word2vec的細(xì)粒度共現(xiàn)特征提取方法,該方法同時(shí)考慮了用戶簽到的時(shí)間特征和空間特征。通過(guò)該方法可以獲得用戶與相同地點(diǎn)最近時(shí)刻簽到用戶的共現(xiàn)特征(Co-location-time Feature)和用戶與相同時(shí)段最近鄰簽到用戶的共現(xiàn)特征(Co-time-location Feature),該類特征同時(shí)考慮了用戶簽到的時(shí)間特征和空間特征

5、。在Brightkite數(shù)據(jù)集中,該方法與基于LDA的社交鏈接預(yù)測(cè)方法相比,其Precision和Recall分別提高了5.3%和6.4%。在 Gowalla數(shù)據(jù)集中,其Precision和Recall分別提高了11.9%和10.4%。
  ⑶為了能夠充分利用共現(xiàn)特征預(yù)測(cè)用戶社交鏈接關(guān)系,本文提出了基于決策融合的用戶社交鏈接預(yù)測(cè)的方法,將LDA模型產(chǎn)生的Co-location特征和Co-time特征所預(yù)測(cè)的社交鏈接強(qiáng)度和 word

6、2vec產(chǎn)生的 Co-location-time特征和Co-time-location特征所預(yù)測(cè)的社交鏈接強(qiáng)度融合(即決策融合),獲得融合的決策特征。實(shí)驗(yàn)證明,在Brightkite數(shù)據(jù)集中,該方法與基于LDA的方法相比,其Precision和Recall分別提高了7.1%和8.2%;該方法與基于word2vec的方法相比,其Precision和Recall都提高了1.8%。在Gowalla數(shù)據(jù)集中,與LDA方法比,其Precision

7、和Recall分別提高了14.8%和13.0%;與基于word2vec的方法比,其Precision和Recall分別提高了2.9%和2.6%。目前,Entropy-Based Model(EBM)預(yù)測(cè)的用戶社交鏈接關(guān)系實(shí)驗(yàn)效果最佳,其在Gowalla數(shù)據(jù)集上(Precision,Recall)最高可達(dá)(80%,70%),而本文提出的基于決策融合的社交鏈接預(yù)測(cè)方法的(Precision,Recall)最高可達(dá)(90.6%,79.4%)。

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論