2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩75頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

1、隨著用戶需求的多樣化,個性化推薦系統(tǒng)不僅用于電子商務,也用于推薦網(wǎng)頁、電影、文本等。為了讓人們方便準確地獲得需要的文獻,研究基于文本信息的推薦技術成為必要。文本信息推薦系統(tǒng)的功能是收集和分析用戶歷史閱讀過的感興趣文本,據(jù)此來認識用戶偏好信息并建立用戶興趣模型,然后將與模型匹配度高的文本推薦給用戶。
  在文本信息推薦系統(tǒng)中,用戶興趣建模模塊是其中一個核心的模塊。模型創(chuàng)建時,通過分詞、特征選擇直接從文本中獲得特征詞向量的文本表示方法

2、只考慮了文本在詞形上的相同點,而忽略了文本在詞義上的相同點。這將會導致推薦時,僅能推薦出詞形相同的文本,不能推薦出詞形不同但詞義相關的文本,從而導致查全率低。此外,當用戶使用系統(tǒng)的時間越長,用戶累計的歷史閱讀信息就越多。此時,對用戶興趣模型進行更新時,系統(tǒng)從歷史用戶閱讀文本中提取用戶興趣模型的計算量會變得越來越龐大。在此情況下,系統(tǒng)響應時間變得越來越慢。這不利于用戶體驗。
  針對以上問題,本文做了如下工作:
  1)本文設

3、計了一種文本信息推薦系統(tǒng)框架,給出了系統(tǒng)的整體結(jié)構(gòu)和各個模塊的功能。本文參與了系統(tǒng)整體設計,實現(xiàn)了用戶興趣模型模塊功能。
  2)提出了一種基于單詞間詞義相關性的用戶興趣模型創(chuàng)建方法:通常認為每個單詞具有多個詞義,單純依靠單詞本身無法確定單詞的詞義,但在同一篇文本中的多個單詞,其詞義具有相關性,即同一篇文本的多個單詞可能具有相同的上位概念(更一般化的概念)。該模型創(chuàng)建方法的主要思想是利用單詞間的詞義相關性來判斷單詞在文本中的正確詞

4、義,進而選擇該詞義下的上位概念來構(gòu)建用戶興趣模型。本文提出了利用文本單詞間的詞義相關性來進行詞義識別的方法。由于單詞的一重詞義具有它固有的上位概念,單詞間詞義的相關性體現(xiàn)在它們的上位概念關系中,因此該詞義識別方法通過單詞間各個詞義的上位概念關系來判斷單詞的正確詞義。最后通過該詞義識別方法獲得單詞正確詞義下的上位概念,以上位概念表示單詞構(gòu)建文本的概念向量,在此基礎上創(chuàng)建用戶興趣模型。
  3)對用戶興趣模型的快速更新方法進行了研究:

5、通常模型更新是在前一次模型中增加或者刪除信息,在這個過程中保存前一次模型創(chuàng)建時的中間結(jié)果,在這個中間結(jié)果的基礎上再進行更新時,可以減少重復計算工作,達到快速更新的目的。本文對模型快速更新方法的一般思路進行了梳理,實現(xiàn)了三種常見模型的快速更新方法。在本文設計的文本信息推薦系統(tǒng)結(jié)構(gòu)上,實現(xiàn)了基于單詞間詞義相關性的模型增量更新方法。
  最后通過實驗證明,本文提出的基于單詞間詞義相關性的用戶興趣模型創(chuàng)建方法提取出的模型在推薦時具有更高的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論