2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩70頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、隨著大數(shù)據(jù)時代的到來產(chǎn)生海量的文本數(shù)據(jù)資源,文本挖掘面臨從按秒激增的文本中探求有價值信息的艱巨任務(wù)。文本表示模型和文本特征提取是文本挖掘領(lǐng)域的重要研究方向,能夠智能地挖掘文本中的信息是文本挖掘領(lǐng)域的迫切需求。粒計算是人工智能領(lǐng)域中一門挖掘海量信息的新理論。本文尋求基于粒計算理論的文本表示模型和特征提取算法來挖掘海量文本信息是一種有益的嘗試。
  基于LDA(Latent Dirichlet Allocation)的文本主題模型是建

2、立在統(tǒng)計理論上的一種文本表示模型,其中關(guān)鍵詞是表征主題語義的基本特征。LDA可以將某個主題下生成概率大的關(guān)鍵詞提取出來,而這些關(guān)鍵詞對于表征該主題未必重要。鑒于此,本文提出了一種基于集合論的文本表示模型,即文本的全覆蓋粒計算模型(Full Covering Granular Computing Model of Texts,F(xiàn)CGMT),并在此基礎(chǔ)上提出一種基于全覆蓋粒計算模型的重要關(guān)鍵詞提取算法,利用全覆蓋的約簡思想對LDA提取的關(guān)鍵

3、詞計算其重要度,從而選出表征該主題語義的關(guān)鍵詞。用復(fù)旦大學(xué)語料庫、搜狗新聞?wù)Z料和網(wǎng)絡(luò)抓取的實時語料三類型語料庫做實驗,與基于TF IDF的關(guān)鍵詞提取算法和基于LDA的關(guān)鍵詞提取算法做比較,證明本文算法的有效性。
  本文的主要研究內(nèi)容有:
  1、在全覆蓋粒計算模型的基礎(chǔ)上設(shè)計文本的全覆蓋粒計算模型表示方法,基于LDA主題模型的訓(xùn)練獲得候選詞,然后根據(jù)覆蓋粒計算模型理論,找到語料庫、文檔、主題、候選詞與論域、論域中的點、覆蓋

4、、覆蓋元之間的一一對應(yīng)關(guān)系,構(gòu)建出文本的“主題-候選詞-文檔”全覆蓋粒計算模型,給基于F CG MT的重要關(guān)鍵詞提取算法提供理論依據(jù)。
  2、提出全覆蓋粒的約簡算法的一種改進方法,優(yōu)化了全覆蓋粒計算模型中屬性約簡的過程,針對文本特征的多維性,特征的屬性重要度具有多樣性并不是單純的1和0,重新定義了屬性重要度的度量方法。并通過重要關(guān)鍵詞提取實驗證明粒的約簡的改進算法的有效性。
  3、設(shè)計了一種基于文本的全覆蓋粒計算模型的關(guān)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論