改進(jìn)的SVM+算法在文本分類中的應(yīng)用研究.pdf_第1頁
已閱讀1頁,還剩56頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、本文從理論以及實驗兩個層次對支持向量機(jī)算法進(jìn)行了深入的研究,同時將改進(jìn)算法運用在文本分類中。
  首先,本文詳細(xì)的介紹了文本分類系統(tǒng)的總體模型,包括:文本表示、特征選擇方法、文本分類算法。認(rèn)真研究了支持向量機(jī)算法的基本原理,并且對支持向量機(jī)訓(xùn)練算法中訓(xùn)練時間長和消耗內(nèi)存大的缺點加以討論,隨后詳細(xì)的討論了SVM訓(xùn)練算法的改進(jìn)算法,包括:Chunking算法、大規(guī)模分解法。
  其次詳細(xì)的分析了SMO序列最小化優(yōu)化算法,同時詳細(xì)

2、的研究了GeneralizedSMO訓(xùn)練算法在訓(xùn)練時間上要優(yōu)于SMO算法,由于SMO算法在有限的步驟之內(nèi)不能得到一個精確的值。分析了在訓(xùn)練樣本數(shù)相差比較大的情況下基于不同的懲罰系數(shù)C+和C-算法,并詳細(xì)的研究了新學(xué)習(xí)理論:基于特權(quán)信息學(xué)習(xí)。該學(xué)習(xí)理論在現(xiàn)有的機(jī)器學(xué)習(xí)理論基礎(chǔ)上加入了人類教學(xué)的元素,在訓(xùn)練階段加入信息中隱藏的解釋、意見、比較等等?;谝陨嫌?xùn)練優(yōu)化算法和新學(xué)習(xí)理論基礎(chǔ)上,設(shè)計了本文核心算法。
  最后本文利用搭建的系統(tǒng)

3、,對改進(jìn)算法的性能作了詳細(xì)的實驗研究。在特征提取上去除了一些不具代表性的特征項,在特征選擇上基于tf-idf的思想去除信息增益值小于設(shè)定的閾值的特征詞。核函數(shù)選取高斯徑向基核函數(shù),同時在文章中給出了改進(jìn)算法的核心偽代碼。為了測試改進(jìn)算法的優(yōu)越性,實驗對比了改進(jìn)算法的準(zhǔn)確率、召回率和訓(xùn)練時間。實驗表明改的算法在訓(xùn)練時加入對兩個類別施加不同懲罰系數(shù)的方法,該算法可以較好的處理了文本分類中非平衡數(shù)據(jù)集的問題。改進(jìn)算法加入了文本特權(quán)信息不但提高

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論