版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
1、近幾十年以來,經過國內外廣大專家學者研究人員的努力,現在已經形成了一些常用的中文分詞算法,最常見的包括了基于詞典的機械中文分詞算法、基于統(tǒng)計的中文分詞算法和基于理解的中文分詞算法。這些算法都有其各自的優(yōu)勢與局限性,基于詞庫的機械分詞算法實現簡單運行效率高,但對新詞的識別效果差;基于理解的中文分詞算法難以達到應用的程度,主要還是以理論研究為主;基于統(tǒng)計的中文分詞算法對新詞的處理效果好,但是算法時空開銷大,對常用詞識別效果差。目前已有的系統(tǒng)
2、主要都是基于這三種常用算法來實現的,但是由于漢語語言的復雜性以及隨著時代變化不斷涌現出的各種新詞匯,這些系統(tǒng)尚不能完全滿足實際應用系統(tǒng)的需求。
在算法研究的理論基礎上,實現了基于詞庫與貝葉斯定理的分詞算法。構建了一個包括了常用詞庫與其他特征詞庫的分詞詞庫,而且能夠根據語料庫的文本來對詞庫進行更新,從而提高了分詞詞庫的質量。通過采用Hash表與鏈表結合的方式來存儲詞庫,來滿足算法對詞庫數據的快速查找的需求。將傳統(tǒng)的貝葉斯定理靈活
3、地應用于中文分詞上,得到計算分詞方案概率的公式,并根據分詞詞庫里中文詞匯的概率數據來計算分詞方案的概率。歧義問題的處理是中文分詞的一個比較大的技術難點,對于這個問題的處理,算法采用的是二元模型,能有效解決這個問題。經過這些處理,使得算法能夠充分汲取各種常見算法的優(yōu)勢,避免各自的局限性,對常用詞匯以及新詞的處理效果都比較好。
在各種測試條件下的測試結果表明,該算法具有良好的分詞效果,對歧義處理、未登錄詞的處理方面效果較好,基本可
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于無詞庫的中文分詞方法的研究.pdf
- 針對中文內容和基于貝葉斯定理的反垃圾郵件方法的研究.pdf
- 基于字位的中文分詞方法研究與實現.pdf
- 基于主動學習的中文分詞方法研究.pdf
- 基于優(yōu)化最大匹配的中文分詞方法研究.pdf
- 基于規(guī)則的中文地址分詞與匹配方法.pdf
- 基于統(tǒng)計學習的中文分詞方法的研究.pdf
- 基于樹形結構的中文分詞方法的研究及實現.pdf
- 基于CRF的中文分詞研究與實現.pdf
- 組合型中文分詞方法的研究.pdf
- 規(guī)則與統(tǒng)計相結合的中文分詞方法研究.pdf
- 基于CRFs的中文分詞算法研究與實現.pdf
- 基于概念的中文分詞模型研究.pdf
- 我的但詞庫_背單詞_常用單詞
- 基于crfs的中文分詞算法研究與實現
- 基于本體的中文分詞算法的研究與實現.pdf
- 基于Active Learning的中文分詞領域自適應方法的研究.pdf
- 基于統(tǒng)計規(guī)則的中文分詞研究.pdf
- 基于灰色模型和貝葉斯定理的統(tǒng)計過程質量控制研究.pdf
- 基于局部Viterbi算法的中文分詞研究與應用.pdf
評論
0/150
提交評論