

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、隨著現(xiàn)代社會(huì)經(jīng)濟(jì)和科學(xué)技術(shù)的快速發(fā)展,人們活動(dòng)領(lǐng)域不斷擴(kuò)大,身份識(shí)別技術(shù)在當(dāng)今社會(huì)生活和經(jīng)濟(jì)活動(dòng)方面顯得越來越重要。傳統(tǒng)的密碼、智能卡或動(dòng)態(tài)口令等具有先天性安全缺陷的身份認(rèn)證手段已經(jīng)遠(yuǎn)遠(yuǎn)無法滿足大眾的需求,人們就逐漸把目光轉(zhuǎn)向了具有唯一性和終身不變性的基于生物特征的個(gè)人身份識(shí)別技術(shù)。其中說話人識(shí)別技術(shù)因其獨(dú)特的方便性、經(jīng)濟(jì)性和準(zhǔn)確性,在生物識(shí)別領(lǐng)域中獲得廣闊應(yīng)用。
雖然說話人識(shí)別技術(shù)的研究工作已經(jīng)歷經(jīng)多年,但其技術(shù)還不能滿
2、足日益增加的性能要求,仍需不斷提高。本文以小樣本語料庫為應(yīng)用對(duì)象,深入研究與文本無關(guān)的說話人識(shí)別系統(tǒng),具體工作可歸納如下:
(1)介紹說話人識(shí)別的基本原理,包括預(yù)處理、特征參數(shù)提取、模型構(gòu)建過程等。
(2)將相關(guān)向量機(jī)(Relevance Vector Machine,RVM)應(yīng)用于說話人識(shí)別系統(tǒng)。RVM采用稀疏性先驗(yàn)概率分布,使模型具有高度稀疏性,并且在模型訓(xùn)練過程中采用快速邊緣最大化算法,規(guī)避了大型矩陣逆
3、操作,減少計(jì)算量,可靈活應(yīng)用于實(shí)時(shí)性要求較高的說話人識(shí)別場(chǎng)合。
(3)針對(duì)語音數(shù)據(jù)本身具有的復(fù)雜分布結(jié)構(gòu),在核函數(shù)中引入相似度因子構(gòu)成保局部核函數(shù),保留了數(shù)據(jù)內(nèi)部局部結(jié)構(gòu),并將保局部核應(yīng)用于RVM,以提高分類精度。
(4)針對(duì)說話人多分類問題,提出一種多元RVM(Multi-RVM,MRVM)模型,并采用保局部核,形成一個(gè)基于保局部核的多元相關(guān)向量機(jī)模型。新模型簡(jiǎn)化了最終分類模型,一次成型,更加方便、直觀。<
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 說話人識(shí)別方法的研究.pdf
- 基于說話人轉(zhuǎn)換的語音識(shí)別方法.pdf
- 基于PLDA模型的說話人識(shí)別方法研究.pdf
- 基于小波變換的說話人識(shí)別方法研究.pdf
- 基于模型聚類的說話人識(shí)別方法研究.pdf
- 基于倒譜特征的說話人識(shí)別方法研究.pdf
- 基于深度學(xué)習(xí)的說話人識(shí)別方法的研究.pdf
- 基于GMM和SVM的說話人識(shí)別方法研究.pdf
- 基于VQ-HMM的說話人識(shí)別方法研究.pdf
- 說話人識(shí)別方法與策略的研究.pdf
- 基于稀疏編碼的魯棒說話人識(shí)別方法研究.pdf
- 基于改進(jìn)高斯混合模型的說話人識(shí)別方法研究.pdf
- 基于GMM-UBM的快速說話人識(shí)別方法.pdf
- 噪聲環(huán)境下說話人識(shí)別方法研究.pdf
- 基于高層信息融合的短語音說話人識(shí)別方法研究.pdf
- 基于Fisher準(zhǔn)則和數(shù)據(jù)融合的說話人識(shí)別方法研究.pdf
- 噪音環(huán)境下說話人識(shí)別方法.pdf
- 電子偽裝語音下的說話人識(shí)別方法研究.pdf
- 與文本有關(guān)的說話人識(shí)別方法的研究.pdf
- 說話人識(shí)別方法及其系統(tǒng)的應(yīng)用開發(fā)研究.pdf
評(píng)論
0/150
提交評(píng)論