

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、說(shuō)話人識(shí)別又被稱(chēng)作聲紋識(shí)別,是生物識(shí)別研究的一個(gè)重要方向。近年來(lái),隨著生物技術(shù)和信息技術(shù)的高速發(fā)展,語(yǔ)音識(shí)別技術(shù)也日漸成熟并逐步得到普及,使得用語(yǔ)音與計(jì)算機(jī)之間的交流也成為了一種現(xiàn)實(shí)。在此過(guò)程中,用于研究說(shuō)話人識(shí)別的理論和算法也在不斷提出和改進(jìn)。其中,高斯混合模型(GMM)由于其識(shí)別性能良好、方法簡(jiǎn)單和復(fù)雜度小,在目前說(shuō)話人識(shí)別領(lǐng)域中應(yīng)用最為廣泛。經(jīng)典的GMM在對(duì)每個(gè)說(shuō)話人建立模型時(shí),其混合階數(shù)K與具體應(yīng)用有關(guān),通常由人根據(jù)實(shí)驗(yàn)結(jié)果給定
2、,因此具有一定的隨意性。針對(duì)在說(shuō)話人識(shí)別過(guò)程中,經(jīng)典的GMM混合階數(shù)的確定具有一定隨意性的問(wèn)題,本文提出采用吸引子傳播聚類(lèi)方法(AP聚類(lèi))自動(dòng)獲取GMM的階數(shù),進(jìn)而實(shí)現(xiàn)說(shuō)話人識(shí)別的方法。這個(gè)方法避免了人為實(shí)驗(yàn)摸索去獲得GMM的混合階數(shù),顯著提高了說(shuō)話人識(shí)別的精度和效率。
本文首先介紹了說(shuō)話人識(shí)別的相關(guān)背景知識(shí),以及其研究的意義;分析了說(shuō)話人識(shí)別的研究現(xiàn)狀、發(fā)展趨勢(shì)以及存在問(wèn)題。其次詳細(xì)闡述了語(yǔ)音信號(hào)的預(yù)處理和特征提取的過(guò)程。其
3、中,語(yǔ)音信號(hào)的預(yù)處理過(guò)程主要包括語(yǔ)音采樣、數(shù)字化、預(yù)加重、分幀加窗和端點(diǎn)檢測(cè)。然后介紹了語(yǔ)音信號(hào)特征參數(shù)的分類(lèi),并分析了線性預(yù)測(cè)系數(shù)(LPC)、線性預(yù)測(cè)倒譜參數(shù)(LPCC)、梅爾頻率倒譜系數(shù)(MFCC)三種常用的特征參數(shù)的優(yōu)缺點(diǎn)。第三,對(duì)說(shuō)話人識(shí)別模型的建立進(jìn)行了深入研究,詳細(xì)闡述了矢量量化模型(VQ)、隱馬爾可夫模型(HMM)和高斯混合模型(GMM)等常用建模方法的基本原理。第四,給出了說(shuō)話人識(shí)別系統(tǒng)的設(shè)計(jì)流程圖。然后,詳細(xì)介紹了AP
4、(AffinityPropagation,吸引子傳播)聚類(lèi)算法基本原理,并給出了利用AP聚類(lèi)算法自動(dòng)獲取GMM混合階數(shù)的具體實(shí)現(xiàn)過(guò)程。首先,采用Mel頻率倒譜系數(shù)法(MFCC)與差分倒譜相結(jié)合的方法,提取語(yǔ)音特征參數(shù);其次,采用吸引子傳播聚類(lèi)方法(AP聚類(lèi))對(duì)語(yǔ)音特征參數(shù)進(jìn)行聚類(lèi)處理,從而自動(dòng)獲得GMM的階數(shù);在此基礎(chǔ)上進(jìn)行GMM模型的訓(xùn)練。第五,對(duì)模型進(jìn)行了實(shí)驗(yàn)并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行了分析。本文采用訓(xùn)練好的GMM模型對(duì)Timit標(biāo)準(zhǔn)語(yǔ)音庫(kù)以
5、及自制網(wǎng)絡(luò)志愿者語(yǔ)音庫(kù)進(jìn)行說(shuō)話人識(shí)別測(cè)試實(shí)驗(yàn),通過(guò)實(shí)驗(yàn)來(lái)驗(yàn)證AP聚類(lèi)的有效性和得到的GMM混合階數(shù)K的合理性。實(shí)驗(yàn)結(jié)果顯示,經(jīng)典的GMM階數(shù)K為32和由AP聚類(lèi)算法獲得階數(shù)K,兩種方法的識(shí)別時(shí)間分別為0.06s和0.09s,識(shí)別準(zhǔn)確率分別為90.4%和97.6%。實(shí)驗(yàn)結(jié)果表明,比起通過(guò)實(shí)驗(yàn)探索再憑經(jīng)驗(yàn)值選取混合階數(shù)K的方法,采用AP聚類(lèi)算法自動(dòng)獲取GMM混合階數(shù)K,可以在識(shí)別時(shí)間大致相同情況下得到更優(yōu)的識(shí)別效果。也就是說(shuō),引入AP聚類(lèi)自
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于GMM和SVM的說(shuō)話人識(shí)別方法研究.pdf
- 基于GMM-UBM的快速說(shuō)話人識(shí)別方法.pdf
- 說(shuō)話人識(shí)別方法的研究.pdf
- 基于ANN和GMM融合的語(yǔ)音情感識(shí)別方法的研究.pdf
- 基于高層信息融合的短語(yǔ)音說(shuō)話人識(shí)別方法研究.pdf
- 基于Fisher準(zhǔn)則和數(shù)據(jù)融合的說(shuō)話人識(shí)別方法研究.pdf
- 說(shuō)話人識(shí)別中提高GMM性能方法的研究.pdf
- 基于VP樹(shù)和GMM的說(shuō)話人識(shí)別研究.pdf
- 說(shuō)話人識(shí)別方法與策略的研究.pdf
- 基于SVM和GMM的說(shuō)話人辨識(shí)方法研究.pdf
- 基于GMM的說(shuō)話人識(shí)別技術(shù)研究.pdf
- 基于GMM的說(shuō)話人識(shí)別算法的研究.pdf
- 基于GMM說(shuō)話人分類(lèi)的說(shuō)話人識(shí)別系統(tǒng)研究.pdf
- 基于VQ與GMM的說(shuō)話人識(shí)別.pdf
- 基于MFCC和GMM的說(shuō)話人識(shí)別系統(tǒng)研究.pdf
- 基于GMM和SVM的說(shuō)話人識(shí)別系統(tǒng)研究.pdf
- 基于ICA和GMM的無(wú)約束說(shuō)話人識(shí)別研究.pdf
- 基于說(shuō)話人轉(zhuǎn)換的語(yǔ)音識(shí)別方法.pdf
- 噪聲環(huán)境下說(shuō)話人識(shí)別方法研究.pdf
- 基于PLDA模型的說(shuō)話人識(shí)別方法研究.pdf
評(píng)論
0/150
提交評(píng)論