版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、隨著語音技術(shù)的發(fā)展,越來越多的語音處理應(yīng)用對語音分割的精度提出了很高的要求。傳統(tǒng)意義上,經(jīng)過訓(xùn)練的人工標(biāo)注被認(rèn)為是最可靠和精確的語音分割方法。但是,當(dāng)所需語料庫規(guī)模很大時(shí),人工標(biāo)注成為一件費(fèi)時(shí)費(fèi)力的事情。因此,考慮合適的自動(dòng)語音分割方法是很有必要的。
目前,很多自動(dòng)語音分割方法都是基于隱馬爾科夫模型的,通過維特比算法進(jìn)行解碼并得到音素邊界。但是,這些音素邊界與人感知的音素邊界在很大程度上存在差異,使自動(dòng)語音分割的精度存在質(zhì)疑。
2、
此研宄的目標(biāo)是嘗試使用基于人類感知特性的譜目標(biāo)預(yù)測模型(由Masato Akagi提出)解決此精度問題?;舅枷胧窃谝粋€(gè)短間隔(50毫秒)中預(yù)測在人感知中的譜目標(biāo),再選擇譜目標(biāo)變化的時(shí)間點(diǎn)作為音素邊界。通過實(shí)驗(yàn)發(fā)現(xiàn),譜目標(biāo)預(yù)測模型能夠得到音素邊界的候選點(diǎn),但是候選點(diǎn)數(shù)目太多,如何選擇恰當(dāng)?shù)暮蜻x點(diǎn)成為一個(gè)難題。因此,此研宄提出將隱馬爾科夫模型和譜目標(biāo)預(yù)測模型相結(jié)合的方法。首先通過隱馬爾科夫模型得到相對不精確的音素邊界,同時(shí),根
3、據(jù)訓(xùn)練數(shù)據(jù)得到一個(gè)誤差列表文件,記錄所有在訓(xùn)練數(shù)據(jù)中出現(xiàn)過的邊界的前后音素以及其平均誤差、最大誤差和最小誤差。這些誤差都是以更為精確的人工標(biāo)注為基準(zhǔn)的。再以通過隱馬爾科夫模型得到的音素邊界為參照點(diǎn),基于誤差列表文件中的不同平均誤差,選擇不同的方法在所有通過譜目標(biāo)預(yù)測模型得到的候選點(diǎn)中選擇更精確的音素邊界。
通過在TIMIT數(shù)據(jù)庫上的實(shí)驗(yàn),在通用的20毫秒誤差(與人工標(biāo)注相比)自動(dòng)分割邊界所占百分比的客觀評價(jià)標(biāo)準(zhǔn)下,此研宄的方法
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于可穿戴社交感知系統(tǒng)的語音分割算法研究.pdf
- 多語音分離語音增強(qiáng)方法的研究.pdf
- 語音分離和語音增強(qiáng)方法研究.pdf
- 基于機(jī)器學(xué)習(xí)的欠定語音分離方法研究.pdf
- 基于深度學(xué)習(xí)的有監(jiān)督語音分離方法研究.pdf
- 基于視覺感知特性的彩色圖像分割.pdf
- 基于深度學(xué)習(xí)的語音分離研究.pdf
- 基于空域?yàn)V波的語音分離研究.pdf
- 感知對象的分割方法研究.pdf
- 基于自適應(yīng)神經(jīng)模糊推理與隱馬爾可夫的語音分割研究.pdf
- 基于語音分析的身份辨認(rèn).pdf
- 基于壓縮感知理論的語音特性分析和研究.pdf
- 基于dsp的語音分析系統(tǒng)
- 基于卷積神經(jīng)網(wǎng)絡(luò)的語音分離方法研究與實(shí)現(xiàn).pdf
- 基于雙耳空間信息的語音分離研究.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的欠定語音分離方法研究.pdf
- 基于感知哈希的語音內(nèi)容認(rèn)證方法研究.pdf
- 基于壓縮感知的語音信號重構(gòu)方法研究.pdf
- 基于dsp的語音分析系統(tǒng)2
- 基于稀疏表示和深度學(xué)習(xí)的欠定語音分離方法研究.pdf
評論
0/150
提交評論