

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、自動(dòng)語(yǔ)音識(shí)別是人機(jī)交互與通信的關(guān)鍵組成部分,其主要目的是使機(jī)器“聽(tīng)懂”人類(lèi)所說(shuō)的語(yǔ)音,將語(yǔ)音信號(hào)轉(zhuǎn)變?yōu)槲谋拘盘?hào)。聲學(xué)模型在語(yǔ)音識(shí)別系統(tǒng)中占據(jù)著重要地位。傳統(tǒng)的語(yǔ)音識(shí)別系統(tǒng)主要使用基于高斯混合模型和隱馬爾可夫模型(Hidden Markov Model,HMM)的聲學(xué)模型。近些年來(lái),隨著深度學(xué)習(xí)的迅速發(fā)展,與傳統(tǒng)的高斯混合模型相比,基于深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNN)的聲學(xué)模型給性能提升帶來(lái)了突破性進(jìn)展。然
2、而,基于深度神經(jīng)網(wǎng)絡(luò)的聲學(xué)模型包含大量的模型參數(shù)以及顯著的計(jì)算復(fù)雜度,這給深度神經(jīng)網(wǎng)絡(luò)應(yīng)用于資源受限的移動(dòng)端設(shè)備造成了巨大的困難。因此,基于深度神經(jīng)網(wǎng)絡(luò)的聲學(xué)模型壓縮技術(shù)是為了降低模型的參數(shù)量與計(jì)算復(fù)雜度,從而促進(jìn)語(yǔ)音識(shí)別系統(tǒng)應(yīng)用于資源受限的移動(dòng)端設(shè)備。
本文是主要圍繞基于深度神經(jīng)網(wǎng)絡(luò)的聲學(xué)模型,進(jìn)行模型壓縮技術(shù)的研究。首先,從模型參數(shù)量角度,針對(duì)基于DNN和全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Neural
3、 Networks,F(xiàn)CNN)的聲學(xué)模型,我們提出了基于激活掩碼的方法,在網(wǎng)絡(luò)訓(xùn)練過(guò)程中分析與評(píng)價(jià)網(wǎng)絡(luò)模型中神經(jīng)元的重要性,從而移除對(duì)網(wǎng)絡(luò)模型輸出貢獻(xiàn)較小的神經(jīng)元,實(shí)現(xiàn)每個(gè)隱層的神經(jīng)元數(shù)目的自動(dòng)學(xué)習(xí)和減少網(wǎng)絡(luò)模型參數(shù)量?;陂L(zhǎng)短時(shí)記憶(Long Short-Term Memory,LSTM)的遞歸神經(jīng)網(wǎng)絡(luò)聲學(xué)模型,我們提出了平滑門(mén)來(lái)分析與評(píng)價(jià)LSTM模型中記憶單元的重要性,移除對(duì)網(wǎng)絡(luò)輸出影響較小的記憶單元,從而達(dá)到壓縮網(wǎng)絡(luò)模型規(guī)模的目的
4、。實(shí)驗(yàn)結(jié)果表明在確保語(yǔ)音識(shí)別性能的基礎(chǔ)上,這兩種方法可以有效地壓縮網(wǎng)絡(luò)模型的寬度。其次,從模型參數(shù)精確度角度,基于DNN和LSTM的聲學(xué)模型,本文分別探索了參數(shù)定點(diǎn)化和整數(shù)化對(duì)語(yǔ)音識(shí)別系統(tǒng)性能的影響,實(shí)驗(yàn)結(jié)果表明定點(diǎn)數(shù)和整數(shù)可以有效地降低神經(jīng)網(wǎng)絡(luò)模型的參數(shù)精確度和復(fù)雜度,而且沒(méi)有造成識(shí)別性能損失。最后,基于連接時(shí)序分類(lèi)(Connectionist Temporal Classification,CTC)模型的解碼速度優(yōu)勢(shì),采用基于平滑門(mén)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于深層神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別聲學(xué)建模研究.pdf
- 語(yǔ)音識(shí)別中神經(jīng)網(wǎng)絡(luò)聲學(xué)模型的說(shuō)話人自適應(yīng)研究.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的蒙古語(yǔ)語(yǔ)音識(shí)別系統(tǒng)聲學(xué)模型的研究.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別模型研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)與混合結(jié)構(gòu)聲學(xué)特征的語(yǔ)音識(shí)別研究.pdf
- 基于復(fù)合神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別研究.pdf
- 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的聲學(xué)車(chē)型識(shí)別研究.pdf
- 基于人工神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)語(yǔ)音識(shí)別算法的研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別研究.pdf
- 基于RBF神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別研究.pdf
- 基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的語(yǔ)音情感識(shí)別技術(shù)研究.pdf
- 基于回歸神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別抗噪研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別魯棒性研究.pdf
- 基于自組織神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別研究.pdf
- 語(yǔ)音合成中的神經(jīng)網(wǎng)絡(luò)聲學(xué)建模方法研究.pdf
- 基于隱馬爾可夫模型和神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別算法研究.pdf
- 基于HMM和人工神經(jīng)網(wǎng)絡(luò)混合模型的漢語(yǔ)語(yǔ)音情感識(shí)別.pdf
- 基于神經(jīng)網(wǎng)絡(luò)-HMM的語(yǔ)音識(shí)別算法的研究.pdf
評(píng)論
0/150
提交評(píng)論