基于深度學習的說話人識別方法的研究.pdf_第1頁
已閱讀1頁,還剩88頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、隨著人類社會的發(fā)展,人們之間的交互方式越來越多樣化,語音信息做為人類特有的生物特征之一,在人類的身份識別或確認上有著重要的地位,有些研究者稱之為人類最天然的生物特征。說話人識別技術(shù)或者說聲紋識別技術(shù)是一種依據(jù)人類的語音特征進行的身份識別技術(shù)。其在很多領(lǐng)域已經(jīng)有了非常重要的應用,比如互聯(lián)網(wǎng)、軍事安全、遠程控制、通信系統(tǒng)、門禁系統(tǒng)等等。
  自上世紀80年代以來,神經(jīng)網(wǎng)絡迅猛發(fā)展。最近幾年,多倫多大學教授辛頓提出的深度學習理論在圖像識

2、別領(lǐng)域已經(jīng)取得了非常好的效果,其在mnist手寫字數(shù)據(jù)集上的識別率已經(jīng)可以高達百分之99。深度學習是一種基于深度即多層神經(jīng)網(wǎng)絡的學習方式,與傳統(tǒng)的神經(jīng)網(wǎng)絡相比,深度學習克服了非凸函數(shù)陷入局部最小值的缺點,并且可以從底向上學習更好的特征。本文對前饋神經(jīng)網(wǎng)絡、自動編碼機、深度信念網(wǎng)絡在說話人識別技術(shù)上的應用進行了全面分析比較。本人主要完成了以下幾方面工作:
  第一,綜述了說話人識別技術(shù)的研究歷史及現(xiàn)狀,分析不同說話人識別技術(shù)的優(yōu)缺點

3、,神經(jīng)網(wǎng)絡和深度學習是說話人識別的嶄新方向。
  第二,研究了說話人識別模型語音預處理階段的工作,包括分幀、梅爾倒譜頻率參數(shù)、模型和算法等,詳細介紹了MFCC參數(shù)的計算過程。
  第三,探討了前饋神經(jīng)網(wǎng)絡在說話人識別技術(shù)上的應用,分析比較了不同神經(jīng)層數(shù)及神經(jīng)元個數(shù)以及其他參數(shù)對識別率的影響,并且提出前饋神經(jīng)網(wǎng)絡與高斯混合模型結(jié)合的方法,使神經(jīng)網(wǎng)絡工作在GMM的概率輸出空間,獲取了不同說話人之間的交互信息,提高了說話人識別率以

4、及模型的魯棒性。
  第四,分析了深度學習在說話人識別上的應用。主要分析比較了兩種深度學習模型,即自動編碼機和深度信念網(wǎng)絡的識別效果。證明了深度學習在說話人識別領(lǐng)域是優(yōu)于普通的前饋神經(jīng)網(wǎng)絡的。首次提出使用降噪自動編碼機和受限波爾茲曼機混合模型(HDAE-RBMM)進行說話人識別,研究了其在不同組合狀態(tài)下模型的性能,證明了使用降噪自動編碼機作為淺層模型、受限波爾茲曼機作為深層模型結(jié)合了兩者的優(yōu)勢,可以有效提高識別率,并且隨著網(wǎng)絡層數(shù)

5、的提升效果越明顯。
  第五,使用整流線性單元代替普通的激活函數(shù)對深度網(wǎng)絡進行了改進,分別探討了預訓練和未經(jīng)預訓練的情況下深度模型的性能,實驗證明使用整流線性單元的深度網(wǎng)絡模型可以極大提升訓練速度,并且從稀疏度的角度來看,使用整流線性單元的未經(jīng)預訓練的深度網(wǎng)絡可以達到和經(jīng)過預訓練的深度模型同樣的稀疏度,因而其識別率比使用sigmoid類函數(shù)要高許多,甚至可以和經(jīng)過預訓練的深度模型較接近。但是整流線性單元與預訓練模型結(jié)合的效果并不是

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論