版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、語音情感識(shí)別技術(shù)是人工智能領(lǐng)域的一個(gè)新興分支,在建立和諧人機(jī)交互環(huán)境和安全系統(tǒng)自動(dòng)監(jiān)督方面有著廣泛的應(yīng)用前景,對(duì)人類的進(jìn)步意義是重大的。語音情感的識(shí)別過程主要包括語音信號(hào)預(yù)處理、語音情感特征參數(shù)提取分析、語音情感類別分類識(shí)別。由于情感信息這一語義變量本身的模糊、不可確定性,所以對(duì)情感狀態(tài)進(jìn)行精準(zhǔn)識(shí)別是很有難度的。而在識(shí)別過程中所用到的情感特征參數(shù)的維數(shù)又高,增加了識(shí)別的難度,降低了識(shí)別率。為此,本文針對(duì)基于模糊理論的語音情感識(shí)別方法進(jìn)行
2、了研究,主要研究?jī)?nèi)容如下:
1、研究了語音信號(hào)的端點(diǎn)檢測(cè)、預(yù)加重、分幀和加窗等預(yù)處理步驟,以及提取詳細(xì)的語音情感特征參數(shù)和用 KPCA方法對(duì)語音情感特征降維分析。KPCA能夠降低特征的冗余度,有效減少學(xué)習(xí)算法的運(yùn)算量,改善識(shí)別性能。實(shí)驗(yàn)結(jié)果表明基于核主成分分析方法的特征選擇使識(shí)別結(jié)果得到提高。
2、研究了基于模糊支持向量機(jī)算法(FSVM)的語音情感識(shí)別方法,通過將模糊理論與支持向量相結(jié)合,提高支持向量機(jī)方法的學(xué)習(xí)性能
3、和泛化能力,解決小樣本、非線性、高維數(shù)以及局部極小點(diǎn)等問題,并消弱噪聲和孤立點(diǎn)對(duì)模糊分類的影響,改善了對(duì)語音情感狀態(tài)的識(shí)別率。
3、研究了基于自適應(yīng)模糊C均值算法(AFCM)的語音情感識(shí)別方法,該方法對(duì)不同的數(shù)據(jù)使用不同的聚類半徑,彌補(bǔ)了FCM方法使用同一個(gè)聚類半徑的不足,改善了語音情感狀態(tài)的識(shí)別率。在 AFCM算法中,實(shí)驗(yàn)發(fā)現(xiàn)用 Mahalanobis距離函數(shù)和模糊加權(quán)指數(shù) m=2時(shí)對(duì)四類的情感識(shí)別率都最高。而在 FCM算法
4、和AFCM算法對(duì)比實(shí)驗(yàn)中發(fā)現(xiàn),AFCM比FCM有更好的識(shí)別效果。
4、研究了模糊矢量量化相關(guān)理論,接著研究模糊核矢量量化算法(FKVQ)和模糊核熵矢量量化(FKEVQ)。在FKEVQ算法中引入了碼字矢量量化,把相似的數(shù)據(jù)量化成碼書,還用核映射將輸入空間映射到高維特征空間,使數(shù)據(jù)有更好的區(qū)分性,同時(shí)為了平衡隸屬度函數(shù),使用模糊熵度增加不同數(shù)據(jù)的可區(qū)分性。實(shí)驗(yàn)發(fā)現(xiàn)碼書中的碼字?jǐn)?shù)目C為22和模糊加權(quán)指數(shù)m為1.1以及高斯核寬度δ為5
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于模糊聚類的語音情感識(shí)別研究.pdf
- 語音情感識(shí)別研究.pdf
- 語音情感識(shí)別的研究.pdf
- 語音情感識(shí)別技術(shù)的研究.pdf
- 語音信號(hào)情感識(shí)別.pdf
- 語音情感識(shí)別研究與應(yīng)用.pdf
- 語音情感識(shí)別的研究與應(yīng)用.pdf
- 基于SVM的語音情感識(shí)別研究.pdf
- 語音情感識(shí)別的研究與實(shí)現(xiàn).pdf
- 情感語音識(shí)別與合成的研究.pdf
- 基于HHT的語音情感識(shí)別研究.pdf
- 基于情感特征信息增強(qiáng)的語音情感識(shí)別研究.pdf
- 語音情感特征提取方法和情感識(shí)別研究.pdf
- 基于Boosting的語音情感識(shí)別.pdf
- 語音情感識(shí)別的相關(guān)算法研究
- 基于主動(dòng)學(xué)習(xí)的語音情感識(shí)別研究.pdf
- 語音情感識(shí)別的特征選擇方法研究.pdf
- 自適應(yīng)語音情感識(shí)別方法研究.pdf
- 基于語音和人臉的情感識(shí)別研究.pdf
- 基于HMM的情感語音識(shí)別.pdf
評(píng)論
0/150
提交評(píng)論