利用小波聽覺分頻處理與訊號(hào)子空間分解於車內(nèi)噪音消除_第1頁
已閱讀1頁,還剩17頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、利用小波聽覺分頻處理與訊號(hào)子空間分解於車內(nèi)噪音消除利用小波聽覺分頻處理與訊號(hào)子空間分解於車內(nèi)噪音消除王駿發(fā)、楊宗憲、張凱行王駿發(fā)、楊宗憲、張凱行摘要摘要在傳統(tǒng)的訊號(hào)子空間語音強(qiáng)化方法(SignalSubspaceSpeechEnhancementMethod)中,其主要是利用噪音能量是均勻分佈於訊號(hào)所在的向量空間而語音訊號(hào)能量則是分佈於某一子空間的特性,藉由特徵分解(EigenDecomposition)來分析出語音訊號(hào)及背景噪音,來進(jìn)

2、行噪音消除。而在車內(nèi)噪音環(huán)境中,噪音能量的分佈在低頻帶為最多延伸到高頻則逐漸較少,單一的訊號(hào)子空間的語音強(qiáng)化方法已不能更有效的消除位在低頻帶的背景噪音。本論文提出一個(gè)基於人耳聽覺特性的分頻處理,並結(jié)合訊號(hào)子空間強(qiáng)化方法來克服此一問題。實(shí)驗(yàn)的驗(yàn)證,則是採用TAICAR車內(nèi)語音資料庫來進(jìn)行,實(shí)驗(yàn)結(jié)果說明本文所提出的方法比起傳統(tǒng)訊號(hào)子空間強(qiáng)化法,更適用於車內(nèi)噪音的消除,低頻噪音的消除也更明顯。聚集事後機(jī)率線性迴歸調(diào)適演算法應(yīng)用於語音辨識(shí)聚集事

3、後機(jī)率線性迴歸調(diào)適演算法應(yīng)用於語音辨識(shí)AggregateaPosteriiLinearRegressionfSpeechRecognition黃志賢、王奕凱、簡仁宗黃志賢、王奕凱、簡仁宗摘要摘要在本論文中,我們提出一套由聚集事後機(jī)率(aggregateaposterii)為基礎(chǔ)之鑑別式線性回歸(linearregression)轉(zhuǎn)換矩陣參數(shù)調(diào)適演算法。在近幾年,由於鑑別式訓(xùn)練的效果優(yōu)越,於是出現(xiàn)使用鑑別式訓(xùn)練法則進(jìn)行轉(zhuǎn)換矩陣調(diào)適,稱為最

4、小分類錯(cuò)誤率線性迴歸(minimumclassificationerrlinearregressionMCELR)調(diào)適演算法。我們認(rèn)為使用最小分類錯(cuò)誤率準(zhǔn)則進(jìn)行線性迴歸調(diào)適時(shí),若能再進(jìn)一步考慮線性迴歸矩陣之事前機(jī)率分佈,則可以結(jié)合貝氏法則之強(qiáng)健性與最小分類錯(cuò)誤率之鑑別性,以估測出更佳之轉(zhuǎn)換矩陣用於語者調(diào)適上。透過聚集事後機(jī)率與鑑別式訓(xùn)練間之關(guān)連及適當(dāng)之條件簡化,則可得到參數(shù)更新之封閉解(closefm)型式以加速鑑別式訓(xùn)練的參數(shù)估測。在

5、實(shí)驗(yàn)中,我們使用TCC300語料進(jìn)行語音模型參數(shù)之訓(xùn)練與迴歸矩陣之事前機(jī)率分佈之參數(shù)估測,而在調(diào)適及測試時(shí),則使用公共電視臺(tái)所錄製之電視新聞?wù)Z料,進(jìn)行轉(zhuǎn)換矩陣估測強(qiáng)健性之評(píng)估與其他轉(zhuǎn)換矩陣參數(shù)調(diào)適效能之比較,在不同調(diào)適語料之實(shí)驗(yàn)結(jié)果發(fā)現(xiàn)我們提出之聚集事後機(jī)率線性回歸可以有效達(dá)到鑑別式語者調(diào)適的效果。AThreePhaseSystemfChineseNamedEntityRecognitionConradChenHsiJianLeeAbs

6、tractThehlingofoutofvocabulary(OOV)wdsisoneofthekeypointstoahighperfmancelexicalanalysisinnaturallanguageprocessing.AmongallOOVwdsnamedentities(NE)arethemostproductiveones.Theygenerallyconstitutethemostmeaningfulpartsofs

7、entences(personsaffairstimeplacesobjects).Inthispaperweproposeathreephase“generationfilteringrecovery”systemtoaddresstheNERproblem.AsetofstochasticmodelsisfirstusedtogenerateallpossibleNEcidates.Thenwetreatcidatefilterin

8、gasanambiguityresolutionproblem.Toresolveambiguitiesweadoptamaximalmatchingruledrivenlexicalanalyzer.Lastapatternmatchingmethodisappliedtodetectrecoverabnmalitiesintheresultsoftheprevioustwophases.Purelexicalinfmationise

9、xploitedinoursystem.Wegetahighrecallof96%withpersonalnames(PER)satisfiablerecallof88%89%80%withtransliterationnames(TRA)locationnames(LOC)ganizationnames(G)respectively.Theoverallprecisionexcludingrateisover90%99%.主題導(dǎo)向之非

10、結(jié)構(gòu)化文本資訊擷取技術(shù)主題導(dǎo)向之非結(jié)構(gòu)化文本資訊擷取技術(shù)劉吉軒、翁嘉緯劉吉軒、翁嘉緯Abstract資訊擷取(infmationextraction)是從自然語言文本中辨出特定主題或事件的描述,進(jìn)而萃取出相關(guān)主題或事件元素的對應(yīng)資訊,如人、事、時(shí)、地、物等。因此,資訊擷取技術(shù)能依照需要的主題與事件,自動(dòng)的解讀自然語言文件,將文件中的原始文字資轉(zhuǎn)換成結(jié)構(gòu)化的核心資訊。在本論文,我們提出以型態(tài)辨識(shí)的方法來處理主題導(dǎo)向的非結(jié)構(gòu)化文本資訊擷取的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論