2023年全國(guó)碩士研究生考試考研英語(yǔ)一試題真題(含答案詳解+作文范文)_第1頁(yè)
已閱讀1頁(yè),還剩150頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、近年來,隨著人們對(duì)安全要求的逐漸提高以及遠(yuǎn)程視頻會(huì)議系統(tǒng)的快速發(fā)展,智能環(huán)境下基于生物特征的身份識(shí)別技術(shù)成為模式識(shí)別領(lǐng)域的研究熱點(diǎn),其在智能視覺物聯(lián)網(wǎng)、公共安全、金融服務(wù)和視頻會(huì)議系統(tǒng)等眾多領(lǐng)域有著廣泛的應(yīng)用。受數(shù)據(jù)噪音和識(shí)別系統(tǒng)本身的限制,基于單一生物特征的身份識(shí)別系統(tǒng)所能達(dá)到的準(zhǔn)確率是有限的,為此,研究人員提出利用視聽信息融合身份識(shí)別來提高識(shí)別的準(zhǔn)確率,受到了廣泛的關(guān)注。但是目前基于視聽信息融合的身份識(shí)別主要局限于理想環(huán)境下的單模態(tài)

2、識(shí)別以及在現(xiàn)有融合方法上音視頻特征的簡(jiǎn)單融合,對(duì)于復(fù)雜環(huán)境下單模態(tài)生物特征的有效提取、高精度高普適性識(shí)別算法的構(gòu)造與音視頻特征在不同融合層級(jí)最優(yōu)融合算法的確定少有考慮。從人的視聽覺認(rèn)知機(jī)理出發(fā),本文從特征提取、識(shí)別算法和融合規(guī)則三個(gè)方面對(duì)視聽信息融合身份識(shí)別進(jìn)行了研究,以便為智能環(huán)境下的視聽信息識(shí)別提供可行的解決方案,本文的主要工作和創(chuàng)新點(diǎn)如下:
  1.實(shí)現(xiàn)了復(fù)雜背景下人臉特征和語(yǔ)音特征的精確高表征提取
  針對(duì)人臉圖像D

3、CT特征系數(shù)的最優(yōu)提取問題,本文提出了一種基于鑒別能力分析的DCT系數(shù)提取方法,在分析DCT系數(shù)鑒別能力值的基礎(chǔ)上提取那些鑒別能力值較大的DCT系數(shù)作為特征。在分析頭發(fā)幾何特性和顏色特性的基礎(chǔ)上,本文將人體的Hair特征應(yīng)用于人臉識(shí)別,擴(kuò)展了人臉特征的多樣性。針對(duì)傳統(tǒng)語(yǔ)音參數(shù)MFCC受噪聲影響較大而且只能反映語(yǔ)音靜態(tài)特性的缺點(diǎn),本文基于能有效反映人耳聽覺特性的Gammatone濾波器,提取了Gammatone濾波倒譜系數(shù),并基于滑動(dòng)差分

4、倒譜,提取了能反映語(yǔ)音動(dòng)態(tài)特性的Gammatone滑動(dòng)差分倒譜系數(shù)。
  2.提出了可有效解決“高維小樣本問題”的人臉識(shí)別算法
  目前,基于子空間分析的方法由于描述能力強(qiáng)、可分性好、計(jì)算簡(jiǎn)單等優(yōu)點(diǎn),成為人臉識(shí)別的主流算法,但常常面臨“高維小樣本問題”,導(dǎo)致人臉識(shí)別系統(tǒng)泛化能力較差。本文結(jié)合子空間分析方法和核思想,先后提出核相關(guān)權(quán)重鑒別分析算法和核鑒別局部保持投影算法,一方面解決了“高維小樣本問題”,另一方面解決了傳統(tǒng)子空間

5、分析方法由于其線性本質(zhì)所導(dǎo)致的在處理高度線性不可分對(duì)象時(shí)能力差的缺點(diǎn)。
  3.解決了說話人識(shí)別GMM模型的建模問題
  GMM模型是目前說話人識(shí)別的主流算法,并且在此基礎(chǔ)上衍生了一系列說話人識(shí)別算法。針對(duì)由于訓(xùn)練語(yǔ)料較短而導(dǎo)致GMM模型參數(shù)訓(xùn)練不充分、識(shí)別性能下降的問題,本文通過引入因子分析技術(shù),實(shí)現(xiàn)了一種自適應(yīng)均值的GMM模型。i-vector說話人識(shí)別系統(tǒng)是在GMM模型和因子分析技術(shù)基礎(chǔ)上產(chǎn)生的目前國(guó)內(nèi)外說話人識(shí)別研究

6、前沿的主流系統(tǒng),本文通過改進(jìn)局部保持投影算法,實(shí)現(xiàn)了i-vector說話人識(shí)別系統(tǒng)中i-vector矢量的有效降維。
  4.建立了不同層次音視頻特征的最優(yōu)融合規(guī)則
  本文以信息熵理論、概率密度方法和決策科學(xué)為指導(dǎo),建立最優(yōu)的匹配層融合規(guī)則和解決D-S證據(jù)理論的證據(jù)沖突問題。首先在分析現(xiàn)有證據(jù)沖突問題解決方法的基礎(chǔ)上,提出基于群體決策和多準(zhǔn)則選擇融合的證據(jù)組合方法,有效解決證據(jù)沖突問題;其次為避免對(duì)匹配分?jǐn)?shù)密度進(jìn)行估計(jì),本

7、文將總錯(cuò)誤概率TER引入到匹配層融合,通過TER來刻畫匹配分?jǐn)?shù)的分布,并將不確定度量融合方法引入到多特征融合識(shí)別;然后采用高斯密度求解加性融合中的最優(yōu)權(quán)值,并將其用于邏輯回歸排序?qū)尤诤?最后針對(duì)匹配分?jǐn)?shù)密度融合密度函數(shù)的求解,引入FAR和FRR以求解信任度函數(shù),并基于三角模算子融合信任度函數(shù),有效規(guī)避加性融合中權(quán)值的求解。
  綜上所述,本文的研究?jī)?nèi)容有效提高了計(jì)算機(jī)對(duì)復(fù)雜感知信息的理解能力和對(duì)異構(gòu)信息的處理能力,進(jìn)一步拓展了多生

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論