版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、學(xué)術(shù)界和工業(yè)界對(duì)計(jì)算機(jī)技術(shù)的重視,使得人工智能技術(shù)也得到前了所未有的進(jìn)步,并且在很多領(lǐng)域都取得了突破。目前,人工智能技術(shù)已經(jīng)被應(yīng)用于各個(gè)領(lǐng)域,其中語(yǔ)音識(shí)別、自然語(yǔ)言處理、圖像識(shí)別已成為人工智能的三大主戰(zhàn)場(chǎng),各大互聯(lián)網(wǎng)公司以及不計(jì)其數(shù)的創(chuàng)業(yè)公司也都在積極備戰(zhàn)人工智能的相關(guān)競(jìng)賽。例如百度公司成立深度學(xué)習(xí)實(shí)驗(yàn)室、中興通訊的人工智能挑戰(zhàn)賽等。從技術(shù)角度來(lái)看,人工智能技術(shù)已經(jīng)基本實(shí)現(xiàn)了實(shí)用性,但是從應(yīng)用的實(shí)際情況來(lái)看,還沒有達(dá)到真正的智能。值得注
2、意的是,在人工智能快速發(fā)展的背后是機(jī)器學(xué)習(xí)算法的推陳出新,以及將機(jī)器學(xué)習(xí)算法不斷應(yīng)用于新的領(lǐng)域,解決新的問題。如果從實(shí)用性的角度分析,技術(shù)再?gòu)?qiáng)大也只是用來(lái)解決人的需要、社會(huì)的需要。因此,本次研究我們不是對(duì)人工智能技術(shù)進(jìn)行革新,更多的是關(guān)注機(jī)器學(xué)習(xí)基礎(chǔ)算法的應(yīng)用。在人類歷史進(jìn)程中,畜牧業(yè)有著幾千年的歷史,在農(nóng)業(yè)當(dāng)中有著舉足輕重的地位,近年來(lái)隨著科學(xué)技術(shù)的發(fā)展以及規(guī)?;曫B(yǎng)的成型,使得畜牧業(yè)越來(lái)越朝著精準(zhǔn)化方向發(fā)展,而在畜牧業(yè)當(dāng)中反芻牲畜占
3、據(jù)著半壁江山,因此對(duì)反芻牲畜的研究將對(duì)我國(guó)畜牧業(yè)的發(fā)展帶來(lái)促進(jìn)作用。反芻行為作為反芻牲畜獨(dú)有的特性能夠反映個(gè)體的生理狀況。目前對(duì)于反芻家畜的反芻行為研究大多依靠人工觀察,人工觀察固然有其準(zhǔn)確性,但是直接觀察所花費(fèi)的人力和財(cái)力成本很大,因此在規(guī)?;途_化飼養(yǎng)時(shí)很難操作。
針對(duì)上述問題,本文研究、設(shè)計(jì)、實(shí)現(xiàn)了基于聲學(xué)模型和機(jī)器學(xué)習(xí)的湖羊反芻行為識(shí)別系統(tǒng)。在該系統(tǒng)中,我們針對(duì)湖羊的反芻行為,結(jié)合機(jī)器學(xué)習(xí)當(dāng)中神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)等經(jīng)
4、典的分類算法,提出了一個(gè)簡(jiǎn)單、實(shí)用、易操作的方法,來(lái)自動(dòng)分析和識(shí)別湖羊的反芻事件。首先,我們錄制湖羊產(chǎn)生的聲音信號(hào),用來(lái)表示反芻事件,然后經(jīng)過預(yù)處理、候選項(xiàng)提取等步驟得到反芻事件的候選項(xiàng);經(jīng)過對(duì)候選項(xiàng)進(jìn)行特征提取后,接下來(lái)分別用神經(jīng)網(wǎng)絡(luò)模型、支持向量機(jī)模型對(duì)這些候選項(xiàng)的特征進(jìn)行學(xué)習(xí)、訓(xùn)練,再通過訓(xùn)練好的模型將新的反芻行為侯選項(xiàng)識(shí)別為反芻事件和非反芻事件。為了充分測(cè)試我們提出的方法,測(cè)試數(shù)據(jù)分別使用了包含較少噪聲和包含較多噪聲的數(shù)據(jù),由于
5、在所有以聲學(xué)模型為基礎(chǔ)的識(shí)別任務(wù)中,噪聲都是比較難處理的障礙,因此,我們更加關(guān)注包含較多噪聲的測(cè)試數(shù)據(jù),同時(shí)噪聲較多的數(shù)據(jù)也更接近實(shí)際情況。實(shí)驗(yàn)表明,神經(jīng)網(wǎng)絡(luò)模型在湖羊反芻次數(shù)統(tǒng)計(jì)方面獲得了平均86%的準(zhǔn)確率,而支持向量機(jī)在小樣本數(shù)據(jù)上表現(xiàn)較好,獲得了平均為90.4%的準(zhǔn)確率;此外,對(duì)于每個(gè)反芻事件,神經(jīng)網(wǎng)絡(luò)模型的匹配率較低,而支持向量機(jī)模型獲得了平均90.1%的匹配率,并且該效果好于國(guó)外的反芻行為識(shí)別相關(guān)研究。因此,最后我們決定使用支
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于機(jī)器學(xué)習(xí)的氣體識(shí)別系統(tǒng).pdf
- 語(yǔ)音識(shí)別系統(tǒng)中聲學(xué)層模型的研究.pdf
- 基于機(jī)器學(xué)習(xí)的車牌識(shí)別系統(tǒng)研究.pdf
- 基于稀疏表示和機(jī)器學(xué)習(xí)的人臉識(shí)別系統(tǒng)研究.pdf
- 基于手機(jī)的行為識(shí)別系統(tǒng).pdf
- 基于機(jī)器學(xué)習(xí)和多視角信息融合的步態(tài)識(shí)別系統(tǒng)的研究.pdf
- 基于機(jī)器學(xué)習(xí)的GTalk流量識(shí)別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn).pdf
- 基于機(jī)器視覺的螺紋識(shí)別系統(tǒng).pdf
- 基于機(jī)器視覺的手勢(shì)識(shí)別系統(tǒng).pdf
- 語(yǔ)音識(shí)別系統(tǒng)的聲學(xué)建模研究.pdf
- 基于深度神經(jīng)網(wǎng)絡(luò)的蒙古語(yǔ)語(yǔ)音識(shí)別系統(tǒng)聲學(xué)模型的研究.pdf
- 基于深度學(xué)習(xí)的車牌識(shí)別系統(tǒng).pdf
- 基于機(jī)器視覺的蘋果特征選擇和分類識(shí)別系統(tǒng).pdf
- 基于機(jī)器視覺的駕駛員后視鏡查看行為識(shí)別系統(tǒng)設(shè)計(jì).pdf
- 基于ARM的清潔機(jī)器人障礙檢測(cè)和識(shí)別系統(tǒng).pdf
- 基于DSP和AR參數(shù)模型的車型識(shí)別系統(tǒng).pdf
- 基于機(jī)器視覺的硬幣識(shí)別系統(tǒng)研究.pdf
- 基于RGBD的人體行為識(shí)別系統(tǒng).pdf
- 聲學(xué)模型的研究及在關(guān)鍵詞識(shí)別系統(tǒng)中的應(yīng)用.pdf
- 基于機(jī)器視覺的編碼自動(dòng)識(shí)別系統(tǒng).pdf
評(píng)論
0/150
提交評(píng)論