用簡化的孿生支持向量回歸機同步學習函數(shù)及其導數(shù).pdf_第1頁
已閱讀1頁,還剩55頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、孿生支持向量回歸(Twin Support Vector Regression,TSVR)算法是在Jayadeva等提出的孿生支持向量機(TSVM)基礎上的一種新回歸算法。其基本思想是構造一對非平行的超平面,它們分別確定目標回歸函數(shù)的ε-不敏感上、下界函數(shù),最終目標函數(shù)取為上、下界函數(shù)的平均值。而簡化的孿生支持向量回歸(Reduced TwinSupport Vector Regression,RTSVR)算法是通過引入矩形核的概念,將

2、孿生支持向量回歸機中的QPP簡化。同步研究函數(shù)及其導數(shù)問題,在很多領域都有廣泛應用。本文圍繞著如何運用簡化的孿生支持向量回歸機同步學習函數(shù)及其導數(shù)這個課題,展開了以下的工作:
   本文分析了傳統(tǒng)的支持向量回歸(SVR)和正則化的最小二乘支持向量回歸(RLSVR)兩種基本的同步學習函數(shù)及其導數(shù)的方法;研究了將TSVR算法運用到同步學習函數(shù)及其導數(shù)的問題上,并分別討論了同時學習單個實變量及多個實變量的實值函數(shù)及其導數(shù)的問題。分析該

3、算法的學習精度及其收斂性。通過實驗比較SVR、RLSVR、TSVR這三種算法的優(yōu)缺點。
   大量的實驗表明TSVR算法在多于一個變量的回歸中較其它兩種算法有更好的學習精度,并且在大型數(shù)據(jù)集中保持了較好的稀疏性。但在大型數(shù)據(jù)集下,解決QPP產生的巨大計算量使得學習效率低下。本文進一步通過引入矩形核的概念改進了TSVR算法,提出了簡化的孿生支持向量回歸算法。實驗結果表明簡化后的新算法有效的減少了訓練所耗時間,促進了它在大型數(shù)據(jù)集情

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論