基于過抽樣技術的不平衡數據分類研究.pdf_第1頁
已閱讀1頁,還剩59頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、在數據挖掘領域中,分類技術根據數據集中的數據訓練出一個分類函數或構建出一個分類模型,對未知實例的類標號進行預測。在不平衡數據分類研究中,由于不平衡數據集中小類樣本數量少,小類樣本難以被正確分類,因此,提高小類樣本的分類準確率至關重要。目前,針對不平衡數據分類的技術有兩種,一種是數據層面的方法,另一種是算法層面的方法。前者主要在分類之前對原始訓練集進行預處理,包括過抽樣技術和欠抽樣技術。后者主要提出針對不平衡數據特點的新的算法或改進現有的

2、算法以適應數據的不平衡。為了提高不平衡數據中小類樣本的分類準確率,本文主要在數據層面的過抽樣技術上做了以下三個研究。
  第一,將聚類技術與過抽樣技術相結合,提出一種基于聚類的過抽樣算法ClusteredSMOTE_Boost。該算法利用聚類技術,首先將數據集的小類樣本分為邊界樣本和非邊界樣本,其次將所有小類樣本分為若干個簇。針對小類邊界樣本合成新樣本時,使新樣本更靠近小類樣本內部。針對小類非邊界樣本合成新樣本時,使新樣本更靠近非

3、邊界樣本所在簇的中心。實驗結果表明該算法能夠有效地提高小類樣本的分類準確率。
  第二,為了使原始訓練集的決策邊界不復雜,提出一種基于小類內部樣本的過抽樣算法GR-InsideOS。該算法僅讓小類內部樣本參與合成,使得新樣本位于小類樣本內部,不使分類邊界復雜化。在此基礎上提出基于聚類的小類內部過抽樣算法CGR-InsideOS,利用聚類技術使新樣本靠近小類內部樣本所在簇的中心,更加保證了原始訓練集的決策邊界不復雜。實驗結果表明這兩

4、個算法均有效地提高了小類樣本的分類性能。
  第三,將基于內部樣本的過抽樣算法與多次學習技術相結合,提出兩種基于小類內部樣本過抽樣的多次學習算法IRML和IKCML。兩個算法均是從原始訓練集中選取一些樣本組成K個子訓練集,然后分別對子訓練集采用GR-InsideOS算法合成新樣本,生成K個新的子訓練集,建立K個分類器。IRML是采用隨機的方式在原始訓練集中選取樣本,而IKCML算法是采用K折交叉方法有放回的選取樣本。后者保證了每個

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論