基于集成的SVM車標識別算法研究.pdf_第1頁
已閱讀1頁,還剩69頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、目前,車輛識別在科研和商業(yè)上引起了很大的關注,它在智能遷移系統(tǒng)中起到重要的作用,并已被廣泛地運用于各種安全領域,例如:政府大樓,軍事陣地,國家邊防,交通堵塞,停車問題以及交通事故等。人們通過抽取車的屬性來對其進行分類,車標的形狀、牌照、顏色以及型號等都是車的屬性。現(xiàn)有的大部分車輛分類系統(tǒng)都是通過車牌照來實現(xiàn),但是如果在霧天,車牌丟失或遮擋的情況下,將不能通過車牌照來對車輛分類識別。車的另一個重要的屬性是車標,它包括了車輛的重要信息,并且

2、不容易被改動,因此車標在車輛識別中取到重要的作用。
  因此本文提出采用車標來對車輛進行分類識別,這個方法基于支持向量基(SVM)分類方法,支持向量機是一個基于統(tǒng)計學的數(shù)據(jù)挖掘算法。支持向量機將向量映射到一個更高維的空間里,在這個空間里建立有一個最大間隔超平面。在分開數(shù)據(jù)的超平面的兩邊建有兩個互相平行的超平面,分隔超平面使兩個平行超平面的距離最大化。假定平行超平面間的距離或差距越大,分類器的總誤差越小。并且利用集成學習來提高分類性

3、能。本文還通過欠采樣和對支持向量機的集成學習來提高分類算法的準確率。
  本文所使用的四種車標類標,分別是“大眾”、“現(xiàn)代”、“尼?!焙汀柏S田”。首先建立支持向量機模型,從車標圖像中抽取它的二維主成分(2DPCA)作為特征屬性,和主成分分析(PCA)不同的是,2DPCA基于二維矩陣,而PCA是一維的,這樣的話,原始圖像矩陣就不用轉(zhuǎn)換成向量了。然后從原始的車標圖像矩陣中構建圖像的協(xié)方差矩陣,支持向量機采用抽取的圖像的特征屬性作為輸入

4、,通過最大化車標屬性之間的間隔,達到車輛分類的目的。
  SVM利用抽取出來的屬性作為類標分類器的輸入?,F(xiàn)存多個使用SVM為基分類器的多標記分類算法,其中一種是1-vs-all方法,本文在實驗中采用這種方法,對每一個類標均建立一個二值分類器來使得其與其他類標區(qū)分開來。類標預測時,采用二值分類器對樣本進行預測,選擇預測置信度最大的分類結果作為其最終的分類結果,本文采用的LIBSVM算法是著名的SVM工具。
  通過對數(shù)據(jù)的預處

5、理,將樣本數(shù)據(jù)首先進行標準化和規(guī)范化,以及填充缺失值,數(shù)據(jù)的預處理對分類效果的影響是很大的,原始樣本屬性的取值可能會相差很大,而SVM算法需要計算兩個樣本在空間中的距離,如果不經(jīng)過預處理,屬性取值范圍越大對距離計算結果的影響越大,因而會使得計算結果對其他取值范圍較小的屬性不公平。因此,標準化避免了數(shù)值計算中的困難,因為SVM算法中的核函數(shù)通常依賴于屬性向量的內(nèi)積。本文采用的是線性的標準化方案,將屬性的取值均規(guī)范到[0,1]范圍內(nèi)。

6、>  SVM分類效率依賴于核函數(shù)的選擇,本文采用最常用的RBF核函數(shù),RBF核函數(shù)將原始數(shù)據(jù)集轉(zhuǎn)換到高維空間,使得數(shù)據(jù)樣本線性可分。基于RBF核函數(shù)的LIBSVM方法,本文采用基于交叉驗證的網(wǎng)格搜索方法來優(yōu)化參數(shù)C和γ,通過嘗試各種不同的參數(shù)值對(C,γ),選取交叉驗證結果最好的參數(shù)值對作為最有的核函數(shù)參數(shù),在10折交叉驗證中,對于“大眾”和“尼桑”車標數(shù)據(jù)集,參數(shù)C的最優(yōu)取值為C=2.0;對于“現(xiàn)代”和“豐田”車標數(shù)據(jù)集,參數(shù)C的最優(yōu)

7、取值為C=4.0;針對這四種車標數(shù)據(jù)集,參數(shù)γ的最有取值為γ=0.03125。本文采用五次5折交叉驗證進行實驗,重復迭代五次得到五個分類器。用這五個分類器分別對測試集進行預測學習,最后綜合這五個分類器的預測結果即為測試集的最終標記結果。同時,本文采用K均值聚類方法來提高分類正確率,因為本文采用1-vs-all的策略來處理多類標問題,經(jīng)過K均值聚類得到的簇中,正類樣本和負類樣本達到平衡,然后在每個簇中構建SVM分類器模型,最后綜合每個模型

8、的學習結果為最終的預測結果。
  由于本文采用1-vs-all的策略來處理車標數(shù)據(jù)集,對于屬于某一類的樣本其標記為1,否者為0,這將導致數(shù)據(jù)集的非平衡問題,本文分別采用欠采樣技術和集成學習方法來處理車標數(shù)據(jù)的非平衡問題。欠采樣技術從負樣本中隨機抽取一定量的數(shù)據(jù)樣本,并結合所有的正樣本構成訓練集,重復迭代10次構成10個訓練樣本集,根據(jù)每個訓練集訓練得到10個分類器,使用每個分類器對要測試的車標數(shù)據(jù)集進行預測,綜合每個分類器的預測結

9、果即為測試集的最終分類預測結果。本文抽取不同比率(50%,75%,85%)的負樣本數(shù)量作為訓練集進行實驗,實驗結果表明從負樣本集中隨機選擇85%的負樣本子集協(xié)同正樣本集一起作為訓練集得到取得很好的分類結果,且欠采樣技術提高了基于SVM的車標分類識別性能。
  Bagging集成學習通過多次重復有放回的采樣方法,從原始數(shù)據(jù)集中抽取一定量的數(shù)據(jù)樣本子集作為訓練集,并基于每次獲得的訓練集學習得到多個分類器。本文提出基于集成學習的SVM車

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論