版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、計(jì)算機(jī)互聯(lián)網(wǎng)的普及使圖像技術(shù)越來(lái)越受到人們關(guān)注,用戶對(duì)圖像信息識(shí)別以及安全意識(shí)也越來(lái)越強(qiáng),其中驗(yàn)證碼圖像識(shí)別在初級(jí)的信息安全保證領(lǐng)域以及日常圖像處理領(lǐng)域等方面有較廣泛的應(yīng)用。不僅涉及到日常生活的手機(jī)指紋解鎖、PC打卡等,同時(shí),也涉及到敏感的軍事目標(biāo)識(shí)別、交通主動(dòng)安全規(guī)避等領(lǐng)域。故無(wú)論民用還是軍用,對(duì)驗(yàn)證碼識(shí)別技術(shù)的研究都具有重要的實(shí)際和理論指導(dǎo)意義。
由于實(shí)際運(yùn)用中的驗(yàn)證碼數(shù)據(jù)存在更新迭代頻率快、數(shù)據(jù)積累量大以及數(shù)據(jù)冗余性高等
2、特點(diǎn),使得傳統(tǒng)的驗(yàn)證碼識(shí)別模型(即每次新數(shù)據(jù)載入后模型都需要重新對(duì)全部數(shù)據(jù)進(jìn)行學(xué)習(xí))在面對(duì)增量數(shù)據(jù)識(shí)別時(shí)不僅計(jì)算成本較高(主要成本為時(shí)間和空間),而且識(shí)別效果不佳。為了更好的適應(yīng)實(shí)際運(yùn)用需求,進(jìn)一步降低驗(yàn)證碼識(shí)別模型對(duì)時(shí)間和空間的依賴成本,本文結(jié)合相關(guān)圖像識(shí)別技術(shù),圍繞著圖像去噪、切割、離線識(shí)別、在線增量識(shí)別進(jìn)行算法分析、建模、設(shè)計(jì)與實(shí)驗(yàn)仿真展開(kāi)。
本文以基礎(chǔ)文本驗(yàn)證碼(包括a-z,A-Z,0-9,共計(jì)62個(gè)基礎(chǔ)字符)為研究對(duì)
3、象,提出一種基于PNN-SOINN-RBF網(wǎng)絡(luò)構(gòu)建的自組織增量神經(jīng)網(wǎng)絡(luò)模型對(duì)驗(yàn)證碼進(jìn)行識(shí)別,首先對(duì)驗(yàn)證碼進(jìn)行去噪、切割圖像預(yù)處理;其次,通過(guò)離線數(shù)據(jù)對(duì)SOINN-RBF模型進(jìn)行訓(xùn)練學(xué)習(xí)先驗(yàn)知識(shí);最后,通過(guò)PNN對(duì)字符進(jìn)行預(yù)判別,接著將新數(shù)據(jù)不斷輸入到SOINN-RBF網(wǎng)絡(luò)中進(jìn)行增量學(xué)習(xí)(結(jié)合節(jié)點(diǎn)增、刪策略),實(shí)現(xiàn)離線模型與在線模型的轉(zhuǎn)換。模型借助了RBF、PNN模型的分類識(shí)別能力以及SOINN的數(shù)據(jù)表征能力,其整體識(shí)別效果得到了實(shí)驗(yàn)驗(yàn)證
4、。
經(jīng)實(shí)驗(yàn)表明,基于PNN-SOINN-RBF網(wǎng)絡(luò)模型對(duì)于驗(yàn)證碼識(shí)別有較高實(shí)用性和準(zhǔn)確性,其中,離線、在線模型在驗(yàn)證集中的單個(gè)字符整體識(shí)別預(yù)測(cè)準(zhǔn)確率依次為72.75%、50.25%,其驗(yàn)證碼綜合識(shí)別準(zhǔn)確率依次為29.31%、20.47%。離線、在線模型在驗(yàn)證集中引入新數(shù)據(jù)后對(duì)于單個(gè)字符識(shí)別準(zhǔn)確率依次為60.44%、78.78%,其綜合識(shí)別準(zhǔn)確率依次為23.05%,28.83%。本文構(gòu)建的算法為增量學(xué)習(xí)方法提供了模型框架參考,同
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫(kù)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于自組織映射的驗(yàn)證碼識(shí)別研究.pdf
- 基于卷積神經(jīng)網(wǎng)絡(luò)的空心驗(yàn)證碼識(shí)別研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的驗(yàn)證碼識(shí)別技術(shù)研究.pdf
- 基于神經(jīng)網(wǎng)絡(luò)的圖形驗(yàn)證碼識(shí)別及防識(shí)別的研究與應(yīng)用.pdf
- 基于RPROP人工神經(jīng)網(wǎng)絡(luò)對(duì)驗(yàn)證碼識(shí)別的研究與實(shí)現(xiàn).pdf
- 基于自組織神經(jīng)網(wǎng)絡(luò)的語(yǔ)音識(shí)別研究.pdf
- 自組織神經(jīng)網(wǎng)絡(luò)的新算法以及應(yīng)用.pdf
- 自組織特征映射神經(jīng)網(wǎng)絡(luò)
- 基于HMM與自組織神經(jīng)網(wǎng)絡(luò)相結(jié)合的語(yǔ)音識(shí)別.pdf
- 驗(yàn)證碼的識(shí)別與反識(shí)別.pdf
- 基于SVM的驗(yàn)證碼識(shí)別算法研究.pdf
- 基于改進(jìn)自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)的信號(hào)調(diào)制方式識(shí)別.pdf
- Web驗(yàn)證碼的生成與識(shí)別.pdf
- 一種自組織模糊神經(jīng)網(wǎng)絡(luò)算法的研究.pdf
- 基于SOM自組織神經(jīng)網(wǎng)絡(luò)的企業(yè)信用評(píng)估模型.pdf
- 一種基于GWRN模型的自組織神經(jīng)網(wǎng)絡(luò)算法的研究及應(yīng)用.pdf
- 神經(jīng)網(wǎng)絡(luò)中的自組織臨界行為研究.pdf
- 基于自組織神經(jīng)網(wǎng)絡(luò)的入侵檢測(cè)研究.pdf
- K-均值算法與自組織神經(jīng)網(wǎng)絡(luò)算法的改進(jìn)研究及應(yīng)用.pdf
- 滑塊游戲驗(yàn)證碼和基于小樣本的驗(yàn)證碼識(shí)別研究.pdf
評(píng)論
0/150
提交評(píng)論