版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、分類號密級:一一單位代碼:]Q塹一9學(xué)號:03_1旦Q5280663侖肥工學(xué)火警HefeiUniversityofTechnology碩士學(xué)位論文MASTERDISSERTATIoN論文題目:學(xué)位類別:學(xué)科專業(yè):(工程領(lǐng)域作者姓名:折扣和平均準(zhǔn)則下SMDP基于性能勢的統(tǒng)一強(qiáng)化學(xué)習(xí)算法學(xué)歷碩士計算機(jī)應(yīng)用技術(shù)周雷導(dǎo)師姓名_墮墨型墼堡完成時間:2006年5月UnifiedAlgorithmsforSemiMarkovDecisionProce
2、sseswithDiscountedandAverageCriteriaBasedonPerformancePotentialsbyReinforcementLearningAbstractAsaspecialtypeofrandomprocesses,MarkovprocesshasbeenusedinlotsoffieldsinouractuallifeMarkovdecisionprocesses(MDPs)andsemiMark
3、ovdecisionprocesses(SMDPs)arecommonlymathematicsmodelsfortheserandomsystemsSMDPsareaclassofmodel,whichismoregeneralthanMDPsThesojourntimeofitsstatesarefollowedasanarbitrarydistributionTheperformanceoptimizationofMDPsandS
4、MDPswithseveralcriteriaiSoneofthemostactiveresearchfieldsTheconceptofMarkovperformancepotentials,whichisintroducedbyCao,offersanewframeworkandapproachfortheoptimizationofMDPsBasedonoptimalPoissonequationandtheoptimaltheo
5、remwithpotentialsaloofalgorithms,suchaspolicyiterationandvalueiteration,canbeobtainedInrecentyears,reinforcementlearningismoreandmoreappliedintotheseliteratures。Itisanimportantfieldofartificialintelligence,whichcombinesc
6、onceptsfromdynamicprogramming,stochasticapproximationviasimulation,andfunctionapproximationIthasbeenshowntosupplyoptimalornearoptimalsolutionstolargeMDPs/SMDPsevenwhentheyareconsideredintractableviatraditionaldynamicprog
7、rammingmethods。Accordingtotherelationsbetweenperformancepotentialsandreinforcementlearning,thepaperisconcernedwiththeperformanceoptimizationalgorithmsforSMDPsbysimulation,basedapproximationofpotentialsFirst,bythedefiniti
8、onofanequivalentinfinitesimalgeneratorofSMDPs,SMDPscanbeconvertedintoanequivalentuniformizedMarkovchainSomeconclusionsforMDPsmaybeextendedintoSMDPs,Second,bythedefinitionofpotentialsbasedonPoissonequationandsamplepath,th
9、euniformapproximationformulaofpotentialscanbeobtainedwiththediscountedandaveragecriteriabyreinforcementlearning。Further,anewapproach,neuro—dynamicprogramming(NDP),whichcansolvetheoptimizationproblemoflarge—scalediscretee
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 基于性能勢的改進(jìn)平均獎賞強(qiáng)化學(xué)習(xí)算法研究.pdf
- SMDP基于性能勢的異步優(yōu)化算法.pdf
- 40367.平均報酬準(zhǔn)則下的逆向強(qiáng)化學(xué)習(xí)算法研究
- 不確定SMDP基于性能勢的魯棒控制研究.pdf
- 基于平均型強(qiáng)化學(xué)習(xí)算法的動態(tài)調(diào)度方法的研究.pdf
- SMDP基于性能勢的NDP優(yōu)化方法及應(yīng)用研究.pdf
- 半Markov控制過程在折扣代價準(zhǔn)則下的性能分析及優(yōu)化算法.pdf
- SDN下基于強(qiáng)化學(xué)習(xí)的路由規(guī)劃算法研究.pdf
- 基于試錯學(xué)習(xí)的強(qiáng)化學(xué)習(xí)算法的研究.pdf
- 基于強(qiáng)化學(xué)習(xí)算法的配對交易策略研究.pdf
- 基于動作抽象的分層強(qiáng)化學(xué)習(xí)算法研究.pdf
- 基于高斯過程回歸的強(qiáng)化學(xué)習(xí)算法研究.pdf
- 基于強(qiáng)化學(xué)習(xí)蟻群算法的主動嗅覺.pdf
- 基于模型的動態(tài)分層強(qiáng)化學(xué)習(xí)算法研究.pdf
- 基于強(qiáng)化學(xué)習(xí)的改進(jìn)遺傳算法研究.pdf
- 論“和平統(tǒng)一”與“和平發(fā)展”.pdf
- 基于強(qiáng)化學(xué)習(xí)算法的多智能體學(xué)習(xí)問題的研究.pdf
- 基于強(qiáng)化學(xué)習(xí)算法的電梯調(diào)度系統(tǒng)的研究.pdf
- 面向強(qiáng)化學(xué)習(xí)的模型學(xué)習(xí)算法研究.pdf
- 基于強(qiáng)化學(xué)習(xí)的動態(tài)頻譜分配算法的研究.pdf
評論
0/150
提交評論