泛朦第三系—神經(jīng)系(neural network)_第1頁
已閱讀1頁,還剩46頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、泛朦第三系—神經(jīng)系(Neural Network),報告人: 張士行教授Prof. Dr. Albert Chang光電博士. 企管碩士. 電子碩士. 機械碩士PICO 7 Tools FounderEditor of CJME (cited in EI)Graduate School of Business & Management,VITCEO of PID Lab.Cellular Phone: 886-9

2、39924099Email: prof.chang@msa.hinet.net,類神經(jīng)網(wǎng)路導論,類神經(jīng)網(wǎng)路(artificial neural network)或譯為人工神經(jīng)網(wǎng)路: 模仿生物神經(jīng)網(wǎng)路的資訊處理系統(tǒng)。,精確定義,一種計算系統(tǒng):硬體、軟體。大量簡單的相連人工神經(jīng)元:模仿生物神經(jīng)網(wǎng)路的能力。取得資訊:外界環(huán)境、人工神經(jīng)元。輸出結果:外界環(huán)境其他人工神經(jīng)元。,背景(1),1957年(電腦發(fā)展的初期):第一種類神經(jīng)網(wǎng)路

3、模式— 感知機( Perceptron )提出。1960年代中期沒落。,沒落因素,1.本身理論無法突破( EX:XOR問題)。2.數(shù)位電腦、人工智慧的吸引。3.當時相關技術無法實現(xiàn)「神經(jīng)電腦」。,背景(2),80年代中期:類神經(jīng)網(wǎng)路的研究復興,而在短短數(shù)年之內蔚為風潮。原因:如下4點。,復興原因(1),類神經(jīng)網(wǎng)路在理論的建立與模式的開發(fā)上有了突破,最明顯的突破包括: 霍普菲爾網(wǎng)路( Hopfield neural

4、 network, HNN) 倒傳遞網(wǎng)路(Back-propagation network)。,復興原因(2),解決電腦科學與人工智慧的難題,(EX:樣本識別、機器學習)。電子、光學等技術進展:提供實現(xiàn)「神經(jīng)電腦」可能性(EX:基於VLSI的神經(jīng)電腦與光神經(jīng)電腦的誕生)。,復興原因(3),從現(xiàn)代生物學、認知學、心裡學對生物神經(jīng)網(wǎng)路的瞭解,提供了發(fā)展新的類神經(jīng)網(wǎng)路模式的啟示。,生物神經(jīng)元模型,生物神經(jīng)網(wǎng)路: 由巨量的神

5、經(jīng)細胞,或稱神經(jīng)元所組成,神經(jīng)細胞的形狀和一般的細胞有很大的不同。,神經(jīng)細胞,神經(jīng)核:神經(jīng)細胞呈核狀的處理機構。軸索(神經(jīng)軸):神經(jīng)細胞成軸索狀的輸送機構。樹突(神經(jīng)樹):神經(jīng)細胞成樹枝狀的輸出入機構。突觸(神經(jīng)節(jié)):神經(jīng)細胞神經(jīng)樹上乘點狀的連結機構。,人工神經(jīng)元模型(1),類神經(jīng)網(wǎng)路:由許多的人工神經(jīng)細胞(artificial neuron)所組成。又稱類神經(jīng)元、人工神經(jīng)元、處理單元( processing element)。

6、每一個處理單元的輸出以扇形送出,成為其它許多處理單元的輸入。,人工神經(jīng)元模型(2),其中Yj = 模仿生物神經(jīng)元模型的輸出訊號。,處理單元輸出值與輸入值的關係式:一般用輸入值的加權乘積和之函數(shù)來表示,人工神經(jīng)元模型(3),f =模仿生物神經(jīng)元模型的轉移函數(shù)(transfer function)。Wij =模仿生物神經(jīng)元模型的神經(jīng)鏈結強度,又稱鏈結加權值。,人工神經(jīng)元模型(4),Xi =模仿生物神經(jīng)元模型的輸入訊號(input

7、signal)。θ=模仿生物神經(jīng)元模型的閥值(threshold value)。,人工神經(jīng)元模型(5),鏈結(connection) :介於處理單元間的訊號傳遞路徑。每一個鏈結上有一個數(shù)值的加權值Wij,用以表示第i處理單元對第j處理單元之影響程度。,人工神經(jīng)元模型(6),一個類神經(jīng)網(wǎng)路:由許多個人工神經(jīng)元所組成,並且可以組成不同的 網(wǎng)路模式(network model) 或 網(wǎng)路典範(netwo

8、rkparadigm)。,類神經(jīng)網(wǎng)路模型(1),倒傳遞網(wǎng)路(back- propagation network,BPN ):應用最普遍。BPN:包含許多層(含若干個處單元),類神經(jīng)網(wǎng)路模型(2),輸入層單元:輸入訊息。輸出層單元:輸出訊息。隱藏層單元:提供類神經(jīng)網(wǎng)路表現(xiàn)處理單元間的交互作用與問題的內在結構的能力。,網(wǎng)路分類(1),目前著名類神經(jīng)網(wǎng)路不下數(shù)十種,主要分為四類1.監(jiān)督式學習網(wǎng)路:從問題領域中取得訓練範例(有輸入

9、變數(shù)值,也有輸出變數(shù)),並從中學習輸入變數(shù)與輸出變數(shù)內在對映規(guī)則,以應用於新的案例(只有輸入變數(shù)值,而需推論輸出變數(shù)值的應用)如BP。,網(wǎng)路分類(2),2.無監(jiān)督式學習網(wǎng)路:從問題領域中取得訓練範例(只有輸入變數(shù)值),並從中學習範例的內在聚類規(guī)則,以應用於新的案例。3.聯(lián)想式學習網(wǎng)路:從問題領域中取得訓練範例(狀態(tài)變數(shù)值),並從中學習範例的內在記憶規(guī)則,以應用於新的案例,如霍普菲爾網(wǎng)路。,,網(wǎng)路分類(2),4.最適化應用網(wǎng)路:對一問題

10、決定其設計變數(shù)值,使其在滿足設計變數(shù)下,使設計目標達最佳狀態(tài)的應用,如退火神經(jīng)網(wǎng)路。,類神經(jīng)網(wǎng)路運作(1),類神經(jīng)網(wǎng)路的運作過程分成兩個階段:學習過程:從範例學習,以調整網(wǎng)路連節(jié)加權值的過程 。回想過程:網(wǎng)路依回想演算法,以輸入資料決定網(wǎng)路輸出資料的過程。,類神經(jīng)網(wǎng)路運作(2),1.訓練範例:藉此調整網(wǎng)路連結加權值。訓練範例型式依所使用的網(wǎng)路模式之不同而異。2.測試範例:用以評估網(wǎng)路學習成果所使用的範例。(1.2)差異:前者只

11、用回想演算法得到推論輸出值,並與目標輸出值比較,以評估網(wǎng)路學習精度。,類神經(jīng)網(wǎng)路運作(3),3. 待推案例:網(wǎng)路學習過程完後,可用網(wǎng)路推論待推案例的結果。(2.3)差異:前者沒有目標輸出變數(shù)向量,優(yōu)點,高速計算能力高容記憶能力學習能力容錯能力,應用,監(jiān)督式學習應用:分類、預測。非監(jiān)督式學習應用:聚類。聯(lián)想式學習應用:雜訊過濾、資料擷取。最佳化問題應用:設計、排程。,基本架構(1),處理單元:類神經(jīng)網(wǎng)路基本單位作用可用三

12、個函數(shù)來說明: 1)集成函數(shù) 2)作用函數(shù) 3)轉換函數(shù),基本架構(2),層:若干個具相同作用的處理單元集合成。層的三種作用: 1)正規(guī)化輸出 2)競爭化輸出 3)競爭化學習,基本架構(3),網(wǎng)路:若干個具不同作用的層集合成網(wǎng)路網(wǎng)路兩種作用: 1)學習過程 2)回想過程,,C:實數(shù)型常數(shù)。單調 ( monotonic ) 遞增 、平滑且可微分的函數(shù)。採用:倒傳遞類神

13、經(jīng)網(wǎng)路 、連續(xù)型霍普菲爾網(wǎng)路,都是此種活化函數(shù)。,倒傳遞網(wǎng)路,倒傳遞類神網(wǎng)路模式是目前類神網(wǎng)路學習模式中最具代表性,應用最普遍的模式。倒傳遞類神經(jīng)網(wǎng)路屬於監(jiān)督式學習網(wǎng)路,因而適合診斷、預測等應用。,,,,,,,,,??????,?????,????,,,,,,輸出向量,輸入向量,輸出層:表示輸 出變數(shù) 隱藏層:表示輸 入處理 單元間 的交互 影響輸

14、出層:表示輸 入變數(shù),範例,文章: Integration of Gray Prediction and Fuzzy Model for Improving Back-propagation Learning Algorithm R.J.Kuo , C.Y.Chiu , and C.C.Hsieh Fuzzy 2000,題目簡述,基本觀念:利用灰預測和模糊理

15、論來改善BP的訓練速度。模擬:XOR範例設定:初始學習率:0.3,學習次數(shù)1000次。由MSE(mean square error)來判定收斂效。,解法(灰色),建立GM(1,1)模型的灰微分方程式目的:預測error(PE) and change of error(PCE) 。用PE和PCE根據(jù)FUZZY規(guī)則,調整訓練參數(shù) 。,解法(類神經(jīng)),各層間初始權重:亂數(shù)。開始時訓練誤差大:給大學習率使系統(tǒng)收斂快。當訓練接近最佳化

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論