2023年全國碩士研究生考試考研英語一試題真題(含答案詳解+作文范文)_第1頁
已閱讀1頁,還剩31頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、<p>  題目類型: 論文 </p><p>  (設計、論文、報告)</p><p>  本科畢業(yè)設計(論文)</p><p>  題目: 人工神經(jīng)網(wǎng)絡在認知科學的研究</p><p>  中的應用狀況的報告 </p><p>  學 院: 機械與控制工程

2、學院 </p><p>  專業(yè)(方向): 自動化(控制) </p><p>  班 級: </p><p>  學 生: </p><p>  指導教師: </p><p&g

3、t;<b>  2015年6月1日</b></p><p><b>  摘 要</b></p><p>  人工神經(jīng)網(wǎng)絡是一種基于生物神經(jīng)網(wǎng)絡結(jié)構和機制的算法或模型。認知科學是一種研究人類大腦處理認知信號并做出反應過程的科學。利用對人類認知現(xiàn)象的了解來設計的人工神經(jīng)網(wǎng)絡具有很好的處理信息的能力,這對現(xiàn)實應用很有幫助。現(xiàn)在,人工神經(jīng)網(wǎng)絡模擬認

4、知科學已經(jīng)成為了人工智能的重要分支。</p><p>  首先簡單說明了人類大腦神經(jīng)元特點,生物神經(jīng)元的簡單組成和復雜聯(lián)系構成了生物神經(jīng)網(wǎng)絡模型。其次簡述了人工智能和認知科學的歷史,從古希臘哲學認知研究到現(xiàn)代的人工神經(jīng)網(wǎng)絡模擬認知。接著總結(jié)了典型的人工神經(jīng)網(wǎng)絡結(jié)構,共有十五組經(jīng)典神經(jīng)網(wǎng)絡模型。然后重點論述了十個近年來關于人工神經(jīng)網(wǎng)絡模擬認知的模型,主要從模型模擬認知的優(yōu)勢、模型結(jié)構、模型信息處理過程和模型應用等方

5、面闡述。接著講述作者總結(jié)的人工神經(jīng)網(wǎng)絡模擬認知現(xiàn)象的發(fā)展規(guī)律,即模型機制的完全生物性與部分生物性問題。再接著介紹了五個關于人工智能神經(jīng)網(wǎng)絡國際會議,特別列出了會議的投稿主題。最后,對人工神經(jīng)網(wǎng)絡模擬認知的發(fā)展趨勢做預測,多學科綜合和復雜性成為未來神經(jīng)網(wǎng)絡研究的方向。</p><p>  關鍵詞:人工神經(jīng)網(wǎng)絡;認知;國際會議</p><p>  The report that the sit

6、uation of artificial neural network on the study of cognition science in recent years</p><p>  Student:LIANG Cheng-he teacher:XU Jian-yu</p><p>  Abstract: Artificial neural network which is ba

7、sed on the structure and theory of biological neural network is algorithm and model. Cognition science is a subject which discusses the process of disposing information and response. Artificial neural network have the ca

8、pability of dealing with information which is designed for understand biological cognition phenomenon on cognition science better than other model, and it is useful to the need of the reality. In recent years, artificial

9、 neural netwo</p><p>  First,we introduce that the characteristics of human being of brain neurons, which is made up of simple element and complex connection, and the history of the artificial intelligence a

10、nd cognitive science from ancient Greek philosophy to artificial neural network model of cognition in recent years. Next, we summarize that the typical structure of the artificial neural network, together fifteen neural

11、network models. Then, we discuss that the ten artificial neural networks which are model of the </p><p>  Key words: artificial neural network;cognition;international conference</p><p><b>

12、  目 次</b></p><p><b>  摘 要I</b></p><p>  Abstract:II</p><p><b>  1 引言1</b></p><p>  1.1 基本原理1</p><p>  1.2 人工神經(jīng)網(wǎng)絡發(fā)展簡史

13、2</p><p>  1.3 文章內(nèi)容3</p><p>  2 對神經(jīng)網(wǎng)絡發(fā)展有重要影響的神經(jīng)網(wǎng)絡模型4</p><p>  3 模擬認知的人工神經(jīng)網(wǎng)絡模型5</p><p>  3.1 模擬記憶5</p><p>  3.1.1 R-nets模型5</p><p>  3.

14、1.2 非線性動態(tài)人工神經(jīng)網(wǎng)絡模型6</p><p>  3.1.3 競爭網(wǎng)絡模型和周期聯(lián)想記憶模型7</p><p>  3.1.4 計算機認知神經(jīng)學模型9</p><p>  3.2 模擬注意力10</p><p>  3.2.1 注意運動推導模型10</p><p>  3.3 模擬情緒12</

15、p><p>  3.3.1 DUONN模型12</p><p>  3.4 模擬語言12</p><p>  3.4.1 語法理解模型12</p><p>  3.4.2 數(shù)字空間模型13</p><p>  3.4.3 多時間周期神經(jīng)網(wǎng)絡模型14</p><p>  4 人工神經(jīng)網(wǎng)絡模

16、擬認知現(xiàn)象現(xiàn)狀16</p><p>  5 人工智能中關于人工神經(jīng)網(wǎng)絡和認知科學的國際會議17</p><p>  5.1 國際人工智能協(xié)會年會17</p><p>  5.2 神經(jīng)信息處理系統(tǒng)年會17</p><p>  5.3 國際神經(jīng)網(wǎng)絡年會18</p><p>  5.4 國際人工智能聯(lián)合會議18

17、</p><p>  5.5 國際人工智能工具會議18</p><p><b>  6 未來19</b></p><p><b>  7 結(jié)論20</b></p><p><b>  致謝21</b></p><p><b>  參

18、考文獻22</b></p><p><b>  附錄124</b></p><p><b>  1 引言</b></p><p><b>  1.1 基本原理</b></p><p>  現(xiàn)代人大腦的平均重量約為1400g,大腦內(nèi)約含1000億個神經(jīng)元,每個神

19、經(jīng)元與其他神經(jīng)元間有約1000個連接,大腦內(nèi)總共約有1000000億個連接。人腦的基本組成單元是神經(jīng)元,是一種特殊化學細胞。神經(jīng)元由樹突與軸突組成,樹突位于神經(jīng)元表面,軸突周圍有腱鞘。樹突與其他神經(jīng)元軸突末梢相聯(lián)系,構成突觸。神經(jīng)元間信號傳遞是一種復雜的生物化學過程:電過程??傊?,簡單神經(jīng)元的復雜聯(lián)系構成了人類智能的物質(zhì)基礎。</p><p>  人的智能涉及許多領域,包括感知和認知,語言能力及視覺功能,記憶,學

20、習與知識預測,自適應和魯邦性,創(chuàng)新和發(fā)明,行動和動作,優(yōu)化,計劃、判斷和決定,博弈與對策,深層智能因素(意識,感情,意志,注意力,直覺,理解)[1]。其中認知的研究,是本文討論的重點[1]。</p><p>  人工神經(jīng)網(wǎng)絡簡稱作神經(jīng)網(wǎng)絡,他是一種基于生物神經(jīng)網(wǎng)絡的功能和結(jié)構的數(shù)學模型或計算模型。神經(jīng)網(wǎng)絡由人工神經(jīng)元組成,神經(jīng)元間相互連接構成了神經(jīng)網(wǎng)絡系統(tǒng)。大多數(shù)情況下,人工神經(jīng)網(wǎng)絡是自適應系統(tǒng),在學習期間,他能

21、通過觀察流過網(wǎng)絡的外部或內(nèi)部信息來變換他的結(jié)構,以適應信息加工的變化?,F(xiàn)代神經(jīng)網(wǎng)絡是非線性統(tǒng)計數(shù)據(jù)模型工具,他們通常是在輸入和輸出關系復雜的模式或查詢數(shù)據(jù)中得到應用。</p><p>  認知科學是一個交叉性學科,其研究思維和思維過程,探索什么是認知、認知做什么、怎么工作。其研究主要是在人類的智力和行為上,特別是人類的神經(jīng)系統(tǒng)。在神經(jīng)系統(tǒng)中信息怎樣表述、怎樣產(chǎn)生、怎樣轉(zhuǎn)換,是認知科學的研究課題。認知科學涉及心理學

22、、人工智能、哲學、神經(jīng)科學、語言學、社會學、教育學、人類學,其分析層次既有低水平學習和機械式?jīng)Q定又有高水平邏輯和計劃,不僅關注神經(jīng)元的連接而且關注大腦分子組織。</p><p>  在研究人類認知能力中,利用人工神經(jīng)網(wǎng)絡模型來模擬認知能力是一種重要的研究方法。模擬認知利用的是現(xiàn)有已知的認知運行機制,雖然這些機制并不完美,但通過模擬我們還是能利用其解決許多問題,甚至能透過人工神經(jīng)網(wǎng)絡模型進一步了解認知。這類人工神經(jīng)

23、網(wǎng)絡的模擬理論,被稱為聯(lián)結(jié)主義。聯(lián)結(jié)主義的原理是神經(jīng)網(wǎng)絡及神經(jīng)網(wǎng)絡間連接機制與學習算法,理論認為人的思維基元是神經(jīng)元,而不是符號處理過程。</p><p>  人工神經(jīng)網(wǎng)絡發(fā)展起于20世紀,認知科學研究起于古希臘哲學,而將人工神經(jīng)網(wǎng)絡用于研究認知科學則是近幾十年的事。</p><p>  1.2 人工神經(jīng)網(wǎng)絡發(fā)展簡史[2]</p><p>  早期:古希臘哲學,代表

24、人物Descartes,David Hume,Immanuel Kant,Benedict de Spinoza,Nicolas,Malebranche,Pierre Cabanis,Leibniz,John Locke,這個時期的認知科學研究與現(xiàn)代認知科學不同,其最終發(fā)展成了心理學和哲學。</p><p>  啟蒙期:1880年美國心理學家William James出版了第一部詳細論述人腦結(jié)構及功能的專著《pr

25、inciples of psychology》,對與學習、聯(lián)想記憶相關的基本原理做了開創(chuàng)性研究。1930年代到1940年代(自動控制化時期),Warren Mcculloch 和Walter Pitts尋求解釋:思維的組織原則,第一次提出了人工神經(jīng)網(wǎng)絡。1943年生物學家W.S.McCulloch和數(shù)學家W.A.Pitts發(fā)表了一篇神經(jīng)網(wǎng)絡的文章,提出了神經(jīng)元的數(shù)學模型M-P模型。1949年心理學家Donald olding Hebb出

26、版了名為《organization of Behavior》的書,提出了Hebb算法的連結(jié)權值訓練算法和聯(lián)結(jié)主義。1958年計算機學家Frank Rosenblatt發(fā)表文章提出了三層網(wǎng)絡特性的神經(jīng)網(wǎng)絡結(jié)構,稱為“感知機”。 1940年代到1950年代,計算機理論和數(shù)字計算機的快速發(fā)展,Alan Turing和John von Neu mann在認知科學研究中首次運用了現(xiàn)代計算機理論和技術。1959年,Noam chomsky評論B.F

27、.Skinner的</p><p>  低潮期:1969年M.Minsky和S.Papert評論“感知機”,認為其存在無法擴展到多層網(wǎng)絡的問題。1969年S.Grossberg和G.A.Carpenter提出了自適應響應理論模型。1972年T.Kohomen提出了自組織映射(SOM)理論。同年,J.Anderson也提出了一個相似的“交換存儲器”。 1973年,Christopher Longuet-Higgin

28、s在他的文獻Lighthill report中提到了認知科學的術語。1980年到1983年Kunihiko Fukushima發(fā)表了文章《Neocognitron》,并開發(fā)了許多神經(jīng)網(wǎng)絡結(jié)構與訓練算法</p><p>  復興期:1982年John J.Hopfield發(fā)表文章提出了Hopfield網(wǎng)絡。1987年美國電話與電報公司貝爾實驗室利用Hopfield網(wǎng)絡,仿真出耳蝸與視網(wǎng)膜等硬件網(wǎng)絡。同年G.E.Hi

29、nton和T.J.Sejnowski提出學習過程使用模擬退火技術的Blotzmann機(波爾茲曼機)。1988年David E.Rumelhart和James L.McCelland及其領導小組發(fā)表了《Parallel Distributed Processing》。</p><p>  新時期:1987年6月首屆國際神經(jīng)網(wǎng)絡學術會議在美國加州圣地亞哥召開,而且在會上成立了國際神經(jīng)網(wǎng)絡學會(INNS)。1989年

30、Stephen Grossberg、Teuvo kohonen和Shunichi Amari主持創(chuàng)辦了世界第一份神經(jīng)網(wǎng)絡雜志《Neural Network》。</p><p><b>  1.3 文章內(nèi)容</b></p><p>  文章第二部分論述了部分對人工神經(jīng)網(wǎng)絡發(fā)展有重大影響的網(wǎng)絡模型,然后第三部分重點介紹了近十年內(nèi)十個模擬人類認知的人工神經(jīng)網(wǎng)絡模型,分別從人

31、工神經(jīng)網(wǎng)絡模型的結(jié)構、優(yōu)勢和原理等方面論述。第四部分總結(jié)了作者對近年人工神經(jīng)網(wǎng)絡模擬認知現(xiàn)象的發(fā)展規(guī)律。第五部分講述了五個國際著名的人工智能會議及投稿主題。第六部分對人工智能特別是人工神經(jīng)網(wǎng)絡模擬認知的發(fā)展趨勢進行了預測。</p><p>  2 對神經(jīng)網(wǎng)絡發(fā)展有重要影響的神經(jīng)網(wǎng)絡模型[2]</p><p>  Perceptron(感知機)Frank Rosenblatt(康奈爾大學)

32、在1957年提出的</p><p>  Adaline(自適應線性單位)和Madaline(多個Adaline的組合網(wǎng)絡)Bernard Widrow(斯坦福大學)在1960年到1962年提出的</p><p>  Avakabche(雪崩網(wǎng)):S.Drossberg在1967年提出</p><p>  Cerellatron(小腦自動機)D.Marr麻省理工學院在

33、1969年到1982年提出</p><p>  Back Propagation(誤差反傳網(wǎng)絡):P.Werbos(哈佛大學)、David Rumelhart(斯坦福大學)James McClelland(斯坦福大學)在1979年到1990年提出</p><p>  Adaptive Resonance Theory(自適應共振理論ART)有ART1、ART2、ART3三種類型G.Carp

34、enter和S Grossberg(波士頓大學)在1976年到1990年提出的</p><p>  Brain State in a Box(盒中腦BSB網(wǎng)絡)James Anderson(布朗大學)在1977年提出</p><p>  Neocognition(新認知機)Fukushima(日本廣播協(xié)會)在1978年到1984年提出</p><p>  Self-

35、Organizing feature map(自組織特征映射網(wǎng)絡)Tuevo Konhonen(芬蘭赫爾辛基技術大學)在1980年提出</p><p>  Hopfield網(wǎng)絡John Hopfield(加州理工大學)在1982年提出</p><p>  Boltzman machine(波爾茲曼機)和Cauchy machine(柯西機)J.Hinton(多倫多大學)和T.Sejnows

36、ki(霍布金斯大學)在1985到1986年提出的</p><p>  Bidirectional Associative Memory(BAM,雙向聯(lián)想記憶網(wǎng))Baaart kosko(南加州大學)1985年到1988年提出</p><p>  Counter proagation(CPN,雙向傳播網(wǎng))Robert Hecht-Nielsen在1983年提出</p><

37、p>  Radial Basis Functions(RBF,徑向基函數(shù)網(wǎng)絡)Broomhead Lowe在1988年提出</p><p>  Support Vector Machine(SVM,支持向量機)Vapnik在1992年到1988年提出</p><p>  3 模擬認知的人工神經(jīng)網(wǎng)絡模型</p><p><b>  3.1 模擬記憶&

38、lt;/b></p><p>  3.1.1R-nets模型[3]</p><p>  在人類大腦中,信息是存儲在大腦內(nèi)神經(jīng)元中的,不同神經(jīng)元間不同連接強度構成了特定的信息,這些信息在大腦中被稱作記憶。生物大腦的信息 存儲容量和效率是現(xiàn)代電子計算機的許多倍,如果能模擬出大腦記憶的機制,將會給計算機存儲帶來深遠的影響。</p><p>  R-nets模型是一種

39、模擬記憶現(xiàn)象的存儲模型。R-nets中有兩個重要的組成部分,訓練集和回憶集,其中的神經(jīng)元分為興奮神經(jīng)元和抑制神經(jīng)元,模型結(jié)構見圖3.1.1,光滑球形是興奮神經(jīng)元,尖狀球形是抑制神經(jīng)元,R-nets大約有3000到75000個興奮神經(jīng)元組成。在模型中,興奮神經(jīng)元到抑制神經(jīng)元的比率和突觸的數(shù)量是不等的。R-nets神經(jīng)網(wǎng)絡的存儲能力由隨機選擇興奮神經(jīng)元和訓練突觸估算出來。網(wǎng)絡中部分神經(jīng)元被訓練成訓練集,訓練集中半數(shù)興奮神經(jīng)元又組成回憶集。網(wǎng)

40、絡可以運行100個循環(huán),訓練集的數(shù)量是持續(xù)增長的,直至訓練集中每個目標組的錯誤數(shù)量達到目標組尺寸的10%。在網(wǎng)絡整體尺寸大幅增長下,回憶集的尺寸也是小幅增長的,這可以有效的存儲信息。而對于訓練集而言,訓練集尺寸與網(wǎng)絡尺寸要相適應,否則會出現(xiàn)許多錯誤偏差。訓練集對網(wǎng)絡整體相對較小時,其錯誤偏差主要由于神經(jīng)元中存在虛假的連結(jié),使得訓練組不能連結(jié)到回憶集。訓練集對網(wǎng)絡整體相對較大時,錯誤主要原因則是網(wǎng)絡的過度訓練。由于存儲空間和突觸數(shù)量是線性

41、的,使得網(wǎng)絡間出現(xiàn)密集的連接。</p><p>  圖3.1.1 R-nets模型結(jié)構</p><p>  R-nets網(wǎng)絡模型相對于傳統(tǒng)神經(jīng)網(wǎng)絡模型的優(yōu)勢在于,其信息存儲能力更強而且更符合生物學上神經(jīng)系統(tǒng)的運行方式。對于信息存儲而言,網(wǎng)絡的學習算法和回憶算法是獨立于網(wǎng)絡結(jié)構的,且不需要設定臨界值也不需要對突觸進行分級。對于符合生物神經(jīng)系統(tǒng)運行模式而言,模型表現(xiàn)在不僅體現(xiàn)了大腦的物質(zhì)情況,

42、而且提供了特別的仿生物連接矩陣。雖然模型的生物特征可能會限制其求解更低水平的問題的能力,但是這些特征在非現(xiàn)實突觸模擬中是有用的。</p><p>  由于其符合大腦內(nèi)神經(jīng)元存儲信息的結(jié)構,使得他可以模擬許多心理現(xiàn)象,如串行記憶,次級加強,再加工記憶,預測制造,不完整再加工記憶等。他還能模擬在刺激作用下的感官反應,并能通過回憶感官反應的結(jié)果來重復運動。他不僅能在特殊刺激下預測行為,也能在沒有特殊刺激下預測行為。&l

43、t;/p><p>  3.1.2非線性動態(tài)人工神經(jīng)網(wǎng)絡模型[4]</p><p>  非線性動態(tài)人工神經(jīng)網(wǎng)絡,簡稱為NDANN模型,他是以非線性動態(tài)系統(tǒng)(NDS)理論為基礎的人工神經(jīng)網(wǎng)絡。NDS是一個理論方法,其目的是有兩點:首先,他能作為一個分析數(shù)據(jù)的工具;第二,他能模擬不同領域的調(diào)查研究。在NDS方法中,時間和變化是兩個重要的變量。對系統(tǒng)而言,系統(tǒng)隨時間而產(chǎn)生的變化是直接與外部環(huán)境狀況相互

44、聯(lián)系、相互作用的,系統(tǒng)和環(huán)境的相互作用對自組織和復雜行為是非常重要的,非線性動態(tài)系統(tǒng)(NDS)理論在微觀和宏觀上都能反應這些聯(lián)系。NDS理論可以應用在很多領域中,包括神經(jīng)科學,感知心理學和認知科學和社會心理學,近來NDS理論已經(jīng)成為了探測和理解認知現(xiàn)象的必要工具。NDANN模型不僅體現(xiàn)了NDS的性能水平,而且可以模擬神經(jīng)元活動和低水平認知現(xiàn)象 </p><p>  NDANN的結(jié)構見圖3.1.2,x[0]和y[0

45、]表示初始輸入狀態(tài)(刺激);t是網(wǎng)絡的迭代數(shù)量;W和V是強度矩陣。網(wǎng)絡模型由兩層組成,模型可以加工在一個周期中流動的雙向信息。網(wǎng)絡成產(chǎn)生聯(lián)想記憶和非聯(lián)想記憶,也就是說,他可以進行有導師學習也可以進行無導師學習。模型兩層的大小是不同的,強度矩陣不需要作轉(zhuǎn)換陣操作。而且,網(wǎng)絡的每一個單元都對應一個神經(jīng)元種群,就好像是在生物神經(jīng)網(wǎng)絡或心理學概念上講述的生物神經(jīng)元一樣。</p><p>  圖3.1.2 非線性動態(tài)人工神

46、經(jīng)網(wǎng)絡結(jié)構</p><p>  由于當前未能全部知曉腦部記憶機制,故模擬記憶現(xiàn)象設計的人工神經(jīng)網(wǎng)絡只能部分模擬記憶過程,這導致模型的信息存儲和處理等方面存在缺陷。結(jié)合生物記憶機制和NDA原理的NDANN模型可以避免這一缺陷,由于他可以模擬混沌的時間空間行為,因此他也成為一個幫助彌合生物記憶和基于行為模擬的存儲模型間差距的有效工具。</p><p>  3.1.3競爭網(wǎng)絡模型和周期聯(lián)想記憶模

47、型[5]</p><p>  競爭網(wǎng)絡是通過評估他們的強度空間中訓練后的隨機變量來進行學習的,網(wǎng)絡最大的特點是能在學習環(huán)境出現(xiàn)偏差時正常的學習。周期聯(lián)系記憶(RAM)通常作為模擬不穩(wěn)定原則的分析器,但是他對環(huán)境偏差很敏感。</p><p>  競爭神經(jīng)網(wǎng)絡是由Rumelhart和Zipser在1986年提出的,他是一個簡單的標準前饋網(wǎng)絡,他由兩層組成,分別是隱含層和輸出層,見圖3.1.3(

48、a),其中的虛線箭頭表示無可調(diào)節(jié)強度的抑制連接。</p><p>  圖3.1.3(a) 競爭神經(jīng)網(wǎng)絡模型結(jié)構</p><p>  自適應響應理論模型,簡稱ART,是Carpenter和Grossberg在1987年提出的,他是一個基于生物學競爭性的網(wǎng)絡,他以兩個主要問題為基礎,一個是共振(Grossberg在1976年提出的)一個是新探測器(是vigilance和Grossberg在19

49、76年提出的)。共振是一個平衡狀態(tài),當一個輸出能重新構建輸入時,就會出現(xiàn)共振現(xiàn)象,ART1網(wǎng)絡僅僅在平衡狀態(tài)到達時學習。ART1結(jié)構見圖3.1.3(b),他由兩層單元,網(wǎng)絡有兩個距離強度集組成,右邊部分是網(wǎng)絡的新探測器。</p><p>  圖3.1.3(b) 自適應響應理論模型結(jié)構</p><p>  周期聯(lián)想憶模型,簡稱RAM,其結(jié)構見圖3.1.3(c),W是強度矩陣,表示一個簡單的線

50、性網(wǎng)絡,x[t]是網(wǎng)絡在時間t時的狀態(tài),灰色正方形式是一個延遲單元。模型規(guī)則是由Hopfield在1982年提出的,在1977年Anderson再次強調(diào)了這個原則,模型的參數(shù)不會影響到模型的瞬態(tài)性能。</p><p>  圖3.1.3(c) 周期聯(lián)想記憶模型結(jié)構</p><p>  非線性聯(lián)想記憶模型,簡稱NDRAM,他是一個非線性RAM,他能分類灰度值相關的模式,還能在RAMs處于新的連

51、續(xù)刺激下學習。在學習算法下,小數(shù)量的虛假狀態(tài)能顯著改善了網(wǎng)絡的性能。NDRAM的結(jié)構見圖3.1.3(d),這是一個通常的聯(lián)系記憶模型的主要結(jié)構,但是附加了一個新穎探測器,這個探測器是用來計算輸入和輸出間的聯(lián)系的。</p><p>  圖3.1.3(d) NDRAM模型結(jié)構</p><p>  學習環(huán)境偏差是一個合理的行為,是一種先前不平等。許多證據(jù)表明人類大腦能執(zhí)行一系列認知行為,而不受學

52、習環(huán)境偏差影響。無導師學習的聯(lián)結(jié)主義神經(jīng)網(wǎng)絡被用于計算機科學中的機器學習和心理學中的模擬人類認知,但是并不清楚他們對先前不平等是否敏感。從模擬記憶的方式上來分,神經(jīng)網(wǎng)絡模型可分為競爭網(wǎng)絡模型和周期聯(lián)想記憶模型。在仿真實驗中,設置兩個環(huán)境,一個是簡單環(huán)境,實驗RAM模型和競爭神經(jīng)網(wǎng)絡模型,另一個環(huán)境是復雜學習環(huán)境,實驗NDRAM模型和ART1模型。通過對這兩大類四個模型的仿真可知,競爭網(wǎng)絡模型難以適應學習環(huán)境偏差,而周期聯(lián)想記憶模型則能很

53、好的適應這一偏差。</p><p>  3.1.4計算機認知神經(jīng)學模型[6]</p><p>  計算認知神經(jīng)學模型,簡稱作CCN模型?,F(xiàn)代的神經(jīng)網(wǎng)絡理論在模擬感知時是作為一種媒介,他們的優(yōu)點是與人類大腦運行機制部分相似,包括離散表示、連續(xù)流動、把記憶模擬為突觸強度等。但是這些模擬方法也有缺點,那就是他們不能完全模擬或盡可能模擬人類大腦的認知過程,構建模型結(jié)構時,他們首先考慮的是如何優(yōu)化

54、自身的模型結(jié)構。</p><p>  CCN結(jié)構如圖3.1.4,這個網(wǎng)絡結(jié)構是Ashby和Crossley在2011年提出的,粗大的黑色箭頭表示信息的流動。從圖中可知,模型由早期訓練和晚期訓練激活,在TAN學習前和其學習后的時期中,環(huán)境參數(shù)是得到獎勵的。最初,刺激不能引起TAN停止,因此MSN不能由刺激激起。結(jié)果,在刺激開始后pre-SMA/SMA單元的激勵比暫時不會改變。訓練進行一段時間后,TAN由刺激停止,他

55、釋放了MSN。這允許MSN接收刺激,并引起激勵比在pre-SMA/SMA增加超過基準值 (SMA=補充動力區(qū)域,VA=丘腦的前腹部核心,VL=丘腦的后腹部核心,GPi=蒼白球內(nèi)部,MSN=中等有刺神經(jīng)元,TAN=tonically丘腦。</p><p>  圖3.1.4 計算機認知神經(jīng)學模型結(jié)構</p><p>  CNN模型與傳統(tǒng)的人工神經(jīng)網(wǎng)絡認知模型相比,其有許多優(yōu)點,第一,CCN模型

56、增加了在模擬行為的數(shù)量限制。Newell提出認知理論在根本上是不能被數(shù)據(jù)證明的。增加神經(jīng)行為的數(shù)量能減少候選分類模式的數(shù)量,而且能減少分類的不均勻。第二,CNN模型能顯示出在名義上并不相關的神經(jīng)科學行為間的關系。第三,在很多情況下,研究神經(jīng)科學本質(zhì)會導致驚奇行為的發(fā)現(xiàn),而這些行為很難通過一個純粹的認知方法來追溯。第四,CNN模型使用符合聚集運作的方法來模擬實驗,聚集運作方法能起到預測行為和神經(jīng)科學數(shù)據(jù)的作用。</p>&l

57、t;p><b>  3.2 模擬注意力</b></p><p>  3.2.1注意運動推導模型[7]</p><p>  注意力瞬脫是一種指示注意力的暫態(tài)現(xiàn)象,注意力瞬脫即當注意力集中在第一個目標,并出現(xiàn)第二個目標時,注意力在注意第二目標過程中發(fā)生的瞬間注意力脫離現(xiàn)象,研究表明注意力由第一個目標向第二個目標轉(zhuǎn)移的時間是200-500ms。以腦部為基礎的神經(jīng)模型在

58、模擬注意力時通常都是采用研究注意力瞬脫現(xiàn)象,即觀察模型在刺激下對兩個不同目標的反應。</p><p>  注意運動推導模型,簡稱CODAM模型,其由以下幾個模塊組成:1,目標映射,作用是告知注意力信號的調(diào)節(jié)過程。2,注意力控制信號產(chǎn)生器(IMC),在工程控制方法中表達為反向模型控制器。3,目標模塊,分為內(nèi)在目標模塊和外在目標模塊,其用作偏離注意力的運動信號。4,工作記憶模塊,功能是作為注意力刺激的評價器。5,注意

59、力控制信號的推導解除器,可以通過對比注意力控制信號和目標信號快速產(chǎn)生對錯誤信號的修正,還可以在早期幫助呼叫工作記憶站加快,引入注意力刺激的過程。6,監(jiān)視器,可以通過計算目標信號和預測信號的值產(chǎn)生一個錯誤信號。模型結(jié)構見圖3.2.1,開環(huán)表示目標,閉環(huán)表示干擾項或隱藏項,黑線表示興奮連接,灰線表示抑制連接。</p><p>  圖3.2.1 CODAM模型結(jié)構</p><p>  CODAM

60、模型原本是用于分析發(fā)動機控制的模型,最近才發(fā)現(xiàn)其也可用于模擬注意力。我們可以利用CODAM模型模擬注意力瞬脫現(xiàn)象,這可以幫助我們指定出現(xiàn)象的抑制過程, CODAM模型探索方法可以更為詳細指明的注意力過程,這是采用模型模擬注意力并研究注意力過程的模型,他擴展了第二目標對仿真影響的理解,闡述了多刺激對仿真的影響和刺激信號間的關系。</p><p><b>  3.3 模擬情緒</b></p

61、><p>  3.3.1DUONN模型[8]</p><p>  情緒DUO神經(jīng)網(wǎng)絡(DUONN)是在認知系統(tǒng)水平上通過調(diào)查情緒集合來在機器上模擬人類感知的網(wǎng)絡模型。相對于其他情緒DUO神經(jīng)網(wǎng)絡而言,其情緒數(shù)據(jù)更多是在他的結(jié)構中完成加工的,這使得他能調(diào)節(jié)更多情緒強度(情緒記憶)。模型能使用輸入模式或視覺刺激推測出情緒反應,進而能影響網(wǎng)絡的學習和決定過程。</p><p>

62、;  DUONN由三層組成:一個輸入層,一個包含有DUO神經(jīng)元的隱含層(假如需要可以增加更多隱含層),一個輸出層。除此之外,網(wǎng)絡還附加有非加工性質(zhì)的偏斜神經(jīng)元和情緒神經(jīng)元。其中DUO神經(jīng)元有兩個嵌入式神經(jīng)元:背部神經(jīng)元和腹部神經(jīng)元,他們各自對應認知和情緒的數(shù)據(jù)加工過程。模型結(jié)構見圖3.3.1。</p><p>  圖3.3.1 DUONN模型結(jié)構</p><p>  流入DUONN的輸入信

63、號是唯一的,這是模擬大腦視覺皮質(zhì)中數(shù)據(jù)從一個共同源流動的結(jié)果。數(shù)據(jù)進入隱含層的DUO神經(jīng)元是分成兩部分,腹部情緒流和背部認知流,兩種數(shù)據(jù)流是相同輸入的不同版本。腹部情緒流包含輸入的整體特征,由腹部神經(jīng)元加工處理,背部認知流包含輸入圖像的局部特征,由背部神經(jīng)元加工處理。兩個情緒參數(shù),焦慮和信心,分別作用在隱含層和輸出層中,表示情緒強度(情緒記憶),情緒強度與在新任務和做決定時的情緒神經(jīng)元模擬和計算的神經(jīng)學習相聯(lián)系。</p>

64、<p>  DUONN模型現(xiàn)在可以應用在面部識別方面,由于模型對整體信號和局部信號是分行處理,使得在面部識別中,對整體面部信息和局部面部特征處理中,能同步進行,這提高了面部識別的準確性和效率。</p><p><b>  3.4 模擬語言</b></p><p>  3.4.1語法理解模型[9]</p><p>  在認知神經(jīng)科學中有

65、一個中心問題,那就是在大腦中有著怎樣的離散神經(jīng)網(wǎng)絡,使得他不僅能在語言學習和加工過程中使用,也能在非語言認知順序進行學習。</p><p>  盡管特別的神經(jīng)網(wǎng)絡結(jié)構限制于已知的人類語言系統(tǒng),但當前研究還是在嘗試匯集這些基于句子加工模型的數(shù)據(jù)。通過收集這些數(shù)據(jù),能學習與人相同的語言,并能完成人工語法任務。為了理解這個任務,系統(tǒng)應該首先能從文字中區(qū)別出功能字。許多大腦潛在學習的行為和時間現(xiàn)象都要求模型能在一個分離方

66、式下加工字,而且模型應該能在一個工作記憶中存儲字,然后可以在非標準命令中通過功能條款取得這個記憶,重組字將通過功能字引導到主題任務。模型能標準執(zhí)行非到時任務,包括產(chǎn)生新句子。</p><p>  模型結(jié)構見圖3.4.1,標記的每一個部件對應于一個5*5的漏積分神經(jīng)元,閉環(huán)和開環(huán)分類字的雙加工流分別對應STG和MTG。輸入句子在周期網(wǎng)絡BA47中編碼,在STG中安排閉環(huán)分類字的時間表。BA45從MTG得到到開環(huán)分類

67、字。BA44/6是一個工作記憶編碼服務器,通過在BA47-caudate中推測閉環(huán)分類字基于語法的順序,產(chǎn)生在‘預測、代理、目標、接受’的作用。</p><p>  圖3.4.1 語法理解模型結(jié)構</p><p>  語法理解模型在現(xiàn)實中,主要應用于句子創(chuàng)造和修正。由于模型運行原則符合大腦對句子創(chuàng)造、修正的加工機制,使其相對于其他句子創(chuàng)造修正工具而言,修正的句子的準確性更高,更易于閱讀。&

68、lt;/p><p>  3.4.2數(shù)字空間模型[10]</p><p>  在人類認知中,數(shù)字與空間的關系研究也是一個重要的分支。數(shù)字表示與空間表示是相互作用的,例如如當數(shù)字是從1到9時,人注意的空間是從左到右。對于數(shù)字表示和空間表示間相互作用的本質(zhì)現(xiàn)在還很難完全弄懂,但是我們已經(jīng)知道了空間形狀不能完全用固定的數(shù)字來表示(雖然空間表示和數(shù)字表示是相互分離的)。在現(xiàn)實中,數(shù)字表示和空間表示的相互

69、關系是會受到物理特征和文化因素(如從小教育中,從左到右的數(shù)字是從1到9)的影響,所以在模擬這個現(xiàn)象時,我們忽略這兩種因素的作用。</p><p>  模型結(jié)構見圖3.4.2,模型分為四層,分布為輸入層、表示層、決定層和響應層,如圖可見。最下面兩個單元是輸入層,這兩個單元映射到表示層中,表示為空間(hLIP)和數(shù)字(地點代碼)。決定層包含有三個不同的任務單元,分別為平價判斷、數(shù)字對比、數(shù)字命名。在決定層中,給定層的

70、單元數(shù)量反應的是每一個任務的數(shù)量(在相等評價中的奇數(shù)和偶數(shù)、在數(shù)字對比中的大小、在數(shù)字命名中的一到九)。在表示層中有兩個單元,各自是左邊響應和右邊響應。模型中,決定層和響應層會同時處理為數(shù)字命名的任務。</p><p>  圖3.4.2 數(shù)字空間模型結(jié)構</p><p>  數(shù)字空間模型是以早期模型假設為基礎的,他可以使用計算機仿真顯示研究中的解釋數(shù)據(jù),其也可以模擬數(shù)字和空間的相互作用過程

71、,并在解釋健康人和病人的數(shù)據(jù)上十分有效。</p><p>  3.4.3多時間周期神經(jīng)網(wǎng)絡模型[11]</p><p>  多時間周期神經(jīng)網(wǎng)絡,簡稱MTRNN,他能通過自我組織作用來反射句子結(jié)構和字的特征,并最終識別、產(chǎn)生和確認句子。模型能依靠最初狀態(tài)(產(chǎn)生階段)來控制句子產(chǎn)生,其中的初始狀態(tài)能從目標句子(識別階段)計算出來。模型還可以修正在句子中的一些置換錯誤,通過每訓練一次就迭代一個確

72、定的可能方式,可以增加模型錯誤信息,以此可以達到訓練改進句子執(zhí)行過程的目的。</p><p>  在MTRNN模型中,神經(jīng)元最快速變化的是“符號”,變化較慢的是“字”,變化最慢的是“句子”。MTRNN模型是Yamashita和Tani提出的,他們最初將其使用在機器人的發(fā)動機傳感器流動學習任務上。近來發(fā)現(xiàn)這個模型能幫助我們克服語言整合的問題:當使用一個無注釋句子(每個句子表示為一個字符順序)訓練模型時,模型的自組織

73、作用會反射并分層語言作文。因此,哪怕沒有任何先前關于詞典和語法的知識,我們模型也可以識別、產(chǎn)生和修正句子,故模型能作為順序產(chǎn)生器和識別器。</p><p>  模型結(jié)構見圖3.4.3,語言學習模型有三個神經(jīng)元組,分別為輸入和輸出組(IO)、快速上下文組(CF)、慢速上下文組組成(CS)。IO有30個代碼,其中的26個代碼分別對應26個字母符號,四個其他符號則分別對應空格、時間、逗號、問號。CF由40個代碼組成,C

74、S由11個代碼組成,模型的a(t)、b(t)……是在時間t的信號神經(jīng)元的激勵值,句子信號表示為連續(xù)的輸入輸出神經(jīng)元激勵。</p><p>  圖3.4.3 多時間周期神經(jīng)網(wǎng)絡模型結(jié)構</p><p>  模型用于收集、整理和改錯句子,句子的符號、詞語和語法都可以進行修改整理。與之前的語法理解模型的區(qū)別在于,語法理解模型在修改句子語法錯誤上更突出,而MTRNN的功能更全面。</p>

75、;<p>  4 人工神經(jīng)網(wǎng)絡模擬認知現(xiàn)象現(xiàn)狀</p><p>  近些年來,利用人工神經(jīng)網(wǎng)絡模擬認知科學中的現(xiàn)象是神經(jīng)網(wǎng)絡研究的一個重要分支。利用人工神經(jīng)網(wǎng)絡模擬認知現(xiàn)象,主要從記憶、學習、語言、注意力和情緒等幾個方面進行模擬。在模擬認知現(xiàn)象時,對神經(jīng)網(wǎng)絡模型設計中在理論上有兩種趨勢,一種是嚴格按照生物認知現(xiàn)象的作用方式來設計模型結(jié)構,另一種是在生物認知現(xiàn)象作用方式的基礎上,再加上實際非認知理論

76、來設計模型結(jié)構。兩種理論都符合聯(lián)結(jié)主義的理論思想,只是前一種是完全符合生物性,后一種是部分符合生物性部分符合實際性。</p><p>  嚴格按照生物認知現(xiàn)象設計模型的理論,在本文論述模型中,R-nets模型和計算機認知科學模型是依照這種理論設計的。模型完全符合生物性,能使模型處理認知信息時最大限度的模擬生物認知加工過程,這對理解認知現(xiàn)象很有好處。</p><p>  文章中絕大多數(shù)模型是

77、同時按照生物認知現(xiàn)象和實際非認知理論聯(lián)合設計模型的,如語法理解模型、數(shù)字空間模型等。這些模型部分符合生物性,只能部分模擬認知現(xiàn)象的加工過程,所以對認知現(xiàn)象的理解也只是部分。但是這類模型的好處時,特別適合實際應用領域。由于借鑒了非生物的經(jīng)典理論,其實際應用更可靠。</p><p>  其實之所以會出現(xiàn)這兩種不同的設計理論,主要是因為現(xiàn)代認知科學對生物認知機制,特別是人類認知機制了解得不完全??茖W家們對認知機制的研究

78、基本上還是停留在觀察特定認知現(xiàn)象出現(xiàn)后,腦部部分區(qū)域的活躍情況上。這類研究只能部分分析認知現(xiàn)象的形成機制,卻缺乏在整體上對認知過程的把握。而在應用中的,特別是模擬認知的人工神經(jīng)網(wǎng)絡模型中,只有部分機制的研究是不足以設計出好的模型結(jié)構的,故許多模型只能在采用已知認知機制的基礎上,借鑒實際應用中的非認知理論思想的方法。</p><p>  未來一段時間內(nèi),認知機制和非認知理論聯(lián)合設計神經(jīng)網(wǎng)絡模型的方法還會繼續(xù)采用,但

79、是隨著科學界對認知現(xiàn)象的理解不斷深入,人工神經(jīng)網(wǎng)絡模型將更多的會從生物性角度設計模型,并最終完全模擬出人類大腦對認知現(xiàn)象處理的全過程,雖然這還有很長的一段路要走。</p><p>  5 人工智能中關于人工神經(jīng)網(wǎng)絡和認知科學的國際會議</p><p>  對于人工神經(jīng)網(wǎng)絡模擬認知科學,乃至對人工智能研究而言,國際會議已經(jīng)成為研究者交流研究成果的舞臺。在國際會議上,研究者們可以展示最新的研

80、究成果、發(fā)表新的論文、與國際同行們就同一議題進行探討。然而,由于會議的開會時間和會議招待經(jīng)費有限,并不是所有的研究者參加會議,也不是所有參加會議的研究者都能發(fā)表所有的研究成果。對于會議論文的選題、會議演講的要求,不同主題的會議是有不同的要求,這就要求我們在參加會議和在向會議投稿前必須了解會議投稿和會議演講的要求。</p><p>  全世界關于人工智能研究的著名會議有幾十個,其中涉及人工神經(jīng)網(wǎng)絡或認知科學的有10

81、個左右。會議通常是一年一次,也有部分是兩年一次。關于會議投稿,會議組織者都要求投稿者必須投遞電子檔PDF格式的稿件, 其頁數(shù)和格式也有這嚴格的限制,這些投稿要求可以在會議的組織網(wǎng)站上查出。</p><p>  正如前文說言,要想向會議投稿,必須先了解會議的投稿要求。在投稿要求中,會議討論主題是篩選投稿文章的重要因素,只有符合會議的投稿主題才有可能得到會議的采納。下面列舉了五個人工智能領域中涉及人工神經(jīng)網(wǎng)絡或認知科

82、學的著名會議,并附帶各個會議的投稿主題。</p><p>  5.1 國際人工智能協(xié)會年會</p><p>  國際人工智能協(xié)會年會,其前身為美國人工智能協(xié)會年會(the Association for the advancement of Artificial intelligence ,簡稱AAAI),每一年或兩年舉行一次,國際人工智能協(xié)會致力于推動針對智能行為本質(zhì)的科學研究。<

83、/p><p>  AAAI主題:代理系統(tǒng)和多代理系統(tǒng),認知建模和人機互動,常識推理,計算機視覺,滿足約束,搜索和優(yōu)化,進化計算,游戲和互動娛樂,信息搜索,集成和提取,知識表示和推理,機器學習和數(shù)據(jù)挖掘,模型系統(tǒng),跨學科AI,自然語言處理,計劃與調(diào)度,概率推理,機器人,網(wǎng)站和信息系統(tǒng)。</p><p>  5.2 神經(jīng)信息處理系統(tǒng)年會</p><p>  神經(jīng)信息處理系統(tǒng)

84、(neural information processing system,簡稱NIPS),每一年舉行一次,地點固定在加拿大溫哥華,會議后第二年出版論文集,討論方向為神經(jīng)科學和機器學習。</p><p>  NIPS主題:算法與結(jié)構(包括神經(jīng)網(wǎng)絡),應用(包括文本/網(wǎng)絡分析),腦功能成像(包括認知神經(jīng)學),認知科學和人工智能(包括學習,記憶,推理,解決問題,自然語言處理和神經(jīng)心理學),控制和強化學習(包括決定和控

85、制,探索,規(guī)劃),硬件技術,學習理論,神經(jīng)科學(包括研究處理和信息傳輸?shù)睦碚摵蛯嶒?,生物神?jīng)元網(wǎng)絡),語言與信號處理(包括聽覺感知,語言模型),視覺處理(生物和機器視覺,目標探測和識別,視覺心理物理,視覺場景分析和解釋)</p><p>  5.3 國際神經(jīng)網(wǎng)絡年會</p><p>  國際神經(jīng)網(wǎng)絡年會(international joint conference on neural ne

86、twork,簡稱IJCNN),是由國際神經(jīng)網(wǎng)絡協(xié)會(international neural network society)和IEEE計算機智能協(xié)會(IEEE computational intelligence society)主辦的。</p><p>  IJCNN主題:神經(jīng)網(wǎng)絡理論或模型,模式識別,計算機神經(jīng)科學,認知模型,機器視覺,認知模型,進化神經(jīng)系統(tǒng),集成智能,腦部機器接口,數(shù)據(jù)挖掘,神經(jīng)力學,感知

87、網(wǎng)絡,神經(jīng)信息學,組織系統(tǒng),神經(jīng)工程學,神經(jīng)硬件,神經(jīng)網(wǎng)絡應用,計算機生物學,傳感器網(wǎng)絡,人工生活。</p><p>  5.4 國際人工智能聯(lián)合會議</p><p>  國際人工智能聯(lián)合會議(international joint conference on artificial intelligence,簡稱IJCAI),在單數(shù)年召開。</p><p>  IJ

88、CAI主題:代理系統(tǒng)和多代理系統(tǒng),機器學習(包括系統(tǒng)學習,案例推理,數(shù)據(jù)挖掘,進化計算,神經(jīng)網(wǎng)絡,學習理論),跨學科主題和應用(包括AI和自然科學,認知建模,人機互動)計劃與調(diào)度(包括實時規(guī)劃),機器人和視覺(包括行為和控制,認知機器人,感知和知覺),不確定人工智能,網(wǎng)絡和知識為基礎的信息系統(tǒng)(包括信息提取,集成和檢索,知識獲取,語義網(wǎng)絡)</p><p>  5.5 國際人工智能工具會議</p>

89、<p>  國際人工智能工具會議(international conference on tools with artificial intelligence,簡稱ICTAI),由IEEE主辦,一年舉辦一次。</p><p>  ICTAI主題:AI算法,人工智能研究領域:生物信息學,電子商務AI,游戲AI,信息保證AI,物流AI,醫(yī)學AI,多媒體系統(tǒng)AI,機器人AI,軟件工程AI,案例推理,認知造型,

90、約束規(guī)劃,協(xié)同軟件代理,模糊或不確定下的推理,進化計算,混合智能控制系統(tǒng),信息檢索,智能教學培訓系統(tǒng),智能網(wǎng)絡代理,知識系統(tǒng),知識提取,知識管理與共享,知識表示和推理,機器學習,自然語言處理,神經(jīng)網(wǎng)絡,計劃與調(diào)度,視覺/圖像處理,語言處理。</p><p><b>  6 未來</b></p><p>  對于神經(jīng)網(wǎng)絡研究,未來主要有三個研究方向:1、多學科綜合。2

91、、神經(jīng)網(wǎng)絡硬件實驗。3、從人工神經(jīng)網(wǎng)絡到人工神經(jīng)系統(tǒng)[2]。</p><p>  對于認知科學研究,未來的主要發(fā)展方向是:1、從對大腦部分區(qū)域功能研究到大腦整體功能的研究。2、從部分認知運行機制的研究到認知能力綜合性研究[12-14]。</p><p>  在研究認知科學中,人工神經(jīng)網(wǎng)絡模型必將扮演更大的角色。通過對認知科學的了解,改進人工神經(jīng)網(wǎng)絡模型和其理論,又通過人工神經(jīng)網(wǎng)絡模型增進對

92、認知的研究。未來,認知科學和人工神經(jīng)網(wǎng)絡必將相互促進著前進。</p><p><b>  7 結(jié)論</b></p><p>  用人工神經(jīng)網(wǎng)絡模擬認知行為在近年逐漸發(fā)展成趨勢,隨著對人類認知行為的本質(zhì)研究的不斷深入,人工神經(jīng)網(wǎng)絡模型也更趨于生物性,透過模型也能更多發(fā)現(xiàn)認知規(guī)律。在人工神經(jīng)網(wǎng)絡發(fā)展史上,Perceptron(感知機)、Adaptive Resonanc

93、e Theory(自適應共振理論ART)、Self-Organizing feature map(自組織特征映射網(wǎng)絡)、Hopfield網(wǎng)絡、Boltzman machine(波爾茲曼機)、Bidirectional Associative Memory(BAM,雙向聯(lián)想記憶網(wǎng))等模型對人工神經(jīng)網(wǎng)絡有著指導性的作用。</p><p>  我們闡述了R-nets、DUONN、CODAM、MTRNN、語法理解模型、數(shù)

94、字空間模型、CNN、競爭網(wǎng)絡、周期聯(lián)想記憶模型、NDANN這十個模型,這些模型是近年來模擬認知現(xiàn)象新成果。雖然他們只是模擬認知中的某一部分(如模擬學習),但是這些模型使我們對認知有了更深入的了解。作者還總結(jié)了現(xiàn)代人工神經(jīng)網(wǎng)絡生物性和非生物性的研究關系。文章后對五個著名的國際會議的會議主題作出了介紹,這也表明了現(xiàn)代人工神經(jīng)網(wǎng)絡模擬認知的發(fā)展方向。</p><p><b>  致謝</b><

95、;/p><p>  感謝徐箭雨老師對本次畢業(yè)設計的支持,感謝所有在畢業(yè)設計期間幫助我的同學。</p><p><b>  參考文獻</b></p><p>  [1] 楊行峻,鄭君里. 人工神經(jīng)網(wǎng)絡與盲信號處理[M]. 北京:清華大學出版社. 2003.1.</p><p>  [2] 韓力群. 人工神經(jīng)網(wǎng)絡理論、設計

96、及應用[M]. 北京:化學工業(yè)出版社出版社. 2007.7.</p><p>  [3] Vogel, D.D.. A neural network model of memory and higher cognitive functions[J]. International Journal of Psychophysiology, 2005. 55(1): p. 3-21.</p><p

97、>  [4] Chartier, S., P. Renaud, and M. Boukadoum. A nonlinear dynamic artificial neural network model of memory[J]. New Ideas in Psychology, 2008. 26(2): p. 252-277.</p><p>  [5] Hélie, S., S. Char

98、tier, and R. Proulx. Are unsupervised neural networks ignorant? Sizing the effect of environmental distributions on unsupervised learning[J]. Cognitive Systems Research, 2006. 7(4): p. 357-371.</p><p>  [6]

99、Gregory Ashby, F. and S. Helie. A tutorial on computational cognitive neuroscience: Modeling the neurodynamics of cognition[J]. Journal of Mathematical Psychology, 2011. 55(4): p. 273-289.</p><p>  [7] Fra

100、gopanagos, N., S. Kockelkoren, and J.G. Taylor. A neurodynamic model of the attentional blink[J]. Cognitive Brain Research, 2005. 24(3): p. 568-586.</p><p>  [8] Khashman, A.. Modeling cognitive and emotion

101、al processes: A novel neural network architecture[J]. Neural Networks, 2010. 23(10): p. 1155-1163.</p><p>  [9] Dominey, P.F., T. Inui, and M. Hoen. Neural network processing of natural language: II. Toward

102、s a unified model of corticostriatal function in learning sentence comprehension and non-linguistic sequencing[J]. Brain and Language, 2009. 109(2–3): p. 80-92.</p><p>  [10] Chen, Q. and T. Verguts. Beyond

103、 the mental number line: A neural network model of number–space interactions[J]. Cognitive Psychology, 2010. 60(3): p. 218-240.</p><p>  [11] Hinoshita, W., et al.. Emergence of hierarchical structure mirro

104、ring linguistic composition in a recurrent neural network. Neural Networks[J], 2011. 24(4): p. 311-320.</p><p>  [12] 李翔. 從復雜到有序----神經(jīng)網(wǎng)絡智能控制理論新進展[M]. 上海交通大學出版社. 2006.4.</p><p>  [13] 姚錫凡,李雯. 人

105、工智能技術及應用[M]. 北京:中國電力出版社. 2008.</p><p>  [14] 羅四維. 大規(guī)模人工神經(jīng)網(wǎng)絡理論基礎[M]. 北京:清華大學出版社;北京交通大學出版社. 2004.2.</p><p><b>  附錄1</b></p><p>  人工神經(jīng)網(wǎng)絡的認知科學應用狀況的綜述</p><p>  

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論